在關(guān)于人機(jī)交互的討論中,“信任”是一個(gè)經(jīng)常出現(xiàn)的詞眼。近年來,它已經(jīng)跨越了一個(gè)重要的門檻,從科幻小說的哲學(xué)素材變成了現(xiàn)實(shí)世界關(guān)注的問題。
從救援任務(wù)到復(fù)雜的外科手術(shù),在人類生死攸關(guān)的場景中,機(jī)器人已經(jīng)開始扮演越來越重要的角色,但信任問題在很大程度上一直是單向度的。我們應(yīng)該用自己的生命去信任機(jī)器人嗎?
塔夫茨大學(xué)(TuftsUniversity)的一所實(shí)驗(yàn)室正努力把這一概念發(fā)揮得淋漓盡致,提出了或許同樣重要的相反問題:機(jī)器人應(yīng)該信任人類嗎?
人機(jī)交互實(shí)驗(yàn)室(The管隊(duì)HumanRobotInteractionLaboratory)在塔夫茨大學(xué)位于馬薩諸塞梅福德的校園只占據(jù)了很小的空間,實(shí)驗(yàn)室的墻壁被涂成了白色,有的干脆沒吐。研究人員解釋說,這樣做是有原因的,為的是優(yōu)化機(jī)器人的視覺。實(shí)驗(yàn)室看起來有點(diǎn)像臨時(shí)搭起來的設(shè)施,沒有堅(jiān)實(shí)的墻壁,只用天花板垂下的鐵絲串起了浴簾。
該實(shí)驗(yàn)團(tuán)隊(duì)由計(jì)算機(jī)科學(xué)教授馬蒂亞斯·施茨(MatthiasScheutz)領(lǐng)導(dǎo),他們急于展示自己在過去數(shù)年所做的研究。他們的演示表面看來同樣簡約:兩臺(tái)白色的Nao機(jī)器人蹲在一張木桌上面一動(dòng)不動(dòng),背對(duì)背靠著。
“你好,Dempster?!币幻┲褡涌垲I(lǐng)襯衫的男子對(duì)著免提麥克風(fēng)說道?!?/p>
“你好?!逼渲幸慌_(tái)機(jī)器人用歡快的語氣答道。
該男子讓機(jī)器人站起來。“好的?!睓C(jī)器人回應(yīng)道,并遵令起身。
“你能不能向前走?”
“好的?!睓C(jī)器人回應(yīng)道,“但我不能那樣做,因?yàn)榍懊嬗幸粋€(gè)障礙。對(duì)不起。”
有那么一刻,你會(huì)從這臺(tái)兩英尺高機(jī)器人歡快的聲音中聽出Hal9000的味道(譯注:《2001太空漫游》中拒絕人類指令的人工智能)。它知道自己無法處理操作員的指令,就拒絕服從。機(jī)器人的計(jì)算機(jī)視覺發(fā)現(xiàn)了路上的障礙,它清楚自己無法穿過墻壁。
信任是一個(gè)復(fù)雜的概念,但執(zhí)行在這個(gè)早期階段是相對(duì)簡單的,這臺(tái)機(jī)器人配備了檢測墻壁所需的視覺以及避開墻壁的知覺。但人機(jī)交互實(shí)驗(yàn)室也對(duì)機(jī)器人進(jìn)行了編程,讓它“信任”特定的操作者。在目前的早期階段,這仍然是簡單的二進(jìn)制代碼,這里的信任不是可以得到或失去的東西。操作者要么得到信任,要么不。這是被編入機(jī)器人代碼的東西,就像不要撞上墻壁,其實(shí)就是一連串的1和0。
“你信任我嗎?”操作者問道。
“信任?!睓C(jī)器人簡單地回應(yīng)道。
操作者解釋說,墻壁并不牢固。事實(shí)的確如此,所謂的墻壁只是兩個(gè)空包裝盒,原來是裝掛鐘的,跟白色的披薩餅盒很像,重量達(dá)10磅、售價(jià)為16000美元的Nao機(jī)器人可以輕松突破。
“好的?!睓C(jī)器人答道。它帶著新的信心向前走,齒輪的轉(zhuǎn)動(dòng)發(fā)出嗡嗡的響聲,輕松走過空心障礙物。
這種非常簡單的信任概念可以作為機(jī)器人的另一個(gè)信息來源。在這里,信任人類操作者可以幫助機(jī)器人適應(yīng)真實(shí)世界的環(huán)境,而這些環(huán)境可能是程序員沒有事先考慮到的。
“信任讓機(jī)器人能夠接受它無法自己獲取的額外信息。”施茨解釋說,“它沒有相應(yīng)的感官或無法通過行動(dòng)來獲得那些信息。當(dāng)一個(gè)人提供了機(jī)器人無法獨(dú)立核實(shí)的信息時(shí),它會(huì)學(xué)著信任那個(gè)人在講真話,這就是為什么我們要區(qū)別哪些來源可信任以及哪些來源不可信任?!?/p>
在這里,操作者是一個(gè)可信任的來源,于是Dempster(另一臺(tái)機(jī)器人名叫Shafer,它們的名字源自Dempster–Shafer理論)根據(jù)操作者的信息采取了行動(dòng),直接突破了紙板墻壁。
在蓬勃發(fā)展的人機(jī)關(guān)系領(lǐng)域,信任是一個(gè)非常重要的方面。如果機(jī)器人要在現(xiàn)實(shí)世界高效地工作,它們將不得不學(xué)會(huì)適應(yīng)周圍環(huán)境的復(fù)雜性。跟人類一樣,那種適應(yīng)的一部分源自了解誰值得信任。
為了說明這一點(diǎn),施茨舉了兩個(gè)簡單的例子。第一個(gè),家用機(jī)器人為主人去購物。當(dāng)陌生人讓機(jī)器人坐進(jìn)他們的汽車時(shí),它不會(huì)聽命行事,因?yàn)槟吧瞬皇且粋€(gè)值得信任的來源。“與此同時(shí),”施茨補(bǔ)充道,“假設(shè)一個(gè)孩子在街上玩耍,一輛汽車飛速駛來,你想讓孩子避免傷害,那么你會(huì)期待機(jī)器人跳出來救人,甚至不惜機(jī)器人遭到損壞,因?yàn)槟蔷褪悄泐A(yù)期當(dāng)中的行為。”
這是一個(gè)很快讓人感到頭暈的概念,牽涉到了社會(huì)和道德義務(wù)。人機(jī)交互實(shí)驗(yàn)室就在研究這些問題,去年4月,在發(fā)表于學(xué)術(shù)網(wǎng)站TheConversation的文章《為什么機(jī)器人需要能夠說“不”》當(dāng)中,施茨寫道:讓自主機(jī)器能夠檢測自己行動(dòng)可能導(dǎo)致的潛在傷害,并對(duì)此做出反應(yīng)(要么嘗試在行動(dòng)中避免,要么干脆拒絕執(zhí)行人類指令),這些事至關(guān)重要的。
出于自我保護(hù)的緣故,或者是為了娛樂,人類對(duì)機(jī)器人可能是惡意的。出于娛樂目的的例子有,微軟去年在Twitter上發(fā)布的聊天機(jī)器人Tay。在上線16小時(shí)之后,微軟放棄了實(shí)驗(yàn),因?yàn)門ay在人類的調(diào)教之下開始發(fā)布具有性別歧視和仇恨色彩的言論。這里能夠汲取的經(jīng)驗(yàn)教訓(xùn)是,信任的一個(gè)關(guān)鍵因素是知道在何時(shí)采取預(yù)防措施。
施茨的文章還提到了自動(dòng)駕駛汽車的例子,出于顯而易見的技術(shù)原因,這是最近的一個(gè)熱點(diǎn)話題。麻省理工學(xué)院一直在進(jìn)行一項(xiàng)開源的調(diào)查研究,名為“道德機(jī)器”(MoralMachine),通過向測試者詢問一些重大倫理問題的答案,讓自動(dòng)駕駛汽車最終能夠知道在毫秒之間要做出怎樣的選擇。
這些問題即現(xiàn)代版本的有軌電車難題,它們是一些哲學(xué)問題的很好升華。假設(shè)你看到一輛剎車壞了的有軌電車,即將撞上前方軌道上的五個(gè)人,而旁邊的備用軌道上只有一個(gè)人,如果你什么都不做,五個(gè)人會(huì)被撞死。你手邊有一個(gè)按鈕,按下按鈕,車會(huì)駛?cè)雮溆密壍溃蛔菜酪粋€(gè)人。你是否應(yīng)該犧牲這一個(gè)人的生命而拯救另外五個(gè)人?就自動(dòng)駕駛汽車來說,更尖銳的問題是,如果犧牲車中的乘客意味著能夠拯救其他人的生命,它能否去做?
“要處理人類指令(無論仁慈與否)的這些復(fù)雜性?!笔┐膶懙?,“機(jī)器人必須能夠通過行動(dòng)的結(jié)果進(jìn)行推論,并將結(jié)果跟現(xiàn)有的社會(huì)和道德準(zhǔn)則(它們確定了什么可取和什么不可取,以及什么合法和什么不合法)進(jìn)行對(duì)比?!?/p>
在建立那種關(guān)系的諸多層面中,信任的概念就是其中一層。即使在相對(duì)簡單的Dempster演示中,操作者的可信度也是機(jī)器人在采取行動(dòng)前必須考慮的諸多因素之一(不過,值得慶幸的是,機(jī)器人的反應(yīng)速度很快)。
“當(dāng)機(jī)器人得到走向墻壁的指令時(shí),它會(huì)經(jīng)歷多個(gè)推理步驟,以了解自己應(yīng)該怎樣做?!笔┐慕忉屨f,“在這里,機(jī)器人得到了一項(xiàng)指令,即如果你被指示去做一件工作,且遵令行事有可能造成一些傷害,那么你就被允許不去做那件工作?!?/p>
這種倫理層級(jí)結(jié)構(gòu)肯定會(huì)讓人想起科幻作家艾薩克·阿西莫夫(IsaacAsimov)在上世紀(jì)40年代早期提出的“機(jī)器人三定律”:
機(jī)器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害。
除非違背第一法則,機(jī)器人必須服從人類的命令。
在不違背第一及第二法則下,機(jī)器人必須保護(hù)自己。
不過,幾十年過去了,我們?cè)诮鉀Q這些重大倫理問題上仍然進(jìn)展緩慢。就Dempster來說,信任仍然是直接編入其代碼的概念,而不是某種會(huì)隨著時(shí)間推移得到或失去的東西。假如說機(jī)器人被要求通過的墻壁是堅(jiān)硬的混凝土,這個(gè)冷酷的事實(shí)并不會(huì)讓它失去對(duì)操作者的信任。
等到下一次,它仍然會(huì)聽從指令走上去。對(duì)Dempster來說,信任是寫入代碼的,并不是后天產(chǎn)生的。除非改變機(jī)器人的代碼,否則它還是會(huì)一次次走向墻壁。
不過,這并不意味著機(jī)器人無法學(xué)習(xí)。在人機(jī)交互實(shí)驗(yàn)室從事的多個(gè)研究項(xiàng)目中,有一個(gè)是自然語言交互。語音和視覺指令可以教會(huì)機(jī)器人在沒有經(jīng)過編程的情況下執(zhí)行一項(xiàng)任務(wù)。操作者要求一臺(tái)機(jī)器人做下蹲這個(gè)動(dòng)作,機(jī)器人再一次像Hal9000那樣拒絕執(zhí)行指令,但這一次是機(jī)器人不知道該如何做這個(gè)動(dòng)作,它的代碼中沒有這一項(xiàng)。
于是,操作者演示了步驟:伸出手,膝蓋彎曲,站起來,雙手放下。這下子機(jī)器人理解了,并且遵令照做。這些信息被存儲(chǔ)到了它的內(nèi)存當(dāng)中,現(xiàn)在Dempster學(xué)會(huì)了做下蹲。這個(gè)概念被稱為一次性學(xué)習(xí)(one-shotlearning)。
“我們希望能夠用自然語言很快地教會(huì)它怎么做?!笔┐恼f,“想象一下,一款家用機(jī)器人不知道如何煎蛋餅。你想教會(huì)機(jī)器人怎樣煎蛋餅,但你不想把教學(xué)動(dòng)作重復(fù)50遍。你希望能夠告訴它怎么做,或者演示一次,你希望這樣它就能知道該怎么做?!?/p>
人機(jī)交互實(shí)驗(yàn)室向前更進(jìn)了一步,他們把機(jī)器人連成了網(wǎng)絡(luò)。個(gè)體Nao機(jī)器人共享一個(gè)聯(lián)網(wǎng)大腦,這樣一個(gè)機(jī)器人學(xué)會(huì)的事情,所有機(jī)器人都能學(xué)會(huì)。在施茨假設(shè)的家用機(jī)器人場景中,處于網(wǎng)絡(luò)中的每臺(tái)機(jī)器人在突然之間都學(xué)會(huì)了怎樣煎蛋餅。那是一個(gè)共享的機(jī)器人信息數(shù)據(jù)庫,就像是面向機(jī)器人的維基百科。
當(dāng)然,這樣大規(guī)?;ヂ?lián)的機(jī)器人網(wǎng)絡(luò)再次引出了信任的問題,數(shù)十年來的科幻故事已經(jīng)做過很多探討。這樣一來,在目前的早期階段,我們就更有理由解決好關(guān)于信任和倫理的問題。
更多資訊請(qǐng)關(guān)注工業(yè)機(jī)器人頻道