德國(guó)奧斯納布呂克大學(xué)認(rèn)知科學(xué)研究所的研究人員,利用沉浸式虛擬現(xiàn)實(shí)技術(shù),對(duì)人類(lèi)駕車(chē)時(shí)作出的道德決策和行為做了一場(chǎng)實(shí)驗(yàn),并將研究結(jié)果發(fā)布在了《行為神經(jīng)科學(xué)前沿》雜志上。
研究人員將實(shí)驗(yàn)情景設(shè)定在有霧的一天,實(shí)驗(yàn)參與者模擬駕駛一輛汽車(chē)行駛在典型的郊區(qū)道路上,此時(shí)他們會(huì)遇到突然間出現(xiàn)的無(wú)生命物體、動(dòng)物或者人類(lèi),他們必須要在這幾種對(duì)象之中選擇撞上哪個(gè)、躲避哪個(gè)。參與者的行為數(shù)據(jù)被統(tǒng)計(jì)模型獲取,并推導(dǎo)出一系列規(guī)則。這項(xiàng)研究表明,在不可避免的交通碰撞事故發(fā)生時(shí),對(duì)于人類(lèi)、動(dòng)物或無(wú)生命物體的生命價(jià)值,人類(lèi)是有倫理判斷的,而這些判斷能夠通過(guò)算法建立模型。
該論文的第一作者萊昂·蘇特菲爾德說(shuō),到目前為止,人們普遍認(rèn)為,人類(lèi)的道德決策往往是根據(jù)事發(fā)時(shí)情境來(lái)確定的,因此它不能用算法進(jìn)行模擬或描述。“但我們的發(fā)現(xiàn)恰恰相反,在進(jìn)退兩難的情境下,實(shí)驗(yàn)參與者會(huì)依據(jù)對(duì)人類(lèi)、動(dòng)物或無(wú)生命物體生命價(jià)值的判斷來(lái)進(jìn)行反應(yīng),根據(jù)人類(lèi)這種生命價(jià)值觀,我們可以建立人類(lèi)行為的模型,然后通過(guò)算法植入機(jī)器中。
目前,人們對(duì)于無(wú)人駕駛汽車(chē)和其他人工智能機(jī)器的行為仍有爭(zhēng)論,這項(xiàng)研究結(jié)果則會(huì)對(duì)這些爭(zhēng)論產(chǎn)生重要影響,尤其在發(fā)生不可避免的意外情況下。比如,德國(guó)聯(lián)邦交通運(yùn)輸和數(shù)字基礎(chǔ)設(shè)施(BMVI)最近發(fā)布了20條與無(wú)人駕駛汽車(chē)相關(guān)的倫理原則。其中一條是,如果一個(gè)孩子突然沖到馬路上,為了躲避孩子,汽車(chē)就必須撞到人行道,但此時(shí)人行道上恰好有一個(gè)成年人。那么,無(wú)人駕駛汽車(chē)會(huì)選擇撞上孩子,因?yàn)樗麑?dǎo)致了這次重大風(fēng)險(xiǎn),所以失去了得救的資格。但是否所有人都會(huì)做出這樣的選擇?
研究人員高登·皮帕說(shuō),既然現(xiàn)在已經(jīng)知道機(jī)器能作出類(lèi)似人類(lèi)的道德決策,那么趕緊對(duì)這些倫理問(wèn)題進(jìn)行討論是非常必要的。“我們需要討論,自動(dòng)駕駛系統(tǒng)是否應(yīng)該接受這種價(jià)值判斷,如果應(yīng)該,它是否應(yīng)該模仿人類(lèi)的決策,又是否應(yīng)該遵循人類(lèi)的道德理論呢?如果答案是肯定的,那么萬(wàn)一它的判斷出現(xiàn)錯(cuò)誤,誰(shuí)又應(yīng)該負(fù)責(zé)任呢?”
“首先,我們需要決定是否將道德價(jià)值觀植入機(jī)器的行為準(zhǔn)則中來(lái)。其次,如果植入的話,機(jī)器是否應(yīng)該像人類(lèi)一樣行事?”研究人員彼得·柯尼希解釋說(shuō)。
研究人員表示,現(xiàn)在,無(wú)人駕駛汽車(chē)只是個(gè)開(kāi)始,醫(yī)療機(jī)器人和其他人工智能設(shè)備正變得越來(lái)越普遍。他們警告說(shuō),人類(lèi)現(xiàn)在處于一個(gè)新時(shí)代的開(kāi)始,在這個(gè)時(shí)候,我們要制定明確的規(guī)則,否則機(jī)器將擺脫人類(lèi)的束縛,自己作出決定。
更多資訊請(qǐng)關(guān)注PC BASED頻道