自動(dòng)駕駛的道德悖論之所以出現(xiàn)是因?yàn)檫@一問(wèn)題在自動(dòng)駕駛時(shí)代本質(zhì)是一個(gè)算法問(wèn)題。是背后的編程人員根據(jù)現(xiàn)實(shí)經(jīng)濟(jì)收益與成本考量的理性選擇。也即意味著編程人員需要為無(wú)人駕駛的各種問(wèn)題承擔(dān)責(zé)任。而事實(shí)是,無(wú)人駕駛能否被人類(lèi)接受,其核心障礙是人類(lèi)是否可以接受一個(gè)可能犯錯(cuò)的機(jī)器。如果人類(lèi)接受無(wú)人駕駛,或者日后出現(xiàn)的智能機(jī)器人,并允許他們進(jìn)入人類(lèi)社會(huì)與我們共處,我們?cè)诮邮芩麄兲峁┑谋憷耐瑫r(shí),也必須接受它們可能的犯錯(cuò)。
文丨AutoR智駕小語(yǔ)吳鵬飛
無(wú)人駕駛在推動(dòng)一個(gè)產(chǎn)業(yè)成長(zhǎng)的同時(shí),對(duì)于無(wú)人駕駛?cè)绾芜M(jìn)入人類(lèi)社會(huì)正在成為一個(gè)變得迫切的問(wèn)題。
如果我們把具有無(wú)人駕駛功能的汽車(chē)稱(chēng)之為輪式機(jī)器人的話,對(duì)于這樣新進(jìn)入人類(lèi)出行的新生物種,引發(fā)的將不止是法律適用的問(wèn)題,同時(shí)會(huì)牽涉不少的倫理與道德問(wèn)題。
而其中的一項(xiàng)道德悖論是當(dāng)無(wú)人駕駛汽車(chē)在沒(méi)有選擇只能選擇一方碰撞時(shí),到底如何選擇。
在這個(gè)月末的8月23日,繼美國(guó)對(duì)無(wú)人駕駛出臺(tái)首部法規(guī)一年之后,德國(guó)交通運(yùn)輸與數(shù)字基礎(chǔ)建設(shè)部下屬的道德委員會(huì)公布了一套被稱(chēng)為世界上首部的自動(dòng)駕駛道德準(zhǔn)則,供國(guó)內(nèi)發(fā)展自動(dòng)駕駛技術(shù)的車(chē)商參考。道德委員會(huì)經(jīng)過(guò)評(píng)估報(bào)告,由科學(xué)家和法律專(zhuān)家共同提出15條自駕系統(tǒng)的駕駛決策道德準(zhǔn)則,準(zhǔn)則的核心原則是:生命應(yīng)該始終優(yōu)先于財(cái)產(chǎn)或動(dòng)物。
德國(guó)運(yùn)輸部長(zhǎng)亞歷山大·多布林德(DanDobrindt)在一份聲明中說(shuō):"人與人之間的相互作用在數(shù)字化和自主系統(tǒng)的時(shí)代引起了新的道德問(wèn)題,倫理委員會(huì)已經(jīng)開(kāi)展了開(kāi)創(chuàng)性的工作,并制定了世界上第一個(gè)自動(dòng)駕駛準(zhǔn)則,我們正在實(shí)施這些指引"。
準(zhǔn)則規(guī)定無(wú)人駕駛汽車(chē)的系統(tǒng)必須要不惜一切代價(jià)的考慮把人的生命放在首位,也就是說(shuō)當(dāng)事故已經(jīng)無(wú)法避免時(shí),無(wú)人駕駛汽車(chē)可能就要選擇撞向建筑等障礙物,而有著車(chē)體的保護(hù),這樣的判斷更容易獲得兩全的結(jié)果。另外規(guī)定監(jiān)視系統(tǒng),如黑盒子,應(yīng)該記錄活動(dòng),以便以后確定事故中誰(shuí)處于錯(cuò)誤的方面:司機(jī)或技術(shù)。
報(bào)告規(guī)定的軟件設(shè)計(jì)人員的15條規(guī)則,雖然這些準(zhǔn)則涵蓋了簡(jiǎn)單的決定,比如把司機(jī)的生活優(yōu)先于松鼠或郵箱,但還有其他更細(xì)微的問(wèn)題仍然留給人的職權(quán)范圍。報(bào)告說(shuō):"真正的困境決定,例如人與人之間的決定,取決于實(shí)際的具體情況,納入受影響的各方的"不可預(yù)測(cè)的"行為。"因此,他們不能被明確地標(biāo)準(zhǔn)化,也不能被編程,使他們?cè)趥惱砩鲜遣蝗葜靡傻摹?
這些規(guī)范以安全、人性尊嚴(yán)、人身選擇自由及數(shù)據(jù)自主性為重點(diǎn)。
其中明確,人類(lèi)生命一定是首要任務(wù),在事故無(wú)可避免的情況下,人的生命要比其他動(dòng)物、建物都還重要。另外,當(dāng)碰到"直走會(huì)撞死1個(gè)老人,但救2個(gè)小孩;急轉(zhuǎn)彎會(huì)撞死2個(gè)小孩,但救一個(gè)老人"這種著名的道德難題時(shí),規(guī)范中指出,自駕系統(tǒng)不得以任何年齡、性別、種族、是否殘疾等條件,作為"犧牲"和"獲救"的判斷選擇標(biāo)準(zhǔn)。因?yàn)槿祟?lèi)的生命都是平等的。
事實(shí)上這一人類(lèi)的生命都是平等的判斷,將會(huì)加劇自動(dòng)駕駛系統(tǒng)的選擇難度。
同時(shí)這部規(guī)則意味著它可能事實(shí)上無(wú)法解決自動(dòng)駕駛的道德悖論,還會(huì)導(dǎo)到更多沖突的發(fā)生。
這一原則并沒(méi)有解決問(wèn)題。
因?yàn)樵诂F(xiàn)實(shí)世界,不僅僅是中國(guó),同命不同價(jià)其實(shí)是一個(gè)普遍現(xiàn)象,這是現(xiàn)實(shí)世界殘酷的一面。
一個(gè)簡(jiǎn)單的事例是,在保險(xiǎn)公司眼中,一個(gè)九旬老人與一個(gè)二十歲的青壯年價(jià)值是完全不同的。
在不同的主體看來(lái),生命的價(jià)值具有不對(duì)等的經(jīng)濟(jì)價(jià)值。
2015年,谷歌自動(dòng)駕駛項(xiàng)目的負(fù)責(zé)人當(dāng)時(shí)表示,谷歌的汽車(chē)將無(wú)法決定誰(shuí)是一個(gè)更好的人,在道德上,有不可避免的碰撞損失。相反,該公司正在努力保護(hù)最脆弱的人。
而保護(hù)脆弱的人意味著必須對(duì)人,不同的人作出劃分,對(duì)一個(gè)人的生命價(jià)值與一群人的生命價(jià)值作出比對(duì)。
這也即是早已存在的由哲學(xué)家PhilippaFoot提出的"電車(chē)難題"。
這一難是是用來(lái)批判倫理哲學(xué)中的主要理論,特別是功利主義,它的內(nèi)容是這樣的:
五個(gè)無(wú)辜的人被綁在電車(chē)軌道上。一輛失控的電車(chē)朝他們駛來(lái),并且片刻后就要碾壓到他們。幸運(yùn)的是,你可以拉一個(gè)拉桿,讓電車(chē)開(kāi)到另一條軌道上。但是在那另一條軌道上也綁了一個(gè)人。你有兩個(gè)選擇:1.不拉桿,五人死于你手下。2.拉桿,一人死亡。你會(huì)怎么做呢?
PhilippaFoot所批判的功利主義,其實(shí)也是很多人自認(rèn)為正確的,即大部分道德決策都是根據(jù)"為最多的人提供最大的利益"的原則。
這一難題即以一個(gè)功利主義者的觀點(diǎn)來(lái)看,明顯的選擇應(yīng)該是拉拉桿,拯救五個(gè)人只殺死一個(gè)人。
但是功利主義的批判者認(rèn)為,一旦拉了拉桿,你就成為一個(gè)不道德行為的同謀--你要為另一條軌道上單獨(dú)的一個(gè)人的死負(fù)部分責(zé)任。
然而,其他人認(rèn)為,你身處這種狀況下就要求你要有所作為,你的不作為將會(huì)是同等的不道德??傊?,不存在完全的道德行為,這就是重點(diǎn)所在。
這一難題在不同的時(shí)代有不同的演化版本,在自動(dòng)駕駛時(shí)代,美國(guó)弗吉尼亞州交通創(chuàng)新與研究中心科學(xué)家諾亞·古道爾曾提出一種場(chǎng)景:假設(shè)一輛自動(dòng)駕駛汽車(chē)馬上就要撞到障礙物,它可以選擇向左邊或右邊急轉(zhuǎn)彎,但一邊"目標(biāo)"是戴頭盔的摩托車(chē),另一邊的"目標(biāo)"是不敢戴頭盔的摩托車(chē)手。
按照撞擊優(yōu)化算法的原則,無(wú)人駕駛汽車(chē)會(huì)選擇撞向戴頭盔的摩托車(chē)手,因?yàn)閺慕y(tǒng)計(jì)數(shù)據(jù)來(lái)看,不戴頭盔的車(chē)手更有可能死于車(chē)禍。
不過(guò)這一算法明顯存在歧視,遵守規(guī)則的戴頭盔車(chē)手卻遭到了懲罰,這一定程度上還是違反了自動(dòng)駕駛的道德準(zhǔn)則。根據(jù)德國(guó)給出的道德準(zhǔn)則,這個(gè)問(wèn)題似乎得到了答案:無(wú)人駕駛汽車(chē)撞向障礙物。
然而,新的問(wèn)題又來(lái)了,車(chē)內(nèi)人的安全就一定能夠得到保障嗎?萬(wàn)一車(chē)內(nèi)不止一人,并且還有兒童,相對(duì)于騎摩托的車(chē)手,誰(shuí)的安全更重要?從辯證的角度來(lái)看,"同命不同價(jià)"是無(wú)人駕駛需要考慮的重要一點(diǎn),而非一句生命第一位就能含糊概括的。多條生命之間該選誰(shuí)?德國(guó)這條道德準(zhǔn)則并沒(méi)有給出答案。
自動(dòng)駕駛的道德悖論之所以出現(xiàn)是因?yàn)檫@一問(wèn)題在自動(dòng)駕駛時(shí)代本質(zhì)是一個(gè)算法問(wèn)題。
是背后的編程人員根據(jù)現(xiàn)實(shí)經(jīng)濟(jì)收益與成本考量的理性選擇。
也即意味著編程人員需要為無(wú)人駕駛的各種問(wèn)題承擔(dān)責(zé)任。
但如何規(guī)避這一悖論,對(duì)不同人的生命做出排序是一個(gè)無(wú)法避免的問(wèn)題,而目前建立在駕駛行為數(shù)據(jù)上的UBI保險(xiǎn),其背后考量的也是如此,并已經(jīng)做為一種商業(yè)模式開(kāi)始運(yùn)轉(zhuǎn)。
在政治正確層面,生命至高無(wú)尚,每個(gè)人的生命都是不可替代的,但一個(gè)殘酷的現(xiàn)實(shí)是同命不同價(jià)是現(xiàn)實(shí)存在的。
即便不單純指出在中國(guó)遇到車(chē)禍因城市戶口與農(nóng)村戶口的不同,導(dǎo)致的賠償金額不同,即便在西方法治社會(huì),撞向老人和兒童,所遭遇的賠償也是不同的。
但是在自動(dòng)駕駛程序設(shè)計(jì)中,如果將賠償金額不同做為一種被動(dòng)碰撞的選擇設(shè)定,則無(wú)異于一種預(yù)先設(shè)計(jì)的謀殺,其面對(duì)的社會(huì)質(zhì)疑無(wú)疑是巨大的。
一方面程序的設(shè)計(jì)者與無(wú)人駕駛汽車(chē)的擁有者都將承擔(dān)巨大的道德壓力。
那么機(jī)器人三原則可以解決這一困境嗎?
1940年,科幻作家阿西莫夫提出為保護(hù)人類(lèi),對(duì)機(jī)器人做出了三項(xiàng)規(guī)定。
第一條:機(jī)器人不得傷害人類(lèi),或看到人類(lèi)受到傷害而袖手旁觀;
第二條:機(jī)器人必須服從人類(lèi)的命令,除非這條命令與第一條相矛盾;
第三條:機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條相矛盾。
按照可無(wú)人駕駛的汽車(chē)其實(shí)就是輪式機(jī)器人的判斷,這三原則似乎符合無(wú)人駕駛的系統(tǒng)設(shè)定。
機(jī)器人三原則其實(shí)暗含了這樣的思維,如果情況緊急,為了保護(hù)人類(lèi)可以犧牲自己。
不過(guò)與一般的機(jī)器人不同,為了保護(hù)行人,無(wú)人駕駛汽車(chē)可以犧牲自己會(huì)產(chǎn)生一個(gè)更大的悖論:坐在車(chē)內(nèi)的司機(jī)可能也會(huì)受到傷害,做為一件商品,做為理性人誰(shuí)會(huì)去購(gòu)買(mǎi)一件可能傷害購(gòu)買(mǎi)者本身的汽車(chē)?
奔馳在這一問(wèn)題上立場(chǎng)確是十分鮮明:優(yōu)先保護(hù)車(chē)內(nèi)乘客安全,為此甚至可以傷害弱小的兒童。
2016年,德國(guó)梅賽德斯-奔馳公司澳大利亞分公司高管戴維·麥卡錫的話報(bào)道,按照無(wú)人駕駛汽車(chē)的編程思路,如果在行駛途中面臨一個(gè)道德困境,要么撞到馬路上的一名兒童,要么急打方向盤(pán)以避免撞到兒童、但可能撞到其他車(chē)道的汽車(chē)以致本車(chē)人員傷亡,那么無(wú)人駕駛汽車(chē)會(huì)"果斷"選擇優(yōu)先保護(hù)車(chē)內(nèi)人員、寧愿撞到兒童。
麥卡錫說(shuō),一般人遇到這種情況,會(huì)立即作出踩剎車(chē)、打方向盤(pán)以避免撞人的反應(yīng),"我們的系統(tǒng)也是如此,但還會(huì)考慮更多因素,例如其他車(chē)道是否有汽車(chē)行駛?如果本車(chē)采取避讓舉動(dòng),有可能會(huì)撞上其他車(chē)道的汽車(chē),結(jié)果導(dǎo)致本車(chē)偏離方向、反而沖向路人"。
按照麥卡錫的說(shuō)法,無(wú)人駕駛汽車(chē)能在危急關(guān)頭瞬間判斷出"最佳選擇",從而將損傷降至最低。
奔馳的選擇在一定程度上與2016年美國(guó)的一項(xiàng)調(diào)查有某種程度上的契和之處。在這一調(diào)查中,受訪者普遍認(rèn)為無(wú)人駕駛汽車(chē)不應(yīng)為拯救一名路人而犧牲車(chē)內(nèi)人員。
但當(dāng)問(wèn)卷中被拯救的路人數(shù)量增多,愿意犧牲車(chē)內(nèi)人員以拯救路人的受訪者比例隨之升高。
當(dāng)被拯救的路人數(shù)量增至10人,受訪者普遍贊同應(yīng)優(yōu)先拯救路人。但與此同時(shí),這些受訪者表示自己更加不愿意購(gòu)買(mǎi)無(wú)人駕駛汽車(chē)。
自動(dòng)駕駛的這一道德悖論無(wú)論將生命放在第一位還是第二位,在現(xiàn)實(shí)世界看來(lái)都將是一個(gè)無(wú)解的問(wèn)題。
而其實(shí)這一問(wèn)題如何設(shè)定,一個(gè)前提即是不能由生產(chǎn)廠商自行設(shè)定,無(wú)人駕駛的算法設(shè)定既不可違背法律,也必須建立在公序良俗之上,而由政府設(shè)定某些原則是必須的。
德國(guó)交通部出臺(tái)的首部無(wú)人駕駛道德準(zhǔn)則是及時(shí)的,也是負(fù)責(zé)任的,盡管目前他可能會(huì)催生更多的混亂,類(lèi)似于正確的廢物話。
事實(shí)上,無(wú)人駕駛的道德準(zhǔn)則僅憑一句生命第一還遠(yuǎn)遠(yuǎn)不夠。程序沒(méi)有思想,只能執(zhí)行,所以無(wú)人駕駛車(chē)遇到的突發(fā)情況都需要工程師進(jìn)行理性的分析,通過(guò)收集數(shù)據(jù)和軟件算法給出最安全的方案,保證最大的存活率。
也許大數(shù)據(jù)最終會(huì)給無(wú)人駕駛一個(gè)在道德選擇時(shí)最合理的結(jié)果。
不過(guò)在探討這一看似無(wú)解的悖論時(shí),它其實(shí)體現(xiàn)了人類(lèi)的內(nèi)心有一個(gè)無(wú)妄之念,即希望人類(lèi)可以通過(guò)窮盡一切可能,讓機(jī)器不犯錯(cuò),零犯錯(cuò)。
而事實(shí)是,無(wú)人駕駛能否被人類(lèi)接受,其核心障礙是人類(lèi)是否愿意接受一個(gè)可能犯錯(cuò)的機(jī)器。
如果人類(lèi)接受無(wú)人駕駛,或者日后出現(xiàn)的智能機(jī)器人,并允許他們進(jìn)入人類(lèi)社會(huì)與我們共處,我們?cè)诮邮芩麄兲峁┑谋憷耐瑫r(shí),也必須接受它們可能的犯錯(cuò)。
手機(jī)都可能死機(jī),機(jī)器人怎么可能不犯錯(cuò)呢?
如果我們可以接受一個(gè)可能會(huì)犯錯(cuò)的無(wú)人駕駛汽車(chē),這背后其實(shí)就是一個(gè)責(zé)任問(wèn)題了。
這也意味著無(wú)人駕駛汽車(chē)的擁有者將承擔(dān)因道德選擇而導(dǎo)致最終后果的責(zé)任。
也即解決無(wú)人駕駛道德選擇的問(wèn)題,不再使之是一個(gè)算法問(wèn)題而是一個(gè)經(jīng)濟(jì)賠償問(wèn)題。
而為此那些宣揚(yáng)無(wú)人駕駛時(shí)代是零傷亡的生產(chǎn)商們應(yīng)該更改一下他們向人類(lèi)許下的空頭支票。雖然90%的車(chē)禍歸咎于人為失誤,但無(wú)人駕駛并不代表完全沒(méi)有車(chē)禍,零傷亡是一個(gè)虛妄的想像,現(xiàn)實(shí)世界誰(shuí)都會(huì)犯錯(cuò),即便是一臺(tái)比人類(lèi)還要聰明的機(jī)器。
更多資訊請(qǐng)關(guān)注汽車(chē)制造頻道