Uber的自動(dòng)駕駛車輛上個(gè)月在美國發(fā)生撞人致死案件,當(dāng)時(shí)一篇報(bào)導(dǎo)“自動(dòng)駕駛車們,請(qǐng)先跑完仿真再上路測試好嗎?”;在文章發(fā)表之后,高通(Qualcomm)的人工智能(AI)研發(fā)業(yè)務(wù)開發(fā)負(fù)責(zé)人RickCalle做出回應(yīng),問了我以下的問題:
Uber撞人事件是第一場悲劇,我們?cè)撊绾巫屗兂勺詈笠粓??我非常確定他們也用了仿真軟件,但大家是否仿真了傳感器故障的情況、因?yàn)榫嚯x使得光達(dá)(Lidar)采樣稀疏的效應(yīng),還有其他不可預(yù)測的事件?
Calle的問題指出了測試自動(dòng)駕駛車輛絕非易事,要驗(yàn)證自駕車不只是能運(yùn)作,各種功能還必須安全運(yùn)作,需要前所未有的工程嚴(yán)謹(jǐn)度;測試人員不僅得確定需要模擬的內(nèi)容,也要確保模擬過程使用了高保真度的感測數(shù)據(jù)。接著必須擬定測試計(jì)劃,以便為車輛供貨商提供足夠可證明的安全性能指針。
不過,在了解模擬/測試方法的細(xì)節(jié)之前,知道一件事情很重要──我們今日所知的“自動(dòng)駕駛”仍然不成熟。
美國卡內(nèi)基美隆大學(xué)(CarnegieMellonUniversity)教授PhilipKoopman在最新的一篇部落格文章中寫道,在Uber事故導(dǎo)致行人ElaineHerzberg身亡的并非全自動(dòng)駕駛車輛,她是受害者,是因?yàn)橐惠v仍在開發(fā)階段的“未經(jīng)實(shí)證的測試車”,還有“應(yīng)該要確保技術(shù)故障不會(huì)導(dǎo)致傷害的那個(gè)安全駕駛”。
讓我們一起想想…過去一年半以來,科技業(yè)者(還有媒體)忙著促成全自動(dòng)駕駛車輛的即將實(shí)現(xiàn),卻漠視了無數(shù)揮之不去的、關(guān)于自動(dòng)駕駛的“未知”;這里的“未知”,我指的是自動(dòng)駕駛車輛所衍生出的、科技產(chǎn)業(yè)幾乎還未開始處理的議題,更不用說提出因應(yīng)策略。
我們?cè)儐栠^數(shù)個(gè)產(chǎn)業(yè)界消息來源──從算法開發(fā)者、測試專家,到嵌入式系統(tǒng)軟件工程師,他們?nèi)哉J(rèn)為開發(fā)“安全的”自動(dòng)駕駛車輛是一個(gè)不確定的議題或挑戰(zhàn),雖然他們的回答各異,卻都坦承自駕車還有很多議題,有待來自科技與汽車產(chǎn)業(yè)的回答。
預(yù)測性感知
自駕車技術(shù)開發(fā)商DeepScale執(zhí)行長ForrestIandola在談到Uber事故時(shí)表示,除非Uber公布行車紀(jì)錄器以外的數(shù)據(jù)──包括車上的雷達(dá)與攝影機(jī)在事故發(fā)生時(shí)所看到的──外界人士可能永遠(yuǎn)不會(huì)知道事故發(fā)生原因:“我們需要透明的信息,不然很難知道他們的感知系統(tǒng)、動(dòng)作規(guī)劃或是地圖繪制等功能究竟哪里出錯(cuò)。”
DeepSale是一家成立于2015年的新創(chuàng)公司,專門為先進(jìn)駕駛輔助系統(tǒng)(ADAS)與自動(dòng)駕駛車輛開發(fā)深度學(xué)習(xí)感知軟件;根據(jù)該公司已經(jīng)學(xué)到的經(jīng)驗(yàn),Iandola解釋,大多數(shù)為自駕車設(shè)計(jì)的感知系統(tǒng)是產(chǎn)業(yè)界與學(xué)術(shù)界“精心打造”,舉例來說,光達(dá)已經(jīng)可以清楚辨識(shí)3D目標(biāo)物的形狀,同時(shí)自駕車的“語義”(semantic)感知在物體分類方面也有所改善。
不過仍缺乏的,是“預(yù)測性感知”(predictiveperception);Iandola指出:“預(yù)測性感知技術(shù)的研發(fā)幾乎還沒開始?!?/p>
舉例來說,如果自駕車不能預(yù)測某目標(biāo)物在5秒后的可能位置,就不能決定是否該煞車或轉(zhuǎn)向,甚至是在看到該目標(biāo)物體后?!霸谶\(yùn)動(dòng)規(guī)劃與預(yù)測性信息之間需要一個(gè)標(biāo)準(zhǔn)接口,”Iandola表示:“如果這個(gè)問題沒有解決,我的說要實(shí)現(xiàn)Level4自駕車真的很困難?!?/p>
極端案例能模擬嗎?
在公開道路上測試自動(dòng)駕駛車輛之前的模擬顯然非常重要,但更重要的是實(shí)際上如何模擬。安全自動(dòng)駕駛車輛系統(tǒng)開發(fā)商EdgeCaseResearch共同創(chuàng)辦人暨執(zhí)行長MichaelWagner表示,對(duì)自駕車開發(fā)者來說有一個(gè)壞消息是,盡管累積了數(shù)十億英哩的模擬駕駛里程,也不一定能涵蓋自駕車可能遭遇的所謂“極端案例”或“邊緣案例”。
在過去幾年,深度學(xué)習(xí)芯片供貨商耗費(fèi)大量資源,宣傳深度學(xué)習(xí)算法可能實(shí)現(xiàn)全自動(dòng)駕駛系統(tǒng),這種算法可能讓自駕車發(fā)展出類似人類的能力,能在不需要知道每一種可能情況的前提下識(shí)別不同圖形。
依賴深度學(xué)習(xí)的自動(dòng)駕駛系統(tǒng)能被訓(xùn)練,發(fā)展出類似人類的能力(來源:DriveSafely)
不過來自反面的聲音是,當(dāng)機(jī)器學(xué)習(xí)或深度學(xué)習(xí)系統(tǒng)遭遇以往未見過的事物──被稱為長尾(longtail)或離群值(outlier)──會(huì)被“嚇到”;而人類駕駛在面臨實(shí)在異常的狀況時(shí),至少會(huì)有的反應(yīng)是覺得奇怪,他們知道在某種程度上需要有所反應(yīng),而機(jī)器則可能不會(huì)記錄極端異常的情況,會(huì)繼續(xù)往前走。
Wagner表示,EdgeCaseResearch專注于建立這樣的極端情況,以納入仿真軟件平臺(tái);他坦承一切還在早期開發(fā)階段,該公司的平臺(tái)代號(hào)為“全像”(Hologram),目標(biāo)是將實(shí)體車輛所行駛過的每一英哩轉(zhuǎn)化為數(shù)百萬計(jì)的可能場景,盡可能快速且安全地根除“未知的未知”。
要為自動(dòng)駕駛車輛建立這種“極端案例”并不簡單;Wagner指出,在歐洲有一個(gè)名為Pegasus的項(xiàng)目利用了一種數(shù)據(jù)庫方法來確保自動(dòng)駕駛安全,但挑戰(zhàn)在于該項(xiàng)目的某部份場景,可能對(duì)神經(jīng)網(wǎng)絡(luò)來說不一定重要。
Wagner表示,也就是說,我們其實(shí)并不知道神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)現(xiàn)什么難題或不容易處理的情況,更別說為何神經(jīng)網(wǎng)絡(luò)會(huì)有那樣的行為模式:“隨機(jī)性對(duì)于建立異常案例非常重要,我們利用實(shí)際的場景,在影像上做不少變化,然后在我們的Hologram平臺(tái)上進(jìn)行細(xì)微修改。”
他將Hologram形容為一個(gè)試驗(yàn)專案:“我們正在向投資者推銷這個(gè)平臺(tái),以擴(kuò)大它的規(guī)模?!倍詣?dòng)駕駛系統(tǒng)帶給汽車業(yè)者的最大沖擊,就是軟件內(nèi)容不斷膨脹…