全球第一起自動(dòng)駕駛殺人案,「犧牲」的只有人
本文來(lái)源:極客公園
本文作者:趙子瀟
在極端情況下,如何判定技術(shù)與人的過(guò)錯(cuò)?
Uber 的案例給出了一個(gè)比較清晰的答案,只是這答案不一定正確。
9 月 16 日,曾經(jīng)轟動(dòng)一時(shí)的「自動(dòng)駕駛殺人案」有了初步判決結(jié)果。美國(guó)亞利桑那州馬里科帕縣的檢察官表示,坐在駕駛位的安全員 Rafaela Vasquez 被控過(guò)失殺人罪,但她所在的公司 Uber 在這起事件中不會(huì)面臨刑事指控。
第一起自動(dòng)駕駛致死案事故現(xiàn)場(chǎng)|網(wǎng)絡(luò)
這是全世界范圍內(nèi)第一起自動(dòng)駕駛汽車(chē)撞人致死的交通事故,由此也引發(fā)了行業(yè)當(dāng)中不小的震動(dòng)。當(dāng)然,比起行業(yè)影響,這起事故本身反映的情況更值得我們討論:人與機(jī)器共同犯下的錯(cuò)誤,一定要由人來(lái)承擔(dān)所有罪過(guò)嗎?
當(dāng)「安全員」變成「背鍋員」
雖然案件的最終判決結(jié)果還未確定(10 月 27 日案件將舉行初審),但安全員將面臨兩年半的有期徒刑。目前,當(dāng)事人 Rafaela Vasquez 拒絕認(rèn)罪。
距離事發(fā)已經(jīng)過(guò)去了兩年半的時(shí)間,我們先來(lái)做個(gè)簡(jiǎn)單回顧:
2018 年 3 月,Rafaela Vasquez 作為安全員乘坐的 Uber 自動(dòng)駕駛汽車(chē)在亞利桑那州進(jìn)行自動(dòng)駕駛測(cè)試時(shí),撞到了一位推著自行車(chē)橫穿道路的女性,致其死亡。
根據(jù)美國(guó)國(guó)家運(yùn)輸安全委員會(huì)(National Transportation Safety Board,以下簡(jiǎn)稱(chēng) NTSB)調(diào)查結(jié)果顯示,當(dāng)時(shí)車(chē)輛時(shí)速為 62km/h,而道路限速 50km/h。
在整起事故當(dāng)中,安全員并未擔(dān)負(fù)起她應(yīng)盡的責(zé)任。眾所周知,在當(dāng)下自動(dòng)駕駛測(cè)試中,絕大多數(shù)車(chē)輛都會(huì)配備 1-2 名安全員,如果車(chē)輛出現(xiàn)意外,安全員需要隨時(shí)接管。但是在本案中,安全員 Vasquez 并沒(méi)有專(zhuān)注在道路上,而是時(shí)不時(shí)低頭看右下方中控臺(tái)上的手機(jī)。在行車(chē)記錄的視頻當(dāng)中,事故前半秒鐘她才抬起頭來(lái),但為時(shí)已晚。
車(chē)內(nèi)安全員視角,事發(fā)前半秒安全員才發(fā)現(xiàn)道路前方的行人|YouTube
如果安全員不在車(chē)上看手機(jī)分心的話,事故是完全可以避免的。這是警方得出的結(jié)論,因此判定結(jié)果把責(zé)任全部推給了安全員。
「殺人的是人,不是機(jī)器?!谷绻罱K判決就是這樣的結(jié)果,難免有些草率了。
在 NTSB 的調(diào)查報(bào)告中,Uber 的自動(dòng)駕駛技術(shù)明顯存在缺陷。在撞到行人前的 5.6 秒時(shí),Uber 的自動(dòng)駕駛解決方案(Autonomous Driving Solution,以下簡(jiǎn)稱(chēng) ADS)已經(jīng)檢測(cè)到行人,但從未準(zhǔn)確地將她歸類(lèi)為「人」。幾秒鐘之內(nèi),自動(dòng)駕駛系統(tǒng)把它識(shí)別為未知物體,然后識(shí)別為車(chē)輛,然后變成自行車(chē),卻一直沒(méi)有自動(dòng)剎車(chē)。
等到自動(dòng)駕駛判定為即將發(fā)生碰撞時(shí),機(jī)器已無(wú)法及時(shí)剎車(chē)。這又是系統(tǒng)的一個(gè) bug 類(lèi)設(shè)計(jì):它沒(méi)有考慮到突然發(fā)生碰撞的可能性,因而沒(méi)有設(shè)計(jì)緊急制動(dòng),而是純依靠安全員的干預(yù)來(lái)避免碰撞。
車(chē)外視角,直到事故發(fā)生自動(dòng)駕駛系統(tǒng)也沒(méi)有識(shí)別出行人|YouTube
Uber 的自動(dòng)駕駛技術(shù)當(dāng)時(shí)也不算多先進(jìn)。加州交管局 DMV 之前發(fā)布的年度接管報(bào)告表示,Uber 的自動(dòng)駕駛汽車(chē)在測(cè)試過(guò)程中需要安全員頻繁接管,平均每 37km 就要進(jìn)行一次人工干預(yù),對(duì)比目前業(yè)界公認(rèn)第一的自動(dòng)駕駛公司 Waymo,后者在 2018 年每 1000 英里測(cè)試人工接管的次數(shù)為 0.09。
更不可思議的是,Uber 還停用了車(chē)輛本身的前方碰撞預(yù)警和自動(dòng)緊急制動(dòng)系統(tǒng),一輛本身就配備安全系統(tǒng),加裝眾多傳感器的自動(dòng)駕駛系統(tǒng)的智能汽車(chē),最依賴(lài)的結(jié)果還是人。
北京市安理律師事務(wù)所汽車(chē)和人工智能業(yè)務(wù)負(fù)責(zé)人何姍姍在接受極客公園(ID:geekpark)采訪時(shí)表示,Uber 的自動(dòng)駕駛車(chē)輛的確存在產(chǎn)品缺陷,從這個(gè)角度來(lái)看,Uber 作為技術(shù)背后的企業(yè)應(yīng)該負(fù)擔(dān)安全事故責(zé)任。但這起案件的結(jié)果代表著美國(guó)對(duì)于新技術(shù)比較寬容的態(tài)度,「如果同樣的事件放在德國(guó)這種監(jiān)管比較嚴(yán)格的國(guó)家,結(jié)果會(huì)很不一樣?!?/span>
NTSB 的最終調(diào)查結(jié)果認(rèn)為,安全員事發(fā)時(shí)看手機(jī)分散了注意力,并且 Uber「安全文化不足」導(dǎo)致事故發(fā)生。
從事實(shí)上看,這起事故是由安全員的疏忽與自動(dòng)駕駛技術(shù)問(wèn)題共同造成的。技術(shù)存在明顯的紕漏之處,在尚不完善的情況下無(wú)法避免;同樣,安全員的疏忽也無(wú)法完全避免。兩個(gè)主體都存在現(xiàn)有條件下無(wú)法規(guī)避的缺陷,卻承擔(dān)了截然不同的懲罰。從法律上給出的結(jié)果,人承擔(dān)了全部的刑事責(zé)任,技術(shù)無(wú)罪。不承擔(dān)刑事責(zé)任的 Uber 需要做的就是改進(jìn)自動(dòng)駕駛技術(shù)的缺陷。
很明顯,在這起事件當(dāng)中,安全員變成了「背鍋員」。
技術(shù)的長(zhǎng)期挑戰(zhàn)
人類(lèi)學(xué)家瑪?shù)铝铡た巳R爾·埃利什(Madeleine Clare Elish)在研究航空領(lǐng)域自動(dòng)化背景下美國(guó)對(duì)于航空事故的判定時(shí)發(fā)現(xiàn),盡管大趨勢(shì)是飛機(jī)的控制越來(lái)越轉(zhuǎn)移到自動(dòng)駕駛,但對(duì)于飛行事故的責(zé)任判定仍舊集中在飛行員身上。
她認(rèn)為,在高度自動(dòng)化的系統(tǒng)與責(zé)任歸屬的實(shí)際分配方式之間存在著巨大的不匹配。因此,她得出結(jié)論:法律責(zé)任和責(zé)任的概念未能與技術(shù)進(jìn)步保持同步。
在 Uber 自動(dòng)駕駛案中,似乎是一樣的道理。
在自動(dòng)駕駛的測(cè)試中,安全員的作用在一整套系統(tǒng)的驗(yàn)證測(cè)試中僅占據(jù)很少部分,絕大部分狀況下,自動(dòng)駕駛技術(shù)都能處理行駛中的問(wèn)題。安全員在這種情況下需要在一種無(wú)需干預(yù)的情況下保持持續(xù)的注意力,這件事對(duì)于人性來(lái)說(shuō),是個(gè)巨大的挑戰(zhàn),也和企業(yè)希望安全員做到的理想目標(biāo)有一定差距。安全員需要遵守的規(guī)則和他們簽署的協(xié)議,實(shí)際相當(dāng)于簽了一個(gè)「背鍋」條款,在現(xiàn)實(shí)狀況中存在巨大風(fēng)險(xiǎn)。Uber 無(wú)人車(chē)致死案就是一起鮮明的案例。
何姍姍表示,高級(jí)別的自動(dòng)駕駛環(huán)境中,盡管有汽車(chē)的「黑匣子」可以記錄相關(guān)數(shù)據(jù),但在責(zé)任的劃分上也會(huì)出現(xiàn)困境,需要在技術(shù)層面和未來(lái)立法層面做改觀和突破。
華盛頓大學(xué)法學(xué)院的機(jī)器人學(xué)法學(xué)教授 Ryan Calo 表示,安全員的過(guò)失導(dǎo)致行人身亡,這是一個(gè)簡(jiǎn)單的故事;如果對(duì)公司提起訴訟,必須要講述一個(gè)更加復(fù)雜的故事,「涉及自動(dòng)駕駛汽車(chē)的工作原理和 Uber 的錯(cuò)誤之處」。
事實(shí)上,現(xiàn)如今也沒(méi)有一條法律能夠證明,L4、L5 級(jí)別的自動(dòng)駕駛事故中哪一方該承擔(dān)哪一部分的責(zé)任,需要通過(guò)汽車(chē)內(nèi)外部攝像頭等設(shè)備記錄的數(shù)據(jù)來(lái)判斷最終的責(zé)任歸屬。
不僅是法律上的界定,從技術(shù)發(fā)展的角度來(lái)看,都會(huì)是一個(gè)社會(huì)性的難題。人類(lèi)社會(huì)對(duì)于新技術(shù)的一大挑戰(zhàn),就是技術(shù)本身還沒(méi)有準(zhǔn)備好,人卻高估了技術(shù)能做的事情。
特斯拉在發(fā)布旗下輔助駕駛系統(tǒng) Autopilot 之后,全球范圍內(nèi)發(fā)生了多起交通事故,原因在于駕駛員過(guò)于信任這套輔助駕駛系統(tǒng),高估了它的能力。即便特斯拉在 Autopilot 的宣傳當(dāng)中重點(diǎn)強(qiáng)調(diào),它只是 L2 級(jí)別輔助駕駛,行駛過(guò)程中駕駛員必須隨時(shí)關(guān)注道路并接管,但還是有人無(wú)視這一規(guī)則,歸根結(jié)底就是對(duì)于新技術(shù)過(guò)于信任。
2020 年 6 月,一輛處在輔助駕駛狀態(tài)的特斯拉撞上了前方橫著的卡車(chē)|網(wǎng)絡(luò)
Uber、Waymo 等公司在做的 L4 級(jí)別自動(dòng)駕駛多數(shù)情況下依舊需要安全員的存在,恰好說(shuō)明了至少在目前,技術(shù)都不可能達(dá)到完美的狀態(tài)。
MIT 曾經(jīng)提出過(guò)「人機(jī)共駕」的課題研究,這項(xiàng)研究存在的基礎(chǔ)就是短期內(nèi)人不會(huì)從自動(dòng)駕駛汽車(chē)中消失,在低級(jí)別的自動(dòng)駕駛當(dāng)中,仍然要「以人為中心」。在這樣的預(yù)期之下,人與技術(shù)共存將是未來(lái)長(zhǎng)期的狀態(tài),從以人為中心到以機(jī)器為中心轉(zhuǎn)變的過(guò)程中,也會(huì)引發(fā)法律和道德上一系列框架的設(shè)定。
相應(yīng)地,在自動(dòng)駕駛領(lǐng)域怎么判斷安全員所處的位置,進(jìn)而調(diào)整安全員體系;甚至在人與機(jī)器協(xié)作的領(lǐng)域里,怎么思考以人類(lèi)視角與機(jī)器視角分配工作與責(zé)任,其實(shí)都是我們應(yīng)該去細(xì)化的方向。
技術(shù)的目的是服務(wù)于人,幫助人類(lèi)反脆弱,解決人類(lèi)之前不容易解決的問(wèn)題,而不是給人類(lèi)加上更復(fù)雜的枷鎖,讓其背負(fù)更大的責(zé)任。如果人要為技術(shù)背鍋,道理上無(wú)法講得通,任何時(shí)候,人都不應(yīng)該成為技術(shù)高速發(fā)展的「犧牲品」。
~END~
免責(zé)聲明:本文內(nèi)容由21ic獲得授權(quán)后發(fā)布,版權(quán)歸原作者所有,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。文章僅代表作者個(gè)人觀點(diǎn),不代表本平臺(tái)立場(chǎng),如有問(wèn)題,請(qǐng)聯(lián)系我們,謝謝!