MIT想通過(guò)線上模擬的方式解決自動(dòng)駕駛難題
近年來(lái)寶馬、谷歌、福特以及其它一眾企業(yè)的自動(dòng)駕駛汽車(chē)有大行其道之勢(shì),而圍繞乘員和行人的問(wèn)題也甚囂塵上。比如,當(dāng)自動(dòng)駕駛汽車(chē)面對(duì)即將不可避免造成人員傷亡的碰撞時(shí),它該如何處理?
由麻省理工學(xué)院(MIT)研究人員搭建的名為“道德機(jī)器”的網(wǎng)站推出了一項(xiàng)很“病態(tài)”的測(cè)試:參與者可以在眾多預(yù)設(shè)的“死局”場(chǎng)景中選擇讓誰(shuí)死。
這個(gè)所謂的“道德機(jī)器”(Moral Machine)會(huì)一次設(shè)置一個(gè)“生存或死亡”的場(chǎng)景,場(chǎng)景中一定會(huì)有一個(gè)或多個(gè)活物(人或動(dòng)物)處于致命的危險(xiǎn)中,這種道德困境被交到測(cè)試者手中,于是你將不得不決定犧牲及挽救哪個(gè),完成非此即彼的抉擇。
大多數(shù)場(chǎng)景的設(shè)置最終會(huì)指向兩個(gè)選擇:是讓自動(dòng)駕駛汽車(chē)內(nèi)的乘客死亡,還是讓行人遭遇某個(gè)“突然的剎車(chē)失靈”。而每個(gè)場(chǎng)景僅提供少量的潛在受害者細(xì)節(jié)。
比如,在某個(gè)場(chǎng)景中,潛在受害者是分別在馬路兩邊的一名年輕女孩和一位年長(zhǎng)女性,正打算從兩個(gè)方向過(guò)馬路。前者違反交規(guī),紅燈時(shí)橫穿馬路;而后者遵守交規(guī),等著紅燈。年齡還是法紀(jì)?這個(gè)時(shí)候到底撞向誰(shuí),就取決于自動(dòng)駕駛汽車(chē)?yán)锏哪懔恕?/p>
根據(jù)網(wǎng)站的設(shè)想,“道德機(jī)器”被設(shè)計(jì)成一個(gè)平臺(tái),針對(duì)自動(dòng)駕駛汽車(chē)遇到的道德困境,一方面“建立人類(lèi)的群體觀點(diǎn)”;另一方面“探討這類(lèi)場(chǎng)景的道德后果”。
從自動(dòng)駕駛汽車(chē)駛上公路,到自導(dǎo)航可回收的火箭降落到自動(dòng)航行帆船上,人工智能正在支持甚至是完全接管越來(lái)越多、越來(lái)越復(fù)雜的人工活動(dòng)
而MIT的研究人員表示,“更偉大的自動(dòng)駕駛能讓機(jī)器在迫不得已的時(shí)候,做出犧牲人生命還是犧牲肢體的抉擇。這不僅需要更深刻地理解人類(lèi)如何做這類(lèi)抉擇,更需要獲知人工智能如何做這類(lèi)抉擇”。
汽車(chē)制造商對(duì)道德選擇和自動(dòng)駕駛汽車(chē)有不同的看法,這是個(gè)有爭(zhēng)議、需要長(zhǎng)期研究的領(lǐng)域。五月份,沃爾沃防碰撞領(lǐng)域的高級(jí)技術(shù)負(fù)責(zé)人Trent Victor表示,有駕駛輔助的汽車(chē)絕不會(huì)讓自己處于某種道德困境,他們應(yīng)該“主動(dòng)保持駕駛情況的可控”。