你死還是他們死:自動(dòng)駕駛汽車的倫理學(xué)難題
自動(dòng)駕駛載具中的計(jì)算機(jī)能夠很快做出生與死的決定。但他們應(yīng)該這么做嗎?機(jī)器時(shí)代我們面臨著生物倫理學(xué)的難題。
有一個(gè)很知名的倫理學(xué)難題你一定聽說過:假設(shè)你負(fù)責(zé)控制一輛火車前進(jìn)的方向,這時(shí)候你發(fā)現(xiàn)火車前進(jìn)的軌道上卡著一輛校車,里面裝滿了孩子,繼續(xù)前進(jìn)必然會(huì)殺死他們;然后你發(fā)現(xiàn)前面還有另一條岔路鐵軌,轉(zhuǎn)動(dòng)方向進(jìn)入岔路可以避免裝到校車,但是在那鐵軌上卻有另一個(gè)孩子:你的孩子,他在那里玩耍等你下班。現(xiàn)在開關(guān)在你的手里,你只能救下一個(gè)方向的孩子,這時(shí)候你該怎么選擇?
這個(gè)倫理學(xué)困境也被稱為“電車問題”,當(dāng)然版本的細(xì)節(jié)各有出入,本質(zhì)上卻是相通的。在此之前,這還都只是一個(gè)有趣的思想實(shí)驗(yàn),因?yàn)槿四X在面對(duì)這種突發(fā)情況時(shí)其實(shí)很難基于理智做出決定。但現(xiàn)在是21世紀(jì)了,我們開始有了自動(dòng)駕駛載具,這樣的問題就開始才從理論變成具有實(shí)際應(yīng)用價(jià)值的研究主題了。
谷歌的自動(dòng)駕駛汽車已經(jīng)在美國(guó)的道路上奔跑了超過170萬英里,盡管發(fā)生了一些事故,但是谷歌聲稱其自動(dòng)駕駛汽車都不是事故的原因。沃爾沃稱其自動(dòng)駕駛汽車將在2017年之前出現(xiàn)在瑞典的高速公路上。伊隆·馬斯克也稱自動(dòng)駕駛的未來已經(jīng)相當(dāng)接近了,Tesla的自動(dòng)駕駛模型也將在今年夏天開始上路測(cè)試。
你準(zhǔn)備好了嗎?這項(xiàng)技術(shù)已經(jīng)到來了,但是我們準(zhǔn)備好了嗎?
谷歌的自動(dòng)車已經(jīng)能夠處理一些現(xiàn)實(shí)世界的實(shí)際困難了,比如當(dāng)前方汽車突然在他們面前轉(zhuǎn)彎時(shí),谷歌的汽車會(huì)進(jìn)行智能規(guī)避。但是在某些情況下,碰撞是不可避免的。而且事實(shí)上,谷歌的樣車在上路測(cè)試中已經(jīng)經(jīng)歷過了大量的小車禍,盡管谷歌把這些責(zé)任都推到了人類身上。那么對(duì)于以上提出的沒有“合理”解決方案的難題,自動(dòng)駕駛汽車應(yīng)該如何應(yīng)對(duì)呢?比如前方的車輛突然急轉(zhuǎn)彎,谷歌的自動(dòng)駕駛汽車已經(jīng)無可避免地要撞上了,但道路兩邊都是墻,所以留給車子的選擇只有撞前面的汽車或者撞向墻。車載的計(jì)算機(jī)當(dāng)然有足夠的計(jì)算力做出基于“理智”的決定,這一點(diǎn)和人類不一樣。計(jì)算機(jī)有足夠的時(shí)間進(jìn)行掃描,計(jì)算出相關(guān)人類幸存的概率。那么計(jì)算機(jī)應(yīng)該做出有利于自己主人的決定嗎?即使對(duì)方是一輛裝滿兒童的校車?誰應(yīng)該做這個(gè)決定?它們會(huì)怎樣決定?
“最終,這個(gè)問題變成了實(shí)利主義和道義之間選擇。”阿拉巴馬大學(xué)伯明翰分校(UAB)校友Ameen Barghi如是說。他于今年五月份畢業(yè),將在今年秋天以UAB第三羅得學(xué)者的身份進(jìn)入牛津大學(xué),他是一位資深的道德困境研究者。他曾作為該校生物倫理學(xué)隊(duì)的資深領(lǐng)導(dǎo)人,贏得了2015年的“生物倫理學(xué)杯”全國(guó)比賽。他們獲勝的辯論主題包括埃博拉病毒的臨床試驗(yàn)和假設(shè)一種能讓一個(gè)人愛上另一個(gè)人的藥物。在去年的倫理學(xué)杯競(jìng)賽中,該團(tuán)隊(duì)討論了另一個(gè)發(fā)人深省的主題,這個(gè)主題正是關(guān)于自動(dòng)駕駛汽車:如果事實(shí)證明自動(dòng)駕駛比人類駕駛更安全,政府是否應(yīng)該禁止人類駕駛?(他們的答案總結(jié)起來就是:應(yīng)該。)
在駕駛座上的死亡所以你的自動(dòng)駕駛汽車應(yīng)該為了拯救別人而犧牲你的生命嗎?Barghi說,對(duì)于這樣的問題,我們有兩種哲學(xué)方法。他解釋道:“實(shí)利主義告訴我們,我們應(yīng)該始終選擇能夠?yàn)樽疃鄶?shù)人帶來最大收益的解決方案。”換句話說,如果要在把你撞死在墻上和拯救一車孩子之間做出選擇,你的車子會(huì)選擇前一種。
然而在道義上講,“有一些價(jià)值斷然總是正確的。”Barghi繼續(xù)說:“比如說,謀殺總是錯(cuò)誤的,我們也不應(yīng)該做這樣的事情。”回到最開始提出的火車問題,“即使轉(zhuǎn)動(dòng)方向可以拯救五條生命,我們也不應(yīng)做,因?yàn)檫@樣我們就主動(dòng)地殺死了另一個(gè)人。”Barghi說,所以盡管很奇怪,但是一輛自動(dòng)駕駛汽車不應(yīng)該被編程為選擇犧牲自己的乘客而避免其他人受到傷害。
“電車問題”還有另一些變種版本:如果那一個(gè)人是你的孩子呢?另外五個(gè)人是五個(gè)謀殺犯呢?答案很簡(jiǎn)單。Barghi說,“讓用戶在道義和實(shí)利主義之間做出選擇,”如果答案是實(shí)利主義,那就還有兩個(gè)子選項(xiàng):規(guī)則或行為實(shí)利主義。
“規(guī)則實(shí)利主義說我們必須總是選擇最有利的行動(dòng),而不需要在乎壞境——也就是說按照這一模式,任何版本的電車問題都能很容易得到一個(gè)結(jié)果。”Barghi說:計(jì)算個(gè)體的數(shù)量,選擇大多數(shù)的利益即可。
而行為實(shí)利主義,他繼續(xù)說:“說的是我們應(yīng)該將每一個(gè)個(gè)體看作是行為決定的子集,”這意味著這里就沒有快捷簡(jiǎn)單的規(guī)則,每一個(gè)情形都有特定的思路。那么計(jì)算機(jī)要怎樣才能掌握所有這些情況。
“計(jì)算機(jī)不能編程為掌握所有的情況,”UAB哲學(xué)藝術(shù)和科學(xué)系Gregory Pence博士說,“我們通過了解倫理學(xué)的歷史就能了解這一點(diǎn)。詭辯,或基于圣托馬斯基督教倫理的應(yīng)用,曾經(jīng)嘗試為每一個(gè)問題提供一個(gè)藥方。最終他們悲慘地失敗了,一方面是因?yàn)楠?dú)特的情況實(shí)在太多了,藥方也在不斷地變化。”
為最壞的情況做好準(zhǔn)備UAB的倫理小組和生物倫理小組花費(fèi)了大量的時(shí)間來研究這些問題,這些結(jié)合了哲學(xué)和未來主義的問題。這兩個(gè)團(tuán)隊(duì)現(xiàn)在都由Pence領(lǐng)導(dǎo),他是一位知名的倫理學(xué)家,已經(jīng)為UAB的醫(yī)學(xué)院學(xué)生進(jìn)行了幾十年的培訓(xùn)。
為了得出結(jié)論,UAB的團(tuán)隊(duì)還會(huì)進(jìn)行激烈的辯論,Barghi說。“隨著Pence博士的加入,我們之間經(jīng)常發(fā)生爭(zhēng)論,而且團(tuán)隊(duì)中的每一個(gè)人都可能為某個(gè)案例唱反調(diào),”他說。“在比賽進(jìn)行之前,我們盡力制定出盡可能多的情況和潛在的立場(chǎng)來反駁我們,以讓我們自己對(duì)這一主題有更為全面的了解。有時(shí)候,我們會(huì)在幾天后完全改變自己的立場(chǎng),因?yàn)槌霈F(xiàn)了一些已經(jīng)沒有考慮到的新情況。”
對(duì)于無人駕駛汽車,我們現(xiàn)在還剛剛起步,可能還有更深層次的問題還并未出現(xiàn)。盡管未來的技術(shù)有望讓自動(dòng)駕駛汽車在遭遇事故時(shí)做出精細(xì)的計(jì)算從而避免出現(xiàn)災(zāi)難性的事故,但意外總是在所難免的。在這些冷血的高速機(jī)器投入實(shí)用化之前盡力考慮所有的最壞的情況并為之提供前期預(yù)防方案才是合理的舉措,這樣在事故真正發(fā)生的時(shí)候,汽車不會(huì)因?yàn)檎`判而做出錯(cuò)誤的決定。
比如說:如果一輛汽車相信為了拯救坐在駕駛座上的你,需要?dú)⑺廊澜绲娜?,這時(shí)候該怎么辦?