無人車一直廣受爭議的最大爭議便是倫理道德,因為面對困境、危機時的選擇,就連存在真實情感的人類都難以說其實對是錯,更何況存活在數(shù)據(jù)庫里的人工智能呢?
譬如電車難題(Trolley Problem),是倫理學(xué)領(lǐng)域最為知名的思想實驗之一。其內(nèi)容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,并且片刻后就要碾壓到他們。幸運的是,你可以拉一個拉桿,讓電車開到另一條軌道上,然而問題在于,那個瘋子在另一個電車軌道上也綁了一個人??紤]以上狀況,你是否應(yīng)拉桿?
這是一個無解的難題,因為如果選擇保乘客,那么路人就會遭殃,如果選擇保路人,乘客便犧牲。而對于無人駕駛汽車來說,這項抉擇便是會牽扯到人文道德上,無論是日常所見的避讓小動物現(xiàn)象,還是類似電車難題這種的,無人車都必須承擔(dān)責(zé)任,于路人于乘客。
在這方面,老司機梅賽德斯-奔馳對該問題進行了正面回應(yīng),奔馳選擇了保乘客。在巴黎車展上,奔馳公司駕駛員輔助系統(tǒng)主管克里斯托弗表示:“未來,奔馳的Level 4和Level 5無人駕駛汽車都會優(yōu)先保證車上乘客的安全。如果有可能拯救生命,那么一定要先救車上的乘客。”
無人駕駛技術(shù)是新的,但這一道德困境卻是老的。從人類社會的角度出發(fā),新技術(shù)不斷被開發(fā)并應(yīng)用,背后產(chǎn)生的倫理道德問題,像無人車這種結(jié)合人工智能,又關(guān)乎生命的更是倍受關(guān)注。日前,世界5大科技公司試圖制定圍繞人工智能開發(fā)的倫理道德標(biāo)準(zhǔn),包括谷歌母公司Alphabet、亞馬遜、Facebook、IBM和微軟等的研究人員開會談?wù)撊斯ぶ悄芟嚓P(guān)的問題,如AI對工作、交通甚至戰(zhàn)爭的影響。
當(dāng)機器人越來越復(fù)雜之后人類該怎么對待,機器和人之間互動的界限在哪里,機器和人最終會不會發(fā)生沖突?對此,英國科普作家Philip Ball表示,機器人的道德問題是人類必須重視并且需要持續(xù)討論的議題。而這些問題的解決方式依靠科學(xué)家、工程師的非實質(zhì)性的討論與研究顯然是不行的,所以未來人工智能、無人車的發(fā)展需要全社會來參與討論和界定的。
人工智能研發(fā)領(lǐng)域飽受爭議與技術(shù)上的雙重壓力,但仍不足以阻擋企業(yè)撲向其中的決心。10月15日據(jù)美媒報道稱,中美兩國已經(jīng)在這項研究中處于領(lǐng)先位置,盡管美國是深度學(xué)習(xí)方面的早期領(lǐng)導(dǎo)者,但是中國每年在該學(xué)科上發(fā)表的論文已經(jīng)超過了美國,而且增加的比例很高,這顯示中國的研究重點已經(jīng)發(fā)生了改變。
對于時代驅(qū)動走向來說,重要的技術(shù)研究上需要克服人工智能專業(yè)能力上的缺陷,讓機器擁有普通智力、常識、創(chuàng)造力、直覺,又或是發(fā)展至另一方向,既無實體人工智能,例如蘋果的siri和谷歌的Google Now,但目前,這些無實體人工智能尚不具備與真實世界實現(xiàn)無縫隙溝通的能力,對于人類用戶的心理把握也很不到位。但進化中的機器學(xué)習(xí)算法,已經(jīng)開始從處理靜態(tài)數(shù)據(jù)轉(zhuǎn)向識別動態(tài)數(shù)據(jù),借助大數(shù)據(jù)將逐漸具備接近于人的分析能力、預(yù)測能力。
即便是在仿真機器人方面,目前也有了大致的研究動向,早前有科學(xué)家提出借助仿生手段創(chuàng)造人工智能,即所謂的“全腦仿真”,正在循著“測繪—模擬—實體化”三個階段推進。樂觀估計,當(dāng)“全腦仿真”解決了仿真生物的功能設(shè)計難題后,將會使仿真生物具備學(xué)習(xí)和適應(yīng)能力,這使得與人類水平相當(dāng)?shù)娜斯ぶ悄?、超過人類水平的人工智能(超級智能)具備了可行性。
以人工智能的功能進化研發(fā)速率來看,未來實現(xiàn)顯然是必然事件,隨即真正值得探討的其實是一組哲學(xué)命題:如果人工智能本身具有機器智能、神經(jīng)系統(tǒng)與人體(生物體)的融合性,具備了類似于人的意識、學(xué)習(xí)能力和感情。應(yīng)當(dāng)如何賦予人工智能道德概念、如何讓人工智能為其行為負(fù)責(zé)與界定清楚人工智能的權(quán)利。
最后套用《技術(shù)奇點》的作者默里·沙納漢的話說,如果通往人類水平人工智能、超級智能,就應(yīng)當(dāng)建立善待這類智能的體系,為之嵌入道德,對之設(shè)定法律、倫理限制(例如不得攻擊人類,不得啟動摧毀社會基礎(chǔ)設(shè)施的行動,等等),也賦予其基本的權(quán)利。只有這樣,才能“讓人工智能擁有和人類類似的基本動機與價值觀,包括求知、創(chuàng)造、探索、提高和取得成功的欲望”,讓其盡可能的與人類相像,并且不會產(chǎn)生驅(qū)逐、消滅人類的念頭。