科技大佬馬斯克曾口出“狂言”,表露他創(chuàng)建 腦機接口(BCI)公司Neuralink的野心是“ 讓人與AI共生,達(dá)到超級智能”。這看起來像是《攻殼機動隊》和《黑客帝國》里才會出現(xiàn)的場景,但是BCI發(fā)展迅速,植入式設(shè)備現(xiàn)已能讓癱瘓人士控制義肢,非植入式的意念鼠標(biāo)、耳機也初具商業(yè)雛形。智能手機的出現(xiàn)也不過短短二十幾年,誰都不能保證現(xiàn)在的90后、00后就不會在有生之年看到人與AI“喜結(jié)連理”。在這之前,通過BCI,讓AI輔助人類生產(chǎn)生活,就好像結(jié)婚前的戀愛一樣, 是必經(jīng)的磨合階段。使用BCI與AI相連,你只需發(fā)出少量的指令,即可完成駕駛、工業(yè)操作等復(fù)雜任務(wù), 這可能是未來人的日常。
但是,AI能否成為“賢內(nèi)助”,還要先面臨拷問:假如在人類使用BCI與AI合作中出現(xiàn)了事故, 責(zé)任到底是該人類,還是AI(或其開發(fā)者)來負(fù)呢?
現(xiàn)有的人機交互界面中,人、機是物理上分離的,使用者和AI進(jìn)行的指令操作可以通過空間、時間的間隔進(jìn)行切割,因此區(qū)分人類、AI的失誤,歸責(zé)相對容易;但當(dāng)引入了BCI這個第三者,貴圈就亂了。這一切還得從BCI的性質(zhì)說起。
BCI是腦與外部設(shè)備的橋梁,大腦可以通過電極等裝置與機器、計算機中的AI交流。外部設(shè)備除了接受大腦信號以外,也可以反向?qū)Υ竽X進(jìn)行一定刺激。 這可能會導(dǎo)致使用者模糊人機之間的界限,分不清通過BCI做出的行動究竟是源自自身意志,還是AI的影響。在一項2016年的研究中,一名接受深度腦刺激(DBS)治療抑郁癥的患者就曾報告說他懷疑自己的行為方式受到了裝置刺激的影響,而非完全出自個人意志。未來隨著人機之間信號傳輸率上升、延遲性減少、控制和反饋的復(fù)雜性增加, 這樣的影響可能會加深。
在人類使用BCI與AI協(xié)同操作機器時,機器接收的指令可能來自于雙方。當(dāng)它執(zhí)行了導(dǎo)致事故的錯誤行動時,不同于傳統(tǒng)的人機交互,由于人機間的緊密聯(lián)系, 就可能難以區(qū)分導(dǎo)致該行動的指令來源。就算能追蹤每一條信號的來源,問題仍然存在:使用BCI的方式本身就可能影響人類的大腦,不妨理解為在做決定的過程中,AI一直在給你吹枕邊風(fēng)。 如果無法分離二者的主動性和行動,又該如何區(qū)分責(zé)任呢?這可能就需要借助哲學(xué)上的 能動性(Agency)概念了。
主要/次要行動者理論
想象一下,你開著新款智能車過年回家,如果選擇手動駕駛,掌握方向盤的你此時就是一名 行動者(Agent)。你根據(jù)肉眼所見的道路狀況,在腦中計劃出接下來的行動,通過轉(zhuǎn)動方向盤的方式使車輛朝目的地行駛,就是哲學(xué)上 能動性的體現(xiàn)。
能動性是指某一實體對外界或內(nèi)部刺激做出的反應(yīng)。不同于簡單做出行為,行動者的能動性表現(xiàn)出 目的性和計劃性。同理,假如你開車途中,突然很想跟家人在線視個頻——道路千萬條,安全第一條,此時就要選擇無人駕駛模式,將對車輛的操控權(quán)交給AI。 AI根據(jù)攝像頭反饋的道路狀況進(jìn)行路線規(guī)劃后,操縱車輛按目標(biāo)路線行駛,也是其能動性的體現(xiàn)。
然而在使用BCI輔助駕駛時,能動性很難在二者之間界定。這是因為 人和AI對車輛進(jìn)行共同控制,無法通過直接觀察車輛的動作,回溯二者發(fā)出的行動指令,并對其簡單分離。假如在這種情況下出現(xiàn)交通事故,將很難進(jìn)行責(zé)任界定。
為解決這一難題,慕尼黑大學(xué)醫(yī)史研究所的研究員安德烈亞斯·沃肯斯坦(Andreas Wolkenstein)提出,不用由下至上追蹤每一條指令的路徑,而是 由上至下,從“能做出的行動”入手,區(qū)分主要和次要行動者(primary and secondary agents)。兩者均不要求具有自由意志, 其區(qū)別僅在于具有不同程度的能力:(1)有能力起始、同意和終止行動;(2)在行動過程中,能夠獨立接管和調(diào)整復(fù)雜的行動步驟。 主要行動者的行動自由度更大,有能力根據(jù)計劃和感知到的環(huán)境因素做出判斷,調(diào)整選擇; 而次要行動者只能在前者允許的范圍內(nèi)采取行動。
假設(shè)你駕駛著智能車去接女神下班,通過BCI授權(quán)車載AI按路線行駛。在你啟動汽車后,由于AI只能按照你所想的路線,讓汽車執(zhí)行有限的轉(zhuǎn)向、直行等動作, 此時你是主要行動者,而AI是次要行動者。
現(xiàn)在你從后視鏡發(fā)現(xiàn)情敵追上來了,怎么能讓他超過你?于是你把車輛切換到手動駕駛,正想化身秋名山車神時,卻被AI強行阻止了。原來它的系統(tǒng)里設(shè)置有安全限速程序,并且監(jiān)測到了你想超速的危險想法。由于你只能做出AI允許的安全駕駛操作,任何超速的舉動都會被AI禁止, 此刻,AI升級為主要行動者,行動受限的你只能退居次要了。
考慮能動性可以幫助我們更好地分解行動。當(dāng)一項最終的行動釀成事故時, 就可以根據(jù)發(fā)生時刻的主要/次要行動者關(guān)系——包括這項行動的發(fā)起者是誰,誰又應(yīng)當(dāng)“考核”這個行動—— 來確定因果關(guān)系。這有助于將行動及其造成的后果與責(zé)任聯(lián)系起來。
確定行動-行動后果后,就可以前進(jìn)至后果-責(zé)任追究了。法律上要求追究責(zé)任的對象需要具有主體資格,同時還需要具有主觀過錯,包括故意和過失。雖然AI已經(jīng)越來越多地展現(xiàn)出智能行為, 但目前法律上仍未賦予其主體資格;同時其也還未達(dá)到具有自由意志的程度,故也不存在主觀過錯。
既然如此,當(dāng)行動后果歸于AI時,其最終產(chǎn)生的責(zé)任就只能由背后的自然人或法人來承擔(dān)。那么,使用者從開發(fā)者處購買BCI裝置,通過BCI與AI協(xié)作完成任務(wù),使用中出現(xiàn)事故時,責(zé)任就將根據(jù)行動者-能動性-行動-直接后果-責(zé)任的對應(yīng), 在消費者、BCI和AI的開發(fā)者中進(jìn)行分配。
問題展望
但即使我們能夠?qū)⑿袆优c后果一一對應(yīng)起來,事情的復(fù)雜程度仍在其之上。除了故意造成的外, 責(zé)任還包括過失責(zé)任,即應(yīng)當(dāng)預(yù)見危害卻沒有預(yù)見,或是已預(yù)見但相信會避免。
那么,對于科技公司為代表的開發(fā)者來說,這種“應(yīng)當(dāng)預(yù)見”的危害包括哪些呢?同時還有使用者與AI之間的授權(quán)關(guān)系,例如使用者授權(quán)AI自動駕駛出了交通事故,使用者作為授權(quán)者,是否具有一定的監(jiān)督責(zé)任?還是應(yīng)當(dāng)推定其對AI具有百分百的信任,從而可以減少責(zé)任? 未來實際案例的復(fù)雜程度可能遠(yuǎn)超我們的想象。
即使上述問題都可以順利解決,隨著科技的發(fā)展,另一個問題不可避免: 是否賦予強AI一定的主體資格,讓它自身也能承擔(dān)一部分責(zé)任?例如,2016年谷歌無人駕駛汽車與一輛大巴發(fā)生擦碰事故時,美國高速公路安全管理局(NHTSA)就認(rèn)為控制汽車的AI可以被視為“司機”?,F(xiàn)在進(jìn)一步考慮何種智能程度的AI可以獲得主體資格,又能獲得什么程度的主體資格——唯可嘆路漫漫其修遠(yuǎn)兮。
法律的發(fā)展固然有其滯后性,尤其是科技迅猛發(fā)展的今天; 但盡可預(yù)見之力對科技風(fēng)險提前做出的思量,大概就是人類向前方斬開荊棘之路時,那把達(dá)摩克里斯之劍的劍鞘吧。