關(guān)于人工智能的法律權(quán)益,你怎么看?
人工智能可以對(duì)人的意識(shí)、思維的信息過(guò)程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過(guò)人的智能。人工智能是一門極富挑戰(zhàn)性的科學(xué),從事這項(xiàng)工作的人必須懂得計(jì)算機(jī)知識(shí),心理學(xué)和哲學(xué)。人工智能是包括十分廣泛的科學(xué),它由不同的領(lǐng)域組成,如機(jī)器學(xué)習(xí),計(jì)算機(jī)視覺(jué)等等,總的說(shuō)來(lái),人工智能研究的一個(gè)主要目標(biāo)是使機(jī)器能夠勝任一些通常需要人類智能才能完成的復(fù)雜工作。但不同的時(shí)代、不同的人對(duì)這種“復(fù)雜工作”的理解是不同的。我們現(xiàn)在是否也需要思考AI的權(quán)利了呢?
你必須爭(zhēng)取的AI權(quán)利
大家都已經(jīng)清楚地知道,人工智能機(jī)器在復(fù)制人腦的道路上走得越來(lái)越遠(yuǎn)。從某種程度上講,我們目前的人工神經(jīng)網(wǎng)絡(luò)所擁有的神經(jīng)元比蜜蜂和蟑螂等生物還要多,而且數(shù)量在不斷增加。
而最大型的項(xiàng)目旨在創(chuàng)造更多的生物合成算法,目的是復(fù)制人類大腦的運(yùn)作方式,而不只是簡(jiǎn)單地模仿我們的記憶方式。此外,還有一些項(xiàng)目旨在將人類意識(shí)轉(zhuǎn)化為機(jī)器形態(tài),或者類似于所謂的“OpenWorm”項(xiàng)目,這一項(xiàng)目旨在為微小的雌雄雙性線蟲(chóng)構(gòu)造出人類的神經(jīng)連接體(即中樞神經(jīng)系統(tǒng)的連接圖),而這是人類迄今所能完成的唯一一幅完整的神經(jīng)連接體。
在2016年進(jìn)行的一項(xiàng)調(diào)查中,175名行業(yè)專家中有90%的人認(rèn)為,到2075年,人工智能可以達(dá)到與人類對(duì)等的水平。
在我們達(dá)到這個(gè)水平之前,隨著人工智能逐漸超越動(dòng)物智能,我們將不得不開(kāi)始思考,人工智能的權(quán)利與我們給動(dòng)物定義的“權(quán)利”之間有什么關(guān)系。想象一下,強(qiáng)迫智能電梯上下移動(dòng)的行為可能是很殘忍的。幾年前,英國(guó)科技作家比爾·湯普森曾寫道,人們?cè)陂_(kāi)發(fā)AI產(chǎn)品時(shí)總是傾向于不傷害到自己,“這反映出人們總是認(rèn)為人工智能是為人類服務(wù)的,而不具有獨(dú)立的思維。”
然而,我們現(xiàn)在所面臨的最緊迫的問(wèn)題關(guān)乎到人工智能是否具有合法權(quán)利。簡(jiǎn)單地說(shuō),我們是否應(yīng)該考慮授予它們某種形式的法律人格呢?這并不像聽(tīng)起來(lái)那么荒謬,也不代表在我們的社會(huì)中AI已經(jīng)“上升到了”某種特定的地位。但是這反映了目前AI在我們的生活中扮演的并且將繼續(xù)發(fā)揮作用的角色。
非智能律師時(shí)代的智能工具
目前,我們的法律體系在很大程度上假定我們面對(duì)的是一個(gè)充斥著非智能工具的世界。我們可能會(huì)談?wù)摌屩Ч苤频闹匾?,但我們?nèi)匀粫?huì)判定持槍傷人的那個(gè)人有罪,而不是槍支本身。如果這把槍本身是有缺陷的,那么我們就會(huì)追究制造槍支的公司的責(zé)任。
到目前為止,這種思維模式在很大程度上被直接運(yùn)用到了人工智能和機(jī)器人的世界。1984年,一家名為AthloneIndustries的美國(guó)公司的所有者被告上了法庭,因?yàn)槿藗冋J(rèn)為他們的擊球訓(xùn)練機(jī)器太過(guò)殘暴。該案之所以值得提起,是因?yàn)榉ü傩荚V訟是針對(duì)Athlone公司,而非擊球機(jī)器人,因?yàn)?ldquo;機(jī)器人不能被起訴”。
2009年,一名英國(guó)司機(jī)在他的GPS系統(tǒng)指示下沿著一條狹窄的懸崖邊行駛,結(jié)果導(dǎo)致他被困,不得不被警察拖回主路。盡管他將問(wèn)題歸咎于技術(shù),但法院認(rèn)定他犯有疏忽大意的錯(cuò)誤。
然而,今天(當(dāng)然也包括未來(lái))的人工智能技術(shù)和昨日的科學(xué)技術(shù)之間存在著太多差異。像自動(dòng)駕駛汽車或機(jī)器人這樣的智能設(shè)備不僅會(huì)被人類使用,而且會(huì)被支配——當(dāng)然,之后它們會(huì)獨(dú)立完成指令。智能設(shè)備能夠運(yùn)用機(jī)器學(xué)習(xí)算法,自行收集和分析信息,然后做出決定。這也不能完全責(zé)怪技術(shù)的創(chuàng)造者。
正如華盛頓喬治城大學(xué)的法學(xué)教授大衛(wèi)·維拉德克所指出的,在這一領(lǐng)域少數(shù)的深入案例研究中,有大量的個(gè)人和公司參與了人工資能組件的設(shè)計(jì)、修改和整合,因此很難確定誰(shuí)來(lái)負(fù)最終的責(zé)任。當(dāng)談?wù)撊斯ぶ悄艿?ldquo;黑匣子”時(shí),這個(gè)系統(tǒng)是非常難以捉摸的。
大衛(wèi)·維拉德克曾寫道:“一些組件可能是在人工智能項(xiàng)目還沒(méi)被構(gòu)思出來(lái)之前就已經(jīng)被設(shè)計(jì)出來(lái)了,而組件的設(shè)計(jì)者們可能從來(lái)沒(méi)有想過(guò),他們的設(shè)計(jì)會(huì)被納入任何人工智能系統(tǒng),更不用說(shuō)那些造成傷害的人工智能系統(tǒng)了。”在這種情況下,如果把責(zé)任歸咎于一個(gè)并沒(méi)有參與到人工智能系統(tǒng)的完成和操作過(guò)程中的組件設(shè)計(jì)者,聽(tīng)起來(lái)并不公平。法院可能難以判定,這樣一個(gè)組件的設(shè)計(jì)者是否預(yù)見(jiàn)到了所發(fā)生的危害。
公司所扮演的角色
賦予人工智能一個(gè)法律上的實(shí)體地位并不是完全沒(méi)有先例的。公司長(zhǎng)期以來(lái)扮演著這樣的角色,這就是為什么公司可以擁有資產(chǎn),或者被起訴,而這些事情不必須以首席執(zhí)行官或執(zhí)行董事的名義來(lái)完成。
佛羅里達(dá)州立大學(xué)的法學(xué)教授肖恩·拜恩指出,盡管還沒(méi)有經(jīng)過(guò)檢驗(yàn),但人工智能可能已經(jīng)擁有了這種地位,因?yàn)锳I可以管理有限責(zé)任公司,所以可以擁有法律上的獨(dú)立地位。如果像比爾·蓋茨的“機(jī)器人稅”這樣的提案在法律層面上被認(rèn)真對(duì)待,那么稅收層面的因素也需要被考慮進(jìn)來(lái)。
然而,爭(zhēng)議仍然存在。如果人工智能能以某種方式執(zhí)行一些責(zé)任不明晰的行為,那么它的創(chuàng)造者可能就會(huì)借此擺脫責(zé)任。而且,這也可能會(huì)使AI工具的研發(fā)人員消極怠工——因?yàn)锳I表現(xiàn)不符合預(yù)期時(shí),他們就有理由不再進(jìn)行進(jìn)一步開(kāi)發(fā)。
目前也沒(méi)有辦法懲罰人工智能,因?yàn)橄癖O(jiān)禁或死刑這樣的懲罰對(duì)人工智能來(lái)說(shuō)毫無(wú)意義。
愛(ài)爾蘭國(guó)立大學(xué)的法學(xué)教授約翰·丹納赫關(guān)于人工智能法律人格的看法是:“我不認(rèn)為這是一件正確的事,至少現(xiàn)在不是。”“我的猜測(cè)是,在可預(yù)見(jiàn)的未來(lái),這種做法主要是為了推卸人類的責(zé)任,來(lái)掩蓋一些反社會(huì)活動(dòng)。”
然而,這個(gè)領(lǐng)域并不依賴于任何以主觀意識(shí)為目標(biāo)的基準(zhǔn)。
《人類簡(jiǎn)史》和《未來(lái)簡(jiǎn)史》的作者尤瓦爾·赫拉利說(shuō),“在今天,公司擁有合法的權(quán)利而且被視為法人,但大多數(shù)動(dòng)物都沒(méi)有。”“盡管企業(yè)顯然沒(méi)有意識(shí),沒(méi)有人格,沒(méi)有體驗(yàn)幸福和痛苦的能力。而動(dòng)物則是有意識(shí)的實(shí)體。不管人工智能是否發(fā)展出了意識(shí),都可以有經(jīng)濟(jì)、政治和法律上的理由賦予它人格和權(quán)利,就像企業(yè)可以獲得法律人格和權(quán)利一樣。事實(shí)上,人工智能將來(lái)可能會(huì)主導(dǎo)某些公司、組織甚至國(guó)家??苹眯≌f(shuō)中很少提及到這種情況,但我認(rèn)為它比《西部世界》和《蘋果核戰(zhàn)記》中的故事更有可能發(fā)生。”
不再是科幻小說(shuō)
目前,這些話題仍然是科幻小說(shuō)的主題,但正如尤瓦爾·赫拉利指出的那樣,這種狀態(tài)可能不會(huì)長(zhǎng)期保持下去。基于AI在現(xiàn)實(shí)世界的使用以及它們與人類的關(guān)系,像“人工智能導(dǎo)致有人死亡時(shí)亡誰(shuí)來(lái)負(fù)責(zé)”,或者“一個(gè)人能否跟他的人工智能助手結(jié)婚”這樣的問(wèn)題就需要在將來(lái)的生活中被解決。
約翰·丹納赫說(shuō),“給任何實(shí)體賦予法律人格的決定,基本上都可以簡(jiǎn)單地分為兩個(gè)子問(wèn)題。這個(gè)實(shí)體是否應(yīng)該被當(dāng)作道德主體來(lái)對(duì)待,它應(yīng)該對(duì)自己的行為負(fù)責(zé)嗎?另一個(gè)問(wèn)題是,這個(gè)實(shí)體是否應(yīng)該被當(dāng)作一個(gè)道德客體來(lái)對(duì)待,從而受到保護(hù),免受某些干擾和以及對(duì)其完整性的侵害呢?我的觀點(diǎn)是,AI不應(yīng)該被當(dāng)作道德主體,至少暫時(shí)不會(huì)。但我認(rèn)為,在某些情況下,它們應(yīng)該被視為道德客體。我認(rèn)為,人們可以在很大程度上依賴人工智能伴侶,因此,在很多情況下,改編或破壞這些實(shí)體是錯(cuò)誤的行為。這意味著我們可能要對(duì)AI負(fù)責(zé),而不能破壞或者侵犯它們的完整性。”
換句話說(shuō),當(dāng)涉及到人工智能工具時(shí),我們不應(yīng)該允許企業(yè)逃避責(zé)任。隨著人工智能系統(tǒng)從自動(dòng)駕駛汽車、金融交易員、無(wú)人駕駛飛機(jī)和機(jī)器人等各種領(lǐng)域進(jìn)入現(xiàn)實(shí)世界,至關(guān)重要的一點(diǎn)是,有人要為他們所做的事情負(fù)責(zé)。
同樣,將人工智能和人類的關(guān)系與先前的非智能技術(shù)視為同等性質(zhì)也是錯(cuò)誤的。
這關(guān)乎一個(gè)學(xué)習(xí)曲線。而且即便我們?cè)诩夹g(shù)上還沒(méi)有達(dá)到擔(dān)心AI主權(quán)的階段,這并不意味著這是一個(gè)錯(cuò)誤的問(wèn)題。所以當(dāng)Siri沒(méi)有聽(tīng)清楚你的問(wèn)題并詢問(wèn)是否搜索網(wǎng)頁(yè)時(shí),不要再對(duì)它大喊大叫了,好嗎?