www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 智能硬件 > 智能硬件
[導讀]隨著自動駕駛汽車等智能機器人的自主性、學習和適應能力不斷增強,一方面很難將其看作是人類手中的簡單工具;另一方面伴隨而來的可預測性、可解釋性、因果關(guān)系等問題將使得證明產(chǎn)品缺陷責任等既有侵權(quán)責任變得越來越困難,可能帶來責任鴻溝,使得被侵權(quán)人的損害難以得到彌補。

 摘要

隨著自動駕駛汽車等智能機器人的自主性、學習和適應能力不斷增強,一方面很難將其看作是人類手中的簡單工具;另一方面伴隨而來的可預測性、可解釋性、因果關(guān)系等問題將使得證明產(chǎn)品缺陷責任等既有侵權(quán)責任變得越來越困難,可能帶來責任鴻溝,使得被侵權(quán)人的損害難以得到彌補。

面對可預期的責任挑戰(zhàn),侵權(quán)法、合同法等法律規(guī)則的不充足性和局限性將逐漸顯現(xiàn)出來,對新的法律規(guī)則的需求也將變得越來越迫切。為此,歐盟、英國、美國等已經(jīng)開始探索新的責任框架。

為了更合理、有效地對智能機器人造成的損害分配法律責任,嚴格責任、差別化責任、強制保險和賠償基金、智能機器人法律人格等都是潛在的法律方案;但立法者或者法院最終選擇何種方案,需要進行全方位的論證,以便實現(xiàn)法律的利益平衡目的。

引言

“計算機僅能執(zhí)行強制的指令——對其編程不是為了使其作出判斷。”紐約一家法院曾經(jīng)如是說。這或許可以代表公眾對計算機和機器人的固有看法。但是,人工智能技術(shù)的進步,正使這一觀點變得陳腐,甚至可能成為一個偏見。2010年以來,受到大數(shù)據(jù)、持續(xù)改進的機器學習和更強大的計算機這三個相互加強的因素推動,人工智能技術(shù)在ICT領(lǐng)域快速發(fā)展,不斷被應用到自動駕駛汽車、醫(yī)療機器人、護理機器人、工業(yè)和服務(wù)機器人以及互聯(lián)網(wǎng)服務(wù)等越來越多的領(lǐng)域和場景。國外一些保險和金融公司以及律師事務(wù)所甚至開始用具有認知能力的人工智能系統(tǒng)置換人類雇員。從國際象棋、智力競賽(比如“Jeopardy!”),到圍棋、德州撲克,再到醫(yī)療診斷、圖像和語音識別,人工智能系統(tǒng)在越來越多的領(lǐng)域開始達到甚至超過人類的認知水平,讓其輔助甚至代替人類進行決策,不再是空中樓閣。

現(xiàn)在有理由預見,在不遠的將來,交通運輸、醫(yī)療、看護、工業(yè)和服務(wù)業(yè)等諸多領(lǐng)域的各式各樣的智能機器(Intelligent Machine)或者智能機器人(Smart Robot)將成為人類社會中司空見慣的事物。與此同時,智能機器人的民事責任(當然也有行政責任和刑事責任,但不在本文討論之列)將日益浮出水面,成為一個不容回避的法律問題,需要法律和法院認真對待并回應。當高度自主、脫離人類控制且獨立運作并作出判斷的智能機器人造成人身或者財產(chǎn)損害,如何分配并承擔法律責任?當前以人類行為者為中心的侵權(quán)責任和以產(chǎn)品生產(chǎn)者為中心的產(chǎn)品責任,在應對這一問題時,暴露出局限性。本文旨在對此進行論證并提出初步的建議。

為了討論的方便,下文將不使用人工智能、人工智能系統(tǒng)等模糊性概念,

轉(zhuǎn)而采用智能機器人這一概念,并將其界定為具有以下特征的實體:

(1)通過傳感器、與其環(huán)境進行數(shù)據(jù)交換以及數(shù)據(jù)分析等方式獲得自主性(Autonomy)的能力;

(2)從經(jīng)歷和交互中學習的能力;

(3)具有可見形體;

(4)隨其環(huán)境而調(diào)整其行為和行動的能力。按照這一定義,自動駕駛汽車、醫(yī)療機器人、護理機器人等都可以被智能機器人涵蓋,而自主性(包括自主進行決策)和學習能力則是其核心特征;而且在某種意義上,已經(jīng)沒有很強的理由將其繼續(xù)看作是供人類驅(qū)使的被動工具。

智能機器人對侵權(quán)責任、產(chǎn)品責任等傳統(tǒng)責任框架提出的挑戰(zhàn)

傳統(tǒng)的機器,無論多么先進,在評定法律責任時,存在一個決定性的共同特征。在每一個案件中,機器的功能和決策總是可以直接追溯到假借人類之手嵌入到其中的設(shè)計、編程和知識,或者存在對機器施加控制的人類行為者。這些機器,無論多么復雜,終歸是為人類所使用的工具而已。以汽車等工具性機器為例,當發(fā)生事故、造成人身或者財產(chǎn)損害,要么可以以未盡到合理注意義務(wù)為由追究使用者的過錯侵權(quán)責任,要么可以以產(chǎn)品具有缺陷為由追究生產(chǎn)者的產(chǎn)品缺陷責任。這意味著,傳統(tǒng)的機器不具有法律人格的屬性,僅僅是個人、公司或者其他法律上的“人”的工具或者代理,這些法律主體在既有法律之下對其各自的行為負責。

但是,在不遠的將來,完全自主的機器將被推向市場,自動駕駛汽車有望成為最早的一批。為此,社會將需要考慮,在就自動駕駛汽車等智能機器人的侵害行為分配法律責任時,既有的責任規(guī)則是否可以游刃有余。畢竟,未來的自主智能機器將有能力完全自主行為,不再是為人類所使用的被動工具;雖然人類設(shè)計、制造并部署了它們,但它們的行為卻不受人類的直接指令約束,而是基于對其所獲取的信息的分析和判斷,而且,它們在不同情境中的反應和決策可能不是其創(chuàng)造者可以預料到或者事先控制的。完全的自主性意味著新的機器范式:不需要人類介入或者干預的“感知-思考-行動”。

(一)過錯侵權(quán)責任難以適用于智能機器人

在實際運作過程中脫離人類的控制,是智能機器人的一個核心特征。這一現(xiàn)象使得以人類行為者的注意義務(wù)為前提的過錯侵權(quán)責任難以適用于因智能機器人的使用而產(chǎn)生的加害行為,因為智能機器人是獨立自主地運作的,缺乏對其進行直接操作或者控制的特定個人。

以自動駕駛汽車為例,國際汽車工程師協(xié)會(SAE International)將自動駕駛技術(shù)劃分為六個等級:非自動(Level 0),駕駛員輔助(Level 1),部分自動(Level 2),有條件自動(Level 3),高度自動(Level 4),以及完全自動(Level 5)。本文不討論在駕駛員輔助和部分自動這兩種模式下,駕駛員和汽車制造商之間的責任分配,僅討論當人類使用者完全不參與駕駛時的責任承擔。當自動駕駛汽車達到四級(高度自動)或者五級(完全自動)時,人類使用者的角色從駕駛者轉(zhuǎn)變?yōu)槌丝?,不再需要對行車狀況和環(huán)境進行監(jiān)視或者在緊急情況下進行操作。因此,當四級以上的自動駕駛汽車發(fā)生事故、造成損害時,即使人類使用者處在駕駛位上,也無法訴諸過錯侵權(quán),讓人類使用者承擔民事責任。在此種情形下,加害行為、因果關(guān)系和過錯都不能歸咎于人類使用者。

不參與駕駛使得人類使用者不必負擔駕駛者在汽車駕駛過程中所應盡到的合理注意義務(wù),只要不干擾自動駕駛系統(tǒng),他甚至可以在駕駛位上隨心所欲,包括睡覺、玩手機等。當乘客乘坐的是自動駕駛出租車時,情況就更是如此,缺少人類駕駛者使得過錯侵權(quán)責任無從適用。但在另一個層面,注意義務(wù)的承擔者從人類駕駛者轉(zhuǎn)移到了自動駕駛系統(tǒng);可以肯定的是,適用于自動駕駛汽車的注意義務(wù)標準必然不同于適用于人類駕駛者的注意義務(wù)標準。

半個多世紀以前,美國法院在Arnold訴Reuther案中對此進行了論證。在該案中,原告Arnold女士在不遵守交規(guī)的情況下橫穿馬路時,被被告Reuther先生駕駛的汽車撞傷,Arnold于是指控Reuther過失侵權(quán)。Arnold主張,Reuther有“最后明顯機會”(Last Clear Chance)來避免車禍,但其未能做到,因而應為此承擔責任。法院對這一觀點不予認可,認為:“一個人無論多么高效,都不是一個機械的機器人,不擁有像雷達機那樣,在危險具體出現(xiàn)之前將其發(fā)現(xiàn)的能力。必須為人類的弱點和反應留出一定的余地,而如果這樣的余地必須要求人類在零點幾秒內(nèi)作出反應,并且不能像現(xiàn)代機械裝置那樣,以機械的速度和精度作出反應,那么就必須承認,Reuther作為一個普通人,再怎么做也不能避免因Arnold的過失而給她本人招來的不幸。”

因此,在涉及自動駕駛汽車的第一起事故案件中,法院將不會問自動駕駛汽車是否像一個理性人一樣行為。Arnold訴Reuther案的核心問題有關(guān)過失:Reuther在當時的情況下是否作出了合理的行為?但是對于自動駕駛汽車,由于沒有人對其施加直接控制,問題的核心將是汽車自身的表現(xiàn)是否達到應然的狀態(tài),比如是否達到既定的行業(yè)標準。由于自動駕駛汽車不是有效的法律主體,詢問汽車自身是否盡到所應負擔的注意義務(wù),將是不切實際的;于是,需要訴諸產(chǎn)品責任,尋找讓自動駕駛汽車的生產(chǎn)者承擔責任的事由。

(二)智能機器人的產(chǎn)品責任及其挑戰(zhàn)

在我國,《侵權(quán)責任法》《產(chǎn)品質(zhì)量法》《消費者保護法》等法律對產(chǎn)品責任作出了規(guī)定。具體而言,因產(chǎn)品存在缺陷造成他人損害的,被侵權(quán)人可以向產(chǎn)品的生產(chǎn)者或者銷售者請求賠償。通說認為,產(chǎn)品責任屬于無過錯的嚴格責任,只要產(chǎn)品存在缺陷,生產(chǎn)者就應當承擔侵權(quán)責任,無需證明其存在過錯。雖然被侵權(quán)人可以選擇向生產(chǎn)者或者銷售者請求賠償,但這兩個主體之間實際上構(gòu)成不真正連帶責任,向被侵權(quán)人承擔侵權(quán)責任的一方可以向有過錯的另一方進行追償。因此,當無人進行操作的自動駕駛汽車等智能機器人造成人身或者財產(chǎn)損害時,被侵權(quán)人可以向缺陷產(chǎn)品的制造商主張產(chǎn)品缺陷責任,需要證明:產(chǎn)品有缺陷,損害事實的存在,以及產(chǎn)品缺陷和損害事實之間存在因果關(guān)系。

產(chǎn)品缺陷是產(chǎn)品責任的一個核心概念,各國通說一般認為缺陷主要包括設(shè)計缺陷、制造缺陷和警示缺陷,我國關(guān)于產(chǎn)品缺陷的認定標準體現(xiàn)在《產(chǎn)品質(zhì)量法》第46條,包括“不合理危險”標準和產(chǎn)品質(zhì)量標準。此外,《產(chǎn)品質(zhì)量法》還為產(chǎn)品生產(chǎn)者提供了免責事由,包括:未將產(chǎn)品投入流通;產(chǎn)品投入流通時,引起損害的缺陷尚不存在;以及將產(chǎn)品投入流通時的科學技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在。只要產(chǎn)品生產(chǎn)者能夠證明存在免責事由,就不承擔賠償責任。

在法律考慮賦予自動駕駛汽車等智能機器人法律地位之前,其在法律上的地位就依然是物,落入產(chǎn)品的范疇是不成問題的,產(chǎn)品責任自然也就有適用的余地,只要被侵權(quán)人可以證成產(chǎn)品缺陷責任。為了討論的方便,筆者將分兩種情況來論證。

1.智能機器人涉及人為(非操作者)失誤

證明產(chǎn)品存在缺陷可能是困難且受爭議的,但如果被侵權(quán)人的損害能夠歸因于因制造商的人為失誤而造成的產(chǎn)品缺陷,那么自動駕駛汽車等智能機器人的自動化程度再怎么高,也不會給既有的產(chǎn)品責任制度帶來大的挑戰(zhàn)。

按照我國的《產(chǎn)品質(zhì)量法》,不符合國家標準或者行業(yè)標準的產(chǎn)品被認為具有缺陷。以Arnold訴Reuther案為例,假設(shè)Reuther先生乘坐的是一輛自動駕駛汽車,坐在后排,該汽車在距離Arnold女士15英尺時檢測到了她并采取了緊急制動,但未能避免碰撞。再假設(shè)自動駕駛汽車行業(yè)存在一個“碰撞避免”標準:如果障礙物(包括人類)在距離汽車12英尺時被檢測到,那么自動駕駛汽車必須能夠在其行進路線上檢測到障礙物并避免碰撞。

顯然,在這種情況下,該自動駕駛汽車不符合這一行業(yè)標準,具有不合理危險,因為按照這一行業(yè)標準,碰撞本應避免。如果我們將這一行業(yè)標準換為15英尺,而將該自動駕駛汽車檢測到Arnold的距離換為12英尺,此時證明缺陷的存在將很困難,即使依據(jù)《美國侵權(quán)法第三次重述》中的“消費者期待”標準(主要是指產(chǎn)品存在“不合理危險”缺陷)和風險-效用標準(產(chǎn)品的可預見的風險可以通過采取合理的替代性設(shè)計予以消除),情況也是如此。

此外,證明存在制造缺陷(比如部件失靈)或者警示缺陷(比如未能合理告知消費者如何操作智能機器人;在部分自動駕駛的情況下需要人類駕駛者保持警惕并進行操作的,如果制造商未能告知消費者如何進行操作,就需要承擔產(chǎn)品缺陷責任),同樣可以使被侵權(quán)人獲得賠償。

但問題是,人工智能技術(shù)的發(fā)展使得自動駕駛汽車等完全獨立自主的智能機器人的出現(xiàn)成為可能,這帶來的直接結(jié)果就是,一方面,證明缺陷尤其是人工智能系統(tǒng)層面的缺陷將變得異常困難,另一方面,事故的發(fā)生可能無法合理因歸于智能機器人的設(shè)計或者制造缺陷。這將給產(chǎn)品責任帶來直接的挑戰(zhàn)。面對自主智能機器人,人們將需要開始審視既有的產(chǎn)品責任制度能否在制造商利益和消費者利益之間實現(xiàn)平衡。

2.智能機器人涉及無法解釋的事故

產(chǎn)品責任只能讓制造商對因產(chǎn)品存在缺陷而造成的侵害行為承擔民事責任,但問題是,智能機器人的一些新特征可能使得無法將事故的責任分配給生產(chǎn)者等既有法律主體,尤其是當出現(xiàn)不能合理推斷出事故是由設(shè)計或者制造缺陷造成的情形之時。雖然自動駕駛汽車普遍被認為比人類駕駛更安全,比如,麥肯錫公司的一份研究報告發(fā)現(xiàn),自動駕駛汽車將使交通事故減少90%;但是自動駕駛汽車對交通事故并非具有完全的免疫力,而自主性、可預測性、可解釋性、因果關(guān)系等因素將極大增加事件的無法解釋性,帶來責任鴻溝。具體論證如下。

第一,自主性與可預測性(Foreseeability)。如前所述,自動駕駛汽車等智能機器人區(qū)別于傳統(tǒng)的機器的最大特征在于具有高度的甚至完全的自主性。無論采用何種機器學習方法,當前主流的深度學習算法都不是一步一步地對計算機編程,而是允許計算機從數(shù)據(jù)(往往是大量數(shù)據(jù))中學習,不需要程序員作出新的分步指令。因此,在機器學習中,是學習算法(Learning Algorithm)創(chuàng)建了規(guī)則,而非程序員;其基本過程是給學習算法提供訓練數(shù)據(jù),然后,學習算法基于從數(shù)據(jù)中得到的推論生成一組新的規(guī)則,稱之為機器學習模型。這意味著計算機可被用于無法進行手動編程的復雜認知任務(wù),比如圖像識別、將圖片翻譯成語音、汽車駕駛等。

回到自動駕駛汽車,自動駕駛系統(tǒng)利用一系列雷達和激光傳感器、攝像頭、全球定位裝置以及很多復雜的分析性程序和算法等,像人類一樣駕駛汽車,而且做得更好。自動駕駛汽車“觀察”路況,持續(xù)注意其他汽車、行人、障礙物、繞行道等,考慮交通流量、天氣以及影響汽車駕駛安全的其他所有因素并不斷調(diào)整其速度和路線。而且自動駕駛汽車被編程來避免與行人、其他車輛或者障礙物發(fā)生碰撞。所有這一切都是機器學習的結(jié)果。因此可以說,在每一個現(xiàn)實情境中,都是自動駕駛汽車自身在獨立判斷和決策,雖然是程序員設(shè)定了學習規(guī)則。學習能力和適應能力的存在使得預測自動駕駛汽車在特定情境中的行為成為一個問題。

此外,人類決策系統(tǒng)與現(xiàn)代人工智能系統(tǒng)存在一個本質(zhì)上的區(qū)別,正是這一區(qū)別使得人類無法準確預知人工智能系統(tǒng)針對某個問題的解決措施。受限于人類大腦的認知能力,為了作出決策,人類無法在有時間限制的情況下分析所有的相關(guān)信息,所以人類常常退而求其次,選擇一個自己滿意的解決方法,而非一個最佳化的解決方法,經(jīng)濟學家Herbert Simon稱之為“滿意法”。

電腦計算能力和機器學習方法的不斷提高,使得現(xiàn)代人工智能系統(tǒng)能夠在有限的時間內(nèi)精確計算所有的可能性,而且人工智能系統(tǒng)本質(zhì)上不受提前預置的概念、經(jīng)驗法則、傳統(tǒng)智慧等因素的限制,從而使其能夠選擇人類完全沒有考慮過或者可能會實施的解決方案。正是這種能夠作出獨特決策的能力或者說自主性,讓人工智能系統(tǒng)能夠應用于更加廣泛的領(lǐng)域,同時也讓人工智能系統(tǒng)的設(shè)計者具有賦予人工智能系統(tǒng)這項能力的經(jīng)濟動力。

所以,盡管人類設(shè)計并制造了自動駕駛汽車等智能機器人,但卻可能無法預見其具體決策,然而這種無法預見性可能正是系統(tǒng)的設(shè)計者所期待的。隨著更加通用化的人工智能的發(fā)展以及機器學習技術(shù)的進步,人工智能的行為和決策的不可預見性問題將會更加頻繁地出現(xiàn),而且程度會不斷加深。

更進一步,自動駕駛汽車可能“打破”預先設(shè)定的規(guī)則,大大超出其設(shè)計者的預期。人們一直擔心,賦予機器自主“思考”的能力可能導致其有能力違反被給予的“規(guī)則”,以人們意想不到的方式行為。這不純粹是想象,已經(jīng)有證據(jù)表明高度“智能”的自主機器可以學習“打破”規(guī)則以保護其自身的生存。以自動駕駛汽車為例,盡管模擬測試對其行為和決策意味重大,美國交通部在其發(fā)布的《聯(lián)邦自動駕駛汽車政策》中也強調(diào)模擬能夠代表復雜的現(xiàn)實環(huán)境的測試環(huán)境的重要性;但是自動駕駛汽車脫離制造商控制、進入流通領(lǐng)域之后的學習和經(jīng)歷同樣影響其行為和決策。新的數(shù)據(jù)輸入可能使自動駕駛汽車進行調(diào)整和適應,導致其行為和決策超出預先設(shè)置的規(guī)則,這在理論上并非不可能。

再者,測試環(huán)境并不能窮盡所有的現(xiàn)實可能性,當異常情況(Novel Situation)出現(xiàn)時,自動駕駛汽車必須在缺乏預先設(shè)定的規(guī)則的情況下,依據(jù)其自己創(chuàng)建的規(guī)則,真正獨立自主地作出決策。對于這種偏離預期的行為,以產(chǎn)品缺陷這一事由讓生產(chǎn)者承擔責任,難以在侵權(quán)法上得到證成。

第二,可解釋性(Interpretability)。通常,當人類駕駛者造成交通事故,訴訟雙方通過舉證、質(zhì)證等程序性手段,完全可以還原并查明事故發(fā)生的過程,從而決定人類駕駛者是否履行了合理的注意義務(wù)。事故的可解釋性使得因傳統(tǒng)的交通事故而產(chǎn)生的法律糾紛可以按照既有法律框架得到有效解決。但是,現(xiàn)代人工智能系統(tǒng)越來越成為一個“黑箱”,所有決策都存在于這個“黑箱”中,自動駕駛汽車等智能機器人也不例外。

而且,雖然學習算法可能是公開和透明的,但它產(chǎn)生的模型可能不是,因為機器學習模型的內(nèi)部決策邏輯并不總是可以被理解的,即使對于程序員也是如此。因此,即使設(shè)計者可能也無從知曉系統(tǒng)如何進行決策,更別提普通公眾了。行為和決策的不透明性和不可解釋性帶來的直接結(jié)果就是,當自動駕駛汽車造成交通事故時,人們將很難查明事故背后的原因。即使法律要求算法必須公開、透明,或者可以在法庭上對智能機器人的算法系統(tǒng)及其決策進行交叉詢問,當事人也會面臨技術(shù)性障礙,在成本上并不經(jīng)濟。此時,誰來承擔法律責任,將成為一個大大的問題。

第三,因果關(guān)系(Causality)。一方面,如前所述,人工智能系統(tǒng)的一些新特征使得事故的可解釋性大打折扣,帶來歸因難題;另一方面,由于自動駕駛汽車等智能機器人自帶學習能力和適應能力,其“后天的”(區(qū)別于“先天的”系統(tǒng)設(shè)計和訓練)學習和經(jīng)歷可能成為此類系統(tǒng)造成的任何損害的一個替代原因(Superseding Cause),足以使侵權(quán)行為事實上的行動者免于承擔責任。

替代原因之所以可能出現(xiàn),是因為一個能夠自主學習的人工智能系統(tǒng)的行為部分依靠其后天的經(jīng)歷,即使最細心的設(shè)計者、編程者以及制造者都沒有辦法控制或者預期人工智能系統(tǒng)在脫離他們之后將會經(jīng)歷些什么。

因此,當自動駕駛汽車等智能機器人發(fā)生事故、造成損害,而事故本身又難以解釋或者不能合理追溯到設(shè)計缺陷或者制造缺陷,或者損害是因人工智能系統(tǒng)難以為設(shè)計者所預測到的特殊經(jīng)歷造成的,此時,讓設(shè)計者承擔責任將會導致不公平和非正義,但這樣卻會導致被侵權(quán)人難以獲得賠償。于是,法院面臨的挑戰(zhàn)是,為了保證被侵權(quán)人能夠得到賠償,就必須解決人工智能系統(tǒng)的可解釋性、可預見性以及因果關(guān)系等問題。

(三)替代責任的適用可能性

如果智能機器人實際上“代理或者代表”某個法律主體從事行為或者進行決策,那么可以比照父母對未成年人子女的責任或者說監(jiān)護人對被監(jiān)護人的責任,或者雇主對雇員的責任,讓部署智能機器人的人承擔替代責任。其實在合同領(lǐng)域,智能軟件、程序化交易、智能合約等現(xiàn)象就給合同責任帶來挑戰(zhàn),引起學界討論,但是對于算法和程序做出的交易,各國一般將智能軟件看作是通信方式,而非認為智能軟件和部署智能軟件的人之間存在代理關(guān)系或者雇傭關(guān)系。因此,借助智能軟件形成的所有合同法律關(guān)系都歸屬于部署智能軟件的人,由其享有合同權(quán)利并承擔合同義務(wù)。

按照這一思路,在某些情況下,可以讓部署智能機器人的人承擔替代責任。比如,如果一個公司利用無人機送貨,或者利用自動駕駛出租車運送乘客,或者利用服務(wù)機器人提供家政、酒店、外賣等領(lǐng)域的服務(wù),那么其就必須對智能機器人的行為負責。但是,如果我們類比雇主對雇員的責任,雇主的替代責任以雇員在從事雇傭活動中造成的損害為限,不對雇員的職務(wù)范圍以外的或者非職務(wù)的加害行為負責,那么如何確定部署智能機器人的人對智能機器人的責任限度和范圍,將是法律必須回應的一個問題。更進一步,如果將智能機器人看作是事實上的雇員,為了明確雇主的責任,就必須提出判斷智能機器人的職務(wù)行為和非職務(wù)行為的標準。本文僅提出這么一種可能性,這里不做進一步探討。

歐盟開始為智能機器人探索新的民事責任規(guī)則

面對人工智能的快速發(fā)展,一些國家開始探索相關(guān)立法和監(jiān)管。

在美國,美國交通部2016年9月出臺的《聯(lián)邦自動駕駛汽車政策》雖未涉及責任問題,但其中提出的自動駕駛汽車安全標準卻可以為舉證產(chǎn)品責任提供必要的參考;此外,佛羅里達州、密歇根州等涉及自動駕駛的立法均規(guī)定,車輛在被第三方改造為自動駕駛汽車后,車輛的原始制造商不對自動駕駛汽車的缺陷負責,除非有證據(jù)證明車輛在被改造為自動駕駛汽車前就已存在缺陷,這一規(guī)定實際上有利于厘清各方的法律責任。

在德國,監(jiān)管機構(gòu)開始考慮出臺新規(guī),要求汽車廠商在自動駕駛汽車中安裝黑匣子,以便在事故發(fā)生后判定法律責任,開展保險理賠工作,這表明德國已經(jīng)開始關(guān)注自動駕駛汽車的透明性、可解釋性以及可追溯性問題。

在英國,自動駕駛汽車中心(Centre for Connected and Autonomous Vehicles,縮寫為CCAV)曾發(fā)布兩份報告,在其中對保險和產(chǎn)品責任提出建議;報告提議將強制性的機動車保險延伸到自動駕駛汽車以便將產(chǎn)品責任囊括進去;新的保險框架旨在保護自動駕駛汽車事故中的受害者,受害者將可以直接向汽車保險人請求賠償,而保險人將有權(quán)向依據(jù)既有法律負有責任(比如產(chǎn)品責任)的主體進行追償。

在智能機器人民事立法方面,當屬歐盟動作最大。早在2015年1月,歐盟議會法律事務(wù)委員會(JURI)就決定成立一個工作小組,專門研究與機器人和人工智能的發(fā)展相關(guān)的法律問題。

2016年5月,法律事務(wù)委員會發(fā)布《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》,同年10月發(fā)布《歐盟機器人民事法律規(guī)則》。在這些研究和報告的基礎(chǔ)上,2017年2月16日,歐盟議會投票表決通過一份決議,在其中提出了一些具體的立法建議,要求歐盟委員會就機器人和人工智能提出立法提案(在歐盟只有歐盟委員會有權(quán)提出立法提案,但歐盟委員會并無義務(wù)遵守這一要求,不過如果其拒絕這么做,就必須陳述其理由)。

法律事務(wù)委員會提出的立法建議涉及多個方面,主要包括:成立一個專門負責機器人和人工智能的歐盟機構(gòu);確立人工智能倫理準則;為智能機器人重構(gòu)責任規(guī)則;長期來看,考慮賦予復雜的自主機器人法律地位(所謂的“電子人”)的可能性;知識產(chǎn)權(quán)方面應明確人工智能的“獨立智力創(chuàng)造”;注重隱私和數(shù)據(jù)保護;推進標準化工作和機器人的安全可靠性;針對具有特定用途的機器人和人工智能系統(tǒng)(主要包括自動駕駛汽車、護理機器人、醫(yī)療機器人、無人機、人類修復和增強等)出臺特定規(guī)則,進行特殊監(jiān)管;關(guān)注人工智能的社會影響;以及加強法律政策領(lǐng)域的國際合作。

(一)需要新的責任規(guī)則

在法律事務(wù)委員會看來,如今的機器人已經(jīng)具有自主性和認知特征,也即,具有從經(jīng)歷中學習并獨立自主地作出判斷的能力,而且可以實質(zhì)性調(diào)整其行為,從機器人的侵害行為中產(chǎn)生的法律責任由此成為一個重大問題。機器人的自主性越強,就越難將其當成是其他主體(比如制造商、所有人、使用者等)手中的簡單工具,這反過來使得既有的責任規(guī)則開始變得不足,因而需要新的規(guī)則。新的規(guī)則著眼于如何讓一臺機器為其行為或者疏忽而部分或者全部地承擔責任。結(jié)果就是,解決機器人是否應當擁有法律地位這一問題將變得越來越迫切。最終,法律需要對機器人的本質(zhì)問題作出回應,其是否應當被當成是自然人、法人、動物抑或物,或者法律應當為其創(chuàng)設(shè)新類型的法律主體,在權(quán)利、義務(wù)、責任承擔等方面具有其自身的特性和內(nèi)涵。

在目前的法律框架下,機器人自身不對因其行為或者疏忽而給第三方造成的損害承擔責任。而且,既有責任規(guī)則要求機器人的行為或者疏忽能夠歸因于制造商、所有人、使用者等特定法律主體,并且這些主體能夠預見并避免機器人的加害行為。更進一步,關(guān)于危險物品的責任和產(chǎn)品責任可以讓這些法律主體為機器人的行為承擔嚴格責任。

但是,如果機器人自主地作出決策,傳統(tǒng)的責任規(guī)則就將不足以解決機器人的責任問題,因為傳統(tǒng)的規(guī)則將可能不能確定責任方并讓其作出賠償。此外,現(xiàn)有法律框架的缺點在合同責任方面更是顯而易見的,因為機器人現(xiàn)在能夠選擇合同當事人,磋商合同條款,締結(jié)合同并決定是否以及如何執(zhí)行所達成的合同,這些現(xiàn)象使得傳統(tǒng)的合同規(guī)則無法適用。在非合同責任方面,既有的產(chǎn)品責任規(guī)則僅能涵蓋因機器人的制造缺陷而造成的損害,同時受害人必須能夠證明存在實際損害、產(chǎn)品缺陷且缺陷與損害之間具有因果關(guān)系。

但是,目前的法律框架無法完全涵蓋新一代機器人所造成的損害,因為它們具備適應性和學習能力,具有一定程度上的行為不可預測性,因為這些機器人將從其自己的變幻莫測的經(jīng)歷中自主學習,并且以獨特且不可預見的方式與其所處環(huán)境進行交互。

(二)構(gòu)建新的責任規(guī)則

對于智能機器人帶來的責任挑戰(zhàn),法律事務(wù)委員會從歐盟自身的法律體系出發(fā),提出了一些可供參考的立法建議。具體論證如下。

第一,對于智能機器人,有損害,必有責任。無論選擇什么樣的法律方案來解決機器人的責任問題,在涉及財產(chǎn)損害之外的損害案件中,都不應該限制可以被彌補的損害的種類或者程度,也不應該基于損害是由非人類行動者(即智能機器人自身)造成的這一理由限制受害人可能獲得的賠償。對于智能機器人造成的損害,未來的立法應當規(guī)定嚴格責任,僅要求機器人的侵害行為和受害人的損害之間具有因果關(guān)系即可。

第二,如果最終負有責任的主體得到確認,其所應承擔的責任應與其給予機器人的指令級別以及機器人的自主性程度相稱。因此,機器人的自主性或者學習能力越強,其他主體的責任就越低;機器人的“教育”持續(xù)的時間越長,“教育者”所應負擔的責任就越大。此外,當將機器人的侵害行為歸咎于特定主體時,不應將通過“教育”機器人產(chǎn)生的技能與嚴格依賴于其自身學習能力的技能相混淆。

第三,為自主智能機器人造成的損害分配法律責任是一個復雜的問題,一個可能的解決方案是適用于智能機器人的強制保險制度。但是該保險制度與當前的機動車保險不同,因為后者僅覆蓋人類行為和差錯。適用于機器人的保險制度可以基于要求制造商為其生產(chǎn)的機器人購置保險的義務(wù)。除了制造商,也可以讓機器人的所有人購買此類保險。

第四,可以考慮建立賠償基金,作為強制保險制度的一個補充。一方面,賠償基金可以確保未被保險覆蓋的損害可以得到彌補,這是設(shè)立賠償基金的首要目的;另一方面,允許機器人牽涉到的多個利益相關(guān)方的投入,比如向智能機器人作出的投資、捐贈或者支付,被轉(zhuǎn)移到該基金。此外,賠償基金可以作為限制制造商責任的一個條件,即,對于被賠償基金覆蓋的智能機器人,其制造商僅承擔有限責任,即,財產(chǎn)損害的賠償責任以該基金為限度,其他類型的損害的賠償則不受此限。

第五,與保險、賠償基金等相配套的機器人登記制度和機器人法律地位。機器人登記制度基于機器人分類。確保機器人與其賠償基金之間的關(guān)聯(lián)在機器人登記中得到體現(xiàn),以便任何人都能知曉基金的性質(zhì)、財產(chǎn)損害的責任限制以及其他相關(guān)信息。此外,對于最復雜的自主智能機器人,可以考慮賦予其法律地位,在法律上承認其為“電子人”(Electronic Person),具有明確的權(quán)利和義務(wù),包括對其造成的損害作出賠償,以及在智能機器人作出決策或者獨立自主地與第三方交往時,適用電子人格(這可以幫助解決合同責任、侵權(quán)責任等問題)。

智能機器人民事責任的幾種方案

如前所述,智能機器人的出現(xiàn)和發(fā)展將給產(chǎn)品責任等既有侵權(quán)責任規(guī)則提出挑戰(zhàn)。法院未來在審理第一起涉及真正完全的自動駕駛汽車或者智能機器人的損害案件時將需要面對這些挑戰(zhàn),可預測性、可解釋性以及因果關(guān)系等將可能成為彌補損害的最大障礙。與此同時,這些挑戰(zhàn)一方面可能使終端用戶的損害無法得到補償,另一方面給制造商帶來法律責任的不確定性,最終可能影響技術(shù)發(fā)展和進步,自動駕駛汽車等智能機器人所能帶來的諸多好處因此可能延遲普及。

歐盟、英國、美國等都已經(jīng)意識到既有的民事責任規(guī)則在應對智能機器人的法律責任時具有局限性,這種局限性進而會影響各方對其合理行為的預測可能性,進而破壞法律的可預測性,最終會限制行業(yè)發(fā)展的步伐;這些國家和地區(qū)為此已經(jīng)開始探索新的責任規(guī)則或者法律方案,目的在于在制造商、終端用戶等法律主體之間實現(xiàn)新的法律平衡,同時為智能機器人民事責任的確定提供更為清晰、明確和有效的規(guī)則。

為了更合理、有效地對智能機器人造成的損害分配法律責任,筆者結(jié)合各國的探索,試圖提出幾種可供參考的方案;但立法者或者法院最終選擇何種方案,需要從法經(jīng)濟學、實證主義、功用主義等角度進行全方位的論證,以便實現(xiàn)法律平衡各方利益的價值。

第一,借鑒《侵權(quán)責任法》上關(guān)于危險責任的規(guī)定,讓智能機器人的制造商或者使用者承擔嚴格責任(Strict Liability)。但智能機器人的嚴格責任的出發(fā)點不是“異常危險”或者“不合理危險”。如前所述,當真正完全的自主智能機器人發(fā)生事故、造成損害,證明缺陷、因果關(guān)系等事項將成為受害人難以逾越的法律障礙。在這種情況下,法律或者法院可以強令執(zhí)行保險制度以解決侵權(quán)法的不充足性。

支持建立智能機器人的嚴格責任的理由如下:

其一,為不是因其自身過錯而遭受損害的個人提供救濟是一項重要的價值,在因果鏈條無法解釋的情況下讓一個個體自己承擔所遭受的損失,與公正、分配正義、風險分擔等基本觀念背道而馳;

其二,不同于受害人,智能機器人的制造商處在了消化成本的有利位置,可以通過定價等方式廣泛分散損失負擔;

其三,嚴格責任制度可以節(jié)約所有相關(guān)的交易成本,尤其是在缺陷、因果關(guān)系等難以證明的情況下,訴訟成本將會非常高昂;從成本-效率的角度來看,智能機器人的復雜性和自主性呈幾何級數(shù)增長,產(chǎn)品責任訴訟的成本亦將呈指數(shù)級增長,與其為律師、專家等投入高昂成本,倒不如來更多賠償受害者;

最后,相比于一個預測性低的法律制度,一個可預測的責任機制將能更好地促進創(chuàng)新。

第二,差別化責任規(guī)則。差別化責任制度的前提是針對于自動駕駛汽車等智能機器人的審批機制。未來有必要由統(tǒng)一的人工智能監(jiān)管機構(gòu)或者行業(yè)主管機構(gòu)對智能機器人進行必要的監(jiān)管,審批制度是潛在的監(jiān)管措施之一。

審批制度可以發(fā)揮兩方面的作用,一方面,審批制度有利于保障面向終端用戶的智能機器人的安全可靠性,增進公眾對智能機器人的信任;另一方面,審批制度可以成為智能機器人的差別化侵權(quán)責任的基礎(chǔ)。

對于通過監(jiān)管機構(gòu)審批的智能機器人,制造商實質(zhì)上將只承擔有限的侵權(quán)責任,對監(jiān)管規(guī)則的遵守換來的是有限的侵權(quán)責任,而非完全排除其侵權(quán)責任。在涉及通過審批的智能機器人的訴訟中,被侵權(quán)人需要按照傳統(tǒng)的產(chǎn)品責任進行舉證。否則,制造商等法律主體將只承擔有限責任,方式可以是保險、賠償基金(比如監(jiān)管機構(gòu)可以拿審批費用的一部分或者政府財政預算來設(shè)立賠償基金)等。

對于沒有經(jīng)過審批的人工智能系統(tǒng),制造商等法律主體應當承擔嚴格責任,而且該責任是連帶的,以便讓智能機器人涉及到的多個相關(guān)主體都承擔責任,以實現(xiàn)最大化救濟被侵權(quán)人的目的。但是為了不不利地影響技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展,審批制度可以是自愿性的。

第三,強制保險制度和賠償基金。如前所述,在涉及智能機器人的訴訟中舉證產(chǎn)品缺陷、因果關(guān)系等事項將變得越來越困難,為了能夠?qū)o辜的受害人進行賠償,可以考慮針對智能機器人提出由制造商或者所有人負擔的強制性的保險機制,以覆蓋產(chǎn)品責任;由市場主導的一個保險機制將不需要對既有法律制度作出大的調(diào)整或者變革。賠償基金可以作為有限責任承擔或者賦予智能機器人法律人格的配套措施,已如前所述,不再贅述。

第四,可以像歐盟那樣,考慮賦予某些智能機器人法律人格。歷史地看,法律可以賦予公司等法人地位,甚至承認非法人組織(比如合伙)也可以享有一定的法律地位,未來在時機成熟時賦予智能機器人法律地位,也未嘗不可。到那時,如果賦予智能機器人電子人格(Electronic Personality),讓其可以享有特定的權(quán)利和義務(wù),并可以對其行為承擔法律責任,包括對其造成的損害的賠償責任,人們現(xiàn)在擔心的很多責任問題都可以得到較好的解決。

結(jié)論

制定的法律在制定之時便已落后于時代。誠然,技術(shù)進步總是會給法律提出這樣或者那樣的挑戰(zhàn),但是法律的可預測性和張力使得法院通常可以依循法律解釋學,得心應手地應對新出現(xiàn)的情況,而不需要對既有法律規(guī)則做出較大變動。

但是,法律解釋學并非一顆靈丹妙藥,不但有其局限性,而且也會失靈,在一些新情況下難以確保法律的利益平衡目的之實現(xiàn)。完全自主的自動駕駛汽車等智能機器人的出現(xiàn)和發(fā)展,將會帶來這樣的新情況。屆時,侵權(quán)法、合同法等法律規(guī)則的不充足性和局限性將逐漸顯現(xiàn)出來,對新的法律規(guī)則的需求將變得越來越迫切。

究竟什么樣的規(guī)則最適合應對未來的智能機器人帶來的責任挑戰(zhàn),筆者在上文提出的幾種方案并非蓋棺之言,而是希望能夠引起人們的關(guān)注和探討,共同尋找并論證恰當?shù)囊?guī)則。最終目的是希望在促進新技術(shù)發(fā)展的同時,也對可能被新技術(shù)影響或者侵害的人提供法律救濟,無論這些影響或者侵害能否被既有的法律所覆蓋。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉