AI引倫理爭議!AI技術(shù)有道德標(biāo)準(zhǔn)可言嗎?
大約從五年前開始,每個(gè)人都在談?wù)撐锫?lián)網(wǎng)(IoT)以及它將如何經(jīng)由數(shù)億臺裝置互連來改變一切。我們似乎周而復(fù)始地經(jīng)歷一項(xiàng)新技術(shù)被大肆宣傳的循環(huán),如今輪到人工智能(AI)了。
在我大約33年來的電子產(chǎn)業(yè)與半導(dǎo)體職業(yè)生涯中,我看到了技術(shù)革命的三大變化。首先是微處理器時(shí)代,然后是互聯(lián)網(wǎng),接著是行動(dòng)時(shí)代。而今,就像新思科技(Synopsys)共同首席執(zhí)行官Aart de Geus最近所說的:“現(xiàn)在是AI時(shí)代!”他并在日前的一場活動(dòng)中提到,AI將推動(dòng)半導(dǎo)體產(chǎn)業(yè)在未來幾十年的發(fā)展,因?yàn)榇髷?shù)據(jù)(big data)需要機(jī)器學(xué)習(xí),而機(jī)器學(xué)習(xí)需要更多運(yùn)算,這些都將產(chǎn)生更多的數(shù)據(jù)。
的確,AI如今正處于市調(diào)公司Gartner所謂“炒作期”(hype cycle)的上升階段,但它似乎又不同于之前引進(jìn)新技術(shù)的情況:我從未見過一項(xiàng)技術(shù)引發(fā)這么多關(guān)于倫理道德的爭辯。AI將會(huì)改變許多事情,自動(dòng)駕駛車、軍用和工業(yè)無人機(jī)、機(jī)器人,以及在醫(yī)療、政府和城市功能等領(lǐng)域的其他許多應(yīng)用都可能受到影響。
2017年版Gartner新技術(shù)成熟度曲線
英國政府日前發(fā)布了一份長達(dá)183頁的《英國AI發(fā)展現(xiàn)況調(diào)查》(AI in the UK: ready, willing and able?)報(bào)告,涵蓋許多有關(guān)AI系統(tǒng)的責(zé)任、監(jiān)管與倫理道德等議題,以及在AI研究與商業(yè)化應(yīng)用方面的創(chuàng)新、投資與技巧等其他主題。
英國上議院特別委員會(huì)主席Lord Clement-Jones說:“英國有著領(lǐng)先的AI公司、充滿活力的學(xué)術(shù)研究文化、活躍的創(chuàng)業(yè)生態(tài)系統(tǒng),以及大量的法律、道德、金融和語言優(yōu)勢。我們應(yīng)該充份利用這樣的環(huán)境優(yōu)勢,但關(guān)鍵在于必須以道德準(zhǔn)則作為發(fā)展AI的關(guān)注重點(diǎn)。”
Jones說:“AI并非沒有風(fēng)險(xiǎn),委員會(huì)提出的道德原則將有助于減輕這些風(fēng)險(xiǎn)。道德方法確保大眾相信這項(xiàng)技術(shù)并且看到使用它的好處,同時(shí)也使其準(zhǔn)備好質(zhì)疑技術(shù)是否遭到濫用。我們要確保這個(gè)國家仍然是研究和開發(fā)這項(xiàng)新技術(shù)的前哨站。不過,新創(chuàng)公司可能很難自行擴(kuò)大規(guī)模。”
在該委員會(huì)的報(bào)告中,許多建議均指出AI需要透明化。當(dāng)AI被用來做出重大或敏感的決策時(shí),應(yīng)該建立一個(gè)自發(fā)性機(jī)制來告知消費(fèi)者。該報(bào)告并指出,當(dāng)AI系統(tǒng)故障或?qū)τ脩粼斐蓚r(shí),現(xiàn)行法律是否足以明確相關(guān)責(zé)任,目前并不清楚,因此,該領(lǐng)域亟需盡快明確責(zé)任歸屬。
讓AI透明化
AI系統(tǒng)能夠透明且易于理解嗎?是否存在一定的技術(shù)透明度,讓人們能針對系統(tǒng)為什么作出某一項(xiàng)特定決定提出質(zhì)疑?
業(yè)界對此以及AI系統(tǒng)的問責(zé)制都有詳細(xì)討論。在許多深度學(xué)習(xí)系統(tǒng)中,透過許多不同的處理層饋送信息并得出最終解答或決定,可能會(huì)讓系統(tǒng)看起來像“黑盒子”,即使是其開發(fā)人員也不一定都能夠確定哪些因素導(dǎo)致系統(tǒng)決定其中一項(xiàng)比另一項(xiàng)更重要。
輝達(dá)(Nvidia)歐洲、中東、非洲(EMEA)解決方案架構(gòu)和工程團(tuán)隊(duì)總監(jiān)Timothy Lanfear提出了另一種看法。他說,機(jī)器學(xué)習(xí)算法通常比傳統(tǒng)的軟件編碼更短、更簡單,因此在某些方面也更容易理解與偵測。“我們每天都在使用那些復(fù)雜到無法吸收的系統(tǒng)。AI并沒什么不同。它也處于一種無法完全理解的復(fù)雜程度。然而,你唯一能做的是把它分解成片段,找到測試它的方法,然后檢查它是否按你期望的方式進(jìn)行,如果不是的話,就采取行動(dòng)。”
該委員會(huì)坦承,要達(dá)到技術(shù)上的完全透明化相當(dāng)困難,對于某些AI系統(tǒng)來說甚至是不可能的,特別是在某些情況下甚至并不適用。然而,在一些安全關(guān)鍵的場景中,技術(shù)必須是透明的。在這些領(lǐng)域的監(jiān)管機(jī)構(gòu)必須有權(quán)強(qiáng)制使用更透明的AI技術(shù)。
英國AI委員會(huì)在其報(bào)告中還提到,“我們認(rèn)為部署任何可能對個(gè)人生活造成潛在影響的AI系統(tǒng)都是不被接受的,除非它能對自己所做的決定提出充份且令人滿意的解釋。例如對于像深度神經(jīng)網(wǎng)絡(luò)(DNN)等無法為其決定產(chǎn)生完全解釋的情況,可能意味著必須延遲某些特定用途的部署,直到找到替代解決方案。”
致力于開發(fā)全堆棧自動(dòng)駕駛車功能的英國自駕車新創(chuàng)公司FiveAI首席執(zhí)行官Stan Boland并不認(rèn)同該報(bào)告中提出AI系統(tǒng)存在的黑盒子現(xiàn)象。他說:“我們的系統(tǒng)是完全模塊化的,這對于解釋和除錯(cuò)系統(tǒng)以提升技術(shù)和服務(wù)來說非常關(guān)鍵。任何系統(tǒng)在實(shí)際上路之前都必須經(jīng)過多次獨(dú)立驗(yàn)證。”
他補(bǔ)充說,全世界采用自動(dòng)駕駛的方各不相同,“例如,在英國倫敦(London)和美國山景城(Mountain View)就有不同的運(yùn)作方式。每個(gè)城市由于生活方式和環(huán)境條件不同,自動(dòng)駕駛系統(tǒng)的模式也各異其趣。對我們來說,重點(diǎn)在于打造出符合歐洲客戶需求的解決方案。”
各國加碼投資AI
英國政府的這份報(bào)告也為全球的AI研發(fā)提供另一個(gè)視角。根據(jù)高盛(Goldman Sachs)的數(shù)據(jù)顯示,在2012年第1季到2016年第2季之間,美國對于AI的投資達(dá)到了182億美元,中國大陸和英國分別是26億美元和8.5億美元。隨著中國大陸致力于成為AI的全球領(lǐng)導(dǎo)者,預(yù)計(jì)到2030年,在其發(fā)展AI生態(tài)系統(tǒng)方面的投資將上看1,500億美元。
有鑒于現(xiàn)有資源的差異性,英國在AI領(lǐng)域的投入規(guī)??赡鼙炔簧现?、美。德國和加拿大則有更多的比較性。德國的AI策略受其打造旗艦級工業(yè)4.0策略影響頗深。其策略探索以AI提升智能制造的過程,并產(chǎn)出整合AI功能的智能商品,例如冰箱和汽車。而加拿大的AI策略則較不專注于為特定領(lǐng)域開發(fā)AI,但該國政府已經(jīng)拿出1.25億美元成立了三座新的AI研究所,并吸引更多來自全球的AI研究人員。
處理器瓶頸?
過去十年來,盡管深度學(xué)習(xí)在AI的進(jìn)展中扮演了重要角色,但它也存在一些問題。深度學(xué)習(xí)需要大量的數(shù)據(jù)集,這極難取得且費(fèi)用昂貴,而且還需要大量的處理能力。該報(bào)告中提到,盡管深度學(xué)習(xí)近來隨著處理能力提高而明顯進(jìn)步,但摩爾定律(Moore’s law)開始面臨挑戰(zhàn),處理能力提高帶動(dòng)降價(jià)的腳步開始放緩。諸如量子運(yùn)算等創(chuàng)新也還無法使其復(fù)蘇或加速,不過現(xiàn)在還為時(shí)尚早,未來還有很多的不確定性。
深度學(xué)習(xí)先驅(qū)Geoff Hinton提出了深度學(xué)習(xí)革命可能很快結(jié)束的警告。其他人的看法則較樂觀,特別是由于各種客制AI芯片的出現(xiàn),如Google的張量處理器(TPU),以及量子運(yùn)算的進(jìn)展,都為深度學(xué)習(xí)的未來提供了新的發(fā)展動(dòng)能。
犯罪濫用與監(jiān)管
該報(bào)告并深入探索犯罪濫用、監(jiān)管和創(chuàng)新等領(lǐng)域。在“對抗式AI”(adversarial AI)領(lǐng)域,研究人員有效掌握AI系統(tǒng)如何運(yùn)作,并試圖瞞過其他AI系統(tǒng)做出錯(cuò)誤的分類或決定。特別是影像識別系統(tǒng)經(jīng)證實(shí)極易于受到這一類型的攻擊。例如,研究人員可以巧妙地稍加改變圖片或甚至是3D模型或標(biāo)志,使其看起來與原始影像毫無區(qū)別,但仍瞞過AI系統(tǒng)將它們識別為完全不同的對象。
其他例子還包括利用虛假影像讓車子發(fā)生碰撞、突然停止,或觸發(fā)自動(dòng)武器發(fā)射等。當(dāng)然,這些情況也可能發(fā)生在非機(jī)器學(xué)習(xí)的系統(tǒng)(人類決策者亦然),不過,使用非機(jī)器學(xué)習(xí)方法可以對所涉及的推論進(jìn)行詢問、恢復(fù)和除錯(cuò),而許多機(jī)器學(xué)習(xí)系統(tǒng)則無法做到這些。
在監(jiān)管方面,該報(bào)告指出中國大陸“雖然在技術(shù)應(yīng)用方面的法規(guī)不夠完善,但卻從另一方面推動(dòng)了更快的實(shí)驗(yàn)和創(chuàng)新,包括對于數(shù)據(jù)的利用和AI技術(shù)等方面。”
公司和組織在違反規(guī)定時(shí)將面臨的責(zé)任程度也包括在內(nèi)。Nvidia的Lanfear說,雖然公司員工知道其道德原則以及如何遵守規(guī)定,但他坦承并不容易回答這個(gè)問題,因?yàn)?ldquo;作為技術(shù)專家,這并不是我的核心思想。”對此,很多人都和Lanfear有同樣的感受。因此,必須找到一些機(jī)制以確保目前的道德準(zhǔn)則趨勢不只是簡單地轉(zhuǎn)化為無意義的黑盒子作業(yè)。
如今,我們所擁有的AI技術(shù)可用于推動(dòng)下一波基于高端AI處理器與芯片的運(yùn)算進(jìn)展。但是,盡管半導(dǎo)體和運(yùn)算產(chǎn)業(yè)不斷挑戰(zhàn)極限,業(yè)界最終將會(huì)決定該技術(shù)在現(xiàn)實(shí)世界的應(yīng)用有多大——我們總是在看到自動(dòng)駕駛車發(fā)生傷亡事件后,才能聽見社會(huì)的抗議聲浪。而關(guān)于AI道德標(biāo)準(zhǔn)的討論與爭議,將有助于我們思考技術(shù)該如何安全且有效地部署,以及最終可被社會(huì)接受和采納。