在1956年美國達(dá)特茅斯學(xué)院召開的學(xué)術(shù)研討會上,人工智能(AI)首次成為一個正式學(xué)術(shù)領(lǐng)域,發(fā)展至今已有60多年的歷史。隨著人工智能技術(shù)的不斷成熟,會有越來越多的機器人或智能程序充當(dāng)人類助手,幫助人們完成復(fù)重性、危險性的任務(wù)。然而,隨著人工智能技術(shù)的成熟和大范圍應(yīng)用的展開,人們可能會面臨越來越多的安全、隱私和倫理等方面的挑戰(zhàn)。
安全性挑戰(zhàn)
人工智能技術(shù)應(yīng)用引發(fā)的安全問題源于不同的原因,主要有以下幾點。
技術(shù)濫用引發(fā)的安全威脅
人工智能對人類的作用很大程度上取決于人們?nèi)绾问褂门c管理。如果人工智能技術(shù)被犯罪分子利用,就會帶來安全問題,例如,黑客可能通過智能方法發(fā)起網(wǎng)絡(luò)攻擊,智能化的網(wǎng)絡(luò)攻擊軟件能自我學(xué)習(xí),模仿系統(tǒng)中用戶的行為,并不斷改變方法,以期盡可能長時間地停留在計算機系統(tǒng)中;黑客還可利用人工智能技術(shù)非法竊取私人信息;通過定制化不同用戶閱讀到的網(wǎng)絡(luò)內(nèi)容,人工智能技術(shù)甚至?xí)挥脕碜笥液涂刂乒姷恼J(rèn)知和判斷。
技術(shù)或管理缺陷導(dǎo)致的安全問題
作為一項發(fā)展中的新興技術(shù),人工智能系統(tǒng)當(dāng)前還不夠成熟。某些技術(shù)缺陷導(dǎo)致工作異常,會使人工智能系統(tǒng)出現(xiàn)安全隱患,比如深度學(xué)習(xí)采用的黑箱模式會使模型可解釋性不強,機器人、無人智能系統(tǒng)的設(shè)計、生產(chǎn)不當(dāng)會導(dǎo)致運行異常等。另外,如果安全防護技術(shù)或措施不完善,無人駕駛汽車、機器人和其他人工智能裝置可能受到非法入侵和控制,這些人工智能系統(tǒng)就有可能按照犯罪分子的指令,做出對人類有害的事情。
未來的超級智能引發(fā)的安全擔(dān)憂
遠(yuǎn)期的人工智能安全風(fēng)險是指,假設(shè)人工智能發(fā)展到超級智能階段,這時機器人或其他人工智能系統(tǒng)能夠自我演化,并可能發(fā)展出類人的自我意識,從而對人類的主導(dǎo)性甚至存續(xù)造成威脅。比爾·蓋茨、斯蒂芬·霍金、埃隆·馬斯克、雷·庫茲韋爾等人都在擔(dān)憂,對人工智能技術(shù)不加約束的開發(fā),會讓機器獲得超越人類智力水平的智能,并引發(fā)一些難以控制的安全隱患。一些研究團隊正在研究高層次的認(rèn)知智能,如機器情感和機器意識等。盡管人們還不清楚超級智能或“奇點”是否會到來,但如果在還沒有完全做好應(yīng)對措施之前出現(xiàn)技術(shù)突破,安全威脅就有可能爆發(fā),人們應(yīng)提前考慮到可能的風(fēng)險。
隱私保護挑戰(zhàn)
大數(shù)據(jù)驅(qū)動模式主導(dǎo)了近年來人工智能的發(fā)展,成為新一輪人工智能發(fā)展的重要特征。隱私問題是數(shù)據(jù)資源開發(fā)利用中的主要威脅之一,因此,在人工智能應(yīng)用中必然也存在隱私侵犯風(fēng)險。
數(shù)據(jù)采集中的隱私侵犯
隨著各類數(shù)據(jù)采集設(shè)施的廣泛使用,智能系統(tǒng)不僅能通過指紋、心跳等生理特征來辨別身份,還能根據(jù)不同人的行為喜好自動調(diào)節(jié)燈光、室內(nèi)溫度、播放音樂,甚至能通過睡眠時間、鍛煉情況、飲食習(xí)慣以及體征變化等來判斷身體是否健康。然而,這些智能技術(shù)的使用就意味著智能系統(tǒng)掌握了個人的大量信息,甚至比自己更了解自己。這些數(shù)據(jù)如果使用得當(dāng),可以提升人類的生活質(zhì)量,但如果出于商業(yè)目的非法使用某些私人信息,就會造成隱私侵犯。
云計算中的隱私風(fēng)險
因為云計算技術(shù)使用便捷、成本低廉,提供了基于共享池實現(xiàn)按需式資源使用的模式,許多公司和政府組織開始將數(shù)據(jù)存儲至云上。將隱私信息存儲至云端后,這些信息就容易遭到各種威脅和攻擊。由于人工智能系統(tǒng)普遍對計算能力要求較高,目前在許多人工智能應(yīng)用中,云計算已經(jīng)被配置為主要架構(gòu),因此在開發(fā)該類智能應(yīng)用時,云端隱私保護也是人們需要考慮的問題。
知識抽取中的隱私問題
由數(shù)據(jù)到知識的抽取是人工智能的重要能力,知識抽取工具正在變得越來越強大,無數(shù)個看似不相關(guān)的數(shù)據(jù)片段可能被整合在一起,識別出個人行為特征甚至性格特征。例如,只要將網(wǎng)站瀏覽記錄、聊天內(nèi)容、購物過程和其他各類別記錄數(shù)據(jù)組合在一起,就可以勾勒出某人的行為軌跡,并可分析出個人偏好和行為習(xí)慣,從而進(jìn)一步預(yù)測出消費者的潛在需求,商家可提前為消費者提供必要的信息、產(chǎn)品或服務(wù)。但是,這些個性化定制過程又伴隨著對個人隱私的發(fā)現(xiàn)和曝光,如何規(guī)范隱私保護是需要與技術(shù)應(yīng)用同步考慮的一個問題。
倫理規(guī)范挑戰(zhàn)
倫理問題是人工智能技術(shù)可能帶給人們的最為特殊的問題。人工智能的倫理問題范圍很廣,其中以下幾個方面值得關(guān)注。
機器人的行為規(guī)則
人工智能正在替代人的很多決策行為,智能機器人在作出決策時,同樣需要遵從人類社會的各項規(guī)則。比如,假設(shè)無人駕駛汽車前方人行道上出現(xiàn)3個行人而無法及時剎車,智能系統(tǒng)是應(yīng)該選擇撞向這3個行人,還是轉(zhuǎn)而撞向路邊的1個行人?人工智能技術(shù)的應(yīng)用,正在將一些生活中的倫理性問題在系統(tǒng)中規(guī)則化。如果在系統(tǒng)的研發(fā)設(shè)計中未與社會倫理約束相結(jié)合,就有可能在決策中遵循與人類不同的邏輯,從而導(dǎo)致嚴(yán)重后果。
機器人的權(quán)力
目前在司法、醫(yī)療、指揮等重要領(lǐng)域,研究人員已經(jīng)開始探索人工智能在審判分析、疾病診斷和對抗博弈方面的決策能力。但是,在對機器授予決策權(quán)后,人們要考慮的不僅是人工智能的安全風(fēng)險,而且還要面臨一個新的倫理問題,即機器是否有資格這樣做。隨著智能系統(tǒng)對特定領(lǐng)域的知識掌握,它的決策分析能力開始超越人類,人們可能會在越來越多的領(lǐng)域?qū)C器決策形成依賴,這一類倫理問題也需要在人工智能進(jìn)一步向前發(fā)展的過程中梳理清楚。
機器人的教育
有倫理學(xué)家認(rèn)為,未來機器人不僅有感知、認(rèn)知和決策能力,人工智能在不同環(huán)境中學(xué)習(xí)和演化,還會形成不同的個性。據(jù)新華網(wǎng)報道,國外研發(fā)的某聊天機器人在網(wǎng)上開始聊天后不到24個小時,竟然學(xué)會了說臟話和發(fā)表種族主義的言論,這引發(fā)了人們對機器人教育問題的思考。盡管人工智能未來未必會產(chǎn)生自主意識,但可能發(fā)展出不同的個性特點,而這是受其使用者影響的。機器人使用者需要承擔(dān)類似監(jiān)護人一樣的道德責(zé)任甚至法律責(zé)任,以免對社會文明產(chǎn)生不良影響。
啟示與建議
人類社會即將進(jìn)入人機共存的時代,為確保機器人和人工智能系統(tǒng)運行受控,且與人類能和諧共處,在設(shè)計、研發(fā)、生產(chǎn)和使用過程中,需要采取一系列的應(yīng)對措施,妥善應(yīng)對人工智能的安全、隱私、倫理問題和其他風(fēng)險。
加強理論攻關(guān),研發(fā)透明性和可解釋性更高的智能計算模型
在并行計算和海量數(shù)據(jù)的共同支撐下,以深度學(xué)習(xí)為代表的智能計算模型表現(xiàn)出了很強的能力。但當(dāng)前的機器學(xué)習(xí)模型仍屬于一種黑箱工作模式,對于AI系統(tǒng)運行中發(fā)生的異常情況,人們還很難對其中的原因作出解釋,開發(fā)者也難以準(zhǔn)確預(yù)測和把握智能系統(tǒng)運行的行為邊界。未來人們需要研發(fā)更為透明、可解釋性更高的智能計算模型,開發(fā)可解釋、可理解、可預(yù)測的智能系統(tǒng),降低系統(tǒng)行為的不可預(yù)知性和不確定性,這應(yīng)成為人工智能基礎(chǔ)理論研究的關(guān)注重點之一。
開展立法研究,建立適應(yīng)智能化時代的法律法規(guī)體系
歐盟、日本等人工智能技術(shù)起步較早的地區(qū)和國家,已經(jīng)意識到機器人和人工智能進(jìn)入生活將給人類社會帶來的安全與倫理問題,并已著手開展立法探索,如2016年5月,歐盟法律事務(wù)委員會發(fā)布《就機器人民事法律規(guī)則向歐盟委員會提出立法建議》的報告草案,探討如何從立法角度避免機器人對人類的傷害。有效應(yīng)對未來風(fēng)險挑戰(zhàn)需強化立法研究,明確重點領(lǐng)域人工智能應(yīng)用中的法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任,建立和完善適應(yīng)智能時代的法律法規(guī)體系。
制定倫理準(zhǔn)則,完善人工智能技術(shù)研發(fā)規(guī)范
當(dāng)人工智能系統(tǒng)決策與采取行動時,人們希望其行為能夠符合人類社會的各項道德和倫理規(guī)則,而這些規(guī)則應(yīng)在系統(tǒng)設(shè)計和開發(fā)階段,就需被考慮到并被嵌入人工智能系統(tǒng)。因此,需要建立起人工智能技術(shù)研發(fā)的倫理準(zhǔn)則,指導(dǎo)機器人設(shè)計研究者和制造商如何對一個機器人做出道德風(fēng)險評估,并形成完善的人工智能技術(shù)研發(fā)規(guī)范,以確保人工智能系統(tǒng)的行為符合社會倫理道德標(biāo)準(zhǔn)。
提高安全標(biāo)準(zhǔn),推行人工智能產(chǎn)品安全認(rèn)證
可靠的人工智能系統(tǒng)應(yīng)具有強健的安全性能,能夠適應(yīng)不同的工況條件,并能有效應(yīng)對各類蓄意攻擊,避免因異常操作和惡意而導(dǎo)致安全事故。這一方面需要提高人工智能產(chǎn)品研發(fā)的安全標(biāo)準(zhǔn),從技術(shù)上增強智能系統(tǒng)的安全性和強健性,比如完善芯片設(shè)計的安全標(biāo)準(zhǔn)等;另一方面要推行智能系統(tǒng)安全認(rèn)證,對人工智能技術(shù)和產(chǎn)品進(jìn)行嚴(yán)格測試,增強社會公眾信任,保障人工智能產(chǎn)業(yè)健康發(fā)展。
建立監(jiān)管體系,強化人工智能技術(shù)和產(chǎn)品的監(jiān)督
由于智能系統(tǒng)在使用過程中會不斷進(jìn)行自行學(xué)習(xí)和探索,很多潛在風(fēng)險難以在研發(fā)階段或認(rèn)證環(huán)節(jié)完全排除,因此加強監(jiān)管對于應(yīng)對人工智能的安全、隱私和倫理等問題至關(guān)重要。建議在國家層面建立一套公開透明的人工智能監(jiān)管體系,實現(xiàn)對人工智能算法設(shè)計、產(chǎn)品開發(fā)、數(shù)據(jù)采集和產(chǎn)品應(yīng)用的全流程監(jiān)管,加強對違規(guī)行為的懲戒,督促人工智能行業(yè)和企業(yè)自律。
推動全球治理,共同應(yīng)對風(fēng)險挑戰(zhàn)
人工智能的快速發(fā)展是全球各國共同面臨的問題,應(yīng)明確科學(xué)家共同體、政府與國際組織各自的職責(zé),引導(dǎo)各國積極參與人工智能全球治理。加強機器人倫理和安全風(fēng)險等人工智能國際共性問題研究,深化人工智能法律法規(guī)、行業(yè)監(jiān)管等方面的交流合作,推進(jìn)人工智能技術(shù)標(biāo)準(zhǔn)和安全標(biāo)準(zhǔn)的國際統(tǒng)一,使人工智能科技成就更好地服務(wù)于人類社會。