人工智能的技術(shù)濫用問題如何面對(duì)?
在1956年美國(guó)達(dá)特茅斯學(xué)院召開的學(xué)術(shù)研討會(huì)上,人工智能(AI)首次成為一個(gè)正式學(xué)術(shù)領(lǐng)域,發(fā)展至今已有60多年的歷史。隨著人工智能技術(shù)的不斷成熟,會(huì)有越來(lái)越多的機(jī)器人或智能程序充當(dāng)人類助手,幫助人們完成復(fù)重性、危險(xiǎn)性的任務(wù)。然而,隨著人工智能技術(shù)的成熟和大范圍應(yīng)用的展開,人們可能會(huì)面臨越來(lái)越多的安全、隱私和倫理等方面的挑戰(zhàn)。
安全性挑戰(zhàn)
人工智能技術(shù)應(yīng)用引發(fā)的安全問題源于不同的原因,主要有以下幾點(diǎn)。
技術(shù)濫用引發(fā)的安全威脅
人工智能對(duì)人類的作用很大程度上取決于人們?nèi)绾问褂门c管理。如果人工智能技術(shù)被犯罪分子利用,就會(huì)帶來(lái)安全問題,例如,黑客可能通過智能方法發(fā)起網(wǎng)絡(luò)攻擊,智能化的網(wǎng)絡(luò)攻擊軟件能自我學(xué)習(xí),模仿系統(tǒng)中用戶的行為,并不斷改變方法,以期盡可能長(zhǎng)時(shí)間地停留在計(jì)算機(jī)系統(tǒng)中;黑客還可利用人工智能技術(shù)非法竊取私人信息;通過定制化不同用戶閱讀到的網(wǎng)絡(luò)內(nèi)容,人工智能技術(shù)甚至?xí)挥脕?lái)左右和控制公眾的認(rèn)知和判斷。
技術(shù)或管理缺陷導(dǎo)致的安全問題
作為一項(xiàng)發(fā)展中的新興技術(shù),人工智能系統(tǒng)當(dāng)前還不夠成熟。某些技術(shù)缺陷導(dǎo)致工作異常,會(huì)使人工智能系統(tǒng)出現(xiàn)安全隱患,比如深度學(xué)習(xí)采用的黑箱模式會(huì)使模型可解釋性不強(qiáng),機(jī)器人、無(wú)人智能系統(tǒng)的設(shè)計(jì)、生產(chǎn)不當(dāng)會(huì)導(dǎo)致運(yùn)行異常等。另外,如果安全防護(hù)技術(shù)或措施不完善,無(wú)人駕駛汽車、機(jī)器人和其他人工智能裝置可能受到非法入侵和控制,這些人工智能系統(tǒng)就有可能按照犯罪分子的指令,做出對(duì)人類有害的事情。
未來(lái)的超級(jí)智能引發(fā)的安全擔(dān)憂
遠(yuǎn)期的人工智能安全風(fēng)險(xiǎn)是指,假設(shè)人工智能發(fā)展到超級(jí)智能階段,這時(shí)機(jī)器人或其他人工智能系統(tǒng)能夠自我演化,并可能發(fā)展出類人的自我意識(shí),從而對(duì)人類的主導(dǎo)性甚至存續(xù)造成威脅。比爾·蓋茨、斯蒂芬·霍金、埃隆·馬斯克、雷·庫(kù)茲韋爾等人都在擔(dān)憂,對(duì)人工智能技術(shù)不加約束的開發(fā),會(huì)讓機(jī)器獲得超越人類智力水平的智能,并引發(fā)一些難以控制的安全隱患。一些研究團(tuán)隊(duì)正在研究高層次的認(rèn)知智能,如機(jī)器情感和機(jī)器意識(shí)等。盡管人們還不清楚超級(jí)智能或“奇點(diǎn)”是否會(huì)到來(lái),但如果在還沒有完全做好應(yīng)對(duì)措施之前出現(xiàn)技術(shù)突破,安全威脅就有可能爆發(fā),人們應(yīng)提前考慮到可能的風(fēng)險(xiǎn)。
隱私保護(hù)挑戰(zhàn)
大數(shù)據(jù)驅(qū)動(dòng)模式主導(dǎo)了近年來(lái)人工智能的發(fā)展,成為新一輪人工智能發(fā)展的重要特征。隱私問題是數(shù)據(jù)資源開發(fā)利用中的主要威脅之一,因此,在人工智能應(yīng)用中必然也存在隱私侵犯風(fēng)險(xiǎn)。
數(shù)據(jù)采集中的隱私侵犯
隨著各類數(shù)據(jù)采集設(shè)施的廣泛使用,智能系統(tǒng)不僅能通過指紋、心跳等生理特征來(lái)辨別身份,還能根據(jù)不同人的行為喜好自動(dòng)調(diào)節(jié)燈光、室內(nèi)溫度、播放音樂,甚至能通過睡眠時(shí)間、鍛煉情況、飲食習(xí)慣以及體征變化等來(lái)判斷身體是否健康。然而,這些智能技術(shù)的使用就意味著智能系統(tǒng)掌握了個(gè)人的大量信息,甚至比自己更了解自己。這些數(shù)據(jù)如果使用得當(dāng),可以提升人類的生活質(zhì)量,但如果出于商業(yè)目的非法使用某些私人信息,就會(huì)造成隱私侵犯。
云計(jì)算中的隱私風(fēng)險(xiǎn)
因?yàn)樵朴?jì)算技術(shù)使用便捷、成本低廉,提供了基于共享池實(shí)現(xiàn)按需式資源使用的模式,許多公司和政府組織開始將數(shù)據(jù)存儲(chǔ)至云上。將隱私信息存儲(chǔ)至云端后,這些信息就容易遭到各種威脅和攻擊。由于人工智能系統(tǒng)普遍對(duì)計(jì)算能力要求較高,目前在許多人工智能應(yīng)用中,云計(jì)算已經(jīng)被配置為主要架構(gòu),因此在開發(fā)該類智能應(yīng)用時(shí),云端隱私保護(hù)也是人們需要考慮的問題。
知識(shí)抽取中的隱私問題
由數(shù)據(jù)到知識(shí)的抽取是人工智能的重要能力,知識(shí)抽取工具正在變得越來(lái)越強(qiáng)大,無(wú)數(shù)個(gè)看似不相關(guān)的數(shù)據(jù)片段可能被整合在一起,識(shí)別出個(gè)人行為特征甚至性格特征。例如,只要將網(wǎng)站瀏覽記錄、聊天內(nèi)容、購(gòu)物過程和其他各類別記錄數(shù)據(jù)組合在一起,就可以勾勒出某人的行為軌跡,并可分析出個(gè)人偏好和行為習(xí)慣,從而進(jìn)一步預(yù)測(cè)出消費(fèi)者的潛在需求,商家可提前為消費(fèi)者提供必要的信息、產(chǎn)品或服務(wù)。但是,這些個(gè)性化定制過程又伴隨著對(duì)個(gè)人隱私的發(fā)現(xiàn)和曝光,如何規(guī)范隱私保護(hù)是需要與技術(shù)應(yīng)用同步考慮的一個(gè)問題。
倫理規(guī)范挑戰(zhàn)
倫理問題是人工智能技術(shù)可能帶給人們的最為特殊的問題。人工智能的倫理問題范圍很廣,其中以下幾個(gè)方面值得關(guān)注。
機(jī)器人的行為規(guī)則
人工智能正在替代人的很多決策行為,智能機(jī)器人在作出決策時(shí),同樣需要遵從人類社會(huì)的各項(xiàng)規(guī)則。比如,假設(shè)無(wú)人駕駛汽車前方人行道上出現(xiàn)3個(gè)行人而無(wú)法及時(shí)剎車,智能系統(tǒng)是應(yīng)該選擇撞向這3個(gè)行人,還是轉(zhuǎn)而撞向路邊的1個(gè)行人?人工智能技術(shù)的應(yīng)用,正在將一些生活中的倫理性問題在系統(tǒng)中規(guī)則化。如果在系統(tǒng)的研發(fā)設(shè)計(jì)中未與社會(huì)倫理約束相結(jié)合,就有可能在決策中遵循與人類不同的邏輯,從而導(dǎo)致嚴(yán)重后果。
機(jī)器人的權(quán)力
目前在司法、醫(yī)療、指揮等重要領(lǐng)域,研究人員已經(jīng)開始探索人工智能在審判分析、疾病診斷和對(duì)抗博弈方面的決策能力。但是,在對(duì)機(jī)器授予決策權(quán)后,人們要考慮的不僅是人工智能的安全風(fēng)險(xiǎn),而且還要面臨一個(gè)新的倫理問題,即機(jī)器是否有資格這樣做。隨著智能系統(tǒng)對(duì)特定領(lǐng)域的知識(shí)掌握,它的決策分析能力開始超越人類,人們可能會(huì)在越來(lái)越多的領(lǐng)域?qū)C(jī)器決策形成依賴,這一類倫理問題也需要在人工智能進(jìn)一步向前發(fā)展的過程中梳理清楚。
機(jī)器人的教育
有倫理學(xué)家認(rèn)為,未來(lái)機(jī)器人不僅有感知、認(rèn)知和決策能力,人工智能在不同環(huán)境中學(xué)習(xí)和演化,還會(huì)形成不同的個(gè)性。據(jù)新華網(wǎng)報(bào)道,國(guó)外研發(fā)的某聊天機(jī)器人在網(wǎng)上開始聊天后不到24個(gè)小時(shí),竟然學(xué)會(huì)了說(shuō)臟話和發(fā)表種族主義的言論,這引發(fā)了人們對(duì)機(jī)器人教育問題的思考。盡管人工智能未來(lái)未必會(huì)產(chǎn)生自主意識(shí),但可能發(fā)展出不同的個(gè)性特點(diǎn),而這是受其使用者影響的。機(jī)器人使用者需要承擔(dān)類似監(jiān)護(hù)人一樣的道德責(zé)任甚至法律責(zé)任,以免對(duì)社會(huì)文明產(chǎn)生不良影響。
啟示與建議
人類社會(huì)即將進(jìn)入人機(jī)共存的時(shí)代,為確保機(jī)器人和人工智能系統(tǒng)運(yùn)行受控,且與人類能和諧共處,在設(shè)計(jì)、研發(fā)、生產(chǎn)和使用過程中,需要采取一系列的應(yīng)對(duì)措施,妥善應(yīng)對(duì)人工智能的安全、隱私、倫理問題和其他風(fēng)險(xiǎn)。
加強(qiáng)理論攻關(guān),研發(fā)透明性和可解釋性更高的智能計(jì)算模型
在并行計(jì)算和海量數(shù)據(jù)的共同支撐下,以深度學(xué)習(xí)為代表的智能計(jì)算模型表現(xiàn)出了很強(qiáng)的能力。但當(dāng)前的機(jī)器學(xué)習(xí)模型仍屬于一種黑箱工作模式,對(duì)于AI系統(tǒng)運(yùn)行中發(fā)生的異常情況,人們還很難對(duì)其中的原因作出解釋,開發(fā)者也難以準(zhǔn)確預(yù)測(cè)和把握智能系統(tǒng)運(yùn)行的行為邊界。未來(lái)人們需要研發(fā)更為透明、可解釋性更高的智能計(jì)算模型,開發(fā)可解釋、可理解、可預(yù)測(cè)的智能系統(tǒng),降低系統(tǒng)行為的不可預(yù)知性和不確定性,這應(yīng)成為人工智能基礎(chǔ)理論研究的關(guān)注重點(diǎn)之一。
開展立法研究,建立適應(yīng)智能化時(shí)代的法律法規(guī)體系
歐盟、日本等人工智能技術(shù)起步較早的地區(qū)和國(guó)家,已經(jīng)意識(shí)到機(jī)器人和人工智能進(jìn)入生活將給人類社會(huì)帶來(lái)的安全與倫理問題,并已著手開展立法探索,如2016年5月,歐盟法律事務(wù)委員會(huì)發(fā)布《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議》的報(bào)告草案,探討如何從立法角度避免機(jī)器人對(duì)人類的傷害。有效應(yīng)對(duì)未來(lái)風(fēng)險(xiǎn)挑戰(zhàn)需強(qiáng)化立法研究,明確重點(diǎn)領(lǐng)域人工智能應(yīng)用中的法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任,建立和完善適應(yīng)智能時(shí)代的法律法規(guī)體系。
制定倫理準(zhǔn)則,完善人工智能技術(shù)研發(fā)規(guī)范
當(dāng)人工智能系統(tǒng)決策與采取行動(dòng)時(shí),人們希望其行為能夠符合人類社會(huì)的各項(xiàng)道德和倫理規(guī)則,而這些規(guī)則應(yīng)在系統(tǒng)設(shè)計(jì)和開發(fā)階段,就需被考慮到并被嵌入人工智能系統(tǒng)。因此,需要建立起人工智能技術(shù)研發(fā)的倫理準(zhǔn)則,指導(dǎo)機(jī)器人設(shè)計(jì)研究者和制造商如何對(duì)一個(gè)機(jī)器人做出道德風(fēng)險(xiǎn)評(píng)估,并形成完善的人工智能技術(shù)研發(fā)規(guī)范,以確保人工智能系統(tǒng)的行為符合社會(huì)倫理道德標(biāo)準(zhǔn)。
提高安全標(biāo)準(zhǔn),推行人工智能產(chǎn)品安全認(rèn)證
可靠的人工智能系統(tǒng)應(yīng)具有強(qiáng)健的安全性能,能夠適應(yīng)不同的工況條件,并能有效應(yīng)對(duì)各類蓄意攻擊,避免因異常操作和惡意而導(dǎo)致安全事故。這一方面需要提高人工智能產(chǎn)品研發(fā)的安全標(biāo)準(zhǔn),從技術(shù)上增強(qiáng)智能系統(tǒng)的安全性和強(qiáng)健性,比如完善芯片設(shè)計(jì)的安全標(biāo)準(zhǔn)等;另一方面要推行智能系統(tǒng)安全認(rèn)證,對(duì)人工智能技術(shù)和產(chǎn)品進(jìn)行嚴(yán)格測(cè)試,增強(qiáng)社會(huì)公眾信任,保障人工智能產(chǎn)業(yè)健康發(fā)展。
建立監(jiān)管體系,強(qiáng)化人工智能技術(shù)和產(chǎn)品的監(jiān)督
由于智能系統(tǒng)在使用過程中會(huì)不斷進(jìn)行自行學(xué)習(xí)和探索,很多潛在風(fēng)險(xiǎn)難以在研發(fā)階段或認(rèn)證環(huán)節(jié)完全排除,因此加強(qiáng)監(jiān)管對(duì)于應(yīng)對(duì)人工智能的安全、隱私和倫理等問題至關(guān)重要。建議在國(guó)家層面建立一套公開透明的人工智能監(jiān)管體系,實(shí)現(xiàn)對(duì)人工智能算法設(shè)計(jì)、產(chǎn)品開發(fā)、數(shù)據(jù)采集和產(chǎn)品應(yīng)用的全流程監(jiān)管,加強(qiáng)對(duì)違規(guī)行為的懲戒,督促人工智能行業(yè)和企業(yè)自律。
推動(dòng)全球治理,共同應(yīng)對(duì)風(fēng)險(xiǎn)挑戰(zhàn)
人工智能的快速發(fā)展是全球各國(guó)共同面臨的問題,應(yīng)明確科學(xué)家共同體、政府與國(guó)際組織各自的職責(zé),引導(dǎo)各國(guó)積極參與人工智能全球治理。加強(qiáng)機(jī)器人倫理和安全風(fēng)險(xiǎn)等人工智能國(guó)際共性問題研究,深化人工智能法律法規(guī)、行業(yè)監(jiān)管等方面的交流合作,推進(jìn)人工智能技術(shù)標(biāo)準(zhǔn)和安全標(biāo)準(zhǔn)的國(guó)際統(tǒng)一,使人工智能科技成就更好地服務(wù)于人類社會(huì)。