牛津、劍橋、OpenAI聯(lián)合發(fā)出AI預(yù)警《人工智能的惡意使用》
無人車、無人機(jī)、視頻生成……這些AI應(yīng)用在讓我們激動(dòng)萬分的同時(shí),也有可能帶來前所未有的災(zāi)難——如果無人車隊(duì)被惡意操縱來撞你,該怎么辦?這次讓我們看看AI政策研究學(xué)者怎么說。
2月20日,26位來自牛津大學(xué)、劍橋大學(xué)、OpenAI、電子前沿基金會(huì)(一個(gè)非營(yíng)利數(shù)字版權(quán)組織)、新美國(guó)安全中心(一家美國(guó)智庫)等多個(gè)研究機(jī)構(gòu)的研究人員發(fā)布了一份AI預(yù)警報(bào)告,針對(duì)AI的潛在惡意使用發(fā)出警告,并提出相應(yīng)的預(yù)防及緩解措施。
新興技術(shù)對(duì)人類安全的影響一直是個(gè)熱門話題。牛津、劍橋、OpenAI這些重量級(jí)研究所此次發(fā)布的這份報(bào)告名為《人工智能的惡意使用:預(yù)測(cè)、預(yù)防和緩解》,預(yù)測(cè)了未來十年網(wǎng)絡(luò)犯罪的快速增長(zhǎng)、無人機(jī)的濫用、使用“機(jī)器人(bots)”操縱從選舉到社交媒體等惡意利用人工智能的場(chǎng)景,號(hào)召政府及企業(yè)重視當(dāng)前人工智能應(yīng)用中的危險(xiǎn)。
報(bào)告也建議采取以下干預(yù)措施以減輕惡意使用人工智能造成的威脅:
政策制定者和技術(shù)研究人員現(xiàn)在需要共同努力來理解和為應(yīng)對(duì)惡意使用人工智能做出準(zhǔn)備。
人工智能有許多積極的應(yīng)用,但是是一把雙刃劍,人工智能研究人員和工程師應(yīng)該注意并積極預(yù)測(cè)其濫用的可能性。
人工智能應(yīng)該從具有較長(zhǎng)的處理風(fēng)險(xiǎn)的歷史的學(xué)科(如計(jì)算機(jī)安全)中學(xué)習(xí)。
積極擴(kuò)大參與預(yù)防和減輕惡意使用的利益相關(guān)者范圍。
這份長(zhǎng)達(dá)100頁的報(bào)告關(guān)注與惡意使用人工智能特別相關(guān)三個(gè)安全領(lǐng)域:數(shù)字安全(digital)、物理安全(physical)和政治安全(poliTIcal)。它表明,人工智能會(huì)破壞規(guī)模(scale)和效率(efficiency)之間的權(quán)衡,并使大規(guī)模、精細(xì)目標(biāo)和高效的攻擊成為可能。
例如,自動(dòng)黑客攻擊,用于模擬目標(biāo)的語音合成,使用從社交媒體獲取的信息的精確目標(biāo)垃圾郵件,或利用AI系統(tǒng)本身的漏洞等新型網(wǎng)絡(luò)攻擊。
同樣,無人機(jī)和網(wǎng)絡(luò)系統(tǒng)的擴(kuò)散將允許攻擊者部署或重新調(diào)整這些系統(tǒng)用于有害目的,例如讓自動(dòng)駕駛車隊(duì)相撞,將商業(yè)無人機(jī)變?yōu)榭梢远ㄎ荒繕?biāo)的導(dǎo)彈,或劫持重大基礎(chǔ)設(shè)施以索要贖金——自主武器系統(tǒng)在戰(zhàn)場(chǎng)上的崛起可能會(huì)導(dǎo)致失控。
在政治領(lǐng)域,借由詳細(xì)的分析、有針對(duì)性的宣傳、便宜且高度可信的虛擬視頻,可以操控公眾輿論,而這種操控的規(guī)模在以前是無法想象的。利用人工智能,可以大規(guī)模聚集、分析和處理個(gè)人信息,這可以實(shí)現(xiàn)監(jiān)控,可能侵犯隱私,并從根本上改變個(gè)人、企業(yè)和國(guó)家之間的權(quán)力。
為了減輕這些風(fēng)險(xiǎn),報(bào)告作者探索了幾種干預(yù)措施,以減少與AI濫用相關(guān)的威脅。這些措施包括重新思考網(wǎng)絡(luò)安全,探索信息共享的不同開放模式,促進(jìn)責(zé)任文化,制定有利于安全防御的政策和技術(shù)。
報(bào)告作者之一,劍橋大學(xué)生存風(fēng)險(xiǎn)研究中心執(zhí)行主任Seán Ó hÉigeartaigh博士說道:
人工智能是一個(gè)改變游戲規(guī)則的機(jī)器,這份報(bào)告已經(jīng)想象出未來五到十年內(nèi)世界會(huì)變成什么樣子。
我們所生活的世界可能變?yōu)橐粋€(gè)充滿因?yàn)E用人工智能而導(dǎo)致的危害的世界,我們需要處理這些問題,因?yàn)轱L(fēng)險(xiǎn)是真實(shí)存在的。我們現(xiàn)在需要做出選擇,而我們的報(bào)告號(hào)召全球政府、機(jī)構(gòu)和個(gè)人的行動(dòng)。
幾十年來,人工智能和機(jī)器學(xué)習(xí)方面的宣傳超過了事實(shí)。但現(xiàn)在不再是這樣了。這份報(bào)告著眼于那些不再適用的做法,并提出了一些可能有所幫助的方法:例如,如何設(shè)計(jì)不易被攻擊的軟件和硬件,以及可以采取什么類型的法律和國(guó)際法規(guī)。
不過,在報(bào)告開篇,作者也承認(rèn):“對(duì)于人工智能相關(guān)的安全攻擊和相應(yīng)的防衛(wèi)措施之間的長(zhǎng)期平衡,我們并沒有給出解決方案”。
網(wǎng)絡(luò)上也存在著批評(píng)的聲音。GigaOm評(píng)論員Jon Collins指出,對(duì)于所有提出的風(fēng)險(xiǎn),報(bào)告并沒有定量描述,而只是以“可能出現(xiàn)(plausibly)”的字眼概述,這不是對(duì)風(fēng)險(xiǎn)的科學(xué)描述方式。風(fēng)險(xiǎn)有多大?我們也不得而知。此外,報(bào)告中的許多地方也明確表示,“報(bào)告的多位作者對(duì)此持有不同觀點(diǎn)”。所以就此看來,報(bào)告起到的喚醒作用可能遠(yuǎn)大于對(duì)實(shí)際操作的指示。