AI濫用風(fēng)險(xiǎn)已迫在眉睫 研究人員呼吁各國做好防范
據(jù)外媒報(bào)道,劍橋、牛津和耶魯大學(xué)的25名技術(shù)和公共政策研究人員以及隱私和軍事專家周三發(fā)表了一份最新的研究報(bào)告,他們在報(bào)告中警告說,人工智能的快速發(fā)展引發(fā)了日益增長的風(fēng)險(xiǎn),惡意用戶很快就能利用人工智能技術(shù)來發(fā)動自動黑客攻擊,這些攻擊可能會造成非常嚴(yán)重的后果,比如無人駕駛汽車相撞或者將商用無人機(jī)變成有針對性的武器。
研究人員和專家們稱,人工智能技術(shù)有可能被流氓國家、犯罪團(tuán)伙或獨(dú)來獨(dú)往的犯罪分子們?yōu)E用,這已經(jīng)從數(shù)字、物理和政治層面上對人類社會構(gòu)成了迫在眉睫的威脅,因?yàn)槿斯ぶ悄芗夹g(shù)讓大規(guī)模、高精準(zhǔn)和高效率的攻擊成為了可能。
牛津大學(xué)人類未來學(xué)院的研究員邁爾斯-布倫達(dá)奇(Miles Brundage)稱:“我們都承認(rèn),人工智能有很多積極的應(yīng)用,但在惡意使用問題的研究上存在一片空白。”
人工智能即AI包括利用計(jì)算機(jī)執(zhí)行一些通常需要人類智能才能完成的任務(wù),比如決策或識別文本、語音或視覺圖像等等。
人們普遍認(rèn)為人工智能是開啟各種技術(shù)可能性的強(qiáng)大力量,但它也成為了尖銳辯論的焦點(diǎn),人們擔(dān)心它所支持的大規(guī)模自動化會導(dǎo)致廣泛失業(yè)和其他社會混亂。
研究人員和專家們在這份長達(dá)98頁的報(bào)告中警告說,用人工智能來完成可能需要人工勞動和專業(yè)技能才能完成的任務(wù),這可能會降低攻擊的成本和催生新的攻擊方式。這些新的攻擊方式可能是人力無法單獨(dú)完成或者需要用到人工智能系統(tǒng)自身弱點(diǎn)才能實(shí)現(xiàn)的。
報(bào)告審查了越來越多關(guān)于人工智能安全風(fēng)險(xiǎn)的學(xué)術(shù)研究成果,呼吁各國政府和政策與技術(shù)專家合作并化解這些危險(xiǎn)。
研究人員們詳細(xì)說明了人工智能技術(shù)的強(qiáng)大力量,人工智能技術(shù)可以將圖像、文字和音頻合成在一起以模仿他人在線行為,進(jìn)而改變公眾的觀點(diǎn)。研究人員們指出,專制政權(quán)可能會利用這種技術(shù)。
這份報(bào)告提出了一系列建議,包括將人工智能作為一種軍民兩用的技術(shù)來管理。
它還提出了一些問題,包括學(xué)術(shù)界和其他人是否應(yīng)該控制他們發(fā)布或披露人工智能研發(fā)進(jìn)展,直到該領(lǐng)域的其他專家有機(jī)會對潛在危險(xiǎn)進(jìn)行研究并作出反應(yīng)。
布倫達(dá)奇說:“我們最終得出的問題比解決的問題多得多。”
這篇論文最早源于2017年初的一個(gè)研討會,當(dāng)作者們正式開始撰寫時(shí),報(bào)告中提出的某些預(yù)測基本上已經(jīng)實(shí)現(xiàn)了。作者們推測,人工智能可能會被用來制作各種逼真的假聲音和假視頻,模仿各行各業(yè)的名人,以達(dá)到宣傳的目的。
去年晚些時(shí)候,所謂的“深度假”色情視頻開始在網(wǎng)上出現(xiàn),這類視頻實(shí)際上是將明星們的面孔融合到不同的身體上。
特斯拉首席執(zhí)行官埃隆-馬斯克(Elon Musk)和硅谷投資者山姆-奧爾特曼(Sam Altman)創(chuàng)立的人工智能公司OpenAI的政策主管杰克-克拉克(Jack Clark)表示:“這發(fā)生的色情行業(yè),并不是處于宣傳目的。但是一切都表明,關(guān)于深度假的東西也有可能被用于宣傳。”