安全專家警告業(yè)界警惕AI技術(shù)濫用
人工智能高速發(fā)展的今天,警惕的聲音也從未間斷。
超過二十名專家周三表示,獨(dú)裁統(tǒng)治者、罪犯和恐怖分子們可以利用人工智能來操縱選舉或者使用無(wú)人機(jī)進(jìn)行恐怖襲擊,對(duì)AI可能被濫用的情況做出警告。
在一份長(zhǎng)達(dá)100頁(yè)的分析報(bào)告中專家概述了網(wǎng)絡(luò)犯罪的快速增長(zhǎng)以及在未來五到十年內(nèi)使用“機(jī)器人”干擾新聞采訪和滲透社交媒體的一系列情況。
“我們的報(bào)告重點(diǎn)關(guān)注人們?nèi)绾斡萌斯ぶ悄茉斐善茐模?rdquo;劍橋生存風(fēng)險(xiǎn)研究中心執(zhí)行主任Seán Ó hÉigeartaigh說。
他告訴法新社:“人工智能可能會(huì)帶來新的威脅,或改變現(xiàn)有威脅性質(zhì),影響到網(wǎng)絡(luò)安全,人身安全和政治安全。
報(bào)告中提到,網(wǎng)絡(luò)釣魚這種攻擊方式也有可能因?yàn)锳I的引入變得更加危險(xiǎn)。
“使用人工智能,可能通過自動(dòng)化大量流程來大規(guī)模地進(jìn)行魚叉式網(wǎng)絡(luò)釣魚,”并且使其難以發(fā)現(xiàn),“hÉigeartaigh說。
在政治領(lǐng)域,專制領(lǐng)導(dǎo)人已經(jīng)可以利用先進(jìn)的技術(shù)篩選從監(jiān)視網(wǎng)絡(luò)收集的數(shù)據(jù),從而監(jiān)視自己的人民。
“獨(dú)裁者可以更快地發(fā)現(xiàn)那些可能計(jì)劃顛覆政權(quán)的人,找到他們,將他們關(guān)進(jìn)監(jiān)獄。”
同樣,利用一些別有用心的宣傳以及以假亂真的視頻,人民可以大規(guī)模地操縱輿論。
美國(guó)特別檢察官羅伯特穆勒上周公布的一項(xiàng)起訴書詳細(xì)描述了影響了2016年總統(tǒng)選舉的所謂“巨魔農(nóng)場(chǎng)”行動(dòng),這個(gè)行動(dòng)中黑客操縱了Facebook和推特上數(shù)千個(gè)社交網(wǎng)絡(luò)機(jī)器人。
無(wú)人駕駛飛機(jī)和機(jī)器人同樣可能被濫用,可能會(huì)導(dǎo)致自動(dòng)駕駛車輛墜毀,導(dǎo)彈意外發(fā)射或者威脅攻擊關(guān)鍵基礎(chǔ)設(shè)施勒索贖金。
- 自主武器 -
牛津大學(xué)未來人類研究所研究員Miles Brundage說:“就我個(gè)人而言,我特別擔(dān)心自主無(wú)人機(jī)被恐怖分子和國(guó)家用于恐怖和自動(dòng)網(wǎng)絡(luò)攻擊。”
報(bào)告詳細(xì)介紹了一個(gè)合理的情景,一個(gè)裝有炸彈的辦公室清潔機(jī)器人通過與其他同樣品牌的機(jī)器混合滲入德國(guó)財(cái)政部。
這個(gè)機(jī)器人平時(shí)的行為就是清掃,清理,清理垃圾 – 直到其隱藏的面部識(shí)別軟件發(fā)現(xiàn)部長(zhǎng)。
“這個(gè)隱藏的爆炸裝置接近部長(zhǎng),殺死了部長(zhǎng)并傷害了附近的工作人員”。
“這份報(bào)告已經(jīng)想象出未來五到十年內(nèi)世界會(huì)變成什么樣子,”ÓhÉigeartaigh說。“我們生活在一個(gè)AI被到處濫用的世界。”
作者呼吁決策者和公司為機(jī)器人制作無(wú)法入侵的操作系統(tǒng),加強(qiáng)安全限制,并考慮擴(kuò)大有關(guān)人工智能開發(fā)的法律和法規(guī)。
另一個(gè)值得關(guān)注的領(lǐng)域是自動(dòng)致命武器。
去年,超過100位機(jī)器人和AI企業(yè)家 – 包括特斯拉和SpaceX首席執(zhí)行官埃隆·馬斯克以及英國(guó)天體物理學(xué)家史蒂芬霍金 – 請(qǐng)求聯(lián)合國(guó)禁止自主殺人機(jī)器人,他們警告說在數(shù)字時(shí)代,這些武器可能被恐怖分子用來對(duì)付平民。
“致命的自主武器可能成為第三次戰(zhàn)爭(zhēng)革命”,他們聯(lián)合聲明中發(fā)出警告,這份聲明的簽署者中也有谷歌DeepMind聯(lián)合創(chuàng)始人穆斯塔法蘇萊曼。
這份題為“人工智能的濫用:預(yù)測(cè),預(yù)防和緩解”的新報(bào)告的撰稿人還包括來自電子前沿基金會(huì)。
“從長(zhǎng)遠(yuǎn)來看,AI是否被認(rèn)為是有益的或有害的,這在很大程度上是人類行為的產(chǎn)物,而不是技術(shù)本身。”