新手如何接觸機(jī)器學(xué)習(xí)的這十大算法一定不能錯(cuò)過(guò)
2月21日,一份由25名技術(shù)與公共政策研究員共同發(fā)布的報(bào)告指出,快速發(fā)展的人工智能(AI)被惡意利用的風(fēng)險(xiǎn)呈上升趨勢(shì),一旦遭黑客攻擊,或釀成無(wú)人駕駛的車禍,商業(yè)無(wú)人機(jī)也可能變成有針對(duì)性的武器。
參與這份報(bào)告的撰寫者包括來(lái)自劍橋、牛津和耶魯大學(xué)的25位技術(shù)與公共政策研究人員,以及隱私和軍事專家。報(bào)告旨在就可能發(fā)生的濫用人工智能行為敲響警鐘。
研究人員表示,基于對(duì)五年內(nèi)人工智能技術(shù)發(fā)展進(jìn)程的預(yù)估,其認(rèn)為惡意使用人工智能會(huì)對(duì)數(shù)字、物理和政治安全造成迫在眉睫的威脅,因?yàn)樗赡鼙焕脕?lái)實(shí)施大規(guī)模的、極具針對(duì)性的高效攻擊。
“我們都同意,人工智能可以有很多積極的應(yīng)用。”牛津未來(lái)人類研究所研究員Miles Brundage表示:“但圍繞惡意使用人工智能問(wèn)題的文獻(xiàn)少得多。”
人工智能一般使用計(jì)算機(jī)執(zhí)行通常需要人類智能的任務(wù),例如做出決定或識(shí)別文本、語(yǔ)音或視覺(jué)圖像。
人工智能被認(rèn)為是實(shí)現(xiàn)各種技術(shù)可能性的一股強(qiáng)大力量,但它已經(jīng)成為了學(xué)界激烈爭(zhēng)論的焦點(diǎn)。爭(zhēng)論涉及的問(wèn)題主要在于,通過(guò)人工智能實(shí)現(xiàn)的大規(guī)模自動(dòng)化是否會(huì)造成大規(guī)模失業(yè)和其他社會(huì)混亂。
而這篇98頁(yè)的文章警告稱,通過(guò)使用AI來(lái)完成原本可能需要人力和專業(yè)知識(shí)才能完成的任務(wù),或?qū)⒔档凸舻某杀?。未?lái)可能會(huì)出現(xiàn)新的攻擊,單靠人類獨(dú)自開(kāi)發(fā)或利用AI系統(tǒng)本身的脆弱性是不切實(shí)際的。
報(bào)告綜述了大量關(guān)于人工智能造成安全風(fēng)險(xiǎn)的學(xué)術(shù)研究,并呼吁各國(guó)政府和政策及技術(shù)專家通力合作,一同化解此類危險(xiǎn)。
研究人員詳細(xì)介紹了人工智能生成合成圖像、文本和音頻的能力,它可以被用來(lái)在網(wǎng)絡(luò)上模仿他人行為,以左右輿論。報(bào)告提出的建議包括將人工智能作為軍用和商用兩種用途的技術(shù)來(lái)進(jìn)行管理。
報(bào)告還提出了問(wèn)題——學(xué)者是否應(yīng)該對(duì)其發(fā)表和披露的有關(guān)人工智能新發(fā)展的內(nèi)容有所保留,是否應(yīng)該在該領(lǐng)域的其他專家研究并找到應(yīng)對(duì)潛在危險(xiǎn)的方法后,再將結(jié)果公之于眾。
“我們最終得到的問(wèn)題比答案多得多。”Brundage說(shuō)。
這篇論文誕生于2017年初的一次研討會(huì)上,自那以后,其中一些預(yù)言基本上成真了。作者們當(dāng)時(shí)預(yù)測(cè),人工智能可以用于制作極度仿真的政府官員音頻和視頻,從而用于宣傳目的。
而去年年底,一些仿真的色情視頻開(kāi)始在網(wǎng)上流傳,一些名人的面孔被嫁接到不同的身體上,有些效果可以以假亂真。
特拉斯公司首席執(zhí)行官馬斯克和硅谷投資者薩姆·阿爾特曼創(chuàng)立的OpenAI組織政策主管杰克·克拉克表示:“雖然它現(xiàn)在被用在了色情行業(yè),而非政治宣傳,但是,這一技術(shù)被應(yīng)用于后者也不是不可能。”