Deepfake換臉技術恐成犯罪手法,網絡安全公司啟動研發(fā)軟件
根據(jù)《Financial Times》報道,隨著人工智能發(fā)展日益精進,相關的犯罪行為也層出不窮,近年在網絡上出現(xiàn)不少Deepfake影片,通過人工智能技術變換人臉、嘴型、聲音制造出假影片,新奇之余,許多人都擔憂這項技術會被用于傳播錯誤政治訊息。為了要對抗這項技術,網絡安全公司紛紛竭盡腦汁想要找出方法阻擋潛在危險。
由于這項技術價格越來越便宜且容易在網上取得,已逐漸成為欺詐犯用來犯罪的工具。
網絡安全公司賽門鐵克(Symantec)指出,今年已有至少三間公司受到deepfake假影片欺騙。在其中一項案件中,嫌犯利用人工智能模仿公司高層聲音,誘使受害者轉出1000萬美元。
喬治亞理工學院信息安全與隱私研究所主任Michael Farrell表示,deepfak不只發(fā)展快速、越來越貼近現(xiàn)實,取得的門檻也變得非常低。他認為,這是網絡安全公司挺身而出的重要時機。
由于deepfake變得越來越復雜,網絡安全公司以及學術界正在想辦法創(chuàng)造可以抵抗的新技術。有些公司利用人工智能來理解deepfake,并建立相關理論偵測假消息,不過,這項技術仍然非常新,因此開發(fā)者不免會遇到諸多問題。網絡安全公司ZeroFOX工程師Matthew Price表示,雖然用于偵測的理論沒錯,但現(xiàn)在并沒有足夠的數(shù)據(jù)可以建造數(shù)據(jù)庫模型。
賽門鐵克研究室副總裁Darren Shou表示,該公司正致力于發(fā)展可以找出影片出處的技術,讓人們知道影片是否來自假網站。
ProofMode、Truepic等新創(chuàng)公司也提供了一些可以為照片印上浮水印,證明真?zhèn)蔚募夹g。Truepic目前正與芯片商高通合作,找出將這項技術運用于手機硬件上的方式。
另外,預防措施也不可少,管理咨詢公司埃森哲(Accenture)的AI咨詢部門負責人Rumman Chowdhury認為,也可以要求開發(fā)出這些deepfake程序碼的人新增驗證措施。
不過Chowdhury認為,人的本性難移,不論出現(xiàn)多少工具,還是會有一部分民眾不信邪,不愿意相信他看到的是假消息。
不論如何,網絡安全公司仍會繼續(xù)嘗試。Price表示,未來可能會出現(xiàn)很多丑聞導致人們名譽毀損,這也是現(xiàn)在最大的隱憂