AI如何上演一出“無間道”
我們常說「無圖無真相」,但是圖對于技術(shù)人員來說并不是什么困難的事,很多新聞的圖片可能是假圖。不過,既然技術(shù)可以成為造假者的幫兇,反過來也能在識(shí)別照片真假時(shí)發(fā)揮作用。
Google旗下的技術(shù)公司(原 GoogleIdeas)是是Google的內(nèi)部部門,他們負(fù)責(zé)預(yù)測和應(yīng)對新出現(xiàn)的威脅,并創(chuàng)建定義未來的研究和技術(shù),以確保我們的世界更安全。Jigsaw發(fā)布了一款免費(fèi)工具,聲稱可以幫助媒體從業(yè)人員識(shí)別被動(dòng)過手腳的圖片,連人工智能制造的圖片也難逃其法眼。
這款照片打假神器名為 Assembler,具有5+2 個(gè)檢測器,其中有5個(gè)用于識(shí)別造假的圖片,之所以有這么多個(gè)探測器,是因?yàn)楦鱾€(gè)檢測器通常無法準(zhǔn)確檢測不同類型的圖像處理。例如,能識(shí)別通過復(fù)制和粘貼操作的圖像的檢測器通常無法檢測通過操作圖像亮度來修改的圖片,反之亦然。為了解決這個(gè)問題,就建立了一個(gè)實(shí)驗(yàn)性探測器,即“整體模型”,該探測器使用來自多個(gè)探測器的信號(hào)進(jìn)行訓(xùn)練。因?yàn)榧赡P涂梢宰R(shí)別多種圖像處理類型,所以平均而言,結(jié)果比任何單個(gè)檢測器都更準(zhǔn)確。
經(jīng)過處理的圖片例如合成、擦除等,這些操作是會(huì)留下蛛絲馬跡,學(xué)習(xí)過大量案例的計(jì)算機(jī)程序可以在分析圖像后標(biāo)記出它認(rèn)為的更改痕跡,如顏色模式異常、圖像光影異常,縱深比例不正確,已經(jīng)復(fù)制和粘貼多次的區(qū)域以及是否圖像使用了多個(gè)攝像頭模型來合成等。
另外兩個(gè)檢測器主要識(shí)別「deepfake」的造假,也就是這兩年引起熱議的「AI 換臉」,該檢測器使用機(jī)器學(xué)習(xí)區(qū)分真人圖像和StyleGAN 技術(shù)生成的deepfake。
據(jù) Jigsaw 產(chǎn)品經(jīng)理圣蒂亞戈·安德里戈介紹,Assembler能處理大量丑聞?wù)掌?,這對面臨核實(shí)壓力的新聞機(jī)構(gòu)很有幫助,還可用于驗(yàn)證已經(jīng)在網(wǎng)絡(luò)上大規(guī)模傳播的圖像的真實(shí)性。
這場人工智能的戰(zhàn)爭悄然開始,Assembler負(fù)責(zé)找到其他AI圖像處理的的破綻,對于這些AI圖像處理軟件來說,AI圖像處理軟件:“原來這里還有不足,知道下面要怎么修改了。”