據(jù)報道谷歌的AI 開源框架 TensorFlow 存在著巨大的自身安全風險,攻擊者可以對受害者自身的 AI 應(yīng)用進行竊取或篡改、破壞。風險危害面非常大, AI 研究者可能毫無防備,PC 端和移動端的最新版本均會受到影響。
從騰訊了解到,騰訊安全平臺部預(yù)研團隊發(fā)現(xiàn)谷歌人工智能學習系統(tǒng) TensorFlow 存在自身安全風險,可被黑客利用帶來安全威脅,其已向谷歌報告這一風險并獲得致謝。
騰訊安全平臺部預(yù)研團隊發(fā)現(xiàn),攻擊者可以生成 Tensorflow 的惡意模型文件,對 AI 研究者進行攻擊,對受害者自身的 AI 應(yīng)用進行竊取或篡改、破壞。騰訊方面認為,該風險危害面非常大,一方面攻擊成本低,普通攻擊者即可實施攻擊;另一方面迷惑性強,大部分 AI 研究者可能毫無防備;同時因為利用了 TensorFlow 自身的機制,其在 PC 端和移動端的最新版本均會受到影響。
Google 的 TensorFlow 作為開源框架被互聯(lián)網(wǎng)廣泛使用,該框架在谷歌、ebay、airbnb、twitter、uber、小米、中興等公司均有使用。在TensorFlow中,AI 研究者可以復(fù)用他人建好的模型來進行AI訓練,或直接提供 AI 服務(wù)。
這是安全研究員最近發(fā)現(xiàn)的第二起?TensorFlow 相關(guān)安全風險事件。
12月初,記者了解到,奇虎 360 安全研究實驗室的 Qixue Xiao 和 Deyue Zhang,美國佐治亞大學的 Kang Li,以及美國弗吉尼亞大學的 Weilin Xu 在分析了 TensorFlow,Caffe,Torch 這三大深度學習框架所使用的大量第三方開源基礎(chǔ)庫后,發(fā)現(xiàn)它們存在不少的網(wǎng)絡(luò)安全漏洞,容易受到拒絕服務(wù)攻擊、逃逸攻擊、系統(tǒng)損害攻擊的影響。