人工智能面臨哪一些風(fēng)險
10月31日,全國信息安全標準化技術(shù)委員會(簡稱全國信安標委)網(wǎng)站發(fā)布《人工智能安全標準化白皮書(2019版)》(簡稱“白皮書”)。
如今的人工智能基于深度計算技術(shù)、依賴于大數(shù)據(jù)的“喂養(yǎng)”,白皮書指出,在數(shù)據(jù)采集環(huán)節(jié),人工智能存在過度采集數(shù)據(jù)、個人敏感信息采集合規(guī)等問題,需開展隱私保護要求及技術(shù)類標準研究工作。
人工智能面臨合規(guī)、濫用、數(shù)據(jù)泄露等安全風(fēng)險
近年來,人工智能在算法、算力、和大數(shù)據(jù)因素的影響下,迎來第三次發(fā)展浪潮。它在改變?nèi)祟惿a(chǎn)生活方式的同時,也給社會帶來不可忽視的風(fēng)險挑戰(zhàn)。
如今的人工智能依賴于大數(shù)據(jù)的“喂養(yǎng)”。白皮書指出,人工智能在數(shù)據(jù)采集環(huán)節(jié),存在過度采集數(shù)據(jù)、數(shù)據(jù)采集與用戶授權(quán)不一致、個人敏感采集信息合規(guī)問題等;還易遭受數(shù)據(jù)投毒、模仿攻擊等。
在數(shù)據(jù)使用環(huán)節(jié),數(shù)據(jù)標注帶來安全隱患和合規(guī)問題。如外包公司的標準人員可直接接觸原始數(shù)據(jù),如果管理不規(guī)范,可能存在內(nèi)部人員盜取數(shù)據(jù)、數(shù)據(jù)泄露等風(fēng)險。
在應(yīng)用方面,利用人工智能技術(shù)模仿人類,如換臉、手寫偽造、人聲偽造等,除引發(fā)倫理道德風(fēng)險外,還可能加速技術(shù)在黑灰色地帶的應(yīng)用,模糊技術(shù)應(yīng)用的合理邊界,加劇人工智能濫用風(fēng)險。
其他方面,人工智能系統(tǒng)還存在數(shù)據(jù)存儲安全隱患、共享安全隱患、數(shù)據(jù)傳輸安全隱患等。
我國尚未有正式立項的人工智能自身安全的標準
面對人工智能帶來的各種安全風(fēng)險,各國制定了相關(guān)的法律法規(guī)和政策。比如美國總統(tǒng)簽署行政令,啟動“美國人工智能倡議”;英國建立數(shù)據(jù)倫理與創(chuàng)新中心為政府提供咨詢;日本成立人工智能委員會,開展人工智能倫理道德研究 。
我國亦發(fā)布了一系列相關(guān)政策,如《新一代人工智能發(fā)展規(guī)劃》 、《國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)建設(shè)工作指引》等,在特定領(lǐng)域如無人機、自動駕駛等領(lǐng)域出臺相應(yīng)規(guī)范性文件。此外,特定行業(yè)和領(lǐng)域頒布或立項相應(yīng)標準,如生物識別領(lǐng)域的《信息安全技術(shù) 虹膜識別系統(tǒng)技術(shù)要求》等。
不過,我國尚未有正式立項的人工智能自身安全或基礎(chǔ)共性的安全標準。
人工智能在個人信息保護等方面存在標準化需求
結(jié)合安全分析結(jié)果和當前標準化現(xiàn)狀等因素,白皮書指出,人工智能在算法模型、數(shù)據(jù)安全和個人信息保護、基礎(chǔ)設(shè)施安全、產(chǎn)品和應(yīng)用安全等方面存在標準化需求。
針對突出的數(shù)據(jù)安全與隱私保護風(fēng)險 ,白皮書建議平衡隱私保護和人工智能分析效果,防范逆向工程、隱私濫用等安全風(fēng)險,開展人工智能隱私保護要求及技術(shù)類標準研究工作。
按照“充分研究,急用先行,安全事件推動”的思路,白皮書建議 優(yōu)先立項《人工智能安全參考框架》、《人工智能數(shù)據(jù)集安全》、《人工智能數(shù)據(jù)標注安全》、《機器學(xué)習(xí)算法模型可信賴》、《人工智能應(yīng)用安全指南》、《人工智能安全服務(wù)能力要求》等標準。