歐盟GDPR出現(xiàn),人工智能被套上枷鎖
據(jù)外媒報(bào)道,一項(xiàng)歐盟出臺(tái)的《一般數(shù)據(jù)保護(hù)條例》(GDPR)在5月25日正式生效,屆時(shí)GDPR將在歐盟全面實(shí)施。這意味著在人工智能/深度學(xué)習(xí)的發(fā)展浪潮下,歐盟對(duì)民眾保護(hù)和授權(quán)數(shù)據(jù)隱私方面正常再次收緊,AI/深度學(xué)習(xí)或?qū)⒈惶咨霞湘i。
據(jù)悉,即將出臺(tái)的《歐盟一般數(shù)據(jù)保護(hù)條例》,將取代已實(shí)施20年的《歐盟個(gè)人資料保護(hù)指令》,來協(xié)調(diào)全歐洲的數(shù)據(jù)隱私律法。在即將實(shí)施的GDPR中,要求所有科技公司對(duì)其算法自動(dòng)決策進(jìn)行解釋,這將使大量依賴深度學(xué)習(xí)算法的AI應(yīng)用不合法。
這條法規(guī)的實(shí)施,無疑是給當(dāng)前火熱的全球人工智能市場(chǎng)澆了一盆冷水,起碼在歐盟是這樣。對(duì)于普通歐盟公民來說,科技公司在收集他們的數(shù)據(jù)時(shí)將變得慎之又慎,不敢輕易逾越法律紅線,這有效的保護(hù)了公民的隱私權(quán)利。不過,因?yàn)槿斯ぶ悄?深度學(xué)習(xí)的發(fā)展本質(zhì)就是基于用戶大數(shù)據(jù)而工作,這可能也會(huì)影響科技公司開發(fā)AI應(yīng)用的積極性。
對(duì)于即將實(shí)施的GDPR,《終極算法》一書作者,華盛頓大學(xué)PedroDomingos教授 在社交網(wǎng)絡(luò)上表示,“自 5 月 25 日起,歐盟將會(huì)要求所有算法解釋其輸出原理,這意味著深度學(xué)習(xí)成為非法的方式。”
對(duì)于GDPR要點(diǎn),我們做了大概摘錄。《條例》中包含三大項(xiàng):數(shù)據(jù)轉(zhuǎn)移權(quán)、被遺忘權(quán)、算法公平性。
據(jù)轉(zhuǎn)移權(quán)—規(guī)定用戶可隨時(shí)不受阻礙的遷移個(gè)人數(shù)據(jù)至新的服務(wù)商, 像類似于谷歌、Facebook等依賴于用戶數(shù)據(jù)進(jìn)行創(chuàng)新服務(wù)的公司而言將無疑是重大打擊;被遺忘權(quán)—規(guī)定用戶有權(quán)要求數(shù)據(jù)控制者刪除個(gè)人數(shù)據(jù),且不能過分延長(zhǎng)數(shù)據(jù)保存時(shí)間。像依賴 cookie 數(shù)據(jù)收集、廣告投放的技術(shù)公司將受損失;算法公平性—規(guī)定用戶有權(quán)要求服務(wù)商就算法自動(dòng)決策給出解釋,并在解鎖不滿意時(shí)有權(quán)退出。
這樣一來伴隨著GDPR的實(shí)施,歐洲將呈現(xiàn)兩大陣營(yíng):擁抱數(shù)據(jù)隱私和算法公平性原則的社會(huì)公民;對(duì)法規(guī)不滿的技術(shù)巨頭。用戶這邊,我們不再多說。對(duì)科技公司而言,諸如處理AI黑箱問題需征求用戶同意,相關(guān)AI應(yīng)用可能也不再合法。
與此同時(shí),科技公司還面臨發(fā)展高性能AI和面臨AI黑箱難解釋問題。目前,大多數(shù)科技公司都借助人工智能/深度學(xué)習(xí),利用大量數(shù)據(jù)從中獲益。另外,當(dāng)前業(yè)界普遍認(rèn)為神經(jīng)網(wǎng)絡(luò)存在黑箱問題,其架構(gòu)高復(fù)雜性令科技公司需花費(fèi)巨大成本去解釋這個(gè)問題。因而,GDPR帶來的不僅是用戶隱私權(quán)與服務(wù)商利益的較量問題,還有人工智能技術(shù)本身受政策影響減緩發(fā)展的問題。