引言
作為一個概念和技術,人工智能(AI)仍處于初期發(fā)展階段,但其發(fā)展速度超過預期。全球已有幾個國家宣布將AI作為國家技術戰(zhàn)略的組成部分,還有幾個國家已經開始了公眾咨詢過程。盡管如此,對AI的監(jiān)管并沒有跟上AI的發(fā)展步伐--有一些監(jiān)管機構采取事后處理的方式,確保技術中立的方法,并制定倫理、隱私和安全準則。AI的發(fā)展將顛覆現(xiàn)有的傳統(tǒng)商業(yè)模式,創(chuàng)造新的角色和機會。此外,政府和決策者將需要修改現(xiàn)有的政策和監(jiān)管框架來支持無縫整合和采用AI。
本報告包括歐盟、日本、美國、英國和新加坡最初采用的AI監(jiān)管方法。
Ovum觀點
監(jiān)管機構目前采取的是事后處理(而非事前處理)方法: AI仍處于早期開發(fā)和采用階段。由于并不清楚AI將如何顛覆現(xiàn)有商業(yè)模式,全球監(jiān)管機構和政府選擇發(fā)布技術中立的指導方針。隨著技術的發(fā)展,它能夠支持更大的靈活性。由于決策者目前更傾向于采用事后處理方法,預計將有更多行業(yè)特定和成熟的框架隨著時間的推移而發(fā)展,從而為這些指導方針提供補充。
發(fā)布的指導方針主要側重于保護基本權利: 雖然幾個國家的政府正在采取措施推出AI監(jiān)管框架,但迄今為止發(fā)布的大多數(shù)臨時指導方針都側重于保護基本權利,比如倫理、隱私和安全。為了推出有效的框架,AI價值鏈上的決策者和利益相關方應該協(xié)同工作。最終目標應該是制定涉及AI各個方面的政策和法規(guī)。
AI將創(chuàng)造新的機會,政府應該做好抓住這些機會的準備: AI在各個行業(yè)擁有廣泛的應用場景,而且正在用新方法顛覆現(xiàn)有的商業(yè)模式。盡管有些人認為這是一種威脅,但如果AI得到采納,就可以在各行業(yè)和價值鏈上創(chuàng)造新的機會,包括新的技術和管理角色。為確保抓住這些機會,各國政府應撥出資金提高勞動力和公民的技能。此外,政府可以設立AI委員會,就采用AI所帶來的機會向各自的政府部門提供建議,幫助它們制定路線圖來協(xié)調政府做法和重新培訓勞動力。
為了接受AI,政府將需要修改現(xiàn)有法規(guī): 盡管政府仍在努力發(fā)布有關AI的監(jiān)管政策和指導方針,一些保護消費者利益和競爭的法規(guī)已經出臺。為了確保AI能夠順利融入各個行業(yè),監(jiān)管機構需要重新審視和修訂一些現(xiàn)有的(在某些情況下是過時的)法規(guī),尤其是在AI應用與現(xiàn)有政策存在沖突的情況下,比如數(shù)據保護法、過時的用戶同意方法、許可協(xié)議以及特定行業(yè)的法律。
AI監(jiān)管挑戰(zhàn)及Ovum觀點
如圖1所示,Ovum確定了AI監(jiān)管的七大挑戰(zhàn)。
來源:Ovum
安全
安全是所有政府在批準部署AU、以及任何直接或間接威脅生命或財產、或造成經濟或財政損失的機器或技術時考慮的最基本特性。AI的威脅指數(shù)更高,因為它具有獨立行動的能力,而且?guī)缀醪皇苋祟惛缮?。對AI軟件實施安全標準與對AI本體實施安全標準同樣重要。決策者需要特別關注某些領域的安全標準—在這些領域, AI部署將直接或間接對生命或財產構成更大威脅,比如航空、交通、采礦、物流和國防。在不久的將來,政府很有可能設立一個安全委員會或機構,并要求企業(yè)在部署AI的時候就安全問題獲得這些授權實體的批準。
隱私
AI的決策基于基礎數(shù)據及其算法,它們會隨著時間的推移和經驗的累積不斷進化。數(shù)據量越大,AI就越容易形成有意義的模式并模仿人類行為。然而,獲取有用的數(shù)據在世界各地引發(fā)了對隱私的擔憂,大多數(shù)國家已經出臺了數(shù)據保護法律,比如如《通用數(shù)據保護條例》。此外,數(shù)據保護法中的規(guī)定要求數(shù)據控制器和數(shù)據處理器披露數(shù)據收集的目的及其使用情況,這將是一個巨大的挑戰(zhàn)--因為在將數(shù)據提供給AI應用時無法明確界定這一點。AI的逐步普及最終將迫使政府和決策者重新審視數(shù)據保護措施,對現(xiàn)有的數(shù)據保護法進行修訂,以便在保護用戶隱私和數(shù)據收集之間取得平衡。
可控性
目前AI的發(fā)展和部署仍處于初級階段。雖然有一些AI系統(tǒng)完全自主,但大多數(shù)仍然需要人力監(jiān)督和控制。隨著時間的推移和技術的進步,人類的監(jiān)督和干預將會減少,從而為更多完全自主的AI應用鋪平道路。然而,系統(tǒng)失敗歸咎于外部因素(比如接觸陌生場景、安全漏洞、組件和傳感器損壞)或內部因素(軟件故障和低效訓練的系統(tǒng)等)會導致更大的破壞性, 尤其是在涉及關鍵決策的行業(yè),如航空、汽車、國防和醫(yī)療行業(yè)。決策者應該在AI應用中強制執(zhí)行可控性代碼,使人類能夠在不確定時期控制系統(tǒng)。此外,當AI系統(tǒng)偏離了應該執(zhí)行的預期職責,或者識別出某項任務超出了限度,這種可控性可推動人工干預。同時,努力控制訓練AI系統(tǒng)的輸入數(shù)據有助于開發(fā)一個值得信賴的系統(tǒng)。
倫理
倫理道德在制定AI監(jiān)管政策方面扮演著最關鍵的角色,世界各地的一些政府已經將倫理準則納入了國家戰(zhàn)略。由于AI系統(tǒng)的開發(fā)和訓練是一個持續(xù)的過程,包括開發(fā)算法和輸入數(shù)據,以及監(jiān)控和更新系統(tǒng),因此決策者在確定倫理準則時應該格外謹慎。指導方針應有助于避免不公平的偏倚,防止輸入不合適的數(shù)據來訓練AI系統(tǒng),并保持對隱私的尊重—通過保密的綱領開發(fā)AI系統(tǒng),以便構建AI應用的基礎。
開發(fā)可信、穩(wěn)健的AI系統(tǒng)涉及多方面的專業(yè)人員,比如開發(fā)人員、統(tǒng)計人員、學者和數(shù)據清理人員。決策者和政府應該攜手合作,投資和培訓專業(yè)人士,以便將最佳倫理實踐納入AI系統(tǒng)??梢哉f,這對政府來說并不陌生,因為在國家戰(zhàn)略的指引下許多政府已經撥出了相當多的資金來培訓公民提高數(shù)字技能。此外,在未來,預計AI公司將選擇引入一個新的AI倫理官角色,甚至是一個AI倫理委員會,以便監(jiān)控和保護被納入AI系統(tǒng)的倫理價值觀(類似于數(shù)據保護官的作用)。





