歐盟(EU)通過《通用數(shù)據(jù)保護條例》(GDPR-General Data Protection Regulation)已經(jīng)6年了,這是一項內(nèi)容廣泛且復雜的監(jiān)管法規(guī),旨在加強并統(tǒng)一對歐盟內(nèi)所有的個人數(shù)據(jù)保護。中國的個人信息保護法也于去年11月開始正式實施?,F(xiàn)在,隨著圍繞人工智能(AI)的類似法規(guī)在世界多個地區(qū)開始實施,業(yè)界對GDPR的經(jīng)驗可以告訴企業(yè)如何準備應對對其人工智能的不可避免的監(jiān)管審查。
公司應該面對現(xiàn)實
GDPR的某些部分引起了不小的企業(yè)恐慌,因為當時的新規(guī)定要求企業(yè)提供準確和可理解的解釋,說明算法分析(特別指機器學習模型)是如何做出決策的。條例賦予個人要求和接受自動化決策解釋的權利,盡管很少有消費者在這一領域真實地行使他們的權利。
不過,盡管GDPR已經(jīng)問世六年,但都沒有催生出一個關于機器學習可解釋性的行業(yè)標準。因為我們?nèi)栽趯ふ依斫夂涂刂品治龅拿鞔_準則,從更廣泛的角度來看,最終的人工智能監(jiān)管之路也可能是一條坎坷的道路。
事實上,政府對人工智能技術的開發(fā)和使用方式進行監(jiān)管是不可避免的。其中一個主要原因是人工智能的自我調(diào)節(jié)有很高風險。
2021年進行的一項研究表明,在人工智能領域,高管們對公司的責任應該是什么沒有達成共識。例如,在參與研究的公司中,只有22%設有內(nèi)部道德委員會。一些高管認為人工智能應用不需要符合道德規(guī)范,它們只需要被劃分為高風險或低風險即可。另一些人則因為沒有確定什么是“足夠公平”的工具,也沒有界定什么是偏見的標準而苦惱。
風險暴露(并最終與政府監(jiān)管相沖突)對于推動參與度非常重要,可以將人工智能提升到董事會層面的一個話題。如果首席風險官(CRO)沒有跟蹤人工智能風險,他們應該跟蹤。更有針對性的是,CRO應該倡導全面的企業(yè)人工智能治理框架,定義道德人工智能標準和模型開發(fā)程序,以一種他們能夠支持的方式,并經(jīng)得起監(jiān)管審查。
雖然翻譯后的對話顯得雜亂無章且不合邏輯,但奇怪的現(xiàn)象讓研究人員感到意外。為了不讓兩臺智能機器人繼續(xù)“交流”,研究人員不得不關閉兩臺人工智能機器?,F(xiàn)在只有兩臺智能機器回答問題,現(xiàn)在看起來人類只需切斷電源即可輕松關閉它們。
因此,即使它們確實產(chǎn)生了自己的交流語言,也不會對人類構成任何實質(zhì)性威脅。但如果這種“交流能力”出現(xiàn)在工業(yè)機器人身上呢?工作時會不會互相抱怨壓力太大,交流后會不會集體罷工或集體反抗?在了解了上述關于人工智能的內(nèi)容之后,我們?nèi)匀粵]有辦法判斷未來的人工智能會發(fā)展成什么樣子。事實上,面對人工智能時代的到來,我們不必因為它可能給我們帶來的負面影響而回避它。
人工智能的發(fā)展已成為現(xiàn)階段的一大趨勢。正如李彥宏所說,互聯(lián)網(wǎng)可能只是一道“開胃菜”,而人工智能才是真正的“主菜”。沒趕上“開胃菜”的,一定要趁機吃下“主菜”。
什么是“真正的智能”?
人類智能是“真正的”智能,這一概念隱含在我們構建的具有人類心智能力的 AGI 系統(tǒng)的目標中?!叭斯ぶ悄堋边@個詞語也進一步暗示了這一點,即模擬人類(生物)智力一樣真實。
作為人類,我們將自己視為世界上有史以來最聰明的生物。因此我們習慣將自己通過經(jīng)驗、直覺與邏輯進行決策分析從而解決各種情況的復雜問題的能力作為“智力”評判的標準。但其實跳出這個衡量標準,站在一些別的維度上我們并沒有自己想象的那么聰明。
當“智能”的衡量標準建立在人類自己獨特的能力之上時,我們可能會忽略一些關鍵問題。
比較:人工智能AI與人類智能HI
人工智能專注于構建可以模仿人類行為并執(zhí)行類似人類活動的計算機。相比之下,人類智能側(cè)重于通過結合多個認知過程來學習適應新環(huán)境。人類依賴大腦的計算能力、記憶力和計算能力,但人工智能驅(qū)動的機器利用系統(tǒng)中的數(shù)據(jù)和詳細指令。
人類智能是基于許多實例和過去的經(jīng)驗中進行學習的,是在在無數(shù)人無數(shù)歷史實踐的反復實驗和錯誤中完成學習的。但它無法像人一樣學會“舉一反三”,無法完成推理。