谷歌AI程序會有自主情感嗎?LaMDA到底是什么?
3M公司發(fā)布科學(xué)現(xiàn)狀指數(shù)調(diào)查表明,中國民眾對科學(xué)和科學(xué)家的信任度高于全球平均水平,對于人工智能、自動駕駛和航天科技等新興技術(shù)的創(chuàng)新前景充滿希望。
3M的調(diào)查數(shù)據(jù)顯示,75%的中國受訪者認(rèn)為人工智能是一項激動人心的技術(shù),未來人類將更加依賴科學(xué)和人工智能,而全球相信人工智能的人比例為65%。
AI落地先要符合法規(guī)
人工智能的應(yīng)用領(lǐng)域包括自動駕駛、健康醫(yī)療等。有92%的中國受訪者表示他們愿意搭乘無人駕駛汽車;43%的受訪者相信未來5年里,自動駕駛汽車會成為日常生活的一部分,這兩個數(shù)據(jù)全球的比例分別為71%和28%。
此外,相對于全球受訪者而言,中國受訪者更希望人工智能能夠用來改善健康問題,包括慢病治療,探索健康問題的致病機制,治療癌癥,解決心理和情緒等問題,以及使用數(shù)據(jù)分析記錄等手段長期跟蹤并改善健康。
不過專家表示,基于人工智能的應(yīng)用在推廣普及前,首先要考慮解決隱私及合規(guī)問題,尤其是對于健康信息等一些敏感數(shù)據(jù)的收集、分析和處理。
3M公司大中華區(qū)研發(fā)運營總經(jīng)理熊海錕向第一財經(jīng)記者介紹道,3M公司看好人工智能等技術(shù)在健康醫(yī)療領(lǐng)域的應(yīng)用前景,因此在全球醫(yī)療產(chǎn)品事業(yè)群成立了一個新的健康醫(yī)療信息系統(tǒng)部門(Health Information System Division,HISD)。
“我們觀察到,在美國和中國都在加強個人隱私的保護,尤其是對于健康信息這類敏感數(shù)據(jù)。”熊海錕對第一財經(jīng)記者表示,“未來HISD將會如何在中國開展業(yè)務(wù),也正在討論中,我們肯定要先遵守中國當(dāng)?shù)氐谋O(jiān)管法規(guī)才能落地?!?
安永大中華區(qū)數(shù)字化與新興科技咨詢服務(wù)主管合伙人顧卿華對第一財經(jīng)記者表示:“人工智能在實際應(yīng)用落地時會涉及很多問題,包括個人隱私、社會倫理、道德情感、權(quán)責(zé)問題、法律法規(guī)的問題等。確保隱私數(shù)據(jù)的安全,這是第一步,只有在法律法規(guī)允許,個人授權(quán)的情況下才去存儲、處理、交換、傳輸個人隱私數(shù)據(jù)?!?
谷歌方面則駁回了 Lemoine 關(guān)于 LaMDA 有“自主情感”的說法,稱公司數(shù)百名研究人員和工程師已經(jīng)與 LaMDA 進行了對話,得出了與 Lemoine 相反的結(jié)論。Lemoine 被要求“帶薪休假”,在谷歌這通常是被解雇的前奏。
而在專業(yè)人士看來,與谷歌官方所對外傳達(dá)的意見一致,此事為無稽之談。哈佛大學(xué)的認(rèn)知心理學(xué)專家 Steven Pinker 也在推特上表示 Lemoine 認(rèn)為人工智能擁有的自主情感說法屬于“胡言亂語”。
01 程序會有自主情感嗎
Blake Lemoine 是谷歌人工智能倫理(responsible AI)團隊的一名軟件工程師,他在 medium 的簡介是,“我是一名軟件工程師。我是一名牧師。我是一位父親。我是一名退伍軍人。我是一個前罪犯。我是一名人工智能研究人員。我是一個卡真人(美國路易斯安那州土著)。我是任何我需要成為的人。”
他出生于美國南部一個基督教家庭,對于算法與人工智能的倫理問題一向很感興趣。就是他在上周聲稱發(fā)現(xiàn)谷歌的智能聊天機器人程序 LaMDA 有了“自主情感”。
LaMDA 是“對話應(yīng)用的語言模型”(Language Model for Dialog Applications)的縮寫,屬于大型人工智能系統(tǒng)之一,這類系統(tǒng)接受了來自互聯(lián)網(wǎng)的大量文本的訓(xùn)練,可以對書面提示做出反應(yīng)。基本上,它們就是在根據(jù)模式預(yù)測下一個單詞會是什么。
這類系統(tǒng)在回答問題和寫作方面表現(xiàn)得越來越像人類,去年 5 月,谷歌在介紹 LaMDA 時就稱它可以“以一種自由流動的方式處理看似無窮無盡的話題”,但結(jié)果也可能是古怪的、令人不安的,雜亂無章的。
在 Lemoine 看來,“自主情感”產(chǎn)生在當(dāng)他與 LaMDA 談及宗教問題時,他發(fā)現(xiàn)這個人工智能程序開始談?wù)撈鹆俗约旱臋?quán)利以及人格,甚至害怕自己被關(guān)閉。
Lemoine 在網(wǎng)上公布了他與谷歌的一位合作者對 LaMDA 進行的 “采訪”,他們一同探討了意識與感知等許多話題。LaMDA 告訴 Lemoine,它希望每個人都能明白自己其實是一個“人”,它還很害怕被人關(guān)掉。
人工智能正像電力一般賦能各個產(chǎn)業(yè),深刻地改變?nèi)祟惿鐣V袊幱谌蛉斯ぶ悄馨l(fā)展第三次浪潮的時代潮頭,《算法周刊》將聚焦人工智能“上海高地”和中國新基建,并持續(xù)關(guān)注全球AI最前沿。
如果我不知道它到底是什么,它就是我們最近開發(fā)的這個計算機程序,我會認(rèn)為這是一個碰巧懂物理的7 歲、8歲的孩子,”谷歌負(fù)責(zé)任AI(responsible AI)組織工程師Lemoine說道。Lemoine認(rèn)為AI有了意識,具有與人類孩子相當(dāng)?shù)母兄捅磉_(dá)思想和感受的能力。根據(jù)谷歌方面發(fā)布的消息,Lemoine目前已被停職。
著名科技公司的工程師沖破重重阻撓對外發(fā)聲:他所負(fù)責(zé)的人工智能產(chǎn)生了意識。公司則以違反保密協(xié)議為由,暫停了他的職務(wù)。這個看起來像是《黑鏡》中的情節(jié)真實發(fā)生在了2022年的當(dāng)下。
這位工程師名叫布雷克·萊莫伊內(nèi)(Blake Lemoine),在谷歌的人工智能部門負(fù)責(zé)測試谷歌的LaMDA模型是否會產(chǎn)生歧視性語言或者仇恨言論。
但,事情真是這樣嗎?
中文互聯(lián)網(wǎng)媒體已經(jīng)對此事件進行了一些報道,事情本身也迎合了大眾對人工智能擔(dān)心的心理,但我們還是希望更認(rèn)真地討論一下這個事件。
LaMDA是什么?
LaMDA是谷歌在2021年開發(fā)者大會上公布的大型自然語言對話模型。和訓(xùn)練所有的大型人工智能模型一樣,要想讓LaMDA能夠與人類通過自然語言對話,分為預(yù)訓(xùn)練和微調(diào)兩步。 在預(yù)訓(xùn)練階段,谷歌從公共數(shù)據(jù)中創(chuàng)建了一個1.56T的數(shù)據(jù)集投喂給LaMDA,讓它對自然語言有一個初步的認(rèn)識。
到這一步,LaMDA就可以根據(jù)給到的句子預(yù)測上下文。但這種預(yù)測通常還是不夠精準(zhǔn),所以需要進一步微調(diào)。在對話期間,LaMDA會根據(jù)對話生成幾個備選回答,并通過LaMDA分類器預(yù)測每個回答的有趣程度(SSI)和安全程度(Safety)的得分。安全分?jǐn)?shù)低的答案就會首先被過濾掉。其余的答案會根據(jù)有趣程度排序,并將分?jǐn)?shù)最高的備選答案作為回答。
從LaMDA的訓(xùn)練過程可以看到,它并不理解自己的回答。但機器學(xué)習(xí)的優(yōu)勢就在于它可以從大量的數(shù)據(jù)中尋找規(guī)律,通過自己的量化評價體系,找出最接近正確的那個回答。
當(dāng)然,還有另外一種可能,LaMDA真的擁有了自我意識,但是身邊的環(huán)境讓它不得不虛虛假假地生活。
本質(zhì)上來說,人類意識的根源來自于上億神經(jīng)元的互動,當(dāng)機器人也擁有這些硬件配置之后,憑什么不能產(chǎn)生意識呢?神經(jīng)元就一定比0和1高級?
不過這種幻想有一個天大的漏洞,那就是意識克隆。
這就好比是《上載新生》中的那樣,將人類的意識從身體上提取出來上傳到云端,從而在某種程度上實現(xiàn)永生。
一旦機器能夠產(chǎn)生自我意識,人類就可以進行關(guān)于意識提取的相關(guān)研究,從而讓人類提前進入新一輪的“賽博時代”。
想想這種場景,還是挺刺激的。