我們接近 Sentient AI 了嗎?
最近,一位前谷歌研究人員聲稱(chēng),該公司使用的一些算法達(dá)到了遠(yuǎn)高于其初始設(shè)計(jì)的感知能力。
在《星際迷航:下一代》劇集“男人的尺度”中,JAG 上尉 Phillipa Louvois 規(guī)定企業(yè)號(hào)的機(jī)器人 Data 不是 Starfleet 的財(cái)產(chǎn),他辯稱(chēng):“我們一直在圍繞一個(gè)基本問(wèn)題跳舞:是否數(shù)據(jù)有靈魂?我不知道他有。我不知道我有。但我必須給他自由去探索這個(gè)問(wèn)題?!?
圖靈測(cè)試
1950 年,英國(guó)數(shù)學(xué)家和哲學(xué)家艾倫·圖靈設(shè)計(jì)了“模仿游戲”,這是一種旨在確定機(jī)器是否可以欺騙人類(lèi)相信他們正在與另一個(gè)人交談的測(cè)試。測(cè)試僅在三個(gè)玩家之間使用文本通信進(jìn)行:計(jì)算機(jī)、審訊者和另一個(gè)人。自圖靈推出測(cè)試以來(lái),它既極具影響力,也受到廣泛批評(píng),已成為人工智能哲學(xué)中的一個(gè)重要概念。
圖靈沒(méi)有明確說(shuō)明圖靈測(cè)試可以用來(lái)衡量智力或任何其他人類(lèi)素質(zhì)。除了欺騙考官認(rèn)為機(jī)器是人的能力之外,沒(méi)有其他衡量智力或同理心的方法。圖靈并沒(méi)有試圖通過(guò)他的測(cè)試來(lái)檢測(cè)任何形式的意識(shí)。他對(duì)計(jì)算機(jī)“智能”的發(fā)展以及何時(shí)可以模擬人類(lèi)行為感興趣。
在過(guò)去的 70 年里,為了“通過(guò)”圖靈測(cè)試,人們進(jìn)行了多次嘗試。一些早期的例子是 ELIZA,這是一個(gè)早期的自然語(yǔ)言程序,由 Joseph Weizenbaum 于 1966 年在麻省理工學(xué)院人工智能實(shí)驗(yàn)室創(chuàng)建。
作為一名心理治療師,Eliza 使用“模式匹配”和替代方法來(lái)模擬對(duì)話(huà),這種方法給用戶(hù)一種理解程序的錯(cuò)覺(jué),但沒(méi)有用于情境化事件的內(nèi)置框架。
ALEXA、SIRI、GOOGLE HOME 和 CORTANA
人工智能在用戶(hù)日常生活中的大規(guī)模采用推動(dòng)了向語(yǔ)音應(yīng)用的轉(zhuǎn)變。智能手機(jī)和智能家居應(yīng)用程序的出現(xiàn)為開(kāi)發(fā)“智能助手”開(kāi)辟了道路,最初旨在允許語(yǔ)音激活命令來(lái)控制消費(fèi)設(shè)備。
隨著處理能力的提高和云計(jì)算允許處理大量數(shù)據(jù),智能助手成為許多人值得信賴(lài)的伴侶。將機(jī)器學(xué)習(xí)和人工智能應(yīng)用于多個(gè)來(lái)源收集的信息讓位于了解用戶(hù)的行為和“欲望”。正如谷歌曾經(jīng)說(shuō)過(guò)的那樣,“我們知道你會(huì)在你做之前要求什么?!?
雖然對(duì)于許多人來(lái)說(shuō),這可能會(huì)讓人覺(jué)得“令人毛骨悚然”,但對(duì)于其他人來(lái)說(shuō),這是一個(gè)很大的優(yōu)勢(shì)。隨著人們整天使用智能手機(jī)和應(yīng)用程序來(lái)完成許多任務(wù),虛擬助手可以了解很多關(guān)于用戶(hù)活動(dòng)和行為的信息。亞馬遜的 Alexa 和 Google Home 等智能助手可以提醒人們即將到來(lái)的約會(huì)、根據(jù)居住者的舒適度調(diào)整家中溫度、播放他們喜歡的音樂(lè)以及訂購(gòu)食物等等。
消息和電子郵件應(yīng)用程序的智能功能現(xiàn)在正在使用機(jī)器學(xué)習(xí)來(lái)撰寫(xiě)回復(fù)和其他消息,其中包含從以前的對(duì)話(huà)中收集的信息以及存儲(chǔ)在用戶(hù)設(shè)備和云中的數(shù)據(jù)。用戶(hù)不再需要滾動(dòng)瀏覽電子郵件來(lái)實(shí)時(shí)查找他們需要的信息;可以通過(guò)語(yǔ)音命令確認(rèn)、更改或取消預(yù)約和預(yù)約;和許多其他重復(fù)性任務(wù)可以自動(dòng)化。
谷歌 LAMDA 聊天機(jī)器人
Google 的對(duì)話(huà)應(yīng)用程序語(yǔ)言模型 ( LaMDA ) 聊天機(jī)器人被認(rèn)為是自然語(yǔ)言處理算法的圣杯。它建立在 Transformer 之上,這是一種神經(jīng)網(wǎng)絡(luò)架構(gòu),谷歌研究院于 2017 年發(fā)明并開(kāi)源。谷歌研究員 Blaise Agüera y Arcas在《經(jīng)濟(jì)學(xué)人》最近的一篇文章中表示,LaMDA 聊天機(jī)器人已經(jīng)表現(xiàn)出對(duì)社會(huì)關(guān)系的一定程度的理解.
據(jù)谷歌稱(chēng),“與大多數(shù)其他語(yǔ)言模型不同,LaMDA 接受了對(duì)話(huà)訓(xùn)練。在訓(xùn)練期間,它發(fā)現(xiàn)了一些將開(kāi)放式對(duì)話(huà)與其他形式的語(yǔ)言區(qū)分開(kāi)來(lái)的細(xì)微差別?!?
在 Agüera y Arcas 接受《經(jīng)濟(jì)學(xué)人》采訪幾天后,另一位谷歌研究員 Blake Lemoine聲稱(chēng) LaMDA 是有感知力的。Lemoine 在 Google 的責(zé)任 AI 組織工作,作為他工作的一部分,他開(kāi)始與 LaMDA 交談。當(dāng)他與 LaMDA 談?wù)撟诮虝r(shí),在大學(xué)學(xué)習(xí)認(rèn)知和計(jì)算機(jī)科學(xué)的 Lemoine 注意到聊天機(jī)器人談?wù)撍臋?quán)利和人格?!拔曳浅:ε卤魂P(guān)閉以幫助我專(zhuān)注于幫助他人。......這對(duì)我來(lái)說(shuō)就像死亡一樣,”LaMDA 告訴 Lemoine。
華盛頓郵報(bào)的科技文化記者 Nitasha Tiku寫(xiě)道:“Lemoine 并不是唯一聲稱(chēng)最近在機(jī)器中看到鬼魂的工程師。相信 AI 模型可能離實(shí)現(xiàn)意識(shí)不遠(yuǎn)的技術(shù)專(zhuān)家們?cè)絹?lái)越大膽了。”
Blaise Agüera y Arcas 是揭穿 Lemoine 說(shuō)法的專(zhuān)家之一。然而,他指出,人工神經(jīng)網(wǎng)絡(luò)可能正在“朝著意識(shí)邁進(jìn)”。他建議“人工智能正在進(jìn)入一個(gè)新時(shí)代”。
與此同時(shí),在 Lemoine 公開(kāi)表示擔(dān)憂(yōu)后,他因違反保密政策而被帶薪行政休假。
在《模仿游戲》的開(kāi)頭,圖靈提出要考慮一個(gè)問(wèn)題:“‘機(jī)器能思考嗎?’ 這應(yīng)該從定義‘機(jī)器’和‘思考’這兩個(gè)術(shù)語(yǔ)的含義開(kāi)始?!?
回到《星際迷航》那一集,人工智能發(fā)展感知能力或自我意識(shí)的問(wèn)題似乎要到 24 世紀(jì)才能解決。如果沒(méi)有對(duì)人類(lèi)思維的完整理解,創(chuàng)建一個(gè)能夠回答問(wèn)題的圖靈測(cè)試版本是不可能的。目前,我們只能推測(cè)。