人工智能是真的懂我們嗎
人工智能進(jìn)步神速,獲得一定的理解力,可以回答簡單的問題。
理解是一個動態(tài)的能力增長區(qū)間。
為了讓系統(tǒng)產(chǎn)生理解力,需在不同的概念、狀態(tài)和操作之間建立系統(tǒng)聯(lián)系。
原文來自Medium,作者Thomas G. Dietterich
針對人工智能的最新進(jìn)展,一些批評家認(rèn)為,盡管人工智能進(jìn)步神速,但仍然沒有達(dá)到“真實的”、“準(zhǔn)確的”、“真正的”理解。這些詞語說明“理解”是二元的:一個系統(tǒng)要么有“真正的”理解力,否則就沒有。
這種看法的問題在于,人類的理解永遠(yuǎn)是不完整、不完美的。我認(rèn)為“理解”是一個動態(tài)的能力增長區(qū)間。以“水”為例。大多數(shù)人理解水的特性:濕的,可以喝,植物需要,受凍成冰等等。
但是,很多人不知道水也是一種電導(dǎo)體,所以不要在淋浴間里吹頭哦。然而,我們不會認(rèn)為這些人對“水”缺乏“真實的”、“準(zhǔn)確的”、“真正的”理解,相反,我們說他們的理解不完整。
因此,我們應(yīng)該以同樣的態(tài)度評估人工智能系統(tǒng)?,F(xiàn)有的系統(tǒng)產(chǎn)生了一定的理解力,例如:如果我告訴Siri:“Siri,打電話給卡洛爾?!彼鼤艽蛘_的號碼,Siri沒有理解我的請求嗎?那可是大錯特錯了。
如果我問Google:“誰被IBM的深藍(lán)系統(tǒng)打???”它會顯示一個信息框,大大的字母寫著“Kasparov”,它也正確理解了我的問題。當(dāng)然,這種理解力是有限的。如果我再問:“時間?”,它會給出了字典中“時間”的定義,它無法結(jié)合上下文進(jìn)行回答。
關(guān)于“理解”的爭論可以追溯到亞里士多德時期,或許塞爾(Searle)的中文屋論證(Chinese Room argument)闡釋更清晰。我推薦大家閱讀《斯坦福哲學(xué)百科全書》(Stanford Encyclopedia of Philosophy)中科爾(Cole)的文章。
我認(rèn)為理解是功能主義的一種形式。我們從功能的角度描述理解的特征,并根據(jù)大腦或人工智能系統(tǒng)中各種內(nèi)部結(jié)構(gòu)作用,評估它們各自的貢獻(xiàn)。
從軟件工程的角度,功能主義鼓勵我們設(shè)計一系列測試測量系統(tǒng)功能。我們可以問系統(tǒng)(或人):“如果水的溫度降到零下20℃會發(fā)生什么?”或者“如果在淋浴間里使用吹風(fēng)機會怎樣?”然后評價它們的反潰如果反饋相對合理,我們可以說系統(tǒng)能理解,而如果反饋是錯的,我們則判斷系統(tǒng)無法理解。
為了讓系統(tǒng)產(chǎn)生理解力,我們需在不同的概念、狀態(tài)和操作之間建立系統(tǒng)聯(lián)系。今天的語言翻譯系統(tǒng)正確地將英語中的“water”與西班牙語中的“agua”聯(lián)系起來,但它們在“水”和“觸電”之間沒有建立任何聯(lián)系。
對人工智能新進(jìn)展的批評主要來自兩個方面。首先,圍繞人工智能的炒作(來自研究人員、其所屬組織、甚至是政府和資助機構(gòu))已經(jīng)無所不用其極。甚至引發(fā)了對“超級智能”和“機器人啟示錄”的恐懼。要反駁這種無稽之談,理性批評還是可取的。
對于人工智能未來研究方向和政府資金分配的爭論還在繼續(xù),批評是這一爭論的一部分。一方是聯(lián)結(jié)主義(connectionism)的倡導(dǎo)者,他們推動了深度學(xué)習(xí),支持繼續(xù)研究人工智能。另一方是人工智能符號和控制方法的倡導(dǎo)者(比如形式邏輯)。也有越來越多的人主張在混合架構(gòu)中結(jié)合這兩種方法。
批評同樣對這個方面的爭論有助益,因為人工智能一定會不斷沖破我們的假設(shè),并選擇如何使用社會的資源和金錢推進(jìn)人工智能科學(xué)和技術(shù)的發(fā)展。然而,我反對“深度學(xué)習(xí)系統(tǒng)沒有產(chǎn)生真正的理解,因此應(yīng)該放棄深度學(xué)習(xí)”這一觀點。
這種觀點和“深度學(xué)習(xí)系統(tǒng)已經(jīng)取得了巨大進(jìn)步,進(jìn)一步研究我們對智能將一覽無余。我喜歡拉卡托斯(Lakatos)的觀點,研究項目會一直進(jìn)行下去,直到它們不再有成果。
我認(rèn)為我們應(yīng)該繼續(xù)追求聯(lián)結(jié)主義、符號象征(symbolic representaTIonalist)以及新興的混合方案,因為它們在未來大有可為。
對深度學(xué)習(xí)的批評催生新的發(fā)展方向。特別是,深度學(xué)習(xí)系統(tǒng)在各種基準(zhǔn)任務(wù)的表現(xiàn)堪比人類,卻無法總結(jié)表面上非常相似的任務(wù),這使機器學(xué)習(xí)產(chǎn)生了危機。研究人員正在思索新的應(yīng)對方案,例如不變量、研究因果模型,這些既適用于符號學(xué)習(xí),也適用于聯(lián)結(jié)主義的方式。
我認(rèn)為,我們應(yīng)該追求人工智能科學(xué)技術(shù)的進(jìn)步,而不是就“真正的”理解定義侃侃而談。相反,重點該放在未來5年、10年或50年可以實現(xiàn)的系統(tǒng)功能上。我們可以在人工智能系統(tǒng)上執(zhí)行測試來定義這些能力,從而測量系統(tǒng)是否擁有這些能力。
要做到這一點,這些能力必須具有可執(zhí)行性。簡而言之,人工智能的測試要以測試為導(dǎo)向。這要求我們把“理解”和“智能”的模糊概念轉(zhuǎn)化為具體的、可量的能力。這本身就是一個非常實用的過程。
操作測試中,除了評估人工智能系統(tǒng)的輸入輸出行為之外,還可以檢查產(chǎn)生這種行為的內(nèi)部結(jié)構(gòu)(數(shù)據(jù)結(jié)構(gòu)、知識庫等)。人工智能相對于神經(jīng)科學(xué)的一大優(yōu)勢是,我們可以更容易在人工智能系統(tǒng)上進(jìn)行實驗,理解和評估它們的行為。
不過,還是要提醒大家注意。聯(lián)結(jié)主義方法,包括深度學(xué)習(xí),經(jīng)常導(dǎo)致難以解釋的內(nèi)部結(jié)構(gòu),似乎我們的大腦也是如此。因此,我們不需要設(shè)定一個研究目標(biāo)來確認(rèn)某些結(jié)構(gòu)(例如符號表征)的存在。相反,我們應(yīng)該關(guān)注希望系統(tǒng)獲得的行為能力,并研究其內(nèi)部機制如何實現(xiàn)這些能力。
例如,一次成功的對話需要每位參與者留心交流過程中的前因后果。有很多方法可以做到這一點,我們沒必要在一個深度學(xué)習(xí)系統(tǒng)中硬性要求明確的歷史記憶。
相反,我們編寫了一個特定的內(nèi)部結(jié)構(gòu),并不意味著它就會按照我們預(yù)計的方式運行。德魯麥克德莫特(Drew McDermott)在其著作《人工智能遇到自然愚蠢》(Artificial Intelligence Meets Natural Stupidity)中詳細(xì)討論了這個問題。
人工智能受批評,發(fā)展,再受批評的模式導(dǎo)致所謂的“人工智能效應(yīng)”:時下最先進(jìn)的系統(tǒng)沒有產(chǎn)生“真正的理解”或“真正的智能”,人工智能等同于失敗。這導(dǎo)致人工智能領(lǐng)域的成功被忽視,投入資金減少。例如,曾經(jīng)有一段時間,人們認(rèn)為系統(tǒng)如果能夠達(dá)到人類下象棋或圍棋的能力,就是智能的。
但是當(dāng)1997年深藍(lán)擊敗卡斯帕羅夫時,一位著名的人工智能研究人員認(rèn)為,下國際象棋擊敗人類很容易,要顯示出真正的智能,必須解決“小車倒車問題(truck backer-upper problem)”,即將一輛鉸接式半拖車卡車倒進(jìn)停車位。
事實上,九年前,阮(Nguyen)和威德羅(Widrow)已經(jīng)通過強化學(xué)習(xí)解決了這個問題。今天,許多“深謀遠(yuǎn)慮”的批評者再次提出了新任務(wù)和新條件,測試一個系統(tǒng)是否產(chǎn)生了“理解”。
與此同時,人工智能的研發(fā)提升系統(tǒng)能力,并為社會創(chuàng)造價值。重要的是,無論是從學(xué)術(shù)誠信角度考慮還是為了繼續(xù)獲得投資,人工智能研究人員要能在成功時坦然接受贊美,失敗時勇于承擔(dān)責(zé)任。
我們必須壓制圍繞人工智能新進(jìn)展的炒作、必須客觀地衡量我們的系統(tǒng)在不同情況下是否能理解用戶和其目標(biāo),客觀地認(rèn)識人工智能開拓的廣闊世界。我們沒有必要糾結(jié)于成果的“真真假假”,帶上誠實有效的自我批評,讓我們繼續(xù)前行吧。
? ?