Judea Pearl:從機器學習的帶領(lǐng)人到AI領(lǐng)域最堅定的反對派
Judea Pearl幫助AI在概率計算上取得了巨大進步,但是仍然嘆息道:AI在因果關(guān)系計算上無能為力。
AI得以發(fā)展到今天的聰明才智,離不開Judea Pearl的功勞。20世紀80年代,他帶領(lǐng)一批人實現(xiàn)了機器的概率推導。
而現(xiàn)在,他卻成為了AI領(lǐng)域最堅定的反對派之一。在他最新的一本書《疑問之書:因果關(guān)系的新科學》(The Book of Why: The New Science of Cause and Effect)中,他指出AI進步最大的一個掣肘在于,對“智能”到底意味著什么的基本性認識不足。
三十年前,AI研究最大的挑戰(zhàn)在于,如何通過編程讓機器學會將潛在的原因與所觀察到的現(xiàn)狀進行聯(lián)系。Pearl通過一個叫做貝葉斯網(wǎng)絡(luò)的方法解決了這個問題。
貝葉斯網(wǎng)絡(luò)讓機器能夠?qū)F(xiàn)象與可能的原因聯(lián)系起來:比如有一個病人剛從非洲回來,有發(fā)熱和頭痛的癥狀,那么最可能的解釋就是他感染了瘧疾。Pearl也因為這項成就獲得了2011年的圖靈獎——計算機科學界的最高榮譽。
但正如Pearl所看到的那樣,AI領(lǐng)域陷入了概率關(guān)聯(lián)的泥沼。如今,社會被各種吹捧機器學習和神經(jīng)網(wǎng)絡(luò)最新研究突破的文章所淹沒。我們總是能讀到諸如機器掌握了傳統(tǒng)游戲的玩法、學會了駕駛汽車之類的文章。Pearl對此無動于衷,在他看來,如今的AI只不過是上一代機器的加強版:從一大堆數(shù)據(jù)中找到隱藏的規(guī)律。
“所謂深度學習所取得的重大成就,加起來不過就是曲線擬合,”他說道。
81歲的Pearl在他的新書中詳細闡述了真正擁有智能的機器的思考方式。他認為機器真正擁有智能的關(guān)鍵在于能夠使用因果推論,而非通過相關(guān)關(guān)系推論。
例如,僅僅做到將“發(fā)熱”和“瘧疾”聯(lián)系起來是不夠的,機器還要能推導出“瘧疾會導致發(fā)熱”。一旦這種因果的框架建立起來,機器就有可能提出一些反事實問題——如果施加某種干預(yù),那么因果關(guān)系將會發(fā)生什么變化——Pearl視之為科學思考的里程碑。
同時,Pearl還提出了一套實現(xiàn)這種思考方式的形式語言——21世紀版本的貝葉斯框架,讓機器能夠概率性的思考。
Pearl期望因果推理能夠賦予機器人類級別的智能。他解釋說,在這種級別的智能下機器能夠與人類更有效地溝通,甚至進行道德層面的交流,因為它們已經(jīng)具備了自由意志——當然,也會有罪惡念頭。
Quanta 雜志社最近在圣地亞哥的一個會議上與Pearl取得了聯(lián)系,并在會議后對他進行了電話采訪。以下是刪選過的采訪內(nèi)容:
Kevin Hartnett:為什么給新書起名叫作《疑問之書》?
Judea Pearl:這本書涵蓋了我過去25年所做的關(guān)于因果關(guān)系的工作,即因果關(guān)系在一個人的生命中意味著什么,因果關(guān)系的應(yīng)用,以及我們會如何根據(jù)固有的因果關(guān)系來答問。奇怪的是,這些問題都被科學界拋棄了,我在此就是想彌補科學界對于因果關(guān)系的忽視。
H:科學界舍棄了因果關(guān)系這種說法還挺讓人驚訝的。這不正是科學的全部嗎?
P:當然,但是你沒法通過科學方程式實現(xiàn)這個愿望。代數(shù)語言是具有相稱性的:如果x能推導出y,那么y就能推導出x。我是在說必然關(guān)系。但是我們沒法使用數(shù)學語言描述一些簡單的事實——比如,即將到來的暴風雨會讓氣壓表的讀數(shù)下降,而不是上升。
數(shù)學中不存在描述不對等關(guān)系的語言,諸如如果x導致了y,并不意味著y一定會導致x。我知道反對科學聽起來非??膳?,如果我對我媽這樣說,她可能會獎勵我一巴掌。
但是科學是非常寬容的:當注意到我們?nèi)鄙倜枋霾粚ΨQ關(guān)系的演算之后,科學會鼓勵我們?nèi)?chuàng)造一個。這時數(shù)學就發(fā)揮了很大的作用。當我意識到一個很簡單的因果關(guān)系演算就能解決問題時,我整個人都驚呆了,當今最厲害的統(tǒng)計學家都會認為這個方法非常糟糕或者根本無法解決問題。但其實,所有這些我們能很輕松的在高中幾何學中找到證明。
H:幾十年前,您曾通過指導機器進行概率推導而在AI領(lǐng)域取得了盛名。能解釋一下當時AI界發(fā)生了什么嗎?
P:在20世紀80年代早期出現(xiàn)的問題是人們對于預(yù)測和分析診斷本質(zhì)的思考。當醫(yī)生觀察一個病人的一系列癥狀時,他會得出這個病人罹患瘧疾或者其他疾病的概率。我們希望自動化系統(tǒng)、專家系統(tǒng)能夠代替專家——不論是醫(yī)生、是礦物探尋者、還是別的什么需要付錢聘請的專家。在那個時候,我就想著能不能用概率的方式解決這個問題。
不幸的是,標準的概率計算模型需要巨量的空間和時間。我想出了一個叫做貝葉斯網(wǎng)絡(luò)的算法,只需要多項式時間,并且過程非常透明。
H:另外,在您的新書中,您稱自己為當今AI界的叛徒。這是什么意思呢?
P:事實上,在創(chuàng)造出了幫助機器對不確定性進行推導的工具之后,我給這個領(lǐng)域引入了一個更具挑戰(zhàn)性的任務(wù):對因果關(guān)系進行推導。許多AI界同事還在執(zhí)著于不確定性研究,許多研究還在以分析診斷為核心,無需考慮問題的因果關(guān)系。他們想做的就是得到好的預(yù)測結(jié)果和分析診斷結(jié)果。
我可以舉一個例子?,F(xiàn)在所有我們看到的機器學習的研究都是以診斷模式執(zhí)行的——即,給事物打上“貓”或“老虎”的標簽。他們不在乎“例外情況”,他們想要的只是識別物體,以及預(yù)測時間序列下物體的變化。
當我創(chuàng)造出預(yù)測和診斷分析強有力的工具的時候,我就覺得自己像個叛徒,因為我知道這只是人類智能的冰山一角。如果我們想要機器能夠?qū)δ承└深A(yù)下的“例外情況”進行推導(例如,如果我們禁煙會怎么樣?),或者進行反省性思考(例如,我高中畢業(yè)后會做什么?)時,我們必須使用隨機模型。相關(guān)關(guān)系是遠遠不夠的——這是因為數(shù)學本身的客觀缺陷導致的,而不是個人主觀想法。
H:人們都對AI未來可以做到的事情充滿了希望,而你不是?
P:當我看到越來越多深度學習的研究之后,我覺得他們都在相關(guān)關(guān)系的層級上停止前進了,譬如曲線擬合。雖然這聽起來有點殘酷,但所有令人印象深刻的深度學習研究成就加起來,實質(zhì)上不過就是把曲線擬合到數(shù)據(jù)上。從數(shù)學層級的角度來看,無論在處理數(shù)據(jù)、分析數(shù)據(jù)時多么熟練,都不過只是一個曲線擬合練習,盡管這個過程復(fù)雜且繁瑣。
H:你談?wù)撉€擬合的方式,讓人覺得機器學習的成就并沒有怎么打動你。
P:不,我印象很深,因為我們原本并沒有期望能夠通過簡單的曲線擬合能夠解決很多問題,但事實上它做到了。我抱有懷疑的是關(guān)于未來的發(fā)展——接下來我們能期待什么?我們是否能創(chuàng)造出一個機器人科學家,做出試驗計劃,找到未解決科學問題的新答案?這是我們接下來要做的事情。
我們同樣希望能夠與機器進行有意義的溝通,而有意義則意味著符合我們的直覺。如果你沒法讓機器人具備因果關(guān)系的直覺力,那么就無法與之進行有意義的溝通。機器人不會說出:“我原本可以做的更好”這樣的話,而這是你我天生就能做的。這樣,我們就失去了溝通的一個重要渠道。
H:那么對于機器掌握了因果關(guān)系直覺力的未來,我們可以期待什么?
P:我們需要給機器部署環(huán)境模型。如果機器沒有現(xiàn)實模型,那么我們就無法期待機器在現(xiàn)實中表現(xiàn)得很智能。首先第一步,也許是10年之內(nèi)會發(fā)生的事情,就是人類給機器部署現(xiàn)實概念模型。
下一步,機器將基于這些模型,自行基于歷史經(jīng)驗驗證或定義新的模型。這也就是科學界的工作方式,例如,我們從由圓形及本輪組成的地心說模型開始,最后以橢圓軌道的日心說結(jié)束。
同樣,機器人也能彼此交流,并能把這個假想的、野蠻的世界,轉(zhuǎn)為隱喻式的模型。
H:當你和正在AI領(lǐng)域工作的人說起這些想法的時候,他們是什么反應(yīng)?
P:AI界如今各分天下。如果給那些沉醉于機器學習、深度學習以及神經(jīng)網(wǎng)絡(luò)成就的人說我這些想法的話,他們并不會理解我。他們只想繼續(xù)曲線擬合。但如果和那些在AI界中非統(tǒng)計學習領(lǐng)域工作的人講,他們很快就會領(lǐng)會我的意思。過去這兩個月,我已經(jīng)讀到了幾篇關(guān)于機器學習局限性的論文。
H:你的意思是不是說,在機器學習之外有一些別的趨勢呢?
P:不是趨勢,而是一個嚴肅的意志探索之旅,我們需要不斷地自我拷問:我們要去哪?下一步要做什么?
H:這正好是我最想問你的。
P:我很高興你沒問我關(guān)于自由意志的問題。
H:那么,你是怎樣看待自由意志的?
P:我們未來一定會創(chuàng)造擁有自由意志的機器人,這點毫無疑問。我們需要思考的是怎么實現(xiàn)這一點,以及我們希望從中獲得什么。由于某些原因,進化讓自由意志之感知在計算機層面變得可實現(xiàn)。
H:怎么說?
P:進化讓我們具備了自由意志的感知。顯而易見,進化遵從于一些計算函數(shù)。
H:如果機器人擁有了自由意志,會有很明顯的特征和信號嗎?
P:我認為第一個特征就在于,機器人開始出現(xiàn)一些反事實的交流,譬如說:“你本應(yīng)該做的更好”。如果一隊正在踢足球的機器人開始以這樣風格的語言進行交流了,那么我們就知道它們某種程度上擁有了自由意志。“你應(yīng)該把那個球傳給我的——我在等你,但是你沒這樣做!”“你本應(yīng)該……”意味著你本可以做到一些沖動和欲望之下你想做的事情,但是你沒能做到。所以第一個信號會是交流形式的變化,第二個會是行動上的改進。
H:現(xiàn)在你已經(jīng)談了很多關(guān)于自由意志的內(nèi)容,也許是時候問一下你關(guān)于罪行的問題了。罪行往往建立在有能力做選擇的基礎(chǔ)之上。什么是罪惡?
P:罪惡就是當你的貪婪或者不滿超過了所有常規(guī)社會標準時,你內(nèi)心存在的意念。譬如說,一個人內(nèi)心有類似于軟件模塊的定義說:“你餓了,因此你被準許采取一些行動來滿足你的貪婪或不滿。”但同時,有別的模塊規(guī)定你需要遵守社會規(guī)章制度,其中一個叫做同理心。當你把你的不滿提升到這些通常意義上的社會規(guī)章制度之上時,罪惡便隨之產(chǎn)生。
H:所以我們?nèi)绾蔚弥狝I具備了犯罪能力?
P:一個征兆就是機器人持續(xù)地忽略部分軟件組件,或者當機器人開始遵從一些組件的指令而忽略掉別的組件,尤其是當它們忽略了那些讓它們遵守基本行為準則的組件,而這些組件或者已經(jīng)被部署在它們內(nèi)部,或者本來是希望它們基于歷史學習進行獲取的。而機器人卻不再遵從。