全球AI泰斗Stuart Rusell:研究人工智能太誘人了,不可抗拒
UC Berkeley 大學計算機科學系教授,人工智能著名教材《Artificial Intelligence: A Modern Approach 》第一作者日前接受了Edge的專訪。目前全世界有1300多所學校,包括一些知名大學,都在使用他的書作為人工智能標準教材。這位人工智能界赫赫有名的大師分享了他對人工智能的獨特觀點。他認為,大多數人對智能的定義都是不清晰的。結合自己多年來的研究心得,他在訪談中嘗試對“智能”一詞進行定義:有限最優(yōu)性(bounded optimality)。他認為:我仍然不認為我們應該將 AI 看作算法的集合。算法只是針對特定問題的高度工程化的產物。
【人物簡介】Stuart Russell,UC Berkeley 大學計算機科學教授。他是人工智能著名教材《Artificial Intelligence: A Modern Approach 》第一作者。
研究人工智能太誘人了,不可抗拒
我的工作領域是人工智能,從一開始我就問自己如何能創(chuàng)造真正的智能系統(tǒng)。我的一部分大腦總在考慮下一個障礙會在哪里。為什么我們的認知放在現實世界中總是出錯?錯誤的本質是什么?如何避免?如何創(chuàng)造新一代表現更好的系統(tǒng)?同時,如果我們成功了,會發(fā)生什么?
回溯到1994年,利益和可能出現的弊端尚且是均勢的。盡管人工智能可能帶來的大規(guī)模失業(yè)風險已很明顯,失控可能出現。如果你建造了比你更聰明的系統(tǒng),很明顯會有失控的問題。想象你是只大猩猩,問問自己,我的祖先應該進化成人類嗎?
從大猩猩的觀點來看,這可不是個好主意。94年我要說我對為什么我們會失去對AI的控制還不太理解。打個比方,人們在猩猩和人類或者人類和超級外星文明中做類比,但問題是猩猩沒有故意去設計人類,人類也沒有故意去設計出超級外星文明。
問題的本質是什么?我們能否解決?我愿意相信能夠解決。一種解決思路是要么減緩AI的發(fā)展,要么停止發(fā)展智能系統(tǒng)中的某些方面——如果我們不知如何控制它的話。這是非常困難的,因為壓力巨大。我們都想要更智能的系統(tǒng)——它們能帶來巨大的經濟利益。
比爾·蓋茨說過,解決了機器學習的問題,抵得上十個微軟。彼時,那要花掉4萬億,這對人類推進技術進步來說還算是劃算的。我們如何讓AI更能干?如果可以,我們如何能讓結果對我們更有利?這是我經常會問自己的問題。
我問的另一個問題是:為什么我的同事們沒有問自己這樣的問題?是因為惰性嗎?一個典型的工程師或計算機學家是不是已經陷入了某種慣性思維?或者他們是在一條他們沒有想過通往何處的軌道上,也從來不會去想是不是應該停下來或者慢下來?或者只是我錯了?在我的思考中,是不是有一些錯誤,將我導向了失控的誤判?我總在問自己是不是我錯了。
我審視了人們關于這個問題是否值得注意的爭論。他們不愿意直面這個問題,因為似乎反對聲是來自于人類的一些防備心。很明顯,威脅是存在的。我們可以看看原子物理學的發(fā)展歷史。有一些非常著名的原子物理學家就是不承認原子物理學會導向核武器。
核武器的想法大約出現在至少1914年,當時H.G.Wells寫了World Set Free,其中他描述了一種原子炸彈的武器。物理學的部分他寫的不是太準確。他想象原子炸彈能夠持續(xù)爆炸數周,釋放出巨大的能量,會給一座城市帶來巨大的能源?;揪褪沁@樣。也有一些物理學家,比如Frederick Soddy,預見到了風險,但更有像Ernest Rutherford這樣的科學家就是不承認可能出現的危險。直到Leo Szilard發(fā)明原子鏈反應的前夜,Rutherford 還在否認。正式的實體建設本可以避免,而從無到有也不過區(qū)區(qū)16小時。
我不認為AI會發(fā)生同樣的事情,因為我們還有一個瓶頸需要突破。Szilard似乎就是突破了一個瓶頸,想出了原子鏈反應的方法,不過在真正的核反應被演示出來,這仍然花了5、6年的時間。
5、6年只是彈指一揮間。如果我們有5、6年時間搞出超級人工智能系統(tǒng),我們也就不用擔心控制問題了,同時我們也可能會看到消極的結果。如果幸運的話,它們會被限制起來,這就會成為一個我們?yōu)槭裁床灰@么做的反面例子。就好像切爾諾貝利被用來說明為什么要限制原子能反應一樣。
早先我沒有太多考慮過限制和控制的問題。我的第一個AI項目是1975年的一個國際象棋程序,當時是在高中。那時我讀了很多科幻小說,還看了《2001漫游》和《星際迷航》。在流行文化里,人工智能失控應該是猴年馬月的事情。
年輕時我是個單純的科技樂觀主義者,對我來說研究人工智能太誘人了,不可抗拒。高中時我學習了計算機科學,對機器學習非常感興趣,我寫了一個小游戲程序,接著就是那個國際象棋程序。我讀了一些AI方面的書籍,不過那時我并不覺得AI是個嚴肅的學術領域。
從物理學到人工智能
我希望成為物理學家,所以本科選擇了物理學。我和物理學畢業(yè)生、博士后和一些導師聊了聊,對于原子理論的未來不太樂觀。你得花個10年在290個作者里脫穎而出,如果走運的話,再花個十幾年成為博士后,然后你可能得到一個教職,但也有可能成為一個出租車司機。
1982年我畢了業(yè),沒什么大事。弦理論開始流行了。人們在尋找物理學的大一統(tǒng)理論,卻沒找到什么靠得住的。我記得非常清楚,我和當時任教的Chris Liewellyn Smith有過一次交談——他很快就要去CERN當主任了——我問他在做些什么。在所有我認識的和在哈佛上過課的老師中,他是最聰明的一個。他說他也在搞大一統(tǒng)理論,還在努力把它們轉換成數理邏輯。因為學過一點AI,我明白他的意思。數理邏輯可以讓人直接比較兩個理論,來判斷它們是否相等或產生可測試的結果。對物理學家來說,這是個相當新的想法,不光是供爭論,而且能提出數學上的證據。
他檢驗了81條理論中的64條,結果只有3條獨立的理論,所以人們只是在書寫理論,都沒意識到他們和別人總結的理論沒什么不同。
這3條理論中有2條,原則上,是無法測試的,這意味著整個宇宙里都沒有可供觀測的結果。第三條可以被測試,但想看到任何可供觀測的結果要花上1031年。對我來說,這次談話相當壓抑。平衡可能就是那時被打破的——還有關于畢業(yè)生和博士后的那件事——我于是投身到計算機科學,去了加州。
斯坦福受訓
到達斯坦福的時候,我?guī)缀鯖]碰上任何計算機學家。我在高中和大學之間的那段時間,在IBM工作了一年。他們有一些非常好的計算機學家。在那兒我做了一些有意思的事,我對人工智能領域的計算機學家是個什么樣子也多少有了些認識。
在Edinburgh我遇到了Alan Bundy,我也是在Edinburgh被授予的博士學位,那里有英國最好的AI項目。很多人建議我如果我能進斯坦?;蛘進IT,我應該從二者里挑一個。盡管比申請截止時間晚了6周,我還是進了斯坦福。他們愿意考慮我的申請真是太好了。
我剛到那兒的時候,我的第一任導師是Doug Lenat。Doug非常積極樂觀,充滿干勁,他研究的問題也很酷。他繪制了他的Eurisko系統(tǒng),作為一個多層機器學習系統(tǒng),被用來自由成長為一個智能系統(tǒng)。
Doug很有野心,我喜歡這一點。我和他工作了一段時間。不幸的是,他沒有終身職位。對于任何學術機構來說,他的野心可能有些太大了。有些人沒有看到他論文和實驗中的嚴謹和清晰。
然后我和Mike Genesereth一起工作,他在數學上更為嚴謹。每篇論文都應該有理論支撐。他想建立一套非常牢固的能力和概念的體系,但仍然有建立真正智能系統(tǒng)的野心。他對諸如自動診斷、自動設計這樣的應用類科技也有興趣。
我和Zohar Manna有一些交流,他更像一位計算機邏輯學家,對用邏輯學來驗證和綜合推理更有興趣。我從他那里吸取了不少有趣的想法。不過,他對AI不是特別感興趣,所以我們不是太合得來。一度我曾希望請Doug Lenat 和Zohar Manna作為我的兩位論文導師,但他們之間根本沒有溝通,所以沒能如愿。
82年我去了斯坦福。那里有Feigenbaum,Nils Nilsson 就在距離不遠的SRI。Minsky當時還有點不太顯眼。他論文發(fā)表得比較少。1976年他已經發(fā)表了那篇Frames的論文,有些影響。斯坦福,像很多大學一樣,有他們的AI分支,而且他們也不太把他們自己的學生介紹到其他學校的AI分支去。
斯坦福有啟發(fā)式算法程序項目,由Ed Feigenbaum帶頭,主要是關于專家系統(tǒng)的。Mike Genesereth 也參與其中,但他采用的主要是基于邏輯的方法。概率當時還不被認為是特別相關的。當時對于為什么你不能在構建系統(tǒng)時采用概率論還是有爭論的。
概率論的廣泛介入是Eric Horvitz和David Heckerman這兩個醫(yī)學AI項目的畢業(yè)生以及Ted Shortliffe加入以后的事。他們閱讀了Judea Pearl關于貝葉斯網絡的著作,或者像他們當時叫的,置信網絡。我那時開始理解那本著作有多重要了。1988年Pearl的著作問世時,我相信以前我學到的一些內容很可能是錯的了。使用概率論是完全可行的,實際上,面對不確定性,它的效果比基于規(guī)則的方法好得多,此前斯坦福一直在推行基于規(guī)則的方法。
我的論文研究是機器學習方面的,但使用了邏輯工具來理解學習系統(tǒng)內部發(fā)生了什么,尤其是,一個學習系統(tǒng)如何能借助它已經學會的東西來幫助它進一步的學習新知識。到今天為止這個問題仍很關鍵,因為當人類學習時,他們是借助一切他們已知的信息來理解未知的。
人類通常會從一、兩個典型的現象或一種新接觸的事物或經歷中快速學習,而當前的機器學習系統(tǒng)可能需要數萬或數百萬的例子才能達到學習的效果。當前機器學習系統(tǒng)被設計為只學習很少的或零先前經驗,因為人類對這個問題什么也不甚了解,但其實這并不是常態(tài),人類總在不停的積累經驗,機器只是模擬了人類生命的前五分鐘的那種無知狀態(tài)。之后當人類已經知道了一些東西,就會開始使用他們所知道的東西來學習下一件事情了。
從零開始學習是一件好事,但它不能很好地解釋智力,除非你能證明你開始的這個空無一物的程序,繼續(xù)喂給它經驗,它變得超級智能。我們距離那個目標還很遠。
有限理性研究
如果你想想當前的學習系統(tǒng)內部發(fā)生了什么 - 我知道這有點跑題 - 我們教他們學會認識一只羊或奧爾茲莫比爾牌汽車。這些是離散的邏輯類別,我們這樣做是因為它對我們建立了一個羊識別器或奧爾茲莫比爾牌汽車識別器,而且是有用的,但如果這將變成一個更大規(guī)模的智能系統(tǒng)的一部分呢?如果你是一個深層學習的信徒,你不相信深度學習網絡會使用離散的邏輯類別或“羊有四條腿”這種明確的知識,你為什么認為訓練羊識別器是邁向通用智能的一個步驟,除非通用智能確實使用離散的邏輯類別思考,或者至少反觀人類似乎是這樣的?
我做的第一件被認為是機器學習領域的一件大事,就是在有限理性(bounded rationality)上的研究。在我看來,智力是一種做事成功的能力。正確思考或快速地學習都有一個目的,就是能夠行事成功,或是選擇最有可能實現目標的行動。
智力的定義一直圍繞著經濟學家所推崇的“理性”、控制理論家所關注的“最佳控制”、運營研究者所提到的“決策問題的最佳政策”。在某種意義上,這些的確是我們想要的智力的正確定義。
在AI中,智力的定義是一種限制性的形式,應該有一個邏輯目標,比如我想到這個地方,或建造這個建筑——這是對于“成功”的定義,一個智能的機器就是生成保證實現該目標計劃的智能體。當然,在現實世界中,沒有任何保證,只有權衡。不確定性和權衡利弊是被包含在經濟學對于“理性”的定義中當中的,是預期效用的最大化的一部分;但在我看來,這不可能是AI的基礎,因為它不能轉化為計算。
如果我們將AI設置為構建效用最大化的智能體,那我們永遠不會達成任何目標,因為它從根本上是不可行的,我們甚至不能把效用最大化應用在棋盤上。棋盤是一個微小的,離散的問題。眾所周知的,棋盤和完全可觀測的現實世界相比只是滄海一粟。而我們又必須在現實世界中運作,這是將會是非常龐大的。我們不知道規(guī)則是什么,我們不能縱觀世界的全部。世界是那么復雜,有數以萬計的微小因素在影響著它。如果想從尋求所謂完美的理性出發(fā),那便是自尋死路。
定義智能:有限最優(yōu)性
鑒于此,我努力提出一種定義智力的新方法,力求可以提出一套有指導意義的解決方案。這就是有限最優(yōu)性(bounded optimality)的概念。大致解釋說來,如果你有一臺機器,機器是有限的——因為它的速度是有限的,內存是有限的,這意味著只有有限數量的程序可以在該機器上運行,并且在該有限集合中,一個或一些等效類程序比所有其他程序更好——這是我們應該關注的。
這就是我們所說的某個機器的有限最佳程序,也可以引申為某個工作環(huán)境下的最佳程序。我們可以在這種思路下取得進展是因為我們在有限能力的機器和有限條件的環(huán)境中來思考去怎樣解決問題。我們可以說,“這是,對于那臺機器和這個環(huán)境下,最好的程序??紤]到機器不能無限快地運行,它只能做一定量的計算。
在我年輕的時候閱讀了很多哲學,啟發(fā)了我提出這些想法。哲學家所做的事就是尋找那些讓你困惑的地方,或者有一些明顯的悖論和需要解決的問題的地方。我們退后一步,我們說:“好吧,我們很困惑,或者我們有一個矛盾,因為我們默認了一堆關于我們應該解決什么問題的假設。如果我們抓住這些概念性的障礙不放,就不能做出正確的事,那么我們應該如何退一步并改變問題的定義呢?
我們一直在做的是試圖定義什么是“理性行動”,也就是效用最大化的行動,然后就可以說:“好吧,AI的目標是建立總能選擇理性行動的系統(tǒng)。事實上,對于有界系統(tǒng),理性行動的概念是沒有意義的,就像是你非要問“如果我不可能計算我應該做什么,我該怎么辦? “。這個問題是沒有答案的。你只能談談配置是什么,當在現實世界面臨決策問題時,我能盡力而為。
理性元推理
我在Kahneman和Tversky是研究生時就注意到了他們的觀點,他們對“理性”的批判是有實驗支持的。所有的實驗表明,人類在經典意義上并不是理性的。從人工智能的角度來看,這就提出了新的問題,AI應該關注什么?我們不打算復制人類,人類的很多行為只是進化史中很多事件的累積結果。沒有人說人類本身就是登峰造極之作,但是也沒有人能說還有比大自然更好的配置人類的大腦的方式。
現在,很多人重新詮釋人類非理性行為,以此證明人類的有限最優(yōu)性。如果你能做出足夠的假設,你可以證明人類所犯的所謂的錯誤,是在人類硬件的限制下的最優(yōu)程序所產生的某些后果。程序犯這些類型的錯誤完全是可以預判的,也是合理的。所以如果你是有限的,無法做無限量的計算,那么你應該計算些什么?這就引出了我們所謂的理性元推理(rational meta-reasoning),簡單可以理解為,你做的計算就是有助于你盡快提高最終決策質量的計算。
你可以把這個應用到下棋上,并使用它來控制這個下棋程序的搜索。機器可以在游戲中提前思考數十億步棋,但是一個人最多只是提前思考幾十步。人類如何選擇值得思考的東西?這就是個問題。到底什么值得思考?
很顯然這類問題就不值得考慮,比如“好,如果我下這步棋,然后我的對手下這步愚蠢的棋...”為什么要這么想呢?他不太可能做出那么愚蠢的回應,所以不值得花時間思考如果他做出那個愚蠢的回應,我將如何贏得比賽。但是,人類就通常會這樣想。當你學會下棋時,你不用學習alpha-beta樹搜索算法 ,這個算法用于如何在樹的各個分支之間分配你的思考時間。我們的大腦能很自然地知道或學習如何將思想分配給不同的可能性,然后很快做出一個好的決定。
我想出了如何做到這一點,并表明你可以應用這種理性元推理技術來控制諸如游戲樹搜索之類的東西,即使沒有設計算法,也能獲得非常好的結果。
我仍然不認為我們應該將 AI 看作算法的集合。算法是針對特定問題的高度工程化的產物。我們有非常高度工程化的雙人游戲的算法。當你去玩一個像步步高這樣的三人游戲,你便需要一個全新的算法。然而,人類不是這樣的。人類學習下棋,學習玩步步高,不需要工程師給出一個新的算法。所以,人類的思維過程必然是從一些更統(tǒng)籌的控制過程中來進行思考和計算,然后得出決策。
也許你也可以說它確實是一個算法,但它是一個能計算出所有能進行計算的價值的算法,然后它只做最有價值的一類計算。這是才是這個算法的本質。這種算法規(guī)則適用于所有不同類型的游戲 - 單人搜索問題,雙玩家,有幾率的雙玩家問題,多玩家,規(guī)劃問題,等等。這個普適性值得被注意。
有兩個貢獻是我在80年代末和90年代早期工作中最驕傲的:第一,認識到有界最優(yōu)性是對智力的定義中最后行為指導意義的概念;第二,就是理性元推理的技術。
在思考了很多關于理性和智力的問題后,我決定寫一本教科書,因為我沒有看到這些概念在現有的AI教學中被清楚地列出來。大多是千篇一律都是:“有個領域叫自然語言處理,講的是這些這些;有一個領域叫搜索,說的是這些這些;有一個領域稱為游戲,我會告訴你那些那些。”問題就在于,各領域之間沒有一個統(tǒng)一的線索。
因為沒有整體的線索,所以我寫的教科書中就為人們明確,其實所有問題背后是理性的代理或有限的理性代理。而且,針對搜索問題、游戲、規(guī)劃問題所開發(fā)的特定方法其實只是你對環(huán)境所做的特定假設后所出現的結果,以及在這些假設下做出的所謂理性的決策。在搜索問題中,我們假設世界是完全可被觀測的,是具有確定性的,而且只有一個代理,等等;在所有這些假設下,搜索算法是有意義的,但它們只適用于理性決策中的特殊情況。
我在教本科時一直有寫自己的思考,記了長達200頁。我記這些東西的時候并不是為了出書,只是我后來發(fā)現我講的內容越來越多地偏離現有的教科書了。
AI冬天在88年左右開始,我昨天還在與Aspen Institute交換電子郵件說起這件事兒。他們曾經在80年代時使用“AI冬天”這個詞來指代發(fā)生在60年代末,70年代初的那個“冬天”。“AI冬天”這個詞是Hector Levesque在1986年的一個小型論文中提到的。 “AI冬天”是由“核冬天”這個詞演化而來的,據我所知這是在1983年國家研究委員會對大型核戰(zhàn)爭對氣候的潛在影響進行了大量研究后所發(fā)明的一個詞。AI冬天這個詞被第一次使用的時候是80年代末,這也是專家系統(tǒng)行業(yè)崩潰的時候。
在那之后,資金枯竭了,學生也減少了。我非常擔心這個領域一蹶不振,這個擔心一部分也是因為我們當時還在使用70年代或80年代初寫的教科書。Pearl(貝葉斯網絡的主要提出者之一)出版社的書在88年出版,那時我們已經有了貝葉斯網絡,解決了許多導致專家系統(tǒng)行業(yè)沒落的問題。
專家系統(tǒng)為什么會失敗
關于專家系統(tǒng)產業(yè)為什么會失敗,當下有著許許多多的原因。他們說:“在我們的經濟中,有大量的知識性工作。他們都是很昂貴的,專家很難得到。他們要么是退休了,要么是消失了。所以,在建立以知識為基礎的專家系統(tǒng)上,存在一個很大的經濟利基。而建立以知識為基礎的專家系統(tǒng)的方法就是去采訪專家。你應該讓他從本質上描述他的推理步驟,你把這些知識作為規(guī)則寫下來,隨后,你就能建立基于規(guī)則的專家系統(tǒng),它能模擬專家的推理步驟。但是,很遺憾,我不認為它會以這種方式運行。
每個人都知道,這些問題中,很多都存在不確定性。醫(yī)學的診斷是一個典型的例子。每個人對醫(yī)學診斷的認知有一部分都是醫(yī)學院所教授的那樣:如果你有這些癥狀,那么你就滿足某些病的條件,如果你滿足了某些病的條件此外還有一些別的狀況,那么你將會發(fā)展到另外一些癥狀。整個推理的過程被假定為,從癥狀到結論再到診斷結果。
他們按照這個方向寫了規(guī)則,當然你不能從任何給定的癥狀,就斷定一個人有一個特定的疾病,如阿爾茨海默病。所以在過程中,必須加入不確定性。必須有一些結合了證據以支撐結論,或者否定證據等等的方法。
它們基本上必須構成一種處理所有這種不確定性的微積分,這不是概率論,因為概率論不允許基于規(guī)則的推理步驟。事實上, Pearl 在他的書中所做的一個主要事情就是解釋為什么鏈規(guī)則( chaining of rules )不能得到那些概率論認為你應該這么做的證據。
這些系統(tǒng)的發(fā)展趨勢是,使用少量的規(guī)則,你可以調整所有規(guī)則的權重,這樣你在你希望處理的一系列案例上,它能正確地運行。但當你的案例范圍變得更大,有更多的規(guī)則和更深層次的鏈接,你會面臨證據數量過多或者數量不足的問題。進而,你在得到最終的結論時,也會面臨更多的問題,因為你的確定性遠比你真正想要的高得多。這都是真的,因為規(guī)則基本上是在運行一個泵循環(huán),由于他們自身處在推理過程中,所以他們會獲得越來越多的的確定性。
實際情況是,一些公司在建立了大型的專家系統(tǒng)后,他們發(fā)現,讓這些系統(tǒng)得到正確的結論,以及系統(tǒng)的維護都變得越來越難。還有一些別的原因,比如,你不得不買一個Symbolics Lisp機器運行來這些包(packages)。您無法將其與其他數據處理硬件和軟件集成。你必須雇傭特殊的AI程序員,他們知道如何在Lisp中編程。這其中有很多原因,但主要的是技術本身有缺陷。
另一個有趣的問題是:人類的知識就是人們所認為的形式嗎? 這些你用證據鏈接起來的規(guī)則,會隨著你的推進增加不確定性嗎?事實證明,要采訪人并得到那些規(guī)則是非常困難的。你一般不會問,“如果你看到癥狀A,B和C,你能得到什么結論,確定性如何?你反而會問,“如果一個人有這種疾病,我們一般能見到看到什么癥狀?這是在因果方向上的,也是專家如何理解健康和疾病的。他們的認知方式是:“這種微生物寄宿在你的腸道,導致這種情況發(fā)生,所以會發(fā)生這些癥狀,這就是為什么我們看到一個人眼里含有血絲” 。
當Horvitz 和Heckerman采訪專家時,他們發(fā)現可以非常迅速地從疾病到癥狀的方向提取這些因果條件概率,對于專家來說,估計這些概率是非常自然的,而且這些概率也是非常穩(wěn)定(robust)。想想這樣,如果一個人有腦膜炎,肯定有一個因果過程,導致他們有一定的癥狀,因果過程是獨立的。它與患者群體的大小無關。
但看看它的另一方面:腦膜炎給你的印象是一個僵硬的脖子。那么,如果有人頸部很僵硬,他們患有腦膜炎的可能性是多少?這取決于很多因素,比如是否有腦膜炎傳染病流行?為什么這個病人在我的辦公室第一個感染?他們的狀況是不是真的很糟糕?還是他們之所以頸部很僵硬,是因為曾經遇到過車禍?
你可以在因果方向評估的可能性,被認為更有穩(wěn)定性。在更寬的范圍中,它們比診斷方向的概率更有效,因為該概率是否有效 ,也就是你頸部僵硬是不是以為這你患有腦膜炎,這高度依賴于個體之外的其他情況。以及所以所有這些問題一起使專家系統(tǒng)行業(yè)失敗了,并且,它的失敗非???。
關于深度學習
在這些領域發(fā)生的事是:有一些新的技術在出現?,F在的深度學習,似乎每個人都在說:“如果我沒能抓住這一技術,沒能在公司內建立一個知道如何使用這一技術的小組,那我會被遠遠地甩在身后。”所以,許多公司都開始對深度學習技術進行投入,但是,沒有任何證據表明深度學習技術可以有效地解決他們的難題,僅僅是基于一個假設——如果我不這樣做我就落后了。這一技術有著獲利潛力,我們無法承擔錯過它的損失。
所以他們在守株待兔,也許在六個月或一年后,他們仍然在等待他們的投資回報,不管這種回報是什么。然后他們開始聽到一些傳言,比如,類似的公司在嘗試六次后失敗的故事——因為深度學習并沒有解決公司要解決的問題,這一技術對很多問題都不管用。所以,他們很快就失去信心了。
所有這些還沒使用深度學習技術獲得成功的公司可能會在一夜之間轉變自己的思維方式,從“維持我們的競爭力是至關重要的”轉變到“我們最好早點擺脫它,不然我們會看起來很蠢”。這就是80年代后期發(fā)生在專家系統(tǒng)技術上的事。
這是一個恥辱,因為當時我們已經有了技術解決方案,它能減少很多這些困難。
我記得1993年,我和一群華爾街人一起去吃飯。當時,在他們眼中,我就是個怪胎。我向他們解釋,我從事人工智能,在他們聽來,我就像在做冷融合工作一般,他們的反應是:“AI失敗了。對嗎?它已經不復存在。”在他們看來,AI和基于規(guī)則的專家系統(tǒng)在商業(yè)市場中似乎是同一件事。在華爾街和投資者社區(qū)的心目中,它不存在。他們的觀點是,“忘記它吧”,當然,在學術領域,我們仍然在推進。
經典教材是如何煉成的?
正如我所提到的那樣,我在1994年寫了一本教材,想盡可能多地把我們知道的如何使用理性智能體框架的知識融入書中,然后再加入大量關于概率決策的理論知識。Peter Norvig 是書的合著者。 我當時有一些課堂講義,Peter 會時不時地到伯克利來。他當時是在波士頓的SUN 工作,在那有一個實驗室。
在Peter 回到伯克利時,我們一起與Robert Wilensky 討論是不是可以寫一本伯克利 AI 課程教材。Robert 是 Peter 的導師,他對AI 有自己獨特的觀點,他曾是Roger Schank 的學生。雖然我非常喜歡Robert的陪伴,但是我們依然很難在內容上達成一致。我們對于人工智能的看法有根本上的差異,所以無法展開工作。他有著強勢的個性,所以當時我們之間也有很多的爭吵。不幸的是,幾年前,他去世了。
但是,Peter 確實一個非常好相處的人,他的隨和簡直讓人難以置信。這也是他為什么如此成功的一個原因。 他從來不會試圖凸顯自我或者能力,他是完全理性化的。你可以和他討論,他不會覺得受到威脅。他也不試圖威脅你,所以與他合作是非常有效率的。他也是一個好的作家和一個偉大的程序員,所以我們花了很多時間一起寫關于這本書的代碼。在這本書上,我們做的另一個重要的事情是,嘗試建立建一套完整的代碼,以反映書的原則,書中的理性智能體框架是通用的。我們在一定程度上取得了成功。雖然不完美,但它是一個進步。
這本書將 Pearl 此前所做的工作,還有一些其他的想法,帶到了聚光燈下。強化學習也是出現于80年代后期,但是,并沒有被廣泛地了解或者學習。當時,大多數AI 研究者都不了解馬爾科夫決策過程的整個概念。我們試圖搭建橋梁,展示 AI 是統(tǒng)計學和運籌學的繼續(xù),它研究的是馬爾科夫決策過程。因此,他們做的事是就是在不確定性下做決策。
在經濟學上,學習效用理論(utility theory),你怎么搭建這些用來描述價值的函數?我們試圖把所有這些都帶進來,并且創(chuàng)造與其他領域的聯系,這對AI 領域的發(fā)展也是有用的,讓人們意識到,比起只是閱讀上一年的大會程序手冊然后對論文做一些小改動,AI 領域還是有很多研究需要做的。其實,在所有這些與我們關心的一些問題相關的領域已經有很多文獻。所以在1994年,這本書的成果有點讓人意外。
這是個很有意思的事。伴隨智能系統(tǒng)而來的風險要追溯到 AI 歷史的早期。 “ Robot ”這個詞來自1920年的一部捷克戲劇,在那個戲劇上,機器仆人崛起并接管世界。在 AI 領域,既有的風險一直都是一個威脅。圖靈曾經談到這個話題:我不知道你能叫它自暴自棄還是什么,但是,“在某個階段,我們應該期望機器控制。
“智能爆炸”(intelligence explosion)一詞,來自 I.J. Good 發(fā)表在1965年的一篇論文,他指出,足夠智能的系統(tǒng)可以做自己的AI研究和硬件設計,并迅速生產他們的下一代,然后這個過程將加速,人類將被遠遠地摔在身后。當時,人們看著他的文章,說,“這聽起來不錯,”然后他們只是回去工作,好像實際的語義內容是不相干的。
Norbert Wiener 1960年在一篇論文中寫道。他看到了 Arthur Samuel 的跳棋程序,這是一個通過自己下棋進行學習的程序,最后在跳棋上能力還勝過了 Samuel 。這件事在1957 和1958年時很好地證明了,人們認為計算機只能完成編程所要求的任務是一個絕對錯誤的認知。如果機器具備學習能力,那么它就能超過程序員自身。
Wiener 正處在開始思考技術對人類的影響的問題,以及如果我們遵循現在的道路,我們能否在長期的未來獲得成功。他使用了魔法師的學徒(Sorcerer’s Apprentice)作為例子,“如果你把一個目標輸入機器里,你最好絕對地保證這一目的是你真正想要的”,他說。這是自動化所面臨的一個大問題,他當時所說的自動化就是我們現在所說的智能系統(tǒng)或者AI。
所以,要思考,或者甚至是想象未來會發(fā)生什么都是非常困難的。但是,如果我們沒有讓其走在正確的方向,我們可能會面臨一個并不那么美好的未來。我們需要做的是盡最大的努力弄清楚這一事情。所以,我認為這篇論文是很有價值的。
AI 100 報告“不可理喻”
在英國有政府任命的所謂健康和安全官員,一個忙著走進每個人的辦公室說“噢,你應該關上窗戶”或“你的車道得拓寬一些”,等等。不過你想象一下100萬年前這位健康和安全官員走到那些可憐的先民面前說“啊,你可不能吃那些東西,不安全啊。你的頭發(fā)可能會著火啊。這可能會引起全球變暖啊!必須得停下來啊!”
100萬年前,限制科技的發(fā)展太早了。但懷著對全球變暖問題的尊重,我要說100年前其實是個很好的時間點,或者120年前。那時我們已經發(fā)明了內燃機和發(fā)電及電力系統(tǒng),我們本可以在完全依賴于化石燃料之前,在發(fā)展風力和太陽能發(fā)電方面投入更多的精力。而且我們也知道,Arrhenius和其他科學家早就預言了用掉這些化石燃料的結果。
Alexander Gram Bell為此寫過論文,但被忽視了。沒有投票選擇的過程。政府更愿意聽從企業(yè)的游說,而非科學家。你可能會說是科學家發(fā)明了內燃機,但他們也發(fā)現了全球變暖并且提出了相應警告。社會傾向于聽那些好話,但無視那些逆耳忠言。
當基因工程在70年代啟動時,多數人不知道那意味著什么。大多數人甚至不知道DNA是什么。如果當時解釋得能更充分清晰,他們很可能會同意科學家的決定,那就是:1)我們要對這方面的實驗嚴格限制,以免意外制造出感染人類的疾病氣管;2)我們不允許修改人類基因圖譜的實驗。這就是科學家所做的,值得贊揚。
這種做法尤其顯得難能可貴,鑒于長期以來基因實驗的目的是所謂的人類種群的優(yōu)化。這就是誕生于加州但20世紀30年代移入德國的優(yōu)生學。這些研究的主要目的之一就是這個。
因為他們會說,“我們可以這么做,但我們不做,因為會產生不希望的社會后果。”我想這是非常勇敢的。本來發(fā)起一個真正的公眾討論會很有趣。我相信他們不會允許記者出席。
對于一個民主國家來說,要決定那些復雜的技術問題的界限何在,總是非常困難的。我們如何限制核動力?如何限制醫(yī)學發(fā)展?限制經常是伴隨著災難而來的,而且限制很難充分設計,因為人們正處在災難帶來的憤怒和恐懼之中。
對于AI的發(fā)展,我希望能充分設計,盡量未雨綢繆,并意識到回避問題不是辦法。 比如說,我看到了幾周前剛剛出爐的AI100報告。Eric Horvitz 完成了這個關于斯坦福百年來關于AI研究的報告。他們應該每隔幾年就發(fā)布這樣一篇報告。一些科學家合力完成了這份報告,試圖預測到2030年AI會對一個典型的北美人的生活產生什么影響。到時會出現什么樣的技術,有何影響?他們討論了風險,基本上他們否定了達到人類水平AI的可能性,這在我看來有些不可理解。如果他們是AI學院的正式員工,那他們真應該集體辭職。報告說可能會有風險,但我們不應該去討論它,因為這可能會阻礙相關的研究,這簡直是不可理喻。