就大量關于“殺手級機器人”的炒作來說,2017年在人工智能方面取得了一些顯著的進步。阿爾法狗、冷撲大師等棋牌機器人能讓頂級玩家陷入絕望,在現(xiàn)實世界中,機器學習正被用于改善農(nóng)業(yè),以及擴大醫(yī)療保健的覆蓋面。
但你最近和Siri或者Alexa對話過嗎?如果有,那么你就會知道,撇開這些炒作,以及躊躇滿志的億萬富翁們,還有很多事情人工智能仍然不能做也不能理解。以下是五個棘手的問題,專家們將在明年為它們絞盡腦汁。
1、語言真正的含義
在處理文本和語言方面,機器比以往任何時候都做的更好。 Facebook可以為視障人士讀出圖像描述。谷歌做了一個很不錯的軟件,能在回復電子郵件時給出簡短的建議。然而,軟件仍然不能真正理解我們的話語的含義,或我們想與它們分享的想法。波特蘭州立大學教授梅蘭妮·米切爾(Melanie Mitchell)表示:“人類能夠把我們學到的概念以不同的方式結(jié)合起來,并在新的情況下應用。AI和機器學習系統(tǒng)則不能。”
Mitchell將今天的軟件面臨的問題描述為數(shù)學家Gian Carlo-Rota所說的“意義障礙”。一些領先的AI研究團隊正試圖找出克服它的方法。
這項工作的一部分,旨在為機器提供關于常識和實體世界的認知基礎——它們奠定了我們的思維。例如,F(xiàn)acebook研究人員正通過觀看視頻來教軟件理解現(xiàn)實。還有人在模擬我們可以用關于世界的知識做些什么。谷歌一直在試圖打造能夠理解隱喻的軟件。米切爾實驗過一種系統(tǒng),使用類比和概念存儲來解釋照片中發(fā)生的事情。
2、阻礙機器革命的“現(xiàn)實差距”
機器人硬件已經(jīng)發(fā)展的相當不錯了。花500美元,你就能購買攜帶高清攝像機的手掌大小的無人機。搬運箱子的機器人以及兩條腿走路的機器人也有所改進。那為什么我們還沒有被繁忙的機械助手所包圍?因為現(xiàn)在的機器人缺乏能夠匹配他們先進的肌肉的大腦。
讓機器人做任何事情都需要針對特定的任務進行特定的編程。它們可以通過重復的試驗(和錯誤)學習操作,如抓取物體。但是這個過程相對較慢。一個有希望的捷徑是讓機器人在虛擬的、模擬的世界中訓練,然后把那些來之不易的知識下載到實體機器人體內(nèi)。然而,這種方法被現(xiàn)實差距所困擾,具體來說,機器人在模擬過程中學到的技能,在轉(zhuǎn)移到實體世界中的機器時,并不總是有效。
這種現(xiàn)實差距正在縮小。十月,在虛擬和真實的機器人手臂拾取多種物品的實驗中——這些任務包括膠帶分配器,玩具和梳子等等——谷歌報告了可喜的結(jié)果。
對于自動駕駛汽車從業(yè)者來說,取得進一步的進步很重要。在機器駕駛競賽中,眾多公司在在虛擬街道上部署虛擬車輛,他們希望能減少在實際交通和道路條件下測試所花費的時間和金錢。自動駕駛創(chuàng)業(yè)公司Aurora首席執(zhí)行官Chris Urmson說,使虛擬測試更適用于真實車輛是團隊的優(yōu)先考慮之一。曾經(jīng)領導谷歌母公司Alphabet的自主汽車項目的Urmson說:“明年或以后,我們可以利用這種技術(shù)來加速學習。”
3、防范AI黑客攻擊
運行電網(wǎng),安全攝像頭和手機的軟件時常受到安全漏洞的困擾。自動駕駛汽車和家用機器人的軟件想必也不會例外。事實上它們的情況可能更糟糕:有證據(jù)表明,機器學習軟件的復雜性引發(fā)了新的攻擊途徑。
研究人員今年表示,你可以在機器學習系統(tǒng)內(nèi)部隱藏一個秘密觸發(fā)器,讓它在一個特定的信號下轉(zhuǎn)為惡性模式。紐約大學的研究小組設計了一個街道識別系統(tǒng),該系統(tǒng)看到黃色的便利貼就會停止正常工作。將一張便利貼貼在布魯克林的停車標志上,會導致系統(tǒng)將該標志報告為限速。 這些把戲的潛在可能性可能會給成自動駕駛汽車造成問題。
這個威脅很嚴重,本月早些時候,世界頂級機器學習會議的研究人員召開了一個關于“機器騙術(shù)的威脅”的研討會。研究人員討論了一些惡魔般的騙術(shù),比如生成一些在人類看來很正常、但是對軟件來說意味卻截然不同的手寫數(shù)字。例如,你所看到的是一個2,而機器視覺系統(tǒng)看到的是一個3。研究人員還討論了這種攻擊的可能防御方法,并且擔心人工智能被用來愚弄人類。
組織研討會的Tim Hwang預測,隨著機器學習變得更容易部署,功能更強大,使用該技術(shù)操縱人是不可避免的。他說:“你不再需要一房間的博士才能研究機器學習。”黃指出,在2016年總統(tǒng)選舉期間,俄羅斯的虛假宣傳運動是潛在的AI加持的信息戰(zhàn)的先行者。他說:“為什么從機器學習的領域看看這些活動中涉及到的科技呢?” Hwang預測,其中一個格外有效的騙術(shù)可能是使用機器學習制造虛假的視頻和音頻。
4、超越桌游
Alphabet的國際象棋冠軍阿爾法狗軟件在2017年迅速崛起。五月份,一個更強大的版本擊敗了中國的圍棋冠軍柯潔。它的創(chuàng)造者,研究機構(gòu)DeepMind,隨后構(gòu)建了一個新的版本,AlphaGo Zero,不通過研究人類棋術(shù)而直接學習圍棋。十二月, AlphaZero又一次升級,它可以學習下圍棋和日本棋類游戲Shogi(雖然不是在同時)。
這種滾雪球般的捷報令人印象深刻,但同時也提醒人們AI軟件的局限性。國際象棋,shogi和圍棋都很復雜,但規(guī)則相對簡單,且對手的玩法清晰可見。它們與計算機能迅速掌握的許多未來職位的能力非常匹配。但是生活中的大多數(shù)情況和問題,并不是這樣結(jié)構(gòu)整齊。
因此在2017年,DeepMind和Facebook都開始在多人游戲“星際爭霸”上下功夫。現(xiàn)在兩者的進展都不大。目前最好的機器人是業(yè)余愛好者所建立的——即使是與中等技能的玩家相比,它們也無法匹敵。 今年早些時候,DeepMind研究員Oriol Vinyals曾表示,需要缺乏規(guī)劃和記憶能力才能精心組裝和指揮一支軍隊,同時期預測并對對手的動作做出反應,而他的軟件缺乏這種能力。無獨有偶,這些技能對于軟件更好地幫助實際工作也至關重要,如辦公室工作或真正的軍事行動。 2018年“星際爭霸”或類似游戲的巨大進步可能預示著人工智能的一些強大的新應用。
5、教AI辨別是非
即使沒有在上述領域取得新的進展,如果現(xiàn)有的AI技術(shù)被廣泛采用,經(jīng)濟和社會的許多方面也會發(fā)生很大的變化。企業(yè)和政府正急于這樣做,與此同時,有人對人工智能和機器學習可能造成的意外和故意傷害表示擔憂。
在本月的NIPS機器學習大會上,一個重要的討論話題是,如何使技術(shù)保持在安全和道德的范圍內(nèi)。研究人員發(fā)現(xiàn),我們的世界本身遠不完美,機器學習系統(tǒng)從中獲得訓練數(shù)據(jù),因而可能學會令人不愉快或者我們不期望的行為,如延續(xù)性別偏見和刻板印象。現(xiàn)在有人正在研究技術(shù),用于審核人工智能系統(tǒng)內(nèi)部運作,確保他們在投入金融或醫(yī)療保健等行業(yè)工作時作出公平的決策。
明年我們應該會看到科技公司提出相關理念,關于如何讓人工智能站在人性光明面。谷歌,F(xiàn)acebook,微軟和其他人已經(jīng)開始討論這個問題,以及一個新的名叫“Partnership on AI”的非營利組織的成員,該組織將研究和嘗試塑造人工智能的社會影響。更多的獨立組織也感受到了壓力。一個名為“人工智能倫理與治理基金會”的慈善項目正在支持麻省理工學院、哈佛大學等研究人工智能和公共利益。紐約大學的一個新研究機構(gòu)AI Now也有類似的任務。在最近的一份報告中,它呼吁各國政府發(fā)誓放棄在刑事司法或福利等領域使用沒有公開檢查的“黑匣子”算法。