Facebook 也要自己開發(fā) AI 芯片 首席AI科學家已確認
在意識到自己需要大力加快運算速度才能實現(xiàn)下一個人工智能突破后,F(xiàn)acebook 決定自行開發(fā)人工智能芯片來「狙擊」亞馬遜與谷歌。近日,F(xiàn)acebook 首席人工智能科學家 Yann LeCun 在接受英國《金融時報》采訪時就此披露了大量第一手消息,編譯如下:
Facebook 首席人工智能科學家、當代人工智能先驅(qū)之一的 Yann LeCun 在接受英國「金融時報」采訪時表示,公司當前的目標包括打造一個具備「常識」、能與人類就任何主題展開交流的的數(shù)字助理,他認為這是當今語音控制設(shè)備必須踏出的關(guān)鍵一步;此外,F(xiàn)acebook 還希望能將 AI 變成實用的社交網(wǎng)絡管控工具,協(xié)助人類實時監(jiān)控視頻并決定哪些內(nèi)容可以在平臺上出現(xiàn)。
為此,Yann LeCun 說 Facebook 與多家芯片公司展開了合作,比如最近與英特爾的合作項目,以及 Facebook 自行開發(fā)、可支持自家 AI 程序的定制「ASIC」芯片?!副娝苤?,F(xiàn)acebook 經(jīng)常根據(jù)自身業(yè)務需求來構(gòu)建硬件矩陣,ASIC 芯片是其中一個例子。我們將為此竭盡全力「這是 Facebook 首次以官方的形式公開其在 AI 芯片領(lǐng)域的愿景。談及 Facebook 在芯片以及計算系統(tǒng)基礎(chǔ)方面取得突破的可能性,Yann LeCun 補充道:「往下絕對擁有巨大的發(fā)展空間?!?/p>
無論如何,F(xiàn)acebook 自行打造專屬的 AI 芯片將給 Nvidia 帶來長期挑戰(zhàn),因為 Nvidia 是目前 AI 圖形處理器的主要生產(chǎn)商,接下來將面臨來自大數(shù)據(jù)中心客戶退出的短期擠壓。實際上,一款速度快、功耗低,用來執(zhí)行指定任務的專業(yè) AI 芯片,不僅只有谷歌、亞馬遜、蘋果等大公司在傾力投入,當中還包括幾十家初創(chuàng)企業(yè)。
大家之所以會對芯片設(shè)計和硬件架構(gòu)的前景表示關(guān)注,是因為意識到只有在基礎(chǔ)計算方面取得根本性突破,才能避免 AI 走進死胡同。
Yann LeCun 表示,在人工智能整個發(fā)展歷史中,研究人員提出有突破性的見解以前,往往都會在硬件層面先取得長足進步?!冈谝欢蜗喈旈L的時間里,人們都沒有什么具體想法」這阻礙了人工智能的發(fā)展。其中就包括反向傳播——當今深度學習系統(tǒng)中非常核心的一項技術(shù),它通過將算法重新進行計算以最大限度減少錯誤。反向傳播是早期研究的一個明顯延伸,一直到計算硬件發(fā)展成熟之后才在 20 世紀 90 年代得到廣泛應用。
Facebook 在過去也曾經(jīng)設(shè)計過其他類型的硬件,比如針對數(shù)據(jù)中心設(shè)備的新想法,然后再開放供其他人使用。Yann LeCun 表示,同樣的理念也會應用到 AI 芯片的設(shè)計上,并補充道:「我們的目的是讓更多的人因此受益。」
此外,F(xiàn)acebook 還會將研究重點放在新神經(jīng)網(wǎng)絡的設(shè)計上,這是深度學習系統(tǒng)的核心,它有效促進了圖像識別與語音識別等領(lǐng)域的發(fā)展。三十年前,當 Yann LeCun 還在在 AT&T 貝爾實驗室投身于 AI 芯片研究工作時,他建立了第一個「卷積」神經(jīng)網(wǎng)絡 - 一種借鑒了動物視覺皮層如何工作的設(shè)計,而這在當今的深度學習系統(tǒng)中很是常見。
▲ Facebook 首席人工智能科學家 Yann LeCun
今天的神經(jīng)網(wǎng)絡經(jīng)常使用一個被稱作監(jiān)督學習的技術(shù),該技術(shù)需要大量的數(shù)據(jù)進行訓練,一旦在 Facebook 這種體量的公司上運行,還將消耗大量電力。據(jù)Yann LeCun介紹,如今 Facebook 每日需要對上傳至系統(tǒng)上的 2-3億張照片進行大量即時分析,其中包括使用面部識別技術(shù)辨別照片中的人物、為描述場景起標題、以及識別類似裸露等在平臺上不被允許的內(nèi)容。
Facebook 正致力于“做一切可以降低功耗并改善延遲的事情”來提升系統(tǒng)處理速度。他補充道,在網(wǎng)站上對視頻進行實時監(jiān)控的巨大需求,導致需要對神經(jīng)網(wǎng)絡重新進行設(shè)計。
為此,F(xiàn)acebook如今正努力尋找全新的神經(jīng)網(wǎng)絡架構(gòu),以便能模擬人類智能的更多方面,使其能更自然地與人類進行交互。Yann LeCun表示,F(xiàn)acebook正在在大力投入建設(shè)“自我監(jiān)督”(self-supervised)系統(tǒng),該系統(tǒng)能夠?qū)φ鎸嵤澜缱龀龈鼜V泛的預測,而不只是根據(jù)訓練數(shù)據(jù)來得出結(jié)論。這將使系統(tǒng)對世界產(chǎn)生廣泛的理解,從而讓人類得以應對新情況。
“就新用途而言,F(xiàn)acebook很希望開發(fā)出具體一定“常識”水平的智能數(shù)字助理 ”他如此說道。 “這些助理擁有相應知識背景,你可以就任何話題與它們進行探討?!比欢?,創(chuàng)建這種具有常識的計算機的想法尚處于早期階段,Yann LeCun表示,這種更深層次的智能“不會在明天突然發(fā)生”。
“我們都希望機器能夠像人類或者動物一樣能夠理解當世界對你的交互做出反應時會發(fā)生什么。為此,我們在因果關(guān)系的研究方面下了很大功夫,“他這么說道。 “如何在不確定性中做出預測是當今的主要挑戰(zhàn)之一。”
Facebook是推動當今神經(jīng)網(wǎng)絡研究工作的一個重要力量。Yann LeCun周一將在舊金山舉行的芯片會議上發(fā)表演講來概述這項工作。其中就包括可以根據(jù)數(shù)據(jù)調(diào)整其設(shè)計的網(wǎng)絡,以便能夠更靈活地應對現(xiàn)實世界。另一個關(guān)于網(wǎng)絡的研究途徑是僅“除去”那些需要用來解決特定問題的神經(jīng)元,這種方法借鑒了人類大腦的運作方式,可以有效降低功耗。其他研究工作還包括將計算機存儲器添加到神經(jīng)網(wǎng)絡當中,以便在與人類進行“對話”時,可通過保留更多信息來形成更強的上下文語境。
另外值得一提的是,關(guān)于神經(jīng)網(wǎng)絡如何發(fā)揮作用的研究進展很可能對芯片的設(shè)計產(chǎn)生影響,給制造當今領(lǐng)先AI芯片的公司帶來更多競爭。Yann LeCun補充說道,谷歌的TPU——已成為當今最強大的機器學習芯片 “仍然被業(yè)界普遍使用”, “然而他們的假設(shè)不一定適用于未來的神經(jīng)網(wǎng)絡架構(gòu)。”
另一方面,硅設(shè)計的靈活性可能還存在其他缺點。例如,微軟有計劃在其所有數(shù)據(jù)中心的服務器中植入一種被稱為 field programmable gate array 的新類型芯片。雖然在使用上更加靈活,然而卻降低了處理大量數(shù)據(jù)時的效率,使它們在應對特定任務時在芯片處理方面處于劣勢地位。