據(jù)悉,AI領域的大咖都在關注搞類腦芯片的研究,相比于傳統(tǒng)芯片,類腦芯片的確在功耗上具有絕對優(yōu)勢,研究員試圖通過模擬人腦運轉機制,使機器超越人腦。據(jù)報道隨著技術的進步,顛覆傳統(tǒng)架構的類腦芯片已為芯片行業(yè)開啟了一扇新的大門。
最近,在AI領域無論是學術界的大咖還是行業(yè)的大佬,都在如火如荼的搞類腦芯片的研究,當然也取得了不少成果。日前,斯坦福大學研究院電子與微系統(tǒng)技術實驗室的Jeehwan Kim教授在《自然》雜志上發(fā)表了一篇論文,一時間引來了產學研三界的關注。原因是Jeehwan Kim教授與研究員們使用一種稱為硅鍺的材料研發(fā)了一款人工突觸芯片,可支持識別手寫字體的機器學習算法。無獨有偶,近日中國科學院自動化研究所類腦智能研究中心類腦信息處理(BRAVE)研究組也在借鑒生物神經結構的神經網(wǎng)絡建模與類人學習研究中取得了突破性的研究。
從計算機誕生起,人們就不斷要求它的計算能力提升,隨著芯片集成性越來越高,CPU與內存之間的性能差距越來越大?;隈T諾依曼結構的計算機結構呈現(xiàn)的缺點也愈加明顯,也有人稱這為內存墻,意思是說CPU再快,也要等內存。相比之下,人腦卻沒有此類問題出現(xiàn),據(jù)研究表明,人類大腦平均每秒可執(zhí)行 1 億億次操作,所需能量只有 10~25 瓦特。因而研究員們正轉向模擬人類大腦研究,試圖通過模擬人腦運轉機制,使計算機能低能耗高功效地進行計算,甚至使計算機優(yōu)于類人的智能。
國內外有許多公司和機構正在類腦芯片研發(fā)上投入大量精力,美國在此項研究上開始較早,2014年IBM就推出了業(yè)內首款類腦芯片TrueNorth。國內最近幾年在芯片研發(fā)上也不甘示弱,也有西井科技這樣的初創(chuàng)公司投身到類腦芯片的研發(fā)中來,清華等知名高校也紛紛建立類腦研究中心。
相比于傳統(tǒng)芯片,類腦芯片的確在功耗上具有絕對優(yōu)勢,拿英特爾在本次CES上展出的自我學習芯片Loihi來說,不僅其學習效率比其他智能芯片高100萬倍,而且在完成同一個任務所消耗的能源比傳統(tǒng)芯片節(jié)省近1000倍。類腦芯片的集成度也非常高,拿浙大推出的“達爾文”芯片來說,其面積為25平方毫米,也就是說邊長只有0.5厘米,但內部卻能包含500萬個晶體管。隨著行業(yè)對計算力要求越來越高,馮氏瓶頸將越來越明顯,顛覆傳統(tǒng)架構的類腦芯片已為芯片行業(yè)開啟了一扇新的大門。
一、傳統(tǒng)芯片遇馮·諾依曼瓶頸 模擬神經元成新思路現(xiàn)代計算機基本都基于馮·諾依曼結構,它將程序和處理該程序的數(shù)據(jù)用同樣的方式分別存儲在兩個區(qū)域,一個稱為指令集,一個稱為數(shù)據(jù)集。計算機每次進行運算時需要在CPU和內存這兩個區(qū)域往復調用,因而在雙方之間產生數(shù)據(jù)流量。而隨著深度學習算法的出現(xiàn),對芯片計算力的要求不斷提高,馮·諾伊曼瓶頸遇見明顯:當CPU需要在巨大的資料上執(zhí)行一些簡單指令時,資料流量將嚴重降低整體效率,CPU將會在資料輸入或輸出時閑置。
不僅如此,傳統(tǒng)芯片還存在一個大問題就是效率低。芯片在工作時,大部分的電能將轉化為熱能,一個不帶散熱器的計算機,其CPU產生的熱量就可在短時間內將其自身融化。其他的智能化設備,也因芯片復雜耗能太高,導致續(xù)航能力差,不管如何改善工藝,高溫和漏電都是難以避免的問題。
為了解決CPU在大量數(shù)據(jù)運算效率低能耗高的問題,目前有兩種發(fā)展路線:一是延用傳統(tǒng)馮諾依曼架構,主要以3中類型芯片為代表:GPU、FPGA、ASIC;二是采用人腦神經元結構設計芯片來提升計算能力,已完全擬人化為目標,追求在芯片架構上不斷逼近人腦,這類芯片被稱為類腦芯片。
人腦神經元在接受到刺激后,其細胞膜內外帶電離子分布將發(fā)生變化,因而形成電位差,電位差將沿著神經細胞軸突、樹突雙向傳導,形成脈沖電流。而當該電信號傳遞到突觸時,突觸前神經元將釋放神經遞質(如多巴胺、腎上腺素)由突觸后神經元接受神經遞質產生興奮(該過程單向傳遞),并向下傳遞作用與人體反應器并發(fā)生反應。
類腦芯片架構就是模擬人腦的神經突觸傳遞結構。眾多的處理器類似于神經元,通訊系統(tǒng)類似于神經纖維,每個神經元的計算都是在本地進行的,從整體上看神經元們分布式進行工作的,也就是說整體任務進行了分工,每個神經元只負責一部分計算。在處理海量數(shù)據(jù)上這種方式優(yōu)勢明顯,并且功耗比傳統(tǒng)芯片更低。比如IBM的TrueNorth芯片每平方厘米功耗消耗僅為20毫瓦。