2018年全球最值得關(guān)注的AI芯片初創(chuàng)公司
在《芯片巨頭們2019年的AI芯片之爭會如何?》一文中作者Karl Freund詳細介紹了巨頭公司們的AI芯片。此外,還有數(shù)十家硅谷創(chuàng)業(yè)公司和中國獨角獸公司估值超過10億美元,并且也參與了AI芯片的競爭。在本文中,作者將介紹全球的最杰出,或至少是最受關(guān)注的AI芯片創(chuàng)業(yè)公司。
Wave Computing
Wave Computing在2018取得了不少進展,推出其第一個DataFlow處理單元,收購MIPS,創(chuàng)建MIPS Open,并將首批系統(tǒng)交付給少數(shù)客戶。雖然Wave架構(gòu)有一些非常有趣的功能,但我們更期待用戶的大規(guī)模真實體驗反饋。
Wave不是插入到服務器的加速器,它是用于圖形計算的獨立處理器。這種方法有利有弊。從積極的方面看,Wave不會受到GPU等加速器面臨的內(nèi)存瓶頸影響。從消極方面來說,安裝Wave設(shè)備將是新的升級,需要完全替換傳統(tǒng)的X86服務器,也讓其成為所有服務器制造商的競爭對手。
我不認為Wave能從某個點擊敗NVIDIA,但該架構(gòu)的設(shè)計的非常好,該公司已經(jīng)表示它很快就會有客戶的反饋。
Graphcore
Graphcore是一家資金雄厚(融資3.1億美元,目前估值為17億美元)的英國獨角獸創(chuàng)業(yè)公司,擁有全球化的團隊。它正在構(gòu)建一種新型的圖形處理器架構(gòu),其內(nèi)存與其邏輯單元λ于同一芯片上,這應該能夠?qū)崿F(xiàn)更高的性能。該團隊產(chǎn)品的發(fā)布時間暫不明確,不過他們?nèi)ツ晁脑卤硎尽皫缀鯗蕚浜冒l(fā)布”了,12月的最新信息表明它將很快開始生產(chǎn)。
Graphcore的投資者名單令人印象深刻,包括紅杉資本、寶馬、微軟、博世和戴爾科技。
我了解了該公司的架構(gòu),它非常令人印象深刻。從邊緣設(shè)備擴展到用于數(shù)據(jù)中心的訓練和推理的“Colossus”雙芯片封裝。在最近的NeurIPS活動中,Graphcore展示了其RackScale IPU Pod,它在一個32臺服務器的機架中提供超過16 petaflops的算力。雖然該公司經(jīng)常聲稱它將提供比同類最好GPU強100倍的性能。
Graphcore表示,4“Colossus”GC2(8芯片)服務器可提供500 TFlops(ÿ秒數(shù)萬億次操作)的混合精度性能。單個NVIDIA V100可提供125 TFlops,因此理論上4 個V100就可提供與其相同的性能。
與往常一樣,細節(jié)更能發(fā)現(xiàn)差別,V100峰值性能僅在重構(gòu)代碼執(zhí)行TensorCore的4x4矩陣乘法時才可用,這是Graphcore架構(gòu)巧妙避免的限制。更不用說V100消耗了300瓦的電能和大量現(xiàn)金這一事實。
此外,Graphcore支持片上互連和“處理器內(nèi)存”(片上存儲器)方法,可以得到超出TFlops基準所認可的優(yōu)秀性能。在一些神經(jīng)網(wǎng)絡(luò)中,如Generative Adversarial Networks,內(nèi)存是瓶頸。
再次強調(diào),我們將不得不等待真實的用戶用實際應用程序來評估此體系結(jié)構(gòu)。盡管如此,Graphcore的投資者名單、專家名單和臺天價估值告訴我,這可能是一件好事。
Habana Labs
Habana Labs是一家以色列創(chuàng)業(yè)公司,去年9月在第一次AI硬件峰會上宣布它已經(jīng)準備好推出其首款用于推理的芯片,其創(chuàng)紀¼的性能用于卷積神經(jīng)網(wǎng)絡(luò)圖像處理。結(jié)果顯示在Resnet50圖像分類數(shù)據(jù)庫中該處理器ÿ秒分類15,000張圖像,比NVIDIA的T4高出約50%,功耗僅為100瓦。
在2018年12月,Habana Labs的最新一輪融資由英特爾風險投資(Intel Venture Capital)領(lǐng)投,WRV Capital,Bessemer Venture Partners和Battery Ventures跟投,該公司的融資也由此前的4500萬美元增加了7500萬美元。
據(jù)悉,Habana Labs新的融資將部分用于流片其名為“Gaudi“的第二款芯片,該芯片將專注于訓練市場,據(jù)稱可擴展到1000多個處理器。
其它創(chuàng)業(yè)公司
我知道世界上有超過40家公司在為人工智能設(shè)計訓練和推理芯片。我發(fā)現(xiàn)大多數(shù)公司都在進行簡單的FMA(浮點乘法累加)和混合精度數(shù)學(整型8λ和浮點16λ和32λ)。對此我不會感到驚訝,因為這種方法相對容易實現(xiàn)并且會獲得一些成果,但它不會為像NVIDIA,英特爾以及少數(shù)初創(chuàng)公司做出不一樣的架構(gòu)提供持久的架構(gòu)優(yōu)勢。