www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀]    對于內(nèi)存而言,辨別內(nèi)存帶寬是一件相當(dāng)簡單的事情,因為SDRAM、DDR、RDRAM這三種內(nèi)存在外觀上有著很大的差別,唯一需要去辨認(rèn)的便是不同頻率的DDR內(nèi)存。  

   對于內(nèi)存而言,辨別內(nèi)存帶寬是一件相當(dāng)簡單的事情,因為SDRAM、DDR、RDRAM這三種內(nèi)存在外觀上有著很大的差別,唯一需要去辨認(rèn)的便是不同頻率的DDR內(nèi)存。

      隨著深度學(xué)習(xí)的不斷發(fā)展,計算能力得到了深度學(xué)習(xí)社區(qū)越來越多的注意。任何深度學(xué)習(xí)模型,歸根到底都是需要跑在設(shè)備上的,而模型對設(shè)備性能的要求越低,則能得到越多的運(yùn)用——千萬不能讓硬件成為模型普及的瓶頸!

  說到模型對于硬件的要求,大家第一個想到的就是計算量,即一個深度學(xué)習(xí)模型需要多少次計算才能完成一次前饋。然而,除了運(yùn)算量之外,模型對于內(nèi)存帶寬的需求也是影響實際計算所需要時間的重要參數(shù)。我們下面會看到,在內(nèi)存帶寬有限的情況下,僅僅縮小計算量并不能讓計算時間等比例下降!

  內(nèi)存帶寬對于硬件系統(tǒng)的性能影響如上圖所示。如果把內(nèi)存比做瓶子,運(yùn)算單元比作杯子,那么數(shù)據(jù)就是瓶子里的各色顆粒,而內(nèi)存接口就是瓶口,通過瓶口數(shù)據(jù)才能進(jìn)入杯子被消費(fèi)(處理)掉。而內(nèi)存帶寬就是瓶口的寬度了。瓶口寬度越窄,則數(shù)據(jù)需要越多時間才能進(jìn)入杯子(處理單元)。正所謂「巧婦難為無米之炊」,如果帶寬有限,那么即使處理單元無限快,在大多數(shù)時候也是處理單元在空等數(shù)據(jù),造成了計算力的浪費(fèi)。

  深度學(xué)習(xí)網(wǎng)絡(luò)與 Roofline 模型

  對于工程師來說,定性分析并不夠,我們還需要能定量分析算法對于內(nèi)存帶寬的需求,以及對于計算性能的影響。

  算法對于內(nèi)存帶寬的需求通常使用「運(yùn)算強(qiáng)度 (operaTIonal intensity,或稱 arithmeTIc intensity)」這個量來表示,單位是 OPs/byte。這個量的意思是,在算法中平均每讀入單位數(shù)據(jù),能支持多少次運(yùn)算操作。運(yùn)算強(qiáng)度越大,則表示單位數(shù)據(jù)能支持更多次運(yùn)算,也就是說算法對于內(nèi)存帶寬的要求越低。所以,運(yùn)算強(qiáng)度大是好事!

  我們來舉一個例子。對于步長(stride)為 1 的 3x3 卷積運(yùn)算,假設(shè)輸入數(shù)據(jù)平面大小為 64x64。簡單起見,假設(shè)輸入和輸出 feature 都為 1。這時候,總共需要進(jìn)行 62x62 次卷積運(yùn)算,每次卷積需要做 3x3=9 次乘加運(yùn)算,所以總共的計算次數(shù)為 34596,而數(shù)據(jù)量為(假設(shè)數(shù)據(jù)和卷積核都用單精度浮點(diǎn)數(shù) 2byte):64x64x2(輸入數(shù)據(jù))+ 3x3x2(卷積核數(shù)據(jù))= 8210 byte,所以運(yùn)算強(qiáng)度為 34596/8210=4.21。如果我們換成 1x1 卷積,那么總的計算次數(shù)變成了 64x64=4096,而所需的數(shù)據(jù)量為 64x64x2 + 1x1x2=8194。顯然,切換為 1x1 卷積可以把計算量降低接近 9 倍,但是運(yùn)算強(qiáng)度也降低為 0.5,即對于內(nèi)存帶寬的需求也上升了接近 9 倍。因此,如果內(nèi)存帶寬無法滿足 1x1 卷積計算,那么切換成 1x1 卷積計算雖然降低了接近 9 倍計算量,但是無法把計算速度提升 9 倍。

  這里,我們可以看到,深度學(xué)習(xí)計算設(shè)備存在兩個瓶頸,一個是處理器計算能力,另一個是計算帶寬。如何分析究竟是哪一個限制了計算性能呢?可以使用 Roofline 模型。

  典型的 Roofline 曲線模型如上圖所示,坐標(biāo)軸分別是計算性能(縱軸)和算法的運(yùn)算強(qiáng)度(橫軸)。Roofline 曲線分成了兩部分:左邊的上升區(qū),以及右邊的飽和區(qū)。當(dāng)算法的運(yùn)算強(qiáng)度較小時,曲線處于上升區(qū),即計算性能實際被內(nèi)存帶寬所限制,有很多計算處理單元是閑置的。隨著算法運(yùn)算強(qiáng)度上升,即在相同數(shù)量的數(shù)據(jù)下算法可以完成更多運(yùn)算,于是閑置的運(yùn)算單元越來越少,這時候計算性能就會上升。然后,隨著運(yùn)算強(qiáng)度越來越高,閑置的計算單元越來越少,最后所有計算單元都被用上了,Roofline 曲線就進(jìn)入了飽和區(qū),此時運(yùn)算強(qiáng)度再變大也沒有更多的計算單元可用了,于是計算性能不再上升,或者說計算性能遇到了由計算能力(而非內(nèi)存帶寬)決定的「屋頂」(roof)。拿之前 3x3 和 1x1 卷積的例子來說,3x3 卷積可能在 roofline 曲線右邊的飽和區(qū),而 1x1 卷積由于運(yùn)算強(qiáng)度下降,有可能到了 roofline 左邊的上升區(qū),這樣 1x1 卷積在計算時的計算性能就會下降無法到達(dá)峰值性能。雖然 1x1 卷積的計算量下降了接近 9 倍,但是由于計算性能下降,因此實際的計算時間并不是 3x3 卷積的九分之一。

  顯然,一個計算系統(tǒng)的內(nèi)存帶寬如果很寬,則算法不需要運(yùn)算強(qiáng)度很大也能輕易碰到計算能力上限決定的「屋頂」。在下圖中,計算能力不變,而隨著內(nèi)存帶寬的上升,達(dá)到計算力屋頂所需的運(yùn)算強(qiáng)度也越低。

  Roofline 模型在算法-硬件協(xié)同設(shè)計中非常有用,可以確定算法和硬件優(yōu)化的方向:到底應(yīng)該增加內(nèi)存帶寬/減小內(nèi)存帶寬需求,還是提升計算能力/降低計算量?如果算法在 roofline 曲線的上升區(qū),那么我們應(yīng)該增加內(nèi)存帶寬/減小內(nèi)存帶寬需求,提升計算能力/降低計算量對于這類情況并沒有幫助。反之亦然。

  我們來看一個實際的例子,比較一下各種機(jī)器學(xué)習(xí)算法在 roofline 模型上所處的位置。下圖取自 Google 的 TPU 論文《In-Datacenter Performance Analysis of a Tensor Processing Unit》。由圖中可見,LSTM 算法的運(yùn)算強(qiáng)度最低,所以被卡在了 roofline 模型的上升區(qū)中間的地方,即 TPU 在執(zhí)行 LSTM 算法的時候,由于內(nèi)存帶寬限制所以性能只有 3TOPS 左右,僅為峰值性能(90TOPS)的三十分之一。經(jīng)典全聯(lián)接神經(jīng)網(wǎng)絡(luò)(mulTI-layer perceptrons, MLP)的運(yùn)算強(qiáng)度略好于 LSTM,也被卡在 roofline 曲線的上升區(qū),實際執(zhí)行性能大約在 10TOPS 左右。而卷積神經(jīng)網(wǎng)絡(luò)模型,尤其是 CNN0,由于卷積神經(jīng)網(wǎng)絡(luò)中能實現(xiàn)卷積核復(fù)用,因此運(yùn)算強(qiáng)度非常高,于是可以非常接近 TPU roofline 曲線的屋頂(86 TOPS)。CNN1 模型雖然運(yùn)算強(qiáng)度也很高,但是由于種種其他原因(論文中表示是由于 CNN1 模型的特征深度較淺無法完全利用 TPU 的計算單元)無法到達(dá)屋頂。這個例子又讓我們看到了硬件-算法協(xié)同設(shè)計時的另一個要點(diǎn):除了內(nèi)存帶寬之外還有「其他原因」可能讓算法無法到達(dá)屋頂,我們要盡量減小這些「其他因素」!

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉