在人工智能訓練、實時圖形渲染與科學計算領域,存儲器帶寬已成為制約系統(tǒng)性能的核心瓶頸。HBM3與GDDR7作為當前顯存技術的兩大巔峰之作,分別通過三維堆疊與信號調制技術的突破,為不同應用場景提供了差異化解決方案。本文從架構設計、性能參數、應用場景及生態(tài)布局四個維度,深度解析兩種技術的競爭格局與演進方向。
AI應用爆發(fā)促進了數據中心基礎構架的發(fā)展,而HBM市場也將受益于此,據悉未來三年HBM的年復合增長率將超過50%。目前HBM技術最新已經發(fā)展到了HBM3e,而預期明年的大規(guī)模AI計算系統(tǒng)商用上,HBM3和HBM3e將會成為主流。
Aug. 1, 2023 ---- 根據TrendForce集邦咨詢調查顯示,2023年HBM(High Bandwidth Memory)市場主流為HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數CSPs自研加速芯片皆以此規(guī)格設計。同時,為順應AI加速器芯片需求演進,各原廠計劃于2024年推出新產品HBM3e,預期HBM3與HBM3e將成為明年市場主流。
2023年7月27日,中國上海 —— Micron Technology Inc.(美光科技股份有限公司,納斯達克股票代碼:MU)今日宣布,公司已開始出樣業(yè)界首款8層堆疊的24GB容量第二代HBM3內存,其帶寬超過1.2TB/s,引腳速率超過9.2Gb/s,比當前市面上現有的HBM3解決方案性能可提升最高50%。美光第二代HBM3產品與前一代產品相比,每瓦性能提高2.5倍,創(chuàng)下了關鍵型人工智能(AI)數據中心性能、容量和能效指標的新紀錄,將助力業(yè)界縮短大型語言模型(如GPT-4及更高版本)的訓練時間,為AI推理提供高效的基礎設施,并降低總體擁有成本(TCO)。
面對數據中心多種多樣的加速器IC,以及多種全新的內存技術,如何將兩者完美結合實現高效安全的數據搬運?Rambus給出了答案。
關于HBM3的消息,海力士早前曾表示單芯片可以達到5.2Gbps的I/O速率,帶寬達到665GB/s,將遠超HBM2E。但從Rambus最新發(fā)布的HBM3內存子系統(tǒng)來看,數據傳輸速率達到了8.4Gbps,寬帶達到1TB/s,說明HBM3還有著更大的潛力。而且作為集成了PHY和控制器的完整內存接口子系統(tǒng),Rambus HBM3方案的推出也意味著HBM3的真正面世也將不遠了。