芯原可擴(kuò)展的高性能GPGPU-AI計(jì)算IP賦能汽車與邊緣服務(wù)器AI解決方案
2025年6月9日,中國(guó)上海——芯原股份(芯原,股票代碼:688521.SH)今日宣布其高性能、可擴(kuò)展的GPGPU-AI計(jì)算IP的最新進(jìn)展,這些IP現(xiàn)已為新一代汽車電子和邊緣服務(wù)器應(yīng)用提供強(qiáng)勁賦能。通過(guò)將可編程并行計(jì)算能力與人工智能(AI)加速器相融合,這些IP在熱和功耗受限的環(huán)境下,能夠高效支持大語(yǔ)言模型(LLM)推理、多模態(tài)感知以及實(shí)時(shí)決策等復(fù)雜的AI工作負(fù)載。
芯原的GPGPU-AI計(jì)算IP基于高性能通用圖形處理器(GPGPU)架構(gòu),并集成專用AI加速器,可為AI應(yīng)用提供卓越的計(jì)算能力。其可編程AI加速器與稀疏感知計(jì)算引擎通過(guò)先進(jìn)的調(diào)度技術(shù),可加速Transformer等矩陣密集型模型的運(yùn)行。此外,這些IP支持用于混合精度計(jì)算的多種數(shù)據(jù)格式,包括INT4/8、FP4/8、BF16、FP16/32/64和TF32,并支持多種高帶寬接口,包括3D堆疊內(nèi)存、LPDDR5X、HBM、PCIe Gen5/Gen6和CXL。該IP還支持多芯片、多卡擴(kuò)展部署,具備系統(tǒng)級(jí)可擴(kuò)展性,滿足大規(guī)模AI應(yīng)用的部署需求。
芯原的GPGPU-AI計(jì)算IP原生支持PyTorch、TensorFlow、ONNX和TVM等主流AI框架,覆蓋訓(xùn)練與推理流程。此外,它還支持與主流的GPGPU編程語(yǔ)言兼容的通用計(jì)算語(yǔ)言(GPCL),以及主流的編譯器。這些能力高度契合當(dāng)前大語(yǔ)言模型在算力和可擴(kuò)展性方面的需求,包括DeepSeek等代表性模型。
“邊緣服務(wù)器在推理與增量訓(xùn)練等場(chǎng)景下對(duì)AI算力的需求正呈指數(shù)級(jí)增長(zhǎng)。這一趨勢(shì)不僅要求極高的計(jì)算效率,也對(duì)架構(gòu)的可編程性提出了更高要求。芯原的GPGPU-AI計(jì)算處理器在架構(gòu)設(shè)計(jì)上實(shí)現(xiàn)了GPGPU通用計(jì)算與AI加速器的深度融合,可在極細(xì)粒度層面實(shí)現(xiàn)高效協(xié)同,相關(guān)優(yōu)勢(shì)已在多個(gè)高性能AI計(jì)算系統(tǒng)中得到驗(yàn)證。”芯原首席戰(zhàn)略官、執(zhí)行副總裁、IP事業(yè)部總經(jīng)理戴偉進(jìn)表示,“近期DeepSeek的技術(shù)突破進(jìn)一步凸顯出提升AI計(jì)算效率以應(yīng)對(duì)日益復(fù)雜工作負(fù)載的重要性。我們最新一代GPGPU-AI計(jì)算IP已全面優(yōu)化,可高效支持專家混合(MoE)模型,并提升了核間通信效率。同時(shí),通過(guò)與多家領(lǐng)先AI計(jì)算客戶的深度合作,我們已對(duì)處理器架構(gòu)進(jìn)行了優(yōu)化,以充分利用3D堆疊存儲(chǔ)技術(shù)所提供的充足帶寬。芯原將持續(xù)攜手生態(tài)合作伙伴,加速推動(dòng)這些先進(jìn)技術(shù)在實(shí)際應(yīng)用中的規(guī)?;涞亍!?