www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 芯聞號 > 極客網(wǎng)
[導讀]美媒《The Information》周日報道,英偉達已告知中國客戶,H20芯片供應有限。在英偉達AI芯片產品矩陣中,H20盡管性能孱弱,但已是可向中國銷售的最強AI芯片,阿里巴巴、騰訊、百度、DeekSeek、字節(jié)跳動均有采購。

美媒《The Information》周日報道,英偉達已告知中國客戶,H20芯片供應有限。在英偉達AI芯片" target="_blank">AI芯片產品矩陣中,H20盡管性能孱弱,但已是可向中國銷售的最強AI芯片,阿里巴巴、騰訊、百度、DeekSeek、字節(jié)跳動均有采購。

今年4月前,英偉達還可以向中國銷售H20芯片,后因中美貿易戰(zhàn),特朗普政府收緊出口政策,H20銷售受限。上周,英偉達也發(fā)布消息稱,美國已發(fā)放新許可證,允許其向中國銷售H20芯片。

但周日,英偉達又告知中國客戶,H20芯片庫存有限,且暫無恢復生產計劃。而實際情況是,據(jù)業(yè)內人士指出,臺灣半導體供應鏈中的H20芯片總庫存仍有100萬顆待售。

黃仁勛的吹捧之辭 

幾天前,英偉達CEO黃仁勛到訪中國,這是他今年第三次來訪。在中國,他的受關注程度堪比“搖滾巨星”。黃仁勛在北京可以自由活動、接受采訪、與熱情粉絲合影,甚至為忠實粉絲簽名,這樣的場景并不常見。

在北京期間,黃仁勛身著唐裝參加供應鏈博覽會,還用中文發(fā)表演講。而就在幾天前,他剛剛與特朗普會面??紤]到英偉達在華業(yè)務規(guī)模達170億美元,從利益角度看,黃仁勛的熱情不難理解。

黃仁勛盛贊DeekSeek、阿里巴巴和騰訊,說它們的AI模型已達到世界級水準。自今年1月DeekSeek嶄露頭角后,中國市場對H20的需求大幅增長。

咨詢公司Gavekal Dragonomics的分析師Tilly Zhang表示:“英偉達仍需準確把握市場趨勢,在恰當時機順勢而為,以實現(xiàn)現(xiàn)有收益最大化,而英偉達恰好有一位深諳此道的CEO?!?

86Research分析師Charlie Chai則認為,未來幾年英偉達在華份額或將下滑,中國必然會積極扶持本土企業(yè),使其有能力與英偉達高端芯片競爭,或至少在部分場景中實現(xiàn)替代。

黃仁勛向媒體透露:“我告知特朗普總統(tǒng)及其內閣我準備訪華,他說‘旅途愉快’?!?

在博覽會演講及后續(xù)言論中,黃仁勛對中國科技巨頭將技術應用于實際的能力贊不絕口,還稱中國供應鏈“規(guī)模龐大”。他甚至對記者表示:“任何輕視華為以及中國制造業(yè)能力的人都太天真了,華為是一家實力強大的公司。”

矛盾的信號意味著什么

為應對美國禁令,英偉達推出了專供中國市場的閹割版H20芯片。市場預計,重新出口至中國大陸的H20芯片將消耗大部分現(xiàn)有庫存。

供應鏈消息顯示,今年四季度,英偉達將推出B30 AI芯片,其性能比H20低10%-20%,價格卻便宜30%-40%。有人認為,B30將提升英偉達AI芯片在華競爭力。

由于美國政府放寬限制,市場預計今年下半年H20出貨量將達40萬片,并非處于短缺狀態(tài)。業(yè)內人士指出,臺灣半導體供應鏈中的H20芯片總庫存仍有100萬顆待售(包括其他廠商生產的H20相關芯片),其中英偉達H20處理器的庫存約為70萬顆。

不難發(fā)現(xiàn),黃仁勛通過媒體釋放的消息存在顯著矛盾:一方面,《The Information》稱英偉達告知中國客戶H20芯片供應有限;另一方面,供應鏈顯示H20庫存可滿足短期需求,且上游供應商(如臺積電)暫無追加訂單的跡象。

業(yè)內人士補充稱,臺積電N4生產線目前滿負荷運轉,幾乎無剩余產能承接緊急訂單,截至目前需求未出現(xiàn)明顯增長。這與臺積電第二季度的強勁業(yè)績相符,其中5納米訂單表現(xiàn)穩(wěn)定,占總銷售額的36%。

國內媒體報道,H20恢復在華銷售主要是開放庫存,目前方案為售完無補,不會影響B(tài)lackwell架構顯卡。當前高端算力仍奇缺,A、H系列將被淘汰,市場需要Blackwell架構。市場消息認為,英偉達將推出中國版RTX PRO 600,該產品采用Blackwell GPU架構,預計于2025年下半年推出。

一杯讓人難以下咽的毒酒

不少人認為,英偉達放開H20銷售,長遠看會導致中國對外國芯片的過度依賴。英偉達恢復銷售并非簡單解除出口限制,而是美國為維持對中國技術封鎖而精心設計的措施。

H20服務器的FP16(半精度浮點數(shù))算力僅為H100的15%,NVLink帶寬從900GB/s降至400GB/s,芯片的TE(transformer engine)也被完全剔除。這種大幅閹割的設計,既能保證芯片具備人工智能推理能力,又能削弱其人工智能訓練能力,完美實現(xiàn)美國的目的——對中國封鎖高端芯片,卻不封鎖中端芯片。

AI企業(yè)通常使用A100或H100訓練大語言模型,訓練完成后用較低端芯片執(zhí)行推理任務。實際上,H20芯片無法訓練萬億參數(shù)的大語言模型(LLM)。H20的HBM3約為96GB,H100為80GB,但H20的內存帶寬僅4TB/s,而H100為4.8TB/s。

在AI訓練的諸多方面,華為有優(yōu)于H20的芯片,但英偉達CUDA平臺相比華為同類產品占據(jù)先發(fā)優(yōu)勢,這點影響了客戶的采購意愿。在中國,CUDA占據(jù)約80%市場份額,客戶若想轉換平臺,代價頗高。

為對抗CUDA,華為還開發(fā)了CANN。不過目前華為產品與開發(fā)者常用工具的整合程度相較CUDA還有一定差距,導致企業(yè)轉換成本較高。

TechMoat咨詢公司合伙人Jeffrey Towson指出:“為填補英偉達留下的空白,華為一直在通過組合較低性能的芯片來復制高端圖形處理器的性能?!蓖ㄟ^升騰AI CloudMatrix 384,華為實際上重新定義了AI基礎設施架構。

聲明:該篇文章為本站原創(chuàng),未經(jīng)授權不予轉載,侵權必究。
換一批
延伸閱讀
關閉