韓國大型財團SK集團的董事長崔泰源在周一的采訪中透露,英偉達的首席執行官黃仁勛已向SK集團旗下的存儲芯片制造巨頭SK海力士提出要求,希望其能提前六個月推出下一代高帶寬存儲產品HBM4。SK海力士此前在財報中曾表示,計劃在2025年下半年向大客戶(市場普遍猜測為英偉達及AMD)提供HBM存儲系統。對此,SK海力士的發言人證實了這一時間表確實比最初目標有所提前,但并未提供更多細節。
黃仁勛親自介入要求加快HBM4的交貨速度,凸顯出英偉達對于開發更先進的人工智能GPU系統的迫切需求。這些系統需要更高容量、更節能的HBM存儲系統來支持。同時,這也反映了OpenAI、Anthropic、微軟、亞馬遜及Meta等人工智能、云計算和互聯網大廠對于AI訓練和推理算力的巨大需求。這種需求迫使英偉達的核心芯片代工廠臺積電加班加點擴大Blackwell AI GPU的產能,并催促英偉達加速下一代AI GPU的研發進程。
英偉達計劃于2026年推出搭載HBM4存儲系統的下一代AI GPU架構Rubin。目前,英偉達在全球數據中心AI芯片市場占據主導地位,市場份額高達80%-90%,而AMD則接近10%,其余份額由谷歌TPU、亞馬遜自研ASIC等大廠自研AI芯片占據。
作為英偉達H100/H200及近期批量生產的Blackwell AI GPU的核心HBM存儲系統供應商,SK海力士一直在全球存儲芯片產能競賽中領跑,以滿足英偉達、AMD及谷歌等大客戶對HBM存儲系統的爆炸性需求。然而,SK海力士也面臨著來自三星電子和美國存儲巨頭美光的激烈競爭。
三星在上周的財報中表示,在與一家主要客戶(可能是英偉達)達成供應協議方面取得了積極進展。該公司正在與主要客戶進行談判,并計劃明年上半年批量生產“改進后”的HBM3E產品,同時計劃在明年下半年生產下一代HBM4存儲系統。
美光則是另一家獲得英偉達供應資質的HBM供應商。在今年2月,美光已開始量產專為人工智能和高性能計算所設計的HBM3E存儲系統,并表示英偉達的一部分H200及Blackwell AI GPU將搭載美光HBM3E。美光還表示,正在加速推進下一代HBM4和HBM4e的研發進程。
與此同時,SK海力士的首席執行官郭魯在首爾舉行的2024年SK人工智能峰會上表示,該公司計劃今年年底前向一位大客戶(市場猜測為英偉達)提供最新的12層HBM3E,并計劃在明年初運送更先進的16層HBM3E存儲樣品。他還透露,英偉達AI GPU的供應仍然難以滿足需求,并多次要求SK海力士加快HBM3E的供應規模。
隨著AI GPU需求的激增,HBM存儲系統的需求也隨之暴漲。英偉達創始人兼CEO黃仁勛曾表示,Blackwell架構AI GPU的需求非?!隘偪瘛?。據知名科技產業鏈分析師郭明錤的最新報告,微軟目前是全球最大的Blackwell GB200客戶,Q4訂單激增3-4倍。花旗集團則預測,到2025年,美國四家最大科技巨頭的數據中心相關資本支出預計將同比增長至少40%,這些支出基本上都與生成式人工智能掛鉤。
HBM是一種高帶寬、低能耗的存儲技術,專門用于高性能計算和圖形處理領域。它通過3D堆疊存儲技術實現高速高帶寬的數據傳輸,不僅大幅減少了存儲體系空間占比,也大幅降低了數據傳輸的能耗。HBM的低延遲特性使其能夠極大程度提高AI系統的整體效率和響應速度。
華爾街大行高盛發布研報稱,由于企業對于生成式人工智能的強勁需求推動了更高的AI服務器出貨量和每個AI GPU中更高的HBM密度,該機構大幅提高了HBM總市場規模預估。預計市場規模將從2023年到2026年間以復合年增速100%大幅增長,到2026年將增長至300億美元。高盛預計,未來幾年HBM市場將持續供不應求,SK海力士、三星和美光等主要玩家將持續受益。
-
存儲
+關注
關注
13文章
4314瀏覽量
85846 -
英偉達
+關注
關注
22文章
3776瀏覽量
91103 -
SK海力士
+關注
關注
0文章
962瀏覽量
38503 -
HBM
+關注
關注
0文章
380瀏覽量
14759 -
HBM4
+關注
關注
0文章
49瀏覽量
39
發布評論請先 登錄
相關推薦
評論