曾幾何時,我們需要花費一個多小時才能下載一部電影。如今,最新的處理器能夠在一秒鐘內處理相當于160多部全高清電影的數據量。高帶寬內存(HBM)是實現這一高效數據傳輸的核心技術。雖然HBM在2013年首次亮相時曾面臨商用風險評估,但是經過幾年的發展和驗證,現已成為人工智能芯片的基本要素。各大芯片制造商,例如英偉達和AMD,均致力于推動此項尖端技術,以滿足他們日益增長的處理能力及帶寬需求。
大量數據生成式人工智能應用對傳統存儲芯片的性能產生了巨大挑戰。為了應對這個問題,我們需要更快的數據傳輸速度和更高的處理效率,從而導致更密集的芯片布局以及更大的能耗輸出。一直以來,傳統安裝形式均是將芯片平放在同一平面上,然后利用電纜及保險絲進行鏈接。這一方式會隨著芯片數量的增多而降低通信和功耗效率。而HBM改變了這一狀況,它將多個芯片沿垂直方向堆疊,同時利用尖端材料,包括比紙片還要纖小的微型電路板,將模塊匯聚成為立體形態。這一改進對于人工智能芯片制造商來說極為重要,因為當芯片間距減小,能耗亦隨之下降,HBM的能耗較之傳統方式低了約四分之三。此外,HBM還擁有高達五倍的帶寬優勢,且占用空間小于現有產品的一半。
盡管如此,HBM的成本仍然較高,為常見內存芯片的五倍以上。然而,由于HBM滿足了現代高性能人工智能芯片的特殊需求,因此此類集成了HBM的人工智能芯片也具有較高價值。與十年前相比,現在各大科技巨頭的芯片投資預算明顯增加。據TrendForce公司數據顯示,全球HBM市場中50%的份額由韓國SK海力士占有,余下市場則被三星和美光瓜分。這兩家公司分別生產了上一代以及即將面世的新款HBM芯片。
總的來說,在當前市場環境下,只有SK海力士公司能夠大規模生產第三代HBM產品。據稱,該公司滿足了全球超過60%的客戶需求,而其他競爭者則主要面向市場生產上一代產品。盡管HBM目前尚存在成本較高等問題,但毫無疑問的是,隨著人工智能領域的不斷拓展以及數據中心規模的擴大,對于HBM的需求將會持續攀升。預測至2023年6月份,全球HBM需求將同比增加60%。
2024年,人工智能芯片大戰將進一步推動這一增長。AMD剛剛推出了一款新產品,希望與英偉達抗衡。全球市場供不應求,再加上人們對價格更低廉的英偉達產品需求旺盛,這意味著能夠提供規格相當芯片的企業將有機會獲得豐厚的利潤。但是,撼動英偉達的關鍵不僅在于物理芯片本身,還在于其軟件生態系統,其中包括流行的開發工具和編程模型。要想復制這一點,需要數年時間。
這就是為什么硬件,以及每塊新芯片中的HBM數量,對英偉達的競爭者來說變得更加重要。通過使用升級的HBM來提高內存容量,是短期內獲得競爭力的少數方法之一。例如,AMD最新的MI300加速器使用了8個HBM,比英偉達產品的5或6個要多。
芯片歷來是一個周期性行業,容易出現劇烈的繁榮和蕭條。從目前的趨勢來看,新產品需求的持續增長應該會使未來的衰退期不像過去那么動蕩。
-
人工智能
+關注
關注
1793文章
47567瀏覽量
239436 -
存儲芯片
+關注
關注
11文章
900瀏覽量
43219 -
HBM
+關注
關注
0文章
386瀏覽量
14792
發布評論請先 登錄
相關推薦
評論