來源:電子工程專輯
編輯:感知芯視界
過去近兩年來,受消費電子市場需求疲軟等因素影響,存儲芯片產業游進入庫存過剩、訂單減少、價格暴跌的“寒冬”。三星、美光、SK海力士、鎧俠等存儲芯片大廠紛紛減產、去庫存,但市場行情是否筑底眾說紛紜,整體產業回暖的跡象亦不明顯。
然而,在生成式AI對算力需求的帶動下,2023年初以來高帶寬內存(HBM)在整個存儲芯片產業中可謂“這邊風景獨好”。目前,三星、SK海力士、美光等存儲芯片大廠均在布局與搶占這一細分市場利好。
與此同時,隨著AI對內存速率提出更高的要求,HBM技術創新仍將持續不斷演進。因此,相對整個存儲芯片產業而言,HBM這一細分領域出現了產能和性能雙提升的增長態勢。
HBM增長勢頭強勁
HBM(High Bandwidth Memory)是一款新型的CPU/GPU內存芯片(即“RAM”),其實就是將很多個DDR芯片堆疊在一起后和GPU封裝在一起,實現大容量、高位寬的DDR組合陣列,可被廣泛應用于高性能計算、人工智能、圖形處理和數據中心等領域。
整體來看,HBM具有超越一般芯片集成的RAM的特殊優勢:一是高速、高帶寬的特性使HBM非常適合用于GPU顯存和HPC高性能計算、AI計算;二是由于采用了TSV和微凸塊技術,HBM具備更好的內存功耗能效特性,相對于GDDR5存儲器,HBM2的單引腳I/O帶寬功耗比數值降低42%,更低的熱負荷降低了冷卻成本;三是在物理空間日益受限的數據中心環境中,HBM緊湊的體系結構也是其獨特的優勢。
今年初以來,ChatGPT突然爆火,帶動了AI大模型的快速增長,使得具備高帶寬和低功耗特性的HBM成為處理大規模數據和復雜計算任務的理想選擇。據悉,2023年開年后,三星、SK海力士兩家存儲大廠HBM訂單快速增加,價格也水漲船高,HBM3規格DRAM價格甚至上漲5倍。
過去數月里,HBM乘AI東風,市場關注度大幅上升。據悉,三星電子、SK海力士等韓國本土存儲半導體企業正在推動HBM專用線的擴張。兩家公司計劃在2024年年底前投資超過2萬億韓元,使HBM生產線目前的產能增加一倍以上。SK海力士計劃利用利川現有HBM生產基地的清州工廠的閑置空間。三星電子正在考慮擴大位于忠清南道天安市的HBM核心生產線。
另一大存儲大廠美光也很早就嗅到AI應用商機,于2019年在中國臺灣成立HBM部門。美光甚至表示,看好2022年至2025年HBM市場年復合成長率超50%。
當前,HBM市場呈現三足鼎立格局。TrendForce研究顯示,2022年三大原廠HBM市占率分別為SK海力士占50%、三星約40%、美光約占10%。
從發展進程來看,2023-2024年將是AI建設爆發期,大量需求集中在AI訓練芯片上,勢必推升HBM使用量。預計2023年,HBM即便在原廠擴大產能的情況下,仍無法完全滿足客戶需求。從各原廠規劃看,預計2024年HBM供給位元量將年增長105%。另據semiconductor-digest預測,到2031年,全球高帶寬存儲器市場預計將從2022年的2.93億美元增長到34.34億美元,在2023-2031年的預測期內復合年增長率為31.3%。
三星獲英偉達HBM訂單
在AI大模型熱潮影響下,科技大廠接連布局AI大模型,掀起了AI大模型競爭之戰,可以預見未來算力需求仍將大幅增長。目前,NVIDIA、AMD、Intel等高端AI芯片大多選擇搭載HBM。而作為加速計算領導者,英偉達更是受益于ChatGPT引發AI大模型需求增長,今年以來股價累計漲幅已超過245%,目前(9月5日)市值已站上1.2萬億美元。
當前,在核心GPU(圖像處理器)加速計算芯片供不應求的情形下,英偉達在加大GPU供應量的同時,也加速推出新一代算力更快的芯片——超級芯片GH200,以持續鞏固AI大模型核心算力芯片供應商地位。
中信證券分析認為,目前英偉達數據中心加速卡銷量仍主要以高端的A100/H100系列卡為主,其中臺積電CoWoS環節產能為主要約束,考慮到封測設備的交貨周期等因素,預計臺積電CoWoS產能實質性改善至少應在2024Q2左右。
當然,除了CoWoS產能不足之外,HBM也是供不應求。目前,SK海力士是HBM3領域的全球領導者,迄今為止也是英偉達唯一為AI加速器提供HBM的供應商。有專家認為,HBM3是需高帶寬的人工智能服務的理想選擇。
然而,SK海力士一家遠遠難以滿足英偉達對HBM的需求。據悉,英偉達計劃到2024年出貨最高200萬顆H100。此前HBM供應商主要是SK海力士,但是產能也有限,如果英偉達不引入其他HBM供應商,那么要達成這一目標將變得相當困難。這勢必迫使英偉達尋找更多的HBM供應商進行合作。
9月5日消息,據韓國媒體報導,三星電子已獲得英偉達(NVIDIA)的高帶寬內存(HBM)訂單。據悉,三星的HBM已通過NVIDIA的第四次測試,也是最后一次品質測試。隨后,兩家公司已同意簽訂供應協議。根據該協議,雙方的供貨最早可能在10月啟動。現在NVIDIA已經擁有SK Hynix和三星作為其HBM供應商,這使得AI GPU的產量能夠提升。
花旗集團分析師也曾在一份報告中寫道,三星電子將從第四季度開始供應HBM3新一代內存,經過優化配合人工智能加速器使用。未來,隨著三星的加入,英偉達將在很大程度上緩解GPU供應不足的壓力。
HBM技術不斷演進
未來數年,HBM的發展“錢景”被存儲大廠廣受看好。而在當前高性能計算應用對內存速率提出更高要求的背景下,HBM技術將繼續進行改進和創新。
從技術發展趨勢看,HBM促使DRAM從傳統2D加速走向立體3D,充分利用空間、縮小面積,契合半導體行業小型化、集成化的發展趨勢。具體來看,增加堆疊層數、提高數據傳輸速度和密度,以及降低功耗和成本等方面的改進,將推動HBM技術的進一步發展。
目前,HBM內部的DRAM堆疊屬于3D封裝,而HBM與AI芯片的其他部分合封于Interposer上屬于2.5D封裝,是典型的Chiplet應用。
過去十年里,高帶寬和高密度的HBM解決方案不斷涌現,使得數據傳輸速度更快、容量更大,同時降低功耗和占用空間。據悉,HBM發展至今第四代性能不斷突破。自2014年首款硅通孔HBM產品問世至今,HBM技術已經發展至第四代,分別是:HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代),HBM芯片容量從1GB升級至24GB,帶寬從128GB/s提升至819GB/s,數據傳輸速率也從1Gbps提高至6.4Gbps。
為了搶占未來HBM市場,目前各大存儲大廠也在不斷提升HBM技術性能。近日,美光中國臺灣地區董事長盧東暉就表示,美光有多達65%的DRAM產品在中國臺灣生產,繼日本廠于2022年10月開始量產1β(1-beta)制程技術后,中國臺灣現在也開始量產1-beta制程。同時,臺日團隊還研發新一代的1-gamma制程,是美光第1代采用極紫外光(EUV)的制程技術,將在2025年上半年先在臺中廠量產。
而三星早在2022年10月召開的Samsung Foundry Forum 2022活動上,就對外公布了DRAM技術路線圖。按照規劃,三星將于2023年進入1bnm工藝階段,芯片容量將達到24Gb(3GB)- 32Gb(4GB),原生速度將在6.4-7.2Gbp。
今年5月,三星已宣布量產12納米級16Gb DDR5 DRAM,隨后9月宣布采用12納米(nm)級工藝技術,開發出其容量最大的32Gb DDR5 DRAM,全新12納米級32Gb DDR5 DRAM計劃于今年年底開始量產。
盡管各大儲存廠商正不斷加碼HBM,但其技術創新仍需克服兩大主要問題:一是HBM需要較高的工藝,進而大幅度提升了成本;二是大量DRAM堆疊,和GPU封裝在一起,產生大量的熱,如何散熱是極大的挑戰。
整體來看,存儲產業出現了分化的市場行情:一方面在多類消費電子需求疲弱背景下,多家NAND Flash廠商仍在減產,另一方面因AI服務器需求增加,與AI場景高算力需求匹配的HBM需求上升。然而,AI浪潮催化下的DRAM行情雖有好轉跡象,但整個存儲芯片產業似乎仍待實際需求支撐。
*免責聲明:本文版權歸原作者所有,本文所用圖片、文字如涉及作品版權,請第一時間聯系我們刪除。本平臺旨在提供行業資訊,僅代表作者觀點,不代表感知芯視界立場。
今日內容就到這里啦,如果有任何問題,或者想要獲取更多行業干貨研報,可以私信我或者留言
審核編輯 黃宇
-
芯片
+關注
關注
455文章
50817瀏覽量
423676 -
存儲
+關注
關注
13文章
4314瀏覽量
85851 -
內存
+關注
關注
8文章
3025瀏覽量
74056 -
AI
+關注
關注
87文章
30896瀏覽量
269110 -
GPT
+關注
關注
0文章
354瀏覽量
15379
發布評論請先 登錄
相關推薦
評論