電子發燒友網報道(文/黃山明)盡管近期生成式AI熱度有所減弱,甚至不少企業已經曝出禁止自己的員工使用ChatGPT等產品,擔心會導致信息的泄露。但這并沒有阻止相關企業對AI大模型的深入研究,并且還在加大向英偉達下芯片訂單。
與此同時,英偉達還在近期推出了一款升級版的下一代Grace Hopper超級芯片平臺,性能超過過去的A100,搭載Nvidia的DGX系統能夠以更少的芯片、更低的成本完成對大模型的訓練。
國內互聯網大廠搶購英偉達訂單
不可否認,當前想要訓練AI大模型,購買英偉達的芯片產品是最優的選擇。不過由于此前美國的限制,國內企業幾乎只能購買到英偉達專為中國市場設計的A800系列。雖然性能稍低,但并未阻止國內企業的購買熱情。
據英國金融時報報道,中國數據互聯網巨頭正在搶購對構建生成式AI最為關鍵的高性能芯片,包括百度、字節跳動、騰訊、阿里巴巴已經向英偉達下了達10億美元的訂單,將從英偉達處購買約10萬個A800處理器,預計在今年交付。
此前字節跳動已經為其社交媒體TikTok測試了一個名為TikTok Tako的生成式AI,并授權使用OpenAI的ChatGPT。為此,字節跳動已經儲備了至少1萬塊英偉達GPU,并且下單了近7萬塊A800,價值約在7億美元。
阿里巴巴同樣從英偉達收到了數千塊H800芯片,許多客戶已經聯系到阿里,希望能夠借助由這些芯片驅動的云服務,來幫助他們訓練AI大模型。百度也在制作自己的生成式AI項目,并將其命名為Ernie Bot。
報道還稱,中國企業還購買了價格40億美元的圖形處理器,將于2024年交付。不過英偉達相關發言人并未對這一消息進行詳細說明,只是透露消費者互聯網公司和云提供商每年在數據中心組件上投資數十億美元,通常會提前幾個月下訂單。
有意思的是,據行業人士透露,想要拿到大批量的英偉達芯片,還需要看與英偉達CEO黃仁勛是否“有關系”。并且相關企業能否購買到A800,更多是看商業關系,也就是過去是否為英偉達大客戶的企業。
隨著國內對A800需求的上升,其市場價格也水漲船高。經銷商透露,A800顯卡已經從一周之前的9萬元以上漲到了當前的13萬元,甚至一些經銷商手中的A800漲幅超過了50%,服務器現貨則是從120萬元漲到了140萬元左右。
不僅是國內的企業,國外如谷歌云、微軟云Azure、甲骨文等都在大量搶購英偉達芯片,谷歌云大概囤積了2.5萬塊H100,微軟云則擁有1-4萬塊左右的H100。
對于H100的需求,統計國外市場需求大概每家企業都需要3萬塊左右,加上部分初創企業,市場中需要總共43.2萬塊H100,加上國內對H800擁有大量需求的企業,短時間內英偉達很難完全滿足市場的需求。
畢竟英偉達目前只是指定臺積電作為H100的唯一生產商,未來或許有望與英特爾或三星合作,但在當下,臺積電一家的產能短時間還無法滿足市場中快速膨脹的需求,因此英偉達芯片的供不應求應該會持續一段時間。
推出GH200超級芯片,性能遠超A100
或許是看到市場中對大算力高端芯片的渴求,英偉達在近期推出新一代GH200 Grace Hopper超級芯片,新芯片將于2024年第二季投產。其實早在數月前,英偉達便已經推出了GH200芯片,而此次推出的版本是加入了HBM3e內存的升級版。
即便是原來的GH200,對比A100仍然有著巨大提升,標稱算力提升了3.2倍,結合帶寬優化等綜合訓練算力提升5-6倍,推理算力提升10-12倍。
并且GH200在新AI數據中心架構下,光模塊升級明顯,一張GH200卡對應12個800G光模塊,1個400G光模塊,2個200G光模塊需求,而在此前A100架構下,一張GPU對應2.5個800G光模塊。
在加入了HBM3e內存后,也讓GH200 Grace Hopper的性能得到大幅提升。相比HBM3,HBM3e要更快50%,可以提供10TB/sec的組合帶寬,使新平臺能夠運行比之前版本大3.5倍的模型,同時通過3倍更快的內存帶寬提高性能。
在HBM3e的幫助下,GH200 Grace Hopper可以提供高達141GB的內存和每秒5TB的帶寬。與前代產品相比,新一代的雙GH200系統擁有144個Grace CPU核心、8PFLOPS的GPU和282GB HBM3e內存,是當前一代產品的3.5倍內存和3倍帶寬。
升級了GH200不僅在性能上有了大幅提升,并且功耗與成本也有了大幅降低。據黃仁勛透露,1億美元可以買到8800塊x86 CPU組成的數據中心,總功耗達到5MW。而同樣的資金可以購買2500塊GH200組成的數據中心,功耗僅為3MW,并且算力性能則是過去CPU系統的12倍,能效達20倍。
與此同時,英偉達還推出了DGX GH200超級計算機,內部加入了256 張GH200 Grace Hopper,相比過去的DGX A100 系統僅限于八個A100 GPU作為一個整體單元串聯工作,DGX H200則可以提供大規模可擴展性的吞吐量系統和數據分析,通過使用英偉達的定制NVLink交換機芯片來回避標準集群連接選項的限制。
打個比方,過去Meta訓練LLaMA-2模型時,采用了2000張A100的超級集群,如今只需要購買一臺DGX GH200就能夠實現對模型的訓練。
當前英偉達在AI芯片市場占據主導地位,市場份額超過80%。預計將在2023年底前向其主要客戶谷歌、Meta和微軟提供DGX GH200參考藍圖,還將該系統作為參考架構設計提供給云服務提供商和超大規模廠商。
至于生產交付,就需要到明年二季度了,一個重要原因是HBM3e將在明年才會供貨。市場消息顯示,目前HBM3基本由韓國企業壟斷,最早便是在2015年由AMD與SK海力士合作制造出了該產品,一舉實現了高帶寬存儲,并從2D進入到了2.5D堆疊。
包括SK海力士、三星都表示,會先從HBM3開始開發,預計到2024年一季度才會送樣HBM3e,而美光則選擇跳過HBM3,直接開發HBM3e。屆時,依靠新款英偉達芯片,AI大模型有望迎來新一輪的爆發。
寫在最后
在經歷了上半年生成式AI的火熱,到了下半年,相關行業的熱度有所下降,但未來的商業潛力已經被許多企業看在眼里。生成式AI幾乎成為企業在未來商業競爭中的核心技術,這也是為何如今國內外的互聯網企業都開始加速研發相關產品。
想要盡快的實現對模型的訓練,采購英偉達芯片是最快的方法。但目前國內仍然只能采購H800系列產品,在英偉達芯片的不斷推陳出新下,國內的大模型或許將與國外的產品產生代差,想要盡可能縮小差距,只能倒逼國內企業加速相關產品的研發。
這種局面顯然不是英偉達愿意看到的,在今年6月份,英偉達財務主管便公開表示,限制向中國出口AI芯片,將導致美國工業永久失去機會。
-
芯片
+關注
關注
456文章
51004瀏覽量
425208 -
英偉達
+關注
關注
22文章
3810瀏覽量
91445
發布評論請先 登錄
相關推薦
評論