英偉達在3月18日GTC 2024年盛會上推出了搭載自家創新結構Blackwell的B200 GPU芯片,選用了臺積電最先進的N4P制程工藝,性能較之前翻番。然而,Meta公司在次日披露稱,預計今年無法獲得這款最新的AI芯片,至少在2025年后才能用上。
英偉達宣稱,B200在性能上比以往最好的GPU快30倍不止。由它構成的服務器集群相比上一代,運算能力飛躍性提升,甚至能使大語言模型的訓練速度翻番。
財務長科萊特?克雷斯于同日向財經分析人士保證,“我們確信新款GPU產品將在今年內面世。”新款GPU的規模生產預計需等到2025年。
臉書(即Meta)作為英偉達的主要買家之一,已經購買了數十萬塊英偉達AI芯片,用以訓練生成式AI和強化內容推薦功能。首席執行官馬克?扎克伯格曾在年初表示,今年底將擁有約35萬個H100芯片。這些芯片與其他型號GPU結合使用,總共將提供60萬個H100所代表的運算力。
在英偉達發布B200后不久,Meta宣布將利用該芯片訓練公司的LIama大型模型。據悉,Meta正在動用兩個包含約2.4萬個H100GPU的GPU集群來訓練第三代LIama模型。Meta公司發言人表示,他們打算繼續使用這兩座集群訓練LIama 3,并期待未來用Blackwell硬件訓練更多世代的大型模型。
-
服務器
+關注
關注
12文章
9253瀏覽量
85745 -
語言模型
+關注
關注
0文章
532瀏覽量
10300 -
英偉達
+關注
關注
22文章
3815瀏覽量
91491
發布評論請先 登錄
相關推薦
評論