在5月Nvidia推出Ampere A100 GPU之后,Google Cloud宣布在Google Compute Engine上發布A100“加速器優化” VM A2實例系列的alpha可用性。實例由HGX A100 16-GPU平臺提供動力,該平臺使用NVSwitch互連將兩個HGX A100 8-GPU基板組合在一起。
新實例家族針對的是機器學習培訓和推理,數據分析以及高性能計算工作負載。根據Nvidia的說法,具有新的張量和稀疏性功能,每個A100 GPU的性能都比上一代GPU提高了20倍。
A2 VM系列提供5種配置,從1個到16個GPU,具有兩種不同的CPU和網絡對GPU的比率。由于Ampere的多實例組(MIG)功能,每個GPU可以劃分為七個不同的GPU。
AI工作量要求最高的客戶將能夠訪問完整的16-GPU實例,該實例提供了總計640GB的GPU內存和1.3TB的系統內存,這些實例通過NVSwitch連接,總帶寬高達9.6TB / s。目前尚未透露A2系列的價格,但直接購買此硬件將花費近40萬美元,這證明了基于云的方法的民主化力量,其中最新的HPC硬件的價格僅為后者的一小部分。 -需求。
回想一下,雖然Nvidia的DGX A100系統配備了64核AMD第二代Eypc Rome處理器,但 HGX平臺可以配置 AMD或Intel處理器。Google Cloud選擇了后者,A2機器提供了12到96個Intel Cascade Lake vCPU,以及可選的本地SSD(最高3TB)。
在安培(Ampere)不到兩個月的時間里,Google Cloud推出了新的A2系列 。這是從GPU芯片發布到云采用的創紀錄時間,反映了在AI工作負載的推動下,對云中HPC的需求不斷增加。一直在穩步前進,以加快云提供商對最新加速器設備的實施。Nvidia的K80 GPU花費了兩年的時間才能將其導入云(AWS),Pascal的節奏約為一年,Volta的節奏為五個月,而Ampere則只有數周。谷歌指出,它也是首家推出英偉達T4圖形處理器的云提供商。(Google也是 第一個使用Pascal P100 實例; AWS跳過了Pascal,但 首先使用了Volta。)
Google Cloud還宣布即將為Nvidia A100提供對Google Kubernetes Engine,Cloud AI Platform和其他服務的支持。
根據Ampere發行的聲明,我們可以預期其他著名的云供應商采用A100,包括Amazon Web Services,Microsoft Azure,百度云,騰訊云和阿里云。
目前,A2實例可通過私有Alpha程序獲得,Google報告說,將于今年晚些時候宣布其公共可用性和定價。
-
Google
+關注
關注
5文章
1766瀏覽量
57595 -
gpu
+關注
關注
28文章
4744瀏覽量
129018 -
機器學習
+關注
關注
66文章
8423瀏覽量
132751
發布評論請先 登錄
相關推薦
評論