疫情所致,英偉達(dá)今年的GTC(GPU Technology Conference)改為線上舉辦,日期也由原來的3月下旬推遲到5月中旬。于是,就有了北京時間5月14日晚,英偉達(dá)創(chuàng)始人兼CEO黃仁勛人生中首次的“Kitchen Keynote”。嗯,或許這篇也可以取名為《疫情當(dāng)前,GPU大佬廚房帶貨忙》。
當(dāng)然,姍姍來遲的GTC并沒有讓人失望,豪橫的硬菜有:全球最大的7nm處理器 A100 GPU、可用于對抗COVID-19的最新AI系統(tǒng)DGX A100、收購Mellanox以來的首個成果SmartNIC,這些創(chuàng)新直接彰顯了這位GPU霸主對于未來數(shù)據(jù)中心的理解,以及堅決捍衛(wèi)既有地位的決心。同時,還有對于邊緣市場、自動駕駛、醫(yī)療、AI機器人、對話式AI等領(lǐng)域的無限擴張。
第八代GPU A100成全球最大7nm處理器,堪稱英偉達(dá)史上最大性能飛躍
過去的一年內(nèi),英偉達(dá)的第八代GPU曾引發(fā)了業(yè)界的諸多猜測。也正如他早先放風(fēng)出來“你不會失望的”,這款基于英偉達(dá)Ampere架構(gòu)的NVIDIA A100,將AI訓(xùn)練和推理性能提高20倍,可以說是英偉達(dá)GPU迄今為止最大的性能飛躍。作為一款通用型工作負(fù)載加速器,A100還被設(shè)計用于數(shù)據(jù)分析、科學(xué)計算和云圖形。云計算和AI的強大趨勢正在推動數(shù)據(jù)中心設(shè)計的結(jié)構(gòu)性轉(zhuǎn)變,高效的加速計算基礎(chǔ)架構(gòu)正在取代傳統(tǒng)的服務(wù)器架構(gòu)。黃仁勛對A100 GPU寄予厚望,認(rèn)為它“作為一個端到端的機器學(xué)習(xí)加速器,有史以來首次在一個平臺上實現(xiàn)橫向擴展以及縱向擴展的負(fù)載的加速。在提高吞吐量的同時,能夠降低數(shù)據(jù)中心的成本。”
A100 GPU的突破來源于五大關(guān)鍵性創(chuàng)新:
NVIDIA Ampere架構(gòu):這是A100的核心,該架構(gòu)包含超過540億個晶體管,這使其成為全球最大的7nm處理器;
具有TF32的第三代TensorCore核心:TensorCore被英偉達(dá)廣泛采用,現(xiàn)在變得更加靈活且易于使用,使FP32精度下的AI性能提高多達(dá)20倍。此外,TensorCore核心現(xiàn)在支持FP64精度,相比前代,它為HPC應(yīng)用所提供的算力提高了2.5倍。
多實例GPU: MIG,這是一種全新的技術(shù)功能,可將單個A100 GPU分割為七個獨立的GPU,為不同規(guī)模的工作提供不同的算力,將利用率和效率最大化。
第三代NVIDIA NVLink:使GPU之間的高速聯(lián)結(jié)增加至原來的兩倍,實現(xiàn)服務(wù)器的高效擴展。
結(jié)構(gòu)化稀疏:這種全新的效率技術(shù)利用AI數(shù)學(xué)固有的稀疏性,使性能提升了一倍。
憑借這些新功能,A100可成為AI訓(xùn)練和推理以及科學(xué)模擬、對話式AI、推薦系統(tǒng)、基因組學(xué)、高性能數(shù)據(jù)分析、地震建模和金融預(yù)測等各種高要求工作負(fù)載的理想選擇。
據(jù)了解,A100已全面投產(chǎn)并已向全球客戶交付。眾多全球云服務(wù)供應(yīng)商和系統(tǒng)構(gòu)建商計劃將A100 GPU集成到其產(chǎn)品中,其中包括:阿里云、AWS、百度智能云、思科、Dell Technologies、富士通、Google Cloud、新華三、HPE、浪潮、聯(lián)想、Microsoft Azure、甲骨文、騰訊云等等。
新系統(tǒng)已搭載A100,首批訂單用于對抗COVID-19
同時發(fā)布的還有NVIDIA DGX A100系統(tǒng),內(nèi)置8個由NVLink 互聯(lián)的A100 GPU,具有5Petaflops的AI性能。利用AI00的多實例GPU功能,每臺DGX A100能夠被分割為56個實例,用于加速多個小型工作負(fù)載的處理速度。憑借這些功能,用戶可在一個完全集成的軟件定義平臺上根據(jù)自身需求優(yōu)化算力和資源,加快數(shù)據(jù)分析、訓(xùn)練和推理等各種工作負(fù)載的速度。針對端到端的機器學(xué)習(xí)工作流,從數(shù)據(jù)分析到訓(xùn)練再到推理構(gòu)建的AI系統(tǒng),DGX A100提供的性能,能夠幫助機器學(xué)習(xí)工程師應(yīng)對指數(shù)級增長的AI模型和數(shù)據(jù)。
據(jù)了解,多家全球大型企業(yè)、服務(wù)供應(yīng)商和政府機構(gòu)以及訂購了前幾批DGX A100。首批系統(tǒng)已于本月早些時候交付給了美國能源部(U.S. Department of Energy, DOE)的阿貢國家實驗室(Argonne National Laboratory),該實驗室將運用該集群的AI和算力來更好地研究和應(yīng)對COVID-19。
阿貢國家實驗室計算機、環(huán)境和生命科學(xué)實驗室副主任Rick Stevens表示,全新DGX A100提供的算力,將幫助研究人員探索治療方法和研發(fā)疫苗、研究病毒的傳播方式,使科學(xué)家能夠利用AI加速工作,在數(shù)月甚至數(shù)日內(nèi)完成以前需要數(shù)年才能完成的工作。
英偉達(dá)還展示了由140臺DGX A100系統(tǒng)組成的DGX SuperPOD AI超級計算機,用于公司內(nèi)部對話式AI、基因組學(xué)和自動駕駛等領(lǐng)域的研究。該集群是全球速度最快的AI超級計算機之一,其性能相當(dāng)于此前數(shù)千臺服務(wù)器的性能,AI計算能力高達(dá)700 Petaflops。
面向新一代數(shù)據(jù)中心的安全加速智能網(wǎng)卡
根據(jù)市場研究機構(gòu)Dell’Oro的數(shù)據(jù)顯示,預(yù)計到2024年,智能網(wǎng)卡(SmartNIC)市場規(guī)模將超過6億美元,占全球以太網(wǎng)適配器市場的23%。而整體控制器和適配器市場將以7%的年復(fù)合增長率增長,其中25Gbps和100Gbps的銷售將是主要增長驅(qū)動力。英偉達(dá)顯然早已看到這一巨大的機會,收購Mellanox以來首個發(fā)布就是25G安全智能網(wǎng)卡(SmartNIC)。據(jù)了解,全新發(fā)布的ConnectX-6 Lx SmartNIC就是面向新一代解耦式的、可重組的數(shù)據(jù)中心的經(jīng)濟高效、可加速應(yīng)用的和安全的智能網(wǎng)卡,是ConnectX系列網(wǎng)卡的第11代產(chǎn)品。
這款產(chǎn)品專為滿足現(xiàn)代化數(shù)據(jù)中心的需求而設(shè)計,在這個市場,25Gb/s網(wǎng)絡(luò)已成為各種主流應(yīng)用的標(biāo)準(zhǔn),例如企業(yè)級應(yīng)用、AI和實時分析等。這款全新的SmartNIC充分利用了軟件定義和硬件加速等先進(jìn)技術(shù),將更多的安全和網(wǎng)絡(luò)處理工作從CPU卸載到網(wǎng)卡上來。
就在今年3月份,賽靈思推出了一體化SmartNIC Alveo U25,通過將SmartNIC平臺與FPGA引擎相結(jié)合,實現(xiàn)全可編程與一站式加速應(yīng)用。賽靈思的這款產(chǎn)品賣點之一就是實現(xiàn)了網(wǎng)絡(luò)、存儲、計算加速能力的全集成。
而英偉達(dá)的這款ConnectX-6 Lx更強調(diào)的是安全加速功能。包括IPsec在線加密和硬件信任根(Hardware Root of Trust),可提升10倍性能的連接追蹤(Connection Tracking)功能等,實現(xiàn)了整個數(shù)據(jù)中心的在零信任下的安全保障(Zero Trust security)。RoCE(RDMA over converged Ethernet)技術(shù)、虛擬化和容器化技術(shù),以及NVMe over Fabrics存儲卸載技術(shù)等,都成為高性能可擴展網(wǎng)絡(luò)的保障。
SmartNIC正在成為加速計算的下一個必爭之地。
云原生技術(shù)支持的EGX邊緣AI平臺
巨大的邊緣計算市場自然也是英偉達(dá)的重點。本次發(fā)布的兩款EGX邊緣AI 平臺產(chǎn)品分別是:適用于較大型商業(yè)通用服務(wù)器上的 EGX A100聚合加速器,和適用于微型邊緣服務(wù)器的微型EGX Jetson Xavier NX。這兩款產(chǎn)品能夠在邊緣提供安全、高性能的AI處理能力。
EGX A100是首個基于NVIDIA Ampere架構(gòu)的邊緣AI產(chǎn)品,結(jié)合了NVIDIA Ampere架構(gòu)所具有的突破性計算性能與ConnectX-6 Dx SmartNIC所具備的網(wǎng)絡(luò)加速和關(guān)鍵性安全功能,能將標(biāo)準(zhǔn)型和專用型的邊緣服務(wù)器轉(zhuǎn)變?yōu)榘踩脑圃鶤I超級計算機。隨著AI日益向邊緣發(fā)展,企業(yè)機構(gòu)可將EGX A100添加到其服務(wù)器中,從而實時處理和保護(hù)來自邊緣傳感器的海量流式數(shù)據(jù)。
EGX Jetson Xavier NX則號稱是全球體積最小、性能最強大的AI超級計算機,適用于微型服務(wù)器和邊緣智能物聯(lián)網(wǎng)盒。目前,生態(tài)圈內(nèi)的合作伙伴已提供了超過20種解決方案。該產(chǎn)品將NVIDIA Xavier SoC的性能整合到了一個信用卡大小的模塊中。運行EGX云原生軟件堆棧的EGX Jetson Xavier NX可以快速處理來自多個高分辨率傳感器的流式數(shù)據(jù)。
這兩款產(chǎn)品可滿足不同尺寸、成本和性能方面的需求。例如搭載了EGX A100的服務(wù)器可以管理機場中的數(shù)百臺攝像頭,而EGX Jetson Xavier NX則可用于管理便利店中的少量攝像頭。但是,云原生技術(shù)支持能夠確保整個EGX產(chǎn)品家族都可以使用同一經(jīng)過優(yōu)化的AI軟件構(gòu)建和部署AI應(yīng)用。
黃仁勛表示:“物聯(lián)網(wǎng)和AI的融合已開啟了“萬物智能”革命。就像手機行業(yè)通過智能手機為用戶提供智能服務(wù)一樣,大型行業(yè)現(xiàn)在也可以為用戶提供智能互聯(lián)的產(chǎn)品和服務(wù)。EGX邊緣AI平臺能夠?qū)?biāo)準(zhǔn)服務(wù)器轉(zhuǎn)變?yōu)橐粋€小型的云原生、安全型AI數(shù)據(jù)中心。借助于我們的AI應(yīng)用框架,企業(yè)可以構(gòu)建從智能零售到機器人工廠再到自動化呼叫中心等各類AI服務(wù)。”
結(jié)語
英偉達(dá)1999年發(fā)明GPU后激發(fā)了PC游戲市場的增長,重新定義了現(xiàn)代計算機顯卡,并且對并行計算進(jìn)行了革新。加速計算迅猛發(fā)展的25年,也是計算架構(gòu)、計算系統(tǒng)與軟件堆棧風(fēng)馳電掣般演進(jìn)的25年。以GPU深度學(xué)習(xí)為代表的技術(shù)已經(jīng)點燃了全新的計算時代——現(xiàn)代人工智能,同時也帶動了CUDA軟件生態(tài)的繁榮和開發(fā)者數(shù)量的迅猛增長。
世界總在前行中,科技也在不斷創(chuàng)新。但科技總是為了讓生活更美好,正如黃仁勛在今年的Keynote中首先致敬疫情期間堅守在各自工作崗位的普通人,平凡背后蘊藏的巨大能量。黃仁勛仍在挖掘GPU背后的強大潛力。
本文由電子發(fā)燒友網(wǎng)原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。如需轉(zhuǎn)載,請?zhí)砑游?a target="_blank">信號elecfans999.
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
-
gpu
+關(guān)注
關(guān)注
28文章
4766瀏覽量
129198 -
AI2020
+關(guān)注
關(guān)注
1文章
22瀏覽量
5950
發(fā)布評論請先 登錄
相關(guān)推薦
《CST Studio Suite 2024 GPU加速計算指南》
許可證模型的加速令牌或SIMULIA統(tǒng)一許可證模型的SimUnit令牌或積分授權(quán)。
4. GPU計算的啟用
- 交互式模擬:通過加速對話框啟用,打開求解器對話框,點擊“
發(fā)表于 12-16 14:25
加速拋棄英偉達(dá),微軟又發(fā)布一顆芯片 #微軟 #英偉達(dá) #半導(dǎo)體 #芯片 #電路知識
英偉達(dá)
jf_15747056
發(fā)布于 :2024年11月21日 17:31:05
英偉達(dá)與谷歌聯(lián)手加速量子計算設(shè)備設(shè)計
近日,據(jù)外媒最新報道,英偉達(dá)與谷歌兩大科技巨頭宣布攜手合作,共同加速下一代量子計算設(shè)備的設(shè)計進(jìn)程。 雙方在一份聯(lián)合聲明中透露,谷歌的量子人工智能部門將充分利用
英偉達(dá)與谷歌攜手加速量子計算設(shè)備設(shè)計
英偉達(dá)近日宣布,將與谷歌量子AI團隊展開合作,共同推進(jìn)量子計算軟硬件工具的研發(fā)。雙方將利用英偉達(dá)CUDA-Q平臺提供的模擬支持,加快設(shè)計谷歌
軟銀升級人工智能計算平臺,安裝4000顆英偉達(dá)Hopper GPU
軟銀公司宣布,其正在擴展的日本頂級人工智能計算平臺已安裝了約4000顆英偉達(dá)Hopper GPU。這一舉措顯著提升了平臺的計算能力。據(jù)悉,該
挑戰(zhàn)英偉達(dá):聚焦本土GPU領(lǐng)軍企業(yè)崛起
近年來,美國對中國半導(dǎo)體行業(yè)的制裁舉措,無疑加速了中國在本土芯片產(chǎn)業(yè)上的自主發(fā)展步伐,特別是隨著人工智能和基礎(chǔ)模型技術(shù)的蓬勃興起,更加堅定了中國在全球芯片領(lǐng)域扮演領(lǐng)導(dǎo)角色的決心。
面對英偉
英偉達(dá)TITAN AI顯卡曝光,性能狂超RTX 4090達(dá)63%!# 英偉達(dá)# 顯卡
顯卡英偉達(dá)
jf_02331860
發(fā)布于 :2024年07月24日 17:18:28
打破英偉達(dá)CUDA壁壘?AMD顯卡現(xiàn)在也能無縫適配CUDA了
電子發(fā)燒友網(wǎng)報道(文/梁浩斌)一直以來,圍繞CUDA打造的軟件生態(tài),是英偉達(dá)在GPU領(lǐng)域最大的護(hù)城河,尤其是隨著目前AI領(lǐng)域的發(fā)展
英國公司實現(xiàn)英偉達(dá)CUDA軟件在AMD GPU上的無縫運行
7月18日最新資訊,英國創(chuàng)新科技企業(yè)Spectral Compute震撼發(fā)布了其革命性GPGPU編程工具包——“SCALE”,該工具包實現(xiàn)了英偉達(dá)CUDA軟件在AMD GPU上的無縫遷移與運行,標(biāo)志著在
英偉達(dá)GPU新品規(guī)劃與HBM市場展望
在COMPUTEX 2024主題演講中,英偉達(dá)(NVIDIA)公布了其GPU產(chǎn)品的未來規(guī)劃。據(jù)英偉達(dá)透露,B100、B200和GB200系列
進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片
計算工作負(fù)載、釋放百億億次計算能力和萬億參數(shù)人工智能模型的全部潛力提供關(guān)鍵基礎(chǔ)。
NVLink釋放數(shù)萬億參數(shù)AI模型的加速性能,顯著提升大型多GPU
發(fā)表于 05-13 17:16
英偉達(dá)、AMD、英特爾GPU產(chǎn)品及優(yōu)勢匯總
電子發(fā)燒友網(wǎng)報道(文/李彎彎)隨著人工智能技術(shù)的快速發(fā)展,GPU的市場規(guī)模在全球范圍內(nèi)持續(xù)提升。目前,GPU市場主要由英偉達(dá)、AMD和英特爾等幾家大公司主導(dǎo)。其中,
國內(nèi)GPU新勢力:能否成為英偉達(dá)的“終結(jié)者”?
在當(dāng)今的信息技術(shù)時代,圖形處理器(GPU)和人工智能(AI)加速卡在計算領(lǐng)域中扮演著至關(guān)重要的角色。英偉達(dá)(NVIDIA),作為全球
英偉達(dá)發(fā)布性能大幅提升的新款B200 AI GPU
英偉達(dá)宣稱,B200在性能上比以往最好的GPU快30倍不止。由它構(gòu)成的服務(wù)器集群相比上一代,運算能力飛躍性提升,甚至能使大語言模型的訓(xùn)練速度
評論