GTC 2023上黃仁勛談AI ChatGPT僅是一個起點NVIDIA將AI引入各行各業
ChatGPT是非常火爆但是;
ChatGPT僅是一個起點。
從 AI訓練到部署,從半導體到軟件庫,從系統到云服務,黃仁勛闡述了全新一代的諸多技術突破將如何實現觸手可及;比如在摩爾定律接近物理極限之際,半導體行業要怎么做?借助AI?我們來看看NVIDIA CEO 黃仁勛介紹 AI 的最新進展,以及這些技術如何影響每個行業和日常生活。
此外黃仁勛圍繞AI、量子計算、芯片等前沿科技,發布了一系列前沿技術和產品。包括:L4Tensor CoreGPU、L40 GPU、H100 NVL GPU和Grace Hopper超級芯片。
正如NVIDIA創始人兼首席執行官黃仁勛所說,計算正在以“光速”發展。黃仁勛于今日宣布與谷歌、微軟、Oracle等一眾領軍企業開展廣泛的合作,為各行各業帶來新的AI、模擬和協作能力。甚至英偉達也正在與全球量子計算機產業IQM、PASQAL等廠商進行合作。
還有非常的生態合作伙伴,比如騰訊、百度、京東、微軟、甲骨文等行業巨頭,已經采用BlueField數據中心加速平臺。
黃仁勛在NVIDIA GTC大會主題演講中表示:“如果把加速計算比作曲速引擎,那么AI就是動力來源。生成式 AI 的非凡能力,使得公司產生了緊迫感,他們需要重新構思產品和商業模式。”
作為這場為期四天活動的主題演講,黃仁勛在長達78分鐘的演講中概述了NVIDIA及其合作伙伴如何提供訓練和部署尖端AI服務所需的各種技術。他發布了全新的半導體和軟件庫以推動行業新突破,以及一套完整的系統和服務,幫助各類初創公司及企業將這些創新在全球發揮作用。
黃仁勛在演講中用生動的例子說明了該生態系統的作用。他宣布NVIDIA和微軟將把數億Microsoft 365和Azure用戶連接到一個用于構建和操作超現實虛擬世界的平臺,并介紹了亞馬遜如何使用復雜的模擬能力訓練新的自主倉庫機器人。他還談到ChatGPT等最近大火的新一代生成式AI服務的興起。
在強調NVIDIA創新成果的基礎作用時,黃仁勛詳細介紹了NVIDIA在計算光刻技術領域所取得的突破,以及與ASML、TSMC和Synopsis的合作,這些將為制造高效、強大的新一代2納米半導體奠定基礎。
黃仁勛表示,加速計算和AI的出現恰逢其時。摩爾定律正在放緩,各個行業正在應對可持續發展,生成式AI以及數字化等強大的動態挑戰。“各個行業的企業正在競相進行數字化轉型,希望成為軟件驅動的技術公司,成為行業顛覆者而不是被顛覆者。”
加速計算可助力企業應對這些挑戰。黃仁勛表示:“加速是重獲優勢、實現可持續發展,以及達到凈零排放的最佳途徑。”
圖源 NVIDIA官網直播
GTC:行業領先的AI大會
進入到第14個年頭的GTC已成為全球最重要的AI大會之一。本次大會有超過650場會議,演講嘉賓包括來自DeepMind、Adobe、Netflix、蘇黎世聯邦理工學院等企業和機構的行業領導者,此外,本屆大會還有一場黃仁勛和OpenAI聯合創始人Ilya Sutskever的爐邊談話,ChatGPT正是OpenAI的產品。
超過25萬名注冊用戶將深入參與GTC各個主題的會議,其中涵蓋如何修復2000年前失傳的羅馬馬賽克、建造未來工廠、用新一代大型望遠鏡探索宇宙、通過重新排列分子加速藥物研發、以及70多場關于生成式AI的講座等。
AI的 iPhone時刻
NVIDIA技術是AI的基礎,黃仁勛講述了NVIDIA如何在生成式AI變革初期就已參與進來。早在2016年,他就向OpenAI親手交付了第一臺NVIDIA DGX AI超級計算機——支持 ChatGPT 的大型語言模型突破背后的引擎。
去年年底推出的ChatGPT幾乎在一夜之間爆火,吸引了超過1億用戶,成為有史以來增長最快的應用。黃仁勛認為 “我們正處于AI的 iPhone時刻 ”。
黃仁勛表示,最初作為AI研究儀器使用的NVIDIA DGX超級計算機現已在世界各地的企業中全天候運行,用于完善數據和處理AI。《財富》100強企業中有一半都安裝了DGX AI超級計算機。
“DGX超級計算機是現代AI工廠”。
用于數據中心的NVIDIA H100、Grace Hopper和Grace
黃仁勛表示,類似ChatGPT大型語言模型(LLM)的部署是一個重要的全新推理工作負載。為了支持像ChatGPT這樣的大型語言模型推理,黃仁勛發布了一款新的GPU——帶有雙GPU NVLink的H100 NVL。
基于NVIDIA Hopper架構的H100配有一個Transformer引擎,旨在處理驅動ChatGPT的類似GPT模型。與用于GPT-3處理的HGX A100相比,配備四對H100與雙GPU NVLink的標準服務器的速度最高可達10倍。
黃仁勛表示:“H100可以將大型語言模型的處理成本降低一個數量級。”
在過去十年中,云計算每年增長20%并已發展成為一個萬億美元的產業。NVIDIA為這個AI和云優先的世界設計了Grace CPU,其中AI工作負載由GPU加速。Grace正在進行樣品調測。
通過900GB/s高速芯片對芯片的接口,NVIDIA Grace Hopper超級芯片可連接Grace CPU和Hopper GPU。黃仁勛解釋說,“ Grace Hopper是處理超大型數據集的理想選擇,比如用于推薦系統的AI數據庫和大型語言模型。”
“客戶希望構建規模大幾個數量級的AI數據庫,那么Grace Hopper是最理想的引擎。”
DGX是構建AI基礎設施的藍圖
最新版本的DGX搭載8個NVIDIA H100 GPU,它們連接成為一個巨大的GPU。黃仁勛表示:“NVIDIA DGX H100是全球客戶構建AI基礎設施的藍圖”,現已全面投入生產。
H100 AI超級計算機現已開始上線。Oracle Cloud Infrastructure宣布配備 H100 GPU 的新 OCI Compute 裸機 GPU 實例在一定條件可用。
此外,亞馬遜云科技發布了即將推出的P5實例 EC2 UltraClusters,其規模可擴展到2萬個互連的H100 GPU。
上周,微軟 Azure 發布了其 H100 虛擬機 ND H100 v5 的私人預覽版。
Meta 現已為其內部的 AI 生產和研究團隊部署了由 H100 驅動的 Grand Teton AI 超級計算機。
OpenAI 將在其 Azure 超級計算機上使用 H100來支持其持續進行的AI研究。
提供 H100 的其他合作伙伴包括 Cirrascale 和 CoreWeave,這兩家公司今天都宣布全面上市。此外,Google Cloud、Lambda、Paperspace 和 Vult 都計劃提供 H100。
DGX Cloud:隨時隨地將AI帶給每家公司
為了加快把DGX能力帶給初創企業和其他各類企業,以助力其快速打造新產品和制定AI戰略,黃仁勛發布了NVIDIA DGX Cloud。通過與微軟Azure、Google Cloud和Oracle Cloud Infrastructure合作,“從瀏覽器上” 即可實現將NVIDIA DGX AI超級計算機 “帶給每家公司”。
DGX Cloud經過優化可以運行NVIDIA AI Enterprise,這款全球領先的加速軟件套件將推動AI端到端開發和部署。黃仁勛表示:“DGX Cloud為客戶提供 NVIDIA AI和世界領先云服務提供商的出色服務。”
NVIDIA正與領先的云服務提供商一起托管DGX Cloud基礎設施,Oracle Cloud Infrastructure是最早合作的云服務提供商。微軟Azure預計將在下個季度開始托管DGX Cloud,該服務將很快擴展到Google Cloud等。
黃仁勛表示,此次合作將NVIDIA的生態系統帶給云服務提供商,同時擴大了NVIDIA的規模和影響力。企業將能夠按月租用DGX Cloud集群以便快速、輕松地擴展大型多節點訓練工作負載的開發。
賦能生成式AI
為了加速企業使用生成式AI的工作,黃仁勛發布了NVIDIA AI Foundations云服務系列,為需要構建、完善和運行自定義大型語言模型及生成式AI的客戶提供服務,他們通常使用專有數據進行訓練并完成特定領域的任務。
AI Foundations服務包括NVIDIA NeMo,用于構建自定義語言文本-文本轉換生成模型;Picasso視覺語言模型制作服務,適用于想要構建使用授權或專有內容訓練而成的自定義模型的客戶;以及BioNeMo,助力2萬億美元規模的藥物研發行業的研究人員。
Adobe正與NVIDIA一起構建一整套用于未來創作工作的新一代AI。
Getty Images正在與NVIDIA一起訓練負責任的生成式文本-圖像,以及文本-視頻轉換基礎模型。
Shutterstock正在與NVIDIA一起訓練一個生成式文本-3D轉換基礎模型,以簡化詳細3D資產的創建。
推動醫療的進步
NVIDIA宣布,Amgen正在使用BioNeMo加速其藥物研發服務。其他BioNemo的搶先體驗客戶包括Alchemab Therapeutics、AstraZeneca、Evozyne、Innophore和Insilico。
黃仁勛解釋說,BioNeMo幫助研究人員使用他們的專有數據創建、微調和提供自定義模型。
此外,黃仁勛宣布,NVIDIA和全球最大的醫療技術提供商Medtronic正在一起為軟件定義醫療設備構建一個AI平臺。此次合作將為Medtronic系統創建一個涵蓋手術導引和機器人輔助手術的通用平臺。
Medtronic今日宣布,其GI Genius系統使用AI實現了結腸癌早期檢測。該系統建立在用于實時傳感器處理系統的軟件庫NVIDIA Holoscan之上,并將于今年年底左右出貨。
黃仁勛表示:“全球2500億美元的醫療儀器市場正在轉型。”
加快生成式AI應用的部署
為了幫助企業部署處于快速發展的生成式AI模型,黃仁勛發布了用于AI視頻、圖像生成、大型語言模型部署和推薦器推理的推理平臺。這些平臺將NVIDIA的全套推理軟件與最新的NVIDIA Ada、Hopper和Grace Hopper處理器相結合,包括同時在今天推出的NVIDIA L4 Tensor Core GPU和NVIDIA H100 NVL GPU。
用于AI視頻的NVIDIA L4可提供比CPU高出120倍的由AI支持的視頻性能,同時提高99%的能效。
用于圖像生成的NVIDIA L40針對圖形以及AI賦能的2D、視頻和3D圖像生成進行了優化。
用于大型語言模型部署的NVIDIA H100 NVL是規模化部署ChatGPT等大型語言模型的理想選擇。
用于推薦模型的NVIDIA Grace Hopper是圖形推薦模型、矢量數據庫和圖形神經網絡的理想選擇。
Google Cloud是首家向客戶提供L4的云服務提供商。該公司已推出新的G2虛擬機并在今日提供私人預覽版。谷歌還將L4集成到其Vertex AI模型商店中。
微軟與NVIDIA一起將Omniverse帶給數億用戶
黃仁勛宣布,NVIDIA 正在與微軟合作,將 NVIDIA Omniverse Cloud 這一完全托管的云服務引入全球各行各業,并推出又一項云服務以加速企業實現前所未有的模擬和協作能力。
黃仁勛表示:“微軟和NVIDIA將為數億Microsoft 365和Azure用戶提供Omniverse” 。他同時還發布了最新NVIDIA OVX服務器、搭載NVIDIA RTX Ada Generation GPU的新一代工作站,以及英特爾為NVIDIA Omniverse優化的最新CPU。
為了展示為3D設計協作及數字孿生模擬而構建的開放平臺NVIDIA Omniverse的強大功能,黃仁勛分享了一段視頻,展示了NVIDIA Isaac Sim如何通過完全保真的數字孿生幫助亞馬遜節省時間和金錢。NVIDIA Isaac Sim是在Omniverse基礎上構建的機器人模擬和合成生成平臺。
該視頻展示了亞馬遜如何為其第一個完全自主的倉庫機器人Proteus編排動作,使其能夠在亞馬遜的巨大倉庫中與人類和其他機器人一起搬運裝有產品的箱子。
助力3萬億美元規模汽車產業的數字化
為了展示Omniverse的能力,黃仁勛深入介紹了Omniverse在3萬億美元汽車產業數字化中的作用。黃仁勛表示,到2030年,汽車制造商將建立300家工廠,生產2億輛電動汽車,而電池制造商正在建設100家巨型工廠。他表示:“數字化將提高該行業的效率、生產力和速度。”
談到Omniverse在整個行業的應用,黃仁勛表示,Lotus正在使用Omniverse以虛擬方式組裝焊接站。梅賽德斯-奔馳使用Omniverse為新車型建立、優化和規劃裝配線。Rimac和Lucid Motors在Omniverse上使用真實設計數據創建數字商店,以實現對汽車逼真的描繪。
寶馬與Idealworks合作,使用Omniverse中的Isaac Sim生成訓練工廠機器人的合成數據和場景。黃仁勛表示,寶馬正在使用Omniverse規劃全球工廠的運營,在實際工廠開業兩年之前,他們會在 Omniverse 中完整建造一間新的電動汽車工廠。
NVIDIA 還宣布全球領先的新能源汽車制造商比亞迪將在其更廣泛的車型中擴展對 NVIDIA DRIVE Orin 集中式計算平臺的使用。
加速半導體行業的突破
黃仁勛宣布,隨著當前生產工藝接近物理學的極限,NVIDIA cuLitho將助力ASML、TSMC和Synopsis等半導體領導者加速新一代芯片的設計和制造。這項突破將加速計算引入到計算光刻領域。
全球領先的代工廠TSMC,以及電子設計自動化領域的領導者Synopsys正在將全新的NVIDIA cuLitho計算光刻技術軟件庫整合到最新一代NVIDIA Hopper架構GPU的軟件、制造工藝和系統中。
設備制造商 ASML正在GPU和cuLitho方面與NVIDIA展開合作,并計劃在其所有計算光刻軟件產品中加入對GPU的支持。黃仁勛表示,光刻技術已臨近物理極限,NVIDIA推出的cuLitho可為行業的2納米及更高工藝奠定基礎。
他表示:“芯片產業幾乎是每一個行業的基礎。”
加速全球大型企業的發展
眾多知名的全球企業均支持黃仁勛的愿景。
電信巨頭AT&T采用NVIDIA AI,以實現更高效地數據處理。同時,他們正在測試Omniverse ACE和Tokkio AI虛擬化身工作流為客服部門及其員工幫助臺建立、定制和部署虛擬助手。
美國運通、美國郵政署、Microsoft Office和Teams以及亞馬遜等4萬家客戶都在使用高性能的NVIDIA TensorRT推理優化器和運行時,以及多框架數據中心推理服務軟件NVIDIA Triton。
Uber 使用 Triton 實現每秒為數十萬車輛預測到達時間。
擁有超過6000萬日活用戶的Roblox使用Triton提供游戲推薦模型、構建頭像、審核內容和市場廣告。
微軟、騰訊和百度都在使用NVIDIA CV-CUDA實現AI計算機視覺。這項目前處于公測階段的技術可優化前處理和后處理,節省4倍成本和能耗。
助力完成不可能的任務
在演講尾聲,黃仁勛向NVIDIA的系統、云和軟件合作伙伴以及研究人員、科學家和員工致謝。
黃仁勛宣布,NVIDIA已更新了100個加速庫,包括用于量子計算的cuQuantum和新開源的CUDA Quantum、用于組合優化的cuOpt以及用于計算光刻的cuLitho。
黃仁勛表示,全球NVIDIA生態目前已有400萬名開發者、4萬家公司和NVIDIA 初創加速計劃中的1.4萬家初創企業。
“我們正在助力全球完成不可能的任務。”
-
NVIDIA
+關注
關注
14文章
4986瀏覽量
103067 -
AI
+關注
關注
87文章
30897瀏覽量
269116 -
黃仁勛
+關注
關注
9文章
91瀏覽量
56480 -
gtc
+關注
關注
0文章
73瀏覽量
4427 -
ChatGPT
+關注
關注
29文章
1561瀏覽量
7675
發布評論請先 登錄
相關推薦
評論