英偉達(dá)在計(jì)算機(jī)圖形學(xué)頂會(huì) SIGGRAPH 2023 上發(fā)布了專為生成式 AI 打造的下一代 GH200 Grace Hopper 平臺(tái),并推出了 OVX 服務(wù)器、AI Workbench 等一系列重磅更新。
五年前,也是在 SIGGRAPH 大會(huì)的演講中,英偉達(dá)宣布將 AI 和實(shí)時(shí)光線追蹤引入 GPU ,可以說(shuō),當(dāng)時(shí)的這個(gè)決定重塑了計(jì)算圖形學(xué)。
「我們意識(shí)到光柵化已經(jīng)達(dá)到了極限,」黃仁勛表示:「這要求我們重塑硬件、軟件和算法。在我們用 AI 重塑 CG 的同時(shí),也在為 AI 重塑 GPU。」
預(yù)言應(yīng)驗(yàn)了:幾年來(lái),計(jì)算系統(tǒng)變得越來(lái)越強(qiáng)大,例如 NVIDIA HGX H100,它利用 8 個(gè) GPU 和總共 1 萬(wàn)億個(gè)晶體管,與基于 CPU 的系統(tǒng)相比,提供了顯著的加速。
「這就是世界數(shù)據(jù)中心迅速轉(zhuǎn)向加速計(jì)算的原因,」在今年的 SIGGRAPH 大會(huì),黃仁勛重申:「The more you buy, the more you save.」
如今,訓(xùn)練越來(lái)越大的生成式 AI 模型所需的計(jì)算未必由具有一定 GPU 能力的傳統(tǒng)數(shù)據(jù)中心來(lái)完成,而是要依靠像 H100 這樣從一開始就為大規(guī)模運(yùn)算而設(shè)計(jì)的系統(tǒng)。可以說(shuō),AI 的發(fā)展在某種程度上只受限于這些計(jì)算資源的可用性。
但黃仁勛斷言,這僅僅是個(gè)開始。新模型不僅需要訓(xùn)練時(shí)的計(jì)算能力,還需要實(shí)現(xiàn)由數(shù)百萬(wàn)甚至數(shù)十億用戶實(shí)時(shí)運(yùn)行的計(jì)算能力。
「未來(lái),LLM 將出現(xiàn)在幾乎所有事物的前端:人類就是新的編程語(yǔ)言。從視覺(jué)效果到快速數(shù)字化的制造市場(chǎng)、工廠設(shè)計(jì)和重工業(yè),一切都將采用自然語(yǔ)言界面。」黃仁勛表示。
在這場(chǎng)一個(gè)多小時(shí)的演講中,黃仁勛帶來(lái)了一系列新發(fā)布,全部面向「生成式 AI」。
更強(qiáng)的 GH200 Grace Hopper 超級(jí)芯片平臺(tái)
英偉達(dá)的 Grace Hopper 超級(jí)芯片 NVIDIA GH200 結(jié)合了 72 核 Grace CPU 和 Hopper GPU,并已在 5 月全面投入生產(chǎn)。
現(xiàn)在,黃任勛又宣布 Grace Hopper 超級(jí)芯片將配備 HBM3e 高帶寬內(nèi)存(HBM3e 比當(dāng)前的 HBM3 快 50%),下一代 GH200 Grace Hopper 平臺(tái)將大幅提升生成式 AI 的計(jì)算速度。
全新的 GH200 內(nèi)存容量將增加至原有的 3.5 倍,帶寬增加至 3 倍,包含一臺(tái)具有 144 個(gè) Arm Neoverse 核心、282GB HBM3e 內(nèi)存的服務(wù)器,提供 8 petaflops 的 AI 算力。
為了提升大模型的實(shí)際應(yīng)用效率,生成式 AI 模型的工作負(fù)載通常涵蓋大型語(yǔ)言模型、推薦系統(tǒng)和向量數(shù)據(jù)庫(kù)。GH200 平臺(tái)旨在全面處理這些工作負(fù)載,并提供多種配置。
英偉達(dá)表示,這款名為 GH200 的超級(jí)芯片將于 2024 年第二季度投產(chǎn)。
Nvidia AI Workbench,模型即服務(wù)
此外,為了加快全球企業(yè)定制化采用生成式 AI,老黃宣布英偉達(dá)即將推出 Nvidia AI Workbench。
盡管很多預(yù)訓(xùn)練模型都是開源的,但使其定制化服務(wù)自身業(yè)務(wù)仍然具有挑戰(zhàn)性。AI Workbench 減輕了企業(yè) AI 項(xiàng)目入門的復(fù)雜程度,將所有必要的企業(yè)級(jí)模型、框架、軟件開發(fā)套件和庫(kù)整合到統(tǒng)一的 workspace 之中。
只需要在本地系統(tǒng)上運(yùn)行的簡(jiǎn)化界面進(jìn)行點(diǎn)擊,AI Workbench 就能讓開發(fā)者使用自定義數(shù)據(jù)微調(diào) Hugging Face、GitHub 和 NGC 等流行存儲(chǔ)庫(kù)中的模型,然后將其擴(kuò)展到數(shù)據(jù)中心、公有云或 Nvidia DGX 云。
黃仁勛還宣布英偉達(dá)將與 Hugging Face 合作,開發(fā)人員將能夠訪問(wèn) Hugging Face 平臺(tái)中的 NVIDIA DGX Cloud AI 超級(jí)計(jì)算來(lái)訓(xùn)練和調(diào)整 AI 模型。這將使數(shù)百萬(wàn)構(gòu)建大型語(yǔ)言模型和其他高級(jí) AI 應(yīng)用程序的開發(fā)人員能夠輕松實(shí)現(xiàn)生成式 AI 超級(jí)計(jì)算。
「這將是一項(xiàng)全新的服務(wù),將世界上最大的人工智能社區(qū)與世界上最好的訓(xùn)練和基礎(chǔ)設(shè)施連接起來(lái),」黃仁勛表示。
全新的 RTX 工作站和 Omniverse
老黃還宣布,英偉達(dá)與 BOXX、戴爾科技、惠普和聯(lián)想等工作站制造商合作,打造了一系列全新的高性能 RTX 工作站。
最新發(fā)布的 RTX 工作站提供多達(dá)四個(gè)英偉達(dá) RTX 6000 Ada GPU,每個(gè) GPU 配備 48GB 內(nèi)存。單個(gè)桌面工作站可提供高達(dá) 5828 TFLOPS 的性能和 192GB 的 GPU 內(nèi)存。
根據(jù)用戶需求,這些系統(tǒng)可配置 Nvidia AI Enterprise 或 Omniverse Enterprise 軟件,為各種要求苛刻的生成式 AI 和圖形密集型工作負(fù)載提供必要的動(dòng)力。這些新發(fā)布預(yù)計(jì)將于秋季推出。
新發(fā)布的 Nvidia AI Enterprise 4.0 引入了 Nvidia NeMo,這是一個(gè)用于構(gòu)建和定制生成式 AI 基礎(chǔ)模型的端到端框架。它還包括用于數(shù)據(jù)科學(xué)的 Nvidia Rapids 庫(kù),并為常見(jiàn)企業(yè) AI 用例(例如推薦器、虛擬助理和網(wǎng)絡(luò)安全解決方案)提供框架、預(yù)訓(xùn)練模型和工具。
工業(yè)數(shù)字化平臺(tái) Omniverse Enterprise 是 Nvidia 生態(tài)系統(tǒng)的另一個(gè)組成部分,讓團(tuán)隊(duì)能夠開發(fā)可互操作的 3D 工作流程和 OpenUSD 應(yīng)用程序。Omniverse 利用其 OpenUSD 原生平臺(tái),使全球分布的團(tuán)隊(duì)能夠協(xié)作處理來(lái)自數(shù)百個(gè) 3D 應(yīng)用程序的完整設(shè)計(jì)保真度數(shù)據(jù)集。
此次英偉達(dá)主要升級(jí)了 Omniverse Kit(用于開發(fā)原生 OpenUSD 應(yīng)用和擴(kuò)展程序的引擎),以及 NVIDIA Omniverse Audio2Face 基礎(chǔ)應(yīng)用和空間計(jì)算功能。開發(fā)者可以輕松地利用英偉達(dá)提供的 600 多個(gè)核心 Omniverse 擴(kuò)展程序來(lái)構(gòu)建自定義應(yīng)用。
作為發(fā)布的一部分,英偉達(dá)還推出了三款全新的桌面工作站 Ada Generation GPU:Nvidia RTX 5000、RTX 4500 和 RTX 4000。
全新 NVIDIA RTX 5000、RTX 4500 和 RTX 4000 桌面 GPU 采用最新的 NVIDIA Ada Lovelace 架構(gòu)技術(shù)。其中包括增強(qiáng)的 NVIDIA CUDA 核心(用于增強(qiáng)單精度浮點(diǎn)吞吐量)、第三代 RT 核心(用于改進(jìn)光線追蹤功能)以及第四代 Tensor 核心(用于更快的 AI 訓(xùn)練性能)。
Nvidia RTX 5000 Ada 一代 GPU。
這幾款 GPU 還支持 DLSS 3,為實(shí)時(shí)圖形提供更高水平的真實(shí)感和交互性,以及更大的 GPU 內(nèi)存選項(xiàng),用于大型 3D 模型、渲染圖像、模擬和 AI 數(shù)據(jù)集的無(wú)差錯(cuò)計(jì)算。此外,它們還提供擴(kuò)展現(xiàn)實(shí)功能,以滿足創(chuàng)建高性能 AR、VR 和混合現(xiàn)實(shí)內(nèi)容的需求。
因?yàn)榕鋫淞说谌?RT Core,這幾款 GPU 的吞吐量高達(dá)上一代的 2 倍,使用戶能夠?qū)崟r(shí)處理更大、保真度更高的圖像,將應(yīng)用于藝術(shù)創(chuàng)作和設(shè)計(jì)生產(chǎn)。
RTX 5000 GPU 已經(jīng)上市,并由 HP 和分銷合作伙伴發(fā)貨,而 RTX 4500 和 RTX 4000 GPU 將于秋季從 BOXX、Dell Technologies、HP、Lenovo 及其各自的分銷合作伙伴上市。
Nvidia OVX 服務(wù)器
英偉達(dá)還推出了配備 Nvidia L40S GPU 的 Nvidia OVX 服務(wù)器,用于生成式 AI 和數(shù)字化時(shí)代的開發(fā)和內(nèi)容創(chuàng)作。
每臺(tái) Nvidia OVX 服務(wù)器將支持多達(dá) 8 個(gè) Nvidia L40S GPU,每個(gè) GPU 配備 48GB 內(nèi)存。L40S GPU 由 Nvidia Ada Lovelace GPU 架構(gòu)提供支持,擁有第四代張量核心和 FP8 Transformer 引擎,可實(shí)現(xiàn)超過(guò) 1.45 petaflops 的張量處理能力。
Nvidia L40S GPU。
在具有數(shù)十億參數(shù)和多種數(shù)據(jù)模式的生成式 AI 工作負(fù)載領(lǐng)域,與 Nvidia A100 Tensor Core GPU 相比,L40S GPU 的生成式 AI 推理性能提高了 1.2 倍,訓(xùn)練性能提高了 1.7 倍。這將更好地滿足 AI 訓(xùn)練和推理、3D 設(shè)計(jì)和可視化、視頻處理和工業(yè)數(shù)字化等計(jì)算密集型應(yīng)用的需求,加速多個(gè)行業(yè)的工作流程和服務(wù)。
審核編輯:劉清
-
NVIDIA技術(shù)
+關(guān)注
關(guān)注
0文章
17瀏覽量
6290 -
晶體管
+關(guān)注
關(guān)注
77文章
9701瀏覽量
138365 -
英偉達(dá)
+關(guān)注
關(guān)注
22文章
3780瀏覽量
91217 -
GPU芯片
+關(guān)注
關(guān)注
1文章
303瀏覽量
5832 -
NGC
+關(guān)注
關(guān)注
0文章
8瀏覽量
3848
原文標(biāo)題:超級(jí)芯片GH200發(fā)布,AI算力是H100兩倍
文章出處:【微信號(hào):AI_Architect,微信公眾號(hào):智能計(jì)算芯世界】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論