在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

利用NVIDIA HGX H100加速計算數據中心平臺應用

星星科技指導員 ? 來源:NVIDIA ? 作者:William Tsu ? 2022-04-20 10:54 ? 次閱讀

NVIDIA 的使命是加快我們的時代達芬奇和愛因斯坦的工作,并賦予他們解決社會的巨大挑戰。隨著 人工智能AI )、 高性能計算 ( HPC )和數據分析的復雜性呈指數級增長,科學家需要一個先進的計算平臺,能夠在一個十年內實現百萬次的加速,以解決這些非同尋常的挑戰。

為了回答這個需求,我們介紹了NVIDIA HGX H100 ,一個由 NVIDIA Hopper 架構 供電的密鑰 GPU 服務器構建塊。這一最先進的平臺安全地提供了低延遲的高性能,并集成了從網絡到數據中心級計算(新的計算單元)的全套功能。

在這篇文章中,我將討論NVIDIA HGX H100 是如何幫助我們加速計算數據中心平臺的下一個巨大飛躍。

HGX H100 8-GPU

HGX H100 8- GPU 是新一代 Hopper GPU 服務器的關鍵組成部分。它擁有八個 H100 張量核 GPU 和四個第三代 NV 交換機。每個 H100 GPU 都有多個第四代 NVLink 端口,并連接到所有四個 NVLink 交換機。每個 NVSwitch 都是一個完全無阻塞的交換機,完全連接所有八個 H100 Tensor Core GPU 。

The HGX H100 8-GPU represents the key building block of the new Hopper generation GPU server and hosts eight H100 Tensor Core GPUs and four third generation NVSwitch.

圖 1 。 HGX H100 8-GPU 的高級框圖

NVSwitch 的這種完全連接的拓撲結構使任何 H100 都可以同時與任何其他 H100 通話。值得注意的是,這種通信以每秒 900 千兆字節( GB / s )的 NVLink 雙向速度運行,這是當前 PCIe Gen4 x16 總線帶寬的 14 倍多。

第三代 NVSwitch 還為集體運營提供了新的硬件加速,多播和 NVIDIA 的網絡規模大幅縮減。結合更快的 NVLink 速度,像all-reduce這樣的普通人工智能集體操作的有效帶寬比 HGX A100 增加了 3 倍。集體的 NVSwitch 加速也顯著降低了 GPU 上的負載。

表 1 。將 HGX A100 8- GPU 與新的 HGX H100 8-GPU 進行比較

*注: FP 性能包括稀疏性

HGX H100 8- GPU 支持 NVLink 網絡

新興的 exascale HPC 和萬億參數人工智能模型(用于精確對話人工智能等任務)需要數月的訓練,即使是在超級計算機上。將其壓縮到業務速度并在數小時內完成培訓需要服務器集群中每個 GPU 之間的高速、無縫通信。

為了解決這些大的使用案例,新的 NVLink 和 NVSwitch 旨在使 HGX H100 8- GPU 能夠通過新的 NVLink 網絡擴展并支持更大的 NVLink 域。 HGX H100 8- GPU 的另一個版本具有這種新的 NVLink 網絡支持。

The HGX H100 8-GPU was designed to scale up to support a larger NVLink domain with the new NVLink-Network.

圖 2 。支持 NVLink 網絡的 HGX H100 8- GPU 的高級框圖

使用 HGX H100 8- GPU 和 NVLink 網絡支持構建的系統節點可以通過八進制小尺寸可插拔( OSFP ) LinkX 電纜和新的外部 NVLink 交換機完全連接到其他系統。此連接最多支持 256 個 GPU NVLink 域。圖 3 顯示了集群拓撲。

表 2 。比較 256 個 A100 GPU 吊艙和 256 個 H100 GPU 吊艙

*注: FP 性能包括稀疏性

目標用例和性能優勢

隨著 HGX H100 計算和網絡能力的大幅增加, AI 和 HPC 應用程序的性能得到了極大的提高。

今天的主流 AI 和 HPC 模型可以完全駐留在單個節點的聚合 GPU 內存中。例如, BERT -Large 、 Mask R-CNN 和 HGX H100 是最高效的培訓解決方案。

對于更先進、更大的 AI 和 HPC 模型,該模型需要多個聚合 GPU 內存節點才能適應。例如,具有 TB 級嵌入式表的深度學習推薦模型( DLRM )、大量混合專家( MoE )自然語言處理模型,以及具有 NVLink 網絡的 HGX H100 加速了關鍵通信瓶頸,是此類工作負載的最佳解決方案。

圖 4 來自 NVIDIA H100 GPU 體系結構 白皮書顯示了 NVLink 網絡帶來的額外性能提升。

所有性能數據都是基于當前預期的初步數據,可能會隨著運輸產品的變化而變化。 A100 集群: HDR IB 網絡。 H100 集群: NDR IB 網絡和 NVLink 網絡,如圖所示。

# GPU :氣候建模 1K , LQCD 1K ,基因組學 8 , 3D-FFT 256 , MT-NLG 32 (批次大小: A100 為 4 , 1 秒 H100 為 60 , A100 為 8 , 1.5 和 2 秒 H100 為 64 ), MRCNN 8 (批次 32 ), GPT-3 16B 512 (批次 256 ), DLRM 128 (批次 64K ), GPT-3 16K (批次 512 ), MoE 8K (批次 512 ,每個 GPU 一名專家)?

HGX H100 4-GPU

除了 8- GPU 版本外, HGX 系列還具有一個 4-GPU 版本,該版本直接與第四代 NVLink 連接。

H100 對 H100 點對點對等 NVLink 帶寬為 300 GB / s 雙向,比今天的 PCIe Gen4 x16 總線快約 5 倍。

HGX H100 4- GPU 外形經過優化,可用于密集 HPC 部署:

多個 HGX H100 4- GPU 可以裝在 1U 高液體冷卻系統中,以最大化每個機架的 GPU 密度。

帶有 HGX H100 4- GPU 的完全無 PCIe 交換機架構直接連接到 CPU ,降低了系統材料清單并節省了電源

對于 CPU 更密集的工作負載, HGX H100 4- GPU 可以與兩個 CPU 插槽配對,以提高 CPU 與 GPU 的比率,從而實現更平衡的系統配置。

人工智能和高性能計算的加速服務器平臺

NVIDIA 正與我們的生態系統密切合作,在今年晚些時候將基于 HGX H100 的服務器平臺推向市場。我們期待著把這個強大的計算工具交給你們,使你們能夠以人類歷史上最快的速度創新和完成你們一生的工作。

關于作者

William Tsu NVIDIA HGX 數據中心產品線的產品管理。他與客戶和合作伙伴合作,將世界上性能最高的人工智能、深度學習和 HPC 服務器平臺推向市場。威廉最初加入NVIDIA 是作為一名圖形處理器芯片設計師。他是最初的 PCI Express 行業標準規范的共同作者,也是 12 項專利的共同發明人。威廉獲得了他的學士學位,碩士學位在計算機科學和 MBA 從加利福尼亞大學,伯克利。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4996

    瀏覽量

    103223
  • 數據中心
    +關注

    關注

    16

    文章

    4794

    瀏覽量

    72194
  • 人工智能
    +關注

    關注

    1792

    文章

    47373

    瀏覽量

    238875
  • H100
    +關注

    關注

    0

    文章

    31

    瀏覽量

    294
收藏 人收藏

    評論

    相關推薦

    NIDA發布《智算數據中心網絡建設技術要求》

    Alliance,以下簡稱 “NIDA”)攜手中國信息通信研究院等9家組織成員共同發布了《智算數據中心網絡建設技術要求》(以下簡稱 “技術要求”)。該技術要求明確了智算場景下數據中心網絡建設的技術要求與執行標準,旨在加速企業智
    的頭像 發表于 12-04 11:13 ?375次閱讀

    Supermicro推出直接液冷優化的NVIDIA Blackwell解決方案

    機架中的NVIDIA HGX B200 8-GPU系統數量,與Supermicro目前領先業界的搭載NVIDIA HGX H100
    發表于 11-25 10:39 ?404次閱讀
    Supermicro推出直接液冷優化的<b class='flag-5'>NVIDIA</b> Blackwell解決方案

    華為致力于打造安全可靠的智算數據中心

    數據中心能源產品與解決方案亮相盛會,同時,華為數字能源數據中心能源及關鍵供電產品線副總裁陽必飛受邀參與此次盛會,并發表《智算數據中心建設之道》主題演講。 ? 站在AI時代、智算中心發展
    的頭像 發表于 11-23 14:05 ?320次閱讀

    NVIDIA向開放計算項目捐贈Blackwell平臺設計

    近日,在美國加利福尼亞州舉行的 OCP 全球峰會上,NVIDIA 宣布已把 NVIDIA Blackwell 加速計算平臺的一些基礎元素捐贈
    的頭像 發表于 11-19 15:30 ?206次閱讀

    華迅光通AI計算加速800G光模塊部署

    400G光模塊。更多信息可以在這篇文章中找到:NVIDIA DGX H100簡介。這表明在葉脊架構下,數據中心對高速光模塊的需求呈指數級增長。隨著數據中心規模的擴大,特別是對AI大型模
    發表于 11-13 10:16

    英偉達H100芯片市場降溫

    隨著英偉達新一代AI芯片GB200需求的不斷攀升,其上一代明星產品H100芯片卻遭遇了市場的冷落。據業內人士透露,搭載H100的服務器通常以8卡的形式進行出售或出租,而在去年,這類服務器的售價普遍
    的頭像 發表于 10-28 15:42 ?625次閱讀

    計算數據中心的關系

    計算數據中心之間存在著密切且復雜的關系,它們相互依存、互相促進。 一、數據中心是云計算的基礎設施 數據中心是一整套復雜的設施,用于傳遞、
    的頭像 發表于 10-24 16:15 ?475次閱讀

    利用NVIDIA RAPIDS加速DolphinDB Shark平臺提升計算性能

    DolphinDB 是一家高性能數據庫研發企業,也是 NVIDIA 初創加速計劃成員,其開發的產品基于高性能分布式時序數據庫,是支持復雜計算
    的頭像 發表于 09-09 09:57 ?478次閱讀
    <b class='flag-5'>利用</b><b class='flag-5'>NVIDIA</b> RAPIDS<b class='flag-5'>加速</b>DolphinDB Shark<b class='flag-5'>平臺</b>提升<b class='flag-5'>計算</b>性能

    SK電訊將與Lambda合作打造AI數據中心

    韓國領先的電信巨頭SK電訊(SK Telecom)宣布了一項重要合作計劃,將與美國知名的云GPU服務提供商Lambda攜手,于2024年12月在首爾共同推出一個先進的人工智能(AI)數據中心。該中心將依托英偉達最新一代的H100
    的頭像 發表于 08-23 17:29 ?1306次閱讀

    Supermicro推出適配NVIDIA Blackwell和NVIDIA HGX H100/H200的機柜級即插即用液冷AI SuperCluster

    制造商,推出可立即部署式液冷型AI數據中心。此數據中心專為云原生解決方案而設計,通過SuperCluster加速各界企業對生成式AI的運用,并針對NVIDIA AI Enterpris
    發表于 06-07 15:12 ?280次閱讀
    Supermicro推出適配<b class='flag-5'>NVIDIA</b> Blackwell和<b class='flag-5'>NVIDIA</b> <b class='flag-5'>HGX</b> <b class='flag-5'>H100</b>/<b class='flag-5'>H</b>200的機柜級即插即用液冷AI SuperCluster

    首批1024塊H100 GPU,正崴集團將建中國臺灣最大AI計算中心

    中國臺灣當地正崴集團5月27日宣布,將與日本公司Ubitus共同打造人工智能(AI)計算中心,其中第一期將導入128個機柜,共計1024張英偉達H100旗艦計算卡,旨在構建臺灣最大的AI計算中
    的頭像 發表于 05-29 10:05 ?1150次閱讀

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    冷卻技術,提高計算密度,減少占地面積,并通過高帶寬、低延遲的GPU通信,有效減少數據中心的碳足跡和能源消耗。相較于傳統的NVIDIA H100風冷基礎設施,GB200在相同功耗下實現2
    發表于 05-13 17:16

    NVIDIA 通過 CUDA-Q 平臺為全球各地的量子計算中心提供加速

    德國、日本和波蘭的超級計算利用 Grace-Hopper 和量子-經典加速超算平臺推進量子計算研究 ? ? 德國漢堡 —— 國際超算大會(
    發表于 05-13 15:21 ?201次閱讀
    <b class='flag-5'>NVIDIA</b> 通過 CUDA-Q <b class='flag-5'>平臺</b>為全球各地的量子<b class='flag-5'>計算中心</b>提供<b class='flag-5'>加速</b>

    英偉達H200和H100的比較

    英偉達H200和H100是兩款不同的AI芯片,它們各自具有獨特的特點和優勢。以下是關于這兩款芯片的一些比較。
    的頭像 發表于 03-07 15:53 ?4718次閱讀

    瀾起科技津逮服務器平臺數據中心帶來卓越的安全與性能

    津逮?服務器平臺,一款由瀾起科技精心打造的云計算數據中心解決方案,旨在為關鍵領域提供卓越的數據運算安全性和穩定性。該平臺集成了津逮?CPU和混合安全內存模組(HSDIMM?)兩大核心組
    的頭像 發表于 01-31 11:43 ?1384次閱讀
    主站蜘蛛池模板: 天天草天天干| 天天操操操操操操| 免费国产黄网站在线观看视频| 欧美一级色| 毛片高清一区二区三区| 国模伊人| 一级午夜| 日本free护士姓交| 成人免费午间影院在线观看| 欧美性色综合网| 免费观看做网站爱| 午夜爽爽| 欧美三级手机在线| 国产特级| 天堂资源在线最新版| 高清成年美女xx免费网站黄| 22eee在线播放成人免费视频| 男人一级片| 天堂网www最新版在线资源| 欧美freesex交| www我要色综合com| 免费a级午夜绝情美女视频| 午夜h视频| 激情丁香婷婷| 丁香婷婷色| 欧美天天在线| 5252a我爱haose01亚洲| 在线观看一级毛片| 欧美色视频日本| h录音 国产 在线| 久久免费福利视频| 婷婷在线网| 色多多网| 播播开心激情网| 国产特黄一级一片免费| 午夜免费网址| 色丁香六月| bt天堂资源种子在线| 久草五月| 高h水果榨汁play男男| 欧美一级免费片|