洛杉磯 — SIGGRAPH — 2023 年 8 月 8 日 — NVIDIA 與 Hugging Face 宣布建立合作伙伴關系,為數百萬開發者提供生成式 AI 超級計算服務,幫助他們構建大語言模型(LLM)和其他高級 AI 應用。
此次合作將使開發者能夠使用 Hugging Face 平臺內的 NVIDIA DGX? Cloud AI 超級計算為高級 AI 模型進行訓練及調優,借助為智能聊天機器人、搜索、摘要等特定行業應用的業務數據定制的大語言模型(LLM),推動生成式 AI 在各個行業中的應用。
NVIDIA 創始人兼首席執行官黃仁勛表示:“研究人員和開發者是正在改變每個行業的生成式 AI 的核心力量。Hugging Face 與 NVIDIA 正在將全球最大的 AI 社區與 NVIDIA 在全球領先云環境中的 AI 計算平臺相連接。通過雙方的合作,Hugging Face 社區用戶只需要點擊一下鼠標,就可以使用 NVIDIA AI 計算。”
作為合作的一部分,Hugging Face 將提供一項名為“訓練集群即服務(Training Cluster as a Service)”的新服務,用以簡化企業創建新的自定義生成式 AI 模型的過程。該服務由 NVIDIA DGX Cloud 提供支持,將在未來幾個月內推出。
Hugging Face 聯合創始人兼首席執行官 Clément Delangue 表示:“世界各地的人們正在利用生成式 AI 工具建立新的聯系,進行新的探索,而我們仍處于這一技術轉型的早期階段。雙方的合作將為 Hugging Face 帶來 NVIDIA 最先進的 AI 超級計算,使企業能夠通過開源并以他們需要的速度將 AI 的命運牢牢掌握在自己手中,推動未來發展。”
在Hugging Face 中大幅增強 LLM 定制和訓練功能
Hugging Face 平臺讓開發者能夠利用開源資源構建、訓練和部署最先進的 AI 模型。目前有超過 15,000 家企業機構正在使用 Hugging Face,社區共享了超過 25 萬個模型和 5 萬個數據集。
DGX Cloud 與 Hugging Face 的集成將實現對 NVIDIA 多節點 AI 超級計算平臺的一鍵式訪問。通過 DGX Cloud,Hugging Face 用戶將能夠連接到 NVIDIA AI 超級計算,提供利用獨家數據快速訓練和調整基礎模型所需的軟件和基礎架構,推動新一輪企業大語言模型(LLM)開發浪潮。借助由 DGX Cloud 提供支持的訓練集群即服務,企業將能夠利用其在 Hugging Face 上的獨家數據,以前所未有的速度創建出獨一無二的高效模型。
DGX Cloud 為大規模模型加速開發和定制
每個 DGX Cloud 實例均配備 8 顆 NVIDIA H100 或 A100 80GB Tensor Core GPU,每個節點的 GPU 總內存為 640GB。NVIDIA Networking 所提供的高性能、低延遲結構確保工作負載能夠在互聯系統集群中進行擴展,從而滿足高級 AI 工作負載的性能要求。
DGX Cloud 還提供 NVIDIA 專家支持,可幫助客戶優化模型并快速解決開發難題。
DGX Cloud 基礎設施由領先的 NVIDIA 云服務提供商合作伙伴托管。
供應情況
與 Hugging Face 集成的 NVIDIA DGX Cloud 預計將在未來幾個月內推出。
-
NVIDIA
+關注
關注
14文章
4986瀏覽量
103055 -
超級計算
+關注
關注
1文章
39瀏覽量
11288 -
人工智能
+關注
關注
1791文章
47279瀏覽量
238497 -
生成式AI
+關注
關注
0文章
504瀏覽量
475
發布評論請先 登錄
相關推薦
評論