隨著微軟 Ignite 2023 技術(shù)大會的召開,NVIDIA 帶來了一系列發(fā)布和更新。這次發(fā)布涵蓋了企業(yè)級生成式 AI、Omniverse 和 RTX 等重要內(nèi)容。
微軟首席執(zhí)行官 Satya Nadella 和 NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛也在微軟 Ignite 2023 技術(shù)大會上登臺亮相。本文將帶您了解這次的新發(fā)布,探索其中的創(chuàng)新亮點。
企業(yè)級生成式 AI
NVIDIA 在 Microsoft Azure 上推出面向全球企業(yè)和初創(chuàng)公司的生成式 AI Foundry 服務(wù)
NVIDIA 推出一項 AI foundry 服務(wù),助力企業(yè)和初創(chuàng)公司在 Microsoft Azure 上開發(fā)、調(diào)優(yōu)和部署其自定義生成式 AI 應(yīng)用。
這項 NVIDIA AI foundry 服務(wù)整合了 NVIDIA AI Foundation Models、NVIDIA NeMo 框架和工具,以及 NVIDIA DGX 云 AI 超算服務(wù)三大要素,為企業(yè)提供創(chuàng)建自定義生成式 AI 模型的端到端解決方案,并且支持企業(yè)使用 NVIDIA AI Enterprise 軟件部署其定制模型,以支持生成式 AI 應(yīng)用,包括智能搜索、摘要和內(nèi)容生成。
NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“企業(yè)需要自定義模型來執(zhí)行基于公司專有 DNA (即數(shù)據(jù))訓(xùn)練的專業(yè)技能。NVIDIA 的 AI foundry 服務(wù)整合了我們的生成式 AI 模型技術(shù)、LLM 訓(xùn)練的專業(yè)知識和超大型 AI 工廠。我們在 Microsoft Azure 中構(gòu)建這項服務(wù),使全世界的企業(yè)都能夠?qū)⑺麄兊淖远x模型與微軟全球領(lǐng)先的云服務(wù)進行連接。”
點擊圖片即可閱讀全文
NVIDIA 加快企業(yè)自定義生成式 AI 模型開發(fā)
NVIDIA AI Foundation Models 集企業(yè)級預(yù)訓(xùn)練模型之大成,為開發(fā)人員提供了針對企業(yè)應(yīng)用定制生成式 AI 的良好開端。
NVIDIA AI Foundation Models 可通過簡單的用戶界面或 API 直接在瀏覽器體驗。此外,這些模型還可通過 NVIDIA AI Foundation Endpoints 進行訪問,以便在企業(yè)應(yīng)用中測試模型性能。
點擊圖片即可閱讀全文
NVIDIA 開發(fā)檢索增強生成參考架構(gòu)
NVIDIA 開發(fā)了檢索增強生成參考架構(gòu)。該架構(gòu)包含一個聊天機器人示例和用戶使用這種新方法創(chuàng)建個人應(yīng)用所需的元素。
該工作流使用了專用于開發(fā)和自定義生成式 AI 模型的框架 NVIDIA NeMo,以及用于在生產(chǎn)中運行生成式 AI 模型的軟件,例如 NVIDIA Triton 推理服務(wù)器和 NVIDIA TensorRT-LLM 等。
這些軟件組件均包含在 NVIDIA AI Enterprise 軟件平臺中,其可加速生產(chǎn)就緒型 AI 的開發(fā)和部署,并提供企業(yè)所需的安全性、支持和穩(wěn)定性。
點擊圖片即可閱讀全文
NVIDIA 與 Amdocs 為全球電信行業(yè)
帶來自定義生成式 AI
NVIDIA AI foundry 服務(wù)集合了 NVIDIA AI Foundation Models、NVIDIA NeMo 框架和工具以及 NVIDIA DGX Cloud AI 超級計算和服務(wù),為企業(yè)提供了一套端到端解決方案,用于創(chuàng)建并優(yōu)化自定義生成式 AI 模型。
借助這項 AI foundry 服務(wù),領(lǐng)先的通信和媒體提供商與軟件和服務(wù)提供商 Amdocs 將為電信和媒體行業(yè)優(yōu)化企業(yè)級大語言模型(LLM),以便在其從客戶體驗到網(wǎng)絡(luò)運營和供應(yīng)等業(yè)務(wù)領(lǐng)域有效部署生成式 AI 用例。LLM 將作為 Amdocs amAIz 框架的一部分,在 NVIDIA 加速計算上運行。
該合作以此前宣布的 Amdocs - 微軟的合作伙伴關(guān)系為基礎(chǔ),使服務(wù)提供商能夠在安全、可信的環(huán)境中采用這些應(yīng)用,包括在本地和云中。
點擊圖片即可閱讀全文
Omniverse
NVIDIA 宣布在 Microsoft Azure 上提供 Omniverse Cloud 服務(wù),
加速汽車行業(yè)的數(shù)字化進程
NVIDIA 在 Omniverse Cloud 上發(fā)布了兩個全新的仿真引擎:虛擬工廠仿真引擎和自動駕駛汽車(AV)仿真引擎。
Omniverse Cloud 是一項用于開發(fā)和部署工業(yè)數(shù)字化應(yīng)用的平臺即服務(wù)(PaaS,platform-as-a-service),這項服務(wù)現(xiàn)已托管在 Microsoft Azure 上。該一站式服務(wù)能夠使全球汽車制造商統(tǒng)一其核心產(chǎn)品與業(yè)務(wù)流程的數(shù)字化,從而提高生產(chǎn)速度和運營效率,縮短產(chǎn)品上市時間,推進可持續(xù)性計劃。
Omniverse Cloud 虛擬工廠仿真引擎整合了一系列可自定義的開發(fā)者應(yīng)用和服務(wù),使工廠規(guī)劃團隊能夠在連接大規(guī)模工業(yè)數(shù)據(jù)集的同時,進行實時協(xié)作、瀏覽和審核。
自動駕駛汽車仿真引擎實現(xiàn)了符合物理學(xué)的傳感器仿真,該服務(wù)使自動駕駛和機器人開發(fā)者能夠在閉環(huán)虛擬環(huán)境中運行自主系統(tǒng)。
點擊圖片即可閱讀全文
RTX
TensorRT-LLM更新加速 AI 推理性能,支持在 RTX 驅(qū)動的WindowsPC上運行新模型
NVIDIA 發(fā)布的全新優(yōu)化、模型和資源將更快地幫助開發(fā)者提供新的終端用戶體驗。
TensorRT-LLM 是一款提升 AI 推理性能的開源軟件,它即將發(fā)布的更新將支持更多大語言模型,在 RTX GPU 8GB 及以上顯存的 PC 和筆記本電腦上使要求嚴(yán)苛的 AI 工作負(fù)載更容易完成。
Tensor RT-LLM for Windows 即將通過全新封裝接口與 OpenAI 廣受歡迎的聊天 API 兼容。這將使數(shù)以百計的開發(fā)者項目和應(yīng)用能在 RTX PC 的本地運行,而非云端運行,因此用戶可以在 PC 上保留私人和專有數(shù)據(jù)。
為支持 AI 開發(fā)者,NVIDIA 與微軟發(fā)布 DirectML 增強功能以加速最熱門的基礎(chǔ) AI 模型之一的 Llama 2。除了全新性能標(biāo)準(zhǔn),開發(fā)者現(xiàn)在有更多跨供應(yīng)商部署可選。
點擊圖片即可閱讀全文
GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。點擊“閱讀原文”或掃描下方海報二維碼,立即注冊 GTC 大會。
原文標(biāo)題:NVIDIA 在微軟 Ignite 2023 技術(shù)大會帶來多項發(fā)布!
文章出處:【微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
-
英偉達(dá)
+關(guān)注
關(guān)注
22文章
3780瀏覽量
91205
原文標(biāo)題:NVIDIA 在微軟 Ignite 2023 技術(shù)大會帶來多項發(fā)布!
文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論