在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

將NVIDIA Riva模型部署到生產(chǎn)中

星星科技指導員 ? 來源:NVIDIA ? 作者:About Tanay Varshney, ? 2022-04-01 14:12 ? 次閱讀

NVIDIA Riva 是一款 AI 語音 SDK ,用于開發(fā)實時應(yīng)用程序,如轉(zhuǎn)錄、虛擬助理和聊天機器人。它包括 NGC 中經(jīng)過預訓練的最先進模型、用于在您的領(lǐng)域中微調(diào)模型的 TAO 工具包以及用于高性能推理的優(yōu)化技能。 Riva 使使用 NGC 中的 Riva 容器或使用 Helm chart 在 Kubernetes 上部署模型變得更簡單。 Riva 技能由 NVIDIA TensorRT 提供支持,并通過 NVIDIA Triton 提供服務(wù)推理服務(wù)器。

配置 Riva

在設(shè)置 NVIDIA Riva 之前,請確保您的系統(tǒng)上已安裝以下設(shè)備:

Python [3 。 6 。 9]

docker ce 》 19 。 03 。 5

nvidia-DOCKR2 3 。 4 。 0-1 :Installation Guide

如果您按照第 2 部分中的說明進行操作,那么您應(yīng)該已經(jīng)安裝了所有的先決條件。

設(shè)置 Riva 的第一步是到 install the NGC Command Line Interface Tool。

圖 1 。安裝 NGC CLI

要登錄到注冊表,您必須 get access to the NGC API Key。

圖 2 。獲取 NGCAPI 密鑰

設(shè)置好工具后,您現(xiàn)在可以從 NGC 上的Riva Skills Quick Start資源下載 Riva 。要下載該軟件包,可以使用以下命令(最新版本的命令可在前面提到的 Riva 技能快速入門資源中找到):

下載的軟件包具有以下資產(chǎn),可幫助您入門:

asr _ lm _工具:這些工具可用于微調(diào)語言模型。

nb _ demo _ speech _ api 。 ipynb :Riva 的入門筆記本。

Riva _ api-1 。 6 。 0b0-py3-none-any 。 whl和NeMo 2 Riva -1 。 6 。 0b0-py3-none-any 。 whl :安裝 Riva 的滾輪文件和將 NeMo 模型轉(zhuǎn)換為 Riva 模型的工具。有關(guān)更多信息,請參閱本文后面的Inferencing with your model部分。

快速啟動腳本( Riva .*. sh , config 。 sh ):初始化并運行 Triton 推理服務(wù)器以提供 Riva AI 服務(wù)的腳本。有關(guān)更多信息,請參閱配置 Riva 和部署您的模型。

示例:基于 gRPC 的客戶機代碼示例。

配置 Riva 并部署您的模型

你可能想知道從哪里開始。為了簡化體驗, NVIDIA 通過提供一個配置文件,使用 Riva AI 服務(wù)調(diào)整您可能需要調(diào)整的所有內(nèi)容,從而幫助您使用 Riva 定制部署。對于本演練,您依賴于特定于任務(wù)的 Riva ASR AI 服務(wù)。

對于本演練,我們只討論一些調(diào)整。因為您只使用 ASR ,所以可以安全地禁用 NLP 和 TTS 。

如果您遵循第 2 部分的內(nèi)容,可以將 use _ existing _ rmirs 參數(shù)設(shè)置為 true 。我們將在后面的文章中對此進行詳細討論。

您可以選擇從模型存儲庫下載的預訓練模型,以便在不進行自定義的情況下運行。

如果您在閱讀本系列第 2 部分時有 Riva 模型,請首先將其構(gòu)建為稱為 Riva 模型中間表示( RMIR )格式的中間格式。您可以使用 Riva Service Maker 來完成此操作。 ServiceMaker 是一組工具,用于聚合 Riva 部署到目標環(huán)境所需的所有工件(模型、文件、配置和用戶設(shè)置)。

使用riva-build和riva-deploy命令執(zhí)行此操作。有關(guān)更多信息,請參閱Deploying Your Custom Model into Riva。

現(xiàn)在已經(jīng)設(shè)置了模型存儲庫,下一步是部署模型。雖然您可以這樣做manually,但我們建議您在第一次體驗時使用預打包的腳本。快速啟動腳本riva_init.sh和riva_start.sh是可用于使用config.sh中的精確配置部署模型的兩個腳本。

運行riva_init.sh時:

您在config.sh中選擇的模型的 RMIR 文件從指定目錄下的 NGC 下載。

對于每個 RMIR 模型文件,將生成相應(yīng)的 Triton 推理服務(wù)器模型存儲庫。此過程可能需要一些時間,具體取決于所選服務(wù)的數(shù)量和型號。

要使用自定義模型,請將 RMIR 文件復制到config.sh(用于$riva_model_loc)中指定的目錄。要部署模型,請運行riva_start.sh。riva-speech容器將與從所選存儲庫加載到容器的模型一起旋轉(zhuǎn)?,F(xiàn)在,您可以開始發(fā)送推斷請求了。

使用您的模型進行推斷

為了充分利用 NVIDIA GPU s , Riva 利用了 NVIDIA Triton 推理服務(wù)器和 NVIDIA TensorRT 。在會話設(shè)置中,應(yīng)用程序會優(yōu)化盡可能低的延遲,但為了使用更多的計算資源,必須增加批大小,即同步處理的請求數(shù),這自然會增加延遲。 NVIDIA Triton 可用于在多個 GPU 上的多個模型上運行多個推理請求,從而緩解此問題。

您可以使用 GRPCAPI 在三個主要步驟中查詢這些模型:導入 LIB 、設(shè)置 gRPC 通道和獲取響應(yīng)。

首先,導入所有依賴項并加載音頻。在這種情況下,您正在從文件中讀取音頻。我們在 examples 文件夾中還有一個流媒體示例。

要安裝所有 Riva 特定依賴項,可以使用包中提供的。 whl 文件。

關(guān)鍵信息

此 API 可用于構(gòu)建應(yīng)用程序。您可以在單個裸機系統(tǒng)上安裝 Riva ,并開始本練習,或者使用 Kubernetes 和提供的Helm chart進行大規(guī)模部署。

圖 3 。 NVIDIA Riva 的典型部署工作流

使用此舵圖,您可以執(zhí)行以下操作:

從 NGC 中提取 Riva 服務(wù) API 服務(wù)器、 Triton 推理服務(wù)器和其他必要的 Docker 映像。

生成 Triton 推理服務(wù)器模型庫,并啟動英偉達 Triton 服務(wù)器,并使用所選配置。

公開要用作 Kubernetes 服務(wù)的推理服務(wù)器和 Riva 服務(wù)器終結(jié)點。

結(jié)論

Riva 是一款用于開發(fā)語音應(yīng)用程序的端到端 GPU 加速 SDK 。在本系列文章中,我們討論了語音識別在行業(yè)中的重要性,介紹了如何在您的領(lǐng)域定制語音識別模型以提供世界級的準確性,并向您展示了如何使用 Riva 部署可實時運行的優(yōu)化服務(wù)。

關(guān)于作者

About Tanay Varshney

Tanay Varshney 是 NVIDIA 的一名深入學習的技術(shù)營銷工程師,負責廣泛的 DL 軟件產(chǎn)品。他擁有紐約大學計算機科學碩士學位,專注于計算機視覺、數(shù)據(jù)可視化和城市分析的橫斷面。

About Sirisha Rella

Sirisha Rella 是 NVIDIA 的技術(shù)產(chǎn)品營銷經(jīng)理,專注于計算機視覺、語音和基于語言的深度學習應(yīng)用。 Sirisha 獲得了密蘇里大學堪薩斯城分校的計算機科學碩士學位,是國家科學基金會大學習中心的研究生助理。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5038

    瀏覽量

    103306
  • 計算機
    +關(guān)注

    關(guān)注

    19

    文章

    7521

    瀏覽量

    88276
收藏 人收藏

    評論

    相關(guān)推薦

    NVIDIA推出面向RTX AI PC的AI基礎(chǔ)模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運行的基礎(chǔ)模型,為數(shù)字人、內(nèi)容創(chuàng)作、生產(chǎn)力和開發(fā)提供強大助力。
    的頭像 發(fā)表于 01-08 11:01 ?186次閱讀

    NVIDIA Cosmos世界基礎(chǔ)模型平臺發(fā)布

    NVIDIA 宣布推出NVIDIA Cosmos,該平臺由先進的生成式世界基礎(chǔ)模型、高級 tokenizer、護欄和加速視頻處理管線組成,推動自動駕駛汽車(AV)和機器人等物理 AI
    的頭像 發(fā)表于 01-08 10:39 ?124次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標檢測模型

    并非易事,它涉及從選擇合適的算法架構(gòu)針對特定硬件平臺進行優(yōu)化等一系列復雜的工作。 接下來,我們詳細介紹如何在資源受限的邊緣設(shè)備上成功部署目標檢測
    發(fā)表于 12-19 14:33

    測徑儀 測測長儀是如何應(yīng)用在卷煙生產(chǎn)中的?

    關(guān)鍵字:卷煙測徑儀,卷煙測長儀,煙草測徑儀,煙草測長儀,煙草機械測徑儀,卷煙設(shè)備,煙草設(shè)備, 測徑儀和測長儀在卷煙生產(chǎn)中發(fā)揮著至關(guān)重要的作用,它們能夠精確測量卷煙的物理尺寸,確保產(chǎn)品質(zhì)量的一致性
    發(fā)表于 11-13 13:58

    NVIDIA NIM助力企業(yè)高效部署生成式AI模型

    Canonical、Nutanix 和 Red Hat 等廠商的開源 Kubernetes 平臺集成了 NVIDIA NIM,允許用戶通過 API 調(diào)用來大規(guī)模地部署大語言模型。
    的頭像 發(fā)表于 10-10 09:49 ?407次閱讀

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    Foundry 提供從數(shù)據(jù)策管、合成數(shù)據(jù)生成、微調(diào)、檢索、防護評估的全方位生成式 AI 模型服務(wù),以便部署自定義 Llama 3.1 NVIDIA NIM 微服務(wù)和新的
    發(fā)表于 07-24 09:39 ?726次閱讀
    <b class='flag-5'>NVIDIA</b> AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI <b class='flag-5'>模型</b>

    如何在tx2部署模型

    在本文中,我們詳細介紹如何在NVIDIA Jetson TX2上部署深度學習模型。NVIDIA Jetson TX2是一款專為邊緣計算和人
    的頭像 發(fā)表于 07-09 10:16 ?617次閱讀

    基于AX650N/AX630C部署端側(cè)大語言模型Qwen2

    本文分享如何最新的端側(cè)大語言模型部署超高性價比SoC上,向業(yè)界對端側(cè)大模型
    的頭像 發(fā)表于 07-06 17:43 ?3623次閱讀
    基于AX650N/AX630C<b class='flag-5'>部署</b>端側(cè)大語言<b class='flag-5'>模型</b>Qwen2

    英偉達推出AI模型推理服務(wù)NVIDIA NIM

    英偉達近日宣布推出一項革命性的AI模型推理服務(wù)——NVIDIA NIM。這項服務(wù)極大地簡化AI模型部署過程,為全球的2800萬英偉達開發(fā)者
    的頭像 發(fā)表于 06-04 09:15 ?693次閱讀

    NVIDIA NIM 革命性地改變模型部署,全球數(shù)百萬開發(fā)者轉(zhuǎn)變?yōu)樯墒?AI 開發(fā)者

    來自 AI 生態(tài)系統(tǒng)各個領(lǐng)域的 150 余家合作伙伴嵌入了 NIM 推理微服務(wù),企業(yè)級 AI 應(yīng)用的部署時間從數(shù)周縮短至幾分鐘 NVIDIA 開發(fā)者計劃會員可免費使用 NIM 來進行研究、開發(fā)
    發(fā)表于 06-03 09:12 ?238次閱讀
    <b class='flag-5'>NVIDIA</b> NIM 革命性地改變<b class='flag-5'>模型</b><b class='flag-5'>部署</b>,<b class='flag-5'>將</b>全球數(shù)百萬開發(fā)者轉(zhuǎn)變?yōu)樯墒?AI 開發(fā)者

    Edge Impulse發(fā)布新工具,助 NVIDIA 模型大規(guī)模部署

    借助 Edge Impulse 和 NVIDIA TAO 工具包的協(xié)同效應(yīng),工程師得以快速構(gòu)建并部署至邊緣優(yōu)化硬件(如上述型號)的計算機視覺模型。該平臺還支持用戶運用經(jīng)由 GPU 優(yōu)化的 NV
    的頭像 發(fā)表于 03-25 16:00 ?776次閱讀

    牽手NVIDIA 元戎啟行端模型搭載 DRIVE Thor芯片

    NVIDIA的DRIVE Thor芯片適配公司的端端智能駕駛模型。據(jù)悉,元戎啟行是業(yè)內(nèi)首批能用 DRIVE Thor芯片適配端模型的企
    發(fā)表于 03-25 11:49 ?341次閱讀
    牽手<b class='flag-5'>NVIDIA</b> 元戎啟行端<b class='flag-5'>到</b>端<b class='flag-5'>模型</b><b class='flag-5'>將</b>搭載 DRIVE Thor芯片

    NVIDIA TAO工具套件功能與恩智浦eIQ機器學習開發(fā)環(huán)境的集成

    恩智浦半導體宣布與NVIDIA合作,NVIDIA經(jīng)過訓練的人工智能模型通過eIQ機器學習開發(fā)環(huán)境部署
    的頭像 發(fā)表于 03-22 09:11 ?990次閱讀

    TSMC和Synopsys將在生產(chǎn)中使用NVIDIA計算光刻平臺

    NVIDIA 于今日宣布,為加快下一代先進半導體芯片的制造速度并克服物理限制,TSMC 和 Synopsys 將在生產(chǎn)中使用 NVIDIA 計算光刻平臺。
    的頭像 發(fā)表于 03-20 09:52 ?449次閱讀

    使用CUBEAI部署tflite模型STM32F0中,模型創(chuàng)建失敗怎么解決?

    看到CUBE_AI已經(jīng)支持STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署F0上的,但是一直無法創(chuàng)建成功。 查閱CUBE AI文檔說在調(diào)用create
    發(fā)表于 03-15 08:10
    主站蜘蛛池模板: 成人综合色站| 2021年最热新版天堂资源中文| 特级黄毛片| 日韩一区二区视频| 欧美精品 在线播放| 久久永久免费| 高清色| 自拍偷拍综合网| 图片视频小说| 九九热最新| 免费视频现线观看| 乌克兰一级毛片| 中文字幕第十页| 涩999| 久久不射影院| 中国一级特黄视频| 拍拍拍无档又黄又爽视频| 国产福利2021最新在线观看| yellow中文字幕久久网| 精品无码中出一区二区| 特级黄毛片| 黄色片视频网| 天天看天天爽天天摸天天添| 国产成人精品影视| 欧美不卡视频在线| 特级黄一级播放| 久草a视频| 天天做天天爱天天爽综合区 | 亚洲欧美成人在线| 日韩一级欧美一级一级国产| 精品国产_亚洲人成在线高清| 永久免费影视在线观看| 国产伦精品一区二区三区女| 亚洲日本在线观看视频| 亚洲香蕉影院| 毛片一级黄色| 天天天综合网| 91大神精品| 四虎最新在线| 国产黄色大片又色又爽| 欧美久久天天综合香蕉伊|