在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在 NVIDIA NGC 上搞定模型自動(dòng)壓縮,YOLOv7 部署加速比 5.90,BERT 部署加速比 6.22

NVIDIA英偉達(dá) ? 來(lái)源:未知 ? 2022-11-15 21:20 ? 次閱讀

PaddleSlim 發(fā)布 AI 模型自動(dòng)壓縮的工具,帶來(lái)全新升級(jí) AI 模型一鍵自動(dòng)壓縮體驗(yàn)。歡迎廣大開發(fā)者使用 NVIDIA 與飛槳聯(lián)合深度適配的 NGC 飛槳容器在 NVIDIA GPU 上體驗(yàn)!

PaddleSlim 自動(dòng)壓縮工具,

30+CV、NLP 模型實(shí)戰(zhàn)

眾所周知,計(jì)算機(jī)視覺技術(shù)(CV)是企業(yè)人工智能應(yīng)用比重最高的領(lǐng)域之一。為降低企業(yè)成本,工程師們一直在探索各類模型壓縮技術(shù),來(lái)產(chǎn)出“更準(zhǔn)、更小、更快”的 AI 模型部署落地。而在自然語(yǔ)言處理領(lǐng)域(NLP)中,隨著模型精度的不斷提升,模型的規(guī)模也越來(lái)越大,例如以 BERT、GPT 為代表的預(yù)訓(xùn)練模型等,這成為企業(yè) NLP 模型部署落地的攔路虎。

針對(duì)企業(yè)落地模型壓縮迫切的需求,PaddleSlim 團(tuán)隊(duì)開發(fā)了一個(gè)低成本、高收益的 AI 模型自動(dòng)壓縮工具(ACT, Auto Compression Toolkit),無(wú)需修改訓(xùn)練源代碼,通過幾十分鐘量化訓(xùn)練,保證模型精度的同時(shí),極大的減小模型體積,降低顯存占用,提升模型推理速度,助力 AI 模型的快速落地!

使用 ACT 中的基于知識(shí)蒸餾的量化訓(xùn)練方法訓(xùn)練 YOLOv7 模型,與原始的 FP32 模型相比,INT8 量化后的模型減小 75%,在 NVIDIA GPU 上推理加速 5.90 倍

99a61056-64e7-11ed-8abf-dac502259ad0.png ?表1 自動(dòng)壓縮工具在 CV 模型上的壓縮效果和推理加速

使用 ACT 中的結(jié)構(gòu)化稀疏和蒸餾量化方法訓(xùn)練 ERNIE3.0 模型,與原始的 FP32 對(duì)比,INT8 量化后的模型減小 185%,在 NVIDIA GPU 上推理加速 6.37 倍

99d136b4-64e7-11ed-8abf-dac502259ad0.png

表2 自動(dòng)壓縮工具在 NLP 模型上的壓縮效果和推理加速

支持如此強(qiáng)大功能的核心技術(shù)是來(lái)源于 PaddleSlim 團(tuán)隊(duì)自研的自動(dòng)壓縮工具。自動(dòng)壓縮相比于傳統(tǒng)手工壓縮,自動(dòng)化壓縮的“自動(dòng)”主要體現(xiàn)在 4 個(gè)方面:解耦訓(xùn)練代碼、離線量化超參搜索、算法自動(dòng)組合和硬件感知。

99fc685c-64e7-11ed-8abf-dac502259ad0.png

圖1 傳統(tǒng)手工壓縮與自動(dòng)化壓縮工具對(duì)比

9a2637b8-64e7-11ed-8abf-dac502259ad0.png

圖2 傳統(tǒng)手工壓縮與自動(dòng)化壓縮工具代碼量對(duì)比

更多詳細(xì)文檔,請(qǐng)參考:

https://github.com/PaddlePaddle/PaddleSlim/tree/develop/example/auto_compression

PaddleSlim 研發(fā)團(tuán)隊(duì)詳解自動(dòng)壓縮工具 CV 模型和NLP模型兩日課回放,可以掃描下方二維碼,加入自動(dòng)壓縮技術(shù)官方交流群獲取。除此之外,入群福利還包括:深度學(xué)習(xí)學(xué)習(xí)資料、歷屆頂會(huì)壓縮論文、百度架構(gòu)師詳解自動(dòng)壓縮等。

9a789fe4-64e7-11ed-8abf-dac502259ad0.png

NGC 飛槳容器介紹

如果您希望體驗(yàn)自動(dòng)壓縮工具的新特性,歡迎使用 NGC 飛槳容器。NVIDIA 與百度飛槳聯(lián)合開發(fā)了 NGC 飛槳容器,將最新版本的飛槳與最新的 NVIDIA 的軟件棧(如 CUDA)進(jìn)行了無(wú)縫的集成與性能優(yōu)化,最大程度的釋放飛槳框架在 NVIDIA 最新硬件上的計(jì)算能力。這樣,用戶不僅可以快速開啟 AI 應(yīng)用,專注于創(chuàng)新和應(yīng)用本身,還能夠在 AI 訓(xùn)練和推理任務(wù)上獲得飛槳+NVIDIA 帶來(lái)的飛速體驗(yàn)。

最佳的開發(fā)環(huán)境搭建工具 - 容器技術(shù)。

  1. 容器其實(shí)是一個(gè)開箱即用的服務(wù)器。極大降低了深度學(xué)習(xí)開發(fā)環(huán)境的搭建難度。例如你的開發(fā)環(huán)境中包含其他依賴進(jìn)程(redis,MySQL,Ngnix,selenium-hub 等等),或者你需要進(jìn)行跨操作系統(tǒng)級(jí)別的遷移。

  2. 容器鏡像方便了開發(fā)者的版本化管理

  3. 容器鏡像是一種易于復(fù)現(xiàn)的開發(fā)環(huán)境載體

  4. 容器技術(shù)支持多容器同時(shí)運(yùn)行

9a94b31e-64e7-11ed-8abf-dac502259ad0.png

最好的 PaddlePaddle 容器

NGC 飛槳容器針對(duì) NVIDIA GPU 加速進(jìn)行了優(yōu)化,并包含一組經(jīng)過驗(yàn)證的庫(kù),可啟用和優(yōu)化 NVIDIA GPU 性能。此容器還可能包含對(duì) PaddlePaddle 源代碼的修改,以最大限度地提高性能和兼容性。此容器還包含用于加速 ETL(DALI,RAPIDS)、訓(xùn)練(cuDNN,NCCL)和推理(TensorRT)工作負(fù)載的軟件。

PaddlePaddle 容器具有以下優(yōu)點(diǎn):

  1. 適配最新版本的 NVIDIA 軟件棧(例如最新版本 CUDA),更多功能,更高性能。

  2. 更新的 Ubuntu 操作系統(tǒng),更好的軟件兼容性

  3. 按月更新

  4. 滿足 NVIDIA NGC 開發(fā)及驗(yàn)證規(guī)范,質(zhì)量管理

通過飛槳官網(wǎng)快速獲取

9abbeaf6-64e7-11ed-8abf-dac502259ad0.png

環(huán)境準(zhǔn)備

使用 NGC 飛槳容器需要主機(jī)系統(tǒng)(Linux)安裝以下內(nèi)容:

  • Docker 引擎

  • NVIDIA GPU 驅(qū)動(dòng)程序

  • NVIDIA 容器工具包

有關(guān)支持的版本,請(qǐng)參閱 NVIDIA 框架容器支持矩陣NVIDIA 容器工具包文檔

不需要其他安裝、編譯或依賴管理。無(wú)需安裝 NVIDIA CUDA Toolkit。

NGC 飛槳容器正式安裝:

要運(yùn)行容器,請(qǐng)按照 NVIDIA Containers For Deep Learning Frameworks User’s Guide 中 Running A Container 一章中的說明發(fā)出適當(dāng)?shù)拿睿⒅付ㄗ?cè)表、存儲(chǔ)庫(kù)和標(biāo)簽。有關(guān)使用 NGC 的更多信息,請(qǐng)參閱 NGC 容器用戶指南。如果您有 Docker 19.03 或更高版本,啟動(dòng)容器的典型命令是:

9af1f420-64e7-11ed-8abf-dac502259ad0.png

*詳細(xì)安裝介紹 《NGC 飛槳容器安裝指南》

https://www.paddlepaddle.org.cn/documentation/docs/zh/install/install_NGC_PaddlePaddle_ch.html

*詳細(xì)產(chǎn)品介紹視頻

【飛槳開發(fā)者說|NGC 飛槳容器全新上線 NVIDIA 產(chǎn)品專家全面解讀】

https://www.bilibili.com/video/BV16B4y1V7ue?share_source=copy_web&vd_source=266ac44430b3656de0c2f4e58b4daf82


原文標(biāo)題:在 NVIDIA NGC 上搞定模型自動(dòng)壓縮,YOLOv7 部署加速比 5.90,BERT 部署加速比 6.22

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3805

    瀏覽量

    91417

原文標(biāo)題:在 NVIDIA NGC 上搞定模型自動(dòng)壓縮,YOLOv7 部署加速比 5.90,BERT 部署加速比 6.22

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Flexus X 實(shí)例 ultralytics 模型 yolov10 深度學(xué)習(xí) AI 部署與應(yīng)用

    前言: ???深度學(xué)習(xí)新紀(jì)元,828 B2B 企業(yè)節(jié) Flexus X 實(shí)例特惠!想要高效訓(xùn)練 YOLOv10 模型,實(shí)現(xiàn)精準(zhǔn)圖像識(shí)別?Flexus X 以卓越算力,助您輕松駕馭大規(guī)模數(shù)據(jù)集,加速
    的頭像 發(fā)表于 12-24 12:24 ?318次閱讀
    Flexus X 實(shí)例 ultralytics <b class='flag-5'>模型</b> <b class='flag-5'>yolov</b>10 深度學(xué)習(xí) AI <b class='flag-5'>部署</b>與應(yīng)用

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    以及邊緣計(jì)算能力的增強(qiáng),越來(lái)越多的目標(biāo)檢測(cè)應(yīng)用開始直接在靠近數(shù)據(jù)源的邊緣設(shè)備運(yùn)行。這不僅減少了數(shù)據(jù)傳輸延遲,保護(hù)了用戶隱私,同時(shí)也減輕了云端服務(wù)器的壓力。然而,邊緣端部署高效且準(zhǔn)確的目標(biāo)檢測(cè)
    發(fā)表于 12-19 14:33

    華迅光通AI計(jì)算加速800G光模塊部署

    400G光模塊。更多信息可以在這篇文章中找到:NVIDIA DGX H100簡(jiǎn)介。這表明葉脊架構(gòu)下,數(shù)據(jù)中心對(duì)高速光模塊的需求呈指數(shù)級(jí)增長(zhǎng)。隨著數(shù)據(jù)中心規(guī)模的擴(kuò)大,特別是對(duì)AI大型模型訓(xùn)練的需求,以及
    發(fā)表于 11-13 10:16

    樹莓派上部署YOLOv5進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整流程

    卓越的性能。本文將詳細(xì)介紹如何在性能更強(qiáng)的計(jì)算機(jī)上訓(xùn)練YOLOv5模型,并將訓(xùn)練好的模型部署到樹莓派4B,通過樹莓派的攝像頭進(jìn)行實(shí)時(shí)動(dòng)物目
    的頭像 發(fā)表于 11-11 10:38 ?1261次閱讀
    <b class='flag-5'>在</b>樹莓派上<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>5進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整流程

    YOLOv6LabVIEW中的推理部署(含源碼)

    YOLOv6 是美團(tuán)視覺智能部研發(fā)的一款目標(biāo)檢測(cè)框架,致力于工業(yè)應(yīng)用。如何使用python進(jìn)行該模型部署,官網(wǎng)已經(jīng)介紹的很清楚了,但是對(duì)于如何在LabVIEW中實(shí)現(xiàn)該模型
    的頭像 發(fā)表于 11-06 16:07 ?339次閱讀
    <b class='flag-5'>YOLOv</b>6<b class='flag-5'>在</b>LabVIEW中的推理<b class='flag-5'>部署</b>(含源碼)

    NVIDIA NIM助力企業(yè)高效部署生成式AI模型

    Canonical、Nutanix 和 Red Hat 等廠商的開源 Kubernetes 平臺(tái)集成了 NVIDIA NIM,將允許用戶通過 API 調(diào)用來(lái)大規(guī)模地部署大語(yǔ)言模型
    的頭像 發(fā)表于 10-10 09:49 ?409次閱讀

    快速部署Tensorflow和TFLITE模型Jacinto7 Soc

    電子發(fā)燒友網(wǎng)站提供《快速部署Tensorflow和TFLITE模型Jacinto7 Soc.pdf》資料免費(fèi)下載
    發(fā)表于 09-27 11:41 ?0次下載
    快速<b class='flag-5'>部署</b>Tensorflow和TFLITE<b class='flag-5'>模型</b><b class='flag-5'>在</b>Jacinto<b class='flag-5'>7</b> Soc

    Yuan2.0千億大模型通用服務(wù)器NF8260G7的推理部署

    巨量模型的智能生產(chǎn)力正在逐步滲透到各行各業(yè),但它們的部署和運(yùn)行通常需要專用的AI加速卡,能否CPU運(yùn)行千億大
    的頭像 發(fā)表于 07-30 14:26 ?430次閱讀
    Yuan2.0千億大<b class='flag-5'>模型</b><b class='flag-5'>在</b>通用服務(wù)器NF8260G<b class='flag-5'>7</b><b class='flag-5'>上</b>的推理<b class='flag-5'>部署</b>

    用OpenVINO C# APIintel平臺(tái)部署YOLOv10目標(biāo)檢測(cè)模型

    模型設(shè)計(jì)策略,從效率和精度兩個(gè)角度對(duì)YOLOs的各個(gè)組成部分進(jìn)行了全面優(yōu)化,大大降低了計(jì)算開銷,增強(qiáng)了性能。本文中,我們將結(jié)合OpenVINO C# API使用最新發(fā)布的OpenVINO 2024.1部署
    的頭像 發(fā)表于 06-21 09:23 ?1076次閱讀
    用OpenVINO C# API<b class='flag-5'>在</b>intel平臺(tái)<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>10目標(biāo)檢測(cè)<b class='flag-5'>模型</b>

    模型端側(cè)部署加速,都有哪些芯片可支持?

    小型化、場(chǎng)景化需求的增加,推理逐步從云端擴(kuò)展向端側(cè)。這種趨勢(shì)PC和手機(jī)等終端產(chǎn)品尤為明顯。 ? 大模型端側(cè)部署
    的頭像 發(fā)表于 05-24 00:14 ?4246次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開源語(yǔ)言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語(yǔ)言模型。TensorRT-LLM 是一個(gè)開源庫(kù),用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?594次閱讀

    maixcam部署yolov5s 自定義模型

    maixcam部署yolov5s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov5s
    發(fā)表于 04-23 15:43

    NVIDIA數(shù)字人技術(shù)加速部署生成式AI驅(qū)動(dòng)的游戲角色

    NVIDIA GDC 2024 大會(huì)上宣布,Inworld AI 等領(lǐng)先的 AI 應(yīng)用程序開發(fā)者,正在使用 NVIDIA 數(shù)字人技術(shù)加速部署
    的頭像 發(fā)表于 04-09 10:08 ?695次閱讀
    <b class='flag-5'>NVIDIA</b>數(shù)字人技術(shù)<b class='flag-5'>加速</b><b class='flag-5'>部署</b>生成式AI驅(qū)動(dòng)的游戲角色

    yolov5轉(zhuǎn)onnxcubeAI上部署失敗的原因?

    第一個(gè)我是轉(zhuǎn)onnx時(shí) 想把權(quán)重文件變小點(diǎn) 就用了半精度 --half,則說17版本不支持半精度 后面則是沒有縮小的單精度 但是顯示哪里溢出了···· 也不說是哪里、、。。。 到底能不能部署yolov5這種東西啊?? 也沒看見幾個(gè)部署
    發(fā)表于 03-14 06:23

    基于OpenCV DNN實(shí)現(xiàn)YOLOv8的模型部署與推理演示

    基于OpenCV DNN實(shí)現(xiàn)YOLOv8推理的好處就是一套代碼就可以部署Windows10系統(tǒng)、烏班圖系統(tǒng)、Jetson的Jetpack系統(tǒng)
    的頭像 發(fā)表于 03-01 15:52 ?1768次閱讀
    基于OpenCV DNN實(shí)現(xiàn)<b class='flag-5'>YOLOv</b>8的<b class='flag-5'>模型</b><b class='flag-5'>部署</b>與推理演示
    主站蜘蛛池模板: www资源| 亚洲成在线| 日本三级在线视频| 高清不卡免费一区二区三区| 日本xxxxxxxxx69| 色综合图片二区150p| 爱爱免费小视频| 97综合久久| 国产亚洲视频在线播放大全| 欧美性色黄在线视| 色视频欧美| 一级做a爱片就在线看| 天天躁夜夜躁狠狠躁2021西西| аⅴ资源中文在线天堂| 欧美四色| 欧美黄色大片免费观看| 国产精品资源网站在线观看| 久久国产精品免费| 免费一级e一片在线播放| 天天综合网在线| 亚色在线| 午夜精品久久久久久91| 在线jlzzjlzz免费播放| www.jizz在线观看| 爱爱视频天天看| 天天色天天舔| 手机看片1024福利| 天天色天天干天天射| 男人天堂网2021| xx日韩| 婷婷九月| 一级一级18女人毛片| 日韩一级视频免费观看| 色六月丁香| 久久人人做人人玩人精品| 久久综合久久精品| 久久久精品久久久久久久久久久| 国产成年网站v片在线观看| a级毛片免费网站| 日本亚洲黄色| 99热色|