在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

物件檢測模型訓練的詳細過程

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 作者:NVIDIA英偉達企業(yè)解 ? 2022-05-20 17:43 ? 次閱讀

當前面已經訓練好修剪過的模型之后,接下來就可以在訓練設備上先執(zhí)行推理計算,看看檢測的效果如何?如果實際推理結果并不理想的話,就得回到前面第 6 步驟重新再執(zhí)行一次。

9、執(zhí)行推理并查看結果

首先創(chuàng)建一個 test_samples 目錄,然后從數(shù)據(jù)集中 testing/image_2 中復制一些圖像過來測試,推理結果輸出到 ssd_infer_images 目錄下,這個推理計算也可以使用未修剪的模型來進行測試。

在代碼框 “!tao ssd inference” 后面所提供的參數(shù)中,下面兩行是使用修剪后并重新訓練的模型來進行推理。

-e $SPECS_DIR/ssd_retrain_resnet18_kitti.txt  -m$USER_EXPERIMENT_DIR/experiment_dir_retrain/weights/ssd_resnet18_epoch_$EPOCH.tlt

如果將這兩行參數(shù)改成下面內容,就是用原始模型來進行推理。

-e $SPECS_DIR/ssd_train_resnet18_kitti.txt  -m$USER_EXPERIMENT_DIR/experiment_dir_unpruned/weights/ssd_resnet18_epoch_$EPOCH.tlt

這樣我們可以執(zhí)行透過推理結果,來查看二者的不同。下面兩張圖分別是未修剪(上)與修剪后(下)模型推理結果的局部放大,雖然修剪后的模型效果不如未修剪的,但是執(zhí)行結果還是令人滿意,當然這得看您的要求有多高。

如果認可這個推理結果的話,那么訓練階段的任務就可以告一段落,接下去就準備將模型導出,以便部署到真實的推理設備上。

10、導出模型

要執(zhí)行這個步驟,最好先確認您的推理設備上所能支持的數(shù)據(jù)精度,特別是 INT8 類型,例如 Jetson Nano (含 2GB)、TX2/TX1就不支持,Xavier NX 與 AGX Xavier 是支持的。臺式機上的游戲卡一般不支持 INT8,而 Tesla、Quadro 專業(yè)卡是支持的,不過 NVIDIA 全系列產品都支持 FP16,如果不能確認這方面的信息,至少選擇 FP16 是比較穩(wěn)妥。

簡單說明一下代碼框 “!tao ssd export” 后面的參數(shù):

6260cd2e-d5d7-11ec-bce3-dac502259ad0.jpg

假如要輸出 INT8 模型時,由于需要特殊算法以及輔助的校準工具,因此需要其他參數(shù)來協(xié)助這類模型的導出,主要如下:

6298af50-d5d7-11ec-bce3-dac502259ad0.jpg

這樣就能完成 INT8 模型的輸出任務。

到這里所輸出的 .etlt 模型文件基本上已經可以部署到 DeepStream 推理設備上使用,因為 DeepStream 支持 .etlt 格式的調用,相當方便。但如果要用其他獨立的 TensorRT 來執(zhí)行加速推理的話,就需要在推理設備上再進行一次的轉換。

本步驟最后一個代碼塊 “!tao converter” 就是在訓練設備上,將 .etlt 模型轉成這臺機器能使用的 TensorRT 引擎文件。由于參數(shù)內容較多,這里不一一列舉,請自行至https://docs.nvidia.com/tao/tao-toolkit/text/object_detection/ssd.html搜索 “Using the tao-converter” 環(huán)節(jié),有詳細的參數(shù)說明。

要注意的一點,在 “!tao converter 所使用的“-t 指定數(shù)據(jù)精度部分,需要與前面 !tao ssd export--data_type 一致,否則會失去效果。

11、驗證部署模型的效果

這個步驟是驗證 TensorRT 加速引擎的推理效果,主要讓我們在部署到推理設備之前,能再確認一下推理效果

下面同樣提供兩張推理結果參照圖,上圖是未修剪的模型轉成 TensorRT 引擎的推理結果,下圖是修剪過的模型轉成 TensorRT 引擎的推理結果,效果看起來是一樣的,表示這個修剪過的模型還是足夠好的。

現(xiàn)在就完成一個物件檢測模型訓練的過程,雖然看起來繁瑣,但是只要我們弄清楚一開始的路徑對應,以及熟練后面每個環(huán)節(jié)的參數(shù)用法,基本上要比在框架中自行撰寫代碼容易得多了,除了收集與整理數(shù)據(jù)的工作是 TAO 工具無法協(xié)助的,其余部分已經都為大家提供好完整的指令塊,這是一個真正 “Zero Coding” 的全方位模型訓練工具。

原文標題:NVIDIA Jetson Nano 2GB 系列文章(63):物件檢測的模型訓練與優(yōu)化-3

文章出處:【微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

審核編輯:湯梓紅
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4986

    瀏覽量

    103067
  • 檢測
    +關注

    關注

    5

    文章

    4488

    瀏覽量

    91476
  • 模型訓練
    +關注

    關注

    0

    文章

    18

    瀏覽量

    1341

原文標題:NVIDIA Jetson Nano 2GB 系列文章(63):物件檢測的模型訓練與優(yōu)化-3

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    GPU是如何訓練AI大模型

    在AI模型訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何訓練AI大模型的。
    的頭像 發(fā)表于 12-19 17:54 ?125次閱讀

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    并非易事,它涉及到從選擇合適的算法架構到針對特定硬件平臺進行優(yōu)化等一系列復雜的工作。 接下來,我們將詳細介紹如何在資源受限的邊緣設備上成功部署目標檢測模型,探索其背后的原理和技術,并討論解決該領域內常見
    發(fā)表于 12-19 14:33

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    本文通俗簡單地介紹了什么是大模型、大模型是怎么訓練出來的和大模型的作用。 ? 什么是大模型模型
    的頭像 發(fā)表于 11-25 09:29 ?1434次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓練</b>出來的及大<b class='flag-5'>模型</b>作用

    如何訓練自己的LLM模型

    訓練自己的大型語言模型(LLM)是一個復雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓練LLM模型的一般步驟,以及一些關
    的頭像 發(fā)表于 11-08 09:30 ?549次閱讀

    如何訓練自己的AI大模型

    訓練自己的AI大模型是一個復雜且耗時的過程,涉及多個關鍵步驟。以下是一個詳細訓練流程: 一、明確需求和目標 首先,需要明確自己的需求和目標
    的頭像 發(fā)表于 10-23 15:07 ?1503次閱讀

    如何訓練ai大模型

    訓練AI大模型是一個復雜且耗時的過程,涉及多個關鍵步驟和細致的考量。 一、數(shù)據(jù)準備 1. 數(shù)據(jù)收集 確定數(shù)據(jù)類型 :根據(jù)模型的應用場景,確定需要收集的數(shù)據(jù)類型,如文本、圖像、音頻等。
    的頭像 發(fā)表于 10-17 18:17 ?945次閱讀

    如何使用經過訓練的神經網絡模型

    使用經過訓練的神經網絡模型是一個涉及多個步驟的過程,包括數(shù)據(jù)準備、模型加載、預測執(zhí)行以及后續(xù)優(yōu)化等。
    的頭像 發(fā)表于 07-12 11:43 ?985次閱讀

    PyTorch神經網絡模型構建過程

    PyTorch,作為一個廣泛使用的開源深度學習庫,提供了豐富的工具和模塊,幫助開發(fā)者構建、訓練和部署神經網絡模型。在神經網絡模型中,輸出層是尤為關鍵的部分,它負責將模型的預測結果以合適
    的頭像 發(fā)表于 07-10 14:57 ?503次閱讀

    如何在TensorFlow中構建并訓練CNN模型

    在TensorFlow中構建并訓練一個卷積神經網絡(CNN)模型是一個涉及多個步驟的過程,包括數(shù)據(jù)預處理、模型設計、編譯、訓練以及評估。下面
    的頭像 發(fā)表于 07-04 11:47 ?936次閱讀

    人臉識別模型訓練流程

    人臉識別模型訓練流程是計算機視覺領域中的一項重要技術。本文將詳細介紹人臉識別模型訓練流程,包括數(shù)據(jù)準備、
    的頭像 發(fā)表于 07-04 09:19 ?971次閱讀

    訓練模型的基本原理和應用

    訓練好的模型,這些模型通常在某些通用任務上表現(xiàn)出色,并且可以作為后續(xù)特定任務的起點,通過遷移學習或微調(Fine-tuning)等方式進行適應和優(yōu)化。以下是對預訓練
    的頭像 發(fā)表于 07-03 18:20 ?2840次閱讀

    解讀PyTorch模型訓練過程

    PyTorch作為一個開源的機器學習庫,以其動態(tài)計算圖、易于使用的API和強大的靈活性,在深度學習領域得到了廣泛的應用。本文將深入解讀PyTorch模型訓練的全過程,包括數(shù)據(jù)準備、模型
    的頭像 發(fā)表于 07-03 16:07 ?1072次閱讀

    CNN模型的基本原理、結構、訓練過程及應用領域

    CNN模型的基本原理、結構、訓練過程以及應用領域。 卷積神經網絡的基本原理 1.1 卷積運算 卷積運算是CNN模型的核心,它是一種數(shù)學運算
    的頭像 發(fā)表于 07-02 15:26 ?3585次閱讀

    深度學習模型訓練過程詳解

    詳細介紹深度學習模型訓練的全過程,包括數(shù)據(jù)預處理、模型構建、損失函數(shù)定義、優(yōu)化算法選擇、訓練過程
    的頭像 發(fā)表于 07-01 16:13 ?1275次閱讀

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    大語言模型的核心特點在于其龐大的參數(shù)量,這賦予了模型強大的學習容量,使其無需依賴微調即可適應各種下游任務,而更傾向于培養(yǎng)通用的處理能力。然而,隨著學習容量的增加,對預訓練數(shù)據(jù)的需求也相應
    發(fā)表于 05-07 17:10
    主站蜘蛛池模板: 美女又黄又免费的视频| 国产男人女人做性全过程视频| 免费伦费一区二区三区四区| 日韩欧美印度一级毛片| 视频色版| xxx86日本人| jk黑色丝袜美腿老师啪啪| 一级毛片在线看在线播放| 久久精品国产6699国产精| 天堂最新资源在线| 日本免费不卡视频一区二区三区| 日韩精品一区二区三区毛片| 黄色一级片在线观看| 玖玖草在线观看| 在线观看视频一区二区| 日韩一级一片| 午夜精品一区二区三区在线观看| 国产亚洲精品aaa大片| 亚洲精品卡1卡二卡3卡四卡| 国产手机在线| 欧美综合天天夜夜久久| 最近2018年在线中文字幕高清| 五月天丁香花婷婷| аbt天堂资源在线官网| 很黄很黄的网站免费的| 亚洲成人77777| 97成人资源| 视频在线观看h| 三级毛片在线看| 97理论三级九七午夜在线观看| 国内啪啪| 欧美三级日韩三级| 久久久久亚洲香蕉网| 五月婷婷之婷婷| 午夜视频一区| 资源新版在线天堂| 99色99| 美女扒开尿口让男人30视频| 国产色婷婷亚洲| 成人午夜大片免费7777| 久久网站免费|