在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

利用Lexset合成數據和NVIDIA TAO加速AI模型開發

星星科技指導員 ? 來源:NVIDIA ? 作者:Christian Gartland ? 2022-05-30 09:50 ? 次閱讀

要開發準確的計算機視覺 AI 應用程序,您需要大量高質量的數據。對于傳統的數據集,您可能需要花費數月的時間來收集圖像、獲取注釋和清理數據。完成后,您可以找到邊緣案例并需要更多數據,從而重新開始循環。

多年來,這種循環阻礙了人工智能的發展,尤其是在計算機視覺領域。 Lexset 構建工具,使您能夠生成數據 來解決這個瓶頸。作為 AI 培訓周期的一部分,可以開發和迭代具有培訓數據的強大新工作流。

Lexset 的 Seahaven 平臺可以在幾分鐘內生成完全帶注釋的數據集,包括照片級真實感 RGB 圖像、語義分割和深度圖。迭代可以快速有效地提高模型的準確性。尋找異常事件或罕見情況的數據不再需要幾個月的時間。只需快速調整配置并生成新數據,即可使您的模型比以往任何時候都更好。

從 Seahaven 生成的合成數據可用于微調和定制 NVIDIA TAO 工具包中的預訓練模型。 TAO 工具包是一種低代碼 AI 模型開發解決方案,它抽象了 AI 框架的復雜性,并使您能夠使用 transfer learning 為您的特定用例創建定制的、生產就緒的模型。

通過使用 Seahaven 和 TAO 工具包創建初始數據集,大大減少時間并提高準確性。最重要的是,您可以使用合成數據快速調整模型以適應不斷變化的條件和不斷增加的復雜性。

解決方案概述

對于這個實驗,您可以使用一個簡單的用例,構建一個計算機視覺模型,該模型能夠發現并區分常見的硬件項目,例如螺釘。您從一個簡單的背景開始,引入更多的復雜性來展示合成數據如何適應不斷變化的條件。

我們創建了一個包含四個螺釘注釋的圖像的數據集,并使用 TAO 工具包對象檢測模型開始。我們使用了更快的 R-CNN 、 RetinaNet 和 YOLOv3 。

在這篇文章中,我介紹了運行這個示例數據集所需的步驟,您可以通過更快的R-CNN來運行這個示例數據集。要運行RetinaNet或YOLOv3,步驟相同,并且在提供的Jupyter筆記本中。

我還分享了 Lexset 合成數據如何與模型訓練配合使用,以快速解決隨著用例變得更加復雜而可能出現的準確性問題。

要創建自己的數據集以與 TAO 工具包一起使用,請按照 Using Seahaven 和 Seahaven documentation 中的說明進行操作。

要再現所述結果,請遵循以下主要步驟:

使用預先訓練的 ResNet-18 模型,并在 Lexset 的四螺釘合成數據集上訓練 ResNet-18 更快的 RCNN 模型。

在合成數據集上使用經過最佳訓練的權重,并使用真實世界四螺桿數據集的 10% 對其進行微調。

在真實螺釘驗證數據集上評估最佳訓練和微調權重。

對經過訓練的模型進行推理。

先決條件

NVIDIA TAO 工具包需要 NVIDIA GPU (例如, A100 )和驅動程序才能使用其 Docker 容器,因此必須有一個才能繼續。

您還需要至少 16 GB 的物理 RAM 、 50 GB 的可用內存和 8 核。我們在 Python 3.6.9 上進行了測試,并使用了 Ubuntu 18.04 。 TAO 工具包需要 NVIDIA 驅動程序 455 。 xx 或更高版本。

tao 啟動器嚴格來說是一個只支持 python3 的包,能夠在 Python 3.6.9 或 3.7 或 3.8 上運行。

按照 Docker 官方說明 安裝 docker ce 。

安裝 docker ce 后,請遵循 post-installation steps 以確保 docker 可以在沒有 sudo 的情況下運行。

Install nvidia-container-toolkit 。

您必須有一個 NGC 帳戶和一個與您的帳戶關聯的 API 密鑰。

下載數據集

從 Google 驅動器文件夾 (筆記本中也提供了鏈接)下載數據集,其中包含螺釘合成圖像和真實圖像的所有 zip 文件。

●	synthetic_dataset_without_complex_phase1.zip
●	synthetic_dataset_with_complex_phase2.zip
●	real_dataset.zip

synthetic_dataset_without_complex_phase1.zipreal_dataset.zip中的數據集提取到/data目錄中。數據集目錄結構應如下所示:

├── real_test
├── real_train
├── synthetic_test
└── synthetic_train

TAO Toolkit 支持 KITTI 格式的數據集,并且提供的數據集已經是該格式。要進一步驗證,請參閱 KITTI 文件格式 。

環境設置

使用virtualenvwrapper創建新的虛擬環境。有關更多信息,請參閱 Python 指南中的 Virtual Environments 。

按照說明安裝virtualenv和virtualenvwrapper后,設置 Python 版本:

echo "export VIRTUALENVWRAPPER_PYTHON=/usr/bin/python3" >> ~/.bashrc
source ~/.bashrc
mkvirtualenv launcher -p /usr/bin/python3

克隆存儲庫:

git clone https://github.com/Lexset/NVIDIA-TAO-Toolkit---Synthetic-Data.git
cd tao-screws

要安裝環境所需的依賴項,請安裝需求。 txt 文件:

pip3 install -r requirements.txt

啟動 Jupyter 筆記本:

cd faster_rcnn
jupyter notebook --ip 0.0.0.0 --allow-root --port 8888

設置 TAO 工具包裝載

筆記本有一個生成~/.tao_mounts.json文件的腳本。

{ "Mounts": [ { "source": "ABSOLUTE_PATH_TO_PROJECT_NETWORK_DIRECTORY", "destination": "/workspace/tao-experiments" }, { "source": "ABSOLUTE_PATH_TO_PROJECT_NETWORK_SPECS_DIRECTORY", "destination": "/workspace/tao-experiments/faster_rcnn/specs" } ], "Envs": [ { "variable": "CUDA_VISIBLE_DEVICES", "value": "0" } ], "DockerOptions": { "shm_size": "16G", "ulimits": { "memlock": -1, "stack": 67108864 }, "user": "1001:1001" } }

代碼示例在 Ubuntu 主目錄中生成全局~/.tao_mounts.json文件。

將數據集處理為 TFRecords

下載數據集并將其放入數據目錄后,下一步是將 KITTI 文件轉換為 NVIDIA TAO 工具包使用的 TFRecord 格式。為合成數據集和真實數據集生成 TFrecords 。 Jupyter 筆記本中的此代碼示例生成 TFrecords :

#KITTI trainval
!tao faster_rcnn dataset_convert --gpu_index $GPU_INDEX -d $SPECS_DIR/faster_rcnn_tfrecords_kitti_synth_train.txt \ -o $DATA_DOWNLOAD_DIR/tfrecords/kitti_synthetic_train/kitti_synthetic_train !tao faster_rcnn dataset_convert --gpu_index $GPU_INDEX -d $SPECS_DIR/faster_rcnn_tfrecords_kitti_synth_test.txt \ -o $DATA_DOWNLOAD_DIR/tfrecords/kitti_synthetic_test/kitti_synthetic_test

筆記本中的下一個代碼示例對真實數據集應用了相同的轉換。

下載 ResNet-18 卷積主干網

在本地設置 NGC CLI 時,下載卷積主干網 ResNet-18 。

!ngc registry model list nvidia/tao/pretrained_object_detection*

使用合成數據運行基準測試

以下命令開始對合成數據進行訓練,所有日志都保存在out_resnet18_synth_amp16.log文件中。要查看日志,請打開文件,如果文件已打開,請刷新選項卡。

!tao faster_rcnn train --gpu_index $GPU_INDEX -e $SPECS_DIR/default_spec_resnet18_synth_train.txt --use_amp > out_resnet18_synth_amp16.log

或者,您可以使用tail命令查看日志的最后幾行。

!tail -f ./out_resnet18_synth_amp16.log

在合成數據集上完成訓練后,可以使用以下命令在 10% 合成驗證數據集上評估合成訓練模型:

!tao faster_rcnn evaluate --gpu_index $GPU_INDEX -e $SPECS_DIR/default_spec_resnet18_synth_train.txt

您可以看到如下結果。

mAP@0.5 = 0.9986

您還可以看到每個類的各個地圖分數。

用真實數據微調綜合訓練模型

現在,使用來自合成訓練的最佳訓練權重,并對真實螺釘數據集的 10% 進行微調。real_train中的/train文件夾已處于 10% 的拆分狀態,您可以使用以下命令開始微調:

!tao faster_rcnn train --gpu_index $GPU_INDEX -e $SPECS_DIR/default_spec_resnet18_real_train.txt --use_amp > out_resnet18_synth_fine_tune_10_amp16.log

結果:實際數據改善了 10%

每個歷元的地圖分數如下所示:

mAP@0.5 = 0.9408 mAP@0.5 = 0.9714 mAP@0.5 = 0.9732 mAP@0.5 = 0.9781 mAP@0.5 = 0.9745 mAP@0.5 = 0.9780 mAP@0.5 = 0.9815 mAP@0.5 = 0.9820 mAP@0.5 = 0.9803 mAP@0.5 = 0.9796 mAP@0.5 = 0.9810 mAP@0.5 = 0.9817

只需對真實螺釘數據集的 10% 進行微調,即可快速改善結果, mAP 得分超過 98% 。從合成數據集中學習到的功能在微調過程中對實際螺釘數據集的 10% 有所幫助。

在合成螺釘驗證數據集中添加復雜背景

為了進一步驗證綜合訓練模型,我們向復雜背景數據集中添加了 300 多幅圖像。由于初始合成數據集不是在復雜背景下獲取的,因此平均精度顯著下降。

就像真實世界一樣,隨著用例變得更加復雜,準確性也會受到影響。當對包含更復雜或敵對背景的圖像進行驗證時,地圖得分從 98% 左右下降到 83.5% 。

重新訓練具有復雜背景的合成數據集

這就是合成數據真正閃耀的地方。為了減少在復雜圖像上驗證時地圖的丟失,我生成了具有更復雜背景的其他圖像,以添加到訓練數據中。我只是調整了背景,以便新的訓練數據集在幾秒鐘內就準備好了。新數據集推出后,性能提高了令人難以置信的 10-12% ,而無需進行其他更改。

具有復雜背景的數據集位于前面提到的 zip 文件synthetic_dataset_with_complex.zip中。提取此文件并用相同的名稱替換/ data 目錄中的文件夾,以獲得具有復雜背景的更新合成數據集。

Average Mean Precision:
mAP= 94.97% Increase in mAP score: 11.47%

具體來說,在幾分鐘的工作后,復雜背景系統的準確率提高了 11.47% ,達到 94.97% 。

結論

結果表明,使用合成數據和 TAO 工具包進行迭代是多么有效和快速。使用 Lexset’s Seahaven ,您可以在幾分鐘內生成新數據,并使用它解決引入復雜背景時遇到的準確性問題。

合成數據集的重要性現在已經很清楚了,因為針對真實螺釘數據的 90% 驗證數據集上的微調模型的性能非常好。當實際或真實數據較少時,使用合成數據集進行初始特征學習。合成數據集可以節省大量時間和成本,同時產生優異的結果。

我相信這是計算機視覺發展的未來,數據生成與模型迭代同步進行。這將為用戶提供更大的控制,并使您能夠構建世界上最好的系統。

關于作者

Christian Gartland 是 Lexset 的軟件工程師,他在 Lexset 生產合成數據集,并為公司的合成數據生成平臺 Seahaven 開發新功能。在加入 Lexset 之前,他為建筑、工程和建筑行業開發了軟件。他擁有倫斯勒理工學院建筑學士學位。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5026

    瀏覽量

    103280
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4754

    瀏覽量

    129083
  • python
    +關注

    關注

    56

    文章

    4800

    瀏覽量

    84829
收藏 人收藏

    評論

    相關推薦

    NVIDIA推出加速物理AI開發的Cosmos世界基礎模型

    經數百萬小時的駕駛和機器人視頻數據訓練的先進模型,可用于普及物理 AI 開發,并以開放模型許可形式提供。
    的頭像 發表于 01-09 11:05 ?200次閱讀

    NVIDIA發布Cosmos?平臺,助力物理AI系統發展

    基礎模型、高級tokenizer、護欄以及加速視頻處理管線等多項先進技術。其中,Cosmos世界基礎模型(WFM)是平臺的核心,它使開發者能夠輕松生成大量基于物理學的逼真
    的頭像 發表于 01-08 15:36 ?258次閱讀

    NVIDIA推出面向RTX AI PC的AI基礎模型

    NVIDIA 今日發布能在 NVIDIA RTX AI PC 本地運行的基礎模型,為數字人、內容創作、生產力和開發提供強大助力。
    的頭像 發表于 01-08 11:01 ?184次閱讀

    NVIDIA推出多個生成式AI模型和藍圖

    NVIDIA 宣布推出多個生成式 AI 模型和藍圖,將 NVIDIA Omniverse 一體化進一步擴展至物理 AI 應用,如機器人、自動
    的頭像 發表于 01-08 10:48 ?104次閱讀

    NVIDIA推出全新生成式AI模型Fugatto

    NVIDIA 開發了一個全新的生成式 AI 模型利用輸入的文本和音頻,該模型可以創作出包含任意
    的頭像 發表于 11-27 11:29 ?389次閱讀

    使用NVIDIA AI平臺確保醫療數據安全

    三井物產株式會社子公司借助 NVIDIA AI 平臺實現數據集的安全共享并使用在這些數據集上建立的強大模型
    的頭像 發表于 11-20 09:37 ?197次閱讀

    NVIDIA助力Figure發布新一代對話式人形機器人

    該初創公司展示了新型機器人,其使用 NVIDIA Isaac Sim 處理合成數據,并使用基于 NVIDIA 加速計算進行實時推理訓練的生成式 AI
    的頭像 發表于 11-04 10:10 ?289次閱讀

    NVIDIA Omniverse微服務助力構建大規模數字孿生

    NVIDIA Omniverse Cloud Sensor RTX 生成用于加速自動駕駛汽車、機械臂、移動機器人、人形機器人和智能空間 AI 開發工作的
    的頭像 發表于 09-09 10:20 ?522次閱讀

    NVIDIAAI城市挑戰賽構建合成數據

    在一年一度的 AI 城市挑戰賽中,來自世界各地的數百支參賽隊伍在 NVIDIA Omniverse 生成的基于物理學的數據集上測試了他們的 AI
    的頭像 發表于 09-09 10:04 ?505次閱讀

    NVIDIA Nemotron-4 340B模型幫助開發者生成合成訓練數據

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優化的模型系列,該系列包含最先進的指導和獎勵模型,以及一個用于生成式
    的頭像 發表于 09-06 14:59 ?343次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B<b class='flag-5'>模型</b>幫助<b class='flag-5'>開發</b>者生成<b class='flag-5'>合成</b>訓練<b class='flag-5'>數據</b>

    NVIDIA RTX AI套件簡化AI驅動的應用開發

    NVIDIA 于近日發布 NVIDIA RTX AI套件,這一工具和 SDK 集合能夠幫助 Windows 應用開發者定制、優化和部署適用于 Windows 應用的
    的頭像 發表于 09-06 14:45 ?467次閱讀

    NVIDIA AI Foundry 為全球企業打造自定義 Llama 3.1 生成式 AI 模型

    Foundry 提供從數據策管、合成數據生成、微調、檢索、防護到評估的全方位生成式 AI 模型服務,以便部署自定義 Llama 3.1 NVIDI
    發表于 07-24 09:39 ?724次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundry 為全球企業打造自定義 Llama 3.1 生成式 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>

    MediaTek與NVIDIA TAO加速物聯網邊緣AI應用發展

    在即將到來的COMPUTEX 2024科技盛會上,全球知名的芯片制造商MediaTek宣布了一項重要合作——將NVIDIATAO(TensorRT Accelerated Optimizer)與其NeuroPilot SDK(軟件開發
    的頭像 發表于 06-12 14:49 ?487次閱讀

    NVIDIA加速識因智能AI模型落地應用方面的重要作用介紹

    本案例介紹了 NVIDIA加速識因智能 AI模型落地應用方面的重要作用。生成式大模型已廣泛應用于各領域,通過學習人類思維方式,能快速
    的頭像 發表于 03-29 15:28 ?650次閱讀

    Edge Impulse發布新工具,助 NVIDIA 模型大規模部署

    借助 Edge Impulse 和 NVIDIA TAO 工具包的協同效應,工程師得以快速構建并部署至邊緣優化硬件(如上述型號)的計算機視覺模型。該平臺還支持用戶運用經由 GPU 優化的 NV
    的頭像 發表于 03-25 16:00 ?774次閱讀
    主站蜘蛛池模板: 国产叼嘿视频免费网站| 女人又色又爽又黄| 一级特级aaaa毛片免费观看| 怡红院黄色| 久久99久久99精品免观看| 午夜色a大片在线观看免费| 午夜精品一区二区三区在线视| 性欧美f| 在线三区| 亚洲激情四射| 好硬好湿好爽再深一点h视频| 69一级毛片| 经典三级一区在线播放| 成年人三级视频| 国内精品免费视频自在线| 国产色秀视频| 婷婷5月天| 国产美女叼嘿视频免费看| 国产超爽人人爽人人做| 性久久久久久| 亚洲国产成人成上人色| 91在线视频观看| 35pao免费视频| 国产干美女| 国产午夜精品福利久久| 亚洲haose在线观看| 免费大片黄在线观看| 爽好舒服快给老师| 性夜影院爽黄a爽免费视| 亚洲一区二区色| 在线观看免费视频一区| 日韩一卡2卡三卡4卡无卡网站| 91久久国产青草亚洲| 狠狠操精品视频| 国产精品福利在线观看免费不卡| 中国美女乱淫免费看视频| a在线观看网站| 午夜视频在线观看视频| 天天综合在线视频| 欧美hhh| 91视频免费观看|