在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何在移動設備上訓練和部署自定義目標檢測模型

硬件三人行 ? 來源:TensorFlow ? 作者: Khanh LeVie ? 2021-08-16 17:09 ? 次閱讀

發布人:技術推廣工程師 Khanh LeViet,代表 TensorFlow Lite 團隊

在今年的 Google I/O 大會上,我們很高興地宣布推出了多項產品更新。這些更新可以幫助簡化移動設備上,目標檢測模型的訓練和部署的過程:

設備端 ML 學習路徑:關于如何在移動設備上,訓練和部署自定義目標檢測模型的分步教程,無需機器學習專業知識。

設備端 ML 學習路徑

https://developers.google.com/learn/pathways/going-further-object-detection

EfficientDet-Lite:針對移動設備優化的精尖目標檢測模型架構。

EfficientDet-Lite

https://hub.tensorflow.google.cn/s?deployment-format=lite&q=efficientdet-lite

用于目標檢測的 TensorFlow Lite Model Maker:只需幾行代碼即可訓練自定義模型

目標檢測

http://tensorflow.google.cn/lite/tutorials/model_maker_object_detection

TensorFlow Lite Metadata Writer API:簡化元數據創建以生成與 TFLite Task Library 兼容的自定義目標檢測模型。

Metadata Writer API

http://tensorflow.google.cn/lite/convert/metadata_writer_tutorial

TFLite Task Library

http://tensorflow.google.cn/lite/inference_with_metadata/task_library/object_detector

盡管目標檢測是非常常見的 ML 用例,但可能也是最難執行的用例之一。我們一直致力于為您簡化相關操作。在這篇文章中,我們將向您介紹如何利用 TensorFlow Lite 的最新產品、通過使用您自己的訓練數據構建最先進的移動端目標檢測。

設備端 ML 學習路徑:

在 12 分鐘內了解如何訓練和部署自定義 TensorFlow Lite 目標檢測模型

有了 TensorFlow Lite,訓練自定義目標檢測模型并將其部署到 Android 應用變得非常容易。我們已經發布了學習路徑,可指導您按步驟順利完成相關操作。

您可以通過視頻了解構建自定義目標檢測器的具體步驟:

1. 準備訓練數據。

2. 使用 TensorFlow Lite Model Maker 訓練自定義目標檢測模型。

3. 使用 TensorFlow Lite Task Library 在您的移動應用上部署模型。

我們還在 GitHub 上提供了帶有源代碼的 Codelab,供您自行試運行代碼。請嘗試一下,并告訴我們您的反饋!

Codelab

https://codelabs.developers.google.com/tflite-object-detection-android

告訴我們

https://github.com/googlecodelabs/odml-pathways/issues

EfficientDet-Lite:

移動端設備目標檢測最優模型架構之一

在移動設備上運行機器學習模型意味著我們始終需要在模型精度、推理速度和模型大小之間進行權衡。最優的移動端模型不僅需要更加精準,還需要更快地運行速度和更小的體積。我們采用了 EfficientDet 論文中發布的神經架構搜索技術,并優化了在移動設備上運行的模型架構,最終推出了名為 EfficientDet-Lite 的新型移動設備目標檢測模型系列。

EfficientDet

https://arxiv.org/abs/1911.09070

EfficientDet-Lite 有 5 個不同的版本:從 Lite0 到 Lite4。較小的版本運行速度更快,而較大的版本精度更高。您可以先用多個版本的 EfficientNet-Lite 進行試驗,然后選擇最適合您用例的版本。

* 整型量化模型的大小

** 在 Pixel 4 上使用 4 個 CPU 線程測量得出的延遲時間

*** 平均精度是 COCO 2017 驗證數據集上的 mAP(平均精度均值)

我們已將在 COCO 數據集上訓練的 EfficientDet-Lite 模型發布到 TensorFlow Hub。您還可以使用自己的訓練數據,通過 TensorFlow Lite Model Maker 訓練 EfficientDet-Lite 自定義模型。

TensorFlow Hub

https://hub.tensorflow.google.cn/s?q=efficientdet/lite

TensorFlow Lite Model Maker:幾行代碼使用遷移學習訓練自定義目標檢測模型

TensorFlow Lite Model Maker 是 Python 庫,可顯著簡化使用自定義數據集訓練機器學習模型的過程。該庫利用遷移學習,僅使用少量圖像即可訓練高質量模型。

TensorFlow Lite Model Maker

http://tensorflow.google.cn/lite/guide/model_maker

Model Maker 接受 PASCAL VOC 格式和 Cloud AutoML 的 CSV 格式的數據集。和使用 LabelImg 或 makesense.ai 等開源 GUI 工具創建自己的數據集一樣,每位開發者都可以創建用于 Model Maker 的訓練數據,且無需編寫任何代碼。

CSV

https://cloud.google.com/vision/automl/object-detection/docs/csv-format

LabelImg

https://github.com/tzutalin/labelImg

makesense.ai

https://github.com/SkalskiP/make-sense

獲得訓練數據后,您就可以開始訓練自定義的 TensorFlow Lite 目標檢測模型了。

# Step 1: Choose the model architecture

spec = model_spec.get(‘efficientdet_lite2’)

# Step 2: Load your training data

train_data, validation_data, test_data = object_detector.DataLoader.from_csv(‘gs://cloud-ml-data/img/openimage/csv/salads_ml_use.csv’)

# Step 3: Train a custom object detector

model = object_detector.create(train_data, model_spec=spec, validation_data=validation_data)

# Step 4: Export the model in the TensorFlow Lite format

model.export(export_dir=‘。’)

# Step 5: Evaluate the TensorFlow Lite model

model.evaluate_tflite(‘model.tflite’, test_data)

查看此 Codelab 了解詳情。

Codelab

http://tensorflow.google.cn/lite/tutorials/model_maker_object_detection

TensorFlow Lite Task Library:使用幾行代碼在移動設備上部署目標檢測模型

TensorFlow Lite Task Library 是跨平臺庫,它簡化了 TensorFlow Lite 模型在移動設備上的部署。使用 TensorFlow Lite Model Maker 訓練的自定義目標檢測模型只需使用幾行 Kotlin 代碼即可部署到 Android 應用:

// Step 1: Load the TensorFlow Lite model

val detector = ObjectDetector.createFromFile(context, “model.tflite”)

// Step 2: Convert the input Bitmap into a TensorFlow Lite‘s TensorImage object

val image = TensorImage.fromBitmap(bitmap)

// Step 3: Feed given image to the model and get the detection result

val results = detector.detect(image)

您可參閱一下文檔,了解有關 Task Library 中,包括如何配置最小檢測閾值或最大檢測對象數量等更多自定義選項信息

文檔

https://tensorflow.google.cn/lite/inference_with_metadata/task_library/object_detector

TensorFlow Lite Metadata Writer API:

用于簡化使用 TensorFlow Object Detection API 訓練的自定義模型的部署

Task Library 依賴 TensorFlow Lite 模型中捆綁的模型元數據來執行必要的預處理和后處理邏輯,以便使用該模型來運行推理。這其中包括如何將輸入圖像歸一化,或如何將類 ID 映射到可人工讀取的標簽。因為使用 Model Maker 訓練的模型會默認包含此類元數據,所以它能夠與 Task Library 兼容。但是,如果您使用除 Model Maker 以外的訓練流水線,來訓練 TensorFlow Lite 目標檢測,則可以使用 TensorFlow Lite Metadata Writer API 來添加元數據。

模型元數據

https://tensorflow.google.cn/lite/convert/metadata

例如,如果您使用 TensorFlow Object Detection API 來訓練模型,則可以使用以下 Python 代碼將元數據添加到 TensorFlow Lite 模型:

LABEL_PATH = ’label_map.txt‘

MODEL_PATH = “ssd_mobilenet_v2_fpnlite_640x640_coco17_tpu-8/model.tflite”

SAVE_TO_PATH = “ssd_mobilenet_v2_fpnlite_640x640_coco17_tpu-8/model_with_metadata.tflite”# Step 1: Specify the preprocessing parameters and label file

writer = object_detector.MetadataWriter.create_for_inference(

writer_utils.load_file(MODEL_PATH), input_norm_mean=[0],

input_norm_std=[255], label_file_paths=[LABEL_PATH])

# Step 2: Export the model with metadata

writer_utils.save_file(writer.populate(), SAVE_TO_PATH)

在示例中,我們指定歸一化參數 (input_norm_mean=[0], input_norm_std=[255]) ,以便將輸入圖像歸一化到 [0..1] 范圍內。您需要指定與模型訓練期間使用的預處理邏輯中相同的歸一化參數。

歸一化

http://tensorflow.google.cn/lite/convert/metadata#normalization_and_quantization_parameters

參閱此 Colab,獲取有關如何將使用 TensorFlow Object Detection API 訓練的模型轉換為 TensorFlow Lite 模型并添加元數據的完整教程。

Colab

https://colab.research.google.com/github/tensorflow/models/blob/master/research/object_detection/colab_tutorials/convert_odt_model_to_TFLite.ipynb

未來計劃

我們的目標是讓每位開發者(無論是否具備機器學習專業知識)都能更輕松使用機器學習。目前,我們正在與 TF Model Garden 團隊合作,希望推出更多適用于 Model Maker 的目標檢測模型架構。

未來,我們還將繼續與 Google 研究人員合作,通過 Model Maker 提供更多面向未來的更優秀的目標檢測模型,縮短從前沿研究到投入實際應用并且供所有開發者使用的整個流程。敬請關注更多動態!

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Google
    +關注

    關注

    5

    文章

    1765

    瀏覽量

    57530
  • ML
    ML
    +關注

    關注

    0

    文章

    149

    瀏覽量

    34657
  • 目標檢測
    +關注

    關注

    0

    文章

    209

    瀏覽量

    15611
  • GitHub
    +關注

    關注

    3

    文章

    471

    瀏覽量

    16442

原文標題:使用 TensorFlow Lite 簡化移動端目標檢測

文章出處:【微信號:yingjiansanrenxing,微信公眾號:硬件三人行】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    以及邊緣計算能力的增強,越來越多的目標檢測應用開始直接在靠近數據源的邊緣設備運行。這不僅減少了數據傳輸延遲,保護了用戶隱私,同時也減輕了云端服務器的壓力。然而,在邊緣端
    發表于 12-19 14:33

    YOLOv10自定義目標檢測之理論+實踐

    保持先進性能的同時,降低了計算需求。大量實驗表明,YOLOv10 在各種模型規模提供了更優的準確率-延遲權衡。 正如讀過我之前文章的朋友所知道的,我分享了使用 YOLO 模型的各種項目,因為在預
    的頭像 發表于 11-16 10:23 ?466次閱讀
    YOLOv10<b class='flag-5'>自定義</b><b class='flag-5'>目標</b><b class='flag-5'>檢測</b>之理論+實踐

    設備利用AI Edge Torch生成式API部署自定義大語言模型

    ,從而無縫地將新的設備端生成式 AI 模型部署到邊緣設備。本文是 Google AI Edge 博客連載的第二篇。
    的頭像 發表于 11-14 10:23 ?438次閱讀
    在<b class='flag-5'>設備</b><b class='flag-5'>上</b>利用AI Edge Torch生成式API<b class='flag-5'>部署</b><b class='flag-5'>自定義</b>大語言<b class='flag-5'>模型</b>

    在樹莓派上部署YOLOv5進行動物目標檢測的完整流程

    卓越的性能。本文將詳細介紹如何在性能更強的計算機上訓練YOLOv5模型,并將訓練好的模型部署到樹
    的頭像 發表于 11-11 10:38 ?997次閱讀
    在樹莓派上<b class='flag-5'>部署</b>YOLOv5進行動物<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>的完整流程

    創建自定義的基于閃存的引導加載程序(BSL)

    電子發燒友網站提供《創建自定義的基于閃存的引導加載程序(BSL).pdf》資料免費下載
    發表于 09-19 10:50 ?0次下載
    創建<b class='flag-5'>自定義</b>的基于閃存的引導加載程序(BSL)

    請問multisim怎么自定義元器件?

    為什么我在multisim中自定義元器件始終出不了想要的波形效果呢?同一個pspice模型我同學之前都定義正確了,現在我想再來試一下結果一直失敗
    發表于 09-10 06:16

    NVIDIA NeMo加速并簡化自定義模型開發

    如果企業希望充分發揮出 AI 的力量,就需要根據其行業需求量身定制的自定義模型
    的頭像 發表于 07-26 11:17 ?755次閱讀
    NVIDIA NeMo加速并簡化<b class='flag-5'>自定義</b><b class='flag-5'>模型</b>開發

    NVIDIA AI Foundry 為全球企業打造自定義 Llama 3.1 生成式 AI 模型

    Foundry 提供從數據策管、合成數據生成、微調、檢索、防護到評估的全方位生成式 AI 模型服務,以便部署自定義 Llama 3.1 NVIDIA NIM 微服務和新的 NVIDIA NeMo
    發表于 07-24 09:39 ?711次閱讀
    NVIDIA AI Foundry 為全球企業打造<b class='flag-5'>自定義</b> Llama 3.1 生成式 AI <b class='flag-5'>模型</b>

    何在IDF框架中使用自定義的靜態庫和動態庫?

    基于商業需要,我們需要在 ESP-IDF v4.0-rc 這個版本的IDF中開發與使用自定義庫,有如下問題請協助: 1如何利用IDF框架編寫自定義靜態庫和動態庫? 2如何在IDF框架中使用自定
    發表于 06-25 07:57

    Chrome移動版支持自定義菜單欄功能

    在先前版本中,用戶通過點擊瀏覽器右上角的三個點按鈕即可調出包含各類圖標與操作的菜單。而此次更新后,Chrome新增了“自定義菜單”選項,允許用戶自主控制該區域的展示內容。
    的頭像 發表于 05-27 15:00 ?818次閱讀

    HarmonyOS開發案例:【 自定義彈窗】

    基于ArkTS的聲明式開發范式實現了三種不同的彈窗,第一種直接使用公共組件,后兩種使用CustomDialogController實現自定義彈窗
    的頭像 發表于 05-16 18:18 ?1371次閱讀
    HarmonyOS開發案例:【 <b class='flag-5'>自定義</b>彈窗】

    TSMaster 自定義 LIN 調度表編程指導

    LIN(LocalInterconnectNetwork)協議調度表是用于LIN總線通信中的消息調度的一種機制,我們收到越來越多來自不同用戶希望能夠通過接口實現自定義LIN調度表的需求。所以在
    的頭像 發表于 05-11 08:21 ?677次閱讀
    TSMaster <b class='flag-5'>自定義</b> LIN 調度表編程指導

    maixcam部署yolov5s 自定義模型

    maixcam部署yolov5s 自定義模型 本博客將向你展示零基礎一步步的部署好自己的yolov5s模型(博主展示的是安全帽
    發表于 04-23 15:43

    HarmonyOS開發實例:【自定義Emitter】

    使用[Emitter]實現事件的訂閱和發布,使用[自定義彈窗]設置廣告信息。
    的頭像 發表于 04-14 11:37 ?1002次閱讀
    HarmonyOS開發實例:【<b class='flag-5'>自定義</b>Emitter】

    鴻蒙ArkUI實例:【自定義組件】

    組件是 OpenHarmony 頁面最小顯示單元,一個頁面可由多個組件組合而成,也可只由一個組件組合而成,這些組件可以是ArkUI開發框架自帶系統組件,比如?`Text`?、?`Button`?等,也可以是自定義組件,本節筆者簡單介紹一下自定義組件的語法規范。
    的頭像 發表于 04-08 10:17 ?643次閱讀
    主站蜘蛛池模板: 免费我看视频在线观看| xyx性爽欧美视频| 欧美一区二区不卡视频 | 毛片在线网| 天天碰视频| 中文字幕一区二区三区有限公司 | 2019偷偷狠狠的日日| 在线视频你懂得| 老色批网站| 免费一级片在线观看| 免费在线一区二区三区| 牛牛a级毛片在线播放| 天天干天天谢| 男男扒开后菊惩罚| 免费能看的黄色网址| 中文在线1区二区六区| 四虎国产精品永久地址49| 第九色| 小草影院亚洲私人影院| 天堂网在线播放| 亚洲第一久久| 男人j桶女人j免费视频| 美剧免费在线观看| 国产伦精品一区二区三区四区| 亚洲人成亚洲人成在线观看 | 国产黄色网| 日韩城人视频| 天天搞一搞| 中文天堂最新版资源新版天堂资源| 久久精品1| 午夜啪啪片| 欧色美| 国产小视频在线观看免费| 一级毛片在播放免费| wwwxx在线观看| 日韩精品卡4卡5卡6卡7卡| 六月天色婷婷| 婷婷丁香啪啪| 免费视频爰爱太爽了| yy6080亚洲半夜理论一级毛片| 色婷婷六月丁香在线观看|