在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于C#和OpenVINO?在英特爾獨(dú)立顯卡上部署PP-TinyPose模型

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) 楊雪鋒 ? 作者:英特爾物聯(lián)網(wǎng) 楊雪 ? 2022-11-18 18:27 ? 次閱讀

作者:英特爾物聯(lián)網(wǎng)行業(yè)創(chuàng)新大使 楊雪鋒

OpenVINO 2022.2版開始支持英特爾獨(dú)立顯卡,還能通過“累計(jì)吞吐量”同時(shí)啟動(dòng)集成顯卡 + 獨(dú)立顯卡助力全速 AI 推理。本文基于 C# 和 OpenVINO,將 PP-TinyPose 模型部署在英特爾獨(dú)立顯卡上。

1.1 PP-TinyPose 模型簡(jiǎn)介

PP-TinyPose 是飛槳 PaddleDetecion 針對(duì)移動(dòng)端設(shè)備優(yōu)化的實(shí)時(shí)關(guān)鍵點(diǎn)檢測(cè)模型,可流暢地在移動(dòng)端設(shè)備上執(zhí)行多人姿態(tài)估計(jì)任務(wù)。PP-TinyPose 可以基于人體17個(gè)關(guān)鍵點(diǎn)數(shù)據(jù)集訓(xùn)練后,識(shí)別人體關(guān)鍵點(diǎn),獲得人體姿態(tài),如圖 1所示。

6c8852f8-6593-11ed-8abf-dac502259ad0.png

圖 1 PP-TinyPose識(shí)別效果圖

PP-TinyPose 開源項(xiàng)目倉庫:

https://gitee.com/paddlepaddle/PaddleDetection/tree/release/2.5/configs/keypoint/tiny_pose

1.1.1

PP-TinyPose 框架

PP-TinyPose 提供了完整的人體關(guān)鍵點(diǎn)識(shí)別解決方案,主要包括行人檢測(cè)以及關(guān)鍵點(diǎn)檢測(cè)兩部分。行人檢測(cè)通過PP-PicoDet模型來實(shí)現(xiàn),關(guān)鍵點(diǎn)識(shí)別通過 Lite-HRNet 骨干網(wǎng)絡(luò)+DARK關(guān)鍵點(diǎn)矯正算法來實(shí)現(xiàn),如下圖所示:

6cb65284-6593-11ed-8abf-dac502259ad0.png

圖 2 PP-TinyPose人體關(guān)鍵點(diǎn)識(shí)別

1.2 構(gòu)建開發(fā)環(huán)境

本文構(gòu)建的開發(fā)環(huán)境,如下所示:

OpenVINOTM:2022.2.0

OpenCV:4.5.5

Visual Studio:2022

C#框架:.NET 6.0

OpenCvSharp:OpenCvSharp4

1.2.1

下載項(xiàng)目完整源代碼

項(xiàng)目所使用的源碼已在完整開源,讀者可以直接克隆到本地。

git clone 
https://gitee.com/guojin-yan/Csharp_and_OpenVINO_deploy_PP-TinyPose.git

1.3 在 C# 中調(diào)用 OpenVINO Runtime API

由于 OpenVINO Runtime 只有 C++Python API 接口,需要在 C# 中通過動(dòng)態(tài)鏈接庫方式調(diào)用 OpenVINO Runtime C++ API。具體教程參考《在C#中調(diào)用OpenVINO 模型》,對(duì)應(yīng)的參考范例:

https://github.com/guojin-yan/OpenVinoSharp.git

1.3.1

在 C# 中構(gòu)建 Core 類

為了更方便的使用,可以在 C# 中,將調(diào)用細(xì)節(jié)封裝到 Core 類中。根據(jù)模型推理的步驟,構(gòu)建模型推理類:

(1)構(gòu)造函數(shù)

public Core(string model_file, string device_name){
// 初始化推理核心
ptr = NativeMethods.core_init(model_file, device_name);
}

向右滑動(dòng)查看完整代碼

在該方法中,主要是調(diào)用推理核心初始化方法,初始化推理核心,讀取本地模型,將模型加載到設(shè)備、創(chuàng)建推理請(qǐng)求等模型推理步驟。

(2)設(shè)置模型輸入形狀

// @brief 設(shè)置推理模型的輸入節(jié)點(diǎn)的大小
// @param input_node_name 輸入節(jié)點(diǎn)名
// @param input_size 輸入形狀大小數(shù)組
public void set_input_sharp(string input_node_name, ulong[] input_size) {
// 獲取輸入數(shù)組長(zhǎng)度
int length = input_size.Length;
if (length == 4) {
// 長(zhǎng)度為4,判斷為設(shè)置圖片輸入的輸入參數(shù),調(diào)用設(shè)置圖片形狀方法
ptr = NativeMethods.set_input_image_sharp(ptr, input_node_name, ref input_size[0]);
}
else if (length == 2) {
// 長(zhǎng)度為2,判斷為設(shè)置普通數(shù)據(jù)輸入的輸入?yún)?shù),調(diào)用設(shè)置普通數(shù)據(jù)形狀方法
ptr = NativeMethods.set_input_data_sharp(ptr, input_node_name, ref input_size[0]);
}
else {
// 為防止輸入發(fā)生異常,直接返回
return;
}
}

向右滑動(dòng)查看完整代碼

(3)加載推理數(shù)據(jù)

 // @brief 加載推理數(shù)據(jù)
    // @param input_node_name 輸入節(jié)點(diǎn)名
    // @param input_data 輸入數(shù)據(jù)數(shù)組
    public void load_input_data(string input_node_name, float[] input_data) {
      ptr = NativeMethods.load_input_data(ptr, input_node_name, ref input_data[0]);
    }
    // @brief 加載圖片推理數(shù)據(jù)
    // @param input_node_name 輸入節(jié)點(diǎn)名
    // @param image_data 圖片矩陣
    // @param image_size 圖片矩陣長(zhǎng)度
    public void load_input_data(string input_node_name, byte[] image_data, ulong image_size, int type) {
      ptr = NativeMethods.load_image_input_data(ptr, input_node_name, ref image_data[0], image_size, type);
    }

向右滑動(dòng)查看完整代碼

加載推理數(shù)據(jù)主要包含圖片數(shù)據(jù)和普通的矩陣數(shù)據(jù),其中對(duì)于圖片的預(yù)處理,也已經(jīng)在 C++ 中進(jìn)行封裝,保證了圖片數(shù)據(jù)在傳輸中的穩(wěn)定性。

(4)模型推理

  // @brief 模型推理
    public void infer() {
      ptr = NativeMethods.core_infer(ptr);
    }

(5)讀取推理結(jié)果數(shù)據(jù)

 // @brief 讀取推理結(jié)果數(shù)據(jù)
    // @param output_node_name 輸出節(jié)點(diǎn)名
    // @param data_size 輸出數(shù)據(jù)長(zhǎng)度
    // @return 推理結(jié)果數(shù)組
    public T[] read_infer_result(string output_node_name, int data_size) {
      // 獲取設(shè)定類型
      string t = typeof(T).ToString();
      // 新建返回值數(shù)組
      T[] result = new T[data_size];
      if (t == "System.Int32") { // 讀取數(shù)據(jù)類型為整形數(shù)據(jù)
        int[] inference_result = new int[data_size];
        NativeMethods.read_infer_result_I32(ptr, output_node_name, data_size, ref inference_result[0]);
        result = (T[])Convert.ChangeType(inference_result, typeof(T[]));
        return result;
      }
      else { // 讀取數(shù)據(jù)類型為浮點(diǎn)型數(shù)據(jù)
        float[] inference_result = new float[data_size];
        NativeMethods.read_infer_result_F32(ptr, output_node_name, data_size, ref inference_result[0]);
        result = (T[])Convert.ChangeType(inference_result, typeof(T[]));
        return result;
      }
    }

在讀取模型推理結(jié)果時(shí),支持讀取整形數(shù)據(jù)和浮點(diǎn)型數(shù)據(jù)。

(6)清除地址

 // @brief 刪除創(chuàng)建的地址
    public void delet() {
      NativeMethods.core_delet(ptr);
    }

完成上述封裝后,在 C# 平臺(tái)下,調(diào)用 Core 類,就可以方便實(shí)現(xiàn) OpenVINO 推理程序了。

1.4 下載并轉(zhuǎn)換 PP-PicoDet 模型

1.4.1

PP-PicoDet 模型簡(jiǎn)介

Picodet_s_320_lcnet_pedestrian Paddle 格式模型信息如下表所示,其默認(rèn)的輸入為動(dòng)態(tài)形狀,需要將該模型的輸入形狀變?yōu)殪o態(tài)形狀。

6cf2dc7c-6593-11ed-8abf-dac502259ad0.png

表 1 Picodet_s_320_lcnet_pedestrian Paddle 格式模型信息

1.4.2

模型下載與轉(zhuǎn)換

第一步,下載模型

命令行直接輸入以下模型導(dǎo)出代碼,使用 PaddleDetecion 自帶的方法,下載預(yù)訓(xùn)練模型并將模型轉(zhuǎn)為導(dǎo)出格式。

導(dǎo)出 picodet_s_320_lcnet_pedestrian 模型:

python tools/export_model.py -c 
configs/picodet/application/pedestrian_detection/picodet_s_320_lcnet_pedestrian.yml -o export.benchmark=False 
export.nms=False 
weights=https://bj.bcebos.com/v1/paddledet/models/keypoint/tinypose_enhance/picodet_s_320_lcnet_pedestrian.p
dparams --output_dir=output_inference

導(dǎo)出 picodet_s_192_lcnet_pedestrian 模型:

 python tools/export_model.py -c 
 configs/picodet/application/pedestrian_detection/picodet_s_192_lcnet_pedestrian.yml -o export.benchmark=False 
 export.nms=False 
 weights=https://bj.bcebos.com/v1/paddledet/models/keypoint/tinypose_enhance/picodet_s_192_lcnet_pedestrian.p
 dparams --output_dir=output_inference

此處導(dǎo)出模型的命令與我們常用的命令導(dǎo)出增加了兩個(gè)指令:

export.benchmark=False 和 export.nms=False

主要是關(guān)閉模型后處理以及打開模型極大值抑制。如果不關(guān)閉模型后處理,模型會(huì)增加一個(gè)輸入,且在模型部署時(shí)會(huì)出錯(cuò)。

第二步,將模型轉(zhuǎn)換為ONNX格式

該方式需要安裝 paddle2onnx 和 onnxruntime 模塊。導(dǎo)出方式比較簡(jiǎn)單,比較注意的是需要指定模型的輸入形狀,用于固定模型批次的大小。在命令行中輸入以下指令進(jìn)行轉(zhuǎn)換:

paddle2onnx --model_dir output_inference/picodet_s_320_lcnet_pedestrian --model_filename model.pdmodel --
params_filename model.pdiparams --input_shape_dict "{'image':[1,3,320,320]}" --opset_version 11 --save_filepicodet_s_320_lcnet_pedestrian.onnx

第三步,轉(zhuǎn)換為IR格式

利用 OpenVINO 模型優(yōu)化器,可以實(shí)現(xiàn)將 ONNX 模型轉(zhuǎn)為 IR 格式

mo --input_model picodet_s_320_lcnet_pedestrian.onnx --input_shape [1,3,256,192] --data_type FP16

1.5 下載并轉(zhuǎn)換 PP-TinyPose 模型

1.5.1

PP-TinyPose 模型簡(jiǎn)介

PP-TinyPose 模型信息如下表所示,其默認(rèn)的輸入為動(dòng)態(tài)形狀,需要將該模型的輸入形狀變?yōu)殪o態(tài)形狀。

6d127000-6593-11ed-8abf-dac502259ad0.png

表 2 PP-TinyPose 256×192 Paddle 模型信息

1.5.2

模型下載與轉(zhuǎn)換

第一步,下載模型

命令行直接輸入以下代碼,或者瀏覽器輸入后面的網(wǎng)址即可。

wget https://bj.bcebos.com/v1/paddledet/models/keypoint/tinypose_enhance/tinypose_256x192.zip

下載好后將其解壓到文件夾中,便可以獲得 Paddle 格式的推理模型。

第二步,轉(zhuǎn)換為 ONNX 格式

該方式需要安裝 paddle2onnx 和 onnxruntime 模塊。在命令行中輸入以下指令進(jìn)行轉(zhuǎn)換,其中轉(zhuǎn)換時(shí)需要指定 input_shape,否者推理時(shí)間會(huì)很長(zhǎng):

paddle2onnx --model_dir output_inference/tinypose_256_192/paddle --model_filename model.pdmodel --
params_filename model.pdiparams --input_shape_dict "{'image':[1,3,256,192]}" --opset_version 11 --save_file 
tinypose_256_192.onnx

第三步,轉(zhuǎn)換為 IR 格式

利用OpenVINO 模型優(yōu)化器,可以實(shí)現(xiàn)將 ONNX 模型轉(zhuǎn)為 IR 格式。

cd .openvino	ools
mo --input_model paddle/model.pdmodel --input_shape [1,3,256,192] --data_type FP16

1.6 編寫 OpenVINO 推理程序

1.6.1

實(shí)現(xiàn)行人檢測(cè)

第一步,初始化 PicoDet 行人識(shí)別類

 // 行人檢測(cè)模型
string mode_path_det = @"E:Text_ModelTinyPosepicodet_v2_s_320_pedestrianpicodet_s_320_lcnet_pedestrian.onnx";
// 設(shè)備名稱
string device_name = "CPU";
PicoDet pico_det = new PicoDet(mode_path_det, device_name);

首先初始化行人識(shí)別類,將本地模型讀取到內(nèi)存中,并將模型加載到指定設(shè)備中。

第二步,設(shè)置輸入輸出形狀

Size size_det = new Size(320, 320);
pico_det.set_shape(size_det, 2125);

根據(jù)我們使用的模型,設(shè)置模型的輸入輸出形狀。

第三步,實(shí)現(xiàn)行人檢測(cè)

// 測(cè)試圖片
string image_path = @"E:Git_space基于Csharp和OpenVINO部署PP-TinyPoseimagedemo_3.jpg";
Mat image = Cv2.ImRead(image_path);
List result_rect = pico_det.predict(image);

在進(jìn)行模型推理時(shí),使用 OpenCvSharp 讀取圖像,然后帶入預(yù)測(cè),最終獲取行人預(yù)測(cè)框。最后將行人預(yù)測(cè)框繪制到圖片上,如下圖所示。

6d38c480-6593-11ed-8abf-dac502259ad0.png

圖 3 行人位置預(yù)測(cè)結(jié)果

1.6.2

實(shí)現(xiàn)人體姿態(tài)識(shí)別

第一步,初始化 P 人體姿勢(shì)識(shí)別 PPTinyPose 類

 // 關(guān)鍵點(diǎn)檢測(cè)模型
// onnx格式
string mode_path_pose = @"E:Text_ModelTinyPose	inypose_128_96	inypose_128_96.onnx";
// 設(shè)備名稱
string device_name = "CPU";
PPTinyPose tiny_pose = new PPTinyPose(mode_path_pose, device_name);

首先初始化人體姿勢(shì)識(shí)別 PPTinyPose 類,將本地模型讀取到內(nèi)存中,并加載到設(shè)備上。

第二步,設(shè)置輸入輸出形狀

Size size_pose = new Size(128, 96);
tiny_pose.set_shape(size_pose);

PP-TinyPose 模型輸入與輸出有對(duì)應(yīng)關(guān)系,因此只需要設(shè)置輸入尺寸

第三步,實(shí)現(xiàn)姿勢(shì)預(yù)測(cè)

// 測(cè)試圖片
string image_path = @"E:Git_space基于Csharp和OpenVINO部署PP-TinyPoseimagedemo_3.jpg";
Mat image = Cv2.ImRead(image_path);
Mat result_image = tiny_pose.predict(image);

在進(jìn)行模型推理時(shí),使用 OpenCvSharp 讀取圖像,然后帶入預(yù)測(cè),最終獲取人體姿勢(shì)結(jié)果,如下圖所示。

6d6df448-6593-11ed-8abf-dac502259ad0.png

圖 4 人體姿態(tài)繪制效果圖

1.6.3

推理速度測(cè)試

本項(xiàng)目在蝰蛇峽谷上完成測(cè)試,CPU 為 i7-12700H,自帶英特爾 銳炬 Xe集成顯卡;獨(dú)立顯卡為英特爾銳炫 A770M 獨(dú)立顯卡 + 16G 顯存,如下圖所示。

72afcf08-6593-11ed-8abf-dac502259ad0.png

圖 5 蝰蛇峽谷

測(cè)試代碼已開源:

https://gitee.com/guojin-yan/Csharp_and_OpenVINO_deploy_PP-TinyPose.git

測(cè)試結(jié)果如下表所示

72ea449e-6593-11ed-8abf-dac502259ad0.png

表 3 PP-PicoDet 與 PP-TinyPose 模型運(yùn)行時(shí)間(ms)

注:模型讀取:讀取本地模型,加載到設(shè)備,創(chuàng)建推理通道;

加載數(shù)據(jù):將待推理數(shù)據(jù)進(jìn)行處理并加載到模型輸入節(jié)點(diǎn);

模型推理:模型執(zhí)行推理運(yùn)算;

結(jié)果處理:在模型輸出節(jié)點(diǎn)讀取輸出數(shù)據(jù),并轉(zhuǎn)化為我們所需要的結(jié)果數(shù)據(jù)。

1.7 總結(jié)與未來工作展望

本文完整介紹了在 C# 中基于 OpenVINO 部署 PP-TinyPose 模型的完整流程,并開源了完整的項(xiàng)目代碼。

從表3的測(cè)試結(jié)果可以看到,面對(duì)級(jí)聯(lián)的小模型,由于存在數(shù)據(jù)從 CPU 傳到 GPU,GPU 處理完畢后,結(jié)果從 GPU 傳回 CPU 的時(shí)間消耗,獨(dú)立顯卡相對(duì) CPU 并不具備明顯優(yōu)勢(shì)。

未來

改進(jìn)方向

借助 OpenVINO 預(yù)處理 API,將預(yù)處理和后處理集成到 GPU 中去。

參考教程:使用OpenVINO 預(yù)處理API進(jìn)一步提升YOLOv5推理性能

借助OpenVINO 異步推理 API,提升 GPU 利用率。

參考教程:蝰蛇峽谷上實(shí)現(xiàn) YOLOv5 模型的 OpenVINO 異步推理程序

仔細(xì)分析 CPU 和 GPU 之間的數(shù)據(jù)傳輸性能瓶頸,嘗試鎖頁內(nèi)存、異步傳輸?shù)葍?yōu)化技術(shù),“隱藏” CPU 和 GPU 之間的數(shù)據(jù)傳輸時(shí)間消耗。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    9964

    瀏覽量

    171773
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10863

    瀏覽量

    211763
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4740

    瀏覽量

    128948
  • 物聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    2909

    文章

    44635

    瀏覽量

    373365
  • 顯卡
    +關(guān)注

    關(guān)注

    16

    文章

    2434

    瀏覽量

    67611

原文標(biāo)題:基于C#和OpenVINO?在英特爾獨(dú)立顯卡上部署PP-TinyPose模型 | 開發(fā)者實(shí)戰(zhàn)

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    英特爾CPU部署Qwen 1.8B模型的過程

    本文介紹了英特爾 13 代酷睿 CPU i5 - 13490F 設(shè)備上部署 Qwen 1.8B 模型的過程,你需要至少 16GB 內(nèi)存的機(jī)器來完成這項(xiàng)任務(wù),我們將使用
    的頭像 發(fā)表于 01-12 10:28 ?2630次閱讀

    英特爾高清顯卡4600幫助

    和NVIDIA GTX 960M。顯示器的色溫配置為R-75,G-75,B-75(每個(gè)的最大設(shè)置為100)。英特爾高清顯卡4600可以選擇“默認(rèn)RGB”,“限制RGB”或“全RGB”。此外,還有一個(gè)啟用或禁用
    發(fā)表于 10-26 14:53

    介紹英特爾?分布式OpenVINO?工具包

    性能。 英特爾?OpenlandOpen?管理軟件包包括英特爾?深度學(xué)習(xí)部署工具包(英特爾?DLDT)。適用于Linux *的OpenVINO
    發(fā)表于 07-26 06:45

    怎么安裝適用于Linux *的OpenVINO?工具包的英特爾?發(fā)布版?

    怎么安裝適用于Linux *的OpenVINO?工具包的英特爾?發(fā)布版?
    發(fā)表于 09-23 08:33

    Arm虛擬硬件上部署PP-PicoDet模型

    1、Arm虛擬硬件上部署PP-PicoDet模型  經(jīng)典的深度學(xué)習(xí)工程是從確認(rèn)任務(wù)目標(biāo)開始的,我們首先來簡(jiǎn)單地介紹一下目標(biāo)檢測(cè)任務(wù)以及本期部署
    發(fā)表于 09-16 14:42

    英特爾推出了英特爾銳炬Xe MAX獨(dú)立顯卡

    英特爾推出了英特爾銳炬 Xe MAX 獨(dú)立顯卡,該顯卡專為輕薄型筆記本電腦設(shè)計(jì),現(xiàn)已通過合作伙伴問世。
    的頭像 發(fā)表于 11-01 12:15 ?8779次閱讀

    英特爾Iris Xe MAX獨(dú)立顯卡性能公布

    英特爾現(xiàn)已正式發(fā)布了首款獨(dú)立顯卡Xe Max,涵蓋移動(dòng)版和桌面版兩種版本,前者將會(huì)用于搭載11代酷睿處理器的輕薄筆記本,2021年初上市。官方宣稱,這款
    的頭像 發(fā)表于 11-06 15:09 ?1.2w次閱讀

    英特爾推出面向OEM市場(chǎng)的入門級(jí)Xe獨(dú)立顯卡

    磨蹭了一年之后,英特爾終于出貨了新一代的獨(dú)立顯卡也就是DG1,型號(hào)為Iris Xe MAX,當(dāng)時(shí)英特爾表示這款
    的頭像 發(fā)表于 01-27 10:39 ?1933次閱讀

    英特爾推出銳炫A系列獨(dú)立顯卡 微星推出GeForce RTX 3090 Ti系列顯卡

    英特爾宣布推出面向筆記本電腦的英特爾銳炫獨(dú)立顯卡系列,這是其銳炫A系列顯卡產(chǎn)品組合中率先發(fā)布的獨(dú)立
    的頭像 發(fā)表于 03-31 14:19 ?3048次閱讀

    英特爾獨(dú)立顯卡上部署YOLOv5 v7.0版實(shí)時(shí)實(shí)例分割模型

    本文將介紹基于 OpenVINO 英特爾獨(dú)立顯卡上部署
    的頭像 發(fā)表于 12-20 11:32 ?4089次閱讀

    AI作畫升級(jí),OpenVINO? 和英特爾獨(dú)立顯卡助你快速生成視頻

    今天,我們對(duì)這一應(yīng)用場(chǎng)景再次升級(jí),除了能夠作畫,利用OpenVINO對(duì)Stable Diffusion v2模型的支持及優(yōu)化,我們還能夠在在英特爾獨(dú)立
    的頭像 發(fā)表于 04-24 10:52 ?1559次閱讀
    AI作畫升級(jí),<b class='flag-5'>OpenVINO</b>? 和<b class='flag-5'>英特爾</b><b class='flag-5'>獨(dú)立</b><b class='flag-5'>顯卡</b>助你快速生成視頻

    使用OpenVINO優(yōu)化并部署訓(xùn)練好的YOLOv7模型

    英特爾銳炫 顯卡+ oneAPI 和 OpenVINO 實(shí)現(xiàn)英特爾 視頻 AI 計(jì)算盒訓(xùn)推一體-上篇》一文中,我們?cè)敿?xì)介紹基于
    的頭像 發(fā)表于 08-25 11:08 ?1526次閱讀
    使用<b class='flag-5'>OpenVINO</b>優(yōu)化并<b class='flag-5'>部署</b>訓(xùn)練好的YOLOv7<b class='flag-5'>模型</b>

    基于OpenVINO C# API部署RT-DETR模型

    C# 環(huán)境下使用該模型應(yīng)用到工業(yè)檢測(cè)中,因此本文中,我們將向大家展示使用 OpenVINO Csharp API 部署 RT-DETR
    的頭像 發(fā)表于 11-10 16:59 ?759次閱讀
    基于<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> API<b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    如何在MacOS上編譯OpenVINO C++項(xiàng)目呢?

    英特爾公司發(fā)行的模型部署工具 OpenVINO 模型部署套件,可以實(shí)現(xiàn)在不同系統(tǒng)環(huán)境下運(yùn)行,且發(fā)
    的頭像 發(fā)表于 01-11 18:07 ?908次閱讀
    如何在MacOS上編譯<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C</b>++項(xiàng)目呢?

    使用PyTorch英特爾獨(dú)立顯卡上訓(xùn)練模型

    《PyTorch 2.5重磅更新:性能優(yōu)化+新特性》中的一個(gè)新特性就是:正式支持英特爾獨(dú)立顯卡上訓(xùn)練模型
    的頭像 發(fā)表于 11-01 14:21 ?444次閱讀
    使用PyTorch<b class='flag-5'>在</b><b class='flag-5'>英特爾</b><b class='flag-5'>獨(dú)立</b><b class='flag-5'>顯卡</b>上訓(xùn)練<b class='flag-5'>模型</b>
    主站蜘蛛池模板: 国产乱辈通伦影片在线播放亚洲| 五月婷综合网| 免费一级毛片清高播放| 亚洲男人的性天堂| 特黄特a级特别特级特毛片| 好紧好爽水真多18| 亚洲免费成人网| 激五月| 97影院理论午夜论不卡| 天天干天天射天天插| 35qao强力打造免费上线高清| 涩涩高清无乱码在线观看| 免费日本黄色| 天天干天天干天天色| 800免费资源网| 男男h文小说阅| 男人的天堂久久精品激情| 操女人网| 看毛片网站| 优优国产在线视频| 日本黄色免费观看| 天天爽夜夜爽精品视频一| 成人牲交一极毛片| 五月激情久久| 97色涩| 爽好舒服快受不了了老师| 免费一级欧美在线观看视频片| 欧美日韩精品乱国产538| 爆操欧美| 婷婷丁香色综合狠狠色| www.黄色一片| 91视频三级| 四虎影院永久免费| 亚洲午夜精品一区二区| 午夜性| 国产一级特黄aa级特黄裸毛片| 国产精品国产午夜免费福利看| 婷婷资源| 天堂w| 美女被异性狂揉下部羞羞视频 | 四虎免费永久观看|