在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

在英特爾酷睿Ultra處理器上優化和部署YOLOv8模型

英特爾物聯網 ? 來源:英特爾物聯網 ? 2024-05-30 17:16 ? 次閱讀

英特爾 酷睿 Ultra處理器是英特爾公司推出的一個高端處理器品牌,其第一代產品基于Meteor Lake架構,使用Intel 4制程,單顆芯片封裝CPUGPU(Intel Arc Graphics)和 NPU(Intel AI Boost),具有卓越的AI性能。

本文將詳細介紹使用OpenVINO工具套件在英特爾 酷睿Ultra處理器上實現對YOLOv8模型的INT8量化和部署。

1

第一步:環境搭建

首先,請下載并安裝最新版的NPU和顯卡驅動:

NPU 驅動:https://www.intel.cn/content/www/cn/zh/download/794734/intel-npu-driver-windows.html

顯卡驅動:

https://www.intel.cn/content/www/cn/zh/download/785597/intel-arc-iris-xe-graphics-windows.html

a46b2724-1e63-11ef-91d2-92fbcf53809c.png

然后,請下載并安裝Anaconda,然后創建并激活名為npu的虛擬環境:(下載鏈接:https://www.anaconda.com/download)

conda create -n npu python=3.11    #創建虛擬環境
conda activate npu           #激活虛擬環境
python -m pip install --upgrade pip  #升級pip到最新版本

最后,請安裝openvino、nncf、onnx和ultralytics:

pip install openvino nncf onnx ultralytics

a479fd62-1e63-11ef-91d2-92fbcf53809c.png

2

第二步:導出yolov8s模型并實現INT8量化

使用yolo命令導出yolov8s.onnx模型:

yolo export model=yolov8s.pt format=onnx

使用ovc命令導出OpenVINO格式,FP16精度的yolov8s模型

ovc yolov8s.onnx

a486298e-1e63-11ef-91d2-92fbcf53809c.png

使用benchmark_app程序依次測試FP16精度的yolov8s模型在CPU,GPU和NPU上的AI推理性能,結果如下圖所示:

benchmark_app -m yolov8s.xml -d CPU  #此處依次換為GPU,NPU

a49247c8-1e63-11ef-91d2-92fbcf53809c.png

用NNCF實現yolov8s模型的INT8量化

NNCF全稱Neural Network Compression Framework,是一個實現神經網絡訓練后量化(post-training quantization)和訓練期間壓縮(Training-Time Compression)的開源工具包,如下圖所示,通過對神經網絡權重的量化和壓縮以最低精度損失的方式實現推理計算的優化和加速。

a49e1fa8-1e63-11ef-91d2-92fbcf53809c.png

NNCF提供的量化和壓縮算法

在上述量化和壓縮算法中,訓練后INT8量化(Post-Training INT8 Quantization)是在工程實踐中應用最廣泛的,它無需重新訓練或微調模型,就能實現模型權重的INT8量化,在獲得顯著的性能提升的同時,僅有極低的精度損失,而且使用簡便。

用NNCF實現YOLOv8s模型INT8量化的范例代碼yolov8_PTQ_INT8.py,如下所示:

import torch, nncf
import openvino as ov 
from torchvision import datasets, transforms
# Specify the path of model and dataset
model_dir = r"yolov8s.xml"
dataset = r"val_dataset"
# Instantiate your uncompressed model
model = ov.Core().read_model(model_dir)
# Provide validation part of the dataset to collect statistics needed for the compression algorithm
val_dataset = datasets.ImageFolder(dataset, transform=transforms.Compose([transforms.ToTensor(),transforms.Resize([640, 640])]))
dataset_loader = torch.utils.data.DataLoader(val_dataset, batch_size=1)
# Step 1: Initialize transformation function
def transform_fn(data_item):
  images, _ = data_item
  return images.numpy()
# Step 2: Initialize NNCF Dataset
calibration_dataset = nncf.Dataset(dataset_loader, transform_fn)
# Step 3: Run the quantization pipeline
quantized_model = nncf.quantize(model, calibration_dataset)
# Step 4: Save the INT8 quantized model
ov.save_model(quantized_model, "yolov8s_int8.xml")

運行yolov8_PTQ_INT8.py,執行結果如下所示:

a4aab6c8-1e63-11ef-91d2-92fbcf53809c.png

使用benchmark_app程序依次測試INT8精度的yolov8s模型在CPU,GPU和NPU上的AI推理性能,結果如下圖所示:

benchmark_app -m yolov8s_int8.xml -d CPU  #此處依次換為GPU,NPU

a4b31c96-1e63-11ef-91d2-92fbcf53809c.png

從上圖可以看出,yolov8s模型經過INT8量化后,相比FP16精度模型,無論在Latency還是Throughput上,都有明顯提升。

3

第三步:編寫YOLOv8推理程序

yolov8目標檢測模型使用letterbox算法對輸入圖像進行保持原始寬高比的放縮,據此,yolov8目標檢測模型的預處理函數實現,如下所示:

from ultralytics.data.augment import LetterBox
# 實例化LetterBox
letterbox = LetterBox()
# 預處理函數
def preprocess_image(image: np.ndarray, target_size=(640, 640))->np.ndarray:
  image = letterbox(image)  #YOLOv8用letterbox按保持圖像原始寬高比方式放縮圖像
  blob = cv2.dnn.blobFromImage(image, scalefactor=1 / 255, size=target_size, swapRB=True)
  return blob

yolov8目標檢測模型的后處理函數首先用非極大值抑制non_max_suppression()算法去除冗余候選框,然后根據letterbox的放縮方式,用scale_boxes()函數將檢測框的坐標點還原到原始圖像上,如下所示:

# 后處理函數: 從推理結果[1,84,8400]的張量中拆解出:檢測框,置信度和類別
def postprocess(pred_boxes, input_hw, orig_img, min_conf_threshold = 0.25, 
         nms_iou_threshold = 0.7, agnosting_nms = False, max_detections = 300):
  # 用非極大值抑制non_max_suppression()算法去除冗余候選框
  nms_kwargs = {"agnostic": agnosting_nms, "max_det":max_detections}
  pred = ops.non_max_suppression(
    torch.from_numpy(pred_boxes),
    min_conf_threshold,
    nms_iou_threshold,
    nc=80,
    **nms_kwargs
  )[0]
  # 用scale_boxes()函數將檢測框的坐標點還原到原始圖像上
  shape = orig_img.shape
  pred[:, :4] = ops.scale_boxes(input_hw, pred[:, :4], shape).round()
  
  return pred

完整代碼詳細參見:yolov8_infer_ov.py,其運行結果如下所示:

a4be35fe-1e63-11ef-91d2-92fbcf53809c.png

4

總結

英特爾 酷睿 Ultra處理器內置了CPU、GPU和NPU,相比之前,無論是能耗比、顯卡性能還是AI性能,都有顯著提升;通過OpenVINO和NNCF,可以方便快捷實現AI模型的優化和INT量化,以及本地化部署,獲得非常不錯的端側AI推理性能。



審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    19286

    瀏覽量

    229817
  • 英特爾
    +關注

    關注

    61

    文章

    9964

    瀏覽量

    171765
  • GPU芯片
    +關注

    關注

    1

    文章

    303

    瀏覽量

    5812
  • OpenVINO
    +關注

    關注

    0

    文章

    93

    瀏覽量

    201

原文標題:在英特爾? 酷睿? Ultra處理器上優化和部署YOLOv8模型 | 開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    智譜發布清言英特爾Ultra專享版

    近日,國內知名大模型廠商智譜在其官方網站——智譜清言,正式推出了針對英特爾Ultra
    的頭像 發表于 12-24 10:49 ?123次閱讀

    智譜清言英特爾Ultra專享版發布,離線模型玩轉AIPC

    近日,國內領先的大模型廠商智譜在智譜清言的官網發布了智譜清言英特爾Ultra專享版,這個版本可以利用
    的頭像 發表于 12-18 11:52 ?223次閱讀

    英特爾發布Ultra 200S系列臺式機處理器

    近日,英特爾正式推出了Ultra 200S系列處理器家族,為臺式機平臺帶來了全新的AI PC功能。此次發布的
    的頭像 發表于 10-11 17:36 ?496次閱讀

    選擇英特爾? ? 處理器家族,開啟智能計算新時代

    在數字化轉型加速的時代,計算性能的提升已成為每個用戶的核心訴求。無論是職場精英、游戲玩家、內容創作者,還是家庭娛樂愛好者, 英特爾? ? 處理器家族 憑借卓越的性能與智能
    發表于 09-18 10:39 ?8824次閱讀
    選擇<b class='flag-5'>英特爾</b>? <b class='flag-5'>酷</b><b class='flag-5'>睿</b>? <b class='flag-5'>處理器</b>家族,開啟智能計算新時代

    英特爾? ? Ultra 處理器面向多行業加速AI產業升級

    持競爭力,企業亟需更高效的計算平臺來處理日益復雜的數據分析和AI推理任務。 為響應這一時代需求,英特爾正式發布英特爾? ?
    發表于 09-14 20:36 ?1.3w次閱讀
    <b class='flag-5'>英特爾</b>? <b class='flag-5'>酷</b><b class='flag-5'>睿</b>? <b class='flag-5'>Ultra</b> <b class='flag-5'>處理器</b>面向多行業加速AI產業升級

    英特爾Ultra 200V系列處理器發布

    英特爾近日隆重推出了其革命性的Ultra 200V系列處理器,這一全新x86處理器家族以超高
    的頭像 發表于 09-10 16:44 ?548次閱讀

    英特爾Ultra 200V Lunar Lake處理器引領消費與商用市場新紀元

    科技界翹首以盼的9月4日零點,英特爾北京時間正式揭開了Ultra 200V系列“Luna
    的頭像 發表于 09-06 16:25 ?816次閱讀

    如何將Llama3.1模型部署英特爾Ultra處理器

    本文從搭建環境開始,一步一步幫助讀者實現只用五行代碼便可將Llama3.1模型部署英特爾
    的頭像 發表于 07-26 09:51 ?2137次閱讀
    如何將Llama3.1<b class='flag-5'>模型</b><b class='flag-5'>部署</b><b class='flag-5'>在</b><b class='flag-5'>英特爾</b><b class='flag-5'>酷</b><b class='flag-5'>睿</b><b class='flag-5'>Ultra</b><b class='flag-5'>處理器</b>

    英特爾Ultra處理器出貨量預計飆升

    英特爾中國區董事長王銳近日透露,英特爾Ultra處理器自問世以來,已經
    的頭像 發表于 06-20 09:23 ?759次閱讀

    已有超過500款AI模型英特爾Ultra處理器上得以優化運行

    近日,英特爾宣布全新英特爾 Ultra處理器
    的頭像 發表于 05-11 09:31 ?723次閱讀

    英特爾Ultra處理器突破500個AI模型優化

    英特爾最新推出的英特爾? ? Ultra處理器
    的頭像 發表于 05-09 11:18 ?764次閱讀

    英特爾二季度對Ultra處理器供應受限

    英特爾首席執行官帕特·基辛格最新的財報電話會議透露,受晶圓級封裝產能限制,二季度Ultra
    的頭像 發表于 05-06 11:04 ?668次閱讀

    英特爾推出面向邊緣市場的 / Ultra 處理器PS系列

    其中,Ultra處理器PS系列即為Meteor Lake PS,提供45瓦 and 15瓦兩個功率選項。主打款為英特爾
    的頭像 發表于 04-09 16:45 ?1029次閱讀

    英特爾Arrow Lake處理器更名Ultra

    @金豬升級包強調Arrow Lake處理器不太可能被稱為15代,更有可能會被冠名為“Ultra
    的頭像 發表于 03-04 16:45 ?1434次閱讀

    5G網絡優化處理器和AI PC搶鏡 英特爾攜三大重磅產品線亮相MWC24

    此次MWC24英特爾帶來三大旗艦產品線:一、用于網絡工作負載的未來Granite Rapids-D和Sierra Forest處理器;二、幫助運營商變現其邊緣
    的頭像 發表于 02-29 15:16 ?4345次閱讀
    5G網絡<b class='flag-5'>優化處理器</b>和AI PC搶鏡 <b class='flag-5'>英特爾</b>攜三大重磅產品線亮相MWC24
    主站蜘蛛池模板: 天堂在线看| 日本骚视频| 久久性久久性久久久爽| 男人的天堂久久精品激情| 在线看3344免费视频| 67194最新网址| 亚洲大色| 国产成人在线播放视频| 又长又大又粗又硬3p免费视| а8天堂资源在线官网| 亚洲国产精品婷婷久久| 国产四虎精品| 4438x全国最大色| 五月天婷婷色| 美女网站在线观看视频18| 91精品久久国产青草| 国产午夜精品福利| 亚洲干综合| 变态重口极致另类在线| 可以免费看黄的网址| 一区在线播放| 亚洲成人综合在线| 第九色| 精品午夜久久影视| 鲁丝一区二区三区| 亲女乱h文小兰第一次| 7777sq国产精品| 一区视频免费观看| 美女 免费 视频 黄的| 国产精品久久久久久久久免费| 男女交性高清视频无遮挡 | 噜噜色网| 国产理论精品| 三级毛片在线看| 中文天堂网| 男女交性动态免费视频| 韩国三级观影久久| 久久精品免费观看久久| 99热精品久久只有精品30| 美女黄页网| 日女人免费视频|