在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

TensorFlow模型優化:模型量化

Tensorflowers ? 來源:TensorFlow ? 作者:TensorFlow ? 2021-02-04 15:40 ? 次閱讀

1. 模型量化需求

為了滿足各種 AI 應用對檢測精度的要求,深度神經網絡結構的寬度、層數、深度以及各類參數等數量急速上升,導致深度學習模型占用了更大的存儲空間,需要更長的推理時延,不利于工業化部署;目前的模型都運行在 CPUGPUFPGAASIC 等四類芯片上,芯片的算力有限;對于邊緣設備上的芯片而言,在存儲、內存、功耗及時延性方面有許多限制,推理效率尤其重要。

作為通用的深度學習優化的手段之一,模型量化將深度學習模型量化為更小的定點模型和更快的推理速度,而且幾乎不會有精度損失,其適用于絕大多數模型和使用場景。此外,模型量化解鎖了定點硬件(Fixed-point hardware) 和下一代硬件加速器的處理能力,能夠實現相同時延的網絡模型推理功能,硬件價格只有原來的幾十分之一,尤其是 FPGA,用硬件電路去實現網絡推理功能,時延是各類芯片中最低的。

TensorFlow 模型優化工具包是一套能夠優化機器學習模型以便于部署和執行的工具。該工具包用途很多,其中包括支持用于以下方面的技術:

通過模型量化等方式降低云和邊緣設備(例如移動設備和 IoT 設備)的延遲時間和推斷成本。將優化后的模型部署到邊緣設備,這些設備在處理、內存、耗電量、網絡連接和模型存儲空間方面存在限制。在現有硬件或新的專用加速器上執行模型并進行優化。

根據您的任務選擇模型和優化工具:

利用現成模型提高性能在很多情況下,預先優化的模型可以提高應用的效率。

2. 模型量化過程

大家都知道模型是有權重 (w) 和偏置 (b) 組成,其中 w,b 都是以 float32 存儲的,float32 在計算機中存儲時占 32bit,int8 在計算機中存儲時占 8bit;模型量化就是用 int8 等更少位數的數據類型來代替 float32 表示模型的權重 (w) 和偏置 (b) 的過程,從而達到減少模型尺寸大小、減少模型內存消耗及加快模型推理速度等目標。

模型量化以損失推理精度為代價,將網絡中連續取值或離散取值的浮點型參數(權重 w 和輸入 x)線性映射為定點近似 (int8/uint8) 的離散值,取代原有的 float32 格式數據,同時保持輸入輸出為浮點型,從而達到減少模型尺寸大小、減少模型內存消耗及加快模型推理速度等目標。定點量化近似表示卷積和反卷積如下圖 所示,左邊是原始權重 float32 分布,右邊是原始權重 float32 經過量化后又反量化后權重分布。

32703f02-5408-11eb-8b86-12bb97331649.jpg

32a0429c-5408-11eb-8b86-12bb97331649.jpg

圖 2.1 Int8 量化近似表示卷積

33082e66-5408-11eb-8b86-12bb97331649.jpg

3341b7da-5408-11eb-8b86-12bb97331649.jpg

圖 2.2 Int8 量化近似表示反卷積

3. 模型量化好處

減小模型尺寸,如 8 位整型量化可減少 75% 的模型大小;

減少存儲空間,在邊緣側存儲空間不足時更具有意義;

減少內存耗用,更小的模型大小意味著不需要更多的內存;

加快推理速度,訪問一次 32 位浮點型可以訪問四次 int8 整型,整型運算比浮點型運算更快;CPU 用 int8 計算的速度更快

減少設備功耗,內存耗用少了推理速度快了自然減少了設備功耗;

支持微處理器,有些微處理器屬于 8 位的,低功耗運行浮點運算速度慢,需要進行 8bit 量化。

某些硬件加速器如 DSP/NPU 只支持 int8

4. 模型量化原理

模型前向推理過程中所有的計算都可以簡化為 x= w*x +b; x 是輸入,也叫作 FeatureMap,w 是權重,b 是偏置;實際過程中 b 對模型的推理結果影響不大,一般丟棄。原本 w,x 是 float32,現在使用 int8 來表示為 qw,qx;模型量化的原理就是定點 (qw qx) 與浮點 (w,x),建立了一種有效的數據映射關系.。不僅僅量化權重 W ,輸入 X 也要量化;詳解如下:

R 表示真實的浮點值(w 或者 x),

責任編輯:lq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3280

    瀏覽量

    48985
  • 機器學習
    +關注

    關注

    66

    文章

    8429

    瀏覽量

    132855
  • 深度學習
    +關注

    關注

    73

    文章

    5511

    瀏覽量

    121355

原文標題:社區分享 | TensorFlow 模型優化:模型量化

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+Embedding技術解讀

    生成回答。在特定領域或任務中,可以通過微調Embedding模型來提高檢索的相關性和準確性。Embedding在大模型RAG技術中發揮著至關重要的作用。它不僅實現了文本向量化,還為信息檢索和文本生成提供了基礎。通過不斷
    發表于 01-17 19:53

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    今天學習<基于大模型的RAG應用開發與優化>這本書。大模型微調是深度學習領域中的一項關鍵技術,它指的是在已經預訓練好的大型深度學習模型基礎上,使用新的、特定任務相關的數據
    發表于 01-14 16:51

    Meta發布Llama 3.2量化模型

    近日,Meta在開源Llama 3.2的1B與3B模型后,再次為人工智能領域帶來了新進展。10月24日,Meta正式推出了這兩個模型量化版本,旨在進一步優化
    的頭像 發表于 10-29 11:05 ?437次閱讀

    理解LLM中的模型量化

    在本文中,我們將探討一種廣泛采用的技術,用于減小大型語言模型(LLM)的大小和計算需求,以便將這些模型部署到邊緣設備上。這項技術稱為模型量化。它使得人工智能
    的頭像 發表于 10-25 11:26 ?269次閱讀
    理解LLM中的<b class='flag-5'>模型</b><b class='flag-5'>量化</b>

    AI大模型的性能優化方法

    AI大模型的性能優化是一個復雜而關鍵的任務,涉及多個方面和策略。以下是一些主要的性能優化方法: 一、模型壓縮與優化
    的頭像 發表于 10-23 15:01 ?869次閱讀

    快速部署Tensorflow和TFLITE模型在Jacinto7 Soc

    電子發燒友網站提供《快速部署Tensorflow和TFLITE模型在Jacinto7 Soc.pdf》資料免費下載
    發表于 09-27 11:41 ?0次下載
    快速部署<b class='flag-5'>Tensorflow</b>和TFLITE<b class='flag-5'>模型</b>在Jacinto7 Soc

    【飛凌嵌入式OK3576-C開發板體驗】rkllm模型量化構建

    (model = modelpath) if ret != 0: print(\'Load model failed!\') exit(ret) 模型量化構建 # Build model ret
    發表于 08-27 22:50

    stm32mp135d的板子可不可以跑tensorflow模型啊?

    請問是stm32mp135d的板子可不可以跑tensorflow模型啊?
    發表于 07-18 06:49

    深度神經網絡模型量化的基本方法

    深度神經網絡模型量化是深度學習領域中的一種重要優化技術,旨在通過減少模型參數的精度(即從高精度浮點數如32位浮點數FP32降低到低精度整數如8位整數INT8或更低)來降低
    的頭像 發表于 07-15 11:26 ?725次閱讀

    深度學習模型量化方法

    深度學習模型量化是一種重要的模型量化技術,旨在通過減少網絡參數的比特寬度來減小模型大小和加速推理過程,同時盡量保持
    的頭像 發表于 07-15 11:01 ?521次閱讀
    深度學習<b class='flag-5'>模型</b><b class='flag-5'>量化</b>方法

    使用TensorFlow進行神經網絡模型更新

    使用TensorFlow進行神經網絡模型的更新是一個涉及多個步驟的過程,包括模型定義、訓練、評估以及根據新數據或需求進行模型微調(Fine-tuning)或重新訓練。下面我將詳細闡述這
    的頭像 發表于 07-12 11:51 ?453次閱讀

    請問ESP32如何運行TensorFlow模型

    請問ESP32如何運行TensorFlow模型
    發表于 07-09 07:30

    tensorflow簡單的模型訓練

    在本文中,我們將詳細介紹如何使用TensorFlow進行簡單的模型訓練。TensorFlow是一個開源的機器學習庫,廣泛用于各種機器學習任務,包括圖像識別、自然語言處理等。我們將從安裝
    的頭像 發表于 07-05 09:38 ?737次閱讀

    keras模型tensorflow session

    在這篇文章中,我們將討論如何將Keras模型轉換為TensorFlow session。 Keras和TensorFlow簡介 Keras是一個高級神經網絡API,它提供了一種簡單、快速的方式來構建
    的頭像 發表于 07-05 09:36 ?570次閱讀

    如何使用Tensorflow保存或加載模型

    TensorFlow是一個廣泛使用的開源機器學習庫,它提供了豐富的API來構建和訓練各種深度學習模型。在模型訓練完成后,保存模型以便將來使用或部署是一項常見的需求。同樣,加載已保存的
    的頭像 發表于 07-04 13:07 ?1652次閱讀
    主站蜘蛛池模板: 黑人黄色片| 国产自在自线午夜精品视频| 狠狠做深爱婷婷久久一区| 久久影院朴妮唛| 久草a视频| 国产大乳喷奶水在线看| yy4080午夜理论一级毛片| 久久99精品国产麻豆宅宅| 波多野吉衣一区二区三区在线观看 | 精品久久久久久久久久| 午夜h视频| 久久久国产在线| 亚洲艹| 日本午夜片| 国外精品视频在线观看免费| 香港三澳门三日本三级| 天堂网址| 美女流白浆网站| a毛片成人免费全部播放| 天天干天天操天天添| 8050网午夜一级毛片免费不卡| 在线观看高清视频| www.色午夜.com| 天天曰天天干| 婷婷爱五月| 成年啪啪网站免费播放看| 午夜精品久久久久久久2023| 尻逼久久| 国产精品偷伦费观看| 中文字幕一区二区三区不卡| 伊人草| 免费黄色福利| 黄色网大全| 天天做天天爱天天操| 高清成年美女黄网站色大| 免费日本视频| 色婷婷激婷婷深爱五月小说| 天堂电影在线| 精品乩伦视频| 日韩操| tdg58在线观看|