在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度神經網絡加速和壓縮方面所取得的進展報告

5b9O_deeplearni ? 來源:未知 ? 作者:李倩 ? 2018-05-21 16:26 ? 次閱讀

鄭板橋在《贈君謀父子》一詩中曾寫道,

“刪繁就簡三秋樹;領異標新二月花。”

這句詩講的是,在畫作最易流于枝蔓的蘭竹時,要去掉其繁雜使之趨于簡明如“三秋之樹”;而針對不同的意境要有發散的引申,從而使每幅作品都如“二月之花”般新穎。

其實在人工智能領域,深度神經網絡的設計,便如同繪制枝蔓繁復的蘭竹,需在底層對其刪繁就簡;而將其拓展至不同場景的應用,則如同面向不同意境的引申,需要創新算法的支撐。

1946年,世界上第一臺通用計算機“恩尼亞克”誕生,經過七十年余的發展,計算機從最初的龐然大物發展到今天的可作“掌上舞”,在體積逐步縮小的同時算力也有了很大提升。然而隨著深度學習的崛起,在計算設備上可集成算法的能力邊界也在不斷拓展,我們仍然面臨著巨大計算量和資源消耗的壓力。

深度神經網絡,作為目前人工智能的基石之一,其復雜性及可移植性將直接影響人工智能在生活中的應用。因此,在學術界誕生了深度網絡加速與壓縮領域的研究。

今天,來自中國科學院自動化研究所的程健研究員,將向大家介紹過去一年中,深度神經網絡加速和壓縮方面所取得的進展。

首先我們來了解一下常用卷積神經網絡的計算復雜度情況。

從上表可以看出近年來網絡層數越來越多,計算復雜度越來越高。而過高的計算復雜度通常要求我們使用GPU或者高性能的CPU對神經網絡進行運算。實際上在深度學習應用過程中,我們還面臨很多諸如移動設備、嵌入式設備這樣存在計算、體積、功耗等方面受限的設備,它們也需要應用深度學習技術。由于這些設備存在的約束,導致現有的高性能深度神經網絡無法在上面進行有效的計算和應用。

這種情況給我們提出了新的挑戰:我們如何在保持現有神經網絡性能基本不變的情況下,通過將網絡的計算量大幅減小,以及對網絡模型存儲做大幅的削減,使得網絡模型能在資源受限的設備上高效運行。這正是我們做深度神經網絡加速、壓縮的基本動機。

從加速和壓縮本身來說,兩者不是同一件事,但通常情況下我們往往會同時做加速和壓縮,兩者都會給網絡的計算帶來收益,所以我們今天把它們放在一起來講。

網絡加速和壓縮技術根據采用的方法不同大概可以分為Low-Rank、Pruning、Quantization、Knowledge Distillation等。目前存在很多體積比較小,性能還不錯的緊致網絡,在其架構設計過程中也含有很多網絡加速壓縮的基本思想,所以我們今天也把Compact Network Design也作為網絡加速和壓縮方法的一種來介紹。

我們對過去一年和2018年目前發表在國際頂會上的有關網絡加速和壓縮的論文做了統計。由上圖可以看出在CVPR2017有10篇關于網絡加速和壓縮的文章,到CVPR2018年增加到13篇文章,ICLR2017有12篇,ICLR2018增加到14篇,這是兩個與深度學習應用相關的主要會議。但奇怪的一點是我們看到也有很多文章在NIPS、ICML等相對傳統、比較注重理論的會議上發表,其中NIPS2017有10篇,ICMI2017有4篇。可以說在過去一年多的時間里,深度神經網絡加速和壓縮不僅僅在應用方面有所突破,還在理論方面有所進展。

根據我們剛才對網絡加速和壓縮方法的分類來看,Low-Rank只有兩篇,Pruning、Quantization都有三十多篇,這兩個是研究的絕對熱點問題。Knowledge Distillation有4篇,Compact CNN Design有3篇。下面分別從這幾個方面進行簡單介紹。

深度網絡加速和壓縮的第一種方法是Low-Rank低秩分解。由于卷積神經網絡中的主要計算量在于卷積計算,而卷積計算本質上是矩陣分析的問題,通過在大學對矩陣分析、高等數學的學習我們知道通過SVD奇異值分解等矩陣分析方法可以有效減少矩陣運算的計算量。對于二維矩陣運算來說SVD是非常好的簡化方法,所以在早期的時候,微軟研究院就做過相關的工作來對網絡實現加速。后面對于高維矩陣的運算往往會涉及到Tensor分解方法來做加速和壓縮,主要是CP分解、Tucker分解、Tensor Train分解和Block Term分解這些在2015年和2016年所做的工作。

應該說矩陣分解方法經過過去的發展已經非常成熟了,所以在2017、2018年的工作就只有Tensor Ring和Block Term分解在RNN的應用兩篇相關文章了。那么為什么Low-Rank不再流行了呢?除了剛才提及的分解方法顯而易見、比較容易實現之外,另外一個比較重要的原因是現在越來越多網絡中采用1×1的卷積,而這種小的卷積使用矩陣分解的方法很難實現網絡加速和壓縮。

深度網絡加速和壓縮的第二種方法是Pruning,簡單來說就是把神經網絡中的連接剪掉,剪掉以后整個網絡復雜度特別是網絡模型大小要減小很多。最早在ICLR2016上斯坦福大學提出了一種稱為Deep Compression的隨機剪枝方法。由于隨機剪枝方法對硬件非常不友好,往往在硬件實現的過程中不一定能夠很好地對網絡起到加速和壓縮的效果。后來大家就想到使用成塊出現的結構化Pruning,Filter Pruning,梯度Pruning等方法。

對于結構化Pruning,在ICML2017中有一篇對于權重進行分析剪枝的文章。具體方法是:首先使用Group Sparsity組稀疏的方法對分組特征添加稀疏正則來修剪掉權重矩陣的一些列,然后通過Exclusive Sparsity增強不同權重之間特征的競爭力來學習更有效的filters,兩者共同作用取得了很好的Pruning結果。

從另一方面考慮,我們能否對feature map和activation也做一些pruning的工作呢?在ICCV2017的工作中有人通過給每個通道channel添加一個尺度因子scaling factor,然后對這些尺度因子scaling factor添加sparsity regularization,最后根據尺度因子大小對相應的通道channels進行修剪,將一些尺度因子比較小的通道剪掉,實現對整個網絡的瘦身效果。

剛才所講的都是在網絡前向傳播過程中所做的Pruning,那么我們能否在網絡訓練的過程中也加入Pruning來加快網絡訓練的過程呢?ICML2017有一篇文章對網絡訓練過程中的梯度信息做了分析,通過去掉幅值比較小的梯度來簡化網絡的反向傳播過程,從而加快網絡的訓練過程。從結果來看,這種方法可以通過僅僅更新1%-4%的權重來實現和原有網絡相當的效果。

除了Pruning,還有一種研究較多的方法是Quantization量化。量化可以分為Low-Bit Quantization(低比特量化)、Quantization for General Training Acceleration(總體訓練加速量化)和Gradient Quantization for Distributed Training(分布式訓練梯度量化)。

由于在量化、特別是低比特量化實現過程中,由于量化函數的不連續性,在計算梯度的時候會產生一定的困難。對此,阿里巴巴冷聰等人把低比特量化轉化成ADMM可優化的目標函數,從而由ADMM來優化。

我們實驗室從另一個角度思考這個問題,使用哈希把二值權重量化,再通過哈希求解。

前面兩篇文章都是對權重進行量化,那么feature map能否也可以進行量化呢?以前有人考慮過這個問題,將權重和feature map一起進行量化,但在實際過程中非常難以收斂。我們實驗室在CVPR2018上提出一個方法,受到兩步哈希法的啟發,將量化分為兩步,第一步先對feature map進行量化,第二步再對權重量化,從而能夠將兩個同時進行很好的量化。

剛才的量化都是在網絡inference過程中,其實量化也可以在訓練過程中使用,這是英特爾在NIPS2017提出的Flexpoint方法。我們知道在32位浮點和16位浮點存儲的時候,第一位是符號位,中間是指數位,后面是尾數。他們對此提出了把前面的指數項共享的方法,這樣可以把浮點運算轉化為尾數的整數定點運算,從而加速網絡訓練。

在很多深度學習訓練過程中,為了讓訓練更快往往會用到分布式計算。在分布式計算過程中有一個很大問題,每一個分布式服務器都和中心服務器節點有大量的梯度信息傳輸過程,從而造成帶寬限制。這篇文章采取把要傳輸的梯度信息量化為三值的方法來有效加速分布式計算。

第四種方法是Knowledge Distillation。這方面早期有兩個工作,Knowledge Distillation最早由Hinton在2015年提出,隨后Romero提出了FitNets。在Knowledge Distillation中有兩個關鍵的問題,一是如何定義知識,二是使用什么損失函數來度量student網絡和teacher 網絡之間的相似度。

這里主要介紹2017年的兩個相關工作。一是FSP方法,它實際上將原始網絡中feature map之間的相關度作為知識transfer到student network中,同時使用了L2損失函數。

另一個ICLR2017的工作在feature map中定義了attention,使用了三種不同的定義方法,將attention作為知識transfer到student network中。

下面是幾種主流方法在知識定義和損失函數選擇方面的對比。

最后簡單講一下緊致網絡設計。我們剛才講到的幾種網絡加速和壓縮方法都是在原有非常復雜的網絡基礎上,對它進行量化、剪枝,讓網絡規模變小、計算變快。我們可以考慮直接設計又小又快又好的網絡,這就是緊致網絡設計的方法。我們主要講三個相關的工作。

先介紹谷歌在2017年和2018年連續推出的MobileNets V1和MobileNets V2,其中使用了depthwise的1x1卷積。MobileNets V1是一個在網絡非常精簡情況下比較高性能的網絡,MobileNets V2開始于通道比較少的1×1的網絡,然后映射到通道比較多的層,隨后做一個depthwise,最后再通過1x1卷積將它映射回去,這樣可以大幅減少1×1卷積計算量。

實際上MobileNets中1x1的卷積占有很大的比重,基于這樣的原則,曠視科技在CVPR2018提出把1×1的卷積通過分組來減少計算的方法,由于分組以后存在不同通道之間信息交流非常少的問題,他們又在卷積層之間增加channel shuffle過程進行隨機擾亂,增加了不同通道之間的信息交流。這是ShuffleNet所做的工作。

下面是緊致網絡設計幾種方法的比較。

最后簡單講一下深度神經網絡加速和壓縮的發展趨勢。第一,我們發現實際上現在絕大部分加速和壓縮的方法,都需要有一個fine-tuning的過程,這個過程需要有一定量的含有標簽的原始訓練樣本,這在實際應用過程中可能會有一定的限制。會有一些Non-fine-tuning或者Unsupervised Compression方法的出現。實際上現在已經有人在研究這方面的東西。第二,在加速和壓縮過程中會涉及到很多參數,甚至還包含很多經驗性東西,將來能不能做到盡可能少需要、不需要經驗或者參數越少越好的self-adaptive方法。第三,現在很多加速壓縮方法往往都是針對分類問題,未來在目標檢測、語義分割方面也會出現類似的工作。第四,現在很多方法與硬件的結合越來越緊密,對于加速和壓縮方面來說也是如此,未來肯定是之間的結合越來越多。最后是二值網絡越來越成熟,未來研究的人會越來越多。由于時間的關系只能簡單介紹,可以參考我們最近剛發表在FITEE 2018上的綜述論文了解更多詳細的信息。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4777

    瀏覽量

    100995
  • 人工智能
    +關注

    關注

    1793

    文章

    47565

    瀏覽量

    239412

原文標題:讓機器“刪繁就簡”:深度神經網絡加速與壓縮|VALSE2018之六

文章出處:【微信號:deeplearningclass,微信公眾號:深度學習大講堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于賽靈思FPGA的卷積神經網絡實現設計

    FPGA 上實現卷積神經網絡 (CNN)。CNN 是一類深度神經網絡,在處理大規模圖像識別任務以及與機器學習類似的其他問題方面已大獲成功。在當前案例中,針對在 FPGA 上實現 CN
    發表于 06-19 07:24

    如何設計BP神經網絡圖像壓縮算法?

    ,并能在腦海中重現這些圖像信息,這不僅與人腦的海量信息存儲能力有關,還與人腦的信息處理能力,包括數據壓縮能力有關。在各種神經網絡中,多層前饋神經網絡具有很強的信息處理能力,由于其采用BP算法,因此也
    發表于 08-08 06:11

    深度神經網絡是什么

    多層感知機 深度神經網絡in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發表于 07-12 06:35

    基于深度神經網絡的激光雷達物體識別系統

    的激光雷達物體識別技術一直難以在嵌入式平臺上實時運行。經緯恒潤經過潛心研發,攻克了深度神經網絡在嵌入式平臺部署所面臨的算子定制與加速、量化策略、模型壓縮等難題,率先實現了高性能激光檢測
    發表于 12-21 07:59

    深度神經網絡壓縮和正則化剖析

    利用深度壓縮和DSD訓練來提高預測精度。 深度神經網絡已經成為解決計算機視覺、語音識別和自然語言處理等機器學習任務的最先進的技術。盡管如此,深度
    發表于 11-16 13:11 ?1841次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>神經網絡</b>的<b class='flag-5'>壓縮</b>和正則化剖析

    NVIDIA深度神經網絡加速庫cuDNN軟件安裝教程

    計基于GPU的加速庫 。cuDNN為深度神經網絡中的標準流程提供了高度優化的實現方式,例如convolution、pooling、normalization以及activation layers的前向以及后向過程。 cuDNN只
    發表于 12-08 10:40 ?2288次閱讀

    不同神經網絡量子態的最新進展以及面臨的挑戰

    摘要???神經網絡量子態是由人工神經網絡所表示的量子態。得益于機器學習,尤其是深度學習近年來取得的突破性進展
    的頭像 發表于 03-02 09:56 ?3178次閱讀

    基于深度神經網絡的端到端圖像壓縮方法

    人工設計的算法分別進行優化近年來,基于深度神經網絡的端到端圖像壓縮方法在圖像壓縮取得了豐碩的成果,相比傳統方法,端到端圖像
    發表于 04-08 09:30 ?16次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>神經網絡</b>的端到端圖像<b class='flag-5'>壓縮</b>方法

    深度神經網絡模型的壓縮和優化綜述

    近年來,隨著深度學習的飛速發展,深度神經網絡受到了越來越多的關注,在許多應用領域取得了顯著效果。通常,在較高的計算量下,深度
    發表于 04-12 10:26 ?20次下載
    <b class='flag-5'>深度</b><b class='flag-5'>神經網絡</b>模型的<b class='flag-5'>壓縮</b>和優化綜述

    卷積神經網絡深度神經網絡的優缺點 卷積神經網絡深度神經網絡的區別

    深度神經網絡是一種基于神經網絡的機器學習算法,其主要特點是由多層神經元構成,可以根據數據自動調整神經元之間的權重,從而實現對大規模數據進行預
    發表于 08-21 17:07 ?4203次閱讀

    淺析深度神經網絡壓縮加速技術

    深度神經網絡深度學習的一種框架,它是一種具備至少一個隱層的神經網絡。與淺層神經網絡類似
    的頭像 發表于 10-11 09:14 ?773次閱讀
    淺析<b class='flag-5'>深度</b><b class='flag-5'>神經網絡</b><b class='flag-5'>壓縮</b>與<b class='flag-5'>加速</b>技術

    深度神經網絡模型有哪些

    深度神經網絡(Deep Neural Networks,DNNs)是一類具有多個隱藏層的神經網絡,它們在許多領域取得了顯著的成功,如計算機視覺、自然語言處理、語音識別等。以下是一些常見
    的頭像 發表于 07-02 10:00 ?1580次閱讀

    深度神經網絡與基本神經網絡的區別

    在探討深度神經網絡(Deep Neural Networks, DNNs)與基本神經網絡(通常指傳統神經網絡或前向神經網絡)的區別時,我們需
    的頭像 發表于 07-04 13:20 ?1009次閱讀

    卷積神經網絡壓縮方法

    卷積神經網絡(Convolutional Neural Network, CNN)作為深度學習領域的重要分支,在圖像識別、視頻處理、自然語言處理等多個領域取得了顯著成就。然而,隨著網絡
    的頭像 發表于 07-11 11:46 ?403次閱讀

    殘差網絡深度神經網絡

    殘差網絡(Residual Network,通常簡稱為ResNet) 是深度神經網絡的一種 ,其獨特的結構設計在解決深層網絡訓練中的梯度消失和梯度爆炸問題上
    的頭像 發表于 07-11 18:13 ?1156次閱讀
    主站蜘蛛池模板: 噜噜噜噜私人影院| 男人日女人视频免费看| 四虎影院在线免费观看视频| 午夜欧美精品| 免费一级特黄特色大片在线| 91视频精品| 视频在线免费观看网址| 亚洲黄色网址大全| 国产精品三区四区| 欧美精品成人a多人在线观看| 亚洲成人在线网| 色婷婷九月| 黄色欧美网站| 操香蕉| 天堂资源最新版在线官网| www.色视频| 久久亚洲精品玖玖玖玖| 日本高免费观看在线播放| 亚洲成熟| 日本乱理论片免费看| 色综合久久久久久久久五月性色 | 色婷婷色综合缴情在线| 亚洲第一区第二区| 色六月丁香| 黄色免费的视频| 久久久久久久综合狠狠综合| 国产精品久久久久网站| 午夜影视在线免费观看| 久久semm亚洲国产| 可以免费看黄的网址| 色欲情狂| 欧美一级在线全免费| 天天干夜夜骑| 天天躁日日躁狠狠躁一级毛片| 亚洲日本中文字幕天天更新| 免免费看片| 国产精品1区2区3区在线播放| 黄色成人在线| 99国产福利| 美国bj69video18| 永久网站色视频在线观看免费|