摘要: 隨著近幾年來深度學習的興起,其在目標檢測、圖像分類、語音識別、自然語言處理等機器學習領域都取得了重大的突破,其中以卷積神經網絡在深度學習中的運用較多。自VGGNet出現以來,深度學習逐漸向深層的網絡發展,網絡越來越深,這不僅增大了對硬件平臺存儲、運行內存的需求,還大大增加了計算量,對硬件平臺資源的要求越來越高。
因此將深度學習應用于嵌入式平臺尤為困難。對此,通過對模型進行剪枝的方法將訓練好的網絡模型壓縮處理,在基本保證準確率的情況下去除不重要的參數,縮減模型,減小網絡的計算復雜度,將深度學習應用于嵌入式平臺。
0 引言
深度學習起源于人工神經網絡,后來LECUN Y提出了卷積神經網絡LeNet-5[1],用于手寫數字識別,并取得了較好的成績,但當時并沒有引起人們足夠的注意。隨后BP算法被指出梯度消失的問題,當網絡反向傳播時,誤差梯度傳遞到前面的網絡層基本接近于0,導致無法進行有效的學習。
2006年HINTON G E提出多隱層的網絡可以通過逐層預訓練來克服深層神經網絡在訓練上的困難[2],隨后深度學習迎來了高速發展期。一些新型的網絡結構不斷被提出(如AlexNet、VGGNet、GoogleNet、ResNet等),網絡結構不斷被優化,性能不斷提升,用于圖像識別可以達到很好的效果。然而這些網絡大都具有更多的網絡層,對計算機處理圖像的能力要求很高,需要更多的計算資源,一般使用較好的GPU來提高訓練速度,不利于在硬件資源(內存、處理器、存儲)較低的設備運行,具有局限性。
深度學習發展到目前階段,其研究大體可以分為兩個方向:(1)設計復雜的網絡結構,提高網絡的性能;(2)對網絡模型進行壓縮,減少計算復雜度。在本文將討論第二種情況,去除模型中冗余的參數,減少計算量,提高程序運行速度。
目前很多網絡都具有更復雜的架構設計,這就造成網絡模型中存在很多的參數冗余,增加了計算復雜度,造成不必要的計算資源浪費。模型壓縮大體有以下幾個研究方向:(1)設計更為精細的網絡結構,讓網絡的性能更為簡潔高效,如MobileNet網絡[3];(2)對模型進行裁剪,越是結構復雜的網絡越存在大量參數冗余,因此可以尋找一種有效的評判方法,對訓練好的模型進行裁剪;
(3)為了保持數據的精度,一般常見的網絡模型的權重,通常將其保存為32 bit長度的浮點類型,這就大大增加了數據的存儲和計算復雜度。因此,可以將數據進行量化,或者對數據二值化,通過數據的量化或二值化從而大大降低數據的存儲。除此之外,還可以對卷積核進行核的稀疏化,將卷積核的一部分誘導為0,從而減少計算量[4]。
本文著重討論第二種方法,對模型的剪枝,通過對無用權重參數的裁剪,減少計算量。
1 CNN卷積神經網絡
卷積神經網絡是一種前饋式網絡,網絡結構由卷積層、池化層、全連接層組成[5]。卷積層的作用是從輸入層提取特征圖,給定訓練集:
在卷積層后面一般會加一個池化層,池化又稱為降采樣,池化層可以用來降低輸入矩陣的緯度,而保存顯著的特征,池化分為最大池化和平均池化,最大池化即給出相鄰矩陣區域的最大值。池化層具有減小網絡規模和參數冗余的作用。
2 卷積神經網絡剪枝
2.1 模型壓縮的方法
本文用以下方法修剪模型:(1)首先使用遷移學習的方法對網絡訓練,然后對網絡進行微調,使網絡收斂并達到最優,保存模型;(2)對保存的模型進行修剪,并再次訓練,對修剪后的模型參數通過訓練進行微調,如此反復進行,直到檢測不到可供裁剪的卷積核;(3)對上一步裁剪后的模型再次訓練,直到訓練的次數達到設定的標準為止。具體的流程如圖2所示。
上述的處理流程比較簡單,重點是如何評判網絡模型中神經元的重要性。本文用價值函數C(W)作為評判重要性的工具。對于數據集D,經訓練后得到網絡模型Model,其中的權重參數為:
2.2 參數評估
網絡參數的評估在模型壓縮中有著非常重要的作用。一般采用下面的這種方法,通過比較權重參數的l2范數的大小,刪除l2范數較小的卷積核[8]。除此之外,還可以通過激活驗證的方法對參數進行評判,將數據集通過網絡前向傳播,對于某個網絡節點,若有大量通過激活函數后的數值為0或者小于一定的閾值,則將其舍去。
2.2.1 最小化l2范數
3 實驗結果
3.1 訓練和剪枝結果
本設計在Ubuntu16.04系統,搭載1080Ti顯卡的高性能服務器上進行實驗,使用Pytorch深度學習框架進行訓練和測試。本設計使用VGG16網絡,對16類常見的路面障礙物圖片進行訓練,其中數據集中的訓練集有24 000張圖片,訓練集12 000張圖片。在VGG16網絡中有16個卷積網絡層,共4 224個卷積核。采用遷移學習的方法對其進行訓練,設置epoch為30,訓練的結果如圖3所示。
圖3縱軸表示訓練的準確率,橫軸表示迭代次數,最后的訓練準確率為97.97%。
將上面的訓練參數保存為模型,對其進行剪枝,分5次對其修剪,首先會根據l2范數最小值篩選出要修剪的網絡層中的卷積核,每次去除512個卷積核,修剪后模型中剩余的卷積核數量如圖4所示。
圖4中縱軸表示模型中保留的卷積核的數量,從最初的4 224降到1 664,裁剪率達到60.6%。5次迭代修剪后的準確率如圖5所示。
對修剪后的網絡重新訓練得到最終的修剪模型,訓練過程如圖6所示。
最后達到98.7%的準確率。剪枝前模型大小為512 MB,剪枝后模型可以縮小到162 MB,將模型的內存占用降低了68.35%。
3.2 嵌入式平臺下的移植測試
在嵌入式平臺樹莓派3代B型上移植Pytorch框架,樹莓派3b擁有1.2 GHz的四核BCM2837 64位ARM A53處理器,1 GB運行內存,板載BCM43143WiFi。由于樹莓派運行內存有限,故增加2 GB的swap虛擬內存,用于編譯Pytorch框架源碼。將在GPU服務器上訓練好的網絡模型移植到嵌入式平臺,對其進行測試。
對123張測試圖片進行檢測分類,載入裁剪前的原始模型,用時109.47 s,準確率為95.08%。載入剪枝后的模型,同樣對123張圖片進行測試,用時41.85 s,準確率達到96.72%。結果如圖7所示,可以看到對模型裁剪后時間上減少了61%,速度有了很大提升。
4 結論
目前深度學習是一個熱門的研究方向,在圖像檢測、分類、語音識別等方面取得了前所未有的成功,但這些依賴于高性能高配置的計算機,也出現了各種深度學習框架以及網絡模型,但是可以預見深度學習即將邁入一個發展平緩期,如果不能有一個寬闊的應用領域,深度學習的發展將很快被擱淺。誠然,將其應用于嵌入式平臺將會是一個非常好的發展方向。相信未來深度學習在嵌入式領域會有一個更大的突破,部署于移動平臺將不再是一個難題。
作者:馬治楠 韓云杰 彭琳鈺 周進凡 林付春 劉宇紅
編輯:jq
-
存儲
+關注
關注
13文章
4320瀏覽量
85911 -
函數
+關注
關注
3文章
4333瀏覽量
62705 -
卷積神經網絡
+關注
關注
4文章
367瀏覽量
11877
發布評論請先 登錄
相關推薦
評論