在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

DNN(深度神經網絡)在訓練過程中遇到的一些問題

新機器視覺 ? 來源:新機器視覺 ? 2023-02-06 16:21 ? 次閱讀

深度學習已經成為解決許多具有挑戰性的現實世界問題的方法。對目標檢測,語音識別和語言翻譯來說,這是迄今為止表現最好的方法。許多人將深度神經網絡(DNNs)視為神奇的黑盒子,我們放進去一堆數據,出來的就是我們的解決方案!事實上,事情沒那么簡單。

在設計和應用DNN到一個特定的問題上可能會遇到很多挑戰。為了達到現實世界應用所需的性能標準,對數據準備,網絡設計,訓練和推斷等各個階段的正確設計和執行至關重要。

今天給大家講講DNN(深度神經網絡)在訓練過程中遇到的一些問題,然后我們應該怎么去注意它,并學會怎么去訓練它。

1、數據集的準備:

必須要保證大量、高質量且帶有準確標簽的數據,沒有該條件的數據,訓練學習很困難的(但是最近我看了以為作者寫的一篇文章,說明不一定需要大量數據集,也可以訓練的很好,有空和大家來分享其思想---很厲害的想法);

2、數據預處理:

這個不多說,就是0均值和1方差化,其實還有很多方法;

3、Minibatch:

這個有時候還要根據你的硬件設備而定,一般建議用128,8這組,但是128,1也很好,只是效率會非常慢,注意的是:千萬不要用過大的數值,否則很容易過擬合;

4、梯度歸一化:

其實就是計算出來梯度之后,要除以Minibatch的數量,這個可以通過閱讀源碼得知(我之前有寫過SGD);

5、學習率:

① 一般都會有默認的學習率,但是剛開始還是用一般的去學習,然后逐漸的減小它;

② 一個建議值是0.1,適用于很多NN的問題,一般傾向于小一點;但是如果對于的大數據,何凱明老師也說過,要把學習率調到很小,他說0.00001都不為過(如果記得不錯,應該是這么說的);

③ 一個對于調度學習率的建議:如果在驗證集上性能不再增加就讓學習率除以2或者5,然后繼續,學習率會一直變得很小,到最后就可以停止訓練了;

④ 很多人用的一個設計學習率的原則就是監測一個比率(每次更新梯度的norm除以當前weight的norm),如果這個比率在10e-3附近,且小于這個值,學習會很慢,如果大于這個值,那么學習很不穩定,由此會帶來學習失敗。

6、驗證集的使用:

使用驗證集,可以知道什么時候開始降低學習率和什么時候停止訓練;

7、weight初始化:

① 如果你不想繁瑣的話,直接用0.02*randn(num_params)來初始化,當然別的值也可以去嘗試;

② 如果上面那個建議不太好使,那么就依次初始化每一個weight矩陣用init_scale / sqrt(layer_width) * randn,init_scale可以被設置為0.1或者1;

③ 初始化參數對結果的影響至關重要,要引起重視;

④ 在深度網絡中,隨機初始化權重,使用SGD的話一般處理的都不好,這是因為初始化的權重太小了。這種情況下對于淺層網絡有效,但是當足夠深的時候就不行,因為weight更新的時候,是靠很多weight相乘的,越乘越小,類似梯度消失的意思。

8、RNN&&LSTM(這方面沒有深入了解,借用別人的意思):

如果訓練RNN或者LSTM,務必保證gradient的norm被約束在15或者5(前提還是要先歸一化gradient),這一點在RNN和LSTM中很重要;

9、梯度檢查:

檢查下梯度,如果是你自己計算的梯度;如果使用LSTM來解決長時依賴的問題,記得初始化bias的時候要大一點;

10、數據增廣:

盡可能想辦法多的擴增訓練數據,如果使用的是圖像數據,不妨對圖像做一點扭轉,剪切,分割等操作來擴充數據訓練集合;

11、dropout:(先空著,下次我要單獨詳細講解Dropout)

12、評價結果:

評價最終結果的時候,多做幾次,然后平均一下他們的結果。

補充:

1、選擇優化算法

傳統的隨機梯度下降算法雖然適用很廣,但并不高效,最近出現很多更靈活的優化算法,例如Adagrad、RMSProp等,可在迭代優化的過程中自適應的調節學習速率等超參數,效果更佳;

2、參數設置技巧

無論是多核CPU還是GPU加速,內存管理仍然以字節為基本單元做硬件優化,因此將參數設定為2的指數倍,如64,128,512,1024等,將有效提高矩陣分片、張量計算等操作的硬件處理效率;

3、正則優化

除了在神經網絡單元上添加傳統的L1/L2正則項外,Dropout更經常在深度神經網絡應用來避免模型的過擬合。初始默認的0.5的丟棄率是保守的選擇,如果模型不是很復雜,設置為0.2就可以;

4、其他方法

除了上述訓練調優的方法外,還有其他一些常用方法,包括:使用mini-batch learning方法、遷移訓練學習、打亂訓練集順序、對比訓練誤差和測試誤差調節迭代次數、日志可視化觀察等等。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 語音識別
    +關注

    關注

    38

    文章

    1742

    瀏覽量

    112805
  • 數據集
    +關注

    關注

    4

    文章

    1209

    瀏覽量

    24780
  • 深度學習
    +關注

    關注

    73

    文章

    5511

    瀏覽量

    121392

原文標題:基礎入門:“煉丹師”——深度學習訓練技巧

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    循環神經網絡的優化技巧

    循環神經網絡(Recurrent Neural Networks,簡稱RNN)是種用于處理序列數據的深度學習模型,它能夠捕捉時間序列的動態特征。然而,RNN
    的頭像 發表于 11-15 09:51 ?287次閱讀

    FPGA深度神經網絡的應用

    隨著人工智能技術的飛速發展,深度神經網絡(Deep Neural Network, DNN)作為其核心算法之,圖像識別、語音識別、自然語
    的頭像 發表于 07-24 10:42 ?762次閱讀

    深度神經網絡雷達系統的應用

    深度神經網絡(Deep Neural Networks,DNN雷達系統的應用近年來取得了顯著進展,為雷達信號處理、目標檢測、跟蹤以及識
    的頭像 發表于 07-15 11:09 ?831次閱讀

    脈沖神經網絡怎么訓練

    脈沖神經網絡(SNN, Spiking Neural Network)的訓練個復雜但充滿挑戰的過程,它模擬了生物神經元通過脈沖(或稱為尖
    的頭像 發表于 07-12 10:13 ?689次閱讀

    BP神經網絡的基本結構和訓練過程

    網絡結構,通過誤差反向傳播算法(Error Backpropagation Algorithm)來訓練網絡,實現對復雜問題的學習和解決。以下將詳細闡述BP神經網絡的工作方式,涵蓋其基本
    的頭像 發表于 07-10 15:07 ?5022次閱讀
    BP<b class='flag-5'>神經網絡</b>的基本結構和<b class='flag-5'>訓練過程</b>

    PyTorch神經網絡模型構建過程

    PyTorch,作為個廣泛使用的開源深度學習庫,提供了豐富的工具和模塊,幫助開發者構建、訓練和部署神經網絡模型。
    的頭像 發表于 07-10 14:57 ?535次閱讀

    如何利用Matlab進行神經網絡訓練

    ,使得神經網絡的創建、訓練和仿真變得更加便捷。本文將詳細介紹如何利用Matlab進行神經網絡訓練,包括網絡創建、數據預處理、
    的頭像 發表于 07-08 18:26 ?1998次閱讀

    神經網絡前向傳播和反向傳播神經網絡訓練過程中的作用

    神經網絡種強大的機器學習模型,它通過模擬人腦神經元的連接方式來處理復雜的數據。神經網絡的核心是前向傳播和反向傳播算法。本文將詳細介紹神經網絡
    的頭像 發表于 07-03 11:11 ?1557次閱讀

    反向傳播神經網絡和bp神經網絡的區別

    神經網絡許多領域都有廣泛的應用,如語音識別、圖像識別、自然語言處理等。然而,BP神經網絡也存在一些問題,如容易陷入局部最優解、訓練時間長、
    的頭像 發表于 07-03 11:00 ?850次閱讀

    BP神經網絡屬于DNN

    深度神經網絡(Deep Neural Network,簡稱DNN)則是指具有多個隱藏層的神經網絡,可以處理復雜的數據和任務。那么,BP神經網絡
    的頭像 發表于 07-03 10:18 ?840次閱讀

    bp神經網絡深度神經網絡

    Network)有相似之處,但它們之間還是存在一些關鍵的區別。 、引言 神經網絡種模擬人腦神經元結構的計算模型,它由大量的
    的頭像 發表于 07-03 10:14 ?923次閱讀

    卷積神經網絡訓練的是什么

    、訓練過程以及應用場景。 1. 卷積神經網絡的基本概念 1.1 卷積神經網絡的定義 卷積神經網絡種前饋
    的頭像 發表于 07-03 09:15 ?476次閱讀

    卷積神經網絡的基本結構和訓練過程

    處理具有空間層次結構的數據時表現出色。本文將從卷積神經網絡的歷史背景、基本原理、網絡結構、訓練過程以及應用領域等方面進行詳細闡述,以期全面解析這重要算法。
    的頭像 發表于 07-02 18:27 ?1006次閱讀

    卷積神經網絡的基本原理、結構及訓練過程

    訓練過程以及應用場景。 、卷積神經網絡的基本原理 卷積運算 卷積運算是卷積神經網絡的核心,它是種數學運算,用于提取圖像
    的頭像 發表于 07-02 14:21 ?2904次閱讀

    如何訓練和優化神經網絡

    神經網絡是人工智能領域的重要分支,廣泛應用于圖像識別、自然語言處理、語音識別等多個領域。然而,要使神經網絡實際應用取得良好效果,必須進行有效的
    的頭像 發表于 07-01 14:14 ?513次閱讀
    主站蜘蛛池模板: 亚洲人成网站色7799在线观看| 精品国产自在在线在线观看| 一级录像| 骚淫| 性欧美精品久久久久久久| 曰本性l交片视频视频| 亚洲午夜久久久久久噜噜噜| 午夜免费福利片观看| 色福利视频| 免费人成在观看| 国产精品主播在线| 夜夜夜爽bbbb性视频| 天天se天天cao综合网蜜芽| 久久精品午夜视频| 六月综合激情| 成人夜色| 欧美69xxx| 男人j进入女人j视频大全| 亚洲香蕉影视在线播放| 色香色香欲天天天影视综合网| 天堂在线中文字幕| 日本三浦理惠子中文字幕| 久久九九色| 免费视频爱爱| 国产秦先生大战白丝97在线| 亚洲午夜久久久久国产| 免费福利午夜影视网| 天天插日日射| 国产在线观看午夜不卡| 很黄的网站在线观看| 国产精品丝袜| 日本大片成人免费播放| 国产美女作爱| 久久久久久人精品免费费看| 4444kk在线看片| 香蕉久久精品| 黄色a网| 日本黄色片视频| 亚洲色图综合在线| 久久国产99| 四虎电影免费观看网站|