在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Kaggle知識點:訓練神經網絡的7個技巧

穎脈Imgtec ? 2023-12-30 08:27 ? 次閱讀

來源:Coggle數據科學


神經網絡模型使用隨機梯度下降進行訓練,模型權重使用反向傳播算法進行更新。通過訓練神經網絡模型解決的優化問題非常具有挑戰性,盡管這些算法在實踐中表現出色,但不能保證它們會及時收斂到一個良好的模型。

  • 訓練神經網絡的挑戰在訓練數據集的新示例之間取得平衡。
  • 七個具體的技巧,可幫助您更快地訓練出更好的神經網絡模型。

學習和泛化

使用反向傳播設計和訓練網絡需要做出許多看似任意的選擇,例如節點的數量和類型、層的數量、學習率、訓練和測試集等。這些選擇可能至關重要,但卻沒有百分之百可靠的決策法則,因為它們在很大程度上取決于問題和數據。訓練神經網絡模型的目標最具挑戰性,因為它要解決兩個難題:

  • 學習訓練數據集以最小化損失。
  • 泛化模型性能以便在未見過的示例上進行預測。

在這些問題之間存在權衡,因為學得太好的模型泛化能力可能較差,而泛化良好的模型可能欠擬合。訓練神經網絡的目標是在這兩方面找到一個良好的平衡。在擬合神經網絡模型時,這些術語可以定義為:

  • 偏差:衡量網絡輸出在所有數據集上的平均差異與期望函數的差異。

方差:衡量網絡輸出在數據集之間變化的程度。

這種表述將模型的容量定義為偏差的選擇,控制可以學習的函數范圍。它將方差視為訓練過程的函數,并在過擬合訓練數據集和泛化誤差之間取得平衡。

  • 在訓練初期,偏差較大,因為網絡輸出與期望函數相差很遠。方差非常小,因為數據尚未產生太大的影響。在訓練后期,偏差較小,因為網絡已經學到了基本函數。

然而,如果訓練時間太長,網絡還將學到特定數據集的噪聲,這稱為過度訓練。在這種情況下,方差將很大,因為噪聲在數據集之間變化。


技巧1:隨機梯度下降與批量學習

隨機梯度下降,也稱為在線梯度下降,是指從訓練數據集中隨機選擇一個示例,估算誤差梯度,然后更新模型參數(權重)的算法版本。它的效果是快速訓練模型,盡管可能會導致模型權重的大幅、嘈雜的更新。

通常情況下,基本反向傳播首選隨機學習,原因有三:

  1. 隨機學習通常比批量學習快得多。
  2. 隨機學習通常會導致更好的解決方案。
  3. 隨機學習可用于跟蹤變化。

批量梯度下降涉及使用訓練數據集中所有示例的平均值來估算誤差梯度。它執行更快,從理論上更容易理解,但導致學習速度較慢。

盡管隨機學習具有諸多優勢,仍有理由考慮使用批量學習:

  1. 收斂條件是眾所周知的。
  2. 許多加速技術(例如共軛梯度)僅在批量學習中操作。

對權重動態和收斂速率的理論分析更簡單。

盡管批量更新具有優勢,但在處理非常大的數據集時,隨機學習仍然通常是首選方法,因為它更簡單更快。


技巧2:打亂樣本順序

神經網絡從最意外的樣本中學得最快。因此,建議在每次迭代中選擇對系統最不熟悉的樣本。實現這個技巧的一個簡單方法是確保用于更新模型參數的連續示例來自不同的類別。

這個技巧也可以通過向模型展示并重新展示它在進行預測時犯的最多錯誤或產生最多錯誤的示例來實現。這種方法可能是有效的,但如果在訓練期間過度表示的示例是離群值,它也可能導致災難。

選擇信息內容最大的示例:

  1. 打亂訓練集,使連續的訓練示例永遠(很少)不屬于同一類別。

更頻繁地呈現產生大誤差的輸入示例,而不是產生小誤差的示例。


技巧3:標準化輸入

當訓練數據集中的示例總和為零時,神經網絡通常學得更快。這可以通過從每個輸入變量中減去平均值(稱為居中)來實現。通常,如果訓練集上每個輸入變量的平均值接近零,收斂速度會更快。

此外將輸入居中也會提高模型對來自先前層的輸入到隱藏層的收斂性。這是令人著迷的,因為它為后來近15年發展并廣泛流行的批量歸一化技術奠定了基礎。

因此,最好將輸入移動,以使訓練集的平均值接近零。這個啟發式方法應該應用于所有層,這意味著我們希望節點的輸出的平均值接近零,因為這些輸出是下一層的輸入。

轉換輸入

  1. 訓練集上每個輸入變量的平均值應接近零。
  2. 縮放輸入變量,使它們的協方差大致相同。

如果可能的話,輸入變量應該無關聯。


技巧4:Sigmoid 激活函數

非線性激活函數賦予神經網絡非線性能力。其中一種最常見的激活函數形式是 Sigmoid。

在隱藏層使用 logistic 和 tanh 激活函數不再是一個合理的默認選擇,因為使用 ReLU 的性能模型收斂速度更快。


技巧5:選擇目標值

在二元分類問題的情況下,目標變量可能是 logistic 激活函數的漸近值集合 {0, 1},或者是雙曲正切函數的漸近值集合 {-1, 1},分別對應使用交叉熵或鉸鏈損失函數,即使在現代神經網絡中也是如此。在激活函數的飽和點(邊緣)取得值可能需要更大的權重,這可能使模型變得不穩定。


技巧6:初始化權重

權重的初始值對訓練過程有很大影響。權重應該隨機選擇,但以 sigmoid 函數的線性區域為主要激活區域。這個建議也適用于 ReLU 的權重激活,其中函數的線性部分是正的。

初始權重對模型學習有重要影響,其中大權重使激活函數飽和,導致不穩定的學習,而小權重導致梯度非常小,進而學習緩慢。理想情況下,我們尋求模型權重位于激活函數的線性(非曲線)部分之上。


技巧7:選擇學習率

學習率是模型權重在算法的每次迭代中更新的量。較小的學習率可能導致收斂較慢,但可能得到更好的結果,而較大的學習率可能導致更快的收斂,但可能得到不太理想的結果。

建議當權重值開始來回變化,例如振蕩時,減小學習率。

  • 大多數方案在權重向量“振蕩”時減小學習率,并在權重向量遵循相對穩定方向時增加學習率。

顯然,為網絡中的每個權重選擇不同的學習率(eta)可以提高收斂性。[…] 主要思想是確保網絡中的所有權重大致以相同的速度收斂。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4771

    瀏覽量

    100772
  • 函數
    +關注

    關注

    3

    文章

    4331

    瀏覽量

    62622
  • 模型
    +關注

    關注

    1

    文章

    3244

    瀏覽量

    48842
收藏 人收藏

    評論

    相關推薦

    如何使用經過訓練神經網絡模型

    使用經過訓練神經網絡模型是一涉及多個步驟的過程,包括數據準備、模型加載、預測執行以及后續優化等。
    的頭像 發表于 07-12 11:43 ?983次閱讀

    脈沖神經網絡怎么訓練

    脈沖神經網絡(SNN, Spiking Neural Network)的訓練是一復雜但充滿挑戰的過程,它模擬了生物神經元通過脈沖(或稱為尖峰)進行信息傳遞的方式。以下是對脈沖
    的頭像 發表于 07-12 10:13 ?604次閱讀

    如何編寫一BP神經網絡

    BP(反向傳播)神經網絡是一種多層前饋神經網絡,它通過反向傳播算法來訓練網絡中的權重和偏置,以最小化輸出誤差。BP神經網絡的核心在于其前向傳
    的頭像 發表于 07-11 16:44 ?560次閱讀

    20數據可以訓練神經網絡

    當然可以,20數據點對于訓練神經網絡來說可能非常有限,但這并不意味著它們不能用于訓練。實際上,神經
    的頭像 發表于 07-11 10:29 ?892次閱讀

    怎么對神經網絡重新訓練

    重新訓練神經網絡是一復雜的過程,涉及到多個步驟和考慮因素。 引言 神經網絡是一種強大的機器學習模型,廣泛應用于圖像識別、自然語言處理、語音識別等領域。然而,隨著時間的推移,數據分布可
    的頭像 發表于 07-11 10:25 ?461次閱讀

    BP神經網絡的基本結構和訓練過程

    網絡結構,通過誤差反向傳播算法(Error Backpropagation Algorithm)來訓練網絡,實現對復雜問題的學習和解決。以下將詳細闡述BP神經網絡的工作方式,涵蓋其基本
    的頭像 發表于 07-10 15:07 ?4471次閱讀
    BP<b class='flag-5'>神經網絡</b>的基本結構和<b class='flag-5'>訓練</b>過程

    如何利用Matlab進行神經網絡訓練

    ,使得神經網絡的創建、訓練和仿真變得更加便捷。本文將詳細介紹如何利用Matlab進行神經網絡訓練,包括網絡創建、數據預處理、
    的頭像 發表于 07-08 18:26 ?1888次閱讀

    人工神經網絡模型訓練的基本原理

    圖像識別、語音識別、自然語言處理等。本文將介紹人工神經網絡模型訓練的基本原理。 1. 神經網絡的基本概念 1.1 神經神經元是
    的頭像 發表于 07-05 09:16 ?672次閱讀

    深度神經網絡與基本神經網絡的區別

    在探討深度神經網絡(Deep Neural Networks, DNNs)與基本神經網絡(通常指傳統神經網絡或前向神經網絡)的區別時,我們需要從多個維度進行深入分析。這些維度包括
    的頭像 發表于 07-04 13:20 ?875次閱讀

    反向傳播神經網絡和bp神經網絡的區別

    神經網絡在許多領域都有廣泛的應用,如語音識別、圖像識別、自然語言處理等。然而,BP神經網絡也存在一些問題,如容易陷入局部最優解、訓練時間長、對初始權重敏感等。為了解決這些問題,研究者們提出了一些改進的BP
    的頭像 發表于 07-03 11:00 ?808次閱讀

    bp神經網絡和卷積神經網絡區別是什么

    結構、原理、應用場景等方面都存在一定的差異。以下是對這兩種神經網絡的比較: 基本結構 BP神經網絡是一種多層前饋神經網絡,由輸入層、隱藏層和輸出層組成。每個神經元之間通過權重連接,并通
    的頭像 發表于 07-03 10:12 ?1186次閱讀

    卷積神經網絡訓練的是什么

    訓練過程以及應用場景。 1. 卷積神經網絡的基本概念 1.1 卷積神經網絡的定義 卷積神經網絡是一種前饋深度學習模型,其核心思想是利用卷積操作提取輸入數據的局部特征,并通過多層結構進
    的頭像 發表于 07-03 09:15 ?412次閱讀

    卷積神經網絡的基本原理、結構及訓練過程

    訓練過程以及應用場景。 一、卷積神經網絡的基本原理 卷積運算 卷積運算是卷積神經網絡的核心,它是一種數學運算,用于提取圖像中的局部特征。卷積運算的過程如下: (1)定義卷積核:卷積核是一
    的頭像 發表于 07-02 14:21 ?2605次閱讀

    如何訓練和優化神經網絡

    神經網絡是人工智能領域的重要分支,廣泛應用于圖像識別、自然語言處理、語音識別等多個領域。然而,要使神經網絡在實際應用中取得良好效果,必須進行有效的訓練和優化。本文將從神經網絡
    的頭像 發表于 07-01 14:14 ?469次閱讀

    BP神經網絡算法的基本流程

    訓練經過約50次左右迭代,在訓練集上已經能達到99%的正確率,在測試集上的正確率為90.03%,單純的BP神經網絡能夠提升的空間不大了,但kaggle上已經有人有卷積
    發表于 03-20 09:58 ?2215次閱讀
    BP<b class='flag-5'>神經網絡</b>算法的基本流程
    主站蜘蛛池模板: 欧美色婷婷天堂网站| 国产三级在线看| se视频在线观看| 国产情侣草莓视频在线| 国产精品欧美精品国产主播| 日本免费大黄| 午夜国产福利在线| 亚洲福利一区二区三区| 日本不卡高清免费v日本| 亚洲国产综合视频| 亚洲一区免费观看| 欧美一级别| 日本黄页网| 欲色影视香色天天影视来| 久久久噜噜噜久久久| 久久午夜精品视频| 亚洲三级网| www你懂的| 亚洲入口| 久久久鲁| 最刺激黄a大片免费网站| 色中射| 天天综合网色| 国产精品女丝袜白丝袜| 狠狠做久久深爱婷婷97动漫| www.夜夜骑| 日韩a免费| 久久久久久久成人午夜精品福利| 综合色视频| ts人妖系列在线专区| 亚洲午夜一区二区三区| 久青草国产手机在线观| 爱插综合网| 日本三级成人中文字幕乱码| 欧洲国产精品精华液| 亚洲天堂爱爱| 夜夜骑夜夜操| 99久久免费精品国产免费高清| 国产一级aaa全黄毛片| 成人欧美网站| 精品一精品国产一级毛片|