在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

13種神經網絡激活函數

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-05-16 11:18 ? 次閱讀

機器學習初創公司Mate Labs聯合創始人Kailash Ahirwar簡要介紹了13種神經網絡激活函數。

激活函數將非線性引入網絡,因此激活函數自身也被稱為非線性。神經網絡是普適的函數逼近器,而深度神經網絡基于反向傳播訓練,因此要求可微激活函數。反向傳播在這一函數上應用梯度下降,以更新網絡的權重。理解激活函數非常重要,因為它對深度神經網絡的質量起著關鍵的作用。本文將羅列和描述不同的激活函數。

線性激活函數

恒等函數(Identity)或線性激活(Linear activation)函數是最簡單的激活函數。輸出和輸入成比例。線性激活函數的問題在于,它的導數是常數,梯度也是常數,梯度下降無法工作。

值域:(-∞, +∞)

例子:f(2) = 2或f(-4) = -4

階躍函數

階躍函數(Heaviside step function)通常只在單層感知器上有用,單層感知器是神經網絡的早期形式,可用于分類線性可分的數據。這些函數可用于二元分類任務。其輸出為A1(若輸入之和高于特定閾值)或A0(若輸入之和低于特定閾值)。感知器使用的值為A1 = 1、A0 = 0.

值域:0或1

例子:f(2) = 1、f(-4) = 0、f(0) = 0、f(1) = 1

圖片來源:維基百科

sigmoid函數

sigmoid函數,也稱邏輯激活函數(Logistic activation function)最常用于二元分類問題。它有梯度消失問題。在一定epoch數目之后,網絡拒絕學習,或非常緩慢地學習,因為輸入(X)導致輸出(Y)中非常小的改動。現在,sigmoid函數主要用于分類問題。這一函數更容易碰到后續層的飽和問題,導致訓練變得困難。計算sigmoid函數的導數非常簡單。

就神經網絡的反向傳播過程而言,每層(至少)擠入四分之一的誤差。因此,網絡越深,越多關于數據的知識將“丟失”。某些輸出層的“較大”誤差可能不會影響相對較淺的層中的神經元的突觸權重(“較淺”意味著接近輸入層)。

sigmoid函數定義

sigmoid函數的導數

值域:(0, 1)

例子:f(4) = 0.982、f(-3) = 0.0474、f(-5) = 0.0067

圖片來源:維基百科

圖片來源:deep learning nano foundation

tanh函數

tanh函數是拉伸過的sigmoid函數,以零為中心,因此導數更陡峭。tanh比sigmoid激活函數收斂得更快。

值域:(-1, 1)

例子:tanh(2) = 0.9640、tanh(-0.567) = -0.5131、tanh(0) = 0

圖片來源:維基百科

ReLU函數

ReLU(Rectified Linear Unit,修正線性單元)訓練速度比tanh快6倍。當輸入值小于零時,輸出值為零。當輸入值大于等于零時,輸出值等于輸入值。當輸入值為正數時,導數為1,因此不會出現sigmoid函數反向傳播時的擠壓效應。

值域:[0, x)

例子:f(-5) = 0、f(0) = 0、f(5) = 5

圖片來源:維基百科

不幸的是,ReLU在訓練時可能很脆弱,可能“死亡”。例如,通過ReLU神經元的較大梯度可能導致權重更新過頭,導致神經元再也不會因為任何數據點激活。如果這一情況發生了,經過這一單元的梯度從此以后將永遠為零。也就是說,ReLU單元可能在訓練中不可逆地死亡,因為它們被從數據流形上踢出去了。例如,你可能發現,如果學習率設置過高,40%的網絡可能“死亡”(即神經元在整個訓練數據集上永遠不會激活)。設置一個合適的學習率可以緩解這一問題。

-- Andrej Karpathy CS231n 課程

Leaky ReLU函數

Leaky ReLU讓單元未激活時能有一個很小的非零梯度。這里,很小的非零梯度是0.01.

值域:(-∞, +∞)

PReLU函數

PReLU(Parametric Rectified Linear Unit)函數類似Leaky ReLU,只不過將系數(很小的非零梯度)作為激活函數的參數,該參數和網絡的其他參數一樣,在訓練過程中學習。

值域:(-∞, +∞)

RReLU函數

RReLU也類似Leaky ReLU,只不過系數(較小的非零梯度)在訓練中取一定范圍內的隨機值,在測試時固定。

值域:(-∞, +∞)

ELU函數

ELU(Exponential Linear Unit,指數線性單元)嘗試加快學習速度。基于ELU,有可能得到比ReLU更高的分類精確度。這里α是一個超參數(限制:α ≥ 0)。

值域:(-α, +∞)

SELU函數

SELU(Scaled Exponential Linear Unit,拉伸指數線性單元)是ELU經過拉伸的版本。

圖片來源:Elior Cohen

SReLU函數

SReLU(S-shaped Rectified Linear Activation Unit,S型修正線性激活單元)由三個分段線性函數組成。系數作為參數,將在網絡訓練中學習。

值域:(-∞, +∞)

不同參數的SReLU圖像;圖片來源:arXiv:1512.07030

APL函數

APL(Adaptive Piecewise Linear,自適應分段線性)函數

圖片來源:arXiv:1512.07030

值域:(-∞, +∞)

SoftPlus函數

SoftPlus函數的導數為邏輯(logistic)函數。大體上,ReLU和SoftPlus很相似,只不過SoftPlus在接近零處平滑可微。另外,計算ReLU及其導數要比SoftPlus容易很多。

值域:(0, ∞)

圖片來源:維基百科

bent identity函數

bent identity函數,顧名思義,將恒等函數彎曲一下。

值域:(-∞, +∞)

圖片來源:維基百科

softmax函數

softmax函數將原始值轉換為后驗分布,可用于衡量確定性。類似sigmoid,softmax將每個單元的輸出值擠壓到0和1之間。不過,softmax同時確保輸出的總和等于1.

圖片來源:dataaspirant.com

softmax函數的輸出等價于類別概率分布,它告訴你任何分類為真的概率。

結語

選擇激活函數時,優先選擇ReLU及其變體,而不是sigmoid或tanh。同時ReLU及其變體訓練起來更快。如果ReLU導致神經元死亡,使用Leaky ReLU或者ReLU的其他變體。sigmoid和tanh受到消失梯度問題的困擾,不應該在隱藏層中使用。隱藏層使用ReLU及其變體較好。使用容易求導和訓練的激活函數。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4773

    瀏覽量

    100882
  • 函數
    +關注

    關注

    3

    文章

    4338

    瀏覽量

    62734
  • 機器學習
    +關注

    關注

    66

    文章

    8424

    瀏覽量

    132761

原文標題:激活函數初學者指南

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    神經網絡基本的訓練和工作原理是什么

    在兩層神經網絡之間,必須有激活函數連接,從而加入非線性因素,提高神經網絡的能力。所以,我們先從激活函數
    發表于 08-07 10:02 ?706次閱讀
    <b class='flag-5'>神經網絡</b>基本的訓練和工作原理是什么

    【PYNQ-Z2試用體驗】神經網絡基礎知識

    學習和認知科學領域,是一模仿生物神經網絡(動物的中樞神經系統,特別是大腦)的結構和功能的數學模型或計算模型,用于對函數進行估計或近似。神經網絡
    發表于 03-03 22:10

    【案例分享】ART神經網絡與SOM神經網絡

    是一常用的無監督學習策略,在使用改策略時,網絡的輸出神經元相互競爭,每一時刻只有一個競爭獲勝的神經激活。ART
    發表于 07-21 04:30

    神經網絡移植到STM32的方法

    神經網絡移植到STM32最近在做的一個項目需要用到網絡進行擬合,并且將擬合得到的結果用作控制,就在想能不能直接在單片機上做神經網絡計算,這樣就可以實時計算,不依賴于上位機。所以要解決的主要是兩個
    發表于 01-11 06:20

    ReLU到Sinc的26神經網絡激活函數可視化大盤點

    本文介紹了26個激活函數的圖示及其一階導數,在神經網絡中,激活函數決定來自給定輸入集的節點的輸出,其中非線性
    發表于 01-11 17:42 ?3.1w次閱讀
    ReLU到Sinc的26<b class='flag-5'>種</b><b class='flag-5'>神經網絡</b><b class='flag-5'>激活</b><b class='flag-5'>函數</b>可視化大盤點

    圖文詳解:神經網絡激活函數

    什么是神經網絡激活函數激活函數有助于決定我們是否需要激活
    的頭像 發表于 07-05 11:21 ?3803次閱讀
    圖文詳解:<b class='flag-5'>神經網絡</b>的<b class='flag-5'>激活</b><b class='flag-5'>函數</b>

    神經網絡初學者的激活函數指南

    作者:Mouaad B. 來源:DeepHub IMBA 如果你剛剛開始學習神經網絡激活函數的原理一開始可能很難理解。但是如果你想開發強大的神經網絡,理解它們是很重要的。 但在我們深
    的頭像 發表于 04-18 11:20 ?569次閱讀
    <b class='flag-5'>神經網絡</b>初學者的<b class='flag-5'>激活</b><b class='flag-5'>函數</b>指南

    神經網絡初學者的激活函數指南

    作者:MouaadB.來源:DeepHubIMBA如果你剛剛開始學習神經網絡激活函數的原理一開始可能很難理解。但是如果你想開發強大的神經網絡,理解它們是很重要的。但在我們深入研究
    的頭像 發表于 04-21 09:28 ?722次閱讀
    <b class='flag-5'>神經網絡</b>初學者的<b class='flag-5'>激活</b><b class='flag-5'>函數</b>指南

    神經網絡中的激活函數有哪些

    神經網絡中,激活函數是一個至關重要的組成部分,它決定了神經元對于輸入信號的反應方式,為神經網絡引入了非線性因素,使得
    的頭像 發表于 07-01 11:52 ?610次閱讀

    神經網絡激活函數的定義及類型

    引言 神經網絡是一模擬人腦神經元結構的計算模型,廣泛應用于圖像識別、自然語言處理、語音識別等領域。在神經網絡中,激活
    的頭像 發表于 07-02 10:09 ?560次閱讀

    卷積神經網絡激活函數的作用

    卷積神經網絡(Convolutional Neural Networks, CNNs)是深度學習中一重要的神經網絡結構,廣泛應用于圖像識別、語音識別、自然語言處理等領域。在卷積神經網絡
    的頭像 發表于 07-03 09:18 ?1133次閱讀

    BP神經網絡激活函數怎么選擇

    中,激活函數起著至關重要的作用,它決定了神經元的輸出方式,進而影響整個網絡的性能。 一、激活函數
    的頭像 發表于 07-03 10:02 ?727次閱讀

    bp神經網絡和卷積神經網絡區別是什么

    結構、原理、應用場景等方面都存在一定的差異。以下是對這兩神經網絡的比較: 基本結構 BP神經網絡是一多層前饋神經網絡,由輸入層、隱藏層和
    的頭像 發表于 07-03 10:12 ?1242次閱讀

    卷積神經網絡和bp神經網絡的區別在哪

    結構、原理、應用場景等方面都存在一定的差異。以下是對這兩神經網絡的詳細比較: 基本結構 BP神經網絡是一多層前饋神經網絡,由輸入層、隱藏
    的頭像 發表于 07-04 09:49 ?9379次閱讀

    前饋神經網絡的基本結構和常見激活函數

    激活函數的非線性變換,能夠學習和模擬復雜的函數映射,從而解決各種監督學習任務。本文將詳細闡述前饋神經網絡的基本結構,包括其組成層、權重和偏置、激活
    的頭像 發表于 07-09 10:31 ?916次閱讀
    主站蜘蛛池模板: 32pao强力打造免费高速高清| 久久99国产精品久久99| 美女被艹视频网站| 海外毛片| 好大好硬好深好爽的视频| 亚洲一级毛片免费看| 激情六月婷婷| 久久婷婷午色综合夜啪| 国产一区精品视频| 99日精品欧美国产| 天天干夜夜曰| 91色欧美| 天天操夜夜操狠狠操| 精品久久香蕉国产线看观看亚洲| 白嫩美女一级高清毛片免费看| 国产yw855.c免费观看网站| 男人j进入女人j在线视频| 亚洲欧美色中文字幕| 色妇影院| 三级视频在线| 精品卡1卡2卡三卡免费视频| 亚洲最大毛片| 黄a免费| 亚洲春色www| 婷婷sese| 久久这里只有精品免费播放| 在线观看永久免费视频网站| 91在线色| 久久看片网| 22eee在线播放成人免费视频| 综合天堂| 欧美一级黄色片视频| freesexvideo性欧美tv| 欧美午夜一区| 亚洲视频在线免费看| 午夜片在线| 黄色a站| 色综合天天综合网站中国| 69性成熟xxxxhd| 婷婷色人阁| 国产区一区二区三|