在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

循環(huán)神經網絡(RNN)的詳細介紹

Dbwd_Imgtec ? 來源:未知 ? 作者:胡薇 ? 2018-05-11 14:58 ? 次閱讀

1. 場景與應用

在循環(huán)神經網絡可以用于文本生成、機器翻譯還有看圖描述等,在這些場景中很多都出現了RNN的身影。

2. RNN的作用

傳統的神經網絡DNN或者CNN網絡他們的輸入和輸出都是獨立的。對于這些模型輸入的數據跟輸出的數據大多是關聯不太緊密的場景,但是有些場景輸入的數據對后面輸入的數據是有關系的,或者說后面的數據跟前面的數據是有關聯的。例如,對于文本類的數據,當輸入某句話的時候,剛開始輸入第一個字的時候,再輸入這句話的第二個字時候,其實第二個字要輸入什么字其實是跟第一個字是有關聯的。所以,對于這樣一類的場景,通常是要考慮前面的信息的,以至于引入RNN模型。

對于RNN模型為解決這類問題引入了“記憶”這一概念。循環(huán)神經網絡的循環(huán)來源于其每個元素中都執(zhí)行相同的任務,但是輸出依賴于輸入和“記憶”兩個部分。

3. RNN結構

從圖中看,對于RNN網絡是按照時間序列展開的。對于圖中的變量Wt,是在時刻t處的輸入,St是時間t處的“記憶”,St=f(UXt+WSt?1 + b),f可以是tanh等,f取tanh會把數據壓縮到一個范圍內,有時候也可以使用sigmoid函數。Ot是時間t出的輸出,比如是預測下個詞的話,可能是softmax輸出的屬于每個候選詞的概率,Ot = softmax(VSt)。對于這里的St已經把Xt合并了,所以Ot的公式只有St。

對于循環(huán)神經網絡,可以把隱狀態(tài)St視作為“記憶體”,捕捉之前時間點上的信息。輸出Ot有當前時間及之前所有“記憶”共同計算得到的。但由于St是一個有限的矩陣,對于之前的信息并不能完全捕捉到,也會隨著時間的變長,對于之前的“記憶”也會“變淡”。對于RNN不同于DNN與CNN,這里的RNN其實整個神經網絡都在共享一組參數(U,V,W),這樣極大的減小了需要訓練的參數。圖中的Ot再由寫任務下是不存在的,只需要對最后的結果輸出就可以。

4. 不同類型的RNN

(1). 雙向RNN

通過以上經典的RNN模型,它是只關心當前的輸入和之前的“記憶”的,但有些情況下,當前的輸入不知依賴于之前的序列元素,還依賴于后面序列的元素。比如,一篇文章,當讀第一段時候我們并不知道文章的主體要講什么內容,但當我們讀完第一段的時候需要判斷文章主要講什么內容,這時候就需要讀后面的內容才能知道這個文章主要講的是什么。對于這樣的場景需要后面的數據才能更好的預測當前的狀態(tài),所以引入了雙向RNN,就是為了解決這一類問題的。雙向RNN的模型如下:

表達式:

雙向RNN是考慮到了前后的“記憶”,能夠更好的關聯到前后的信息。

(2). 深度雙向RNN

對于深度雙向RNN和雙向RNN的區(qū)別是每一步和每一個時間點我們設定了多層的結構。結構如下:

深層雙向RNN的表達式:

對于深層雙向RNN考慮的信息與雙向RNN相比變多了,這意味著能夠對于某場景,能夠關聯更多的信息。

5. RNN與BPTT算法

對于循環(huán)神經網絡的BPTT算法其實是BP算法的一個變體,但是循環(huán)神經網絡的BPTT是與時間序列有關的。

對于這個問題是個Softmax問題所以這里用交叉熵損失,所以損失函數可以表示為:

對于求所有誤差求W得偏導函數為:

但是,

所以,所以根據求導鏈式法則可以進一步求得:(又因為他們的權值是共享的)

用圖表示如下:

通過上面的式子:

通過鏈式法則,表達式可以進一步表示為:

通過以上的步驟求得損失函數的偏導后,就可以用SGD算法去做參數的更新。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • rnn
    rnn
    +關注

    關注

    0

    文章

    89

    瀏覽量

    6891

原文標題:循環(huán)神經網絡(RNN)的場景與應用

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    什么是RNN循環(huán)神經網絡)?

    循環(huán)神經網絡 (RNN) 是一種深度學習結構,它使用過去的信息來提高網絡處理當前和將來輸入的性能。RNN 的獨特之處在于該
    發(fā)表于 02-29 14:56 ?4050次閱讀
    什么是<b class='flag-5'>RNN</b> (<b class='flag-5'>循環(huán)</b><b class='flag-5'>神經網絡</b>)?

    遞歸神經網絡RNN

    文本中的一個詞。RNN也是一種包含某特殊層的神經網絡,它并不是一次處理所有數據而是通過循環(huán)來處理數據。由于RNN可以按順序處理數據,因此可以使用不同長度的向量并生成不同長度的輸出。圖6
    發(fā)表于 07-20 09:27

    循環(huán)神經網絡RNN)和(LSTM)初學者指南

    最近,有一篇入門文章引發(fā)了不少關注。文章中詳細介紹循環(huán)神經網絡RNN),及其變體長短期記憶(LSTM)背后的原理。
    發(fā)表于 02-05 13:43 ?944次閱讀

    什么是RNN(循環(huán)神經網絡)?RNN的基本原理和優(yōu)缺點

    RNN(Recurrent Neural Network,循環(huán)神經網絡)是一種專門用于處理序列數據的神經網絡結構,它能夠在序列的演進方向上進行遞歸,并通過所有節(jié)點(
    的頭像 發(fā)表于 07-04 11:48 ?3647次閱讀

    循環(huán)神經網絡和遞歸神經網絡的區(qū)別

    循環(huán)神經網絡(Recurrent Neural Network,簡稱RNN)和遞歸神經網絡(Recursive Neural Network,簡稱RvNN)是深度學習中兩種重要的
    的頭像 發(fā)表于 07-04 14:19 ?918次閱讀

    循環(huán)神經網絡和卷積神經網絡的區(qū)別

    循環(huán)神經網絡(Recurrent Neural Network,RNN)和卷積神經網絡(Convolutional Neural Network,CNN)是深度學習領域中兩種非常重要的
    的頭像 發(fā)表于 07-04 14:24 ?1299次閱讀

    循環(huán)神經網絡的基本原理是什么

    結構具有循環(huán),能夠將前一個時間步的信息傳遞到下一個時間步,從而實現對序列數據的建模。本文將介紹循環(huán)神經網絡的基本原理。 RNN的基本結構 1
    的頭像 發(fā)表于 07-04 14:26 ?653次閱讀

    循環(huán)神經網絡算法原理及特點

    )相比,RNN在處理序列數據時具有明顯的優(yōu)勢。本文將介紹循環(huán)神經網絡的原理、特點及應用。 1. 循環(huán)神經
    的頭像 發(fā)表于 07-04 14:49 ?674次閱讀

    遞歸神經網絡循環(huán)神經網絡

    遞歸神經網絡(Recurrent Neural Network,簡稱RNN)和循環(huán)神經網絡(Recurrent Neural Network,簡稱R
    的頭像 發(fā)表于 07-04 14:54 ?759次閱讀

    rnn神經網絡基本原理

    RNN(Recurrent Neural Network,循環(huán)神經網絡)是一種具有循環(huán)結構的神經網絡,它能夠處理序列數據,并且能夠捕捉時間序
    的頭像 發(fā)表于 07-04 15:02 ?732次閱讀

    rnn神經網絡模型原理

    RNN(Recurrent Neural Network,循環(huán)神經網絡)是一種具有循環(huán)結構的神經網絡,它能夠處理序列數據,具有記憶功能。
    的頭像 發(fā)表于 07-04 15:40 ?595次閱讀

    rnn是什么神經網絡

    RNN(Recurrent Neural Network,循環(huán)神經網絡)是一種具有循環(huán)連接的神經網絡,它能夠處理序列數據,并且具有記憶能力。
    的頭像 發(fā)表于 07-05 09:49 ?684次閱讀

    rnn是什么神經網絡模型

    RNN(Recurrent Neural Network,循環(huán)神經網絡)是一種具有循環(huán)結構的神經網絡模型,它能夠處理序列數據,并對序列中的元
    的頭像 發(fā)表于 07-05 09:50 ?612次閱讀

    rnn是遞歸神經網絡還是循環(huán)神經網絡

    RNN(Recurrent Neural Network)是循環(huán)神經網絡,而非遞歸神經網絡循環(huán)神經網絡
    的頭像 發(fā)表于 07-05 09:52 ?577次閱讀

    LSTM神經網絡與傳統RNN的區(qū)別

    在深度學習領域,循環(huán)神經網絡RNN)因其能夠處理序列數據而受到廣泛關注。然而,傳統RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)
    的頭像 發(fā)表于 11-13 09:58 ?314次閱讀
    主站蜘蛛池模板: 色播图片| 欧美18同性gay视频| 国产精品1区2区3区在线播放| 日日射天天射| 久久成人福利视频| 99福利| 在线毛片免费| 国产精品久久久精品三级 | 亚洲男人精品| 五月在线观看| 欧美色图在线观看| 国产床戏无遮掩视频播放| 夜夜爽一区二区三区精品| 天天插天天搞| 香蕉网影院在线观看免费| 欧美日本免费| 特级全黄一级毛片视频| 免费看毛片网| 午夜影剧| 2017天天操| 久久免费观看国产精品| 性欧美乱又伦| 久久综合九色综合97_ 久久久| 艹逼免费视频| 黄色录像视频网站| 欧美日韩一卡2卡三卡4卡新区| 嫩草黄色影院| 国内精品久久久久久久久野战 | 午夜在线观看福利| 亚洲一区二区三区免费| 五月婷婷丁香综合| 狠狠色影院| 天天插天天搞| 在线看片成人免费视频| 欧美色图亚洲激情| 欧美成人全部费免网站| 亚洲一区二区免费视频| 免费看很黄很色裸乳视频| 久久观看| 色色色色色色色色色色色| 97蜜桃|