在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

RNN以及LSTM

新機(jī)器視覺 ? 來源:機(jī)器學(xué)習(xí)算法那些事 ? 作者:機(jī)器學(xué)習(xí)算法那些 ? 2022-03-15 10:44 ? 次閱讀

熟悉深度學(xué)習(xí)的朋友知道,LSTM是一種RNN模型,可以方便地處理時(shí)間序列數(shù)據(jù),在NLP等領(lǐng)域有廣泛應(yīng)用。

在看了臺(tái)大李宏毅教授的深度學(xué)習(xí)視頻后,特別是介紹的第一部分RNN以及LSTM,整個(gè)人醍醐灌頂。

0. 從RNN說起

循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。相比一般的神經(jīng)網(wǎng)絡(luò)來說,他能夠處理序列變化的數(shù)據(jù)。比如某個(gè)單詞的意思會(huì)因?yàn)樯衔奶岬降膬?nèi)容不同而有不同的含義,RNN就能夠很好地解決這類問題。

1. 普通RNN

先簡單介紹一下一般的RNN。其主要形式如下圖所示(圖片均來自臺(tái)大李宏毅教授的PPT):

ba5cb7b8-a355-11ec-952b-dac502259ad0.png

這里:

為當(dāng)前狀態(tài)下數(shù)據(jù)的輸入,表示接收到的上一個(gè)節(jié)點(diǎn)的輸入。

為當(dāng)前節(jié)點(diǎn)狀態(tài)下的輸出,而為傳遞到下一個(gè)節(jié)點(diǎn)的輸出。

通過上圖的公式可以看到,輸出 h'與 x 和 h 的值都相關(guān)。

而 y 則常常使用 h'投入到一個(gè)線性層(主要是進(jìn)行維度映射)然后使用softmax進(jìn)行分類得到需要的數(shù)據(jù)。

對(duì)這里的y如何通過 h'計(jì)算得到往往看具體模型的使用方式。

通過序列形式的輸入,我們能夠得到如下形式的RNN。

ba767a90-a355-11ec-952b-dac502259ad0.png

2. LSTM

2.1 什么是LSTM

長短期記憶(Long short-term memory, LSTM)是一種特殊的RNN,主要是為了解決長序列訓(xùn)練過程中的梯度消失和梯度爆炸問題。簡單來說,就是相比普通的RNN,LSTM能夠在更長的序列中有更好的表現(xiàn)。

LSTM結(jié)構(gòu)(圖右)和普通RNN的主要輸入輸出區(qū)別如下所示。

ba9e1884-a355-11ec-952b-dac502259ad0.png

相比RNN只有一個(gè)傳遞狀態(tài),LSTM有兩個(gè)傳輸狀態(tài),一個(gè)(cell state),和一個(gè)(hidden state)。RNN中的等價(jià)于LSTM中的。

其中對(duì)于傳遞下去的改變得很慢,通常輸出的是上一個(gè)狀態(tài)傳過來的加上一些數(shù)值。

而則在不同節(jié)點(diǎn)下往往會(huì)有很大的區(qū)別。

2.2 深入LSTM結(jié)構(gòu)

下面具體對(duì)LSTM的內(nèi)部結(jié)構(gòu)來進(jìn)行剖析。

首先使用LSTM的當(dāng)前輸入和上一個(gè)狀態(tài)傳遞下來的拼接訓(xùn)練得到四個(gè)狀態(tài)。

baaf8b0a-a355-11ec-952b-dac502259ad0.png

其中,,是由拼接向量乘以權(quán)重矩陣之后,再通過一個(gè) sigmoid激活函數(shù)轉(zhuǎn)換成0到1之間的數(shù)值,來作為一種門控狀態(tài)。而則是將結(jié)果通過一個(gè) tanh激活函數(shù)將轉(zhuǎn)換成-1到1之間的值(這里使用 tanh是因?yàn)檫@里是將其做為輸入數(shù)據(jù),而不是門控信號(hào))。

下面開始進(jìn)一步介紹這四個(gè)狀態(tài)在LSTM內(nèi)部的使用(敲黑板)

bac692d2-a355-11ec-952b-dac502259ad0.png

是Hadamard Product,也就是操作矩陣中對(duì)應(yīng)的元素相乘,因此要求兩個(gè)相乘矩陣是同型的。則代表進(jìn)行矩陣加法。

LSTM內(nèi)部主要有三個(gè)階段:

1. 忘記階段。這個(gè)階段主要是對(duì)上一個(gè)節(jié)點(diǎn)傳進(jìn)來的輸入進(jìn)行選擇性忘記。簡單來說就是會(huì) “忘記不重要的,記住重要的”。

具體來說是通過計(jì)算得到的(f表示forget)來作為忘記門控,來控制上一個(gè)狀態(tài)的哪些需要留哪些需要忘。

2. 選擇記憶階段。這個(gè)階段將這個(gè)階段的輸入有選擇性地進(jìn)行“記憶”。主要是會(huì)對(duì)輸入進(jìn)行選擇記憶。哪些重要?jiǎng)t著重記錄下來,哪些不重要,則少記一些。當(dāng)前的輸入內(nèi)容由前面計(jì)算得到的表示。而選擇的門控信號(hào)則是由(i代表information)來進(jìn)行控制。

將上面兩步得到的結(jié)果相加,即可得到傳輸給下一個(gè)狀態(tài)的。也就是上圖中的第一個(gè)公式。

3. 輸出階段。這個(gè)階段將決定哪些將會(huì)被當(dāng)成當(dāng)前狀態(tài)的輸出。主要是通過來進(jìn)行控制的。并且還對(duì)上一階段得到的進(jìn)行了放縮(通過一個(gè)tanh激活函數(shù)進(jìn)行變化)。

與普通RNN類似,輸出往往最終也是通過變化得到。

3. 總結(jié)

以上,就是LSTM的內(nèi)部結(jié)構(gòu)。通過門控狀態(tài)來控制傳輸狀態(tài),記住需要長時(shí)間記憶的,忘記不重要的信息;而不像普通的RNN那樣只能夠“呆萌”地僅有一種記憶疊加方式。對(duì)很多需要“長期記憶”的任務(wù)來說,尤其好用。

但也因?yàn)橐肓撕芏鄡?nèi)容,導(dǎo)致參數(shù)變多,也使得訓(xùn)練難度加大了很多。因此很多時(shí)候我們往往會(huì)使用效果和LSTM相當(dāng)?shù)珔?shù)更少的GRU來構(gòu)建大訓(xùn)練量的模型。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4777

    瀏覽量

    100953
  • LSTM
    +關(guān)注

    關(guān)注

    0

    文章

    59

    瀏覽量

    3767

原文標(biāo)題:人人都能看懂的LSTM

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    FPGA也能做RNN

    ,GPU只能提供有限的并行性。針對(duì)這個(gè)問題,普渡大學(xué)的研究人員提出了一種LSTM在Zynq 7020 FPGA的硬件實(shí)現(xiàn)方案,該方案在FPGA中實(shí)現(xiàn)了2層128個(gè)隱藏單元的RNN,并且使用字符級(jí)語言模型
    發(fā)表于 07-31 10:11

    放棄 RNNLSTM 吧,它們真的不好用

    2014 年 RNN/LSTM 起死回生。自此,RNN/LSTM 及其變種逐漸被廣大用戶接受和認(rèn)可。起初,LSTM
    的頭像 發(fā)表于 04-25 09:43 ?2.1w次閱讀

    RNN及其變體LSTM和GRU

    下圖為一個(gè)雙層LSTM對(duì)三個(gè)不同的單詞的反應(yīng)分布。該LSTM每層有600個(gè)細(xì)胞狀態(tài)單元,基于Penn Tree Bank(PTB)數(shù)據(jù)集訓(xùn)練。我們可以看到,模型對(duì)介詞(“for”)和代詞(“he”、“she”)的反應(yīng)模式大不相同。
    的頭像 發(fā)表于 06-30 11:11 ?1.7w次閱讀
    <b class='flag-5'>RNN</b>及其變體<b class='flag-5'>LSTM</b>和GRU

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和(LSTM)初學(xué)者指南

    最近,有一篇入門文章引發(fā)了不少關(guān)注。文章中詳細(xì)介紹了循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),及其變體長短期記憶(LSTM)背后的原理。
    發(fā)表于 02-05 13:43 ?962次閱讀

    一種具有強(qiáng)記憶力的 E3D-LSTM網(wǎng)絡(luò),強(qiáng)化了LSTM的長時(shí)記憶能力

    標(biāo)準(zhǔn) LSTM 單元結(jié)構(gòu) 首先簡要介紹一下標(biāo)準(zhǔn) LSTM 結(jié)構(gòu),和 RNN 相比 LSTM 增加了更復(fù)雜的門結(jié)構(gòu)(圖中黃色模塊),主要解決 RN
    的頭像 發(fā)表于 09-01 07:35 ?1.1w次閱讀
    一種具有強(qiáng)記憶力的 E3D-<b class='flag-5'>LSTM</b>網(wǎng)絡(luò),強(qiáng)化了<b class='flag-5'>LSTM</b>的長時(shí)記憶能力

    循環(huán)神經(jīng)網(wǎng)絡(luò)LSTM為何如此有效?

    長短期記憶網(wǎng)絡(luò)(LSTM),作為一種改進(jìn)之后的循環(huán)神經(jīng)網(wǎng)絡(luò),不僅能夠解決 RNN無法處理長距離的依賴的問題,還能夠解決神經(jīng)網(wǎng)絡(luò)中常見的梯度爆炸或梯度消失等問題,在處理序列數(shù)據(jù)方面非常有效。 有效背后
    的頭像 發(fā)表于 03-19 11:22 ?2879次閱讀
    循環(huán)神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>LSTM</b>為何如此有效?

    深度分析RNN的模型結(jié)構(gòu),優(yōu)缺點(diǎn)以及RNN模型的幾種應(yīng)用

    強(qiáng)大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強(qiáng)的。 這篇文章,闡述了RNN的方方面面,包括模型結(jié)構(gòu),優(yōu)缺點(diǎn),RNN模型的幾種應(yīng)用,RNN常使用的激活函數(shù),
    的頭像 發(fā)表于 05-13 10:47 ?2.4w次閱讀
    深度分析<b class='flag-5'>RNN</b>的模型結(jié)構(gòu),優(yōu)缺點(diǎn)<b class='flag-5'>以及</b><b class='flag-5'>RNN</b>模型的幾種應(yīng)用

    如何理解RNNLSTM神經(jīng)網(wǎng)絡(luò)

    在深入探討RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(Long Short-Term Memory,長短期記憶網(wǎng)絡(luò))神經(jīng)網(wǎng)絡(luò)之前,我們首先需要明確它們
    的頭像 發(fā)表于 07-09 11:12 ?674次閱讀

    LSTM模型的基本組成

    長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)架構(gòu),它在處理序列數(shù)據(jù)時(shí)能夠捕捉長期依賴關(guān)系,有效解決了傳統(tǒng)RNN在處理長序列時(shí)容易出現(xiàn)
    的頭像 發(fā)表于 07-10 17:01 ?1445次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時(shí)間序列中的長期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?508次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    自然語言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長短期記憶(LSTM)網(wǎng)絡(luò)的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?456次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    長短期記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發(fā)表于 11-13 09:57 ?1786次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時(shí)存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)運(yùn)而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?405次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的調(diào)參技巧

    長短時(shí)記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。在實(shí)際應(yīng)用中,LSTM網(wǎng)絡(luò)的調(diào)參是一個(gè)復(fù)雜且關(guān)鍵的過程,直接影響
    的頭像 發(fā)表于 11-13 10:01 ?729次閱讀

    RNNLSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長短期記憶網(wǎng)絡(luò))模型在深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們在結(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對(duì)RNNLSTM模型的比較分析: 一、基
    的頭像 發(fā)表于 11-15 10:05 ?687次閱讀
    主站蜘蛛池模板: 欧美三级久久| 老师解胸罩喂我吃奶| 欧美丝妇| 国产成人亚洲影视在线| 涩综合| 欧美瑟瑟| 免费高清特级毛片| 精品卡一卡二 卡四卡视频 | 国产福利不卡一区二区三区| 丁香婷婷视频| 亚洲精品久久片久久| 天天射干| 高清视频黄色录像免费| japan日韩xxxx69hd| 狠狠色噜狠狠狠狠| 新天堂| 日本三级理论片| 狠狠色噜噜| 午夜免费剧场| 激情综合激情| 一级毛片不卡| 淫www| 日本h片在线观看| 韩国三级床戏合集| 午夜合集| 亚洲酒色1314狠狠做| 男男憋尿play按小腹| 天堂电影在线| 狠狠色欧美亚洲狠狠色www| 午夜视频在线观看国产www| 福利99| 国产精品久久久香蕉| 手机看片a永久免费看大片| 久久精品男人的天堂| 天天操天天射天天舔| 日本69av| 香港三级在线视频| 精品一级毛片| 日本激情网| 免费大片看黄在观看| 骚五月|