在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

一個LSTM被分解成垂直和水平的LSTM

OpenCV學堂 ? 來源:OpenCV學堂 ? 作者:OpenCV學堂 ? 2022-05-07 16:29 ? 次閱讀

在最近的計算機視覺研究中,ViT的出現(xiàn)迅速改變了各種架構設計工作:ViT利用自然語言處理中的Self-Attention實現(xiàn)了最先進的圖像分類性能,MLP-Mixer利用簡單的多層感知器也實現(xiàn)了具有競爭性的結果。相比之下,一些研究也表明,精心設計的卷積神經(jīng)網(wǎng)絡(CNNs)可以實現(xiàn)媲美ViT的先進性能,而無需借助這些新想法。在這種背景下,人們對什么是適合于計算機視覺的歸納偏差越來越感興趣。

在這里,作者提出Sequencer,一個全新且具有競爭性的架構,可以替代ViT,為分類問題提供了一個全新的視角。與ViT不同,Sequencer使用LSTM(而不是Self-Attention)對遠程依賴關系進行建模。

作者還提出了一個二維的Sequencer模塊,其中一個LSTM被分解成垂直和水平的LSTM,以提高性能。

雖然結構簡單,但是經(jīng)過實驗表明,Sequencer的表現(xiàn)令人印象深刻:Sequencer2D-L在ImageNet-1K上僅使用54M參數(shù),實現(xiàn)84.6%的top-1精度。不僅如此,作者還證明了它在雙分辨率波段上具有良好的可遷移性和穩(wěn)健性。

1背景

Vision Transformer成功的原因被認為是由于Self-Attention建模遠程依賴的能力。然而,Self-Attention對于Transformer執(zhí)行視覺任務的有效性有多重要還不清楚。事實上,只基于多層感知器(MLPs)的MLP-Mixer被提議作為ViTs的一個有吸引力的替代方案。

此外,一些研究表明,精心設計的CNN在計算機視覺方面仍有足夠的競爭力。因此,確定哪些架構設計對計算機視覺任務具有內(nèi)在的有效性是當前研究的一大熱點。本文通過提出一種新穎的、具有競爭力的替代方案,為這一問題提供了一個新的視角。

本文提出了Sequencer體系結構,使用LSTM(而不是Self-Attention)進行序列建模。Sequencer的宏觀架構設計遵循ViTs,迭代地應用Token Mixing和Channel Mixing,但Self-Attention被基于LSTMs的Self-Attention層取代。特別是,Sequencer使用BiLSTM作為一個構建塊。簡單的BiLSTM表現(xiàn)出一定的性能水平,而Sequencer可以通過使用類似Vision Permutator(ViP)的思想進一步提高。ViP的關鍵思想是平行處理垂直軸和水平軸。

作者還引入了2個BiLSTM,用于并行處理上/下和左/右方向。這種修改提高了Sequencer的效率和準確性,因為這種結構減少了序列的長度,并產(chǎn)生一個有空間意義的感受野。

在ImageNet-1K數(shù)據(jù)集上進行預訓練時,新的Sequencer架構的性能優(yōu)于類似規(guī)模的Swin和ConvNeXt等高級架構。它還優(yōu)于其他無注意力和無CNN的架構,如MLP-Mixer和GFNet,使Sequencer在視覺任務中的Self-Attention具有吸引力的新替代方案。

值得注意的是,Sequencer還具有很好的領域穩(wěn)健性以及尺度穩(wěn)定性,即使在推理過程中輸入的分辨率增加了一倍,也能強烈防止精度退化。此外,對高分辨率數(shù)據(jù)進行微調(diào)的Sequencer可以達到比Swin-B更高的精度。在峰值內(nèi)存上,在某些情況下,Sequencer往往比ViTs和cnn更經(jīng)濟。雖然由于遞歸,Sequencer需要比其他模型更多的FLOPs,但更高的分辨率提高了峰值內(nèi)存的相對效率,提高了在高分辨率環(huán)境下的精度/成本權衡。因此,Sequencer作為一種實用的圖像識別模型也具有吸引人的特性。

2全新范式

2.1 LSTM的原理

LSTM是一種特殊的遞歸神經(jīng)網(wǎng)絡(RNN),用于建模序列的長期依賴關系。Plain LSTM有一個輸入門,它控制存儲輸入,一個控制前單元狀態(tài)的遺忘的遺忘門,以及一個輸出門,它控制當前單元狀態(tài)的單元輸出。普通LSTM的公式如下:

3c0deb4a-cd29-11ec-bce3-dac502259ad0.png

其中σ是logistic sigmoid function,是Hadamard product。

BiLSTM對于預期相互依賴的序列是有利的。一個BiLSTM由2個普通的LSTM組成。設為輸入,為反向重排。和分別是用相應的LSTM處理和得到的輸出。設為按原順序重新排列的輸出,BiLSTM的輸出如下:

3c1be47a-cd29-11ec-bce3-dac502259ad0.png

假設和具有相同的隱藏維數(shù)D,這是BiLSTM的超參數(shù)。因此,向量h的維數(shù)為二維。

2.2 Sequencer架構

1、架構總覽

本文用LSTM取代Self-Attention層:提出了一種新的架構,旨在節(jié)省內(nèi)存和參數(shù),同時具有學習遠程建模的能力。

3c276110-cd29-11ec-bce3-dac502259ad0.png

圖2a顯示了Sequencer體系結構的整體結構。Sequencer架構以不重疊的Patches作為輸入,并將它們投影到特征圖上。Sequencer Block是Sequencer的核心組件,由以下子組件組成:

BiLSTM層可以經(jīng)濟、全局地Mixing空間信息

MLP用于Channel Mixing

當使用普通BiLSTM層時,Sequencer Block稱為Vanilla Sequencer block;當使用BiLSTM2D層作為Sequencer Block時,Sequencer Block稱為Sequencer2D block。最后一個塊的輸出通過全局平均池化層送到線性分類器。

2、BiLSTM2D layer

作者提出了BiLSTM2D層作為一種有效Mixing二維空間信息的技術。它有2個普通的BiLSTM,一個垂直的BiLSTM和一個水平的BiLSTM。

對于輸入被視為一組序列,其中是垂直方向上的Token數(shù)量,W是水平方向上的序列數(shù)量,C是通道維度。所有序列都輸入到垂直BiLSTM中,共享權重和隱藏維度D:

3c57b7de-cd29-11ec-bce3-dac502259ad0.png

用與上述相似的方式,被視為一組序列,所有序列被輸入到水平BiLSTM中,共享權重和隱藏維度D:

3c664416-cd29-11ec-bce3-dac502259ad0.png

然后將合并到中,同時將合并到。最后送入FC層。這些流程制定如下:

3c766bca-cd29-11ec-bce3-dac502259ad0.png

偽代碼如下:

3c82a8b8-cd29-11ec-bce3-dac502259ad0.png

3、架構變體

為了比較由Sequencer 2D組成的不同深度的模型,本文準備了3種不同深度的模型:18、24和36。模型的名稱分別為Sequencer2D-S、Sequencer2D-M和Sequencer2D-L。隱藏維度設置為D=C/4。

3c913946-cd29-11ec-bce3-dac502259ad0.png

3ca309c8-cd29-11ec-bce3-dac502259ad0.png

3實驗

3.1 ImageNet-1K

3cdadf06-cd29-11ec-bce3-dac502259ad0.png

3.2 遷移學習

3cf029b0-cd29-11ec-bce3-dac502259ad0.png

3.3 穩(wěn)健性實驗

3cff1d58-cd29-11ec-bce3-dac502259ad0.png

3.4 可視化分析

一般來說,CNN具有局部化的、逐層擴展的感受野,而沒有移動窗口的ViT捕獲的是全局依賴。相比之下,作者Sequencer不清楚信息是如何處理的。因此作者計算了ResNet-50、DeiT-S和Sequencer2D-S的ERF,如圖5所示。

3d10d2c8-cd29-11ec-bce3-dac502259ad0.png

Sequencer2D-S的ERFs在所有層中形成十字形。這一趨勢使其不同于DeiT-S和ResNet-50等著名模型。更值得注意的是,在淺層中,Sequencer2D-S比ResNet-50的ERF更寬,盡管沒有DeiT那么寬。這一觀察結果證實了Sequencer中的lstm可以像預期的那樣建模長期依賴關系,并且Sequencer可以識別足夠長的垂直或水平區(qū)域。因此,可以認為,Sequencer識別圖像的方式與CNN或ViT非常不同。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機視覺
    +關注

    關注

    8

    文章

    1700

    瀏覽量

    46073
  • LSTM
    +關注

    關注

    0

    文章

    59

    瀏覽量

    3771

原文標題:CV全新范式 | LSTM在CV領域殺出一條血路,完美超越Swin與ConvNeXt等前沿算法

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    RNN與LSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡)與LSTM(長短期記憶網(wǎng)絡)模型在深度學習領域都具有處理序列數(shù)據(jù)的能力,但它們在結構、功能和應用上存在顯著的差異。以下是對RNN與LSTM模型的比較分析: 、基本原理與結構
    的頭像 發(fā)表于 11-15 10:05 ?753次閱讀

    LSTM神經(jīng)網(wǎng)絡與其他機器學習算法的比較

    隨著人工智能技術的飛速發(fā)展,機器學習算法在各個領域中扮演著越來越重要的角色。長短期記憶網(wǎng)絡(LSTM)作為種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),因其在處理序列數(shù)據(jù)方面的優(yōu)勢而受到廣泛關注。 LSTM
    的頭像 發(fā)表于 11-13 10:17 ?961次閱讀

    深度學習框架中的LSTM神經(jīng)網(wǎng)絡實現(xiàn)

    處理、語音識別和時間序列預測等領域,LSTM已經(jīng)成為種流行的選擇。 LSTM的基本原理 LSTM網(wǎng)絡的核心是三門控機制:輸入門(Inpu
    的頭像 發(fā)表于 11-13 10:16 ?457次閱讀

    LSTM神經(jīng)網(wǎng)絡在圖像處理中的應用

    長短期記憶(LSTM)神經(jīng)網(wǎng)絡是種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴關系。雖然LSTM最初是為處理序列數(shù)據(jù)設計的,但近年來,它在圖像處理領域也展現(xiàn)出了巨大的潛力。 LSTM
    的頭像 發(fā)表于 11-13 10:12 ?607次閱讀

    如何使用Python構建LSTM神經(jīng)網(wǎng)絡模型

    構建LSTM(長短期記憶)神經(jīng)網(wǎng)絡模型是涉及多個步驟的過程。以下是使用Python和Keras庫構建
    的頭像 發(fā)表于 11-13 10:10 ?522次閱讀

    如何優(yōu)化LSTM神經(jīng)網(wǎng)絡的性能

    LSTM種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴關系,因此在序列數(shù)據(jù)處理中非常有效。然而,LSTM網(wǎng)絡的訓練可能面臨梯度消失或爆炸的問題,需要采取特定的策略來優(yōu)化其性能。 1. 數(shù)據(jù)
    的頭像 發(fā)表于 11-13 10:09 ?957次閱讀

    LSTM神經(jīng)網(wǎng)絡的訓練數(shù)據(jù)準備方法

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡的訓練數(shù)據(jù)準備方法是關鍵步驟,它直接影響到模型的性能和效果。以下是些關于
    的頭像 發(fā)表于 11-13 10:08 ?795次閱讀

    LSTM神經(jīng)網(wǎng)絡的結構與工作機制

    的結構與工作機制的介紹: LSTM神經(jīng)網(wǎng)絡的結構 LSTM神經(jīng)網(wǎng)絡的結構主要包括以下幾個部分: 記憶單元(Memory Cell) : 記憶單元是LSTM網(wǎng)絡的核心,負責在整個序列
    的頭像 發(fā)表于 11-13 10:05 ?545次閱讀

    LSTM神經(jīng)網(wǎng)絡在語音識別中的應用實例

    語音識別技術是人工智能領域的重要分支,它使計算機能夠理解和處理人類語言。隨著深度學習技術的發(fā)展,特別是長短期記憶(LSTM)神經(jīng)網(wǎng)絡的引入,語音識別的準確性和效率得到了顯著提升。 LSTM
    的頭像 發(fā)表于 11-13 10:03 ?741次閱讀

    LSTM神經(jīng)網(wǎng)絡的調(diào)參技巧

    長短時記憶網(wǎng)絡(Long Short-Term Memory, LSTM)是種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴信息。在實際應用中,LSTM網(wǎng)絡的調(diào)參是
    的頭像 發(fā)表于 11-13 10:01 ?770次閱讀

    LSTM神經(jīng)網(wǎng)絡的優(yōu)缺點分析

    長短期記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡是種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發(fā)表于 11-13 09:57 ?1911次閱讀

    使用LSTM神經(jīng)網(wǎng)絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(RNN)及其變體——長短期記憶(LSTM)網(wǎng)絡的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?471次閱讀

    LSTM神經(jīng)網(wǎng)絡在時間序列預測中的應用

    時間序列預測是數(shù)據(jù)分析中的重要領域,它涉及到基于歷史數(shù)據(jù)預測未來值。隨著深度學習技術的發(fā)展,長短期記憶(LSTM)神經(jīng)網(wǎng)絡因其在處理序列數(shù)據(jù)方面的優(yōu)勢而受到廣泛關注。 LSTM神經(jīng)
    的頭像 發(fā)表于 11-13 09:54 ?787次閱讀

    LSTM神經(jīng)網(wǎng)絡的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡是種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關系而受到
    的頭像 發(fā)表于 11-13 09:53 ?560次閱讀

    LSTM模型的基本組成

    的梯度消失或梯度爆炸問題。LSTM通過引入三“門”控制結構——遺忘門、輸入門和輸出門,以及記憶細胞(memory cell),實現(xiàn)了對信息的有效存儲和更新。本文將對
    的頭像 發(fā)表于 07-10 17:01 ?1521次閱讀
    主站蜘蛛池模板: 天天色天天操天天射| 台湾三级毛片| 宅男lu66国产在线播放| 久久最新精品| 国产欧美一区二区日本加勒比| 韩国午夜影院| 免费视频现线观看| 在线视频一区二区三区| 欧美日本俄罗斯一级毛片| 1024手机看片日韩| videosxxoo18在线| 日本免费一区二区视频| 在线免费视频观看| 一区二区三区免费精品视频| 欧美成人一区亚洲一区| 亚洲成人综合网站| 日本午夜片成年www| 六月婷婷网视频在线观看| 国产大乳孕妇喷奶水在线观看| 51成人网| 国产亚洲欧美日本一二三本道| 男人操女人免费网站| 精品成人| 色多多在线看| 狠狠操婷婷| 天天爽夜夜爽每晚高澡| 午夜精| 黄色免费网站视频| 午夜.dj高清在线观看免费8| 亚洲男人的天堂成人| 欧美精彩狠狠色丁香婷婷| 成人免费看毛片| 米奇精品一区二区三区| 55夜色66夜色国产精品站| 亚洲精品视频网| 欧美日韩高清性色生活片| 复古毛片| 看片久久| 国产一级特黄毛片| 天天襙| 4444kk在线看片|