在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CNN根本無需理解圖像全局結(jié)構(gòu),一樣也能SOTA?

OpenCV學(xué)堂 ? 來源:量子位 ? 作者:量子位 ? 2022-06-09 10:51 ? 次閱讀

不給全圖,只投喂CNN一些看上去毫無信息量的圖像碎片,就能讓模型學(xué)會圖像分類。

更重要的是,性能完全不差,甚至還能反超用完整圖像訓(xùn)練的模型。

796d0e56-e739-11ec-ba43-dac502259ad0.png

這么一項來自加州大學(xué)圣塔芭芭拉分校的新研究,這兩天引發(fā)不少討論。

咋地,這就是說,CNN根本無需理解圖像全局結(jié)構(gòu),一樣也能SOTA?

79a3bafa-e739-11ec-ba43-dac502259ad0.png

具體是怎么一回事,咱們還是直接上論文。

實驗證據(jù)

研究人員設(shè)計了這樣一個實驗:

他們在CIFAR-10、CIFAR-100、STL-10、Tiny-ImageNet-200以及Imagenet-1K等數(shù)據(jù)集上訓(xùn)練ResNet。

特別的是,用于訓(xùn)練的圖像是通過隨機裁剪得到的。

這個“隨機裁剪”,可不是往常我們會在數(shù)據(jù)增強方法中見到的那一種,而是完全不做任何填充。

舉個例子,就是對圖片做PyTorch的RandomCrop變換時,padding的參數(shù)填0。

得到的訓(xùn)練圖像就是下面這個樣式的。即使你是閱圖無數(shù)的老司機,恐怕也分辨不出到底是個啥玩意兒。

79d0c3ce-e739-11ec-ba43-dac502259ad0.png

訓(xùn)練圖像如此碎片化,模型的識圖能力又能達到幾成?

來看實驗結(jié)果:

79edc60e-e739-11ec-ba43-dac502259ad0.png

好家伙,在CIFAR-10上,用16×16的圖像碎片訓(xùn)練出來的模型,測試準(zhǔn)確率能達到91%,而用完整的32×32尺寸圖像訓(xùn)練出來的模型,測試準(zhǔn)確率也不過90%。

這一波,“殘缺版”CNN竟然完全不落下風(fēng),甚至還反超了“完整版”CNN。

要知道,被喂了碎片的CNN模型,看到的圖像甚至可能跟標(biāo)簽顯示的物體毫無關(guān)系,只是原圖中背景的部分……

在STL-10、Tiny-Imagenet-200等數(shù)據(jù)集上,研究人員也得到了類似的結(jié)果。

不過,在CIFAR-100上,還是完整圖像訓(xùn)練出來的模型略勝一籌。16×16圖像碎片訓(xùn)練出的模型測試準(zhǔn)確率為61%,而32×32完整圖像訓(xùn)練出的模型準(zhǔn)確率為68%。

所以,CNN為何會有如此表現(xiàn)?莫非它本來就是個“近視眼”?

研究人員推測,CNN能有如此優(yōu)秀的泛化表現(xiàn),是因為在這個實驗中,維度詛咒的影響被削弱了。

所謂維度詛咒(curse of dimensionality),是指當(dāng)維數(shù)提高時,空間體積提高太快,導(dǎo)致可用數(shù)據(jù)變得稀疏。

而在這項研究中,由于CNN學(xué)習(xí)到的不是整個圖像的標(biāo)簽,而是圖像碎片的標(biāo)簽,這就在兩個方面降低了維度詛咒的影響:

圖像碎片的像素比完整圖像小得多,這減少了輸入維度

訓(xùn)練期間可用的樣本數(shù)量增加了

生成熱圖

基于以上實驗觀察結(jié)果,研究人員還提出以熱圖的形式,來理解CNN的預(yù)測行為,由此進一步對模型的錯誤做出“診斷”。

就像這樣:

7a1871ce-e739-11ec-ba43-dac502259ad0.png

這些圖像來自于STL-10數(shù)據(jù)集。熱圖顯示,對于CNN而言,飛機圖像中最能“刺激”到模型的,不是飛機本身,而是天空。

同樣,在汽車圖像中,車輪才是CNN用來識別圖像的主要屬性。

論文地址: https://arxiv.org/abs/2205.10760

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像分類
    +關(guān)注

    關(guān)注

    0

    文章

    90

    瀏覽量

    11943
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24749
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    353

    瀏覽量

    22265

原文標(biāo)題:不看全圖看局部,CNN性能竟然更強了

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Mamba入局圖像復(fù)原,達成新SOTA

    MambaIRv2,更高性能、更高效率!另外還有ACM MM 2024上的Freqmamba方法,在圖像去雨任務(wù)中取得了SOTA性能! 顯然,這種基于Mamba的方法在圖像復(fù)原領(lǐng)域,比基于CN
    的頭像 發(fā)表于 12-30 18:09 ?173次閱讀
    Mamba入局<b class='flag-5'>圖像</b>復(fù)原,達成新<b class='flag-5'>SOTA</b>

    封裝一樣的磁棒電感通用嗎

    電子發(fā)燒友網(wǎng)站提供《封裝一樣的磁棒電感通用嗎.docx》資料免費下載
    發(fā)表于 10-28 11:15 ?0次下載

    使用的TPA3116和3118一樣,工作頻率越高IC的發(fā)熱越大,這樣的情況是否正常?

    我使用的TPA3116和3118一樣,工作頻率越高IC的發(fā)熱越大,這樣的情況是否正常啊。般我理解的 是工作頻率越高,效率就越高,發(fā)熱應(yīng)該越小才對。特別是在沒有輸入信號的時候,靜態(tài)對比非常明顯
    發(fā)表于 10-28 07:40

    OPA361輸入為復(fù)合視頻,輸出視頻圖像畫面異常,跟過曝一樣,為什么?

    輸入為復(fù)合視頻,輸出視頻圖像畫面異常,跟過曝一樣,不知到是什么原因?
    發(fā)表于 08-19 06:24

    Stem32CubeIDE像Keil一樣指定不同文件下的代碼編譯嗎?

    Stem32CubeIDE像Keil一樣指定不同文件下的代碼編譯
    發(fā)表于 07-23 06:22

    圖像分割與語義分割中的CNN模型綜述

    圖像分割與語義分割是計算機視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο蟆>矸e神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的種核心模型,在
    的頭像 發(fā)表于 07-09 11:51 ?1053次閱讀

    CNN與RNN的關(guān)系?

    在深度學(xué)習(xí)的廣闊領(lǐng)域中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是兩種極為重要且各具特色的神經(jīng)網(wǎng)絡(luò)模型。它們各自在圖像處理、自然語言處理等領(lǐng)域展現(xiàn)出卓越的性能。本文將從概念、原理、應(yīng)用場景及代碼示例等方面詳細探討CNN與R
    的頭像 發(fā)表于 07-08 16:56 ?842次閱讀

    如何利用CNN實現(xiàn)圖像識別

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)領(lǐng)域中種特別適用于圖像識別任務(wù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過模擬人類視覺系統(tǒng)的處理方式,利用卷積、池化等操作,自動提取圖像
    的頭像 發(fā)表于 07-03 16:16 ?1459次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測、語義分割等領(lǐng)域。本文將詳細介紹CNN在分類任務(wù)中的應(yīng)用,包括基本結(jié)構(gòu)
    的頭像 發(fā)表于 07-03 09:28 ?670次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程及應(yīng)用領(lǐng)域

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。CNN模型的核心是卷積層
    的頭像 發(fā)表于 07-02 15:26 ?3911次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    深度神經(jīng)網(wǎng)絡(luò)模型CNN(Convolutional Neural Network)是種廣泛應(yīng)用于圖像識別、視頻分析和自然語言處理等領(lǐng)域的深度學(xué)習(xí)模型。 引言 深度學(xué)習(xí)是近年來人工智能領(lǐng)域的研究熱點
    的頭像 發(fā)表于 07-02 10:11 ?9840次閱讀

    NB81是否支持OneNet SOTA功能?應(yīng)該如何激活SOTA

    NB81是否支持OneNet SOTA功能? 可以支持,應(yīng)該如何激活SOTA
    發(fā)表于 06-04 06:14

    錳芯磁環(huán)電感尺寸一樣性能一樣

    電子發(fā)燒友網(wǎng)站提供《錳芯磁環(huán)電感尺寸一樣性能一樣嗎.docx》資料免費下載
    發(fā)表于 06-03 14:52 ?0次下載

    旋變位置不變的情況下,當(dāng)使SOTA功能與關(guān)閉SOTA功能時,APP中DSADC采樣得到的旋變sin和cos兩者值不一樣,為什么?

    旋變位置不變的情況下,當(dāng)使SOTA功能與關(guān)閉SOTA功能時,APP中DSADC采樣得到的旋變sin和cos兩者值不一樣,用示波器采的輸入到MCU端的差分電壓是
    發(fā)表于 05-17 08:13

    貼片大電流電感感值一樣通用嗎

    電子發(fā)燒友網(wǎng)站提供《貼片大電流電感感值一樣通用嗎.docx》資料免費下載
    發(fā)表于 01-22 09:23 ?0次下載
    主站蜘蛛池模板: xxxx欧美| 天天舔天天色| 男女那啥的视频免费| 久久久精品免费热线观看| china3p单男精品自拍| 情久久| 亚洲国产精品综合久久网络 | 久操视频在线播放| 国产在线干| 神马午夜嘿嘿| 亚洲午夜精品久久久久久人妖| 欧美成网| 色久月| 一本到卡二卡三卡视频| 亚州一级毛片| tube 69sex 第一次| 一女被两男吃奶玩乳尖口述| 100000免费啪啪18免进| 久久天天躁狠狠躁夜夜躁| 天天干天天操天天舔| chinese国产videoxx实拍| 五月天综合在线| 天天靠天天擦天天摸| 综合黄色| 成人免费精品视频| 国产一级特黄生活片| 欧美精品成人a多人在线观看| 美女被啪到哭网站在线观看| 美女毛片视频| a网在线| v天堂网| 日本free护士姓交| 免费观看老外特级毛片| 天天天天天天天操| 国产天天在线| 激情婷婷色| 怡红院日本| 亚洲狠狠婷婷综合久久久久图片 | 亚洲怡红院在线| 欧美狠狠| 夜夜爱夜夜爽夜夜做夜夜欢|