在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積網(wǎng)絡(luò)最新研究:通過AutoML和模型規(guī)模化提升精度與效率

nlfO_thejiangme ? 來源:YXQ ? 2019-06-04 17:26 ? 次閱讀

卷積網(wǎng)絡(luò)的部署通常在固定資源的情況下進(jìn)行,如果想要提高精度就需要更多的資源來部署更大、更深的網(wǎng)絡(luò)。實(shí)際應(yīng)用中,人們可以把ResNet-18拓展到ResNet-200增加層數(shù)提高精度,谷歌近期提出的GPipe也利用提升規(guī)模的方法在ImageNet上實(shí)現(xiàn)了84.3%的top-1精度

Gpipe模型與ResNet不同規(guī)模的模型

對(duì)于擴(kuò)大模型的規(guī)模,通常的做法是增加卷積網(wǎng)絡(luò)的深度或?qū)挾龋蛘呃酶蟮妮斎敕直媛蕘碛?xùn)練和測(cè)評(píng)。雖然能夠大幅度提升精度,但需要復(fù)雜的手工調(diào)校來進(jìn)行優(yōu)化。

那么我們能不能找到一種更為通用的方法來使擴(kuò)大CNNs的規(guī)模以得到更好的精度和速度呢?谷歌在今年的ICML會(huì)議上給出了一種可行的解決方案。研究中提出了一種名為EfficientNet,通過簡單高效地混合系數(shù)來結(jié)構(gòu)化地?cái)U(kuò)大CNNs的規(guī)模。與先前提高網(wǎng)絡(luò)維度參數(shù)不同,這種新的方法不會(huì)去調(diào)整寬度、深度和分辨率,而是利用固定的規(guī)模系數(shù)集均勻化地對(duì)每個(gè)維度進(jìn)行擴(kuò)增。

基于這種規(guī)模化方法和自動(dòng)機(jī)器學(xué)習(xí),研究人員開發(fā)出了新的網(wǎng)絡(luò)家族EfficientNets,不僅在精度上超過了前輩,更在效率上有了10倍的提升。

混合模型規(guī)模化—擴(kuò)大CNNs規(guī)模的好方法

研究人員首先系統(tǒng)地分析了不同維度上的規(guī)模化對(duì)于模型的影響。

在深度、寬度和分辨率等維度上記性擴(kuò)充后的模型效果提升,但單個(gè)維度在達(dá)到80%后很快趨近于飽和。

分別對(duì)于不同的維度進(jìn)行規(guī)模化后,研究人員發(fā)現(xiàn)對(duì)于網(wǎng)絡(luò)寬度、深度和圖像分辨率等所有維度的平衡下對(duì)于模型的表現(xiàn)提升最好。所以混合而不是單一的改變模型的規(guī)模是提升性能的較好選擇。混合規(guī)模化方法的第一步是進(jìn)行柵格搜索,在固定資源限制的條件下尋找不同規(guī)模維度下的關(guān)系。這將為不同的維度尋找適宜的規(guī)模化系數(shù)來實(shí)現(xiàn)最好的效果。隨后利用這些搜索到的系數(shù)來對(duì)基準(zhǔn)網(wǎng)絡(luò)進(jìn)行擴(kuò)充,在給定的計(jì)算資源和模型大小下實(shí)現(xiàn)目標(biāo)模型。

上圖顯示了不同規(guī)模化的方法,與先前的方法不同,新提出的混合規(guī)模化方法在所有的維度上進(jìn)行了規(guī)模化提升。

實(shí)驗(yàn)表明這種混合規(guī)模化方法比mobileNet(+1.4%)和ResNet(+0.7%)都有提升。

EfficientNet架構(gòu)

前述的模型在規(guī)模化的時(shí)候依然高度依賴于基礎(chǔ)網(wǎng)絡(luò)模型。所以為了更好的提高模型的表現(xiàn),研究人員提出了新型基準(zhǔn)網(wǎng)絡(luò)模型。利用自動(dòng)機(jī)器學(xué)習(xí)框架來進(jìn)行神經(jīng)架構(gòu)搜索,同時(shí)優(yōu)化了精度和效率(FLOPS)。

最終的架構(gòu)類似MobileNetV2和MnasNet,使用了移動(dòng)反轉(zhuǎn)瓶頸卷積結(jié)構(gòu)(mobile inverted bottleneck),但在規(guī)模上有些許擴(kuò)大。基于這一基礎(chǔ)網(wǎng)絡(luò),研究人員利用不同的擴(kuò)充方式得到了規(guī)模化的網(wǎng)絡(luò)家族EfficientNets。

簡單的基準(zhǔn)模型更容易擴(kuò)展和規(guī)模化

EfficientNet的表現(xiàn)

為了測(cè)試模型的性能,研究人員在ImageNet上對(duì)現(xiàn)有的先進(jìn)模型與EfficientNet進(jìn)行了比較,結(jié)果表明EfficientNet在精度和效率上都超過了現(xiàn)有的模型,甚至在相同精度下將模型參數(shù)和操作減小了一個(gè)數(shù)量級(jí)。

在下圖中可以看到,在左上角的高精度區(qū)域,B7型EfficientNet在ImageNet上達(dá)到了84.4%的top-1精度和97.1%的top-5精度,但與先前的GPipe相比在CPU上的運(yùn)行使用的參數(shù)減小了8.4倍同時(shí)速度提升了6.1倍。與廣泛使用的ResNet-50相比,相同參數(shù)的情況下提升了6.3%的top-1精度。

結(jié)果顯示了新的模型家族在精度與效率上的優(yōu)勢(shì)。

此外,為了驗(yàn)證模型的其他數(shù)據(jù)集上的表現(xiàn),研究人員還將模型遷移到了CIFAR-100和Flowers上,EfficientNet在參數(shù)減少一個(gè)數(shù)量級(jí)(21x)的情況下在8個(gè)測(cè)試數(shù)據(jù)集中的5個(gè)上取得了最好的精度,證明了這一方法具有穩(wěn)定的泛化能力。這種新的模型有望成為計(jì)算機(jī)視覺任務(wù)的新基準(zhǔn),研究人員開源了所有的代碼,同時(shí)可以看在這里找到基于TPU的加速實(shí)現(xiàn)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6177

    瀏覽量

    105683
  • 卷積網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    0

    文章

    42

    瀏覽量

    2186

原文標(biāo)題:谷歌最新研究EfficientNet,通過AutoML和模型規(guī)模化提升精度與效率

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    的是百度的Picodet模型,它是一種基于深度卷積網(wǎng)絡(luò)(DNN)的輕量級(jí)目標(biāo)檢測(cè)模型,具有非常高的檢測(cè)精度,可以在低算力設(shè)備進(jìn)行實(shí)時(shí)的端到端
    發(fā)表于 12-19 14:33

    卷積神經(jīng)網(wǎng)絡(luò)共包括哪些層級(jí)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域。它以卷積層為核心,
    的頭像 發(fā)表于 07-11 15:58 ?1445次閱讀

    經(jīng)典卷積網(wǎng)絡(luò)模型介紹

    經(jīng)典卷積網(wǎng)絡(luò)模型在深度學(xué)習(xí)領(lǐng)域,尤其是在計(jì)算機(jī)視覺任務(wù)中,扮演著舉足輕重的角色。這些模型通過不斷演進(jìn)和創(chuàng)新,推動(dòng)了圖像處理、目標(biāo)檢測(cè)、圖像生
    的頭像 發(fā)表于 07-11 11:45 ?569次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)中池層的作用

    在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)以其卓越的圖像處理和計(jì)算機(jī)視覺能力而廣受歡迎。CNN由多個(gè)層組成,其中包括卷積層、池
    的頭像 發(fā)表于 07-03 15:58 ?1921次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)示例

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,主要用于處理具有網(wǎng)格結(jié)構(gòu)的數(shù)據(jù),如圖像。CNN通過
    的頭像 發(fā)表于 07-03 10:51 ?482次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)分類方法有哪些

    ,包括基本原理、常見架構(gòu)、優(yōu)化策略、應(yīng)用場(chǎng)景等。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),其核心思想是
    的頭像 發(fā)表于 07-03 09:40 ?512次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,由多層
    的頭像 發(fā)表于 07-03 09:28 ?670次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)可以通過輸出反推到輸入嗎

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。CNN通過
    的頭像 發(fā)表于 07-03 09:17 ?731次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    、訓(xùn)練過程以及應(yīng)用場(chǎng)景。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積神經(jīng)網(wǎng)絡(luò)的定義 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 09:15 ?458次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實(shí)現(xiàn)

    核心思想是通過卷積操作提取輸入數(shù)據(jù)的特征。與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)不同,卷積神經(jīng)網(wǎng)絡(luò)具有參數(shù)共享和局部連接的特點(diǎn),這使得其在處理圖像等高維數(shù)據(jù)時(shí)具有
    的頭像 發(fā)表于 07-02 16:47 ?649次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn模型有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。 CNN的基本概念 1.1 卷積
    的頭像 發(fā)表于 07-02 15:24 ?766次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)及其功能

    。 引言 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,它通過模擬人腦神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和功能,實(shí)現(xiàn)對(duì)數(shù)據(jù)的自動(dòng)學(xué)習(xí)和特征提取。卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)中的一種重要模型
    的頭像 發(fā)表于 07-02 14:45 ?2457次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理是什么

    基本概念、結(jié)構(gòu)、訓(xùn)練過程以及應(yīng)用場(chǎng)景。 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 神經(jīng)網(wǎng)絡(luò) 神經(jīng)網(wǎng)絡(luò)是一種受人腦神經(jīng)元結(jié)構(gòu)啟發(fā)的數(shù)學(xué)模型,由大量的節(jié)點(diǎn)
    的頭像 發(fā)表于 07-02 14:44 ?722次閱讀

    【大規(guī)模語言模型:從理論到實(shí)踐】- 閱讀體驗(yàn)

    注意力機(jī)制提高了模型在處理長序列數(shù)據(jù)時(shí)的性能,但在某些任務(wù)上,傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)或卷積神經(jīng)網(wǎng)絡(luò)(CNN)可能仍然具有優(yōu)勢(shì)。此外,注意力機(jī)制本身也可能存在某些性能瓶頸,需要進(jìn)一
    發(fā)表于 06-07 14:44

    【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗

    Transformer架構(gòu),利用自注意力機(jī)制對(duì)文本進(jìn)行編碼,通過預(yù)訓(xùn)練、有監(jiān)督微調(diào)和強(qiáng)化學(xué)習(xí)等階段,不斷提升性能,展現(xiàn)出強(qiáng)大的語言理解和生成能力。 大語言模型的涌現(xiàn)能力,是指隨著模型
    發(fā)表于 05-04 23:55
    主站蜘蛛池模板: 最新丁香六月| 国产精品主播在线观看| 精品国产第一页| 国产热| 黄色欧美| 国产成人啪精品午夜在线观看| 免费黄色大片在线观看| 亚洲日本一区二区| 69国产视频| 分分操免费视频在线观看| 婷婷性| 亚洲综合久久综合激情久久| 四虎永久影院| 噜噜色综合| www.四虎影院在线观看| 天天天天天操| 久久成人福利视频| 91av在线免费观看| 99在线国产| 三级网站免费| 激情在线视频| 久久国产精品亚洲综合| 国产精品久久国产三级国不卡顿 | 91aaa免费观看在线观看资源| 好大好硬好爽免费视频| 狠狠色噜噜噜噜狠狠狠狠狠狠奇米 | dy天堂| 米奇777色狠狠8888影视| 欧美午夜性春猛xxxx| 国产精品色婷婷在线观看| 色偷偷888欧美精品久久久| 黄色毛片子| 天堂网www在线资源链接| 澳门色视频| 国产精品第九页| 日韩一区二区三区免费| 国产精品久久婷婷六月丁香| 免费又爽又黄1000禁片| 亚洲免费成人| 日韩特级片| 永久免费精品影视网站|