在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Dynamic ReLU:根據(jù)輸入動態(tài)確定的ReLU

冬至子 ? 來源:思否AI ? 作者:思否AI ? 2023-09-01 17:28 ? 次閱讀

這是我最近才看到的一篇論文,它提出了動態(tài)ReLU (Dynamic ReLU, DY-ReLU),可以將全局上下文編碼為超函數(shù),并相應地調整分段線性激活函數(shù)。

與傳統(tǒng)的ReLU相比,DY-ReLU的額外計算成本可以忽略不計,但表示能力明顯增強,并且實現(xiàn)簡單,所以可以非常簡單的對我們現(xiàn)有的模型進行修改。

Dynamic ReLU (DY-ReLU)

對于給定的輸入向量(或張量)x,DY-ReLU被定義為具有可學習參數(shù)θ(x)的函數(shù)fθ(x)(x),該參數(shù)適應于輸入x,它包括兩個功能:

超函數(shù)θ(x):用于計算激活函數(shù)的參數(shù)。

激活函數(shù)fθ(x)(x):使用參數(shù)θ(x)生成所有通道的激活。

1、函數(shù)定義

設傳統(tǒng)的或靜態(tài)的ReLU為y = max(x, 0)。ReLU可以推廣為每個通道c的參數(shù)分段線性函數(shù)。

其中coeffcients ( akc , bkc )是超函數(shù)(x)的輸出,如下:

其中K是函數(shù)的個數(shù),C是通道的個數(shù)。論文中K=2。

2、超函數(shù)θ(x)的實現(xiàn)

使用輕量級網(wǎng)絡對超函數(shù)進行建模,這個超函數(shù)類似于SENet中的SE模塊(稍后會介紹)。

輸出有2KC個元素,對應于a和b的殘差。2σ(x)-1用于對-1到1之間的殘差進行歸一化,其中σ(x)表示s型函數(shù)。最終輸出計算為初始化和殘差之和,如下所示:

其中λ是標量,這個公式也就是我們上面的圖

3、與先前研究的關系

可以看到DY-ReLU的三種特殊情況相當于ReLU、Leaky ReLU和PReLU。

4、DY-ReLU的變體

DY-ReLU-A:激活函數(shù)是空間和通道共享的。

DY-ReLU-B:激活函數(shù)是空間共享和通道相關的。

DY-ReLU-C:激活的是空間和通道分開的。

結果展示

1、消融研究

所有三種變化都比基線有所改善,但通道分開的DY-ReLU(變化B和C)明顯優(yōu)于通道共享的DY-ReLU(變化A)。

所以根據(jù)上面結果,使用DY-ReLU-B進行ImageNet分類,使用DY-ReLU-C進行COCO關鍵點檢測

2、ImageNet分類

使用MobileNetV2 (×0.35和×1.0), 用不同的激活函數(shù)代替ReLU。所提出的方法明顯優(yōu)于所有先前的工作,包括具有更多計算成本的Maxout。這表明DY-ReLU不僅具有更強的表示能力,而且計算效率高。

上圖繪制了5萬張驗證圖像在不同區(qū)塊(從低到高)的DY-ReLU輸入輸出值。可以看到學習到的DY-ReLU在特征上是動態(tài)的,因為對于給定的輸入x,激活值(y)在一個范圍內(nèi)(藍點覆蓋的范圍)變化。

下圖分析DY-ReLU中兩段之間的夾角(即斜率差|a1c-a2c|)。激活函數(shù)在較高水平上具有較低的彎曲。

3、COCO關鍵點估計

當使用MobileNetV3作為骨干時,刪除SENet模塊,使用DY-ReLU替代ReLU和h-Swish后,結果也有提高。

總結

可以看到,只是使用DY-ReLU替換現(xiàn)有的激活函數(shù),模型的表現(xiàn)明顯優(yōu)于基線模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3646

    瀏覽量

    134674
收藏 人收藏

    評論

    相關推薦

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    連接層的一種替代方案,某些架構嘗試使用稀疏連接來減少參數(shù)數(shù)量并提高效率,比如通過只連接特定模式下的神經(jīng)元。 動態(tài)架構調整:現(xiàn)代的一些研究探索了動態(tài)改變網(wǎng)絡結構的可能性,例如根據(jù)輸入樣本
    發(fā)表于 12-19 14:33

    caffe源碼解讀《十三》relu

    編程語言行業(yè)芯事經(jīng)驗分享
    蒙特卡洛家的樹
    發(fā)布于 :2022年03月09日 13:41:01

    【NanoPi K1 Plus試用體驗】深度學習---快速開始序貫(Sequential)模型

    ('relu'),Dense(10),Activation('softmax'),])也可以通過.add()方法一個個的將layer加入模型中:model = Sequential()model.add
    發(fā)表于 07-20 15:55

    Keras可視化神經(jīng)網(wǎng)絡架構的4種方法

    Boards 要求用戶在架構可視化之前根據(jù)準確的數(shù)據(jù)訓練模型。在開始進行可視化之前,我們先需要安裝相應的包:pip install visualkeras pip install ann_visualizer
    發(fā)表于 11-02 14:55

    bottom-up多層規(guī)約圖融合策略資料介紹

    (例如Conv+ReLU)則受限于供應商API的支持程度。  隨著AI模型在各領域的發(fā)展、成熟和落地,模型推理在具體設備上的性能變得越發(fā)重要,17年到18年,業(yè)界出現(xiàn)了大量面向DL模型推理的計算框架,算子
    發(fā)表于 11-09 17:33

    深度學習在醫(yī)學圖像分割與病變識別中的應用實戰(zhàn)

    ): inputs = Input(input_shape) # 編碼器部分 conv1 = Conv2D(32, (3, 3), activation=\'relu\', padding
    發(fā)表于 09-04 11:11

    【KV260視覺入門套件試用體驗】Vitis AI 通過遷移學習訓練自定義模型

    是ResNet系列中最簡單的一個模型,共有18層,其中包括: 一個7×7的卷積層,輸出通道數(shù)為64,步幅為2,后接批量歸一化(Batch Normalization)和ReLU激活函數(shù)。 一個3×3的最大池
    發(fā)表于 10-16 15:03

    技嘉 主板Dynamic Energy Saver動態(tài)節(jié)能工

    技嘉 主板Dynamic Energy Saver動態(tài)節(jié)能工具B8.0128.1版.zip
    發(fā)表于 01-27 14:27 ?15次下載

    一種基于對抗訓練的圖像翻譯技術,為裸女們自動“穿”上比基尼

    對于生成器,我們測試了兩種流行的結構。首先我們測試了 9-Blocks ResNet 結構的生成器,這種結構由帶殘余連接的自編碼器構成,我們在每層的卷積后采用 ReLU 激活函數(shù)和 IN 正則化
    的頭像 發(fā)表于 07-23 09:11 ?3638次閱讀

    深度ReLU網(wǎng)絡的訓練動態(tài)過程及其對泛化能力的影響

    基于這個框架,我們試圖用統(tǒng)一的觀點來解釋這些令人費解的經(jīng)驗現(xiàn)象。本文使用師生設置,其中給過度參數(shù)化的深度學生ReLU網(wǎng)絡的標簽,是具有相同深度和未知權重的固定教師ReLU網(wǎng)絡的輸出(圖1(a))。在這個角度來看,隱藏的學生節(jié)點將隨機初始化為不同的激活區(qū)域。(圖2(a))
    的頭像 發(fā)表于 06-15 10:48 ?3358次閱讀
    深度<b class='flag-5'>ReLU</b>網(wǎng)絡的訓練<b class='flag-5'>動態(tài)</b>過程及其對泛化能力的影響

    在PyTorch中使用ReLU激活函數(shù)的例子

    PyTorch已為我們實現(xiàn)了大多數(shù)常用的非線性激活函數(shù),我們可以像使用任何其他的層那樣使用它們。讓我們快速看一個在PyTorch中使用ReLU激活函數(shù)的例子:
    的頭像 發(fā)表于 07-06 15:27 ?2555次閱讀

    RPN:Region Proposal Networks (區(qū)域候選網(wǎng)絡)

    圖片在輸入網(wǎng)絡后,依次經(jīng)過一系列卷積+ReLU得到的51×39×256維feature map,準備后續(xù)用來選取proposal。
    的頭像 發(fā)表于 01-11 16:55 ?1409次閱讀
    RPN:Region Proposal Networks (區(qū)域候選網(wǎng)絡)

    Relu算子的介紹

    Relu是一種非線性激活函數(shù),它的特點有運算簡單,不會在梯度處出現(xiàn)梯度消失的情況,而且它在一定程度上能夠防止深度學習模型在訓練中發(fā)生的過擬合現(xiàn)象。
    的頭像 發(fā)表于 01-11 17:07 ?1563次閱讀

    結合卷積層來創(chuàng)建一個完整的推理函數(shù)

    首先輸入一張1x28x28的圖片,然后兩次通過Conv2d -> ReLU -> MaxPool2d提取特征,最后轉為linear,> ReLU -> Linear為10階向量值。
    的頭像 發(fā)表于 03-13 09:22 ?737次閱讀

    深度ReLU網(wǎng)絡的對應淺層網(wǎng)絡

    ? 只要你用了ReLU,我們就是好朋就是“淺度學習”。 最近有研究證明,所有基于ReLU的深度神經(jīng)網(wǎng)絡都可以重寫為功能相同的3層神經(jīng)網(wǎng)絡。 ? 基于這個證明,倫敦國王學院的研究團隊還提出一種為任意
    的頭像 發(fā)表于 07-03 14:13 ?573次閱讀
    深度<b class='flag-5'>ReLU</b>網(wǎng)絡的對應淺層網(wǎng)絡
    主站蜘蛛池模板: 好硬好湿好爽再深一点h| 午夜视频日本| yyy6080韩国三级理论| 美女张开腿露出尿口让男人桶 | 一区二区三区高清不卡| 69女poren16| 嗯!啊!使劲用力在线观看| 久久9热| 亚洲最大成人| 上海一级毛片| 老色皮| xxx亚洲日本| 天天看天天做| 91福利免费视频| 男人天堂资源网| 亚洲色图20p| 你懂得国产| 无遮挡很爽很污很黄的网站w | 午夜视频1000部免费看| 日本美女黄网站| 色天天网| 2017天天天天做夜夜夜做| 天天躁夜夜躁狠狠躁2024| 亚洲精品成人a在线观看| 日本a级片在线播放| 国产精品一一在线观看| 天天艹天天射| 日本xxxxx69hd日本| 免费国产h视频在线观看| 777奇米影音| 日本不卡在线观看免费v| 香蕉视频网站在线播放| 欧美一级黄色片| 农村妇女野外一级毛片| 国产精品二区三区免费播放心 | 欧美日一级| 91日韩精品天海翼在线观看| 久久免费精品| 男人的天堂午夜| 日本黄色免费在线| 国产高清视频免费最新在线|