在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

基于使用對比學習和條件變分自編碼器的新穎框架ADS-Cap

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2022-11-03 14:30 ? 次閱讀

01

研究動機

在本文中,我們研究了圖像描述(Image Captioning)領域一個新興的問題——圖像風格化描述(Stylized Image Captioning)。隨著深度學習的發(fā)展,自動圖像描述吸引了計算機視覺和自然語言處理領域研究者們的廣泛關注。現(xiàn)在的圖像描述模型可以為圖像生成準確的文本表述,但在日常生活中,人們在表達想法的同時通常還會帶有自己的情感或者風格,為此研究者們提出了圖像風格化描述任務,希望模型在準確描述視覺內(nèi)容的同時也能在描述中融入指定的語言風格。例如對于圖1展示的圖片,下面列出了傳統(tǒng)的事實性描述和四種風格帶有風格的描述,即幽默的、浪漫的、積極的和消極的,其中畫紅線的部分是體現(xiàn)風格的部分。圖像風格化描述也有許多下游應用,例如在聊天機器人中生成更吸引用戶的圖像描述、以及在社交媒體上通過有吸引力的描述啟發(fā)用戶。

d14c6642-5b30-11ed-a3b6-dac502259ad0.png圖1圖像風格化描述(Stylized Image Captioning)任務

該任務的一個困難在于,收集圖片和對應人工標注的風格化描述是代價高昂的,為此我們希望能夠僅利用非成對的風格文本語料庫,讓圖像描述模型在這些風格文本上自動學習語言風格知識。因此在訓練時,我們提供事實性的圖像-描述對數(shù)據(jù)集以及不包含圖片的非成對的風格文本語料庫,希望模型通過前者學習如何準確描述圖像內(nèi)容,通過后者學習如何在描述中融入指定語言風格。

在上述設定下,該任務的一個關鍵問題是:如何高效利用成對的事實性數(shù)據(jù)和非成對的風格數(shù)據(jù)。多數(shù)以往工作遵循傳統(tǒng)的方法論:首先在大規(guī)模的成對事實性數(shù)據(jù)上預訓練一個編碼器-解碼器模型,之后在非成對的風格數(shù)據(jù)上,以語言模型的方式微調解碼器,例如StyleNet[1]和MSCap[2]。然而,我們認為在非成對風格數(shù)據(jù)上按照語言模型微調會導致模型過于關注語言風格,而忽略了生成描述和圖像內(nèi)容的一致性,因為在微調時解碼器完全與視覺輸入無關。這最終導致了圖像風格化描述模型無法生成切合圖像內(nèi)容的描述。MemCap[3]提出利用場景圖作為中間媒介,將成對和非成對數(shù)據(jù)的訓練過程統(tǒng)一為根據(jù)場景圖生成描述;然而,由于不同模態(tài)間的差異,文本和圖像抽取的場景圖依然是不一致的,這導致模型在測試時仍然無法很好地兼顧描述圖像內(nèi)容的準確性和融入語言風格。

另一個重要問題是,目前的工作基本上忽略了生成風格表達的多樣性。如圖2所示,對于三張相似場景的圖片,基線模型生成了完全相同的風格短語“to meet his lover”,而當為一張圖片生成多個風格化描述時,基線模型生成的風格表述也缺乏變化。這樣的結果極大偏離了圖像風格化描述任務的初衷:我們希望得到生動多樣的描述,而不僅僅是幾個固定的表達。我們認為造成這一問題的原因是風格語料規(guī)模較小,使得傳統(tǒng)的編碼器-解碼器模型難以生成多樣的風格模式。

d16c63de-5b30-11ed-a3b6-dac502259ad0.png圖2:傳統(tǒng)編碼器-解碼器框架難以建模多樣化的風格表達

為了解決上面提到的兩方面問題,我們提出了全新的ADS-Cap框架:通過對比學習對齊圖像文本兩種模態(tài),使模型能夠將成對數(shù)據(jù)和非成對數(shù)據(jù)統(tǒng)一為條件生成的模式,使得模型能夠在準確描述圖像內(nèi)容的同時融入指定語言風格;通過條件變分自編碼器架構,引導隱空間記憶多種多樣的風格表達,有效增強生成時的多樣性。

02

貢獻

1.我們提出了一個新穎的使用對比學習和條件變分自編碼器的圖像風格化描述框架ADS-Cap。

2.當使用非成對風格文本語料庫訓練時,對比學習模塊有效地提升了生成描述與圖像內(nèi)容的一致性。

3.條件變分自編碼器框架通過在隱空間中記憶風格表達并在測試時采樣,顯著提升了圖像風格化描述生成的多樣性。

4.在兩個benchmark圖像風格化描述數(shù)據(jù)集上的實驗結果表明,我們的方法在準確性和多樣性上達到SOTA。

03

解決方案

整體模型架構如下圖3所示,主要由一個條件變分自編碼器框架和一個對比學習模塊組成。藍色部分代表模型的輸入和輸出,黃色部分代表模型的可學習參數(shù),紅色部分是我們模型編碼風格表達的隱空間。

d1818e58-5b30-11ed-a3b6-dac502259ad0.png圖3:ADS-Cap框架示意圖

3.1對比學習

我們首先通過一個目標對象詞詞表(來自VG數(shù)據(jù)集),從非成對數(shù)據(jù)的描述中抽取目標對象詞,這樣我們就能夠將成對數(shù)據(jù)和非成對數(shù)據(jù)的訓練統(tǒng)一為條件生成的模式:對于成對的事實性數(shù)據(jù),我們根據(jù)圖像特征生成事實性的描述;對于非成對的風格數(shù)據(jù),我們根據(jù)目標對象詞生成風格化的描述。然而,在測試時,我們需要根據(jù)圖像特征生成風格化的描述,如下圖4黃色箭頭所示。為此我們的解決方案是,使用對比學習將圖像特征和目標對象詞特征編碼到同一個共享的多模態(tài)特征空間,從而對于解碼器來說,根據(jù)圖像生成和根據(jù)目標對象詞生成將不再有差異。

d194888c-5b30-11ed-a3b6-dac502259ad0.png圖4:使用非成對風格文本語料庫帶來的問題

具體而言,對比學習損失最大化一個batch內(nèi)匹配樣本間的余弦相似度,同時最小化不匹配樣本間的余弦相似度[4],從而對齊圖像和目標對象詞兩種模態(tài)的特征到同一個共享的多模態(tài)特征空間中。

d1aacf66-5b30-11ed-a3b6-dac502259ad0.png

3.2條件變分自編碼器框架

為了提高生成描述的多樣性,我們使用條件變分自編碼器(CVAE)代替了傳統(tǒng)的編碼器-解碼器架構,主要是因為CVAE在許多生成任務上多樣性表現(xiàn)較好,而且對于圖像風格化描述任務來說,可以利用隱空間自動記憶多種多樣的風格表達,從而在測試時在隱空間不同區(qū)域采樣就可以生成帶有不同風格短語的描述。如圖5所示,CVAE的編碼器將樣本的風格表達編碼到隱變量,解碼器通過該隱變量輔助嘗試還原輸入樣本。之后,CVAE的訓練原理也就是KL散度損失和重建損失使得各種各樣的風格表達能夠均勻地分布在隱空間中。

除此之外,我們在隱變量上增加了一個風格分類器,以隱變量為輸入,預測該隱變量對應樣本的風格。這樣一個輔助損失有兩方面好處,一個是可以引導隱空間編碼與風格相關的信息;另外這個單層神經(jīng)網(wǎng)絡+softmax的分類器實際上也將整個隱空間按風格劃分了,這樣在測試時,我們就可以通過拒絕采樣得到我們想要風格的隱變量。

d1b943f2-5b30-11ed-a3b6-dac502259ad0.jpg圖5:條件變分自編碼器框架及風格分類器

04

實驗

我們在圖像風格化描述的兩個benchmark數(shù)據(jù)集FlickrStyle10K[1]和SentiCap[5]上進行實驗。前者包含幽默和浪漫兩種風格,各7000張圖片和對應的風格化描述;后者包含積極和消極兩種風格,共2360張圖片以及9513個風格化描述。數(shù)據(jù)集劃分以及實驗設定上,我們與MSCap[2]和MemCap[3]保持一致。

4.1內(nèi)容準確性&風格準確性

在性能方面,我們首先比較了之前工作采用的內(nèi)容準確率和風格準確率。其中內(nèi)容準確率采用Bleu、CIDEr這類計算和參考句子間n元組重復度的指標,風格準確率則使用生成句子的困惑度ppl、以及一個預訓練好的風格判別器給出的風格準確率cls。可以看到如表1所示,我們的方法相比之前工作在幾乎所有指標上取得了顯著的提升,特別是在FlickrStyle這個風格更復雜的數(shù)據(jù)集上。這也側面證實了以往工作忽略了生成描述和圖像內(nèi)容一致性這個問題,而我們的方法能夠在融入語言風格的同時保持和圖像內(nèi)容的一致性。

表1:內(nèi)容準確性和風格準確性d1ca81d0-5b30-11ed-a3b6-dac502259ad0.png

4.2多樣性

我們比較將我們的方法與編碼器-解碼器基線模型在兩類多樣性上進行了比較。圖6展示了兩類多樣性以及我們方法的效果。

d1dcb1e8-5b30-11ed-a3b6-dac502259ad0.png圖6:兩類多樣性及樣例展示

第一類是圖像間的多樣性(Diversity across Images),也就是我們希望同一場景下不同圖像生成的風格化描述應該是多樣的。為此我們考慮了:1.唯一性,不同的風格短語戰(zhàn)全部風格短語的比例;2.均勻性,風格詞概率分布的熵(下式)。從下表2結果中可以看到,在七種典型場景下(各種人物以及動物),我們的CVAE模型均顯著高于編碼器-解碼器基線,但距離人類的表現(xiàn)還有不少距離。

d1f805e2-5b30-11ed-a3b6-dac502259ad0.png

表2:相似場景下風格化描述多樣性d206200a-5b30-11ed-a3b6-dac502259ad0.png

第二類是經(jīng)典的為一張圖像生成多個風格化描述的多樣性。為此我們考慮了圖像描述領域中量此類多樣性的兩個指標:Distinct和Div-n,前者計算不同的風格短語的比例,后者計算不同的n元組的比例。從表2中可以看到,我們的方法同樣優(yōu)于基線模型。

表3:為一張圖像生成多個風格化描述的多樣性d2272304-5b30-11ed-a3b6-dac502259ad0.png

4.3效果分析

為了展示分析對比學習和條件變分自編碼器框架的效果,我們進行了一些可視化。

圖7給出了使用對比學習前后的特征空間分析,綠色代表的是目標對象詞特征,紅色是圖像特征。可以看到對比學習很好地對齊了兩類特征(例如狗的目標對象詞特征和對應圖像特征十分相近),從而成功統(tǒng)一了成對事實性數(shù)據(jù)和非成對風格數(shù)據(jù)的訓練。

d2408b78-5b30-11ed-a3b6-dac502259ad0.png圖7:對比學習效果

如圖8所示,訓練好的CVAE隱空間實際上被按照風格劃分為不同的區(qū)域,并且在每個區(qū)域中編碼了多種多樣的風格表達,例如對于浪漫的風格,這里展示了其中幾個點對應的風格表達,有enjoying the beauty of nature、with full joy等等;因此,測試時在每個區(qū)域中采樣即可得到多樣化的風格描述。

d25a58e6-5b30-11ed-a3b6-dac502259ad0.png圖8:條件變分自編碼器隱空間

05

總結

本工作為圖像風格化描述任務提出了一個使用對比學習和條件變分自編碼器的新穎框架ADS-Cap。我們的模型能夠高效地利用非成對風格文本語料庫訓練,并能夠生成視覺內(nèi)容準確、文本風格可控且風格表達多樣的圖像風格化描述。在兩個圖像風格化描述benchmark上的實驗證明了我們方法的有效性。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3659

    瀏覽量

    134980
  • 模型
    +關注

    關注

    1

    文章

    3286

    瀏覽量

    49007
  • 自然語言
    +關注

    關注

    1

    文章

    289

    瀏覽量

    13376

原文標題:NLPCC'22 | 一種兼具準確性和多樣性的圖像風格化描述生成框架

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于自編碼器的異常小區(qū)檢測

    ;另一個是正則化損失(regularization loss),它有助于學習具有良好結構的潛在空間,并可以降低在訓練數(shù)據(jù)上的過擬合。  2.3基于自編碼器的異常小區(qū)檢測  基于
    發(fā)表于 12-03 15:06

    是什么讓自編碼器成為如此成功的多媒體生成工具呢?

    標準自編碼器學習生成緊湊的數(shù)據(jù)表達并重建輸入數(shù)據(jù),然而除了像去噪自編碼器等為數(shù)不多的應用外,它的應用卻極其有限。其根本原因在于自編碼器將輸入轉換為隱含空間中的表達并不是連續(xù)的,使得其
    的頭像 發(fā)表于 04-19 16:48 ?1.3w次閱讀
    是什么讓<b class='flag-5'>變</b><b class='flag-5'>分</b><b class='flag-5'>自編碼器</b>成為如此成功的多媒體生成工具呢?

    自編碼器是什么?有什么用

    自動編碼器是一種無監(jiān)督的神經(jīng)網(wǎng)絡模型,它可以學習到輸入數(shù)據(jù)的隱含特征,這稱為編碼(coding),同時用學習到的新特征可以重構出原始輸入數(shù)據(jù),稱之為解碼(decoding)。
    的頭像 發(fā)表于 08-02 16:47 ?1.8w次閱讀

    自編碼器介紹

    自編碼器若僅要求X≈Y,且對隱藏神經(jīng)元進行稀疏約束,從而使大部分節(jié)點值為0或接近0的無效值,便得到稀疏自動編碼算法。一般情況下,隱含層的神經(jīng)元數(shù)應少于輸入X的個數(shù),因為此時才能保證這個網(wǎng)絡結構的價值。
    發(fā)表于 06-11 15:07 ?4947次閱讀

    稀疏自編碼器及TensorFlow實現(xiàn)詳解

     稀疏自編碼器(又稱稀疏自動編碼機)中,重構誤差中添加了一個稀疏懲罰,用來限定任何時刻的隱藏層中并不是所有單元都被激活。如果 m 是輸入模式的總數(shù),那么可以定義一個參數(shù) ρ_hat,用來表示每個隱藏層單元的行為(平均激活多少次)。
    發(fā)表于 06-11 16:45 ?3876次閱讀
    稀疏<b class='flag-5'>自編碼器</b>及TensorFlow實現(xiàn)詳解

    基于自編碼器的海面艦船軌跡預測算法

    海面艦船的軌跡預測對預測精度和實時性具有較高要求,而艦船軌跡數(shù)據(jù)特征的高復雜度特性,導致傳統(tǒng)預測算法精度低、耗時長,難以達到良好的預測效果。為此,提出一種基于自編碼器的海面艦船軌跡預測算法。將
    發(fā)表于 03-30 09:53 ?5次下載
    基于<b class='flag-5'>變</b><b class='flag-5'>分</b><b class='flag-5'>自編碼器</b>的海面艦船軌跡預測算法

    自編碼器基礎理論與實現(xiàn)方法、應用綜述

    自編碼器是深度學習中的一種非常重要的無監(jiān)督學習方法,能夠從大量無標簽的數(shù)據(jù)中自動學習,得到蘊含在數(shù)據(jù)中的有效特征。因此,自編碼方法近年來受到
    發(fā)表于 03-31 11:24 ?9次下載
    <b class='flag-5'>自編碼器</b>基礎理論與實現(xiàn)方法、應用綜述

    一種多通道自編碼器深度學習的入侵檢測方法

      針對現(xiàn)有的入侵檢測方法在檢測準確率和誤報率方面存在的不足,提岀了一種多通道自編碼器深度學習的入侵檢測方法。該方法分為無監(jiān)督學習和有監(jiān)督學習兩個階段:首先分別采用正常流量和攻擊流量訓
    發(fā)表于 04-07 15:23 ?7次下載
    一種多通道<b class='flag-5'>自編碼器</b>深度<b class='flag-5'>學習</b>的入侵檢測方法

    一種基于自編碼器的人臉圖像修復方法

    基于卷積神經(jīng)網(wǎng)絡的人臉圖像修復技術在刑事偵破、文物保護及影視特效等領域有著重要的應用。但現(xiàn)有方法存在著圖像修復結果不夠清晰以及結果多樣化不足等缺點,為此,提出了一種基于自編碼器的人臉圖像修復
    發(fā)表于 04-21 10:51 ?10次下載
    一種基于<b class='flag-5'>變</b><b class='flag-5'>分</b><b class='flag-5'>自編碼器</b>的人臉圖像修復方法

    基于自編碼器的網(wǎng)絡表示學習方法

    ,將這些信息融入到網(wǎng)絡表示學習過程中,有助于提升下游任務的性能。但是針對不同的應用場景,結構和屬性信息并不總是線性相關,而且它們都是高度非線性的數(shù)據(jù)。提岀一種基于自編碼器的網(wǎng)絡表示
    發(fā)表于 05-12 14:50 ?27次下載

    結合深度學習自編碼器端到端物理層優(yōu)化方案

    5G規(guī)模化商用可提供髙速低延時的通信服務,但由于逐塊設計的通信模型可解釋性程度較低,增加了其物理層優(yōu)化的復雜度。針對該問題,利用深度學習在結構化信息表示和數(shù)據(jù)提取上的優(yōu)勢,在其基礎上提出一種自編碼器
    發(fā)表于 05-24 15:18 ?7次下載

    自編碼器神經(jīng)網(wǎng)絡應用及實驗綜述

    自編碼器是深度學習中的一種非常重要的無監(jiān)督學習方法,能夠從大量無標簽的數(shù)據(jù)中自動學習,得到蘊含在數(shù)據(jù)中的有效特征。因此,自編碼方法近年來受到
    發(fā)表于 06-07 16:38 ?7次下載

    基于交叉熵損失函欻的深度自編碼器診斷模型

    對小類別樣本的學習。尤其當故障樣本數(shù)極少時,此問題更突岀。針對這饣問題,提岀一種基于改進交叉熵損失函欻的深度自編碼器的診斷模型,首先提取振動數(shù)據(jù)的小波包能量,其次將小波包能量輸入到深度自編碼器中,最后通過SⅥa分類
    發(fā)表于 06-18 16:49 ?9次下載

    自編碼器 AE(AutoEncoder)程序

    原文鏈接 1.程序講解 (1)香草編碼器 在這種自編碼器的最簡單結構中,只有三個網(wǎng)絡層,即只有一個隱藏層的神經(jīng)網(wǎng)絡。它的輸入和輸出是相同的,可通過使用Adam優(yōu)化和均方誤差損失函數(shù),來學習
    的頭像 發(fā)表于 01-11 17:29 ?1400次閱讀
    <b class='flag-5'>自編碼器</b> AE(AutoEncoder)程序

    自編碼器的原理和類型

    自編碼器(Autoencoder, AE)是一種無監(jiān)督學習的神經(jīng)網(wǎng)絡模型,它通過編碼器和解碼的組合,實現(xiàn)了對輸入數(shù)據(jù)的壓縮和重構。自編碼器
    的頭像 發(fā)表于 07-09 11:25 ?1407次閱讀
    主站蜘蛛池模板: 中文字幕一区二区视频| 一区卡二区卡三区卡视频| 夜夜操狠狠干| 午夜寂寞影| 日韩爱爱| a一级视频| 欧美激情第一欧美在线| 69中国xxxxxxxx18| 免费久久精品国产片香蕉| 伊人久久大香线蕉电影院| 亚洲成人三级电影| 三级在线免费| 久操天堂| 综综综综合网| 欧美啊片| 黄在线观看网站| 国产性老妇女做爰在线| 香蕉视频在线观看黄| 亚洲日本高清| 天天天天添天天拍天天谢| 久久久久久久久久免观看| 免费看黄色网| 成人综合婷婷国产精品久久免费| 校园 春色 欧美 另类 小说| 欧美日韩亚洲国内综合网俺| 国产高清色视频免费看的网址| 天天草天天| 色涩在线观看| 直接在线观看的三级网址| 日韩精品午夜| 丁香六月婷婷激情| 免费视频精品| 亚洲无吗在线视频| 特级毛片aaaaaa蜜桃| 久久国产精品久久久久久久久久| 永久福利盒子日韩日韩免费看| 黄色网址中文字幕| 久久 在线播放| 日本黄色影片| bt种子在线www天堂官网| 国产手机在线看片|