在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

生成對抗網絡GAN的七大開放性問題

jf_78858299 ? 來源:Distill 機器之心 ? 作者:Augustus Odena ? 2023-03-17 11:18 ? 次閱讀

關于生成對抗網絡的七個開放性問題,個個都是靈魂追問。

生成對抗網絡在過去一年仍是研究重點,我們不僅看到可以生成高分辨率(1024×1024)圖像的模型,還可以看到那些以假亂真的生成圖像。此外,我們還很興奮能看到一些新的生成模型,它們能生成與 GAN 相媲美的圖像,其主要代表就是流模型 Glow。

從 DeepMind 提出的 BigGAN,到英偉達的 Style-based Generator,它們生成的圖像質量都令人驚嘆。盡管還有很多問題沒有解決,但圖像生成已經能騙過一般人類了。不信的話,你可以試試區分生成的圖像與真實圖像。

Style-based Generator 的生成效果,很明顯感覺生成對抗網絡在過去 2 年中已經取得了顯著的進展。其實,從 16 年到 18 年圖像合成的質量越來越高,看論文的速度都快趕不上 GAN 的發展了。

但是在另一些方面,GAN 的提升并不是那么顯著。例如,關于如何評估 GAN 的效果,現在仍有很多分歧。因為目前圖像合成基準已經非常多了,所以反思子領域的研究目標顯得更有意義。

在這篇文章中,谷歌大腦團隊的 Augustus Odena 就針對 GAN 的七大開放性問題作出了介紹。

  • 問題 1:如何在 GAN 和其它生成模型之間進行挑選?
  • 問題 2:GAN 能建模哪些分布?
  • 問題 3:除了圖像合成外,GAN 還能用于哪些地方?
  • 問題 4:GAN 的全局收斂性如何?訓練動態過程又是怎樣的?
  • 問題 5:我們該如何評估 GAN 的好壞,什么時候又該使用 GAN 這種生成模型?
  • 問題 6:如何擴展訓練 GAN 的批量大小?
  • 問題 7:GAN 和對抗樣本之間有什么關系?

Augustus 對每一個問題都做了很詳細的討論,包括問題背景、問題內容以及如何解決等等。這篇文章發布在 Distill 上,機器之心簡要對六大問題做了介紹,更詳細的內容與相關引用文獻可閱讀原文。

谷歌大腦和其他很多研究者都在致力于解決這些 GAN 的開放性研究問題。這篇文章也引用了近來非常多的生成對抗網絡研究,因此并不能面面俱到地描述細節,所以讀者有一定的基礎、對這些問題有一定的直觀了解就最好了。

如何在 GAN 和其它生成模型之間進行挑選

除了 GAN,另外兩種生成模型現在也很流行:流模型和自回歸模型。粗略來說,流模型將一堆可逆變換應用于先驗樣本,以計算觀測值的精確對數似然性。另一方面,自回歸模型將觀測值的分布分解為條件分布,并一次處理觀測值的一個組件(對于圖像,可能是一次處理一個像素)。最近的研究表明,這些模型具有不同的性能特點和權衡。準確描述這些權衡并確定它們是否為模型的固有特性是一個有趣的開放性問題。

具體來說,我們先暫時把重點放在 GAN 和流模型之間計算成本的差異上,訓練 GAN 和流模型的計算成本之間似乎存在巨大差異。GLOW 模型是用 40 個 GPU 花兩周訓練的,以生成 256x256 的名人面部圖像,其使用的參數為 2 億。相比之下,自回歸 GAN 是在相似的面部數據集上用 8 個 GPU 花 4 天訓練的,以生成 1024x1024 的圖像,它使用了 4600 萬參數。流模型大概需要 17 倍多的 GPU 天數和 4 倍多的參數來生成像素少 16 倍的圖像。

為什么流模型效率更低?有兩個可能的原因:首先,最大似然訓練可能比對抗訓練的計算難度更大。其次,歸一化流可能無法有效代表特定函數。論文《Parallel WaveNet: Fast High-Fidelity Speech Synthesis》第 6.1 節對表達性做了一些小實驗,但目前我們還沒看到任何對這個問題的深入分析。

前面已經討論過了 GAN 和流模型之間的權衡,那自回歸模型呢?事實證明,自回歸模型可以看做不可并行化的流模型(因為它們都可逆)。

因此,GAN 是并行且有效的,但不可逆;流模型是可逆且并行的,但比較低效;自回歸模型是可逆且有效的,但不可并行化。

圖片

由此引出第一個開放性問題:

圖片

解決這個問題的方法之一是研究更多由多種模型混合而成的模型。這種方法已經用于混合 GAN/流模型研究,但它仍然沒有被充分開發。

我們也不確定最大似然訓練是否一定比 GAN 訓練更難。的確,在 GAN 訓練損失下,將 zero mass 置于訓練數據點上沒有被明確禁止,但面對這種情況,強大的判別器的確會比生成器做得更好。不過,看起來 GAN 確實在實踐中學習低支持度的分布。

最終,我們懷疑流模型每個參數的表達不如任意解碼器函數,而且這在特定假設下是可以證明的。

GAN 能建模哪些分布?

大多數 GAN 都側重于圖像合成,具體而言,研究者會在一些標準圖像數據集上訓練 GAN,例如 MNIST、CIFAR-10、STL-10、CelebA 和 Imagenet 等。這些數據集也是有難易之分的,而且生成的效果也有好有壞。經驗表明,CelebA 上最先進的圖像合成模型生成的圖像似乎比 Imagenet 上最先進的圖像合成模型生成的圖像更有說服力。

與任何科學一樣,我們也希望有一個簡單的理論來解釋實驗觀察。理想情況下,我們可以查看數據集,并執行一些計算而不實際訓練生成模型,然后就可以判斷「這個數據集對于 GAN 來說比較容易建模,但是對于 VAE 來說比較難」。這些都是經驗理解,不過目前在這個領域上也有一些研究。由此引出下面這個問題:

圖片

我們可能問「建模分布」到底是什么意思,會有一些 GAN 并不能學習到的分布嗎?會不會有一些 GAN 理論上能學習的分布,但是在給定合理的計算資源下它學習的效率并不高?對于 GAN 來說,這些問題的答案和其他模型給出的會不會存在差別,現在很多都遠沒有解決。

Augustus 認為我們有兩種策略來回答這些問題:

  • 合成數據集:我們可以研究合成數據集來探討到底哪些特征會影響數據集的可學習性。例如在論文《Are GANs Created Equal? A Large-Scale Study》中,研究者就創建了一個合成三角形的數據集。
  • 修正現有的理論結果:我們可以利用現有的理論結果,并嘗試修改假設以考慮數據集的不同屬性。

除了圖像合成外,GAN 還能用于哪些地方?

除了圖像到圖像的轉換和領域的自適應等應用外,大多數 GAN 的成功應用都在圖像合成中。而 GAN 在圖像外的探索主要分為三個領域:

  • 文本:文本的離散屬性使其很難應用 GAN。因為 GAN 會依賴判別器的梯度信號,且它會通過生成內容反向傳播給生成器,所以離散的字符難以更新。目前有兩種方法解決這個困難,第一種是令 GAN 只對離散數據的連續表征起作用,第二種則是用梯度估計和實際離散的模型來訓練 GAN。
  • 結構化數據:GAN 能用于其它非歐氏空間的結構化數據(例如圖)嗎?這類數據的研究被稱為幾何深度學習。GAN 在這個領域的進展也不是非常顯著,但其它深度學習方法取得的進步也比較有限,因此很難說是 GAN 自身的問題。
  • 音頻:音頻是 GAN 除了圖像外最成功的領域,將 GAN 應用于無監督音頻合成是第一次嚴格的嘗試,研究人員對各種實際音頻操作做出了特殊的限制。

除了這些領域的嘗試,圖像一直是應用 GAN 最簡單的領域,這就會引起一些問題:

圖片

我們最終希望 GAN 能在其它連續數據上獲得類似圖像合成方面的成功,但它需要更好的隱式先驗知識。尋找這些先驗可能需要仔細思考到底哪些特征才是有意義的,并且領域中的哪些特征是可計算的。

對于結構化數據或離散數據,我們暫時還沒有比較好的解決方案。一種方法可能是令生成器和判別器都采用強化學習的智能體,并以 RL 的方式進行訓練。但這樣又需要大量計算資源,這個問題可能還是需要基礎研究的進展。

我們該如何評估 GAN 的好壞,什么時候又該使用 GAN 這種生成模型?

說到評估 GAN,目前有很多方法,但是并沒有一種統一的度量方法:

  • Inception Score 和 FID:這兩個分數都使用預訓練的圖像分類器,都存在已知問題。常見的批評是這些分數測量「樣本質量」而沒有真正捕獲「樣本多樣性」。
  • MS-SSIM:可以使用 MS-SSIM 單獨評估多樣性,但該技術也存在一些問題,并沒有真正流行起來。
  • AIS:它建議在 GAN 的輸出上應用高斯觀測值模型(Gaussian observation),并使用退火重要性采樣來評估該模型下的對數似然。但事實證明,當 GAN 生成器也是流模型時,這種計算方式并不準確。
  • 幾何分數:這種方法建議計算生成數據流形的幾何屬性,并將這些屬性與真實數據進行比較。
  • 精度和召回率:該方法嘗試計算 GAN 的精度和召回率。
  • 技能評級:該方法以證明,訓練好的 GAN 判別器能夠包含用來評估的有用信息

這些還只是一小部分 GAN 評估方案。雖然 Inception Score 和 FID 相對比較流行,但 GAN 評估顯然還不是一個確定性問題。最終,我們認為關于如何評估 GAN 的困惑源于何時使用 GAN。因此,我們將這兩個問題合二為一:

圖片

我們應該用 GAN 來做什么?如果你想要真正的密集型模型,GAN 可能不是最好的選擇。已有實驗表明,GAN 學習了目標數據集的「low support」表征,這意味著 GAN(隱式地)將測試集的大部分分配為零似然度。

我們沒有太擔心這一點,而是將 GAN 研究的重點放在支撐集沒問題甚至有幫助的任務上。GAN 可能很適合感知性的任務,如圖像合成、圖像轉換、圖像修復和屬性操作等圖形應用。

最后,雖然花費巨大,但也可以通過人力進行評估,這使得我們可以測量那些真正在乎的東西。通過建模預測人類答案,可以減少這種方法的成本。

如何擴展訓練 GAN 的批量大小?

大的 minibatch 已經幫助擴展了圖像分類任務——這些 minibatch 能幫助我們擴展 GAN 嗎?對于有效地使用高度并行硬件加速器,大的 minibatch 可能非常重要。

乍一看,答案好像是肯定的——畢竟,多數 GAN 中的判別器只是個圖像分類器而已。如果梯度噪聲成為瓶頸,大的批量可以加速訓練。然而,GAN 有一個分類器沒有的獨特瓶頸:訓練步驟可能存在差異。因此,我們提出以下問題:

圖片

有證據表明,提高 minibatch 大小可以改進量化結果并減少訓練時間。如果這一現象是魯棒的,說明梯度噪聲是非常重要的一個因素。然而,這一結論還沒有得到系統性的驗證,因此我們相信這一問題還有待解答。

交替訓練步驟能否更好地利用大批量?理論上來看,最優傳輸 GAN 比一般 GAN 具有更好的收斂性,但需要一個大的批量,因為這種 GAN 需要對齊樣本和訓練數據批量。因此,最優傳輸 GAN 似乎是擴展到非常大的批量的潛在候選方法。

最后,異步 SGD 可以成為利用新硬件的不錯備選項。在這種設定下,限制因素往往是:梯度更新是在參數的「陳舊」副本上計算的。但 GAN 實際上似乎是從在過去參數快照(snapshots)上進行的訓練中獲益,所以我們可能會問,異步 SGD 是否以一種特殊的方式與 GAN 訓練交互。

GAN 和對抗樣本之間有什么關系?

眾所周知,對抗樣本是圖像分類任務需要克服的一大難題:人類難以察覺的干擾可以導致分類器給出錯誤的輸出。我們還知道,有些分類問題通常可以有效學習,但魯棒地學習卻極其困難。

由于 GAN 判別器是一種圖像分類器,有人可能擔心其遭遇對抗樣本。研究 GAN 和對抗樣本的文獻不在少數,但研究二者關系的文獻卻少得可憐。因此,我們不禁要問:

圖片

我們如何開始考慮這一問題?假設有一個固定判別器 D。如果有一個生成器樣本 G(z) 被正確分類為假樣本,并且有一個小的擾動 p,G(z)+p 就被分類為真樣本,那么 D 就有了一個對抗樣本。使用一個 GAN 要考慮的是,生成器的梯度更新將產生一個新的生成器 G',其中,G'(z) = G(z) + p。

這種擔心是現實存在的嗎?我們更擔心一種叫做「對抗攻擊」的東西。我們有理由相信這些對抗攻擊發生的可能性較小。首先,在判別器再次更新之前,生成器只能進行一次梯度更新。其次,從先驗分布中抽取一批樣本,生成器得以優化,這批樣本的每個梯度更新步都是不同的。

最后,優化是在生成器的參數空間(而不是像素空間)中進行的。然而,這些論點都沒有完全排除生成器創建對抗樣本的可能。這將是一個值得深度探討且富有成果的話題

原文鏈接: https: //distill.pub/2019/gan-open-problems/

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4776

    瀏覽量

    100938
  • GaN
    GaN
    +關注

    關注

    19

    文章

    1950

    瀏覽量

    73771
收藏 人收藏

    評論

    相關推薦

    圖像生成對抗生成網絡gan_GAN生成汽車圖像 精選資料推薦

    圖像生成對抗生成網絡ganHello there! This is my story of making a GAN that would generate images of cars
    發表于 08-31 06:48

    圖像生成對抗生成網絡

    圖像生成對抗生成網絡ganby Thalles Silva 由Thalles Silva暖身 (Warm up)Let’s say there’s a very cool party going
    發表于 09-15 09:29

    生成對抗網絡模型綜述

    ,開創性地提出了生成對抗網絡GAN)。生成對抗網絡包含一個生成模型和一個判別模型。其中,
    發表于 04-03 10:48 ?1次下載
    <b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b>模型綜述

    生成對抗網絡GAN,正在成為新的“深度學習”

    生成對抗網絡由一個生成網絡(Generator)與一個判別網絡(Discriminator)組成。生成
    的頭像 發表于 06-11 16:04 ?4825次閱讀
    <b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b><b class='flag-5'>GAN</b>,正在成為新的“深度學習”

    生成對抗網絡在計算機視覺領域有什么應用

    生成對抗網絡GAN, Generative Adversarial Networks)的出現是計算機視覺領域又一里程碑式的發展,它為解決各種圖像預測問題提供了新型工具。以此為目的,本文通過相關文獻
    發表于 12-06 15:29 ?22次下載
    <b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b>在計算機視覺領域有什么應用

    如何使用生成對抗網絡進行信息隱藏方案資料說明

    針對信息隱藏中含密栽體會留有修改痕跡,從根本上難以抵抗基于統計的隱寫分析算法檢測的問題,提出一種基于生成對抗網絡GAN)的信息隱藏方案。該方案首先利用生成對抗
    發表于 12-12 16:57 ?6次下載
    如何使用<b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b>進行信息隱藏方案資料說明

    如何使用深度殘差生成對抗網絡設計醫學影像超分辨率算法

    針對醫學影像超分辨率重建過程中細節丟失導致的模糊問題,提出了一種基于深度殘差生成對抗網絡GAN)的醫學影像超分辨率算法。首先,算法包括生成網絡
    發表于 01-02 16:59 ?5次下載
    如何使用深度殘差<b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b>設計醫學影像超分辨率算法

    必讀!生成對抗網絡GAN論文TOP 10

    這篇 GAN 論文來自 NVIDIA Research,提出以一種漸進增大(progressive growing)的方式訓練 GAN,通過使用逐漸增大的 GAN 網絡(稱為 PG-
    的頭像 發表于 03-20 09:02 ?6571次閱讀
    必讀!<b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b><b class='flag-5'>GAN</b>論文TOP 10

    生成對抗網絡與其他生成模型之間的權衡取舍是什么?

    根據一些指標顯示,關于生成對抗網絡GAN)的研究在過去兩年間取得了本質的進步。
    的頭像 發表于 04-29 11:01 ?3852次閱讀

    基于自注意力機制的條件生成對抗網絡模型

    近年來,越來越多的生成對抗網絡出現在深度學習的各個領域中。條件生成對抗網絡( Conditional generative Adverarial Networks,cG∧N)開創性地將
    發表于 04-20 14:26 ?11次下載
    基于自注意力機制的條件<b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b>模型

    基于密集卷積生成對抗網絡的圖像修復方法

    差等問題。針對上述問題,文中提出了一種基于密集卷積生成對抗網絡的圖像修復算法。該算法采用生成對抗網絡作為圖像修復的基本框架。首先,利用密集卷積塊構建具有編解碼結枃的
    發表于 05-13 14:39 ?15次下載

    基于像素級生成對抗網絡的圖像彩色化模型

    基于像素級生成對抗網絡的圖像彩色化模型
    發表于 06-27 11:02 ?4次下載

    GAN生成對抗網絡 Generative Adversarial Networks

    原文鏈接 1 原理 對于生成對抗網絡GAN,一個簡單的理解是可以將其看做博弈的過程,我們可以將生成模型和判別模型看作博弈的雙方,比如在犯罪分子造假幣和警察識別假幣的過程中:
    的頭像 發表于 01-12 09:45 ?886次閱讀

    PyTorch教程20.2之深度卷積生成對抗網絡

    電子發燒友網站提供《PyTorch教程20.2之深度卷積生成對抗網絡.pdf》資料免費下載
    發表于 06-05 10:21 ?2次下載
    PyTorch教程20.2之深度卷積<b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b>

    生成對抗網絡(GANs)的原理與應用案例

    生成對抗網絡(Generative Adversarial Networks,GANs)是一種由蒙特利爾大學的Ian Goodfellow等人在2014年提出的深度學習算法。GANs通過構建兩個
    的頭像 發表于 07-09 11:34 ?1151次閱讀
    主站蜘蛛池模板: 亚洲欧洲一区二区三区在线观看| 女人69xxx| 一区在线观看| 亚洲爽视频| 天天干狠狠插| 久久精品久久久| 高清成年美女黄网站色大| 91学院派女神| 91精品国产亚洲爽啪在线影院| 亚洲一区在线播放| 狠狠gao| 网友偷自拍原创区| 日本免费性| 久久精品国产6699国产精| 成人精品视频在线观看播放| 天天插视频| 91久久天天躁狠狠躁夜夜| 亚洲一区免费| 伊人久久综合成人网小说| 色多多拼多多网站| 欧美天天| 国产大片免费观看资源| 91国在线啪精品一区| 在线天堂中文新版有限公司| 色多多免费观看在线| 久久99精品久久久久久野外| 夜夜艹| 韩日精品| 亚洲主播自拍| 国产欧美日韩va| 性生交酡| 色噜噜狠狠狠综合曰曰曰| 久久久综合色| 五月天婷婷在线观看视频| 91无毒不卡| 一级做a爱片就在线看| 欧美大全| 窝窝午夜看片成人精品| 女69女人poren25| 五月婷婷六月色| 国产婷婷色一区二区三区深爱网|