在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

生成對(duì)抗網(wǎng)絡(luò)GAN論文TOP 10,幫助你理解最先進(jìn)技術(shù)的基礎(chǔ)

電子工程師 ? 來(lái)源:lp ? 2019-03-20 15:16 ? 次閱讀

生成對(duì)抗網(wǎng)絡(luò) (GAN) 是深度學(xué)習(xí)中最有趣、最受歡迎的應(yīng)用之一。本文列出了 10 篇關(guān)于 GAN 的論文,這些論文將為你提供一個(gè)很好的對(duì) GAN 的介紹,幫助你理解最先進(jìn)技術(shù)的基礎(chǔ)。

本文選擇的10篇GAN論文包括:

DCGANs

Improved Techniques for Training GANs

Conditional GANs

Progressively Growing GANs

BigGAN

StyleGAN

CycleGAN

Pix2Pix

StackGAN

Generative Adversarial Networks

DCGANs?—?Radford et al.(2015)

我建議你以DCGAN這篇論文來(lái)開(kāi)啟你的GAN之旅。這篇論文展示了卷積層如何與GAN一起使用,并為此提供了一系列架構(gòu)指南。這篇論文還討論了GAN特征的可視化、潛在空間插值、利用判別器特征來(lái)訓(xùn)練分類器、評(píng)估結(jié)果等問(wèn)題。所有這些問(wèn)題都必然會(huì)出現(xiàn)在你的GAN研究中。

總之,DCGAN論文是一篇必讀的GAN論文,因?yàn)樗砸环N非常清晰的方式定義架構(gòu),因此很容易從一些代碼開(kāi)始,并開(kāi)始形成開(kāi)發(fā)GAN的直覺(jué)。

DCGAN模型:具有上采樣卷積層的生成器架構(gòu)

論文:

Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks

Alec Radford, Luke Metz, Soumith Chintala

https://arxiv.org/abs/1511.06434

改進(jìn)GAN訓(xùn)練的技術(shù)——?Salimans et al.(2016)

這篇論文(作者包括Ian Goodfellow)根據(jù)上述DCGAN論文中列出的架構(gòu)指南,提供了一系列建議。這篇論文將幫助你了解GAN不穩(wěn)定性的最佳假設(shè)。此外,本文還提供了許多用于穩(wěn)定DCGAN訓(xùn)練的其他機(jī)器,包括特征匹配、minibatch識(shí)別、歷史平均、單邊標(biāo)簽平滑和虛擬批標(biāo)準(zhǔn)化。使用這些技巧來(lái)構(gòu)建一個(gè)簡(jiǎn)單的DCGAN實(shí)現(xiàn)是一個(gè)很好的練習(xí),有助于更深入地了解GAN。

論文:

Improved Techniques for Training GANs

Tim Salimans, Ian Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford, Xi Chen

https://arxiv.org/abs/1606.03498

Conditional GANs?—?Mirza and Osindero(2014)

這是一篇很好的論文,讀起來(lái)很順暢。條件GAN(Conditional GAN)是最先進(jìn)的GAN之一。論文展示了如何整合數(shù)據(jù)的類標(biāo)簽,從而使GAN訓(xùn)練更加穩(wěn)定。利用先驗(yàn)信息對(duì)GAN進(jìn)行調(diào)節(jié)這樣的概念,在此后的GAN研究中是一個(gè)反復(fù)出現(xiàn)的主題,對(duì)于側(cè)重于image-to-image或text-to-image的論文尤其重要。

Conditional GAN架構(gòu):除了隨機(jī)噪聲向量z之外,類標(biāo)簽y被連接在一起作為網(wǎng)絡(luò)的輸入

論文:

Conditional Generative Adversarial Nets

Mehdi Mirza, Simon Osindero

https://arxiv.org/abs/1411.1784

Progressively Growing GANs—?Karras et al.(2017)

Progressively Growing GAN (PG-GAN)有著驚人的結(jié)果,以及對(duì)GAN問(wèn)題的創(chuàng)造性方法,因此也是一篇必讀論文。

這篇GAN論文來(lái)自NVIDIA Research,提出以一種漸進(jìn)增大(progressive growing)的方式訓(xùn)練GAN,通過(guò)使用逐漸增大的GAN網(wǎng)絡(luò)(稱為PG-GAN)和精心處理的CelebA-HQ數(shù)據(jù)集,實(shí)現(xiàn)了效果令人驚嘆的生成圖像。作者表示,這種方式不僅穩(wěn)定了訓(xùn)練,GAN生成的圖像也是迄今為止質(zhì)量最好的。

它的關(guān)鍵想法是漸進(jìn)地增大生成器和鑒別器:從低分辨率開(kāi)始,隨著訓(xùn)練的進(jìn)展,添加新的層對(duì)越來(lái)越精細(xì)的細(xì)節(jié)進(jìn)行建模。“Progressive Growing”指的是先訓(xùn)練4x4的網(wǎng)絡(luò),然后訓(xùn)練8x8,不斷增大,最終達(dá)到1024x1024。這既加快了訓(xùn)練速度,又大大穩(wěn)定了訓(xùn)練速度,并且生成的圖像質(zhì)量非常高。

Progressively Growing GAN的多尺度架構(gòu),模型從4×4 逐步增大到1024×1024

論文:

Progressive Growing of GANs for Improved Quality, Stability, and Variation

Tero Karras, Timo Aila, Samuli Laine, Jaakko Lehtinen

https://arxiv.org/abs/1710.10196

BigGAN?—?Brock et al.(2019)

BigGAN模型是基于ImageNet生成圖像質(zhì)量最高的模型之一。該模型很難在本地機(jī)器上實(shí)現(xiàn),而且BigGAN有許多組件,如Self-Attention、Spectral Normalization和帶有投影鑒別器的cGAN,這些組件在各自的論文中都有更好的解釋。不過(guò),這篇論文對(duì)構(gòu)成當(dāng)前最先進(jìn)技術(shù)水平的基礎(chǔ)論文的思想提供了很好的概述,因此非常值得閱讀。

BigGAN生成的圖像

論文:

Large Scale GAN Training for High Fidelity Natural Image Synthesis

Andrew Brock, Jeff Donahue, Karen Simonyan

https://arxiv.org/abs/1809.11096

StyleGAN?—?Karras et al.(2019)

StyleGAN模型可以說(shuō)是最先進(jìn)的,特別是利用了潛在空間控制。該模型借鑒了神經(jīng)風(fēng)格遷移中一種稱為自適應(yīng)實(shí)例標(biāo)準(zhǔn)化(AdaIN)的機(jī)制來(lái)控制潛在空間向量z。映射網(wǎng)絡(luò)和AdaIN條件在整個(gè)生成器模型中的分布的結(jié)合使得很難自己實(shí)現(xiàn)一個(gè)StyleGAN,但它仍是一篇很好的論文,包含了許多有趣的想法。

StyleGAN架構(gòu),允許潛在空間控制

論文:

A Style-Based Generator Architecture for Generative Adversarial Networks

Tero Karras, Samuli Laine, Timo Aila

https://arxiv.org/abs/1812.04948

CycleGAN?—?Zhu et al.(2017)

CycleGAN的論文不同于前面列舉的6篇論文,因?yàn)樗懻摰氖莍mage-to-image的轉(zhuǎn)換問(wèn)題,而不是隨機(jī)向量的圖像合成問(wèn)題。CycleGAN更具體地處理了沒(méi)有成對(duì)訓(xùn)練樣本的image-to-image轉(zhuǎn)換的情況。然而,由于Cycle-Consistency loss公式的優(yōu)雅性,以及如何穩(wěn)定GAN訓(xùn)練的啟發(fā)性,這是一篇很好的論文。CycleGAN有很多很酷的應(yīng)用,比如超分辨率,風(fēng)格轉(zhuǎn)換,例如將馬的圖像變成斑馬。

Cycle Consistency Loss背后的主要想法,一個(gè)句子從法語(yǔ)翻譯成英語(yǔ),再翻譯回法語(yǔ),應(yīng)該跟原來(lái)的是同一個(gè)句子

論文:

Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros

https://arxiv.org/abs/1703.10593

Pix2Pix?—?Isola et al.(2016)

Pix2Pix是另一種圖像到圖像轉(zhuǎn)換的GAN模型。該框架使用成對(duì)的訓(xùn)練樣本,并在GAN模型中使用多種不同的配置。讀這篇論文時(shí),我覺(jué)得最有趣部分是關(guān)于PatchGAN的討論。PatchGAN通過(guò)觀察圖像的70×70的區(qū)域來(lái)判斷它們是真的還是假的,而不是查看整個(gè)圖像。該模型還展示了一個(gè)有趣的U-Net風(fēng)格的生成器架構(gòu),以及在生成器模型中使用ResNet風(fēng)格的skip connections。Pix2Pix有很多很酷的應(yīng)用,比如將草圖轉(zhuǎn)換成逼真的照片。

使用成對(duì)的訓(xùn)練樣本進(jìn)行Image-to-Image轉(zhuǎn)換

論文:

Image-to-Image Translation with Conditional Adversarial Networks

Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, Alexei A. Efros

https://arxiv.org/abs/1611.07004

StackGAN?—?Zhang et al.(2017)

StackGAN的論文與本列表中的前幾篇論文相比非常不同。它與Conditional GAN和Progressively Growing GANs最為相似。StackGAN模型的工作原理與Progressively Growing GANs相似,因?yàn)樗梢栽诙鄠€(gè)尺度上工作。StackGAN首先輸出分辨率為64×64的圖像,然后將其作為先驗(yàn)信息生成一個(gè)256×256分辨率的圖像。

StackGAN是從自然語(yǔ)言文本生成圖像。這是通過(guò)改變文本嵌入來(lái)實(shí)現(xiàn)的,以便捕獲視覺(jué)特征。這是一篇非常有趣的文章,如果StyleGAN中顯示的潛在空間控制與StackGAN中定義的自然語(yǔ)言接口相結(jié)合,想必會(huì)非常令人驚訝。

基于文本嵌入的StackGAN多尺度架構(gòu)背后的想法

論文:

StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks

Han Zhang, Tao Xu, Hongsheng Li, Shaoting Zhang, Xiaogang Wang, Xiaolei Huang, Dimitris Metaxas

https://arxiv.org/abs/1612.03242

Generative Adversarial Networks?—?Goodfellow et al.(2014)

Ian Goodfellow的原始GAN論文對(duì)任何研究GAN的人來(lái)說(shuō)都是必讀的。這篇論文定義了GAN框架,并討論了“非飽和”損失函數(shù)。論文還給出了最優(yōu)判別器的推導(dǎo),這是近年來(lái)GAN論文中經(jīng)常出現(xiàn)的一個(gè)證明。論文還在MNIST、TFD和CIFAR-10圖像數(shù)據(jù)集上對(duì)GAN的有效性進(jìn)行了實(shí)驗(yàn)驗(yàn)證。

論文:

Generative Adversarial Networks

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio

https://arxiv.org/abs/1406.2661

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1939

    瀏覽量

    73549
  • 生成器
    +關(guān)注

    關(guān)注

    7

    文章

    315

    瀏覽量

    21031
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24716

原文標(biāo)題:必讀!生成對(duì)抗網(wǎng)絡(luò)GAN論文TOP 10

文章出處:【微信號(hào):aicapital,微信公眾號(hào):全球人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Google兩款先進(jìn)生成式AI模型登陸Vertex AI平臺(tái)

    新的 AI 模型,包括最先進(jìn)的視頻生成模型Veo以及最高品質(zhì)的圖像生成模型Imagen 3。近日,我們?cè)?Google Cloud 上進(jìn)一步推動(dòng)這一勢(shì)頭,客戶可以在Vertex AI平臺(tái)上使用這兩款
    的頭像 發(fā)表于 12-30 09:56 ?67次閱讀

    直流變頻焊接控制器:先進(jìn)技術(shù)在焊接領(lǐng)域的革新應(yīng)用探索

    在當(dāng)今的工業(yè)生產(chǎn)領(lǐng)域中,新技術(shù)的發(fā)展與應(yīng)用始終是推動(dòng)產(chǎn)業(yè)升級(jí)、提升效率的關(guān)鍵驅(qū)動(dòng)力。其中,直流變頻焊接控制器作為一種前沿技術(shù),在焊接工藝中的革新性應(yīng)用引起了廣泛關(guān)注。本文將深入探討這一先進(jìn)技術(shù)
    的頭像 發(fā)表于 12-06 09:07 ?103次閱讀

    庫(kù)克稱iPhone16是最先進(jìn)的iPhone

    最新款iPhone、Watch和AirPods,最大的亮點(diǎn)估計(jì)在人工智能。所以庫(kù)克稱iPhone16是最先進(jìn)的iPhone。 庫(kù)克表示。iPhone 16 系列是我們打造的最先進(jìn)的 iPhone。得益于
    的頭像 發(fā)表于 09-10 11:47 ?841次閱讀

    NVIDIA Nemotron-4 340B模型幫助開(kāi)發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    Nemotron-4 340B 是針對(duì) NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進(jìn)的指導(dǎo)和獎(jiǎng)勵(lì)模型,以及一個(gè)用于生成式 AI 訓(xùn)練的數(shù)據(jù)集。
    的頭像 發(fā)表于 09-06 14:59 ?326次閱讀
    NVIDIA Nemotron-4 340B模型<b class='flag-5'>幫助</b>開(kāi)發(fā)者<b class='flag-5'>生成</b>合成訓(xùn)練數(shù)據(jù)

    憶聯(lián)以完善的產(chǎn)品矩陣與先進(jìn)技術(shù)為AI PC助力

    未來(lái)10年,AI產(chǎn)業(yè)將迎來(lái)快速發(fā)展期,尤其對(duì)于生成式AI(Generative AI)來(lái)說(shuō),其技術(shù)發(fā)展和應(yīng)用將加速向端、邊、云、網(wǎng)、智(即終端、邊緣計(jì)算、云計(jì)算、網(wǎng)絡(luò)和智能應(yīng)用)等各個(gè)
    的頭像 發(fā)表于 09-02 11:39 ?472次閱讀
    憶聯(lián)以完善的產(chǎn)品矩陣與<b class='flag-5'>先進(jìn)技術(shù)</b>為AI PC助力

    首屆人工智能先進(jìn)技術(shù)成果供需對(duì)接大會(huì)硬核又新潮!

    在各類人工智能技術(shù)及應(yīng)用不斷融入人們?nèi)粘I畹漠?dāng)下,大會(huì)聚焦先進(jìn)技術(shù)、終端消費(fèi)、行業(yè)應(yīng)用以及綿陽(yáng)本地創(chuàng)新產(chǎn)品,將一批“人工智能+”創(chuàng)新應(yīng)用最新成果、應(yīng)用場(chǎng)景搬到“會(huì)場(chǎng)”,讓你沉浸式體驗(yàn)AI世界,感受未來(lái)已來(lái)。
    的頭像 發(fā)表于 07-25 17:04 ?482次閱讀
    首屆人工智能<b class='flag-5'>先進(jìn)技術(shù)</b>成果供需對(duì)接大會(huì)硬核又新潮!

    生成對(duì)抗網(wǎng)絡(luò)(GANs)的原理與應(yīng)用案例

    生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GANs)是一種由蒙特利爾大學(xué)的Ian Goodfellow等人在2014年提出的深度學(xué)習(xí)算法。GANs通過(guò)構(gòu)建兩個(gè)
    的頭像 發(fā)表于 07-09 11:34 ?1058次閱讀

    格芯收購(gòu) Tagore Technology 的 GaN 技術(shù)

    來(lái)源:Silicon Semiconductor 此次技術(shù)收購(gòu)擴(kuò)展了 GF(格芯) 的電源管理解決方案和差異化路線圖。 GlobalFoundries (格芯)收購(gòu)了 Tagore
    的頭像 發(fā)表于 07-08 12:33 ?473次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    、語(yǔ)音識(shí)別、自然語(yǔ)言處理等多個(gè)領(lǐng)域。本文將對(duì)幾種主要的神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行詳細(xì)介紹,包括前饋神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)生成對(duì)抗
    的頭像 發(fā)表于 07-01 14:16 ?718次閱讀

    瑞薩電子完成對(duì)Transphorm的收購(gòu),加速GaN技術(shù)布局

    在全球半導(dǎo)體技術(shù)競(jìng)爭(zhēng)日益激烈的今天,瑞薩電子以其前瞻性的戰(zhàn)略眼光和果斷的行動(dòng),成功完成了對(duì)氮化鎵(GaN)器件商Transphorm的收購(gòu),收購(gòu)價(jià)高達(dá)3.39億美元。這一交易的完成,不僅標(biāo)志著瑞薩電子在GaN
    的頭像 發(fā)表于 06-25 10:07 ?563次閱讀

    TüV萊茵舉辦光儲(chǔ)充先進(jìn)技術(shù)研討會(huì),攜手行業(yè)伙伴共創(chuàng)綠色未來(lái)

    深圳2024年6月3日?/美通社/ -- 5月30日-31日,國(guó)際獨(dú)立第三方檢測(cè)、檢驗(yàn)和認(rèn)證機(jī)構(gòu)德國(guó)萊茵TüV大中華區(qū)(以下簡(jiǎn)稱"TüV萊茵")在深圳舉辦光儲(chǔ)充先進(jìn)技術(shù)研討會(huì)。深圳市市場(chǎng)監(jiān)督管理
    的頭像 發(fā)表于 06-04 15:11 ?367次閱讀
    TüV萊茵舉辦光儲(chǔ)充<b class='flag-5'>先進(jìn)技術(shù)</b>研討會(huì),攜手行業(yè)伙伴共創(chuàng)綠色未來(lái)

    思科完成對(duì)Isovalent的收購(gòu)

    全球領(lǐng)先的網(wǎng)絡(luò)技術(shù)公司思科(Cisco)近日宣布,已完成對(duì)開(kāi)源云原生網(wǎng)絡(luò)與安全領(lǐng)域的佼佼者Isovalent的收購(gòu)。
    的頭像 發(fā)表于 05-06 10:41 ?640次閱讀

    深度學(xué)習(xí)生成對(duì)抗網(wǎng)絡(luò)GAN)全解析

    GANs真正的能力來(lái)源于它們遵循的對(duì)抗訓(xùn)練模式。生成器的權(quán)重是基于判別器的損失所學(xué)習(xí)到的。因此,生成器被它生成的圖像所推動(dòng)著進(jìn)行訓(xùn)練,很難知道生成
    發(fā)表于 03-29 14:42 ?4598次閱讀
    深度學(xué)習(xí)<b class='flag-5'>生成對(duì)抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>(<b class='flag-5'>GAN</b>)全解析

    生成式人工智能和感知式人工智能的區(qū)別

    生成新的內(nèi)容和信息的人工智能系統(tǒng)。這些系統(tǒng)能夠利用已有的數(shù)據(jù)和知識(shí)來(lái)生成全新的內(nèi)容,如圖片、音樂(lè)、文本等。生成式人工智能通常基于深度學(xué)習(xí)技術(shù),如生成
    的頭像 發(fā)表于 02-19 16:43 ?1780次閱讀

    AI克隆技術(shù)可用于創(chuàng)建虛擬人物形象!它的技術(shù)原理和發(fā)展趨勢(shì)

    和行為特點(diǎn)等。 ? AI克隆技術(shù)的原理及應(yīng)用 ? AI克隆技術(shù)的原理主要是通過(guò)人工智能技術(shù)來(lái)模擬和復(fù)制真實(shí)人類的行為、思維和表情等。具體來(lái)說(shuō),AI克隆技術(shù)通常涉及到深度學(xué)習(xí)和
    的頭像 發(fā)表于 01-08 08:28 ?2790次閱讀
    AI克隆<b class='flag-5'>技術(shù)</b>可用于創(chuàng)建虛擬人物形象!它的<b class='flag-5'>技術(shù)</b>原理和發(fā)展趨勢(shì)
    主站蜘蛛池模板: 91噜噜噜| 69日本人xxxx16-18| 永久在线| 在线观看高清免费播放| 在线免费国产视频| 天天爽爽| 国产视频分类| 小草影院亚洲私人影院| 456亚洲人成影院在线观| 日本不卡专区| 中文字幕亚洲综合久久2| 亚洲人成人77777网站| 天堂-bt种子| 欧美性久久久久| 久久骚| 成年女人毛片免费视频| 午夜视频一区| 久久刺激视频| 黄色网在线| 国产三级在线| 天堂网在线看| 美剧免费在线观看| free 欧美| 久久香蕉精品视频| 日本xxx69hd| 国模极品一区二区三区| 婷婷资源| 欧美xxxx色视频在线观看免费| 国产中日韩一区二区三区| 亚洲精品久| 国产福利久久| 午夜三级网| 五月激情站| 久久久鲁| 一级特黄aaa大片在线观看视频| 久久久久九九精品影院| 91大神精品| 五月婷婷电影| 精品国产香港三级| 天堂资源地址在线| 男人操女人免费|