在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Direct Inversion:三行代碼提升基于擴散的圖像編輯效果

CVer ? 來源:CVer公眾號 ? 2023-10-10 17:18 ? 次閱讀

導(dǎo)讀

本文介紹了由香港中文大學和粵港澳大灣區(qū)數(shù)字經(jīng)濟院聯(lián)合提出的基于 Diffusion 的 Inversion 方法 Direct Inversion,可以在現(xiàn)有編輯算法上即插即用,無痛提點。

現(xiàn)有主流編輯算法大多為雙分支結(jié)構(gòu),一個分支主要負責編輯,另一個分支則負責重要信息保留,Direct Inversion 可以完成(1)對兩分支解耦(2)使兩分支分別發(fā)揮最大效能,因此可以大幅提升現(xiàn)有算法的編輯效果。

同時,為了更加公平公正的進行基于 text 的編輯效果對比,這篇文章提出了 PIE-Bench,一個包含 700 張圖片和 10 個編輯類別的“圖片-編輯指令-編輯區(qū)域”數(shù)據(jù)集,并提供一系列包含結(jié)構(gòu)保留性、背景保留性、編輯結(jié)果與編輯指令一致性、編輯時間四個方面的評測指標。

數(shù)值結(jié)果和可視化結(jié)果共同展示了Direct Inversion的優(yōu)越性。

15664526-6744-11ee-939d-92fbcf53809c.png

主頁:https://idea-research.github.io/DirectInversion/

代碼:https://arxiv.org/abs/2310.01506

論文:https://github.com/cure-lab/DirectInversion

這篇論文是如何發(fā)現(xiàn)過往方法問題,并找到新解決方案的呢?

基于 Diffusion 的編輯在近兩年來一直是文生圖領(lǐng)域的研究重點,也有無數(shù)文章從各個角度(比如效果較好的在Stable Diffusion的Attention Map上特征融合)對其進行研究,作者在文章中進行了一個比較全面的相關(guān)方法review,并把這些方法從“重要信息保留”和“編輯信息添加”兩個方面分別進行了四分類,具體可以參見原文,此處不再贅述。

這里提到了一個編輯的重點,也就是“重要信息保留”和“編輯信息添加”。事實上,這兩個要點正是編輯所需要完成的兩個任務(wù),比如把圖1的貓變成狗,那紅色的背景和貓的位置需要保留,這就是“重要信息保留”;同時編輯要完成“變成狗”的任務(wù),這就是“編輯信息添加”。

為了完成這兩個任務(wù),最為直覺,也是使用最多的方式就是:使用兩個分支來完成這兩件事,一個用來保留信息,一個用來添加信息。之前的編輯算法大多可以劃分出這兩個分支,但可能隱含在模型中或者沒有顯式割離,也正是在這篇文章中,作者將兩個概念劃分清楚并給出了過往方法的分類。

到現(xiàn)在為止,已經(jīng)弄清楚了編輯的兩個分支及其各自作用,但編輯不僅僅只需要這兩個分支,還需要重要的一步,也就是Inversion。

156eb3aa-6744-11ee-939d-92fbcf53809c.jpg

圖1 基于 Diffusion 的編輯算法總結(jié)

我們都知道,Diffusion是一個把噪聲映射到有用信息(比如圖片)的過程,但 Diffusion 到噪聲的過程是單向的,它并不可逆,不能直接像VAE一樣直接把有用信息再映射回到隱空間,即,可以根據(jù)一個噪聲得到圖片,但不能根據(jù)一張圖片得到“可以得到這張圖片的噪聲”,但這個噪聲又在編輯中非常重要,因為它是雙分支的起點。

所以大部分人就采用了一種近似的方法,即 DDIM Inversion,它能夠?qū)D片映射到噪聲,但從這個噪聲得到的新圖片就會稍微偏離原圖片一點(如圖DDIM Inversion上標注的distance),其實如果不給模型文本控制條件,偏離還不太嚴重,但當文本的控制加強時,偏離就會逐漸不可接受。

因此,一系列的 Inversion 方法被提出用來修正這一偏差,比如著名的基于優(yōu)化的 Null-Text Inversion,而在無數(shù)方法進行嘗試和探索之后,大家似乎得到了一個 common sense:好的偏離修正必須要包含優(yōu)化過程。所以這篇文章就更加深入的探索了一下基于優(yōu)化的inversion(或者說修正)到底在做什么。

這些方法在優(yōu)化什么?優(yōu)化真的必要嗎?

基于優(yōu)化的Inversion方法通常使用一個模型輸入變量(如Null Text)存儲剛剛提到的偏差,而這一偏差則作為優(yōu)化過程中的loss,通過梯度下降來擬合變量。因此優(yōu)化的過程本質(zhì)上就是把一個高精度的偏差存儲在了一個低精度的變量中(該變量的數(shù)值精度相對 noise latent 更不敏感)。

但這種做法是存在問題的:(1)優(yōu)化相當于在推導(dǎo)過程中訓練,非常消耗時間,比如Null-Text Inversion通常需要兩三分鐘編輯一張圖片;(2)優(yōu)化存在誤差,因此不能完全消除“偏差”,如圖2 Null-Text Inversion/StyleDiffusion中畫出的,保留分支與原始inversion分支之間的偏差只是被縮小并沒有被消除,這就使得重要信息的保護沒有發(fā)揮到最大限度;(3)優(yōu)化得到的變量其實在Diffusion模型訓練過程中并未出現(xiàn)過,因此相當于進行了強制賦值,會影響模型輸入和模型參數(shù)之間數(shù)據(jù)分布的協(xié)調(diào)。

回到上文提到的雙分支編輯,之前的方法訓練好優(yōu)化的變量之后,就會將其同時送入到編輯分支和保留分支(其實不僅僅是基于優(yōu)化的方法,非基于優(yōu)化的方法也沒有將兩分支解耦),根據(jù)上面的分析,其實可以發(fā)現(xiàn)一個很簡單的改進策略:將可編輯分支和保留分支解耦,使兩個分支充分發(fā)揮各自效能。

157971aa-6744-11ee-939d-92fbcf53809c.jpg

圖2 各類 Inversion 方法對比

Direct Inversion

這篇文章通過解耦編輯分支和保留分支,僅用三行代碼就能夠大幅提升現(xiàn)有編輯算法效果(如圖3中偽代碼),具體做法非常簡單,即:將保留分支加回到原始DDIM Inversion路徑,而保持編輯分支不被影響。

15812a1c-6744-11ee-939d-92fbcf53809c.jpg

圖3 偽代碼

PIE-Bench

盡管基于 Diffusion 的編輯在近幾年引起了廣泛關(guān)注,但各類編輯方法的評估主要依賴于主觀且不確定性的可視化。因此這篇文章為了系統(tǒng)驗證所提出的Direct Inversion,并對比過往Inversion方法,以及彌補編輯領(lǐng)域的性能標準缺失,構(gòu)建了一個基準數(shù)據(jù)集,名為PIE-Bench(Prompt-based Image Editing Benchmark)。

PIE-Bench包括700張圖像,涵蓋了10種不同的編輯類型。這些圖像均勻分布在自然和人工場景(例如繪畫作品)中,分為四個類別:動物、人物、室內(nèi)和室外。PIE-Bench中的每張圖像都包括五個注釋:源圖像提示語句、目標圖像提示語句、編輯指令、主要編輯部分和編輯掩碼。值得注意的是,編輯掩碼注釋(即使用一個mask指示預(yù)期的編輯區(qū)域)在準確的指標計算中至關(guān)重要,因為期望編輯僅發(fā)生在指定的區(qū)域內(nèi)。

158f3080-6744-11ee-939d-92fbcf53809c.jpg

圖4 PIE-Bench

實驗效果

數(shù)值結(jié)果

在各個編輯算法上對比不同Inversion和Direct Inversion 算法效果

159b49ce-6744-11ee-939d-92fbcf53809c.jpg

Direct Inversion 在多種編輯方法上對比其他 inversion 方法的效果。編輯方法:Prompt-to-Prompt (P2P), MasaCtrl, Pix2Pix-Zero (P2P-Zero), Plug-and-Play (PnP), Inversion方法:DDIM Inversion (DDIM), Null-Text Inversion (NT), Negative-Prompt Inversion (NP), StyleDiffusion (SD)

各類 Inversion 算法運行時間對比

15acca1e-6744-11ee-939d-92fbcf53809c.jpg

運行時間對比

可視化對比

15bcf0f6-6744-11ee-939d-92fbcf53809c.jpg

圖5 Direct Inversion 與四種基于 Diffusion 的編輯方法結(jié)合后在各種編輯類別(從上到下依次為:風格轉(zhuǎn)移、物體替換和顏色變更)上的性能提升,每組結(jié)果第一列為未加 Direct Inversion,第二列為添加 Direct Inversion

15c0c5f0-6744-11ee-939d-92fbcf53809c.jpg

圖6 不同 inversion 和編輯技術(shù)的可視化結(jié)果

更多可視化和消融實驗結(jié)果可以參考原論文。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4625

    瀏覽量

    93123
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4813

    瀏覽量

    68832
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24758

原文標題:簡單有效!Direct Inversion:三行代碼提升基于擴散的圖像編輯效果

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    急求教:能顯示三行字符的液晶有哪些

    能顯示三行字符(可以不是漢字)的液晶有哪些????
    發(fā)表于 05-31 10:02

    請問前三行是什么意思?

    create_page_table @ 設(shè)置頁表 bl mmu_init @ 啟動MMU ldr sp, =0xB4000000 @ 重設(shè)棧指針,指向SDRAM頂端(使用虛擬地址) ldr pc, =0xB0004000 @ 跳到SDRAM中繼續(xù)執(zhí)行第二部分代碼halt_loop: b halt_loop請問其中
    發(fā)表于 06-13 22:56

    請問這三行代碼是固定這樣寫的嗎?

    u8 IPRADDR=NVIC_Channel/4;//每組只能存4個,得到組地址 u8 IPROFFSET=NVIC_Channel%4;//在組內(nèi)的偏移 IPROFFSET=IPROFFSET*8+4; //得到偏移的確切位置這三行代碼是固定這樣寫的嗎???????
    發(fā)表于 10-24 21:34

    三行搞定獨立按鍵

    最近自己在做單片機的東西,準備參加比賽,偶然發(fā)現(xiàn)了獨立按鍵的神助攻——三行搞定獨立按鍵,看到網(wǎng)上很多描述的不清晰,自己又花時間整理了一下,話不多說先上代碼:void Key_Read(void
    發(fā)表于 12-07 11:05

    STM32之三行按鍵宏定義

    STM32之三行按鍵按鍵宏定義unsigned char ucTrg= 0;unsigned char ucCont = 0;unsigned char uckey_times = 0
    發(fā)表于 03-02 06:52

    什么是三行按鍵?有什么用

    三行按鍵從出生到現(xiàn)在已經(jīng)很多個年頭了,經(jīng)過幾代優(yōu)化,現(xiàn)在有兩個版本,今天分析一下,也在本論壇擴充一下資源。我在本論壇搜索三行按鍵,并沒有相關(guān)的帖子。首先說明一下什么是三行按鍵,有什么用,什么好處,以及...
    發(fā)表于 03-02 06:16

    EditGAN圖像編輯框架將影響未來幾代GAN的發(fā)展

      此外, EditGAN 框架可能會影響未來幾代 GAN 的發(fā)展。雖然當前版本的 EditGAN 側(cè)重于圖像編輯,但類似的方法也可能用于編輯 3D 形狀和對象,這在為游戲、電影或 metaverse 創(chuàng)建虛擬 3D 內(nèi)容時非常有用。
    的頭像 發(fā)表于 04-06 16:29 ?1693次閱讀
    EditGAN<b class='flag-5'>圖像編輯</b>框架將影響未來幾代GAN的發(fā)展

    谷歌新作Dreamix:視頻擴散模型是通用視頻編輯器,效果驚艷!

    可以看到,視頻編輯圖像編輯更加具有挑戰(zhàn)性,它需要合成新的動作,而不僅僅是修改視覺外觀。此外還需要保持時間上的一致性。因此,將 SDEdit、Prompt-to-Prompt 等圖像級別的編輯
    的頭像 發(fā)表于 02-09 11:21 ?1569次閱讀

    AI圖像編輯技術(shù)DragGAN開源,拖動鼠標即可改變?nèi)宋镄θ?/a>

    DragGAN是一個直觀的圖像編輯工具PM系統(tǒng)(www.multiable.com.cn),用戶只需要控制圖像中的像素點和方向,就可以快速調(diào)整照片主體的位置、姿態(tài)、表情、大小和角度等。
    的頭像 發(fā)表于 06-29 10:34 ?951次閱讀

    生成式 AI 研究通過引導(dǎo)式圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

    新的研究正在通過一個文本引導(dǎo)的圖像編輯工具來提升生成式 AI 的創(chuàng)造性潛能。這項創(chuàng)新性的研究提出了一個使用即插即用擴散特征(PnP DFs)的框架,可引導(dǎo)實現(xiàn)逼真而精確的圖像生成。通過
    的頭像 發(fā)表于 07-24 19:30 ?578次閱讀

    伯克利AI實驗室開源圖像編輯模型InstructPix2Pix,簡化生成圖像編輯并提供一致結(jié)果

    之前的 AI 圖像編輯能力通常是進行風格轉(zhuǎn)換,流行的文本到圖像生成模型(如 DALL-E 和 Stable Diffusion)也支持圖像圖像風格轉(zhuǎn)換操作。然而,使用這些模型進行有針
    的頭像 發(fā)表于 08-28 15:45 ?872次閱讀
    伯克利AI實驗室開源<b class='flag-5'>圖像編輯</b>模型InstructPix2Pix,簡化生成<b class='flag-5'>圖像編輯</b>并提供一致結(jié)果

    來看看他們用代碼寫的“三行詩”

    往期精選 原文標題:來看看他們用代碼寫的“三行詩” 文章出處:【微信公眾號:宏景智駕】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
    的頭像 發(fā)表于 10-25 15:55 ?423次閱讀
    來看看他們用<b class='flag-5'>代碼</b>寫的“<b class='flag-5'>三行</b>詩”

    Sweetviz: 讓你三行代碼實現(xiàn)探索性數(shù)據(jù)分析

    Sweetviz是一個開源Python庫,它只需三行代碼就可以生成漂亮的高精度可視化效果來啟動EDA(探索性數(shù)據(jù)分析)。輸出一個HTML。 它不僅能根據(jù)性別、年齡等不同欄目縱向分析數(shù)據(jù),還能對每個
    的頭像 發(fā)表于 10-31 10:28 ?957次閱讀
    Sweetviz: 讓你<b class='flag-5'>三行</b><b class='flag-5'>代碼</b>實現(xiàn)探索性數(shù)據(jù)分析

    放下你的PhotoShop!無限圖像編輯已開源!

    我們知道擴散模型生成圖像是通過反轉(zhuǎn)采樣來進行的,重點是識別噪聲。LEDITS++從DDPM反演中提取特征,并提出一種有效的反演方法,大大減少所需的步驟,同時降低重建誤差。當將反向擴散過程公式化為SDE時
    的頭像 發(fā)表于 12-10 10:09 ?929次閱讀
    放下你的PhotoShop!無限<b class='flag-5'>圖像編輯</b>已開源!

    字節(jié)發(fā)布SeedEdit圖像編輯模型

    近日,字節(jié)跳動公司在其豆包大模型團隊的官方網(wǎng)站上,正式公布了其最新的通用圖像編輯模型——SeedEdit。這款創(chuàng)新性的圖像編輯模型,為用戶提供了前所未有的便捷圖像編輯體驗。 據(jù)官方介紹
    的頭像 發(fā)表于 11-12 10:43 ?285次閱讀
    主站蜘蛛池模板: 美国bj69video18| 午夜性爽快| 看片午夜| 色偷偷免费视频| 亚洲欧美日韩国产一区二区三区精品| 中国一级黄色毛片| 免费黄色大片视频| 狼色网| 亚洲一区二区三区免费观看| 国产亚洲美女精品久久久2020| 国产精品午夜免费观看网站| а中文在线天堂| 亚洲视频一区在线观看| 最新合集丨新片速递| 五月婷婷六月爱| 欧美在线视频一区二区三区| 咪咪爱毛片| 奇米久草| 九色欧美| 好男人社区www的视频免费| 国产理论| 天天草天天射| 国产精品久久久久久久午夜片| 在线观看h视频| 美女写真mm爽爽爽| 婷婷色激情| 噜色| 亚洲第一区视频在线观看| 久操综合| 日本口工禁漫画无遮挡全彩| 亚洲乱论| 开心综合网| 久久噜噜噜久久亚洲va久| 成 人 色综合| 好吊色7777sao在线视频观看| 一区二区三区四区在线| 婷婷综合久久狠狠色99h| 久久免费视频精品| 天天干夜操| 永久免费av网站| 四虎一区二区三区精品|