在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何改進(jìn)和加速擴散模型采樣的方法1

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-05-07 14:25 ? 次閱讀

這是一系列關(guān)于 NVIDIA 研究人員如何改進(jìn)和加速擴散模型采樣的方法的一部分,擴散模型是一種新穎而強大的生成模型。 Part 2 介紹了克服擴散模型中緩慢采樣挑戰(zhàn)的三種新技術(shù)。

生成模型是一類機器學(xué)習(xí)方法,它可以學(xué)習(xí)所訓(xùn)練數(shù)據(jù)的表示形式,并對數(shù)據(jù)本身進(jìn)行建模。它們通常基于深層神經(jīng)網(wǎng)絡(luò)。相比之下,判別模型通常預(yù)測給定數(shù)據(jù)的單獨數(shù)量。

生成模型允許您合成與真實數(shù)據(jù)不同但看起來同樣真實的新數(shù)據(jù)。設(shè)計師可以在汽車圖像上訓(xùn)練生成性模型,然后讓生成性人工智能計算出具有不同外觀的新穎汽車,從而加速藝術(shù)原型制作過程。

深度生成學(xué)習(xí)已成為機器學(xué)習(xí)領(lǐng)域的一個重要研究領(lǐng)域,并有許多相關(guān)應(yīng)用。生成模型廣泛用于圖像合成和各種圖像處理任務(wù),如編輯、修復(fù)、著色、去模糊和超分辨率。

生成性模型有可能簡化攝影師和數(shù)字藝術(shù)家的工作流程,并實現(xiàn)新水平的創(chuàng)造力。類似地,它們可能允許內(nèi)容創(chuàng)建者高效地為游戲、動畫電影或 metaverse 生成虛擬 3D 內(nèi)容。

基于深度學(xué)習(xí)的語音和語言合成已經(jīng)進(jìn)入消費品領(lǐng)域。醫(yī)學(xué)和醫(yī)療保健等領(lǐng)域也可能受益于生成性模型,例如生成對抗疾病的分子候選藥物的方法。

當(dāng)神經(jīng)網(wǎng)絡(luò)被用于不同的生成性學(xué)習(xí)任務(wù)時,尤其是對于不同的生成性學(xué)習(xí)任務(wù),神經(jīng)網(wǎng)絡(luò)和神經(jīng)網(wǎng)絡(luò)也可以被用于合成。

生成性學(xué)習(xí)三位一體

為了在實際應(yīng)用中得到廣泛采用,生成模型在理想情況下應(yīng)滿足以下關(guān)鍵要求:

High-quality sampling :許多應(yīng)用程序,尤其是那些直接與用戶交互的應(yīng)用程序,需要高生成質(zhì)量。例如,在語音生成中,語音質(zhì)量差是很難理解的。類似地,在圖像建模中,期望的輸出在視覺上與自然圖像無法區(qū)分。

模式覆蓋和樣本多樣性 :如果訓(xùn)練數(shù)據(jù)包含復(fù)雜或大量的多樣性,一個好的生成模型應(yīng)該在不犧牲生成質(zhì)量的情況下成功捕獲這種多樣性。

快速且計算成本低廉的采樣 :許多交互式應(yīng)用程序需要快速生成,例如實時圖像編輯。

雖然目前大多數(shù)深層生成性學(xué)習(xí)方法都注重高質(zhì)量的生成,但第二和第三個要求也非常重要。

忠實地表示數(shù)據(jù)的多樣性對于避免數(shù)據(jù)分布中遺漏少數(shù)模式至關(guān)重要。這有助于減少學(xué)習(xí)模型中不希望出現(xiàn)的偏差。

另一方面,在許多應(yīng)用程序中,數(shù)據(jù)分布的長尾巴特別有趣。例如,在交通建模中,人們感興趣的正是罕見的場景,即與危險駕駛或事故相對應(yīng)的場景。

降低計算復(fù)雜度和采樣時間不僅可以實現(xiàn)交互式實時應(yīng)用。它還通過降低發(fā)電所需的總功率使用量,減少了運行昂貴的深層神經(jīng)網(wǎng)絡(luò)(發(fā)電模型的基礎(chǔ))所造成的環(huán)境足跡。

在本文中,我們將這三個需求帶來的挑戰(zhàn)定義為 生成性學(xué)習(xí)三位一體 ,因為現(xiàn)有方法通常會做出權(quán)衡,無法同時滿足所有需求。

pYYBAGJ2ENyAeWg5AAEcsXtThOM930.png

圖 1 生成性學(xué)習(xí)三位一體

基于擴散模型的生成性學(xué)習(xí)

最近,擴散模型已經(jīng)成為一種強大的生成性學(xué)習(xí)方法。這些模型,也被稱為去噪擴散模型或基于分?jǐn)?shù)的生成模型,表現(xiàn)出驚人的高樣本質(zhì)量,通常優(yōu)于生成性對抗網(wǎng)絡(luò)。它們還具有強大的模式覆蓋和樣本多樣性。

擴散模型已經(jīng)應(yīng)用于各種生成任務(wù),如圖像、語音、三維形狀和圖形合成。

擴散模型包括兩個過程:正向擴散和參數(shù)化反向擴散。

前向擴散過程通過逐漸擾動輸入數(shù)據(jù)將數(shù)據(jù)映射為噪聲。這是通過一個簡單的隨機過程正式實現(xiàn)的,該過程從數(shù)據(jù)樣本開始,使用簡單的高斯擴散核迭代生成噪聲較大的樣本。也就是說,在這個過程的每一步,高斯噪聲都會逐漸添加到數(shù)據(jù)中。

第二個過程是一個參數(shù)化的反向過程,取消正向擴散并執(zhí)行迭代去噪。這個過程代表數(shù)據(jù)合成,并經(jīng)過訓(xùn)練,通過將隨機噪聲轉(zhuǎn)換為真實數(shù)據(jù)來生成數(shù)據(jù)。它也被正式定義為一個隨機過程,使用可訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)對輸入圖像進(jìn)行迭代去噪。

正向和反向過程通常使用數(shù)千個步驟來逐步注入噪聲,并在生成過程中進(jìn)行去噪。

poYBAGJ2EN2AMQOEAAEBEFupDWg453.png

圖 2 擴散模型處理數(shù)據(jù)和噪聲之間的移動

圖 2 顯示,在擴散模型中,固定前向過程以逐步方式逐漸擾動數(shù)據(jù),使其接近完全隨機噪聲。學(xué)習(xí)一個參數(shù)化的反向過程來執(zhí)行迭代去噪,并從噪聲中生成數(shù)據(jù),如圖像。

在形式上,通過x0表示一個數(shù)據(jù)點,例如圖像,通過xt表示時間步長t的擴散版本,正向過程由以下公式定義:

雖然離散時間擴散模型和連續(xù)時間擴散模型看起來可能不同,但它們有一個幾乎相同的生成過程。事實上,很容易證明離散時間擴散模型是連續(xù)時間模型的特殊離散化。

在實踐中使用連續(xù)時間擴散模型基本上要容易得多:

它們更通用,可以通過簡單的時間離散化轉(zhuǎn)換為離散時間模型。

它們是用 SDE 描述的, SDE 在各個科學(xué)領(lǐng)域都得到了很好的研究。

生成性 SDE 可以使用現(xiàn)成的數(shù)值 SDE 解算器進(jìn)行求解。

它們可以轉(zhuǎn)換為相關(guān)的常微分方程( ODE ),這些方程也得到了很好的研究,并且易于使用。

如前所述,擴散模型通過遵循反向擴散過程生成樣本,該過程將簡單的基本分布(通常為高斯分布)映射到復(fù)雜的數(shù)據(jù)分布。在生成 SDE 表示的連續(xù)時間擴散模型中,由于神經(jīng)網(wǎng)絡(luò)逼近分?jǐn)?shù)函數(shù)

latex.php?latex=%5Cnabla_%7Bx_%7Bt%7D%7D%5Clog+p_%7Bt%7D%28x_%7Bt%7D%29&bg=ffffff&fg=000&s=0&c=20201002

,這種映射通常很復(fù)雜。

用數(shù)值積分技術(shù)解決這個問題需要調(diào)用 1000 次深層神經(jīng)網(wǎng)絡(luò)來生成樣本。正因為如此,擴散模型在生成樣本時通常很慢,需要幾分鐘甚至幾小時的計算時間。這與生成性對抗網(wǎng)絡(luò)( GANs )等競爭性技術(shù)形成了鮮明對比,后者只需對神經(jīng)網(wǎng)絡(luò)進(jìn)行一次調(diào)用即可生成樣本。

總結(jié)

盡管擴散模型實現(xiàn)了較高的樣本質(zhì)量和多樣性,但不幸的是,它們在采樣速度方面存在不足。這限制了擴散模型在實際應(yīng)用中的廣泛采用,并導(dǎo)致了從這些模型加速采樣的研究領(lǐng)域的活躍。在 Part 2 中,我們回顧了 NVIDIA 為克服擴散模型的主要局限性而開發(fā)的三種技術(shù)。

關(guān)于作者

Arash Vahdat 是 NVIDIA research 的首席研究科學(xué)家,專攻計算機視覺和機器學(xué)習(xí)。在加入 NVIDIA 之前,他是 D-Wave 系統(tǒng)公司的研究科學(xué)家,從事深度生成學(xué)習(xí)和弱監(jiān)督學(xué)習(xí)。在 D-Wave 之前,阿拉什是西蒙·弗雷澤大學(xué)( Simon Fraser University , SFU )的一名研究人員,他領(lǐng)導(dǎo)了深度視頻分析的研究,并教授大數(shù)據(jù)機器學(xué)習(xí)的研究生課程。阿拉什在格雷格·莫里( Greg Mori )的指導(dǎo)下獲得了 SFU 的博士和理學(xué)碩士學(xué)位,致力于視覺分析的潛變量框架。他目前的研究領(lǐng)域包括深層生成學(xué)習(xí)、表征學(xué)習(xí)、高效神經(jīng)網(wǎng)絡(luò)和概率深層學(xué)習(xí)。

Karsten Kreis 是 NVIDIA 多倫多人工智能實驗室的高級研究科學(xué)家。在加入 NVIDIA 之前,他在 D-Wave Systems 從事深度生成建模工作,并與他人共同創(chuàng)立了變分人工智能,這是一家利用生成模型進(jìn)行藥物發(fā)現(xiàn)的初創(chuàng)公司。卡斯滕在馬克斯·普朗克光科學(xué)研究所獲得量子信息理論理學(xué)碩士學(xué)位,并在馬克斯·普朗克聚合物研究所獲得計算和統(tǒng)計物理博士學(xué)位。目前,卡斯滕的研究重點是開發(fā)新的生成性學(xué)習(xí)方法,以及將深層生成模型應(yīng)用于計算機視覺、圖形和數(shù)字藝術(shù)等領(lǐng)域的問題。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4991

    瀏覽量

    103137
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47336

    瀏覽量

    238696
收藏 人收藏

    評論

    相關(guān)推薦

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    。 多模態(tài)融合的創(chuàng)新與突破 機器人控制技術(shù)的另一個重要突破在于多模態(tài)大模型的應(yīng)用。相比于僅通過文字進(jìn)行人機交互的傳統(tǒng)方法,現(xiàn)代機器人能夠融合視覺、聲音、定位等多模態(tài)輸入信息,為任務(wù)執(zhí)行提供更加全面的感知
    發(fā)表于 12-29 23:04

    淺談加密芯片的一種破解方法和加密方案改進(jìn)設(shè)計

    為了增加加密方案可靠度,設(shè)計成讓主MCU的芯片序列號ID1、產(chǎn)生的隨機數(shù)R1和加密芯片的芯片序列號ID2、產(chǎn)生的隨機數(shù)R2參與計算臨時過程秘鑰,加密芯片使用秘鑰Key對(ID1⊕RAN
    發(fā)表于 12-20 15:10

    浙大、微信提出精確反演采樣器新范式,徹底解決擴散模型反演問題

    隨著擴散生成模型的發(fā)展,人工智能步入了屬于?AIGC?的新紀(jì)元。擴散生成模型可以對初始高斯噪聲進(jìn)行逐步去噪而得到高質(zhì)量的采樣。當(dāng)前,許多應(yīng)用
    的頭像 發(fā)表于 11-27 09:21 ?190次閱讀
    浙大、微信提出精確反演<b class='flag-5'>采樣</b>器新范式,徹底解決<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>反演問題

    PyTorch GPU 加速訓(xùn)練模型方法

    在深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時間的重要手段。PyTorch作為一個流行的深度學(xué)習(xí)框架,提供了豐富的工具和方法來利用GPU進(jìn)行模型訓(xùn)練。
    的頭像 發(fā)表于 11-05 17:43 ?571次閱讀

    擴散模型的理論基礎(chǔ)

    擴散模型的迅速崛起是過去幾年機器學(xué)習(xí)領(lǐng)域最大的發(fā)展之一。在這本簡單易懂的指南中,學(xué)習(xí)你需要知道的關(guān)于擴散模型的一切。
    的頭像 發(fā)表于 10-28 09:30 ?441次閱讀
    <b class='flag-5'>擴散</b><b class='flag-5'>模型</b>的理論基礎(chǔ)

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPG
    的頭像 發(fā)表于 10-25 09:22 ?239次閱讀

    NVIDIA CorrDiff生成式AI模型能夠精準(zhǔn)預(yù)測臺風(fēng)

    在 NVIDIA GPU 上運行的一個擴散模型向天氣預(yù)報工作者展示了加速計算如何實現(xiàn)新的用途并提升能效。
    的頭像 發(fā)表于 09-13 17:13 ?710次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大模型推理
    的頭像 發(fā)表于 07-24 11:38 ?902次閱讀

    深度學(xué)習(xí)模型量化方法

    深度學(xué)習(xí)模型量化是一種重要的模型輕量化技術(shù),旨在通過減少網(wǎng)絡(luò)參數(shù)的比特寬度來減小模型大小和加速推理過程,同時盡量保持模型性能。從而達(dá)到把
    的頭像 發(fā)表于 07-15 11:01 ?498次閱讀
    深度學(xué)習(xí)<b class='flag-5'>模型</b>量化<b class='flag-5'>方法</b>

    python訓(xùn)練出的模型怎么調(diào)用

    在Python中,訓(xùn)練出的模型可以通過多種方式進(jìn)行調(diào)用。 1. 模型保存與加載 在Python中,訓(xùn)練好的模型需要被保存,以便在其他程序或會話中使用。以下是一些常用的
    的頭像 發(fā)表于 07-11 10:15 ?1998次閱讀

    如何加速大語言模型推理

    的主要挑戰(zhàn)。本文將從多個維度深入探討如何加速大語言模型的推理過程,以期為相關(guān)領(lǐng)域的研究者和開發(fā)者提供參考。
    的頭像 發(fā)表于 07-04 17:32 ?548次閱讀

    基于FPGA加速的熱擴散模擬器

    這個項目的目標(biāo)是創(chuàng)建一個交互式的熱擴散模擬器,它使用離散域上的熱方程,允許用戶在VGA屏幕上選擇熱源和熱匯,并在VGA屏幕上實時模擬出隨之產(chǎn)生的反應(yīng)。
    的頭像 發(fā)表于 04-09 11:04 ?667次閱讀
    基于FPGA<b class='flag-5'>加速</b>的熱<b class='flag-5'>擴散</b>模擬器

    谷歌推出AI擴散模型Lumiere

    近日,谷歌研究院重磅推出全新AI擴散模型Lumiere,這款模型基于谷歌自主研發(fā)的“Space-Time U-Net”基礎(chǔ)架構(gòu),旨在實現(xiàn)視頻生成的一次性完成,同時保證視頻的真實性和動作連貫性。
    的頭像 發(fā)表于 02-04 13:49 ?1044次閱讀

    加速度傳感器的基本力學(xué)模型是什么

    和加速度之間的關(guān)系。假設(shè)加速度傳感器的初始位置為xo,速度為vo,加速度為ao。運動學(xué)模型可以根據(jù)傳感器所處的不同運動狀態(tài)而分為直線運動和曲線運動兩種情況。 直線運動 設(shè)時間t時刻傳感
    的頭像 發(fā)表于 01-17 11:08 ?1445次閱讀

    基于DiAD擴散模型的多類異常檢測工作

    現(xiàn)有的基于計算機視覺的工業(yè)異常檢測技術(shù)包括基于特征的、基于重構(gòu)的和基于合成的技術(shù)。最近,擴散模型因其強大的生成能力而聞名,因此本文作者希望通過擴散模型將異常區(qū)域重構(gòu)成正常。
    的頭像 發(fā)表于 01-08 14:55 ?1410次閱讀
    基于DiAD<b class='flag-5'>擴散</b><b class='flag-5'>模型</b>的多類異常檢測工作
    主站蜘蛛池模板: 美女扒开尿口给男人看的让| 亚洲综合一区二区三区| 欧美一级片在线视频| 国产叼嘿网站免费观看不用充会员| 黄网在线免费看| 午夜三级福利| 国产成年女一区二区三区| 免费国产网站| 日本一卡二卡≡卡四卡精品| 亚洲成人一级片| 午夜tv| 国产高清视频在线播放www色| 免费看一毛一级毛片视频| 久久香蕉国产线看观看精品yw| 婷婷社区五月天| 淫欲网| 久久人人澡| 亚洲精品国产美女在线观看| 最新精品| 一区二区网站| 2019天天操天天干天天透| 酒色网址| 毛片大全高清免费| 五月丁五月丁开行停停乱| 国产福利免费观看| 女同在线视频| 天天躁狠狠躁| 五月停停| 成人国产精品2021| 在线视频91| 免费看男女下面日出水视频| 女同性进行性行为视频| 亚洲国产一区二区三区在线观看| 成人欧美网站| 正在播放亚洲一区| 永久免费毛片| 亚洲婷婷影院| 亚洲三级在线视频| 日本大黄在线观看| 男人都懂得网址| 欧美黄三级在线观看|