在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌研究人員利用3D卷積網(wǎng)絡打造視頻生成新系統(tǒng)

DPVg_AI_era ? 來源:lq ? 2019-06-02 09:30 ? 次閱讀

谷歌研究人員利用3D卷積網(wǎng)絡打造視頻生成新系統(tǒng),只需要視頻的第一幀和最后一幀,就能生成完整合理的整段視頻,是不是很神奇?

漫畫書秒變動畫片了解一下?

想象一下,現(xiàn)在你的手中有一段視頻的第一幀和最后一幀圖像,讓你負責把中間的圖像填進去,生成完整的視頻,從現(xiàn)有的有限信息中推斷出整個視頻。你能做到嗎?

這可能聽起來像是一項不可能完成的任務,但谷歌人工智能研究部門的研究人員已經(jīng)開發(fā)出一種新系統(tǒng),可以由視頻第一幀和最后一幀生成“似是而非的”視頻序列,這個過程被稱為“inbetween”。

“想象一下,如果我們能夠教一個智能系統(tǒng)來將漫畫自動變成動畫,會是什么樣子?如果真實現(xiàn)了這一點,無疑將徹底改變動畫產(chǎn)業(yè)?!霸撜撐牡墓餐髡邔懙??!半m然這種極其節(jié)省勞動力的能力仍然超出目前最先進的水平,但計算機視覺機器學習技術(shù)的進步正在使這個目標的實現(xiàn)越來越接近?!?/p>

原理與模型結(jié)構(gòu)

這套AI系統(tǒng)包括一個完全卷積模型,這是是受動物視覺皮層啟發(fā)打造的深度神經(jīng)網(wǎng)絡,最常用于分析視覺圖像。它由三個部分組成:2D卷積圖像解碼器,3D卷積潛在表示生成器,以及視頻生成器。

圖1:視頻生成模型示意圖

圖像解碼器將來自目標視頻的幀映射到潛在空間,潛在表示生成器學習對包含在輸入幀中的信息進行合并。最后,視頻生成器將潛在表示解碼為視頻中的幀。

研究人員表示,將潛在表示生成與視頻解碼分離對于成功實現(xiàn)中間視頻至關重要,直接用開始幀和結(jié)束幀的編碼表示生成視頻的結(jié)果很差。為了解決這個問題,研究人員設計了潛在表示生成器,對幀的表示進行融合,并逐步增加生成視頻的分辨率。

圖2:模型生成的視頻幀序列圖,對于每個數(shù)據(jù)集上方的圖表示模型生成的序列,下方為原視頻,其中首幀和尾幀用于生成模型的采樣。

實驗結(jié)果

為了驗證該方法,研究人員從三個數(shù)據(jù)集中獲取視頻 - BAIR機器人推送,KTH動作數(shù)據(jù)庫和UCF101動作識別數(shù)據(jù)集 - 并將這些數(shù)據(jù)下采樣至64 x 64像素的分辨率。每個樣本總共包含16幀,其中的14幀由AI系統(tǒng)負責生成。

研究人員為每對視頻幀運行100次模型,并對每個模型變量和數(shù)據(jù)集重復10次,在英偉達Tesla V100顯卡平臺上的訓練時間約為5天。結(jié)果如下表所示:

表1:我們報告了完整模型和兩個基線的平均FVD,對每個模型和數(shù)據(jù)集重復10次,每次運行100個epoch,表中FVD值越低,表示對應生成視頻的質(zhì)量越高。

表2:使用直接3D卷積和基于的替代方法的模型的平均SSIM

RNN(SDVI)或光流(SepConv和SuperSloMo),數(shù)值越高越好。

研究人員表示,AI生成的視頻幀序列在風格上與給定的起始幀和結(jié)束幀保持一致,而且看上去說得通?!傲钊梭@喜的是,這種方法可以在如此長的時間段內(nèi)實現(xiàn)視頻生成,”該團隊表示,“這可能給未來的視頻生成技術(shù)研究提供了一個有用的替代視角。”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關注

    關注

    9

    文章

    1147

    瀏覽量

    40912
  • 谷歌
    +關注

    關注

    27

    文章

    6192

    瀏覽量

    105928
  • 智能系統(tǒng)

    關注

    2

    文章

    399

    瀏覽量

    72592

原文標題:谷歌AI動畫接龍:只用頭尾兩幀圖像,片刻生成完整視頻!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    阿里云通義萬相2.1視頻生成模型震撼發(fā)布

    近日,阿里云旗下的通義萬相迎來了重要升級,正式推出了全新的萬相2.1視頻生成模型。這一創(chuàng)新成果標志著阿里云在視頻生成技術(shù)領域的又一次重大突破。 據(jù)悉,萬相2.1視頻生成模型在多個方面實現(xiàn)了顯著提升
    的頭像 發(fā)表于 01-13 10:00 ?219次閱讀

    OpenAI開放Sora視頻生成模型

    OpenAI近日宣布,其傾力打造的人工智能視頻生成系統(tǒng)Sora已正式向美國及其他市場的ChatGPT Plus訂閱用戶開放。自去年首次公開預覽以來,Sora歷經(jīng)約10個月的精心研發(fā)與優(yōu)化,現(xiàn)已全面
    的頭像 發(fā)表于 12-10 11:16 ?379次閱讀

    火山引擎推出豆包·視頻生成模型

    在近期舉辦的2024火山引擎AI創(chuàng)新巡展上,火山引擎總裁譚待隆重推出了豆包·視頻生成模型,這一舉措標志著火山引擎在視頻內(nèi)容生成領域邁出了重要一步。豆包模型憑借其獨特的技術(shù)優(yōu)勢,吸引了業(yè)界的廣泛關注。
    的頭像 發(fā)表于 09-25 14:11 ?360次閱讀

    歡創(chuàng)播報 騰訊元寶首發(fā)3D生成應用

    1 騰訊元寶首發(fā)3D生成應用 只需一張照片,便能迅速打造獨一無二的3D角色。7月16日,騰訊旗下大模型應用“騰訊元寶”上線了“3D角色夢工廠
    的頭像 發(fā)表于 07-18 11:39 ?815次閱讀
    歡創(chuàng)播報 騰訊元寶首發(fā)<b class='flag-5'>3D</b><b class='flag-5'>生成</b>應用

    奧比中光3D相機打造高質(zhì)量、低成本的3D動作捕捉與3D動畫內(nèi)容生成方案

    ? 在過去幾十年里,動作捕捉(MoCap)技術(shù)經(jīng)歷了顯著的發(fā)展,廣泛被應用于電影、游戲、虛擬現(xiàn)實、醫(yī)療等多個領域。近期,奧比中光合作客戶Moverse使用Orbbec Femto系列3D相機,打造
    的頭像 發(fā)表于 06-25 16:37 ?1134次閱讀

    Runway發(fā)布Gen-3 Alpha視頻生成模型

    專為電影和圖像內(nèi)容創(chuàng)作者提供生成式AI工具的Runway公司近日宣布,其最新的Gen-3 Alpha視頻生成模型已經(jīng)正式問世。這款模型在多方面均取得了顯著的進步,為創(chuàng)作者們帶來了前所未有的便利和可能性。
    的頭像 發(fā)表于 06-19 09:25 ?617次閱讀

    谷歌發(fā)布全新視頻生成模型Veo與Imagen文生圖模型

    谷歌近日宣布了兩項重大技術(shù)進展,首先是視頻生成模型Veo的正式推出。這款先進的模型能夠支持生成質(zhì)量更高的視頻內(nèi)容,讓用戶能夠根據(jù)自己的需求設定光照、鏡頭語言、
    的頭像 發(fā)表于 05-16 10:46 ?429次閱讀

    阿里云視頻生成技術(shù)創(chuàng)新!視頻生成使用了哪些AI技術(shù)和算法

    照片就能讓 EMO 合成演戲唱歌視頻。 ? 阿里云在視頻生成領域的創(chuàng)新 ? EMO(Emote Portrait Alive)是一個由阿里巴巴集團智能計算研究院開發(fā)的框架,一個音頻驅(qū)動的 AI 肖像
    的頭像 發(fā)表于 05-08 00:07 ?3448次閱讀

    NVIDIA生成式AI研究實現(xiàn)在1秒內(nèi)生成3D形狀

    NVIDIA 研究人員使 LATTE3D (一款最新文本轉(zhuǎn) 3D 生成式 AI 模型)實現(xiàn)雙倍加速。
    的頭像 發(fā)表于 03-27 10:28 ?547次閱讀
    NVIDIA<b class='flag-5'>生成</b>式AI<b class='flag-5'>研究</b>實現(xiàn)在1秒內(nèi)<b class='flag-5'>生成</b><b class='flag-5'>3D</b>形狀

    Stability AI推出Stable Video 3D模型,可制作多視角3D視頻

    SV3D_u是Stable Video 3D的一個版本,僅需單幅圖片即可生成運動軌跡視頻,無須進行相機調(diào)整。擴充版本的SV3D_p加入了軌道
    的頭像 發(fā)表于 03-21 14:57 ?1086次閱讀

    新火種AI|圍攻光明頂:Sora效應下的AI視頻生成競賽

    Sora的出現(xiàn),讓AI視頻生成領域真正“活”了起來
    的頭像 發(fā)表于 03-16 11:12 ?678次閱讀

    openai發(fā)布首個視頻生成模型sora

    美國當?shù)貢r間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并發(fā)布了48個文生視頻案例和技術(shù)報告 ,正式入局視頻生成領域 。Sora能夠根據(jù)提示詞生成60s的連貫
    的頭像 發(fā)表于 02-21 16:45 ?1357次閱讀

    AI視頻年大爆發(fā)!2023年AI視頻生成領域的現(xiàn)狀全盤點

    2023年,也是AI視頻元年。過去一年究竟有哪些爆款應用誕生,未來視頻生成領域面臨的難題還有哪些?
    的頭像 發(fā)表于 02-20 10:40 ?1366次閱讀
    AI<b class='flag-5'>視頻</b>年大爆發(fā)!2023年AI<b class='flag-5'>視頻生成</b>領域的現(xiàn)狀全盤點

    OpenAI發(fā)布文生視頻模型Sora,引領AI視頻生成新紀元

    在人工智能(AI)領域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款被業(yè)界廣泛贊譽的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統(tǒng)視頻生成領域的局限,將平均
    的頭像 發(fā)表于 02-19 11:03 ?1011次閱讀

    OpenAI發(fā)布首個視頻生成模型Sora

    OpenAI近日宣布推出其全新的文本到視頻生成模型——Sora。這一突破性的技術(shù)將視頻創(chuàng)作帶入了一個全新的紀元,為用戶提供了前所未有的創(chuàng)作可能性。
    的頭像 發(fā)表于 02-18 10:07 ?1113次閱讀
    主站蜘蛛池模板: 2021韩国理论片ok电影天堂 | 五月激情五月婷婷 | 欧美性猛交ⅹxxx乱大交免费 | 欧美影欧美影院免费观看视频 | 五月天婷婷视频在线观看 | 国产女人和拘做受视频免费 | 人人爽天天碰天天躁夜夜躁 | 亚洲αv久久久噜噜噜噜噜 亚洲аv电影天堂网 | 五月婷婷综合激情网 | 日本黄色一级大片 | 噜噜噜噜噜久久久久久91 | 天堂网www天堂在线网 | 91在线免费看 | 大伊人网 | 一二三区视频 | 一级毛片 在线播放 | 国内精品久久久久影 | 97色涩 | 月夜免费观看完整视频 | 最新国产精品视频免费看 | 在线视频午夜 | 男人的天堂97 | 黄色小视频日本 | 亚洲综合色丁香婷婷六月图片 | 国内精品一区二区在线观看 | 神马午夜影视 | 免费观看成人欧美1314www | 狠狠色丁香久久婷婷综合丁香 | 久久免费香蕉视频 | 黄色午夜视频 | 成年人网站免费观看 | 一区二区三区四区五区 | 视色4se在线视频播放 | 人与禽交免费网站视频 | 大又大又粗又爽女人毛片 | 国产香蕉在线视频 | 夜夜艹| 国产99在线播放免费 | 啊用力太猛了啊好深视频免费 | 91大神视频在线播放 | 日韩欧美在线中文字幕 |