英偉達曾經發布過一段視頻,演示了通過人工智能如何將一段普通視頻轉化為平滑自然的慢動作視頻,效果就像是電影上展示的慢動作特效,觀眾可以清楚看到一系列連續的慢動作。那么這個特效是怎樣實現的呢?就讓我們一探其背后的技術支撐。
慢動作,沒你相像的那么簡單
相信大家在各種影視作品中都看到過慢動作特效,比如在剛剛結束的世界杯就有許多球員進球,射門,身體接觸的慢動作回放,通過VAR逐幀回看,這些慢動作可以清晰看到一瞬間發生的事情(圖1)。
對于電影里的慢動作特效,實際上是借助設備進行高速攝影,比如拍攝速度達到50幀/秒、100幀/秒甚至更高,然后在回放時候仍然選擇24幀/秒常規速度播放,這就相當于把實際1秒鐘拍攝的圖像用2秒多到4秒多時間回放,從而實現慢動作效果。
當然對于普通用戶來說,我們沒有高速攝影設備,那么怎么實現慢動作效果?英偉達近日推出基于cuDNN 加速的PyTorch 深度學習框架實現任意視頻慢動作,通過這個這個人工智能框架,結合NVIDIA Tesla V100 GPU強大處理能力,它可以將任意一段視頻拉長,從而實現類似電影特效里的慢動作(圖2)。
圖2 英偉達演示網球拍擊打有顏色的墨水瞬間
視頻拉長的背后——人工智能慢動作技術
通過上面介紹我們知道,常規的慢動作是將高速攝影的視頻低速播放實現。那么對于普通的視頻(已經是低速攝影成品了),英偉達又是怎樣實現慢動作效果的呢?
慢動作的核心是將原來的視頻拉長而實現慢速效果,但是如果將普通的視頻直接使用低速效果播放,實際效果則會變為卡頓、幀與幀之間動作變得不連貫。因此將普通的視頻拉長后還要實現平滑的慢動作效果,此時就需要對視頻物體進行定位和補幀。
比如一段汽車漂移的視頻,如果要實現漂移的慢動作演示,我們首先需要對視頻中的汽車進行定位,只有對汽車進行準確定位后,比如精確定位汽車每一秒的漂移位置,這樣才可以對汽車后續整個漂移動作進行全程的展示(圖3)。
圖3 漂移汽車
實現對展示物體的定位后,因為展示的是慢動作效果,我們還需要對視頻進行補幀。因為原來視頻本身就是低速攝影拍攝的,現在將視頻拉長后,為了讓拉長的視頻不出現卡頓(掉幀),此時就需要進行精確的補幀,使得視頻拉長后播放仍然非常順滑(圖4)。
圖4 英偉達展示舞蹈演員跳舞的慢動作視頻
這樣通過視頻定位和補幀,英偉達的人工智能框架技術就實現將任意視頻慢動作化。那么這樣的效果是怎樣實現?
英偉達的這項技術是借助NVIDIA Tesla V100 GPU強大視頻處理能力+人工智能學習框架實現的。英偉達搭建好人工智能學習框架后,通過預先準備的約1.1萬段的視頻素材作為數據源給人工智能進行學習,讓它從這些視頻素材中學習定位和補幀。比如上述跳舞視頻,人工智能技術可以對視頻中的舞者進行定位,并且可以對舞者每一幀動作進行學習,知道下一幀的人物是怎樣的狀態顯示。這樣通過一定的算法和學習模型,并且通過人工智能的深度學習和自我學習,這個人工智能框架就可以對其他視頻進行同樣的定位和分解,從而通過完美的定位和補幀技術,實現將普通視頻慢動作化(圖5)。
圖5 英偉達展示人從高空跳下壓破氣球瞬間慢動作
當然不僅僅是視頻慢動作,借助新的訓練方式,讓人工智能可以從已有的圖像中,生成新的圖像,甚至可以利用不同的人像,生成新的肖像。比如類似影片中的換臉特效。英偉達的人工智能框架可以精準的實現人物從一個人臉無縫轉換到另一個人臉的特效(圖6)。
圖6 英偉達展示變臉特效
慢動作,帶給我們生活更多樂趣
通過上面的展示,我們見識到了英偉達人工智能框架在視頻處理方面的強大功能。這個技術的出現可以給我們生活帶來很多的樂趣。
隨著手機的普及,我們使用手機來拍攝短視頻,對于那些稍縱即逝的畫面,我們總想看清楚整個過程。比如喜歡跳廣場舞的老媽,對于隊友,教練的快舞節奏總是看不清楚整個動作,現在只要使用手機拍攝,然后借助英偉達這個技術轉化,舞者再快的動作都可以變慢,讓老媽仔細看清楚每個舞蹈的動作。
比如英偉達的變臉技術則可以讓我們再手機上制作出更多的搞笑視頻,比如將舍友變成可愛的貓咪,然后通過微信、朋友圈和好友共享。當然這些技術也可以讓我們視頻處理變得更為簡單,比如剪輯鋼琴老師彈琴動作,方便我們學習指法,剪輯球員射門視頻,讓我們慢慢享受射門樂趣!
-
gpu
+關注
關注
28文章
4754瀏覽量
129105 -
人工智能
+關注
關注
1792文章
47458瀏覽量
239113 -
VaR
+關注
關注
0文章
39瀏覽量
11360 -
英偉達
+關注
關注
22文章
3805瀏覽量
91417 -
深度學習
+關注
關注
73文章
5508瀏覽量
121320
發布評論請先 登錄
相關推薦
評論