據(jù)報道,OpenAI近期推出的文本生成視頻模型Sora可以根據(jù)用戶給出的提示詞,生成真實有力的視頻內(nèi)容。然而,根據(jù)網(wǎng)友所述,Sora在生成1分鐘視頻時,所需渲染時間超過1小時。
根據(jù)Reddit社區(qū)網(wǎng)友的反映,研究人員僅展示了預(yù)設(shè)的示例,并不允許廣大用戶使用自定義提示詞;觀賞到的最長的演示視頻也只有短短17秒。此外,有不少人推測了渲染時間過長可能隱藏的原因,其中一名用戶也提到了OpenAI首席執(zhí)行官山姆-阿爾特曼曾提到過的巨額資金需求。
其中一名用戶理性分析道:“制作90分鐘的影片,往往需要90多個小時的拍攝時間??紤]到典型的動畫制作工作時間計算,Sora的渲染時間也并非不可思議。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
相關(guān)推薦
OpenAI近日宣布,目前暫無推出其視頻生成模型Sora的應(yīng)用程序接口(API)的計劃。Sora模型
發(fā)表于 12-20 14:23
?159次閱讀
近日,備受期待的OpenAI再次推出了其創(chuàng)新之作——AI視頻生成模型Sora。這一新品的發(fā)布,無疑為AI技術(shù)注入了新的活力。 據(jù)悉,
發(fā)表于 12-12 09:40
?210次閱讀
OpenAI近日宣布,其傾力打造的人工智能視頻生成系統(tǒng)Sora已正式向美國及其他市場的ChatGPT Plus訂閱用戶開放。自去年首次公開預(yù)覽以來,Sora歷經(jīng)約10個月的精心研發(fā)與優(yōu)
發(fā)表于 12-10 11:16
?346次閱讀
美國當?shù)?b class='flag-5'>時間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并
發(fā)表于 02-22 16:42
?1191次閱讀
近日,美國人工智能公司OpenAI發(fā)布了首個視頻生成模型Sora。不同于此前許多AI大模型文生圖
發(fā)表于 02-22 16:37
?1106次閱讀
美國當?shù)?b class='flag-5'>時間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并
發(fā)表于 02-21 16:45
?1294次閱讀
sora系列是哪個公司的 Sora,美國人工智能研究公司OpenAI發(fā)布的人工智能文生視頻大模型
發(fā)表于 02-21 16:35
?4504次閱讀
近日,OpenAI發(fā)布了一款名為Sora的新模型,其強大的視頻生成能力迅速引發(fā)了全球關(guān)注。這款
發(fā)表于 02-20 14:06
?628次閱讀
近日,人工智能領(lǐng)域的領(lǐng)軍企業(yè)OpenAI發(fā)布了一款名為“Sora”的視頻生成AI模型,再次展示了其在AI技術(shù)領(lǐng)域的創(chuàng)新實力。
發(fā)表于 02-20 13:33
?838次閱讀
OpenAI的Sora現(xiàn)已擴展其能力范圍,進入視頻生成領(lǐng)域,標志著人工智能技術(shù)在多媒體內(nèi)容創(chuàng)作上的一個重大突破。Sora的視頻AI功能使得用
發(fā)表于 02-20 12:01
?1464次閱讀
近日,OpenAI在AI生成視頻領(lǐng)域取得重大突破,發(fā)布了全新的生成式人工智能模型“
發(fā)表于 02-20 11:46
?832次閱讀
此前,兩家科技巨頭分別推出自家創(chuàng)新技術(shù): Google Gemini 1.5 Pro與OpenAI文本視頻轉(zhuǎn)換工具Sora。Sora的
發(fā)表于 02-19 14:18
?596次閱讀
在人工智能(AI)領(lǐng)域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款被業(yè)界廣泛贊譽的模型,以其“逼真”和“
發(fā)表于 02-19 11:03
?972次閱讀
奧特曼發(fā)布王炸模型Sora OpenAI首個文生視頻模型So
發(fā)表于 02-18 17:41
?1002次閱讀
OpenAI近日宣布推出其全新的文本到視頻生成模型——Sora。這一突破性的技術(shù)將視頻創(chuàng)作帶入了
發(fā)表于 02-18 10:07
?1082次閱讀
評論