在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI畫家化身“心靈捕手”,繪制具備情感特征的人物肖像

如意 ? 來源:雷鋒網(wǎng) ? 作者:雷鋒網(wǎng) ? 2020-07-05 09:17 ? 次閱讀

AI在藝術(shù)界表現(xiàn)出越來越驚人的“天賦”

我們知道用AI來繪畫、寫詩、作曲已經(jīng)不是新鮮事。但在藝術(shù)領(lǐng)域,AI在試圖模仿、甚至超越人類的過程中,始終存在一個(gè)難以逾越的瓶頸,就是人類與生而來的創(chuàng)造力。

這也是AI研發(fā)人員聚焦深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)著力攻克的難點(diǎn)之一。

近日,預(yù)印論文庫arXiv上發(fā)表了一項(xiàng)最新研究成果,論文中的AI畫家可以化身“心靈捕手”,通過對(duì)話式溝通感受人類的獨(dú)特品質(zhì)、個(gè)性和情緒,從而繪制具備內(nèi)在情感特征的人物肖像。

據(jù)了解,這位Empathic AI Painter,出自來自加拿大溫哥華西蒙弗雷澤大學(xué)(SFU)iViz實(shí)驗(yàn)室團(tuán)隊(duì)。此前,他們的AI畫家曾在國(guó)際神經(jīng)信息處理系統(tǒng)(NeurIPS)大會(huì)做了現(xiàn)場(chǎng)演示,吸引眾多用戶參與圍觀,還受到CTV國(guó)家新聞的專項(xiàng)報(bào)道。

那么這款“心靈捕手”AI畫家是如何進(jìn)行藝術(shù)創(chuàng)作的呢?

會(huì)聊天的AI畫家

據(jù)該團(tuán)隊(duì)介紹,AI畫家具備兩套創(chuàng)意系統(tǒng),一是對(duì)話式語音交互系統(tǒng),一是AI人像生成模型系統(tǒng),他們均通過3D虛擬人像來呈現(xiàn)。

Empathic AI Painter

與傳統(tǒng)繪制畫像不同,它不是一種靜態(tài)的“眼觀”模式,而是采取對(duì)話聊天的形式,捕捉內(nèi)在情緒完成藝術(shù)創(chuàng)作。

該團(tuán)隊(duì)教授史蒂夫·迪帕拉( DiPaola)表示,3D虛擬畫家的語音交互系統(tǒng)可以與用戶聊天,就某一事件采訪他們的感受,了解他們的性格,進(jìn)而通過AI人像生成模型,在繪畫過程中體現(xiàn)不同的情感特質(zhì)。總的來說,AI畫家需要完成三項(xiàng)任務(wù):

感知用戶語言和行為

基于以上信息,判定人物性格和情感特質(zhì);

通過AI人像生成模型,在繪畫風(fēng)格、色彩、紋理上呈現(xiàn)不同的用戶特質(zhì);

在ECA方面,3D虛擬人像融合了NLP自然語言處理模型,在交談中通過面部情感、語言壓力、語義,感知人類的情感和對(duì)話,并作出相應(yīng)的反饋。另外,其內(nèi)置的共情建模,還可以通過手勢(shì)、言語、表情,對(duì)用戶情緒作出感知性反應(yīng)。自然、真誠(chéng)的對(duì)話表現(xiàn)可以讓人類更真實(shí)的表現(xiàn)自己。

在個(gè)人特質(zhì)評(píng)估方面,研究人員采用了“五大人格模型”(FFM)。它是由科斯塔和麥克雷在20世紀(jì)80年代提出的,被廣泛用于人格分析。模型提出了神經(jīng)質(zhì)(N)、外傾性(E)、經(jīng)驗(yàn)開放性(O)、宜人性(A)和認(rèn)真性(C)五大人格因素,并通過NEO人格調(diào)查表進(jìn)行測(cè)量。

在肖像渲染階段,利用mDD((ModifiedDeep Dream)模型在16萬張數(shù)據(jù)集上進(jìn)行深度訓(xùn)練,由ePainterly模塊完成的最終的風(fēng)格繪制。

17種不同類型的情感肖像

那么它的作畫效果如何呢?之前提到,AI畫家曾在NeurIPS 2019大會(huì)上做過現(xiàn)場(chǎng)展示,當(dāng)時(shí)有26位用戶參與,并完成的現(xiàn)場(chǎng)交互。實(shí)際上原、人格調(diào)查表有120多個(gè)問題,大約需要45分鐘才能完成。

但這里研究人員僅使用了每個(gè)維度的一個(gè)問題進(jìn)行了互動(dòng),用時(shí)不足5分鐘。以下是圍繞“會(huì)議感受”主題下的互動(dòng)問題:

最終結(jié)果顯示,84.72%的用戶語音被準(zhǔn)確識(shí)別,AI畫家完成呈現(xiàn)除了17中不同的個(gè)性類別,同時(shí)用戶也表示,該風(fēng)格表現(xiàn)出了其內(nèi)在的情感特征。(以下是部分作品)

目前這款3D虛擬畫家的繪畫作品以已在去全球展出,包括紐約市和惠特尼的現(xiàn)代藝術(shù)博物館(MoMA)。

DiPaola教授認(rèn)為,AI在激發(fā)藝術(shù)與高級(jí)計(jì)算機(jī)技術(shù)融合方面存在無限的潛力。他們所研發(fā)的AI系統(tǒng)只是藝術(shù)創(chuàng)新的第一步,之后他們還將在此系統(tǒng)上,探索基于詩歌、散文的藝術(shù)創(chuàng)作。

背后的技術(shù)原理

與傳統(tǒng)AI設(shè)計(jì)使用單一算法不同,DiPaola教授團(tuán)隊(duì)的AI系統(tǒng)融合多種不同的技術(shù)。我們先來看一下完成的AI系統(tǒng)的架構(gòu)組成,分為對(duì)話交互循環(huán)(Conversational Interaction Loop)和生成風(fēng)格化肖像(Generative Portrait stylization)兩大模塊組成,這兩個(gè)模塊之間由BIG-5人格模型鏈接,用于傳達(dá)個(gè)性化肖像的關(guān)鍵信息。

第一階段的對(duì)話交互循環(huán)功能是基于具有移情模塊的M-Path系統(tǒng)實(shí)現(xiàn)的。它可以呈現(xiàn)出3D虛擬人像的形式。在與人類的對(duì)話中,具備類似視頻會(huì)議的輸入輸出設(shè)置,能夠根據(jù)用戶的情感和語言屬性實(shí)時(shí)處理輸入,進(jìn)而產(chǎn)生言語或行為的移情輸出。具體來說,M-Path系統(tǒng)的運(yùn)行是基于三個(gè)不同模塊控制:

感知模塊:用于采集和處理參與者信息。當(dāng)用戶講話時(shí),此模塊通過麥克風(fēng)和攝像機(jī)收集音頻和視頻作為輸入信號(hào)。在視頻輸入源中,面部情感識(shí)別模塊采用的是OpenCV算法,用來識(shí)別不同面部表情所對(duì)應(yīng)的情緒類別。本次研究中將基本情緒分為6種,憤怒,厭惡,恐懼,喜悅,悲傷,驚奇和蔑視,這一分類是基于CK+數(shù)據(jù)集的深度學(xué)習(xí)訓(xùn)練而獲得。

另外,來自麥克風(fēng)的語音輸入首先會(huì)被傳送至文本模塊,進(jìn)行轉(zhuǎn)化轉(zhuǎn)換處理。該模塊采用的是Google的STT服務(wù)。

情緒分析組件使用從STT服務(wù)接收到的文本來評(píng)估文本的極性值(正-中性-負(fù)),然后通過SO-CAL情感分析器在NRC-Canada詞典上進(jìn)行了重新訓(xùn)練,最后將文本發(fā)送至決策組件生成對(duì)話響應(yīng)。整個(gè)處理過程會(huì)持續(xù)到對(duì)方發(fā)送語音結(jié)束為止。

行為控制器模塊:負(fù)責(zé)在對(duì)話循環(huán)中,生成同理心和具有目標(biāo)導(dǎo)向的語言/非語言響應(yīng)。 在收聽階段,3D虛擬人像會(huì)產(chǎn)生相應(yīng)的情感匹配和反向傳播行為。情感匹配是通過移情機(jī)制對(duì)用戶面部表情的選擇而實(shí)現(xiàn)的。而在交談中通過檢測(cè)到暫停觸發(fā)的點(diǎn)頭行為來創(chuàng)建反向傳播,這兩種行為的集合,最終生成了獲取情感的聆聽行為。

當(dāng)對(duì)話結(jié)束后,從STT引擎接收到的文本信息會(huì)與用戶的總體情感一起傳遞至對(duì)話管理器(Dialogue Manager),并最終發(fā)送到移情機(jī)制(e Empathy Mechanisms)組件。 DM的目標(biāo)是完成Big-5人格問卷識(shí)別的個(gè)性類別。 EM的目標(biāo)生成對(duì)應(yīng)類別的情感響應(yīng)。

行為管理模塊:用于創(chuàng)建自然的對(duì)話行為。M-Path在對(duì)話的所有狀態(tài)下連續(xù)生成非語言或非語言行為,如面部表情,身體姿勢(shì)、手勢(shì)及嘴唇移動(dòng)會(huì)與語音輸出同步完成,并作為行為標(biāo)記語言(Behavior Markup Language)消息發(fā)送到Smartbody角色動(dòng)畫平臺(tái)以顯示生成的行為。

第二階段生成風(fēng)格化肖像,這部分的處理分為三個(gè)步驟。首先主要是運(yùn)用AI工具對(duì)人像進(jìn)行預(yù)處理,包括圖像背景分割,調(diào)整人像的光和色彩的平衡。

然后將預(yù)處理的圖像輸入至mDD系統(tǒng)模型進(jìn)行深度訓(xùn)練,這里借用的是Google的Deep Dream模型,基于本次研究特性進(jìn)行了部分調(diào)整,因此在這里成為mDD(ModifiedDeep Dream)。它所使用的數(shù)據(jù)集收集了來自3000位藝術(shù)家的160,000張帶有標(biāo)簽和分類的畫作,總大小為67 GB。

最后,ePainterly系統(tǒng)結(jié)合Deep Style來處理人像表面紋理以及非真實(shí)感的渲染(NPR)技術(shù),例如粒子系統(tǒng),調(diào)色板操縱和筆觸引擎技術(shù)。這個(gè)不斷迭代的過程將完成最終的肖像風(fēng)格。其中ePainterly模塊是講點(diǎn)繪畫系統(tǒng)Painterly的擴(kuò)展。

這部分NPR渲染在很大程度上減少了mDD輸出圖像時(shí)產(chǎn)生的噪聲偽影。以下是各個(gè)階段的效果圖:

雖然AI畫家在捕捉人類情感,繪制風(fēng)格化肖像方面表現(xiàn)非常出色,但該研究團(tuán)隊(duì)認(rèn)為它還有很大的擴(kuò)展空間,并表示從情感評(píng)估模型、用戶個(gè)性分析和互動(dòng)場(chǎng)景三個(gè)方面對(duì)其進(jìn)行優(yōu)化。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31133

    瀏覽量

    269456
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    76

    文章

    4012

    瀏覽量

    82017
  • 3D打印
    +關(guān)注

    關(guān)注

    26

    文章

    3552

    瀏覽量

    109238
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    湯姆貓發(fā)布AI語音情感陪伴機(jī)器人研發(fā)進(jìn)展

    湯姆貓公司近日透露了其AI產(chǎn)品的研發(fā)進(jìn)展,其中AI語音情感陪伴機(jī)器人備受矚目。據(jù)官方介紹,這款機(jī)器人預(yù)計(jì)將于2024年12月底前正式發(fā)售,為用戶帶來全新的互動(dòng)體驗(yàn)。 該機(jī)器人頭部設(shè)有精密的傳動(dòng)裝置
    的頭像 發(fā)表于 12-17 11:27 ?671次閱讀

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    能力而受到廣泛關(guān)注。 1. 引言 情感分析在商業(yè)智能、客戶服務(wù)、社交媒體監(jiān)控等領(lǐng)域具有廣泛的應(yīng)用。傳統(tǒng)的情感分析方法依賴于手工特征提取和機(jī)器學(xué)習(xí)算法,但這些方法往往難以處理文本中的長(zhǎng)距離依賴關(guān)系。LSTM作為一種循環(huán)神經(jīng)網(wǎng)絡(luò)(
    的頭像 發(fā)表于 11-13 10:15 ?563次閱讀

    淺談PLC編程軟件的特征

    優(yōu)秀的PLC編程軟件通常具備以下特征
    的頭像 發(fā)表于 09-20 14:59 ?321次閱讀

    Meta關(guān)閉明星AI聊天機(jī)器人,轉(zhuǎn)向用戶自創(chuàng)AI工具

    7月31日,科技新聞源The Information透露,Meta已悄然終止了其備受矚目的明星AI聊天機(jī)器人項(xiàng)目。這些機(jī)器人曾因能夠模擬著名人物的性格特征并與用戶進(jìn)行互動(dòng),在去年九月的Meta Connect大會(huì)上大放異彩。
    的頭像 發(fā)表于 07-31 16:16 ?692次閱讀

    鴻蒙ArkTS繪制組件:Circle

    用于繪制圓形的組件。
    的頭像 發(fā)表于 07-16 09:18 ?542次閱讀
    鴻蒙ArkTS<b class='flag-5'>繪制</b>組件:Circle

    曠視AI開源新突破:上傳照片即可生成表情包視頻!

    為了展示其泛化性,MegActor甚至可以將VASA中的人物肖像和視頻組合生成,得到生動(dòng)的表情視頻。即使與阿里EMO的官方案例相比,MegActor也能生成近似的效果。
    的頭像 發(fā)表于 07-12 11:20 ?403次閱讀
    曠視<b class='flag-5'>AI</b>開源新突破:上傳照片即可生成表情包視頻!

    邊緣AI網(wǎng)關(guān),將具備更強(qiáng)大的計(jì)算和學(xué)習(xí)能力

    和管理設(shè)備數(shù)據(jù),提供連接、計(jì)算、存儲(chǔ)和安全等功能的關(guān)鍵設(shè)備。它將物聯(lián)網(wǎng)節(jié)點(diǎn)、終端設(shè)備與云平臺(tái)連接在一起,實(shí)現(xiàn)數(shù)據(jù)的實(shí)時(shí)處理和決策。 ? 邊緣AI 網(wǎng)關(guān)的優(yōu)勢(shì)及發(fā)展趨勢(shì) ? 邊緣AI網(wǎng)關(guān)具有諸多特點(diǎn),如,邊緣AI網(wǎng)關(guān)
    的頭像 發(fā)表于 06-06 00:26 ?3558次閱讀

    微軟運(yùn)用深度學(xué)習(xí)技術(shù)構(gòu)建多模態(tài)3D肖像模型,成就逼真虛擬肖像

    此項(xiàng)專利名為《多模態(tài)三維面部建模及追蹤,制作栩栩如生的虛擬肖像》。其系統(tǒng)包括處理器和存儲(chǔ)器系統(tǒng),前者負(fù)責(zé)收集初始數(shù)據(jù)(即面部初始模樣)以及多元數(shù)據(jù)信號(hào)(例如用戶聲波等音頻數(shù)據(jù)),再將兩者整合并進(jìn)行擬合處理。
    的頭像 發(fā)表于 04-24 15:24 ?327次閱讀

    AI陪伴機(jī)器人市場(chǎng)需求快速增長(zhǎng),情感交互成重要布局方向

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)AI陪伴機(jī)器人是一種基于人工智能技術(shù)的智能機(jī)器人,它能夠與人類進(jìn)行交互,并提供陪伴和幫助。它們通過模擬人類的行為和思維過程,具備一定的智能和情感能力,能夠理解人類的語言
    的頭像 發(fā)表于 04-20 00:19 ?3581次閱讀

    抖音嚴(yán)打不當(dāng)虛擬人物AI生成行為,優(yōu)化平臺(tái)生態(tài)環(huán)境

    據(jù)悉,去年8月抖音發(fā)布了《人工智能生成內(nèi)容的平臺(tái)規(guī)范及行業(yè)倡議》,強(qiáng)調(diào)禁止利用AI技術(shù)制作虛擬人物進(jìn)行低質(zhì)量創(chuàng)作。今年3月27日,抖音安全中心又發(fā)布公告表示,發(fā)現(xiàn)少數(shù)賬號(hào)依然存在使用AI技術(shù)生成虛擬
    的頭像 發(fā)表于 03-27 14:54 ?672次閱讀

    谷歌推出多模態(tài)VLOGGER AI

    谷歌最新推出的VLOGGER AI技術(shù)引起了廣泛關(guān)注,這項(xiàng)創(chuàng)新的多模態(tài)模型能夠讓靜態(tài)肖像圖“活”起來并“說話”。用戶只需提供一張人物肖像照片和一段音頻內(nèi)容,VLOGGER AI就能讓圖
    的頭像 發(fā)表于 03-22 10:45 ?862次閱讀

    谷歌發(fā)布VLOGGER AI模型,實(shí)現(xiàn)肖像朗讀音頻內(nèi)容

    具體來說,VLOGGER AI 采用一種適應(yīng)虛擬肖像的多模態(tài) Diffusion 模型,通過 MENTOR 數(shù)據(jù)庫進(jìn)行訓(xùn)練,涵蓋了超80萬個(gè)人物肖像及超過2200小時(shí)的視頻數(shù)據(jù)。得益于此,VLOGGER 可以生成各種族、各年齡段
    的頭像 發(fā)表于 03-19 14:27 ?809次閱讀

    NanoEdge AI的技術(shù)原理、應(yīng)用場(chǎng)景及優(yōu)勢(shì)

    NanoEdge AI 是一種基于邊緣計(jì)算的人工智能技術(shù),旨在將人工智能算法應(yīng)用于物聯(lián)網(wǎng)(IoT)設(shè)備和傳感器。這種技術(shù)的核心思想是將數(shù)據(jù)處理和分析從云端轉(zhuǎn)移到設(shè)備本身,從而減少數(shù)據(jù)傳輸延遲、降低
    發(fā)表于 03-12 08:09

    谷歌Gemini AI模型因人物圖像生成問題暫停運(yùn)行

    據(jù)報(bào)道,部分用戶發(fā)現(xiàn)Gemini生成的圖片存在明顯錯(cuò)誤,如特斯拉創(chuàng)始人和其他名人變成了黑人模樣。谷歌已決定暫停該模型的人物圖像生成功能以待改善。
    的頭像 發(fā)表于 02-25 09:59 ?606次閱讀

    【國(guó)產(chǎn)FPGA+OMAPL138開發(fā)板體驗(yàn)】(原創(chuàng))5.FPGA的AI加速源代碼

    在這里逐行詳細(xì)解釋。不過,我可以寫一個(gè)以卷積神經(jīng)網(wǎng)絡(luò)(CNN)中的卷積層源代碼: -- 喲吼,我們正在為FPGA打造一款“智能像素畫家”! entity AI_Accelerator is Port
    發(fā)表于 02-12 16:18
    主站蜘蛛池模板: 国产全肉乱妇杂乱视频| 大香伊人网| 欧美有码视频| 女人午夜啪啪性刺激免费看| 免费在线欧美| 美女免费视频黄| www天堂在线观看| 天天影视网天天影网| 日韩欧美伦理| 大美女久久久久久j久久| 日本人69xxⅹ69| 性免费网站| 亚洲伦理一区二区三区| 深夜性久久| 美女视频黄.免费网址| 国产精品日韩欧美亚洲另类| 亚洲天天综合网| 国产午夜精品久久理论片小说| www.夜夜骑| 亚洲91色| 特黄特级高清免费视频毛片| 欧美三级 欧美一级| 国产乱理论片在线观看理论| 天天曰天天干| 97人摸人人澡人人人超一碰| 一区二区三区视频免费观看| 在线综合网| 欧美一级视频免费看| 国产精品成人四虎免费视频| 天天综合网天天做天天受| 国产高清a| 男人午夜视频| 停停五月天| 久久久久久久国产精品影院| 成人理论片| 亚洲毛片大全| 六九视频在线观看| 夜夜网站| 啪一啪日一日| 性视频一区| 黄色短视频免费看|