在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布了其AI音樂創(chuàng)作的深度神經(jīng)網(wǎng)絡(luò)—MuseNet

電子工程師 ? 來源:lq ? 2019-04-29 17:29 ? 次閱讀

AI 創(chuàng)作音樂越來越熱門。

剛剛,OpenAI 發(fā)布了其 AI 音樂創(chuàng)作的深度神經(jīng)網(wǎng)絡(luò)—MuseNet,可以使用 10 種不同樂器、風(fēng)格如鄉(xiāng)村樂、莫扎特、披頭士樂隊(duì)等,生成出 4 分鐘的音樂。

OpenAI 博客最新發(fā)布文章指出,MuseNet 不是依靠人類明確地對(duì)音樂進(jìn)行編程,而是通過學(xué)習(xí)預(yù)測(cè) token 來學(xué)習(xí)和聲、節(jié)奏、風(fēng)格的模式,他們從許多來源收集 MuseNet 的訓(xùn)練數(shù)據(jù),像是 ClassicalArchives、BitMidi 網(wǎng)站上的文件、MAESTRO 數(shù)據(jù)集,還有爵士、流行、非洲、印度和阿拉伯風(fēng)格的音樂,總共利用了數(shù)十萬個(gè) MIDI 文件。

OpenAI 也指出,MuseNet 使用與 GPT-2 相同的通用無監(jiān)督技術(shù),GPT-2 為先前 OpenAI 提出的一個(gè)大規(guī)模 Transformer 模型,訓(xùn)練 AI 可預(yù)測(cè)序列中的下一個(gè) token,包括音頻和文本,用在 MuseNet 上則是給定一組音符后,要求 AI 預(yù)測(cè)后面會(huì)出現(xiàn)的音符。另外,MuseNet 使用 Sparse Transformer 的重新計(jì)算和優(yōu)化核來訓(xùn)練一個(gè)具有 24 個(gè)注意力頭(attention head)的 72 層網(wǎng)絡(luò),其全部注意力都放在 4096 個(gè) token 的語境中。

當(dāng) MuseNet 知道許多不同的風(fēng)格之后,就能混合生成新的音樂,舉例來說,提供機(jī)器肖邦夜曲(Chopin Nocturne)的前 6 個(gè)音符,但是,要求機(jī)器生成一段流行樂,并要有鋼琴、鼓、bass 和吉他,而機(jī)器生成的音樂就完美融合了肖邦和 Bon Jovi 兩種風(fēng)格。

圖| MuseNet 音樂生成神經(jīng)網(wǎng)絡(luò)(來源:OpenAI)

之前 OpenAI 提出的 GPT-2,使用近 40 GB 的網(wǎng)頁文字訓(xùn)練而成,主要具備了生成文本、預(yù)測(cè)下一個(gè)文字的能力,例如只給機(jī)器一段文字,就會(huì)因應(yīng)前后文的風(fēng)格創(chuàng)造內(nèi)容、編寫故事,但因?yàn)樗傻膬?nèi)容有條有理,仿真技術(shù)高,反而讓外界擔(dān)心助長假新聞、網(wǎng)絡(luò)假消息的泛濫,在考量該技術(shù)可能遭惡意使用后,OpenAI 決定不放出訓(xùn)練好的模型,只公開一小部分模型和范例。

現(xiàn)在用在音樂創(chuàng)作上,可能引起的爭(zhēng)議相對(duì)小,倒是為 GPT-2 找到了不錯(cuò)的應(yīng)用場(chǎng)景。

另外,OpenAI 剛剛還在 Twitch 上舉辦了 MuseNet 實(shí)驗(yàn)音樂會(huì),并預(yù)計(jì)在 5 月中旬放出該音樂轉(zhuǎn)換器的工具——MuseNet共同作曲家(MuseNet-powered co-composer),讓一般大眾和音樂家用來創(chuàng)作。

MuseNet 共同作曲家有幾種模式:簡(jiǎn)單模式下,用戶會(huì)聽到已經(jīng)預(yù)先生成的隨機(jī)樣本,然后選擇一個(gè)作曲家或風(fēng)格,就可以開始生成音樂;高級(jí)模式,則可讓用戶有更多的選擇,像是選風(fēng)格、樂器等,打造全新的音樂作品。

圖|MuseNet 在 Twitch 上舉辦一場(chǎng)音樂會(huì)(來源:Twitch)

OpenAI 研究人員 Christine Payne 指出,MuseNet 仍有局限性,因?yàn)樗峭ㄟ^計(jì)算所有可能的音符和樂器的概率來產(chǎn)生每個(gè)音符,所以偶爾會(huì)做出不和諧的選擇,做出奇怪的配對(duì),例如把肖邦風(fēng)格配上 bass 和鼓。

今年 3 月,谷歌為慶祝知名音樂家巴赫的生日,在 Google Doodle 放了一個(gè)小游戲,用戶在 Doodle 按下音符及節(jié)奏,就會(huì)以巴赫的風(fēng)格演奏用戶創(chuàng)作的作品。這是使用人工智能作曲的另一個(gè)案例。

不僅谷歌、OpenAI,唱片業(yè)、音樂人本身也都在探究 AI 的應(yīng)用,在 MuseNet 于 Twitch 上舉辦音樂會(huì)之前,音樂技術(shù)專家 CJ Carr 和 Zack Zukowski 就在 YouTube 頻道上播放重金屬音樂,這些死亡金屬串流音樂就是由他們開發(fā)的 AI 樂團(tuán) Dadabots 所生成的,而且 24 小時(shí)不間斷。他們使用加拿大的死亡金屬樂團(tuán) Archspire 的樣本訓(xùn)練 SampleRNN 神經(jīng)網(wǎng)絡(luò),進(jìn)而可自動(dòng)生成重金屬音樂。

毫無疑問,人工智能將持續(xù)融入創(chuàng)意音樂領(lǐng)域。

圖|重金屬音樂不間斷播放,背后其實(shí)是一個(gè) AI 樂團(tuán)(來源:YouTube)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:OpenAI發(fā)布音樂生成神經(jīng)網(wǎng)絡(luò) MuseNet,可創(chuàng)作4分鐘音樂,剛剛還辦了場(chǎng)音樂會(huì)

文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    FPGA在深度神經(jīng)網(wǎng)絡(luò)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為核心算法之一,在圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度
    的頭像 發(fā)表于 07-24 10:42 ?692次閱讀

    殘差網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    殘差網(wǎng)絡(luò)(Residual Network,通常簡(jiǎn)稱為ResNet) 是深度神經(jīng)網(wǎng)絡(luò)的一種 ,獨(dú)特的結(jié)構(gòu)設(shè)計(jì)在解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失
    的頭像 發(fā)表于 07-11 18:13 ?1115次閱讀

    簡(jiǎn)單認(rèn)識(shí)深度神經(jīng)網(wǎng)絡(luò)

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為機(jī)器學(xué)習(xí)領(lǐng)域中的一種重要技術(shù),特別是在深度學(xué)習(xí)領(lǐng)域,已經(jīng)取得了顯著的成就。它們通過模擬人類大腦的處理方式,利用多層神經(jīng)
    的頭像 發(fā)表于 07-10 18:23 ?1045次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指?jìng)鹘y(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需
    的頭像 發(fā)表于 07-04 13:20 ?908次閱讀

    深度神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)方法

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為人工智能領(lǐng)域的重要技術(shù)之一,通過模擬人腦神經(jīng)元之間的連接,實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)的自主學(xué)習(xí)和智能判斷。
    的頭像 發(fā)表于 07-04 13:13 ?476次閱讀

    bp神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來訓(xùn)練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)在某些方面與
    的頭像 發(fā)表于 07-03 10:14 ?862次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    、訓(xùn)練過程以及應(yīng)用場(chǎng)景。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積神經(jīng)網(wǎng)絡(luò)的定義 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋深度學(xué)習(xí)模型,核心思想是利用卷積
    的頭像 發(fā)表于 07-03 09:15 ?426次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    到自然語言處理,深度學(xué)習(xí)和CNN正逐步改變著我們的生活方式。本文將深入探討深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的基本概念、工作原理及其在多個(gè)領(lǐng)域的應(yīng)用,并展望未來的發(fā)展趨勢(shì)。
    的頭像 發(fā)表于 07-02 18:19 ?920次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之一。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?4163次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    ,核心是構(gòu)建具有多層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,以實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)的高效表示和處理。在眾多深度學(xué)習(xí)模型中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)因其在圖像識(shí)別等領(lǐng)域的卓越性能而備受關(guān)注。CNN通過引入卷積層和
    的頭像 發(fā)表于 07-02 10:11 ?9758次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNNs)是一類具有多個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò),它們?cè)谠S多領(lǐng)域取得了顯著的成功,如計(jì)算機(jī)視覺、自然語言處理、語音識(shí)別等。以下是一些常見的深度
    的頭像 發(fā)表于 07-02 10:00 ?1475次閱讀

    音樂大模型掀起AI音樂創(chuàng)作熱潮,AI讓“一語成歌”成為可能

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)隨著大模型技術(shù)的發(fā)展,AI音樂生成悄然而生。音樂生成是一個(gè)結(jié)合人工智能技術(shù)和音樂創(chuàng)作的領(lǐng)域,它涵蓋了從基本的
    的頭像 發(fā)表于 05-30 01:01 ?4045次閱讀

    谷歌推新AI音樂工具,發(fā)布第六代TPU芯片

    谷歌近日宣布與YouTube合作,推出全新音樂工具M(jìn)usic AI Sandbox。這款AI音樂創(chuàng)作工具將與傳統(tǒng)AI
    的頭像 發(fā)表于 05-16 09:44 ?398次閱讀

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)心電圖降噪

    具體的軟硬件實(shí)現(xiàn)點(diǎn)擊 http://mcu-ai.com/ MCU-AI技術(shù)網(wǎng)頁_MCU-AI 我們提出了一種利用由長短期記憶 (LSTM) 單元構(gòu)建的深度循環(huán)
    發(fā)表于 05-15 14:42

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時(shí)代,錯(cuò)綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線,通過
    的頭像 發(fā)表于 01-11 10:51 ?2064次閱讀
    詳解<b class='flag-5'>深度</b>學(xué)習(xí)、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用
    主站蜘蛛池模板: 一级特黄aaa大片免费看| 色777777女人色| 国产色视频在线| 国产一级做a爱免费视频| 国产农村一一级特黄毛片| 成人综合色站| 午夜一级福利| 久久久久免费| 51国产午夜精品免费视频| 免费视频在线播放| 热久久国产| 亚洲国产成人久久77| 色婷婷婷婷| 毛片特黄| 99久久综合狠狠综合久久男同| 午夜性刺激免费视频观看不卡专区| 日日做夜夜爽夜夜爽| 99xxxx开心| 女攻各种play男受h| 性欧美zoz0另类xxxx| 人成xxxwww免费视频| 国产色系视频在线观看免费| 午夜影院在线观看视频| 国产午夜久久精品| 视频在线观看一区二区三区| 亚洲国产精品嫩草影院| 欧美伦理一区二区三区| 大色视频| 精品精品国产理论在线观看| 在线精品国产成人综合第一页| 在线亚洲综合| 天天干狠狠插| 国产精品夜夜春夜夜爽久久| 69日本xxxxxxxxx56| 尤物视频黄| 欧美成人看片一区二区三区| www.激情网.com| 国产天天在线| 狠狠色狠狠干| 欧美三级免费观看| 一区在线观看|