在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

速度提升270倍!微軟和浙大聯合推出全新語音合成系統FastSpeech

WpOh_rgznai100 ? 來源:yxw ? 2019-06-06 14:09 ? 次閱讀

目前,基于神經網絡的端到端文本到語音合成技術發展迅速,但仍面臨不少問題——合成速度慢、穩定性差、可控性缺乏等。為此,微軟亞洲研究院機器學習組和微軟(亞洲)互聯網工程院語音團隊聯合浙江大學提出了一種基于Transformer的新型前饋網絡FastSpeech,兼具快速、魯棒、可控等特點。與自回歸的Transformer TTS相比,FastSpeech將梅爾譜的生成速度提高了近270倍,將端到端語音合成速度提高了38倍,單GPU上的語音合成速度達到了實時語音速度的30倍。

近年來,基于神經網絡的端到端文本到語音合成(Text-to-Speech,TTS)技術取了快速發展。與傳統語音合成中的拼接法(concatenative synthesis)和參數法(statistical parametric synthesis)相比,端到端語音合成技術生成的聲音通常具有更好的聲音自然度。但是,這種技術依然面臨以下幾個問題:

合成語音的速度較慢:端到端模型通常以自回歸(Autoregressive)的方式生成梅爾譜(Mel-Spectrogram),再通過聲碼器(Vocoder)合成語音,而一段語音的梅爾譜通常能到幾百上千幀,導致合成速度較慢;

合成的語音穩定性較差:端到端模型通常采用編碼器-注意力-解碼器(Encoder-Attention-Decoder)機制進行自回歸生成,由于序列生成的錯誤傳播(Error Propagation)以及注意力對齊不準,導致出現重復吐詞或漏詞現象;

缺乏可控性:自回歸的神經網絡模型自動決定一條語音的生成長度,無法顯式地控制生成語音的語速或者韻律停頓等。

為了解決上述的一系列問題,微軟亞洲研究院機器學習組和微軟(亞洲)互聯網工程院語音團隊聯合浙江大學提出了一種基于Transformer的新型前饋網絡FastSpeech,可以并行、穩定、可控地生成高質量的梅爾譜,再借助聲碼器并行地合成聲音。

在LJSpeech數據集上的實驗表明,FastSpeech除了在語音質量方面可以與傳統端到端自回歸模型(如Tacotron2和Transformer TTS)相媲美,還具有以下幾點優勢:

快速:與自回歸的Transformer TTS相比,FastSpeech將梅爾譜的生成速度提高了近270倍,將端到端語音合成速度提高了近38倍,單GPU上的語音合成速度是實時語音速度的30倍;

魯棒:幾乎完全消除了合成語音中重復吐詞和漏詞問題;

可控:可以平滑地調整語音速度和控制停頓以部分提升韻律。

模型框架

圖1. FastSpeech網絡架構

前饋Transformer架構

FastSpeech采用一種新型的前饋Transformer網絡架構,拋棄掉傳統的編碼器-注意力-解碼器機制,如圖1(a)所示。其主要模塊采用Transformer的自注意力機制(Self-Attention)以及一維卷積網絡(1D Convolution),我們將其稱之為FFT塊(Feed-Forward Transformer Block, FFT Block),如圖1(b)所示。前饋Transformer堆疊多個FFT塊,用于音素(Phoneme)到梅爾譜變換,音素側和梅爾譜側各有N個FFT塊。特別注意的是,中間有一個長度調節器(Length Regulator),用來調節音素序列和梅爾譜序列之間的長度差異。

長度調節器

長度調節器如圖1(c)所示。由于音素序列的長度通常小于其梅爾譜序列的長度,即每個音素對應于幾個梅爾譜序列,我們將每個音素對齊的梅爾譜序列的長度稱為音素持續時間。長度調節器通過每個音素的持續時間將音素序列平鋪以匹配到梅爾譜序列的長度。我們可以等比例地延長或者縮短音素的持續時間,用于聲音速度的控制。此外,我們還可以通過調整句子中空格字符的持續時間來控制單詞之間的停頓,從而調整聲音的部分韻律。

音素持續時間預測器

音素持續時間預測對長度調節器來說非常重要。如圖1(d)所示,音素持續時間預測器包括一個2層一維卷積網絡,以及疊加一個線性層輸出標量用以預測音素的持續時間。這個模塊堆疊在音素側的FFT塊之上,使用均方誤差(MSE)作為損失函數,與FastSpeech模型協同訓練。我們的音素持續時間的真實標簽信息是從一個額外的基于自回歸的Transformer TTS模型中抽取encoder-decoder之間的注意力對齊信息得到的,詳細信息可查閱文末論文。

實驗評估

為了驗證FastSpeech模型的有效性,我們從聲音質量、生成速度、魯棒性和可控制性幾個方面來進行了評估。

聲音質量

我們選用LJSpeech數據集進行實驗,LJSpeech包含13100個英語音頻片段和相應的文本,音頻的總長度約為24小時。我們將數據集分成3組:300個樣本作為驗證集,300個樣本作為測試集,剩下的12500個樣本用來訓練。

我們對測試樣本作了MOS測試,每個樣本至少被20個英語母語評測者評測。MOS指標用來衡量聲音接近人聲的自然度和音質。我們將FastSpeech方法與以下方法進行對比:1) GT, 真實音頻數據;2) GT (Mel + WaveGlow), 用WaveGlow作為聲碼器將真實梅爾譜轉換得到的音頻;3) Tacotron 2 (Mel + WaveGlow);4) Transformer TTS (Mel + WaveGlow);5) Merlin (WORLD), 一種常用的參數法語音合成系統,并且采用WORLD作為聲碼器。

從表1中可以看出,我們的音質幾乎可以與自回歸的Transformer TTS和Tacotron 2相媲美。

FastSpeech合成的聲音Demo:

文字:“The result of the recommendation of the committee of 1862 was the Prison Act of 1865”

合成速度

我們比較FastSpeech與具有近似參數量的Transformer TTS的語音合成速度。從表2可以看出,在梅爾譜的生成速度上,FastSpeech比自回歸的Transformer TTS提速將近270倍;在端到端(合成語音)的生成速度上,FastSpeech比自回歸的Transformer TTS提速將近38倍。FastSpeech平均合成一條語音的時間為0.18s,由于我們的語音平均時長為6.2s,我們的模型在單GPU上的語音合成速度是實時語音速度的30倍(6.2/0.18)。

圖2展示了測試集上生成語音的耗時和生成的梅爾譜長度(梅爾譜長度與語音長度成正比)的可視化關系圖。可以看出,隨著生成語音長度的增大,FastSpeech的生成耗時并沒有發生較大變化,而Transformer TTS的速度對長度非常敏感。這也表明我們的方法非常有效地利用了GPU的并行性實現了加速。

圖2. 生成語音的耗時與生成的梅爾譜長度的可視化關系圖

魯棒性

自回歸模型中的編碼器-解碼器注意力機制可能導致音素和梅爾譜之間的錯誤對齊,進而導致生成的語音出現重復吐詞或漏詞。為了評估FastSpeech的魯棒性,我們選擇微軟(亞洲)互聯網工程院語音團隊產品線上使用的50個較難的文本對FastSpeech和基準模型Transformer TTS魯棒性進行測試。從下表可以看出,Transformer TTS的句級錯誤率為34%,而FastSpeech幾乎可以完全消除重復吐詞和漏詞。

語速調節

FastSpeech可以通過長度調節器很方便地調節音頻的語速。通過實驗發現,從0.5x到1.5x變速,FastSpeech生成的語音清晰且不失真。

消融對比實驗

我們也比較了FastSpeech中一些重要模塊和訓練方法(包括FFT中的一維卷積、序列級別的知識蒸餾技術和參數初始化)對生成音質效果的影響,通過CMOS的結果來衡量影響程度。由下表可以看出,這些模塊和方法確實有助于我們模型效果的提升。

未來,我們將繼續提升FastSpeech模型在生成音質上的表現,并且將會把該模型應用到其它語言(例如中文)、多說話人和低資源場景中。我們還會嘗試將FastSpeech與并行神經聲碼器結合在一起訓練,形成一個完全端到端訓練的語音到文本并行架構。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 微軟
    +關注

    關注

    4

    文章

    6600

    瀏覽量

    104114
  • 互聯網
    +關注

    關注

    54

    文章

    11162

    瀏覽量

    103369
  • 語音合成系統

    關注

    0

    文章

    3

    瀏覽量

    6360

原文標題:速度提升270倍!微軟和浙大聯合推出全新語音合成系統FastSpeech

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    電子鎖語音芯片方案,低功耗語音播報ic,NV256H

    廣州九芯電子推出NV256H語音芯片,為電子鎖提供低功耗、高耐用、高質量音頻、靈活控制、平臺自定義及廣泛應用兼容性,注入全新語音交互體驗,滿足智能便捷安全需求。
    的頭像 發表于 12-05 14:12 ?200次閱讀

    Commvault與Pure Storage聯合推出網絡就緒解決方案

    混合云網絡彈性和數據保護解決方案的領先提供商Commvault(納斯達克代碼:CVLT)宣布與Pure Storage聯合推出一項網絡就緒解決方案。該解決方案能夠在幫助企業遵守不斷變化的嚴格法規方面發揮關鍵作用。
    的頭像 發表于 10-15 09:16 ?484次閱讀

    微軟和日立達成價值數十億美元的戰略合作

    微軟和日本知名公司日立近日宣布了一項價值數十億美元的戰略合作計劃,旨在未來三年內共同推動生成式人工智能服務的廣泛應用。根據合作協議,日立將深度整合微軟云、Azure開放人工智能服務、Dynamics
    的頭像 發表于 06-06 09:47 ?510次閱讀

    微軟網頁版PPT新增語音識別及字幕生成功能

    據報道,微軟計劃于今年六月份推出網頁版PowerPoint全新語音識別功能。此項功能將能夠監控PowerPoint視頻中的聲音,進而自動生成字幕。
    的頭像 發表于 05-16 14:36 ?429次閱讀

    共享充電寶語音芯片ic方案支持遠程4g無線更新語音

    共享充電寶語音芯片ic方案支持遠程4g無線wifi藍牙更新語音 共享充電寶已經是遍布在大街小巷的好產品,解決了攜帶充電寶麻煩的痛點 但是很多的共享充電寶在人機交互方便,還做得不夠好,比如:借、還設備沒有語音提示,相關的狀態也
    的頭像 發表于 05-13 10:29 ?550次閱讀
    共享充電寶<b class='flag-5'>語音</b>芯片ic方案支持遠程4g無線更<b class='flag-5'>新語音</b>

    微軟準備推出全新人工智能語言模型

    微軟近期傳出消息,正在秘密研發一款全新的人工智能語言模型,這款模型在規模上預計將具備與谷歌和OpenAI等業界巨頭相抗衡的實力。據悉,這款新模型在微軟內部被命名為“MAI-1”,由微軟
    的頭像 發表于 05-08 09:30 ?429次閱讀

    微軟推出Edge搜索欄,提升用戶搜索效率

    據4月19日消息,微軟近期推出Windows 11與Windows 10系統更新,新增Edge搜索欄桌面集成功能。官方表示,此舉旨在為用戶提供更便捷的搜索體驗,無需開啟瀏覽器即可獲得所需信息,從而
    的頭像 發表于 04-19 14:44 ?692次閱讀

    微軟和OpenAI計劃投資1000億美元建造“星際之門”AI超級計算機

    微軟和OpenAI計劃投資1000億美元建造“星際之門”AI超級計算機這一消息屬實。
    的頭像 發表于 04-11 10:14 ?564次閱讀

    微軟和Quantinum宣布在量子計算領域實現重大突破

    微軟和Quantinum日前表示,他們通過提高量子計算的可靠性,在實現量子計算商業化方面邁出了關鍵一步。
    的頭像 發表于 04-07 10:53 ?604次閱讀

    安富利聯合TE Connectivity推出全新WiFi 6E天線解決方案

    隨著WiFi 6E技術的興起,網絡連接體驗正迎來一場革新。安富利與TE Connectivity(TE)近日聯合推出全新的WiFi 6E天線解決方案,該方案以其卓越的頻段覆蓋和增強的頻率帶寬,為用戶、企業以及服務提供商帶來了前所未有的連接價值。
    的頭像 發表于 03-07 09:15 ?962次閱讀

    Wipro與Nokia聯合推出5G專用無線解決方案,加速企業數字化轉型

    領先的技術服務和咨詢公司Wipro Limited (NYSE: WIT, BSE: 507685, NSE: WIPRO) 今天宣布與Nokia (NYSE: NOK) 聯合推出專用無線解決方案
    的頭像 發表于 02-27 14:02 ?363次閱讀

    人形機器人初創公司Figure AI與微軟和OpenAI展開融資談判

    近日,人形機器人初創公司Figure AI Inc.正與微軟和OpenAI展開融資談判,目標籌集高達5億美元的資金。據悉,微軟和OpenAI可能分別投資9500萬美元和500萬美元。如果談判成功,這筆資金將使Figure AI的估值達到約19億美元,不包括新資金。
    的頭像 發表于 02-04 11:00 ?954次閱讀

    微軟和OpenAI洽談注資人形機器人公司

    微軟和OpenAI正在與領先的人形機器人公司Figure洽談新一輪融資事宜。據透露,本輪融資金額最高可能達到5億美元。
    的頭像 發表于 02-02 10:41 ?731次閱讀

    語音合成技術在智能駕駛中的創新與應用

    的發展趨勢。 二、語音合成技術的創新 語音質量的提升:隨著深度學習等技術的不斷發展,語音合成技術
    的頭像 發表于 02-01 18:09 ?666次閱讀

    語音合成技術在智能駕駛中的應用與展望

    體驗。本文將探討語音合成技術在智能駕駛中的應用、優勢以及未來發展趨勢。 二、語音合成技術在智能駕駛中的應用 導航與路線指引:通過語音
    的頭像 發表于 02-01 17:50 ?526次閱讀
    主站蜘蛛池模板: 国产精品大尺度尺度视频| 4虎最新地址| 日日噜噜夜夜狠狠久久aⅴ| 亚洲最大成人| 亚洲黄色激情网| 欧美网站在线播放| 人人草97| 巨乳色在线观看| 国产精品综合色区在线观看| 国产偷窥女洗浴在线观看亚洲| 成年人网站免费观看| 午夜在线免费视频| 日操夜操| 性色欧美xo影院| 日本一区二区不卡视频| 字幕网中文aⅴ资源站| 五月激情站| 欧美a在线| yy6080一级毛片高清| 天天摸天天碰成人免费视频| 加勒比一到三区| 1000部啪啪未满十八勿入中国| 午夜无码国产理论在线| 濑亚美莉iptd619在线观看| 天天干夜夜操美女| 国产午夜在线视频| 97se狠狠狠狠狼亚洲综合网| 国产精品爱久久久久久久三级 | 天天做天天爰夜夜爽| 成年网站在线观看| 天天射天天操天天色| www.夜夜操| 999国产精品| 4hu影院在线观看| 欧美1024| 中文字幕一区二区三区四区五区 | 手机看片福利盒子久久| 午夜aa| 种子在线搜索bt| 人人爱人人射| 97av在线|