國產最強語音大模型誕生,MaskGCT宣布開源,聲音效果媲美人類
近期,港中大(深圳)聯手趣丸科技聯合推出了新一代大規模聲音克隆 TTS 模型 ——MaskGCT。該模型在包含 10 萬小時多語言數據的 Emilia 數據集上進行訓練,展現出超自然的語音克隆、風格遷移以及跨語言生成能力,同時保持了較強的穩定性。MaskGCT 已在香港中文大學(深圳)與上海人工智能實驗室聯合開發的開源系統 Amphion 發布。
論文鏈接:
樣例展示:
模型下載:
Demo 展示:
項目地址:
公測應用:
本文介紹了一種名為 Masked Generative Codec Transformer(MaskGCT)的全非自回歸 TTS 模型。
現有大規模文本到語音(TTS)系統通常分為自回歸和非自回歸系統。自回歸系統隱式地建模持續時間,但在魯棒性和持續時間可控性方面存在一定缺陷。非自回歸系統在訓練過程中需要顯式的文本與語音對齊信息,并預測語言單元(如音素)的持續時間,這可能會影響其自然度。
該模型消除了文本與語音監督之間的顯式對齊需求,以及音素級持續時間預測。MaskGCT 是一個兩階段模型:在第一階段,模型使用文本預測從語音自監督學習(SSL)模型中提取的語義標記;在第二階段,模型基于這些語義標記預測聲學標記。MaskGCT 遵循掩碼預測學習范式。在訓練過程中,MaskGCT 學習根據給定的條件和提示預測掩碼的語義或聲學標記。在推理過程中,模型以并行方式生成指定長度的標記。通過對 10 萬小時的自然語音進行實驗,結果表明 MaskGCT 在質量、相似度和可理解性方面優于當前最先進的零樣本 TTS 系統。
一、方法
MaskGCT 模型由四個主要組件組成:
1. 語音語義表示編解碼器:將語音轉換為語義標記。
2. 語音聲學編解碼器:從聲學標記重建波形。
3. 文本到語義模型:使用文本和提示語義標記預測語義標記。
4. 語義到聲學模型:基于語義標記預測聲學標記。
語音語義表示編解碼器用于將語音轉換為離散的語義標記,這些標記通常通過離散化來自語音自監督學習(SSL)模型的特征獲得。與以往使用 k-means 方法離散化語義特征相比,這種方法可能導致信息損失,從而影響高質量語音的重建或聲學標記的精確預測,尤其是在音調豐富的語言中。為了最小化信息損失,本文訓練了一個 VQ-VAE 模型來學習一個向量量化碼本,該碼本能夠從語音 SSL 模型中重建語音語義表示。具體來說,使用 W2v-BERT 2.0 模型的第 17 層隱藏狀態作為語音編碼器的語義特征,編碼器和解碼器由多個 ConvNext 塊組成。通過改進的 VQ-GAN 和 DAC 方法,使用因子分解碼將編碼器輸出投影到低維潛在變量空間。
語音聲學編解碼器旨在將語音波形量化為多層離散標記,同時盡可能保留語音的所有信息。本文采用殘差向量量化(Residual Vector Quantization, RVQ)方法,將 24K 采樣率的語音波形壓縮為 12 層的離散標記。此外,模型使用 Vocos 架構作為解碼器,以提高訓練和推理效率。
文本到語義模型采用非自回歸掩碼生成 Transformer,而不使用自回歸模型或任何文本到語音的對齊信息。在訓練過程中,我們隨機提取語義標記序列的前綴部分作為提示,以利用語言模型的上下文學習能力。我們使用 Llama 風格的 Transformer 作為模型的主干,結合門控線性單元(GLU)和 GELU 激活函數、旋轉位置編碼等,但將因果注意力替換為雙向注意力。還使用了接受時間步 t 作為條件的自適應 RMSNorm。在推理過程中,我們生成任意指定長度的目標語義標記序列,條件是文本和提示語義標記序列。本文還訓練了一個基于流匹配的持續時間預測模型,以預測基于文本和提示語音持續時間的總持續時間,利用上下文學習。
語義到聲學模型同樣采用非自回歸掩碼生成 Transformer,該模型以語義標記為條件,生成多層聲學標記序列以重建高質量語音波形。
二、樣例展示
MaskGCT 能超自然地模擬參考音頻音色與風格,并跨語言生成音頻:
參考音頻鏈接:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650940988&idx=5&sn=587fd1152a5c313fc0c65f521a7c9313&chksm=84e7e242b3906b541ca9838161997783f3120a9c186dc3579e79d5ddb6f3fe02bf859317725f&token=820864421&lang=zh_CN#rd
以下是一個展示 MaskGCT 翻譯《黑神話:悟空》的實例:
參考音頻:
翻譯效果:
試聽鏈接:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650940988&idx=5&sn=587fd1152a5c313fc0c65f521a7c9313&chksm=84e7e242b3906b541ca9838161997783f3120a9c186dc3579e79d5ddb6f3fe02bf859317725f&token=820864421&lang=zh_CN#rd
四、實驗結果
SOTA 的語音合成效果:MaskGCT 在三個 TTS 基準數據集上都達到了 SOTA 效果,在某些指標上甚至超過了人類水平。
此外,MaskGCT 在風格遷移(口音、情感)也達到了 SOTA 的水準:
我們還研究了 MaskGCT 在中、英外其它語言的能力:
五、應用場景
目前,MaskGCT 在短劇出海、智能助手、有聲讀物、輔助教育等領域擁有豐富的應用場景。為了加快落地應用,在安全合規下,趣丸科技打造了多語種速譯智能視聽平臺 “趣丸千音”。一鍵上傳視頻即可快速翻譯成多語種版本,并實現音話同步、口型同步、去字幕等功能。該產品進一步革新視頻翻譯制作流程,大幅降低過往昂貴的人工翻譯成本和冗長的制作周期,成為影視、游戲、短劇等內容出海的理想選擇平臺。
《2024 年短劇出海白皮書》顯示,短劇出海成為藍海新賽道,2023 年海外市場規模高達 650 億美元,約為國內市場的 12 倍,短劇出海成為藍海新賽道。以 “趣丸千音” 為代表的產品的出現,將加速國產短劇 “走出去”,進一步推動中華文化在全球不同語境下的傳播。
六、總結
MaskGCT 是一個大規模的零樣本 TTS 系統,利用全非自回歸掩碼生成編解碼器 Transformer,無需文本與語音的對齊監督和音素級持續時間預測。MaskGCT 通過文本預測從語音自監督學習(SSL)模型中提取的語義標記,然后基于這些語義標記預測聲學標記,實現了高質量的文本到語音合成。實驗表明,MaskGCT 在語音質量、相似度和可理解性方面優于最先進的 TTS 系統,并且在模型規模和訓練數據量增加時表現更佳,同時能夠控制生成語音的總時長。此外,我們還探索了 MaskGCT 在語音翻譯、語音轉換、情感控制和語音內容編輯等任務中的可擴展性,展示了 MaskGCT 作為語音生成基礎模型的潛力。
七、團隊介紹
王遠程:香港中文大學(深圳)計算機科學專業的二年級博士生,研究聚焦語音合成與表征領域,曾作為共同第一作者,研發新一代語音合成系統 NaturalSpeech 3。
武執政:香港中文大學(深圳)副教授、博導,港中大深圳 - 趣丸科技聯合實驗室主任。入選國家級青年人才,連續多次入選斯坦福大學 “全球前 2%頂尖科學家”、愛思唯爾 “中國高被引學者” 榜單。
曾銳鴻:趣丸科技資深語音算法工程師,研究聚焦跨語言零樣本語音合成。曾在頂級期刊 ACM TWEB 發表論文,以及多篇語音識別和語音合成相關發明專利。
詹皓粵:趣丸科技資深語音算法工程師,研究聚焦跨語言零樣本語音合成,曾發表多篇領域頂會論文及發明專利。
張強:趣丸科技人工智能研究中心副主任,人工智能高級工程師,專注研究人工智能算法,目前主持語音大模型、2D 和 3D 數字人等技術的研發。
張順四:趣丸科技副總裁兼人工智能研究中心主任,人工智能高級工程師,粵港澳人工智能產業智庫專家,長期從事低延遲音視頻通訊技術和人工智能技術的研究,主導過千萬級日活產品。發表技術發明專利 30 余篇,發表 EI 3 篇,SCI 3 篇。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。