5

3秒复制任何人的嗓音!微软音频版DALL·E细思极恐,连环境背景音也能模仿

 1 year ago
source link: https://www.qbitai.com/2023/01/41173.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

3秒复制任何人的嗓音!微软音频版DALL·E细思极恐,连环境背景音也能模仿

head.jpg萧箫 2023-01-11 13:29:20 来源:量子位

情绪语气变化多样

萧箫 发自 凹非寺
量子位 | 公众号 QbitAI

只需3秒钟,一个根本没听过你说话的AI,就能完美模仿出你的声音。

是不是细思极恐?

这是微软最新AI成果——语音合成模型VALL·E,只需3秒语音,就能随意复制任何人的声音。

它脱胎于DALL·E,但专攻音频领域,语音合成效果在网上放出后火了:

941d100773c445638823b07625237fb1~tplv-tt-shrink:640:0.image

有网友表示,要是将VALL·E和ChatGPT结合起来,效果简直爆炸:

看来与GPT-4在Zoom里聊天的日子不远了。

5bca8ffe5d704a07a187d204a105412a~tplv-tt-shrink:640:0.image

还有网友调侃,(继AI搞定作家、画家之后)下一个就是配音演员了。

a9d660dbf2ed418bb9a4fc6f950a4e30~tplv-tt-shrink:640:0.image

所以VALL·E究竟怎么做到3秒钟模仿“没听过”的声音?

用语言模型来分析音频

基于AI“没听过”的声音合成语音,即零样本学习。

语音合成趋于成熟,但之前零样本语音合成效果并不好。

主流语音合成方案基本是预训练+微调模式,如果用到零样本场景下,会导致生成语音相似度和自然度很差。

基于此,VALL·E横空出世,相比主流语音模型提出了不太一样的思路。

bd96bbdb43d24c8f99c9b268bad66741~tplv-tt-shrink:640:0.image

相比传统模型采用梅尔频谱提取特征,VALL·E直接将语音合成当成了语言模型的任务,前者是连续的,后者是离散化的。

具体来说,传统语音合成流程往往是“音素→梅尔频谱(mel-spectrogram)→波形”这样的路子。

但VALL·E将这一流程变成了“音素→离散音频编码→波形”:

99f3f17ff6af46d9b5f4af9ca73b7f93~tplv-tt-shrink:640:0.image

具体到模型设计上,VALL·E也和VQVAE类似,将音频量化成一系列离散tokens,其中第一个量化器负责捕捉音频内容和说话者身份特征,后几个量化器则负责细化信号,使之听起来更自然:

04ff9a820341493b8834ab3cd6b87ffc~tplv-tt-shrink:640:0.image

随后以文本和3秒钟的声音提示作为条件,自回归地输出离散音频编码:

6bfd7d5d85e2457fa71eac84c904348f~tplv-tt-shrink:640:0.image

VALL·E还是个全能选手,除了零样本语音合成,同时还支持语音编辑、与GPT-3结合的语音内容创建。

那么在实际测试中,VALL·E的效果如何呢?

连环境背景音都能还原

根据已合成的语音效果来看,VALL·E能还原的绝不仅仅是说话人的音色。

不仅语气模仿到位,而且还支持多种不同语速的选择,例如这是在两次说同一句话时,VALL·E给出的两种不同语速,但音色相似度仍然较高:

d619639e66ec4759b5069ad2424e0c96~tplv-tt-shrink:640:0.image

同时,连说话者的环境背景音也能准确还原。

除此之外,VALL·E还能模仿说话者的多种情绪,包括愤怒、困倦、中立、愉悦和恶心等好几种类型。

值得一提的是,VALL·E训练用的数据集不算特别大。

相比OpenAI的Whisper用了68万小时的音频训练,在只用了7000多名演讲者、6万小时训练的情况下,VALL·E就在语音合成相似度上超过了经过预训练的语音合成模型YourTTS。

而且,YourTTS在训练时,事先已经听过108个演讲者中的97人声音,但在实际测试中还是比不过VALL·E。

cf834c24d8764b149babf50e31c94ff2~tplv-tt-shrink:640:0.image

有网友已经在畅想它可以应用的地方了:

不仅可以用在模仿自己的声音上,例如帮助残障人士和别人完成对话,也可以在自己不想说话时用它代替自己发语音。

当然,还可以用在有声书的录制上。

1064957b31cf48ec9e74cdf924ccabfd~tplv-tt-shrink:640:0.image

不过,VALL·E目前还没开源,要想试用可能还得再等等。

ad0ac05c7f6a4091bae5c42e6c8351f0~tplv-tt-shrink:640:0.image

这篇论文所有作者均来自微软,其中有三位共同一作。

3297c7c63fb74db18be490a4cb2cf9b2~tplv-tt-shrink:640:0.image

一作Chengyi Wang,南开大学和微软亚研院联合培养博士生,研究兴趣是语音识别、语音翻译和语音预训练模型等。

063cbf5eae364741977ff2639c72b190~tplv-tt-shrink:640:0.image

共同一作Sanyuan Chen,哈工大和微软亚研院联合培养博士生,研究方向包括自监督学习、NLP和语音处理等。

5f0bc23f9a7b44379f14fa58cb24d433~tplv-tt-shrink:640:0.image

共同一作Yu Wu,微软亚研院NLP小组研究员,在北航获得博士学位,研究方向是语音处理、聊天机器人系统和机器翻译等。

1ac2eff34dc94300af645bd012f4a980~tplv-tt-shrink:640:0.image

感兴趣的小伙伴可以戳下方论文地址查看~

论文地址:
https://arxiv.org/abs/2301.02111

音频试听地址:
https://valle-demo.github.io/

参考链接:
https://twitter.com/DrJimFan/status/1611397525541617665

版权所有,未经授权不得以任何形式转载及使用,违者必究。

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK