20

支持108种语言的谷歌翻译如何用AI让翻译质量越来越好?

 3 years ago
source link: https://www.leiphone.com/news/202006/AiiYunuR7Md2SJWO.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

谷歌表示,在提高语言翻译的质量方面,已经取得了进展。在即将发表的博客文章中,该公司详细介绍了新的创新技术,这些创新技术增强了Google翻译(Google Translate)支持的108种语言(特别是数据贫乏的约鲁巴语和马拉雅拉姆语)的用户体验,该服务平均每天翻译1500亿个单词。

jqym6nI.jpg!web

自谷歌翻译首次公开亮后的13年间,诸如神经机器翻译、基于重写的范例和本地处理之类的技术使该平台的翻译准确性有了可量化的飞跃。但是直到最近,翻译的最新算法表现也落后于人类。Google之外的努力也说明了问题的难度,Masakhane项目旨在使非洲大陆上的数千种语言能够自动翻译,但它还没有超出数据收集和转录阶段。共同的声音(雷锋网注,Common Voice是Mozilla发起的一个众包项目,旨在为语音识别软件创建免费的数据库)自2017年6月推出以来,Mozilla为建立转录语音数据的开源集合所做的努力仅审查了40种声音。

谷歌表示,其翻译质量的突破并不是由单一技术推动,而是针对资源较少的语言、高质量源语言、总体质量、延迟和整体推理速度的技术组合。在2019年5月至2020年5月之间,通过人工评估和BLEU(一种基于系统翻译与人工参考翻译之间相似性的指标)进行衡量,谷歌翻译在所有语言中平均提高了5分或更多,在50种最低水平的翻译中平均提高了7分或更多。此外,谷歌表示,“翻译”对机器翻译联想的功能变得更加强大,一种现象是,当给泰卢固语字符“షషషషషష”输入,“Shenzhen Shenzhen Shaw International Airport (SSH)”)时,AI模型会产生奇怪的翻译“Sh sh sh sh sh sh sh sh sh sh sh sh sh sh sh sh sh”。

混合模型和数据挖掘器

这些技术中的第一个是翻译模型体系结构——一种混合体系结构,包含在Lingvo(用于序列建模的TensorFlow框架)中实现的Transformer编码器和递归神经网络(RNN)解码器。

在机器翻译中,编码器通常将单词和短语编码为内部表示,然后解码器将其用于生成所需语言的文本。谷歌相关研究人员于2017年首次提出的基于Transformer模型在此方面比RNN更为有效,但谷歌表示其工作表明大部分质量提升仅来自于Transformer的一个组成部分:编码器。那可能是因为虽然RNN和Transformer都被设计为处理有序的数据序列,但是Transformers并不需要按顺序处理序列。换句话说,如果所讨论的数据是自然语言,则Transformer无需在处理结尾之前处理句子的开头。

尽管如此,在推理时,RNN解码器仍比“Transformer”中的解码器“快得多”。意识到这一点,Google Translate团队在将RNN解码器与Transformer编码器结合之前对RNN解码器进行了优化,以创建低延迟、质量更高,比四年前基于RNN的神经机器翻译模型更稳定的混合模型进行替代。

ja6RrmB.png!web

图:自2006年成立以来,Google翻译模型的BLEU得分。(图片来源:Google)

除了新颖的混合模型体系结构之外,Google还从数以百万计的示例翻译中(用于文章、书籍、文档和Web搜索结果)编译了用于编译训练集的数十年历史的爬虫。新的翻译器基于嵌入的14种主流语言,而不是基于字典的-意味着它使用实数矢量表示单词和短语-更加注重精度(相关数据在检索到的数据中所占的比例)想到(实际检索到的相关数据总量的一部分)。谷歌表示,在使用过程中,这使翻译器提取的句子数量平均增加了29%。

有噪音的数据和转移学习

另一个翻译性能提升来自更好地处理训练数据中噪声的建模方法。观察到有噪声的数据(含有大量无法正确理解或解释的大量信息的数据)会损害语言的翻译,因此Google翻译团队部署了一个系统,该系统使用经过训练的模型为示例分配分数对嘈杂的数据进行调优,并对“干净的”数据进行调优。实际上,这些模型开始对所有数据进行训练,然后逐步对较小和较干净的子集进行训练,这是AI研究社区中称为课程学习的方法。

在资源匮乏的语言方面,Google 在翻译中实施了反向翻译方案,以增强并行训练数据,该语言中的每个句子都与其翻译配对。(机器翻译传统上依赖于源语言和目标语言中成对句子的语料统计)在这种方案中,训练数据会自动与合成并行数据对齐,从而目标文本是自然语言,但会生成源通过神经翻译模型。结果是谷歌翻译利用了更丰富的单语文本数据来训练模型,Google表示这对于提高流利性特别有用。

B3aeQr2.png!web

图:带有翻译功能的Google Maps。

谷歌翻译现在还利用了M4建模,其中一个大型模型M4在多种语言和英语之间进行翻译。(M4是于去年在一篇论文中首次提出,证明它在训练了100多种语言中的250亿对句子对之后,提高了30多种低资源语言的翻译质量。)M4建模使谷歌翻译中的迁移学习成为可能,收集了包括法语、德语和西班牙语(有数十亿个并行示例)的高资源语言进行训练提升了表现,从而可以应用于翻译诸如约鲁巴语、信德语和夏威夷语(仅有数万个示例)的低资源语言。

展望未来

根据Google的说法,自2010年以来,翻译每年至少提高了1个BLEU点,但是自动机器翻译绝不能解决问题。Google承认,即使是其增强的模型也容易出错,包括将一种语言的不同方言混淆,产生过多的直译,以及在特定题材和非正式或口头语言上的表现不佳。

微软试图通过各种方式解决这一问题,包括通过其谷歌翻译社区计划(Google Translate Community)来招募志愿者,通过翻译单词和短语或检查翻译是否正确来帮助提高低资源语言的翻译质量。仅在2月份,该程序与新兴的机器学习技术相结合,就增加了翻译,共有7500万人使用了五种语言:Kinyarwanda、Odia(奥里亚语)、Tatar、Turkmen和Uyghur(维吾尔语)。

追求真正通用翻译的并不只有Google。在2018年8月,Facebook 公开了一种AI模型,该模型结合了逐词翻译,语言模型和反向翻译的组合,在语言配对方面表现更好。最近,麻省理工学院计算机科学与人工智能实验室的研究人员提出了一种无监督的模型,即可以从未明确标记或分类的测试数据中学习的模型,该模型可以在两种语言的文本之间进行翻译,而无需在两种语言之间直接进行翻译。

谷歌在一份声明中以外交方式表示,它对“学术界和工业界”的机器翻译研究表示感谢,其中一些通报了自己的工作。该公司表示:“我们通过综合和扩展各种最新进展来实现(谷歌翻译最近的改进)。通过此更新,我们为提供相对一致的自动翻译而感到自豪,即使是在支持的108种语言中资源最少的情况下也是如此。”

参考链接: https://venturebeat.com/2020/06/03/how-googleis-using-emerging-ai-techniques-to-improve-language-translation-quality/ 雷锋网雷锋网 (公众号:雷锋网)

雷锋网原创文章,未经授权禁止转载。详情见 转载须知


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK