为了将以前主要以英语研究的语言模型和翻译模型扩展为多种语言,人们进行了许多尝试。谷歌的mT5是一项将现有T5(文本到文本转换转换器)扩展到多语言语料库的研究,并且它通过收集包括101种语言在内的数据并进行学习来实现跨语言任务的性能提升。它。不仅代码,而且训练脚本和训练后的模型也与公共github链接共享。
同时,Facebook推出了M2M-100,该技术可实现100种语言的互译。特别是在现有多语言翻译的情况下,通常会先进行英语翻译,但是对此进行了改进,可以在原始语言和目标语言之间进行直接翻译。例如,通过这一过程,从中文翻译到法语时,据说BLEU的改进超过了10分。作为参考,据说已经学习了M2M-100总共2200种语言组合。这里是有关此文章的链接和github的链接。
推出首个无需依赖英语即可翻译100种语言的AI模型-关于Facebook
Facebook AI正在推出M2M-100,这是第一个可以在不依赖英语数据的情况下在任何100种语言之间进行翻译的多语言机器翻译模型。