谷歌推出了TranslateGemma,这是一套基于Gemma 3架构构建的新型开放翻译模型。该模型提供了三种不同参数规模的版本:4B、12B和27B,能够支持55种语言之间的机器翻译任务。这些模型适用于多种环境,从移动设备和边缘计算设备到消费级硬件以及云加速器,并且以开源形式提供给开发人员和研究人员使用。

TranslateGemma的诞生源于一项注重效率并致力于从大型专有系统中迁移知识的训练项目。谷歌采用了两阶段训练方法:将监督微调强化学习相结合。在监督训练阶段,基础版的Gemma 3模型是在由人工翻译结果和Gemini模型生成的合成翻译数据组成的并行数据集上进行的训练。这种混合数据集的设计旨在提高对各种语言类型的覆盖范围,尤其是资源较少的语言,同时确保翻译质量的一致性。

在强化学习阶段,这些模型通过一系列自动奖励信号进行优化。这些评估指标包括质量评估分数以及MetricX-QEAutoMQM等机器翻译评测标准,这些指标能够更全面地反映翻译结果的准确性和流畅性,而不仅仅是简单的对照匹配效果。据谷歌称,这种训练方法显著提高了模型的参数使用效率。在WMT24++基准测试中,12B版本的TranslateGemma模型所取得的错误率低于规模更大的27B Gemma 3模型,而4B版本模型的性能则接近12B版本。所有测试均涵盖了55种不同语言,包括资源丰富、中等资源以及资源匮乏的语言环境。

除了那些被纳入官方基准测试的语言外,谷歌还对近500对其他语言组合进行了训练。这些扩展语言组合目前尚未完成全面评估,但谷歌表示,加入这些语言数据是为了鼓励社区进一步开展相关研究和微调工作,尤其是针对那些较少被关注的语言。这些模型还保留了从Gemma 3继承来的多模态处理能力。在使用Vistra基准测试框架进行的内部测试中,尽管没有进行专门的多模态优化训练,但这些模型在翻译嵌入图片中的文本时依然表现出了更好的性能。

不同规模模型的应用场景也有所不同。4B版本的TranslateGemma适用于移动设备和边缘计算环境,因为这些设备通常面临内存和功耗的限制;12B版本则适合在消费级笔记本电脑上运行,这样就可以在不使用专用加速器的情况下进行本地开发和实验;而27B版本则专为云部署设计,可以在单个高端GPU或TPU上运行,例如H100级别的加速器。

社区对这一发布的反应主要集中在这些模型的效率表现,以及将其公开提供的决定上。社交平台上的研究人员和开发者们指出了12B模型相对于那些规模更大的基准模型的表现,并认为它在那些对成本敏感的应用场景中,以及在设备端进行翻译时具有很大的潜力。

研究者Avais Aziz评论道:

TranslateGemma为世界带来了功能强大、开源的翻译工具,其翻译质量和效率都令人印象深刻。很高兴看到Gemma 3能够产生如此重要的全球性影响,真是了不起的工作!

与此同时,用户Darek Gusto也表达了同样的看法:

我非常喜欢它。像X这样的网站和服务所提供的自动翻译功能,对我们这些非母语者来说非常重要,而开源的翻译模型则是实现这一目标的关键。

与其他开源翻译模型相比,比如Meta的NLLB系列模型,或是那些专为翻译任务优化过的多语言大语言模型,TranslateGemma更专注于在较小的模型规模下提升翻译效率。虽然其他竞争模型往往强调广泛的多语言支持或通用性功能,但它们通常需要更多的参数数量或额外的调优步骤。而TranslateGemma的方法则注重在较低的计算资源和延迟要求下保证翻译质量,因此它非常适合那些对成本敏感的应用场景,以及设备端的翻译需求。

Comments are closed.