谷歌推出了TranslateGemma,这是一套基于Gemma 3架构构建的新型开源翻译模型。该模型提供了三种不同参数规模的版本:4B、12B和27B,能够支持55种语言之间的机器翻译任务。这些模型适用于多种环境,从移动设备和边缘计算设备到消费级硬件以及云加速器,开发者与研究人员都可以将其作为开源资源进行使用。

TranslateGemma的诞生源于一项注重效率并致力于从大型专有系统中迁移知识的训练项目。谷歌采用了两阶段训练方法:首先结合监督式微调强化学习对基础Gemma 3模型进行训练;在监督训练阶段,使用由人类翻译结果与Gemini模型生成的合成翻译数据组成的并行训练集来提升模型的覆盖范围,尤其是那些资源较少的语言种类,同时确保翻译质量的一致性。

在强化学习阶段,这些模型通过一系列自动奖励信号来进行优化。这些评估指标包括MetricX-QEAutoMQM等机器翻译质量评估工具,它们能够全面衡量翻译结果的准确性与流畅性,而不仅仅是简单的对照匹配效果。根据谷歌的说法,这种训练方法显著提高了模型的参数使用效率。在WMT24++基准测试中,12B规模的TranslateGemma模型所取得的错误率低于27B规模的Gemma 3模型;而4B规模的模型则接近12B模型的性能。这些评估涵盖了55种不同语言环境。

除了那些被纳入官方基准测试的语言外,谷歌还对近500对其他语言组合进行了训练。虽然这些扩展语言组合尚未完成全面评估,但谷歌表示,加入这些数据是为了鼓励社区进一步开展研究并进行针对性优化,尤其是针对那些较少被关注的语言。TranslateGemma模型还继承了Gemma 3的多模态处理能力。在采用Vistra基准测试进行的内部测试中,即使没有进行专门的多模态微调,这些模型在处理图像中的文本翻译任务时也表现出了更好的性能。

不同规模的TranslateGemma模型适用于不同的应用场景。4B规模模型适合在移动设备和边缘计算设备上运行,因为这些设备的内存和功耗限制较为严格;12B规模模型则适用于消费级笔记本电脑,使得用户无需专用加速器即可进行本地开发和实验;而27B规模模型专为云环境设计,可以在单个高端GPU或TPU上运行,例如H100级别的加速器。

社区对这一发布的反应主要集中在这些模型的效率表现,以及将其公开提供的决定上。社交平台上的研究人员和开发者们指出了12B模型相对于那些规模更大的基准模型所展现出的性能,并强调了它在成本敏感的应用场景以及设备端翻译任务中的潜在价值。

研究者Avais Aziz评论道:

TranslateGemma为世界带来了功能强大、开源的翻译工具,其翻译质量和效率都令人印象深刻。很高兴看到Gemma 3能够产生如此重要的全球性影响,真是了不起的工作!

与此同时,用户Darek Gusto也表达了同样的看法:

我非常喜欢它。像X这样的网站和服务提供的自动翻译功能对我们这些非母语者来说非常重要,而开源的翻译模型则是实现这一目标的关键。

与其他开源翻译模型相比,比如Meta的NLLB系列模型或那些专为翻译任务优化过的多语言大语言模型,TranslateGemma更专注于在较小的模型规模下提升翻译效率。虽然其他竞争模型往往强调广泛的多语言支持或通用性功能,但它们通常需要更多的参数数量或额外的调优步骤。而TranslateGemma的做法则是优先保证可预测的翻译质量,同时降低计算资源和延迟需求,这使得它特别适合那些对成本敏感的应用场景以及设备端部署。

Comments are closed.