Google 发布了基于 Gemma 3 的开源翻译模型 TranslateGemma,提供 4B、12B 和 27B 三个版本。它在 55 种语言上做了优化,12B 模型的翻译质量甚至超过了 Gemma 3 原版的 27B,参数效率显著提升。模型还支持图文翻译等多模态能力,4B 版本适合移动端,12B 能在笔记本上跑。通过 SFT 和强化学习两阶段训练,Google 把大模型的翻译能力“蒸馏”进了小模型。
点评:参数效率确实亮眼,但真正的考验是低资源语言和小语种的实际效果。如果能保持多模态能力的同时做到轻量化,对边缘部署很有价值。