参数减半,性能翻倍!谷歌开源发布翻译模型TranslateGemma,手机也能跑
前沿资讯
1768548424更新
0
【导读】谷歌正式发布TranslateGemma,一套基于Gemma 3构建的全新开源翻译模型系列。该系列包含4B、12B和27B三种参数规模,支持55种主要语言。令人瞩目的是,12B版本在性能上竟超越了两倍参数的Gemma 3 27B基线模型,真正实现了"小模型、大能量"的突破。
谷歌正式发布基于Gemma 3架构的全新开源翻译模型系列:TranslateGemma,展示了"小模型实现大能量"的技术可能。
小模型超越大模型。在WMT24++基准测试中,TranslateGemma 12B版本在MetricX指标上超越Gemma 3 27B基线模型。开发者可用不到一半参数获得同等或更好的翻译质量。更小的4B模型性能也足以匹敌12B基线模型,成为移动端和边缘设备理想选择。

据悉,这一突破,源于独特的两阶段微调工艺:
- 监督微调(SFT):使用人工翻译文本和Gemini生成的高质量合成数据进行训练,确保广泛语言覆盖和高保真翻译。
- 强化学习(RL):通过MetricX-QE和AutoMQM等先进奖励模型,引导模型生成更符合语境、自然流畅的译文。
TranslateGemma在55种语言对上严格训练评估,涵盖高资源、低资源等各类语言。测试显示,相比基线Gemma模型,TranslateGemma在所有测试语言中显著降低错误率。
图像翻译同样出色。TranslateGemma继承了Gemma 3强大多模态能力,在Vistra图像翻译基准测试中,即使未针对多模态任务专门微调,文本翻译能力的提升也直接增强了图像内文字翻译效果。
手机到云端全覆盖。三种参数规模针对不同场景优化:
- 4B模型:专为移动设备和边缘设备设计
- 12B模型:面向消费级笔记本电脑,本地开发理想选择
- 27B模型:追求极致质量,可在单张H100 GPU或云端TPU运行
所有模型已在Kaggle、Hugging Face、Vertex AI平台开放下载,开发者可免费使用并进行二次开发。
参考资料:https://blog.google/innovation-and-ai/technology/developers-tools/translategemma/
豫公网安备41010702003375号