Новые модели TranslateGemma от Google подтверждают: меньший размер иногда эффективнее. Версия с 12 миллиардами параметров превосходит модель вдвое крупнее. Всего поддержка 55 языков.
Google представил TranslateGemma в трех вариантах: модель на 4 миллиарда параметров для смартфонов, 12B для ноутбуков пользователей и 27B для облачных серверов — последняя помещается на одной H100 GPU или TPU.
Компания оценила качество по MetricX — это показатель ошибок в переводах, где меньшие значения лучше. У 12B TranslateGemma результат 3.60, что лучше 4.04 у базовой 27B-модели. По сравнению с собственной базовой 12B-моделью (4.86) ошибки сократились примерно на 26 процентов.
Прогресс заметен по всем 55 языковым парам из тестов. Большие улучшения в языках с ограниченными ресурсами: ошибки в переводе с английского на исландский упали более чем на 30 процентов, а на суахили — примерно на 25 процентов.
Двухэтапное обучение переносит знания из Gemini
Такой рост производительности достигнут благодаря двухступенчатому процессу. Сначала модели дообучают на параллельных данных — реальных переводах людей и синтетических. Далее подключают обучение с подкреплением для повышения качества: несколько автоматических оценщиков проверяют результаты без опоры на эталонные переводы. Отдельная модель оценивает естественность текста, будто его написал носитель языка.
Чтобы сохранить универсальность при специализации, в данные добавили 30 процентов общих инструкций. Благодаря этому TranslateGemma подходит и для чат-ботов.
Оценка профессиональных переводчиков в основном совпадает с автоматической, за одним исключением: переводы с японского на английский ухудшились из-за проблем с именами собственными, по данным Google.
Сохранены мультимодальные функции
Модели унаследовали мультимодальность от Gemma 3: они переводят текст на изображениях, даже без целевого обучения на этом. Тесты по бенчмарку Vistra подтверждают перенос улучшений на переводы с картинок.
Для лучших результатов Google советует задавать модели роль "профессионального переводчика", учитывающего культурные особенности. Скачать модели можно на Kaggle и Hugging Face.
TranslateGemma работает по правилам Gemma Terms of Use — лицензии для семейства Gemma. Она разрешает коммерческое применение, изменения и распространение, но требует передачи тех же условий и запрещает некоторые сценарии по Prohibited Use Policy от Google. Это не классическая открытая лицензия из-за ограничений, поэтому Google называет подход "Open Weights". Компания не претендует на права к сгенерированным переводам.
Google развивает Gemma в конкуренции открытых моделей
TranslateGemma — свежее дополнение к растущей линейке Gemma от Google. Она основана на Gemma 3, вышедшей весной 2025 года как мощная модель с открытыми весами для обычного оборудования. С тех пор появились варианты под задачи: MedGemma для анализа медицинских изображений, FunctionGemma для управления устройствами локально, Gemma 3 270M для сред с дефицитом ресурсов и Gemma 3n для мобильных гаджетов.
На рынке открытых моделей Google бросает вызов китайским игрокам вроде Alibaba (Qwen), Baidu и Deepseek, которые резко усилили позиции за год. Американские лаборатории вроде OpenAI (свежий ChatGPT Translate) и Anthropic держатся закрытых систем.