Google представила TranslateGemma — новое семейство моделей машинного перевода, построенных на базе Gemma.

google,translategemma,gemma 3,ии,машинный перевод,открытый код

Google продолжает наращивать темпы в развитии ИИ, анонсировав TranslateGemma — новый набор моделей для перевода, поддерживающий свыше 50 языков. Узнайте о шаге вперед в области открытых решений для машинного перевода.

Корпорация Google представила новый набор моделей для перевода с открытым исходным кодом на базе своей модели Gemma 3 с открытым весом. Google называет этот набор «значительным шагом вперед в области открытого перевода». Новая коллекция, получившая название TranslateGemma, способна работать с 55 языками, включая такие популярные, как испанский, французский, китайский и хинди.

Это объявление прозвучало всего через несколько часов после того, как OpenAI выпустила ChatGPT Translate. Инструмент ChatGPT Translate больше ориентирован на передачу правильных интонаций и контекста при переводе, нежели на прямое пословное замещение. Он имеет двухпанельный интерфейс с автоматическим определением языка слева и целевым языком справа, что несколько напоминает такие инструменты, как Google Translate.

В любом случае, TranslateGemma доступна в версиях с 4, 12 и 27 миллиардами параметров. По данным Google, модель с 12 миллиардами параметров превосходит базовую модель Gemma 3 с 27 миллиардами параметров по результатам тестирования на бенчмарке WMT24++. Для разработчиков возможность получить такую производительность от модели с менее чем половиной параметров означает более высокую пропускную способность и меньшую задержку без ущерба для точности.

Google представила TranslateGemma — новое семейство моделей машинного перевода, построенных на базе Gemma.

Google сообщила, что модель с 4 миллиардами параметров оптимизирована для работы на мобильных устройствах, а 12-миллиардная версия подходит для потребительских ноутбуков. Однако самая крупная модель с 27 миллиардами параметров требует больше вычислительной мощности, например, одного ускорителя NVIDIA H100 в облаке. Тестирование на бенчмарке Vistra для перевода изображений показало, что TranslateGemma способна лучше переводить текст внутри картинок, хотя она не была специально дообучена для этой задачи.

Google также отметила, как удалось достичь такой плотности интеллекта с помощью специализированного двухэтапного процесса. Сначала использовалось дообучение с учителем (Supervised Fine-Tuning), в ходе которого базовые модели Gemma 3 тренировались на смешанном наборе данных, состоящем из текстов, переведенных людьми, и высококачественных синтетических данных, сгенерированных моделями Gemini.

После этого был реализован этап обучения с подкреплением (Reinforcement Learning). На этом втором этапе использовалась группа моделей вознаграждения, включая такие продвинутые метрики, как MetricX-QE и AutoMQM, чтобы направить модели к более естественным и контекстуально точным переводам.

Модели TranslateGemma доступны для скачивания на платформах Kaggle и Hugging Face всем желающим экспериментировать с ними или создавать на их основе собственные решения.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.