GLM‑4.7 стал общедоступным с открытым исходным кодом — значительный прорыв в производительности генерации кода

искусственный интеллект,языковые модели,zhipu ai,glm-4.7,открытый исходный код,программирование

GLM-4.7 от Zhipu AI — новая мощная языковая модель с открытым исходным кодом, значительно улучшенная для программирования, рассуждений и выполнения задач. Модель превосходит конкурентов в бенчмарках кодирования и использования инструментов, предлагая разработчикам стабильные и эффективные решения для реальных проектов.

GLM-4.7, новейшая большая языковая модель с открытым исходным кодом от Zhipu AI, официально выпущена, предлагая существенные улучшения в области программирования, рассуждений и выполнения задач с использованием агентов. Релиз укрепляет позиции GLM как одной из самых мощных моделей с открытым исходным кодом для реальной разработки программного обеспечения и рабочих процессов, управляемых инструментами.

Улучшенные возможности кодирования и работы с агентами

GLM-4.7 представляет значительные улучшения в производительности программирования, особенно в многоязычном кодировании и рабочих процессах агентов на основе терминала. Модель теперь поддерживает надежный механизм «думай, прежде чем действовать» в популярных фреймворках кодирования, таких как Claude Code, TRAE, Kilo Code, Cline и Roo Code, что обеспечивает большую стабильность при выполнении сложных многошаговых задач.

Ключевые улучшения включают:

  • Расширенные возможности кодирования: более надежная генерация и выполнение кода на различных языках и в разных средах.
  • Улучшенная эстетика фронтенда: более качественная генерация веб-страниц, слайдов и плакатов с лучшей компоновкой, визуальным балансом и согласованностью дизайна.
  • Улучшенное использование инструментов: GLM-4.7 получила 67,5 баллов в бенчмарке веб-задач BrowseComp и 87,4 балла в τ²-Bench для интерактивного использования инструментов, установив новый стандарт для открытых моделей и превзойдя Claude Sonnet 4.5.
  • Улучшенные рассуждения: в бенчмарке HLE («Последний экзамен человечества») GLM-4.7 достигла 42,8%, что на 41% лучше, чем у GLM-4.6, и превосходит GPT-5.1.
  • Более естественный общий интеллект: диалоги стали более лаконичными и похожими на человеческие, с заметным улучшением качества письма и погружения в ролевые игры.
    GLM‑4.7 стал общедоступным с открытым исходным кодом — значительный прорыв в производительности генерации кода

    В Code Arena, платформе слепого тестирования кода с более чем миллионом участников по всему миру, GLM-4.7 занимает первое место среди моделей с открытым исходным кодом и первое место среди китайских моделей, опережая GPT-5.2.

Результаты бенчмарков: конкурентоспособность с ведущими закрытыми моделями

В стандартных бенчмарках GLM-4.7 показывает результаты, близкие к Claude Sonnet 4.5, в области программирования:

  • SWE-bench-Verified: 73,8% (SOTA с открытым исходным кодом)
  • LiveCodeBench v6: 84,9% (SOTA с открытым исходным кодом, превосходит Claude Sonnet 4.5)
  • SWE-bench Multilingual: 66,7% (+12,9%)
  • Terminal Bench 2.0: 41% (+16,5%)
    GLM‑4.7 стал общедоступным с открытым исходным кодом — значительный прорыв в производительности генерации кода

Ощутимые преимущества в реальной разработке

1.1 Реальные задачи программирования
В тестах, включающих 100 реальных задач программирования в среде Claude Code, охватывающих фронтенд, бэкенд и следование инструкциям, GLM-4.7 продемонстрировала явные улучшения по сравнению с GLM-4.6 как в стабильности, так и в результативности. Теперь разработчики могут организовывать рабочие процессы, ориентированные на полное выполнение задач от начала до конца, от понимания требований до получения готового к производству результата.

GLM‑4.7 стал общедоступным с открытым исходным кодом — значительный прорыв в производительности генерации кода

1.2 Развитие управляемых рассуждений
GLM-4.7 расширяет свою систему рассуждений тремя режимами:

  • Чередующееся мышление: модель рассуждает перед каждым ответом или вызовом инструмента, улучшая соблюдение инструкций и качество кода.
  • Сохраняемое мышление: блоки рассуждений сохраняются на протяжении многоходовых разговоров, повышая эффективность кэширования и снижая затраты на длительные задачи.
  • Контроль мышления на уровне хода: разработчики могут регулировать глубину рассуждений для каждого хода — отключая ее для простых запросов, чтобы уменьшить задержку, или включая ее для сложных задач, чтобы повысить точность.

1.3 Выполнение сложных задач
Модель демонстрирует более сильную декомпозицию задач и интеграцию технологических стеков, часто создавая полные, исполняемые проекты за один проход, с четкими инструкциями по зависимостям и выполнению. Примеры включают полностью сгенерированные интерактивные игры, такие как игры в стиле Plants vs. Zombies и Fruit Ninja.

1.4 Дизайн фронтенда и визуальный вывод
GLM-4.7 демонстрирует более глубокое понимание визуального кода и соглашений пользовательского интерфейса. Стандартные выходные данные отличаются улучшенной структурой макета, цветовой гармонией и стилизацией компонентов, что снижает необходимость ручной визуальной доводки. В сценариях офисной продуктивности точность компоновки PPT 16:9 выросла с 52% до 91%, что сделало выходные данные в значительной степени «готовыми к использованию».

План кодирования GLM обновлен с учетом GLM-4.7

План кодирования GLM был обновлен, чтобы включить GLM-4.7, предлагая оптимизированный баланс производительности, скорости и стоимости:

  • Полная поддержка рассуждений в Claude Code для стабильного многошагового выполнения
  • Целевые оптимизации для рабочих процессов Skills, Subagents и Claude.md
  • Встроенное визуальное понимание, поиск и чтение веб-страниц для сквозного кодирования
  • Улучшенный дизайн архитектуры и следование инструкциям, снижение галлюцинаций в сценариях с длинным контекстом
    В рамках запуска все платные пользователи получают опытный пропуск, позволяющий 3–7 приглашенным пользователям получить 7-дневную бесплатную пробную версию.

Широкое внедрение разработчиками и поддержка экосистемы

Глобальные платформы для разработчиков сообщают о сильных результатах:

  • TRAE отметил улучшенную стабильность и доступность GLM-4.7 в своей китайской версии.
  • Cerebras отметил, что GLM-4.6 достигла скорости до 1000 токенов в секунду на своем оборудовании, обеспечивая один из самых быстрых опытов кодирования.
  • YouWare сообщил о значительном улучшении качества дизайна фронтенда, завершения сложных функций, параллелизма инструментов и соблюдения инструкций.
    Дополнительные положительные отзывы поступили от Vercel, OpenRouter, CodeBuddy и независимых разработчиков.

Полноценная интеграция в z.ai и открытый доступ

GLM-4.7 теперь интегрирована в z.ai с новым модулем Skills, обеспечивающим унифицированную оркестрацию мультимодальных компонентов, таких как GLM-4.6V, GLM-ASR и GLM-TTS. Это позволяет разработчикам создавать более богатые, интерактивные приложения с более плавными сквозными рабочими процессами.
Варианты доступа включают:

  • API: BigModel.cn
  • Онлайн: z.ai, Zhipu Qingyan (приложение и веб)
  • Открытый исходный код:
    • GitHub: zai-org/GLM-4.5
    • Hugging Face: zai-org/GLM-4.7
    • ModelScope: ZhipuAI/GLM-4.7

(*) Имейте ввиду, редакции некоторых западных изданий придерживаются предвзятых взглядов в освящении некоторых новостей, связанных с Россией. Кроме того, IT издания часто пропагандирует леволиберальные и антриреспубликанские взгляды в освящении некоторых новостей.