Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Zhipu AI выпустила GLM-5 под MIT наравне с Claude и GPT

Китайская Zhipu AI открыла GLM-5 с 744 млрд параметров под лицензией MIT — модель конкурирует с Claude Opus 4.5 и GPT-5.2 в кодинге и агентных задачах, генерирует документы и работает на китайском железе. Китайские лаборатории ускоряют темпы, сокращая отставание от Запада.

13 февраля 2026 г.
5 мин
30

Китайская компания Zhipu AI представила GLM-5 — открытую модель с 744 миллиардами параметров, которая конкурирует с Claude Opus 4.5 и GPT-5.2 в задачах программирования и работы агентов.

В GLM-5 задействовано 744 миллиарда параметров, из них 40 миллиардов активны одновременно. Архитектура Mixture-of-Experts почти вдвое превышает предыдущую GLM-4.5 с ее 355 миллиардами параметров. Объем данных для обучения вырос с 23 до 28,5 триллиона токенов. Z.ai применяет Deepseek Sparse Attention (DSA), чтобы снизить расходы на развертывание без ущерба для обработки длинных контекстов.

Zhipu AI подчеркивает: базовые модели должны уходить от простого чата к реальным задачам. GLM-5 способна создавать сложные системы и планировать на длительные сроки — как и последние разработки Anthropic, Google и OpenAI. Веса модели доступны под лицензией MIT — одной из самых свободных для открытого кода.

По бенчмаркам Zhipu AI, GLM-5 обходит все открытые модели в тестах на рассуждения, кодинг и агентов. Особо показателен Vending Bench 2: модель управляет виртуальным бизнесом по продаже из торгового автомата целый год.

GLM-5 завершила симуляцию с $4432 на счете, уступив немного Claude Opus 4.5 с $4967. Andon Labs провел тест — те же авторы, что помогали Anthropic в "Project Vend", где Claude Sonnet 3.7 управляла реальным магазином самообслуживания и ушла в минус.

В SWE-bench Verified GLM-5 набирает 77,8%, опережая Deepseek-V3.2 и Kimi K2.5, но отстает от 80,9% у Claude Opus 4.5. На BrowseComp, оценивающем поиск в вебе и управление контекстом агентами, GLM-5 якобы превосходит все проприетарные модели — независимых подтверждений пока нет.

Результаты бенчмарков не всегда отражают повседневную эффективность. Для открытых моделей разрыв между тестами и реальностью часто особенно велик: хорошие цифры маскируют проблемы с удобством по сравнению с закрытыми аналогами.

Тем не менее выпуск впечатляет скоростью. Анализ Stanford показал, что китайские модели обычно отстают от американских на семь месяцев. GLM-5 вышла через три месяца после флагманов Anthropic, Google и OpenAI — разрыв сократился вдвое.

Генерация документов прямо из промптов

Zhipu AI заявляет: GLM-5 превращает текст и другие источники в готовые файлы .docx, .pdf и .xlsx. В приложении Z.ai есть режим агента с навыками создания документов — от предложений о спонсорстве до финансовых отчетов.

Модель интегрируется с OpenClaw — новым фреймворком для рабочих процессов между приложениями и устройствами, — а также с популярными кодинговыми агентами вроде Claude Code, OpenCode и Roo Code.

GLM-5 работает на видеокартах Nvidia и чипах Huawei Ascend, Moore Threads, Cambricon и других китайских производителей. Оптимизация ядер и квантизация обеспечивают приемлемую производительность на альтернативном железе.

Это критично для Китая, где американские ограничения усложняют доступ к Nvidia. Для локального запуска поддерживаются фреймворки vLLM и SGLang — инструкции есть в репозитории на GitHub.

Zhipu AI также открыла slime — фреймворк обучения с подкреплением для дообучения GLM-5. Главная сложность: RL для больших языковых моделей идет слишком медленно. Slime использует асинхронную схему с Megatron для тренинга и SGLang для инференса. Поддерживает Qwen3, Deepseek V3 и Llama 3 помимо моделей Zhipu.

Китайские ИИ-лаборатории конкурируют все жестче

Zhipu AI недавно представила GLM-4.7 — прямого предшественника GLM-5 с функцией "Preserved Thinking", сохраняющей цепочку мыслей в длинных диалогах. GLM-5 поднимает ее результат в SWE-bench с 73,8% до 77,8%.

Параллельно конкурент Moonshot AI выпустил Kimi K2.5, координирующий до 100 субагентов в "Agent Swarms" и лидирующий в агентных тестах. Обе модели на Mixture-of-Experts и стремятся к автономным агентам, способным планировать и действовать долго.

Общий тренд в бенчмарках GLM-5 и Kimi K2.5: Deepseek сдает позиции. Deepseek-V3.2 заметно отстает в агентных и кодинговых тестах. По South China Morning Post, следующая модель Deepseek — с триллионом параметров — задерживается из-за роста размеров.