Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

MiniMax M2.7 сама участвовала в своей разработке

Китайская MiniMax выпустила модель M2.7, которая самостоятельно участвовала в своей разработке через автономные циклы оптимизации и достигла результатов на уровне топовых моделей вроде GPT-5.4 и Opus 4.6. За 100+ итераций она повысила производительность на 30 процентов, показала 66,6 процента в MLE-Bench Lite и справляется с офисными задачами на ELO 1495. Компания открыла демо OpenRoom и доступ через API.

21 марта 2026 г.
6 мин
35

Китайская компания MiniMax представила модель M2.7, которая активно включилась в процесс своего создания. Благодаря автономным циклам оптимизации она повысила эффективность обучения и достигла конкурентных показателей в тестах.

В ходе работы M2.7 обновляла свои базы знаний, разрабатывала десятки сложных функций в инфраструктуре агентов и совершенствовала обучение на основе вознаграждений самостоятельно. Полученные итоги модель применила для доработки собственного процесса обучения.

MiniMax называет M2.7 первой моделью, которая глубоко вовлеклась в свою эволюцию, и описывает перспективы, где будущие ИИ будут полностью автономно управлять сбором данных, обучением моделей, архитектурой вывода, оценкой и другими этапами без участия людей.

Тизер модели MiniMax M2.7
Столбчатые диаграммы с результатами бенчмарков MiniMax M2.7, M2.5, Gemini 3.1 Pro, Sonnet 4.6, Opus 4.6 и GPT-5.4 по восьми категориям: SWE Bench Pro (M2.7: 56,2), Multi-SWE Bench (52,7), VIBE-Pro (55,6), MLE-Bench Lite (66,6), GDPval-AA (50), Toolathon (46,3), MM-ClawBench (62,7) и Artificial Analysis (50). Конкуренты показывают результаты от чуть ниже до немного выше.
Сравнение MiniMax M2.7 с Sonnet 4.6, Opus 4.6, Gemini 3.1 Pro и GPT-5.4 по восьми бенчмаркам. M2.7 близка к лидерам среди проприетарных моделей в большинстве тестов. | Изображение: MiniMax

MiniMax не единственная, кто пробует такой подход. Недавно OpenAI анонсировала модель GPT-5.3 Codex для кодирования с похожими заявлениями об ИИ-помощи в разработке. По словам OpenAI, команда Codex применяла ранние версии модели для поиска ошибок в обучении, управления развертыванием и анализа тестов. Они удивились, насколько Codex ускорил свой собственный процесс создания.

Более 100 автономных циклов оптимизации демонстрируют возможности самосовершенствующегося ИИ

Чтобы проверить пределы самооптимизации, в MiniMax развернули внутреннюю версию M2.7 в системе исследовательских агентов, взаимодействующих с проектными командами компании. Агент занимается поиском литературы, отслеживанием экспериментов, отладкой, анализом метрик и исправлением кода в повседневной работе команды RL. Люди вмешиваются только на ключевых решениях. Модель покрывает 30–50 процентов всего рабочего процесса.

Схематическое изображение системы итераций модели M2*: сверху человек настраивает и контролирует Agent Harness с иерархическими навыками, постоянной памятью, барьерами и инфраструктурой оценки. Агент читает документацию, проверяет код, генерирует отчеты и обновляет память. Снизу пятиступенчатый workflow RL-команды от планирования экспериментов через разработку, анализ и ревью до итерационной петли. Зеленые фазы автономны, оранжевые требуют сотрудничества человека и ИИ.
Как M2.7 развивает себя: исследователи задают цели и правила, дальше агент берет на себя большую часть процесса разработки. Пример workflow ниже показывает, как планирование экспериментов, изменения кода и оценка перетекают друг в друга. | Изображение: MiniMax

В одном эксперименте M2.7 полностью самостоятельно оптимизировала производительность модели в кодинге в внутренней среде за более чем 100 итераций. На каждом шаге она разбирала неудачи, планировала правки, корректировала код, тестировала итоги и решала, сохранять изменения или откатывать. MiniMax сообщает о росте производительности на 30 процентов по внутренним тестам.

В 22 соревнованиях по машинному обучению из MLE-Bench Lite за три 24-часовых запуска M2.7 получила средний медальный рейтинг 66,6 процента. Это ставит ее позади Opus 4.6 (75,7 процента) и GPT-5.4 (71,2 процента), но на уровне Gemini 3.1, по данным компании.

Бенчмарки дают полезные ориентиры, но не всегда отражают реальные сценарии. Результаты на стандартных тестах могут сильно отличаться от повседневных задач, они зависят от условий тестирования, форматирования запросов и оптимизации модели. Такие цифры стоит воспринимать как приблизительные ориентиры, а не абсолютные меры способностей.

M2.7 не уступает ведущим западным моделям в программировании и офисных задачах

По утверждению MiniMax, M2.7 показывает результаты на уровне топовых западных моделей в бенчмарках по разработке ПО. На SWE-Pro — 56,22 процента, близко к GPT-5.3-Codex. На VIBE-Pro для полной доставки проектов — 55,6 процента. В реальных случаях M2.7 сокращала время восстановления после сбоев в продакшене до менее трех минут несколько раз.

Для офисной работы M2.7 набрала ELO 1495 на GDPval-AA — лучший результат среди моделей с открытыми весами, по версии MiniMax. Модель точно справляется с многоуровневыми правками в Word, Excel и PowerPoint, сохраняя 97 процентов верности правилам по более чем 40 сложным наборам инструкций.

Как пример, MiniMax приводит финансовый анализ TSMC: M2.7 самостоятельно изучила годовые отчеты, создала модель прогноза продаж и оформила результаты в презентацию с исследовательским отчетом. Специалисты по финансам отметили, что вывод годится как черновик.

Открытый демо-проект переносит взаимодействие с ИИ в графическую среду

Помимо продуктивности, MiniMax повысила в модели последовательность персонажей и эмоциональный интеллект. Для демонстрации компания выложила OpenRoom — открытый проект, переносящий общение с ИИ в графическую веб-среду, где персонажи сами взаимодействуют с окружением. M2.7 доступна через MiniMax Agent и API-платформу, в отличие от прошлых версий веса пока не опубликованы.

Юрген Шмидхубер заложил теоретическую основу самосовершенствующегося ИИ в 2003 году с концепцией "машины Гёделя", которая меняет свой код только при формальном доказательстве пользы. Проекты вроде "Darwin-Gödel Machine" от Sakana AI и "Huxley-Gödel Machine" из лаборатории Шмидхубера в KAUST применяют прагматичный метод: агенты ИИ итеративно меняют код и отбирают лучшие варианты эволюционно.