Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

DeepseekMath-V2 завоевывает математические вершины

Китайская модель DeepseekMath-V2 достигла уровня золотой медали на престижных математических олимпиадах, обойдя человеческие результаты в некоторых тестах. Она использует многоэтапную проверку доказательств без внешних инструментов и построена на базе Deepseek-V3.2-Exp-Base. Это усиливает конкуренцию с OpenAI и Google DeepMind, подчеркивая открытость Deepseek и влияние на глобальный рынок ИИ.

28 ноября 2025 г.
4 мин
3

Китайский стартап Deepseek выпустил модель DeepseekMath-V2, которая демонстрирует результаты на уровне золотой медали на олимпиадах по математике и держит компанию в шаге от ведущих западных лабораторий ИИ.

Как сообщает Deepseek, свежая модель DeepseekMath-V2 получила оценки, соответствующие золотой медали, на Международной математической олимпиаде (IMO) 2025 года и на Китайской олимпиаде CMO 2024 года. В соревновании Putnam ИИ набрал 118 баллов из 120 возможных, превзойдя максимальный человеческий показатель в 90 баллов.

Столбчатая диаграмма оценок людей для IMO-ProofBench на базовом и продвинутом уровнях по разным моделям. DeepSeekMath-V2 (Heavy) набирает 99,0% на базовом (лучший результат) и 61,9% на продвинутом (второе место после Gemini Deep Think/IMO Gold с 65,7%). Другие модели показывают от 27,1% до 89,0% на базовом и от 3,8% до 37,6% на продвинутом.
DeepseekMath-V2 (Heavy) достигает 99 процентов на базовом тесте IMO-ProofBench и 61,9 процента на продвинутом, уступая лишь Gemini Deep Think (65,7 процента).

В техническом отчете Deepseek уточняет, что раньше ИИ часто выдавали верные ответы, но без правильных шагов доказательства. Чтобы это исправить, новая модель применяет многоэтапный подход. "Проверяльщик" анализирует доказательство, а "метапроверяльщик" оценивает, насколько обоснована критика. Такая схема позволяет системе в реальном времени оценивать и улучшать свои решения.

В отчете не упоминаются внешние инструменты вроде калькуляторов или интерпретаторов кода, и настройка указывает, что тесты выполнялись только с помощью естественного языка.

В основных экспериментах одна модель DeepSeekMath-V2 отвечает за создание доказательств и их проверку, а успехи объясняются способностью самой модели анализировать и дорабатывать решения, без привлечения специализированного математического ПО.

Для сложных задач система увеличивает вычисления во время тестирования, генерируя и проверяя множество вариантов доказательств параллельно, чтобы добиться уверенности в итоговом ответе. По сути, модель построена на базе Deepseek-V3.2-Exp-Base.

Таблица с задачами, которые решила DeepSeekMath-V2 в трех соревнованиях: на IMO 2025 модель полностью справилась с пятью из шести задач; на CMO 2024 — с четырьмя полностью и одной частично. На Putnam 2024 — полностью решила одиннадцать задач и получила частичный балл за одну.
DeepseekMath-V2 полностью решила пять из шести задач на IMO 2025 и четыре на CMO 2024. На Putnam 2024 модель справилась полностью с одиннадцатью задачами и получила частичный успех на одной.

Сближение с американскими лабораториями

Выпуск модели следует за похожими анонсами от OpenAI и Google DeepMind, чьи пока неопубликованные модели тоже завоевали золотые медали на IMO — достижения, которые раньше казались недостижимыми для больших языковых моделей. Важно, что эти системы преуспели благодаря общим навыкам рассуждения, а не специальным доработкам под математические конкурсы.

Если эти прорывы подтвердятся, то языковые модели приближаются к этапу, когда смогут решать запутанные абстрактные задачи, которые всегда считались прерогативой человека. Однако детали этих моделей остаются загадкой. Недавно исследователь OpenAI намекнул, что в ближайшие месяцы выйдет еще более мощная версия их математической модели.

Решение Deepseek поделиться техническими подробностями резко отличается от скрытности OpenAI и Google. Пока американские лидеры прячут архитектуру, Deepseek открыто показывает карты, подтверждая, что не отстает от топовых лабораторий отрасли.

Такая открытость служит еще и ударом по западной экосистеме ИИ — тактику Deepseek уже успешно применял в начале года. Стратегия окупается: как пишет The Economist, многие американские стартапы ИИ теперь предпочитают китайские открытые модели крупным поставщикам из США, чтобы сэкономить.

Но соперничество имеет и другую сторону. По мере роста способностей моделей их создание превращается в острую политическую тему, что может только укрепить позиции американских лабораторий. Активно двигая границы, Deepseek в итоге помогает OpenAI и конкурентам обосновывать темпы и масштаб своих разработок.