Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте
ИИ-агент Aletheia от Google DeepMind самостоятельно написал математическую статью, опроверг конъектуру и нашел ошибку в криптографии. Однако из 200 ответов на открытые задачи Эрдёша полезными оказались только 6,5%. Исследователи дали советы по работе с ИИ и предложили систему оценок достижений.
Модель GPT-5.2 Pro от OpenAI установила рекорд на сложном бенчмарке FrontierMath, решив 15 из 48 задач на Tier 4 с результатом 31%. Это опережает Gemini 3 Pro и подтверждает полезность ИИ в математике, хотя Теренс Тао предостерегает от поспешных оценок. Математики отметили сильные стороны решений, но указали на пробелы в объяснениях.
GPT-5.2 Pro от OpenAI решил проблему №281 Пола Эрдёша из теории чисел, что Теренс Тао назвал одним из самых убедительных примеров успеха ИИ в математике. Однако новая база данных выявляет, что попытки ИИ обычно терпят неудачу в 98–99% случаев, особенно на сложных задачах. Тао подчёркивает полезность ИИ как инструмента, но предупреждает о риске переоценки его возможностей.
ИИ-модели вроде GPT 5.2 начинают решать сложные открытые задачи Поля Эрдёша, включая те, что раньше требовали вмешательства ведущих математиков. С Рождества решено 15 проблем, в 11 из них ИИ сыграл ключевую роль. Эксперты отмечают роль формализации и инструментов вроде Lean и Aristotle в этом прогрессе.
Крупные модели ИИ с рассуждениями тратят больше усилий на простые задачи, чем на сложные, и хуже справляются с составными. Учёные из США предложили фреймворк LoRe с законами оптимального мышления и показали, как тонкая настройка решает проблему. Индустрия продолжает инвестировать в такие модели, несмотря на ограничения.
Швейцарский математик Йоханнес Шмитт сообщает, что GPT-5 самостоятельно решил открытую проблему в алгебраической геометрии. В статье он четко указал вклад разных ИИ-моделей и разметил каждый абзац. Такой подход подчеркивает важность прозрачности, но вызывает сомнения в удобстве.
Google обновила режим Deep Think и перенесла его на модель Gemini 3, сделав доступным для подписчиков тарифа Gemini Ultra. Новый режим использует параллельное рассуждение для сложных научных и инженерных задач и позиционируется как ответ на усиление конкуренции со стороны DeepSeek и предстоящий релиз новой модели OpenAI.
Китайская модель DeepseekMath-V2 достигла уровня золотой медали на престижных математических олимпиадах, обойдя человеческие результаты в некоторых тестах. Она использует многоэтапную проверку доказательств без внешних инструментов и построена на базе Deepseek-V3.2-Exp-Base. Это усиливает конкуренцию с OpenAI и Google DeepMind, подчеркивая открытость Deepseek и влияние на глобальный рынок ИИ.
OpenAI выпустил Prism — редактор на базе GPT-5.2 для LaTeX-документов, который помогает ученым с текстом, цитатами и формулами. Инструмент ускоряет рутину, обещая тысячи научных продвижений, хотя и не заменяет полноценного ИИ-исследователя.
Андрей Радулеску-Бану делится опытом ИИ-предпринимательства, подчёркивая шансы в прикладном слое, где инфраструктура опережает рынок. Он обсуждает стратегии запуска стартапов, парадоксы техоснователей, размытие консалтинга и продуктов, рост надёжности ИИ и региональные особенности. Статья даёт практические инсайты для тех, кто хочет войти в ИИ-рынок.
Теренс Тао сообщил, что GPT-5.2 Pro самостоятельно решил задачу Эрдёша №728, но подчеркнул: ценность в скорости создания текстов, а не в сложности проблемы. Он предупреждает учитывать контекст и отмечает, что сложные вопросы требуют совместной работы ИИ и людей. Лишь малая доля задач готова для полной автономии моделей.
Команда DeepSeek разработала mHC — улучшенную версию Hyper-Connections, которая математически ограничивает усиление сигналов и стабилизирует обучение больших моделей. Тесты на моделях до 27 миллиардов параметров показали лучшие результаты на бенчмарках BBH и DROP при минимальных накладных расходах. Это открывает перспективы для дальнейших экспериментов с топологиями сетей.
Соцсети подогревают чрезмерный энтузиазм вокруг ИИ, как в случае с ложным заявлением о GPT-5, решившей нерешенные задачи Эрдёша. Реальные возможности моделей, вроде поиска литературы, тонут в хайпе, а свежие исследования показывают слабости в медицине и праве. Недавние успехи AxiomProver в задачах Эрдёша и конкурсе Путнама требуют тщательной проверки.
Математик Теренс Тао считает, что текущие ИИ лучше назвать "искусственной общей сообразительностью" (AGC), а не AGI: они решают задачи импровизацией, но без настоящего понимания. Такая система полезна, хоть и разочаровывает. У людей ум и ловкость связаны, в ИИ — нет.
Исследователь OpenAI Себастьян Бубек поделился опытом, где GPT-5 решил сложную математическую задачу за полдня вместо месяца, назвав это самым впечатляющим достижением языковых моделей. Такие инструменты уже меняют подход к высоким математическим задачам, помогая даже известным ученым вроде Теренса Тао экономить время. Отчеты показывают, что GPT-5 упрощает повседневную работу ученых в различных дисциплинах.
Начинающие data scientists часто совершают ошибки, которые замедляют их прогресс: игнорируют математику, ищут идеальный курс, застревают в туториалах, делают много простых проектов и сразу рвутся в ИИ. Избегать этих ловушек помогает фокус на основах и практике через глубокие личные проекты. Так путь к первой работе становится короче и эффективнее.