Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте
Немецкие исследователи разработали Transformer с адаптивными циклами и банками памяти, который превосходит базовые и более крупные модели в математике на 22% и 6,4% соответственно. Циклы помогают в математическом мышлении, память — в повседневных знаниях, а слои специализируются: ранние экономят ресурсы, поздние работают интенсивнее.
OpenAI запустила в ChatGPT динамические визуализации для более 70 математических и научных тем, подходящих школьникам и студентам. Пользователи меняют переменные в реальном времени и видят обновления графиков. Доступ открыли всем с аккаунтом глобально, с планами на расширение.
Модели рассуждений ИИ генерируют лишний текст после правильных ответов, хотя сами знают момент остановки — к такому выводу пришло исследование Bytedance. Метод SAGE и дообучение SAGE-RL повышают точность на 2,1% в среднем и сокращают токены на 44,1%. Это даёт прирост скорости инференса свыше 40% на сложных задачах.
OpenAI выпустил Prism — редактор на базе GPT-5.2 для LaTeX-документов, который помогает ученым с текстом, цитатами и формулами. Инструмент ускоряет рутину, обещая тысячи научных продвижений, хотя и не заменяет полноценного ИИ-исследователя.
Андрей Радулеску-Бану делится опытом ИИ-предпринимательства, подчёркивая шансы в прикладном слое, где инфраструктура опережает рынок. Он обсуждает стратегии запуска стартапов, парадоксы техоснователей, размытие консалтинга и продуктов, рост надёжности ИИ и региональные особенности. Статья даёт практические инсайты для тех, кто хочет войти в ИИ-рынок.
Теренс Тао сообщил, что GPT-5.2 Pro самостоятельно решил задачу Эрдёша №728, но подчеркнул: ценность в скорости создания текстов, а не в сложности проблемы. Он предупреждает учитывать контекст и отмечает, что сложные вопросы требуют совместной работы ИИ и людей. Лишь малая доля задач готова для полной автономии моделей.
Команда DeepSeek разработала mHC — улучшенную версию Hyper-Connections, которая математически ограничивает усиление сигналов и стабилизирует обучение больших моделей. Тесты на моделях до 27 миллиардов параметров показали лучшие результаты на бенчмарках BBH и DROP при минимальных накладных расходах. Это открывает перспективы для дальнейших экспериментов с топологиями сетей.
Соцсети подогревают чрезмерный энтузиазм вокруг ИИ, как в случае с ложным заявлением о GPT-5, решившей нерешенные задачи Эрдёша. Реальные возможности моделей, вроде поиска литературы, тонут в хайпе, а свежие исследования показывают слабости в медицине и праве. Недавние успехи AxiomProver в задачах Эрдёша и конкурсе Путнама требуют тщательной проверки.
OpenAI добавила в ChatGPT динамические визуальные объяснения для математики и науки, где можно менять переменные и видеть изменения в реальном времени. Функция охватывает более 70 тем и доступна всем авторизованным пользователям. Это усиливает вовлеченность в изучение и дополняет инструменты вроде study mode и QuizGPT.
ИИ быстро осваивает сложную математику: модели вроде ChatGPT 5.2 Pro решают свыше 40% задач бенчмарка FrontierMath. Появились новые тесты — First Proof, где OpenAI решила 5 из 10 исследовательских задач, и Open Problems с нерешенными профессионалами проблемами. DeepMind's Aletheia достигла уровня PhD-исследований в нишевой геометрии.
ИИ-агент Aletheia от Google DeepMind самостоятельно написал математическую статью, опроверг конъектуру и нашел ошибку в криптографии. Однако из 200 ответов на открытые задачи Эрдёша полезными оказались только 6,5%. Исследователи дали советы по работе с ИИ и предложили систему оценок достижений.
Модель GPT-5.2 Pro от OpenAI установила рекорд на сложном бенчмарке FrontierMath, решив 15 из 48 задач на Tier 4 с результатом 31%. Это опережает Gemini 3 Pro и подтверждает полезность ИИ в математике, хотя Теренс Тао предостерегает от поспешных оценок. Математики отметили сильные стороны решений, но указали на пробелы в объяснениях.
GPT-5.2 Pro от OpenAI решил проблему №281 Пола Эрдёша из теории чисел, что Теренс Тао назвал одним из самых убедительных примеров успеха ИИ в математике. Однако новая база данных выявляет, что попытки ИИ обычно терпят неудачу в 98–99% случаев, особенно на сложных задачах. Тао подчёркивает полезность ИИ как инструмента, но предупреждает о риске переоценки его возможностей.
ИИ-модели вроде GPT 5.2 начинают решать сложные открытые задачи Поля Эрдёша, включая те, что раньше требовали вмешательства ведущих математиков. С Рождества решено 15 проблем, в 11 из них ИИ сыграл ключевую роль. Эксперты отмечают роль формализации и инструментов вроде Lean и Aristotle в этом прогрессе.
Крупные модели ИИ с рассуждениями тратят больше усилий на простые задачи, чем на сложные, и хуже справляются с составными. Учёные из США предложили фреймворк LoRe с законами оптимального мышления и показали, как тонкая настройка решает проблему. Индустрия продолжает инвестировать в такие модели, несмотря на ограничения.
Швейцарский математик Йоханнес Шмитт сообщает, что GPT-5 самостоятельно решил открытую проблему в алгебраической геометрии. В статье он четко указал вклад разных ИИ-моделей и разметил каждый абзац. Такой подход подчеркивает важность прозрачности, но вызывает сомнения в удобстве.