Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

ИИ не учится на ошибках: барьер к AGI по мнению экс-разработчика OpenAI

Джерри Творек из OpenAI подчеркивает: современные ИИ не учатся на ошибках, что блокирует путь к AGI. Он покинул компанию, чтобы поработать над этим, отмечая хрупкость ИИ-обучения по сравнению с человеческим. Подтверждения приходят из исследований Apple и других работ.

2 февраля 2026 г.
2 мин
20

Ключевой недостаток современных моделей ИИ

Джерри Творек, участник команды по моделям рассуждений OpenAI, указывает на серьезный изъян текущих ИИ: они не извлекают пользу из неудач. "При провале надежда угасает очень быстро", — отмечает Творек в подкасте Unsupervised Learning. "Модели лишены надежного механизма для корректировки убеждений и внутренних знаний после ошибок".

Специалист, трудившийся над моделями рассуждений OpenAI вроде o1 и o3, недавно ушел из компании, чтобы устранить этот барьер. "Без способности самим разбираться в сложностях и выбираться из тупиков при решении задач это не AGI", — разъясняет он, называя обучение ИИ "фундаментально неустойчивым процессом". Человеческое обучение, напротив, надежно и самоподдерживается. "Интеллект находит пути решения", — добавляет Творек.

Другие специалисты детально разобрали эту слабость. Ученые Apple недавно подтвердили: модели рассуждений впадают в "коллапс рассуждений", сталкиваясь с задачами вне знакомых шаблонов из обучения.