Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Модели GPT reasoning видят путь к AGI, считает Брокман

Сооснователь OpenAI Грег Брокман заявил, что модели GPT reasoning имеют прямой путь к AGI, и споры об этом завершены. OpenAI свернула Sora, сосредоточившись на GPT из-за ресурсов, несмотря на ценность world models. Исследователи вроде ЛеКуна, Хассабиса, Шолле и других сомневаются в текстовых LLM и предлагают альтернативы вроде симуляций.

2 апреля 2026 г.
3 мин
30

Сооснователь OpenAI Грег Брокман уверен, что вопрос о способности больших языковых моделей достичь общего искусственного интеллекта (AGI) уже решен. Архитектура GPT обязательно выведет к AGI.

«Мы четко ответили на него — путь к AGI открыт. Видим прямую перспективу», — отметил президент OpenAI Грег Брокман насчет моделей GPT с рассуждениями в подкасте Big Technology Podcast.

Такое заявление звучит решительно. Брокман фактически закрывает одну из главных дискуссий в ИИ: обретут ли модели, в основном обученные на текстах, истинное понимание реальности? Или нужны мультимодальные модели мира вроде Sora? Исследователи ИИ продолжают активно обсуждать эти подходы.

OpenAI недавно свернула приложение и модель Sora. Разработки моделей мира для робототехники сохранятся, но в ограниченном формате без решений для массового рынка.

Брокман назвал Sora «замечательной моделью», однако отнес ее к «отдельной ветви технологий», отличной от линии GPT reasoning. При дефиците вычислительных мощностей OpenAI вынуждена выбирать фокус. Для Брокмана приоритеты определяются не значимостью направлений, а их очередностью. Желаемые приложения теперь близки, и архитектура GPT — ключ к ним.

Ведущий Алекс Кантровиц поинтересовался, не проходит ли OpenAI мимо важного, жертвуя моделями мира вроде Sora, и привел слова Демиса Хассабиса: модель изображений Google «Nano Banana» близка к AGI. Брокман признал: «Здесь всегда выбор. Приходится рисковать ставкой».

Исследователи расходятся: способны ли LLM на общий интеллект

Широкое ИИ-сообщество далеке от единства по поводу текстовых моделей и AGI. Специалист Ян ЛеКун давно отвергает их путь к человеческому интеллекту. LLM слабы в логике, не ведают о физике, лишены постоянной памяти, рациональности и иерархического планирования. Вместо этого он инвестирует в модели мира для полного постижения окружения. Глава DeepMind Демис Хассабис согласен: масштабирование LLM не хватит, прорывы неизбежны.

Специалист Франсуа Шолле трактует интеллект как быструю адаптацию к новым задачам. Суть — в независимом формировании абстракций. Языковые модели низко ранжированы по интеллекту и за пределами данных перестраивают знания с нуля. Непрерывное обучение способно помочь.

Подобные идеи развивают другие. В свежей публикации эксперт DeepMind Ричард Саттон и бывший коллега Дэвид Сильвер потребовали смены курса: ИИ должен черпать из собственного опыта, а не текстов. Сильвер основал стартап по симуляционному обучению.

Экс-специалист OpenAI Джерри Творек, соавтор успехов в рассуждениях, объявил область глубокого обучения «законченной». Далее — симуляции труда людей для навыков ИИ. Его стартап Core Automation реализует это.

Скепсиса нет у всех. Эксперт DeepMind Адам Браун поддержал архитектуру LLM. Предсказание токенов напоминает эволюцию: базовое правило плюс масштаб рождают сложность, зримую как понимание, возможно, сознание.