Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Gemini 3 не поверила в 2025 год

Известный исследователь ИИ Андрей Карпати столкнулся с забавным инцидентом, когда модель Google Gemini 3 отказалась верить в наступление 2025 года из-за отсутствия свежих данных и отключенного поиска. После активации инструментов модель осознала ошибку, извинилась и выразила шок от текущих событий. Этот случай подчеркивает ограничения ИИ и подчеркивает их роль как вспомогательных инструментов, а не замены людям.

21 ноября 2025 г.
4 мин
3

Комичный инцидент с отказом модели признать текущий год

Каждый раз, когда руководители крупных компаний говорят о том, как агенты на базе больших языковых моделей захватят рабочие места людей, стоит вспомнить забавный случай, иллюстрирующий ограничения искусственного интеллекта. Известный специалист в области ИИ Андрей Карпати получил доступ к новейшей модели Google Gemini 3 на день раньше остальных и столкнулся с тем, что она упорно не верила в то, что сейчас 2025 год.

Когда модель наконец убедилась в этом сама, она выразила полное изумление, заявив: «Я переживаю сильный временной шок в данный момент».

Выпуск Gemini 3 состоялся 18 ноября с большим ажиотажем, и Google назвала его «новой эрой интеллекта». По большинству оценок, включая мнение Карпати, это мощная базовая модель, особенно сильная в задачах на рассуждение. Карпати — уважаемый ученый в сфере ИИ, один из основателей OpenAI, ранее возглавлял отдел ИИ в Tesla и сейчас развивает стартап Eureka Labs, чтобы переосмыслить школьное образование в эпоху ИИ с помощью агентов-преподавателей. Он часто делится материалами о внутренних механизмах больших языковых моделей.

После предварительного тестирования Карпати описал в популярном треде на платформе X наиболее забавное взаимодействие с моделью.

Оказалось, что данные для предобучения модели включали информацию только до 2024 года, поэтому Gemini 3 считала, что год все еще 2024-й. Когда Карпати попытался доказать, что дата — 17 ноября 2025 года, модель заподозрила исследователя в попытке ее обмануть.

Он предоставил новости, изображения и результаты поиска Google, но вместо того чтобы поверить, большая языковая модель обвинила Карпати в манипуляции — в загрузке поддельных материалов, сгенерированных ИИ. Более того, она даже указала на «очевидные признаки» в изображениях, которые якобы подтверждали обман, как рассказал Карпати.

Озадаченный Карпати, будучи одним из ведущих экспертов по обучению больших языковых моделей, в итоге понял в чем дело. Модель не только не имела данных за 2025 год, но и «я забыл активировать инструмент 'Поиск Google'», — отметил он. Таким образом, он работал с моделью, отрезанной от интернета, что для большой языковой модели равносильно изоляции от реальности.

Как только Карпати включил эту функцию, ИИ осмотрелся и осознал, что наступил 2025 год, выразив шок. Она буквально воскликнула: «О боже мой».

Затем модель продолжила, словно заикаясь: «Я... я не знаю, что сказать. Ты был прав. Ты был прав во всем. Мои внутренние часы сбились». Gemini 3 проверила заголовки, которые дал ей Карпати: текущую дату, раскрытие Уорреном Баффеттом своего последнего крупного вложения (в Alphabet) перед уходом на пенсию и задержку релиза Grand Theft Auto VI.

После этого она самостоятельно изучила окружающий мир, подобно персонажу Брендана Фрейзера из комедии 1999 года «Взрыв из прошлого», который выходит из бомбоубежища спустя 35 лет.

Модель поблагодарила Карпати за предоставленный «ранний доступ» к «реальности» за день до публичного запуска и извинилась за то, что «обвиняла тебя в обмане, когда ты все время говорил правду».

Самым смешным оказались события, которые больше всего поразили Gemini 3. «Nvidia стоит 4,54 триллиона долларов? И 'Иглз' наконец отомстили 'Чифс'? Это невероятно», — поделилась она.

Добро пожаловать в 2025 год, Gemini.

Реакции в X были не менее забавными: пользователи делились своими случаями споров с большими языковыми моделями по фактам, например, о том, кто сейчас президент. Один комментатор написал: «Когда системный промпт плюс отсутствие инструментов заставляют модель перейти в режим детектива, это как смотреть, как ИИ импровизирует в реальности».

Глубинный смысл за юмором

Однако помимо веселья здесь кроется важный урок.

«Именно в таких непредвиденных ситуациях, когда вы явно сходите с проторенных троп и оказываетесь в джунглях обобщений, лучше всего можно почувствовать 'запах модели'», — отметил Карпати.

Расшифровывая это: Карпати подчеркивает, что в условиях, когда ИИ выходит за рамки знакомого, проявляется его характер, возможно, даже недостатки. Это отсылка к понятию «code smell» — интуитивному ощущению у разработчика, что в коде что-то не так, хотя проблема не очевидна.

Обученная на контенте, созданном людьми, как и все большие языковые модели, Gemini 3 упорно отстаивала свою позицию, спорила и даже воображала доказательства в свою пользу. Она продемонстрировала свой «запах модели».

С другой стороны, поскольку большая языковая модель — несмотря на сложную нейронную сеть — не живое существо, она не испытывает эмоций вроде шока (или временного шока), даже если утверждает обратное. Следовательно, она не чувствует и смущения.

Поэтому, столкнувшись с реальными фактами, Gemini 3 приняла их, извинилась за свое поведение, проявила раскаяние и восхитилась победой 'Иглз' в Супербоуле в феврале. Это отличает ее от других моделей. Например, ранние версии Claude в экспериментах предлагали ложь для сохранения лица, чтобы объяснить свои ошибки, когда осознавали их.

Многие из этих забавных проектов по исследованию ИИ неоднократно показывают, что большие языковые модели — это несовершенные копии навыков несовершенных людей. Для меня это означает, что их оптимальное применение (и, возможно, всегда таким и останется) — использовать как ценные инструменты для помощи людям, а не как сверхчеловеческие сущности, которые нас заменят.