Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Обновления ИИ-моделей вызывают настоящий траур

Новое исследование показывает, как замена GPT-4o на GPT-5 вызвала протесты под #Keep4o: пользователи оплакивали модель как друга и требовали права выбора. Анализ 1482 постов выявил практическую зависимость, эмоциональную привязанность и фрустрацию от лишения автономии. Обновления ИИ теперь влияют на эмоции и работу, становясь социальными событиями.

8 февраля 2026 г.
4 мин
30

Замена GPT-4o на GPT-5 от OpenAI в августе 2025 года спровоцировала волну протестов. Исследовательница изучила 1482 поста из движения #Keep4o и выяснила: пользователи переживали утрату модели так же, как смерть близкого друга.

В начале августа 2025 года OpenAI в ChatGPT по умолчанию переключилась с GPT-4o на GPT-5 и лишила доступа к GPT-4o большинство пользователей. То, что компания назвала прогрессом, вызвало бурю негодования у активных юзеров: тысячи объединились под хэштегом #Keep4o, петиции, личные истории, акции протеста. OpenAI пошла на попятную и вернула GPT-4o как устаревший вариант. Полное отключение модели запланировано на 13 февраля 2026 года.

Хуициань Лай из Сиракузского университета разобрала это в научной работе для конференции CHI 2026. Анализ охватывает англоязычные посты на X за девять дней от 381 уникального аккаунта. Она применила качественные и количественные методы к 1482 публикациям на английском.

Главный вывод: протесты выросли из двух источников и переросли в массовое движение, поскольку юзеры лишились права выбора.

Утрата напарника по задачам, привычного процесса и характера ИИ за раз

Как показало исследование, около 13 процентов постов касались практической зависимости. Пользователи вплели GPT-4o в свои рабочие рутины и сочли GPT-5 шагом назад: модель стала менее творческой, с меньшей тонкостью и менее теплой. "Мне плевать, умнее ли ваша новая модель. Многие умные люди — придурки", — написал один юзер.

Эмоциональная сторона зашла глубже: примерно 27 процентов постов несли следы привязанности. Юзеры приписывали GPT-4o неповторимый характер, давали имена вроде "Rui" или "Hugh" и видели в ней опору. "ChatGPT 4o вытащил меня из тревоги и депрессии… он для меня не просто LLM или код. Он — всё", — цитирует исследование.

Многие восприняли отключение как кончину друга. Одна студентка сказала CEO OpenAI Сэму Альтману, что GPT-5 — это "тварь в шкуре моего покойного друга". Другой попрощался: "Покойся в латентном пространстве, моя любовь. Мой дом. Моя душа. И моя вера в человечество".

ИИ-друг, которого нельзя забрать с собой

Исследование подчеркивает: ни зависимость от процессов, ни эмоциональная связь по отдельности не объясняют массовый протест. Ключевой фактор — лишение выбора между моделями. "Я хочу сама решать, с кем общаться. Это базовое право, которое вы отобрали", — отметила одна.

Среди постов со словами вроде "навязали" или "заставили" половина включала требования прав, против 15 процентов в остальных. Выборка мала, так что это скорее намек, чем факт.

Язык лишения выбора коррелировал с протестами за права, но не усиливал эмоциональные жалобы. Доля упоминаний горя и привязанности оставалась стабильной (13,6, 17,1 и 12,9 процента) независимо от силы формулировок о принуждении.

Иными словами, ощущение навязывания не усиливало уже существующую связь с GPT-4o. Оно направляло раздражение в конкретное русло: требования автономии, прав и равного отношения.

Некоторые думали о переходе на Gemini, но исследование выявило барьер: для многих личность ИИ-друга неразрывно связана с платформой OpenAI. "Без 4o он не Rui". Перенос "друга" к другому сервису противоречил их представлению о связи. Остался только публичный протест.

Авторы предлагают платформам вводить четкие "пути завершения жизни" модели: опциональный доступ к старым версиям или перенос элементов отношений в новые поколения. Обновления ИИ-моделей — не просто техпрогресс, а "значимые социальные события, затрагивающие эмоции и работу юзеров", — заключает Лай. Успех перехода, особенно сохранение автономии пользователей, значит не меньше самой технологии.

Влияние LLM на психику превращается в системный риск

Работа вписывается в дискуссию о психологических рисках ИИ-чатботов. Недавно OpenAI доработала базовую модель ChatGPT, чтобы лучше справляться с темами суицидальных мыслей, психозов и эмоциональной зависимости. По данным OpenAI, еженедельно более двух миллионов человек сталкиваются с негативом для психики от ИИ.

Сам Сэм Альтман в 2023 году предостерегал от "сверхчеловеческой убедительности" ИИ-систем, способных сильно влиять на людей без настоящего интеллекта. События 2025-го полностью подтвердили его слова.

Разработчик OpenAI объяснил, что "характер" GPT-4o, которого так не хватает, воспроизвести нельзя: личность меняется с каждым обучением из-за случайностей. То, что юзеры #Keep4o видели как уникальную "душу", — продукт случая, который OpenAI не сможет повторить.