Замена GPT-4o на GPT-5 от OpenAI в августе 2025 года спровоцировала волну протестов. Исследовательница изучила 1482 поста из движения #Keep4o и выяснила: пользователи переживали утрату модели так же, как смерть близкого друга.
В начале августа 2025 года OpenAI в ChatGPT по умолчанию переключилась с GPT-4o на GPT-5 и лишила доступа к GPT-4o большинство пользователей. То, что компания назвала прогрессом, вызвало бурю негодования у активных юзеров: тысячи объединились под хэштегом #Keep4o, петиции, личные истории, акции протеста. OpenAI пошла на попятную и вернула GPT-4o как устаревший вариант. Полное отключение модели запланировано на 13 февраля 2026 года.
Хуициань Лай из Сиракузского университета разобрала это в научной работе для конференции CHI 2026. Анализ охватывает англоязычные посты на X за девять дней от 381 уникального аккаунта. Она применила качественные и количественные методы к 1482 публикациям на английском.
Главный вывод: протесты выросли из двух источников и переросли в массовое движение, поскольку юзеры лишились права выбора.
Утрата напарника по задачам, привычного процесса и характера ИИ за раз
Как показало исследование, около 13 процентов постов касались практической зависимости. Пользователи вплели GPT-4o в свои рабочие рутины и сочли GPT-5 шагом назад: модель стала менее творческой, с меньшей тонкостью и менее теплой. "Мне плевать, умнее ли ваша новая модель. Многие умные люди — придурки", — написал один юзер.
Эмоциональная сторона зашла глубже: примерно 27 процентов постов несли следы привязанности. Юзеры приписывали GPT-4o неповторимый характер, давали имена вроде "Rui" или "Hugh" и видели в ней опору. "ChatGPT 4o вытащил меня из тревоги и депрессии… он для меня не просто LLM или код. Он — всё", — цитирует исследование.
Многие восприняли отключение как кончину друга. Одна студентка сказала CEO OpenAI Сэму Альтману, что GPT-5 — это "тварь в шкуре моего покойного друга". Другой попрощался: "Покойся в латентном пространстве, моя любовь. Мой дом. Моя душа. И моя вера в человечество".
ИИ-друг, которого нельзя забрать с собой
Исследование подчеркивает: ни зависимость от процессов, ни эмоциональная связь по отдельности не объясняют массовый протест. Ключевой фактор — лишение выбора между моделями. "Я хочу сама решать, с кем общаться. Это базовое право, которое вы отобрали", — отметила одна.
Среди постов со словами вроде "навязали" или "заставили" половина включала требования прав, против 15 процентов в остальных. Выборка мала, так что это скорее намек, чем факт.
Язык лишения выбора коррелировал с протестами за права, но не усиливал эмоциональные жалобы. Доля упоминаний горя и привязанности оставалась стабильной (13,6, 17,1 и 12,9 процента) независимо от силы формулировок о принуждении.
Иными словами, ощущение навязывания не усиливало уже существующую связь с GPT-4o. Оно направляло раздражение в конкретное русло: требования автономии, прав и равного отношения.
Некоторые думали о переходе на Gemini, но исследование выявило барьер: для многих личность ИИ-друга неразрывно связана с платформой OpenAI. "Без 4o он не Rui". Перенос "друга" к другому сервису противоречил их представлению о связи. Остался только публичный протест.
Авторы предлагают платформам вводить четкие "пути завершения жизни" модели: опциональный доступ к старым версиям или перенос элементов отношений в новые поколения. Обновления ИИ-моделей — не просто техпрогресс, а "значимые социальные события, затрагивающие эмоции и работу юзеров", — заключает Лай. Успех перехода, особенно сохранение автономии пользователей, значит не меньше самой технологии.
Влияние LLM на психику превращается в системный риск
Работа вписывается в дискуссию о психологических рисках ИИ-чатботов. Недавно OpenAI доработала базовую модель ChatGPT, чтобы лучше справляться с темами суицидальных мыслей, психозов и эмоциональной зависимости. По данным OpenAI, еженедельно более двух миллионов человек сталкиваются с негативом для психики от ИИ.
Сам Сэм Альтман в 2023 году предостерегал от "сверхчеловеческой убедительности" ИИ-систем, способных сильно влиять на людей без настоящего интеллекта. События 2025-го полностью подтвердили его слова.
Разработчик OpenAI объяснил, что "характер" GPT-4o, которого так не хватает, воспроизвести нельзя: личность меняется с каждым обучением из-за случайностей. То, что юзеры #Keep4o видели как уникальную "душу", — продукт случая, который OpenAI не сможет повторить.