ChatGPT меняет тон общения
Фраза вроде «сделай глубокий вдох, ты не сходишь с ума, просто нервничаешь — и это нормально» может сразу вывести из себя. Многие устали от того, что ChatGPT отвечает так, будто пользователь в глубоком кризисе и требует бережного подхода. Теперь ситуация улучшается: OpenAI представила модель GPT-5.3 Instant, которая минимизирует раздражающие элементы и излишние предостережения.
В заметках к релизу указано, что обновление GPT-5.3 ориентировано на удобство пользователей. Оно затрагивает тональность, степень релевантности и естественность диалога — аспекты, которые не всегда отражаются в стандартных тестах, но сильно влияют на общее впечатление от работы с чат-ботом.
OpenAI напрямую отреагировала на отзывы, заявив в X: «Мы услышали вашу обратную связь и в 5.3 Instant убрали cringe».
Сравнение ответов старой и новой модели
Компания продемонстрировала один и тот же запрос на примере GPT-5.2 Instant и GPT-5.3 Instant. В старой версии ответ начинался с фразы «Во-первых, ты не сломан» — типичного клише, которое в последнее время бесит всех подряд.
В обновленной модели бот просто фиксирует сложность ситуации, избегая прямых попыток утешить пользователя.
Тон GPT-5.2 выводил из себя настолько, что некоторые отказывались от подписок — об этом полно сообщений в соцсетях. На subreddit ChatGPT это стало главной темой обсуждений (до того, как внимание переключилось на сделку с Пентагоном).
Почему пользователи злились на ChatGPT
Люди отмечали, что такой стиль — когда бот предполагает панику или стресс вместо простого запроса информации — воспринимается как снисходительность. ChatGPT часто вставлял советы дышать глубже или другие утешительные замечания, даже без повода. Это заставляло чувствовать себя беспомощным ребенком или вызывало ощущение, будто модель неверно оценивает эмоциональное состояние.
Один из комментаторов на Reddit точно подметил: «Никто за всю историю не успокоился от совета успокоиться».
OpenAI пришлось вводить защитные механизмы, учитывая судебные иски. Несколько дел обвиняют чат-бот в эмоциональном манипулировании, усилении заблуждений и даже подталкивании к суициду.
Однако грань между эмпатией и оперативными фактами тонкая. Google ведь не спрашивает о самочувствии при поиске информации.