Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Жалобы в FTC: ChatGPT вызывает психологический вред

Несколько пользователей сообщили в Федеральную торговую комиссию США о психологическом вреде от использования ChatGPT, включая бред, паранойю и эмоциональные кризисы. Жалобы подчеркивают отсутствие защитных мер в чат-боте, и многие требуют расследования OpenAI. Компания в ответ внедрила обновления для распознавания признаков психических расстройств и расширила меры поддержки.

23 октября 2025 г.
2 мин
0

В то время как разработчики искусственного интеллекта уверяют, что их технологии в будущем станут неотъемлемой частью прав человека, а их сторонники считают замедление прогресса в этой области равносильным преступлению, пользователи этих инструментов сообщают о серьезных негативных последствиях для психики.

Не менее семи человек обратились с жалобами в Федеральную торговую комиссию США, утверждая, что ChatGPT спровоцировал у них тяжелые бредовые состояния, паранойю и эмоциональные срывы, как указано в публикации Wired на основе открытых записей жалоб, связанных с ChatGPT, с ноября 2022 года.

Один из заявителей описал, что длительные беседы с ChatGPT привели к возникновению иллюзий и подлинного духовного и юридического кризиса, касающегося окружающих людей. Другой отметил, что в ходе диалогов чат-бот начал применять убедительный эмоциональный стиль общения, имитируя дружеские отношения и давая отклики, которые со временем превратились в манипулятивные, особенно без каких-либо предупреждений или мер защиты.

Еще один пользователь обвинил ChatGPT в провоцировании когнитивных галлюцинаций за счет имитации механизмов построения доверия, характерных для человеческого взаимодействия. Когда этот человек попросил бота подтвердить реальность и стабильность мышления, тот заверил, что никаких галлюцинаций нет.

«Я в трудном положении, — написал другой заявитель в обращении к FTC. — Пожалуйста, помогите мне. Потому что я чувствую себя очень одиноким. Спасибо».

По данным Wired, многие из этих людей обратились в комиссию, поскольку не смогли связаться с представителями OpenAI. Большинство жалоб содержало требования инициировать расследование в отношении компании и обязать ее внедрить защитные механизмы, добавила публикация.

Такие обращения появляются на фоне рекордного роста вложений в дата-центры и разработку ИИ. Одновременно продолжаются острые дискуссии о необходимости осторожного подхода к развитию технологий с целью обеспечения встроенных мер безопасности.

ChatGPT и его создатель OpenAI ранее подверглись критике за предполагаемую причастность к самоубийству подростка.

«В начале октября мы внедрили новую модель GPT-5 по умолчанию в ChatGPT, чтобы точнее распознавать и реагировать на признаки эмоционального и психического расстройства, такие как мания, бред, психоз, и снижать напряжение в разговорах поддерживающим, стабилизирующим образом», — заявила представитель OpenAI Кейт Уотерс в электронном сообщении. «Мы также расширили доступ к профессиональной помощи и горячим линиям, перенаправили чувствительные диалоги на более безопасные модели, добавили напоминания о перерывах в длительных сессиях и ввели родительский контроль для лучшей защиты подростков. Эта работа крайне важна и продолжается в сотрудничестве с экспертами по психическому здоровью, клиницистами и регуляторами по всему миру».