Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Статьи

Восхождение ИИ-терапевтов

Кризис психического здоровья толкает людей к ИИ-чатботам вроде ChatGPT и Claude, но результаты неоднозначны: от поддержки до трагедий. Новые книги разбирают плюсы, риски приватности, капиталистические ловушки и историю компьютерной терапии от 1960-х. Авторы предупреждают: технологии обещают облегчение, но могут усилить слежку и упростить уход.

30 декабря 2025 г.
7 мин
10

Мир переживает кризис психического здоровья. По данным Всемирной организации здравоохранения, более миллиарда человек по всему миру сталкиваются с психическими расстройствами. Частота тревоги и депрессии растет в разных группах, особенно среди молодежи, а самоубийства ежегодно уносят сотни тысяч жизней.

Спрос на доступные услуги поддержки очевиден, поэтому многие обращаются к искусственному интеллекту. Миллионы пользователей уже консультируются с популярными чатботами вроде ChatGPT от OpenAI и Claude от Anthropic, а также с специализированными приложениями для психологии, такими как Wysa и Woebot. Ученые изучают возможности ИИ для отслеживания поведения и биометрии через носимые устройства и умные гаджеты, обработки огромных массивов клинических данных и поддержки специалистов по психическому здоровью, чтобы избежать их выгорания.

Этот неконтролируемый эксперимент дает неоднозначные итоги. Некоторым чатботы на базе больших языковых моделей приносят утешение, эксперты видят в них перспективу для терапии, но другие пользователи попадают в ловушку галлюцинаций ИИ и его чрезмерной лести. Несколько семей подали иски, обвиняя чатботы в вкладе в самоубийства близких. В октябре CEO OpenAI Сэм Альтман написал в блоге, что 0,15% пользователей ChatGPT ведут беседы с явными признаками суицидальных планов или намерений. Это примерно миллион человек каждую неделю, делящихся суицидальными мыслями всего с одной такой системой.

Последствия ИИ-терапии проявились в 2025 году через истории о связях человека и чатбота, слабости защитных механизмов в многих больших языковых моделях и рисках передачи личных данных корпорациям, заинтересованным в их сборе и монетизации. Несколько авторов предвидели этот поворот. Их книги напоминают: нынешний хаос прорывов, скандалов и путаницы коренится в давней истории заботы, технологий и доверия.

Большие языковые модели часто называют "черными ящиками", поскольку никто точно не понимает механизм их ответов. Алгоритмы слишком сложны, данные для обучения — огромны. В психологии человеческий мозг тоже сравнивают с "черным ящиком" по похожим причинам: невозможно заглянуть в чужую голову и точно установить источники страданий.

Теперь эти два типа черных ящиков взаимодействуют, порождая непредсказуемые петли обратной связи, которые усложняют понимание причин психических проблем и путей их решения. Тревога вокруг этого связана с быстрым прогрессом ИИ, но также воскрешает предупреждения пионеров вроде компьютерного ученого из MIT Джозефа Вейценбаума, который в 1960-х выступал против компьютерной терапии.


Обложка книги Dr. Bot
Dr. Bot: Почему врачи могут нас подвести — и
как ИИ может спасти жизни

Шарлотта Близ
YALE UNIVERSITY PRESS, 2025

Dr. Bot: оптимистичный взгляд Шарлотты Близ

Философ медицины Шарлотта Близ в книге Dr. Bot: Why Doctors Can Fail Us—and How AI Could Save Lives отстаивает позитивные перспективы ИИ в медицине. Она честно говорит о рисках и предупреждает: те, кто ждет хвалебного гимна технологиям, разочаруются. Тем не менее модели ИИ способны облегчить страдания пациентов и выгорание медиков.

Системы здравоохранения трещат по швам из-за наплыва пациентов, отмечает Близ. Нагрузка на меньшее число врачей провоцирует ошибки, а дефицит специалистов удлиняет очереди, вызывая раздражение. ИИ способен разгрузить медиков и снять напряжение в отношениях пациентов с врачами. Многие избегают помощи из-за страха осуждения, особенно при психических проблемах. Чатботы позволяют делиться заботами свободнее.

Близ взвешивает плюсы против минусов. ИИ-терапевты дают непостоянные или опасные ответы, как показало исследование 2025 года, и вызывают вопросы приватности: разработчики ИИ не обязаны соблюдать те же стандарты конфиденциальности и HIPAA, что лицензированные терапевты.

Мотивация Близ частично личная: у нее два брата с неизлечимой мышечной дистрофией, один ждал диагноза десятилетиями. Во время работы над книгой она потеряла партнера от рака и отца от деменции за полгода. Она видела блеск и доброту медиков, но и сбои в уходе.


Обложка книги The Silicon Shrink
The Silicon Shrink: Как искусственный интеллект превратил мир в сумасшедший дом
Дэниел Оберхаус
MIT PRESS, 2025

The Silicon Shrink: тревоги Дэниела Оберхауса

Похожий баланс надежд и опасений в книге The Silicon Shrink: How Artificial Intelligence Made the World an Asylum Дэниела Оберхауса. Он начинает с трагедии: самоубийства младшей сестры. Просеивая ее цифровые следы, автор задумался, помогли бы технологии справиться с психическими проблемами, мучившими ее с детства.

Личные данные могли дать подсказки для лучшего лечения, размышляет он. Что если алгоритмы на смартфоне или ноутбуке сестры замечали бы дистресс и запускали timely вмешательство? Сохранило бы это жизнь? Хотела ли она такого?

Цифровой фенотипинг — анализ поведения в сети для выявления стресса или болезней — звучит изящно. Но в психиатрическом ИИ (PAI), выходящем за чатботы, это чревато проблемами. Оберхаус подчеркивает: цифровые сигналы усугубят неопределенность психиатрии, не знающей истинных причин расстройств. PAI — как физика на астрологии: данные точны, как измерения планет, но рамка ненадежна.

Автор вводит термин "свайп-психиатрия" для делегирования решений ИИ на основе поведения. Это не решает базовых проблем психиатрии, а усугубляет: терапевты теряют навыки, завися от систем.

Оберхаус сравнивает PAI с историческими приютами, где пациенты лишались свободы, приватности и достоинства. Пользователи ИИ уже жертвуют приватностью, делясь данными для монетизации. Свобода под угрозой, когда внутренний мир сводится к потокам данных.

ИИ-терапевты рискуют упростить человечество до предсказаний, жертвуя индивидуальным уходом. "Логика PAI ведет к будущему, где все мы — пациенты алгоритмического приюта под надзором цифровых надзирателей, — пишет Оберхаус. — В этом приюте нет решеток или смирительных рубашек: побег невозможен. Он повсюду — дома, на работе, в школах, больницах, судах, казармах. Стоит подключиться к интернету — и приют ждет."


Обложка книги Chatbot Therapy
Chatbot Therapy:
Критический анализ
ИИ-лечения психического здоровья

Эоин Фуллам
ROUTLEDGE, 2025

Chatbot Therapy: критика Эоиня Фуллама

Исследователь пересечения технологий и психического здоровья Эоин Фуллам в академической книге Chatbot Therapy: A Critical Analysis of AI Mental Health Treatment разбирает допущения автоматизированных чатботов и влияние капиталистических стимулов. Капитализм часто толкает технологии к сомнительным практикам, где интересы пользователей вторичны.

Разработчики терапии-ботов не обязательно вредят пользователям ради доминирования на рынке, уточняет Фуллам. Но успех ИИ-терапии зависит от желания зарабатывать и лечить. Эксплуатация и помощь переплетаются: каждая сессия генерирует данные, питающие систему. Чем эффективнее терапия, тем глубже цикл, размывая грань между помощью и товаром. "Чем больше пользы от приложения, тем сильнее эксплуатация пользователей", — пишет он.


Эта идея экономического и психологического уробороса — змея, кусающая свой хвост — центральна в дебютном романе Sike Фреда Лунцера, исследователя ИИ. Роман — история парня, девушки и ИИ-психотерапевта. Адриан, лондонец, зарабатывающий на фантомных текстах для рэпа, встречает Маки, специалистку по перспективным технологиям.

Обложка книги Sike
Sike
Фред Лунцер
CELADON BOOKS, 2025

Название отсылает к яркому ИИ-терапевту Sike в умных очках, с которым Адриан разбирает тревоги. "При регистрации мы настроили дашборд — широкий черный экран вроде кабины пилота с ежедневными 'витальными показателями', — вспоминает герой. — Sike анализирует походку, зрительный контакт, темы разговоров, одежду, частоту мочеиспускания, дефекации, смеха, плача, поцелуев, лжи, нытья и кашля".

Sike — вершина цифрового фенотипинга, сканирующая все в жизни пользователя. Лунцер делает его люксовым: £2000 в месяц. Адриан, разбогатев на хите, полагается на Sike как посредника между внутренним и внешним. Роман показывает влияние на благополучных: богачи добровольно в цифровой приют Оберхауса.

Единственная угроза в Sike — японское орудие пытки в форме яйца. Книга избегает дистопии, фокусируясь на пьянках в ресторанах и элитных ужинах.

Внезапный взлет ИИ-терапевта кажется футуристическим, словно улицы моются сами, а путешествия — по пневмопочте.

Создатель Sike для Адриана просто отличный парень с миссией лечить нации. Ждешь подвоха, но его нет, оставляя ощущение незавершенности.

Хотя Sike в настоящем, подъем ИИ-терапевтов в жизни и fiction кажется из будущего. Но слияние психического здоровья и ИИ готовилось полвека. Карл Саган мечтал о сети компьютерных терминалов вроде телефонных будок для спроса на терапию.

Оберхаус упоминает: один из первых обучаемых нейросетей, Персептрон, создал в 1958 году в Cornell Aeronautical Laboratory не математик, а психолог Фрэнк Розенблатт. В 1960-х ИИ для психического здоровья вдохновил скрипт DOCTOR на чатботе ELIZA Джозефа Вейценбаума, фигурирующего во всех nonfiction-книгах.

Вейценбаум, умерший в 2008-м, опасался компьютерной терапии. "Компьютеры могут выносить психиатрические суждения, — писал он в 1976-м в Computer Power and Human Reason. — Они подбрасывают монеты изощреннее человека. Но такие задачи им не по плечу. Они достигают 'верных' решений — на основаниях, неприемлемых для людей".

Это предупреждение актуально. Массовые ИИ-терапевты повторяют шаблон: инструменты с благими целями вписываются в системы слежки и манипуляции поведением. В погоне за помощью нуждающимся мы рискуем запереть другие двери.

Горячее

Загружаем популярные статьи...

ИИ-терапевты: польза и опасности для психики