OpenAI, Google и Anthropic за считаные дни друг от друга представили специализированные инструменты ИИ для здравоохранения. Такой скопление релизов указывает на растущую конкуренцию, а не на простое совпадение. При этом ни один продукт не прошел сертификацию как медицинское устройство, не получил одобрения для использования в клиниках и не подходит для постановки диагнозов пациентам напрямую, хотя описания обещают серьезные перемены в медицине.
OpenAI запустила ChatGPT Health 7 января, разрешив пользователям из США связывать медицинские карты через партнерства с b.well, Apple Health, Function и MyFitnessPal. Google выпустила MedGemma 1.5 13 января, расширив открытую модель ИИ для медицины на анализ трехмерных снимков КТ и МРТ плюс полные гистопатологические срезы.
Anthropic подключилась 11 января с Claude for Healthcare, предоставив коннекторы, соответствующие HIPAA, к базам CMS по страховому покрытию, системам кодирования ICD-10 и реестру National Provider Identifier.
Все три компании решают одни и те же узкие места в рабочих процессах — проверки авторизации, обработку претензий, ведение клинической документации — с помощью похожих технологий, но разными способами выхода на рынок.
Платформы для разработчиков, а не готовые диагностические продукты
Архитектуры у них схожи. Каждая система построена на мультимодальных больших языковых моделях, дообученных на медицинской литературе и клинических данных. Все подчеркивают защиту данных и отказ от ответственности. Все заявляют, что помогают врачам, но не заменяют их решения.

Различия в моделях распространения и доступа. ChatGPT Health от OpenAI работает как сервис для обычных пользователей с очередью для подписчиков ChatGPT Free, Plus и Pro за пределами EEA, Швейцарии и Великобритании. MedGemma 1.5 от Google выходит как открытая модель через программу Health AI Developer Foundations, скачивается с Hugging Face или разворачивается на Vertex AI в Google Cloud.
Claude for Healthcare от Anthropic встраивается в корпоративные процессы через Claude for Enterprise, ориентируясь на организации, а не частных лиц. По регуляторным заявлениям все трое едины.
OpenAI прямо указывает, что Health не предназначен для диагностики или лечения. Google называет MedGemma отправной точкой для разработчиков, чтобы те адаптировали модель под свои медицинские нужды. Anthropic уточняет, что результаты не стоит использовать для прямых клинических диагнозов, решений по пациентам, рекомендаций лечения или других практик в медицине.

Результаты бенчмарков против клинических проверок
Показатели на медицинских тестах заметно выросли во всех трех релизах, но разрыв между лабораторными результатами и реальным использованием в клиниках все еще велик. Google сообщает, что MedGemma 1.5 набрала 92,3% точности на MedAgentBench — бенчмарке Стэнфорда для медицинских агентов, против 69,6% у предыдущей базовой Sonnet 3.5.
Модель прибавила 14 процентных пунктов в классификации болезней по МРТ и 3 пункта по находкам на КТ в внутренних тестах. Claude Opus 4.5 от Anthropic набрал 61,3% на MedCalc для точности медицинских расчетов с исполнением Python-кода и 92,3% на MedAgentBench.
Компания также отметила прогресс в оценках честности касательно фактических галлюцинаций, но точных цифр не привела.
OpenAI не публикует сравнительные бенчмарки для ChatGPT Health, но упоминает, что еженедельно более 230 миллионов человек по миру задают ChatGPT вопросы о здоровье и благополучии на основе обезличенного анализа текущего трафика.
Такие тесты проверяют работу на подготовленных наборах данных, а не реальные исходы для пациентов. Ошибки в медицине могут стоить жизни, так что перенос бенчмарков в клинику сложнее, чем в других областях ИИ.
Путь к регуляциям все еще неясен
Правила для таких медицинских ИИ-инструментов остаются размытыми. В США FDA смотрит на предполагаемое применение. Программы, которые поддерживают или дают рекомендации врачам по профилактике, диагностике или лечению болезней, могут нуждаться в предрыночной проверке как медустройства. Ни один из анонсированных инструментов такой сертификации не прошел.
Вопросы ответственности тоже висят в воздухе. Когда CTO Banner Health Майк Реагин говорит, что систему привлек фокус Anthropic на безопасность ИИ, это касается выбора технологий, а не правовых рамок.
Если врач опирается на анализ авторизации от Claude, а пациент страдает от задержки помощи, судебная практика дает мало подсказок по распределению вины.
Подходы к регуляциям сильно различаются по регионам. FDA и европейский Medical Device Regulation дают четкие рамки для ПО как медустройства, но многие регуляторы в Азиатско-Тихоокеанском регионе не выпустили указаний по генеративному ИИ для диагностики.
Эта неопределенность замедляет внедрение в местах, где пробелы в мединфраструктуре могли бы ускорить процесс, создавая конфликт между нуждами клиник и осторожностью властей.
Административные процессы, а не клинические решения
Настоящие внедрения строго ограничены. Директор по цифровизации контента Novo Nordisk Луиза Линд Сков рассказала, как используют Claude для автоматизации документов и контента в разработке фармпрепаратов, сосредоточившись на материалах для регуляторных подач, а не диагнозах.
Национальное управление медстрахования Тайваня применило MedGemma для извлечения данных из 30 000 патологоанатомических отчетов в целях анализа политики, а не решений по лечению.
Тенденция показывает, что организации внедряют ИИ в административные задачи, где промахи менее рискованны — счета, документация, черновики протоколов, — а не в прямую поддержку клинических решений, где медИИ мог бы радикально улучшить исходы для пациентов.
Возможности медицинского ИИ развиваются быстрее, чем учреждения успевают разобраться с регуляциями, ответственностью и интеграцией в процессы. Технологии уже здесь. Подписка за 20 долларов в месяц открывает доступ к продвинутым инструментам медицинского мышления.
Переведет ли это в реальные изменения здравоохранения — зависит от вопросов, которые эти скоординированные анонсы оставили без ответа.