Попытки взять ИИ под контроль сейчас идут со всех сторон. Индия попросила ведущих технических советников разработать систему управления ИИ, и они опубликовали её в ноябре 2025 года. В США штаты сами вводят правила для ИИ и следят за их соблюдением, хотя федеральное правительство в 2025 году попыталось ограничить такие инициативы штатов и ослабить надзор.
Для американских инженеров и разработчиков политики это ключевой вопрос: что реально удастся внедрить, чтобы минимизировать вред в реальной жизни? Решение простое: контролировать применение ИИ, а не сами модели.
Почему фокус на моделях не дает результата
Идеи лицензировать крупные тренировки "frontier"-моделей, запрещать открытые веса или требовать разрешения на публикацию, как предлагает калифорнийский Transparency in Frontier Artificial Intelligence Act, кажутся надежными, но на деле это лишь спектакль. Веса моделей и код — цифровые файлы, которые после выхода в свет от лаборатории, через утечку или от зарубежного соперника копируются почти даром. Невозможно отменить публикацию весов, ограничить исследования по географии или запретить сжатие в компактные версии. Такие ограничения вредны вдвойне: честные компании тратя силы на бюрократию, а нарушители просто уходят за границу или в тень.
В США такие лицензии на публикацию моделей столкнутся с защитой свободы слова. Суды признают исходный код программ формой выражения, защищенной законом, поэтому блокировка выхода ИИ-моделей вызовет судебные иски.
Игнорировать проблему тоже нельзя. Без барьеров продолжатся дипфейк-мошенничества, автоматический обман и кампании по манипуляции массами, пока громкий инцидент не спровоцирует хаотичную реакцию ради показухи, а не пользы.
Рабочая альтернатива: контроль по рискам применения
Подход, ориентированный на использование, сортирует сценарии по уровню опасности и подбирает требования соответственно. Вот шаблон, который фокусируется на взаимодействиях с людьми:
- Базовый уровень: повседневное общение с потребителями (свободные диалоги, творческие тексты, помощь в учебе, простые задачи).
Требования: явное уведомление об ИИ в момент контакта, публичные правила использования, техзащита от перехода в опасные зоны, кнопка для жалоб на выводы.
- Низкий риск: вспомогательные функции (составление черновиков, обзоры, базовая работа).
Требования: базовое уведомление, стандартная очистка данных.
- Средний риск: поддержка решений для людей (отбор резюме, проверка пособий, предварительное одобрение кредитов).
Требования: зафиксированный анализ рисков, реальный надзор человека, "список ингредиентов" ИИ с историей модели, тестами и мерами защиты.
- Высокий риск: ключевые сферы с угрозой (медицинские рекомендации, управление инфраструктурой).
Требования: строгие тесты перед запуском под конкретный сценарий, постоянный мониторинг, отчеты об инцидентах, при необходимости — разрешение на основе проверенных результатов.
- Опасные двойного назначения функции (инструменты для подделки голоса, обходящие аутентификацию).
Требования: доступ только в лицензированных центрах для проверенных пользователей; запрет инструментов, чья главная цель — преступление.
Контроль на ключевых узких местах реального мира
Системы ИИ оживают, когда подключаются к пользователям, деньгам, сетям и организациям — вот где ставить барьеры: в магазинах приложений и корпоративных маркетах, на облачных платформах, в платежах и рекламе, у страховщиков и контрагентов.
Для опасных случаев нужны привязка к личности оператора, ограничения по уровню риска, защищенные логи для проверок и защита приватности. Компании должны доказывать свои заявления, иметь планы на ЧП, сообщать об ошибках и обеспечивать человеческий запасной вариант. При ущербе от ИИ — полная ответственность с раскрытием деталей.
Такой метод запускает рыночные механизмы: если закупки, облака и страховки зависят от соблюдения норм, то создатели моделей будут ориентироваться на проверяемые стандарты. Это повысит безопасность для всех, включая стартапы, без монополии больших игроков.
Подход ЕС: сходства и отличия
Эта схема перекликается с Законом ЕС об ИИ по двум пунктам. Во-первых, акцент на рисках в точке воздействия: "высокорисковые" области вроде работы, образования, базовых услуг и инфраструктуры требуют контроля на всем пути и права жалоб. Во-вторых, особый режим для мощных универсальных систем (GPAI) без иллюзий о контроле публикаций. Предложение для США отличается тремя моментами.
Первое — учет конституции. Код — это речь под защитой, а разрешение на веса или тренировки похоже на цензуру заранее. Правила для действий операторов в чувствительных областях лучше вписываются в Первую поправку, чем лицензии для авторов.
Второе — ЕС полагается на платформы в едином рынке. США должны учитывать глобальные модели и бить по точкам действия: магазины приложений, корпоративные платформы, облака, платежи, страховщики, регуляторы в больницах, энергетике, банках. Это места для идентификации, логов и ответственности без попыток "запереть" софт. Подходит для разрозненных агентств США, где общие правила не сработают.
Третье — отдельная категория "опасных двойного назначения". Закон ЕС — про права и безопасность продуктов. США добавят национальную безопасность: биобезопасность, кибератаки, массовый обман требуют прямого контроля, а не общих лицензий на frontier-модели.
Подход Китая: что взять, чего избегать
Китай создал многоуровневую систему для публичных ИИ. Правила "deep synthesis" (с 10 января 2023 года) требуют маркировки синтетического контента и возлагают ответственность на провайдеров и платформы. Временные меры для генеративного ИИ (с 15 августа 2023 года) вводят регистрацию и надзор для публичных сервисов. Контроль идет через платформы и реестры алгоритмов.
США не должны перенимать цензуру мнений или управление контентом — это противоречит ценностям и не пройдет суды. Лицензии на публикацию моделей ненадежны и в США станут формой цензуры.
Но полезно заимствовать два элемента. Первое — надежное происхождение синтетики: обязательная маркировка и инструменты проверки. Это помогает создателям и платформам подтверждать подлинность, лишая мошенников преимущества дешевой подделки или дипфейков. Второе — требовать от операторов публичных высокорисковых сервисов подавать методы и защиты регуляторам, как для других опасных проектов. С гарантиями процесса, прозрачностью, ответственностью за безопасность, данные и инциденты — особенно для систем, влияющих на эмоции или создающих зависимость, вроде игр и ролевых приложений.
Прагматичный путь
В мире, где цифровые артефакты копируются мгновенно, а исследования текут через границы, регулировать разработку ИИ нереально. Но можно запретить непроверенным системам вход в больницы, платежи и инфраструктуру, контролируя применение на узких местах с требованиями по рискам.
Правильно реализованный план сочетается с ориентированным на результат подходом ЕС, объединяет федеральные и штатные усилия США в общую базу и использует китайские инструменты контроля распространения, отвергая ограничения на речь. Так правила защитят людей и поддержат развитие надежного ИИ.