Новости и статьи об искусственном интеллекте и нейросетях. Мы собираем и обрабатываем самую актуальную информацию из мира AI. О проекте

Новости

Регулировать использование ИИ, а не модели

Статья предлагает регулировать применение ИИ по уровням риска, а не сами модели, чтобы избежать проблем с копированием и цензурой. Такой подход фокусируется на реальных точках воздействия — от потребительских чатов до критической инфраструктуры — и черпает идеи из ЕС и Китая. Это повысит безопасность без торможения инноваций.

2 февраля 2026 г.
8 мин
20

Попытки взять ИИ под контроль сейчас идут со всех сторон. Индия попросила ведущих технических советников разработать систему управления ИИ, и они опубликовали её в ноябре 2025 года. В США штаты сами вводят правила для ИИ и следят за их соблюдением, хотя федеральное правительство в 2025 году попыталось ограничить такие инициативы штатов и ослабить надзор.

Для американских инженеров и разработчиков политики это ключевой вопрос: что реально удастся внедрить, чтобы минимизировать вред в реальной жизни? Решение простое: контролировать применение ИИ, а не сами модели.

Почему фокус на моделях не дает результата

Идеи лицензировать крупные тренировки "frontier"-моделей, запрещать открытые веса или требовать разрешения на публикацию, как предлагает калифорнийский Transparency in Frontier Artificial Intelligence Act, кажутся надежными, но на деле это лишь спектакль. Веса моделей и код — цифровые файлы, которые после выхода в свет от лаборатории, через утечку или от зарубежного соперника копируются почти даром. Невозможно отменить публикацию весов, ограничить исследования по географии или запретить сжатие в компактные версии. Такие ограничения вредны вдвойне: честные компании тратя силы на бюрократию, а нарушители просто уходят за границу или в тень.

В США такие лицензии на публикацию моделей столкнутся с защитой свободы слова. Суды признают исходный код программ формой выражения, защищенной законом, поэтому блокировка выхода ИИ-моделей вызовет судебные иски.

Игнорировать проблему тоже нельзя. Без барьеров продолжатся дипфейк-мошенничества, автоматический обман и кампании по манипуляции массами, пока громкий инцидент не спровоцирует хаотичную реакцию ради показухи, а не пользы.

Рабочая альтернатива: контроль по рискам применения

Подход, ориентированный на использование, сортирует сценарии по уровню опасности и подбирает требования соответственно. Вот шаблон, который фокусируется на взаимодействиях с людьми:

  1. Базовый уровень: повседневное общение с потребителями (свободные диалоги, творческие тексты, помощь в учебе, простые задачи).
    Требования: явное уведомление об ИИ в момент контакта, публичные правила использования, техзащита от перехода в опасные зоны, кнопка для жалоб на выводы.
  1. Низкий риск: вспомогательные функции (составление черновиков, обзоры, базовая работа).
    Требования: базовое уведомление, стандартная очистка данных.
  1. Средний риск: поддержка решений для людей (отбор резюме, проверка пособий, предварительное одобрение кредитов).
    Требования: зафиксированный анализ рисков, реальный надзор человека, "список ингредиентов" ИИ с историей модели, тестами и мерами защиты.
  1. Высокий риск: ключевые сферы с угрозой (медицинские рекомендации, управление инфраструктурой).
    Требования: строгие тесты перед запуском под конкретный сценарий, постоянный мониторинг, отчеты об инцидентах, при необходимости — разрешение на основе проверенных результатов.
  1. Опасные двойного назначения функции (инструменты для подделки голоса, обходящие аутентификацию).
    Требования: доступ только в лицензированных центрах для проверенных пользователей; запрет инструментов, чья главная цель — преступление.

Контроль на ключевых узких местах реального мира

Системы ИИ оживают, когда подключаются к пользователям, деньгам, сетям и организациям — вот где ставить барьеры: в магазинах приложений и корпоративных маркетах, на облачных платформах, в платежах и рекламе, у страховщиков и контрагентов.

Для опасных случаев нужны привязка к личности оператора, ограничения по уровню риска, защищенные логи для проверок и защита приватности. Компании должны доказывать свои заявления, иметь планы на ЧП, сообщать об ошибках и обеспечивать человеческий запасной вариант. При ущербе от ИИ — полная ответственность с раскрытием деталей.

Такой метод запускает рыночные механизмы: если закупки, облака и страховки зависят от соблюдения норм, то создатели моделей будут ориентироваться на проверяемые стандарты. Это повысит безопасность для всех, включая стартапы, без монополии больших игроков.

Подход ЕС: сходства и отличия

Эта схема перекликается с Законом ЕС об ИИ по двум пунктам. Во-первых, акцент на рисках в точке воздействия: "высокорисковые" области вроде работы, образования, базовых услуг и инфраструктуры требуют контроля на всем пути и права жалоб. Во-вторых, особый режим для мощных универсальных систем (GPAI) без иллюзий о контроле публикаций. Предложение для США отличается тремя моментами.

Первое — учет конституции. Код — это речь под защитой, а разрешение на веса или тренировки похоже на цензуру заранее. Правила для действий операторов в чувствительных областях лучше вписываются в Первую поправку, чем лицензии для авторов.

Второе — ЕС полагается на платформы в едином рынке. США должны учитывать глобальные модели и бить по точкам действия: магазины приложений, корпоративные платформы, облака, платежи, страховщики, регуляторы в больницах, энергетике, банках. Это места для идентификации, логов и ответственности без попыток "запереть" софт. Подходит для разрозненных агентств США, где общие правила не сработают.

Третье — отдельная категория "опасных двойного назначения". Закон ЕС — про права и безопасность продуктов. США добавят национальную безопасность: биобезопасность, кибератаки, массовый обман требуют прямого контроля, а не общих лицензий на frontier-модели.

Подход Китая: что взять, чего избегать

Китай создал многоуровневую систему для публичных ИИ. Правила "deep synthesis" (с 10 января 2023 года) требуют маркировки синтетического контента и возлагают ответственность на провайдеров и платформы. Временные меры для генеративного ИИ (с 15 августа 2023 года) вводят регистрацию и надзор для публичных сервисов. Контроль идет через платформы и реестры алгоритмов.

США не должны перенимать цензуру мнений или управление контентом — это противоречит ценностям и не пройдет суды. Лицензии на публикацию моделей ненадежны и в США станут формой цензуры.

Но полезно заимствовать два элемента. Первое — надежное происхождение синтетики: обязательная маркировка и инструменты проверки. Это помогает создателям и платформам подтверждать подлинность, лишая мошенников преимущества дешевой подделки или дипфейков. Второе — требовать от операторов публичных высокорисковых сервисов подавать методы и защиты регуляторам, как для других опасных проектов. С гарантиями процесса, прозрачностью, ответственностью за безопасность, данные и инциденты — особенно для систем, влияющих на эмоции или создающих зависимость, вроде игр и ролевых приложений.

Прагматичный путь

В мире, где цифровые артефакты копируются мгновенно, а исследования текут через границы, регулировать разработку ИИ нереально. Но можно запретить непроверенным системам вход в больницы, платежи и инфраструктуру, контролируя применение на узких местах с требованиями по рискам.

Правильно реализованный план сочетается с ориентированным на результат подходом ЕС, объединяет федеральные и штатные усилия США в общую базу и использует китайские инструменты контроля распространения, отвергая ограничения на речь. Так правила защитят людей и поддержат развитие надежного ИИ.