Вашингтон впервые подходит к решению вопроса о регулировании искусственного интеллекта. Основной конфликт касается не самой технологии, а того, кто именно будет ее контролировать.
Пока федерального стандарта, ориентированного на безопасность потребителей, нет, штаты подали десятки законопроектов для защиты жителей от рисков, связанных с ИИ. Среди них калифорнийский SB-53 о безопасности ИИ и техасский Закон об ответственном управлении ИИ, который запрещает преднамеренное злоупотребление системами ИИ.
Гиганты технологий и стартапы из Кремниевой долины считают такие нормы создающими хаотичную мозаику правил, которая подрывает инновации.
«Это затормозит нас в соревновании с Китаем», — отметил Джош Власто, сооснователь про-ИИ политического комитета Leading the Future, в беседе с TechCrunch.
Бизнес и некоторые его представители в Белом доме настаивают на едином национальном подходе или полном отсутствии регулирования. В этой борьбе за все или ничего появились инициативы, чтобы запретить штатам вводить свои правила для ИИ.
Депутаты Палаты представителей якобы пытаются включить в Закон о национальной обороне (NDAA) положения, блокирующие законы штатов об ИИ. В то же время утечка проекта указа Белого дома показывает поддержку превентивного запрета на усилия штатов по регулированию ИИ.
Полный запрет, лишающий штаты права регулировать ИИ, не находит поддержки в Конгрессе: ранее в этом году парламент подавляющим большинством отверг аналогичную паузу. Законодатели подчеркивают: без федерального стандарта блокировка штатов оставит потребителей без защиты, а компании — без надзора.
Чтобы разработать национальный стандарт, конгрессмен Тед Лью (демократ от Калифорнии) и межпартийная рабочая группа Палаты по ИИ готовят пакет федеральных законопроектов. Они охватывают защиту потребителей в сферах мошенничества, здравоохранения, прозрачности, безопасности детей и катастрофических рисков. Такой масштабный пакет, вероятно, займет месяцы, если не годы, чтобы стать законом. Это объясняет, почему нынешняя спешка ограничить полномочия штатов превратилась в один из самых острых споров в политике ИИ.
Линии фронта: NDAA и указ

Попытки помешать штатам регулировать ИИ усилились в последние недели.
Палата представителей рассматривает возможность добавить в NDAA текст, запрещающий штатам вмешиваться в ИИ, сообщил лидер большинства Стив Скализе (республиканец от Луизианы) Punchbowl News. По данным Politico, Конгресс планировал завершить сделку по оборонному законопроекту до Дня благодарения. Источник, знакомый с ситуацией, рассказал TechCrunch, что переговоры сосредоточились на сужении охвата, чтобы сохранить за штатами контроль над темами вроде безопасности детей и прозрачности.
Тем временем утечка проекта указа Белого дома раскрывает стратегию администрации по превентивному запрету. Этот указ, который, по слухам, отложен, создаст «Группу по судебным делам об ИИ» для оспаривания законов штатов в судах, поручит агентствам оценивать «обременительные» законы штатов и побудит Федеральную комиссию по связи и Федеральную торговую комиссию к национальным стандартам, отменяющим правила штатов.
Особо стоит отметить, что указ даст Дэвиду Саксу — царю ИИ и криптовалют Трампа, сооснователю венчурной фирмы Craft Ventures — совместное руководство по созданию единой правовой базы. Это позволит Саксу напрямую влиять на политику ИИ, обходя обычную роль Управления Белого дома по науке и технологиям и его главу Майкла Крациоса.
Сакс открыто выступает за блокировку регулирования на уровне штатов и минимальный федеральный надзор, отдавая предпочтение саморегулированию бизнеса для «максимального роста».
Аргумент о мозаике правил
Позиция Сакса отражает мнение большей части индустрии ИИ. За последние месяцы возникли несколько супер-ПАКов в поддержку ИИ, вложивших сотни миллионов долларов в местные и штатные выборы, чтобы противостоять кандидатам, favoring регулирование ИИ.
Leading the Future — с поддержкой Andreessen Horowitz, президента OpenAI Грега Брокмана, Perplexity и сооснователя Palantir Джо Лонсдейла — собрал свыше 100 миллионов долларов. На этой неделе Leading the Future запустила кампанию на 10 миллионов долларов, убеждая Конгресс создать национальную политику ИИ, отменяющую законы штатов.
«Когда вы продвигаете инновации в техсекторе, нельзя допускать, чтобы законы множились от людей без нужной технической экспертизы», — пояснил Власто в разговоре с TechCrunch.
Он утверждает, что мозаика штатных норм «замедлит нас в гонке с Китаем».
Натан Лимер, исполнительный директор Build American AI — аналитического подразделения ПАКа, — подтвердил: группа поддерживает превентивный запрет без федеральных защит потребителей, специфичных для ИИ. Лимер считает, что существующие законы о мошенничестве или ответственности за продукцию достаточно справляются с рисками ИИ. В отличие от штатов, которые часто предотвращают проблемы заранее, Лимер предпочитает реактивный метод: позволить компаниям развиваться быстро, а проблемы решать в судах позже.
Без превентивного запрета — без представительства

Алекс Борес, член Ассамблеи Нью-Йорка, баллотирующийся в Конгресс, стал одной из первых целей Leading the Future. Он инициировал Закон RAISE, обязывающий крупные лаборатории ИИ разрабатывать планы безопасности для предотвращения серьезных угроз.
«Я верю в силу ИИ, и именно поэтому нужны разумные правила», — сказал Борес TechCrunch. «В итоге на рынке победит надежный ИИ, но рынок часто недооценивает безопасность или ставит на нее неверные краткосрочные стимулы».
Борес за национальную политику ИИ, но подчеркивает: штаты могут реагировать на новые риски быстрее.
И это действительно так.
По состоянию на ноябрь 2025 года 38 штатов приняли более 100 законов, связанных с ИИ, в основном против deepfakes, за прозрачность и раскрытие информации, а также регулирование использования ИИ в правительстве. (Недавнее исследование показало: 69% этих законов не налагают требований на разработчиков ИИ.)
Активность в Конгрессе подтверждает, что федералы действуют медленнее штатов. Сотни законопроектов об ИИ внесены, но прошли единицы. С 2015 года конгрессмен Лью подал 67 инициатив в Комитет по науке Палаты. Только одна стала законом.
Более 200 законодателей подписали открытое письмо против превентивного запрета в NDAA, аргументируя: «штаты — это лаборатории демократии», которые должны «сохранять гибкость для борьбы с новыми цифровыми вызовами по мере их появления». Почти 40 генеральных прокуроров штатов тоже направили открытое письмо против запрета на регулирование ИИ в штатах.
Эксперт по кибербезопасности Брюс Шнайер и специалист по данным Натан Э. Сандерс — авторы книги Перезагрузка демократии: как ИИ изменит нашу политику, правительство и гражданство — считают жалобы на мозаику преувеличенными.
Компании ИИ уже следуют строгим правилам ЕС, отмечают они, и большинство отраслей адаптируется к разным законам штатов. Настоящая цель, по их словам, — уйти от ответственности.
Как может выглядеть федеральный стандарт?
Лью готовит мега-законопроект объемом свыше 200 страниц, который планирует внести в декабре. Он затрагивает множество тем, включая усиление наказаний за мошенничество, защиту от deepfakes, охрану информаторов, вычислительные ресурсы для академий и обязательное тестирование с раскрытием результатов для компаний с крупными языковыми моделями.
Последнее положение обяжет лаборатории ИИ проверять модели и публиковать итоги — сейчас многие делают это добровольно. Лью еще не внес законопроект, но уточнил: он не поручает федеральным агентствам напрямую проверять модели ИИ. Это отличается от похожего инициативы сенаторов Джоша Хоули (республиканца от Миссури) и Ричарда Блюменталя (демократа от Коннектикута), которая требует государственной программы оценки передовых систем ИИ перед их запуском.
Лью признал, что его вариант менее жесткий, но с большим шансом на принятие.
«Моя цель — добиться закона в этом созыве», — сказал Лью, отметив открытую враждебность лидера большинства Палаты Скализе к регулированию ИИ. «Я не пишу идеальный закон, как если бы был королем. Я стараюсь создать такой, который пройдет через республиканскую Палату, Сенат и Белый дом».