В отсутствии значимого федерального стандарта ИИ, ориентированного на безопасность потребителей, штаты ввели десятки законопроектов для защиты жителей от вреда, связанного с ИИ, включая калифорнийский закон SB-53 о безопасности ИИ и Закон Техаса об ответственном управлении ИИ, который запрещает умышленное злоупотребление системами искусственного интеллекта.
Технологические гиганты и шумичные стартапы, родившиеся в Силиконовой долине, утверждают, что такое законодательство создаёт непрактичное лоскутное полотно, угрожающее инновациям.
«Это задержит нас в гонке с Китаем, — сказал Джош Власто, соучредитель pro‑AI PAC Leading the Future, в интервью TechCrunch.
Индустрия и ряд её переселенцев в Белом доме требуют национального стандарта или вовсе без него. В тылу этой «всё или ничего» битвы возникают новые попытки запретить штатам принимать собственное законодательство об ИИ.
Законодатели Палаты, как сообщается, пытаются использовать Закон о национальной обороне (NDAA) для блокирования законов штатов об ИИ. В то же время утечка проекта указа Белого дома демонстрирует сильную поддержку превентивного подавления действий штатов в регулировании ИИ.
Всеобъемлющий превентивный механизм, который лишил бы штаты права регулировать ИИ, непопулярен в Конгрессе, который ранее в этом году единодушно отверг аналогичное мораторий. Законодатели утверждают, что без федерального стандарта блокирование действий штатов оставит потребителей без защиты, а технологические компании — без надзора.
Чтобы выработать тот национальный стандарт, Rep. Ted Lieu (D-CA) и двупартийная AI‑рабочая группа Палаты готовят пакет федеральных законопроектов об ИИ, охватывающий ряд потребительских гарантий, включая борьбу с мошенничеством, здравоохранение, прозрачность, безопасность детей и катастрофический риск. Такой мегазаконопроект, вероятно, займёт месяцы, а то и годы, чтобы стать законом, подчёркивая, почему нынешняя суета вокруг ограничения полномочий штатов стала одной из самых спорных тем в политике ИИ.
Линии битвы: NDAA и указ

Усилия по запрету регуляции ИИ со стороны штатов нарастают в последние недели.
По сообщениям, Палата рассматривает включение в NDAA формулировки, которая не позволила бы штатам регулировать ИИ, заявил лидер большинства Стэв Скалис (R-LA) в интервью Punchbowl News. По данным Politico, Конгресс работал над финализацией соглашения по оборонному законопроекту до Дня благодарения. Источник, знакомый с делом, сообщил TechCrunch, что переговоры сводятся к сужению охвата, чтобы сохранить за штатами сферу, такую как безопасность детей и прозрачность.
Тем временем утечка проекта указа Белого дома демонстрирует собственную стратегию превентивного подавления. Указ, как сообщается, был «приостановлен», и предусматривал создание «Группы по искам ИИ» для оспаривания законов штатов об ИИ в судах, поручал агентствам оценивать законы штатов как «обременительные», и подталкивал Федеральную комиссию по связи и Федеральную торговую комиссию к национальным стандартам, которые превзойдут правила штатов.
Заметим, что указ даровал бы Давиду Саксу — карателю по ИИ и криптовалютам и со‑основателю венчурной фирмы Craft Ventures — сопредельную роль в создании единой правовой основы. Это дало бы Саксу прямое влияние на политику в области ИИ, которая превзошла бы обычную роль Белого дома в офисе науки и технологий и его руководителя Майкла Кратсиоса.
Сакс публично выступал за блокирование регулирования штатов и за минимальный федеральный надзор, предпочитая отраслевое саморегулирование ради «максимального роста».
Аргумент в пользу лоскутной регуляции
Позиция Сакса повторяет взгляды значительной части отрасли ИИ. За последние месяцы возникло несколько суперПАКов, поддерживающих ИИ, вложивших сотни миллионов долларов в местные и штатные выборы, чтобы противостоять кандидатам, поддерживающим регулирование ИИ.
Leading the Future — финансируемый Andreessen Horowitz, президентом OpenAI Грегом Брокманом, Perplexity и соучредителем Palantir Джо Лонсдейлом — собрал более 100 миллионов долларов. На этой неделе Leading the Future запустила кампанию на 10 миллионов долларов, призывая Конгресс разработать национальную ИИ‑политику, которая превзойдёт законы штатов.
«Когда вы стремитесь к инновациям в технологическом секторе, вы не можете допускать ситуацию, когда столько законов возникают от людей, которые не обладают необходимой технической экспертизой», — сказал Власто TechCrunch.
Он утверждал, что лоскутное регулирование штатов будет «замедлять нас в гонке против Китая».
Нэйтан Лемер, исполнительный директор Build American AI, связанного с PAC, подтвердил, что группа поддерживает превенцию без AI‑специфических федеральных потребительских защит. Лемер аргументировал, что существующие законы, такие как борьба с мошенничеством или ответственность за продукцию, уже достаточны для борьбы с вредом от ИИ. Где законы штатов часто направлены на предотвращение проблем до их появления, Лемер выступает за более реактивный подход: позволить компаниям двигаться быстро, решать проблемы в суде позже.
Без превентивной отмены без представительства

Алекс Боре, член Нью-Йоркской Ассамблеи, баллотирующийся в Конгресс, — одна из первых целей Leading the Future. Он спонсировал закон RAISE Act, который требует от крупных лабораторий ИИ иметь планы по безопасности, чтобы предотвратить критические вреды.
«Я верю в силу ИИ, и поэтому так важно иметь разумные регуляции», — сказал Боре TechCrunch. «В конечном счёте выиграет на рынке тот ИИ, который будет надёжен, и рынок часто недооценивает или ставит слабые краткосрочные стимулы к инвестированию в безопасность».
Боре поддерживает национальную AI‑политику, но считает, что штаты могут действовать быстрее, чтобы адресовать возникающие риски.
И действительно штаты действуют быстрее.
По состоянию на ноябрь 2025 года 38 штатов приняли более 100 законов, связанных с ИИ в этом году, в основном нацеленных на дипфейки, прозрачность и раскрытие информации, и правительственное использование ИИ. (Недавнее исследование показало, что 69% из этих законов не налагают требований на разработчиков ИИ вовсе.)
Деятельность в Конгрессе даёт больше оснований для аргумента о темпе, медленном по сравнению со штатами. Было введено сотни законопроектов об ИИ, но приняты немногие. С 2015 года Rep. Lieu внес 67 законопроектов в Комитет науки Палаты представителей. Только один стал законом.
Более 200 законодателей подписали открытое письмо против превенции в NDAA, утверждая, что «штаты служат лабораториями демократии», и должны «сохранить гибкость для противодействия новым цифровым вызовам по мере их появления». Почти 40 генеральных прокуроров штатов также направили открытое письмо, выступающее против запрета на регуляцию ИИ на уровне штатов.
Кибербезопасности эксперт Брюс Шнайер и дата‑сайентист Нэйтан Е. Сандерс — авторы Rewiring Democracy: How AI Will Transform Our Politics, Government, and Citizenship — утверждают, что жалоба на лоскутное регулирование преувеличена.
Компании ИИ уже соблюдают более жесткие правила ЕС, замечают они, и большинство отраслей находит способ работать в рамках разных законов штатов. Реальная мотивация, по их словам, — избегать ответственности.
Как может выглядеть федеральный стандарт?
Lieu готовит мегазаконопроект объёмом более 200 страниц, который планирует представить в декабре. Он охватывает ряд вопросов, таких как штрафы за мошенничество, защита от дипфейков, защита осведомителей, вычислительные ресурсы для академии и обязательное тестирование и раскрытие информации для крупных компаний-разработчиков языковых моделей.
Последнее положение требовало бы тестировать модели ИИ и публиковать результаты — то, чем сейчас по большей части занимаются добровольно. Лью ещё не представил законопроект, но сказал, что он не поручает прямой обзор моделей ИИ каким‑то федеральным агентствам. Это отличается от аналогичного закона, внесённого сенаторами Джошем Холи (R-MS) и Ричардом Блументалом (D-CN), который предусматривал бы программу государственного оценки для передовых систем ИИ до их развёртывания.
Лью признал, что его законопроект не будет таким строгим, но заявил, что у него больше шансов стать законом.
«Моя цель — довести до закона что‑то в этом созыве», — сказал Лью, отмечая, что лидер большинства Палаты представителей Стэв Скалис откровенно враждебно относится к регулированию ИИ. «Я не пишу законопроект, который бы я принял, если бы был королём. Я пытаюсь написать законопроект, который смог бы пройти через Палату, контролируемую Республиканцами, через Сенат, контролируемый Республиканцами, и через Белый дом, контролируемый Республиканцами».
Автор – Rebecca Bellan




