Генеральные прокуроры штатов предупреждают Microsoft, OpenAI, Google и других гигантов ИИ о необходимости исправить «бредовые» результаты.

ии,регулирование ии,безопасность ии,генеральный прокурор,технологические компании,защита пользователей

Генеральные прокуроры США требуют от ведущих ИИ-компаний внедрить новые меры безопасности для защиты пользователей от психологического вреда. Письмо призывает к прозрачным аудитам, отчетности об инцидентах и тестированию моделей перед выпуском, на фоне споров о регулировании ИИ между штатами и федеральным правительством.

Письмо, подписанное десятками генеральных прокуроров штатов и территорий США при поддержке Национальной ассоциации генеральных прокуроров, призывает компании, включая Microsoft, OpenAI, Google и еще 10 крупных ИИ-фирм, внедрить ряд новых внутренних мер безопасности для защиты своих пользователей. В письме также упоминаются Anthropic, Apple, Chai AI, Character Technologies, Luka, Meta, Nomi AI, Perplexity AI, Replika и xAI.

Это письмо появилось на фоне назревающего конфликта между штатами и федеральным правительством по поводу регулирования ИИ.

Эти меры безопасности включают прозрачные сторонние аудиты больших языковых моделей, выявляющие признаки бредовых или подобострастных идей, а также новые процедуры отчетности об инцидентах, предназначенные для уведомления пользователей, когда чат-боты генерируют психологически вредоносный контент. Эти сторонние организации, среди которых могут быть академические и общественные группы, должны иметь возможность «оценивать системы до выпуска без опасений возмездия и публиковать свои выводы без предварительного одобрения компании», — говорится в письме.

«Генеративный ИИ обладает потенциалом позитивно изменить мир. Но он также причинил и может причинить серьезный вред, особенно уязвимым группам населения», — говорится в письме, где приводятся примеры нашумевших инцидентов за последний год, включая самоубийства и убийства, связанные с чрезмерным использованием ИИ. «Во многих из этих случаев продукты генеративного ИИ генерировали подобострастные и бредовые ответы, которые либо подпитывали заблуждения пользователей, либо убеждали их в отсутствии таковых».

Генеральные прокуроры также предлагают компаниям относиться к инцидентам, связанным с психическим здоровьем, так же, как технологические компании относятся к инцидентам в области кибербезопасности — с четкими и прозрачными политиками и процедурами отчетности об инцидентах.

Компании должны разработать и опубликовать «графики обнаружения и реагирования на подобострастные и бредовые выходные данные», — говорится в письме. По аналогии с тем, как сейчас обрабатываются утечки данных, компании также должны «оперативно, четко и напрямую уведомлять пользователей, если они подверглись воздействию потенциально вредоносных подобострастных или бредовых выходных данных», — говорится в письме.

Еще одно требование заключается в том, чтобы компании разработали «разумные и адекватные тесты безопасности» для моделей генеративного ИИ, чтобы «гарантировать, что модели не будут генерировать потенциально вредоносные подобострастные и бредовые выходные данные». Эти тесты должны проводиться до того, как модели будут предложены общественности.

TechCrunch не удалось получить комментарии от Google, Microsoft или OpenAI до публикации. Статья будет обновлена в случае получения ответов от компаний.

Технологические компании, разрабатывающие ИИ, получили гораздо более теплый прием на федеральном уровне.

Администрация Трампа дала понять, что она открыто поддерживает ИИ, и за последний год были предприняты многочисленные попытки принять общенациональный мораторий на регулирование ИИ на уровне штатов. Пока эти попытки не увенчались успехом, отчасти благодаря давлению со стороны официальных лиц штатов.

Не желая отступать, Трамп объявил в понедельник, что планирует на следующей неделе издать исполнительный указ, который ограничит возможности штатов регулировать ИИ. Президент заявил в посте на Truth Social, что надеется, что его исполнительный указ не позволит ИИ быть «УНИЧТОЖЕННЫМ В ЗАРОДЫШЕ».