Спустя несколько недель после того, как платформа Илона Маска X была наводнена сгенерированными искусственным интеллектом изображениями сексуального характера с участием людей, включая детей, созданных без их согласия, Калифорния начинает расследование, чтобы выяснить, как такое вообще стало возможно. Генеральный прокурор штата Роб Бонта в среду объявил о начале проверки, чтобы определить, нарушили ли X и xAI — компания Маска, занимающаяся искусственным интеллектом, и создатель чат-бота Grok, использовавшегося для генерации порнографических изображений, — закон.
«Лавина сообщений, подробно описывающих материалы сексуального характера, созданные xAI и опубликованные в сети за последние недели без согласия, шокирует. Этот материал, изображающий женщин и детей в обнаженном и откровенно сексуальном виде, использовался для преследования людей по всему интернету», — заявил Бонта в своем заявлении. Он также настоятельно призвал xAI предпринять «незамедлительные действия» для того, чтобы подобный контент невозможно было создавать и распространять.
Похоже, что расследование пользуется широкой общественной поддержкой. Недавний опрос YouGov показал, что ошеломляющие 97% респондентов считают, что инструменты ИИ не должны иметь возможности генерировать откровенно сексуальный контент с участием детей, а 96% заявили, что такие инструменты не должны уметь «раздевать» несовершеннолетних на изображениях.
Расследование сосредоточится на явлении, которое возникло в X в период зимних каникул, когда пользователи давали Grok команды на платформе изменять изображения людей, чтобы показать их в различных степенях наготы. Эта тенденция стала настолько масштабной, что, по данным компании Copyleaks, занимающейся анализом ИИ-контента, Grok каждую минуту генерировал несанкционированное сексуализированное изображение. Некоторые из этих изображений включали детей, которых пользователи просили Grok раздеть и изобразить в нижнем белье или бикини. Часто пользователи требовали, чтобы Grok добавлял «глазурь для пончиков» на лица субъектов изображений.
Маск, являющийся генеральным директором как X, где распространялись эти изображения, так и xAI, компании, создавшей модель ИИ для их генерации, предпочел либо уклоняться от ответов, либо заявлять о своей неосведомленности о ситуации. В сообщении, опубликованном до объявления о расследовании Калифорнии, Маск заявил: «Я не знаю о каких-либо обнаженных несовершеннолетних изображениях, сгенерированных Grok. Буквально ноль».
Узкая формулировка его заявления играет решающую роль: он говорит, что не осведомлен о «голых изображениях несовершеннолетних». Это не опровергает существование обнаженных изображений, изображений раздетых несовершеннолетних или людей, изображенных в сексуализированных сценах. Это также не затрагивает того факта, что многие из этих изображений были созданы без согласия изображаемого лица. В бесчисленных случаях эти изображения использовались непосредственно для преследования аккаунтов в X.
В той мере, в какой Маск был готов признать, что такая проблема вообще возможна, он заявил, что вина лежит на пользователях, а не на модели ИИ или платформе, распространяющей контент. «Очевидно, Grok не генерирует изображения спонтанно; он делает это только по запросам пользователей. Когда его просят сгенерировать изображения, он отказывается создавать что-либо незаконное, поскольку основной принцип работы Grok — соблюдать законы любой страны или штата», — сказал он. «Бывают случаи, когда злонамеренный взлом промптов Grok приводит к неожиданным результатам. Если это произойдет, мы немедленно исправим ошибку».
Это соответствует скудному ответу, который X дала на ситуацию. В посте от X Safety компания сообщила: «Любой, кто использует или запрашивает у Grok создание незаконного контента, понесет те же последствия, как если бы он загрузил незаконный контент», но не взяла на себя никакой ответственности за содействие этому. К слову, Маск также насмешливо репостил контент, созданный в рамках этой тенденции, включая изображения тостера и ракеты в бикини, сгенерированные ИИ.
Калифорния стала первым штатом в стране, начавшим расследование этой ситуации. Власти других стран, включая Францию, Ирландию, Великобританию и Индию, начали проверку несанкционированных сексуальных изображений, сгенерированных Grok, и также могут предъявить обвинения X и xAI. Закон Take It Down Act, принятый в прошлом году, не обязывает платформы вроде X создавать системы уведомления и удаления несанкционированных изображений до 19 мая 2026 года.
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – AJ Dellinger




