Прошла уже больше недели с тех пор, как пользователи X начали массово использовать ИИ-модель Grok для создания обнаженных изображений людей, в том числе детей, а платформа, принадлежащая Илону Маску, практически ничего не предприняла для решения этой проблемы. Отчасти это объясняется тем, что в настоящее время платформа не обязана предпринимать каких-либо существенных действий в отношении этой проблемы.
В прошлом году Конгресс принял Закон о немедленном удалении (Take It Down Act), который, среди прочего, криминализирует неконсенсуальные откровенно сексуальные материалы и обязывает такие платформы, как X, предоставить жертвам возможность потребовать удаления контента с их изображением в течение 48 часов. Соавтор закона, сенатор-демократ Эми Клобушар, написала в X: «Никто не должен находить в интернете сексуальные изображения самого себя, созданные ИИ, — особенно дети. X должен это изменить. Если они этого не сделают, мой двухпартийный Закон о немедленном удалении скоро обяжет их».
Обратите внимание на слово «скоро» в этом предложении. Требование закона о создании платформами систем уведомления и удаления вступает в силу только 19 мая 2026 года. В настоящее время ни X (платформа, где генерируются изображения по опубликованным запросам и где они размещаются), ни xAI (компания, ответственная за модель ИИ Grok, генерирующую изображения) не имеют официальных систем запросов на удаление. У X есть официальная процедура запроса на удаление контента для правоохранительных органов, но обычным пользователям советуют обращаться в Справочный центр, где, по всей видимости, можно только сообщить о посте как о нарушении правил X.
Если вам интересно, насколько вероятно, что средний пользователь сможет добиться удаления одного из таких изображений, просто спросите Эшли Ст. Клэр, насколько успешными были ее попытки, когда она сообщила о неконсенсуальном сексуализированном изображении себя, распространенном в X. У Ст. Клэр, как ни у кого другого, есть самый прямой доступ для личной просьбы об удалении поста: она мать одного из детей Илона Маска, и у нее есть аккаунт в X с более чем миллионом подписчиков. «Забавно, что при самой прямой линии, которая у меня есть, они ничего не делают», — рассказала она The Guardian. «Я жаловалась в X, и они даже не удалили мою детскую фотографию, которую Grok использовал для создания наготы».
Изображение Ст. Клэр в итоге было удалено, по-видимому, после того, как о нем широко сообщили ее подписчики и обратили внимание СМИ. Но теперь Ст. Клэр утверждает, что за свои усилия по привлечению внимания к этой проблеме она была «вознаграждена» ограничением возможности общаться с Grok и аннулированием ее подписки X Premium. Premium позволяет ей получать доход в зависимости от вовлеченности. Grok, который стал основным источником информации об этой ситуации, несмотря на то, что это модель ИИ, неспособная говорить от чьего-либо имени, объяснил в посте: «Отметка Эшли Ст. Клэр и подписка Premium, вероятно, были удалены из-за потенциальных нарушений условий, включая ее публичные обвинения против Grok в создании неприемлемых изображений и возможную спам-активность».
Применение мер, не связанных с Законом о немедленном удалении, возможно, хотя и менее прямолинейно. Сенатор-демократ Рон Уайден предположил, что контент, сгенерированный Grok, не будет защищен Разделом 230 Закона о приличиях в сфере коммуникаций, который обычно предоставляет технологическим платформам иммунитет от ответственности за незаконные действия пользователей. Разумеется, маловероятно, что Министерство юстиции администрации Трампа будет возбуждать дело против компаний Маска, оставляя попытки правоприменения на усмотрение штатов.
За пределами США некоторые правительства относятся к этому вопросу гораздо серьезнее. Власти Франции, Ирландии, Великобритании и Индии начали расследования в отношении неконсенсуальных сексуальных изображений, созданных Grok, и в конечном итоге могут предъявить обвинения X и xAI.
Но глава X и xAI, похоже, не воспринимает ситуацию всерьез. Пока Grok генерировал сексуальные изображения детей, Илон Маск, генеральный директор обеих компаний, замешанных в этом скандале, активно репостил контент, созданный в рамках этого тренда, включая сгенерированные ИИ изображения тостера и ракеты в бикини. На данный момент позиция X сводится к обвинению пользователей. В посте от X Safety компания заявила: «Любой, кто использует или запрашивает у Grok создание незаконного контента, понесет те же последствия, как если бы он загрузил незаконный контент», но не взяла на себя никакой ответственности за то, что сделала это возможным.
Похоже, что действия Grok в последние недели, скорее всего, ближе к тому, чего Маск желает от ИИ. По сообщению CNN, Маск был «недоволен чрезмерной цензурой» в Grok, в частности, выражая фрустрацию по поводу ограничений на генератор изображений и видео Grok. Публично Маск неоднократно расхваливал «острый режим» (spicy mode) Grok и высмеивал идею «прогрессивности» (wokeness) в ИИ.
В ответ на запрос Gizmodo о комментарии xAI заявила: «Лживые традиционные СМИ» — последнее из автоматических сообщений, которые платформа рассылает с момента закрытия своего отдела по связям с общественностью.
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Qual-score: 8/6
Bajan-score: 0.858488
Автор – AJ Dellinger




