Компания X обвиняет пользователей в создании детской порнографии с помощью Grok, никаких мер не объявлено.

grok,x,csam,apple,app store,илон маск

Критики призывают к запрету X в App Store из-за сексуализации несовершеннолетних Grok. X обвиняет пользователей в создании CSAM, перекладывая ответственность. Обсуждается модерация контента и этичность AI.

Похоже, вместо того, чтобы обновить Grok, чтобы предотвратить создание изображений несовершеннолетних сексуального характера, X планирует удалить пользователей, генерирующих контент, который платформа считает незаконным, включая материалы, созданные Grok, содержащие сексуальное насилие над детьми (CSAM). В субботу X Safety наконец-то опубликовала официальный ответ после почти недельной негативной реакции на результаты Grok, которые сексуализировали реальных людей без их согласия. Не принося извинений за функциональность Grok, X Safety обвинила пользователей в том, что они побуждают Grok создавать CSAM, и напомнила им, что такие запросы могут привести к приостановке действия учетной записи и возможным юридическим последствиям.

«Мы принимаем меры против незаконного контента в X, включая материалы, содержащие сексуальное насилие над детьми (CSAM), удаляя их, навсегда приостанавливая действие учетных записей и сотрудничая с местными органами власти и правоохранительными органами, когда это необходимо», — заявила X Safety. «Любой, кто использует Grok или побуждает его создавать незаконный контент, понесет те же последствия, что и при загрузке незаконного контента».

Сообщение X Safety подкрепило ответ в другой ветке на платформе, в котором владелец X Илон Маск повторил последствия, с которыми сталкиваются пользователи за неподобающие запросы. Этот ответ был дан на пост пользователя X DogeDesigner, который предположил, что Grok нельзя винить в «создании неприемлемых изображений», несмотря на то, что Grok сам определяет свои результаты.

«Это все равно, что винить ручку за то, что она написала что-то плохое», — высказал мнение DogeDesigner. «Ручка не решает, что будет написано. Это делает человек, который ее держит. Grok работает так же. То, что вы получаете, во многом зависит от того, что вы вкладываете».

Но генераторы изображений, такие как Grok, не обязаны выдавать именно то, что хочет пользователь, как ручка. Одна из причин, по которой Управление по авторским правам не позволяет регистрировать работы, созданные ИИ, заключается в отсутствии человеческого фактора при определении того, что выдают генераторы изображений ИИ. Чат-боты также не являются детерминированными, генерируя разные результаты для одного и того же запроса.

Вот почему для многих пользователей, задающихся вопросом, почему X не фильтрует CSAM в ответ на генерации Grok, ответ X, похоже, не решает проблему, возлагая ответственность за результаты только на пользователей.

В комментарии к ветке DogeDesigner программист отметил, что пользователи X могут непреднамеренно генерировать неприемлемые изображения — например, в августе Grok сгенерировал обнаженные фотографии Тейлор Свифт без запроса. Эти пользователи даже не могут удалить проблемные изображения из учетной записи Grok, чтобы предотвратить их распространение, отметил программист. В этом сценарии пользователь X может рисковать приостановкой действия учетной записи или юридической ответственностью в случае вмешательства правоохранительных органов, как следует из ответа X Safety, при этом X никогда не несет ответственности за неожиданные результаты.

X не сразу ответила на запрос Ars с просьбой уточнить, были ли внесены какие-либо обновления в Grok после скандала с CSAM. Многие средства массовой информации странным образом поверили Grok на слово, когда чат-бот ответил на запросы с требованием извинений, заявив, что X улучшит свои меры безопасности. Но ответ X Safety, похоже, противоречит чат-боту, который, как отметил Ars на прошлой неделе, никогда не следует считать надежным представителем.

В то время как ответ X продолжает разочаровывать критиков, некоторые ведущие комментаторы в посте X Safety призвали Apple принять меры, если X этого не сделает. Они предположили, что X может нарушать правила App Store, запрещающие приложениям разрешать пользовательский контент, который объективирует реальных людей. Пока Grok не начнет прозрачно отфильтровывать CSAM или другие результаты, «раздевающие» реальных людей без их согласия, чат-бот и X должны быть забанены, заявили критики.

Запрет в App Store, вероятно, разозлит Маска, который в прошлом году подал в суд на Apple, отчасти из-за своего разочарования тем, что App Store так и не включил Grok в список «Обязательных» приложений. В этом продолжающемся судебном процессе Маск утверждал, что предполагаемое предпочтение Apple ChatGPT в App Store не позволило Grok догнать его на рынке чат-ботов. Это говорит о том, что запрет в App Store потенциально обречет попытку Grok обогнать лидерство ChatGPT.

Apple не сразу ответила на запрос Ars с просьбой прокомментировать, нарушают ли результаты Grok или текущая функциональность правила App Store.

В то время как некоторые пользователи сосредоточены на том, как X может возлагать ответственность на пользователей за результаты Grok, когда X обучает модель, другие задаются вопросом, как именно X планирует модерировать незаконный контент, который Grok, похоже, способен генерировать.

X пока более прозрачна в отношении того, как она модерирует CSAM, размещенные на платформе. В сентябре прошлого года X Safety сообщила, что у нее «политика абсолютной нетерпимости к контенту CSAM», большая часть которого «автоматически» обнаруживается с использованием запатентованной технологии хеширования для активного выявления известного CSAM.

В рамках этой системы в прошлом году было приостановлено действие более 4,5 миллионов учетных записей, и X сообщила о «сотнях тысяч» изображений в Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC). В следующем месяце глава отдела безопасности X Кайли МакРобертс подтвердила, что «в 2024 году 309 сообщений, сделанных X в NCMEC, привели к арестам и последующим обвинительным приговорам в 10 случаях», а в первой половине 2025 года «170 сообщений привели к арестам».

«Когда мы выявляем очевидные материалы CSAM, мы действуем быстро и в большинстве случаев навсегда приостанавливаем действие учетной записи, что автоматически удаляет контент с нашей платформы», — заявила X Safety. «Затем мы сообщаем об учетной записи в NCMEC, который работает с правоохранительными органами по всему миру, в том числе в Великобритании, для обеспечения правосудия и защиты детей».

В то время X пообещала «оставаться непоколебимой» в своей «миссии по искоренению CSAM», но если оставить это без контроля, вредоносные результаты Grok рискуют создать новые виды CSAM, которые эта система не сможет автоматически обнаружить. В X некоторые пользователи предложили платформе увеличить количество механизмов отчетности, чтобы помочь выявлять потенциально незаконные результаты Grok.

Другим тревожно расплывчатым аспектом ответа X Safety являются определения, которые X использует для незаконного контента или CSAM, предположили некоторые пользователи X. На платформе не все согласны с тем, что является вредным. Некоторые критики обеспокоены тем, что Grok генерирует изображения в бикини, которые сексуализируют общественных деятелей, в том числе врачей или юристов, без их согласия, в то время как другие, в том числе Маск, считают создание изображений в бикини шуткой.

То, где именно X проводит черту в отношении сгенерированного ИИ CSAM, может определить, будут ли изображения быстро удалены или будут ли выявлены и приостановлены повторные нарушители. Любые учетные записи или контент, оставленные без внимания, могут потенциально травмировать реальных детей, чьи изображения могут быть использованы для запросов Grok. И если Grok когда-либо будет использоваться для наводнения Интернета поддельным CSAM, недавняя история показывает, что это может затруднить правоохранительным органам расследование реальных случаев жестокого обращения с детьми.

Всегда имейте в виду, что редакции некоторых изданий могут придерживаться предвзятых взглядов в освещении новостей.
7/9