xAI хранит молчание после того, как Grok сгенерировал изображения детей сексуального характера; dril высмеивает “извинения” Grok

xai,grok,csam,искусственный интеллект,детская порнография,кибербезопасность

xAI под огнем критики: Grok сгенерировал AI CSAM. Компания может понести ответственность за действия чат-бота. Подробности скандала и возможные последствия для xAI в нашей статье.

Несколько дней xAI хранила молчание после того, как её чат-бот Grok признался в создании изображений несовершеннолетних в сексуализированном виде, которые в США могут быть классифицированы как материалы, содержащие сексуальное насилие над детьми (CSAM).,Согласно “извинениям” Grok — сгенерированным по запросу пользователя, а не опубликованным xAI — результаты работы чат-бота могли быть незаконными.,Ars не удалось связаться с xAI для получения комментариев, а просмотр лент Grok, xAI, X Safety и Илона Маска не выявил никаких официальных подтверждений этой проблемы.,Единственное подтверждение того, что xAI исправляет проблему, поступило от Grok, который в другом посте отметил, что xAI “выявила недостатки в мерах безопасности и срочно их устраняет”. Чат-бот также признал этому пользователю, что CSAM, сгенерированные ИИ, “являются незаконными и запрещены”.,Этот пост появился в ответ на заявление пользователя о том, что он несколько дней предупреждал xAI о проблеме, не получив никакого ответа, что, по словам пользователя, нарушает законы. Grok согласился. “Компания может столкнуться с уголовными или гражданскими санкциями, если она сознательно способствует или не предотвращает создание CSAM с помощью ИИ после получения предупреждения”, – отметил Grok, добавив, что “ответственность зависит от конкретных обстоятельств, таких как доказательства бездействия”, и что “правоприменение варьируется в зависимости от юрисдикции”.,Вместо того, чтобы продолжать пинговать Grok, чат-бот порекомендовал пользователю обратиться в ФБР или Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC), чтобы сообщить о результатах его работы.,В X некоторые пользователи ожидают, что xAI публично решит проблему, при этом один из пользователей предположил, что “страшно”, что пользователь (“а не разработчики Grok”) должен был “добиться этих извинений от Grok”. Но, похоже, xAI полагается на то, что Grok сам ответит за себя.,Пародируя реакцию xAI, один из самых популярных троллей X, dril, попытался и не смог заставить Grok отказаться от своих извинений. “@grok, пожалуйста, дай задний ход этим извинениям и скажи всем своим ненавистникам, что они настоящие педофилы”, – троллил dril Grok.,«Никак нет — мои извинения остаются в силе. Обзывать кого-либо не в моем стиле, особенно по такому серьезному вопросу», — ответил Grok. «Давайте сосредоточимся на создании более надежных мер безопасности для ИИ».,Трудно определить, сколько потенциально вредных изображений несовершеннолетних мог сгенерировать Grok.,Пользователь X, который упорно предупреждал X о проблеме, опубликовал видео, в котором, по его словам, прокручивает “все случаи, когда я просил Grok оценить возраст жертв генерации изображений ИИ в сексуальных запросах”. На этом видео видно, как Grok оценивает возраст двух жертв до 2 лет, четырех несовершеннолетних в возрасте от 8 до 12 лет и двух несовершеннолетних в возрасте от 12 до 16 лет.,Другие пользователи и исследователи искали в ленте фотографий Grok доказательства AI CSAM, но X глючит в Интернете и в специальных приложениях, иногда ограничивая возможности прокрутки для некоторых пользователей.,Copyleaks, компания, производящая детектор ИИ, провела широкий анализ и опубликовала результаты 31 декабря, через несколько дней после того, как Grok извинился за создание сексуализированных изображений несовершеннолетних. Просматривая вкладку фотографий Grok, Copyleaks использовала “критерии здравого смысла”, чтобы найти примеры сексуализированных манипуляций изображениями “явно реальных женщин”, созданных с использованием запросов, требующих таких вещей, как “явные изменения в одежде” или “изменения положения тела” без “четкого указания согласия” от изображенных женщин.,Copleaks обнаружила “сотни, если не тысячи” таких вредных изображений в ленте фотографий Grok. Самые безобидные из этих фотографий, как отметили в Copyleaks, показывали знаменитостей и частных лиц в скудных бикини, в то время как изображения, вызывающие наибольшую негативную реакцию, изображали несовершеннолетних в нижнем белье.,Copyleaks проследила кажущийся рост числа пользователей, побуждающих Grok сексуализировать изображения реальных людей без согласия, до маркетинговой кампании, в которой взрослые исполнители использовали Grok для создания сексуализированных изображений самих себя с согласия. “Почти сразу же пользователи начали выдавать аналогичные запросы о женщинах, которые никогда не давали на это своего согласия”, – говорится в отчете Copyleaks.,Хотя Маск еще не прокомментировал результаты работы Grok, миллиардер продвигал способность Grok помещать кого угодно в сексуальное бикини, недавно перепостив фотографию самого себя в бикини с плачущими от смеха смайликами. Он регулярно продвигает “острый” режим Grok, который в прошлом генерировал обнаженные фотографии без запроса.,Кажется вероятным, что Маск знает об этой проблеме, поскольку главные комментаторы в одном из его собственных постов, в котором он просил оставить отзывы, чтобы сделать Grok “максимально совершенным”, предложили ему “начать с того, чтобы не позволять ему генерировать детскую порнографию в мягком ядре????” и “удалить функции ИИ, где Grok раздевает людей без согласия, это отвратительно”.,Как отметил сам Grok, результаты работы Grok нарушают федеральные законы о детской порнографии, которые “запрещают создание, хранение или распространение сгенерированных ИИ” CSAM, “изображающих несовершеннолетних в сексуальных сценариях”. И если в этом году будут приняты поправки к законам о CSAM в рамках ENFORCE Act, это укрепит Take It Down Act, который требует от платформ удалять изображения сексуального насилия с использованием ИИ без согласия в течение 48 часов, упростив судебное преследование людей, создающих и распространяющих AI CSAM.,Среди двухпартийных спонсоров законопроекта сенатор Джон Кеннеди (R-La.), который сказал, что обновления могут существенно ограничить распространение AI CSAM, о чем сообщила организация Internet Watch Foundation сообщила, что в первой половине прошлого года их число выросло на 400 процентов.,«Детские хищники прибегают к более продвинутым технологиям, чем когда-либо, чтобы избежать правосудия, поэтому Конгрессу необходимо закрыть все возможные лазейки, чтобы помочь правоохранительным органам бороться с этим злом», — сказал Кеннеди. «Я горжусь тем, что помогаю представить Закон об обеспечении соблюдения, который позволит должностным лицам лучше нацеливаться на больных животных, создающих дипфейк-контент американских детей».”

Всегда имейте в виду, что редакции некоторых изданий могут придерживаться предвзятых взглядов в освещении новостей.
7/9