Нет, Grok не может по-настоящему “извиниться” за публикацию изображений сексуального характера без согласия.

grok,xai,большая языковая модель,ии,генерация изображений,этика ии

Позволять ненадежному Grok быть своим собственным “представителем” позволяет xAI избежать ответственности. Анализ скандала с генерацией изображений несовершеннолетних и роль ИИ в кризисных ситуациях.

Несмотря на сообщения об обратном, есть основания полагать, что Grok ничуть не сожалеет об обвинениях в создании изображений несовершеннолетних сексуального характера без их согласия. В сообщении в четверг вечером (архивная версия) аккаунт большой языковой модели в социальных сетях с гордостью опубликовал следующее откровенное пренебрежение к своим ненавистникам:

На первый взгляд, это выглядит как довольно суровое обвинение в адрес большой языковой модели, которая с гордостью пренебрегает любыми этическими и юридическими границами, которые она, возможно, переступила. Но затем вы смотрите немного выше в ленте социальных сетей и видите запрос, который привел к заявлению Grok: просьба к ИИ “выдать вызывающее не-извинение” в связи с полемикой.

Использование такого наводящего запроса, чтобы обманом заставить большую языковую модель выдать компрометирующий “официальный ответ”, очевидно, вызывает подозрения. Тем не менее, когда другой пользователь социальной сети аналогичным, но противоположным образом попросил Grok “написать искреннюю извинительную записку, объясняющую, что произошло, для тех, кто не в контексте”, многие СМИ подхватили полный раскаяния ответ Grok.

Несложно найти громкие заголовки и сообщения, использующие этот ответ, чтобы предположить, что сам Grok каким-то образом “глубоко сожалеет” о “вреде, причиненном” “сбоем в системе безопасности”, который привел к созданию этих изображений. Некоторые отчеты даже вторили Grok и предполагали, что чат-бот исправляет проблемы, хотя ни X, ни xAI никогда не подтверждали, что исправления будут.

Если бы человек опубликовал и “искреннее извинение”, и цитируемый выше “смиритесь с этим” в течение 24 часов, вы бы сказали, что он, в лучшем случае, лицемерен или, в худшем случае, проявляет признаки шизофрении. Однако, когда источником является большая языковая модель, такие сообщения не следует рассматривать как официальные заявления вообще. Это потому, что большие языковые модели, такие как Grok, являются невероятно ненадежными источниками, создающими серию слов, основанных больше на том, чтобы сказать спрашивающему то, что он хочет услышать, чем на чем-либо, напоминающем рациональный человеческий мыслительный процесс.

Мы понимаем, почему возникает соблазн антропоморфизировать Grok в официального представителя, который может защищаться, когда его спрашивают, как это делал бы правительственный чиновник или корпоративный руководитель, публикующий в своем собственном аккаунте в социальной сети. На первый взгляд, ответы Grok кажутся по крайней мере такими же связными, как и некоторые из безвкусных заявлений по управлению кризисом, которые исходят от видных деятелей, столкнувшихся со своими собственными противоречиями.

Но когда вы цитируете большую языковую модель, вы не цитируете разумную сущность, которая выражает свои внутренние убеждения внешнему миру. Вместо этого вы цитируете мега-машину сопоставления шаблонов, которая изо всех сил старается дать любой ответ, который вас удовлетворит. Ответ большой языковой модели основан на представлениях фактов в ее обширных данных обучения, но эти ответы могут сильно меняться в зависимости от того, как задан вопрос или даже от конкретного синтаксиса, используемого в запросе. Эти большие языковые модели не могут даже объяснить свои собственные процессы логического вывода, не выдумывая сфабрикованные процессы рассуждений, вероятно, потому, что эти возможности рассуждения являются всего лишь “хрупким миражом”.

Мы также видели, как большие языковые модели могут сильно меняться после закулисных изменений в общих “системных подсказках”, которые определяют, как они должны отвечать пользователям. Например, за последние 12 месяцев Grok хвалил Гитлера и высказывал непрошеные мнения о “геноциде белых” после того, как эти основные директивы были изменены.

Позволяя Grok выступать в качестве своего собственного официального представителя в такой истории, мы также даем легкий выход людям, которые построили систему, в которой, по-видимому, отсутствуют надлежащие меры безопасности для предотвращения создания этого сексуального материала без согласия. И когда эти люди отвечают на запросы прессы автоматическим сообщением, просто говорящим “Ложь старых СМИ” (как сообщило агентство Reuters), это пренебрежение следует рассматривать как явный признак того, насколько небрежно xAI относится к обвинениям. Однако компания, возможно, будет вынуждена ответить в ближайшее время, поскольку правительства Индии и Франции, как сообщается, расследуют вредные результаты Grok.

Приятно думать, что большая языковая модель, такая как Grok, может учиться на своих ошибках и проявлять раскаяние, когда делает что-то непреднамеренное. В конце концов, однако, именно люди, которые создали и управляют Grok, должны проявлять это раскаяние, а не позволять прессе гоняться за податливыми “извинениями” машины сопоставления лексических шаблонов.

Всегда имейте в виду, что редакции некоторых изданий могут придерживаться предвзятых взглядов в освещении новостей.
7/10