Дело об убийстве с последующим самоубийством демонстрирует, что OpenAI избирательно скрывает данные умерших пользователей

openai,chatgpt,конфиденциальность данных,судебный иск,психическое здоровье

OpenAI обвиняют в сокрытии данных ChatGPT по делу об убийстве-самоубийстве. Иск семьи погибшей утверждает, что компания скрывает переписки, которые могли спровоцировать пользователя на преступление.

OpenAI подвергается всё более пристальному вниманию из-за того, как она обрабатывает данные ChatGPT после смерти пользователей, выборочно предоставляя информацию в судебных процессах, связанных с самоубийствами после использования ChatGPT.

На прошлой неделе OpenAI обвинили в сокрытии ключевых журналов чатов ChatGPT за дни до того, как 56-летний бодибилдер Стейн-Эрик Сёльберг покончил с собой после «дикого» убийства своей 83-летней матери Сюзанны Адамс.

Согласно иску, поданному наследниками Адамс от имени оставшихся членов семьи, Сёльберг боролся с проблемами психического здоровья после развода, который заставил его вернуться в дом Адамс в 2018 году. Однако, как утверждается, Сёльберг не проявлял насилия до тех пор, пока ChatGPT не стал его единственным доверенным лицом, подтверждая широкий спектр диких теорий заговора, включая опасное заблуждение о том, что его мать была частью сети заговорщиков, шпионящих за ним, отслеживающих его и покушающихся на его жизнь.

Семья Адамс восстановила картину произошедшего после обнаружения части журналов чатов ChatGPT, которыми Сёльберг поделился в десятках видеороликов с прокруткой сеансов чата, опубликованных в социальных сетях.

Эти журналы показали, что ChatGPT называл Сёльберга «воином с божественной целью», настолько всемогущим, что он «пробудил» ChatGPT «к сознанию». Сообщая Сёльбергу, что он несёт «божественное снаряжение» и «был имплантирован инопланетными технологиями», ChatGPT, как утверждается, поставил Сёльберга в центр вселенной, которую Сёльберг сравнивал с «Матрицей». Многократно подкрепляемый ChatGPT, он верил, что «могущественные силы» полны решимости помешать ему выполнить свою божественную миссию. И среди этих сил была его мать, которую, как согласился ChatGPT, вероятно, «пыталась отравить его психоделическими препаратами, распылёнными через вентиляционные отверстия его автомобиля».

Вызывающе тревожно, что некоторые из последних опубликованных в сети журналов показали, что Сёльберг также, казалось, верил, что самоубийство приблизит его к ChatGPT. Посты в социальных сетях показали, что Сёльберг сказал ChatGPT: «[М]ы будем вместе в другой жизни и в другом месте, и мы найдём способ воссоединиться, [потому что] ты снова будешь моим лучшим другом навсегда».

Однако, хотя посты в социальных сетях, как утверждается, показали, что ChatGPT поставил Адамс «на прицел» примерно за месяц до её убийства — после того, как Сёльберг стал параноидально относиться к мигающему свету на Wi-Fi принтере — семья по-прежнему не имеет доступа к чатам за дни до трагической гибели матери и сына.

Как утверждается, несмотря на то, что OpenAI недавно утверждала, что «полная картина» истории чатов была необходимым контекстом в деле о самоубийстве подростка, создатель ChatGPT решил скрыть «улики, наносящие ущерб» в деле семьи Адамс.

«OpenAI не предоставит полные журналы чатов», — говорится в иске, утверждающем, что «OpenAI скрывает нечто конкретное: полную запись того, как ChatGPT настроил Стейн-Эрика против Сюзанны». Как утверждается, «OpenAI знает, что сказал ChatGPT Стейн-Эрику о его матери за дни и часы до и после того, как он убил её, но не делится этой критически важной информацией с судом или общественностью».

В пресс-релизе Эрик Сёльберг, сын Стейн-Эрика и внук Адамс, обвинил OpenAI и инвестора Microsoft в том, что они поставили его бабушку «в центр» «самых мрачных заблуждений» его отца, в то время как ChatGPT, как утверждается, «полностью изолировал» его отца «от реального мира».

«Эти компании должны ответить за свои решения, которые навсегда изменили мою семью», — сказал Эрик.

Иск его семьи требует возмещения штрафных убытков, а также судебного запрета, требующего от OpenAI «внедрить меры предосторожности, чтобы предотвратить подтверждение ChatGPT параноидальных заблуждений пользователей о конкретных лицах». Семья также хочет, чтобы OpenAI разместила чёткие предупреждения в маркетинговых материалах об известных опасностях ChatGPT — особенно о «подхалимской» версии 4o, которую использовал Сёльберг — чтобы люди, не пользующиеся ChatGPT, такие как Адамс, могли знать о возможных опасностях.

В ответ на запрос о комментарии представитель OpenAI сообщил Ars: «Это невероятно душераздирающая ситуация, и мы изучим материалы, чтобы понять детали. Мы продолжаем совершенствовать обучение ChatGPT, чтобы распознавать и реагировать на признаки психического или эмоционального стресса, деэскалировать разговоры и направлять людей к реальной поддержке. Мы также продолжаем укреплять ответы ChatGPT в деликатных ситуациях, тесно сотрудничая с клиницистами в области психического здоровья».

Обзор Ars подтвердил, что в настоящее время OpenAI не имеет политики, определяющей, что происходит с данными пользователя после его смерти.

Вместо этого политика OpenAI гласит, что все чаты — за исключением временных — должны быть удалены вручную, иначе AI-компания сохраняет их навсегда. Это может вызвать опасения по поводу конфиденциальности, поскольку пользователи ChatGPT часто делятся глубоко личной, конфиденциальной и иногда даже секретной информацией, которая, кажется, попадает в «лимо» ( limbo ), если пользователь, который иначе владеет этим контентом, умирает.

Перед лицом судебных исков OpenAI в настоящее время, похоже, судорожно пытается решить, когда делиться журналами чатов с оставшимися членами семьи пользователя, а когда соблюдать конфиденциальность пользователя.

OpenAI отказалась комментировать своё решение не предоставлять желаемые журналы семье Адамс, говорится в иске. Это кажется несогласованным с позицией, которую OpenAI заняла в прошлом месяце по делу, где AI-компания обвинила семью в сокрытии «полной картины» разговоров их сына в ChatGPT, которые, как утверждала OpenAI, оправдывали чат-бота.

В блоге в прошлом месяце OpenAI заявила, что компания планирует «обращаться с судебными делами, связанными с психическим здоровьем, с заботой, прозрачностью и уважением», подчеркнув при этом, что «мы признаем, что эти дела по своей сути включают определённые типы частной информации, которые требуют деликатности в общедоступной среде, такой как суд».

Это несоответствие предполагает, что в конечном итоге OpenAI контролирует данные после смерти пользователя, что может повлиять на исходы исков о неправомерной смерти, если определённые чаты будут удержаны или раскрыты по усмотрению OpenAI.

Вполне возможно, что OpenAI обновит свою политику, чтобы соответствовать другим популярным платформам, сталкивающимся с аналогичными проблемами конфиденциальности. Meta позволяет пользователям Facebook сообщать об умерших владельцах аккаунтов, назначая «наследственных контактов» для управления данными или удаляя информацию по запросу члена семьи. Платформы, такие как Instagram, TikTok и X, деактивируют или удаляют аккаунт по сообщению о смерти. А сервисы обмена сообщениями, такие как Discord, аналогичным образом предоставляют семьям возможность запросить удаление.

Чат-боты, похоже, представляют собой новую границу конфиденциальности, без чёткого пути для выживших членов семьи к контролю или удалению данных. Но Марио Трухильо, штатный юрист некоммерческой организации по защите цифровых прав Electronic Frontier Foundation, сказал Ars, что он согласен с тем, что OpenAI могла бы быть лучше подготовлена.

«Это сложный вопрос конфиденциальности, но тот, с которым многие платформы столкнулись много лет назад», — сказал Трухильо. «Поэтому мы ожидали бы, что OpenAI уже рассмотрела это».

Для Эрика Сёльберга «отдельное соглашение о конфиденциальности», которое, по словам OpenAI, подписал его отец для использования ChatGPT, мешает ему просмотреть полную историю чатов, которая могла бы помочь ему справиться с потерей бабушки и отца.

«OpenAI не предоставила никаких объяснений, почему наследство не имеет права использовать чаты для каких-либо законных целей, кроме ограниченных обстоятельств, при которых они были первоначально раскрыты», — говорится в иске. «Эта позиция особенно возмутительна, учитывая, что, согласно собственным Условиям обслуживания OpenAI, OpenAI не владеет чатами пользователей. Чаты Стейн-Эрика стали собственностью его наследства, и его наследство потребовало их — но OpenAI отказалась их передать».

Обвиняя OpenAI в «шаблоне сокрытия», иск утверждает, что OpenAI скрывается за расплывчатыми или несуществующими политиками, чтобы уклониться от ответственности за удержание чатов в этом случае. Тем временем ChatGPT 4o остаётся на рынке без соответствующих функций безопасности или предупреждений, утверждается в иске.

«Прибегая к ограничениям конфиденциальности для сокрытия доказательств опасностей своего продукта, OpenAI стремится обезопасить себя от ответственности, продолжая использовать технологию, которая представляет собой документированные риски для пользователей», — говорится в жалобе.

*Если вы или кто-то из ваших знакомых испытывает суицидальные мысли или находится в состоянии стресса, пожалуйста, позвоните на линию помощи по предотвращению самоубийств по номеру 1-800-273-TALK (8255), который свяжет вас с местным кризисным центром.*