Судья заявляет, что ICE использовала ChatGPT для составления отчетов о применении силы

Искусственный интеллект,ChatGPT,Министерство внутренней безопасности,подделка отчетов,нелегальные иммигранты

ChatGPT for Fascists. Судья уличил Министерство внутренней безопасности США в использовании ChatGPT для фальсификации отчетов о применении силы к нелегальным иммигрантам. Что это – халатность или сознательное искажение?

На прошлой неделе судья вынес решение на 223 страницах, в котором подверг резкой критике Министерство внутренней безопасности США за проведение рейдов против нелегальных иммигрантов в Чикаго. В примечании, между строк, обнаружились два предложения, раскрывающие, что как минимум один сотрудник правоохранительных органов использовал ChatGPT для составления отчета, призванного задокументировать применение силы в отношении задержанного.

Постановление, написанное окружным судьей США Сарой Эллис, оспаривает действия сотрудников Иммиграционной и таможенной полиции и других ведомств во время проведения так называемой “Операции Midway Blitz”, в результате которой было арестовано более 3300 человек и более 600 помещены под стражу ICE. Операция сопровождалась многочисленными столкновениями с протестующими и гражданами. Ведомства должны были задокументировать эти инциденты в отчетах о применении силы, но судья Эллис отметила, что часто встречаются несоответствия между тем, что зафиксировано на нательных камерах сотрудников, и тем, что попадает в письменные отчеты, что, по ее мнению, делает отчеты недостоверными.

Более того, как заявила судья, по крайней мере один отчет был написан не сотрудником. Согласно примечанию, на видеозаписи с нательной камеры видно, как агент “попросил ChatGPT составить описание для отчета, основываясь на кратком предложении об инциденте и нескольких изображениях”. Сообщается, что сотрудник представил результат, сгенерированный ChatGPT, в качестве отчета, несмотря на то что ему была предоставлена ​​крайне ограниченная информация, и, вероятно, остальное было заполнено предположениями.

“В той мере, в какой агенты используют ChatGPT для создания отчетов о применении силы, это еще больше подрывает их доверие и может объяснить неточность этих отчетов в свете видеозаписи с [нательных камер]”, – написала Эллис в примечании.

Как сообщает Associated Press, неизвестно, есть ли у Министерства внутренней безопасности четкая политика в отношении использования инструментов генеративного ИИ для создания отчетов. Можно предположить, что это далеко не лучшая практика, учитывая, что генеративный ИИ заполняет пробелы полностью сфабрикованной информацией, когда ему нечего взять из своих данных обучения.

На сайте DHS есть специальная страница, посвященная использованию ИИ в агентстве, и развернула собственного чат-бота, чтобы помочь агентам выполнять “повседневные действия” после прохождения тестовых запусков с коммерчески доступными чат-ботами, включая ChatGPT. Однако примечание не указывает на то, что агент использовал внутренний инструмент агентства. Предполагается, что человек, заполняющий отчет, обратился к ChatGPT и загрузил информацию для завершения отчета.

Неудивительно, что один эксперт заявил Associated Press, что это “худший сценарий” использования ИИ правоохранительными органами.

Самое просматриваемое: