Инструмент на базе ИИ отправлял новобранцев ICE на задания без надлежащей подготовки

ice,искусственный интеллект,найм,обучение,иммиграция

Сбой в системе ИИ при найме в ICE привёл к тому, что недостаточно обученные сотрудники были отправлены на задания. Статья освещает последствия неверной классификации резюме и растущее использование технологий в иммиграционной службе. Инициативы Министерства внутренней безопасности в области ИИ в действии…

Сотрудники Службы иммиграционного и таможенного контроля (ICE) направили в полевые подразделения неизвестное число недостаточно обученных сотрудников правоохранительных органов из-за того, что система искусственного интеллекта агентства по найму персонала работала не так, как предполагалось, сообщает NBC News.

Ещё до вступления в должность президент Трамп обещал беспрецедентное ужесточение иммиграционной политики. Это включало и резкое увеличение штата ICE с мандатом на найм 10 000 новых сотрудников к концу 2025 года, благодаря выделению агентству 75 миллиардов долларов на четыре года в рамках закона «Большой Красивый Билль» (Big Beautiful Bill).

Для ускорения процесса найма ICE начала использовать инструмент на базе искусственного интеллекта для категоризации поданных резюме. Кандидаты были разделены на две группы: те, кто имел предыдущий опыт работы сотрудником правоохранительных органов, направлялись в «программу LEO (сотрудник правоохранительных органов)», где им требовалось пройти всего четыре недели онлайн-обучения. Кандидаты без соответствующего опыта направлялись на восьминедельный очный курс в Федеральном учебном центре правоохранительных органов в Джорджии, который включал важнейшие инструкции по иммиграционному законодательству и правильному обращению с оружием. Ранее обучение длилось 20 недель, но недавно его сократили, чтобы «устранить избыточность и учесть технологические достижения», как отмечает The Washington Post.

Теперь, согласно репортажу NBC News, инструмент ИИ, использовавшийся для найма новых агентов, ошибочно идентифицировал соискателей без опыта работы в правоохранительных органах и направлял их в более короткую «программу LEO». ИИ помечал любого, у кого в резюме встречалось слово «officer» (сотрудник, офицер), как сотрудника правоохранительных органов, включая сотрудников по соблюдению нормативов или даже соискателей, выразивших желание стать сотрудниками ICE.

Два анонимных представителя правоохранительных органов сообщили NBC, что они не уверены, скольких офицеров прошли некорректное обучение и были направлены для проведения иммиграционных арестов. Однако, по всей видимости, большинство новых кандидатов были помечены как сотрудники правоохранительных органов до того, как ошибка была выявлена в конце прошлого года.

Наблюдается значительная обратная реакция на всё более агрессивную тактику принуждения, применяемую агентами ICE в рамках их антииммиграционных мер, направленных против всех — включая иммигрантов как с документами, так и без них, а также граждан США.

Особое внимание к работе агентства достигло пика после смертельного огнестрельного ранения Рене Николь Гуд в Миннеаполисе. Агент, застреливший Гуд, по данным NBC, проработал в ICE 10 лет, поэтому он не подлежал проверке с помощью ИИ.

На фоне этого всплеска найма ICE также внедряет технологии в свои механизмы правоприменения. Агентство заключило контракт с вызывающим споры израильским производителем шпионского ПО Paragon, чьи технологии использовались для слежки за журналистами и активистами по защите прав мигрантов за рубежом. Агентство использует систему ИИ для массового наблюдения в социальных сетях, а агенты имеют доступ к приложениям, сканирующим радужную оболочку глаза и пытающимся определить иммиграционный статус с помощью распознавания лиц. Министерство внутренней безопасности также имеет собственного чат-бота на базе ИИ под названием DHSChat, который был разработан после того, как сотрудники Министерства экспериментировали с коммерческими чат-ботами, такими как ChatGPT и Claude. В ноябре стало известно, что по меньшей мере один агент ICE использовал ChatGPT для составления отчёта о применении силы, изобилующего несоответствиями. Агент основывал отчёт исключительно на ограниченной информации, а остальное ChatGPT додумал сам.

.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.