В этом году резко возросло количество сообщений об эксплуатации детей, связанных с продукцией OpenAI.

openai,ncmec,безопасность детей,csam,искусственный интеллект,chatgpt

В первой половине 2025 года OpenAI зафиксировала резкий рост числа сообщений об инцидентах, связанных с эксплуатацией детей. Компания увеличила количество отчетов в NCMEC в 80 раз.

Согласно последним данным, опубликованным компанией OpenAI, в первой половине 2025 года количество сообщений об инцидентах, связанных с эксплуатацией детей, направленных в Национальный центр пропавших и эксплуатируемых детей (NCMEC), увеличилось в 80 раз по сравнению с аналогичным периодом 2024 года. CyberTipline NCMEC является утвержденным Конгрессом центром обмена информацией для сообщений о материалах, содержащих сексуальное насилие над детьми (CSAM), и других формах эксплуатации детей. Компании обязаны по закону сообщать о предполагаемой эксплуатации детей в CyberTipline. Когда компания отправляет отчет, NCMEC рассматривает его, а затем пересылает в соответствующее правоохранительное агентство для расследования.

Статистика, связанная с отчетами NCMEC, может быть неоднозначной. Увеличение количества отчетов может указывать на изменения в автоматизированной модерации платформы или критериях, используемых для принятия решения о необходимости отчета, а не обязательно свидетельствовать об увеличении злонамеренной деятельности.

Кроме того, один и тот же контент может быть предметом нескольких отчетов, а один отчет может касаться нескольких единиц контента. Некоторые платформы, включая OpenAI, раскрывают количество как отчетов, так и общее количество контента, о котором они сообщали, для более полной картины.

Представитель OpenAI Габи Раила заявила, что компания инвестировала средства в конце 2024 года, “чтобы увеличить [свою] способность рассматривать отчеты и принимать меры, чтобы не отставать от текущего и будущего роста числа пользователей”. Раила также сказала, что этот период времени соответствует “внедрению большего количества продуктовых поверхностей, которые позволили загружать изображения, и растущей популярности наших продуктов, что способствовало увеличению количества отчетов”. В августе Ник Терли, вице-президент и глава ChatGPT, объявил, что у приложения в четыре раза больше еженедельных активных пользователей, чем в предыдущем году.

В первой половине 2025 года количество отчетов CyberTipline, отправленных OpenAI, примерно соответствовало количеству контента, о котором OpenAI сообщала в отчетах — 75 027 по сравнению с 74 559. В первой половине 2024 года было отправлено 947 отчетов CyberTipline о 3 252 единицах контента. Как количество отчетов, так и количество контента в отчетах значительно увеличилось в течение этих двух периодов времени.

Контент в данном контексте может означать несколько вещей. OpenAI заявила, что сообщает в NCMEC обо всех случаях CSAM, включая загрузки и запросы. Помимо своего приложения ChatGPT, которое позволяет пользователям загружать файлы, включая изображения, и может генерировать текст и изображения в ответ, OpenAI также предлагает доступ к своим моделям через API. Последний подсчет NCMEC не будет включать какие-либо отчеты, связанные с приложением для создания видео Sora, поскольку его выпуск в сентябре был после периода времени, охватываемого обновлением.

Всплеск отчетов соответствует аналогичной тенденции, которую NCMEC наблюдала в CyberTipline в более широком смысле с ростом генеративного ИИ. Анализ всех данных CyberTipline показал, что количество отчетов, связанных с генеративным ИИ, увеличилось на 1325 процентов в период с 2023 по 2024 год. NCMEC еще не опубликовала данные за 2025 год, и хотя другие крупные лаборатории ИИ, такие как Google, публикуют статистику об отчетах NCMEC, которые они сделали, они не указывают, какой процент этих отчетов связан с ИИ.

Обновление OpenAI появилось в конце года, когда компания и ее конкуренты столкнулись с усилением контроля над вопросами безопасности детей, выходящими за рамки CSAM. Летом 44 генеральных прокурора штатов направили совместное письмо нескольким компаниям, занимающимся ИИ, включая OpenAI, Meta, Character.AI и Google, предупреждая, что они будут “использовать все аспекты своих полномочий для защиты детей от эксплуатации хищническими продуктами искусственного интеллекта”. И OpenAI, и Character.AI столкнулись с многочисленными исками от семей или от имени лиц, которые утверждают, что чат-боты способствовали смерти их детей. Осенью Комитет Сената США по судебной системе провел слушание о вреде чат-ботов с ИИ, а Федеральная торговая комиссия США инициировала исследование рынка чат-ботов-компаньонов с ИИ, которое включало вопросы о том, как компании смягчают негативные последствия, особенно для детей. (Ранее я работал в FTC и был назначен для работы над исследованием рынка до ухода из агентства.)

В последние месяцы OpenAI в более широком смысле развернула новые инструменты, ориентированные на безопасность. В сентябре OpenAI выпустила несколько новых функций для ChatGPT, в том числе родительский контроль, в рамках своей работы “по предоставлению семьям инструментов для поддержки использования ИИ их подростками”. Родители и их подростки могут связывать свои учетные записи, и родители могут изменять настройки своего подростка, в том числе отключать голосовой режим и память, удалять возможность для ChatGPT генерировать изображения и отказываться от обучения модели для своего ребенка. OpenAI заявила, что также может уведомлять родителей, если разговоры их подростка покажут признаки самоповреждения, и потенциально уведомлять правоохранительные органы, если обнаружит непосредственную угрозу жизни и не сможет связаться с родителем.

В конце октября, чтобы завершить переговоры с Министерством юстиции Калифорнии по поводу предложенного плана рекапитализации, OpenAI согласилась “продолжать принимать меры по смягчению рисков для подростков и других лиц в связи с разработкой и развертыванием ИИ и AGI”. В следующем месяце OpenAI выпустила свой План обеспечения безопасности подростков, в котором говорится, что она постоянно совершенствует свою способность обнаруживать материалы, связанные с сексуальным насилием и эксплуатацией детей, и сообщает о подтвержденных CSAM соответствующим органам, включая NCMEC.

Этот материал впервые появился на WIRED.com.

(*) Имейте ввиду, редакции некоторых западных изданий придерживаются предвзятых взглядов в освящении некоторых новостей, связанных с Россией.
8/9