ETSI выпустила стандарт безопасности моделей ИИ

кибербезопасность ии,стандарт etsi,безопасность моделей ии,защита данных

ETSI выпустил первый в мире европейский стандарт (EN) для обеспечения кибербезопасности моделей и систем ИИ, включая генеративный ИИ. Новый стандарт устанавливает 13 принципов для защиты от сложных угроз, таких как отравление данных и инъекции промптов, и призван гарантировать доверие к ИИ в критических инфраструктурах.

Развивая свой первоначальный набор требований к кибербезопасности для систем искусственного интеллекта (ИИ), Европейский институт телекоммуникационных стандартов (ETSI) опубликовал новый, усовершенствованный стандарт, который «предоставляет базовые требования к кибербезопасности для моделей и систем ИИ». По утверждению этого органа по разработке отраслевых спецификаций, это «первый применимый в мировом масштабе Европейский стандарт (EN) по кибербезопасности ИИ».

Стандарт разработан для создания основы, позволяющей «защитить системы ИИ от растущих и всё более изощрённых киберугроз». Как отметил ETSI в этом анонсе, он «сыграет важную роль для заинтересованных сторон по всей цепочке поставок ИИ, от поставщиков до интеграторов и операторов».

Область его применения охватывает системы ИИ, «включающие глубокие нейронные сети, в том числе генеративный ИИ, и разработан для систем, предназначенных для реального внедрения». Для телекоммуникационных компаний 2026 год обещает стать ключевым для практического развёртывания ИИ, способного продвинуть стратегии, разрабатывавшиеся последние несколько лет, но которые во многих случаях всё ещё находятся на самой ранней стадии — см. материал «Агентный ИИ — ещё не подросток», — заявил представитель Orange.

Стандарт ETSI «гарантирует зрелый, структурированный и основанный на жизненном цикле набор базовых требований безопасности для моделей и систем ИИ… [он] определяет 13 принципов и требований в рамках пяти фаз: безопасное проектирование, безопасная разработка, безопасное развёртывание, безопасное обслуживание и безопасное завершение жизненного цикла».

ETSI отмечает, что ИИ представляет собой «особую проблему кибербезопасности, которую традиционное программное обеспечение не создавало. Традиционное ПО привнесло в мир необходимость осведомлённости о кибербезопасности. Сегодня риски, возникающие из-за ИИ, требуют мер киберзащиты, учитывающих эти новые и уникальные характеристики. К этим рискам относятся отравление данных, маскировка моделей, косвенные инъекции промптов, а также уязвимости, создаваемые сложным управлением данными и операционными практиками», — добавили они.

Стандарт, носящий броское название ETSI EN 304 223, был рассмотрен и одобрен множеством национальных стандартизационных организаций, «что придаёт ему более широкий международный охват и укрепляет его авторитет на мировых рынках», — подчеркнули в ETSI.

Стандарт «представляет собой важный шаг вперёд в создании общей, строгой основы для обеспечения безопасности систем ИИ», — заявил Скотт Кэдзоу, председатель Технического комитета ETSI по обеспечению безопасности искусственного интеллекта. «В то время, когда ИИ всё активнее интегрируется в критически важные службы и инфраструктуру, ценность чётких, практических рекомендаций, отражающих как сложность этих технологий, так и реалии внедрения, невозможно переоценить. Работа, проделанная для создания этой структуры, является результатом обширного сотрудничества, и она позволяет организациям полностью доверять системам ИИ, которые являются устойчивыми, надёжными и безопасными по умолчанию».

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.