Как ИИ меняет облик кибербезопасности.

кибербезопасность,искусственный интеллект,ciso,cyberops,информационная безопасность,genai

Влияние генеративного ИИ на кибербезопасность: как меняются роли CISO и команд безопасности. Анализ новых компетенций, стратегий управления и необходимости адаптации к угрозам, использующим ИИ. Узнайте, как ИИ трансформирует CyberOps и какие навыки станут ключевыми для специалистов по кибербезопасности.

Генеративный ИИ (GenAI) стал повсеместным инструментом в компаниях. Согласно опросу Boston Consulting Group, 50 процентов компаний используют эту технологию для реорганизации рабочих процессов. 77 процентов респондентов убеждены, что ИИ-агенты будут играть центральную роль в их корпоративных функциях в ближайшие три-пять лет.

Директора по информационной безопасности (CISO) и их команды безопасности прекрасно осведомлены о возможностях искусственного интеллекта и обеспокоены прогрессом ИИ не меньше, чем любые другие подразделения компании.

В то время как машинное обучение уже много лет является важной частью киберопераций, недавний прогресс в области ИИ – особенно в сфере генеративного ИИ – приводит к тому, что технология все глубже проникает в процессы безопасности. Эти инструменты, частично разработанные самостоятельно, частично предоставляемые поставщиками, помогают, среди прочего, в криминалистике, реагировании на инциденты, анализе журналов, оркестровке, управлении уязвимостями и создании отчетов.

Растущее использование ИИ в процессах безопасности коренным образом меняет CyberOps. Это повышает эффективность и продуктивность экспертов по безопасности и навсегда меняет способ выполнения работы по кибербезопасности.

«ИИ меняет не что в CyberOps, а как. Он меняет скорость, с которой мы можем выполнять определенные операции, и позволяет людям сосредоточиться на более сложных задачах», — объясняет Мэтт Горхэм, руководитель Cyber & Risk Innovation Institute в PwC.

Расширение компетенций, автоматизация задач

«Поскольку ИИ может выполнять задачи со скоростью, превышающей человеческие возможности, он экспоненциально масштабирует объем работы функции кибербезопасности», — подчеркивает Роб Т. Ли, руководитель исследований в области ИИ и новых угроз, а также глава факультета в SANS Institute.

Кроме того, эксперты подчеркивают, что ИИ особенно хорош в выполнении повторяющихся задач почти идеально каждый раз. Это обеспечивает последовательность, которой сотрудникам-людям трудно достичь.

«Если кто-то не в лучшей форме по какой-либо причине, результаты могут варьироваться», — объясняет Дэн Меллен, глобальный технический директор по кибербезопасности в EY.

ИИ, напротив, использует детерминированный подход и всегда выполняет одну и ту же задачу одинаково. Благодаря этому консистенция результатов значительно выше и более предсказуема, чем у людей, говорит Меллен.

ИИ может не только повысить скорость и масштабируемость команды безопасности, но и повысить уровень компетенции, утверждает Джеффри Браун, преподаватель IANS Research, консультант по кибербезопасности для финансовых услуг в Microsoft и бывший директор по информационной безопасности штата Коннектикут.

«ИИ — это мультипликатор силы для защиты, причем в двух смыслах», — объясняет Браун: «Технология значительно повышает уровень знаний младших сотрудников и помогает им быстрее освоиться. В то же время она делает опытных сотрудников более эффективными и переопределяет производительность на более высоком уровне».

В качестве примера эксперт по кибербезопасности указывает на использование ИИ в Центре управления безопасностью (SOC). Там ИИ может взять на себя значительную часть – а в некоторых случаях даже все – задачи поддержки первого уровня, такие как сортировка и маршрутизация заявок. Это освободит сотрудников SOC и позволит им заниматься более сложными проблемами уровня 2 или 3. Генеративный ИИ также может предоставлять сотрудникам SOC автоматизированные тематические исследования и рекомендации по действиям для более сложных задач, тем самым повышая эффективность и производительность.

Несмотря на опасения, что ИИ может привести к потере рабочих мест, Браун до сих пор наблюдал, что директора по информационной безопасности используют ИИ не для замены сотрудников, а для улучшения их работы. «ИИ наиболее эффективен, когда человек остается в цикле», — объясняет он.

Таким образом, ИИ расширяет сферу деятельности команд CISO и позволяет большему количеству членов команды выполнять более сложные задачи. Например, использование ИИ в моделировании угроз позволило компаниям с небольшими, менее специализированными командами активно выявлять, анализировать и смягчать потенциальные угрозы безопасности – задачи, с которыми они не могли справиться до внедрения ИИ.

«В целом, мы наблюдаем, что команды SecOps выполняют больше работы с имеющимися ресурсами, и общий уровень квалификации повышается. Их работа заметно смещается вверх», — объясняет Вольфганг Герлих, преподаватель IANS Research и CISO в государственном секторе.

Меньшие команды, новая парадигма квалификации

Все это также влияет на кадровую стратегию. Эксперты по безопасности полагают, что традиционные должности начального уровня в сфере ИТ-безопасности скоро исчезнут. Начинающие специалисты должны быть готовы к работе на более высоком уровне.

Это особенно актуально, поскольку ИИ на основе агентов становится все более зрелым, используется во все большем количестве отделов безопасности и берет на себя все большую часть задач, говорит Браун. «Нам нужно подумать о том, сколько и какие эксперты нам нужны», — добавляет он.

Например, когда Браун был директором по информационной безопасности штата Коннектикут, в его команде безопасности был сотрудник, который специализировался на фишинге. Сегодня он сомневается, нужна ли такая специализация, если Agentic AI может автоматически взять на себя большую часть или даже весь рабочий процесс реагирования на фишинговые атаки.

По оценке Брауна, с ИИ команды кибербезопасности станут меньше – и будут состоять из меньшего количества классических специалистов. «Вместо этого они станут менеджерами агентов, которые помогают им в работе», — говорит он.

Однако Браун признает, что использование ИИ в CyberOps потребует новых компетенций – и что директорам по информационной безопасности необходимо будет целенаправленно искать эти навыки. Знания в области управления ИИ, проектирования подсказок и науки о данных, по его мнению, станут незаменимыми на всех уровнях ИТ-безопасности.

«Это огромный сдвиг парадигмы», — объясняет он. «Нам нужны люди, которые разбираются в агентах и могут определить, дает ли он правильный ответ – или нет».

«Человеческая интуиция незаменима», — заключает Браун. «Скорее, это будет симбиоз между человеком и ИИ, партнерство, в котором ИИ повышает производительность, но всегда с человеком в цикле».

Потребность в управлении, гибкости и скорости

Ускоренное использование ИИ во всей компании также меняет меры безопасности. Кибербезопасность должна идти в ногу с защитой ИИ и данных, которые он использует, везде, где применяется ИИ.

Сегодня командам безопасности уже трудно это делать.

Согласно отчету Accenture «Состояние устойчивости кибербезопасности 2025», «вызывающие беспокойство 77 процентов компаний отстают во внедрении основных мер безопасности для данных и ИИ. Только 22 процента внедрили четкие руководства и обучение для использования GenAI, и лишь немногие ведут полный учет своих систем ИИ – важная предпосылка для управления рисками в цепочке поставок. Кроме того, защита данных по-прежнему недостаточна – только 25 процентов компаний последовательно используют шифрование и контроль доступа для защиты конфиденциальной информации во время передачи, в состоянии покоя и при обработке».

Кроме того, в отчете отмечается, что пробелы в безопасности также распространяются на облачную инфраструктуру. Потому что, по словам Accenture: «Несмотря на зависимость ИИ от облачной обработки, 83 процента компаний не создали безопасную облачную основу со встроенными функциями мониторинга, обнаружения и реагирования».

Аналогичным образом, Gartner в своем отчете «Руководство CISO по управлению кибербезопасностью ИИ» от июля 2025 года пишет, что «директора по информационной безопасности отстают в обеспечении безопасности ИИ во всей компании». Чтобы управлять киберрисками, связанными с ИИ, в отчете директорам по информационной безопасности рекомендуется «применять подход к управлению кибербезопасностью ИИ, основанный на компетенции, управлении на протяжении всего жизненного цикла, междисциплинарных интерфейсах, человеческом надзоре, базовых средствах контроля и AI TRiSM [доверие, управление рисками и безопасностью]».

Руководители служб безопасности согласны с тем, что CyberOps необходимо расширить свою функцию управления ИИ – а также способность интегрировать, идентифицировать и авторизовывать ИИ-агентов.

«Должны быть механизмы контроля, чтобы гарантировать, что ИИ-агенты не превышают свои полномочия, так же, как мы это делаем с людьми», — объясняет Меллен.

В то же время ИТ-безопасность должна стать быстрее, когда речь идет об обеспечении безопасности ИИ в компании.

«Темпы изменений в бизнесе будут продолжать расти, и директор по информационной безопасности должен идти в ногу со временем», — констатирует Горхэм. «Необходимые для этого навыки изменятся; командам кибербезопасности, помимо традиционных навыков безопасности, потребуется сочетание навыков ИИ, таких как проектирование подсказок и знания в области науки о данных».

Переосмысление киберкоманд

Авива Литан, выдающийся вице-президент и аналитик Gartner, предполагает, что ИИ создаст как минимум столько же рабочих мест, сколько и заменит. Как и многие другие, она считает, что ИИ «позволит людям выполнять больше и лучше работы».

По ее оценке, эти новые роли CyberOps станут необходимыми, поскольку хакеры используют ИИ для запуска все более изощренных атак.

«ИИ позволит компаниям более эффективно противостоять этому», — добавляет она.

Однако все это требует, чтобы директора по информационной безопасности переосмыслили свои организации безопасности, чтобы обеспечить оптимальное использование как ИИ, так и людей.

«Они должны спросить себя: «Где имеет смысл использовать человека, а что я могу передать ИИ? И какие затраты возникают из-за того, что мне не хватает определенных ресурсов в команде?»», — объясняет CISO Герлих.

«Мы давно испытываем нехватку персонала в сфере безопасности, и в этом кроется большая возможность. С другой стороны, никто не хочет команду SOC, которая только и делает, что нажимает на кнопки».

По словам Герлиха, директора по информационной безопасности должны обновить свои стратегии в области талантов и разработать дорожные карты – чтобы развивать существующих сотрудников и нанимать новых сотрудников на должности будущего, где они будут работать бок о бок с ИИ и ИИ-агентами. При этом нельзя терять человеческий интеллект в процессах безопасности.

Это особенно важно, поскольку – как знают директора по информационной безопасности – злоумышленники также используют ИИ. И они часто делают это быстрее, поскольку, в отличие от компаний, они не связаны этическими нормами и правовыми нормами.

Герлих отмечает: «Будущее Security Operations будет соревнованием между ИИ и ИИ. Машина против машины – с людьми в кабине, которые на стороне защиты обеспечивают, чтобы происходили правильные вещи – или на стороне нападающих обеспечивают успешность атак. Это заставит нас пересмотреть наши меры безопасности» (mb).

Всегда имейте в виду, что редакции некоторых изданий могут придерживаться предвзятых взглядов в освещении новостей.
8/9