У одного глобального клиента-производителя модель ИИ выявила потенциальный паттерн нарушения, который оказался обычным поведением тестового сервера. Система не ошиблась — но люди перестали её проверять. Потребовался всего один аналитик с сильными навыками представления данных, чтобы осознать упущение и предотвратить полную остановку производства. Вот что отличает автоматизацию от понимания.
Сдвиг, который не может игнорировать ни один руководитель в сфере безопасности
Когда я начал консультировать директоров по информационной безопасности (CISO) и руководителей кибербезопасности в критически важных отраслях, разговоры велись о межсетевых экранах, контрольных списках аудита и планах реагирования на инциденты. Затем появилась автоматизация — а вскоре и искусственный интеллект. Внезапно всё, что мы считали определением технического совершенства, начало трансформироваться.
Сегодня ИИ стал одновременно и уравнителем, и дифференциатором. Он ускоряет обнаружение, автоматизирует реагирование и предоставляет информацию, которую мы раньше не видели. Но вот парадокс: чем умнее становятся наши инструменты, тем более человечными должны быть наши отличительные черты — при этом ИИ выступает в роли умножителя силы для таких навыков, как критическое мышление и владение данными.
Именно поэтому появляется новое поколение «сильных» навыков — способностей, которые определят, какие специалисты по кибербезопасности останутся незаменимыми в предстоящее десятилетие.
К 2030 году почти половина всех задач по кибербезопасности будет автоматизирована — но лидерами, которые добьются успеха, будут не те, кто пишет код быстрее. Это будут те, кто мыслит глубже.
Почему традиционных наборов навыков больше недостаточно
Задание для CISO: Проведите в этом квартале 1-часовой «Аудит предвзятости ИИ» для ваших 3 основных правил обнаружения.
Вопрос: «Какие данные отсутствуют? Кто недопредставлен?»
Согласно «Отчёту о будущем профессий» Всемирного экономического форума, к 2030 году почти 40% основных профессиональных навыков изменятся, в основном под влиянием ИИ, данных и автоматизации.
Для специалистов по безопасности это означает, что экспертиза в сетевой защите, криминалистике и установке исправлений — хотя и остаётся необходимой — больше не достаточна для создания ценности. Реальное влияние исходит от того, как мы интерпретируем, сообщаем и применяем то, что позволяет ИИ.
ИИ не просто ускоряет принятие решений — он их переформатирует. Когда модель выявляет аномалию, нам нужны люди, которые могут:
- Транслировать её в бизнес-риски,
- Оспаривать предположения модели и
- Чётко доносить результаты руководству.
Это не техническая способность. Это «сильный» навык.
5 новых «сильных» навыков для эпохи ИИ
1. Владение данными и аналитическое мышление
Кибербезопасность теперь неотделима от науки о данных. Каждое оповещение, журнал и аномалия — это в первую очередь проблема данных, а уже потом — проблема безопасности. В своей консультационной работе я видел, как команды терпели неудачу не потому, что их инструменты были слабыми, а потому, что их аналитики не могли интерпретировать истинное значение данных.
Владение данными означает способность задавать вопросы к данным, распознавать предвзятость в моделях и превращать аналитику в повествования, которые стимулируют принятие решений.
2. Понимание рисков и осведомленность в управлении
ИИ вводит новые категории рисков — от предвзятости алгоритмов до прозрачности и объяснимости моделей. Директора по ИБ, готовые к будущему, должны понимать эти проблемы не только с точки зрения соответствия требованиям, но и как часть стратегического управления.
Новые разрабатываемые фреймворки задают тон:
- Фреймворк NIST по управлению рисками ИИ (AI RMF 1.0)
- Исполнительный указ США о безопасном, надёжном и заслуживающем доверия развитии и использовании искусственного интеллекта
Понимание рисков — это не только средства обеспечения безопасности, но и предвидение пересечения технологий, этики и права.
3. Коммуникация с руководством
Я присутствовал в залах заседаний, где блестящие инженеры не могли повлиять на руководителей, потому что их идеи терялись при переводе.
В эпоху ИИ ясность равна влиянию. Способность писать, представлять и упрощать сложные концепции — особенно при работе с вероятностными результатами ИИ — определяет, кого услышат, а кого нет.
Эффективная коммуникация больше не является «мягким» навыком. Это стратегический навык.
4. Межфункциональное сотрудничество
ИИ не существует в изоляции — и кибербезопасность тоже не должна. Самые успешные программы сегодня объединяют:
- Специалистов по обработке данных
- Сотрудников по конфиденциальности
- Руководителей операционных подразделений
- Юридических советников
Реальный пример: В глобальной энергетической компании с 40 000 конечных точек совместный семинар по моделированию угроз ИИ между командами по безопасности и обработке данных сократил среднее время обнаружения (MTTD) для прекурсоров программ-вымогателей с 14 до 4 часов — не за счет новых инструментов, а благодаря общему контексту.
Такова ощутимая ценность сотрудничества.
5. Этическое предвидение и творческое мышление
Поскольку ИИ стирает грань между автоматизацией и автономией, человеческое суждение становится последним рубежом защиты. Вопросы типа «Следует ли нам?» будут важнее, чем «Можем ли мы?».
Специалисты, способные предвидеть непреднамеренные последствия — от предвзятых результатов ИИ до чрезмерной зависимости от автоматизации — станут этическим стержнем цифрового доверия.
Эмпатия и креативность, которые когда-то считались «мягкими» навыками, теперь являются одними из самых сложных для автоматизации.
Двойной аспект ИИ в кибербезопасности
ИИ трансформирует не только оборону — он трансформирует и наступление.
Генеративные модели позволяют:
- Проводить гипертаргетированный фишинг
- Автоматизировать разведку
- Осуществлять атаки с использованием синтетических личностей
В то же время инструменты обнаружения и реагирования на базе ИИ с беспрецедентной скоростью выявляют теневые ИТ, утечки данных и постоянные угрозы. Но есть загвоздка: ИИ усиливает как сильные, так и слабые стороны.
- Плохое управление данными → дрейф модели
- Неполный контекст → ложные срабатывания
- Без этического и человеческого надзора → катастрофические решения
Именно поэтому создание человеческого уровня кибербезопасности — суждений, этики и контекста — теперь является критически важной задачей.
Годами CISO оценивали по отсутствию инцидентов. Но ИИ меняет этот показатель. Когда алгоритмы берут на себя обнаружение и отчетность, видимость не означает подотчетность. Задача смещается с предотвращения взломов на демонстрацию контроля — не через информационные панели, а через повествование и управление. Новая дилемма CISO: как руководить, когда система знает больше, чем вы?
Создание команды безопасности, готовой к будущему
Три действия, которые нужно предпринять в этом квартале:
- Инвестируйте в «сильные» навыки — не только в инструменты.
- Проводите регулярный анализ пробелов в навыках, включающий коммуникацию, осведомленность в управлении и представление данных.
- ИИ может автоматизировать задачи, но не мудрость. Поощряйте непрерывное обучение.
ИИ развивается быстрее любой политики. Создайте программы для:
- «Красной команды» для систем ИИ
- Совместных симуляций между отделами
Интегрируйте дисциплины. Объединяйте кибербезопасность, науку о данных и бизнес-стратегию. Такой многосторонний подход укрепляет как устойчивость, так и инновации.
Ключевые выводы для руководства
- Переводите технические выводы на язык руководства.
- Относитесь к ИИ как к члену команды, а не как к инструменту.
- Вознаграждайте любознательность, а не только соблюдение правил.
- Стройте доверие быстрее, чем автоматизацию.
Переопределение метрик успеха CISO
Завтрашние CISO будут измеряться меньше по количеству инцидентов и больше по тому, насколько эффективно они согласовывают инициативы безопасности на базе ИИ с бизнес-результатами.
Новые ключевые показатели эффективности, которые стоит рассмотреть:
- % оповещений ИИ, переведенных в брифинги по рискам для руководства
- Скорость межфункциональных проектов (безопасность + наука о данных)
- Процент завершения обзоров этики ИИ
Продвижение этических инноваций
Сделайте этику ИИ постоянным пунктом повестки дня каждого обзора рисков.
Прозрачность и подотчетность должны быть столь же центральными для кибербезопасности, как шифрование и установка исправлений.
Что это значит для лидеров кибербезопасности
Самый большой миф в сфере безопасности заключается в том, что техническое мастерство обеспечивает долговечность. На самом деле, чем больше мы автоматизируем, тем больше ценим человеческие отличия.
Успех в следующем десятилетии будет зависеть не от того, сколько кода вы можете написать, а от того, насколько эффективно вы сможете общаться, переводить и руководить между системами и отделами.
Когда я смотрю на самые устойчивые организации сегодня, они обладают одной общей чертой: они рассматривают кибербезопасность не как функцию контроля, а как стратегический инструмент. А их лидеры? Они владеют как алгоритмами, так и эмпатией.
Будущее кибербезопасности принадлежит тем, кто строит мосты — а не только межсетевые экраны.
Кибербезопасность — это больше не война между людьми и машинами, а сотрудничество между ними. Организации, которые добьются успеха, будут теми, кто сочетает точность ИИ с человеческой эмпатией и творческим предвидением. Пока ИИ справляется с масштабом, лидеры должны справляться со смыслом. И в этом истинная суть «сильных» навыков.
Будущее кибербезопасности принадлежит тем, кто сможет сочетать точность ИИ с человеческой экспертизой — и руководить, используя оба аспекта.
Следующие шаги: начните в этом квартале
- Добавьте этику ИИ в повестку вашего комитета по рискам
- Запустите пилотный совместный спринт по безопасности/науке о данных
- Оцените уровень зрелости вашей команды в «представлении данных»
Эта статья опубликована в рамках сети экспертных авторов Foundry.
Хотите присоединиться?
Автор – Sabine Frömling




