интервью По словам директора по информационной безопасности Palo Alto Networks Венди Уитмор, в 2026 году AI-агенты станут новой внутренней угрозой для компаний, что создаст ряд проблем для руководителей, которым поручено обеспечить безопасность ожидаемого всплеска автономных агентов.
“Директора по информационной безопасности и команды безопасности испытывают огромное давление, требующее как можно быстрее внедрять новые технологии, что создает колоссальную нагрузку на команды, которым приходится оперативно проходить процессы закупок, проверки безопасности и понимать, достаточно ли безопасны новые AI-приложения для тех вариантов использования, которые есть у этих организаций”, — заявила Уитмор в интервью The Register.
“И это создало концепцию того, что сам AI-агент становится новой внутренней угрозой”, — добавила она.
По оценкам Gartner, к концу 2026 года 40 процентов всех корпоративных приложений будут интегрированы со специализированными AI-агентами, по сравнению с менее чем 5 процентами в 2025 году. Этот всплеск представляет собой палку о двух концах, заявила Уитмор в интервью и прогнозе.
С одной стороны, AI-агенты могут помочь восполнить продолжающийся дефицит кадров в сфере кибербезопасности, который преследует команды безопасности в течение многих лет, выполняя такие задачи, как исправление кода с ошибками, автоматизация сканирования журналов и сортировка оповещений, а также оперативное блокирование угроз безопасности.
Когда мы смотрим через призму защиты, большая часть того, что позволяют нам делать возможности агентов, — это начать мыслить более стратегически о том, как мы защищаем наши сети, а не постоянно оказываться в реактивной ситуации.
“Когда мы смотрим через призму защиты, большая часть того, что позволяют нам делать возможности агентов, — это начать мыслить более стратегически о том, как мы защищаем наши сети, а не постоянно оказываться в реактивной ситуации”, — сказала Уитмор.
Уитмор рассказала The Register, что недавно разговаривала с одним из аналитиков центра управления безопасностью (SOC) Palo Alto Networks, который разработал программу на основе AI, индексирующую общеизвестные угрозы для собственной частной информации об угрозах кибербезопасности и анализирующую устойчивость компании, а также то, какие проблемы безопасности с большей вероятностью могут нанести вред.
По ее словам, это позволяет фирме “сосредоточить нашу стратегическую политику в течение следующих шести месяцев, следующего года, на том, какие вещи нам нужно внедрять? Какие источники данных нам нужны, о которых мы сегодня не обязательно думаем?”
Следующий шаг в использовании AI в SOC включает в себя классификацию оповещений как требующих действий, автоматически закрывающихся или автоматически устраняемых. “Мы находимся на разных этапах реализации этих мер”, — сказала Уитмор. “Когда мы говорим об агентах, мы начинаем с более простых вариантов использования, а затем продвигаемся по мере того, как становимся более уверенными в них с точки зрения возможности реагирования”.
Однако эти агенты — в зависимости от их конфигурации и разрешений — могут также иметь привилегированный доступ к конфиденциальным данным и системам. Это делает AI-агентов уязвимыми — и очень привлекательной целью для атак.
Один из рисков связан с “проблемой суперпользователя”, пояснила Уитмор. Это происходит, когда автономным агентам предоставляются широкие разрешения, создавая “суперпользователя”, который может объединять доступ к конфиденциальным приложениям и ресурсам без ведома или одобрения команд безопасности.
“Для нас становится не менее важным убедиться, что мы развертываем только минимально необходимое количество привилегий для выполнения работы, точно так же, как мы делали бы это для людей”, — сказала Уитмор.
Есть ли у вашего генерального директора AI-двойник?
“Вторая область — это то, чего мы еще не видели в расследованиях”, — продолжила она. “Но пока мы находимся в режиме прогнозирования, я вижу концепцию двойника”.
Это включает в себя использование специализированных AI-агентов для утверждения транзакций или проверки и подписания контрактов, которые в противном случае потребовали бы ручного утверждения на уровне высшего руководства.
“Мы думаем о людях, которые управляют бизнесом, и их зачастую разрывают на части в течение дня”, — сказала Уитмор. “Поэтому существует концепция: мы можем сделать работу генерального директора более эффективной, создав этих агентов. Но в конечном итоге, по мере того как мы будем давать этим агентам все больше власти, полномочий и автономии, у нас начнутся реальные проблемы”.
Например: агент может одобрить нежелательный банковский перевод от имени генерального директора. Или представьте себе сценарий слияний и поглощений, когда злоумышленник манипулирует моделями таким образом, что заставляет AI-агента действовать со злым умыслом.
Используя “единственную, хорошо продуманную инъекцию запроса или эксплуатируя уязвимость ‘неправильного использования инструмента'”, злоумышленники теперь “имеют в своем распоряжении автономного инсайдера, который может незаметно совершать сделки, удалять резервные копии или переходить к извлечению всей базы данных клиентов”, согласно прогнозам Palo Alto Networks на 2026 год.
Это также иллюстрирует сохраняющуюся угрозу атак с внедрением запросов. В этом году исследователи неоднократно показывали, что атаки с внедрением запросов являются реальной проблемой, и решения пока не видно.
“Вероятно, станет намного хуже, прежде чем станет лучше”, — сказала Уитмор, имея в виду внедрение запросов. “Я имею в виду, что я просто не думаю, что у нас достаточно защищены эти системы”.
Как злоумышленники используют AI
Некоторые из них являются преднамеренными. “Новые системы и создатели этих технологий нуждаются в людях, способных придумывать творческие варианты использования атак, и это часто включает в себя манипулирование” моделями, сказала Уитмор. “Это означает, что мы должны встроить безопасность, и сегодня мы опережаем наши лыжи. Разработка и инновации в самих моделях AI происходят намного быстрее, чем внедрение безопасности, которое отстает”.
Делаем злоумышленников более могущественными
В 2025 году группа реагирования на инциденты Unit 42 компании Palo Alto Networks зафиксировала два способа злоупотребления AI злоумышленниками. Во-первых, это позволило им проводить традиционные кибератаки быстрее и в большем масштабе. Во-вторых, это включало в себя манипулирование моделями и системами AI для проведения новых типов атак.
“Исторически, когда злоумышленник получает первоначальный доступ в среду, он хочет переместиться вбок к контроллеру домена”, — сказала Уитмор. “Они хотят сбросить учетные данные Active Directory, они хотят повысить привилегии. Сейчас мы этого не так часто видим. Мы видим, как они получают доступ в среду немедленно, идут прямо к внутреннему LLM и начинают запрашивать модель для получения вопросов и ответов, а затем заставляют ее выполнять всю работу от их имени”.
Уитмор, наряду почти со всеми другими руководителями кибербезопасности, с которыми The Register разговаривал в течение последних нескольких месяцев, указала на “атаку Anthropic” в качестве примера.
Она имеет в виду сентябрьские цифровые взломы нескольких известных компаний и правительственных организаций, позже задокументированные Anthropic. Китайские кибершпионы использовали инструмент Claude Code AI компании для автоматизации атак по сбору информации, и в некоторых случаях им это удалось.
Хотя Уитмор не ожидает, что AI-агенты будут проводить какие-либо полностью автономные атаки в этом году, она ожидает, что AI станет мультипликатором силы для сетевых злоумышленников. “Вы увидите, что эти действительно маленькие команды почти обладают возможностями больших армий”, — сказала она. “Теперь они могут использовать возможности AI, чтобы делать гораздо больше работы, для выполнения которой раньше им потребовалась бы гораздо большая команда”.
Уитмор сравнивает нынешний бум AI с миграцией в облако, которая произошла два десятилетия назад. “Самые крупные утечки данных, которые произошли в облачных средах, произошли не потому, что они использовали облако, а потому, что они нацелились на небезопасные развертывания облачных конфигураций”, — сказала она. “Мы действительно видим много идентичных индикаторов, когда дело доходит до внедрения AI”.
Для директоров по информационной безопасности это означает установление передовых методов, когда речь идет об удостоверениях AI и предоставлении агентам и другим системам на основе AI средств контроля доступа, которые ограничивают их только данными и приложениями, необходимыми для выполнения их конкретных задач.
“Нам необходимо предоставлять им минимально возможный доступ и иметь настроенные элементы управления, чтобы мы могли быстро обнаружить, если агент выйдет из-под контроля”, — сказала Уитмор. ®
Всегда имейте в виду, что редакции некоторых изданий могут придерживаться предвзятых взглядов в освещении новостей.
8/8
Автор – Jessica Lyons




