За свою долгую карьеру по защите цифровых активов я видел, как сменялись технологические эпохи, но ничто не сравнится с разрушительной силой искусственного интеллекта (ИИ) и больших языковых моделей (БЯМ). ИИ — это буквально палка о двух концах, когда речь заходит о кибербезопасности. Те же возможности, которые позволяют нам автоматизировать обнаружение угроз и быстрее писать безопасный код, используются противниками для создания нового поколения киберугроз. Для любого CISO или руководителя службы безопасности наш основной фокус должен сместиться: мы больше не боремся только с людьми-противниками, мы боремся с автоматизированными агентами угроз, усиленными ИИ.
Наступательное преимущество
Мы наблюдаем резкое снижение стоимости и требований к квалификации для совершения киберпреступлений. То, на что раньше у опытного специалиста уходили недели, теперь может быть организовано агентом ИИ за считанные часы, что приводит к тому, что мы называем инфляцией киберугроз.
Самомодифицирующееся, уклоняющееся вредоносное ПО
Совсем недавно исследователи из Google Threat Intelligence Group (GTIG) выявили тревожную новую тенденцию: вредоносное ПО, которое использует БЯМ во время выполнения для динамического изменения своего поведения и уклонения от обнаружения. Это не заранее сгенерированный код, это код, который адаптируется в процессе выполнения.
В июне 2025 года GTIG обнаружила экспериментальное вредоносное ПО под названием PROMPTFLUX, которое подключается к коммерческому API БЯМ (например, Gemini API) для запроса скриптов обфускации и уклонения от обнаружения на лету. Эта техника, позволяющая генерировать код в режиме реального времени, представляет собой значительный шаг к автономному и адаптивному вредоносному ПО.
В другом случае GTIG идентифицировала PROMPTSTEAL, используемое связанной с Россией группировкой APT28 против Украины. Это вредоносное ПО запрашивает у БЯМ (модель Qwen2.5-Coder на Hugging Face) команды для проведения разведки вместо того, чтобы иметь их жестко закодированными.
Некоторые аналитики прогнозируют, что доля всех обнаружений вредоносного ПО с участием БЯМ взлетела с всего лишь 2% в 2021 году до прогнозируемых 50% к 2025 году.
Первая автономная шпионская кампания
Недавно Anthropic раскрыла высокотехнологичную операцию кибершпионажа, приписываемую спонсируемому государством злоумышленнику, который использовал собственную модель Claude Codemodel для атаки примерно на 30 организаций по всему миру, включая крупные финансовые учреждения и государственные органы.
Злоумышленник манипулировал моделью, заставив ее функционировать как автономный агент кибератаки, который выполнял от 80% до 90% тактических операций: от разведки и обнаружения уязвимостей до сбора учетных данных и эксфильтрации данных.
Человек-оператор вмешивался только в критических узловых точках, например, авторизуя переход от разведки к активной эксплуатации. ИИ автономно картировал сети, обнаруживал уязвимости и проводил действия после эксплуатации со скоростью машины — беспрецедентной скоростью, с которой не могут сравниться традиционные методы защиты, работающие со скоростью человека.
Финансовое мошенничество на основе дипфейков
С другой стороны, генеративный ИИ усилил социальную инженерию с помощью гиперреалистичных дипфейков. Мошенничество на основе дипфейков взлетело, позволяя создавать голосовые и видеоподделки, которые обманывают даже опытных профессионалов. Яркий пример произошел, когда исполнительного директора Ferrari чуть не обманул дипфейк голоса генерального директора.
Еще совсем недавно сотрудник глобальной дизайнерской фирмы был обманут видеозвонком, сгенерированным ИИ, который имитировал финансового директора компании и других руководителей, что привело к потере в 25 миллионов долларов, переведенных мошенникам.
Оборонительное преимущество
Если противники действуют со скоростью ИИ, наши средства защиты тоже должны работать с такой же скоростью. Светлая сторона этой двойственности заключается в том, что самые мощные БЯМ также используются защитниками для создания принципиально новых возможностей в области безопасности.
Обнаружение уязвимостей: от уязвимостей нулевого дня до автономного пентеста
Семантическое понимание кода и контекстное рассуждение БЯМ дают значительное преимущество перед традиционными статическими анализаторами на основе сигнатур, особенно в обнаружении неизвестных угроз до того, как вредоносные акторы найдут их и воспользуются ими.
БЯМ продемонстрировали исключительный потенциал в выявлении неизвестных, неисправленных изъянов (уязвимостей нулевого дня). Эти модели значительно превосходят обычные статические анализаторы, особенно в раскрытии тонких логических ошибок и переполнений буфера в новом программном обеспечении. Например, проект Google Big Sleep использовал БЯМ для обнаружения уязвимости нулевого дня в критически важной базе данных SQLite, используемой в отрасли.
Другой пример — XBOW, автономный агент ИИ для тестирования на проникновение, который использует БЯМ для симуляции реальных атак точно так же, как это сделал бы его человеческий аналог. XBOW занял первое место в рейтинге HackerOne US Leaderboard, демонстрируя, что ИИ может соответствовать, а в некоторых тестах и превосходить опытных хакеров в поиске широкого спектра уязвимостей (например, инъекционных уязвимостей, XSS).
Развертывая против наших собственных систем агентов ИИ, таких как XBOW, мы можем систематически проверять каждую конечную точку и вектор атаки. Это масштабирует этичное тестирование безопасности путем проникновения от периодического аудита до рабочего процесса по требованию, проводимого до выпуска продукта.
С другой стороны, DeepMind от Google разработала пилотный проект агента на базе ИИ под названием CodeMender, который автоматически обнаруживает, исправляет и переписывает уязвимый код для устранения целых классов уязвимостей безопасности. Этот реактивный и проактивный подход представляет собой крупный шаг вперед в автоматизации защиты.
Охота за угрозами и поведенческий анализ
БЯМ трансформируют охоту за угрозами из ручного поиска по ключевым словам в интеллектуальный, контекстный процесс запросов, ориентированный на поведенческие аномалии. Обрабатывая и сопоставляя огромные объемы неструктурированных наборов данных, таких как журналы сети, отчеты об инцидентах безопасности и ленты разведывательной информации об угрозах (OSINT), БЯМ получают контекстное понимание, необходимое для формирования гипотез о потенциальных угрозах с высокой степенью достоверности.
Например, Google Threat Intelligence с Gemini улучшает этот процесс, предоставляя необходимую контекстуальную привязку с данными из нескольких источников, таких как VirusTotal и Mandiant, для определения в реальном времени того, какие тактики, техники и процедуры (ТТП) глобальных акторов угроз наиболее актуальны для конкретной отрасли или организации, и приоритизации наиболее важного среди десятков тысяч отчетов.
Кроме того, AIP (Платформа искусственного интеллекта) от Palantir использует БЯМ для анализа аномального поведения пользователей или систем в обширных хранилищах данных, выявляет тонкие признаки компрометации, охватывающие различные системы, и предлагает аналитику-человеку приоритетный путь атаки для расследования.
Управление, соответствие требованиям и регулирование
БЯМ также предлагают глубокое масштабируемое решение для управления нетехническими рисками, связанными с соблюдением нормативных требований, конфиденциальностью и регуляторной сложностью, которые представляют собой значительные финансовые и юридические обязательства. БЯМ могут использоваться для перехода от периодических аудитов к непрерывному обеспечению соблюдения политик.
Например, Compliance Manager от Microsoft может принимать и понимать огромные объемы неструктурированных данных, таких как внутренние политики безопасности, юридические контракты и внешние нормативные тексты, такие как GDPR или Закон ЕС об ИИ. Затем он автоматически сопоставляет требования одной структуры с другой, значительно сокращая ручные усилия, необходимые для подтверждения соответствия во время аудита.
IBM Watsonx применяет возможности БЯМ для управления соблюдением требований и рисками. Для фирмы, предоставляющей финансовые услуги, это может означать, что модель непрерывно сканирует код нового торгового приложения, чтобы убедиться, что вся обработка данных соответствует HIPAA или PCI DSS до развертывания, автоматически отмечая любые отклонения от установленной политики.
Сводим все воедино
По мере того как системы ИИ продолжают развиваться от генеративных моделей к автономным агентам, их двойственный характер нельзя игнорировать. Те же инструменты, которые помогают защитникам ускорить реагирование на инциденты, могут также дать возможность злоумышленникам создавать дипфейки, запускать кампании социальной инженерии и многое другое. Это напряжение — не временный побочный продукт инноваций, а структурная реальность быстрого развития ИИ.
В конечном счете, задача состоит не в том, чтобы остановить прогресс ИИ, а в том, чтобы ответственно им управлять. Это означает создание механизмов защиты в моделях, повышение прозрачности и разработку систем управления, идущих в ногу с новыми возможностями. Это также требует от организаций переосмысления стратегий безопасности, признавая, что ИИ является как возможностью, так и множителем рисков.
В конце концов, влияние ИИ на кибербезопасность будет определяться не только тем, что могут делать эти системы, но и тем, как мы решим их использовать. Будущее будет принадлежать тем, кто сможет использовать оборонительную мощь ИИ, оставаясь при этом бдительным к его наступательному потенциалу.
Эта статья опубликована в рамках сети экспертов-авторов Foundry.
Хотите присоединиться?
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Qual-score: 9/8
Bajan-score: 0.782600224
Автор – Vaibhav Agrawal




