Внутренние угрозы в эпоху кадровой нестабильности

инсайдерские риски,кибербезопасность,ии-агенты,текучесть кадров,нулевое доверие

Экономическое давление, увольнения из-за ИИ и организационная нестабильность резко повышают инсайдерские риски. Автономные ИИ-агенты становятся новым вектором угроз, требуя комплексных стратегий безопасности, охватывающих как человеческое поведение, так и машинные активности.

Экономическое давление, вытеснение рабочих мест, вызванное искусственным интеллектом, и неутихающая организационная текучесть кадров доводят инсайдерские риски до самого высокого уровня за последние годы. Нестабильность рабочей силы подрывает лояльность и обостряет недовольство. Ускоренное внедрение мощных новых инструментов, таких как ИИ-агенты, усиливает угрозы изнутри, исходящие как от людей, так и от машин.

В 2025 году, по данным RationalFX и других трекеров занятости, в мировом технологическом секторе было объявлено о сокращении около 245 000 рабочих мест в сотнях компаний. Эти цифры, хотя и сосредоточены в сфере технологий, отражают более широкие тенденции, наблюдаемые в других секторах, включая производство, розничную торговлю, финансы, энергетику и госуправление, где к ноябрю 2025 года в США работодатели объявили о более чем 1,17 миллиона сокращений рабочих мест, по данным Challenger, Gray & Christmas.

Этот всплеск, значительно превышающий показатели предыдущих лет, создает благодатную почву для недовольства: финансовый стресс, обида из-за автоматизации и оппортунистическое поведение — от халатности и неосторожного обращения с данными до преднамеренных злонамеренных действий, таких как эксфильтрация данных и монетизация учетных данных.

Все это свидетельствует о том, что наши доверенные инсайдеры являются основным вектором серьезных инцидентов во всех секторах и регионах.

Новая машинная угроза: ИИ-агенты как изменчивый вектор

Ситуацию, связанную с человеческим фактором, усугубляет стремительный рост ИИ-агентов, которых Palo Alto Networks определила как один из самых острых и развивающихся инсайдерских рисков на 2026 год.

Автономные агенты с привилегированным доступом к системам, сверхчеловеческой скоростью выполнения задач и способностью принимать решения в масштабе перестают быть просто инструментами повышения производительности. Они становятся векторами для незаметной эксфильтрации данных, саботажа или непреднамеренной катастрофы.

Это вызывает особую озабоченность, когда волатильность снижает человеческий надзор и ускоряет внедрение без соразмерного контроля. Прогнозы кибербезопасности на 2026 год от Palo Alto Networks подчеркивают, что эти агенты создают уязвимости, такие как перехват целей (goal hijacking), злоупотребление инструментами, инъекции подсказок (prompt injection) и теневое развертывание, которые часто усугубляются той самой текучестью кадров, которая стимулирует их внедрение в транснациональных организациях.

Руководители служб безопасности принимают это к сведению. Опросы показывают, что 60% организаций выражают высокую обеспокоенность по поводу злоупотребления ИИ, которое позволяет или усиливает инсайдерские риски, согласно сборнику статистики кибербезопасности за 4 квартал 2025 года от Secureframe и сопутствующим отчетам. В то же время гибридные и удаленные модели работы занимают первое место среди возникающих рисков инсайдерских угроз в ближайшие три-пять лет, о чем заявили 75% респондентов в Отчете об инсайдерских рисках за 2025 год от Cybersecurity Insiders. Эти децентрализованные среды еще больше размывают видимость и контроль, затрудняя обнаружение аномального поведения как людей, так и машин в глобальных операциях.

Ранние предупреждения: Машина как инсайдерский риск/угроза

Эта динамика возникает не на пустом месте. Она представляет собой кульминацию предупреждений, которые накапливались годами.

Еще в 2021 году в моей авторской колонке для CSO под названием «Идентичность устройств: Недооцененная инсайдерская угроза» Раджан Ку (на тот момент главный по работе с клиентами в DTEX Systems, ныне технический директор) отмечал: «Необходимо применять рамки инсайдерских угроз к устройствам на том же уровне, что и к людям» (дословно: «There needs to be more application of the insider threat framework toward devices at the same level as we do with humans.»). Это наблюдение подчеркивало, что машинные идентификаторы, такие как API, боты, скрипты и роботизированная автоматизация процессов (RPA), уже служили каналами как для преднамеренных, так и для непреднамеренных инцидентов, заслуживая такого же пристального внимания, как и инсайдеры-люди.

Эта точка зрения была подкреплена в 2022 году в статье «Машина как инсайдерская угроза: Уроки удаления резервных данных в Киотском университете», где анализировался реальный сбой автоматизации как «классический пример того, как машины становятся инсайдерской угрозой». Инцидент, когда непроверенная ошибка в скрипте привела к безвозвратной потере критически важных резервных данных, продемонстрировал, что конечный результат, катастрофическая потеря, был идентичен тому, чего мог бы добиться злонамеренный инсайдер.

К середине 2023 года дискуссия сместилась в сторону позитивного потенциала в материале CSO за 2023 год «Когда ваш напарник — машина: 8 вопросов, которые CISO должны задать об ИИ», который рассматривал ИИ как совместную силу в рабочих процессах кибербезопасности, но с оговоркой о необходимости глубокого понимания того, что находится «под капотом». Сегодня этот напарник распространился повсеместно: Palo Alto Networks прогнозирует, что в большинстве предприятий машинные идентификаторы и автономные агенты будут превосходить людей в соотношении до 82:1, превращая ранние предостережения в насущную реальность 2026 года.

Кумулятивный эффект: Человеческая текучесть встречается с машинным распространением

Слияние этих факторов — человеческая нестабильность, вызванная увольнениями и экономической напряженностью, в сочетании с бесконтрольным масштабированием машинных агентов — создает кумулятивный эффект. Организации, сталкивающиеся с бюджетными ограничениями, часто отдают приоритет скорости внедрения ИИ над управлением, что приводит к теневым развертываниям ИИ и недостаточному мониторингу. В то же время уволенные или обиженные сотрудники могут монетизировать доступ, эксфильтрировать конфиденциальные данные или просто пренебрегать мерами контроля по мере своего ухода, как мы наблюдали в инциденте с KnownSec, где инсайдер раскрыл, что компания являлась подразделением инфраструктуры наступательных киберопераций китайского правительства. Хотя это действие, несомненно, было встречено с одобрением многими защитниками кибербезопасности за информацию о возможностях Китая, оно также демонстрирует, что ни одна организация не застрахована от фактора волатильности.

Нет сомнений, что такая тревога, вызванная продолжающимися увольнениями и неопределенностью в отношении должностей, может привести к нервным ошибкам, сокрытию привилегий или поспешным обходным маневрам, которые подвергают данные риску без намерения причинить вред. Тем не менее, вред материализуется. В результате складывается обостренный ландшафт инсайдерских рисков, который усиливается, когда взаимодействие между человеческой текучестью и машинным распространением игнорируется.

К последовательным стратегиям: Комплексное смягчение последствий в нестабильную эпоху

Именно здесь когерентность (последовательность) в стратегии инсайдерских рисков становится необходимой. Комплексные подходы должны интегрировать поведенческую аналитику, которая отслеживает как модели поведения людей (например, сдвиги настроения во время реструктуризации или сбор данных в нерабочее время), так и поведение машин (например, аномальные вызовы API или всплески активности агентов).

Программы переквалификации могут помочь удержать таланты и снизить недовольство, позиционируя сотрудников как партнеров в ролях, дополненных ИИ, а не как жертв вытеснения. Строгое управление машинным идентификационным набором, требующее аутентификации, доступа по принципу наименьших привилегий и непрерывного мониторинга, распространяет принципы нулевого доверия на нечеловеческую сферу. И что крайне важно, организациям необходимо наладить взаимодействие между отделами кадров и службами безопасности для выявления ранних индикаторов волатильности до того, как они проявятся в виде угроз.

Без этих упреждающих, интегрированных мер последствия могут быть значительными. Один скомпрометированный ИИ-агент может эксфильтрировать терабайты данных со скоростью, недостижимой для человека. Как показывает история, недовольный сотрудник может использовать оставшиеся учетные данные для внедрения бэкдоров, кражи или продажи информации, либо для преднамеренного разрушения. Ставки больше не ограничиваются изолированными инцидентами. Теперь они охватывают всю экосистему — от цепочек поставок до критически важной инфраструктуры.

Путь вперед

Вступая в 2026 год, становится ясно: инсайдерский риск больше не является преимущественно человеческой проблемой. Это проблема волатильности, которую экономическое давление, вытеснение из-за ИИ и организационная текучесть кадров усиливают с беспрецедентной скоростью. Решение этой проблемы требует такой же строгости, которую мы применяем к внешним угрозам, но направленной внутрь, с дальновидностью, последовательностью и готовностью к эволюции.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.