Доверие к кибербезопасности на базе AI нужно заслужить, а не принимать как должное

ии кибербезопасность тестирование устойчивость Ciso оценка computerweekly.com

В сфере безопасности привычных подходов к тестированию и проверке недостаточно для ИИ. Вопрос не только в том, работает ли инструмент на базе ИИ, но и в том, как он ведет себя под нагрузкой, при манипуляциях или вне известных условий. — computerweekly.com

Искусственный интеллект уже лежит в основе обнаружения, расследования и реагирования во всем стеке безопасности, и его роль будет только расти. Вопрос для руководителей служб ИБ (CISO) заключается уже не в том, внедрять ли инструменты на базе ИИ, а в том, каким из них можно доверять. По мере ускорения внедрения руководители сталкиваются с потоком заявлений о том, что именно может обнаружить, предсказать или предотвратить каждое решение. Теперь задача состоит в том, чтобы отделить маркетинговые обещания от доказанной устойчивости. Проверка традиционных инструментов безопасности всегда была сложной задачей, но проверка инструментов безопасности на базе ИИ порождает совершенно иной набор проблем. В отличие от детерминированных систем, модели ИИ ведут себя вероятностно. Их результаты будут варьироваться в зависимости от контекста, структуры входных данных и истории взаимодействия. Это создает серьезную проблему для оценки. Инструменты, которые кажутся надежными при тестировании, могут быстро стать непредсказуемыми, когда злоумышленники активно пытаются их обойти или когда они сталкиваются с несовершенными реальными данными. Таким образом, любые возможности, продемонстрированные в изоляции, нельзя считать гарантией устойчивости в сложных реальных условиях. Для руководителей служб безопасности это означает, что привычных и знакомых подходов к тестированию и проверке недостаточно. Вопрос не только в том, работает ли инструмент на базе ИИ, но и в том, как он фактически ведет себя под нагрузкой, при манипуляциях или когда его заставляют работать вне уже известных условий. ИИ используется по обе стороны операций по обеспечению безопасности. Инструменты наступательной безопасности на базе ИИ поддерживают такие действия, как тестирование на проникновение, обнаружение уязвимостей, симуляция атак и red teaming. Они призваны дополнять, а не заменять работу, которую уже выполняют специалисты по безопасности, ускоряя разведку, изучение путей атак и выявление слабых мест в масштабе. Инструменты оборонительной безопасности на базе ИИ поддерживают обнаружение, расследование, приоритизацию и реагирование. Они помогают аналитикам лучше управлять сложностью и принимать более быстрые и обоснованные решения. Эти инструменты на базе ИИ могут быть специально разработаны для сценариев использования в сфере безопасности, но это само по себе не делает их по своей сути надежными. Как и любая система, работающая во враждебной среде, они должны оцениваться на предмет устойчивости, а также возможностей.

Почему важны состязательные тесты

Исследования в области наступательной безопасности показывают, что многоуровневая защита может работать, но только если она должным образом протестирована. В ходе состязательных упражнений для проверки инструментов безопасности на базе ИИ мы наблюдали, что базовые меры защиты часто быстро обходятся. Это важно, поскольку сбои в работе инструментов безопасности на базе ИИ редко бывают безвредными. Модель, подвергшаяся манипуляциям, может раскрыть конфиденциальные данные, неправильно классифицировать критические события или совершать непреднамеренные действия в масштабе. Незначительная слабость может перерасти в системный риск, как только ИИ будет встроен в основные операции по обеспечению безопасности. Для CISO это означает, что инструменты безопасности на базе ИИ должны оцениваться не только по тому, выполняют ли они обещанное, но и по тому, как они выходят из строя. Многие инструменты безопасности на базе ИИ полагаются на «ограничители» (guardrails) — ограничения, предназначенные для сдерживания поведения модели и удержания результатов в приемлемых рамках. Ограничители необходимы, но они не являются доказательством устойчивости. Модель, остающаяся «на рельсах» во время демонстрации, все равно может отказать непредсказуемо при столкновении с новыми входными данными, цепочками атак или операционным шумом. Устойчивость может быть продемонстрирована только посредством тестирования, отражающего реальные условия угроз. Без этих доказательств уверенность в инструменте безопасности на базе ИИ будет преждевременной.

Какие сценарии использования инструментов безопасности на базе ИИ заслуживают внимания

Наиболее многообещающими приложениями ИИ в кибербезопасности являются инструменты, которые дополняют человеческое принятие решений, а не пытаются его заменить. Сценарии использования, такие как помощь в сортировке (triage), распознавание образов в масштабе и поддержка расследований, могут обеспечить измеримую выгоду при условии их надлежащего ограничения, тестирования и оценки. Напротив, любое полностью автономное принятие решений или широкий бесконтрольный контроль могут быстрее увеличить риск, чем уменьшить его. Важно не то, присутствует ли ИИ в стеке безопасности, а то, четко ли определены его пределы и понимает ли его поведение под давлением. Внедрение ИИ часто преподносится как вопрос доверия. Но доверие подразумевает веру без проверки. Уверенность — это другое. Уверенность строится на доказательствах. Руководителям служб безопасности не нужно убеждать в том, что ИИ принадлежит кибербезопасности. Им нужны гарантии того, что развернутый ими ИИ был подвергнут испытаниям, измерен и сопоставлен с реалистичными угрозами. Эти доказательства позволят им отличить реальные возможности от хитрого маркетинга. Поставщики, которые могут продемонстрировать подлинную устойчивость под состязательным давлением, будут выделяться среди тех, кто полагается только на заявления. ИИ уже меняет кибербезопасность, но достижение ее полного потенциала будет зависеть от того, насколько хорошо она выдержит давление и атаки. Для CISO цель состоит в том, чтобы иметь уверенность, подкрепленную доказательствами, а не слепое доверие. В конечном счете, именно доказательства, а не ажиотаж, станут самым ценным средством контроля безопасности. Харис Пиларинос — основатель и генеральный директор Hack The Box.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.

В тренде:


Похожие новости: