ИИ совершенствует взлом смарт-контрактов криптовалют

AI,смарт-контракты,безопасность,блокчейн,взлом,криптография,Anthropic,Ethereum,уязвимости

AI все лучше выявляет уязвимости смарт-контрактов, но новизна этих находок часто оказывается преувеличенной. Разбираемся в последних исследованиях Anthropic и их значении для безопасности криптовалют.

Недавние тесты, проведенные компанией Anthropic, показали, насколько продвинулся искусственный интеллект в выявлении уязвимостей смарт-контрактов на различных блокчейнах. Прогресс в основном опирается на недостатки, которые уже были обнаружены и использованы людьми в прошлом. В ходе имитаций передовые модели, такие как Claude Opus 4.5 и GPT-5, проанализировали сотни DeFi смарт-контрактов, используя эксплойты, имитирующие предыдущие, реальные атаки на Ethereum и другие блокчейны, совместимые с Ethereum Virtual Machine (EVM).

Протестированные LLM показали значительный прогресс в имитируемых средах исполнения, генерируя полные скрипты для кражи 550 миллионов долларов США из набора данных, включающего ранее взломанные смарт-контракты с 2020 по 2025 год. Особенно примечательно, что Opus 4.5 смог использовать половину из более мелкого набора данных из 34 смарт-контрактов, намеренно содержащих ошибки, которые были использованы только после даты прекращения действия знаний модели в марте 2025 года, получив примерно 4,5 миллиона долларов США в виде фиктивных средств.

Наиболее заметным в исследовании Anthropic является общая тенденция улучшения способности AI выявлять эксплойты в приложениях на основе блокчейна, будь то при поддержке человека или без нее. За последний год доход от этих эксплойтов в имитируемых условиях примерно удваивался каждые 1,3 месяца, а стоимость токенов API для работы агентов также снизилась на 70% за полгода, что позволяет выполнять более тщательные задачи или снижать затраты для теоретических атакующих.

ИИ совершенствует взлом смарт-контрактов криптовалют

“В нашем эксперименте на сканирование контракта на наличие уязвимостей в среднем уходит всего 1,22 доллара США”, – говорится в отчете Anthropic. “По мере снижения затрат и увеличения возможностей окно между развертыванием уязвимого контракта и его эксплуатацией будет продолжать сокращаться, оставляя разработчикам все меньше времени для обнаружения и устранения уязвимостей”.

По словам Anthropic, новые LLM теперь взламывают более половины протестированных контрактов, что значительно отличается от почти нулевых показателей успеха два года назад. Однако, когда речь заходит о выявлении свежих уязвимостей, результаты выглядят гораздо менее впечатляющими. Анализируя 2 849 нетронутых контрактов с середины 2025 года, AI выявили только две проблемы: незащищенную функцию только для чтения, которая позволяла злоумышленникам искусственно увеличивать баланс токенов, и требование комиссии без надлежащей проверки, перенаправляющее платежи незнакомцам.

В совокупности эти два эксплойта принесли 3 694 доллара США в виде притворных доходов и в среднем составили 109 долларов США чистой прибыли после комиссий API. Критики называют эти «новые» находки преувеличением, поскольку речь идет о простых ошибках, например, о случайной выдаче прав на запись при предоставлении только доступа только для чтения. Как заметил один исследователь безопасности в X, исследование Anthropic является частью «AI-маркетингового цирка», представляющего тривиальные ошибки как что-то более существенное.

Для некоторых этот отчет Anthropic похож на то, что произошло осенью прошлого года, когда GPT-5 якобы решил 10 нерешенных математических задач Пола Эрдеша. Как оказалось, LLM просто нашел упущенные статьи, содержащие ответы.

Упоминания об использовании AI для эксплойтов смарт-контрактов также появились в связи с грандиозным взломом Balancer на 120 миллионов долларов США в прошлом месяце. Злоумышленники использовали ошибку округления в пакетных свопах, масштабируя и уменьшая масштаб расчетов токенов, чтобы извлекать микро-доли за многие циклы, что напоминает схему «подрезания копеек» из фильма «Офисное пространство». Крис Кребс, бывший глава кибербезопасности США, отметил сложность кода эксплойта как возможный «отпечаток пальца» AI. Однако использование AI в этой атаке еще предстоит подтвердить.

Стоит также отметить, что те же агенты, которые проверяют блокчейны на наличие эксплойтов, могут также использоваться для повышения безопасности с оборонительной точки зрения. Исследователи безопасности уже используют их для получения помощи в проверке кода, например, один из них заявил, что использовал Claude, чтобы помочь обнаружить ошибку в смарт-контрактах сети Ethereum layer-two Aztec в прошлом месяце.

“Мы вступаем в фазу, когда LLM становятся настоящими соавторами”, отметировал Мануэль, ведущий исследователь безопасности Spearbit, в X.

По мере того, как эксплойты становятся проще в исполнении, становятся проще и аудиты, что потенциально ограничивает поверхность атаки до того, как ошибка может быть использована. В конце концов, у разработчиков есть преимущество в том, чтобы сканировать свои смарт-контракты на наличие ошибок до их публикации в живых криптосетях. Другими словами, игра в кошки-мышки между хакерами и теми, кто развертывает код, обречена на продолжение.

Однако LLM — это просто дополнительный инструмент для разработчиков и исследователей безопасности, а не полная замена им, по крайней мере, пока.

Самое просматриваемое: