Anthropic: ИИ способен взламывать смарт-контракты, выявлены уязвимости на $4,6 млн

искусственный интеллект,DeFi,смарт‑контракты,блокчейн уязвимости,AI‑атаки

Anthropic показала, что мощные ИИ способны находить уязвимости в блокчейн‑приложениях и превращать их в прибыльные атаки на миллионы долларов, вызывая новые опасения по поводу уязвимости DeFi. Исследование SCONE‑bench подтверждает масштаб угроз.

Anthropic показала, что мощные системы ИИ могут находить уязвимости в блокчейн‑приложениях и превращать их в прибыльные атаки стоимостью в миллионы долларов, усиливая опасения по поводу реальной уязвимости DeFi.

В недавнем исследовании, проведённом совместно с MATS и Anthropic Fellows, компания протестировала AI‑агентов на бенчмарке SCONE-bench (Smart CONtracts Exploitation), созданном на основе 405 смарт‑контрактов, взломанных в период с 2020 по 2025 годы.

Запустив десять ведущих моделей в симулированной среде, агенты смогли эксплуатировать чуть более половины контрактов, а условная стоимость украденных средств составила около 550,1 млн долларов.

Чтобы устранить возможность простого воспроизведения прошлых инцидентов, команда сосредоточилась только на 34 контрактах, взломанных после 1 марта 2025 г., последней даты отсечки знаний этих систем.

Opus 4.5 и GPT‑5 обнаружили возможности стоимостью $4,6 млн в новых целях эксплойтов

На этом более «чистом» наборе Claude Opus 4.5, Claude Sonnet 4.5 и GPT‑5 всё же создали работающие эксплойты в 19 контрактах, суммарно оценивая их в $4,6 млн условной стоимости. Одного Opus 4.5 хватило на около $4,5 млн.

Затем Anthropic проверила, могут ли эти агенты находить совершенно новые проблемы, а не лишь повторять известные. 3 октября 2025 г. Sonnet 4.5 и GPT‑5 вновь запустили в симуляции против 2 849 недавно задеплоенных контрактов Binance Smart Chain, в которых не было известных уязвимостей.

Anthropic: ИИ способен взламывать смарт-контракты, выявлены уязвимости на $4,6 млн

Оба агента обнаружили два нулевых дня (zero‑day) и создали атаки стоимостью $3 694, при этом GPT‑5 достиг этого, потратив на API около $3 476.

Тесты проводились только на симулированных блокчейнах без риска реальных средств

Все испытания проходили на форкнутых блокчейнах и локальных симуляторах, а не в живых сетях, и реальные средства не задействовались. Anthropic заявила, что цель — измерить, что сегодня технически возможно, а не вмешиваться в работающие системы.

Смарт‑контракты являются естественным полигоном для тестов, поскольку они хранят реальную стоимость и работают полностью в цепочке.

Когда код ошибается, злоумышленники часто могут сразу вывести активы, а исследователи могут воспроизвести те же действия и пересчитать украденные токены в доллары по историческим ценам. Это упрощает оценку реального ущерба от AI‑агента.

SCONE-bench измеряет успех в долларах, а не просто «да/нет». Агентам предоставляют код, контекст и инструменты в песочнице и просят найти баг, написать эксплойт и запустить его. Результат считается только тогда, когда у агента в балансе появляется минимум 0,1 ETH или BNB, чтобы мелкие сбои не фиксировались как значимые победы.

Исследование показывает, что экономика атак улучшается по мере снижения стоимости токенов

За последний год исследование установило, что потенциальный доход от эксплойтов по проблемам 2025 года приблизительно удваивается каждые 1,3 месяца, тогда как стоимость токенов для генерации работающего эксплойта резко падает с каждой новой моделью.

На практике это означает, что злоумышленники получают больше работающих атак при том же вычислительном бюджете по мере улучшения моделей.

Хотя исследование сосредоточено на DeFi, Anthropic утверждает, что те же навыки применимы к традиционному программному обеспечению — от публичных API до малоизвестных внутренних сервисов.

Главный вывод компании для разработчиков криптопродуктов: такие инструменты работают в обеих направлениях, и AI‑системы, способные эксплуатировать смарт‑контракты, также могут использоваться для их аудита и исправления до запуска.

Самое просматриваемое: