Гонка вооружений в аудите смарт-контрактов ИИ: специализированный ИИ для безопасности обнаруживает 92% эксплойтов в DeFi
Всего за 1,22 доллара за контракт ИИ-агент теперь может просканировать смарт-контракт на наличие эксплуатируемых уязвимостей — при этом наступательные возможности эксплойтов удваиваются каждые 1,3 месяца. Добро пожаловать в самую значимую гонку вооружений в сфере децентрализованных финансов.
В феврале 2026 года OpenAI и Paradigm совместно запустили EVMbench — открытый бенчмарк, оценивающий, насколько эффективно ИИ-агенты обнаруживают, исправляют и эксплуатируют уязвимости смарт-контрактов. Результаты оказались отрезвляющими. GPT-5.3-Codex успешно эксплуатировал 72,2% известных уязвимых контрактов, по сравнению с 31,9% всего полгода назад. Тем временем специализированный ИИ-агент по безопасности обнаружил уязвимости в 92% из 90 скомпрометированных контрактов DeFi на сумму 96,8 миллиона долларов — это почти в три раза выше показателя обнаружения в 34%, продемонстрированного базовым ИИ-агентом для написания кода GPT-5.1.
Вывод очевиден: битва за безопасность DeFi превратилась в противостояние ИИ против ИИ, и экономика в подавляющем большинстве случаев благоприятствует злоумышленникам — по крайней мере, на данный момент.
Проблема на 17 миллиардов долларов, которую не решить одним лишь кодом
По данным Chainalysis, в 2025 году криптоиндустрия потеряла 3,41 миллиарда долларов в результате взломов и эксплойтов. Но эта цифра преуменьшает реальный ущерб. Если включить скам, мошенничество и социальную инженерию, общие потери вырастут до оценочных 17 миллиардов долларов. Одни только северокорейские хакеры из Lazarus Group похитили 2,02 миллиарда долларов, что на 51% больше, чем в прошлом году, в результате чего их общая сумма за все время достигла 6,75 миллиарда долларов.
Самый разрушительный инцидент — взлом биржи Bybit на 1,46 миллиарда долларов в феврале 2025 года — вовсе не был связан с эксплойтом смарт-контракта. Вредоносное ПО обманом заставило платформу одобрить несанкционированные транзакции. Как сообщил CoinDesk, худший год для крипто-взломов «не был проблемой смарт-контрактов — это была проблема людей».
Это различие важно, поскольку оно выявляет две параллельные плоскости угроз. Уязвимости смарт-контрактов остаются опасными, но социа льная инженерия, фишинг и мошенничество с подменой личности растут гораздо быстрее. Мошенничество с использованием ИИ в 2025 году было в 4,5 раза прибыльнее традиционных методов, а мошенничество с выдачей себя за другое лицо выросло на 1400% в годовом исчислении. Фишинговые письма, созданные ИИ, теперь достигают показателей кликабельности в четыре раза выше, чем сообщения, написанные людьми.
На этом фоне вопрос уже не в том, трансформирует ли ИИ безопасность блокчейна. Вопрос в том, сможет ли защитный ИИ масштабироваться достаточно быстро, чтобы соответствовать атакующей стороне.
EVMbench: Бенчмарк, количественно оценивший разрыв
OpenAI и Paradigm разработали EVMbench на основе 117 отобранных уязвимостей, взятых из 40 профессиональных аудитов, включая несколько сценариев из процесса аудита безопасности блокчейна Tempo. Бенчмарк тестирует три способности: обнаружение уязвимостей, их исправление и эксплуатация «под ключ».
Результаты выявили парадокс. ИИ-агенты гораздо лучше атакуют, чем защищают.
В режиме эксплойта GPT-5.3-Codex набрал 72,2%, более чем вдвое превысив результат GPT-5 (31,9%) середины 2025 года. Но производительность резко падала на задачах обнаружения и исправления. В режиме обнаружения агенты имели тенденцию останавливаться после нахождения одной уязвимости, вместо того чтобы проводить исчерпывающий аудит кодовой базы. В режиме исправления сохранение полной функциональности контракта при удалении тонких уязвимостей оказалось труднодостижимой задачей.
OpenZeppelin независимо проверила методологию EVMbench и обнаружила критические недостатки: как минимум четыре неверных вывода высокой степени серьезности, опасения по поводу загрязнения обучающих данных и методологические пробелы, которые могли завысить заявленные показатели. Бенчмарк остается ценным как индикатор направления, но сообщество безопасности предостерегает от восприятия его результатов как оценок промышленного уровня.
Отдельно «красная команда» Anthropic продемонстрировала, что Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 коллективно разработали эксплойты на сумму 4,6 миллиона долларов для контрактов, которые были скомпрометированы уже после даты отсечки знаний моделей — доказав, что эти агенты могут идентифицировать новые уязвимости, а не просто воспроизводить известные атаки.
Асимметричная экономика атак на базе ИИ
Самый тревожный вывод исследования носит экономический, а не технический характер. При стоимости примерно 1,22 доллара за контракт для сканирования эксплойтов с помощью ИИ, стоимость проверки каждого смарт-контракта в Ethereum приближается к порогу карманных расходов для опытных злоумышленников.
Математика выявляет структурный дисбаланс. Злоумышленники выходят в безубыточность, когда стоимость эксплойта составляет всего 6 000 долларов, при условии 0,1% доли уязвимостей в просканированных контрактах. Защитникам, напротив, требуется как минимум 60 000 долларов в виде выплат по баг-баунти или возвращенных средств, чтобы оправдать стоимость эквивалентного защитного сканирования. Эта асимметрия десять к одному означает, что экономика естественным образом благоприятствует нападению.
Традиционные аудиты смарт-контрактов усугубляют проблему. Ручной аудит небольших контрактов с простой логикой стоит от 10 000 до 25 000 долларов, в то время как сложные протоколы с кроссчейн-компонентами или большими кодовыми базами могут превышать 100 000–250 000 долларов. На проведение таких аудитов уходят недели или месяцы. ИИ-агент, работающий по цене 1,22 доллара за контракт, может просканировать тысячи контрактов за то время, которое требуется человеческой команде для проверки одного.
Кривая роста возможностей эксплойтов со временем делает этот разрыв еще больше. Поскольку наступательные возможности ИИ удваиваются каждые 1,3 месяца, даже протоколы, которые были защищены от ИИ-агентов прошлого квартала, могут оказаться уязвимыми для моделей следующего квартала.
Специализированный ИИ для безопасности: прорыв в 92% обнаружения
Не все ИИ-агенты работают одинаково. Показатель обнаружения в 92%, достигнутый специализированными агентами безопасности — охвативший реальные эксплойты на сумму 96,8 миллиона долларов в 90 DeFi-контрактах — затмил показатель в 34% (7,5 миллиона долларов), достигнутый универсальными агентами GPT-5.1 для написания кода.
Разница возникла не из-за более мощной базовой модели. Она возникла благодаря предметно-ориентированной методологии безопасности, наложенной поверх той же базовой модели. Специализированные агенты учитывают инварианты конкретных протоколов, известные паттерны атак (reentrancy/повторный вход, манипуляции с флэш-займами, злоупотребление оракулами) и требования к систематическому покрытию, которые универсальные модели упускают из виду.
Этот вывод содержит практический урок: разрыв между обычным аудитом ИИ и специализированным не является постепенным — он примерно в три раза выше по частоте обнаружения и в тринадцать раз выше по денежной стоимости выявленных уязвимостей. Протоколы, полагающиеся на общие инструменты ИИ для обеспечения безопасности, работают с ложным чувством уверенности.
Формирующаяся передовая практика — это гибридная модель. Как описывает технический анализ DEV Community, «аудит 2026 года не является полностью автоматизированным — это эксперт-человек, направляемый анализом ИИ, который охватывает в 10 раз больше территории за вдвое меньшее время». Опытные аудиторы используют ИИ для массового выявления потенциальных уязвимостей, а затем применяют человеческое суждение для проверки выводов, оценки рисков бизнес-логики и валидации исправлений.