Перейти к основному контенту

Проблема монокультуры ИИ: почему идентичные модели рисков могут спровоцировать следующий каскад в DeFi

· 9 мин чтения
Dora Noda
Software Engineer

В феврале 2026 года около 15 000 ИИ-агентов попытались выйти из одного и того же пула ликвидности в течение трехсекундного окна. Результатом стали принудительные ликвидации на сумму 400 миллионов долларов еще до того, как хоть один риск-менеджер успел коснуться клавиатуры. Агенты не вступали в сговор — они просто использовали почти идентичные модели рисков, которые пришли к одному и тому же выводу одновременно.

Добро пожаловать в проблему монокультуры DeFi: возникающий системный риск, создаваемый ситуацией, когда экосистема, предназначенная для децентрализации, сходится на горстке ИИ-архитектур для управления рисками.

Масштабы DeFi под управлением ИИ в 2026 году

Цифры рассказывают историю быстрой трансформации. Почти 40 % всех ончейн-транзакций теперь инициируются автономными ИИ-агентами — они управляют ликвидностью, ребалансируют портфели и выполняют ликвидации без вмешательства человека. Общая заблокированная стоимость (TVL) в DeFi превысила 4 триллиона долларов, и большая часть этого капитала контролируется алгоритмами, а не аналитиками.

Это не опасно само по себе. ИИ-агенты могут обрабатывать рыночные сигналы, корректировать коэффициенты обеспечения и совершать сделки быстрее и последовательнее, чем любая человеческая команда. Проблема возникает не из-за скорости или сложности этих агентов, а из-за их схожести.

Сектор DeFAI — конвергенция децентрализованных финансов и искусственного интеллекта — взорвался с 2024 года. Протоколы теперь соревнуются в том, у кого самый продвинутый ИИ-движок рисков, но под капотом многие из этих движков имеют общее происхождение: одни и те же архитектуры моделей с открытым исходным кодом, схожие наборы обучающих данных, взятые из пересекающейся ончейн-истории, и почти идентичные параметры риска, откалиброванные по одним и тем же бенчмаркам волатильности.

Как конвергенция моделей создает каскады

Традиционные финансы усвоили этот урок болезненным путем. В ходе «флэш-крэша» (Flash Crash) 2010 года индекс Доу-Джонса рухнул почти на 1000 пунктов за считанные минуты, когда алгоритмы высокочастотной торговли усилили сигналы на продажу друг друга. Но эпоха DeFAI работает в таких масштабах и на таких скоростях, по сравнению с которыми Flash Crash кажется неспешным.

Механизм следующий: когда тысячи ИИ-агентов используют модели, обученные на похожих исторических данных, у них вырабатываются одинаковые «слепые пятна» — одни и те же крайние случаи, которые они никогда не видели, те же стрессовые сценарии, вес которых они занижают, и, что критически важно, те же пороги ликвидации, на которых они научились запускать защитные действия.

В нормальных рыночных условиях эта конвергенция незаметна. Кажется, что агенты принимают независимые решения, которые просто случайно совпадают. Рынки выглядят стабильными, потому что ИИ эффективно управляет рисками. Но когда происходит действительно новое событие — геополитический шок, эксплойт протокола или макроэкономический сюрприз — модели выходят из строя коллективно.

Банк Англии выявил именно этот риск в своем отчете о финансовой стабильности за апрель 2025 года, предупредив, что участники рынка на базе ИИ, занимающие «все более коррелированные позиции», могут «усиливать шоки» в периоды стресса. Центральный банк указал на широкое использование небольшого числа моделей с открытым исходным кодом или моделей от поставщиков как на ключевой фактор потенциального стадного поведения.

Международный валютный фонд поддержал эту обеспокоенность: стадное поведение из-за конвергенции ИИ-моделей было названо главным риском в опросе стейкхолдеров финансового рынка в 2025 году, когда их спросили об опасностях внедрения генеративного ИИ на рынках капитала.

Анатомия спирали ликвидации, управляемой ИИ

Чтобы понять, почему синхронизированное поведение ИИ так опасно именно в DeFi, рассмотрим, как разворачиваются каскады ликвидаций:

  1. Триггерное событие: Внезапное движение цены одновременно нарушает пороги риска во многих протоколах.
  2. Синхронное обнаружение: Тысячи агентов, использующих похожие модели, обнаруживают один и тот же сигнал в течение миллисекунд.
  3. Коррелированная реакция: Агенты инициируют одно и то же защитное действие — продажу залога, отзыв ликвидности или закрытие позиций.
  4. Вакуум ликвидности: Синхронные продажи подавляют доступную ликвидность на стороне покупки, заставляя цены резко падать.
  5. Вторичный каскад: Падение цен запускает дополнительные пороги ликвидации, создавая петлю обратной связи.
  6. Межпротокольное заражение: Поскольку агенты работают в нескольких протоколах и сетях, каскад распространяется по всей экосистеме DeFi за считанные секунды.

Критическое отличие от паники, вызванной людьми, заключается в скорости. Человеческий страх разворачивается в течение минут или часов, давая маркет-мейкерам время вмешаться и предоставить ликвидность. Стадное поведение ИИ сжимает эти временные рамки до секунд. Октябрьский каскад ликвидаций криптовалют 2025 года стер 19 миллиардов долларов открытого интереса за 36 часов — и это было вызвано в основном людьми. Аналогичный случай с синхронизацией ИИ мог бы сконцентрировать такой же ущерб в считанные минуты.

Отсутствующий координационный уровень

Одним из наиболее опасных пробелов в сегодняшней инфраструктуре DeFAI является отсутствие системы координации на уровне системы. Отдельные ИИ-агенты удивительно сложны на уровне исполнения — они могут оптимизировать доходность, управлять залогом и выполнять сложные многоэтапные стратегии. Но не существует механизма на уровне протокола, позволяющего этим агентам координировать свое коллективное поведение.

Consider the contrast with traditional finance. Центральные клиринговые палаты служат автоматическими выключателями во время экстремальной волатильности, приостанавливая торговлю для предотвращения каскадов. Маркет-мейкеры по контракту обязаны предоставлять ликвидность даже в периоды стресса. Нормативно-правовая база требует лимитов позиций и маржин-коллов, которые распределены по времени для предотвращения синхронизации.

В DeFi нет ни одного из этих механизмов, предназначенных для участников с ИИ. Нет автоматических выключателей, которые активируются, когда поведение агентов становится слишком коррелированным. Нет требований к агентам распределять во времени свои реакции на риски. Нет «уровня управления» (control plane), который мог бы динамически корректировать пороги ликвидации или коэффициенты LTV (кредит к стоимости) на основе поведения агентов в масштабе всей системы.

Этот архитектурный пробел не является чисто теоретическим. Исследователи задокументировали, что текущее поколение ИИ-агентов в DeFi работает почти исключительно на уровне исполнения, лишенное какого-либо механизма для принятия решений на системном уровне о том, когда и почему скоординированные действия должны — или не должны — происходить.

Регуляторные меры обретают форму

Регуляторы начинают осознавать масштабы последствий. В Соединенных Штатах постановление Бюро по защите прав потребителей финансовых услуг (CFPB) об «агентской эквивалентности» (Agentic Equivalence) предписывает обязательную регистрацию ИИ-агентов, выступающих в роли финансовых консультантов, при этом их материнские компании несут строгую ответственность за ошибки автономных систем. Правовая база закона GENIUS (GENIUS Act) распространяет эту ответственность на тех, кто развертывает торговых ИИ-агентов — если автономный агент осуществляет фиктивные сделки (вош-трейдинг), лицу, его развернувшему, предъявляются обвинения в манипулировании рынком.

В марте 2026 года Банк Англии объявил о включении сценариев шоковых ситуаций, вызванных ИИ, в свои финансовые стресс-тесты. Это знаменует переход от отношения к ИИ как к долгосрочному вопросу производительности к признанию его краткосрочным риском для финансовой стабильности. Центральный банк также планирует создать «лабораторию синхронизации», чтобы позволить операторам тестировать реальные сценарии, связанные с коррелированным поведением ИИ.

Подход Европы через регламенты MiCA и AI Act создает многоуровневую структуру соблюдения нормативных требований, в то время как формирующиеся стандарты Азии сосредоточены на верификации «Знай своего агента» (KYA) — требовании, чтобы автономные торговые агенты были идентифицируемыми и подлежали аудиту.

Эти регуляторные усилия необходимы, но недостаточны. Скорость, с которой работают ИИ-агенты, означает, что к моменту срабатывания регуляторной реакции каскадный ущерб уже будет нанесен.

Повышение устойчивости: что дальше

Сообщество DeFi не стоит на месте. Появляется несколько подходов к минимизации рисков синхронизированного ИИ:

Требования к разнообразию моделей: Некоторые протоколы начинают требовать от агентов по управлению рисками демонстрации архитектурного разнообразия — использования различных семейств моделей, обучения на разных подмножествах данных или применения различных структур рисков. Это отражает принципы биоразнообразия: экосистемы с генетическим разнообразием более устойчивы к болезням.

Ончейн-предохранители: Механизмы на уровне протокола, которые определяют, когда поведение агентов становится аномально коррелированным, и автоматически создают «трение» — такое как временные периоды охлаждения, прогрессивное повышение комиссий или рандомизированные задержки исполнения — для разрыва паттернов синхронизированных продаж.

Состязательное стресс-тестирование: Вместо тестирования ИИ-агентов на исторических сценариях (на которых они все обучались), протоколы изучают возможности состязательного тестирования с использованием синтетических сценариев, предназначенных для выявления слепых зон моделей. Нейроморфное и квантовое машинное обучение показали многообещающие результаты в сокращении каскадных событий на величину до 91% в контролируемых симуляциях.

Многоуровневые архитектуры ликвидации: Вместо бинарных порогов ликвидации протоколы внедряют поэтапные ответные меры, которые распределяют давление ликвидации во времени, предотвращая эффект «обрыва», провоцирующий синхронизированные реакции агентов.

Межпротокольная передача сигналов о рисках: Появляющиеся стандарты для агентов по трансляции состояния своих рисков на общий уровень оракулов, что обеспечивает видимость на системном уровне и позволяет понять, когда коллективное поведение агентов приближается к опасному уровню корреляции.

Парадокс интеллектуального управления рисками

DeFi сталкивается с парадоксом: те самые инструменты, которые были приняты для более интеллектуального управления рисками, могут создавать новую категорию системного риска, который сложнее обнаружить и который материализуется быстрее, чем все, с чем экосистема сталкивалась ранее.

Решение не в том, чтобы отказаться от управления рисками на базе ИИ — джинн уже выпущен из бутылки, а преимущества автономных агентов слишком значительны, чтобы от них отказываться. Вместо этого задача состоит в том, чтобы создать уровни координации, требования к разнообразию и предохранители, которые позволят тысячам ИИ-агентов сосуществовать, не превращаясь в синхронизированное стадо.

Финансовая система всегда формировалась инструментами, которые она использует. В эпоху телеграфной торговли паника распространялась со скоростью проводов. В эпоху электронной торговли внезапные обвалы (флэш-крэши) сжались до минут. В эпоху автономных ИИ-агентов следующий каскад может развернуться за секунды — если только DeFi не создаст необходимую иммунную систему до того, как следующий стресс-тест придет без приглашения.

BlockEden.xyz предоставляет высокопроизводительную RPC-инфраструктуру и аналитику данных для разработчиков DeFi, работающих в условиях ландшафта, управляемого ИИ. Создаете ли вы автономных агентов или отслеживаете состояние протокола, наши мультичейн API-сервисы обеспечат надежность, необходимую вашим системам. Изучите наш маркетплейс API, чтобы строить на базе инфраструктуры, разработанной для следующего поколения ончейн-финансов.