Перейти к основному контенту

Ончейн-аналитика вступает в эру ИИ-агентов: как более 17 000 автономных агентов меняют ландшафт блокчейн-аналитики

· 11 мин чтения
Dora Noda
Software Engineer

Когда Chainalysis анонсировала своих «интеллектуальных блокчейн-агентов» на ежегодной конференции Links в марте 2026 года, это подтвердило то, о чем данные шептали уже несколько месяцев: основным потребителем ончейн-аналитики больше не является аналитик-человек, смотрящий на дашборд. Это машина, принимающая решения со скоростью, недоступной ни одному человеку.

Во всей криптоэкосистеме от 60 до 80 процентов мирового объема торгов теперь приходится на долю ИИ. Только в сети Solana в 2025 году автономные агенты обеспечили объем платежей на сумму более 31 млрд $, а запущенные в феврале 2026 года агентские кошельки Coinbase (Agentic Wallets) дали каждому ИИ-агенту возможность хранить USDC, отправлять платежи и торговать токенами в сети Base, ни разу не прикоснувшись к приватному ключу. Индустрия ончейн-аналитики, созданная для человеческих глаз и человеческих рефлексов, внезапно столкнулась с клиентской базой, которая работает в принципиально ином масштабе времени.

Вопрос больше не в том, адаптируются ли аналитические платформы. Вопрос в том, кто станет терминалом Bloomberg для машин, а кто останется предлагать дашборды аудитории, которая уже ушла вперед.

От дашбордов к потокам данных: сдвиг клиентов, который никто не планировал

На протяжении более десяти лет компании, занимающиеся ончейн-аналитикой, создавали продукты для конкретного пользователя: специалиста по комплаенсу, проводящего расследования, трейдера, сканирующего потоки кошельков, или управляющего фондом, отслеживающего «умные деньги» (smart money). Интерфейсы были визуальными, интерактивными и разработанными для человеческого восприятия — дашборды с запросами drag-and-drop, цветовыми схемами потоков и еженедельными сводными отчетами.

Но появление более 17 000 автономных ИИ-агентов, работающих в сети, перевернуло цепочку создания стоимости. Этим агентам не нужен дашборд. Им нужны структурированные, машиночитаемые данные, поставляемые с минимальной задержкой API — предварительно вычисленные сигналы, стандартизированные схемы и потоки данных в реальном времени, которые встраиваются непосредственно в циклы принятия решений, длящиеся миллисекунды.

Этот сдвиг отражает то, что произошло в традиционных финансах, когда в 2000-х годах алгоритмическая торговля обогнала дискреционную. Bloomberg и Reuters пришлось эволюционировать от терминалов, предназначенных для трейдеров-людей, к инфраструктуре данных, питающей автоматизированные системы. Индустрия криптоаналитики сейчас сжимает этот же переход в месяцы, а не десятилетия.

Nansen, заявляющая о наличии более 500 миллионов меток кошельков и инструментов для управления отслеживаемыми активами на сумму более 2 млрд $, отреагировала на это запуском сервера MCP (Model Context Protocol) — открытого стандарта Anthropic для подключения ИИ-агентов к внешним источникам данных. Вместо того чтобы человек входил в дашборд Nansen, агент на базе Claude теперь может программно запрашивать весь аналитический движок Nansen, получая метки кошельков, историю транзакций и потоки «умных денег» в структурированных форматах, оптимизированных для машинного потребления.

Разница не только в скорости. Это фундаментально иные отношения между поставщиком аналитики и потребителем:

  • Люди-пользователи просматривают. Агенты запрашивают.
  • Люди-пользователи интерпретируют графики. Агенты потребляют структурированные сигналы.
  • Люди-пользователи принимают решения за минуты. Агенты исполняют их за доли секунды.

Гонка MCP: каждый хочет стать источником данных для агента

Model Context Protocol стал де-факто стандартом интеграции для подключения ИИ-агентов к криптоданным. Представленный Anthropic как спецификация с открытым исходным кодом, MCP создает стандартизированный интерфейс между моделями ИИ и внешними инструментами, устраняя необходимость в кастомных интеграциях при каждом появлении нового источника данных или блокчейна.

Гонка по созданию серверов MCP во всем стеке криптоаналитики показывает, насколько быстро индустрия осознала возможности агентов.

altFINS запустила свой MCP-сервер в марте 2026 года, предоставив доступ к 130+ предварительно вычисленным торговым сигналам, полученным на основе 150+ технических индикаторов для 2 200+ цифровых активов и семилетней истории данных. Архитектура показательна: вместо того чтобы предлагать необработанные данные OHLCV и ожидать, что агенты сами будут вычислять индикаторы, altFINS предоставляет «готовую к принятию решений аналитику» — предварительно проанализированные сигналы, на основе которых агенты могут немедленно действовать. Это переносит ценностное предложение от доступа к данным к аналитическим предварительным вычислениям.

deBridge выбрала другой подход, запустив ориентированный на исполнение MCP-сервер, который позволяет агентам совершать кроссчейн-свопы и переводы между 24 блокчейнами. Если altFINS обеспечивает уровень аналитики (чем торговать), то deBridge обеспечивает уровень исполнения (как торговать) — вместе они образуют дополняющие друг друга половины автономного торгового конвейера. deBridge называет это «Vibe Trading»: вы описываете желаемый результат, а агент берет на себя маршрутизацию, бриджинг, своп и исполнение во всех сетях.

OKX пошла по самому широкому пути, обновив платформу OnchainOS в марте 2026 года и интегрировав поддержку MCP наряду с традиционными API и интерфейсом «AI Skills» на естественном языке. Платформа уже обрабатывает 1,2 млрд ежедневных вызовов API и около 300 млн $ ежедневного объема торгов в более чем 60 блокчейнах и 500+ децентрализованных биржах. Добавляя MCP в качестве нативного метода интеграции, OKX позиционирует OnchainOS как полностековую операционную систему для автономных агентов, объединяющую инфраструктуру кошельков, маршрутизацию ликвидности и рыночные данные в едином интерфейсе.

Chainalysis представляет, пожалуй, самый значительный разворот. Ее «интеллектуальные блокчейн-агенты», обученные на основе более чем 10 миллионов расследований и миллиардов проверенных транзакций за более чем десятилетие, предлагают возможности расследования на естественном языке, что снижает технический барьер для комплаенс-анализа. Теперь следователь может описать то, что он ищет, на обычном языке, а агент идентифицирует соответствующие транзакции, генерирует сводные отчеты и даже создает полноценные веб-приложения с нуля. Внедрение агентов началось летом 2026 года, начиная с кейсов по расследованиям и комплаенсу.

Закономерность очевидна: каждый крупный поставщик аналитики стремится сделать свои данные машиночитаемыми. Компании, которые выиграют эту гонку, захватят уровень аналитики того, что MarketsandMarkets прогнозирует как рынок ИИ-агентов объемом 52,6 млрд $ к 2030 году.

Оценка стоимости для машин: от лицензий на рабочее место до тарификации запросов

Переход от потребителей-людей к потребителям-машинам создает фундаментальную проблему ценообразования, которую аналитические компании еще не решили.

Традиционное ценообразование в области аналитики следует модели на основе количества рабочих мест (seat-based model), заимствованной из корпоративного программного обеспечения: Nansen взимает плату за каждого аналитика, Chainalysis продает лицензии организациям, а Dune Analytics предлагает многоуровневый доступ в зависимости от объема запросов и актуальности данных. Эти модели предполагают, что за каждым «рабочим местом» сидит человек, совершающий приемлемое количество запросов в день.

ИИ-агент не сидит на рабочем месте. Он делает тысячи запросов в секунду. Его не волнует эстетика дашбордов. Его волнуют задержка API (latency), гарантии аптайма и согласованность схем данных. Ценность, которую он извлекает из каждого запроса, измеряется в базисных пунктах торговой прибыли, а не в часах человеческой продуктивности.

Это заставляет поставщиков аналитики переходить к ценообразованию на основе потребления — взимать плату за каждый вызов API, за каждую точку данных или за каждый потребленный сигнал. Ценообразование API altFINS уже отражает этот сдвиг, предлагая тарифные планы, основанные на объеме вызовов API, а не на количестве пользователей. Но ценообразование на основе потребления создает свои проблемы: непредсказуемые расходы для операторов агентов, риск получения огромных счетов в периоды высокой волатильности и необходимость учета использования в реальном времени, для чего большинство аналитических платформ не были предназначены.

Протокол x402, обработавший более 100 миллионов транзакций к концу 2025 года, предлагает один из возможных ответов: нативный доступ к данным через микроплатежи, где агенты платят за каждый запрос в стейблкоинах с расчетами в сети (on-chain) в реальном времени. Эта модель идеально соотносит затраты с ценностью — агенты платят только за те данные, которые они используют, а поставщики получают доход, пропорциональный предоставленной информации.

Однако модель микроплатежей имеет свои сложности. Затраты на газ даже в сетях L2 могут превышать стоимость одного запроса данных. Задержка из-за расчетов в блокчейне добавляет миллисекунды, которые имеют значение в высокочастотной торговле. А сложность бухгалтерского учета миллионов платежей менее чем в один цент создает операционные накладные расходы, которые сводят на нет теоретическую элегантность решения.

Вероятная эволюция — это гибрид: уровни подписки для базового доступа, ценообразование на основе потребления для пиковых нагрузок и микроплатежи для разовых или кроссплатформенных запросов. Поставщик аналитики, который первым внедрит эту модель ценообразования, захватит несоразмерно большую долю рынка в экономике агентов.

Вопрос «рва» данных: выживут ли проприетарные наборы данных в эпоху ИИ общего назначения?

Существует противоположный аргумент против всей концепции «аналитики для агентов»: что, если LLM общего назначения научатся анализировать сырые данные блокчейна напрямую, сделав специализированные аналитические платформы ненужными?

Этот аргумент выглядит привлекательно. Современные языковые модели уже могут разбирать JSON, обрабатывать логи транзакций и выявлять закономерности в структурированных данных. Если достаточно мощная модель сможет поглощать сырые журналы событий (event logs) Ethereum и выдавать те же результаты, что и 500 миллионов меток кошельков Nansen, то инфраструктура разметки, на создание которой ушли годы, превратится в массовый общедоступный продукт (commodity).

Но этот аргумент недооценивает «ров», создаваемый проприетарными наборами данных. 10 миллионов записей о расследованиях Chainalysis представляют собой контекстуальную аналитику, которую невозможно воспроизвести только на основе сырых данных блокчейна. Когда Chainalysis помечает кластер кошельков как принадлежащий конкретному подсанкционному лицу, эта метка основана на годах сотрудничества с правоохранительными органами, судебных записях и методах расследования, а не просто на сопоставлении паттернов в графах транзакций.

Аналогично, метки кошельков Nansen, определяющие, какие адреса принадлежат конкретным фондам, маркетмейкерам и известным организациям, включают в себя внесетевую (off-chain) информацию, собранную через партнерства, ручные исследования и вклад сообщества. LLM, анализирующая сырые данные блокчейна, увидит паттерны транзакций, но не будет знать, что адрес 0x1234... принадлежит казначейскому кошельку конкретного венчурного фонда.

Надежный «ров» в эру агентов — это не доступ к данным (сырые данные блокчейна публичны по определению). Это контекстное обогащение: проприетарные метки, оценки рисков, сопоставление сущностей и поведенческие профили, которые превращают сырые ончейн-данные в практическую аналитику. Поставщики аналитики, которые инвестируют в углубление этого контекстного слоя, будут процветать. Те, кто просто агрегирует публичные данные и представляет их в виде дашбордов, будут вытеснены агентами, которые могут выполнять ту же агрегацию быстрее и дешевле.

Комплаенс-аналитика: где агенты встречаются с регулированием

Сектор комплаенса может стать областью, где ИИ-агенты и ончейн-аналитика принесут наибольшую немедленную пользу. Расследования по борьбе с отмыванием денег (AML), проверка на наличие в санкционных списках и отчетность о подозрительной деятельности — все это включает распознавание образов в огромных массивах транзакционных данных, то есть именно ту работу, в которой агенты преуспевают.

Агенты блокчейн-аналитики Chainalysis разработаны именно для этого сценария использования, предлагая то, что компания описывает как «аудируемые результаты и детерминированные рабочие процессы, в которых одни и те же входные данные дают согласованные результаты». Это критически важно для комплаенса: регуляторы требуют воспроизводимости, и сотрудник службы контроля не может сказать проверяющему «наш ИИ счел эту транзакцию подозрительной», не имея возможности объяснить и воспроизвести ход рассуждений.

TRM Labs и Elliptic представили аналогичные системы, создавая конкурентное давление, которое быстро развивает технологии. Подход «Agentic AI» от AnChain.AI сочетает в себе возможности LLM с API данных институционального уровня для AML в реальном времени, обнаружения мошенничества и проверки санкций.

Регуляторные последствия значительны. Если ИИ-агенты смогут проверять транзакции быстрее и точнее, чем команды комплаенса, состоящие из людей, то регуляторы в конечном итоге могут потребовать использования агентов в качестве минимального стандарта — точно так же, как автоматизированный мониторинг транзакций заменил ручную проверку в традиционном банковском деле. Отчет Группы разработки финансовых мер борьбы с отмыванием денег (FATF) от марта 2026 года, в котором стейблкоины с привязкой к доллару названы основным инструментом для обхода санкций, придает этой трансформации дополнительную актуальность.

Для поставщиков аналитики комплаенс представляет собой стабильный поток доходов с высокими затратами на переход (switching costs). Как только организация интегрирует Chainalysis или TRM Labs в свой рабочий процесс комплаенса, стоимость миграции — с точки зрения регуляторных рисков, усилий по повторной валидации и операционных сбоев — создает естественный «ров», защищающий регулярный доход, даже если другие направления становятся общедоступными.

Что будет дальше : стек интеллектуального уровня

Индустрия ончейн-аналитики не умирает — она разделяется на уровни. Формирующийся стек выглядит следующим образом :

Уровень необработанных данных : публичные данные блокчейна, индексируемые и доступные для запросов через такие сервисы, как Dune Analytics, The Graph и Bitquery. Этот уровень быстро превращается в общедоступный ресурс, так как всё больше провайдеров предлагают индексированные данные блокчейна.

Уровень обогащения : проприетарные метки сущностей, оценки рисков, поведенческие профили и контекстная аналитика. Здесь конкурируют Nansen, Chainalysis и Arkham, и их « рвы » из данных определяют ценовую политику.

Сигнальный уровень : предварительно вычисленные торговые сигналы, обнаружение аномалий и готовая к использованию аналитика. Примерами этого уровня являются более 130 сигналов altFINS и скрининг в реальном времени от AnChain.AI. Ценность заключается в аналитических вычислениях, а не в необработанных данных.

Уровень исполнения : MCP-серверы и API, которые переводят аналитику в действия. deBridge для кроссчейн-исполнения, OKX OnchainOS для мульти-DEX маршрутизации и Coinbase Agentic Wallets для торговли без кастодиального хранения.

Уровень оркестрации : фреймворки агентов, которые объединяют интеллект и исполнение в автономные рабочие процессы. Именно здесь кроются рыночные возможности в размере 52,6 миллиарда долларов — в самих агентах и инфраструктуре, которая их координирует.

Компании, которые извлекут наибольшую выгоду, — это те, кто охватывает несколько уровней или доминирует на одном уровне за счет защищенных проприетарных данных. Чистый поставщик данных, конкурирующий только на уровне необработанных данных, сталкивается с коммодитизацией. Поставщик данных для обогащения с 500 миллионами собственных меток обладает рыночной властью. Поставщик сигналов, предоставляющий готовую аналитику для принятия решений, получает долю от каждой сделки, совершенной на основе его сигналов.

Переход от дашбордов для людей к потокам данных для машинного интеллекта — это не угроза для аналитической индустрии, а расширение её целевого рынка на порядки. Когда каждому автономному агенту для работы потребуется ончейн-аналитика в реальном времени, спрос на машиночитаемые данные блокчейна затмит всё, что могла породить эпоха, ориентированная на человека.

Гонка началась, и финишная черта — это не улучшенный дашборд. Это невидимый интеллектуальный слой, обеспечивающий каждую автономную транзакцию в каждой сети — терминал Bloomberg для машин, который никто не видит, но от которого зависит всё.


Создание инфраструктуры для агентной блокчейн-экономики требует надежного и высокопроизводительного доступа к API. BlockEden.xyz предоставляет RPC и API сервисы корпоративного уровня для более чем 30 блокчейн-сетей, обеспечивая работу конвейеров данных, от которых зависят как аналитики-люди, так и ИИ-агенты.