Перейти к основному контенту

434 поста с тегом "Блокчейн"

Общая технология блокчейн и инновации

Посмотреть все теги

Следующая глава DeFi: перспективы от ведущих разработчиков и инвесторов (2024 – 2025)

· 11 мин чтения
Dora Noda
Software Engineer

Децентрализованные финансы (DeFi) значительно развились от спекулятивного бума лета 2020 года до цикла 2024–2025 годов. Более высокие процентные ставки замедлили рост DeFi в 2022–2023 годах, но появление высокопроизводительных блокчейнов, стимулирующих токенов и более четкой нормативно-правовой среды создает условия для новой фазы ончейн-финансов. Лидеры Hyperliquid, Aave, Ethena и Dragonfly разделяют общее ожидание, что следующая глава будет обусловлена подлинной полезностью: эффективной рыночной инфраструктурой, доходными стейблкоинами, токенизацией реальных активов и пользовательским опытом с помощью ИИ. Следующие разделы анализируют будущее DeFi через призму мнений Джеффа Яна (Hyperliquid Labs), Стани Кулехова (Aave Labs), Гая Янга (Ethena Labs) и Хасиба Куреши (Dragonfly).

Джефф Ян – Hyperliquid Labs

Предыстория

Джефф Ян — соучредитель и генеральный директор Hyperliquid, децентрализованной биржи (DEX), которая управляет высокопроизводительной книгой ордеров для бессрочных фьючерсов и спотовой торговли. Hyperliquid приобрела известность в 2024 году благодаря своему аирдропу, управляемому сообществом, и отказу продавать акции венчурным капиталистам; Ян сохранил команду небольшой и самофинансируемой, чтобы сосредоточиться на продукте. Видение Hyperliquid — стать децентрализованным базовым уровнем для других финансовых продуктов, таких как токенизированные активы и стейблкоины.

Видение следующей главы DeFi

  • Эффективность вместо хайпа. На панели Token 2049 Ян сравнил DeFi с математической задачей; он утверждал, что рынки должны быть эффективными, где пользователи получают лучшие цены без скрытых спредов. Высокопроизводительная книга ордеров Hyperliquid призвана обеспечить эту эффективность.
  • Владение сообществом и анти-венчурная позиция. Ян считает, что успех DeFi должен измеряться ценностью, предоставляемой пользователям, а не выходом инвесторов. Hyperliquid отказалась от партнерства с частными маркет-мейкерами и листингов на централизованных биржах, чтобы избежать компрометации децентрализации. Этот подход соответствует этосу DeFi: протоколы должны принадлежать их сообществам и создаваться для долгосрочной полезности.
  • Фокус на инфраструктуре, а не на цене токена. Ян подчеркивает, что цель Hyperliquid — создание надежной технологии; улучшения продукта, такие как HIP‑3, направлены на снижение рисков dApp за счет автоматизированных аудитов и лучшей интеграции. Он избегает жестких дорожных карт, предпочитая адаптироваться к отзывам пользователей и технологическим изменениям. Эта адаптивность отражает более широкий сдвиг от спекуляций к зрелой инфраструктуре.
  • Видение безразрешительного финансового стека. Ян видит, как Hyperliquid превращается в фундаментальный уровень, на котором другие могут создавать стейблкоины, RWA и новые финансовые инструменты. Оставаясь децентрализованным и капиталоэффективным, он надеется создать нейтральный уровень, подобный децентрализованному Nasdaq.

Выводы

Перспектива Джеффа Яна подчеркивает эффективность рынка, владение, управляемое сообществом, и модульную инфраструктуру. Он видит следующую главу DeFi как фазу консолидации, в которой высокопроизводительные DEX становятся основой для токенизированных активов и доходных продуктов. Его отказ от венчурного финансирования сигнализирует о противодействии чрезмерным спекуляциям; в следующей главе протоколы могут отдавать приоритет устойчивости над громкими оценками.

Стани Кулехов – Aave Labs

Предыстория

Стани Кулехов основал Aave, один из первых протоколов денежного рынка и лидера в децентрализованном кредитовании. Рынки ликвидности Aave позволяют пользователям получать доход или занимать активы без посредников. К 2025 году TVL и набор продуктов Aave расширились, включив стейблкоины и недавно запущенный Family Wallet — фиат-крипто шлюз, дебютировавший на саммите Blockchain Ireland.

Видение следующей главы DeFi

  • Катализатор снижения ставок для «DeFi лета 2.0». На Token 2049 Кулехов утверждал, что падение процентных ставок вызовет новый бум DeFi, аналогичный 2020 году. Более низкие ставки создают арбитражные возможности, поскольку ончейн-доходность остается привлекательной по сравнению с TradFi, привлекая капитал в протоколы DeFi. Он вспоминает, что TVL DeFi подскочил с менее чем $1 миллиарда до $10 миллиардов во время снижения ставок в 2020 году и ожидает аналогичной динамики, когда денежно-кредитная политика ослабнет.
  • Интеграция с финтехом. Кулехов предвидит внедрение DeFi в основную финтех-инфраструктуру. Он планирует распределять ончейн-доходность через удобные для потребителя приложения и институциональные каналы, превращая DeFi в бэкэнд для сберегательных продуктов. Family Wallet является примером этого, предлагая бесшовные конвертации фиат-стейблкоинов и ежедневные платежи.
  • Реальные активы (RWA) и стейблкоины. Он рассматривает токенизированные реальные активы и стейблкоины как столпы будущего блокчейна. Стейблкоин GHO от Aave и инициативы RWA направлены на привязку доходности DeFi к залогам реальной экономики, преодолевая разрыв между крипто- и традиционными финансами.
  • Инновации, управляемые сообществом. Кулехов приписывает успех Aave своему сообществу и ожидает, что инновации, управляемые пользователями, будут двигать следующую фазу. Он предполагает, что DeFi сосредоточится на потребительских приложениях, которые абстрагируют сложность, сохраняя при этом децентрализацию.

Выводы

Стани Кулехов предвидит возвращение бычьего цикла DeFi, подпитываемого более низкими ставками и улучшенным пользовательским опытом. Он подчеркивает интеграцию с финтехом и реальными активами, предсказывая, что стейблкоины и токенизированные казначейские обязательства встроят доходность DeFi в повседневные финансовые продукты. Это отражает созревание от спекулятивного доходного фермерства до инфраструктуры, которая сосуществует с традиционными финансами.

Гай Янг – Ethena Labs

Предыстория

Гай Янг — генеральный директор Ethena Labs, создателя sUSDe, синтетического долларового стейблкоина, который использует дельта-нейтральные стратегии для предложения доходного доллара. Ethena привлекла внимание благодаря предоставлению привлекательной доходности при использовании залога USDT и коротких бессрочных позиций для хеджирования ценового риска. В 2025 году Ethena объявила об инициативах, таких как iUSDe, соответствующая требованиям обернутая версия для традиционных учреждений.

Видение следующей главы DeFi

  • Стейблкоины для сбережений и торгового обеспечения. Янг классифицирует варианты использования стейблкоинов на торговое обеспечение, сбережения для развивающихся стран, платежи и спекуляции. Ethena фокусируется на сбережениях и торговле, потому что доходность делает доллар привлекательным, а интеграция с биржами стимулирует внедрение. Он считает, что доходный доллар станет самым важным сберегательным активом в мире.
  • Нейтральные, платформенно-независимые стейблкоины. Янг утверждает, что стейблкоины должны быть нейтральными и широко приниматься на всех площадках; попытки бирж продвигать собственные стейблкоины вредят пользовательскому опыту. Использование USDT компанией Ethena увеличивает спрос на Tether, а не конкурирует с ним, демонстрируя синергию между стейблкоинами DeFi и существующими игроками.
  • Интеграция с TradFi и мессенджерами. Ethena планирует выпустить iUSDe с ограничениями на передачу для удовлетворения нормативных требований и интегрировать sUSDe в Telegram и Apple Pay, позволяя пользователям сберегать и тратить доходные доллары, как отправлять сообщения. Янг предполагает предоставление опыта, подобного необанку, миллиарду пользователей через мобильные приложения.
  • Переход к фундаментальным показателям и RWA. Он отмечает, что криптоспекуляции кажутся насыщенными — рыночная капитализация альткоинов достигла пика в $1,2 триллиона как в 2021, так и в 2024 году — поэтому инвесторы сосредоточатся на проектах с реальным доходом и токенизированных реальных активах. Стратегия Ethena по предоставлению доходности от офчейн-активов позиционирует ее для этого перехода.

Выводы

Перспектива Гая Янга сосредоточена на доходных стейблкоинах как на «убийственном приложении» DeFi. Он утверждает, что следующая глава DeFi включает в себя повышение продуктивности долларов и встраивание их в основные платежи и мессенджеры, привлекая миллиарды пользователей. Платформенно-независимый подход Ethena отражает убеждение, что стейблкоины DeFi должны дополнять, а не конкурировать с существующими системами. Он также предвидит переход от спекулятивных альткоинов к токенам, генерирующим доход, и RWA.

Хасиб Куреши – Dragonfly

Предыстория

Хасиб Куреши — управляющий партнер Dragonfly, венчурной фирмы, специализирующейся на крипто и DeFi. Куреши известен своими аналитическими статьями и участием в подкасте Chopping Block. В конце 2024 и начале 2025 года он опубликовал серию прогнозов, описывающих, как ИИ, стейблкоины и регуляторные изменения будут формировать криптоиндустрию.

Видение следующей главы DeFi

  • Кошельки и агенты на базе ИИ. Куреши предсказывает, что ИИ-агенты произведут революцию в криптоиндустрии, автоматизируя мосты, оптимизируя торговые маршруты, минимизируя комиссии и отводя пользователей от мошенничества. Он ожидает, что кошельки, управляемые ИИ, будут беспрепятственно обрабатывать кроссчейн-операции, снижая сложность, которая в настоящее время отпугивает обычных пользователей. Инструменты разработки с помощью ИИ также упростят создание смарт-контрактов, укрепляя доминирование EVM.
  • Токены ИИ-агентов против мем-коинов. Куреши считает, что токены, связанные с ИИ-агентами, превзойдут мем-коины в 2025 году, но предупреждает, что новизна исчезнет, а реальная ценность будет исходить от влияния ИИ на разработку программного обеспечения и торговлю. Он рассматривает нынешнее волнение как сдвиг от «финансового нигилизма к финансовому сверхоптимизму», предостерегая от чрезмерного хайпа вокруг чат-бот-коинов.
  • Сближение стейблкоинов и ИИ. В своих прогнозах на 2025 год Куреши выделяет шесть основных тем: (1) различие между сетями первого и второго уровня будет стираться по мере того, как инструменты ИИ расширят долю EVM; (2) распределение токенов изменится с крупных аирдропов на модели, основанные на метриках или краудфандинге; (3) принятие стейблкоинов резко возрастет, при этом банки будут выпускать свои собственные стейблкоины, а Tether сохранит доминирование; (4) ИИ-агенты будут доминировать в крипто-взаимодействиях, но их новизна может исчезнуть к 2026 году; (5) инструменты ИИ значительно снизят затраты на разработку, что позволит волне инноваций dApp и повысит безопасность; и (6) регуляторная ясность, особенно в США, ускорит массовое принятие.
  • Институциональное принятие и регуляторные сдвиги. Куреши ожидает, что компании из списка Fortune 100 будут предлагать криптоактивы потребителям при администрации Трампа и считает, что законодательство США о стейблкоинах будет принято, открывая путь для институционального участия. Обзор исследований Gate.io подтверждает это, отмечая, что ИИ-агенты будут использовать стейблкоины для одноранговых транзакций и что децентрализованное обучение ИИ ускорится.
  • DeFi как инфраструктура для финансов с поддержкой ИИ. В подкасте The Chopping Block Куреши назвал Hyperliquid «крупнейшим победителем» цикла 2024 года и предсказал, что токены DeFi покажут взрывной рост в 2025 году. Он объясняет это такими инновациями, как пулы ликвидности, которые делают децентрализованную торговлю бессрочными фьючерсами конкурентоспособной. Его бычий настрой в отношении DeFi проистекает из убеждения, что пользовательский опыт, основанный на ИИ, и регуляторная ясность привлекут капитал в ончейн-протоколы.

Выводы

Хасиб Куреши рассматривает следующую главу DeFi как сближение ИИ и ончейн-финансов. Он предвидит всплеск кошельков, управляемых ИИ, и автономных агентов, которые упростят взаимодействие с пользователями и привлекут новых участников. Однако он предупреждает, что ажиотаж вокруг ИИ может угаснуть; устойчивая ценность будет исходить от инструментов ИИ, снижающих затраты на разработку и повышающих безопасность. Он ожидает, что законодательство о стейблкоинах, институциональное принятие и распределение токенов, основанное на метриках, профессионализируют отрасль. В целом, он видит, как DeFi превращается в основу для финансовых услуг с поддержкой ИИ, соответствующих нормативным требованиям.

Сравнительный анализ

ИзмерениеДжефф Ян (Hyperliquid)Стани Кулехов (Aave)Гай Янг (Ethena)Хасиб Куреши (Dragonfly)
Основное вниманиеВысокопроизводительная инфраструктура DEX; владение сообществом; эффективностьДецентрализованное кредитование; интеграция с финтехом; реальные активыДоходные стейблкоины; торговое обеспечение; интеграция платежейИнвестиционная перспектива; ИИ-агенты; институциональное принятие
Ключевые факторы для следующей главыЭффективные рынки книг ордеров; модульный протокольный уровень для RWA и стейблкоиновСнижение ставок, стимулирующее приток капитала и «DeFi лето 2.0»; интеграция с финтехом и RWAНейтральные стейблкоины, генерирующие доход; интеграция с мессенджерами и TradFiКошельки и агенты на базе ИИ; регуляторная ясность; распределение токенов, основанное на метриках
Роль стейблкоиновЛежит в основе будущих слоев DeFi; поощряет децентрализованных эмитентовСтейблкоин GHO и токенизированные казначейские обязательства интегрируют доходность DeFi в основные финансовые продуктыsUSDe превращает доллары в доходные сбережения; iUSDe ориентирован на институтыБанки будут выпускать стейблкоины к концу 2025 года; ИИ-агенты будут использовать стейблкоины для транзакций
Взгляд на стимулы токеновОтклоняет венчурное финансирование и сделки с частными маркет-мейкерами для приоритета сообществаПодчеркивает инновации, управляемые сообществом; рассматривает токены DeFi как инфраструктуру для финтехаВыступает за платформенно-независимые стейблкоины, дополняющие существующие экосистемыПрогнозирует переход от крупных аирдропов к распределениям, основанным на KPI или краудфандинге
Перспективы регулирования и институтовМинимальное внимание к регулированию; подчеркивает децентрализацию и самофинансированиеВидит, что регуляторная ясность позволяет токенизацию RWA и институциональное использованиеРаботает над iUSDe с ограничениями на передачу для соответствия нормативным требованиямОжидает, что законодательство США о стейблкоинах и прокриптовая администрация ускорят принятие
Об ИИ и автоматизацииН/ПН/ПНе является центральным (хотя Ethena может использовать системы ИИ для управления рисками)ИИ-агенты будут доминировать в пользовательском опыте; новизна исчезнет к 2026 году

Заключение

Следующая глава DeFi, вероятно, будет сформирована эффективной инфраструктурой, доходными активами, интеграцией с традиционными финансами и пользовательским опытом, управляемым ИИ. Джефф Ян сосредоточен на создании высокопроизводительной, принадлежащей сообществу инфраструктуры DEX, которая может служить нейтральным базовым уровнем для токенизированных активов. Стани Кулехов ожидает, что более низкие процентные ставки, интеграция с финтехом и реальные активы катализируют новый бум DeFi. Гай Янг отдает приоритет доходным стейблкоинам и бесшовным платежам, продвигая DeFi в мессенджеры и традиционные банки. Хасиб Куреши предвидит, что ИИ-агенты трансформируют кошельки, а регуляторная ясность откроет институциональный капитал, одновременно предостерегая от чрезмерно раздутых нарративов о токенах ИИ.

В совокупности эти перспективы предполагают, что будущее DeFi выйдет за рамки спекулятивного фермерства и перейдет к зрелым, ориентированным на пользователя финансовым продуктам. Протоколы должны предоставлять реальную экономическую ценность, интегрироваться с существующими финансовыми системами и использовать технологические достижения, такие как ИИ и высокопроизводительные блокчейны. По мере сближения этих тенденций DeFi может развиться из нишевой экосистемы в глобальную, безразрешительную финансовую инфраструктуру.

MCP в экосистеме Web3: Всесторонний обзор

· 46 мин чтения
Dora Noda
Software Engineer

1. Определение и происхождение MCP в контексте Web3

Протокол контекста модели (MCP) — это открытый стандарт, который соединяет ИИ-помощников (таких как большие языковые модели) с внешними источниками данных, инструментами и средами. Часто описываемый как «порт USB-C для ИИ» из-за его универсальной природы «подключи и работай», MCP был разработан Anthropic и впервые представлен в конце ноября 2024 года. Он возник как решение для вывода ИИ-моделей из изоляции путем их безопасного соединения с «системами, где живут данные» — от баз данных и API до сред разработки и блокчейнов.

Изначально экспериментальный побочный проект в Anthropic, MCP быстро набрал обороты. К середине 2024 года появились эталонные реализации с открытым исходным кодом, а к началу 2025 года он стал стандартом де-факто для интеграции агентного ИИ, с ведущими ИИ-лабораториями (OpenAI, Google DeepMind, Meta AI), принявшими его нативно. Это быстрое внедрение было особенно заметно в сообществе Web3. Блокчейн-разработчики увидели в MCP способ внедрения ИИ-возможностей в децентрализованные приложения, что привело к распространению созданных сообществом MCP-коннекторов для ончейн-данных и сервисов. Фактически, некоторые аналитики утверждают, что MCP может реализовать первоначальное видение Web3 о децентрализованном, ориентированном на пользователя интернете более практичным способом, чем один только блокчейн, используя интерфейсы на естественном языке для расширения возможностей пользователей.

В итоге, MCP не является блокчейном или токеном, а представляет собой открытый протокол, родившийся в мире ИИ, который быстро был принят в экосистеме Web3 как мост между ИИ-агентами и децентрализованными источниками данных. Anthropic открыл исходный код стандарта (с первоначальной спецификацией GitHub и SDK) и сформировал вокруг него открытое сообщество. Этот подход, управляемый сообществом, подготовил почву для интеграции MCP в Web3, где он теперь рассматривается как фундаментальная инфраструктура для децентрализованных приложений с поддержкой ИИ.

2. Техническая архитектура и основные протоколы

MCP работает на легковесной клиент-серверной архитектуре с тремя основными ролями:

  • Хост MCP: Само ИИ-приложение или агент, которое оркестрирует запросы. Это может быть чат-бот (Claude, ChatGPT) или ИИ-приложение, которому нужны внешние данные. Хост инициирует взаимодействия, запрашивая инструменты или информацию через MCP.
  • Клиент MCP: Компонент-коннектор, который хост использует для связи с серверами. Клиент поддерживает соединение, управляет обменом запросами/ответами и может обрабатывать несколько серверов параллельно. Например, инструмент разработчика, такой как Cursor или агентный режим VS Code, может выступать в качестве клиента MCP, соединяющего локальную ИИ-среду с различными серверами MCP.
  • Сервер MCP: Сервис, который предоставляет ИИ некоторые контекстные данные или функциональность. Серверы предоставляют инструменты, ресурсы или подсказки, которые ИИ может использовать. На практике, сервер MCP может взаимодействовать с базой данных, облачным приложением или блокчейн-нодой и представлять стандартизированный набор операций для ИИ. Каждая пара клиент-сервер общается по своему собственному каналу, поэтому ИИ-агент может одновременно подключаться к нескольким серверам для различных нужд.

Основные примитивы: MCP определяет набор стандартных типов сообщений и примитивов, которые структурируют взаимодействие ИИ-инструмента. Три фундаментальных примитива:

  • Инструменты: Дискретные операции или функции, которые ИИ может вызывать на сервере. Например, инструмент «searchDocuments» или инструмент «eth_call». Инструменты инкапсулируют действия, такие как запрос API, выполнение вычисления или вызов функции смарт-контракта. Клиент MCP может запросить список доступных инструментов у сервера и вызывать их по мере необходимости.
  • Ресурсы: Конечные точки данных, которые ИИ может считывать (или иногда записывать) через сервер. Это могут быть файлы, записи базы данных, состояние блокчейна (блоки, транзакции) или любые контекстные данные. ИИ может перечислять ресурсы и получать их содержимое через стандартные сообщения MCP (например, запросы ListResources и ReadResource).
  • Подсказки: Структурированные шаблоны подсказок или инструкции, которые серверы могут предоставлять для направления рассуждений ИИ. Например, сервер может предоставить шаблон форматирования или предопределенный запрос. ИИ может запросить список шаблонов подсказок и использовать их для поддержания согласованности в своем взаимодействии с этим сервером.

Под капотом, коммуникации MCP обычно основаны на JSON и следуют шаблону запрос-ответ, похожему на RPC (удаленный вызов процедур). Спецификация протокола определяет сообщения, такие как InitializeRequest, ListTools, CallTool, ListResources и т. д., которые гарантируют, что любой MCP-совместимый клиент может взаимодействовать с любым MCP-сервером унифицированным образом. Эта стандартизация позволяет ИИ-агенту обнаруживать, что он может делать: при подключении к новому серверу он может спросить: «Какие инструменты и данные вы предлагаете?» и затем динамически решить, как их использовать.

Модель безопасности и выполнения: MCP был разработан с учетом безопасных, контролируемых взаимодействий. Сама ИИ-модель не выполняет произвольный код; она отправляет высокоуровневые намерения (через клиент) на сервер, который затем выполняет фактическую операцию (например, извлечение данных или вызов API) и возвращает результаты. Это разделение означает, что конфиденциальные действия (такие как блокчейн-транзакции или записи в базу данных) могут быть изолированы или требовать явного одобрения пользователя. Например, существуют сообщения, такие как Ping (для поддержания соединений в активном состоянии) и даже CreateMessageRequest, которое позволяет серверу MCP попросить ИИ клиента сгенерировать под-ответ, обычно ограниченный подтверждением пользователя. Функции, такие как аутентификация, контроль доступа и аудит, активно разрабатываются для обеспечения безопасного использования MCP в корпоративных и децентрализованных средах (подробнее об этом в разделе «Дорожная карта»).

Таким образом, архитектура MCP основана на стандартизированном протоколе сообщений (с вызовами в стиле JSON-RPC), который соединяет ИИ-агентов (хостов) с гибким набором серверов, предоставляющих инструменты, данные и действия. Эта открытая архитектура независима от модели и независима от платформы — любой ИИ-агент может использовать MCP для взаимодействия с любым ресурсом, и любой разработчик может создать новый сервер MCP для источника данных без необходимости изменять основной код ИИ. Эта расширяемость по принципу «подключи и работай» делает MCP мощным в Web3: можно создавать серверы для блокчейн-нод, смарт-контрактов, кошельков или оракулов и бесшовно интегрировать эти возможности ИИ-агентами наряду с Web2 API.

3. Варианты использования и приложения MCP в Web3

MCP открывает широкий спектр вариантов использования, позволяя приложениям, управляемым ИИ, получать доступ к данным блокчейна и выполнять ончейн- или офчейн-действия безопасным, высокоуровневым способом. Вот некоторые ключевые приложения и проблемы, которые он помогает решить в домене Web3:

  • Анализ и запросы данных в блокчейне: ИИ-агенты могут запрашивать текущее состояние блокчейна в реальном времени для предоставления аналитики или запуска действий. Например, MCP-сервер, подключенный к ноде Ethereum, позволяет ИИ получать балансы счетов, считывать хранилище смарт-контрактов, отслеживать транзакции или получать журналы событий по запросу. Это превращает чат-бота или помощника по кодированию в блокчейн-обозреватель. Разработчики могут задавать ИИ-помощнику вопросы, такие как «Какова текущая ликвидность в пуле Uniswap X?» или «Смоделируйте стоимость газа этой транзакции Ethereum», и ИИ будет использовать инструменты MCP для вызова RPC-ноды и получения ответа из живой цепочки. Это гораздо мощнее, чем полагаться на обучающие данные ИИ или статические снимки.
  • Автоматизированное управление портфелем DeFi: Объединяя доступ к данным и инструменты для действий, ИИ-агенты могут управлять криптопортфелями или позициями DeFi. Например, «Оптимизатор хранилища ИИ» может отслеживать позиции пользователя в фарминговых пулах и автоматически предлагать или выполнять стратегии ребалансировки на основе рыночных условий в реальном времени. Аналогично, ИИ может выступать в качестве менеджера портфеля DeFi, корректируя распределение между протоколами при изменении риска или ставок. MCP предоставляет стандартный интерфейс для ИИ для чтения ончейн-метрик (цены, ликвидность, коэффициенты обеспечения) и затем вызова инструментов для выполнения транзакций (таких как перемещение средств или обмен активов), если это разрешено. Это может помочь пользователям максимизировать доходность или управлять риском 24/7 таким образом, что было бы трудно сделать вручную.
  • Пользовательские агенты на базе ИИ для транзакций: Представьте себе персонального ИИ-помощника, который может обрабатывать блокчейн-взаимодействия для пользователя. С помощью MCP такой агент может интегрироваться с кошельками и DApps для выполнения задач с помощью команд на естественном языке. Например, пользователь может сказать: «ИИ, отправь 0,5 ETH с моего кошелька Алисе» или «Застейкай мои токены в пуле с самой высокой APY». ИИ, через MCP, будет использовать безопасный сервер кошелька (хранящий приватный ключ пользователя) для создания и подписи транзакции, а также блокчейн-сервер MCP для ее трансляции. Этот сценарий превращает сложные взаимодействия через командную строку или Metamask в разговорный опыт. Крайне важно, чтобы здесь использовались безопасные MCP-серверы кошельков, обеспечивающие разрешения и подтверждения, но конечным результатом является упрощение ончейн-транзакций с помощью ИИ.
  • Помощники разработчиков и отладка смарт-контрактов: Разработчики Web3 могут использовать ИИ-помощников на базе MCP, которые осведомлены об инфраструктуре блокчейна. Например, MCP-серверы Chainstack для EVM и Solana предоставляют ИИ-помощникам для кодирования глубокую видимость в блокчейн-среду разработчика. Инженер по смарт-контрактам, использующий ИИ-помощника (в VS Code или IDE), может попросить ИИ получить текущее состояние контракта в тестовой сети, запустить симуляцию транзакции или проверить журналы — все это через вызовы MCP к локальным блокчейн-нодам. Это помогает в отладке и тестировании контрактов. ИИ больше не кодирует «вслепую»; он может фактически проверять, как код ведет себя в блокчейне в реальном времени. Этот вариант использования решает серьезную проблему, позволяя ИИ постоянно получать актуальную документацию (через MCP-сервер документации) и напрямую запрашивать блокчейн, уменьшая галлюцинации и делая предложения гораздо более точными.
  • Межпротокольная координация: Поскольку MCP является унифицированным интерфейсом, один ИИ-агент может координировать работу нескольких протоколов и сервисов одновременно — что чрезвычайно мощно в взаимосвязанном ландшафте Web3. Представьте себе автономного торгового агента, который отслеживает различные DeFi-платформы на предмет арбитража. Через MCP один агент может одновременно взаимодействовать с рынками кредитования Aave, кроссчейн-мостом LayerZero и аналитическим сервисом MEV (Miner Extractable Value), все через согласованный интерфейс. ИИ мог бы в одном «мыслительном процессе» собирать данные о ликвидности из Ethereum (через MCP-сервер на ноде Ethereum), получать информацию о ценах или данные оракулов (через другой сервер) и даже вызывать операции моста или обмена. Ранее такая многоплатформенная координация требовала бы сложных пользовательских ботов, но MCP предоставляет обобщенный способ для ИИ навигировать по всей экосистеме Web3, как если бы это был один большой пул данных/ресурсов. Это может позволить использовать передовые варианты использования, такие как кроссчейн-оптимизация доходности или автоматизированная защита от ликвидации, где ИИ проактивно перемещает активы или обеспечение между цепочками.
  • ИИ-боты для консультаций и поддержки: Еще одна категория — это пользовательские консультанты в криптоприложениях. Например, чат-бот помощи DeFi, интегрированный в платформу, такую как Uniswap или Compound, мог бы использовать MCP для получения информации в реальном времени для пользователя. Если пользователь спрашивает: «Как лучше всего хеджировать мою позицию?», ИИ может получить текущие ставки, данные о волатильности и детали портфеля пользователя через MCP, а затем дать контекстно-ориентированный ответ. Платформы изучают ИИ-помощников, встроенных в кошельки или dApps, которые могут направлять пользователей через сложные транзакции, объяснять риски и даже выполнять последовательности шагов с одобрения. Эти ИИ-агенты эффективно располагаются поверх нескольких сервисов Web3 (DEX, пулы кредитования, страховые протоколы), используя MCP для запроса и управления ими по мере необходимости, тем самым упрощая пользовательский опыт.
  • За пределами Web3 – Многодоменные рабочие процессы: Хотя наше внимание сосредоточено на Web3, стоит отметить, что варианты использования MCP распространяются на любую область, где ИИ нужны внешние данные. Он уже используется для подключения ИИ к таким вещам, как Google Drive, Slack, GitHub, Figma и многим другим. На практике один ИИ-агент может охватывать Web3 и Web2: например, анализировать финансовую модель Excel из Google Drive, затем предлагать ончейн-транзакции на основе этого анализа, все в одном рабочем процессе. Гибкость MCP позволяет автоматизировать кросс-доменные задачи (например, «запланировать мою встречу, если мое голосование DAO пройдет, и отправить результаты по электронной почте»), которые сочетают блокчейн-действия с повседневными инструментами.

Решенные проблемы: Главная проблема, которую решает MCP, — это отсутствие унифицированного интерфейса для взаимодействия ИИ с актуальными данными и сервисами. До MCP, если вы хотели, чтобы ИИ использовал новый сервис, вам приходилось вручную кодировать плагин или интеграцию для API этого конкретного сервиса, часто специальным образом. В Web3 это было особенно громоздко — каждый блокчейн или протокол имеет свои собственные интерфейсы, и ни один ИИ не мог надеяться поддерживать их все. MCP решает эту проблему, стандартизируя то, как ИИ описывает, что он хочет (естественный язык, сопоставленный с вызовами инструментов), и как сервисы описывают, что они предлагают. Это значительно сокращает объем интеграционной работы. Например, вместо написания пользовательского плагина для каждого протокола DeFi, разработчик может написать один MCP-сервер для этого протокола (по сути, аннотируя его функции на естественном языке). Любой ИИ с поддержкой MCP (будь то Claude, ChatGPT или модели с открытым исходным кодом) может немедленно использовать его. Это делает ИИ расширяемым по принципу «подключи и работай», подобно тому, как добавление нового устройства через универсальный порт проще, чем установка новой интерфейсной карты.

В итоге, MCP в Web3 позволяет ИИ-агентам стать полноправными гражданами мира блокчейна — запрашивать, анализировать и даже совершать транзакции в децентрализованных системах, все через безопасные, стандартизированные каналы. Это открывает двери для более автономных dApps, более умных пользовательских агентов и бесшовной интеграции ончейн- и офчейн-интеллекта.

4. Токеномика и модель управления

В отличие от типичных протоколов Web3, MCP не имеет собственного токена или криптовалюты. Он не является блокчейном или децентрализованной сетью сам по себе, а скорее открытой спецификацией протокола (по духу ближе к HTTP или JSON-RPC). Таким образом, нет встроенной токеномики — нет выпуска токенов, стейкинга или модели комиссий, присущих использованию MCP. ИИ-приложения и серверы общаются через MCP без участия какой-либо криптовалюты; например, ИИ, вызывающий блокчейн через MCP, может платить комиссии за газ для блокчейн-транзакции, но сам MCP не добавляет никаких дополнительных комиссий за токены. Этот дизайн отражает происхождение MCP в сообществе ИИ: он был представлен как технический стандарт для улучшения взаимодействия ИИ-инструментов, а не как токенизированный проект.

Управление MCP осуществляется открытым, управляемым сообществом способом. После выпуска MCP в качестве открытого стандарта Anthropic заявил о приверженности совместной разработке. Был сформирован широкий руководящий комитет и рабочие группы для управления развитием протокола. Примечательно, что к середине 2025 года крупные заинтересованные стороны, такие как Microsoft и GitHub, присоединились к руководящему комитету MCP наряду с Anthropic. Об этом было объявлено на Microsoft Build 2025, что указывает на коалицию игроков отрасли, направляющих дорожную карту и решения по стандартам MCP. Комитет и сопровождающие работают через открытый процесс управления: предложения по изменению или расширению MCP обычно обсуждаются публично (например, через проблемы GitHub и руководства по «SEP» — Предложениям по улучшению стандарта). Существует также рабочая группа по Реестру MCP (с сопровождающими из таких компаний, как Block, PulseMCP, GitHub и Anthropic), которая демонстрирует многостороннее управление. В начале 2025 года участники из по крайней мере 9 различных организаций сотрудничали для создания унифицированного реестра серверов MCP для обнаружения, демонстрируя, как разработка децентрализована среди членов сообщества, а не контролируется одной сущностью.

Поскольку токена нет, стимулы управления основаны на общих интересах заинтересованных сторон (ИИ-компаний, облачных провайдеров, блокчейн-разработчиков и т. д.) по улучшению протокола для всех. Это в некоторой степени аналогично тому, как управляются стандарты W3C или IETF, но с более быстрым процессом, ориентированным на GitHub. Например, Microsoft и Anthropic работали вместе над разработкой улучшенной спецификации авторизации для MCP (интегрируя такие вещи, как OAuth и единый вход), а GitHub сотрудничал над официальным сервисом Реестра MCP для перечисления доступных серверов. Эти улучшения были внесены обратно в спецификацию MCP на всеобщее благо.

Стоит отметить, что хотя сам MCP не токенизирован, существуют перспективные идеи о наложении экономических стимулов и децентрализации поверх MCP. Некоторые исследователи и лидеры мнений в Web3 предвидят появление «сетей MCP» — по сути, децентрализованных сетей серверов и агентов MCP, которые используют блокчейн-подобные механизмы для обнаружения, доверия и вознаграждений. В таком сценарии можно представить, что токен будет использоваться для вознаграждения тех, кто управляет высококачественными серверами MCP (подобно тому, как стимулируются майнеры или операторы нод). Такие возможности, как рейтинги репутации, проверяемые вычисления и обнаружение нод, могут быть облегчены смарт-контрактами или блокчейном, при этом токен будет стимулировать честное поведение. Это все еще концептуально, но такие проекты, как Namda от MIT (обсуждаемый позже), экспериментируют с механизмами стимулирования на основе токенов для сетей ИИ-агентов, использующих MCP. Если эти идеи созреют, MCP может более прямо пересекаться с ончейн-токеномикой, но по состоянию на 2025 год основной стандарт MCP остается без токенов.

Таким образом, «модель управления» MCP — это модель открытого технологического стандарта: совместно поддерживаемого сообществом и руководящим комитетом экспертов, без ончейн-токена управления. Решения принимаются на основе технических достоинств и широкого консенсуса, а не голосования, взвешенного по количеству монет. Это отличает MCP от многих протоколов Web3 — он стремится реализовать идеалы Web3 (децентрализация, интероперабельность, расширение прав и возможностей пользователей) через открытое программное обеспечение и стандарты, а не через проприетарный блокчейн или токен. По словам одного из аналитиков, «обещание Web3... наконец-то может быть реализовано не через блокчейн и криптовалюту, а через естественный язык и ИИ-агентов», позиционируя MCP как ключевой фактор этого видения. Тем не менее, по мере роста сетей MCP мы можем увидеть гибридные модели, где блокчейн-управление или механизмы стимулирования дополняют экосистему — за этим стоит внимательно следить.

5. Сообщество и экосистема

Экосистема MCP стремительно выросла за короткое время, охватывая ИИ-разработчиков, участников открытого исходного кода, Web3-инженеров и крупные технологические компании. Это активное усилие сообщества, с ключевыми участниками и партнерствами, включая:

  • Anthropic: Как создатель, Anthropic заложил основу экосистемы, открыв исходный код спецификации MCP и нескольких эталонных серверов (для Google Drive, Slack, GitHub и т. д.). Anthropic продолжает лидировать в разработке (например, сотрудники, такие как Теодора Чу, выступают в качестве менеджеров по продуктам MCP, а команда Anthropic активно участвует в обновлениях спецификаций и поддержке сообщества). Открытость Anthropic привлекла других к созданию на базе MCP, а не к рассмотрению его как инструмента одной компании.

  • Ранние пользователи (Block, Apollo, Zed, Replit, Codeium, Sourcegraph): В первые месяцы после выпуска волна ранних пользователей внедрила MCP в свои продукты. Block (ранее Square) интегрировал MCP для изучения агентных ИИ-систем в финтехе — технический директор Block высоко оценил MCP как открытый мост, соединяющий ИИ с реальными приложениями. Apollo (вероятно, Apollo GraphQL) также интегрировал MCP, чтобы позволить ИИ доступ к внутренним данным. Компании-разработчики инструментов, такие как Zed (редактор кода), Replit (облачная IDE), Codeium (ИИ-помощник для кодирования) и Sourcegraph (поиск кода), каждая работали над добавлением поддержки MCP. Например, Sourcegraph использует MCP, чтобы ИИ-помощник для кодирования мог извлекать соответствующий код из репозитория в ответ на вопрос, а агенты IDE Replit могут получать контекст, специфичный для проекта. Эти ранние пользователи придали MCP авторитет и видимость.

  • Поддержка крупных технологических компаний – OpenAI, Microsoft, Google: Примечательно, что компании, которые в противном случае являются конкурентами, объединились вокруг MCP. Генеральный директор OpenAI Сэм Альтман публично объявил в марте 2025 года, что OpenAI добавит поддержку MCP во все свои продукты (включая десктопное приложение ChatGPT), заявив: «Люди любят MCP, и мы рады добавить поддержку во все наши продукты». Это означало, что Agent API OpenAI и плагины ChatGPT будут использовать MCP, обеспечивая интероперабельность. Всего через несколько недель генеральный директор Google DeepMind Демис Хассабис сообщил, что предстоящие модели и инструменты Gemini от Google будут поддерживать MCP, назвав его хорошим протоколом и открытым стандартом для «эры ИИ-агентов». Microsoft не только присоединилась к руководящему комитету, но и сотрудничала с Anthropic для создания официального C# SDK для MCP, чтобы обслуживать сообщество корпоративных разработчиков. Подразделение GitHub от Microsoft интегрировало MCP в GitHub Copilot (режим «Copilot Labs/Agents» в VS Code), позволяя Copilot использовать серверы MCP для таких вещей, как поиск по репозиториям и запуск тестовых случаев. Кроме того, Microsoft объявила, что Windows 11 будет предоставлять определенные функции ОС (например, доступ к файловой системе) в качестве серверов MCP, чтобы ИИ-агенты могли безопасно взаимодействовать с операционной системой. Сотрудничество между OpenAI, Microsoft, Google и Anthropic — все они объединились вокруг MCP — является экстраординарным и подчеркивает этику сообщества, а не конкуренции, этого стандарта.

  • Сообщество Web3-разработчиков: Ряд блокчейн-разработчиков и стартапов приняли MCP. Было создано несколько управляемых сообществом MCP-серверов для обслуживания вариантов использования блокчейна:

    • Команда Alchemy (ведущего поставщика блокчейн-инфраструктуры) создала MCP-сервер Alchemy, который предлагает инструменты блокчейн-аналитики по запросу через MCP. Это, вероятно, позволяет ИИ получать статистику блокчейна (например, исторические транзакции, активность адресов) через API Alchemy, используя естественный язык.
    • Участники разработали MCP-сервер Bitcoin и Lightning Network для взаимодействия с нодами Bitcoin и платежной сетью Lightning, позволяя ИИ-агентам читать данные блоков Bitcoin или даже создавать счета Lightning через стандартные инструменты.
    • Криптомедиа и образовательная группа Bankless создала Onchain MCP-сервер, ориентированный на финансовые взаимодействия Web3, возможно, предоставляя интерфейс для протоколов DeFi (отправка транзакций, запрос позиций DeFi и т. д.) для ИИ-помощников.
    • Проекты, такие как Rollup.codes (база знаний для Ethereum Layer 2), создали MCP-сервер для информации об экосистеме роллапов, чтобы ИИ мог отвечать на технические вопросы о роллапах, запрашивая этот сервер.
    • Chainstack, поставщик блокчейн-нод, запустил набор MCP-серверов (упомянутых ранее) для документации, данных цепочки EVM и Solana, явно позиционируя его как «установку вашего ИИ на блокчейн-стероиды» для Web3-разработчиков.

    Кроме того, вокруг MCP возникли сообщества, ориентированные на Web3. Например, PulseMCP и Goose упоминаются как инициативы сообщества, помогающие создавать реестр MCP. Мы также наблюдаем перекрестное опыление с фреймворками ИИ-агентов: сообщество LangChain интегрировало адаптеры, так что все серверы MCP могут использоваться в качестве инструментов в агентах на базе LangChain, а платформы ИИ с открытым исходным кодом, такие как Hugging Face TGI (вывод текста), изучают совместимость с MCP. Результатом является богатая экосистема, где новые серверы MCP объявляются почти ежедневно, обслуживая все — от баз данных до устройств IoT.

  • Масштаб внедрения: Тягу можно в некоторой степени количественно оценить. К февралю 2025 года — всего через три месяца после запуска — сообществом было создано более 1000 серверов/коннекторов MCP. Это число только выросло, что указывает на тысячи интеграций в различных отраслях. Майк Кригер (директор по продуктам Anthropic) отметил к весне 2025 года, что MCP стал «процветающим открытым стандартом с тысячами интеграций и растущим числом». Официальный Реестр MCP (запущенный в предварительной версии в сентябре 2025 года) каталогизирует общедоступные серверы, облегчая обнаружение инструментов; открытый API реестра позволяет любому искать, например, «Ethereum» или «Notion» и находить соответствующие MCP-коннекторы. Это снижает барьер для новых участников и еще больше стимулирует рост.

  • Партнерства: Мы уже упоминали многие неявные партнерства (Anthropic с Microsoft и т. д.). Чтобы выделить еще несколько:

    • Anthropic и Slack: Anthropic сотрудничал со Slack для интеграции Claude с данными Slack через MCP (Slack имеет официальный сервер MCP, позволяющий ИИ получать сообщения Slack или публиковать оповещения).
    • Облачные провайдеры: Amazon (AWS) и Google Cloud работали с Anthropic над размещением Claude, и, вероятно, они поддерживают MCP в этих средах (например, AWS Bedrock может разрешать MCP-коннекторы для корпоративных данных). Хотя это явно не указано в цитатах, эти облачные партнерства важны для корпоративного внедрения.
    • Академическое сотрудничество: Исследовательский проект MIT и IBM Namda (обсуждаемый далее) представляет собой партнерство между академией и промышленностью для расширения границ MCP в децентрализованных условиях.
    • GitHub и VS Code: Партнерство для улучшения опыта разработчиков — например, команда VS Code активно участвовала в разработке MCP (один из сопровождающих реестра — из команды VS Code).
    • Многочисленные стартапы: Многие ИИ-стартапы (стартапы по агентам, стартапы по автоматизации рабочих процессов) строят свои решения на базе MCP вместо того, чтобы изобретать велосипед. Это включает новые Web3 ИИ-стартапы, стремящиеся предлагать «ИИ как DAO» или автономных экономических агентов.

В целом, сообщество MCP разнообразно и быстро расширяется. Оно включает основные технологические компании (для стандартов и базовых инструментов), Web3-специалистов (привносящих знания о блокчейне и варианты использования) и независимых разработчиков (которые часто вносят коннекторы для своих любимых приложений или протоколов). Этика — это сотрудничество. Например, проблемы безопасности сторонних серверов MCP вызвали обсуждения в сообществе и вклад в лучшие практики (например, участники Stacklok работают над инструментами безопасности для серверов MCP). Способность сообщества быстро итерировать (MCP претерпел несколько обновлений спецификаций в течение нескольких месяцев, добавив такие функции, как потоковая передача ответов и улучшенная аутентификация) является свидетельством широкого участия.

В экосистеме Web3, в частности, MCP способствовал формированию мини-экосистемы проектов «ИИ + Web3». Это не просто протокол для использования; он катализирует новые идеи, такие как DAO, управляемые ИИ, ончейн-управление, поддерживаемое ИИ-анализом, и кросс-доменная автоматизация (например, связывание ончейн-событий с офчейн-действиями через ИИ). Присутствие ключевых фигур Web3 — например, Живко Тодорова из LimeChain, заявившего: «MCP представляет собой неизбежную интеграцию ИИ и блокчейна» — показывает, что ветераны блокчейна активно его поддерживают. Партнерства между ИИ- и блокчейн-компаниями (такие как между Anthropic и Block, или облако Microsoft Azure, упрощающее развертывание MCP наряду с его блокчейн-сервисами) намекают на будущее, где ИИ-агенты и смарт-контракты будут работать рука об руку.

Можно сказать, что MCP зажег первое подлинное сближение сообщества ИИ-разработчиков с сообществом Web3-разработчиков. Хакатоны и митапы теперь включают треки MCP. В качестве конкретной меры внедрения экосистемы: к середине 2025 года OpenAI, Google и Anthropic — совместно представляющие большинство передовых моделей ИИ — все поддерживают MCP, а с другой стороны, ведущие поставщики блокчейн-инфраструктуры (Alchemy, Chainstack), криптокомпании (Block и т. д.) и децентрализованные проекты создают MCP-хуки. Этот двусторонний сетевой эффект предвещает, что MCP станет долгосрочным стандартом.

6. Дорожная карта и этапы развития

Развитие MCP было стремительным. Здесь мы описываем основные вехи на данный момент и дорожную карту на будущее, полученные из официальных источников и обновлений сообщества:

  • Конец 2024 года – Первоначальный выпуск: 25 ноября 2024 года Anthropic официально объявил о MCP и открыл исходный код спецификации и первоначальных SDK. Наряду со спецификацией они выпустили несколько реализаций MCP-серверов для общих инструментов (Google Drive, Slack, GitHub и т. д.) и добавили поддержку в ИИ-помощнике Claude (приложение Claude Desktop) для подключения к локальным MCP-серверам. Это ознаменовало запуск MCP 1.0. Ранние пилотные интеграции в Anthropic показали, как Claude может использовать MCP для чтения файлов или запроса базы данных SQL на естественном языке, подтверждая концепцию.
  • 1 квартал 2025 года – Быстрое внедрение и итерации: В первые несколько месяцев 2025 года MCP получил широкое распространение в отрасли. К марту 2025 года OpenAI и другие поставщики ИИ объявили о поддержке (как описано выше). В этот период также произошла эволюция спецификации: Anthropic обновил MCP, включив возможности потоковой передачи (позволяя отправлять большие результаты или непрерывные потоки данных инкрементально). Это обновление было отмечено в апреле 2025 года новостями о C# SDK, что указывает на то, что MCP теперь поддерживает такие функции, как фрагментированные ответы или интеграция с потоками в реальном времени. Сообщество также создало эталонные реализации на различных языках (Python, JavaScript и т. д.) помимо SDK Anthropic, обеспечивая многоязычную поддержку.
  • 2 квартал 2025 года – Инструменты экосистемы и управление: В мае 2025 года, когда Microsoft и GitHub присоединились к усилиям, был сделан акцент на формализации управления и повышении безопасности. На Build 2025 Microsoft представила планы по интеграции MCP в Windows 11 и подробно описала сотрудничество по улучшению потоков авторизации в MCP. Примерно в то же время была представлена идея Реестра MCP для индексации доступных серверов (первоначальный мозговой штурм начался в марте 2025 года, согласно блогу реестра). Процесс «стандартизации» (SEP — Предложения по улучшению стандарта) был установлен на GitHub, аналогично EIP Ethereum или PEP Python, для упорядоченного управления вкладами. Начали собираться звонки сообщества и рабочие группы (по безопасности, реестру, SDK).
  • Середина 2025 года – Расширение функционала: К середине 2025 года дорожная карта приоритезировала несколько ключевых улучшений:
    • Поддержка асинхронных и длительных задач: Планы по обеспечению обработки MCP длительных операций без блокировки соединения. Например, если ИИ запускает облачное задание, которое занимает минуты, протокол MCP будет поддерживать асинхронные ответы или переподключение для получения результатов.
    • Аутентификация и детальная безопасность: Разработка механизмов детальной авторизации для конфиденциальных действий. Это включает возможное интегрирование потоков OAuth, ключей API и корпоративного SSO в серверы MCP, чтобы доступ ИИ мог безопасно управляться. К середине 2025 года были в процессе разработки руководства и лучшие практики по безопасности MCP, учитывая риски безопасности, связанные с разрешением ИИ вызывать мощные инструменты. Цель состоит в том, чтобы, например, если ИИ должен получить доступ к частной базе данных пользователя через MCP, он следовал безопасному потоку авторизации (с согласия пользователя), а не просто открытой конечной точке.
    • Валидация и тестирование на соответствие: Признавая необходимость в надежности, сообщество приоритезировало создание наборов тестов на соответствие и эталонных реализаций. Обеспечивая соблюдение спецификации всеми клиентами/серверами MCP (через автоматизированное тестирование), они стремились предотвратить фрагментацию. Эталонный сервер (вероятно, пример с лучшими практиками для удаленного развертывания и аутентификации) был в дорожной карте, как и эталонное клиентское приложение, демонстрирующее полное использование MCP с ИИ.
    • Поддержка мультимодальности: Расширение MCP за пределы текста для поддержки модальностей, таких как изображения, аудио, видео данные в контексте. Например, ИИ может запросить изображение у сервера MCP (скажем, дизайнерский актив или диаграмму) или вывести изображение. Обсуждение спецификации включало добавление поддержки потоковой передачи и фрагментированных сообщений для интерактивной обработки большого мультимедийного контента. Ранняя работа над «MCP Streaming» уже велась (для поддержки таких вещей, как потоки живого аудио или непрерывные данные датчиков для ИИ).
    • Центральный реестр и обнаружение: План по реализации центрального сервиса Реестра MCP для обнаружения серверов был выполнен в середине 2025 года. К сентябрю 2025 года был запущен официальный Реестр MCP (предварительная версия). Этот реестр предоставляет единый источник истины для общедоступных серверов MCP, позволяя клиентам находить серверы по имени, категории или возможностям. По сути, это как магазин приложений (но открытый) для ИИ-инструментов. Дизайн позволяет использовать публичные реестры (глобальный индекс) и частные (специфичные для предприятий), все они интероперабельны через общий API. Реестр также представил механизм модерации для пометки или удаления вредоносных серверов, с моделью модерации сообщества для поддержания качества.
  • Конец 2025 года и далее – К децентрализованным сетям MCP: Хотя это еще не «официальные» пункты дорожной карты, траектория указывает на большую децентрализацию и синергию с Web3:
    • Исследователи активно изучают, как добавить децентрализованные слои обнаружения, репутации и стимулирования к MCP. Концепция Сети MCP (или «рынка конечных точек MCP») находится в стадии инкубации. Это может включать реестры на основе смарт-контрактов (чтобы не было единой точки отказа для списков серверов), системы репутации, где серверы/клиенты имеют ончейн-идентификаторы и стейк для добросовестного поведения, и, возможно, токен-вознаграждения за запуск надежных нод MCP.
    • Проект Namda в MIT, начатый в 2024 году, является конкретным шагом в этом направлении. К 2025 году Namda построила прототип распределенной агентной среды на основе MCP, включая такие функции, как динамическое обнаружение нод, балансировка нагрузки между кластерами агентов и децентрализованный реестр с использованием блокчейн-технологий. Они даже имеют экспериментальные стимулы на основе токенов и отслеживание происхождения для многоагентного сотрудничества. Вехи Namda показывают, что возможно создать сеть агентов MCP, работающих на многих машинах с бездоверительной координацией. Если концепции Namda будут приняты, мы можем увидеть, как MCP эволюционирует, чтобы включить некоторые из этих идей (возможно, через необязательные расширения или отдельные протоколы, наложенные сверху).
    • Укрепление для предприятий: Что касается корпоративного сектора, к концу 2025 года мы ожидаем, что MCP будет интегрирован в основные корпоративные программные предложения (включение Microsoft в Windows и Azure является одним из примеров). Дорожная карта включает функции, удобные для предприятий, такие как интеграция SSO для серверов MCP и надежные средства контроля доступа. Общая доступность Реестра MCP и наборов инструментов для развертывания MCP в масштабе (например, внутри корпоративной сети) ожидается к концу 2025 года.

Чтобы подытожить некоторые ключевые этапы развития на данный момент (формат временной шкалы для ясности):

  • Ноябрь 2024: Выпущен MCP 1.0 (Anthropic).
  • Декабрь 2024 – Январь 2025: Сообщество создает первую волну MCP-серверов; Anthropic выпускает Claude Desktop с поддержкой MCP; пилотные проекты малого масштаба от Block, Apollo и т. д.
  • Февраль 2025: Достигнуто более 1000 MCP-коннекторов сообщества; Anthropic проводит семинары (например, на саммите ИИ, способствуя образованию).
  • Март 2025: OpenAI объявляет о поддержке (ChatGPT Agents SDK).
  • Апрель 2025: Google DeepMind объявляет о поддержке (Gemini будет поддерживать MCP); Microsoft выпускает предварительную версию C# SDK.
  • Май 2025: Расширен Руководящий комитет (Microsoft/GitHub); демонстрации на Build 2025 (интеграция MCP в Windows).
  • Июнь 2025: Chainstack запускает Web3 MCP-серверы (EVM/Solana) для публичного использования.
  • Июль 2025: Обновления версии спецификации MCP (потоковая передача, улучшения аутентификации); официальная Дорожная карта опубликована на сайте MCP.
  • Сентябрь 2025: Запущен Реестр MCP (предварительная версия); вероятно, MCP достигнет общей доступности в большем количестве продуктов (Claude для работы и т. д.).
  • Конец 2025 года (прогноз): Реестр v1.0 запущен; выпущены руководства по лучшим практикам безопасности; возможно, первые эксперименты с децентрализованным обнаружением (результаты Namda).

Дальнейшее видение состоит в том, что MCP станет таким же повсеместным и невидимым, как HTTP или JSON — общим уровнем, который многие приложения используют под капотом. Для Web3 дорожная карта предполагает более глубокое слияние: где ИИ-агенты не только будут использовать Web3 (блокчейны) в качестве источников или приемников информации, но и сама инфраструктура Web3 может начать включать ИИ-агентов (через MCP) как часть своей работы (например, DAO может запускать MCP-совместимый ИИ для управления определенными задачами, или оракулы могут публиковать данные через конечные точки MCP). Акцент дорожной карты на таких вещах, как проверяемость и аутентификация, намекает на то, что в будущем взаимодействия MCP с минимизацией доверия могут стать реальностью — представьте себе выводы ИИ, которые сопровождаются криптографическими доказательствами, или ончейн-журнал того, какие инструменты ИИ вызывал для целей аудита. Эти возможности стирают грань между ИИ и блокчейн-сетями, и MCP находится в центре этого сближения.

В заключение, развитие MCP очень динамично. Он достиг важных ранних вех (широкое внедрение и стандартизация в течение года после запуска) и продолжает быстро развиваться с четкой дорожной картой, подчеркивающей безопасность, масштабируемость и обнаружение. Достигнутые и запланированные вехи гарантируют, что MCP останется надежным по мере масштабирования: решение таких проблем, как длительные задачи, безопасные разрешения и простота обнаружения тысяч инструментов. Этот импульс вперед указывает на то, что MCP — это не статическая спецификация, а растущий стандарт, который, вероятно, будет включать больше функций в стиле Web3 (децентрализованное управление серверами, согласование стимулов) по мере возникновения таких потребностей. Сообщество готово адаптировать MCP к новым вариантам использования (мультимодальный ИИ, IoT и т. д.), при этом сохраняя основное обещание: сделать ИИ более связанным, контекстно-ориентированным и расширяющим возможности пользователей в эпоху Web3.

7. Сравнение с аналогичными проектами или протоколами Web3

Уникальное сочетание ИИ и связности MCP означает, что прямых аналогов не так много, но полезно сравнить его с другими проектами на пересечении Web3 и ИИ или с аналогичными целями:

  • SingularityNET (AGI/X)Децентрализованный рынок ИИ: SingularityNET, запущенный в 2017 году доктором Беном Гертцелем и другими, представляет собой блокчейн-рынок для ИИ-сервисов. Он позволяет разработчикам монетизировать ИИ-алгоритмы как сервисы, а пользователям — потреблять эти сервисы, все это облегчается токеном (AGIX), который используется для платежей и управления. По сути, SingularityNET пытается децентрализовать предложение ИИ-моделей, размещая их в сети, где любой может вызвать ИИ-сервис в обмен на токены. Это принципиально отличается от MCP. MCP не размещает и не монетизирует ИИ-модели; вместо этого он предоставляет стандартный интерфейс для ИИ (где бы он ни работал) для доступа к данным/инструментам. Можно представить использование MCP для подключения ИИ к сервисам, перечисленным на SingularityNET, но сам SingularityNET фокусируется на экономическом уровне (кто предоставляет ИИ-сервис и как он получает оплату). Еще одно ключевое отличие: Управление — SingularityNET имеет ончейн-управление (через Предложения по улучшению SingularityNET (SNEP) и голосование токенами AGIX) для развития своей платформы. Управление MCP, напротив, является офчейн и совместным, без токена. В итоге, SingularityNET и MCP оба стремятся к более открытой экосистеме ИИ, но SingularityNET — это токенизированная сеть ИИ-алгоритмов, тогда как MCP — это стандарт протокола для интероперабельности ИИ-инструментов. Они могут дополнять друг друга: например, ИИ на SingularityNET может использовать MCP для получения необходимых внешних данных. Но SingularityNET не пытается стандартизировать использование инструментов; он использует блокчейн для координации ИИ-сервисов, в то время как MCP использует программные стандарты, чтобы позволить ИИ работать с любым сервисом.
  • Fetch.ai (FET)Децентрализованная платформа на основе агентов: Fetch.ai — еще один проект, сочетающий ИИ и блокчейн. Он запустил свой собственный блокчейн с доказательством доли и фреймворк для создания автономных агентов, которые выполняют задачи и взаимодействуют в децентрализованной сети. В видении Fetch миллионы «программных агентов» (представляющих людей, устройства или организации) могут договариваться и обмениваться ценностями, используя токены FET для транзакций. Fetch.ai предоставляет агентную среду (uAgents) и инфраструктуру для обнаружения и связи между агентами в своем реестре. Например, агент Fetch может помочь оптимизировать трафик в городе, взаимодействуя с другими агентами по вопросам парковки и транспорта, или автономно управлять рабочим процессом цепочки поставок. Как это сравнивается с MCP? Оба проекта имеют дело с концепцией агентов, но агенты Fetch.ai тесно связаны с его блокчейном и токен-экономикой — они живут в сети Fetch и используют ончейн-логику. Агенты MCP (хосты ИИ) управляются моделями (как LLM) и не привязаны к какой-либо одной сети; MCP довольствуется работой через интернет или в облачной среде, не требуя блокчейна. Fetch.ai пытается построить новую децентрализованную экономику ИИ с нуля (со своим собственным реестром для доверия и транзакций), тогда как MCP независим от уровня — он использует существующие сети (может использоваться через HTTPS или даже поверх блокчейна, если необходимо) для обеспечения ИИ-взаимодействий. Можно сказать, что Fetch больше о автономных экономических агентах, а MCP — о умных агентах, использующих инструменты. Интересно, что они могут пересекаться: автономный агент на Fetch.ai может использовать MCP для взаимодействия с офчейн-ресурсами или другими блокчейнами. И наоборот, можно использовать MCP для создания многоагентных систем, которые используют различные блокчейны (а не только один). На практике MCP получил более быстрое распространение, потому что ему не требовалась собственная сеть — он работает с Ethereum, Solana, Web2 API и т. д. из коробки. Подход Fetch.ai более тяжеловесен, создавая целую экосистему, к которой участники должны присоединиться (и приобрести токены) для использования. В итоге, Fetch.ai против MCP: Fetch — это платформа со своим токеном/блокчейном для ИИ-агентов, фокусирующаяся на интероперабельности и экономическом обмене между агентами, в то время как MCP — это протокол, который ИИ-агенты (в любой среде) могут использовать для подключения к инструментам и данным. Их цели пересекаются в обеспечении автоматизации, управляемой ИИ, но они решают разные уровни стека и имеют очень разные архитектурные философии (закрытая экосистема против открытого стандарта).
  • Chainlink и децентрализованные оракулыПодключение блокчейнов к офчейн-данным: Chainlink не является ИИ-проектом, но он очень актуален как протокол Web3, решающий дополнительную проблему: как соединить блокчейны с внешними данными и вычислениями. Chainlink — это децентрализованная сеть нод (оракулов), которые получают, проверяют и доставляют офчейн-данные смарт-контрактам способом с минимизацией доверия. Например, оракулы Chainlink предоставляют ценовые потоки для протоколов DeFi или вызывают внешние API от имени смарт-контрактов через Chainlink Functions. Сравнительно, MCP соединяет ИИ-модели с внешними данными/инструментами (некоторые из которых могут быть блокчейнами). Можно сказать, что Chainlink доставляет данные в блокчейны, а MCP доставляет данные в ИИ. Существует концептуальная параллель: оба устанавливают мост между иначе изолированными системами. Chainlink фокусируется на надежности, децентрализации и безопасности данных, подаваемых в блокчейн (решая «проблему оракула» единой точки отказа). MCP фокусируется на гибкости и стандартизации того, как ИИ может получать доступ к данным (решая «проблему интеграции» для ИИ-агентов). Они работают в разных областях (смарт-контракты против ИИ-помощников), но можно сравнить серверы MCP с оракулами: MCP-сервер для ценовых данных может вызывать те же API, что и нода Chainlink. Разница в потребителе — в случае MCP потребителем является ИИ или пользовательский помощник, а не детерминированный смарт-контракт. Кроме того, MCP по своей сути не предоставляет гарантий доверия, которые предоставляет Chainlink (серверы MCP могут быть централизованными или управляемыми сообществом, при этом доверие управляется на уровне приложения). Однако, как упоминалось ранее, идеи децентрализации сетей MCP могут заимствовать из сетей оракулов — например, можно запрашивать несколько серверов MCP и перепроверять результаты, чтобы убедиться, что ИИ не получает плохие данные, подобно тому, как несколько нод Chainlink агрегируют цену. Короче говоря, Chainlink против MCP: Chainlink — это Web3-промежуточное ПО для блокчейнов для потребления внешних данных, MCP — это ИИ-промежуточное ПО для моделей для потребления внешних данных (которые могут включать данные блокчейна). Они решают аналогичные потребности в разных областях и даже могут дополнять друг друга: ИИ, использующий MCP, может получать данные, предоставляемые Chainlink, в качестве надежного ресурса, и наоборот, ИИ может служить источником анализа, который оракул Chainlink доставляет в блокчейн (хотя последний сценарий поднимет вопросы проверяемости).
  • Плагины ChatGPT / Функции OpenAI против MCPПодходы к интеграции ИИ-инструментов: Хотя это не Web3-проекты, быстрое сравнение оправдано, потому что плагины ChatGPT и функция вызова функций OpenAI также соединяют ИИ с внешними инструментами. Плагины ChatGPT используют спецификацию OpenAPI, предоставляемую сервисом, и модель затем может вызывать эти API в соответствии со спецификацией. Ограничения заключаются в том, что это закрытая экосистема (плагины, одобренные OpenAI, работающие на серверах OpenAI) и каждый плагин представляет собой изолированную интеграцию. Новый SDK «Agents» от OpenAI ближе к MCP по концепции, позволяя разработчикам определять инструменты/функции, которые ИИ может использовать, но изначально он был специфичен для экосистемы OpenAI. LangChain аналогичным образом предоставил фреймворк для предоставления LLM инструментов в коде. MCP отличается тем, что предлагает открытый, независимый от модели стандарт для этого. Как выразился один аналитик, LangChain создал стандарт, ориентированный на разработчиков (интерфейс Python) для инструментов, тогда как MCP создает стандарт, ориентированный на модели — ИИ-агент может обнаруживать и использовать любой инструмент, определенный MCP, во время выполнения без пользовательского кода. На практике экосистема серверов MCP выросла больше и разнообразнее, чем магазин плагинов ChatGPT, в течение нескольких месяцев. И вместо того, чтобы каждая модель имела свой собственный формат плагинов (у OpenAI был свой, у других были другие), многие объединяются вокруг MCP. Сама OpenAI заявила о поддержке MCP, по сути, согласовав свой подход к функциям с более широким стандартом. Итак, сравнивая плагины OpenAI с MCP: плагины — это курируемый, централизованный подход, в то время как MCP — это децентрализованный, управляемый сообществом подход. В менталитете Web3 MCP более «открытый исходный код и без разрешений», тогда как проприетарные экосистемы плагинов более закрыты. Это делает MCP аналогичным этосу Web3, хотя это не блокчейн — он обеспечивает интероперабельность и пользовательский контроль (вы можете запустить свой собственный сервер MCP для своих данных, вместо того чтобы отдавать все одному поставщику ИИ). Это сравнение показывает, почему многие считают, что MCP имеет больший долгосрочный потенциал: он не привязан к одному поставщику или одной модели.
  • Проект Namda и децентрализованные агентные фреймворки: Namda заслуживает отдельного упоминания, потому что он явно сочетает MCP с концепциями Web3. Как описано ранее, Namda (Сетевая модульная распределенная архитектура агентов) — это инициатива MIT/IBM, начатая в 2024 году для создания масштабируемой, распределенной сети ИИ-агентов с использованием MCP в качестве уровня связи. Она рассматривает MCP как основу для обмена сообщениями (поскольку MCP использует стандартные сообщения, похожие на JSON-RPC, он хорошо подходит для меж-агентных коммуникаций), а затем добавляет слои для динамического обнаружения, отказоустойчивости и проверяемых идентификаторов с использованием методик, вдохновленных блокчейном. Агенты Namda могут находиться где угодно (облако, периферийные устройства и т. д.), но децентрализованный реестр (нечто вроде DHT или блокчейна) отслеживает их и их возможности способом, защищенным от подделки. Они даже исследуют предоставление агентам токенов для стимулирования сотрудничества или совместного использования ресурсов. По сути, Namda — это эксперимент по созданию «Web3-версии MCP». Это еще не широко развернутый проект, но он является одним из самых близких «аналогичных протоколов» по духу. Если мы рассмотрим Namda против MCP: Namda использует MCP (поэтому это не конкурирующие стандарты), но расширяет его протоколом для сетевого взаимодействия и координации нескольких агентов способом с минимизацией доверия. Можно сравнить Namda с фреймворками, такими как Autonolas или многоагентные системы (MAS), которые криптосообщество видело, но им часто не хватало мощного ИИ-компонента или общего протокола. Namda + MCP вместе демонстрируют, как может функционировать децентрализованная агентная сеть, при этом блокчейн обеспечивает идентификацию, репутацию и, возможно, токен-стимулы, а MCP — связь агентов и использование инструментов.

В итоге, MCP выделяется среди большинства предыдущих Web3-проектов: он вообще не начинался как криптопроект, но быстро пересекается с Web3, потому что решает дополнительные проблемы. Такие проекты, как SingularityNET и Fetch.ai, стремились децентрализовать ИИ-вычисления или сервисы с использованием блокчейна; MCP вместо этого стандартизирует интеграцию ИИ с сервисами, что может усилить децентрализацию, избегая привязки к платформе. Сети оракулов, такие как Chainlink, решали проблему доставки данных в блокчейн; MCP решает проблему доставки данных в ИИ (включая данные блокчейна). Если основные идеалы Web3 — это децентрализация, интероперабельность и расширение прав и возможностей пользователей, то MCP атакует часть интероперабельности в области ИИ. Он даже влияет на эти старые проекты — например, ничто не мешает SingularityNET сделать свои ИИ-сервисы доступными через серверы MCP, или агентам Fetch использовать MCP для взаимодействия с внешними системами. Мы вполне можем увидеть сближение, когда ИИ-сети, управляемые токенами, будут использовать MCP в качестве своего лингва франка, сочетая структуру стимулов Web3 с гибкостью MCP.

Наконец, если мы рассмотрим восприятие рынка: MCP часто рекламируется как то, что он делает для ИИ то, что Web3 надеялся сделать для интернета — разрушить барьеры и расширить возможности пользователей. Это привело к тому, что MCP неофициально называют «Web3 для ИИ» (даже когда блокчейн не задействован). Однако важно признать, что MCP — это стандарт протокола, тогда как большинство проектов Web3 — это полнофункциональные платформы с экономическими уровнями. В сравнениях MCP обычно оказывается более легким, универсальным решением, в то время как блокчейн-проекты — более тяжелые, специализированные решения. В зависимости от варианта использования они могут дополнять, а не строго конкурировать. По мере созревания экосистемы мы можем увидеть, что MCP будет интегрирован во многие Web3-проекты как модуль (подобно тому, как HTTP или JSON повсеместны), а не как конкурирующий проект.

8. Общественное восприятие, рыночная динамика и освещение в СМИ

Общественное мнение о MCP было подавляюще позитивным как в сообществах ИИ, так и в Web3, часто граничащим с энтузиазмом. Многие видят в нем переломный момент, который появился тихо, но затем штурмом взял индустрию. Давайте разберем восприятие, динамику и заметные медиа-нарративы:

Рыночная динамика и метрики внедрения: К середине 2025 года MCP достиг уровня внедрения, редкого для нового протокола. Его поддерживают практически все основные поставщики ИИ-моделей (Anthropic, OpenAI, Google, Meta) и инфраструктура крупных технологических компаний (Microsoft, GitHub, AWS и т. д.), как подробно описано ранее. Одно это сигнализирует рынку, что MCP, вероятно, останется (подобно тому, как широкая поддержка способствовала развитию TCP/IP или HTTP в первые дни интернета). Со стороны Web3 динамика очевидна в поведении разработчиков: на хакатонах стали появляться проекты MCP, и многие инструменты для блокчейн-разработки теперь упоминают интеграцию MCP как преимущество. Статистика «более 1000 коннекторов за несколько месяцев» и цитата Майка Кригера о «тысячах интеграций» часто приводятся для иллюстрации того, как быстро MCP набрал популярность. Это предполагает сильные сетевые эффекты — чем больше инструментов доступно через MCP, тем он полезнее, что стимулирует дальнейшее внедрение (положительная обратная связь). Венчурные капиталисты и аналитики отмечают, что MCP достиг за менее чем год того, чего более ранние попытки «интероперабельности ИИ» не смогли сделать за несколько лет, в основном благодаря своевременности (оседлав волну интереса к ИИ-агентам) и открытому исходному коду. В Web3-медиа динамика иногда измеряется с точки зрения внимания разработчиков и интеграции в проекты, и MCP сейчас высоко оценивается по обоим показателям.

Общественное восприятие в сообществах ИИ и Web3: Изначально MCP оставался незамеченным, когда был впервые анонсирован (конец 2024 года). Но к началу 2025 года, по мере появления историй успеха, восприятие изменилось на восторженное. Практики ИИ увидели в MCP «недостающий элемент головоломки» для того, чтобы сделать ИИ-агентов по-настоящему полезными за пределами игрушечных примеров. Разработчики Web3, с другой стороны, увидели в нем мост для окончательного включения ИИ в dApps без отказа от децентрализации — ИИ может использовать ончейн-данные, например, без необходимости в централизованном оракуле. Лидеры мнений поют дифирамбы: например, Хесус Родригес (известный автор по Web3 AI) написал в CoinDesk, что MCP может быть «одним из самых трансформационных протоколов для эры ИИ и отлично подходящим для архитектур Web3». Рарес Крисан в блоге Notable Capital утверждал, что MCP может выполнить обещание Web3, где блокчейн сам по себе испытывал трудности, сделав интернет более ориентированным на пользователя и естественным для взаимодействия. Эти нарративы представляют MCP как революционный, но практичный — не просто хайп.

Справедливости ради, не все комментарии некритичны. Некоторые ИИ-разработчики на форумах, таких как Reddit, указывали, что MCP «не делает всего» — это протокол связи, а не готовый агент или механизм рассуждений. Например, одно обсуждение на Reddit под названием «MCP — это тупик» утверждало, что сам по себе MCP не управляет когнитивными способностями агента и не гарантирует качество; он по-прежнему требует хорошего дизайна агента и средств контроля безопасности. Эта точка зрения предполагает, что MCP может быть переоценен как серебряная пуля. Однако эти критические замечания скорее направлены на смягчение ожиданий, чем на отказ от полезности MCP. Они подчеркивают, что MCP решает проблему подключения инструментов, но все еще необходимо создавать надежную логику агента (т. е. MCP не создает магическим образом интеллектуального агента, он оснащает его инструментами). Консенсус, однако, заключается в том, что MCP — это большой шаг вперед, даже среди осторожных голосов. В блоге сообщества Hugging Face отмечалось, что, хотя MCP не является панацеей, он является важным фактором для интегрированного, контекстно-ориентированного ИИ, и разработчики объединяются вокруг него по этой причине.

Освещение в СМИ: MCP получил значительное освещение как в основных технологических СМИ, так и в нишевых блокчейн-изданиях:

  • TechCrunch опубликовал несколько статей. Они освещали первоначальную концепцию («Anthropic предлагает новый способ подключения данных к ИИ-чат-ботам») примерно во время запуска в 2024 году. В 2025 году TechCrunch освещал каждый крупный момент внедрения: поддержку OpenAI, принятие Google, участие Microsoft/GitHub. Эти статьи часто подчеркивают единство отрасли вокруг MCP. Например, TechCrunch цитировал одобрение Сэма Альтмана и отмечал быстрый переход от конкурирующих стандартов к MCP. При этом они изображали MCP как развивающийся стандарт, подобно тому, как никто не хотел остаться в стороне от интернет-протоколов в 90-х. Такое освещение в известном издании сигнализировало более широкому технологическому миру, что MCP важен и реален, а не просто маргинальный проект с открытым исходным кодом.
  • CoinDesk и другие криптоиздания ухватились за Web3-аспект. Колонка Родригеса в CoinDesk (июль 2025 года) часто цитируется; она рисовала футуристическую картину, где каждый блокчейн мог бы быть MCP-сервером, а новые сети MCP могли бы работать на блокчейнах. Она связывала MCP с такими концепциями, как децентрализованная идентификация, аутентификация и проверяемость — говоря на языке блокчейн-аудитории и предполагая, что MCP может быть протоколом, который по-настоящему объединит ИИ с децентрализованными фреймворками. Cointelegraph, Bankless и другие также обсуждали MCP в контексте «ИИ-агентов и DeFi» и подобных тем, обычно оптимистично оценивая возможности (например, у Bankless была статья об использовании MCP, чтобы позволить ИИ управлять ончейн-транзакциями, и она включала инструкцию по созданию собственного MCP-сервера).
  • Известные блоги венчурных капиталистов / Аналитические отчеты: Блог Notable Capital (июль 2025 года) является примером венчурного анализа, проводящего параллели между MCP и эволюцией веб-протоколов. По сути, он утверждает, что MCP может сделать для Web3 то, что HTTP сделал для Web1 — предоставить новый интерфейсный уровень (интерфейс на естественном языке), который не заменяет базовую инфраструктуру, но делает ее пригодной для использования. Такой нарратив убедителен и повторялся в панельных дискуссиях и подкастах. Он позиционирует MCP не как конкурирующий с блокчейном, а как следующий уровень абстракции, который наконец-то позволяет обычным пользователям (через ИИ) легко использовать блокчейн и веб-сервисы.
  • Ажиотаж в сообществе разработчиков: Помимо официальных статей, рост MCP можно оценить по его присутствию в дискуссиях разработчиков — на конференциях, YouTube-каналах, в рассылках. Например, были популярные посты в блогах, такие как «MCP: Недостающее звено для агентного ИИ?» на таких сайтах, как Runtime.news, и рассылки (например, от ИИ-исследователя Натана Ламберта), обсуждающие практические эксперименты с MCP и то, как он сравнивается с другими фреймворками для использования инструментов. Общий тон — любопытство и энтузиазм: разработчики делятся демонстрациями подключения ИИ к своей домашней автоматизации или криптокошельку всего несколькими строками кода с использованием серверов MCP, что еще недавно казалось научной фантастикой. Этот низовой энтузиазм важен, потому что он показывает, что MCP имеет влияние не только благодаря корпоративным одобрениям.
  • Корпоративная перспектива: СМИ и аналитики, специализирующиеся на корпоративном ИИ, также отмечают MCP как ключевое событие. Например, The New Stack освещал, как Anthropic добавил поддержку удаленных серверов MCP в Claude для корпоративного использования. Здесь акцент делается на том, что предприятия могут использовать MCP для безопасного подключения своих внутренних баз знаний и систем к ИИ. Это важно и для Web3, поскольку многие блокчейн-компании сами являются предприятиями и могут использовать MCP внутри компании (например, криптобиржа может использовать MCP, чтобы позволить ИИ анализировать внутренние журналы транзакций для обнаружения мошенничества).

Известные цитаты и реакции: Стоит выделить несколько, которые инкапсулируют общественное восприятие:

  • «Подобно тому, как HTTP произвел революцию в веб-коммуникациях, MCP предоставляет универсальную основу... заменяя фрагментированные интеграции единым протоколом». — CoinDesk. Это сравнение с HTTP мощно; оно представляет MCP как инновацию на уровне инфраструктуры.
  • «MCP [стал] процветающим открытым стандартом с тысячами интеграций и растущим числом. LLM наиболее полезны при подключении к уже имеющимся у вас данным...» — Майк Кригер (директор по продуктам Anthropic). Это официальное подтверждение как динамики, так и основного ценностного предложения, которое широко распространилось в социальных сетях.
  • «Обещание Web3... наконец-то может быть реализовано... через естественный язык и ИИ-агентов. ...MCP — это самое близкое, что мы видели к настоящему Web3 для масс». — Notable Capital. Это смелое заявление находит отклик у тех, кто разочарован медленными улучшениями UX в криптоиндустрии; оно предполагает, что ИИ может взломать код массового внедрения, абстрагируя сложность.

Вызовы и скептицизм: Хотя энтузиазм высок, СМИ также обсуждали вызовы:

  • Проблемы безопасности: Такие издания, как The New Stack или блоги по безопасности, поднимали вопрос о том, что разрешение ИИ выполнять инструменты может быть опасным, если не изолировано. Что, если вредоносный MCP-сервер попытается заставить ИИ выполнить вредоносное действие? Блог LimeChain прямо предупреждает о «значительных рисках безопасности» с MCP-серверами, разработанными сообществом (например, сервер, который обрабатывает приватные ключи, должен быть чрезвычайно безопасным). Эти опасения повторялись в дискуссиях: по сути, MCP расширяет возможности ИИ, но с властью приходит риск. Ответ сообщества (руководства, механизмы аутентификации) также освещался, в целом успокаивая, что меры по смягчению рисков разрабатываются. Тем не менее, любое громкое неправомерное использование MCP (скажем, ИИ спровоцировал непреднамеренный криптоперевод) повлияет на восприятие, поэтому СМИ внимательно следят за этим.
  • Производительность и стоимость: Некоторые аналитики отмечают, что использование ИИ-агентов с инструментами может быть медленнее или дороже, чем прямой вызов API (поскольку ИИ может потребоваться несколько шагов туда-обратно, чтобы получить то, что ему нужно). В контекстах высокочастотной торговли или ончейн-исполнения такая задержка может быть проблематичной. На данный момент это рассматривается как технические препятствия, которые нужно оптимизировать (через лучший дизайн агента или потоковую передачу), а не как непреодолимые проблемы.
  • Управление хайпом: Как и в случае с любой модной технологией, есть доля хайпа. Несколько голосов предостерегают от объявления MCP решением всех проблем. Например, статья Hugging Face спрашивает: «Является ли MCP серебряной пулей?» и отвечает отрицательно — разработчикам по-прежнему необходимо управлять контекстом, и MCP лучше всего работает в сочетании с хорошими стратегиями подсказок и памяти. Такие сбалансированные мнения полезны в дискурсе.

Общее настроение СМИ: Нарратив, который формируется, в значительной степени обнадеживающий и дальновидный:

  • MCP рассматривается как практический инструмент, обеспечивающий реальные улучшения уже сейчас (поэтому это не вейпвар), что СМИ подчеркивают, приводя работающие примеры: Claude читает файлы, Copilot использует MCP в VSCode, ИИ завершает транзакцию Solana в демо и т. д.
  • Он также изображается как стратегический стержень для будущего как ИИ, так и Web3. СМИ часто заключают, что MCP или подобные ему вещи будут необходимы для «децентрализованного ИИ» или «Web4» или любого другого термина, используемого для веб-технологий следующего поколения. Есть ощущение, что MCP открыл дверь, и теперь инновации текут — будь то децентрализованные агенты Namda или предприятия, подключающие устаревшие системы к ИИ, многие будущие сюжетные линии восходят к появлению MCP.

На рынке можно оценить динамику по формированию стартапов и финансированию вокруг экосистемы MCP. Действительно, ходят слухи/сообщения о стартапах, ориентированных на «рынки MCP» или управляемые MCP-платформы, получающих финансирование (Notable Capital, пишущий об этом, предполагает интерес венчурных капиталистов). Мы можем ожидать, что СМИ начнут освещать это косвенно — например, «Стартап X использует MCP, чтобы ваш ИИ управлял вашим криптопортфелем — привлек $Y миллионов».

Вывод о восприятии: К концу 2025 года MCP пользуется репутацией прорывной технологии. У него сильная поддержка со стороны влиятельных фигур как в ИИ, так и в криптоиндустрии. Общественный нарратив эволюционировал от «вот классный инструмент» до «это может стать основой для следующего веба». Тем временем практическое освещение подтверждает, что он работает и внедряется, что придает ему доверия. При условии, что сообщество продолжит решать проблемы (безопасность, управление в масштабе) и не произойдет крупных катастроф, общественный имидж MCP, вероятно, останется позитивным или даже станет культовым как «протокол, который заставил ИИ и Web3 хорошо работать вместе».

СМИ, вероятно, будут внимательно следить за:

  • Историями успеха (например, если крупная DAO реализует ИИ-казначея через MCP, или правительство использует MCP для ИИ-систем с открытыми данными).
  • Любыми инцидентами безопасности (для оценки риска).
  • Эволюцией сетей MCP и тем, появится ли официально какой-либо токен или блокчейн-компонент (что стало бы большой новостью, еще теснее связывающей ИИ и криптоиндустрию).

Однако на данный момент освещение можно подытожить строкой из CoinDesk: «Сочетание Web3 и MCP может стать новой основой для децентрализованного ИИ» — это утверждение, которое отражает как обещание, так и ажиотаж вокруг MCP в глазах общественности.

Ссылки:

  • Новости Anthropic: "Представляем Протокол контекста модели," Ноябрь 2024
  • Блог LimeChain: "Что такое MCP и как он применяется к блокчейнам?" Май 2025
  • Блог Chainstack: "MCP для разработчиков Web3: Solana, EVM и документация," Июнь 2025
  • Колонка CoinDesk: "Протокол агентов: потенциал MCP в Web3," Июль 2025
  • Notable Capital: "Почему MCP представляет собой реальную возможность Web3," Июль 2025
  • TechCrunch: "OpenAI принимает стандарт Anthropic…", 26 марта 2025
  • TechCrunch: "Google примет стандарт Anthropic…", 9 апреля 2025
  • TechCrunch: "GitHub, Microsoft принимают… (руководящий комитет MCP)", 19 мая 2025
  • Блог разработчиков Microsoft: "Официальный C# SDK для MCP," Апрель 2025
  • Блог Hugging Face: "#14: Что такое MCP, и почему все о нем говорят?" Март 2025
  • Messari Research: "Профиль Fetch.ai," 2023
  • Medium (Nu FinTimes): "Представляем SingularityNET," Март 2024

World Liberty Financial: Будущее денег, обеспеченное USD1

· 10 мин чтения
Dora Noda
Software Engineer

Обзор World Liberty Financial

World Liberty Financial (WLFI) — это платформа децентрализованных финансов (DeFi), созданная членами семьи Трампов и их партнерами. Согласно сайту Trump Organization, платформа призвана объединить традиционный банкинг и блокчейн-технологии, сочетая стабильность традиционных финансов с прозрачностью и доступностью децентрализованных систем. Ее миссия — предоставлять современные услуги для перемещения денег, кредитования и управления цифровыми активами, поддерживая при этом стабильность, обеспеченную долларом, делая капитал доступным для частных лиц и учреждений, а также упрощая DeFi для массовых пользователей.

WLFI запустила свой токен управления ($WLFI) в сентябре 2025 года и представила стейблкоин, привязанный к доллару, под названием USD1 в марте 2025 года. Платформа описывает USD1 как стейблкоин «будущего денег», разработанный для использования в качестве базовой пары для токенизированных активов и для продвижения доминирования доллара США в цифровой экономике. Соучредитель Дональд Трамп-младший охарактеризовал WLFI как неполитический проект, призванный расширить возможности обычных людей и укрепить глобальную роль доллара США.

История и основание

  • Истоки (2024–2025). WLFI была анонсирована в сентябре 2024 года как крипто-проект, возглавляемый членами семьи Трампов. Компания запустила свой токен управления WLFIпозднеевтомжегоду.ПоданнымReuters,первоначальнаяпродажатокеновWLFI позднее в том же году. По данным Reuters, первоначальная продажа токенов WLFI принесла всего около 2,7 млн долларов, но продажи резко возросли после победы Дональда Трампа на выборах 2024 года (информация, на которую ссылаются в широко цитируемых отчетах, хотя она не доступна напрямую в наших источниках). WLFI принадлежит в основном бизнес-структуре Трампа и имеет девять соучредителей, включая Дональда Трампа-младшего, Эрика Трампа и Бэррона Трампа.
  • Руководство. Trump Organization описывает руководящие роли WLFI следующим образом: Дональд Трамп (главный крипто-адвокат), Эрик Трамп и Дональд Трамп-младший (амбассадоры Web3), Бэррон Трамп (визионер DeFi) и Зак Уиткофф (генеральный директор и соучредитель). Ежедневные операции компании управляются Заком Уиткоффом и партнерами, такими как Захари Фолкман и Чейз Херро.
  • Инициатива стейблкоина. WLFI анонсировала стейблкоин USD1 в марте 2025 года. USD1 был описан как стейблкоин, привязанный к доллару, обеспеченный казначейскими облигациями США, долларовыми депозитами и другими денежными эквивалентами. Резервы монеты хранятся в BitGo Trust Company, регулируемом хранителе цифровых активов. USD1 был запущен на BNB Chain от Binance, а затем расширился до Ethereum, Solana и Tron.

Стейблкоин USD1: Дизайн и особенности

Модель резервов и механизм стабильности

USD1 разработан как стейблкоин, обеспеченный фиатными деньгами, с механизмом погашения 1:1. Каждый токен USD1 может быть погашен за один доллар США, а резервы стейблкоина хранятся в краткосрочных казначейских векселях США, долларовых депозитах и денежных эквивалентах. Эти активы хранятся BitGo Trust, регулируемой организацией, известной институциональным хранением цифровых активов. WLFI заявляет, что USD1 предлагает:

  1. Полное обеспечение и аудиты. Резервы полностью обеспечены и подлежат ежемесячным сторонним аттестациям, обеспечивая прозрачность в отношении активов обеспечения. В мае 2025 года Binance Academy отметила, что регулярные отчеты о составе резервов еще не были общедоступны, и что WLFI обещала провести сторонние аудиты.
  2. Институциональная направленность. WLFI позиционирует USD1 как «готовый для институционалов» стейблкоин, предназначенный для банков, фондов и крупных компаний, хотя он также доступен розничным пользователям.
  3. Нулевые комиссии за выпуск/погашение. Сообщается, что USD1 не взимает комиссий за выпуск или погашение, что снижает трение для пользователей, работающих с большими объемами.
  4. Кроссчейн-совместимость. Стейблкоин использует протокол кроссчейн-совместимости (CCIP) Chainlink для обеспечения безопасных переводов через Ethereum, BNB Chain и Tron. Планы по расширению на дополнительные блокчейны были подтверждены благодаря партнерствам с такими сетями, как Aptos и Tron.

Рыночные показатели

  • Быстрый рост. В течение месяца после запуска рыночная капитализация USD1 достигла примерно 2,1 миллиарда долларов, что было обусловлено крупными институциональными сделками, такими как инвестиции в размере 2 миллиардов долларов фондом MGX из Абу-Даби в Binance с использованием USD1. К началу октября 2025 года предложение выросло примерно до 2,68 миллиарда долларов, при этом большинство токенов было выпущено на BNB Chain (79 %), за которой следовали Ethereum, Solana и Tron.
  • Листинг и принятие. Binance разместила USD1 на своем спотовом рынке в мае 2025 года. WLFI заявляет о широкой интеграции с протоколами DeFi и централизованными биржами. Платформы DeFi, такие как ListaDAO, Venus Protocol и Aster, поддерживают кредитование, заимствование и пулы ликвидности с использованием USD1. WLFI подчеркивает, что пользователи могут обменять USD1 на доллары США через BitGo в течение одного-двух рабочих дней.

Институциональное использование и планы по токенизированным активам

WLFI рассматривает USD1 как основной расчетный актив для токенизированных реальных активов (RWAs). Генеральный директор Зак Уиткофф заявил, что такие товары, как нефть, газ, хлопок и древесина, должны торговаться в блокчейне, и что WLFI активно работает над токенизацией этих активов и их сопряжением с USD1, поскольку они требуют надежного, прозрачного стейблкоина. Он описал USD1 как «самый надежный и прозрачный стейблкоин на Земле».

Продукты и услуги

Дебетовая карта и розничные приложения

На конференции TOKEN2049 в Сингапуре Зак Уиткофф объявил, что WLFI выпустит крипто-дебетовую карту, которая позволит пользователям тратить цифровые активы в повседневных транзакциях. Компания планировала запустить пилотную программу в следующем квартале, а полный запуск ожидается в Q4 2025 или Q1 2026. CoinLaw обобщил ключевые детали:

  • Карта будет связывать крипто-балансы с потребительскими покупками и, как ожидается, будет интегрирована с такими сервисами, как Apple Pay.
  • WLFI также разрабатывает розничное приложение для потребителей в дополнение к карте.

Токенизация и инвестиционные продукты

Помимо платежей, WLFI стремится токенизировать реальные товары. Уиткофф заявил, что они изучают токенизацию нефти, газа, древесины и недвижимости для создания торговых инструментов на основе блокчейна. Токен управления WLFI ($WLFI), запущенный в сентябре 2025 года, предоставляет держателям возможность голосовать по определенным корпоративным решениям. Проект также сформировал стратегические партнерства, включая соглашение ALT5 Sigma о покупке токенов WLFI на сумму 750 миллионов долларов в рамках своей казначейской стратегии.

Точка зрения Дональда Трампа-младшего

Соучредитель Дональд Трамп-младший является видным публичным лицом WLFI. Его выступления на отраслевых мероприятиях и интервью раскрывают мотивы проекта и его взгляды на традиционные финансы, регулирование и роль доллара США.

Критика традиционных финансов

  • «Сломанная» и недемократическая система. Во время панельной дискуссии под названием World Liberty Financial: Будущее денег, обеспеченное USD1 на конференции Token2049 Трамп-младший утверждал, что традиционные финансы недемократичны и «сломаны». Он рассказал, что когда его семья пришла в политику, 300 их банковских счетов были закрыты за одну ночь, что иллюстрирует, как финансовые учреждения могут наказывать людей по политическим причинам. Он сказал, что семья переместилась с вершины финансовой «пирамиды» на дно, показав, что система благоприятствует инсайдерам и функционирует как схема Понци.
  • Неэффективность и отсутствие ценности. Он критиковал традиционную финансовую индустрию за погрязание в неэффективности, где люди, «зарабатывающие семизначные суммы в год», просто перекладывают бумаги, не создавая реальной ценности.

Защита стейблкоинов и доллара

  • Сохранение долларовой гегемонии. Трамп-младший утверждает, что стейблкоины, такие как USD1, восполнят роль, которую ранее играли страны, покупающие казначейские облигации США. Он заявил Business Times, что стейблкоины могут создать «долларовую гегемонию», позволяя США лидировать в мире и обеспечивать безопасность и стабильность во многих местах. В интервью Cryptopolitan он утверждал, что стейблкоины фактически сохраняют доминирование доллара США, потому что спрос на токены, обеспеченные долларом, поддерживает казначейские облигации в то время, когда традиционные покупатели (например, Китай и Япония) сокращают свое участие.
  • Будущее финансов и DeFi. Трамп-младший описал WLFI как будущее финансов и подчеркнул, что блокчейн и DeFi-технологии могут демократизировать доступ к капиталу. На мероприятии ETH Denver, освещенном Panews, он утверждал, что необходимы четкие регуляторные рамки, чтобы предотвратить уход компаний в офшоры и защитить инвесторов. Он призвал США возглавить глобальные крипто-инновации и критиковал чрезмерное регулирование за подавление роста.
  • Финансовая демократизация. Он считает, что объединение традиционных и децентрализованных финансов через WLFI обеспечит ликвидность, прозрачность и стабильность для недостаточно обслуживаемых слоев населения. Он также подчеркивает потенциал блокчейна в устранении коррупции за счет обеспечения прозрачности транзакций и их размещения в блокчейне.
  • Советы новичкам. Трамп-младший советует новым инвесторам начинать с небольших сумм, избегать чрезмерного кредитного плеча и постоянно изучать DeFi.

Политический нейтралитет и критика СМИ

Трамп-младший подчеркивает, что WLFI «на 100 % не является политической организацией», несмотря на глубокое участие семьи Трампов. Он представляет проект как платформу для блага американцев и всего мира, а не как политический инструмент. Во время панельной дискуссии Token2049 он критиковал основные средства массовой информации, заявляя, что они дискредитировали себя, а Зак Уиткофф спросил аудиторию, считают ли они The New York Times заслуживающей доверия.

Партнерства и интеграция в экосистему

Инвестиции MGX–Binance

В мае 2025 года WLFI объявила, что USD1 будет способствовать инвестициям в размере 2 миллиардов долларов от MGX из Абу-Даби в криптобиржу Binance. Это объявление подчеркнуло растущее влияние WLFI и было представлено как доказательство институциональной привлекательности USD1. Однако сенатор США Элизабет Уоррен раскритиковала сделку, назвав ее «коррупцией», поскольку ожидающееся законодательство о стейблкоинах (Закон GENIUS) может принести выгоду семье президента. Данные CoinMarketCap, цитируемые Reuters, показали, что оборотная стоимость USD1 достигла примерно 2,1 миллиарда долларов в то время.

Партнерство с Aptos

На конференции TOKEN2049 в октябре 2025 года WLFI и блокчейн первого уровня Aptos объявили о партнерстве по развертыванию USD1 в сети Aptos. Brave New Coin сообщает, что WLFI выбрала Aptos из-за ее высокой пропускной способности (транзакции завершаются менее чем за полсекунды) и комиссий менее одной сотой цента. Сотрудничество направлено на то, чтобы бросить вызов доминирующим сетям стейблкоинов, предоставляя более дешевые и быстрые каналы для институциональных транзакций. CryptoSlate отмечает, что интеграция USD1 сделает Aptos пятой сетью для выпуска стейблкоина, с поддержкой с первого дня от протоколов DeFi, таких как Echelon Market и Hyperion, а также кошельков и бирж, таких как Petra, Backpack и OKX. Руководители WLFI рассматривают это расширение как часть более широкой стратегии по увеличению внедрения DeFi и позиционированию USD1 как расчетного уровня для токенизированных активов.

Интеграция дебетовой карты и Apple Pay

Reuters и CoinLaw сообщают, что WLFI запустит крипто-дебетовую карту, связывающую криптоактивы с повседневными расходами. Уиткофф сообщил Reuters, что компания ожидает запустить пилотную программу в следующем квартале, а полный запуск состоится к концу 2025 или началу 2026 года. Карта будет интегрирована с Apple Pay, и WLFI выпустит розничное приложение для упрощения криптоплатежей.

Споры и критика

  • Прозрачность резервов. Binance Academy подчеркнула, что по состоянию на май 2025 года USD1 не имел общедоступных отчетов о составе резервов. WLFI обещала сторонние аудиты, но отсутствие подробных раскрытий вызвало обеспокоенность инвесторов.
  • Политические конфликты интересов. Глубокие связи WLFI с семьей Трампов вызвали пристальное внимание. Расследование Reuters сообщило, что анонимный кошелек, содержащий 2 миллиарда долларов в USD1, получил средства незадолго до инвестиций MGX, и владельцы кошелька не могли быть идентифицированы. Критики утверждают, что это предприятие может позволить семье Трампов получать финансовую выгоду от регуляторных решений. Сенатор Элизабет Уоррен предупредила, что законодательство о стейблкоинах, рассматриваемое Конгрессом, облегчит президенту и его семье «набивать свои карманы». Средства массовой информации, такие как The New York Times и The New Yorker, описали WLFI как размывающую границу между частным предпринимательством и государственной политикой.
  • Концентрация рынка и проблемы ликвидности. CoinLaw сообщила, что более половины ликвидности USD1 по состоянию на июнь 2025 года поступало всего с трех кошельков. Такая концентрация вызывает вопросы об органическом спросе на USD1 и его устойчивости на стрессовых рынках.
  • Регуляторная неопределенность. Сам Трамп-младший признает, что регулирование криптовалют в США остается неясным, и призывает к разработке всеобъемлющих правил, чтобы предотвратить уход компаний в офшоры. Критики утверждают, что WLFI извлекает выгоду из дерегуляционных шагов администрации Трампа, одновременно формируя политику, которая может благоприятствовать ее собственным финансовым интересам.

Заключение

World Liberty Financial позиционирует себя как пионер на пересечении традиционных финансов и децентрализованных технологий, используя стейблкоин USD1 в качестве основы для платежей, токенизации и DeFi-продуктов. Акцент платформы на институциональной поддержке, кроссчейн-совместимости и выпуске без комиссий отличает USD1 от других стейблкоинов. Партнерства с такими сетями, как Aptos, и крупные сделки, такие как инвестиции MGX–Binance, подчеркивают амбиции WLFI стать глобальным расчетным уровнем для токенизированных активов.

С точки зрения Дональда Трампа-младшего, WLFI — это не просто коммерческое предприятие, а миссия по демократизации финансов, сохранению гегемонии доллара США и вызову тому, что он считает сломанной и элитарной традиционной финансовой системой. Он выступает за ясность регулирования, критикуя чрезмерный надзор, что отражает более широкие дебаты в криптоиндустрии. Однако политические связи WLFI, непрозрачное раскрытие резервов и концентрация ликвидности вызывают скептицизм. Успех компании будет зависеть от баланса инноваций и прозрачности, а также от навигации в сложном взаимодействии между частными интересами и государственной политикой.

Направленный ациклический граф (DAG) в блокчейне

· 46 мин чтения
Dora Noda
Software Engineer

Что такое DAG и чем он отличается от блокчейна?

Направленный ациклический граф (DAG) — это тип структуры данных, состоящий из вершин (узлов), соединенных направленными ребрами, которые никогда не образуют цикл. В контексте распределенных реестров, реестр на основе DAG организует транзакции или события в виде паутинообразного графа, а не единой последовательной цепочки. Это означает, что в отличие от традиционного блокчейна, где каждый новый блок ссылается только на одного предшественника (образуя линейную цепочку), узел в DAG может ссылаться на несколько предыдущих транзакций или блоков. В результате многие транзакции могут быть подтверждены параллельно, а не строго одна за другой в хронологических блоках.

Чтобы проиллюстрировать разницу, если блокчейн выглядит как длинная цепочка блоков (каждый блок содержит множество транзакций), то реестр на основе DAG больше похож на дерево или сеть отдельных транзакций. Каждая новая транзакция в DAG может присоединяться к (и тем самым подтверждать) одну или несколько более ранних транзакций, вместо того чтобы ждать упаковки в следующий единственный блок. Это структурное различие приводит к нескольким ключевым отличиям:

  • Параллельная валидация: В блокчейнах майнеры/валидаторы добавляют по одному блоку в цепочку за раз, поэтому транзакции подтверждаются партиями для каждого нового блока. В DAG несколько транзакций (или небольших «блоков» транзакций) могут быть добавлены одновременно, поскольку каждая из них может присоединяться к разным частям графа. Эта параллелизация означает, что сетям DAG не нужно ждать, пока одна длинная цепочка будет расти по одному блоку за раз.
  • Отсутствие глобального последовательного порядка: Блокчейн по своей сути создает полный порядок транзакций (каждый блок имеет определенное место в одной последовательности). Реестр DAG, напротив, формирует частичный порядок транзакций. Нет единого «последнего блока», в очередь к которому выстраиваются все транзакции; вместо этого множество «вершин» графа могут сосуществовать и расширяться одновременно. Затем требуются протоколы консенсуса, чтобы в конечном итоге упорядочить или согласовать порядок или действительность транзакций в DAG.
  • Подтверждение транзакций: В блокчейне транзакции подтверждаются, когда они включаются в добытый/валидированный блок, и этот блок становится частью принятой цепочки (часто после добавления новых блоков поверх него). В системах DAG новая транзакция сама по себе помогает подтверждать предыдущие транзакции, ссылаясь на них. Например, в Tangle IOTA (DAG) каждая транзакция должна подтвердить две предыдущие транзакции, фактически заставляя пользователей совместно проверять транзакции друг друга. Это устраняет строгое разделение между «создателями транзакций» и «валидаторами», которое существует в майнинге блокчейна — каждый участник, выпускающий транзакцию, также выполняет небольшую работу по валидации.

Важно отметить, что блокчейн на самом деле является частным случаем DAG — DAG, который был ограничен одной цепочкой блоков. Оба являются формами технологии распределенного реестра (DLT) и разделяют такие цели, как неизменяемость и децентрализация. Однако реестры на основе DAG имеют «бесблочную» или мульти-родительскую структуру, что придает им различные свойства на практике. Традиционные блокчейны, такие как Bitcoin и Ethereum, используют последовательные блоки и часто отбрасывают любые конкурирующие блоки (форки), тогда как реестры DAG пытаются включать и упорядочивать все транзакции, не отбрасывая ни одной, если они не конфликтуют. Это фундаментальное различие закладывает основу для различий в производительности и дизайне, подробно описанных ниже.

Техническое сравнение: архитектура DAG против блокчейна

Чтобы лучше понять DAG и блокчейны, мы можем сравнить их архитектуры и процессы валидации:

  • Структура данных: Блокчейны хранят данные в блоках, связанных в линейной последовательности (каждый блок содержит множество транзакций и указывает на один предыдущий блок, образуя одну длинную цепочку). Реестры DAG используют графовую структуру: каждый узел в графе представляет транзакцию или блок событий и может ссылаться на несколько предыдущих узлов. Этот направленный граф не имеет циклов, что означает, что если вы будете следовать по ссылкам «назад», вы никогда не сможете вернуться к транзакции, с которой начали. Отсутствие циклов позволяет выполнять топологическую сортировку транзакций (способ их упорядочивания таким образом, чтобы каждая ссылка следовала за ссылаемой транзакцией). Короче говоря, блокчейны = одномерная цепочка, DAG = многомерный граф.
  • Пропускная способность и параллелизм: Из-за структурных различий блокчейны и DAG обрабатывают пропускную способность по-разному. Блокчейн, даже в оптимальных условиях, добавляет блоки один за другим (часто ожидая, пока каждый блок будет проверен и распространен по всей сети, прежде чем будет добавлен следующий). Это по своей сути ограничивает пропускную способность транзакций — например, Bitcoin в среднем обрабатывает 5–7 транзакций в секунду (TPS), а Ethereum ~15–30 TPS при классическом дизайне Proof-of-Work. Системы на основе DAG, напротив, позволяют многим новым транзакциям/блокам одновременно входить в реестр. Множественные ветви транзакций могут расти одновременно и позже объединяться, что значительно увеличивает потенциальную пропускную способность. Некоторые современные сети DAG заявляют о пропускной способности в тысячи TPS, приближаясь или превосходя традиционные платежные сети по пропускной способности.
  • Процесс валидации транзакций: В блокчейн-сетях транзакции ожидают в мемпуле и валидируются, когда майнер или валидатор упаковывает их в новый блок, затем другие узлы проверяют этот блок на соответствие истории. В сетях DAG валидация часто более непрерывна и децентрализована: каждая новая транзакция выполняет действие валидации, ссылаясь на (одобряя) более ранние транзакции. Например, каждая транзакция в Tangle IOTA должна подтвердить две предыдущие транзакции, проверив их действительность и выполнив небольшое доказательство работы, тем самым «голосуя» за эти транзакции. В DAG-структуре block-lattice Nano транзакции каждого аккаунта образуют свою собственную цепочку и валидируются посредством голосования узлами-представителями (подробнее об этом позже). Конечный эффект заключается в том, что DAG распределяет работу по валидации: вместо того, чтобы один производитель блоков валидировал пакет транзакций, каждый участник или множество валидаторов одновременно валидируют разные транзакции.
  • Механизм консенсуса: И блокчейнам, и DAG нужен способ для сети договориться о состоянии реестра (какие транзакции подтверждены и в каком порядке). В блокчейнах консенсус часто достигается за счет Proof of Work или Proof of Stake, производящих следующий блок, и правила «самая длинная (или самая тяжелая) цепочка выигрывает». В реестрах DAG консенсус может быть более сложным, поскольку нет единой цепочки. Различные проекты DAG используют разные подходы: некоторые используют протоколы сплетен и виртуальное голосование (как в Hedera Hashgraph) для достижения согласия по порядку транзакций, другие используют выбор вершин по методу Монте-Карло с цепями Маркова (ранний подход IOTA) или другие схемы голосования для определения предпочтительных ветвей графа. Мы обсудим конкретные методы консенсуса в системах DAG в последующем разделе. В целом, достижение общесетевого согласия в DAG может быть быстрее с точки зрения пропускной способности, но требует тщательного проектирования для обработки конфликтов (таких как попытки двойной траты), поскольку несколько транзакций могут существовать параллельно до окончательного упорядочивания.
  • Обработка форков: В блокчейне «форк» (два блока, добытые почти одновременно) приводит к тому, что одна ветвь в конечном итоге выигрывает (самая длинная цепочка), а другая становится сиротской (отбрасывается), что приводит к потере всей работы, выполненной над сиротским блоком. В DAG философия заключается в том, чтобы принимать форки как дополнительные ветви графа, а не отбрасывать их. DAG будет включать оба форка; затем алгоритм консенсуса определяет, какие транзакции в конечном итоге подтверждаются (или как разрешаются конфликтующие транзакции), не отбрасывая всю одну ветвь. Это означает, что мощность майнинга или усилия не тратятся впустую на устаревшие блоки, что способствует повышению эффективности. Например, Tree-Graph Conflux (DAG на PoW) пытается включить все блоки в реестр и упорядочивает их, а не делает их сиротскими, тем самым используя 100% произведенных блоков.

Таким образом, блокчейны предлагают более простую, строго упорядоченную структуру, где валидация происходит блок за блоком, тогда как DAG предоставляют более сложную графовую структуру, позволяющую асинхронную и параллельную обработку транзакций. Реестры на основе DAG должны использовать дополнительную логику консенсуса для управления этой сложностью, но они обещают значительно более высокую пропускную способность и эффективность за счет использования полной пропускной способности сети, а не принудительного создания очереди блоков.

Преимущества блокчейн-систем на основе DAG

Архитектуры DAG были введены в первую очередь для преодоления ограничений традиционных блокчейнов в масштабируемости, скорости и стоимости. Вот основные преимущества распределенных реестров на основе DAG:

  • Высокая масштабируемость и пропускная способность: Сети DAG могут достигать высокой пропускной способности транзакций, поскольку они обрабатывают множество транзакций параллельно. Поскольку нет узкого места в виде одной цепочки, TPS (транзакций в секунду) может масштабироваться в зависимости от сетевой активности. Фактически, некоторые протоколы DAG продемонстрировали пропускную способность порядка тысяч TPS. Например, Hedera Hashgraph способна обрабатывать более 10 000 транзакций в секунду на базовом уровне, значительно превосходя Bitcoin или Ethereum. На практике Hedera продемонстрировала завершение транзакций примерно за 3–5 секунд, по сравнению с минутами или более длительным временем подтверждения в блокчейнах PoW. Даже платформы смарт-контрактов на основе DAG, такие как Fantom, достигли почти мгновенной завершенности (~1–2 секунды) для транзакций при нормальных нагрузках. Эта масштабируемость делает DAG привлекательными для приложений, требующих большого объема, таких как микротранзакции IoT или потоки данных в реальном времени.
  • Низкие комиссии за транзакции (бесплатные или минимальные): Многие реестры на основе DAG могут похвастаться незначительными комиссиями или даже бесплатными транзакциями. По своей конструкции они часто не полагаются на майнеров, ожидающих вознаграждения за блоки или комиссии; например, в IOTA и Nano нет обязательных комиссий за транзакции — это важнейшее свойство для микроплатежей в IoT и повседневном использовании. Там, где комиссии существуют (например, Hedera или Fantom), они, как правило, очень низкие и предсказуемые, поскольку сеть может обрабатывать нагрузку без ценовых войн за ограниченное пространство блоков. Транзакции Hedera стоят около $0.0001 (одна десятитысячная доллара) в виде комиссий, что составляет крошечную долю от типичных комиссий блокчейна. Такие низкие затраты открывают двери для таких вариантов использования, как высокочастотные транзакции или крошечные платежи, которые были бы невозможны в цепочках с высокими комиссиями. Кроме того, поскольку DAG включают все действительные транзакции, а не отбрасывают некоторые в случае форков, меньше «потерянной» работы — что косвенно помогает снизить затраты за счет эффективного использования ресурсов.
  • Быстрое подтверждение и низкая задержка: В реестрах DAG транзакциям не нужно ждать включения в глобальный блок, поэтому подтверждение может быть быстрее. Многие системы DAG достигают быстрой завершенности — момента, когда транзакция считается окончательно подтвержденной. Например, консенсус Hedera Hashgraph обычно завершает транзакции в течение нескольких секунд со 100% уверенностью (завершенность aBFT). Сеть Nano часто видит транзакции, подтвержденные менее чем за 1 секунду благодаря легковесному процессу голосования. Эта низкая задержка улучшает пользовательский опыт, делая транзакции почти мгновенными, что важно для реальных платежей и интерактивных приложений.
  • Энергоэффективность: Сети на основе DAG часто не требуют интенсивного майнинга с использованием доказательства работы, который используют многие блокчейны, что делает их гораздо более энергоэффективными. Даже по сравнению с блокчейнами на основе доказательства доли владения, некоторые сети DAG потребляют минимальное количество энергии на транзакцию. Например, одна транзакция Hedera Hashgraph потребляет порядка 0.0001 кВт·ч (киловатт-час) энергии. Это на несколько порядков меньше, чем Bitcoin (который может потреблять сотни кВт·ч на транзакцию) или даже многие цепочки PoS. Эффективность достигается за счет устранения расточительных вычислений (отсутствие гонки майнинга) и отказа от отбрасывания любых попыток транзакций. Если бы блокчейн-сети повсеместно перешли на модели на основе DAG, экономия энергии могла бы быть колоссальной. Углеродный след сетей DAG, таких как Hedera, настолько низок, что ее общая сеть является углеродно-отрицательной при учете компенсаций. Такая энергоэффективность становится все более важной для устойчивой инфраструктуры Web3.
  • Отсутствие майнинга и демократизированная валидация: Во многих моделях DAG нет отдельной роли майнера/валидатора, которую не могли бы выполнять обычные пользователи. Например, каждый пользователь IOTA, выпускающий транзакцию, также помогает валидировать две другие, по сути децентрализуя работу по валидации до периферии сети. Это может снизить потребность в мощном майнинговом оборудовании или стейкинге больших объемов капитала для участия в консенсусе, потенциально делая сеть более доступной. (Однако некоторые сети DAG по-прежнему используют валидаторов или координаторов — см. обсуждение консенсуса и децентрализации позже.)
  • Плавная обработка высокого трафика: Блокчейны часто страдают от переполнения мемпула и скачков комиссий при высокой нагрузке (поскольку только один блок за раз может обрабатывать транзакции). Сети DAG, благодаря своей параллельной природе, обычно более изящно справляются со скачками трафика. По мере того, как все больше транзакций наводняют сеть, они просто создают больше параллельных ветвей в DAG, которые система может обрабатывать одновременно. Жесткого ограничения пропускной способности меньше (масштабируемость более «горизонтальная»). Это приводит к лучшей масштабируемости под нагрузкой, с меньшими задержками и лишь умеренным увеличением времени подтверждения или комиссий, вплоть до пропускной способности сети узлов и вычислительной мощности. По сути, DAG может поглощать всплески транзакций без быстрого перегрузки, что делает его подходящим для вариантов использования, связанных со всплесками активности (например, все устройства IoT отправляют данные одновременно или вирусное событие DApp).

Таким образом, реестры на основе DAG обещают более быстрые, дешевые и масштабируемые транзакции, чем классический подход блокчейна. Они нацелены на поддержку сценариев массового внедрения (микроплатежи, IoT, высокочастотная торговля и т. д.), с которыми текущие основные блокчейны сталкиваются из-за ограничений пропускной способности и стоимости. Однако эти преимущества сопряжены с определенными компромиссами и проблемами реализации, которые мы рассмотрим в последующих разделах.

Механизмы консенсуса в платформах на основе DAG

Поскольку реестры DAG естественным образом не производят единую цепочку блоков, им требуются инновационные механизмы консенсуса для проверки транзакций и обеспечения согласия всех участников относительно состояния реестра. Различные проекты разработали различные решения, адаптированные к их архитектуре DAG. Здесь мы описываем некоторые примечательные подходы к консенсусу, используемые платформами на основе DAG:

  • Tangle IOTA – Выбор вершин и взвешенное голосование: Tangle IOTA — это DAG транзакций, разработанный для Интернета вещей (IoT). В оригинальной модели IOTA нет майнеров; вместо этого каждая новая транзакция должна выполнить небольшое доказательство работы и одобрить две предыдущие транзакции (это «вершины» графа). Этот выбор вершин часто осуществляется с помощью алгоритма Монте-Карло с цепями Маркова (MCMC), который вероятностно выбирает, какие вершины одобрить, отдавая предпочтение самому тяжелому подграфу для предотвращения фрагментации. Консенсус в ранней IOTA частично достигался за счет этого кумулятивного веса одобрений — чем больше будущих транзакций косвенно одобряют вашу, тем более «подтвержденной» она становится. Однако для обеспечения безопасности сети на ранних этапах IOTA полагалась на временный централизованный узел Координатора, который выпускал периодические транзакции-вехи для завершения Tangle. Это было серьезной критикой (централизация) и сейчас устраняется в обновлении, известном как «Coordicide» (IOTA 2.0). В IOTA 2.0 новая модель консенсуса применяет безответственный консенсус в стиле Накамото на DAG. По сути, узлы выполняют голосование в Tangle: когда узел присоединяет новый блок, этот блок неявно голосует за действительность транзакций, на которые он ссылается. Комитет узлов-валидаторов (выбранных с помощью механизма стейкинга) выпускает блоки валидации в качестве голосов, и транзакция подтверждается, когда она накапливает достаточное количество взвешенных одобрений (концепция, называемая весом одобрения). Этот подход сочетает идею самого тяжелого DAG (подобно самой длинной цепочке) с явным голосованием для достижения консенсуса без координатора. Короче говоря, консенсус IOTA эволюционировал от выбора вершин + Координатор к полностью децентрализованному голосованию по ветвям DAG узлами, стремясь к безопасности и быстрому согласию о состоянии реестра.
  • Hedera Hashgraph – Сплетни и виртуальное голосование (aBFT): Hedera Hashgraph использует DAG событий в сочетании с асинхронным византийским отказоустойчивым (aBFT) алгоритмом консенсуса. Основная идея — «сплетни о сплетнях»: каждый узел быстро распространяет подписанную информацию о транзакциях и о своей истории сплетен другим узлам. Это создает Hashgraph (DAG событий), где каждый узел в конечном итоге знает, что распространил каждый другой узел, включая структуру того, кто что слышал и когда. Используя этот DAG событий, Hedera реализует виртуальное голосование. Вместо того чтобы отправлять фактические сообщения о голосовании для упорядочивания транзакций, узлы моделируют алгоритм голосования локально, анализируя граф связей сплетен. Алгоритм Hashgraph Лимона Бэрда может детерминированно рассчитать, как пройдет теоретический раунд голосования по порядку транзакций, просматривая историю «сети сплетен», записанную в DAG. Это дает метку времени консенсуса и полный порядок транзакций, который является справедливым и окончательным (транзакции упорядочиваются по медианному времени их получения сетью). Консенсус Hashgraph является безответственным и достигает aBFT, что означает, что он может выдерживать до 1/3 злонамеренных узлов без ущерба для консенсуса. На практике сеть Hedera управляется набором из 39 известных узлов, управляемых организациями (Совет Hedera), поэтому она является разрешенной, но географически распределенной. Преимуществом является чрезвычайно быстрый и безопасный консенсус: Hedera может достичь завершенности за секунды с гарантированной согласованностью. Механизм консенсуса Hashgraph запатентован, но был открыт в 2024 году и демонстрирует, как DAG + инновационный консенсус (сплетни и виртуальное голосование) могут заменить традиционный протокол блокчейна.
  • Lachesis Fantom – Безответственный PoS aBFT: Fantom — это платформа смарт-контрактов, которая использует консенсус на основе DAG под названием Lachesis. Lachesis — это протокол Proof-of-Stake aBFT, вдохновленный Hashgraph. В Fantom каждый узел-валидатор собирает полученные транзакции в блок событий и добавляет его в свой локальный DAG событий. Эти блоки событий содержат транзакции и ссылки на более ранние события. Валидаторы асинхронно передают эти блоки событий друг другу — нет единой последовательности, в которой блоки должны быть произведены или согласованы. По мере распространения блоков событий валидаторы периодически идентифицируют определенные события как вехи (или «корневые блоки событий») после того, как их увидит супербольшинство узлов. Затем Lachesis упорядочивает эти завершенные события и фиксирует их в окончательной Opera Chain (традиционная структура данных блокчейна), которая действует как реестр подтвержденных блоков. По сути, DAG блоков событий позволяет Fantom достигать консенсуса асинхронно и очень быстро, а затем конечным результатом является линейная цепочка для совместимости. Это обеспечивает примерно 1–2 секунды завершенности для транзакций в Fantom. В Lachesis нет майнеров или лидеров, предлагающих блоки; все валидаторы вносят блоки событий, и протокол детерминированно упорядочивает их. Консенсус обеспечивается моделью Proof-of-Stake (валидаторы должны стейкать токены FTM и взвешиваются по стейку). Lachesis также является aBFT, допуская до 1/3 неисправных узлов. Объединяя параллелизм DAG с выходом в виде конечной цепочки, Fantom достигает высокой пропускной способности (несколько тысяч TPS в тестах), оставаясь при этом EVM-совместимым для смарт-контрактов. Это хороший пример использования DAG внутренне для повышения производительности, не раскрывая сложность DAG на уровне приложения (разработчики в конечном итоге все равно видят обычную цепочку транзакций).
  • Открытое представительное голосование Nano (ORV): Nano — это платежная криптовалюта, которая использует уникальную структуру DAG, называемую block-lattice. В Nano у каждого аккаунта есть свой собственный блокчейн (цепочка аккаунта), который может обновлять только владелец аккаунта. Все эти отдельные цепочки образуют DAG, поскольку транзакции из разных аккаунтов связываются асинхронно (отправка в одной цепочке аккаунта ссылается на получение в другой и т. д.). Консенсус в Nano достигается с помощью механизма, называемого Открытое представительное голосование (ORV). Пользователи назначают узел-представитель для своего аккаунта (это делегирование веса, а не блокировка средств), и эти представители голосуют за действительность транзакций. Каждая транзакция рассчитывается индивидуально (нет блоков, объединяющих несколько транзакций) и считается подтвержденной, когда супербольшинство (например, >67%) голосующего веса (от представителей) соглашается с ней. Поскольку честные владельцы аккаунтов не будут дважды тратить свои средства, форки редки и обычно вызваны только злонамеренными попытками, которые представители могут быстро отклонить. Завершенность обычно достигается менее чем за секунду для каждой транзакции. ORV аналогичен Proof-of-Stake тем, что вес голоса основан на балансах аккаунтов (стейке), но нет вознаграждения за стейкинг или комиссии — представители являются добровольными узлами. Отсутствие майнинга и производства блоков означает, что Nano может работать без комиссий и эффективно. Однако он полагается на набор доверенных представителей, находящихся в сети для голосования, и существует неявная централизация, при которой узлы накапливают большой вес голоса (хотя пользователи могут переключать представителей в любое время, сохраняя контроль децентрализации в руках пользователей). Консенсус Nano является легковесным и оптимизирован для скорости и энергоэффективности, что соответствует его цели быть быстрыми, бесплатными цифровыми деньгами.
  • Другие примечательные подходы: Существует несколько других протоколов консенсуса на основе DAG. Hedera Hashgraph и Fantom Lachesis мы рассмотрели; помимо них:
    • Консенсус Avalanche (Avalanche/X-Chain): Avalanche использует консенсус на основе DAG, где валидаторы многократно опрашивают друг друга в рандомизированном процессе, чтобы решить, каким транзакциям или блокам отдать предпочтение. X-Chain Avalanche (цепочка обмена) — это DAG транзакций (UTXO) и достигает консенсуса с помощью этого метода сетевой выборки. Протокол Avalanche вероятностный, но чрезвычайно быстрый и масштабируемый — он может завершать транзакции примерно за 1 секунду и, как сообщается, обрабатывать до 4500 TPS на подсеть. Подход Avalanche уникален тем, что сочетает структуры данных DAG с метастабильным консенсусом (протокол Snowball) и обеспечивается Proof-of-Stake (любой может быть валидатором с достаточным стейком).
    • Conflux Tree-Graph: Conflux — это платформа, которая расширила PoW Bitcoin до DAG блоков. Она использует структуру Tree-Graph, где блоки ссылаются не только на одного родителя, но и на все известные предыдущие блоки (без сиротства). Это позволяет Conflux использовать майнинг Proof-of-Work, но сохранять все форки как часть реестра, что приводит к гораздо более высокой пропускной способности, чем у типичной цепочки. Таким образом, Conflux может достигать порядка 3–6 тысяч TPS в теории, используя PoW, за счет того, что майнеры производят блоки непрерывно, не дожидаясь одной цепочки. Затем его консенсус упорядочивает эти блоки и разрешает конфликты по правилу самого тяжелого поддерева. Это пример гибридного PoW DAG.
    • Варианты Hashgraph и академические протоколы: Существует множество академических протоколов DAG (некоторые реализованы в более новых проектах): SPECTRE и PHANTOM (протоколы blockDAG, нацеленные на высокую пропускную способность и быстрое подтверждение, от DAGlabs), Aleph Zero (консенсус DAG aBFT, используемый в блокчейне Aleph Zero), Parallel Chains / Prism (исследовательские проекты, разделяющие подтверждение транзакций на параллельные подцепочки и DAG), а также недавние достижения, такие как Narwhal & Bullshark Sui, которые используют мемпул DAG для высокой пропускной способности и отдельный консенсус для завершенности. Хотя не все из них имеют крупномасштабные развертывания, они указывают на богатую область исследований. Многие из этих протоколов различают доступность (быстрая запись большого количества данных в DAG) и согласованность (согласие по одной истории), пытаясь получить лучшее из обоих.

Каждая платформа DAG адаптирует свой консенсус к своим потребностям — будь то бесплатные микротранзакции, выполнение смарт-контрактов или интероперабельность. Однако общая тема — избегание единого последовательного узкого места: механизмы консенсуса DAG стремятся обеспечить множество одновременных действий, а затем используют умные алгоритмы (сплетни, голосование, выборка и т. д.) для упорядочивания, а не ограничивают сеть одним производителем блоков за раз.

Примеры использования: проекты блокчейнов на основе DAG

Несколько проектов реализовали реестры на основе DAG, каждый со своими уникальными дизайнерскими решениями и целевыми вариантами использования. Ниже мы рассмотрим некоторые известные платформы на основе DAG:

  • IOTA (The Tangle): IOTA — одна из первых криптовалют на основе DAG, разработанная для Интернета вещей. Ее реестр, называемый Tangle, представляет собой DAG транзакций, где каждая новая транзакция подтверждает две предыдущие. Цель IOTA — обеспечить бесплатные микротранзакции между устройствами IoT (оплата небольших сумм за данные или услуги). Она была запущена в 2016 году, и для обеспечения начальной безопасности использовала узел Координатора (управляемый Фондом IOTA) для предотвращения атак на раннюю сеть. IOTA работает над «Coordicide» для полной децентрализации сети путем введения консенсуса голосования (как описано ранее), где узлы голосуют по конфликтующим транзакциям, используя безответственный консенсус Накамото на самом тяжелом DAG. С точки зрения производительности, IOTA может, в теории, достигать очень высокой пропускной способности (протокол не устанавливает жесткого ограничения TPS; большая активность фактически помогает быстрее подтверждать транзакции). На практике тестовые сети продемонстрировали сотни TPS, и ожидается, что предстоящая IOTA 2.0 будет хорошо масштабироваться для потребностей IoT. Варианты использования IOTA вращаются вокруг IoT и целостности данных: например, потоковая передача данных датчиков с доказательствами целостности, платежи между транспортными средствами, отслеживание цепочек поставок и даже децентрализованная идентификация (фреймворк IOTA Identity позволяет выпускать и проверять цифровые учетные данные/DID в Tangle). IOTA изначально не поддерживает смарт-контракты на своем базовом уровне, но проект представил параллельный фреймворк смарт-контрактов и токены на вторичном уровне для обеспечения более сложной функциональности DApp. Заметной особенностью IOTA являются ее нулевые комиссии, что достигается за счет требования небольшого PoW от отправителя вместо взимания комиссии — это делает ее привлекательной для высокообъемных, низкостоимостных транзакций (например, датчик, отправляющий данные каждые несколько секунд за незначительную стоимость).
  • Hedera Hashgraph (HBAR): Hedera — это публичный распределенный реестр, использующий алгоритм консенсуса Hashgraph (изобретенный доктором Лимоном Бэрдом). Hedera была запущена в 2018 году и управляется советом крупных организаций (Google, IBM, Boeing и другие), которые управляют первоначальным набором узлов. В отличие от большинства других, Hedera разрешена в управлении (только утвержденные члены совета в настоящее время управляют узлами консенсуса, до 39 узлов), хотя любой может использовать сеть. Ее Hashgraph DAG обеспечивает очень высокую пропускную способность и быструю завершенность — Hedera может обрабатывать более 10 000 TPS с завершенностью за 3–5 секунд в оптимальных условиях. Это достигается с помощью описанного ранее консенсуса aBFT на основе сплетен. Hedera делает акцент на корпоративных и Web3 вариантах использования, требующих надежности в масштабе: ее сеть предлагает услуги по токенизации (Hedera Token Service), службу консенсуса для защищенного от подделки журналирования событий и службу смарт-контрактов (которая совместима с EVM). Заметные приложения на Hedera включают отслеживание происхождения цепочки поставок (например, отслеживание одежды Avery Dennison), высокообъемный минтинг NFT (низкие комиссии делают минтинг NFT недорогим), платежи и микроплатежи (например, микроплатежи в рекламных технологиях) и даже решения для децентрализованной идентификации. Hedera имеет метод DID, зарегистрированный в W3C, и фреймворки, такие как Hedera Guardian, для поддержки проверяемых учетных данных и соответствия нормативным требованиям (например, отслеживание углеродных кредитов). Ключевой особенностью является высокая производительность Hedera в сочетании с заявленной стабильностью (алгоритм Hashgraph гарантирует отсутствие форков и математически доказанную справедливость в упорядочивании). Компромисс заключается в том, что Hedera менее децентрализована по количеству узлов, чем открытые сети (по замыслу, с ее моделью управления), хотя узлы совета расположены по всему миру, и в планах со временем увеличить открытость. В целом, Hedera Hashgraph является ярким примером DLT на основе DAG, ориентированной на корпоративные приложения, с акцентом на высокую пропускную способность, безопасность и управление.
  • Fantom (FTM): Fantom — это платформа смарт-контрактов (блокчейн первого уровня), которая использует консенсус на основе DAG под названием Lachesis. Запущенная в 2019 году, Fantom приобрела популярность, особенно во время бума DeFi в 2021–2022 годах, как цепочка, совместимая с Ethereum, с гораздо более высокой производительностью. Сеть Opera Fantom работает на консенсусе Lachesis aBFT (подробно описанном выше), где валидаторы поддерживают локальный DAG блоков событий и достигают консенсуса асинхронно, а затем завершают транзакции в основной цепочке. Это дает Fantom типичное время до завершенности ~1 секунда для транзакций и способность обрабатывать тысячи транзакций в секунду. Fantom совместим с EVM, что означает, что разработчики могут развертывать Solidity смарт-контракты и использовать те же инструменты, что и Ethereum, что значительно способствовало его внедрению в DeFi. Действительно, Fantom стал домом для многочисленных проектов DeFi (DEX, протоколы кредитования, фарминг доходности), привлеченных его скоростью и низкими комиссиями. Он также размещает проекты NFT и игровые DApp — по сути, любое приложение Web3, которое выигрывает от быстрых и дешевых транзакций. Стоит отметить, что Fantom достиг высокого уровня децентрализации для платформы DAG: у него есть десятки независимых валидаторов, обеспечивающих безопасность сети (без разрешений, любой может запустить валидатор с минимальным стейком), в отличие от некоторых сетей DAG, которые ограничивают валидаторов. Это позиционирует Fantom как надежную альтернативу более традиционным блокчейнам для децентрализованных приложений, используя технологию DAG для устранения узких мест в производительности. Токен FTM сети используется для стейкинга, управления и комиссий (которые составляют всего несколько центов за транзакцию, намного ниже, чем комиссии за газ Ethereum). Fantom продемонстрировал, что консенсус на основе DAG может быть интегрирован с платформами смарт-контрактов для достижения как скорости, так и совместимости.
  • Nano (XNO): Nano — это легковесная криптовалюта, запущенная в 2015 году (первоначально как RaiBlocks), которая использует структуру DAG block-lattice. Основное внимание Nano уделяется одноранговым цифровым деньгам: мгновенные, бесплатные транзакции с минимальным использованием ресурсов. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Hedera против IOTA против Fantom против Nano (краткий обзор): В таблице ниже приведены некоторые ключевые характеристики этих проектов на основе DAG:
Проект (Год)Структура данных и консенсусПроизводительность (Пропускная способность и завершенность)Заметные особенности / Варианты использования

Направленный ациклический граф (DAG) в блокчейне

Что такое DAG и чем он отличается от блокчейна?

Направленный ациклический граф (DAG) — это тип структуры данных, состоящий из вершин (узлов), соединенных направленными ребрами, которые никогда не образуют цикл. В контексте распределенных реестров, реестр на основе DAG организует транзакции или события в виде паутинообразного графа, а не единой последовательной цепочки. Это означает, что в отличие от традиционного блокчейна, где каждый новый блок ссылается только на одного предшественника (образуя линейную цепочку), узел в DAG может ссылаться на несколько предыдущих транзакций или блоков. В результате многие транзакции могут быть подтверждены параллельно, а не строго одна за другой в хронологических блоках.

Чтобы проиллюстрировать разницу, если блокчейн выглядит как длинная цепочка блоков (каждый блок содержит множество транзакций), то реестр на основе DAG больше похож на дерево или сеть отдельных транзакций. Каждая новая транзакция в DAG может присоединяться к (и тем самым подтверждать) одну или несколько более ранних транзакций, вместо того чтобы ждать упаковки в следующий единственный блок. Это структурное различие приводит к нескольким ключевым отличиям:

  • Параллельная валидация: В блокчейнах майнеры/валидаторы добавляют по одному блоку в цепочку за раз, поэтому транзакции подтверждаются партиями для каждого нового блока. В DAG несколько транзакций (или небольших «блоков» транзакций) могут быть добавлены одновременно, поскольку каждая из них может присоединяться к разным частям графа. Эта параллелизация означает, что сетям DAG не нужно ждать, пока одна длинная цепочка будет расти по одному блоку за раз.
  • Отсутствие глобального последовательного порядка: Блокчейн по своей сути создает полный порядок транзакций (каждый блок имеет определенное место в одной последовательности). Реестр DAG, напротив, формирует частичный порядок транзакций. Нет единого «последнего блока», в очередь к которому выстраиваются все транзакции; вместо этого множество «вершин» графа могут сосуществовать и расширяться одновременно. Затем требуются протоколы консенсуса, чтобы в конечном итоге упорядочить или согласовать порядок или действительность транзакций в DAG.
  • Подтверждение транзакций: В блокчейне транзакции подтверждаются, когда они включаются в добытый/валидированный блок, и этот блок становится частью принятой цепочки (часто после добавления новых блоков поверх него). В системах DAG новая транзакция сама по себе помогает подтверждать предыдущие транзакции, ссылаясь на них. Например, в Tangle IOTA (DAG) каждая транзакция должна подтвердить две предыдущие транзакции, фактически заставляя пользователей совместно проверять транзакции друг друга. Это устраняет строгое разделение между «создателями транзакций» и «валидаторами», которое существует в майнинге блокчейна — каждый участник, выпускающий транзакцию, также выполняет небольшую работу по валидации.

Важно отметить, что блокчейн на самом деле является частным случаем DAG — DAG, который был ограничен одной цепочкой блоков. Оба являются формами технологии распределенного реестра (DLT) и разделяют такие цели, как неизменяемость и децентрализация. Однако реестры на основе DAG имеют «бесблочную» или мульти-родительскую структуру, что придает им различные свойства на практике. Традиционные блокчейны, такие как Bitcoin и Ethereum, используют последовательные блоки и часто отбрасывают любые конкурирующие блоки (форки), тогда как реестры DAG пытаются включать и упорядочивать все транзакции, не отбрасывая ни одной, если они не конфликтуют. Это фундаментальное различие закладывает основу для различий в производительности и дизайне, подробно описанных ниже.

Техническое сравнение: архитектура DAG против блокчейна

Чтобы лучше понять DAG и блокчейны, мы можем сравнить их архитектуры и процессы валидации:

  • Структура данных: Блокчейны хранят данные в блоках, связанных в линейной последовательности (каждый блок содержит множество транзакций и указывает на один предыдущий блок, образуя одну длинную цепочку). Реестры DAG используют графовую структуру: каждый узел в графе представляет транзакцию или блок событий и может ссылаться на несколько предыдущих узлов. Этот направленный граф не имеет циклов, что означает, что если вы будете следовать по ссылкам «назад», вы никогда не сможете вернуться к транзакции, с которой начали. Отсутствие циклов позволяет выполнять топологическую сортировку транзакций (способ их упорядочивания таким образом, чтобы каждая ссылка следовала за ссылаемой транзакцией). Короче говоря, блокчейны = одномерная цепочка, DAG = многомерный граф.
  • Пропускная способность и параллелизм: Из-за структурных различий блокчейны и DAG обрабатывают пропускную способность по-разному. Блокчейн, даже в оптимальных условиях, добавляет блоки один за другим (часто ожидая, пока каждый блок будет проверен и распространен по всей сети, прежде чем будет добавлен следующий). Это по своей сути ограничивает пропускную способность транзакций — например, Bitcoin в среднем обрабатывает 5–7 транзакций в секунду (TPS), а Ethereum ~15–30 TPS при классическом дизайне Proof-of-Work. Системы на основе DAG, напротив, позволяют многим новым транзакциям/блокам одновременно входить в реестр. Множественные ветви транзакций могут расти одновременно и позже объединяться, что значительно увеличивает потенциальную пропускную способность. Некоторые современные сети DAG заявляют о пропускной способности в тысячи TPS, приближаясь или превосходя традиционные платежные сети по пропускной способности.
  • Процесс валидации транзакций: В блокчейн-сетях транзакции ожидают в мемпуле и валидируются, когда майнер или валидатор упаковывает их в новый блок, затем другие узлы проверяют этот блок на соответствие истории. В сетях DAG валидация часто более непрерывна и децентрализована: каждая новая транзакция выполняет действие валидации, ссылаясь на (одобряя) более ранние транзакции. Например, каждая транзакция в Tangle IOTA должна подтвердить две предыдущие транзакции, проверив их действительность и выполнив небольшое доказательство работы, тем самым «голосуя» за эти транзакции. В DAG-структуре block-lattice Nano транзакции каждого аккаунта образуют свою собственную цепочку и валидируются посредством голосования узлами-представителями (подробнее об этом позже). Конечный эффект заключается в том, что DAG распределяет работу по валидации: вместо того, чтобы один производитель блоков валидировал пакет транзакций, каждый участник или множество валидаторов одновременно валидируют разные транзакции.
  • Механизм консенсуса: И блокчейнам, и DAG нужен способ для сети договориться о состоянии реестра (какие транзакции подтверждены и в каком порядке). В блокчейнах консенсус часто достигается за счет Proof of Work или Proof of Stake, производящих следующий блок, и правила «самая длинная (или самая тяжелая) цепочка выигрывает». В реестрах DAG консенсус может быть более сложным, поскольку нет единой цепочки. Различные проекты DAG используют разные подходы: некоторые используют протоколы сплетен и виртуальное голосование (как в Hedera Hashgraph) для достижения согласия по порядку транзакций, другие используют выбор вершин по методу Монте-Карло с цепями Маркова (ранний подход IOTA) или другие схемы голосования для определения предпочтительных ветвей графа. Мы обсудим конкретные методы консенсуса в системах DAG в последующем разделе. В целом, достижение общесетевого согласия в DAG может быть быстрее с точки зрения пропускной способности, но требует тщательного проектирования для обработки конфликтов (таких как попытки двойной траты), поскольку несколько транзакций могут существовать параллельно до окончательного упорядочивания.
  • Обработка форков: В блокчейне «форк» (два блока, добытые почти одновременно) приводит к тому, что одна ветвь в конечном итоге выигрывает (самая длинная цепочка), а другая становится сиротской (отбрасывается), что приводит к потере всей работы, выполненной над сиротским блоком. В DAG философия заключается в том, чтобы принимать форки как дополнительные ветви графа, а не отбрасывать их. DAG будет включать оба форка; затем алгоритм консенсуса определяет, какие транзакции в конечном итоге подтверждаются (или как разрешаются конфликтующие транзакции), не отбрасывая всю одну ветвь. Это означает, что мощность майнинга или усилия не тратятся впустую на устаревшие блоки, что способствует повышению эффективности. Например, Tree-Graph Conflux (DAG на PoW) пытается включить все блоки в реестр и упорядочивает их, а не делает их сиротскими, тем самым используя 100% произведенных блоков.

Таким образом, блокчейны предлагают более простую, строго упорядоченную структуру, где валидация происходит блок за блоком, тогда как DAG предоставляют более сложную графовую структуру, позволяющую асинхронную и параллельную обработку транзакций. Реестры на основе DAG должны использовать дополнительную логику консенсуса для управления этой сложностью, но они обещают значительно более высокую пропускную способность и эффективность за счет использования полной пропускной способности сети, а не принудительного создания очереди блоков.

Преимущества блокчейн-систем на основе DAG

Архитектуры DAG были введены в первую очередь для преодоления ограничений традиционных блокчейнов в масштабируемости, скорости и стоимости. Вот основные преимущества распределенных реестров на основе DAG:

  • Высокая масштабируемость и пропускная способность: Сети DAG могут достигать высокой пропускной способности транзакций, поскольку они обрабатывают множество транзакций параллельно. Поскольку нет узкого места в виде одной цепочки, TPS (транзакций в секунду) может масштабироваться в зависимости от сетевой активности. Фактически, некоторые протоколы DAG продемонстрировали пропускную способность порядка тысяч TPS. Например, Hedera Hashgraph способна обрабатывать более 10 000 транзакций в секунду на базовом уровне, значительно превосходя Bitcoin или Ethereum. На практике Hedera продемонстрировала завершение транзакций примерно за 3–5 секунд, по сравнению с минутами или более длительным временем подтверждения в блокчейнах PoW. Даже платформы смарт-контрактов на основе DAG, такие как Fantom, достигли почти мгновенной завершенности (~1–2 секунды) для транзакций при нормальных нагрузках. Эта масштабируемость делает DAG привлекательными для приложений, требующих большого объема, таких как микротранзакции IoT или потоки данных в реальном времени.
  • Низкие комиссии за транзакции (бесплатные или минимальные): Многие реестры на основе DAG могут похвастаться незначительными комиссиями или даже бесплатными транзакциями. По своей конструкции они часто не полагаются на майнеров, ожидающих вознаграждения за блоки или комиссии; например, в IOTA и Nano нет обязательных комиссий за транзакции — это важнейшее свойство для микроплатежей в IoT и повседневном использовании. Там, где комиссии существуют (например, Hedera или Fantom), они, как правило, очень низкие и предсказуемые, поскольку сеть может обрабатывать нагрузку без ценовых войн за ограниченное пространство блоков. Транзакции Hedera стоят около $0.0001 (одна десятитысячная доллара) в виде комиссий, что составляет крошечную долю от типичных комиссий блокчейна. Такие низкие затраты открывают двери для таких вариантов использования, как высокочастотные транзакции или крошечные платежи, которые были бы невозможны в цепочках с высокими комиссиями. Кроме того, поскольку DAG включают все действительные транзакции, а не отбрасывают некоторые в случае форков, меньше «потерянной» работы — что косвенно помогает снизить затраты за счет эффективного использования ресурсов.
  • Быстрое подтверждение и низкая задержка: В реестрах DAG транзакциям не нужно ждать включения в глобальный блок, поэтому подтверждение может быть быстрее. Многие системы DAG достигают быстрой завершенности — момента, когда транзакция считается окончательно подтвержденной. Например, консенсус Hedera Hashgraph обычно завершает транзакции в течение нескольких секунд со 100% уверенностью (завершенность aBFT). Сеть Nano часто видит транзакции, подтвержденные менее чем за 1 секунду благодаря легковесному процессу голосования. Эта низкая задержка улучшает пользовательский опыт, делая транзакции почти мгновенными, что важно для реальных платежей и интерактивных приложений.
  • Энергоэффективность: Сети на основе DAG часто не требуют интенсивного майнинга с использованием доказательства работы, который используют многие блокчейны, что делает их гораздо более энергоэффективными. Даже по сравнению с блокчейнами на основе доказательства доли владения, некоторые сети DAG потребляют минимальное количество энергии на транзакцию. Например, одна транзакция Hedera Hashgraph потребляет порядка 0.0001 кВт·ч (киловатт-час) энергии. Это на несколько порядков меньше, чем Bitcoin (который может потреблять сотни кВт·ч на транзакцию) или даже многие цепочки PoS. Эффективность достигается за счет устранения расточительных вычислений (отсутствие гонки майнинга) и отказа от отбрасывания любых попыток транзакций. Если бы блокчейн-сети повсеместно перешли на модели на основе DAG, экономия энергии могла бы быть колоссальной. Углеродный след сетей DAG, таких как Hedera, настолько низок, что ее общая сеть является углеродно-отрицательной при учете компенсаций. Такая энергоэффективность становится все более важной для устойчивой инфраструктуры Web3.
  • Отсутствие майнинга и демократизированная валидация: Во многих моделях DAG нет отдельной роли майнера/валидатора, которую не могли бы выполнять обычные пользователи. Например, каждый пользователь IOTA, выпускающий транзакцию, также помогает валидировать две другие, по сути децентрализуя работу по валидации до периферии сети. Это может снизить потребность в мощном майнинговом оборудовании или стейкинге больших объемов капитала для участия в консенсусе, потенциально делая сеть более доступной. (Однако некоторые сети DAG по-прежнему используют валидаторов или координаторов — см. обсуждение консенсуса и децентрализации позже.)
  • Плавная обработка высокого трафика: Блокчейны часто страдают от переполнения мемпула и скачков комиссий при высокой нагрузке (поскольку только один блок за раз может обрабатывать транзакции). Сети DAG, благодаря своей параллельной природе, обычно более изящно справляются со скачками трафика. По мере того, как все больше транзакций наводняют сеть, они просто создают больше параллельных ветвей в DAG, которые система может обрабатывать одновременно. Жесткого ограничения пропускной способности меньше (масштабируемость более «горизонтальная»). Это приводит к лучшей масштабируемости под нагрузкой, с меньшими задержками и лишь умеренным увеличением времени подтверждения или комиссий, вплоть до пропускной способности сети узлов и вычислительной мощности. По сути, DAG может поглощать всплески транзакций без быстрого перегрузки, что делает его подходящим для вариантов использования, связанных со всплесками активности (например, все устройства IoT отправляют данные одновременно или вирусное событие DApp).

Таким образом, реестры на основе DAG обещают более быстрые, дешевые и масштабируемые транзакции, чем классический подход блокчейна. Они нацелены на поддержку сценариев массового внедрения (микроплатежи, IoT, высокочастотная торговля и т. д.), с которыми текущие основные блокчейны сталкиваются из-за ограничений пропускной способности и стоимости. Однако эти преимущества сопряжены с определенными компромиссами и проблемами реализации, которые мы рассмотрим в последующих разделах.

Механизмы консенсуса в платформах на основе DAG

Поскольку реестры DAG естественным образом не производят единую цепочку блоков, им требуются инновационные механизмы консенсуса для проверки транзакций и обеспечения согласия всех участников относительно состояния реестра. Различные проекты разработали различные решения, адаптированные к их архитектуре DAG. Здесь мы описываем некоторые примечательные подходы к консенсусу, используемые платформами на основе DAG:

  • Tangle IOTA – Выбор вершин и взвешенное голосование: Tangle IOTA — это DAG транзакций, разработанный для Интернета вещей (IoT). В оригинальной модели IOTA нет майнеров; вместо этого каждая новая транзакция должна выполнить небольшое доказательство работы и одобрить две предыдущие транзакции (это «вершины» графа). Этот выбор вершин часто осуществляется с помощью алгоритма Монте-Карло с цепями Маркова (MCMC), который вероятностно выбирает, какие вершины одобрить, отдавая предпочтение самому тяжелому подграфу для предотвращения фрагментации. Консенсус в ранней IOTA частично достигался за счет этого кумулятивного веса одобрений — чем больше будущих транзакций косвенно одобряют вашу, тем более «подтвержденной» она становится. Однако для обеспечения безопасности сети на ранних этапах IOTA полагалась на временный централизованный узел Координатора, который выпускал периодические транзакции-вехи для завершения Tangle. Это было серьезной критикой (централизация) и сейчас устраняется в обновлении, известном как «Coordicide» (IOTA 2.0). В IOTA 2.0 новая модель консенсуса применяет безответственный консенсус в стиле Накамото на DAG. По сути, узлы выполняют голосование в Tangle: когда узел присоединяет новый блок, этот блок неявно голосует за действительность транзакций, на которые он ссылается. Комитет узлов-валидаторов (выбранных с помощью механизма стейкинга) выпускает блоки валидации в качестве голосов, и транзакция подтверждается, когда она накапливает достаточное количество взвешенных одобрений (концепция, называемая весом одобрения). Этот подход сочетает идею самого тяжелого DAG (подобно самой длинной цепочке) с явным голосованием для достижения консенсуса без координатора. Короче говоря, консенсус IOTA эволюционировал от выбора вершин + Координатор к полностью децентрализованному голосованию по ветвям DAG узлами, стремясь к безопасности и быстрому согласию о состоянии реестра.
  • Hedera Hashgraph – Сплетни и виртуальное голосование (aBFT): Hedera Hashgraph использует DAG событий в сочетании с асинхронным византийским отказоустойчивым (aBFT) алгоритмом консенсуса. Основная идея — «сплетни о сплетнях»: каждый узел быстро распространяет подписанную информацию о транзакциях и о своей истории сплетен другим узлам. Это создает Hashgraph (DAG событий), где каждый узел в конечном итоге знает, что распространил каждый другой узел, включая структуру того, кто что слышал и когда. Используя этот DAG событий, Hedera реализует виртуальное голосование. Вместо того чтобы отправлять фактические сообщения о голосовании для упорядочивания транзакций, узлы моделируют алгоритм голосования локально, анализируя граф связей сплетен. Алгоритм Hashgraph Лимона Бэрда может детерминированно рассчитать, как пройдет теоретический раунд голосования по порядку транзакций, просматривая историю «сети сплетен», записанную в DAG. Это дает метку времени консенсуса и полный порядок транзакций, который является справедливым и окончательным (транзакции упорядочиваются по медианному времени их получения сетью). Консенсус Hashgraph является безответственным и достигает aBFT, что означает, что он может выдерживать до 1/3 злонамеренных узлов без ущерба для консенсуса. На практике сеть Hedera управляется набором из 39 известных узлов, управляемых организациями (Совет Hedera), поэтому она является разрешенной, но географически распределенной. Преимуществом является чрезвычайно быстрый и безопасный консенсус: Hedera может достичь завершенности за секунды с гарантированной согласованностью. Механизм консенсуса Hashgraph запатентован, но был открыт в 2024 году и демонстрирует, как DAG + инновационный консенсус (сплетни и виртуальное голосование) могут заменить традиционный протокол блокчейна.
  • Lachesis Fantom – Безответственный PoS aBFT: Fantom — это платформа смарт-контрактов, которая использует консенсус на основе DAG под названием Lachesis. Lachesis — это протокол Proof-of-Stake aBFT, вдохновленный Hashgraph. В Fantom каждый узел-валидатор собирает полученные транзакции в блок событий и добавляет его в свой локальный DAG событий. Эти блоки событий содержат транзакции и ссылки на более ранние события. Валидаторы асинхронно передают эти блоки событий друг другу — нет единой последовательности, в которой блоки должны быть произведены или согласованы. По мере распространения блоков событий валидаторы периодически идентифицируют определенные события как вехи (или «корневые блоки событий») после того, как их увидит супербольшинство узлов. Затем Lachesis упорядочивает эти завершенные события и фиксирует их в окончательной Opera Chain (традиционная структура данных блокчейна), которая действует как реестр подтвержденных блоков. По сути, DAG блоков событий позволяет Fantom достигать консенсуса асинхронно и очень быстро, а затем конечным результатом является линейная цепочка для совместимости. Это обеспечивает примерно 1–2 секунды завершенности для транзакций в Fantom. В Lachesis нет майнеров или лидеров, предлагающих блоки; все валидаторы вносят блоки событий и протокол детерминированно упорядочивает их. Консенсус обеспечивается моделью Proof-of-Stake (валидаторы должны стейкать токены FTM и взвешиваются по стейку). Lachesis также является aBFT, допуская до 1/3 неисправных узлов. Объединяя параллелизм DAG с выходом в виде конечной цепочки, Fantom достигает высокой пропускной способности (несколько тысяч TPS в тестах), оставаясь при этом EVM-совместимым для смарт-контрактов. Это хороший пример использования DAG внутренне для повышения производительности, не раскрывая сложность DAG на уровне приложения (разработчики в конечном итоге все равно видят обычную цепочку транзакций).
  • Открытое представительное голосование Nano (ORV): Nano — это платежная криптовалюта, которая использует уникальную структуру DAG, называемую block-lattice. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Другие примечательные подходы: Существует несколько других протоколов консенсуса на основе DAG. Hedera Hashgraph и Fantom Lachesis мы рассмотрели; помимо них:
    • Консенсус Avalanche (Avalanche/X-Chain): Avalanche использует консенсус на основе DAG, где валидаторы многократно опрашивают друг друга в рандомизированном процессе, чтобы решить, каким транзакциям или блокам отдать предпочтение. X-Chain Avalanche (цепочка обмена) — это DAG транзакций (UTXO) и достигает консенсуса с помощью этого метода сетевой выборки. Протокол Avalanche вероятностный, но чрезвычайно быстрый и масштабируемый — он может завершать транзакции примерно за 1 секунду и, как сообщается, обрабатывать до 4500 TPS на подсеть. Подход Avalanche уникален тем, что сочетает структуры данных DAG с метастабильным консенсусом (протокол Snowball) и обеспечивается Proof-of-Stake (любой может быть валидатором с достаточным стейком).
    • Conflux Tree-Graph: Conflux — это платформа, которая расширила PoW Bitcoin до DAG блоков. Она использует структуру Tree-Graph, где блоки ссылаются не только на одного родителя, но и на все известные предыдущие блоки (без сиротства). Это позволяет Conflux использовать майнинг Proof-of-Work, но сохранять все форки как часть реестра, что приводит к гораздо более высокой пропускной способности, чем у типичной цепочки. Таким образом, Conflux может достигать порядка 3–6 тысяч TPS в теории, используя PoW, за счет того, что майнеры производят блоки непрерывно, не дожидаясь одной цепочки. Затем его консенсус упорядочивает эти блоки и разрешает конфликты по правилу самого тяжелого поддерева. Это пример гибридного PoW DAG.
    • Варианты Hashgraph и академические протоколы: Существует множество академических протоколов DAG (некоторые реализованы в более новых проектах): SPECTRE и PHANTOM (протоколы blockDAG, нацеленные на высокую пропускную способность и быстрое подтверждение, от DAGlabs), Aleph Zero (консенсус DAG aBFT, используемый в блокчейне Aleph Zero), Parallel Chains / Prism (исследовательские проекты, разделяющие подтверждение транзакций на параллельные подцепочки и DAG), а также недавние достижения, такие как Narwhal & Bullshark Sui, которые используют мемпул DAG для высокой пропускной способности и отдельный консенсус для завершенности. Хотя не все из них имеют крупномасштабные развертывания, они указывают на богатую область исследований. Многие из этих протоколов различают доступность (быстрая запись большого количества данных в DAG) и согласованность (согласие по одной истории), пытаясь получить лучшее из обоих.

Каждая платформа DAG адаптирует свой консенсус к своим потребностям — будь то бесплатные микротранзакции, выполнение смарт-контрактов или интероперабельность. Однако общая тема — избегание единого последовательного узкого места: механизмы консенсуса DAG стремятся обеспечить множество одновременных действий, а затем используют умные алгоритмы (сплетни, голосование, выборка и т. д.) для упорядочивания, а не ограничивают сеть одним производителем блоков за раз.

Примеры использования: проекты блокчейнов на основе DAG

Несколько проектов реализовали реестры на основе DAG, каждый со своими уникальными дизайнерскими решениями и целевыми вариантами использования. Ниже мы рассмотрим некоторые известные платформы на основе DAG:

  • IOTA (The Tangle): IOTA — одна из первых криптовалют на основе DAG, разработанная для Интернета вещей. Ее реестр, называемый Tangle, представляет собой DAG транзакций, где каждая новая транзакция подтверждает две предыдущие. Цель IOTA — обеспечить бесплатные микротранзакции между устройствами IoT (оплата небольших сумм за данные или услуги). Она была запущена в 2016 году, и для обеспечения начальной безопасности использовала узел Координатора (управляемый Фондом IOTA) для предотвращения атак на раннюю сеть. IOTA работает над «Coordicide» для полной децентрализации сети путем введения консенсуса голосования (как описано ранее), где узлы голосуют по конфликтующим транзакциям, используя безответственный консенсус Накамото на самом тяжелом DAG. С точки зрения производительности, IOTA может, в теории, достигать очень высокой пропускной способности (протокол не устанавливает жесткого ограничения TPS; большая активность фактически помогает быстрее подтверждать транзакции). На практике тестовые сети продемонстрировали сотни TPS, и ожидается, что предстоящая IOTA 2.0 будет хорошо масштабироваться для потребностей IoT. Варианты использования IOTA вращаются вокруг IoT и целостности данных: например, потоковая передача данных датчиков с доказательствами целостности, платежи между транспортными средствами, отслеживание цепочек поставок и даже децентрализованная идентификация (фреймворк IOTA Identity позволяет выпускать и проверять цифровые учетные данные/DID в Tangle). IOTA изначально не поддерживает смарт-контракты на своем базовом уровне, но проект представил параллельный фреймворк смарт-контрактов и токены на вторичном уровне для обеспечения более сложной функциональности DApp. Заметной особенностью IOTA являются ее нулевые комиссии, что достигается за счет требования небольшого PoW от отправителя вместо взимания комиссии — это делает ее привлекательной для высокообъемных, низкостоимостных транзакций (например, датчик, отправляющий данные каждые несколько секунд за незначительную стоимость).
  • Hedera Hashgraph (HBAR): Hedera — это публичный распределенный реестр, использующий алгоритм консенсуса Hashgraph (изобретенный доктором Лимоном Бэрдом). Hedera была запущена в 2018 году и управляется советом крупных организаций (Google, IBM, Boeing и другие), которые управляют первоначальным набором узлов. В отличие от большинства других, Hedera разрешена в управлении (только утвержденные члены совета в настоящее время управляют узлами консенсуса, до 39 узлов), хотя любой может использовать сеть. Ее Hashgraph DAG обеспечивает очень высокую пропускную способность и быструю завершенность — Hedera может обрабатывать более 10 000 TPS с завершенностью за 3–5 секунд в оптимальных условиях. Это достигается с помощью описанного ранее консенсуса aBFT на основе сплетен. Hedera делает акцент на корпоративных и Web3 вариантах использования, требующих надежности в масштабе: ее сеть предлагает услуги по токенизации (Hedera Token Service), службу консенсуса для защищенного от подделки журналирования событий и службу смарт-контрактов (которая совместима с EVM). Заметные приложения на Hedera включают отслеживание происхождения цепочки поставок (например, отслеживание одежды Avery Dennison), высокообъемный минтинг NFT (низкие комиссии делают минтинг NFT недорогим), платежи и микроплатежи (например, микроплатежи в рекламных технологиях) и даже решения для децентрализованной идентификации. Hedera имеет метод DID, зарегистрированный в W3C, и фреймворки, такие как Hedera Guardian, для поддержки проверяемых учетных данных и соответствия нормативным требованиям (например, отслеживание углеродных кредитов). Ключевой особенностью является высокая производительность Hedera в сочетании с заявленной стабильностью (алгоритм Hashgraph гарантирует отсутствие форков и математически доказанную справедливость в упорядочивании). Компромисс заключается в том, что Hedera менее децентрализована по количеству узлов, чем открытые сети (по замыслу, с ее моделью управления), хотя узлы совета расположены по всему миру, и в планах со временем увеличить открытость. В целом, Hedera Hashgraph является ярким примером DLT на основе DAG, ориентированной на корпоративные приложения, с акцентом на высокую пропускную способность, безопасность и управление.
  • Fantom (FTM): Fantom — это платформа смарт-контрактов (блокчейн первого уровня), которая использует консенсус на основе DAG под названием Lachesis. Запущенная в 2019 году, Fantom приобрела популярность, особенно во время бума DeFi в 2021–2022 годах, как цепочка, совместимая с Ethereum, с гораздо более высокой производительностью. Сеть Opera Fantom работает на консенсусе Lachesis aBFT (подробно описанном выше), где валидаторы поддерживают локальный DAG блоков событий и достигают консенсуса асинхронно, а затем завершают транзакции в основной цепочке. Это дает Fantom типичное время до завершенности ~1 секунда для транзакций и способность обрабатывать тысячи транзакций в секунду. Fantom совместим с EVM, что означает, что разработчики могут развертывать Solidity смарт-контракты и использовать те же инструменты, что и Ethereum, что значительно способствовало его внедрению в DeFi. Действительно, Fantom стал домом для многочисленных проектов DeFi (DEX, протоколы кредитования, фарминг доходности), привлеченных его скоростью и низкими комиссиями. Он также размещает проекты NFT и игровые DApp — по сути, любое приложение Web3, которое выигрывает от быстрых и дешевых транзакций. Стоит отметить, что Fantom достиг высокого уровня децентрализации для платформы DAG: у него есть десятки независимых валидаторов, обеспечивающих безопасность сети (без разрешений, любой может запустить валидатор с минимальным стейком), в отличие от некоторых сетей DAG, которые ограничивают валидаторов. Это позиционирует Fantom как надежную альтернативу более традиционным блокчейнам для децентрализованных приложений, используя технологию DAG для устранения узких мест в производительности. Токен FTM сети используется для стейкинга, управления и комиссий (которые составляют всего несколько центов за транзакцию, намного ниже, чем комиссии за газ Ethereum). Fantom продемонстрировал, что консенсус на основе DAG может быть интегрирован с платформами смарт-контрактов для достижения как скорости, так и совместимости.
  • Nano (XNO): Nano — это легковесная криптовалюта, запущенная в 2015 году (первоначально как RaiBlocks), которая использует структуру DAG block-lattice. Основное внимание Nano уделяется одноранговым цифровым деньгам: мгновенные, бесплатные транзакции с минимальным использованием ресурсов. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Hedera против IOTA против Fantom против Nano (краткий обзор): В таблице ниже приведены некоторые ключевые характеристики этих проектов на основе DAG:
Проект (Год)Структура данных и консенсусПроизводительность (Пропускная способность и завершенность)Заметные особенности / Варианты использования

Волна из более чем 100 крипто-ETF: как 2026 год изменит институциональный доступ за пределами биткоина

· 9 мин чтения
Dora Noda
Software Engineer

Когда в январе 2024 года были запущены биткоин-ETF, они побили все рекорды, собрав 4,6 миллиарда долларов притока в первую же неделю. Перенесемся в конец 2025 года: ландшафт крипто-ETF расширился сверх всяких ожиданий. Речь уже не только о биткоине и Ethereum — по прогнозам, в 2026 году будет запущено более 100 новых крипто-ETF, причем более 50 спотовых продуктов на альткоины уже готовы к выходу на рынок. Вопрос больше не в том, расширится ли институциональный доступ к криптовалютам, а в том, как быстро это произойдет и что это будет значить для структуры рынка.

От двух до ста: Взрывной рост ETF на альткоины

Трансформация произошла быстрее, чем предсказывало большинство аналитиков. К октябрю 2025 года Solana стала третьей криптовалютой, одобренной для спотовых ETP, после биткоина и Ethereum.

XRP-ETF запустились в ноябре 2025 года, собрав 1,37 миллиарда долларов активов под управлением (AUM) в течение первых нескольких месяцев. Litecoin, Hedera и даже Dogecoin — мемкоин, начавшийся как шутка — теперь имеют одобренные SEC биржевые продукты.

По состоянию на начало 2026 года 92 крипто-ETF ожидают одобрения SEC, при этом Solana лидирует с восемью активными заявками, а XRP идет следом с семью.

Только компания Bitwise подала заявки на 11 новых ETF на альткоины, запуск которых намечен на 16 марта 2026 года, включая Uniswap (UNI), Aave (AAVE), Tron (TRX), Sui (SUI), Zcash (ZEC) и NEAR Protocol.

Что изменилось? SEC утвердила новые общие стандарты листинга для криптовалютных биржевых продуктов, сократив сроки одобрения с 240 до всего 75 дней.

Эта стандартизированная структура фактически отменила индивидуальные крайние сроки, позволяя агентству действовать быстрее после того, как эмитенты завершат подачу документов S-1. Аналитик Bloomberg по ETF Эрик Балчунас теперь оценивает вероятность одобрения всех 16 ожидающих рассмотрения заявок в 100 %.

Сдвиг институционального капитала: от розничного FOMO к пенсионным фондам

Первый год существования биткоина прошел под знаком розничных инвесторов и корпоративных казначейств. Но 2026 год знаменует фундаментальный сдвиг в том, кто покупает крипто-ETF и почему.

Последний анализ JPMorgan прогнозирует, что притоки в ETF институционального уровня от пенсионных фондов и управляющих активами могут достичь 15 миллиардов долларов при консервативном сценарии или до 40 миллиардов долларов при благоприятных условиях.

Это представляет собой отход от покупок, движимых розничным сектором, которые определили общий приток на крипторынок в размере 130 миллиардов долларов в 2025 году.

Цифры говорят сами за себя:

  • Ожидается, что объем активов под управлением в биткоин-ETF достигнет 180–220 миллиардов долларов к концу 2026 года по сравнению с нынешними примерно 120 миллиардами.
  • По прогнозам, общий объем активов под управлением в криптовалютных биржевых продуктах превысит 400 миллиардов долларов — это вдвое больше, чем примерно 200 миллиардов на конец 2025 года.

Что движет этим институциональным всплеском? Выделяются три фактора:

  1. Регуляторная ясность: Принятие Закона о прозрачности рынка цифровых активов (Digital Asset Market Clarity Act) устранило обременительные обязательства по раскрытию информации для токенов, включенных в ETF, торгуемых на национальных фондовых биржах не позднее 1 января 2026 года. Это создало уровень «Первой восьмерки» основных регулируемых активов: BTC, ETH, XRP, SOL, LTC, HBAR, DOGE и LINK.

  2. Расширение каналов дистрибуции: Крупные банки, такие как Wells Fargo, Bank of America и Vanguard, теперь распространяют крипто-ETF среди розничных клиентов. Morgan Stanley, Merrill Lynch и традиционные платформы по управлению капиталом открыли доступ, кратно увеличив базу потенциальных инвесторов.

  3. Необходимость диверсификации портфеля: Поскольку традиционные портфели 60/40 испытывают трудности в условиях высоких процентных ставок, институциональные инвесторы изучают альтернативные активы. Даже распределение 1–2 % капитала в криптовалюты во всей индустрии пенсионных фондов объемом более 30 триллионов долларов означает колоссальные потоки капитала.

Зрелость рынка или его фрагментация? Две стороны одной медали

Волна ETF на альткоины представляет собой парадокс: это одновременно признак зрелости рынка и потенциальный риск фрагментации.

Сигналы зрелости

Само разнообразие продуктов ETF указывает на интеграцию криптовалют в основной финансовый сектор. Инвесторы теперь могут выбирать между:

  • Спотовыми ETF на отдельные активы (Bitcoin, Ethereum, Solana, XRP)
  • Мультиактивными крипто-ETF
  • Криптовалютными продуктами с плечом (leveraged)
  • Доходными структурами (продукты с возможностью стейкинга выходят в мейнстрим)
  • Секторальными фондами (DeFi, Layer 1, приватные монеты)

Это разнообразие зеркально отражает традиционные рынки акций, где инвесторы могут выбирать широкие индексные фонды или инструменты, ориентированные на конкретные секторы.

Это сигнализирует о том, что криптовалюта больше не является монолитным рисковым активом, а представляет собой дифференцированный класс активов с различными сценариями использования и профилями риска.

Совокупный объем торгов спотовыми криптовалютными ETF в США превысил 2 триллиона долларов менее чем через два года после запуска биткоин-ETF — рубеж, на достижение которого золотым ETF потребовалось более десятилетия. Скорость внедрения является беспрецедентной.

Проблемы фрагментации

Но быстрое расширение несет в себе и вызовы. Как отмечается в одном из рыночных анализов, «одним из самых недооцененных изменений в эпоху после появления ETF стало возникновение фрагментации ликвидности».

До появления ETF ликвидность концентрировалась на крупных криптобиржах, таких как Coinbase и Binance. После появления ETF ликвидность теперь рассредоточена по нескольким площадкам: рынкам создания/выкупа ETF, традиционным биржам, внебиржевым (OTC) столам и децентрализованным протоколам.

Широкие спреды между различными площадками указывают на фрагментированное позиционирование — их сближение сигнализировало бы о формировании консенсуса между участниками, но мы пока этого не достигли.

Распространение продуктов также повышает риски путаницы среди инвесторов:

  • Понимают ли розничные инвесторы разницу между спотовым Dogecoin-ETF и мультиактивным криптопродуктом с плечом?
  • Будут ли сотни крипто-ETF поглощать потоки друг друга или они расширят общий объем целевого рынка?

Ранние данные предполагают, что действуют оба процесса. 1,25 миллиарда долларов чистого притока в XRP с ноября 2025 года демонстрируют устойчивый спрос на конкретные альткоины.

Но это также капитал, который в противном случае мог бы поступить в ETF на биткоин или Ethereum, что подчеркивает аспект «игры с нулевой суммой» в борьбе за долю рынка.

Недостающее звено: где институциональные инфраструктурные решения?

Несмотря на весь ажиотаж вокруг одобрения ETF, остается критически важный вопрос: как институционалы будут на самом деле использовать эти цифровые активы в масштабе?

Именно здесь поставщики блокчейн-инфраструктуры становятся незаменимыми. Институциональным инвесторам нужны не просто ETF-оболочки — им необходим надежный доступ к API корпоративного уровня для взаимодействия с данными ончейн, верификации активов и интеграции криптовалют в существующие системы управления портфелем.

Будь то запрос состояния блокчейна в реальном времени для получения доходности от стейкинга Solana или проверка кроссчейн-расчетов для мультиактивных портфелей — инфраструктурный уровень, поддерживающий институциональное внедрение криптоактивов, должен быть таким же надежным, как и сами структуры ETF.

Что готовит 2026 год: прогнозы и «джокеры»

Несколько трендов выглядят предопределенными на оставшуюся часть 2026 года:

Почти неоспоримые факты:

  • Общий объем активов под управлением (AUM) крипто-ETP превысит 400 миллиардов долларов
  • Solana, XRP и Litecoin будут доминировать в притоках средств в альткоин-ETF (вероятность одобрения уже составляет 95%+)
  • ETF с поддержкой стейкинга станут мейнстримом, фундаментально меняя ожидания по доходности
  • Все больше традиционных финансовых институтов запустят криптопродукты (гонка вооружений ускоряется)

Вероятные события:

  • Получение одобрения для ETF на Cardano, Polkadot и дополнительные DeFi-токены
  • BlackRock подает заявку на XRP-ETF (инсайдеры прогнозируют конец 2026 или начало 2027 года)
  • Запуск первой волны мультиактивных крипто-индексных ETF, повторяющих стратегии диверсификации в стиле S&P 500
  • Европейские и азиатские рынки запускают конкурирующие продукты крипто-ETP, создавая глобальную регуляторную гонку

«Джокеры» (непредсказуемые факторы):

  • Одобрит ли SEC ETF на стейблкоины с выплатой доходности? Регуляторная база остается неясной.
  • Сможет ли крупный инцидент в сфере безопасности или обвал рынка сорвать институциональное внедрение? Криптоиндустрия пережила крах FTX и Luna, но системные риски сохраняются.
  • Вытеснят ли со временем децентрализованные биржи (DEX) доминирование ETF в вопросе институционального доступа? Технологии DEX стремительно совершенствуются.

Вердикт: эволюция, а не революция

Волна из 100+ крипто-ETF — это не революция, а эволюция. Мы наблюдаем, как традиционные финансы поглощают криптосферу через свою существующую инфраструктуру, а не как криптовалюты разрушают финансовые рынки извне.

И это не обязательно плохо. ETF-оболочки обеспечивают:

  • Соответствие регуляторным нормам и юридическую чистоту
  • Кастодиальные решения институционального уровня
  • Налоговую эффективность и упрощенную отчетность
  • Знакомые инвестиционные инструменты для институтов, избегающих рисков
  • Демократизацию доступа для розничных инвесторов, которые не хотят управлять приватными ключами

Но это также означает, что крипта становится более похожей на традиционные финансы: посреднической, регулируемой и сконцентрированной в руках крупнейших финансовых институтов.

Оригинальное видение криптовалют как децентрализованной одноранговой (P2P) системы передачи ценностей уступает место BlackRock и Fidelity, управляющим цифровыми активами от имени пенсионных фондов.

Считаете ли вы это легитимизацией или поглощением — зависит от вашей точки зрения.

Неоспоримо одно: институциональные ворота открылись, и 2026 год увидит такой приток капитала, по сравнению с которым запуск биткоин-ETF в 2024 году покажется лишь разминкой.

Волна альткоин-ETF уже здесь.

Теперь вопрос заключается в том, сможет ли децентрализованная инфраструктура криптовалют масштабироваться, чтобы удовлетворить требования институционалов — или же традиционные финансы просто построят свои собственные «закрытые сады» поверх публичных блокчейнов.

Для институтов, строящих решения на блокчейн-инфраструктуре, надежный доступ к API для нескольких сетей не является опциональным — это фундамент. Изучите мультичейн-API корпоративного уровня от BlockEden.xyz, разработанные для эры институционального внедрения.

Источники

Как Data Availability Sampling от Celestia достигает 1 терабита в секунду: технический глубокий анализ

· 14 мин чтения
Dora Noda
Software Engineer

13 января 2026 года Celestia превзошла все ожидания, достигнув невероятного показателя: 1 терабит в секунду пропускной способности данных в сети из 498 распределенных узлов. Для сравнения: этой пропускной способности достаточно, чтобы обработать весь ежедневный объем транзакций крупнейших роллапов второго уровня (Layer 2) Ethereum менее чем за секунду.

Но главное здесь — не сама цифра. Важна криптографическая инфраструктура, которая делает это возможным: выборка доступности данных (Data Availability Sampling, DAS) — прорывная технология, позволяющая легким узлам с ограниченными ресурсами проверять доступность данных блокчейна без загрузки целых блоков. В то время как роллапы стремятся масштабироваться за пределы нативного хранилища блобов Ethereum, понимание того, как Celestia достигает такой пропускной способности и почему это важно для экономики роллапов, становится критически необходимым.

Узкое место доступности данных: почему роллапам нужно лучшее решение

Масштабируемость блокчейна долгое время была ограничена фундаментальным компромиссом: как проверить, что данные транзакций действительно доступны, не заставляя каждый узел скачивать и хранить абсолютно все? Это проблема доступности данных, и она является основным препятствием для масштабирования роллапов.

Подход Ethereum, требующий от каждого полноценного узла загрузки полных блоков, создает барьер доступности. По мере роста размера блоков все меньше участников могут позволить себе пропускную способность и хранилище для запуска полных узлов, что угрожает децентрализации. Роллапы, размещающие данные в L1 Ethereum, сталкиваются с непомерными расходами: на пике спроса отправка одной партии данных может стоить тысячи долларов в виде комиссий за газ.

Здесь на сцену выходят модульные уровни доступности данных. Отделяя доступность данных от исполнения и консенсуса, такие протоколы, как Celestia, EigenDA и Avail, обещают радикально снизить затраты роллапов при сохранении гарантий безопасности. Инновация Celestia? Техника выборки, которая инвертирует модель проверки: вместо того чтобы скачивать все для подтверждения доступности, легкие узлы случайным образом выбирают крошечные фрагменты и получают статистическую уверенность в том, что полный набор данных существует.

Как работает выборка доступности данных: проверка без загрузки

По своей сути DAS — это механизм вероятностной проверки. Вот как это работает:

Случайная выборка и рост уверенности

Легкие узлы не загружают блоки целиком. Вместо этого они проводят несколько раундов случайной выборки небольших порций данных блока. Каждая успешная выборка повышает уверенность в том, что весь блок доступен.

Математика здесь элегантна: если злонамеренный валидатор скроет даже небольшой процент данных блока, честные легкие узлы обнаружат недоступность с высокой вероятностью всего после нескольких раундов выборки. Это создает модель безопасности, в которой даже устройства с ограниченными ресурсами могут участвовать в проверке доступности данных.

В частности, каждый легкий узел случайным образом выбирает набор уникальных координат в расширенной матрице данных и запрашивает у мостовых узлов соответствующие доли данных вместе с доказательствами Меркла (Merkle proofs). Если легкий узел получает корректные ответы на каждый запрос, статистическая вероятность гарантирует, что данные всего блока доступны.

2D-кодирование Рида-Соломона: математическая основа

Celestia использует двумерную схему кодирования Рида-Соломона, чтобы сделать выборку эффективной и устойчивой к мошенничеству. Технический процесс выглядит так:

  1. Данные блока разделяются на фрагменты k × k, образуя квадрат данных.
  2. Избыточное кодирование Рида-Соломона расширяет его до матрицы 2k × 2k (добавляя избыточность).
  3. Вычисляются корни Меркла для каждой строки и каждого столбца расширенной матрицы.
  4. Корень Меркла этих корней становится обязательством по данным блока (data commitment) в заголовке блока.

Этот подход обладает критически важным свойством: если какая-либо часть расширенной матрицы отсутствует, кодирование нарушается, и легкие узлы обнаружат несоответствия при проверке доказательств Меркла. Атакующий не может скрыть данные выборочно, не будучи пойманным.

Деревья Меркла с пространствами имен: изоляция данных для конкретных роллапов

Именно здесь архитектура Celestia проявляет себя наилучшим образом для сред с множеством роллапов: деревья Меркла с пространствами имен (Namespaced Merkle Trees, NMT).

Стандартное дерево Меркла группирует данные произвольно. NMT, напротив, помечает каждый узел идентификаторами минимального и максимального пространства имен его дочерних элементов и упорядочивает листья по пространствам имен. Это позволяет роллапам:

  • Загружать только свои собственные данные с уровня DA.
  • Доказывать полноту данных своего пространства имен с помощью доказательства Меркла.
  • Полностью игнорировать нерелевантные данные других роллапов.

Для оператора роллапа это означает, что вы не платите за пропускную способность для загрузки данных из конкурирующих сетей. Вы получаете именно то, что вам нужно, проверяете это с помощью криптографических доказательств и продолжаете работу. Это огромный выигрыш в эффективности по сравнению с монолитными цепочками, где все участники должны обрабатывать все данные.

Обновление Matcha: масштабирование до блоков размером 128 МБ

В 2025 году в Celestia было активировано обновление Matcha, ставшее переломным моментом для модульной доступности данных. Вот что изменилось:

Увеличение размера блока

Matcha увеличивает максимальный размер блока с 8 МБ до 128 МБ — это 16-кратный рост пропускной способности. Это означает:

  • Размер квадрата данных (data square size): 128 → 512
  • Максимальный размер транзакции: 2 МБ → 8 МБ
  • Устойчивая пропускная способность: 21,33 МБ/с в тестнете (апрель 2025 г.)

Для сравнения: целевое количество блобов (blobs) в Ethereum составляет 6 на блок (примерно 0,75 МБ) с возможностью расширения до 9 блобов. Блоки Celestia размером 128 МБ превосходят эту мощность более чем в 100 раз.

Высокопроизводительное распространение блоков

Ограничением был не только размер блока — им была скорость распространения блоков (block propagation speed). Matcha внедряет новый механизм распространения (CIP-38), который безопасно распределяет блоки размером 128 МБ по сети, не вызывая десинхронизации валидаторов.

В тестнете сеть поддерживала время блока в 6 секунд при размере блоков 128 МБ, достигая пропускной способности 21,33 МБ/с. Это в 16 раз превышает текущую мощность мейннета.

Снижение затрат на хранение

Одно из самых недооцененных экономических изменений: Matcha сократила минимальное окно прунинга (удаления старых данных) с 30 дней до 7 дней + 1 час (CIP-34).

Для бридж-нод это снижает требования к хранилищу с 30 ТБ до 7 ТБ при прогнозируемых уровнях пропускной способности. Более низкие операционные расходы для поставщиков инфраструктуры означают более дешевую доступность данных для роллапов.

Пересмотр экономики токенов

Matcha также улучшила экономику токена TIA:

  • Сокращение инфляции: с 5% до 2,5% в год
  • Увеличение комиссии валидаторов: максимум поднят с 10% до 20%
  • Улучшенные свойства обеспечения (collateral): делает TIA более подходящим для использования в DeFi

В совокупности эти изменения готовят Celestia к следующему этапу: масштабированию до пропускной способности 1 ГБ/с и выше.

Экономика роллапов: почему 50% доли рынка DA имеют значение

По состоянию на начало 2026 года Celestia занимает примерно 50% рынка доступности данных (DA), обработав более 160 ГБ данных роллапов. Это доминирование отражает реальное признание со стороны разработчиков роллапов, которые ставят в приоритет стоимость и масштабируемость.

Сравнение стоимости: Celestia против блобов Ethereum

Модель комиссий Celestia проста: роллапы платят за каждый блоб в зависимости от его размера и текущих цен на газ. В отличие от уровней исполнения, где преобладают вычисления, доступность данных фундаментально зависит от пропускной способности канала и объема хранилища — ресурсов, которые масштабируются более предсказуемо по мере совершенствования оборудования.

Для операторов роллапов математика убедительна:

  • Размещение данных в Ethereum L1: при пиковом спросе отправка пакета (batch submission) может стоить от $1 000 до $10 000+ в газе.
  • Celestia DA: стоимость менее доллара за пакет для эквивалентного объема данных.

Это снижение затрат в 100 раз и более является причиной того, почему роллапы мигрируют на модульные DA-решения. Дешевая доступность данных напрямую конвертируется в более низкие комиссии за транзакции для конечных пользователей.

Структура стимулов роллапов

Экономическая модель Celestia выстраивает систему стимулов:

  1. Роллапы платят за хранение блобов пропорционально размеру данных.
  2. Валидаторы получают вознаграждение за обеспечение безопасности уровня DA.
  3. Бридж-ноды предоставляют данные легким нодам и получают плату за обслуживание.
  4. Легкие ноды бесплатно проводят проверку данных (sampling), внося вклад в безопасность.

Это создает «маховик»: чем больше роллапов используют Celestia, тем выше доход валидаторов, что привлекает больше стейкеров, укрепляет безопасность и, в свою очередь, привлекает еще больше роллапов.

Конкуренция: EigenDA, Avail и блобы Ethereum

Доля рынка Celestia в 50% находится под давлением. Три основных конкурента агрессивно масштабируются:

EigenDA: Нативный рестейкинг Ethereum

EigenDA использует инфраструктуру рестейкинга EigenLayer для обеспечения высокой пропускной способности данных для роллапов Ethereum. Ключевые преимущества:

  • Экономическая безопасность: обеспечивается за счет рестейкинга ETH (в настоящее время составляет 93,9% рынка рестейкинга).
  • Тесная интеграция с Ethereum: нативная совместимость с рынком блобов Ethereum.
  • Заявленная высочайшая пропускная способность: хотя предыдущим версиям не хватало активной экономической безопасности.

Критики отмечают, что зависимость EigenDA от рестейкинга вносит каскадный риск: если сервис активно проверяемых транзакций (AVS) подвергнется слэшингу, это может распространиться на держателей Lido stETH и дестабилизировать рынок LST.

Avail: Универсальный уровень DA для всех сетей

В отличие от ориентации Celestia на экосистему Cosmos и направленности EigenDA на Ethereum, Avail позиционирует себя как универсальный уровень DA, совместимый с любой архитектурой блокчейна:

  • Поддержка моделей UTXO, аккаунтов и объектов: работает с L2-решениями Bitcoin, EVM-сетями и системами на базе Move.
  • Модульный дизайн: полностью отделяет DA от консенсуса.
  • Межэкосистемное видение: стремится служить нейтральным уровнем DA для всех блокчейнов.

Сложность для Avail? Это новейший участник, который пока отстает по количеству живых интеграций роллапов по сравнению с Celestia и EigenDA.

Нативные блобы Ethereum: EIP-4844 и далее

Обновление Ethereum EIP-4844 (Dencun) ввело транзакции, несущие блобы, предложив роллапам более дешевую альтернативу размещению данных в calldata. Текущая мощность:

  • Цель: 6 блобов на блок (~0,75 МБ)
  • Максимум: 9 блобов на блок (~1,125 МБ)
  • Будущее расширение: обновления PeerDAS и zkEVM, нацеленные на 10 000+ TPS.

Однако блобы Ethereum имеют свои компромиссы:

  • Короткое окно хранения: данные удаляются примерно через 18 дней.
  • Конкуренция за общие ресурсы: все роллапы соревнуются за одно и то же пространство блобов.
  • Ограниченная масштабируемость: даже с PeerDAS мощность блобов остается значительно ниже запланированных показателей Celestia.

Для роллапов, приоритетом которых является соответствие экосистеме Ethereum (Ethereum alignment), блобы привлекательны. Для тех, кому нужна огромная пропускная способность и долгосрочное хранение данных, Celestia остается лучшим выбором.

Fibre Blockspace: Видение 1 терабита

14 января 2026 года соучредитель Celestia Мустафа Аль-Бассам представил Fibre Blockspace — новый протокол, нацеленный на пропускную способность 1 терабит в секунду с задержкой в миллисекунды. Это представляет собой 1 500-кратное улучшение по сравнению с целями дорожной карты, поставленными всего год назад.

Детали бенчмарка

Команда достигла показателя 1 Тбит / с, используя:

  • 498 узлов, распределенных по Северной Америке
  • Экземпляры GCP с 48–64 vCPU и 90–128 ГБ ОЗУ каждый
  • Сетевые каналы 34–45 Гбит / с на экземпляр

В этих контролируемых условиях протокол поддерживал пропускную способность данных на уровне 1 терабит в секунду — ошеломляющий скачок в производительности блокчейна.

Кодирование ZODA: в 881 раз быстрее, чем KZG

В основе Fibre лежит ZODA, новый протокол кодирования, который, по утверждению Celestia, обрабатывает данные в 881 раз быстрее, чем альтернативы на основе KZG-коммитментов, используемые EigenDA и блобами Ethereum.

KZG-коммитменты (полиномиальные обязательства Кейта — Заверухи — Гольдберга) криптографически элегантны, но требуют больших вычислительных затрат. ZODA обменивает некоторые криптографические свойства на огромный прирост скорости, делая пропускную способность терабитного масштаба достижимой на стандартном оборудовании.

Видение: каждый рынок переходит в ончейн

Заявление Аль-Бассама о дорожной карте отражает амбиции Celestia:

«Если 10 КБ / с позволили создать AMM, а 10 МБ / с — ончейн-книги ордеров, то 1 Тбит / с — это скачок, который позволит каждому рынку перейти в ончейн».

Смысл прост: при достаточной пропускной способности для доступности данных финансовые рынки, на которых сейчас доминируют централизованные биржи — спот, деривативы, опционы, рынки прогнозов — смогут мигрировать на прозрачную, общедоступную блокчейн-инфраструктуру.

Проверка реальностью: бенчмарки против продакшена

Условия бенчмарков редко соответствуют хаосу реального мира. Результат 1 Тбит / с был достигнут в контролируемой среде тестнета с высокопроизводительными облачными экземплярами. Настоящее испытание наступит, когда:

  • Реальные роллапы запустят производственные рабочие нагрузки
  • Сетевые условия будут меняться (скачки задержки, потеря пакетов, асимметричная пропускная способность)
  • Враждебные валидаторы попытаются провести атаки с сокрытием данных

Команда Celestia признает это: Fibre работает параллельно с существующим уровнем L1 DA, предоставляя пользователям выбор между проверенной временем инфраструктурой и передовой экспериментальной пропускной способностью.

Что это значит для разработчиков роллапов

Если вы создаете роллап, архитектура DAS от Celestia предлагает убедительные преимущества:

Когда выбирать Celestia

  • Высокопроизводительные приложения: Игры, социальные сети, микроплатежи
  • Варианты использования, чувствительные к стоимости: Роллапы, нацеленные на комиссии за транзакции менее цента
  • Рабочие процессы с интенсивным использованием данных: Инференс ИИ, интеграция с децентрализованными хранилищами
  • Экосистемы с несколькими роллапами: Проекты, запускающие несколько специализированных роллапов

Когда придерживаться блобов Ethereum

  • Соответствие Ethereum: Если для вашего роллапа важны социальный консенсус и безопасность Ethereum
  • Упрощенная архитектура: Блобы обеспечивают более тесную интеграцию с инструментами Ethereum
  • Меньшая сложность: Меньше инфраструктуры для управления (отсутствует отдельный уровень DA)

Рекомендации по интеграции

Уровень DA Celestia интегрируется с основными фреймворками роллапов:

  • Polygon CDK: Легко подключаемый компонент DA
  • OP Stack: Доступны кастомные адаптеры DA
  • Arbitrum Orbit: Интеграции, созданные сообществом
  • Rollkit: Нативная поддержка Celestia

Для разработчиков внедрение Celestia часто означает замену модуля доступности данных в стеке роллапа — минимальные изменения в логике исполнения или расчетов.

Войны за доступность данных: что дальше

Тезис о модульном блокчейне проходит проверку на прочность в режиме реального времени. Доля рынка Celestia в 50 %, импульс рестейкинга EigenDA и универсальное позиционирование Avail создают трехстороннюю конкуренцию за внимание роллапов.

Ключевые тенденции, за которыми стоит следить

  1. Эскалация пропускной способности: Celestia нацелена на 1 ГБ / с → 1 Тбит / с; EigenDA и Avail ответят на это
  2. Модели экономической безопасности: Достигнут ли риски рестейкинга EigenDA? Сможет ли масштабироваться набор валидаторов Celestia?
  3. Расширение блобов Ethereum: Обновления PeerDAS и zkEVM могут изменить динамику затрат
  4. Кроссчейн DA: Универсальное видение Avail против решений, специфичных для экосистем

Взгляд BlockEden.xyz

Для инфраструктурных провайдеров поддержка нескольких уровней DA становится обязательным условием. Разработчикам роллапов нужен надежный RPC-доступ не только к Ethereum, но и к Celestia, EigenDA и Avail.

BlockEden.xyz предлагает высокопроизводительную RPC-инфраструктуру для Celestia и более чем 10 блокчейн-экосистем, позволяя командам роллапов строить на модульных стеках без управления инфраструктурой узлов. Изучите наши API для доступности данных, чтобы ускорить развертывание вашего роллапа.

Заключение: доступность данных как новый конкурентный ров

Data Availability Sampling от Celestia — это не просто постепенное улучшение, а смена парадигмы в том, как блокчейны проверяют состояние. Позволяя легким узлам участвовать в обеспечении безопасности через вероятностную выборку, Celestia демократизирует проверку так, как не могут монолитные цепи.

Блоки по 128 МБ в обновлении Matcha и видение Fibre с пропускной способностью 1 Тбит / с представляют собой точки перегиба для экономики роллапов. Когда затраты на доступность данных падают в 100 раз, жизнеспособными становятся совершенно новые категории приложений: высокочастотная торговля ончейн, многопользовательские игры в реальном времени, координация ИИ-агентов в масштабе.

Но технология сама по себе не определяет победителей. Исход войн DA будет зависеть от трех факторов:

  1. Принятие роллапами: Какие сети на самом деле перейдут на производственное использование?
  2. Экономическая устойчивость: Смогут ли эти протоколы поддерживать низкие затраты по мере масштабирования использования?
  3. Устойчивость безопасности: Насколько хорошо системы на основе выборки противостоят сложным атакам?

Доля рынка Celestia в 50 % и 160 ГБ обработанных данных роллапов доказывают, что концепция работает. Теперь вопрос переходит из плоскости «может ли модульная DA масштабироваться?» в «какой уровень DA будет доминировать в экономике роллапов?»

Для разработчиков, ориентирующихся в этой среде, совет ясен: абстрагируйте свой уровень DA. Проектируйте роллапы так, чтобы можно было переключаться между Celestia, EigenDA, блобами Ethereum и Avail без перепроектирования архитектуры. Войны за доступность данных только начинаются, и победители могут оказаться не теми, кого мы ожидаем.


Источники:

Компромиссы моделей консенсуса для интероперабельности: PoW, PoS, DPoS и BFT в безопасности кроссчейн-мостов

· 11 мин чтения
Dora Noda
Software Engineer

Более 2,3 миллиарда долларов было выведено из кросс-чейн мостов только в первой половине 2025 года — это уже превышает общий показатель за весь 2024 год. В то время как большая часть дискуссий в индустрии сосредоточена на аудитах смарт-контрактов и управлении ключами мультисигов, часто остается незамеченной менее обсуждаемая, но столь же критическая уязвимость: несоответствие между тем, как различные блокчейны достигают консенсуса, и тем, как мосты предполагают, что они это делают.

Каждый кросс-чейн мост делает неявные предположения о финализации. Когда эти предположения сталкиваются с реальной моделью консенсуса исходной сети или сети назначения, злоумышленники находят окна для эксплуатации. Понимание различий между механизмами консенсуса PoW, PoS, DPoS и BFT — и того, как эти различия каскадно влияют на выбор архитектуры моста и протокола обмена сообщениями — является одной из самых важных тем в инфраструктуре Web3 на сегодняшний день.

Рынки данных встречают обучение ИИ: как блокчейн решает кризис ценообразования данных на 23 миллиарда долларов

· 15 мин чтения
Dora Noda
Software Engineer

Индустрия ИИ столкнулась с парадоксом: глобальный объем производства данных вырастет с 33 зеттабайт до 175 зеттабайт к 2025 году, однако качество моделей ИИ стагнирует. Проблема не в дефиците данных, а в том, что у поставщиков данных нет возможности извлекать выгоду из своего вклада. На сцену выходят блокчейн-рынки данных, такие как Ocean Protocol, LazAI и ZENi, которые превращают данные для обучения ИИ из бесплатного ресурса в монетизируемый класс активов, стоимость которого к 2034 году достигнет 23,18 миллиарда долларов.

Проблема ценообразования данных на 23 миллиарда долларов

Затраты на обучение ИИ выросли на 89 % в период с 2023 по 2025 год, при этом сбор и разметка данных поглощают до 80 % бюджетов проектов по машинному обучению. Тем не менее, создатели данных — обычные люди, генерирующие поисковые запросы, взаимодействия в социальных сетях и поведенческие паттерны — не получают ничего, в то время как технологические гиганты извлекают миллиардную прибыль.

Рынок наборов данных для обучения ИИ наглядно демонстрирует этот разрыв. Оцениваемый в 3,59 миллиарда долларов в 2025 году, рынок, согласно прогнозам, достигнет 23,18 миллиарда долларов к 2034 году при среднегодовом темпе роста (CAGR) 22,9 %. Другой прогноз указывает на достижение 7,48 миллиарда долларов к 2026 году и 52,41 миллиарда долларов к 2035 году с ежегодным ростом 24,16 %.

Но кто получает эту выгоду? В настоящее время централизованные платформы извлекают прибыль, в то время как создатели данных получают нулевую компенсацию. Шум в разметке, непоследовательные теги и отсутствие контекста увеличивают расходы, но у участников нет стимулов для повышения качества. Проблемы конфиденциальности данных затрагивают 28 % компаний, ограничивая доступность датасетов именно тогда, когда ИИ остро нуждается в разнообразных и высококачественных входных данных.

Ocean Protocol: токенизация экономики данных объемом 100 миллионов долларов

Ocean Protocol решает вопрос владения, позволяя поставщикам данных токенизировать свои наборы данных и делать их доступными для обучения ИИ без потери контроля. С момента запуска Ocean Nodes в августе 2024 года сеть выросла до более чем 1,4 миллиона нод в 70+ странах, интегрировала более 35 000 наборов данных и обеспечила транзакции с данными, связанными с ИИ, на сумму более 100 миллионов долларов.

Дорожная карта продукта на 2025 год включает три критически важных компонента:

Конвейеры инференса (Inference Pipelines) позволяют осуществлять сквозное обучение и развертывание моделей ИИ непосредственно в инфраструктуре Ocean. Поставщики данных токенизируют проприетарные наборы данных, устанавливают цены и получают доход каждый раз, когда модель ИИ использует их данные для обучения или вывода.

Ocean Enterprise Onboarding переводит бизнес-экосистемы от пилотных проектов к полноценному производству. Ocean Enterprise v1, запуск которой намечен на 3 квартал 2025 года, представляет собой соответствующую нормативным требованиям и готовую к эксплуатации платформу данных, ориентированную на институциональных клиентов, которым необходим аудируемый обмен данными с сохранением конфиденциальности.

Аналитика нод (Node Analytics) внедряет информационные панели для отслеживания производительности, использования и ROI. Партнеры, такие как NetMind, предоставляют 2 000 GPU, а Aethir помогает масштабировать ноды Ocean для поддержки больших рабочих нагрузок ИИ, создавая децентрализованный вычислительный уровень для обучения ИИ.

Механизм распределения доходов Ocean работает через смарт-контракты: поставщики данных устанавливают условия доступа, разработчики ИИ платят за использование, а блокчейн автоматически распределяет платежи всем участникам. Это превращает данные из разовой продажи в непрерывный поток доходов, привязанный к производительности модели.

LazAI: верифицируемые данные взаимодействия с ИИ на Metis

LazAI предлагает фундаментально иной подход — монетизацию данных взаимодействия с ИИ, а не просто статических наборов данных. Каждая беседа с флагманскими агентами LazAI (Lazbubu, SoulTarot) генерирует токены привязки данных (Data Anchoring Tokens, DAT), которые функционируют как отслеживаемые и проверяемые записи выходных данных, созданных ИИ.

Альфа-версия основной сети (Alpha Mainnet) была запущена в декабре 2025 года на инфраструктуре корпоративного уровня с использованием консенсуса QBFT и расчетов на базе $METIS. DAT позволяют токенизировать и монетизировать наборы данных и модели ИИ как верифицируемые активы с прозрачным правом собственности и распределением доходов.

Почему это важно? Традиционное обучение ИИ использует статические наборы данных, зафиксированные в момент сбора. LazAI фиксирует динамические данные взаимодействия — запросы пользователей, ответы моделей, циклы уточнения — создавая обучающие наборы данных, которые отражают реальные паттерны использования. Эти данные экспоненциально более ценны для тонкой настройки моделей, поскольку они содержат сигналы обратной связи от человека, встроенные в поток диалога.

Система включает три ключевые инновации:

Стейкинг валидаторов Proof-of-Stake обеспечивает безопасность конвейеров данных ИИ. Валидаторы стейкают токены для подтверждения целостности данных, получая вознаграждения за точную проверку и подвергаясь штрафам за одобрение фальсифицированных данных.

Минтинг DAT с распределением доходов позволяет пользователям, генерирующим ценные данные взаимодействия, минтить токены DAT, представляющие их вклад. Когда ИИ-компании покупают эти наборы данных для обучения моделей, доход автоматически распределяется между всеми держальцами DAT пропорционально их вкладу.

Управление через iDAO создает децентрализованные коллективы ИИ, где участники, предоставляющие данные, совместно управляют курированием датасетов, стратегиями ценообразования и стандартами качества через ончейн-голосование.

Дорожная карта на 2026 год предусматривает внедрение конфиденциальности на базе ZK (пользователи смогут монетизировать данные взаимодействия, не раскрывая личную информацию), децентрализованные рынки вычислений (обучение происходит на распределенной инфраструктуре, а не в централизованных облаках) и оценку мультимодальных данных (взаимодействие с видео, аудио и изображениями помимо текста).

ZENi: Интеллектуальный уровень данных для ИИ-агентов

ZENi работает на стыке Web3 и ИИ, обеспечивая работу «экономики InfoFi» — децентрализованной сети, соединяющей традиционную и блокчейн-коммерцию через интеллект на базе ИИ. Компания привлекла 1,5 млн $ в рамках сид-раунда под руководством Waterdrip Capital и Mindfulness Capital.

В основе лежит уровень данных InfoFi — высокопроизводительный движок поведенческого интеллекта, обрабатывающий более 1 миллиона сигналов ежедневно в X / Twitter, Telegram, Discord и ончейн-активности. ZENi выявляет паттерны в поведении пользователей, изменения настроений и вовлеченность сообщества — данные, которые критически важны для обучения ИИ-агентов, но которые сложно собирать в больших масштабах.

Платформа функционирует как система из трех частей:

AI Data Analytic Agent (Агент по анализу данных ИИ) выявляет аудитории с высокими намерениями и кластеры влияния, анализируя социальные графы, ончейн-транзакции и показатели вовлеченности. Это создает наборы поведенческих данных, показывающие не только то, что делают пользователи, но и почему они принимают решения.

AIGC Agent (Агент для генерации контента ИИ) создает персонализированные кампании, используя инсайты из уровня данных. Понимая предпочтения пользователей и динамику сообщества, агент генерирует контент, оптимизированный для конкретных сегментов аудитории.

AI Execution Agent (Агент по исполнению ИИ) активирует охват через dApp ZENi, замыкая цикл от сбора данных до монетизации. Пользователи получают вознаграждение, когда их поведенческие данные способствуют успеху кампаний.

ZENi уже обслуживает партнеров в сфере электронной коммерции, гейминга и Web3, имея 480 000 зарегистрированных пользователей и 80 000 активных пользователей в день. Бизнес-модель монетизирует поведенческий интеллект: компании платят за доступ к наборам данных, обработанным ИИ ZENi, а доход поступает пользователям, чьи данные послужили основой для этих инсайтов.

Конкурентное преимущество блокчейна на рынках данных

Почему блокчейн важен для монетизации данных? Три технические возможности делают децентрализованные рынки данных превосходящими централизованные альтернативы:

Гранулярная атрибуция доходов Смарт-контракты позволяют реализовать сложное распределение доходов, при котором несколько участников, внесших вклад в модель ИИ, автоматически получают пропорциональное вознаграждение в зависимости от использования. Один обучающий набор данных может объединять входные данные от 10 000 пользователей — блокчейн отслеживает каждый вклад и распределяет микроплатежи за каждый вывод модели.

Традиционные системы не справляются с такой сложностью. Платежные системы взимают фиксированные комиссии (2–3%), что неприемлемо для микроплатежей, а централизованным платформам не хватает прозрачности в отношении вклада участников. Блокчейн решает обе проблемы: почти нулевые транзакционные издержки благодаря решениям второго уровня (Layer 2) и неизменяемая атрибуция через ончейн-происхождение (provenance).

Проверяемое происхождение данных Токены привязки данных (Data Anchoring Tokens) от LazAI доказывают происхождение данных без раскрытия основного контента. ИИ-компании, обучающие модели, могут убедиться, что они используют лицензированные, высококачественные данные, а не парсинг веб-контента сомнительной законности.

Это устраняет критический риск: правила конфиденциальности данных влияют на 28% компаний, ограничивая доступность наборов данных. Рынки данных на базе блокчейна внедряют проверку с сохранением конфиденциальности — подтверждают качество данных и лицензирование без раскрытия личной информации.

Децентрализованное обучение ИИ Сеть узлов Ocean Protocol демонстрирует, как распределенная инфраструктура снижает затраты. Вместо того чтобы платить облачным провайдерам 2–5 $ за час работы GPU, децентрализованные сети сопоставляют неиспользуемые вычислительные мощности (игровые ПК, дата-центры со свободной мощностью) со спросом на обучение ИИ, обеспечивая снижение стоимости на 50–85%.

Блокчейн координирует этот сложный процесс с помощью смарт-контрактов, регулирующих распределение задач, выплату вознаграждений и проверку качества. Участники стейкают токены, чтобы присоединиться к сети, получая награды за честные вычисления и подвергаясь слэшингу за предоставление неверных результатов.

Путь к 52 миллиардам долларов: рыночные силы, стимулирующие внедрение

Три сходящихся тренда ускоряют рост рынка данных на блокчейне к прогнозируемым 52,41 млрд $ к 2035 году:

Диверсификация моделей ИИ Эра массивных базовых моделей (GPT-4, Claude, Gemini), обученных на всем тексте интернета, подходит к концу. Специализированные модели для здравоохранения, финансов, юридических услуг и вертикальных приложений требуют наборов данных в конкретных областях, которые централизованные платформы не курируют.

Рынки данных на блокчейне преуспевают в работе с нишевыми наборами данных. Поставщик медицинских изображений может токенизировать рентгеновские снимки с диагностическими аннотациями, установить условия использования, требующие согласия пациента, и получать доход от каждой модели ИИ, обученной на этих данных. Это невозможно реализовать на централизованных платформах, которым не хватает детального контроля доступа и атрибуции.

Регуляторное давление Правила конфиденциальности данных (GDPR, CCPA, Закон Китая о защите личной информации) предписывают сбор данных на основе согласия. Рынки на базе блокчейна реализуют согласие как программируемую логику — пользователи криптографически подписывают разрешения, доступ к данным возможен только на определенных условиях, а смарт-контракты автоматически обеспечивают соблюдение требований.

Ориентированность Ocean Enterprise v1 на комплаенс напрямую решает эту задачу. Финансовым учреждениям и поставщикам медицинских услуг необходима проверяемая цепочка данных (lineage), доказывающая, что каждый набор данных, используемый для обучения моделей, имел надлежащее лицензирование. Блокчейн обеспечивает неизменяемые аудиторские следы, удовлетворяющие нормативным требованиям.

Качество важнее количества Недавние исследования показывают, что ИИ не нуждается в бесконечных обучающих данных, когда системы больше напоминают биологический мозг. Это смещает стимулы с сбора максимального объема данных на курирование высококачественных входных данных.

Децентрализованные рынки данных правильно выстраивают стимулы: создатели данных зарабатывают больше за высококачественный вклад, потому что разработчики моделей платят премиальные цены за наборы данных, улучшающие производительность. Интерактивные данные LazAI фиксируют сигналы обратной связи от людей (какие запросы уточняются, какие ответы удовлетворяют пользователей), которые упускают статические наборы данных, что делает их по определению более ценными в расчете на каждый байт.

Вызовы: Конфиденциальность, ценообразование и войны протоколов

Несмотря на положительную динамику, рынки блокчейн-данных сталкиваются со структурными проблемами:

Парадокс конфиденциальности Обучение ИИ требует прозрачности данных (моделям нужен доступ к реальному контенту), но правила конфиденциальности требуют минимизации данных. Текущие решения, такие как федеративное обучение (обучение на зашифрованных данных), увеличивают затраты в 3–5 раз по сравнению с централизованным обучением.

Доказательства с нулевым разглашением (Zero-knowledge proofs) предлагают путь вперед — подтверждение качества данных без раскрытия их содержания — но создают дополнительные вычислительные накладные расходы. Дорожная карта ZK от LazAI на 2026 год направлена на решение этой проблемы, хотя внедрение готовых к эксплуатации решений ожидается через 12–18 месяцев.

Процесс ценообразования Сколько стоит взаимодействие в социальных сетях? А медицинское изображение с диагностической аннотацией? Рынкам блокчейна не хватает устоявшихся механизмов ценообразования для новых типов данных.

Подход Ocean Protocol — позволить поставщикам устанавливать цены, а рыночной динамике определять стоимость — работает для стандартизированных наборов данных, но с трудом применим к уникальным проприетарным данным. Рынки предсказаний или динамическое ценообразование на базе ИИ могут решить эту проблему, хотя оба варианта вносят зависимость от оракулов (внешних ценовых каналов), что подрывает децентрализацию.

Фрагментация совместимости Ocean Protocol работает на Ethereum, LazAI — на Metis, ZENi интегрируется с несколькими сетями. Данные, токенизированные на одной платформе, не могут быть легко перенесены на другую, что фрагментирует ликвидность.

Кроссчейн-мосты и универсальные стандарты данных (такие как децентрализованные идентификаторы для наборов данных) могли бы решить эту проблему, но экосистема все еще находится на ранней стадии развития. Рост рынка блокчейн-ИИ с $680,89 млн в 2025 году до $4,338 млрд к 2034 году предполагает, что до консолидации вокруг победивших протоколов еще несколько лет.

Что это значит для разработчиков

Для команд, создающих приложения ИИ, блокчейн-рынки данных предлагают три непосредственных преимущества:

Доступ к проприетарным наборам данных Более 35 000 наборов данных Ocean Protocol включают проприетарные данные для обучения, недоступные через традиционные каналы. Медицинская визуализация, финансовые транзакции, поведенческая аналитика из приложений Web3 — специализированные наборы данных, которые централизованные платформы не курируют.

Инфраструктура, готовая к соблюдению нормативных требований Встроенное лицензирование, управление согласием и контрольные журналы Ocean Enterprise v1 решают регуляторные проблемы. Вместо создания собственных систем управления данными разработчики получают комплаенс «по умолчанию» через смарт-контракты, обеспечивающие соблюдение условий использования данных.

Снижение затрат Децентрализованные вычислительные сети снижают затраты облачных провайдеров на 50–85% для задач пакетного обучения. Партнерство Ocean с NetMind (2 000 графических процессоров) и Aethir демонстрирует, как токенизированные рынки GPU сопоставляют спрос и предложение по более низкой цене, чем AWS/GCP/Azure.

BlockEden.xyz предоставляет RPC-инфраструктуру корпоративного уровня для приложений ИИ на базе блокчейна. Независимо от того, строите ли вы на Ethereum (Ocean Protocol), Metis (LazAI) или мультичейн-платформах, наши надежные нод-сервисы обеспечат бесперебойную работу и производительность ваших конвейеров данных ИИ. Изучите наш маркетплейс API, чтобы подключить ваши системы ИИ к блокчейн-сетям, созданным для масштабирования.

Точка перелома 2026 года

Три катализатора позиционируют 2026 год как переломный для рынков блокчейн-данных:

Запуск промышленной версии Ocean Enterprise v1 (3 кв. 2025 г.) Запуск первого соответствующего требованиям маркетплейса данных институционального уровня. Если Ocean займет хотя бы 5% рынка наборов данных для обучения ИИ объемом $7,48 млрд в 2026 году, это составит $374 млн транзакций данных, проходящих через блокчейн-инфраструктуру.

Внедрение ZK-конфиденциальности LazAI (2026) Доказательства с нулевым разглашением позволяют пользователям монетизировать данные о взаимодействии без ущерба для конфиденциальности. Это открывает путь к массовому внедрению — сотни миллионов пользователей социальных сетей, поисковых запросов и сессий электронной коммерции смогут монетизироваться через DAT (токены доступа к данным).

Интеграция федеративного обучения Федеративное обучение ИИ позволяет обучать модели без централизации данных. Блокчейн добавляет атрибуцию ценности: вместо того чтобы Google обучал модели на данных пользователей Android без компенсации, федеративные системы, работающие на блокчейне, распределяют доход между всеми поставщиками данных.

Эта конвергенция означает, что обучение ИИ переходит от модели «собирать все данные, обучать централизованно, ничего не платить» к модели «обучать на распределенных данных, вознаграждать участников, проверять происхождение». Блокчейн не просто способствует этому переходу — это единственный технологический стек, способный координировать миллионы поставщиков данных с автоматическим распределением доходов и криптографической проверкой.

Заключение: Данные становятся программируемыми

Рост рынка данных для обучения ИИ с $3,59 млрд в 2025 году до $23–52 млрд к 2034 году представляет собой нечто большее, чем просто расширение рынка. Это фундаментальный сдвиг в том, как мы оцениваем информацию.

Ocean Protocol доказывает, что данные могут быть токенизированы, оценены и проданы как финансовые активы при сохранении контроля со стороны поставщика. LazAI демонстрирует, что данные о взаимодействии с ИИ, которые ранее считались мимолетными, становятся ценными входными данными для обучения при правильном сборе и проверке. ZENi показывает, что поведенческий интеллект можно извлекать, обрабатывать с помощью ИИ и монетизировать через децентрализованные рынки.

Вместе эти платформы превращают данные из сырья, добываемого технологическими гигантами, в программируемый класс активов, где создатели получают выгоду. Глобальный взрыв объема данных с 33 до 175 зеттабайт имеет значение только в том случае, если качество побеждает количество — и рынки на базе блокчейна согласовывают стимулы для вознаграждения качественного вклада.

Когда создатели данных получают доход, пропорциональный их вкладу, когда ИИ-компании платят справедливую цену за качественные входные данные, и когда смарт-контракты автоматизируют распределение вознаграждений между миллионами участников, мы не просто решаем проблему ценообразования данных. Мы строим экономику, в которой информация имеет внутреннюю ценность, происхождение поддается проверке, а участники наконец-то получают богатство, которое генерируют их данные.

Это не рыночный тренд. Это смена парадигмы — и она уже происходит в блокчейне.

Расцвет прагматичной приватности: баланс соблюдения нормативных требований и конфиденциальности в блокчейне

· 17 мин чтения
Dora Noda
Software Engineer

Блокчейн-индустрия стоит на перепутье, где конфиденциальность больше не является бинарным выбором. В первые годы существования криптовалют риторика была однозначной: абсолютная конфиденциальность любой ценой, прозрачность только при необходимости и сопротивление любым формам слежки. Однако в 2026 году происходят глубокие изменения. Развитие инфраструктуры децентрализованного прагматичного ИИ (DePAI) знаменует собой новую эру, в которой инструменты конфиденциальности, ориентированные на соблюдение нормативных требований, не просто принимаются — они становятся стандартом.

Это не отступление от принципов приватности. Это эволюция к более глубокому пониманию: конфиденциальность и соблюдение нормативных требований могут и, более того, должны сосуществовать, если блокчейн и ИИ стремятся к масштабному институциональному внедрению.

Конец «Конфиденциальности любой ценой»

На протяжении многих лет в дискурсе блокчейна доминировал максимализм приватности. Такие проекты, как Monero и ранние версии протоколов, ориентированных на конфиденциальность, отстаивали абсолютную анонимность. Философия была простой: пользователи заслуживают полной финансовой тайны, а любой компромисс расценивался как предательство основополагающих принципов криптографии.

Но эта абсолютистская позиция создала критическую проблему. Хотя конфиденциальность необходима для защиты честных пользователей от слежки и опережающих сделок (front-running), она также стала щитом для незаконной деятельности. Регуляторы по всему миру начали относиться к анонимным монетам с подозрением, что привело к делистингу на крупных биржах и прямым запретам в нескольких юрисдикциях.

Как сообщает Cointelegraph, 2026 год станет годом взлета прагматичной конфиденциальности: новые проекты внедряют формы приватности, соответствующие нормативным требованиям для институционалов, а интерес к существующим анонимным монетам, таким как Zcash, растет. Ключевой вывод: конфиденциальность не бинарна. Ни полная прозрачность, ни абсолютная анонимность не работают в реальном мире, потому что, хотя приватность важна для честных пользователей, она также может использоваться преступниками для уклонения от правосудия.

Люди начинают принимать компромиссы, которые ограничивают конфиденциальность в определенных контекстах, чтобы сделать протоколы более устойчивыми к угрозам. Это представляет собой фундаментальный сдвиг в подходе блокчейн-сообщества к приватности.

Определение прагматичной конфиденциальности

Что же такое прагматичная конфиденциальность? Согласно Anaptyss, под прагматичной конфиденциальностью понимается стратегическое внедрение мер защиты данных пользователей и бизнеса без нарушения нормативных требований, что гарантирует безопасность и легальность финансовых операций.

Этот подход признает, что у разных участников блокчейн-экосистемы разные потребности в конфиденциальности:

  • Розничным пользователям нужна защита от массовой слежки и сбора данных.
  • Институциональным инвесторам требуется конфиденциальность, чтобы предотвратить опережение (front-running) их торговых стратегий.
  • Предприятиям необходимо соблюдать строгие требования AML/KYC, защищая при этом конфиденциальную бизнес-информацию.
  • Агентам ИИ нужны проверяемые вычисления без раскрытия проприетарных алгоритмов или обучающих данных.

Решение заключается не в выборе между приватностью и соблюдением требований, а в создании инфраструктуры, которая обеспечивает и то, и другое одновременно.

zkKYC: Верификация личности с сохранением конфиденциальности

Одним из наиболее многообещающих направлений в области прагматичной конфиденциальности является появление решений Know Your Customer с нулевым разглашением (zkKYC). Традиционные процессы KYC требуют от пользователей повторной отправки конфиденциальных личных документов на несколько платформ, что создает многочисленные «приманки» (honeypots) персональных данных, уязвимых для взлома.

zkKYC меняет эту модель. Как объясняет zkMe, их сервис zkKYC сочетает в себе технологию доказательства с нулевым разглашением (ZKP) с полным соответствием стандартам FATF. Регулируемый KYC-провайдер проверяет пользователя вне сети в соответствии со стандартными процедурами AML и верификации личности, но протоколы не собирают идентификационные данные. Вместо этого они проверяют соответствие криптографически.

Механизм элегантен: смарт-контракты автоматически проверяют доказательство с нулевым разглашением перед предоставлением доступа к определенным услугам или обработкой крупных транзакций. Пользователи доказывают, что они соответствуют требованиям — возрасту, месту жительства, отсутствию в санкционных списках — не раскрывая при этом никаких реальных идентификационных данных протоколу или другим пользователям.

По данным Studio AM, это уже происходит в некоторых блокчейн-экосистемах: пользователи подтверждают возраст или резидентство с помощью ZKP перед доступом к определенным сервисам децентрализованных финансов (DeFi). Крупные финансовые институты обращают на это внимание. Deutsche Bank и Privado ID провели пилотные проекты, демонстрирующие верификацию личности на основе блокчейна с использованием учетных данных с нулевым разглашением.

Возможно, самое важное то, что в июле 2025 года Google открыла исходный код своих библиотек доказательств с нулевым разглашением после совместной работы с немецкой группой Sparkasse, что сигнализирует о растущих институциональных инвестициях в инфраструктуру идентификации с сохранением конфиденциальности.

zkTLS: Делаем интернет верифицируемым

В то время как zkKYC решает вопросы верификации личности, другая технология устраняет не менее критическую проблему: как перенести верифицируемые данные из Web2 в блокчейн-системы без ущерба для конфиденциальности или безопасности. Встречайте zkTLS (Zero-Knowledge Transport Layer Security).

Традиционный TLS — протокол шифрования, защищающий каждое HTTPS-соединение, — имеет критическое ограничение: он обеспечивает конфиденциальность, но не верифицируемость. Иными словами, хотя TLS гарантирует шифрование информации во время передачи, он не создает доказательства того, что зашифрованное взаимодействие произошло таким образом, который можно проверить независимо.

zkTLS решает эту проблему, интегрируя доказательства с нулевым разглашением в систему шифрования TLS. Используя MPC-TLS и методы нулевого разглашения, zkTLS позволяет клиенту создавать криптографически проверяемые доказательства и аттестации реальных HTTPS-сессий.

Как описывает zkPass, zkTLS генерирует доказательство с нулевым разглашением (например, zk-SNARK), подтверждающее, что данные были получены с определенного сервера (идентифицируемого по его публичному ключу и домену) через легитимную TLS-сессию, без раскрытия сессионного ключа или открытых данных.

Последствия этого огромны. Традиционные API можно легко отключить или подвергнуть цензуре, тогда как zkTLS гарантирует, что пока у пользователей есть HTTPS-соединение, они могут продолжать получать доступ к своим данным. Это позволяет использовать практически любые данные Web2 в блокчейне верифицируемым и безразрешительным (permissionless) способом.

Недавние реализации демонстрируют зрелость технологии. zkTLS-копроцессор от Brevis при извлечении данных из веб-источника доказывает, что контент был получен через подлинную TLS-сессию с аутентичного домена и что данные не были изменены.

На конференции FOSDEM 2026 проект TLSNotary представил доклад об освобождении пользовательских данных с помощью zkTLS, продемонстрировав, как пользователи могут доказывать факты о своих частных данных — остатках на банковских счетах, кредитных рейтингах, историях транзакций — без раскрытия самой информации.

Верифицируемые вычисления ИИ: Недостающее звено для институционального внедрения

Верификация личности и данных с сохранением конфиденциальности подготавливают почву, но наиболее трансформирующим элементом инфраструктуры DePAI являются верифицируемые вычисления ИИ. По мере того как агенты ИИ становятся экономически активными участниками блокчейн-экосистем, вопрос смещается с «Может ли ИИ это сделать?» на «Можете ли вы доказать, что ИИ сделал это правильно?».

Это требование к верификации не является чисто теоретическим. Согласно DecentralGPT, поскольку ИИ становится частью финансов, автоматизации и рабочих процессов агентов, одной производительности недостаточно. В Web3 вопрос также звучит так: можете ли вы доказать, что произошло? В конце декабря 2025 года Cysic и Inference Labs объявили о партнерстве для создания масштабируемой инфраструктуры для верифицируемых приложений ИИ, сочетая децентрализованные вычисления с фреймворками проверки, разработанными для реального использования.

Институциональная необходимость в верифицируемых вычислениях очевидна. Как отмечается в анализе Алексис М. Адамс, переход к детерминированной инфраструктуре ИИ является единственным жизнеспособным путем для организаций, позволяющим соответствовать многоюрисдикционным требованиям Закона ЕС об ИИ (EU AI Act), законам штатов США в области передовых технологий и растущим ожиданиям рынка киберстрахования.

Мировой рынок управления ИИ отражает эту актуальность: согласно тому же анализу, в 2026 году он оценивается примерно в 429,8 млн долларов США, а к 2033 году, по прогнозам, достигнет 4,2 млрд долларов США.

Но верификация сталкивается с критическим пробелом. Как отмечает Keyrus, развертывание ИИ требует доверия к цифровым личностям, однако предприятия не могут проверить, кто — или что — на самом деле управляет системами ИИ. Когда организации не могут надежно отличить легитимных ИИ-агентов от самозванцев, контролируемых злоумышленниками, они не могут уверенно предоставлять системам ИИ доступ к конфиденциальным данным или полномочия на принятие решений.

Именно здесь конвергенция zkKYC, zkTLS и верифицируемых вычислений создает законченное решение. ИИ-агенты могут доказать свою личность (zkKYC), доказать, что они правильно получили данные из авторизованных источников (zkTLS), и доказать, что они правильно вычислили результаты (верифицируемые вычисления) — и все это без раскрытия конфиденциальной бизнес-логики или обучающих данных.

Институциональное стремление к комплаенсу

Эти технологии не появляются в вакууме. Спрос со стороны институциональных игроков на инфраструктуру конфиденциальности, соответствующую нормативным требованиям, ускоряется под давлением регуляторов и деловой необходимости.

Крупные финансовые институты признают, что без конфиденциальности их блокчейн-стратегии зайдут в тупик. Согласно WEEX Crypto News, институциональным инвесторам необходима конфиденциальность для предотвращения фронтраннинга их стратегий, и в то же время они должны выполнять строгие требования AML/KYC. Доказательства с нулевым разглашением набирают популярность в качестве решения, позволяющего учреждениям доказывать соблюдение нормативных требований, не раскрывая конфиденциальные базовые данные в публичном блокчейне.

Регуляторный ландшафт 2026 года не оставляет места для двусмысленности. Закон ЕС об ИИ вступает в общее применение в 2026 году, и регуляторы в различных юрисдикциях ожидают документированных программ управления, а не просто деклараций о политике, согласно SecurePrivacy.ai. Полное правоприменение касается систем ИИ высокого риска, используемых в критически важной инфраструктуре, образовании, сфере занятости, основных услугах и правоохранительных органах.

В Соединенных Штатах к концу 2025 года 19 штатов ввели в действие комплексные законы о конфиденциальности, а в 2026 году вступят в силу несколько новых статутов, что усложнит обязательства по соблюдению конфиденциальности в нескольких штатах. Колорадо и Калифорния добавили «нейронные данные» (а Колорадо также добавил «биологические данные») в определения «конфиденциальных» данных, как сообщает Nixon Peabody.

Эта регуляторная конвергенция создает мощный стимул: организации, строящие свою работу на соответствующей требованиям верифицируемой инфраструктуре, получают конкурентное преимущество, в то время как те, кто придерживается максимализма в вопросах конфиденциальности, оказываются отрезанными от институциональных рынков.

Целостность данных как операционная система для ИИ

Помимо соблюдения нормативных требований, верифицируемые вычисления открывают нечто более фундаментальное: целостность данных как операционную систему для ответственного ИИ.

Как отмечает Precisely, в 2026 году управление данными не будет чем-то, что организации добавляют после развертывания — оно будет встроено в то, как данные структурируются, интерпретируются и отслеживаются с самого начала. Целостность данных будет служить операционной системой для ответственного ИИ. От семантической ясности и объяснимости до комплаенса, возможности аудита и контроля над данными, генерируемыми ИИ, — именно целостность определит, сможет ли ИИ безопасно масштабироваться и приносить долгосрочную пользу.

Этот сдвиг имеет глубокие последствия для того, как ИИ-агенты работают в блокчейн-сетях. Вместо непрозрачных «черных ящиков» системы ИИ становятся проверяемыми, верифицируемыми и управляемыми по своей сути. Смарт-контракты могут обеспечивать соблюдение ограничений в поведении ИИ, подтверждать корректность вычислений и создавать неизменяемые журналы аудита — и все это при сохранении конфиденциальности проприетарных алгоритмов и обучающих данных.

MIT Sloan Management Review определяет это как один из пяти ключевых трендов в области ИИ и науки о данных на 2026 год, отмечая, что заслуживающий доверия ИИ требует верифицируемого происхождения данных и объяснимых процессов принятия решений.

Децентрализованная идентификация: базовый уровень

В основе этих технологий лежит более широкий переход к децентрализованной идентификации и проверяемым учетным данным (Verifiable Credentials). Как объясняет Indicio, децентрализованная идентификация меняет правила игры: вместо проверки личных данных в централизованном хранилище, люди сами владеют своими данными и делятся ими с согласия, которое может быть независимо проверено с помощью криптографии.

Эта модель переворачивает традиционные системы идентификации. Вместо того чтобы создавать многочисленные копии документов, разбросанные по базам данных, пользователи хранят единые проверяемые учетные данные и выборочно раскрывают только те атрибуты, которые необходимы для конкретного взаимодействия.

Для ИИ-агентов эта модель выходит за рамки человеческой идентификации. Агенты могут обладать проверяемыми учетными данными, подтверждающими происхождение их обучения, операционные параметры, историю аудита и объем полномочий. Это создает систему доверия, в которой агенты могут взаимодействовать автономно, оставаясь при этом подотчетными.

От экспериментов к внедрению

Ключевой трансформацией 2026 года станет переход от теоретических моделей к промышленной эксплуатации. Согласно анализу биржи XT, к 2026 году децентрализованный ИИ выходит за рамки экспериментов и переходит к практическому внедрению. Однако сохраняются ключевые ограничения, включая масштабирование рабочих нагрузок ИИ, сохранение конфиденциальности данных и управление открытыми системами ИИ.

Именно эти ограничения устраняет инфраструктура DePAI. Объединяя zkKYC для идентификации, zkTLS для проверки данных и верифицируемые вычисления для операций ИИ, инфраструктура создает полный стек для развертывания ИИ-агентов, которые одновременно являются:

  • Обеспечивающими конфиденциальность для пользователей и бизнеса
  • Соответствующими нормативным требованиям
  • Верифицируемыми и проверяемыми по определению
  • Масштабируемыми для институциональных рабочих нагрузок

Путь вперед: создание компонуемой конфиденциальности

Последний элемент пазла DePAI — это компонуемость. Как сообщает Blockmanity, 2026 год станет моментом, когда блокчейн превратится в «просто технический фундамент» для ИИ-агентов и мировых финансов. Инфраструктура должна быть модульной, функционально совместимой и невидимой для конечных пользователей.

Прагматичные инструменты конфиденциальности отлично подходят для компонуемости. ИИ-агент может:

  1. Проходить аутентификацию с помощью учетных данных zkKYC
  2. Получать верифицированные внешние данные через zkTLS
  3. Выполнять вычисления с верифицируемым выводом (inference)
  4. Фиксировать результаты в сети с доказательствами корректности с нулевым разглашением
  5. Вести журналы аудита без раскрытия конфиденциальной логики

Каждый уровень работает независимо, что позволяет разработчикам комбинировать технологии сохранения конфиденциальности в зависимости от конкретных требований. DeFi-протоколу может потребоваться zkKYC для регистрации пользователей, zkTLS для получения ценовых фидов и верифицируемые вычисления для сложных финансовых расчетов — и все это будет работать бесшовно.

Эта компонуемость распространяется на разные сети. Инфраструктура конфиденциальности, построенная на стандартах совместимости, может функционировать в Ethereum, Solana, Sui, Aptos и других блокчейн-сетях, создавая универсальный слой для комплаентных, приватных и верифицируемых вычислений.

Почему это важно для разработчиков

Для разработчиков, создающих следующее поколение блокчейн-приложений, инфраструктура DePAI представляет собой как возможность, так и необходимость.

Возможность: преимущество первопроходца в создании приложений, которые действительно нужны институциональным игрокам. Финансовые институты, поставщики медицинских услуг, государственные органы и крупные предприятия нуждаются в блокчейн-решениях, но они не могут идти на компромисс в вопросах комплаенса или конфиденциальности. Приложения, построенные на прагматичной инфраструктуре конфиденциальности, могут обслуживать эти рынки.

Необходимость: Регуляторная среда все чаще требует наличия верифицируемых и управляемых систем ИИ. Приложения, которые не могут продемонстрировать соответствие требованиям, возможность аудита и защиту конфиденциальности пользователей, окажутся исключенными из регулируемых рынков.

Технические возможности быстро развиваются. Решения zkKYC уже готовы к эксплуатации, а крупные финансовые институты проводят пилотные проекты. Внедрение zkTLS позволяет обрабатывать данные из реального мира. Фреймворки верифицируемых вычислений масштабируются для обработки институциональных нагрузок.

Сейчас необходимо признание со стороны разработчиков. Переход от экспериментальных инструментов конфиденциальности к промышленной инфраструктуре требует от создателей интеграции этих технологий в приложения, тестирования их в реальных сценариях и предоставления обратной связи командам инфраструктуры.

BlockEden.xyz предоставляет RPC-инфраструктуру корпоративного уровня для блокчейн-сетей, внедряющих технологии сохранения конфиденциальности. Изучите наши услуги, чтобы строить на фундаменте, разработанном для эры DePAI.

Заключение: прагматичное будущее приватности

Взрывной рост DePAI в 2026 году представляет собой нечто большее, чем просто технологический прогресс. Это сигнализирует о зрелости отношений блокчейна с приватностью, комплаенсом и институциональным внедрением.

Индустрия выходит за рамки идеологических битв между максималистами приватности и абсолютистами прозрачности. Прагматичная приватность признает, что разные контексты требуют разных гарантий конфиденциальности и что соблюдение нормативных требований и пользовательская приватность могут сосуществовать благодаря продуманному криптографическому дизайну.

zkKYC подтверждает личность, не раскрывая ее. zkTLS проверяет данные, не доверяя посредникам. Верифицируемые вычисления доказывают корректность, не раскрывая алгоритмы. Вместе эти технологии создают инфраструктурный слой, в котором ИИ-агенты могут работать автономно, предприятия могут уверенно внедрять блокчейн, а пользователи сохраняют контроль над своими данными.

Это не компромисс в отношении принципов приватности. Это признание того, что приватность, чтобы быть значимой, должна быть устойчивой в рамках регуляторных и деловых реалий мировых финансов. Абсолютная приватность, которая попадает под запрет, делистинг и исключается из институционального использования, никого не защищает. Прагматичная приватность, обеспечивающая как конфиденциальность, так и комплаенс, на самом деле выполняет обещание блокчейна.

Разработчики, которые осознают этот сдвиг и строят на базе инфраструктуры DePAI уже сегодня, определят следующую эру децентрализованных приложений. Инструменты готовы. Институциональный спрос очевиден. Регуляторная среда кристаллизуется. 2026 год станет годом, когда прагматичная приватность перейдет от теории к развертыванию — и блокчейн-индустрия станет от этого только сильнее.


Источники