Перейти к основному содержимому

81 запись с тегом "блокчейн"

Посмотреть все теги

Видение Баладжи о криптоидентичности: от ключей к сетевым государствам

· 9 мин. чтения
Dora Noda
Software Engineer

1) Что Баладжи подразумевает под «криптоидентичностью»

В словаре Баладжи криптоидентичность — это идентичность, основанная на криптографии — в частности, на парах открытых и закрытых ключей — и затем расширенная ончейн-именами, проверяемыми учетными данными/аттестациями и интерфейсами к устаревшей («фиатной») идентичности. В его словах и работах:

  • Ключи как идентичность. Основой является идея, что в Bitcoin и web3 ваша пара ключей — это ваша идентичность; аутентификация и авторизация исходят из контроля над закрытыми ключами, а не из учетных записей в корпоративной базе данных. (balajis.com)
  • Имена и репутация ончейн. Системы именования, такие как ENS/SNS, привязывают удобочитаемые идентификаторы к адресам; учетные данные (NFT, «связанные с душой» токены, ончейн «криптоучетные данные») и аттестации накладывают репутацию и историю на эти идентификаторы.
  • Ончейн, проверяемая «перепись». Для обществ и сетевых государств идентичность участвует в криптографически проверяемой переписи (доказательство человечности/уникальной личности, доказательство дохода, доказательство владения недвижимостью) для демонстрации реального населения и экономической активности.
  • Соединение устаревшего ID ↔ крипто ID. Он прямо утверждает, что нам нужен «обмен фиатной идентичности ↔ криптоидентичности» — сродни фиат↔крипто биржам — чтобы «цифровые паспорта следовали за цифровой валютой». Он выделяет «криптопаспорта» как следующий интерфейс после стейблкоинов. (Circle)
  • Идентичность для «web3 доверия» в эпоху ИИ. Чтобы противостоять дипфейкам и ботам, он продвигает контент, подписанный ончейн-идентификаторами (например, ENS), чтобы происхождение и авторство были криптографически проверяемы по всей открытой сети. (Chainlink Today)
  • Гражданская защита. В его кратком изложении: «Криптовалюта частично защищает вас от дебанкинга. Криптоидентичность частично защищает вас от денатурализации». (X (ранее Twitter))

2) Как развивалось его видение (краткая хронология)

  • 2019–2020 – криптографическая идентичность и псевдонимность. В работах Баладжи подчеркивается криптография с открытым ключом как идентичность (ключи как ID) и прогнозируется рост децентрализованной идентичности + репутации на протяжении 2020-х годов. В то же время его доклад «псевдонимная экономика» выступает за постоянные, несущие репутацию псевдонимы для защиты свободы слова и экспериментов с новыми видами работы и организации. (balajis.com)
  • 2022 – Сетевое государство. Он формализует роль идентичности в сетевом государстве: ончейн-перепись; идентичность в стиле ENS; криптографические доказательства (личности/дохода/недвижимости); и криптоучетные данные/soulbounds. Идентичность является инфраструктурной — это то, что общество считает и что мир может проверить.
  • 2022–2024 – мосты к устаревшим системам. В публичных интервью и своем подкасте он призывает к мостам фиатной↔криптоидентичности (например, цифровая резиденция RNS.ID Палау) и подчеркивает необходимость перевода «бумажных» записей в код. (Circle)
  • 2023–настоящее время – идентичность как защита от подделок ИИ. Он рассматривает криптоидентичность как основу «web3 доверия»: подписанный контент, ончейн-происхождение и экономическое трение (стейкинг, платежи) для отделения людей от ботов. (Chainlink Today)

3) Технический стек, на который указывает Баладжи

Корневой примитив: ключи и кошельки

  • Контроль над закрытым ключом = контроль над идентичностью; ротация/разделение ключей для разных персон и профилей риска. (balajis.com)

Разрешение и вход

  • ENS/SNS сопоставляют удобочитаемые имена с адресами; Sign‑In with Ethereum (EIP‑4361) превращает эти адреса в стандартный способ аутентификации для оффчейн-приложений.

Учетные данные и аттестации (уровень репутации)

  • W3C Verifiable Credentials (VC 2.0) определяют интероперабельный способ выдачи/хранения/проверки утверждений (например, проверки KYC, дипломы).
  • Ethereum Attestation Service (EAS) предоставляет общедоступный уровень для ончейн- или оффчейн-аттестаций для создания идентичности, репутации и реестров, которые приложения могут проверять. (W3C)

Доказательство личности и уникальности

  • В Сетевом государстве Баладжи описывает методы «доказательства человечности» для ончейн-переписи; вне его работы подходы, такие как World ID, пытаются проверить человечность/уникальность, что также вызвало опасения по поводу защиты данных — иллюстрируя компромиссы биометрического PoP.

Мосты к устаревшей идентичности

  • Palau RNS.ID — яркий пример суверенного государства, выдающего юридический идентификатор с ончейн-компонентами; принятие неравномерно на разных платформах, что подчеркивает проблему «моста», которую выделяет Баладжи. (Biometric Update)

Происхождение и защита от дипфейков

  • Он выступает за подписание контента с адресов, связанных с ENS, чтобы каждое изображение/пост/видео можно было отследить до криптографической идентичности в «web3 доверия». (Chainlink Today)

4) Почему это важно (стратегические утверждения Баладжи)

  1. Устойчивость к цензуре и деплатформингу: Ключи и децентрализованное именование снижают зависимость от централизованных поставщиков ID. (Ключи — это идентификаторы на предъявителя.) (balajis.com)
  2. Проверяемость для обществ: Сетевые государства требуют проверяемого населения/дохода/следа; проверяемость невозможна без идентичности, которая может быть доказана ончейн.
  3. Устойчивость к ИИ: Криптографический уровень идентичности (плюс подписи/аттестации) лежит в основе подлинности в интернете, противодействуя подделкам, созданным ИИ. (Chainlink Today)
  4. Интероперабельность и компонуемость: Стандарты (ENS, SIWE, VC/EAS) делают идентичность переносимой между приложениями и юрисдикциями.

5) Как это связано с Сетевым государством

Книга Баладжи неоднократно связывает идентичность с ончейн-переписью в реальном времени — включая доказательство человечности, доказательство дохода и доказательство владения недвижимостью — и выделяет именование (ENS) и криптоучетные данные как основные примитивы. Он также описывает паттерны «ENS-вход в физический мир» (цифровые ключи к дверям/услугам), встроенные в социальный смарт-контракт, указывая на криптоидентичность как на уровень доступа как для цифрового, так и (в конечном итоге) для физического управления.


6) План реализации (практический путь, который вы можете осуществить сегодня)

A. Установите базовые идентификаторы

  1. Сгенерируйте отдельные пары ключей для: (i) юридического/«реального имени», (ii) рабочего/профессионального псевдонима, (iii) псевдонима для публичных выступлений. Храните каждый в отдельной конфигурации кошелька (аппаратный, MPC или смарт-аккаунты с хранителями). (balajis.com)
  2. Зарегистрируйте имена ENS для каждой персоны; опубликуйте минимальные метаданные публичного профиля.

B. Добавьте аутентификацию и происхождение контента 3. Включите SIWE (EIP‑4361) для входа в приложения; постепенно отказывайтесь от паролей/социальных входов. (Ethereum Improvement Proposals) 4. Подписывайте публичные артефакты (посты, изображения, выпуски кода) с вашего адреса, связанного с ENS; опубликуйте простую ленту «подписанного контента», которую другие могут проверить. (Chainlink Today)

C. Наложите учетные данные и аттестации 5. Выдавайте/собирайте VC для юридических фактов (роль в компании, лицензии) и аттестации EAS для мягких сигналов (репутация, проверенные вклады, посещаемость). Храните конфиденциальные утверждения оффчейн, оставляя только хеши/квитанции ончейн. (W3C)

D. Подключайтесь к устаревшей идентичности при необходимости 6. Там, где это законно и полезно, свяжите суверенный/корпоративный ID (например, Palau RNS.ID) с вашей криптоидентичностью для мест, требующих KYC. Ожидайте неоднородного принятия и поддерживайте альтернативы. (Biometric Update)

E. Развертывание для групп/обществ 7. Для стартап-общества или DAO: - Ограничьте членство с помощью ENS + метода доказательства человечности, который вы считаете приемлемым. - Поддерживайте публичную, проверяемую перепись (количество членов/доходов/активов), используя оракулы плюс подписанные аттестации, а не необработанные PII.


7) Риски, критика и открытые вопросы

  • Эрозия конфиденциальности/псевдонимности. Анализ блокчейна может группировать кошельки; собственная концепция псевдонимности Баладжи предупреждает, как несколько «битов» данных могут повторно идентифицировать вас. Используйте миксеры/технологии конфиденциальности осторожно и законно — но признавайте ограничения. (blog.blockstack.org)
  • Компромиссы доказательства личности. Биометрический PoP (например, радужная оболочка глаза) вызывает значительное внимание к защите данных; альтернативные методы PoP снижают риск, но могут увеличить уязвимость к атакам Сивиллы. (law.kuleuven.be)
  • Хрупкость моста. ID в стиле Палау не являются универсальным пропуском KYC; принятие варьируется в зависимости от платформы и юрисдикции и может меняться. Разрабатывайте с учетом постепенной деградации. (Malakouti Law)
  • Потеря ключей и принуждение. Ключи могут быть украдены/принудительно получены; используйте мультиподпись/хранителей и политики реагирования на инциденты. (Модель Баладжи предполагает криптографию + согласие, что должно быть социально спроектировано.) (balajis.com)
  • Централизация имен/реестров. ENS или любой орган именования становится узким местом политики; смягчайте это с помощью многоперсонального дизайна и экспортируемых доказательств.

8) Как криптоидентичность Баладжи соотносится со стандартами (и в чем ее отличия)

  • Соответствие:

    • DIDs + VCs (W3C) = переносимые, интероперабельные идентификаторы/утверждения; SIWE = аутентификация, встроенная в кошелек; EAS = аттестации для репутации/реестров. Это компоненты, на которые он указывает — даже если он использует простой язык (ENS, учетные данные), а не аббревиатуры стандартов. (W3C)
  • Различия/акцент:

    • Он возвышает общественную проверяемость (ончейн-перепись) и происхождение в эпоху ИИ (подписанный контент) больше, чем многие обсуждения DID/VC, и он явно продвигает мосты фиатной↔криптоидентичности и криптопаспорта как ближайший приоритет.

9) Если вы создаете: минимально жизнеспособное внедрение «криптоидентичности» (90 дней)

  1. Неделя 1–2: Ключи, ENS, SIWE включены; опубликуйте свою политику подписи и начните подписывать публичные посты/релизы. (Ethereum Improvement Proposals)
  2. Неделя 3–6: Интегрируйте VC/EAS для роли/членства/участия; создайте публичную «страницу доверия», которая программно проверяет эти данные. (W3C)
  3. Неделя 7–10: Создайте базовую панель мониторинга переписи (общее количество членов, ончейн-доказательства казначейства/дохода) с четкой позицией по конфиденциальности.
  4. Неделя 11–13: Протестируйте устаревший мост (например, RNS.ID, где это уместно) для одного потока, требующего соблюдения нормативных требований; опубликуйте результаты (что сработало/не сработало). (Biometric Update)

Избранные источники (основные и опорные)

  • Сетевое государство (ончейн-перепись; ENS/идентичность; криптоучетные данные) и примеры «ENS-входа в физический мир».
  • Криптография с открытым ключом (ключи как идентичность). (balajis.com)
  • Circle – Движение денег (Эп. 74) (мост фиатной↔криптоидентичности; «криптопаспорта»). (Circle)
  • Подкаст The Network State, Эп. 10 (обмен фиатной идентичности→криптоидентичности; Palau RNS.ID). (thenetworkstate.com)
  • Chainlink Today (подписанный контент/ENS для борьбы с дипфейками; «web3 доверия»). (Chainlink Today)
  • Баладжи в X («Криптоидентичность… денатурализация»). (X (ранее Twitter))
  • Стандарты: W3C DID Core, VC 2.0; EIP‑4361 (SIWE); документация EAS. (W3C)
  • RNS.ID / Палау (реальный мост; смешанное принятие). (Biometric Update)
  • Псевдонимная экономика (идентичность и интуиция повторной идентификации по 33 битам). (blog.blockstack.org)

Итог

Для Баладжи криптоидентичность — это не просто «технология DID». Это цивилизационный примитив: ключи и подписи в основе; имена и учетные данные сверху; мосты к устаревшей идентичности; и проверяемая публичная запись, которая масштабируется от отдельных лиц до сетевых обществ. Это способ получить подлинных людей и подлинные записи в интернете, наводненном ИИ, — и способ для стартап-общества доказать свою реальность, не требуя от мира верить ему на слово. (Chainlink Today)

Если хотите, я могу адаптировать план реализации под ваш конкретный случай использования (потребительское приложение, DAO, предприятие или пилотный проект стартап-общества) и предоставить конкретные схемы/потоки для SIWE, EAS и VC 2.0, соответствующие вашим нормативным требованиям и ограничениям UX.

Следующая глава DeFi: перспективы от ведущих разработчиков и инвесторов (2024 – 2025)

· 10 мин. чтения
Dora Noda
Software Engineer

Децентрализованные финансы (DeFi) значительно развились от спекулятивного бума лета 2020 года до цикла 2024–2025 годов. Более высокие процентные ставки замедлили рост DeFi в 2022–2023 годах, но появление высокопроизводительных блокчейнов, стимулирующих токенов и более четкой нормативно-правовой среды создает условия для новой фазы ончейн-финансов. Лидеры Hyperliquid, Aave, Ethena и Dragonfly разделяют общее ожидание, что следующая глава будет обусловлена подлинной полезностью: эффективной рыночной инфраструктурой, доходными стейблкоинами, токенизацией реальных активов и пользовательским опытом с помощью ИИ. Следующие разделы анализируют будущее DeFi через призму мнений Джеффа Яна (Hyperliquid Labs), Стани Кулехова (Aave Labs), Гая Янга (Ethena Labs) и Хасиба Куреши (Dragonfly).

Джефф Ян – Hyperliquid Labs

Предыстория

Джефф Ян — соучредитель и генеральный директор Hyperliquid, децентрализованной биржи (DEX), которая управляет высокопроизводительной книгой ордеров для бессрочных фьючерсов и спотовой торговли. Hyperliquid приобрела известность в 2024 году благодаря своему аирдропу, управляемому сообществом, и отказу продавать акции венчурным капиталистам; Ян сохранил команду небольшой и самофинансируемой, чтобы сосредоточиться на продукте. Видение Hyperliquid — стать децентрализованным базовым уровнем для других финансовых продуктов, таких как токенизированные активы и стейблкоины.

Видение следующей главы DeFi

  • Эффективность вместо хайпа. На панели Token 2049 Ян сравнил DeFi с математической задачей; он утверждал, что рынки должны быть эффективными, где пользователи получают лучшие цены без скрытых спредов. Высокопроизводительная книга ордеров Hyperliquid призвана обеспечить эту эффективность.
  • Владение сообществом и анти-венчурная позиция. Ян считает, что успех DeFi должен измеряться ценностью, предоставляемой пользователям, а не выходом инвесторов. Hyperliquid отказалась от партнерства с частными маркет-мейкерами и листингов на централизованных биржах, чтобы избежать компрометации децентрализации. Этот подход соответствует этосу DeFi: протоколы должны принадлежать их сообществам и создаваться для долгосрочной полезности.
  • Фокус на инфраструктуре, а не на цене токена. Ян подчеркивает, что цель Hyperliquid — создание надежной технологии; улучшения продукта, такие как HIP‑3, направлены на снижение рисков dApp за счет автоматизированных аудитов и лучшей интеграции. Он избегает жестких дорожных карт, предпочитая адаптироваться к отзывам пользователей и технологическим изменениям. Эта адаптивность отражает более широкий сдвиг от спекуляций к зрелой инфраструктуре.
  • Видение безразрешительного финансового стека. Ян видит, как Hyperliquid превращается в фундаментальный уровень, на котором другие могут создавать стейблкоины, RWA и новые финансовые инструменты. Оставаясь децентрализованным и капиталоэффективным, он надеется создать нейтральный уровень, подобный децентрализованному Nasdaq.

Выводы

Перспектива Джеффа Яна подчеркивает эффективность рынка, владение, управляемое сообществом, и модульную инфраструктуру. Он видит следующую главу DeFi как фазу консолидации, в которой высокопроизводительные DEX становятся основой для токенизированных активов и доходных продуктов. Его отказ от венчурного финансирования сигнализирует о противодействии чрезмерным спекуляциям; в следующей главе протоколы могут отдавать приоритет устойчивости над громкими оценками.

Стани Кулехов – Aave Labs

Предыстория

Стани Кулехов основал Aave, один из первых протоколов денежного рынка и лидера в децентрализованном кредитовании. Рынки ликвидности Aave позволяют пользователям получать доход или занимать активы без посредников. К 2025 году TVL и набор продуктов Aave расширились, включив стейблкоины и недавно запущенный Family Wallet — фиат-крипто шлюз, дебютировавший на саммите Blockchain Ireland.

Видение следующей главы DeFi

  • Катализатор снижения ставок для «DeFi лета 2.0». На Token 2049 Кулехов утверждал, что падение процентных ставок вызовет новый бум DeFi, аналогичный 2020 году. Более низкие ставки создают арбитражные возможности, поскольку ончейн-доходность остается привлекательной по сравнению с TradFi, привлекая капитал в протоколы DeFi. Он вспоминает, что TVL DeFi подскочил с менее чем $1 миллиарда до $10 миллиардов во время снижения ставок в 2020 году и ожидает аналогичной динамики, когда денежно-кредитная политика ослабнет.
  • Интеграция с финтехом. Кулехов предвидит внедрение DeFi в основную финтех-инфраструктуру. Он планирует распределять ончейн-доходность через удобные для потребителя приложения и институциональные каналы, превращая DeFi в бэкэнд для сберегательных продуктов. Family Wallet является примером этого, предлагая бесшовные конвертации фиат-стейблкоинов и ежедневные платежи.
  • Реальные активы (RWA) и стейблкоины. Он рассматривает токенизированные реальные активы и стейблкоины как столпы будущего блокчейна. Стейблкоин GHO от Aave и инициативы RWA направлены на привязку доходности DeFi к залогам реальной экономики, преодолевая разрыв между крипто- и традиционными финансами.
  • Инновации, управляемые сообществом. Кулехов приписывает успех Aave своему сообществу и ожидает, что инновации, управляемые пользователями, будут двигать следующую фазу. Он предполагает, что DeFi сосредоточится на потребительских приложениях, которые абстрагируют сложность, сохраняя при этом децентрализацию.

Выводы

Стани Кулехов предвидит возвращение бычьего цикла DeFi, подпитываемого более низкими ставками и улучшенным пользовательским опытом. Он подчеркивает интеграцию с финтехом и реальными активами, предсказывая, что стейблкоины и токенизированные казначейские обязательства встроят доходность DeFi в повседневные финансовые продукты. Это отражает созревание от спекулятивного доходного фермерства до инфраструктуры, которая сосуществует с традиционными финансами.

Гай Янг – Ethena Labs

Предыстория

Гай Янг — генеральный директор Ethena Labs, создателя sUSDe, синтетического долларового стейблкоина, который использует дельта-нейтральные стратегии для предложения доходного доллара. Ethena привлекла внимание благодаря предоставлению привлекательной доходности при использовании залога USDT и коротких бессрочных позиций для хеджирования ценового риска. В 2025 году Ethena объявила об инициативах, таких как iUSDe, соответствующая требованиям обернутая версия для традиционных учреждений.

Видение следующей главы DeFi

  • Стейблкоины для сбережений и торгового обеспечения. Янг классифицирует варианты использования стейблкоинов на торговое обеспечение, сбережения для развивающихся стран, платежи и спекуляции. Ethena фокусируется на сбережениях и торговле, потому что доходность делает доллар привлекательным, а интеграция с биржами стимулирует внедрение. Он считает, что доходный доллар станет самым важным сберегательным активом в мире.
  • Нейтральные, платформенно-независимые стейблкоины. Янг утверждает, что стейблкоины должны быть нейтральными и широко приниматься на всех площадках; попытки бирж продвигать собственные стейблкоины вредят пользовательскому опыту. Использование USDT компанией Ethena увеличивает спрос на Tether, а не конкурирует с ним, демонстрируя синергию между стейблкоинами DeFi и существующими игроками.
  • Интеграция с TradFi и мессенджерами. Ethena планирует выпустить iUSDe с ограничениями на передачу для удовлетворения нормативных требований и интегрировать sUSDe в Telegram и Apple Pay, позволяя пользователям сберегать и тратить доходные доллары, как отправлять сообщения. Янг предполагает предоставление опыта, подобного необанку, миллиарду пользователей через мобильные приложения.
  • Переход к фундаментальным показателям и RWA. Он отмечает, что криптоспекуляции кажутся насыщенными — рыночная капитализация альткоинов достигла пика в $1,2 триллиона как в 2021, так и в 2024 году — поэтому инвесторы сосредоточатся на проектах с реальным доходом и токенизированных реальных активах. Стратегия Ethena по предоставлению доходности от офчейн-активов позиционирует ее для этого перехода.

Выводы

Перспектива Гая Янга сосредоточена на доходных стейблкоинах как на «убийственном приложении» DeFi. Он утверждает, что следующая глава DeFi включает в себя повышение продуктивности долларов и встраивание их в основные платежи и мессенджеры, привлекая миллиарды пользователей. Платформенно-независимый подход Ethena отражает убеждение, что стейблкоины DeFi должны дополнять, а не конкурировать с существующими системами. Он также предвидит переход от спекулятивных альткоинов к токенам, генерирующим доход, и RWA.

Хасиб Куреши – Dragonfly

Предыстория

Хасиб Куреши — управляющий партнер Dragonfly, венчурной фирмы, специализирующейся на крипто и DeFi. Куреши известен своими аналитическими статьями и участием в подкасте Chopping Block. В конце 2024 и начале 2025 года он опубликовал серию прогнозов, описывающих, как ИИ, стейблкоины и регуляторные изменения будут формировать криптоиндустрию.

Видение следующей главы DeFi

  • Кошельки и агенты на базе ИИ. Куреши предсказывает, что ИИ-агенты произведут революцию в криптоиндустрии, автоматизируя мосты, оптимизируя торговые маршруты, минимизируя комиссии и отводя пользователей от мошенничества. Он ожидает, что кошельки, управляемые ИИ, будут беспрепятственно обрабатывать кроссчейн-операции, снижая сложность, которая в настоящее время отпугивает обычных пользователей. Инструменты разработки с помощью ИИ также упростят создание смарт-контрактов, укрепляя доминирование EVM.
  • Токены ИИ-агентов против мем-коинов. Куреши считает, что токены, связанные с ИИ-агентами, превзойдут мем-коины в 2025 году, но предупреждает, что новизна исчезнет, а реальная ценность будет исходить от влияния ИИ на разработку программного обеспечения и торговлю. Он рассматривает нынешнее волнение как сдвиг от «финансового нигилизма к финансовому сверхоптимизму», предостерегая от чрезмерного хайпа вокруг чат-бот-коинов.
  • Сближение стейблкоинов и ИИ. В своих прогнозах на 2025 год Куреши выделяет шесть основных тем: (1) различие между сетями первого и второго уровня будет стираться по мере того, как инструменты ИИ расширят долю EVM; (2) распределение токенов изменится с крупных аирдропов на модели, основанные на метриках или краудфандинге; (3) принятие стейблкоинов резко возрастет, при этом банки будут выпускать свои собственные стейблкоины, а Tether сохранит доминирование; (4) ИИ-агенты будут доминировать в крипто-взаимодействиях, но их новизна может исчезнуть к 2026 году; (5) инструменты ИИ значительно снизят затраты на разработку, что позволит волне инноваций dApp и повысит безопасность; и (6) регуляторная ясность, особенно в США, ускорит массовое принятие.
  • Институциональное принятие и регуляторные сдвиги. Куреши ожидает, что компании из списка Fortune 100 будут предлагать криптоактивы потребителям при администрации Трампа и считает, что законодательство США о стейблкоинах будет принято, открывая путь для институционального участия. Обзор исследований Gate.io подтверждает это, отмечая, что ИИ-агенты будут использовать стейблкоины для одноранговых транзакций и что децентрализованное обучение ИИ ускорится.
  • DeFi как инфраструктура для финансов с поддержкой ИИ. В подкасте The Chopping Block Куреши назвал Hyperliquid «крупнейшим победителем» цикла 2024 года и предсказал, что токены DeFi покажут взрывной рост в 2025 году. Он объясняет это такими инновациями, как пулы ликвидности, которые делают децентрализованную торговлю бессрочными фьючерсами конкурентоспособной. Его бычий настрой в отношении DeFi проистекает из убеждения, что пользовательский опыт, основанный на ИИ, и регуляторная ясность привлекут капитал в ончейн-протоколы.

Выводы

Хасиб Куреши рассматривает следующую главу DeFi как сближение ИИ и ончейн-финансов. Он предвидит всплеск кошельков, управляемых ИИ, и автономных агентов, которые упростят взаимодействие с пользователями и привлекут новых участников. Однако он предупреждает, что ажиотаж вокруг ИИ может угаснуть; устойчивая ценность будет исходить от инструментов ИИ, снижающих затраты на разработку и повышающих безопасность. Он ожидает, что законодательство о стейблкоинах, институциональное принятие и распределение токенов, основанное на метриках, профессионализируют отрасль. В целом, он видит, как DeFi превращается в основу для финансовых услуг с поддержкой ИИ, соответствующих нормативным требованиям.

Сравнительный анализ

ИзмерениеДжефф Ян (Hyperliquid)Стани Кулехов (Aave)Гай Янг (Ethena)Хасиб Куреши (Dragonfly)
Основное вниманиеВысокопроизводительная инфраструктура DEX; владение сообществом; эффективностьДецентрализованное кредитование; интеграция с финтехом; реальные активыДоходные стейблкоины; торговое обеспечение; интеграция платежейИнвестиционная перспектива; ИИ-агенты; институциональное принятие
Ключевые факторы для следующей главыЭффективные рынки книг ордеров; модульный протокольный уровень для RWA и стейблкоиновСнижение ставок, стимулирующее приток капитала и «DeFi лето 2.0»; интеграция с финтехом и RWAНейтральные стейблкоины, генерирующие доход; интеграция с мессенджерами и TradFiКошельки и агенты на базе ИИ; регуляторная ясность; распределение токенов, основанное на метриках
Роль стейблкоиновЛежит в основе будущих слоев DeFi; поощряет децентрализованных эмитентовСтейблкоин GHO и токенизированные казначейские обязательства интегрируют доходность DeFi в основные финансовые продуктыsUSDe превращает доллары в доходные сбережения; iUSDe ориентирован на институтыБанки будут выпускать стейблкоины к концу 2025 года; ИИ-агенты будут использовать стейблкоины для транзакций
Взгляд на стимулы токеновОтклоняет венчурное финансирование и сделки с частными маркет-мейкерами для приоритета сообществаПодчеркивает инновации, управляемые сообществом; рассматривает токены DeFi как инфраструктуру для финтехаВыступает за платформенно-независимые стейблкоины, дополняющие существующие экосистемыПрогнозирует переход от крупных аирдропов к распределениям, основанным на KPI или краудфандинге
Перспективы регулирования и институтовМинимальное внимание к регулированию; подчеркивает децентрализацию и самофинансированиеВидит, что регуляторная ясность позволяет токенизацию RWA и институциональное использованиеРаботает над iUSDe с ограничениями на передачу для соответствия нормативным требованиямОжидает, что законодательство США о стейблкоинах и прокриптовая администрация ускорят принятие
Об ИИ и автоматизацииН/ПН/ПНе является центральным (хотя Ethena может использовать системы ИИ для управления рисками)ИИ-агенты будут доминировать в пользовательском опыте; новизна исчезнет к 2026 году

Заключение

Следующая глава DeFi, вероятно, будет сформирована эффективной инфраструктурой, доходными активами, интеграцией с традиционными финансами и пользовательским опытом, управляемым ИИ. Джефф Ян сосредоточен на создании высокопроизводительной, принадлежащей сообществу инфраструктуры DEX, которая может служить нейтральным базовым уровнем для токенизированных активов. Стани Кулехов ожидает, что более низкие процентные ставки, интеграция с финтехом и реальные активы катализируют новый бум DeFi. Гай Янг отдает приоритет доходным стейблкоинам и бесшовным платежам, продвигая DeFi в мессенджеры и традиционные банки. Хасиб Куреши предвидит, что ИИ-агенты трансформируют кошельки, а регуляторная ясность откроет институциональный капитал, одновременно предостерегая от чрезмерно раздутых нарративов о токенах ИИ.

В совокупности эти перспективы предполагают, что будущее DeFi выйдет за рамки спекулятивного фермерства и перейдет к зрелым, ориентированным на пользователя финансовым продуктам. Протоколы должны предоставлять реальную экономическую ценность, интегрироваться с существующими финансовыми системами и использовать технологические достижения, такие как ИИ и высокопроизводительные блокчейны. По мере сближения этих тенденций DeFi может развиться из нишевой экосистемы в глобальную, безразрешительную финансовую инфраструктуру.

MCP в экосистеме Web3: Всесторонний обзор

· 46 мин. чтения
Dora Noda
Software Engineer

1. Определение и происхождение MCP в контексте Web3

Протокол контекста модели (MCP) — это открытый стандарт, который соединяет ИИ-помощников (таких как большие языковые модели) с внешними источниками данных, инструментами и средами. Часто описываемый как «порт USB-C для ИИ» из-за его универсальной природы «подключи и работай», MCP был разработан Anthropic и впервые представлен в конце ноября 2024 года. Он возник как решение для вывода ИИ-моделей из изоляции путем их безопасного соединения с «системами, где живут данные» — от баз данных и API до сред разработки и блокчейнов.

Изначально экспериментальный побочный проект в Anthropic, MCP быстро набрал обороты. К середине 2024 года появились эталонные реализации с открытым исходным кодом, а к началу 2025 года он стал стандартом де-факто для интеграции агентного ИИ, с ведущими ИИ-лабораториями (OpenAI, Google DeepMind, Meta AI), принявшими его нативно. Это быстрое внедрение было особенно заметно в сообществе Web3. Блокчейн-разработчики увидели в MCP способ внедрения ИИ-возможностей в децентрализованные приложения, что привело к распространению созданных сообществом MCP-коннекторов для ончейн-данных и сервисов. Фактически, некоторые аналитики утверждают, что MCP может реализовать первоначальное видение Web3 о децентрализованном, ориентированном на пользователя интернете более практичным способом, чем один только блокчейн, используя интерфейсы на естественном языке для расширения возможностей пользователей.

В итоге, MCP не является блокчейном или токеном, а представляет собой открытый протокол, родившийся в мире ИИ, который быстро был принят в экосистеме Web3 как мост между ИИ-агентами и децентрализованными источниками данных. Anthropic открыл исходный код стандарта (с первоначальной спецификацией GitHub и SDK) и сформировал вокруг него открытое сообщество. Этот подход, управляемый сообществом, подготовил почву для интеграции MCP в Web3, где он теперь рассматривается как фундаментальная инфраструктура для децентрализованных приложений с поддержкой ИИ.

2. Техническая архитектура и основные протоколы

MCP работает на легковесной клиент-серверной архитектуре с тремя основными ролями:

  • Хост MCP: Само ИИ-приложение или агент, которое оркестрирует запросы. Это может быть чат-бот (Claude, ChatGPT) или ИИ-приложение, которому нужны внешние данные. Хост инициирует взаимодействия, запрашивая инструменты или информацию через MCP.
  • Клиент MCP: Компонент-коннектор, который хост использует для связи с серверами. Клиент поддерживает соединение, управляет обменом запросами/ответами и может обрабатывать несколько серверов параллельно. Например, инструмент разработчика, такой как Cursor или агентный режим VS Code, может выступать в качестве клиента MCP, соединяющего локальную ИИ-среду с различными серверами MCP.
  • Сервер MCP: Сервис, который предоставляет ИИ некоторые контекстные данные или функциональность. Серверы предоставляют инструменты, ресурсы или подсказки, которые ИИ может использовать. На практике, сервер MCP может взаимодействовать с базой данных, облачным приложением или блокчейн-нодой и представлять стандартизированный набор операций для ИИ. Каждая пара клиент-сервер общается по своему собственному каналу, поэтому ИИ-агент может одновременно подключаться к нескольким серверам для различных нужд.

Основные примитивы: MCP определяет набор стандартных типов сообщений и примитивов, которые структурируют взаимодействие ИИ-инструмента. Три фундаментальных примитива:

  • Инструменты: Дискретные операции или функции, которые ИИ может вызывать на сервере. Например, инструмент «searchDocuments» или инструмент «eth_call». Инструменты инкапсулируют действия, такие как запрос API, выполнение вычисления или вызов функции смарт-контракта. Клиент MCP может запросить список доступных инструментов у сервера и вызывать их по мере необходимости.
  • Ресурсы: Конечные точки данных, которые ИИ может считывать (или иногда записывать) через сервер. Это могут быть файлы, записи базы данных, состояние блокчейна (блоки, транзакции) или любые контекстные данные. ИИ может перечислять ресурсы и получать их содержимое через стандартные сообщения MCP (например, запросы ListResources и ReadResource).
  • Подсказки: Структурированные шаблоны подсказок или инструкции, которые серверы могут предоставлять для направления рассуждений ИИ. Например, сервер может предоставить шаблон форматирования или предопределенный запрос. ИИ может запросить список шаблонов подсказок и использовать их для поддержания согласованности в своем взаимодействии с этим сервером.

Под капотом, коммуникации MCP обычно основаны на JSON и следуют шаблону запрос-ответ, похожему на RPC (удаленный вызов процедур). Спецификация протокола определяет сообщения, такие как InitializeRequest, ListTools, CallTool, ListResources и т. д., которые гарантируют, что любой MCP-совместимый клиент может взаимодействовать с любым MCP-сервером унифицированным образом. Эта стандартизация позволяет ИИ-агенту обнаруживать, что он может делать: при подключении к новому серверу он может спросить: «Какие инструменты и данные вы предлагаете?» и затем динамически решить, как их использовать.

Модель безопасности и выполнения: MCP был разработан с учетом безопасных, контролируемых взаимодействий. Сама ИИ-модель не выполняет произвольный код; она отправляет высокоуровневые намерения (через клиент) на сервер, который затем выполняет фактическую операцию (например, извлечение данных или вызов API) и возвращает результаты. Это разделение означает, что конфиденциальные действия (такие как блокчейн-транзакции или записи в базу данных) могут быть изолированы или требовать явного одобрения пользователя. Например, существуют сообщения, такие как Ping (для поддержания соединений в активном состоянии) и даже CreateMessageRequest, которое позволяет серверу MCP попросить ИИ клиента сгенерировать под-ответ, обычно ограниченный подтверждением пользователя. Функции, такие как аутентификация, контроль доступа и аудит, активно разрабатываются для обеспечения безопасного использования MCP в корпоративных и децентрализованных средах (подробнее об этом в разделе «Дорожная карта»).

Таким образом, архитектура MCP основана на стандартизированном протоколе сообщений (с вызовами в стиле JSON-RPC), который соединяет ИИ-агентов (хостов) с гибким набором серверов, предоставляющих инструменты, данные и действия. Эта открытая архитектура независима от модели и независима от платформы — любой ИИ-агент может использовать MCP для взаимодействия с любым ресурсом, и любой разработчик может создать новый сервер MCP для источника данных без необходимости изменять основной код ИИ. Эта расширяемость по принципу «подключи и работай» делает MCP мощным в Web3: можно создавать серверы для блокчейн-нод, смарт-контрактов, кошельков или оракулов и бесшовно интегрировать эти возможности ИИ-агентами наряду с Web2 API.

3. Варианты использования и приложения MCP в Web3

MCP открывает широкий спектр вариантов использования, позволяя приложениям, управляемым ИИ, получать доступ к данным блокчейна и выполнять ончейн- или офчейн-действия безопасным, высокоуровневым способом. Вот некоторые ключевые приложения и проблемы, которые он помогает решить в домене Web3:

  • Анализ и запросы данных в блокчейне: ИИ-агенты могут запрашивать текущее состояние блокчейна в реальном времени для предоставления аналитики или запуска действий. Например, MCP-сервер, подключенный к ноде Ethereum, позволяет ИИ получать балансы счетов, считывать хранилище смарт-контрактов, отслеживать транзакции или получать журналы событий по запросу. Это превращает чат-бота или помощника по кодированию в блокчейн-обозреватель. Разработчики могут задавать ИИ-помощнику вопросы, такие как «Какова текущая ликвидность в пуле Uniswap X?» или «Смоделируйте стоимость газа этой транзакции Ethereum», и ИИ будет использовать инструменты MCP для вызова RPC-ноды и получения ответа из живой цепочки. Это гораздо мощнее, чем полагаться на обучающие данные ИИ или статические снимки.
  • Автоматизированное управление портфелем DeFi: Объединяя доступ к данным и инструменты для действий, ИИ-агенты могут управлять криптопортфелями или позициями DeFi. Например, «Оптимизатор хранилища ИИ» может отслеживать позиции пользователя в фарминговых пулах и автоматически предлагать или выполнять стратегии ребалансировки на основе рыночных условий в реальном времени. Аналогично, ИИ может выступать в качестве менеджера портфеля DeFi, корректируя распределение между протоколами при изменении риска или ставок. MCP предоставляет стандартный интерфейс для ИИ для чтения ончейн-метрик (цены, ликвидность, коэффициенты обеспечения) и затем вызова инструментов для выполнения транзакций (таких как перемещение средств или обмен активов), если это разрешено. Это может помочь пользователям максимизировать доходность или управлять риском 24/7 таким образом, что было бы трудно сделать вручную.
  • Пользовательские агенты на базе ИИ для транзакций: Представьте себе персонального ИИ-помощника, который может обрабатывать блокчейн-взаимодействия для пользователя. С помощью MCP такой агент может интегрироваться с кошельками и DApps для выполнения задач с помощью команд на естественном языке. Например, пользователь может сказать: «ИИ, отправь 0,5 ETH с моего кошелька Алисе» или «Застейкай мои токены в пуле с самой высокой APY». ИИ, через MCP, будет использовать безопасный сервер кошелька (хранящий приватный ключ пользователя) для создания и подписи транзакции, а также блокчейн-сервер MCP для ее трансляции. Этот сценарий превращает сложные взаимодействия через командную строку или Metamask в разговорный опыт. Крайне важно, чтобы здесь использовались безопасные MCP-серверы кошельков, обеспечивающие разрешения и подтверждения, но конечным результатом является упрощение ончейн-транзакций с помощью ИИ.
  • Помощники разработчиков и отладка смарт-контрактов: Разработчики Web3 могут использовать ИИ-помощников на базе MCP, которые осведомлены об инфраструктуре блокчейна. Например, MCP-серверы Chainstack для EVM и Solana предоставляют ИИ-помощникам для кодирования глубокую видимость в блокчейн-среду разработчика. Инженер по смарт-контрактам, использующий ИИ-помощника (в VS Code или IDE), может попросить ИИ получить текущее состояние контракта в тестовой сети, запустить симуляцию транзакции или проверить журналы — все это через вызовы MCP к локальным блокчейн-нодам. Это помогает в отладке и тестировании контрактов. ИИ больше не кодирует «вслепую»; он может фактически проверять, как код ведет себя в блокчейне в реальном времени. Этот вариант использования решает серьезную проблему, позволяя ИИ постоянно получать актуальную документацию (через MCP-сервер документации) и напрямую запрашивать блокчейн, уменьшая галлюцинации и делая предложения гораздо более точными.
  • Межпротокольная координация: Поскольку MCP является унифицированным интерфейсом, один ИИ-агент может координировать работу нескольких протоколов и сервисов одновременно — что чрезвычайно мощно в взаимосвязанном ландшафте Web3. Представьте себе автономного торгового агента, который отслеживает различные DeFi-платформы на предмет арбитража. Через MCP один агент может одновременно взаимодействовать с рынками кредитования Aave, кроссчейн-мостом LayerZero и аналитическим сервисом MEV (Miner Extractable Value), все через согласованный интерфейс. ИИ мог бы в одном «мыслительном процессе» собирать данные о ликвидности из Ethereum (через MCP-сервер на ноде Ethereum), получать информацию о ценах или данные оракулов (через другой сервер) и даже вызывать операции моста или обмена. Ранее такая многоплатформенная координация требовала бы сложных пользовательских ботов, но MCP предоставляет обобщенный способ для ИИ навигировать по всей экосистеме Web3, как если бы это был один большой пул данных/ресурсов. Это может позволить использовать передовые варианты использования, такие как кроссчейн-оптимизация доходности или автоматизированная защита от ликвидации, где ИИ проактивно перемещает активы или обеспечение между цепочками.
  • ИИ-боты для консультаций и поддержки: Еще одна категория — это пользовательские консультанты в криптоприложениях. Например, чат-бот помощи DeFi, интегрированный в платформу, такую как Uniswap или Compound, мог бы использовать MCP для получения информации в реальном времени для пользователя. Если пользователь спрашивает: «Как лучше всего хеджировать мою позицию?», ИИ может получить текущие ставки, данные о волатильности и детали портфеля пользователя через MCP, а затем дать контекстно-ориентированный ответ. Платформы изучают ИИ-помощников, встроенных в кошельки или dApps, которые могут направлять пользователей через сложные транзакции, объяснять риски и даже выполнять последовательности шагов с одобрения. Эти ИИ-агенты эффективно располагаются поверх нескольких сервисов Web3 (DEX, пулы кредитования, страховые протоколы), используя MCP для запроса и управления ими по мере необходимости, тем самым упрощая пользовательский опыт.
  • За пределами Web3 – Многодоменные рабочие процессы: Хотя наше внимание сосредоточено на Web3, стоит отметить, что варианты использования MCP распространяются на любую область, где ИИ нужны внешние данные. Он уже используется для подключения ИИ к таким вещам, как Google Drive, Slack, GitHub, Figma и многим другим. На практике один ИИ-агент может охватывать Web3 и Web2: например, анализировать финансовую модель Excel из Google Drive, затем предлагать ончейн-транзакции на основе этого анализа, все в одном рабочем процессе. Гибкость MCP позволяет автоматизировать кросс-доменные задачи (например, «запланировать мою встречу, если мое голосование DAO пройдет, и отправить результаты по электронной почте»), которые сочетают блокчейн-действия с повседневными инструментами.

Решенные проблемы: Главная проблема, которую решает MCP, — это отсутствие унифицированного интерфейса для взаимодействия ИИ с актуальными данными и сервисами. До MCP, если вы хотели, чтобы ИИ использовал новый сервис, вам приходилось вручную кодировать плагин или интеграцию для API этого конкретного сервиса, часто специальным образом. В Web3 это было особенно громоздко — каждый блокчейн или протокол имеет свои собственные интерфейсы, и ни один ИИ не мог надеяться поддерживать их все. MCP решает эту проблему, стандартизируя то, как ИИ описывает, что он хочет (естественный язык, сопоставленный с вызовами инструментов), и как сервисы описывают, что они предлагают. Это значительно сокращает объем интеграционной работы. Например, вместо написания пользовательского плагина для каждого протокола DeFi, разработчик может написать один MCP-сервер для этого протокола (по сути, аннотируя его функции на естественном языке). Любой ИИ с поддержкой MCP (будь то Claude, ChatGPT или модели с открытым исходным кодом) может немедленно использовать его. Это делает ИИ расширяемым по принципу «подключи и работай», подобно тому, как добавление нового устройства через универсальный порт проще, чем установка новой интерфейсной карты.

В итоге, MCP в Web3 позволяет ИИ-агентам стать полноправными гражданами мира блокчейна — запрашивать, анализировать и даже совершать транзакции в децентрализованных системах, все через безопасные, стандартизированные каналы. Это открывает двери для более автономных dApps, более умных пользовательских агентов и бесшовной интеграции ончейн- и офчейн-интеллекта.

4. Токеномика и модель управления

В отличие от типичных протоколов Web3, MCP не имеет собственного токена или криптовалюты. Он не является блокчейном или децентрализованной сетью сам по себе, а скорее открытой спецификацией протокола (по духу ближе к HTTP или JSON-RPC). Таким образом, нет встроенной токеномики — нет выпуска токенов, стейкинга или модели комиссий, присущих использованию MCP. ИИ-приложения и серверы общаются через MCP без участия какой-либо криптовалюты; например, ИИ, вызывающий блокчейн через MCP, может платить комиссии за газ для блокчейн-транзакции, но сам MCP не добавляет никаких дополнительных комиссий за токены. Этот дизайн отражает происхождение MCP в сообществе ИИ: он был представлен как технический стандарт для улучшения взаимодействия ИИ-инструментов, а не как токенизированный проект.

Управление MCP осуществляется открытым, управляемым сообществом способом. После выпуска MCP в качестве открытого стандарта Anthropic заявил о приверженности совместной разработке. Был сформирован широкий руководящий комитет и рабочие группы для управления развитием протокола. Примечательно, что к середине 2025 года крупные заинтересованные стороны, такие как Microsoft и GitHub, присоединились к руководящему комитету MCP наряду с Anthropic. Об этом было объявлено на Microsoft Build 2025, что указывает на коалицию игроков отрасли, направляющих дорожную карту и решения по стандартам MCP. Комитет и сопровождающие работают через открытый процесс управления: предложения по изменению или расширению MCP обычно обсуждаются публично (например, через проблемы GitHub и руководства по «SEP» — Предложениям по улучшению стандарта). Существует также рабочая группа по Реестру MCP (с сопровождающими из таких компаний, как Block, PulseMCP, GitHub и Anthropic), которая демонстрирует многостороннее управление. В начале 2025 года участники из по крайней мере 9 различных организаций сотрудничали для создания унифицированного реестра серверов MCP для обнаружения, демонстрируя, как разработка децентрализована среди членов сообщества, а не контролируется одной сущностью.

Поскольку токена нет, стимулы управления основаны на общих интересах заинтересованных сторон (ИИ-компаний, облачных провайдеров, блокчейн-разработчиков и т. д.) по улучшению протокола для всех. Это в некоторой степени аналогично тому, как управляются стандарты W3C или IETF, но с более быстрым процессом, ориентированным на GitHub. Например, Microsoft и Anthropic работали вместе над разработкой улучшенной спецификации авторизации для MCP (интегрируя такие вещи, как OAuth и единый вход), а GitHub сотрудничал над официальным сервисом Реестра MCP для перечисления доступных серверов. Эти улучшения были внесены обратно в спецификацию MCP на всеобщее благо.

Стоит отметить, что хотя сам MCP не токенизирован, существуют перспективные идеи о наложении экономических стимулов и децентрализации поверх MCP. Некоторые исследователи и лидеры мнений в Web3 предвидят появление «сетей MCP» — по сути, децентрализованных сетей серверов и агентов MCP, которые используют блокчейн-подобные механизмы для обнаружения, доверия и вознаграждений. В таком сценарии можно представить, что токен будет использоваться для вознаграждения тех, кто управляет высококачественными серверами MCP (подобно тому, как стимулируются майнеры или операторы нод). Такие возможности, как рейтинги репутации, проверяемые вычисления и обнаружение нод, могут быть облегчены смарт-контрактами или блокчейном, при этом токен будет стимулировать честное поведение. Это все еще концептуально, но такие проекты, как Namda от MIT (обсуждаемый позже), экспериментируют с механизмами стимулирования на основе токенов для сетей ИИ-агентов, использующих MCP. Если эти идеи созреют, MCP может более прямо пересекаться с ончейн-токеномикой, но по состоянию на 2025 год основной стандарт MCP остается без токенов.

Таким образом, «модель управления» MCP — это модель открытого технологического стандарта: совместно поддерживаемого сообществом и руководящим комитетом экспертов, без ончейн-токена управления. Решения принимаются на основе технических достоинств и широкого консенсуса, а не голосования, взвешенного по количеству монет. Это отличает MCP от многих протоколов Web3 — он стремится реализовать идеалы Web3 (децентрализация, интероперабельность, расширение прав и возможностей пользователей) через открытое программное обеспечение и стандарты, а не через проприетарный блокчейн или токен. По словам одного из аналитиков, «обещание Web3... наконец-то может быть реализовано не через блокчейн и криптовалюту, а через естественный язык и ИИ-агентов», позиционируя MCP как ключевой фактор этого видения. Тем не менее, по мере роста сетей MCP мы можем увидеть гибридные модели, где блокчейн-управление или механизмы стимулирования дополняют экосистему — за этим стоит внимательно следить.

5. Сообщество и экосистема

Экосистема MCP стремительно выросла за короткое время, охватывая ИИ-разработчиков, участников открытого исходного кода, Web3-инженеров и крупные технологические компании. Это активное усилие сообщества, с ключевыми участниками и партнерствами, включая:

  • Anthropic: Как создатель, Anthropic заложил основу экосистемы, открыв исходный код спецификации MCP и нескольких эталонных серверов (для Google Drive, Slack, GitHub и т. д.). Anthropic продолжает лидировать в разработке (например, сотрудники, такие как Теодора Чу, выступают в качестве менеджеров по продуктам MCP, а команда Anthropic активно участвует в обновлениях спецификаций и поддержке сообщества). Открытость Anthropic привлекла других к созданию на базе MCP, а не к рассмотрению его как инструмента одной компании.

  • Ранние пользователи (Block, Apollo, Zed, Replit, Codeium, Sourcegraph): В первые месяцы после выпуска волна ранних пользователей внедрила MCP в свои продукты. Block (ранее Square) интегрировал MCP для изучения агентных ИИ-систем в финтехе — технический директор Block высоко оценил MCP как открытый мост, соединяющий ИИ с реальными приложениями. Apollo (вероятно, Apollo GraphQL) также интегрировал MCP, чтобы позволить ИИ доступ к внутренним данным. Компании-разработчики инструментов, такие как Zed (редактор кода), Replit (облачная IDE), Codeium (ИИ-помощник для кодирования) и Sourcegraph (поиск кода), каждая работали над добавлением поддержки MCP. Например, Sourcegraph использует MCP, чтобы ИИ-помощник для кодирования мог извлекать соответствующий код из репозитория в ответ на вопрос, а агенты IDE Replit могут получать контекст, специфичный для проекта. Эти ранние пользователи придали MCP авторитет и видимость.

  • Поддержка крупных технологических компаний – OpenAI, Microsoft, Google: Примечательно, что компании, которые в противном случае являются конкурентами, объединились вокруг MCP. Генеральный директор OpenAI Сэм Альтман публично объявил в марте 2025 года, что OpenAI добавит поддержку MCP во все свои продукты (включая десктопное приложение ChatGPT), заявив: «Люди любят MCP, и мы рады добавить поддержку во все наши продукты». Это означало, что Agent API OpenAI и плагины ChatGPT будут использовать MCP, обеспечивая интероперабельность. Всего через несколько недель генеральный директор Google DeepMind Демис Хассабис сообщил, что предстоящие модели и инструменты Gemini от Google будут поддерживать MCP, назвав его хорошим протоколом и открытым стандартом для «эры ИИ-агентов». Microsoft не только присоединилась к руководящему комитету, но и сотрудничала с Anthropic для создания официального C# SDK для MCP, чтобы обслуживать сообщество корпоративных разработчиков. Подразделение GitHub от Microsoft интегрировало MCP в GitHub Copilot (режим «Copilot Labs/Agents» в VS Code), позволяя Copilot использовать серверы MCP для таких вещей, как поиск по репозиториям и запуск тестовых случаев. Кроме того, Microsoft объявила, что Windows 11 будет предоставлять определенные функции ОС (например, доступ к файловой системе) в качестве серверов MCP, чтобы ИИ-агенты могли безопасно взаимодействовать с операционной системой. Сотрудничество между OpenAI, Microsoft, Google и Anthropic — все они объединились вокруг MCP — является экстраординарным и подчеркивает этику сообщества, а не конкуренции, этого стандарта.

  • Сообщество Web3-разработчиков: Ряд блокчейн-разработчиков и стартапов приняли MCP. Было создано несколько управляемых сообществом MCP-серверов для обслуживания вариантов использования блокчейна:

    • Команда Alchemy (ведущего поставщика блокчейн-инфраструктуры) создала MCP-сервер Alchemy, который предлагает инструменты блокчейн-аналитики по запросу через MCP. Это, вероятно, позволяет ИИ получать статистику блокчейна (например, исторические транзакции, активность адресов) через API Alchemy, используя естественный язык.
    • Участники разработали MCP-сервер Bitcoin и Lightning Network для взаимодействия с нодами Bitcoin и платежной сетью Lightning, позволяя ИИ-агентам читать данные блоков Bitcoin или даже создавать счета Lightning через стандартные инструменты.
    • Криптомедиа и образовательная группа Bankless создала Onchain MCP-сервер, ориентированный на финансовые взаимодействия Web3, возможно, предоставляя интерфейс для протоколов DeFi (отправка транзакций, запрос позиций DeFi и т. д.) для ИИ-помощников.
    • Проекты, такие как Rollup.codes (база знаний для Ethereum Layer 2), создали MCP-сервер для информации об экосистеме роллапов, чтобы ИИ мог отвечать на технические вопросы о роллапах, запрашивая этот сервер.
    • Chainstack, поставщик блокчейн-нод, запустил набор MCP-серверов (упомянутых ранее) для документации, данных цепочки EVM и Solana, явно позиционируя его как «установку вашего ИИ на блокчейн-стероиды» для Web3-разработчиков.

    Кроме того, вокруг MCP возникли сообщества, ориентированные на Web3. Например, PulseMCP и Goose упоминаются как инициативы сообщества, помогающие создавать реестр MCP. Мы также наблюдаем перекрестное опыление с фреймворками ИИ-агентов: сообщество LangChain интегрировало адаптеры, так что все серверы MCP могут использоваться в качестве инструментов в агентах на базе LangChain, а платформы ИИ с открытым исходным кодом, такие как Hugging Face TGI (вывод текста), изучают совместимость с MCP. Результатом является богатая экосистема, где новые серверы MCP объявляются почти ежедневно, обслуживая все — от баз данных до устройств IoT.

  • Масштаб внедрения: Тягу можно в некоторой степени количественно оценить. К февралю 2025 года — всего через три месяца после запуска — сообществом было создано более 1000 серверов/коннекторов MCP. Это число только выросло, что указывает на тысячи интеграций в различных отраслях. Майк Кригер (директор по продуктам Anthropic) отметил к весне 2025 года, что MCP стал «процветающим открытым стандартом с тысячами интеграций и растущим числом». Официальный Реестр MCP (запущенный в предварительной версии в сентябре 2025 года) каталогизирует общедоступные серверы, облегчая обнаружение инструментов; открытый API реестра позволяет любому искать, например, «Ethereum» или «Notion» и находить соответствующие MCP-коннекторы. Это снижает барьер для новых участников и еще больше стимулирует рост.

  • Партнерства: Мы уже упоминали многие неявные партнерства (Anthropic с Microsoft и т. д.). Чтобы выделить еще несколько:

    • Anthropic и Slack: Anthropic сотрудничал со Slack для интеграции Claude с данными Slack через MCP (Slack имеет официальный сервер MCP, позволяющий ИИ получать сообщения Slack или публиковать оповещения).
    • Облачные провайдеры: Amazon (AWS) и Google Cloud работали с Anthropic над размещением Claude, и, вероятно, они поддерживают MCP в этих средах (например, AWS Bedrock может разрешать MCP-коннекторы для корпоративных данных). Хотя это явно не указано в цитатах, эти облачные партнерства важны для корпоративного внедрения.
    • Академическое сотрудничество: Исследовательский проект MIT и IBM Namda (обсуждаемый далее) представляет собой партнерство между академией и промышленностью для расширения границ MCP в децентрализованных условиях.
    • GitHub и VS Code: Партнерство для улучшения опыта разработчиков — например, команда VS Code активно участвовала в разработке MCP (один из сопровождающих реестра — из команды VS Code).
    • Многочисленные стартапы: Многие ИИ-стартапы (стартапы по агентам, стартапы по автоматизации рабочих процессов) строят свои решения на базе MCP вместо того, чтобы изобретать велосипед. Это включает новые Web3 ИИ-стартапы, стремящиеся предлагать «ИИ как DAO» или автономных экономических агентов.

В целом, сообщество MCP разнообразно и быстро расширяется. Оно включает основные технологические компании (для стандартов и базовых инструментов), Web3-специалистов (привносящих знания о блокчейне и варианты использования) и независимых разработчиков (которые часто вносят коннекторы для своих любимых приложений или протоколов). Этика — это сотрудничество. Например, проблемы безопасности сторонних серверов MCP вызвали обсуждения в сообществе и вклад в лучшие практики (например, участники Stacklok работают над инструментами безопасности для серверов MCP). Способность сообщества быстро итерировать (MCP претерпел несколько обновлений спецификаций в течение нескольких месяцев, добавив такие функции, как потоковая передача ответов и улучшенная аутентификация) является свидетельством широкого участия.

В экосистеме Web3, в частности, MCP способствовал формированию мини-экосистемы проектов «ИИ + Web3». Это не просто протокол для использования; он катализирует новые идеи, такие как DAO, управляемые ИИ, ончейн-управление, поддерживаемое ИИ-анализом, и кросс-доменная автоматизация (например, связывание ончейн-событий с офчейн-действиями через ИИ). Присутствие ключевых фигур Web3 — например, Живко Тодорова из LimeChain, заявившего: «MCP представляет собой неизбежную интеграцию ИИ и блокчейна» — показывает, что ветераны блокчейна активно его поддерживают. Партнерства между ИИ- и блокчейн-компаниями (такие как между Anthropic и Block, или облако Microsoft Azure, упрощающее развертывание MCP наряду с его блокчейн-сервисами) намекают на будущее, где ИИ-агенты и смарт-контракты будут работать рука об руку.

Можно сказать, что MCP зажег первое подлинное сближение сообщества ИИ-разработчиков с сообществом Web3-разработчиков. Хакатоны и митапы теперь включают треки MCP. В качестве конкретной меры внедрения экосистемы: к середине 2025 года OpenAI, Google и Anthropic — совместно представляющие большинство передовых моделей ИИ — все поддерживают MCP, а с другой стороны, ведущие поставщики блокчейн-инфраструктуры (Alchemy, Chainstack), криптокомпании (Block и т. д.) и децентрализованные проекты создают MCP-хуки. Этот двусторонний сетевой эффект предвещает, что MCP станет долгосрочным стандартом.

6. Дорожная карта и этапы развития

Развитие MCP было стремительным. Здесь мы описываем основные вехи на данный момент и дорожную карту на будущее, полученные из официальных источников и обновлений сообщества:

  • Конец 2024 года – Первоначальный выпуск: 25 ноября 2024 года Anthropic официально объявил о MCP и открыл исходный код спецификации и первоначальных SDK. Наряду со спецификацией они выпустили несколько реализаций MCP-серверов для общих инструментов (Google Drive, Slack, GitHub и т. д.) и добавили поддержку в ИИ-помощнике Claude (приложение Claude Desktop) для подключения к локальным MCP-серверам. Это ознаменовало запуск MCP 1.0. Ранние пилотные интеграции в Anthropic показали, как Claude может использовать MCP для чтения файлов или запроса базы данных SQL на естественном языке, подтверждая концепцию.
  • 1 квартал 2025 года – Быстрое внедрение и итерации: В первые несколько месяцев 2025 года MCP получил широкое распространение в отрасли. К марту 2025 года OpenAI и другие поставщики ИИ объявили о поддержке (как описано выше). В этот период также произошла эволюция спецификации: Anthropic обновил MCP, включив возможности потоковой передачи (позволяя отправлять большие результаты или непрерывные потоки данных инкрементально). Это обновление было отмечено в апреле 2025 года новостями о C# SDK, что указывает на то, что MCP теперь поддерживает такие функции, как фрагментированные ответы или интеграция с потоками в реальном времени. Сообщество также создало эталонные реализации на различных языках (Python, JavaScript и т. д.) помимо SDK Anthropic, обеспечивая многоязычную поддержку.
  • 2 квартал 2025 года – Инструменты экосистемы и управление: В мае 2025 года, когда Microsoft и GitHub присоединились к усилиям, был сделан акцент на формализации управления и повышении безопасности. На Build 2025 Microsoft представила планы по интеграции MCP в Windows 11 и подробно описала сотрудничество по улучшению потоков авторизации в MCP. Примерно в то же время была представлена идея Реестра MCP для индексации доступных серверов (первоначальный мозговой штурм начался в марте 2025 года, согласно блогу реестра). Процесс «стандартизации» (SEP — Предложения по улучшению стандарта) был установлен на GitHub, аналогично EIP Ethereum или PEP Python, для упорядоченного управления вкладами. Начали собираться звонки сообщества и рабочие группы (по безопасности, реестру, SDK).
  • Середина 2025 года – Расширение функционала: К середине 2025 года дорожная карта приоритезировала несколько ключевых улучшений:
    • Поддержка асинхронных и длительных задач: Планы по обеспечению обработки MCP длительных операций без блокировки соединения. Например, если ИИ запускает облачное задание, которое занимает минуты, протокол MCP будет поддерживать асинхронные ответы или переподключение для получения результатов.
    • Аутентификация и детальная безопасность: Разработка механизмов детальной авторизации для конфиденциальных действий. Это включает возможное интегрирование потоков OAuth, ключей API и корпоративного SSO в серверы MCP, чтобы доступ ИИ мог безопасно управляться. К середине 2025 года были в процессе разработки руководства и лучшие практики по безопасности MCP, учитывая риски безопасности, связанные с разрешением ИИ вызывать мощные инструменты. Цель состоит в том, чтобы, например, если ИИ должен получить доступ к частной базе данных пользователя через MCP, он следовал безопасному потоку авторизации (с согласия пользователя), а не просто открытой конечной точке.
    • Валидация и тестирование на соответствие: Признавая необходимость в надежности, сообщество приоритезировало создание наборов тестов на соответствие и эталонных реализаций. Обеспечивая соблюдение спецификации всеми клиентами/серверами MCP (через автоматизированное тестирование), они стремились предотвратить фрагментацию. Эталонный сервер (вероятно, пример с лучшими практиками для удаленного развертывания и аутентификации) был в дорожной карте, как и эталонное клиентское приложение, демонстрирующее полное использование MCP с ИИ.
    • Поддержка мультимодальности: Расширение MCP за пределы текста для поддержки модальностей, таких как изображения, аудио, видео данные в контексте. Например, ИИ может запросить изображение у сервера MCP (скажем, дизайнерский актив или диаграмму) или вывести изображение. Обсуждение спецификации включало добавление поддержки потоковой передачи и фрагментированных сообщений для интерактивной обработки большого мультимедийного контента. Ранняя работа над «MCP Streaming» уже велась (для поддержки таких вещей, как потоки живого аудио или непрерывные данные датчиков для ИИ).
    • Центральный реестр и обнаружение: План по реализации центрального сервиса Реестра MCP для обнаружения серверов был выполнен в середине 2025 года. К сентябрю 2025 года был запущен официальный Реестр MCP (предварительная версия). Этот реестр предоставляет единый источник истины для общедоступных серверов MCP, позволяя клиентам находить серверы по имени, категории или возможностям. По сути, это как магазин приложений (но открытый) для ИИ-инструментов. Дизайн позволяет использовать публичные реестры (глобальный индекс) и частные (специфичные для предприятий), все они интероперабельны через общий API. Реестр также представил механизм модерации для пометки или удаления вредоносных серверов, с моделью модерации сообщества для поддержания качества.
  • Конец 2025 года и далее – К децентрализованным сетям MCP: Хотя это еще не «официальные» пункты дорожной карты, траектория указывает на большую децентрализацию и синергию с Web3:
    • Исследователи активно изучают, как добавить децентрализованные слои обнаружения, репутации и стимулирования к MCP. Концепция Сети MCP (или «рынка конечных точек MCP») находится в стадии инкубации. Это может включать реестры на основе смарт-контрактов (чтобы не было единой точки отказа для списков серверов), системы репутации, где серверы/клиенты имеют ончейн-идентификаторы и стейк для добросовестного поведения, и, возможно, токен-вознаграждения за запуск надежных нод MCP.
    • Проект Namda в MIT, начатый в 2024 году, является конкретным шагом в этом направлении. К 2025 году Namda построила прототип распределенной агентной среды на основе MCP, включая такие функции, как динамическое обнаружение нод, балансировка нагрузки между кластерами агентов и децентрализованный реестр с использованием блокчейн-технологий. Они даже имеют экспериментальные стимулы на основе токенов и отслеживание происхождения для многоагентного сотрудничества. Вехи Namda показывают, что возможно создать сеть агентов MCP, работающих на многих машинах с бездоверительной координацией. Если концепции Namda будут приняты, мы можем увидеть, как MCP эволюционирует, чтобы включить некоторые из этих идей (возможно, через необязательные расширения или отдельные протоколы, наложенные сверху).
    • Укрепление для предприятий: Что касается корпоративного сектора, к концу 2025 года мы ожидаем, что MCP будет интегрирован в основные корпоративные программные предложения (включение Microsoft в Windows и Azure является одним из примеров). Дорожная карта включает функции, удобные для предприятий, такие как интеграция SSO для серверов MCP и надежные средства контроля доступа. Общая доступность Реестра MCP и наборов инструментов для развертывания MCP в масштабе (например, внутри корпоративной сети) ожидается к концу 2025 года.

Чтобы подытожить некоторые ключевые этапы развития на данный момент (формат временной шкалы для ясности):

  • Ноябрь 2024: Выпущен MCP 1.0 (Anthropic).
  • Декабрь 2024 – Январь 2025: Сообщество создает первую волну MCP-серверов; Anthropic выпускает Claude Desktop с поддержкой MCP; пилотные проекты малого масштаба от Block, Apollo и т. д.
  • Февраль 2025: Достигнуто более 1000 MCP-коннекторов сообщества; Anthropic проводит семинары (например, на саммите ИИ, способствуя образованию).
  • Март 2025: OpenAI объявляет о поддержке (ChatGPT Agents SDK).
  • Апрель 2025: Google DeepMind объявляет о поддержке (Gemini будет поддерживать MCP); Microsoft выпускает предварительную версию C# SDK.
  • Май 2025: Расширен Руководящий комитет (Microsoft/GitHub); демонстрации на Build 2025 (интеграция MCP в Windows).
  • Июнь 2025: Chainstack запускает Web3 MCP-серверы (EVM/Solana) для публичного использования.
  • Июль 2025: Обновления версии спецификации MCP (потоковая передача, улучшения аутентификации); официальная Дорожная карта опубликована на сайте MCP.
  • Сентябрь 2025: Запущен Реестр MCP (предварительная версия); вероятно, MCP достигнет общей доступности в большем количестве продуктов (Claude для работы и т. д.).
  • Конец 2025 года (прогноз): Реестр v1.0 запущен; выпущены руководства по лучшим практикам безопасности; возможно, первые эксперименты с децентрализованным обнаружением (результаты Namda).

Дальнейшее видение состоит в том, что MCP станет таким же повсеместным и невидимым, как HTTP или JSON — общим уровнем, который многие приложения используют под капотом. Для Web3 дорожная карта предполагает более глубокое слияние: где ИИ-агенты не только будут использовать Web3 (блокчейны) в качестве источников или приемников информации, но и сама инфраструктура Web3 может начать включать ИИ-агентов (через MCP) как часть своей работы (например, DAO может запускать MCP-совместимый ИИ для управления определенными задачами, или оракулы могут публиковать данные через конечные точки MCP). Акцент дорожной карты на таких вещах, как проверяемость и аутентификация, намекает на то, что в будущем взаимодействия MCP с минимизацией доверия могут стать реальностью — представьте себе выводы ИИ, которые сопровождаются криптографическими доказательствами, или ончейн-журнал того, какие инструменты ИИ вызывал для целей аудита. Эти возможности стирают грань между ИИ и блокчейн-сетями, и MCP находится в центре этого сближения.

В заключение, развитие MCP очень динамично. Он достиг важных ранних вех (широкое внедрение и стандартизация в течение года после запуска) и продолжает быстро развиваться с четкой дорожной картой, подчеркивающей безопасность, масштабируемость и обнаружение. Достигнутые и запланированные вехи гарантируют, что MCP останется надежным по мере масштабирования: решение таких проблем, как длительные задачи, безопасные разрешения и простота обнаружения тысяч инструментов. Этот импульс вперед указывает на то, что MCP — это не статическая спецификация, а растущий стандарт, который, вероятно, будет включать больше функций в стиле Web3 (децентрализованное управление серверами, согласование стимулов) по мере возникновения таких потребностей. Сообщество готово адаптировать MCP к новым вариантам использования (мультимодальный ИИ, IoT и т. д.), при этом сохраняя основное обещание: сделать ИИ более связанным, контекстно-ориентированным и расширяющим возможности пользователей в эпоху Web3.

7. Сравнение с аналогичными проектами или протоколами Web3

Уникальное сочетание ИИ и связности MCP означает, что прямых аналогов не так много, но полезно сравнить его с другими проектами на пересечении Web3 и ИИ или с аналогичными целями:

  • SingularityNET (AGI/X)Децентрализованный рынок ИИ: SingularityNET, запущенный в 2017 году доктором Беном Гертцелем и другими, представляет собой блокчейн-рынок для ИИ-сервисов. Он позволяет разработчикам монетизировать ИИ-алгоритмы как сервисы, а пользователям — потреблять эти сервисы, все это облегчается токеном (AGIX), который используется для платежей и управления. По сути, SingularityNET пытается децентрализовать предложение ИИ-моделей, размещая их в сети, где любой может вызвать ИИ-сервис в обмен на токены. Это принципиально отличается от MCP. MCP не размещает и не монетизирует ИИ-модели; вместо этого он предоставляет стандартный интерфейс для ИИ (где бы он ни работал) для доступа к данным/инструментам. Можно представить использование MCP для подключения ИИ к сервисам, перечисленным на SingularityNET, но сам SingularityNET фокусируется на экономическом уровне (кто предоставляет ИИ-сервис и как он получает оплату). Еще одно ключевое отличие: Управление — SingularityNET имеет ончейн-управление (через Предложения по улучшению SingularityNET (SNEP) и голосование токенами AGIX) для развития своей платформы. Управление MCP, напротив, является офчейн и совместным, без токена. В итоге, SingularityNET и MCP оба стремятся к более открытой экосистеме ИИ, но SingularityNET — это токенизированная сеть ИИ-алгоритмов, тогда как MCP — это стандарт протокола для интероперабельности ИИ-инструментов. Они могут дополнять друг друга: например, ИИ на SingularityNET может использовать MCP для получения необходимых внешних данных. Но SingularityNET не пытается стандартизировать использование инструментов; он использует блокчейн для координации ИИ-сервисов, в то время как MCP использует программные стандарты, чтобы позволить ИИ работать с любым сервисом.
  • Fetch.ai (FET)Децентрализованная платформа на основе агентов: Fetch.ai — еще один проект, сочетающий ИИ и блокчейн. Он запустил свой собственный блокчейн с доказательством доли и фреймворк для создания автономных агентов, которые выполняют задачи и взаимодействуют в децентрализованной сети. В видении Fetch миллионы «программных агентов» (представляющих людей, устройства или организации) могут договариваться и обмениваться ценностями, используя токены FET для транзакций. Fetch.ai предоставляет агентную среду (uAgents) и инфраструктуру для обнаружения и связи между агентами в своем реестре. Например, агент Fetch может помочь оптимизировать трафик в городе, взаимодействуя с другими агентами по вопросам парковки и транспорта, или автономно управлять рабочим процессом цепочки поставок. Как это сравнивается с MCP? Оба проекта имеют дело с концепцией агентов, но агенты Fetch.ai тесно связаны с его блокчейном и токен-экономикой — они живут в сети Fetch и используют ончейн-логику. Агенты MCP (хосты ИИ) управляются моделями (как LLM) и не привязаны к какой-либо одной сети; MCP довольствуется работой через интернет или в облачной среде, не требуя блокчейна. Fetch.ai пытается построить новую децентрализованную экономику ИИ с нуля (со своим собственным реестром для доверия и транзакций), тогда как MCP независим от уровня — он использует существующие сети (может использоваться через HTTPS или даже поверх блокчейна, если необходимо) для обеспечения ИИ-взаимодействий. Можно сказать, что Fetch больше о автономных экономических агентах, а MCP — о умных агентах, использующих инструменты. Интересно, что они могут пересекаться: автономный агент на Fetch.ai может использовать MCP для взаимодействия с офчейн-ресурсами или другими блокчейнами. И наоборот, можно использовать MCP для создания многоагентных систем, которые используют различные блокчейны (а не только один). На практике MCP получил более быстрое распространение, потому что ему не требовалась собственная сеть — он работает с Ethereum, Solana, Web2 API и т. д. из коробки. Подход Fetch.ai более тяжеловесен, создавая целую экосистему, к которой участники должны присоединиться (и приобрести токены) для использования. В итоге, Fetch.ai против MCP: Fetch — это платформа со своим токеном/блокчейном для ИИ-агентов, фокусирующаяся на интероперабельности и экономическом обмене между агентами, в то время как MCP — это протокол, который ИИ-агенты (в любой среде) могут использовать для подключения к инструментам и данным. Их цели пересекаются в обеспечении автоматизации, управляемой ИИ, но они решают разные уровни стека и имеют очень разные архитектурные философии (закрытая экосистема против открытого стандарта).
  • Chainlink и децентрализованные оракулыПодключение блокчейнов к офчейн-данным: Chainlink не является ИИ-проектом, но он очень актуален как протокол Web3, решающий дополнительную проблему: как соединить блокчейны с внешними данными и вычислениями. Chainlink — это децентрализованная сеть нод (оракулов), которые получают, проверяют и доставляют офчейн-данные смарт-контрактам способом с минимизацией доверия. Например, оракулы Chainlink предоставляют ценовые потоки для протоколов DeFi или вызывают внешние API от имени смарт-контрактов через Chainlink Functions. Сравнительно, MCP соединяет ИИ-модели с внешними данными/инструментами (некоторые из которых могут быть блокчейнами). Можно сказать, что Chainlink доставляет данные в блокчейны, а MCP доставляет данные в ИИ. Существует концептуальная параллель: оба устанавливают мост между иначе изолированными системами. Chainlink фокусируется на надежности, децентрализации и безопасности данных, подаваемых в блокчейн (решая «проблему оракула» единой точки отказа). MCP фокусируется на гибкости и стандартизации того, как ИИ может получать доступ к данным (решая «проблему интеграции» для ИИ-агентов). Они работают в разных областях (смарт-контракты против ИИ-помощников), но можно сравнить серверы MCP с оракулами: MCP-сервер для ценовых данных может вызывать те же API, что и нода Chainlink. Разница в потребителе — в случае MCP потребителем является ИИ или пользовательский помощник, а не детерминированный смарт-контракт. Кроме того, MCP по своей сути не предоставляет гарантий доверия, которые предоставляет Chainlink (серверы MCP могут быть централизованными или управляемыми сообществом, при этом доверие управляется на уровне приложения). Однако, как упоминалось ранее, идеи децентрализации сетей MCP могут заимствовать из сетей оракулов — например, можно запрашивать несколько серверов MCP и перепроверять результаты, чтобы убедиться, что ИИ не получает плохие данные, подобно тому, как несколько нод Chainlink агрегируют цену. Короче говоря, Chainlink против MCP: Chainlink — это Web3-промежуточное ПО для блокчейнов для потребления внешних данных, MCP — это ИИ-промежуточное ПО для моделей для потребления внешних данных (которые могут включать данные блокчейна). Они решают аналогичные потребности в разных областях и даже могут дополнять друг друга: ИИ, использующий MCP, может получать данные, предоставляемые Chainlink, в качестве надежного ресурса, и наоборот, ИИ может служить источником анализа, который оракул Chainlink доставляет в блокчейн (хотя последний сценарий поднимет вопросы проверяемости).
  • Плагины ChatGPT / Функции OpenAI против MCPПодходы к интеграции ИИ-инструментов: Хотя это не Web3-проекты, быстрое сравнение оправдано, потому что плагины ChatGPT и функция вызова функций OpenAI также соединяют ИИ с внешними инструментами. Плагины ChatGPT используют спецификацию OpenAPI, предоставляемую сервисом, и модель затем может вызывать эти API в соответствии со спецификацией. Ограничения заключаются в том, что это закрытая экосистема (плагины, одобренные OpenAI, работающие на серверах OpenAI) и каждый плагин представляет собой изолированную интеграцию. Новый SDK «Agents» от OpenAI ближе к MCP по концепции, позволяя разработчикам определять инструменты/функции, которые ИИ может использовать, но изначально он был специфичен для экосистемы OpenAI. LangChain аналогичным образом предоставил фреймворк для предоставления LLM инструментов в коде. MCP отличается тем, что предлагает открытый, независимый от модели стандарт для этого. Как выразился один аналитик, LangChain создал стандарт, ориентированный на разработчиков (интерфейс Python) для инструментов, тогда как MCP создает стандарт, ориентированный на модели — ИИ-агент может обнаруживать и использовать любой инструмент, определенный MCP, во время выполнения без пользовательского кода. На практике экосистема серверов MCP выросла больше и разнообразнее, чем магазин плагинов ChatGPT, в течение нескольких месяцев. И вместо того, чтобы каждая модель имела свой собственный формат плагинов (у OpenAI был свой, у других были другие), многие объединяются вокруг MCP. Сама OpenAI заявила о поддержке MCP, по сути, согласовав свой подход к функциям с более широким стандартом. Итак, сравнивая плагины OpenAI с MCP: плагины — это курируемый, централизованный подход, в то время как MCP — это децентрализованный, управляемый сообществом подход. В менталитете Web3 MCP более «открытый исходный код и без разрешений», тогда как проприетарные экосистемы плагинов более закрыты. Это делает MCP аналогичным этосу Web3, хотя это не блокчейн — он обеспечивает интероперабельность и пользовательский контроль (вы можете запустить свой собственный сервер MCP для своих данных, вместо того чтобы отдавать все одному поставщику ИИ). Это сравнение показывает, почему многие считают, что MCP имеет больший долгосрочный потенциал: он не привязан к одному поставщику или одной модели.
  • Проект Namda и децентрализованные агентные фреймворки: Namda заслуживает отдельного упоминания, потому что он явно сочетает MCP с концепциями Web3. Как описано ранее, Namda (Сетевая модульная распределенная архитектура агентов) — это инициатива MIT/IBM, начатая в 2024 году для создания масштабируемой, распределенной сети ИИ-агентов с использованием MCP в качестве уровня связи. Она рассматривает MCP как основу для обмена сообщениями (поскольку MCP использует стандартные сообщения, похожие на JSON-RPC, он хорошо подходит для меж-агентных коммуникаций), а затем добавляет слои для динамического обнаружения, отказоустойчивости и проверяемых идентификаторов с использованием методик, вдохновленных блокчейном. Агенты Namda могут находиться где угодно (облако, периферийные устройства и т. д.), но децентрализованный реестр (нечто вроде DHT или блокчейна) отслеживает их и их возможности способом, защищенным от подделки. Они даже исследуют предоставление агентам токенов для стимулирования сотрудничества или совместного использования ресурсов. По сути, Namda — это эксперимент по созданию «Web3-версии MCP». Это еще не широко развернутый проект, но он является одним из самых близких «аналогичных протоколов» по духу. Если мы рассмотрим Namda против MCP: Namda использует MCP (поэтому это не конкурирующие стандарты), но расширяет его протоколом для сетевого взаимодействия и координации нескольких агентов способом с минимизацией доверия. Можно сравнить Namda с фреймворками, такими как Autonolas или многоагентные системы (MAS), которые криптосообщество видело, но им часто не хватало мощного ИИ-компонента или общего протокола. Namda + MCP вместе демонстрируют, как может функционировать децентрализованная агентная сеть, при этом блокчейн обеспечивает идентификацию, репутацию и, возможно, токен-стимулы, а MCP — связь агентов и использование инструментов.

В итоге, MCP выделяется среди большинства предыдущих Web3-проектов: он вообще не начинался как криптопроект, но быстро пересекается с Web3, потому что решает дополнительные проблемы. Такие проекты, как SingularityNET и Fetch.ai, стремились децентрализовать ИИ-вычисления или сервисы с использованием блокчейна; MCP вместо этого стандартизирует интеграцию ИИ с сервисами, что может усилить децентрализацию, избегая привязки к платформе. Сети оракулов, такие как Chainlink, решали проблему доставки данных в блокчейн; MCP решает проблему доставки данных в ИИ (включая данные блокчейна). Если основные идеалы Web3 — это децентрализация, интероперабельность и расширение прав и возможностей пользователей, то MCP атакует часть интероперабельности в области ИИ. Он даже влияет на эти старые проекты — например, ничто не мешает SingularityNET сделать свои ИИ-сервисы доступными через серверы MCP, или агентам Fetch использовать MCP для взаимодействия с внешними системами. Мы вполне можем увидеть сближение, когда ИИ-сети, управляемые токенами, будут использовать MCP в качестве своего лингва франка, сочетая структуру стимулов Web3 с гибкостью MCP.

Наконец, если мы рассмотрим восприятие рынка: MCP часто рекламируется как то, что он делает для ИИ то, что Web3 надеялся сделать для интернета — разрушить барьеры и расширить возможности пользователей. Это привело к тому, что MCP неофициально называют «Web3 для ИИ» (даже когда блокчейн не задействован). Однако важно признать, что MCP — это стандарт протокола, тогда как большинство проектов Web3 — это полнофункциональные платформы с экономическими уровнями. В сравнениях MCP обычно оказывается более легким, универсальным решением, в то время как блокчейн-проекты — более тяжелые, специализированные решения. В зависимости от варианта использования они могут дополнять, а не строго конкурировать. По мере созревания экосистемы мы можем увидеть, что MCP будет интегрирован во многие Web3-проекты как модуль (подобно тому, как HTTP или JSON повсеместны), а не как конкурирующий проект.

8. Общественное восприятие, рыночная динамика и освещение в СМИ

Общественное мнение о MCP было подавляюще позитивным как в сообществах ИИ, так и в Web3, часто граничащим с энтузиазмом. Многие видят в нем переломный момент, который появился тихо, но затем штурмом взял индустрию. Давайте разберем восприятие, динамику и заметные медиа-нарративы:

Рыночная динамика и метрики внедрения: К середине 2025 года MCP достиг уровня внедрения, редкого для нового протокола. Его поддерживают практически все основные поставщики ИИ-моделей (Anthropic, OpenAI, Google, Meta) и инфраструктура крупных технологических компаний (Microsoft, GitHub, AWS и т. д.), как подробно описано ранее. Одно это сигнализирует рынку, что MCP, вероятно, останется (подобно тому, как широкая поддержка способствовала развитию TCP/IP или HTTP в первые дни интернета). Со стороны Web3 динамика очевидна в поведении разработчиков: на хакатонах стали появляться проекты MCP, и многие инструменты для блокчейн-разработки теперь упоминают интеграцию MCP как преимущество. Статистика «более 1000 коннекторов за несколько месяцев» и цитата Майка Кригера о «тысячах интеграций» часто приводятся для иллюстрации того, как быстро MCP набрал популярность. Это предполагает сильные сетевые эффекты — чем больше инструментов доступно через MCP, тем он полезнее, что стимулирует дальнейшее внедрение (положительная обратная связь). Венчурные капиталисты и аналитики отмечают, что MCP достиг за менее чем год того, чего более ранние попытки «интероперабельности ИИ» не смогли сделать за несколько лет, в основном благодаря своевременности (оседлав волну интереса к ИИ-агентам) и открытому исходному коду. В Web3-медиа динамика иногда измеряется с точки зрения внимания разработчиков и интеграции в проекты, и MCP сейчас высоко оценивается по обоим показателям.

Общественное восприятие в сообществах ИИ и Web3: Изначально MCP оставался незамеченным, когда был впервые анонсирован (конец 2024 года). Но к началу 2025 года, по мере появления историй успеха, восприятие изменилось на восторженное. Практики ИИ увидели в MCP «недостающий элемент головоломки» для того, чтобы сделать ИИ-агентов по-настоящему полезными за пределами игрушечных примеров. Разработчики Web3, с другой стороны, увидели в нем мост для окончательного включения ИИ в dApps без отказа от децентрализации — ИИ может использовать ончейн-данные, например, без необходимости в централизованном оракуле. Лидеры мнений поют дифирамбы: например, Хесус Родригес (известный автор по Web3 AI) написал в CoinDesk, что MCP может быть «одним из самых трансформационных протоколов для эры ИИ и отлично подходящим для архитектур Web3». Рарес Крисан в блоге Notable Capital утверждал, что MCP может выполнить обещание Web3, где блокчейн сам по себе испытывал трудности, сделав интернет более ориентированным на пользователя и естественным для взаимодействия. Эти нарративы представляют MCP как революционный, но практичный — не просто хайп.

Справедливости ради, не все комментарии некритичны. Некоторые ИИ-разработчики на форумах, таких как Reddit, указывали, что MCP «не делает всего» — это протокол связи, а не готовый агент или механизм рассуждений. Например, одно обсуждение на Reddit под названием «MCP — это тупик» утверждало, что сам по себе MCP не управляет когнитивными способностями агента и не гарантирует качество; он по-прежнему требует хорошего дизайна агента и средств контроля безопасности. Эта точка зрения предполагает, что MCP может быть переоценен как серебряная пуля. Однако эти критические замечания скорее направлены на смягчение ожиданий, чем на отказ от полезности MCP. Они подчеркивают, что MCP решает проблему подключения инструментов, но все еще необходимо создавать надежную логику агента (т. е. MCP не создает магическим образом интеллектуального агента, он оснащает его инструментами). Консенсус, однако, заключается в том, что MCP — это большой шаг вперед, даже среди осторожных голосов. В блоге сообщества Hugging Face отмечалось, что, хотя MCP не является панацеей, он является важным фактором для интегрированного, контекстно-ориентированного ИИ, и разработчики объединяются вокруг него по этой причине.

Освещение в СМИ: MCP получил значительное освещение как в основных технологических СМИ, так и в нишевых блокчейн-изданиях:

  • TechCrunch опубликовал несколько статей. Они освещали первоначальную концепцию («Anthropic предлагает новый способ подключения данных к ИИ-чат-ботам») примерно во время запуска в 2024 году. В 2025 году TechCrunch освещал каждый крупный момент внедрения: поддержку OpenAI, принятие Google, участие Microsoft/GitHub. Эти статьи часто подчеркивают единство отрасли вокруг MCP. Например, TechCrunch цитировал одобрение Сэма Альтмана и отмечал быстрый переход от конкурирующих стандартов к MCP. При этом они изображали MCP как развивающийся стандарт, подобно тому, как никто не хотел остаться в стороне от интернет-протоколов в 90-х. Такое освещение в известном издании сигнализировало более широкому технологическому миру, что MCP важен и реален, а не просто маргинальный проект с открытым исходным кодом.
  • CoinDesk и другие криптоиздания ухватились за Web3-аспект. Колонка Родригеса в CoinDesk (июль 2025 года) часто цитируется; она рисовала футуристическую картину, где каждый блокчейн мог бы быть MCP-сервером, а новые сети MCP могли бы работать на блокчейнах. Она связывала MCP с такими концепциями, как децентрализованная идентификация, аутентификация и проверяемость — говоря на языке блокчейн-аудитории и предполагая, что MCP может быть протоколом, который по-настоящему объединит ИИ с децентрализованными фреймворками. Cointelegraph, Bankless и другие также обсуждали MCP в контексте «ИИ-агентов и DeFi» и подобных тем, обычно оптимистично оценивая возможности (например, у Bankless была статья об использовании MCP, чтобы позволить ИИ управлять ончейн-транзакциями, и она включала инструкцию по созданию собственного MCP-сервера).
  • Известные блоги венчурных капиталистов / Аналитические отчеты: Блог Notable Capital (июль 2025 года) является примером венчурного анализа, проводящего параллели между MCP и эволюцией веб-протоколов. По сути, он утверждает, что MCP может сделать для Web3 то, что HTTP сделал для Web1 — предоставить новый интерфейсный уровень (интерфейс на естественном языке), который не заменяет базовую инфраструктуру, но делает ее пригодной для использования. Такой нарратив убедителен и повторялся в панельных дискуссиях и подкастах. Он позиционирует MCP не как конкурирующий с блокчейном, а как следующий уровень абстракции, который наконец-то позволяет обычным пользователям (через ИИ) легко использовать блокчейн и веб-сервисы.
  • Ажиотаж в сообществе разработчиков: Помимо официальных статей, рост MCP можно оценить по его присутствию в дискуссиях разработчиков — на конференциях, YouTube-каналах, в рассылках. Например, были популярные посты в блогах, такие как «MCP: Недостающее звено для агентного ИИ?» на таких сайтах, как Runtime.news, и рассылки (например, от ИИ-исследователя Натана Ламберта), обсуждающие практические эксперименты с MCP и то, как он сравнивается с другими фреймворками для использования инструментов. Общий тон — любопытство и энтузиазм: разработчики делятся демонстрациями подключения ИИ к своей домашней автоматизации или криптокошельку всего несколькими строками кода с использованием серверов MCP, что еще недавно казалось научной фантастикой. Этот низовой энтузиазм важен, потому что он показывает, что MCP имеет влияние не только благодаря корпоративным одобрениям.
  • Корпоративная перспектива: СМИ и аналитики, специализирующиеся на корпоративном ИИ, также отмечают MCP как ключевое событие. Например, The New Stack освещал, как Anthropic добавил поддержку удаленных серверов MCP в Claude для корпоративного использования. Здесь акцент делается на том, что предприятия могут использовать MCP для безопасного подключения своих внутренних баз знаний и систем к ИИ. Это важно и для Web3, поскольку многие блокчейн-компании сами являются предприятиями и могут использовать MCP внутри компании (например, криптобиржа может использовать MCP, чтобы позволить ИИ анализировать внутренние журналы транзакций для обнаружения мошенничества).

Известные цитаты и реакции: Стоит выделить несколько, которые инкапсулируют общественное восприятие:

  • «Подобно тому, как HTTP произвел революцию в веб-коммуникациях, MCP предоставляет универсальную основу... заменяя фрагментированные интеграции единым протоколом». — CoinDesk. Это сравнение с HTTP мощно; оно представляет MCP как инновацию на уровне инфраструктуры.
  • «MCP [стал] процветающим открытым стандартом с тысячами интеграций и растущим числом. LLM наиболее полезны при подключении к уже имеющимся у вас данным...» — Майк Кригер (директор по продуктам Anthropic). Это официальное подтверждение как динамики, так и основного ценностного предложения, которое широко распространилось в социальных сетях.
  • «Обещание Web3... наконец-то может быть реализовано... через естественный язык и ИИ-агентов. ...MCP — это самое близкое, что мы видели к настоящему Web3 для масс». — Notable Capital. Это смелое заявление находит отклик у тех, кто разочарован медленными улучшениями UX в криптоиндустрии; оно предполагает, что ИИ может взломать код массового внедрения, абстрагируя сложность.

Вызовы и скептицизм: Хотя энтузиазм высок, СМИ также обсуждали вызовы:

  • Проблемы безопасности: Такие издания, как The New Stack или блоги по безопасности, поднимали вопрос о том, что разрешение ИИ выполнять инструменты может быть опасным, если не изолировано. Что, если вредоносный MCP-сервер попытается заставить ИИ выполнить вредоносное действие? Блог LimeChain прямо предупреждает о «значительных рисках безопасности» с MCP-серверами, разработанными сообществом (например, сервер, который обрабатывает приватные ключи, должен быть чрезвычайно безопасным). Эти опасения повторялись в дискуссиях: по сути, MCP расширяет возможности ИИ, но с властью приходит риск. Ответ сообщества (руководства, механизмы аутентификации) также освещался, в целом успокаивая, что меры по смягчению рисков разрабатываются. Тем не менее, любое громкое неправомерное использование MCP (скажем, ИИ спровоцировал непреднамеренный криптоперевод) повлияет на восприятие, поэтому СМИ внимательно следят за этим.
  • Производительность и стоимость: Некоторые аналитики отмечают, что использование ИИ-агентов с инструментами может быть медленнее или дороже, чем прямой вызов API (поскольку ИИ может потребоваться несколько шагов туда-обратно, чтобы получить то, что ему нужно). В контекстах высокочастотной торговли или ончейн-исполнения такая задержка может быть проблематичной. На данный момент это рассматривается как технические препятствия, которые нужно оптимизировать (через лучший дизайн агента или потоковую передачу), а не как непреодолимые проблемы.
  • Управление хайпом: Как и в случае с любой модной технологией, есть доля хайпа. Несколько голосов предостерегают от объявления MCP решением всех проблем. Например, статья Hugging Face спрашивает: «Является ли MCP серебряной пулей?» и отвечает отрицательно — разработчикам по-прежнему необходимо управлять контекстом, и MCP лучше всего работает в сочетании с хорошими стратегиями подсказок и памяти. Такие сбалансированные мнения полезны в дискурсе.

Общее настроение СМИ: Нарратив, который формируется, в значительной степени обнадеживающий и дальновидный:

  • MCP рассматривается как практический инструмент, обеспечивающий реальные улучшения уже сейчас (поэтому это не вейпвар), что СМИ подчеркивают, приводя работающие примеры: Claude читает файлы, Copilot использует MCP в VSCode, ИИ завершает транзакцию Solana в демо и т. д.
  • Он также изображается как стратегический стержень для будущего как ИИ, так и Web3. СМИ часто заключают, что MCP или подобные ему вещи будут необходимы для «децентрализованного ИИ» или «Web4» или любого другого термина, используемого для веб-технологий следующего поколения. Есть ощущение, что MCP открыл дверь, и теперь инновации текут — будь то децентрализованные агенты Namda или предприятия, подключающие устаревшие системы к ИИ, многие будущие сюжетные линии восходят к появлению MCP.

На рынке можно оценить динамику по формированию стартапов и финансированию вокруг экосистемы MCP. Действительно, ходят слухи/сообщения о стартапах, ориентированных на «рынки MCP» или управляемые MCP-платформы, получающих финансирование (Notable Capital, пишущий об этом, предполагает интерес венчурных капиталистов). Мы можем ожидать, что СМИ начнут освещать это косвенно — например, «Стартап X использует MCP, чтобы ваш ИИ управлял вашим криптопортфелем — привлек $Y миллионов».

Вывод о восприятии: К концу 2025 года MCP пользуется репутацией прорывной технологии. У него сильная поддержка со стороны влиятельных фигур как в ИИ, так и в криптоиндустрии. Общественный нарратив эволюционировал от «вот классный инструмент» до «это может стать основой для следующего веба». Тем временем практическое освещение подтверждает, что он работает и внедряется, что придает ему доверия. При условии, что сообщество продолжит решать проблемы (безопасность, управление в масштабе) и не произойдет крупных катастроф, общественный имидж MCP, вероятно, останется позитивным или даже станет культовым как «протокол, который заставил ИИ и Web3 хорошо работать вместе».

СМИ, вероятно, будут внимательно следить за:

  • Историями успеха (например, если крупная DAO реализует ИИ-казначея через MCP, или правительство использует MCP для ИИ-систем с открытыми данными).
  • Любыми инцидентами безопасности (для оценки риска).
  • Эволюцией сетей MCP и тем, появится ли официально какой-либо токен или блокчейн-компонент (что стало бы большой новостью, еще теснее связывающей ИИ и криптоиндустрию).

Однако на данный момент освещение можно подытожить строкой из CoinDesk: «Сочетание Web3 и MCP может стать новой основой для децентрализованного ИИ» — это утверждение, которое отражает как обещание, так и ажиотаж вокруг MCP в глазах общественности.

Ссылки:

  • Новости Anthropic: "Представляем Протокол контекста модели," Ноябрь 2024
  • Блог LimeChain: "Что такое MCP и как он применяется к блокчейнам?" Май 2025
  • Блог Chainstack: "MCP для разработчиков Web3: Solana, EVM и документация," Июнь 2025
  • Колонка CoinDesk: "Протокол агентов: потенциал MCP в Web3," Июль 2025
  • Notable Capital: "Почему MCP представляет собой реальную возможность Web3," Июль 2025
  • TechCrunch: "OpenAI принимает стандарт Anthropic…", 26 марта 2025
  • TechCrunch: "Google примет стандарт Anthropic…", 9 апреля 2025
  • TechCrunch: "GitHub, Microsoft принимают… (руководящий комитет MCP)", 19 мая 2025
  • Блог разработчиков Microsoft: "Официальный C# SDK для MCP," Апрель 2025
  • Блог Hugging Face: "#14: Что такое MCP, и почему все о нем говорят?" Март 2025
  • Messari Research: "Профиль Fetch.ai," 2023
  • Medium (Nu FinTimes): "Представляем SingularityNET," Март 2024

World Liberty Financial: Будущее денег, обеспеченное USD1

· 10 мин. чтения
Dora Noda
Software Engineer

Обзор World Liberty Financial

World Liberty Financial (WLFI) — это платформа децентрализованных финансов (DeFi), созданная членами семьи Трампов и их партнерами. Согласно сайту Trump Organization, платформа призвана объединить традиционный банкинг и блокчейн-технологии, сочетая стабильность традиционных финансов с прозрачностью и доступностью децентрализованных систем. Ее миссия — предоставлять современные услуги для перемещения денег, кредитования и управления цифровыми активами, поддерживая при этом стабильность, обеспеченную долларом, делая капитал доступным для частных лиц и учреждений, а также упрощая DeFi для массовых пользователей.

WLFI запустила свой токен управления ($WLFI) в сентябре 2025 года и представила стейблкоин, привязанный к доллару, под названием USD1 в марте 2025 года. Платформа описывает USD1 как стейблкоин «будущего денег», разработанный для использования в качестве базовой пары для токенизированных активов и для продвижения доминирования доллара США в цифровой экономике. Соучредитель Дональд Трамп-младший охарактеризовал WLFI как неполитический проект, призванный расширить возможности обычных людей и укрепить глобальную роль доллара США.

История и основание

  • Истоки (2024–2025). WLFI была анонсирована в сентябре 2024 года как крипто-проект, возглавляемый членами семьи Трампов. Компания запустила свой токен управления WLFIпозднеевтомжегоду.ПоданнымReuters,первоначальнаяпродажатокеновWLFI позднее в том же году. По данным Reuters, первоначальная продажа токенов WLFI принесла всего около 2,7 млн долларов, но продажи резко возросли после победы Дональда Трампа на выборах 2024 года (информация, на которую ссылаются в широко цитируемых отчетах, хотя она не доступна напрямую в наших источниках). WLFI принадлежит в основном бизнес-структуре Трампа и имеет девять соучредителей, включая Дональда Трампа-младшего, Эрика Трампа и Бэррона Трампа.
  • Руководство. Trump Organization описывает руководящие роли WLFI следующим образом: Дональд Трамп (главный крипто-адвокат), Эрик Трамп и Дональд Трамп-младший (амбассадоры Web3), Бэррон Трамп (визионер DeFi) и Зак Уиткофф (генеральный директор и соучредитель). Ежедневные операции компании управляются Заком Уиткоффом и партнерами, такими как Захари Фолкман и Чейз Херро.
  • Инициатива стейблкоина. WLFI анонсировала стейблкоин USD1 в марте 2025 года. USD1 был описан как стейблкоин, привязанный к доллару, обеспеченный казначейскими облигациями США, долларовыми депозитами и другими денежными эквивалентами. Резервы монеты хранятся в BitGo Trust Company, регулируемом хранителе цифровых активов. USD1 был запущен на BNB Chain от Binance, а затем расширился до Ethereum, Solana и Tron.

Стейблкоин USD1: Дизайн и особенности

Модель резервов и механизм стабильности

USD1 разработан как стейблкоин, обеспеченный фиатными деньгами, с механизмом погашения 1:1. Каждый токен USD1 может быть погашен за один доллар США, а резервы стейблкоина хранятся в краткосрочных казначейских векселях США, долларовых депозитах и денежных эквивалентах. Эти активы хранятся BitGo Trust, регулируемой организацией, известной институциональным хранением цифровых активов. WLFI заявляет, что USD1 предлагает:

  1. Полное обеспечение и аудиты. Резервы полностью обеспечены и подлежат ежемесячным сторонним аттестациям, обеспечивая прозрачность в отношении активов обеспечения. В мае 2025 года Binance Academy отметила, что регулярные отчеты о составе резервов еще не были общедоступны, и что WLFI обещала провести сторонние аудиты.
  2. Институциональная направленность. WLFI позиционирует USD1 как «готовый для институционалов» стейблкоин, предназначенный для банков, фондов и крупных компаний, хотя он также доступен розничным пользователям.
  3. Нулевые комиссии за выпуск/погашение. Сообщается, что USD1 не взимает комиссий за выпуск или погашение, что снижает трение для пользователей, работающих с большими объемами.
  4. Кроссчейн-совместимость. Стейблкоин использует протокол кроссчейн-совместимости (CCIP) Chainlink для обеспечения безопасных переводов через Ethereum, BNB Chain и Tron. Планы по расширению на дополнительные блокчейны были подтверждены благодаря партнерствам с такими сетями, как Aptos и Tron.

Рыночные показатели

  • Быстрый рост. В течение месяца после запуска рыночная капитализация USD1 достигла примерно 2,1 миллиарда долларов, что было обусловлено крупными институциональными сделками, такими как инвестиции в размере 2 миллиардов долларов фондом MGX из Абу-Даби в Binance с использованием USD1. К началу октября 2025 года предложение выросло примерно до 2,68 миллиарда долларов, при этом большинство токенов было выпущено на BNB Chain (79 %), за которой следовали Ethereum, Solana и Tron.
  • Листинг и принятие. Binance разместила USD1 на своем спотовом рынке в мае 2025 года. WLFI заявляет о широкой интеграции с протоколами DeFi и централизованными биржами. Платформы DeFi, такие как ListaDAO, Venus Protocol и Aster, поддерживают кредитование, заимствование и пулы ликвидности с использованием USD1. WLFI подчеркивает, что пользователи могут обменять USD1 на доллары США через BitGo в течение одного-двух рабочих дней.

Институциональное использование и планы по токенизированным активам

WLFI рассматривает USD1 как основной расчетный актив для токенизированных реальных активов (RWAs). Генеральный директор Зак Уиткофф заявил, что такие товары, как нефть, газ, хлопок и древесина, должны торговаться в блокчейне, и что WLFI активно работает над токенизацией этих активов и их сопряжением с USD1, поскольку они требуют надежного, прозрачного стейблкоина. Он описал USD1 как «самый надежный и прозрачный стейблкоин на Земле».

Продукты и услуги

Дебетовая карта и розничные приложения

На конференции TOKEN2049 в Сингапуре Зак Уиткофф объявил, что WLFI выпустит крипто-дебетовую карту, которая позволит пользователям тратить цифровые активы в повседневных транзакциях. Компания планировала запустить пилотную программу в следующем квартале, а полный запуск ожидается в Q4 2025 или Q1 2026. CoinLaw обобщил ключевые детали:

  • Карта будет связывать крипто-балансы с потребительскими покупками и, как ожидается, будет интегрирована с такими сервисами, как Apple Pay.
  • WLFI также разрабатывает розничное приложение для потребителей в дополнение к карте.

Токенизация и инвестиционные продукты

Помимо платежей, WLFI стремится токенизировать реальные товары. Уиткофф заявил, что они изучают токенизацию нефти, газа, древесины и недвижимости для создания торговых инструментов на основе блокчейна. Токен управления WLFI ($WLFI), запущенный в сентябре 2025 года, предоставляет держателям возможность голосовать по определенным корпоративным решениям. Проект также сформировал стратегические партнерства, включая соглашение ALT5 Sigma о покупке токенов WLFI на сумму 750 миллионов долларов в рамках своей казначейской стратегии.

Точка зрения Дональда Трампа-младшего

Соучредитель Дональд Трамп-младший является видным публичным лицом WLFI. Его выступления на отраслевых мероприятиях и интервью раскрывают мотивы проекта и его взгляды на традиционные финансы, регулирование и роль доллара США.

Критика традиционных финансов

  • «Сломанная» и недемократическая система. Во время панельной дискуссии под названием World Liberty Financial: Будущее денег, обеспеченное USD1 на конференции Token2049 Трамп-младший утверждал, что традиционные финансы недемократичны и «сломаны». Он рассказал, что когда его семья пришла в политику, 300 их банковских счетов были закрыты за одну ночь, что иллюстрирует, как финансовые учреждения могут наказывать людей по политическим причинам. Он сказал, что семья переместилась с вершины финансовой «пирамиды» на дно, показав, что система благоприятствует инсайдерам и функционирует как схема Понци.
  • Неэффективность и отсутствие ценности. Он критиковал традиционную финансовую индустрию за погрязание в неэффективности, где люди, «зарабатывающие семизначные суммы в год», просто перекладывают бумаги, не создавая реальной ценности.

Защита стейблкоинов и доллара

  • Сохранение долларовой гегемонии. Трамп-младший утверждает, что стейблкоины, такие как USD1, восполнят роль, которую ранее играли страны, покупающие казначейские облигации США. Он заявил Business Times, что стейблкоины могут создать «долларовую гегемонию», позволяя США лидировать в мире и обеспечивать безопасность и стабильность во многих местах. В интервью Cryptopolitan он утверждал, что стейблкоины фактически сохраняют доминирование доллара США, потому что спрос на токены, обеспеченные долларом, поддерживает казначейские облигации в то время, когда традиционные покупатели (например, Китай и Япония) сокращают свое участие.
  • Будущее финансов и DeFi. Трамп-младший описал WLFI как будущее финансов и подчеркнул, что блокчейн и DeFi-технологии могут демократизировать доступ к капиталу. На мероприятии ETH Denver, освещенном Panews, он утверждал, что необходимы четкие регуляторные рамки, чтобы предотвратить уход компаний в офшоры и защитить инвесторов. Он призвал США возглавить глобальные крипто-инновации и критиковал чрезмерное регулирование за подавление роста.
  • Финансовая демократизация. Он считает, что объединение традиционных и децентрализованных финансов через WLFI обеспечит ликвидность, прозрачность и стабильность для недостаточно обслуживаемых слоев населения. Он также подчеркивает потенциал блокчейна в устранении коррупции за счет обеспечения прозрачности транзакций и их размещения в блокчейне.
  • Советы новичкам. Трамп-младший советует новым инвесторам начинать с небольших сумм, избегать чрезмерного кредитного плеча и постоянно изучать DeFi.

Политический нейтралитет и критика СМИ

Трамп-младший подчеркивает, что WLFI «на 100 % не является политической организацией», несмотря на глубокое участие семьи Трампов. Он представляет проект как платформу для блага американцев и всего мира, а не как политический инструмент. Во время панельной дискуссии Token2049 он критиковал основные средства массовой информации, заявляя, что они дискредитировали себя, а Зак Уиткофф спросил аудиторию, считают ли они The New York Times заслуживающей доверия.

Партнерства и интеграция в экосистему

Инвестиции MGX–Binance

В мае 2025 года WLFI объявила, что USD1 будет способствовать инвестициям в размере 2 миллиардов долларов от MGX из Абу-Даби в криптобиржу Binance. Это объявление подчеркнуло растущее влияние WLFI и было представлено как доказательство институциональной привлекательности USD1. Однако сенатор США Элизабет Уоррен раскритиковала сделку, назвав ее «коррупцией», поскольку ожидающееся законодательство о стейблкоинах (Закон GENIUS) может принести выгоду семье президента. Данные CoinMarketCap, цитируемые Reuters, показали, что оборотная стоимость USD1 достигла примерно 2,1 миллиарда долларов в то время.

Партнерство с Aptos

На конференции TOKEN2049 в октябре 2025 года WLFI и блокчейн первого уровня Aptos объявили о партнерстве по развертыванию USD1 в сети Aptos. Brave New Coin сообщает, что WLFI выбрала Aptos из-за ее высокой пропускной способности (транзакции завершаются менее чем за полсекунды) и комиссий менее одной сотой цента. Сотрудничество направлено на то, чтобы бросить вызов доминирующим сетям стейблкоинов, предоставляя более дешевые и быстрые каналы для институциональных транзакций. CryptoSlate отмечает, что интеграция USD1 сделает Aptos пятой сетью для выпуска стейблкоина, с поддержкой с первого дня от протоколов DeFi, таких как Echelon Market и Hyperion, а также кошельков и бирж, таких как Petra, Backpack и OKX. Руководители WLFI рассматривают это расширение как часть более широкой стратегии по увеличению внедрения DeFi и позиционированию USD1 как расчетного уровня для токенизированных активов.

Интеграция дебетовой карты и Apple Pay

Reuters и CoinLaw сообщают, что WLFI запустит крипто-дебетовую карту, связывающую криптоактивы с повседневными расходами. Уиткофф сообщил Reuters, что компания ожидает запустить пилотную программу в следующем квартале, а полный запуск состоится к концу 2025 или началу 2026 года. Карта будет интегрирована с Apple Pay, и WLFI выпустит розничное приложение для упрощения криптоплатежей.

Споры и критика

  • Прозрачность резервов. Binance Academy подчеркнула, что по состоянию на май 2025 года USD1 не имел общедоступных отчетов о составе резервов. WLFI обещала сторонние аудиты, но отсутствие подробных раскрытий вызвало обеспокоенность инвесторов.
  • Политические конфликты интересов. Глубокие связи WLFI с семьей Трампов вызвали пристальное внимание. Расследование Reuters сообщило, что анонимный кошелек, содержащий 2 миллиарда долларов в USD1, получил средства незадолго до инвестиций MGX, и владельцы кошелька не могли быть идентифицированы. Критики утверждают, что это предприятие может позволить семье Трампов получать финансовую выгоду от регуляторных решений. Сенатор Элизабет Уоррен предупредила, что законодательство о стейблкоинах, рассматриваемое Конгрессом, облегчит президенту и его семье «набивать свои карманы». Средства массовой информации, такие как The New York Times и The New Yorker, описали WLFI как размывающую границу между частным предпринимательством и государственной политикой.
  • Концентрация рынка и проблемы ликвидности. CoinLaw сообщила, что более половины ликвидности USD1 по состоянию на июнь 2025 года поступало всего с трех кошельков. Такая концентрация вызывает вопросы об органическом спросе на USD1 и его устойчивости на стрессовых рынках.
  • Регуляторная неопределенность. Сам Трамп-младший признает, что регулирование криптовалют в США остается неясным, и призывает к разработке всеобъемлющих правил, чтобы предотвратить уход компаний в офшоры. Критики утверждают, что WLFI извлекает выгоду из дерегуляционных шагов администрации Трампа, одновременно формируя политику, которая может благоприятствовать ее собственным финансовым интересам.

Заключение

World Liberty Financial позиционирует себя как пионер на пересечении традиционных финансов и децентрализованных технологий, используя стейблкоин USD1 в качестве основы для платежей, токенизации и DeFi-продуктов. Акцент платформы на институциональной поддержке, кроссчейн-совместимости и выпуске без комиссий отличает USD1 от других стейблкоинов. Партнерства с такими сетями, как Aptos, и крупные сделки, такие как инвестиции MGX–Binance, подчеркивают амбиции WLFI стать глобальным расчетным уровнем для токенизированных активов.

С точки зрения Дональда Трампа-младшего, WLFI — это не просто коммерческое предприятие, а миссия по демократизации финансов, сохранению гегемонии доллара США и вызову тому, что он считает сломанной и элитарной традиционной финансовой системой. Он выступает за ясность регулирования, критикуя чрезмерный надзор, что отражает более широкие дебаты в криптоиндустрии. Однако политические связи WLFI, непрозрачное раскрытие резервов и концентрация ликвидности вызывают скептицизм. Успех компании будет зависеть от баланса инноваций и прозрачности, а также от навигации в сложном взаимодействии между частными интересами и государственной политикой.

Направленный ациклический граф (DAG) в блокчейне

· 46 мин. чтения
Dora Noda
Software Engineer

Что такое DAG и чем он отличается от блокчейна?

Направленный ациклический граф (DAG) — это тип структуры данных, состоящий из вершин (узлов), соединенных направленными ребрами, которые никогда не образуют цикл. В контексте распределенных реестров, реестр на основе DAG организует транзакции или события в виде паутинообразного графа, а не единой последовательной цепочки. Это означает, что в отличие от традиционного блокчейна, где каждый новый блок ссылается только на одного предшественника (образуя линейную цепочку), узел в DAG может ссылаться на несколько предыдущих транзакций или блоков. В результате многие транзакции могут быть подтверждены параллельно, а не строго одна за другой в хронологических блоках.

Чтобы проиллюстрировать разницу, если блокчейн выглядит как длинная цепочка блоков (каждый блок содержит множество транзакций), то реестр на основе DAG больше похож на дерево или сеть отдельных транзакций. Каждая новая транзакция в DAG может присоединяться к (и тем самым подтверждать) одну или несколько более ранних транзакций, вместо того чтобы ждать упаковки в следующий единственный блок. Это структурное различие приводит к нескольким ключевым отличиям:

  • Параллельная валидация: В блокчейнах майнеры/валидаторы добавляют по одному блоку в цепочку за раз, поэтому транзакции подтверждаются партиями для каждого нового блока. В DAG несколько транзакций (или небольших «блоков» транзакций) могут быть добавлены одновременно, поскольку каждая из них может присоединяться к разным частям графа. Эта параллелизация означает, что сетям DAG не нужно ждать, пока одна длинная цепочка будет расти по одному блоку за раз.
  • Отсутствие глобального последовательного порядка: Блокчейн по своей сути создает полный порядок транзакций (каждый блок имеет определенное место в одной последовательности). Реестр DAG, напротив, формирует частичный порядок транзакций. Нет единого «последнего блока», в очередь к которому выстраиваются все транзакции; вместо этого множество «вершин» графа могут сосуществовать и расширяться одновременно. Затем требуются протоколы консенсуса, чтобы в конечном итоге упорядочить или согласовать порядок или действительность транзакций в DAG.
  • Подтверждение транзакций: В блокчейне транзакции подтверждаются, когда они включаются в добытый/валидированный блок, и этот блок становится частью принятой цепочки (часто после добавления новых блоков поверх него). В системах DAG новая транзакция сама по себе помогает подтверждать предыдущие транзакции, ссылаясь на них. Например, в Tangle IOTA (DAG) каждая транзакция должна подтвердить две предыдущие транзакции, фактически заставляя пользователей совместно проверять транзакции друг друга. Это устраняет строгое разделение между «создателями транзакций» и «валидаторами», которое существует в майнинге блокчейна — каждый участник, выпускающий транзакцию, также выполняет небольшую работу по валидации.

Важно отметить, что блокчейн на самом деле является частным случаем DAG — DAG, который был ограничен одной цепочкой блоков. Оба являются формами технологии распределенного реестра (DLT) и разделяют такие цели, как неизменяемость и децентрализация. Однако реестры на основе DAG имеют «бесблочную» или мульти-родительскую структуру, что придает им различные свойства на практике. Традиционные блокчейны, такие как Bitcoin и Ethereum, используют последовательные блоки и часто отбрасывают любые конкурирующие блоки (форки), тогда как реестры DAG пытаются включать и упорядочивать все транзакции, не отбрасывая ни одной, если они не конфликтуют. Это фундаментальное различие закладывает основу для различий в производительности и дизайне, подробно описанных ниже.

Техническое сравнение: архитектура DAG против блокчейна

Чтобы лучше понять DAG и блокчейны, мы можем сравнить их архитектуры и процессы валидации:

  • Структура данных: Блокчейны хранят данные в блоках, связанных в линейной последовательности (каждый блок содержит множество транзакций и указывает на один предыдущий блок, образуя одну длинную цепочку). Реестры DAG используют графовую структуру: каждый узел в графе представляет транзакцию или блок событий и может ссылаться на несколько предыдущих узлов. Этот направленный граф не имеет циклов, что означает, что если вы будете следовать по ссылкам «назад», вы никогда не сможете вернуться к транзакции, с которой начали. Отсутствие циклов позволяет выполнять топологическую сортировку транзакций (способ их упорядочивания таким образом, чтобы каждая ссылка следовала за ссылаемой транзакцией). Короче говоря, блокчейны = одномерная цепочка, DAG = многомерный граф.
  • Пропускная способность и параллелизм: Из-за структурных различий блокчейны и DAG обрабатывают пропускную способность по-разному. Блокчейн, даже в оптимальных условиях, добавляет блоки один за другим (часто ожидая, пока каждый блок будет проверен и распространен по всей сети, прежде чем будет добавлен следующий). Это по своей сути ограничивает пропускную способность транзакций — например, Bitcoin в среднем обрабатывает 5–7 транзакций в секунду (TPS), а Ethereum ~15–30 TPS при классическом дизайне Proof-of-Work. Системы на основе DAG, напротив, позволяют многим новым транзакциям/блокам одновременно входить в реестр. Множественные ветви транзакций могут расти одновременно и позже объединяться, что значительно увеличивает потенциальную пропускную способность. Некоторые современные сети DAG заявляют о пропускной способности в тысячи TPS, приближаясь или превосходя традиционные платежные сети по пропускной способности.
  • Процесс валидации транзакций: В блокчейн-сетях транзакции ожидают в мемпуле и валидируются, когда майнер или валидатор упаковывает их в новый блок, затем другие узлы проверяют этот блок на соответствие истории. В сетях DAG валидация часто более непрерывна и децентрализована: каждая новая транзакция выполняет действие валидации, ссылаясь на (одобряя) более ранние транзакции. Например, каждая транзакция в Tangle IOTA должна подтвердить две предыдущие транзакции, проверив их действительность и выполнив небольшое доказательство работы, тем самым «голосуя» за эти транзакции. В DAG-структуре block-lattice Nano транзакции каждого аккаунта образуют свою собственную цепочку и валидируются посредством голосования узлами-представителями (подробнее об этом позже). Конечный эффект заключается в том, что DAG распределяет работу по валидации: вместо того, чтобы один производитель блоков валидировал пакет транзакций, каждый участник или множество валидаторов одновременно валидируют разные транзакции.
  • Механизм консенсуса: И блокчейнам, и DAG нужен способ для сети договориться о состоянии реестра (какие транзакции подтверждены и в каком порядке). В блокчейнах консенсус часто достигается за счет Proof of Work или Proof of Stake, производящих следующий блок, и правила «самая длинная (или самая тяжелая) цепочка выигрывает». В реестрах DAG консенсус может быть более сложным, поскольку нет единой цепочки. Различные проекты DAG используют разные подходы: некоторые используют протоколы сплетен и виртуальное голосование (как в Hedera Hashgraph) для достижения согласия по порядку транзакций, другие используют выбор вершин по методу Монте-Карло с цепями Маркова (ранний подход IOTA) или другие схемы голосования для определения предпочтительных ветвей графа. Мы обсудим конкретные методы консенсуса в системах DAG в последующем разделе. В целом, достижение общесетевого согласия в DAG может быть быстрее с точки зрения пропускной способности, но требует тщательного проектирования для обработки конфликтов (таких как попытки двойной траты), поскольку несколько транзакций могут существовать параллельно до окончательного упорядочивания.
  • Обработка форков: В блокчейне «форк» (два блока, добытые почти одновременно) приводит к тому, что одна ветвь в конечном итоге выигрывает (самая длинная цепочка), а другая становится сиротской (отбрасывается), что приводит к потере всей работы, выполненной над сиротским блоком. В DAG философия заключается в том, чтобы принимать форки как дополнительные ветви графа, а не отбрасывать их. DAG будет включать оба форка; затем алгоритм консенсуса определяет, какие транзакции в конечном итоге подтверждаются (или как разрешаются конфликтующие транзакции), не отбрасывая всю одну ветвь. Это означает, что мощность майнинга или усилия не тратятся впустую на устаревшие блоки, что способствует повышению эффективности. Например, Tree-Graph Conflux (DAG на PoW) пытается включить все блоки в реестр и упорядочивает их, а не делает их сиротскими, тем самым используя 100% произведенных блоков.

Таким образом, блокчейны предлагают более простую, строго упорядоченную структуру, где валидация происходит блок за блоком, тогда как DAG предоставляют более сложную графовую структуру, позволяющую асинхронную и параллельную обработку транзакций. Реестры на основе DAG должны использовать дополнительную логику консенсуса для управления этой сложностью, но они обещают значительно более высокую пропускную способность и эффективность за счет использования полной пропускной способности сети, а не принудительного создания очереди блоков.

Преимущества блокчейн-систем на основе DAG

Архитектуры DAG были введены в первую очередь для преодоления ограничений традиционных блокчейнов в масштабируемости, скорости и стоимости. Вот основные преимущества распределенных реестров на основе DAG:

  • Высокая масштабируемость и пропускная способность: Сети DAG могут достигать высокой пропускной способности транзакций, поскольку они обрабатывают множество транзакций параллельно. Поскольку нет узкого места в виде одной цепочки, TPS (транзакций в секунду) может масштабироваться в зависимости от сетевой активности. Фактически, некоторые протоколы DAG продемонстрировали пропускную способность порядка тысяч TPS. Например, Hedera Hashgraph способна обрабатывать более 10 000 транзакций в секунду на базовом уровне, значительно превосходя Bitcoin или Ethereum. На практике Hedera продемонстрировала завершение транзакций примерно за 3–5 секунд, по сравнению с минутами или более длительным временем подтверждения в блокчейнах PoW. Даже платформы смарт-контрактов на основе DAG, такие как Fantom, достигли почти мгновенной завершенности (~1–2 секунды) для транзакций при нормальных нагрузках. Эта масштабируемость делает DAG привлекательными для приложений, требующих большого объема, таких как микротранзакции IoT или потоки данных в реальном времени.
  • Низкие комиссии за транзакции (бесплатные или минимальные): Многие реестры на основе DAG могут похвастаться незначительными комиссиями или даже бесплатными транзакциями. По своей конструкции они часто не полагаются на майнеров, ожидающих вознаграждения за блоки или комиссии; например, в IOTA и Nano нет обязательных комиссий за транзакции — это важнейшее свойство для микроплатежей в IoT и повседневном использовании. Там, где комиссии существуют (например, Hedera или Fantom), они, как правило, очень низкие и предсказуемые, поскольку сеть может обрабатывать нагрузку без ценовых войн за ограниченное пространство блоков. Транзакции Hedera стоят около $0.0001 (одна десятитысячная доллара) в виде комиссий, что составляет крошечную долю от типичных комиссий блокчейна. Такие низкие затраты открывают двери для таких вариантов использования, как высокочастотные транзакции или крошечные платежи, которые были бы невозможны в цепочках с высокими комиссиями. Кроме того, поскольку DAG включают все действительные транзакции, а не отбрасывают некоторые в случае форков, меньше «потерянной» работы — что косвенно помогает снизить затраты за счет эффективного использования ресурсов.
  • Быстрое подтверждение и низкая задержка: В реестрах DAG транзакциям не нужно ждать включения в глобальный блок, поэтому подтверждение может быть быстрее. Многие системы DAG достигают быстрой завершенности — момента, когда транзакция считается окончательно подтвержденной. Например, консенсус Hedera Hashgraph обычно завершает транзакции в течение нескольких секунд со 100% уверенностью (завершенность aBFT). Сеть Nano часто видит транзакции, подтвержденные менее чем за 1 секунду благодаря легковесному процессу голосования. Эта низкая задержка улучшает пользовательский опыт, делая транзакции почти мгновенными, что важно для реальных платежей и интерактивных приложений.
  • Энергоэффективность: Сети на основе DAG часто не требуют интенсивного майнинга с использованием доказательства работы, который используют многие блокчейны, что делает их гораздо более энергоэффективными. Даже по сравнению с блокчейнами на основе доказательства доли владения, некоторые сети DAG потребляют минимальное количество энергии на транзакцию. Например, одна транзакция Hedera Hashgraph потребляет порядка 0.0001 кВт·ч (киловатт-час) энергии. Это на несколько порядков меньше, чем Bitcoin (который может потреблять сотни кВт·ч на транзакцию) или даже многие цепочки PoS. Эффективность достигается за счет устранения расточительных вычислений (отсутствие гонки майнинга) и отказа от отбрасывания любых попыток транзакций. Если бы блокчейн-сети повсеместно перешли на модели на основе DAG, экономия энергии могла бы быть колоссальной. Углеродный след сетей DAG, таких как Hedera, настолько низок, что ее общая сеть является углеродно-отрицательной при учете компенсаций. Такая энергоэффективность становится все более важной для устойчивой инфраструктуры Web3.
  • Отсутствие майнинга и демократизированная валидация: Во многих моделях DAG нет отдельной роли майнера/валидатора, которую не могли бы выполнять обычные пользователи. Например, каждый пользователь IOTA, выпускающий транзакцию, также помогает валидировать две другие, по сути децентрализуя работу по валидации до периферии сети. Это может снизить потребность в мощном майнинговом оборудовании или стейкинге больших объемов капитала для участия в консенсусе, потенциально делая сеть более доступной. (Однако некоторые сети DAG по-прежнему используют валидаторов или координаторов — см. обсуждение консенсуса и децентрализации позже.)
  • Плавная обработка высокого трафика: Блокчейны часто страдают от переполнения мемпула и скачков комиссий при высокой нагрузке (поскольку только один блок за раз может обрабатывать транзакции). Сети DAG, благодаря своей параллельной природе, обычно более изящно справляются со скачками трафика. По мере того, как все больше транзакций наводняют сеть, они просто создают больше параллельных ветвей в DAG, которые система может обрабатывать одновременно. Жесткого ограничения пропускной способности меньше (масштабируемость более «горизонтальная»). Это приводит к лучшей масштабируемости под нагрузкой, с меньшими задержками и лишь умеренным увеличением времени подтверждения или комиссий, вплоть до пропускной способности сети узлов и вычислительной мощности. По сути, DAG может поглощать всплески транзакций без быстрого перегрузки, что делает его подходящим для вариантов использования, связанных со всплесками активности (например, все устройства IoT отправляют данные одновременно или вирусное событие DApp).

Таким образом, реестры на основе DAG обещают более быстрые, дешевые и масштабируемые транзакции, чем классический подход блокчейна. Они нацелены на поддержку сценариев массового внедрения (микроплатежи, IoT, высокочастотная торговля и т. д.), с которыми текущие основные блокчейны сталкиваются из-за ограничений пропускной способности и стоимости. Однако эти преимущества сопряжены с определенными компромиссами и проблемами реализации, которые мы рассмотрим в последующих разделах.

Механизмы консенсуса в платформах на основе DAG

Поскольку реестры DAG естественным образом не производят единую цепочку блоков, им требуются инновационные механизмы консенсуса для проверки транзакций и обеспечения согласия всех участников относительно состояния реестра. Различные проекты разработали различные решения, адаптированные к их архитектуре DAG. Здесь мы описываем некоторые примечательные подходы к консенсусу, используемые платформами на основе DAG:

  • Tangle IOTA – Выбор вершин и взвешенное голосование: Tangle IOTA — это DAG транзакций, разработанный для Интернета вещей (IoT). В оригинальной модели IOTA нет майнеров; вместо этого каждая новая транзакция должна выполнить небольшое доказательство работы и одобрить две предыдущие транзакции (это «вершины» графа). Этот выбор вершин часто осуществляется с помощью алгоритма Монте-Карло с цепями Маркова (MCMC), который вероятностно выбирает, какие вершины одобрить, отдавая предпочтение самому тяжелому подграфу для предотвращения фрагментации. Консенсус в ранней IOTA частично достигался за счет этого кумулятивного веса одобрений — чем больше будущих транзакций косвенно одобряют вашу, тем более «подтвержденной» она становится. Однако для обеспечения безопасности сети на ранних этапах IOTA полагалась на временный централизованный узел Координатора, который выпускал периодические транзакции-вехи для завершения Tangle. Это было серьезной критикой (централизация) и сейчас устраняется в обновлении, известном как «Coordicide» (IOTA 2.0). В IOTA 2.0 новая модель консенсуса применяет безответственный консенсус в стиле Накамото на DAG. По сути, узлы выполняют голосование в Tangle: когда узел присоединяет новый блок, этот блок неявно голосует за действительность транзакций, на которые он ссылается. Комитет узлов-валидаторов (выбранных с помощью механизма стейкинга) выпускает блоки валидации в качестве голосов, и транзакция подтверждается, когда она накапливает достаточное количество взвешенных одобрений (концепция, называемая весом одобрения). Этот подход сочетает идею самого тяжелого DAG (подобно самой длинной цепочке) с явным голосованием для достижения консенсуса без координатора. Короче говоря, консенсус IOTA эволюционировал от выбора вершин + Координатор к полностью децентрализованному голосованию по ветвям DAG узлами, стремясь к безопасности и быстрому согласию о состоянии реестра.
  • Hedera Hashgraph – Сплетни и виртуальное голосование (aBFT): Hedera Hashgraph использует DAG событий в сочетании с асинхронным византийским отказоустойчивым (aBFT) алгоритмом консенсуса. Основная идея — «сплетни о сплетнях»: каждый узел быстро распространяет подписанную информацию о транзакциях и о своей истории сплетен другим узлам. Это создает Hashgraph (DAG событий), где каждый узел в конечном итоге знает, что распространил каждый другой узел, включая структуру того, кто что слышал и когда. Используя этот DAG событий, Hedera реализует виртуальное голосование. Вместо того чтобы отправлять фактические сообщения о голосовании для упорядочивания транзакций, узлы моделируют алгоритм голосования локально, анализируя граф связей сплетен. Алгоритм Hashgraph Лимона Бэрда может детерминированно рассчитать, как пройдет теоретический раунд голосования по порядку транзакций, просматривая историю «сети сплетен», записанную в DAG. Это дает метку времени консенсуса и полный порядок транзакций, который является справедливым и окончательным (транзакции упорядочиваются по медианному времени их получения сетью). Консенсус Hashgraph является безответственным и достигает aBFT, что означает, что он может выдерживать до 1/3 злонамеренных узлов без ущерба для консенсуса. На практике сеть Hedera управляется набором из 39 известных узлов, управляемых организациями (Совет Hedera), поэтому она является разрешенной, но географически распределенной. Преимуществом является чрезвычайно быстрый и безопасный консенсус: Hedera может достичь завершенности за секунды с гарантированной согласованностью. Механизм консенсуса Hashgraph запатентован, но был открыт в 2024 году и демонстрирует, как DAG + инновационный консенсус (сплетни и виртуальное голосование) могут заменить традиционный протокол блокчейна.
  • Lachesis Fantom – Безответственный PoS aBFT: Fantom — это платформа смарт-контрактов, которая использует консенсус на основе DAG под названием Lachesis. Lachesis — это протокол Proof-of-Stake aBFT, вдохновленный Hashgraph. В Fantom каждый узел-валидатор собирает полученные транзакции в блок событий и добавляет его в свой локальный DAG событий. Эти блоки событий содержат транзакции и ссылки на более ранние события. Валидаторы асинхронно передают эти блоки событий друг другу — нет единой последовательности, в которой блоки должны быть произведены или согласованы. По мере распространения блоков событий валидаторы периодически идентифицируют определенные события как вехи (или «корневые блоки событий») после того, как их увидит супербольшинство узлов. Затем Lachesis упорядочивает эти завершенные события и фиксирует их в окончательной Opera Chain (традиционная структура данных блокчейна), которая действует как реестр подтвержденных блоков. По сути, DAG блоков событий позволяет Fantom достигать консенсуса асинхронно и очень быстро, а затем конечным результатом является линейная цепочка для совместимости. Это обеспечивает примерно 1–2 секунды завершенности для транзакций в Fantom. В Lachesis нет майнеров или лидеров, предлагающих блоки; все валидаторы вносят блоки событий, и протокол детерминированно упорядочивает их. Консенсус обеспечивается моделью Proof-of-Stake (валидаторы должны стейкать токены FTM и взвешиваются по стейку). Lachesis также является aBFT, допуская до 1/3 неисправных узлов. Объединяя параллелизм DAG с выходом в виде конечной цепочки, Fantom достигает высокой пропускной способности (несколько тысяч TPS в тестах), оставаясь при этом EVM-совместимым для смарт-контрактов. Это хороший пример использования DAG внутренне для повышения производительности, не раскрывая сложность DAG на уровне приложения (разработчики в конечном итоге все равно видят обычную цепочку транзакций).
  • Открытое представительное голосование Nano (ORV): Nano — это платежная криптовалюта, которая использует уникальную структуру DAG, называемую block-lattice. В Nano у каждого аккаунта есть свой собственный блокчейн (цепочка аккаунта), который может обновлять только владелец аккаунта. Все эти отдельные цепочки образуют DAG, поскольку транзакции из разных аккаунтов связываются асинхронно (отправка в одной цепочке аккаунта ссылается на получение в другой и т. д.). Консенсус в Nano достигается с помощью механизма, называемого Открытое представительное голосование (ORV). Пользователи назначают узел-представитель для своего аккаунта (это делегирование веса, а не блокировка средств), и эти представители голосуют за действительность транзакций. Каждая транзакция рассчитывается индивидуально (нет блоков, объединяющих несколько транзакций) и считается подтвержденной, когда супербольшинство (например, >67%) голосующего веса (от представителей) соглашается с ней. Поскольку честные владельцы аккаунтов не будут дважды тратить свои средства, форки редки и обычно вызваны только злонамеренными попытками, которые представители могут быстро отклонить. Завершенность обычно достигается менее чем за секунду для каждой транзакции. ORV аналогичен Proof-of-Stake тем, что вес голоса основан на балансах аккаунтов (стейке), но нет вознаграждения за стейкинг или комиссии — представители являются добровольными узлами. Отсутствие майнинга и производства блоков означает, что Nano может работать без комиссий и эффективно. Однако он полагается на набор доверенных представителей, находящихся в сети для голосования, и существует неявная централизация, при которой узлы накапливают большой вес голоса (хотя пользователи могут переключать представителей в любое время, сохраняя контроль децентрализации в руках пользователей). Консенсус Nano является легковесным и оптимизирован для скорости и энергоэффективности, что соответствует его цели быть быстрыми, бесплатными цифровыми деньгами.
  • Другие примечательные подходы: Существует несколько других протоколов консенсуса на основе DAG. Hedera Hashgraph и Fantom Lachesis мы рассмотрели; помимо них:
    • Консенсус Avalanche (Avalanche/X-Chain): Avalanche использует консенсус на основе DAG, где валидаторы многократно опрашивают друг друга в рандомизированном процессе, чтобы решить, каким транзакциям или блокам отдать предпочтение. X-Chain Avalanche (цепочка обмена) — это DAG транзакций (UTXO) и достигает консенсуса с помощью этого метода сетевой выборки. Протокол Avalanche вероятностный, но чрезвычайно быстрый и масштабируемый — он может завершать транзакции примерно за 1 секунду и, как сообщается, обрабатывать до 4500 TPS на подсеть. Подход Avalanche уникален тем, что сочетает структуры данных DAG с метастабильным консенсусом (протокол Snowball) и обеспечивается Proof-of-Stake (любой может быть валидатором с достаточным стейком).
    • Conflux Tree-Graph: Conflux — это платформа, которая расширила PoW Bitcoin до DAG блоков. Она использует структуру Tree-Graph, где блоки ссылаются не только на одного родителя, но и на все известные предыдущие блоки (без сиротства). Это позволяет Conflux использовать майнинг Proof-of-Work, но сохранять все форки как часть реестра, что приводит к гораздо более высокой пропускной способности, чем у типичной цепочки. Таким образом, Conflux может достигать порядка 3–6 тысяч TPS в теории, используя PoW, за счет того, что майнеры производят блоки непрерывно, не дожидаясь одной цепочки. Затем его консенсус упорядочивает эти блоки и разрешает конфликты по правилу самого тяжелого поддерева. Это пример гибридного PoW DAG.
    • Варианты Hashgraph и академические протоколы: Существует множество академических протоколов DAG (некоторые реализованы в более новых проектах): SPECTRE и PHANTOM (протоколы blockDAG, нацеленные на высокую пропускную способность и быстрое подтверждение, от DAGlabs), Aleph Zero (консенсус DAG aBFT, используемый в блокчейне Aleph Zero), Parallel Chains / Prism (исследовательские проекты, разделяющие подтверждение транзакций на параллельные подцепочки и DAG), а также недавние достижения, такие как Narwhal & Bullshark Sui, которые используют мемпул DAG для высокой пропускной способности и отдельный консенсус для завершенности. Хотя не все из них имеют крупномасштабные развертывания, они указывают на богатую область исследований. Многие из этих протоколов различают доступность (быстрая запись большого количества данных в DAG) и согласованность (согласие по одной истории), пытаясь получить лучшее из обоих.

Каждая платформа DAG адаптирует свой консенсус к своим потребностям — будь то бесплатные микротранзакции, выполнение смарт-контрактов или интероперабельность. Однако общая тема — избегание единого последовательного узкого места: механизмы консенсуса DAG стремятся обеспечить множество одновременных действий, а затем используют умные алгоритмы (сплетни, голосование, выборка и т. д.) для упорядочивания, а не ограничивают сеть одним производителем блоков за раз.

Примеры использования: проекты блокчейнов на основе DAG

Несколько проектов реализовали реестры на основе DAG, каждый со своими уникальными дизайнерскими решениями и целевыми вариантами использования. Ниже мы рассмотрим некоторые известные платформы на основе DAG:

  • IOTA (The Tangle): IOTA — одна из первых криптовалют на основе DAG, разработанная для Интернета вещей. Ее реестр, называемый Tangle, представляет собой DAG транзакций, где каждая новая транзакция подтверждает две предыдущие. Цель IOTA — обеспечить бесплатные микротранзакции между устройствами IoT (оплата небольших сумм за данные или услуги). Она была запущена в 2016 году, и для обеспечения начальной безопасности использовала узел Координатора (управляемый Фондом IOTA) для предотвращения атак на раннюю сеть. IOTA работает над «Coordicide» для полной децентрализации сети путем введения консенсуса голосования (как описано ранее), где узлы голосуют по конфликтующим транзакциям, используя безответственный консенсус Накамото на самом тяжелом DAG. С точки зрения производительности, IOTA может, в теории, достигать очень высокой пропускной способности (протокол не устанавливает жесткого ограничения TPS; большая активность фактически помогает быстрее подтверждать транзакции). На практике тестовые сети продемонстрировали сотни TPS, и ожидается, что предстоящая IOTA 2.0 будет хорошо масштабироваться для потребностей IoT. Варианты использования IOTA вращаются вокруг IoT и целостности данных: например, потоковая передача данных датчиков с доказательствами целостности, платежи между транспортными средствами, отслеживание цепочек поставок и даже децентрализованная идентификация (фреймворк IOTA Identity позволяет выпускать и проверять цифровые учетные данные/DID в Tangle). IOTA изначально не поддерживает смарт-контракты на своем базовом уровне, но проект представил параллельный фреймворк смарт-контрактов и токены на вторичном уровне для обеспечения более сложной функциональности DApp. Заметной особенностью IOTA являются ее нулевые комиссии, что достигается за счет требования небольшого PoW от отправителя вместо взимания комиссии — это делает ее привлекательной для высокообъемных, низкостоимостных транзакций (например, датчик, отправляющий данные каждые несколько секунд за незначительную стоимость).
  • Hedera Hashgraph (HBAR): Hedera — это публичный распределенный реестр, использующий алгоритм консенсуса Hashgraph (изобретенный доктором Лимоном Бэрдом). Hedera была запущена в 2018 году и управляется советом крупных организаций (Google, IBM, Boeing и другие), которые управляют первоначальным набором узлов. В отличие от большинства других, Hedera разрешена в управлении (только утвержденные члены совета в настоящее время управляют узлами консенсуса, до 39 узлов), хотя любой может использовать сеть. Ее Hashgraph DAG обеспечивает очень высокую пропускную способность и быструю завершенность — Hedera может обрабатывать более 10 000 TPS с завершенностью за 3–5 секунд в оптимальных условиях. Это достигается с помощью описанного ранее консенсуса aBFT на основе сплетен. Hedera делает акцент на корпоративных и Web3 вариантах использования, требующих надежности в масштабе: ее сеть предлагает услуги по токенизации (Hedera Token Service), службу консенсуса для защищенного от подделки журналирования событий и службу смарт-контрактов (которая совместима с EVM). Заметные приложения на Hedera включают отслеживание происхождения цепочки поставок (например, отслеживание одежды Avery Dennison), высокообъемный минтинг NFT (низкие комиссии делают минтинг NFT недорогим), платежи и микроплатежи (например, микроплатежи в рекламных технологиях) и даже решения для децентрализованной идентификации. Hedera имеет метод DID, зарегистрированный в W3C, и фреймворки, такие как Hedera Guardian, для поддержки проверяемых учетных данных и соответствия нормативным требованиям (например, отслеживание углеродных кредитов). Ключевой особенностью является высокая производительность Hedera в сочетании с заявленной стабильностью (алгоритм Hashgraph гарантирует отсутствие форков и математически доказанную справедливость в упорядочивании). Компромисс заключается в том, что Hedera менее децентрализована по количеству узлов, чем открытые сети (по замыслу, с ее моделью управления), хотя узлы совета расположены по всему миру, и в планах со временем увеличить открытость. В целом, Hedera Hashgraph является ярким примером DLT на основе DAG, ориентированной на корпоративные приложения, с акцентом на высокую пропускную способность, безопасность и управление.
  • Fantom (FTM): Fantom — это платформа смарт-контрактов (блокчейн первого уровня), которая использует консенсус на основе DAG под названием Lachesis. Запущенная в 2019 году, Fantom приобрела популярность, особенно во время бума DeFi в 2021–2022 годах, как цепочка, совместимая с Ethereum, с гораздо более высокой производительностью. Сеть Opera Fantom работает на консенсусе Lachesis aBFT (подробно описанном выше), где валидаторы поддерживают локальный DAG блоков событий и достигают консенсуса асинхронно, а затем завершают транзакции в основной цепочке. Это дает Fantom типичное время до завершенности ~1 секунда для транзакций и способность обрабатывать тысячи транзакций в секунду. Fantom совместим с EVM, что означает, что разработчики могут развертывать Solidity смарт-контракты и использовать те же инструменты, что и Ethereum, что значительно способствовало его внедрению в DeFi. Действительно, Fantom стал домом для многочисленных проектов DeFi (DEX, протоколы кредитования, фарминг доходности), привлеченных его скоростью и низкими комиссиями. Он также размещает проекты NFT и игровые DApp — по сути, любое приложение Web3, которое выигрывает от быстрых и дешевых транзакций. Стоит отметить, что Fantom достиг высокого уровня децентрализации для платформы DAG: у него есть десятки независимых валидаторов, обеспечивающих безопасность сети (без разрешений, любой может запустить валидатор с минимальным стейком), в отличие от некоторых сетей DAG, которые ограничивают валидаторов. Это позиционирует Fantom как надежную альтернативу более традиционным блокчейнам для децентрализованных приложений, используя технологию DAG для устранения узких мест в производительности. Токен FTM сети используется для стейкинга, управления и комиссий (которые составляют всего несколько центов за транзакцию, намного ниже, чем комиссии за газ Ethereum). Fantom продемонстрировал, что консенсус на основе DAG может быть интегрирован с платформами смарт-контрактов для достижения как скорости, так и совместимости.
  • Nano (XNO): Nano — это легковесная криптовалюта, запущенная в 2015 году (первоначально как RaiBlocks), которая использует структуру DAG block-lattice. Основное внимание Nano уделяется одноранговым цифровым деньгам: мгновенные, бесплатные транзакции с минимальным использованием ресурсов. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Hedera против IOTA против Fantom против Nano (краткий обзор): В таблице ниже приведены некоторые ключевые характеристики этих проектов на основе DAG:
Проект (Год)Структура данных и консенсусПроизводительность (Пропускная способность и завершенность)Заметные особенности / Варианты использования

title: "Направленный ациклический граф (DAG) в блокчейне" tags: [DAG, Блокчейн, Консенсус, Масштабируемость] keywords: [Направленный ациклический граф, DAG против блокчейна, распределенный реестр, механизмы консенсуса, масштабируемость] description: "Узнайте, как реестры на основе DAG сравниваются с традиционными блокчейнами, их преимущества, модели консенсуса, варианты использования и перспективы внедрения." authors: [dora] image: "https://opengraph-image.blockeden.xyz/api/og-blockeden-xyz?title=Направленный%20ациклический%20граф%20(DAG)%20в%20блокчейне&subtitle=Параллельные%20реестры%2C%20модели%20консенсуса%20и%20реальное%20внедрение"


Направленный ациклический граф (DAG) в блокчейне

Что такое DAG и чем он отличается от блокчейна?

Направленный ациклический граф (DAG) — это тип структуры данных, состоящий из вершин (узлов), соединенных направленными ребрами, которые никогда не образуют цикл. В контексте распределенных реестров, реестр на основе DAG организует транзакции или события в виде паутинообразного графа, а не единой последовательной цепочки. Это означает, что в отличие от традиционного блокчейна, где каждый новый блок ссылается только на одного предшественника (образуя линейную цепочку), узел в DAG может ссылаться на несколько предыдущих транзакций или блоков. В результате многие транзакции могут быть подтверждены параллельно, а не строго одна за другой в хронологических блоках.

Чтобы проиллюстрировать разницу, если блокчейн выглядит как длинная цепочка блоков (каждый блок содержит множество транзакций), то реестр на основе DAG больше похож на дерево или сеть отдельных транзакций. Каждая новая транзакция в DAG может присоединяться к (и тем самым подтверждать) одну или несколько более ранних транзакций, вместо того чтобы ждать упаковки в следующий единственный блок. Это структурное различие приводит к нескольким ключевым отличиям:

  • Параллельная валидация: В блокчейнах майнеры/валидаторы добавляют по одному блоку в цепочку за раз, поэтому транзакции подтверждаются партиями для каждого нового блока. В DAG несколько транзакций (или небольших «блоков» транзакций) могут быть добавлены одновременно, поскольку каждая из них может присоединяться к разным частям графа. Эта параллелизация означает, что сетям DAG не нужно ждать, пока одна длинная цепочка будет расти по одному блоку за раз.
  • Отсутствие глобального последовательного порядка: Блокчейн по своей сути создает полный порядок транзакций (каждый блок имеет определенное место в одной последовательности). Реестр DAG, напротив, формирует частичный порядок транзакций. Нет единого «последнего блока», в очередь к которому выстраиваются все транзакции; вместо этого множество «вершин» графа могут сосуществовать и расширяться одновременно. Затем требуются протоколы консенсуса, чтобы в конечном итоге упорядочить или согласовать порядок или действительность транзакций в DAG.
  • Подтверждение транзакций: В блокчейне транзакции подтверждаются, когда они включаются в добытый/валидированный блок, и этот блок становится частью принятой цепочки (часто после добавления новых блоков поверх него). В системах DAG новая транзакция сама по себе помогает подтверждать предыдущие транзакции, ссылаясь на них. Например, в Tangle IOTA (DAG) каждая транзакция должна подтвердить две предыдущие транзакции, фактически заставляя пользователей совместно проверять транзакции друг друга. Это устраняет строгое разделение между «создателями транзакций» и «валидаторами», которое существует в майнинге блокчейна — каждый участник, выпускающий транзакцию, также выполняет небольшую работу по валидации.

Важно отметить, что блокчейн на самом деле является частным случаем DAG — DAG, который был ограничен одной цепочкой блоков. Оба являются формами технологии распределенного реестра (DLT) и разделяют такие цели, как неизменяемость и децентрализация. Однако реестры на основе DAG имеют «бесблочную» или мульти-родительскую структуру, что придает им различные свойства на практике. Традиционные блокчейны, такие как Bitcoin и Ethereum, используют последовательные блоки и часто отбрасывают любые конкурирующие блоки (форки), тогда как реестры DAG пытаются включать и упорядочивать все транзакции, не отбрасывая ни одной, если они не конфликтуют. Это фундаментальное различие закладывает основу для различий в производительности и дизайне, подробно описанных ниже.

Техническое сравнение: архитектура DAG против блокчейна

Чтобы лучше понять DAG и блокчейны, мы можем сравнить их архитектуры и процессы валидации:

  • Структура данных: Блокчейны хранят данные в блоках, связанных в линейной последовательности (каждый блок содержит множество транзакций и указывает на один предыдущий блок, образуя одну длинную цепочку). Реестры DAG используют графовую структуру: каждый узел в графе представляет транзакцию или блок событий и может ссылаться на несколько предыдущих узлов. Этот направленный граф не имеет циклов, что означает, что если вы будете следовать по ссылкам «назад», вы никогда не сможете вернуться к транзакции, с которой начали. Отсутствие циклов позволяет выполнять топологическую сортировку транзакций (способ их упорядочивания таким образом, чтобы каждая ссылка следовала за ссылаемой транзакцией). Короче говоря, блокчейны = одномерная цепочка, DAG = многомерный граф.
  • Пропускная способность и параллелизм: Из-за структурных различий блокчейны и DAG обрабатывают пропускную способность по-разному. Блокчейн, даже в оптимальных условиях, добавляет блоки один за другим (часто ожидая, пока каждый блок будет проверен и распространен по всей сети, прежде чем будет добавлен следующий). Это по своей сути ограничивает пропускную способность транзакций — например, Bitcoin в среднем обрабатывает 5–7 транзакций в секунду (TPS), а Ethereum ~15–30 TPS при классическом дизайне Proof-of-Work. Системы на основе DAG, напротив, позволяют многим новым транзакциям/блокам одновременно входить в реестр. Множественные ветви транзакций могут расти одновременно и позже объединяться, что значительно увеличивает потенциальную пропускную способность. Некоторые современные сети DAG заявляют о пропускной способности в тысячи TPS, приближаясь или превосходя традиционные платежные сети по пропускной способности.
  • Процесс валидации транзакций: В блокчейн-сетях транзакции ожидают в мемпуле и валидируются, когда майнер или валидатор упаковывает их в новый блок, затем другие узлы проверяют этот блок на соответствие истории. В сетях DAG валидация часто более непрерывна и децентрализована: каждая новая транзакция выполняет действие валидации, ссылаясь на (одобряя) более ранние транзакции. Например, каждая транзакция в Tangle IOTA должна подтвердить две предыдущие транзакции, проверив их действительность и выполнив небольшое доказательство работы, тем самым «голосуя» за эти транзакции. В DAG-структуре block-lattice Nano транзакции каждого аккаунта образуют свою собственную цепочку и валидируются посредством голосования узлами-представителями (подробнее об этом позже). Конечный эффект заключается в том, что DAG распределяет работу по валидации: вместо того, чтобы один производитель блоков валидировал пакет транзакций, каждый участник или множество валидаторов одновременно валидируют разные транзакции.
  • Механизм консенсуса: И блокчейнам, и DAG нужен способ для сети договориться о состоянии реестра (какие транзакции подтверждены и в каком порядке). В блокчейнах консенсус часто достигается за счет Proof of Work или Proof of Stake, производящих следующий блок, и правила «самая длинная (или самая тяжелая) цепочка выигрывает». В реестрах DAG консенсус может быть более сложным, поскольку нет единой цепочки. Различные проекты DAG используют разные подходы: некоторые используют протоколы сплетен и виртуальное голосование (как в Hedera Hashgraph) для достижения согласия по порядку транзакций, другие используют выбор вершин по методу Монте-Карло с цепями Маркова (ранний подход IOTA) или другие схемы голосования для определения предпочтительных ветвей графа. Мы обсудим конкретные методы консенсуса в системах DAG в последующем разделе. В целом, достижение общесетевого согласия в DAG может быть быстрее с точки зрения пропускной способности, но требует тщательного проектирования для обработки конфликтов (таких как попытки двойной траты), поскольку несколько транзакций могут существовать параллельно до окончательного упорядочивания.
  • Обработка форков: В блокчейне «форк» (два блока, добытые почти одновременно) приводит к тому, что одна ветвь в конечном итоге выигрывает (самая длинная цепочка), а другая становится сиротской (отбрасывается), что приводит к потере всей работы, выполненной над сиротским блоком. В DAG философия заключается в том, чтобы принимать форки как дополнительные ветви графа, а не отбрасывать их. DAG будет включать оба форка; затем алгоритм консенсуса определяет, какие транзакции в конечном итоге подтверждаются (или как разрешаются конфликтующие транзакции), не отбрасывая всю одну ветвь. Это означает, что мощность майнинга или усилия не тратятся впустую на устаревшие блоки, что способствует повышению эффективности. Например, Tree-Graph Conflux (DAG на PoW) пытается включить все блоки в реестр и упорядочивает их, а не делает их сиротскими, тем самым используя 100% произведенных блоков.

Таким образом, блокчейны предлагают более простую, строго упорядоченную структуру, где валидация происходит блок за блоком, тогда как DAG предоставляют более сложную графовую структуру, позволяющую асинхронную и параллельную обработку транзакций. Реестры на основе DAG должны использовать дополнительную логику консенсуса для управления этой сложностью, но они обещают значительно более высокую пропускную способность и эффективность за счет использования полной пропускной способности сети, а не принудительного создания очереди блоков.

Преимущества блокчейн-систем на основе DAG

Архитектуры DAG были введены в первую очередь для преодоления ограничений традиционных блокчейнов в масштабируемости, скорости и стоимости. Вот основные преимущества распределенных реестров на основе DAG:

  • Высокая масштабируемость и пропускная способность: Сети DAG могут достигать высокой пропускной способности транзакций, поскольку они обрабатывают множество транзакций параллельно. Поскольку нет узкого места в виде одной цепочки, TPS (транзакций в секунду) может масштабироваться в зависимости от сетевой активности. Фактически, некоторые протоколы DAG продемонстрировали пропускную способность порядка тысяч TPS. Например, Hedera Hashgraph способна обрабатывать более 10 000 транзакций в секунду на базовом уровне, значительно превосходя Bitcoin или Ethereum. На практике Hedera продемонстрировала завершение транзакций примерно за 3–5 секунд, по сравнению с минутами или более длительным временем подтверждения в блокчейнах PoW. Даже платформы смарт-контрактов на основе DAG, такие как Fantom, достигли почти мгновенной завершенности (~1–2 секунды) для транзакций при нормальных нагрузках. Эта масштабируемость делает DAG привлекательными для приложений, требующих большого объема, таких как микротранзакции IoT или потоки данных в реальном времени.
  • Низкие комиссии за транзакции (бесплатные или минимальные): Многие реестры на основе DAG могут похвастаться незначительными комиссиями или даже бесплатными транзакциями. По своей конструкции они часто не полагаются на майнеров, ожидающих вознаграждения за блоки или комиссии; например, в IOTA и Nano нет обязательных комиссий за транзакции — это важнейшее свойство для микроплатежей в IoT и повседневном использовании. Там, где комиссии существуют (например, Hedera или Fantom), они, как правило, очень низкие и предсказуемые, поскольку сеть может обрабатывать нагрузку без ценовых войн за ограниченное пространство блоков. Транзакции Hedera стоят около $0.0001 (одна десятитысячная доллара) в виде комиссий, что составляет крошечную долю от типичных комиссий блокчейна. Такие низкие затраты открывают двери для таких вариантов использования, как высокочастотные транзакции или крошечные платежи, которые были бы невозможны в цепочках с высокими комиссиями. Кроме того, поскольку DAG включают все действительные транзакции, а не отбрасывают некоторые в случае форков, меньше «потерянной» работы — что косвенно помогает снизить затраты за счет эффективного использования ресурсов.
  • Быстрое подтверждение и низкая задержка: В реестрах DAG транзакциям не нужно ждать включения в глобальный блок, поэтому подтверждение может быть быстрее. Многие системы DAG достигают быстрой завершенности — момента, когда транзакция считается окончательно подтвержденной. Например, консенсус Hedera Hashgraph обычно завершает транзакции в течение нескольких секунд со 100% уверенностью (завершенность aBFT). Сеть Nano часто видит транзакции, подтвержденные менее чем за 1 секунду благодаря легковесному процессу голосования. Эта низкая задержка улучшает пользовательский опыт, делая транзакции почти мгновенными, что важно для реальных платежей и интерактивных приложений.
  • Энергоэффективность: Сети на основе DAG часто не требуют интенсивного майнинга с использованием доказательства работы, который используют многие блокчейны, что делает их гораздо более энергоэффективными. Даже по сравнению с блокчейнами на основе доказательства доли владения, некоторые сети DAG потребляют минимальное количество энергии на транзакцию. Например, одна транзакция Hedera Hashgraph потребляет порядка 0.0001 кВт·ч (киловатт-час) энергии. Это на несколько порядков меньше, чем Bitcoin (который может потреблять сотни кВт·ч на транзакцию) или даже многие цепочки PoS. Эффективность достигается за счет устранения расточительных вычислений (отсутствие гонки майнинга) и отказа от отбрасывания любых попыток транзакций. Если бы блокчейн-сети повсеместно перешли на модели на основе DAG, экономия энергии могла бы быть колоссальной. Углеродный след сетей DAG, таких как Hedera, настолько низок, что ее общая сеть является углеродно-отрицательной при учете компенсаций. Такая энергоэффективность становится все более важной для устойчивой инфраструктуры Web3.
  • Отсутствие майнинга и демократизированная валидация: Во многих моделях DAG нет отдельной роли майнера/валидатора, которую не могли бы выполнять обычные пользователи. Например, каждый пользователь IOTA, выпускающий транзакцию, также помогает валидировать две другие, по сути децентрализуя работу по валидации до периферии сети. Это может снизить потребность в мощном майнинговом оборудовании или стейкинге больших объемов капитала для участия в консенсусе, потенциально делая сеть более доступной. (Однако некоторые сети DAG по-прежнему используют валидаторов или координаторов — см. обсуждение консенсуса и децентрализации позже.)
  • Плавная обработка высокого трафика: Блокчейны часто страдают от переполнения мемпула и скачков комиссий при высокой нагрузке (поскольку только один блок за раз может обрабатывать транзакции). Сети DAG, благодаря своей параллельной природе, обычно более изящно справляются со скачками трафика. По мере того, как все больше транзакций наводняют сеть, они просто создают больше параллельных ветвей в DAG, которые система может обрабатывать одновременно. Жесткого ограничения пропускной способности меньше (масштабируемость более «горизонтальная»). Это приводит к лучшей масштабируемости под нагрузкой, с меньшими задержками и лишь умеренным увеличением времени подтверждения или комиссий, вплоть до пропускной способности сети узлов и вычислительной мощности. По сути, DAG может поглощать всплески транзакций без быстрого перегрузки, что делает его подходящим для вариантов использования, связанных со всплесками активности (например, все устройства IoT отправляют данные одновременно или вирусное событие DApp).

Таким образом, реестры на основе DAG обещают более быстрые, дешевые и масштабируемые транзакции, чем классический подход блокчейна. Они нацелены на поддержку сценариев массового внедрения (микроплатежи, IoT, высокочастотная торговля и т. д.), с которыми текущие основные блокчейны сталкиваются из-за ограничений пропускной способности и стоимости. Однако эти преимущества сопряжены с определенными компромиссами и проблемами реализации, которые мы рассмотрим в последующих разделах.

Механизмы консенсуса в платформах на основе DAG

Поскольку реестры DAG естественным образом не производят единую цепочку блоков, им требуются инновационные механизмы консенсуса для проверки транзакций и обеспечения согласия всех участников относительно состояния реестра. Различные проекты разработали различные решения, адаптированные к их архитектуре DAG. Здесь мы описываем некоторые примечательные подходы к консенсусу, используемые платформами на основе DAG:

  • Tangle IOTA – Выбор вершин и взвешенное голосование: Tangle IOTA — это DAG транзакций, разработанный для Интернета вещей (IoT). В оригинальной модели IOTA нет майнеров; вместо этого каждая новая транзакция должна выполнить небольшое доказательство работы и одобрить две предыдущие транзакции (это «вершины» графа). Этот выбор вершин часто осуществляется с помощью алгоритма Монте-Карло с цепями Маркова (MCMC), который вероятностно выбирает, какие вершины одобрить, отдавая предпочтение самому тяжелому подграфу для предотвращения фрагментации. Консенсус в ранней IOTA частично достигался за счет этого кумулятивного веса одобрений — чем больше будущих транзакций косвенно одобряют вашу, тем более «подтвержденной» она становится. Однако для обеспечения безопасности сети на ранних этапах IOTA полагалась на временный централизованный узел Координатора, который выпускал периодические транзакции-вехи для завершения Tangle. Это было серьезной критикой (централизация) и сейчас устраняется в обновлении, известном как «Coordicide» (IOTA 2.0). В IOTA 2.0 новая модель консенсуса применяет безответственный консенсус в стиле Накамото на DAG. По сути, узлы выполняют голосование в Tangle: когда узел присоединяет новый блок, этот блок неявно голосует за действительность транзакций, на которые он ссылается. Комитет узлов-валидаторов (выбранных с помощью механизма стейкинга) выпускает блоки валидации в качестве голосов, и транзакция подтверждается, когда она накапливает достаточное количество взвешенных одобрений (концепция, называемая весом одобрения). Этот подход сочетает идею самого тяжелого DAG (подобно самой длинной цепочке) с явным голосованием для достижения консенсуса без координатора. Короче говоря, консенсус IOTA эволюционировал от выбора вершин + Координатор к полностью децентрализованному голосованию по ветвям DAG узлами, стремясь к безопасности и быстрому согласию о состоянии реестра.
  • Hedera Hashgraph – Сплетни и виртуальное голосование (aBFT): Hedera Hashgraph использует DAG событий в сочетании с асинхронным византийским отказоустойчивым (aBFT) алгоритмом консенсуса. Основная идея — «сплетни о сплетнях»: каждый узел быстро распространяет подписанную информацию о транзакциях и о своей истории сплетен другим узлам. Это создает Hashgraph (DAG событий), где каждый узел в конечном итоге знает, что распространил каждый другой узел, включая структуру того, кто что слышал и когда. Используя этот DAG событий, Hedera реализует виртуальное голосование. Вместо того чтобы отправлять фактические сообщения о голосовании для упорядочивания транзакций, узлы моделируют алгоритм голосования локально, анализируя граф связей сплетен. Алгоритм Hashgraph Лимона Бэрда может детерминированно рассчитать, как пройдет теоретический раунд голосования по порядку транзакций, просматривая историю «сети сплетен», записанную в DAG. Это дает метку времени консенсуса и полный порядок транзакций, который является справедливым и окончательным (транзакции упорядочиваются по медианному времени их получения сетью). Консенсус Hashgraph является безответственным и достигает aBFT, что означает, что он может выдерживать до 1/3 злонамеренных узлов без ущерба для консенсуса. На практике сеть Hedera управляется набором из 39 известных узлов, управляемых организациями (Совет Hedera), поэтому она является разрешенной, но географически распределенной. Преимуществом является чрезвычайно быстрый и безопасный консенсус: Hedera может достичь завершенности за секунды с гарантированной согласованностью. Механизм консенсуса Hashgraph запатентован, но был открыт в 2024 году и демонстрирует, как DAG + инновационный консенсус (сплетни и виртуальное голосование) могут заменить традиционный протокол блокчейна.
  • Lachesis Fantom – Безответственный PoS aBFT: Fantom — это платформа смарт-контрактов, которая использует консенсус на основе DAG под названием Lachesis. Lachesis — это протокол Proof-of-Stake aBFT, вдохновленный Hashgraph. В Fantom каждый узел-валидатор собирает полученные транзакции в блок событий и добавляет его в свой локальный DAG событий. Эти блоки событий содержат транзакции и ссылки на более ранние события. Валидаторы асинхронно передают эти блоки событий друг другу — нет единой последовательности, в которой блоки должны быть произведены или согласованы. По мере распространения блоков событий валидаторы периодически идентифицируют определенные события как вехи (или «корневые блоки событий») после того, как их увидит супербольшинство узлов. Затем Lachesis упорядочивает эти завершенные события и фиксирует их в окончательной Opera Chain (традиционная структура данных блокчейна), которая действует как реестр подтвержденных блоков. По сути, DAG блоков событий позволяет Fantom достигать консенсуса асинхронно и очень быстро, а затем конечным результатом является линейная цепочка для совместимости. Это обеспечивает примерно 1–2 секунды завершенности для транзакций в Fantom. В Lachesis нет майнеров или лидеров, предлагающих блоки; все валидаторы вносят блоки событий и протокол детерминированно упорядочивает их. Консенсус обеспечивается моделью Proof-of-Stake (валидаторы должны стейкать токены FTM и взвешиваются по стейку). Lachesis также является aBFT, допуская до 1/3 неисправных узлов. Объединяя параллелизм DAG с выходом в виде конечной цепочки, Fantom достигает высокой пропускной способности (несколько тысяч TPS в тестах), оставаясь при этом EVM-совместимым для смарт-контрактов. Это хороший пример использования DAG внутренне для повышения производительности, не раскрывая сложность DAG на уровне приложения (разработчики в конечном итоге все равно видят обычную цепочку транзакций).
  • Открытое представительное голосование Nano (ORV): Nano — это платежная криптовалюта, которая использует уникальную структуру DAG, называемую block-lattice. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Другие примечательные подходы: Существует несколько других протоколов консенсуса на основе DAG. Hedera Hashgraph и Fantom Lachesis мы рассмотрели; помимо них:
    • Консенсус Avalanche (Avalanche/X-Chain): Avalanche использует консенсус на основе DAG, где валидаторы многократно опрашивают друг друга в рандомизированном процессе, чтобы решить, каким транзакциям или блокам отдать предпочтение. X-Chain Avalanche (цепочка обмена) — это DAG транзакций (UTXO) и достигает консенсуса с помощью этого метода сетевой выборки. Протокол Avalanche вероятностный, но чрезвычайно быстрый и масштабируемый — он может завершать транзакции примерно за 1 секунду и, как сообщается, обрабатывать до 4500 TPS на подсеть. Подход Avalanche уникален тем, что сочетает структуры данных DAG с метастабильным консенсусом (протокол Snowball) и обеспечивается Proof-of-Stake (любой может быть валидатором с достаточным стейком).
    • Conflux Tree-Graph: Conflux — это платформа, которая расширила PoW Bitcoin до DAG блоков. Она использует структуру Tree-Graph, где блоки ссылаются не только на одного родителя, но и на все известные предыдущие блоки (без сиротства). Это позволяет Conflux использовать майнинг Proof-of-Work, но сохранять все форки как часть реестра, что приводит к гораздо более высокой пропускной способности, чем у типичной цепочки. Таким образом, Conflux может достигать порядка 3–6 тысяч TPS в теории, используя PoW, за счет того, что майнеры производят блоки непрерывно, не дожидаясь одной цепочки. Затем его консенсус упорядочивает эти блоки и разрешает конфликты по правилу самого тяжелого поддерева. Это пример гибридного PoW DAG.
    • Варианты Hashgraph и академические протоколы: Существует множество академических протоколов DAG (некоторые реализованы в более новых проектах): SPECTRE и PHANTOM (протоколы blockDAG, нацеленные на высокую пропускную способность и быстрое подтверждение, от DAGlabs), Aleph Zero (консенсус DAG aBFT, используемый в блокчейне Aleph Zero), Parallel Chains / Prism (исследовательские проекты, разделяющие подтверждение транзакций на параллельные подцепочки и DAG), а также недавние достижения, такие как Narwhal & Bullshark Sui, которые используют мемпул DAG для высокой пропускной способности и отдельный консенсус для завершенности. Хотя не все из них имеют крупномасштабные развертывания, они указывают на богатую область исследований. Многие из этих протоколов различают доступность (быстрая запись большого количества данных в DAG) и согласованность (согласие по одной истории), пытаясь получить лучшее из обоих.

Каждая платформа DAG адаптирует свой консенсус к своим потребностям — будь то бесплатные микротранзакции, выполнение смарт-контрактов или интероперабельность. Однако общая тема — избегание единого последовательного узкого места: механизмы консенсуса DAG стремятся обеспечить множество одновременных действий, а затем используют умные алгоритмы (сплетни, голосование, выборка и т. д.) для упорядочивания, а не ограничивают сеть одним производителем блоков за раз.

Примеры использования: проекты блокчейнов на основе DAG

Несколько проектов реализовали реестры на основе DAG, каждый со своими уникальными дизайнерскими решениями и целевыми вариантами использования. Ниже мы рассмотрим некоторые известные платформы на основе DAG:

  • IOTA (The Tangle): IOTA — одна из первых криптовалют на основе DAG, разработанная для Интернета вещей. Ее реестр, называемый Tangle, представляет собой DAG транзакций, где каждая новая транзакция подтверждает две предыдущие. Цель IOTA — обеспечить бесплатные микротранзакции между устройствами IoT (оплата небольших сумм за данные или услуги). Она была запущена в 2016 году, и для обеспечения начальной безопасности использовала узел Координатора (управляемый Фондом IOTA) для предотвращения атак на раннюю сеть. IOTA работает над «Coordicide» для полной децентрализации сети путем введения консенсуса голосования (как описано ранее), где узлы голосуют по конфликтующим транзакциям, используя безответственный консенсус Накамото на самом тяжелом DAG. С точки зрения производительности, IOTA может, в теории, достигать очень высокой пропускной способности (протокол не устанавливает жесткого ограничения TPS; большая активность фактически помогает быстрее подтверждать транзакции). На практике тестовые сети продемонстрировали сотни TPS, и ожидается, что предстоящая IOTA 2.0 будет хорошо масштабироваться для потребностей IoT. Варианты использования IOTA вращаются вокруг IoT и целостности данных: например, потоковая передача данных датчиков с доказательствами целостности, платежи между транспортными средствами, отслеживание цепочек поставок и даже децентрализованная идентификация (фреймворк IOTA Identity позволяет выпускать и проверять цифровые учетные данные/DID в Tangle). IOTA изначально не поддерживает смарт-контракты на своем базовом уровне, но проект представил параллельный фреймворк смарт-контрактов и токены на вторичном уровне для обеспечения более сложной функциональности DApp. Заметной особенностью IOTA являются ее нулевые комиссии, что достигается за счет требования небольшого PoW от отправителя вместо взимания комиссии — это делает ее привлекательной для высокообъемных, низкостоимостных транзакций (например, датчик, отправляющий данные каждые несколько секунд за незначительную стоимость).
  • Hedera Hashgraph (HBAR): Hedera — это публичный распределенный реестр, использующий алгоритм консенсуса Hashgraph (изобретенный доктором Лимоном Бэрдом). Hedera была запущена в 2018 году и управляется советом крупных организаций (Google, IBM, Boeing и другие), которые управляют первоначальным набором узлов. В отличие от большинства других, Hedera разрешена в управлении (только утвержденные члены совета в настоящее время управляют узлами консенсуса, до 39 узлов), хотя любой может использовать сеть. Ее Hashgraph DAG обеспечивает очень высокую пропускную способность и быструю завершенность — Hedera может обрабатывать более 10 000 TPS с завершенностью за 3–5 секунд в оптимальных условиях. Это достигается с помощью описанного ранее консенсуса aBFT на основе сплетен. Hedera делает акцент на корпоративных и Web3 вариантах использования, требующих надежности в масштабе: ее сеть предлагает услуги по токенизации (Hedera Token Service), службу консенсуса для защищенного от подделки журналирования событий и службу смарт-контрактов (которая совместима с EVM). Заметные приложения на Hedera включают отслеживание происхождения цепочки поставок (например, отслеживание одежды Avery Dennison), высокообъемный минтинг NFT (низкие комиссии делают минтинг NFT недорогим), платежи и микроплатежи (например, микроплатежи в рекламных технологиях) и даже решения для децентрализованной идентификации. Hedera имеет метод DID, зарегистрированный в W3C, и фреймворки, такие как Hedera Guardian, для поддержки проверяемых учетных данных и соответствия нормативным требованиям (например, отслеживание углеродных кредитов). Ключевой особенностью является высокая производительность Hedera в сочетании с заявленной стабильностью (алгоритм Hashgraph гарантирует отсутствие форков и математически доказанную справедливость в упорядочивании). Компромисс заключается в том, что Hedera менее децентрализована по количеству узлов, чем открытые сети (по замыслу, с ее моделью управления), хотя узлы совета расположены по всему миру, и в планах со временем увеличить открытость. В целом, Hedera Hashgraph является ярким примером DLT на основе DAG, ориентированной на корпоративные приложения, с акцентом на высокую пропускную способность, безопасность и управление.
  • Fantom (FTM): Fantom — это платформа смарт-контрактов (блокчейн первого уровня), которая использует консенсус на основе DAG под названием Lachesis. Запущенная в 2019 году, Fantom приобрела популярность, особенно во время бума DeFi в 2021–2022 годах, как цепочка, совместимая с Ethereum, с гораздо более высокой производительностью. Сеть Opera Fantom работает на консенсусе Lachesis aBFT (подробно описанном выше), где валидаторы поддерживают локальный DAG блоков событий и достигают консенсуса асинхронно, а затем завершают транзакции в основной цепочке. Это дает Fantom типичное время до завершенности ~1 секунда для транзакций и способность обрабатывать тысячи транзакций в секунду. Fantom совместим с EVM, что означает, что разработчики могут развертывать Solidity смарт-контракты и использовать те же инструменты, что и Ethereum, что значительно способствовало его внедрению в DeFi. Действительно, Fantom стал домом для многочисленных проектов DeFi (DEX, протоколы кредитования, фарминг доходности), привлеченных его скоростью и низкими комиссиями. Он также размещает проекты NFT и игровые DApp — по сути, любое приложение Web3, которое выигрывает от быстрых и дешевых транзакций. Стоит отметить, что Fantom достиг высокого уровня децентрализации для платформы DAG: у него есть десятки независимых валидаторов, обеспечивающих безопасность сети (без разрешений, любой может запустить валидатор с минимальным стейком), в отличие от некоторых сетей DAG, которые ограничивают валидаторов. Это позиционирует Fantom как надежную альтернативу более традиционным блокчейнам для децентрализованных приложений, используя технологию DAG для устранения узких мест в производительности. Токен FTM сети используется для стейкинга, управления и комиссий (которые составляют всего несколько центов за транзакцию, намного ниже, чем комиссии за газ Ethereum). Fantom продемонстрировал, что консенсус на основе DAG может быть интегрирован с платформами смарт-контрактов для достижения как скорости, так и совместимости.
  • Nano (XNO): Nano — это легковесная криптовалюта, запущенная в 2015 году (первоначально как RaiBlocks), которая использует структуру DAG block-lattice. Основное внимание Nano уделяется одноранговым цифровым деньгам: мгновенные, бесплатные транзакции с минимальным использованием ресурсов. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Hedera против IOTA против Fantom против Nano (краткий обзор): В таблице ниже приведены некоторые ключевые характеристики этих проектов на основе DAG:
Проект (Год)Структура данных и консенсусПроизводительность (Пропускная способность и завершенность)Заметные особенности / Варианты использования

Глубокое погружение в блокчейн Somnia Layer-1: 1M TPS и завершенность за доли секунды

· 64 мин. чтения
Dora Noda
Software Engineer

Somnia — это EVM-совместимый блокчейн Layer-1, созданный для экстремальной производительности, способный обрабатывать более 1 000 000 транзакций в секунду (TPS) с завершенностью за доли секунды. Для достижения этого Somnia переосмысливает базовый дизайн блокчейна с помощью четырех ключевых технических инноваций:

  • Консенсус MultiStream: Консенсус Somnia — это новый BFT-протокол Proof-of-Stake, в котором каждый валидатор поддерживает свою собственную «цепочку данных» транзакций, производя блоки независимо. Отдельная цепочка консенсуса периодически подтверждает последний блок цепочки данных каждого валидатора и упорядочивает их в единый глобальный блокчейн. Это позволяет осуществлять параллельный прием транзакций: несколько валидаторов могут одновременно распространять транзакции в своих потоках данных, которые затем объединяются в единый упорядоченный журнал. Цепочка консенсуса (вдохновленная исследованием Autobahn BFT) обеспечивает безопасность, предотвращая форки или изменение валидатором своего собственного потока после финализации глобального блока. Рисунок 1 иллюстрирует эту архитектуру, где цепочки, специфичные для валидаторов, поступают в глобальный блок консенсуса.

  • Ускоренное последовательное выполнение: Вместо того чтобы полагаться на многопоточное выполнение, Somnia предпочитает сделать одно ядро чрезвычайно быстрым. Клиент Somnia компилирует смарт-контракты EVM в нативный машинный код x86 (just-in-time или ahead-of-time). Часто используемые контракты переводятся в оптимизированные машинные инструкции, устраняя типичные накладные расходы на интерпретацию и достигая скорости, близкой к нативной C++, для выполнения. В бенчмарках это дает сотни наносекунд на один перевод ERC-20, поддерживая миллионы транзакций в секунду на одном ядре. Менее часто вызываемые контракты по-прежнему могут работать в стандартном интерпретаторе EVM, балансируя стоимость компиляции. Кроме того, Somnia использует современное внеочередное выполнение и конвейеризацию ЦП («аппаратный параллелизм») для ускорения отдельных транзакций. Компилируя в нативный код, ЦП может выполнять инструкции параллельно на уровне чипа (например, перекрывая выборки памяти и вычисления), что еще больше ускоряет последовательную логику, такую как переводы токенов. Этот выбор дизайна признает, что программный параллелизм часто терпит неудачу при сильно коррелированных пиковых нагрузках (например, при горячем выпуске NFT, когда все транзакции попадают в один и тот же контракт). Оптимизация Somnia для одного потока гарантирует, что даже сценарии «горячих» контрактов достигают высокой пропускной способности, где наивное параллельное выполнение застопорилось бы.
  • IceDB (детерминированный механизм хранения): Somnia включает в себя настраиваемую блокчейн-базу данных под названием IceDB для максимизации производительности и предсказуемости доступа к состоянию. В отличие от типичных бэкендов LevelDB/RocksDB, IceDB обеспечивает детерминированные затраты на чтение/запись: каждая операция возвращает «отчет о производительности» с точным количеством обращений к строкам кэша ОЗУ и страницам диска. Это позволяет Somnia взимать плату за газ на основе фактического использования ресурсов согласованным, детерминированным с точки зрения консенсуса способом. Например, чтение из памяти может стоить меньше газа, чем «холодное» чтение с диска, без недетерминизма. IceDB также использует улучшенный уровень кэширования, оптимизированный как для чтения, так и для записи, обеспечивая чрезвычайно низкую задержку (в среднем 15–100 наносекунд на операцию). Кроме того, IceDB имеет встроенное создание снимков состояния: он использует внутреннюю структуру хранилища с логированием для эффективного поддержания и обновления глобальных хэшей состояния, вместо создания отдельного дерева Меркла на уровне приложения. Это уменьшает накладные расходы на вычисление корней состояния и доказательств. В целом, дизайн IceDB обеспечивает предсказуемый, высокоскоростной доступ к состоянию и справедливость учета газа, что критически важно для масштаба Somnia.
  • Расширенное сжатие и сетевые возможности: Обработка миллионов TPS означает, что узлы должны обмениваться огромными объемами данных транзакций (например, 1 млн переводов ERC-20/сек ~ 1,5 Гбит/с необработанных данных). Somnia решает эту проблему с помощью оптимизации сжатия и сетевых возможностей:
    • Потоковое сжатие: Поскольку каждый валидатор публикует непрерывный поток данных, Somnia может использовать потоковое сжатие с сохранением состояния между блоками. Общие шаблоны (такие как повторяющиеся адреса, вызовы контрактов, параметры) сжимаются путем ссылки на предыдущие вхождения в потоке, достигая гораздо лучших коэффициентов, чем независимое сжатие блоков. Это использует степенное распределение активности блокчейна — небольшое подмножество адресов или вызовов составляет большую часть транзакций, поэтому кодирование их короткими символами дает массивное сжатие (например, адрес, используемый в 10% транзакций, может быть закодирован примерно в 3 битах вместо 20 байтов). Традиционные цепочки не могут легко использовать потоковое сжатие, потому что производители блоков ротируются; фиксированные потоки Somnia для каждого валидатора открывают эту возможность.
    • Агрегация подписей BLS: Чтобы исключить самые несжимаемые части транзакций (подписи и хэши), Somnia использует подписи BLS для транзакций и поддерживает агрегацию многих подписей в одну. Это означает, что блок из сотен транзакций может нести одну комбинированную подпись, что значительно сокращает размер данных (и стоимость проверки) по сравнению с наличием 64 байтов подписи ECDSA для каждой транзакции. Хэши транзакций также не передаются (пиры пересчитывают их по мере необходимости). Вместе сжатие и агрегация BLS достаточно снижают требования к пропускной способности, чтобы поддерживать высокую пропускную способность Somnia без «забивания» сети.
    • Симметрия пропускной способности: В многолидерном дизайне Somnia каждый валидатор непрерывно делится своей долей новых данных в каждом блоке, а не один лидер передает весь блок другим. Следовательно, сетевая нагрузка распределяется симметрично — каждый из N валидаторов загружает примерно 1/N от общего объема данных N-1 пирам (и загружает остальные части) в каждом блоке, вместо того чтобы один лидер загружал N-1 копий. Ни один узел никогда не нуждается в исходящей пропускной способности выше, чем общая пропускная способность цепочки, избегая узкого места, когда один лидер должен иметь огромный канал загрузки. Это равномерное использование позволяет Somnia приближаться к физическим пределам пропускной способности узлов без централизации на нескольких суперузлах. Короче говоря, сетевой стек Somnia разработан таким образом, чтобы все валидаторы делили работу по распространению транзакций, обеспечивая пропускную способность на уровне гигабита в децентрализованной сети.

Консенсус и безопасность: Цепочка консенсуса использует модифицированный PBFT (Practical Byzantine Fault Tolerance) протокол Proof-of-Stake с частично синхронным предположением. Somnia запустилась с 60–100 валидаторами, распределенными по всему миру (мейннет стартовал с ~60 и нацелен на 100). Валидаторы должны использовать мощное оборудование (спецификации примерно между узлом Solana и Aptos по производительности) для обработки нагрузки. Это количество валидаторов балансирует производительность с достаточной децентрализацией — философия команды: «достаточная децентрализация» (достаточная для обеспечения безопасности и устойчивости к цензуре, но не настолько экстремальная, чтобы парализовать производительность). Примечательно, что Google Cloud участвовал в качестве валидатора при запуске, наряду с другими профессиональными операторами узлов.

Somnia реализует стандартные меры безопасности PoS, такие как стейкинг депозитов и слэшинг за злонамеренное поведение. Для повышения безопасности своего нового механизма выполнения Somnia использует уникальную систему «Cuthbert» — альтернативную эталонную реализацию (неоптимизированную), которая работает параллельно с основным клиентом на каждом узле. Каждая транзакция выполняется на обоих движках; если в результатах оптимизированного клиента обнаруживается расхождение или ошибка, валидатор останавливается и отказывается финализировать, предотвращая ошибки консенсуса. Это двойное выполнение действует как аудит в реальном времени, гарантируя, что агрессивные оптимизации производительности никогда не приведут к некорректным переходам состояния. Со временем, по мере роста доверия к основному клиенту, Cuthbert может быть выведен из эксплуатации, но на ранних этапах он добавляет дополнительный уровень безопасности.

В итоге, архитектура Somnia адаптирована для массовых пользовательских приложений в реальном времени. Разделяя распространение транзакций от финализации (MultiStream), сверхбыстрое выполнение на одном ядре (компиляция EVM и параллелизм на уровне ЦП), оптимизируя уровень данных (IceDB) и минимизируя пропускную способность на транзакцию (сжатие + агрегация), Somnia достигает производительности, на порядки превосходящей традиционные L1. Генеральный директор Improbable Герман Нарула утверждает, что это «самый продвинутый Layer-1… способный обрабатывать в тысячи раз большую пропускную способность, чем Ethereum или Solana» — созданный специально для скорости, масштаба и отзывчивости, необходимых для игр нового поколения, социальных сетей и иммерсивных метавселенных.

Токеномика – Предложение, Полезность и Экономический Дизайн

Предложение и распределение: Нативный токен Somnia, SOMI, имеет фиксированное максимальное предложение в 1 000 000 000 токенов (1 миллиард). Постоянной инфляции нет — предложение ограничено, и токены были заранее распределены между различными заинтересованными сторонами с графиками вестинга. Распределение выглядит следующим образом:

Категория распределенияПроцентКоличество токеновГрафик выпуска
Команда11.0%110 000 0000% при запуске; 12-месячный клифф, затем вестинг в течение 48 месяцев.
Партнеры по запуску15.0%150 000 0000% при запуске; 12-месячный клифф, затем вестинг в течение 48 месяцев (включает ранних участников экосистемы, таких как Improbable).
Инвесторы (Seed)15.15%151 500 0000% при запуске; 12-месячный клифф, затем вестинг в течение 36 месяцев.
Советники3.58%35 800 0000% при запуске; 12-месячный клифф, затем вестинг в течение 36 месяцев.
Фонд экосистемы27.345%273 450 0005.075% разблокировано при запуске, остаток вестируется линейно в течение 48 месяцев. Используется для финансирования развития экосистемы и Somnia Foundation.
Сообщество и вознаграждения27.925%279 250 00010.945% разблокировано при запуске, плюс дополнительные выпуски через 1 и 2 месяца после запуска, затем вестинг линейно в течение 36 месяцев. Используется для стимулирования сообщества, аирдропов, ликвидности и вознаграждений за стейкинг валидаторов.
Всего100%1 000 000 000~16% в обращении при TGE (Token Generation Event), остаток вестируется в течение 3–4 лет.

При запуске мейннета (TGE в 3 квартале 2025 года) около 16% предложения поступило в обращение (в основном за счет первоначальных разблокировок из ассигнований Сообщества и Экосистемы). Большая часть токенов (команда, партнеры, инвесторы) заблокирована на первый год, а затем постепенно выпускается, что согласует стимулы для долгосрочного развития. Этот структурированный вестинг помогает предотвратить немедленные крупные распродажи и гарантирует, что фонд и основные участники со временем будут иметь ресурсы для развития сети.

Полезность токена: SOMI занимает центральное место в экосистеме Somnia и следует модели Delegated Proof of Stake (DPoS). Его основные применения включают:

  • Стейкинг и безопасность: Валидаторы должны застейкать 5 000 000 SOMI каждый, чтобы запустить узел и участвовать в консенсусе. Эта значительная доля (~0,5% от общего предложения на валидатора) обеспечивает экономическую безопасность; злоумышленники рискуют потерять свой залог. Somnia изначально нацелена на 100 валидаторов, что означает, что до 500 миллионов SOMI может быть застейкано для работы узлов (часть из которых может поступать от делегирования, см. ниже). Кроме того, делегаторы (любые держатели токенов) могут стейкать SOMI, делегируя их валидаторам, чтобы помочь им выполнить требование в 5 млн. Делегаторы получают долю вознаграждений взамен. Это открывает возможности для получения дохода от стейкинга для не-валидаторов и помогает децентрализовать стейк среди многих держателей токенов. Только застейканные токены (либо валидаторами, либо через делегирование) имеют право на сетевые вознаграждения — простое хранение токенов без стейкинга не приносит вознаграждений.
  • Комиссии за газ: Все ончейн-транзакции и выполнения смарт-контрактов требуют SOMI для комиссий за газ. Это означает, что каждое взаимодействие (переводы, минтинг, использование DApp) создает спрос на токен. Модель газа Somnia основана на Ethereum (те же определения единиц), но с корректировками и гораздо более низкими базовыми затратами. Как будет подробно описано далее, Somnia имеет комиссии менее цента и даже динамические скидки для DApp с большим объемом, но комиссии по-прежнему оплачиваются в SOMI. Таким образом, если сеть активно используется (например, популярная игра или социальное приложение), пользователям и разработчикам потребуется SOMI для совершения транзакций, что будет стимулировать полезность.
  • Вознаграждения валидаторам/делегаторам: Вознаграждения за блоки в Somnia поступают от комиссий за транзакции и из казначейства сообщества, а не от инфляции. В частности, 50% всех комиссий за газ распределяются между валидаторами (и их делегаторами) в качестве вознаграждений. Остальные 50% комиссий сжигаются (удаляются из обращения) в качестве дефляционного механизма. Это разделение комиссий (половина валидаторам, половина сжигается) напоминает модель EIP-1559 Ethereum, за исключением того, что в текущем дизайне Somnia это фиксированное разделение 50/50. На практике доходы валидаторов будут зависеть от объема комиссий сети — по мере роста использования растут и вознаграждения за комиссии. Чтобы обеспечить безопасность до того, как комиссии станут значительными, Somnia также имеет стимулы казначейства для валидаторов. Распределение сообщества включает токены, предназначенные для вознаграждений за стейкинг и ликвидности; фонд может распределять их по мере необходимости (вероятно, в качестве дополнений к доходу от стейкинга в первые годы). Важно отметить, что только застейканные токены приносят вознаграждения — это стимулирует активное участие и блокирует предложение. Делегаторы делят вознаграждения за комиссии выбранного ими валидатора пропорционально своей доле, за вычетом комиссии валидатора (каждый валидатор устанавливает «ставку делегирования», например, если она установлена на 80%, то 80% вознаграждений этого валидатора распределяются между делегатами). Somnia предлагает два варианта делегирования: делегирование в пул конкретного валидатора (с 28-дневным периодом разблокировки или немедленным экстренным анстейком со штрафом в 50%) или делегирование в общий пул, который автоматически распределяется между всеми недостейканными валидаторами (без периода блокировки, но, вероятно, с более низкой смешанной доходностью). Этот гибкий дизайн DPoS стимулирует держателей токенов обеспечивать безопасность сети за вознаграждения, предоставляя при этом легкий выход (общий пул) для тех, кто хочет ликвидности.
  • Управление: По мере развития Somnia, SOMI будет управлять сетевыми решениями. Держатели токенов в конечном итоге будут голосовать по предложениям, касающимся обновлений протокола, использования средств казначейства, экономических параметров и т. д. Проект предусматривает многогранное управление (см. «Управление токенами» ниже), где держатели SOMI («Палата токенов») в основном контролируют распределение средств фонда и сообщества, в то время как валидаторы, разработчики и пользователи имеют советы для принятия технических и политических решений. На раннем этапе мейннета управление в основном осуществляется Somnia Foundation (для гибкости и безопасности), но в течение 1–2 лет оно будет постепенно децентрализоваться до сообщества токенов и советов. Таким образом, владение SOMI будет давать влияние на направление развития экосистемы, делая его токеном управления в дополнение к утилитарному токену.

Дефляционные механизмы: Поскольку предложение фиксировано, Somnia полагается на сжигание комиссий для создания дефляционного давления. Как отмечалось, 50% каждой комиссии за газ сжигается навсегда. Это означает, что при высокой загрузке сети оборотное предложение SOMI будет уменьшаться со временем, потенциально увеличивая дефицит токенов. Например, если за месяц генерируется комиссий на 1 миллион SOMI, 500 тысяч SOMI будут уничтожены. Этот механизм сжигания может компенсировать разблокировки токенов или продажи и согласует долгосрочную стоимость токена с использованием сети (больше активности -> больше сжигания). Кроме того, Somnia в настоящее время не поддерживает пользовательские чаевые (приоритетные комиссии) при запуске — базовая модель комиссий достаточно эффективна при высокой пропускной способности, хотя они могут ввести чаевые позже, если возникнет перегрузка. При сверхнизких комиссиях сжигание на транзакцию крошечное, но в масштабе (миллиарды транзакций) оно накапливается. Таким образом, экономическая модель Somnia сочетает нулевую инфляцию, запланированные разблокировки и сжигание комиссий, стремясь к долгосрочной устойчивости. Если сеть достигнет массового объема, SOMI может стать дефляционным, принося пользу стейкерам и держателям по мере уменьшения предложения.

Основные особенности газовой модели: Ценообразование газа в Somnia в целом намного дешевле, чем в Ethereum, но с некоторыми новыми особенностями для справедливости и масштабируемости. Стоимость большинства опкодов скорректирована в сторону уменьшения (поскольку пропускная способность и эффективность Somnia выше) но стоимость хранения была перекалибрована в сторону увеличения за единицу (чтобы избежать злоупотреблений при низкой комиссии за газ). Две особенно примечательные функции, запланированные на 2025 год:

  • Динамические скидки за объем: Somnia вводит многоуровневую скидку на цену газа для аккаунтов или приложений, которые поддерживают высокое использование TPS. По сути, чем больше транзакций приложение или пользователь выполняет в час, тем ниже эффективная цена газа, которую они платят (до 90% скидки при ~400 TPS). Это ценообразование, основанное на объеме, призвано стимулировать крупномасштабные DApp работать на Somnia, значительно снижая их затраты в масштабе. Оно реализовано как ступенчато снижающаяся цена газа после превышения определенных пороговых значений TPS для каждого аккаунта (0,1, 1, 10, 100, 400 TPS и т. д.). Эта модель (ожидается к внедрению после запуска мейннета) вознаграждает проекты, которые приносят большую нагрузку, гарантируя, что Somnia остается доступной даже при работе с играми в реальном времени или социальными лентами с сотнями транзакций в секунду. Это необычный механизм (большинство цепочек имеют плоский рынок комиссий), что свидетельствует о приоритете Somnia в отношении массовых сценариев использования с высокой пропускной способностью.
  • Временное хранилище (Transient Storage): Somnia планирует предложить опции хранения с ограничением по времени, где разработчик может выбрать временное хранение данных в цепочке (на часы или дни) по гораздо более низкой стоимости газа, чем постоянное хранение. Например, ончейн-переменная, которая должна сохраняться только в течение часа (например, статус игрового лобби или эфемерная позиция игрока), может быть сохранена с ~90% меньшими затратами газа, чем обычная постоянная запись. График газа для 32-байтового SSTORE может составлять 20 тыс. газа для хранения в течение 1 часа против 200 тыс. для бессрочного хранения. Эта концепция «временного состояния» явно нацелена на игровые и развлекательные приложения, которые генерируют много временных данных (таблицы лидеров, состояние игры), которым не нужно жить вечно в цепочке. Предоставляя хранилище на основе истечения срока действия со скидками, Somnia может более эффективно поддерживать такие приложения в реальном времени. Реализация, вероятно, включает автоматическое удаление состояния после выбранной продолжительности (или перемещение его в отдельное хранилище), хотя детали будут представлены позже. Эта функция, в сочетании со сжатием Somnia, направлена на ончейн-игры, управляющие большими объемами обновлений состояния без раздувания цепочки или incurring огромных затрат.

В целом, токеномика Somnia соответствует ее цели — обеспечить работу Web3 в масштабе Web2. Большой начальный пул токенов финансировал разработку и рост экосистемы (с авторитетными спонсорами и длительными блокировками, сигнализирующими о приверженности), в то время как текущий экономический дизайн использует рыночные вознаграждения (через комиссии) и дефляцию для поддержания стоимости. Держатели SOMI стимулируются к стейкингу и участию, поскольку все сетевые преимущества (доход от комиссий, власть управления) достаются активным стейкерам. С ограниченным предложением и сжиганием, пропорциональным использованию, стоимость SOMI тесно связана с успехом сети: по мере присоединения большего числа пользователей и приложений спрос на токены (для газа и стейкинга) растет, а предложение уменьшается за счет сжигания, создавая обратную связь, поддерживающую долгосрочную устойчивость токена.

Экосистема и партнерства

Несмотря на запуск мейннета только в конце 2025 года, Somnia вышла на сцену с надежной экосистемой проектов и стратегических партнеров благодаря обширной фазе тестнета и поддержке тяжеловесов индустрии.

DApp и протоколы экосистемы: К моменту запуска мейннета более 70 проектов и DApp уже строились на Somnia или интегрировались с ней. Первоначальная экосистема сильно ориентирована на игровые и социальные приложения, что отражает целевой рынок Somnia — иммерсивные приложения реального времени. Среди примечательных проектов:

  • Sparkball: Флагманская Web3-игра на Somnia, Sparkball — это динамичная спортивная MOBA/файтинг 4 на 4, разработанная Opti Games. Она присоединилась к Somnia в качестве стартовой игры, представив ончейн-геймплей и командные активы на основе NFT. Sparkball демонстрирует способность Somnia обрабатывать быстрый подбор игроков и внутриигровые транзакции (например, минтинг/торговлю игроками или предметами) с незначительной задержкой.
  • Variance: Аниме-RPG в жанре roguelite с богатым сюжетом и без механики pay-to-win. Разработчики Variance (ветераны Pokémon GO и Axie Infinity) выбрали Somnia за ее способность обрабатывать крупномасштабные игровые экономики и транзакции дешево. После обсуждений с основателем Somnia команда убедилась, что Somnia понимает потребности разработчиков игр и видение Web3-гейминга. Variance перенесла свою внутриигровую логику токенов ($VOID) и NFT на Somnia, что позволило реализовать такие функции, как ончейн-дропы лута и активы, принадлежащие игрокам, в масштабе. Сообщество игры значительно выросло после объявления о переходе на Somnia. Variance проводила плейтесты и квесты сообщества на тестнете Somnia, демонстрируя многопользовательские ончейн-бои и награждая игроков NFT и токенами.
  • Maelstrom Rise: Морская королевская битва (подумайте о Fortnite на море) от Uprising Labs. Maelstrom предлагает морские сражения в реальном времени и интегрированную ончейн-экономику для улучшений и коллекционных предметов. Уже доступная вне цепочки (в Steam), Maelstrom переходит на Somnia, чтобы предоставить игрокам истинное владение боевыми кораблями и предметами. Это одна из наиболее доступных Web3-игр, цель которой — привлечь традиционных геймеров, сочетая знакомый геймплей с преимуществами блокчейна.
  • Dark Table CCG: Ончейн коллекционная карточная игра, поддерживающая до 4 игроков за матч. Она предлагает бесплатное создание колод, при этом все карты являются NFT, которыми игроки владеют и свободно торгуют. Dark Table использует Somnia для запуска кроссплатформенной карточной экономики без центральных серверов, позволяя игрокам по-настоящему владеть своими колодами. Она разработана как легкая для входа (для начала не требуется покупка криптовалюты) для привлечения как обычных, так и соревновательных карточных игроков в Web3.
  • Netherak Demons: Темное фэнтези action RPG, поддерживаемая акселератором Dream Catalyst от Somnia. Игроки настраивают персонажей-демонов и участвуют в PvE и PvP-сражениях в реальном времени, с коллекцией NFT, которая связана с игровым прогрессом. Netherak использует технологию Somnia, чтобы обеспечить постоянный прогресс персонажей в цепочке — достижения и добыча игроков записываются как активы, которыми они управляют, добавляя значимые ставки в игровой процесс.
  • Masks of the Void: Roguelite экшн-приключенческая игра с процедурно генерируемыми уровнями, также поддерживаемая Uprising Labs. Планировалось закрытое плейтестирование, где минтинг бесплатного NFT предоставляет ранний доступ, демонстрируя, как Somnia может интегрировать NFT-гейтинг для игрового контента. Masks of the Void делает акцент на реиграбельность и прогрессию, улучшенную блокчейном (например, мета-игровые награды, которые сохраняются от прохождения к прохождению в виде NFT).

Это лишь несколько примеров. Игровая экосистема Somnia охватывает множество жанров — от морских шутеров до карточных баттлеров и RPG — что указывает на широкую привлекательность платформы для разработчиков. Все эти игры используют ончейн-функции (владение предметами, токены для вознаграждений, NFT-персонажи и т. д.), которые требуют высокопроизводительной цепочки, чтобы быть приятными для игроков. Ранние результаты многообещающие: например, тестнет Somnia запустил полностью ончейн-демоверсию MMO-песочницы под названием «Chunked» (созданную Improbable), где тысячи игроков взаимодействовали в реальном времени, генерируя 250 миллионов транзакций за 5 дней — рекордная нагрузка, которая подтвердила возможности Somnia.

Помимо игр, первоначальная экосистема Somnia включает и другие Web3-домены:

  • Социальные сети и метавселенные: Somnia призвана обеспечить работу децентрализованных социальных сетей и виртуальных миров, хотя конкретные приложения находятся на ранней стадии. Однако намеки на социальные платформы присутствуют. Например, Somnia сотрудничала с Yuga Labs для интеграции NFT Otherside (из метавселенной Bored Ape Yacht Club) в мир Somnia, что позволяет использовать эти активы в иммерсивных впечатлениях. Мероприятия, управляемые сообществом, такие как «игровые события» BoredElon Musk’s Edison, проводились с использованием технологии Improbable в 2023 году, и Somnia готова полностью перенести такие метавселенные события в цепочку в будущем. Также существует приложение Somnia Metaverse Browser — по сути, настраиваемый Web3-браузер/кошелек, предназначенный для взаимодействия с виртуальным миром, что упрощает пользователям доступ к DApp и метавселенным в одном интерфейсе. По мере развития сети ожидается запуск социальных DApp (децентрализованных аналогов Twitter/Reddit, центров сообществ) и метавселенных на Somnia, использующих ее функции переносимости идентификации (Somnia нативно поддерживает открытые стандарты MSquared для совместимости аватаров и активов между мирами).
  • DeFi и другие: При запуске Somnia не была ориентирована в первую очередь на DeFi, но некоторая инфраструктура уже существует. Есть интеграции с оракулами цен, такими как DIA (для ончейн-потоков цен) и Chainlink VRF через адаптеры Protofire (для случайности в играх). Обсуждались некоторые варианты использования в стиле DeFi, такие как полностью ончейн-биржи с книгой ордеров (низкая задержка Somnia может позволить сопоставление ордеров в цепочке, аналогично централизованной бирже). Мы можем ожидать появления AMM или DEX (в документации даже есть руководство по созданию DEX на Somnia), а также, возможно, новых протоколов, сочетающих игры и финансы (например, кредитование NFT или токенизированные рынки игровых активов). Присутствие поставщиков кастодиальных услуг BitGo и Fireblocks в качестве партнеров также указывает на ориентацию на поддержку институциональных и финансовых вариантов использования (они обеспечивают безопасное хранение токенов для бирж и фондов). Кроме того, технология Somnia может поддерживать ИИ и приложения, интенсивно использующие данные (программа Dreamthon явно призывает к проектам в области ИИ и InfoFi), поэтому мы можем увидеть инновации, такие как децентрализованные ИИ-агенты или рынки данных в цепочке.

Стратегические партнерства: Somnia поддерживается впечатляющим списком партнеров и спонсоров:

  • Improbable и MSquared: Improbable — ведущая технологическая компания в области метавселенных — является основным партнером по разработке Somnia. Improbable фактически создала блокчейн Somnia по контракту для Somnia Foundation, внеся свой десятилетний опыт в области распределенных систем. MSquared (M²), инициатива по созданию сети метавселенных, поддерживаемая Improbable, также тесно вовлечена. Вместе Improbable и MSquared выделили до 270 миллионов долларов на поддержку развития экосистемы Somnia. Этот огромный инвестиционный пул (объявленный в начале 2025 года) частично поступил от привлечения M² 150 миллионов долларов в 2022 году (включая Andreessen Horowitz, SoftBank Vision Fund 2, Mirana и других инвесторов) и 120 миллионов долларов от венчурных ассигнований Improbable. Финансирование поддерживает гранты, маркетинг и привлечение проектов. Участие Improbable также приносит технические интеграции: Somnia разработана для работы с технологией Morpheus от Improbable для массовых виртуальных событий. В 2023 году Improbable обеспечила работу виртуальных мероприятий, таких как Virtual Ballpark MLB и K-pop концерты с десятками тысяч одновременных пользователей — эти пользователи вскоре могут быть привлечены в Somnia, чтобы взаимодействия на мероприятиях приносили ончейн-активы или токены. Improbable и MSquared по сути гарантируют, что Somnia имеет как финансовую поддержку, так и реальные сценарии использования (события метавселенной, игры) для быстрого старта внедрения.
  • Инфраструктура и Web3-сервисы: Somnia с первого дня интегрировалась со многими крупными поставщиками блокчейн-услуг:
    • OpenSea: Крупнейший в мире рынок NFT интегрирован с Somnia, что означает, что NFT на основе Somnia могут торговаться на OpenSea. Это большая победа для разработчиков игр на Somnia — их внутриигровые NFT (персонажи, скины и т. д.) имеют немедленную ликвидность и видимость на популярном рынке.
    • LayerZero: Somnia подключена к другим цепочкам через протокол Stargate от LayerZero, что обеспечивает омничейн-переводы активов и мосты. Например, пользователи могут легко переводить USDC или другие стейблкоины из Ethereum в Somnia через Stargate. Эта интероперабельность имеет решающее значение для привлечения ликвидности в экосистему Somnia.
    • Ankr: Ankr предоставляет RPC-узлы и глобальную инфраструктуру узлов. Вероятно, он используется для предоставления публичных RPC-конечных точек, хостинга узлов и API-сервисов для Somnia, что упрощает разработчикам доступ к сети без запуска собственных полных узлов.
    • Sequence (Horizon): Sequence — это смарт-контрактный кошелек и платформа для разработчиков, адаптированная для игр (от Horizon). Интеграция с Sequence предполагает, что Somnia может использовать функции смарт-кошелька (например, абстракции газа, вход с помощью электронной почты/социальных сетей) для привлечения массовых пользователей. Многоцепочечный кошелек Sequence, вероятно, добавил поддержку Somnia, чтобы игроки могли подписывать транзакции с помощью удобного интерфейса.
    • Thirdweb: SDK и инструменты Thirdweb полностью совместимы с Somnia. Thirdweb предоставляет готовые модули для NFT-дропов, маркетплейсов, токенов и особенно абстракции аккаунтов. Действительно, в документации Somnia есть руководства по бесплатным транзакциям и абстракции аккаунтов через Thirdweb. Это партнерство означает, что разработчики на Somnia могут быстро создавать DApp, используя библиотеки Thirdweb, а пользователи могут пользоваться такими функциями, как вход без кошелька в один клик (комиссии за газ спонсируются DApp и т. д.).
    • DIA и оракулы: DIA — децентрализованный поставщик оракулов; Somnia использует потоки цен DIA для DeFi или данных внутриигровой экономики. Кроме того, Somnia работала с Protofire над адаптацией Chainlink VRF (проверяемой случайной функции) для генерации случайных чисел в смарт-контрактах Somnia. Это гарантирует, что игры могут получать безопасную случайность (для дропов лута и т. д.). Мы можем ожидать дальнейших интеграций оракулов (возможно, полных потоков цен Chainlink в будущем) по мере необходимости для DeFi-проектов.
  • Облачные и корпоративные партнеры: Google Cloud не только инвестировал, но и управляет валидатором, обеспечивая доверие и опыт в области облачной инфраструктуры. Активное участие облачного подразделения технологического гиганта в валидации сети помогает обеспечить надежность и открывает двери для корпоративного сотрудничества (например, Google Cloud может предлагать услуги узлов блокчейна для Somnia или включать Somnia в свой маркетплейс). Также были партнерства с Fireblocks и BitGo — это ведущие поставщики услуг по хранению цифровых активов и кошельков. Их участие означает, что биржи и учреждения могут безопасно хранить SOMI и активы на основе Somnia с первого дня, что облегчает путь для листинга SOMI и институционального принятия. Действительно, вскоре после запуска мейннета Binance разместила SOMI и представила его в рекламной кампании аирдропов, вероятно, благодаря такой готовности к хранению.
  • Программы роста экосистемы: Somnia Foundation учредил программу грантов в размере 10 миллионов долларов для финансирования разработчиков, создающих на Somnia. Эта программа грантов была запущена одновременно с мейннетом для стимулирования разработки инструментов, DApp, исследований и инициатив сообщества. Ее дополняет Dream Catalyst, акселератор Somnia специально для стартапов в области Web3-игр. Dream Catalyst (работает с Uprising Labs) предоставляет финансирование, кредиты на инфраструктуру, наставничество и поддержку выхода на рынок игровым студиям, которые строят на Somnia. По крайней мере полдюжины игр (таких как Netherak Demons и другие) были частью первой когорты Dream Catalyst, получив часть этого фонда в 10 миллионов долларов. Также существует Dreamthon, предстоящая программа акселерации для других вертикалей — с акцентом на проекты DeFi, AI, «InfoFi» (информационные рынки) и SocialFi в экосистеме Somnia. Кроме того, Somnia организовывала онлайн-хакатоны и квесты на протяжении всего тестнета: например, 60-дневное мероприятие Somnia Odyssey вознаграждало пользователей за выполнение заданий и, вероятно, завершилось аирдропом. Ранние пользователи могли зарабатывать «баллы» и NFT за тестирование DApp (программа баллов), а мини-хакатоны планируются для постоянного вовлечения разработчиков. Этот многосторонний подход — гранты, акселераторы, хакатоны, квесты сообщества — демонстрирует твердую приверженность Somnia быстрому созданию динамичной экосистемы, снижая барьеры и финансируя экспериментаторов.

В итоге, Somnia запустилась не изолированно, а при поддержке мощного альянса технологических компаний, инвесторов и поставщиков услуг. Поддержка Improbable обеспечивает ей передовые технологии и поток массовых виртуальных событий. Партнерства с такими компаниями, как Google Cloud, Binance, LayerZero, OpenSea и другими, гарантируют, что Somnia с самого начала подключена к более широкой криптоинфраструктуре, повышая ее привлекательность для разработчиков (которым нужны надежные инструменты и ликвидность) и для пользователей (которые требуют простого бриджинга и торговли активами). Тем временем, множество Web3-игр — Sparkball, Variance, Maelstrom и другие — активно строятся на Somnia, стремясь стать первой волной полностью ончейн-развлечений, демонстрирующих возможности сети. С десятками проектов, запущенных или находящихся в разработке, экосистема Somnia на момент запуска мейннета уже была богаче, чем у некоторых цепочек спустя годы после запуска. Этот сильный импульс, вероятно, будет расти по мере того, как гранты и партнерства продолжат приносить плоды, потенциально позиционируя Somnia как центральный хаб для ончейн-игр и приложений метавселенной в ближайшие годы.

Инфраструктура для разработчиков и пользователей

Somnia была создана для удобства разработчиков и для привлечения потенциально миллионов пользователей, которые могут быть не знакомы с криптовалютами. Будучи EVM-совместимой цепочкой, она поддерживает привычный набор инструментов Ethereum из коробки, а также предлагает пользовательские SDK и сервисы для улучшения опыта разработчиков и процесса привлечения пользователей.

Инструменты для разработчиков и совместимость: Somnia поддерживает полную совместимость с Ethereum Virtual Machine, что означает, что разработчики могут писать смарт-контракты на Solidity или Vyper и развертывать их с минимальными изменениями. Сеть поддерживает стандартные RPC-интерфейсы Ethereum и идентификатор цепочки, поэтому такие инструменты, как Hardhat, Truffle, Foundry, и библиотеки, такие как Web3.js или ethers.js, работают без проблем (в документации Somnia даже есть конкретные инструкции по развертыванию с помощью Hardhat и Foundry). Это значительно снижает кривую обучения — любой разработчик Solidity может стать разработчиком Somnia, не изучая новый язык или VM.

Для ускорения разработки и тестирования Somnia запустила интерактивную среду Playground. Playground позволяет командам (особенно игровым/метавселенным командам) прототипировать ончейн-логику с минимальными усилиями, используя шаблоны для NFT, мини-игр, социальных токенов и т. д. Вероятно, он предоставляет песочницу или портал для разработчиков для быстрых итераций. Кроме того, документация Somnia на GitBook является исчерпывающей, охватывая все: от развертывания контрактов до использования расширенных функций (таких как API Ormi, см. ниже).

SDK и API Somnia: Признавая, что эффективный запрос ончейн-данных так же важен, как и написание контрактов, Somnia сотрудничала с Ormi Labs для предоставления надежных услуг индексации данных и API. Ormi — это, по сути, ответ Somnia на The Graph: он предлагает подграфы и GraphQL API для индексации событий контрактов и состояния. Разработчики могут создавать пользовательские подграфы для своих DApp (например, для индексации всех NFT игровых предметов или социальных постов) через Ormi, а затем легко запрашивать эти данные. API данных Ormi предоставляют структурированные ончейн-данные с высокой доступностью, поэтому фронтенд-приложениям не нужно запускать свои собственные узлы индексатора. Это значительно упрощает создание богатых пользовательских интерфейсов на Somnia. Somnia проводила Codelabs и учебные пособия, демонстрирующие, как создавать пользовательские интерфейсы DApp с помощью конечных точек GraphQL Ormi, что указывает на сильную поддержку этого инструментария. Короче говоря, Somnia обеспечивает первоклассную поддержку индексации, что крайне важно для таких вещей, как таблицы лидеров в играх или ленты в социальных приложениях — данные, которые необходимо быстро фильтровать и извлекать.

В дополнение к Ormi, на странице инфраструктуры Somnia перечислены несколько публичных RPC-конечных точек и служб эксплорера:

  • RPC-конечные точки от провайдеров, таких как Ankr (для публичного доступа к сети).
  • Блокчейн-эксплореры: Похоже, у Somnia был эксплорер тестнета («Shannon») и, предположительно, эксплорер мейннета для отслеживания транзакций и аккаунтов. Эксплореры жизненно важны для разработчиков и пользователей для отладки транзакций и проверки ончейн-активности.
  • Safes (Мультисиг): В документации упоминаются «Safes», вероятно, интеграция с Safe (ранее Gnosis Safe) для мультиподписных кошельков. Это означает, что DAO или игровые студии на Somnia могут использовать безопасные мультисиг-кошельки для управления своим казначейством или внутриигровыми активами. Интеграция Safe — еще один элемент инфраструктуры, который делает Somnia готовой для предприятий и DAO.
  • Адаптеры кошельков: Поддерживается множество популярных Web3-кошельков. MetaMask может подключаться к Somnia, настроив RPC сети (документация ведет пользователей через добавление сети Somnia в MetaMask). Для более удобного пользовательского опыта Somnia работала с RainbowKit и ConnectKit (библиотеки React для подключения кошельков), гарантируя, что разработчики DApp могут легко позволить пользователям подключаться с помощью различных кошельков. Также есть руководство по использованию Privy (решение для кошельков, ориентированное на удобный вход).
  • Абстракция аккаунтов: Через SDK Thirdweb Somnia поддерживает функции абстракции аккаунтов. Например, Smart Wallet или SDK абстракции аккаунтов Thirdweb могут использоваться на Somnia, обеспечивая мета-транзакции (газлесс UX) или кошельки для входа через социальные сети. В документации явно описаны бесплатные транзакции с Thirdweb, что означает, что DApp могут оплачивать газ от имени пользователей — критически важная возможность для массового внедрения, поскольку конечным пользователям может даже не потребоваться держать SOMI для начала игры.

Привлечение пользователей и вовлечение сообщества: Команда Somnia активно работает над развитием сообщества как разработчиков, так и конечных пользователей:

  • Discord Somnia является центральным хабом для разработчиков (с выделенным чатом для разработчиков и поддержкой от основной команды). Во время тестнета разработчики могли запрашивать тестовые токены (STT) через Discord для развертывания и тестирования своих контрактов. Этот прямой канал поддержки помог привлечь множество проектов.
  • Для конечных пользователей Somnia организовала такие мероприятия, как Somnia Quest и Somnia Odyssey. Quest была кампанией в июне 2025 года, где пользователи выполняли социальные и тестовые задания (например, подписывались на X, присоединялись к Discord, пробовали DApp), чтобы заработать награды и подняться в таблице лидеров. Odyssey (упомянутая в блоге от 9 сентября 2025 года) была 60-дневным приключением, вероятно, предшествующим мейннету, где пользователи, которые постоянно взаимодействовали с тестовыми приложениями или узнавали о Somnia, могли разблокировать аирдроп. Действительно, HODLer Airdrop от Binance 1 сентября 2025 года распределил 30 миллионов SOMI (3% от предложения) среди пользователей Binance, которые соответствовали определенным критериям. Это было крупное событие по привлечению пользователей, фактически предоставившее тысячам криптопользователей долю в Somnia и стимул попробовать сеть. Аирдроп и различные квесты помогли Somnia создать первоначальную базу пользователей и присутствие в социальных сетях (Twitter Somnia — теперь X — и другие каналы быстро росли).
  • Браузер метавселенной: Как упоминалось, Somnia представила специализированное приложение Metaverse Browser. Вероятно, это служит удобным шлюзом, где пользователь может создать кошелек, просматривать DApp Somnia и беспрепятственно участвовать в виртуальных событиях. Он имеет встроенный Web3-кошелек и простой интерфейс для доступа к DApp. Такой курируемый опыт может облегчить некриптопользователям вход в блокчейн (например, геймер может загрузить браузер Somnia и присоединиться к виртуальному концерту, где браузер будет обрабатывать создание кошелька и транзакции токенов «под капотом»).
  • Программы акселерации для разработчиков: Мы рассмотрели Dream Catalyst и Dreamthon в разделе экосистемы, но с точки зрения инфраструктуры для разработчиков эти программы также гарантируют, что новые разработчики получают руководство и ресурсы. Dream Catalyst предоставлял не только финансирование, но и инструменты инфраструктуры и поддержку в создании сообщества. Это означает, что участвующие команды, вероятно, получили помощь в интеграции SDK Somnia, оптимизации своих контрактов для архитектуры Somnia и т. д.

Что касается документации и ресурсов:

  • Somnia предлагает Lightpaper и OnePager для быстрого обзора (ссылки на них есть на их сайте) и более подробный Litepaper/whitepaper в документации (раздел «Концепции», на который мы ссылались, служит этой цели).
  • У них есть примеры репозиториев и шаблоны кода (например, как создать DEX, как использовать подграфы, как интегрировать кошельки — все это предоставлено в их официальном GitBook). Предоставляя их, Somnia снижает барьер входа для разработчиков из других цепочек, которые хотят быстро запустить что-то.
  • Аудиты: В документации упоминается раздел «Аудиты», что подразумевает, что код Somnia прошел сторонние аудиты безопасности. Хотя детали не представлены в наших источниках, это важная инфраструктура — обеспечение аудита программного обеспечения узлов и ключевых контрактов (таких как контракты стейкинга или токенов) для защиты разработчиков и пользователей.

В целом, инфраструктура для разработчиков Somnia выглядит хорошо продуманной: совместимость с EVM для привычности, дополненная пользовательскими API данных, встроенной абстракцией аккаунтов и сильной поддержкой разработчиков. Для пользователей сочетание сверхнизких комиссий, возможных бесплатных транзакций и специализированных приложений (Metaverse Browser, квесты и т. д.) направлено на обеспечение пользовательского опыта уровня Web2 на платформе Web3. Ранний акцент Somnia на вовлечении сообщества (аирдропы, квесты) демонстрирует менталитет роста — засевание сети контентом и пользователями, чтобы у разработчиков была причина строить, и наоборот. По мере роста Somnia мы можем ожидать еще более совершенных SDK (возможно, плагинов для Unity/Unreal для разработчиков игр) и постоянных улучшений пользовательских кошельков (возможно, нативных мобильных кошельков или входов через социальные сети). Значительное финансирование фонда гарантирует, что как разработчики, так и пользователи будут обеспечены инструментами, необходимыми для процветания на Somnia.

Варианты использования и приложения

Somnia специально создана для нового класса децентрализованных приложений, которые ранее были невозможны из-за ограничений блокчейна. Ее высокая пропускная способность и низкая задержка открывают двери для полностью ончейн-опыта в реальном времени в различных областях:

  • Игры (GameFi): Это основное направление Somnia. С Somnia разработчики могут создавать игры, где каждое игровое действие (движение, бой, выпадение предметов, торговля) может быть записано или выполнено в цепочке в реальном времени. Это означает истинное владение внутриигровыми активами — игроки хранят своих персонажей, скины, карты или добычу в виде NFT/токенов в своих собственных кошельках, а не в базе данных игровой компании. Целые игровые экономики могут работать в цепочке, обеспечивая такие функции, как вознаграждения play-to-earn, торговля между игроками без посредников и модификации игр, управляемые сообществом. Что особенно важно, пропускная способность Somnia (1M+ TPS) и быстрая завершенность делают ончейн-игры отзывчивыми. Например, экшн-RPG на Somnia может выполнять тысячи действий игрока в секунду без задержек, или карточная торговая игра может иметь мгновенные ходы и перетасовки в цепочке. Абстракция аккаунтов и низкие комиссии Somnia также позволяют играм потенциально покрывать газ для игроков, делая опыт бесшовным (игроки могут даже не осознавать, что под капотом работает блокчейн). Платформа специально предусматривает «полностью ончейн-игры в масштабе интернета» — постоянные виртуальные миры или MMO, где состояние игры живет на Somnia и продолжает существовать до тех пор, пока сообщество поддерживает его. Поскольку активы находятся в цепочке, игра на Somnia может даже продолжать развиваться под контролем сообщества, если первоначальный разработчик уйдет — концепция, невозможная в Web2. Текущие примеры: Sparkball демонстрирует ончейн-многопользовательский спортивный файтинг; Chunked (техническая демонстрация Improbable) показала песочницу, похожую на Minecraft, полностью в цепочке с реальными взаимодействиями пользователей; Variance и Maelstrom покажут, как более богатые RPG и королевские битвы переносятся в блокчейн. Конечная цель — игры, где сотни тысяч игроков играют одновременно в общем ончейн-мире — то, с чем Somnia уникально способна справиться.
  • Социальные сети и Web3-социальные медиа: С Somnia можно было бы создать децентрализованную социальную платформу, где профили пользователей, посты, подписчики и лайки — это все ончейн-данные под контролем пользователя. Например, DApp, похожее на Twitter, на Somnia может хранить каждый твит как ончейн-сообщение NFT, а каждое отслеживание — как ончейн-отношение. В такой сети пользователи по-настоящему владеют своим контентом и социальным графом, которые можно легко переносить в другие приложения. Масштаб Somnia означает, что социальная лента может обрабатывать вирусную активность (миллионы постов и комментариев) без сбоев. А завершенность за доли секунды означает, что взаимодействия (публикация, комментирование) появляются почти мгновенно, как пользователи ожидают в Web2. Одним из преимуществ ончейн-социальных сетей является устойчивость к цензуре — ни одна компания не может удалить ваш контент или заблокировать ваш аккаунт — и переносимость данных — вы можете перейти на другой фронтенд или клиент и сохранить своих подписчиков/контент, потому что он находится в публичном реестре. Команда Somnia явно упоминает децентрализованные социальные сети, построенные на самосуверенной идентичности и переносимых социальных графах, как основной вариант использования. Они также предвидят управление пользовательскими ассамблеями, где ключевые пользователи имеют право голоса (это может быть связано с тем, как социальные сети модерируют контент децентрализованным способом). Конкретный ранний пример — это, вероятно, форумы сообщества внутри игр — например, игра на Somnia может иметь ончейн-чат гильдии или доску объявлений, которая децентрализована. Но в долгосрочной перспективе Somnia может стать хостом полноценных альтернатив Facebook или Twitter, особенно для сообществ, которые ценят свободу и владение. Еще один интересный аспект — это платформы, принадлежащие создателям: представьте сервис, похожий на YouTube, на Somnia, где видео-NFT представляют контент, а создатели зарабатывают напрямую через микротранзакции или токенизированное вовлечение. Пропускная способность Somnia может обрабатывать метаданные и взаимодействия (хотя хранение видео будет вне цепочки), а ее дешевые транзакции позволяют осуществлять микро-чаевые и токенизированные вознаграждения за создание контента.
  • Метавселенная и виртуальные миры: Somnia предоставляет инфраструктуру идентификации и экономики для метавселенных. На практике это означает, что платформы виртуальных миров могут использовать Somnia для идентификации аватаров, кросс-мировых активов и транзакций в виртуальных мирах. Открытые стандарты MSquared для аватаров/активов поддерживаются на Somnia, поэтому 3D-аватар пользователя или цифровые модные предметы могут быть представлены в виде токенов на Somnia и перенесены между различными мирами. Например, у вас может быть один NFT-аватар, который вы используете на виртуальном концерте, спортивной встрече и в игре — все на платформах на базе Somnia. Поскольку Improbable организует массовые мероприятия (такие как виртуальные спортивные трансляции, музыкальные фестивали и т. д.), Somnia может обрабатывать экономический уровень: минтинг POAP (токенов подтверждения посещения), продажу виртуальных товаров в виде NFT, вознаграждение участников токенами и разрешение одноранговой торговли в реальном времени во время мероприятий. Способность Somnia поддерживать десятки тысяч одновременных пользователей в одном общем состоянии (через консенсус MultiStream) имеет решающее значение для сценариев метавселенной, где большая толпа может совершать транзакции или взаимодействовать одновременно. Виртуальный бейсбольный стадион MLB и K-pop мероприятия в 2023 году (до Somnia) привлекли тысячи пользователей; с Somnia эти пользователи могли бы иметь кошельки и активы, что позволило бы, например, проводить живой NFT-дроп для всех на «стадионе» или табло с токенами в реальном времени для участия в мероприятиях. По сути, Somnia может стать основой постоянной, интероперабельной экономики метавселенной: представьте ее как реестр, который записывает, кто чем владеет во многих взаимосвязанных виртуальных мирах. Это поддерживает такие варианты использования, как виртуальная недвижимость (NFT-земля), которую можно торговать или использовать в качестве залога, кросс-мировые награды за квесты (выполните задание в игре A, получите предмет, используемый в мире B), или даже репутация личности (ончейн-записи достижений или учетных данных пользователя на разных платформах).
  • Децентрализованные финансы (DeFi): Хотя Somnia в основном позиционируется как цепочка для потребительских приложений, ее высокая производительность открывает некоторые интригующие возможности DeFi. Во-первых, Somnia может размещать высокочастотную торговлю и сложные финансовые инструменты в цепочке. Команда специально упоминает полностью ончейн-книги лимитных ордеров. В Ethereum биржи с книгой ордеров непрактичны (слишком медленно/дорого), поэтому DeFi использует AMM. Но на Somnia DEX может поддерживать смарт-контракт книги ордеров и сопоставлять ордера в реальном времени, как централизованная биржа, потому что цепочка может обрабатывать тысячи операций в секунду. Это может принести функциональность и ликвидность, похожие на CEX, в цепочку с прозрачностью и самостоятельным хранением. Другая область — управление рисками в реальном времени: скорость Somnia может позволить ончейн-деривативы, которые обновляют требования к марже каждую секунду, или живые книги ордеров опционов. Более того, с функцией временного хранения Somnia может поддерживать такие вещи, как эфемерные страховые контракты или потоковые платежи, которые существуют только в течение короткого периода. Протоколы DeFi на Somnia также могут использовать ее детерминированный газ для более предсказуемых затрат. Например, платформа микрозаймов на Somnia могла бы обрабатывать крошечные транзакции (например, платежи по процентам в размере $0,01 каждую минуту), потому что комиссии составляют доли цента. Таким образом, Somnia могла бы обеспечить работу Web3-микротранзакций и потоковых платежей в DeFi и за его пределами (то, что Ethereum не может экономически делать в масштабе). Кроме того, способность Somnia сжимать данные и агрегировать подписи может позволить объединять тысячи переводов или сделок в один блок, что еще больше увеличивает пропускную способность для вариантов использования DeFi, таких как аирдропы или массовые выплаты. Хотя DeFi не является основным маркетинговым фокусом, эффективная финансовая экосистема, вероятно, появится на Somnia для поддержки игр и метавселенных (например, DEX для игровых токенов, рынки кредитования для NFT и т. д.). Мы можем увидеть специализированные протоколы, например, биржу фракционирования NFT, где игровые предметы могут торговаться по частям — Somnia может справиться с резким спросом, если популярный предмет внезапно вырастет в цене.
  • Идентификация и учетные данные: Сочетание самосуверенной идентификации и высокой пропускной способности Somnia позволяет создавать ончейн-системы идентификации, которые могут использоваться для аутентификации, репутации и учетных данных в Web3. Например, пользователь может иметь NFT-идентификатор или soulbound-токен на Somnia, который подтверждает его достижения (например, «выполнил X игровых квестов» или «посетил Y событий» или даже офчейн-учетные данные, такие как дипломы или членство). Их можно использовать в нескольких приложениях. Переносимый социальный граф пользователя — кто его друзья, к каким сообществам он принадлежит — может храниться на Somnia и переноситься из одной игры или социальной платформы в другую. Это мощный инструмент для разрушения разрозненности Web2: представьте, что вы меняете социальное приложение, но сохраняете своих подписчиков, или игровой профиль, который переносит вашу историю в новые игры (возможно, принося вам ветеранские привилегии). С моделью управления Somnia, включающей Ассамблею пользователей (ключевые пользователи, осуществляющие надзор), мы также можем увидеть управление на основе идентификации, где пользователи с доказанным участием получают большее право голоса в определенных решениях (все это обеспечивается в цепочке через эти учетные данные). Еще один вариант использования — это экономика создателей контента: представьте сервис, похожий на YouTube, на Somnia, где видео-NFT представляют контент, а создатели зарабатывают напрямую через микротранзакции или токенизированное вовлечение. Поскольку Somnia может обрабатывать большие объемы, популярный создатель с миллионами поклонников мог бы раздавать им значки или обрабатывать микро-чаевые в реальном времени во время прямой трансляции.
  • Веб-сервисы в реальном времени: В широком смысле Somnia может выступать в качестве децентрализованного бэкенда для сервисов, требующих мгновенных ответов. Рассмотрим децентрализованное приложение для обмена сообщениями, где сообщения являются событиями в цепочке — с завершенностью за доли секунды два пользователя могли бы общаться через Somnia и видеть сообщения, появляющиеся почти мгновенно и неизменно (возможно, с шифрованием контента, но с временными метками и доказательствами в цепочке). Или онлайн-маркетплейс, где заказы и объявления являются смарт-контрактами — Somnia могла бы обновлять инвентарь и продажи в реальном времени, предотвращая двойные траты предметов и обеспечивая атомарные обмены товаров на оплату. Даже потоковые платформы могли бы интегрировать блокчейн для прав управления: например, музыкальный потоковый сервис на Somnia мог бы управлять количеством прослушиваний песен и микроплатежами лицензий артистам каждые несколько секунд воспроизведения (поскольку он может обрабатывать высокочастотные небольшие транзакции). По сути, Somnia обеспечивает интерактивность уровня Web2 с доверием и владением Web3. Любое приложение, где многие пользователи взаимодействуют одновременно (аукционы, многопользовательские инструменты для совместной работы, живые потоки данных), может быть децентрализовано на Somnia без ущерба для производительности.

Текущий статус вариантов использования: По состоянию на конец 2025 года наиболее ощутимые варианты использования, реализованные на Somnia, вращаются вокруг игр и коллекционных предметов — несколько игр находятся на стадии тестирования или раннего доступа в мейннете, и коллекции NFT (аватары, игровые активы) минтятся на Somnia. Сеть успешно провела крупные тестовые мероприятия (миллиарды транзакций в тестнете, крупномасштабные демонстрации), доказывая, что эти варианты использования не просто теоретические. Следующий шаг — превращение этих тестов в непрерывные живые приложения с реальными пользователями. Ранние пользователи, такие как Sparkball и Variance, станут важными лакмусовыми бумажками: если они смогут привлечь тысячи ежедневных игроков на Somnia, мы увидим, как цепочка по-настоящему проявит свои возможности и, возможно, привлечет еще больше разработчиков игр.

Потенциальные будущие приложения интересно рассмотреть. Например, проекты национального или корпоративного масштаба: правительство могло бы использовать Somnia для выдачи цифрового удостоверения личности или проведения выборов в цепочке (миллионы голосов за секунды, с прозрачностью), или фондовая биржа могла бы использовать ее для торговли токенизированными ценными бумагами с высокой частотой. Часть InfoFi, упомянутая для Dreamthon, намекает на такие вещи, как децентрализованный Reddit или рынки предсказаний (огромное количество небольших ставок и голосов), которые Somnia могла бы обеспечить.

В итоге, варианты использования Somnia охватывают игры, социальные сети, метавселенные, DeFi, идентификацию и многое другое, все они связаны общей нитью: масштабные транзакции в реальном времени с полным ончейн-доверием. Она стремится перенести опыт, обычно предназначенный для централизованных серверов, в децентрализованную сферу. Если Ethereum стал пионером децентрализованных финансов, амбиция Somnia — стать пионером децентрализованной жизни — от развлечений до социальных связей — наконец-то обеспечив производительность, необходимую для массовых приложений. По мере развития сети мы, вероятно, увидим новые инновации, которые используют ее уникальные функции (например, игры, использующие временное состояние для симуляции физики, или социальные приложения, использующие потоковое сжатие для обработки миллионов крошечных действий). Следующие год или два покажут, какие из этих потенциальных приложений наберут обороты и подтвердят обещания Somnia в реальных условиях.

Конкурентная среда

Somnia выходит на переполненную арену Layer-1, но выделяется своей экстремальной пропускной способностью и ориентацией на полностью ончейн-потребительские приложения. Вот как Somnia сравнивается с некоторыми другими известными блокчейнами L1:

АспектSomnia (SOMI)Ethereum (ETH)Solana (SOL)Avalanche (AVAX)Sui (SUI)
Запуск (Мейннет)2025 (3 квартал) – новый участник, поддерживаемый Improbable2015 (лидер, теперь экосистема L1 + L2)2020 (высокопроизводительный монолитный L1)2020 (многоцепочечная платформа: P-Chain, C-Chain, подсети)2023 (L1 на основе Move)
Механизм консенсусаMultiStream PoS-BFT: Множество параллельных цепочек валидаторов + цепочка консенсуса PBFT (вдохновленная Autobahn). PoS с ~100 валидаторами.Proof-of-Stake + консенсус Накамото (Gasper): ~700 тыс. валидаторов (без разрешений). Блоки каждые ~12 сек, финализация за ~2 эпохи (≈12 мин) в текущем виде.Tower BFT PoS с использованием Proof-of-History для синхронизации. ~2200 валидаторов. Ротирующийся лидер, параллельная обработка блоков.Консенсус Snowman (Avalanche) на P-Chain, с безлидерной повторяющейся выборкой. ~1000 валидаторов. C-Chain использует PoS-консенсус, похожий на Ethereum (Snowman). Подсети могут использовать пользовательские консенсусы.DAG-консенсус Narwhal & Bullshark на основе PoS с мгновенной ротацией лидера. ~100 валидаторов (набор без разрешений, растущий). Использует Move VM.
Пропускная способность1 000 000+ TPS продемонстрировано в тестах (1,05 млн ERC-20 транзакций/сек на 100 узлах). Стремится к масштабу интернета (миллион+ TPS устойчиво).~15–30 TPS в мейннете L1. Масштабируется через L2-роллапы (теоретически неограниченно, но каждый роллап отделен).~2 000–3 000 TPS обычно; протестировано до ~50 тыс. TPS в тестнете (теоретически 65 тыс.+ TPS). Высокопараллельно для непересекающихся транзакций.~4 500 TPS на C-Chain (EVM) в идеальных условиях. Подсети позволяют горизонтальное масштабирование путем добавления большего количества цепочек.~20 000+ TPS в тестировании (Sui devnet достиг 297 тыс. TPS в одном бенчмарке). Реальная TPS ниже (сотни до нескольких тысяч). Использует параллельное выполнение для независимых транзакций.
Завершенность транзакций~0,1–0,5 секунды (детерминированная завершенность за доли секунды). По сути, в реальном времени.Время блока ~12 секунд, ~6-12 минут для вероятностной завершенности (с PoS, окончательно после ~2 эпох). Будущие обновления (Danksharding/настройки PoS) могут сократить время.Среднее время блока ~0,4 секунды. Завершенность обычно в течение ~1-2 секунд (блоки Solana финализируются быстро, за исключением форков).~1–2 секунды до завершенности на C-Chain (консенсус Avalanche обеспечивает быструю завершенность). Завершенность подсети может варьироваться, но обычно 1-3 секунды.~1 секунда типичной завершенности (консенсус Sui финализирует транзакции очень быстро в оптимистично хороших сетевых условиях).
Модель масштабируемостиВертикальное масштабирование (scale-up) + параллельные потоки: Единая цепочка с массивной пропускной способностью за счет оптимизированного выполнения + многолидерный консенсус. Шардинг не требуется; одно глобальное состояние. Планируется добавлять валидаторов по мере развития технологии.Масштабирование Layer-2 и шардинг (в будущем): Сам Ethereum остается децентрализованным, но с низкой TPS; масштабируется через роллапы (Arbitrum, Optimism и т. д.) поверх. Шардинг в дорожной карте (Danksharding) для умеренного увеличения пропускной способности L1.Монолитная цепочка: Все состояние в одной цепочке. Полагается на высокую производительность узлов и параллельное выполнение. Без шардинга (Solana жертвует некоторой децентрализацией ради чистой TPS).Подсети и несколько цепочек: P-Chain Avalanche управляет валидаторами; C-Chain (EVM) — одна цепочка (~4,5 тыс. TPS). Дополнительные подсети могут быть запущены для новых приложений, каждая со своей пропускной способностью. Таким образом, масштабируется горизонтально путем добавления большего количества цепочек (но каждая подсеть имеет отдельное состояние).Многопоточное выполнение: Sui использует объектное выполнение для распараллеливания транзакций. Как и Solana, единая цепочка, где пропускная способность достигается за счет параллелизма и высоких требований к оборудованию. Без шардинга; одно глобальное состояние (с внутренним разделением объектов).
Программирование и VMEVM-совместимый (Solidity, Vyper). Смарт-контракты компилируются в x86 для производительности. Поддерживает все инструменты Ethereum.EVM (Solidity, Vyper) в мейннете. Огромная зрелая экосистема инструментов и фреймворков для разработчиков.Пользовательская VM (называется Sealevel) с использованием Rust или C/C++. Не EVM-совместима. Использует LLVM для BPF-байтода. Более крутая кривая обучения (Rust), но высокая производительность.Несколько VM: По умолчанию C-Chain — это EVM (Solidity) — удобна для разработчиков, но имеет более низкую производительность. Другие подсети могут запускать пользовательские VM (например, Avalanche имеет тестовую VM на основе WASM) для конкретных нужд.Move VM: Использует Move, безопасный язык на основе Rust для активов. Не EVM-совместим, поэтому требуется новая экосистема. Фокус на объектно-ориентированном программировании (ресурсы).
Уникальные инновацииКомпилированный EVM, IceDB, многопоточный консенсус, агрегация BLS, временное хранилище – обеспечивают экстремальную TPS и большое состояние. Детерминированные затраты на газ при доступе к хранилищу. Сжатие для пропускной способности. Акцент на DApp реального времени (игры/метавселенные).Безопасность и децентрализация – Ethereum приоритезирует максимальную децентрализацию и экономическую безопасность (сотни тысяч валидаторов, стейкинг на $20B+). Имеет новаторские функции, такие как абстракция аккаунтов (ERC-4337) и ведущую экосистему смарт-контрактов. Однако базовый уровень имеет ограниченную производительность по дизайну (масштабирование перенесено на L2).Proof-of-History (часы до консенсуса) для ускорения упорядочивания; высокооптимизированный клиент валидатора. Параллельное выполнение для неконфликтующих транзакций. Отличительная черта Solana – чистая скорость на монолитной цепочке, но она требует мощного оборудования (128+ ГБ ОЗУ, высокопроизводительный ЦП/ГП). Она не EVM, что ограничивает легкое внедрение для разработчиков Ethereum.Гибкость подсетей – возможность запуска пользовательских блокчейнов под набором валидаторов Avalanche, адаптированных для конкретных приложений (например, со своим собственным токеном газа или правилами). Быстрая завершенность через консенсус Avalanche. Однако производительность C-Chain (EVM) намного ниже, чем у Somnia, а использование нескольких подсетей жертвует компонуемостью между приложениями.Объектно-ориентированный параллелизм – объектная модель Sui позволяет независимым транзакциям выполняться одновременно, улучшая пропускную способность при наличии множества несвязанных транзакций. Также такие функции, как пакетная обработка транзакций, причинно-следственный порядок для определенных типов транзакций. Язык Move обеспечивает безопасность активов (отсутствие случайной потери токенов). Более низкая пропускная способность, чем у Somnia, но также фокусируется на играх (Sui делает акцент на NFT и простых играх с Move).
Компромиссы децентрализацииНачинается с ~60–100 валидаторов (изначально выбранных фондом, затем избираемых держателями токенов). Требования к оборудованию относительно высоки (сопоставимы с узлом Solana/Aptos). Таким образом, не так безразрешительно, как Ethereum, но достаточно для его вариантов использования (цель — со временем увеличить набор валидаторов). Принимает "достаточную децентрализацию" для производительности.Очень высокая децентрализация (любой может застейкать 32 ETH для запуска валидатора; тысячи независимых валидаторов). Безопасность и устойчивость к цензуре на высшем уровне. Но производительность страдает; для масштабирования нужны L2, которые добавляют сложности.На практике более централизована: менее 2500 валидаторов, при этом небольшое число часто производит большинство блоков. Высокие затраты на оборудование означают, что многие участники используют Google Cloud или центры обработки данных (меньше домашних узлов). Сеть испытывала сбои в прошлом при высокой нагрузке.Достаточно децентрализована: ~1000 валидаторов, и любой может присоединиться, застейкав минимум ~2000 AVAX. Консенсус Avalanche масштабируем по количеству валидаторов без значительного замедления. Однако каждая подсеть может формировать свой собственный меньший набор валидаторов, возможно, жертвуя некоторой безопасностью ради производительности.Умеренная децентрализация: около 100 валидаторов (как и у Somnia). Без разрешений, но при генезисе сильно поддерживалась несколькими организациями. Также использует делегированный PoS. Подход Sui аналогичен Somnia/Aptos в том, что это новая сеть с относительно небольшим набором валидаторов, который должен расти.
Экосистема и внедрениеРазвивающаяся – ~70 проектов при запуске, в основном игры (Sparkball, Variance и т. д.). Сильная поддержка от Improbable (события метавселенной) и финансирование ($270 млн). Необходимо доказать себя реальным внедрением пользователями после запуска. Интегрирована с крупными сервисами (OpenSea, LayerZero) для быстрого старта.Зрелая и обширная – тысячи DApp, $20B+ TVL в DeFi, сформированный рынок NFT. Самый большой пул разработчиков. Однако для высокопроизводительных игр Ethereum L1 не используется – эти проекты используют сайдчейны или L2. Ethereum – безопасный выбор для DApp общего назначения, но не для приложений реального времени без L2.Растущая (особенно DeFi/NFT) – Solana имеет сильную экосистему DeFi (Serum, Raydium) и сцену NFT (например, Degenerate Apes). Известна также Web3-социальными приложениями (телефон Saga от Solana и т. д.). Некоторые игровые проекты также на Solana. Имеет реальных пользователей (десятки миллионов адресов), но также испытывала проблемы со стабильностью. Solana привлекает тех, кто хочет скорости L1 без шардинга, ценой более централизованной инфраструктуры.Зрелая (особенно для предприятий и ниш) – Avalanche имеет DeFi (Trader Joe, и т. д.) и запустила игровые подсети (например, DeFi Kingdoms переехала в подсеть Avalanche). Ее сила – гибкость: проекты могут получить свою собственную цепочку. Однако основная C-Chain Avalanche ограничена производительностью EVM. Одна цепочка Somnia может превосходить одну цепочку Avalanche на порядки, но Avalanche может иметь несколько параллельных цепочек. Компонуемость между подсетями является проблемой (им нужны мосты).Новая и ориентированная на игры/NFT – Sui, как и Somnia, позиционирует себя для игр и приложений нового поколения (они также демонстрировали ончейн-игры). Язык Move Sui является барьером для некоторых разработчиков (не Solidity), но он предлагает функции безопасности. Ее экосистема в 2023 году была в зачаточном состоянии – несколько игровых демо, NFT и базовый DeFi. Somnia может фактически конкурировать с Sui/Aptos за внимание в Web3-играх, поскольку все обещают высокую TPS. Somnia имеет преимущество EVM (более легкое внедрение), тогда как Sui делает ставку на безопасность Move и параллельный дизайн.

По сути, ближайшими аналогами Somnia являются Solana, Sui/Aptos и, возможно, специализированные цепочки приложений, такие как некоторые подсети Avalanche или будущие высокопроизводительные цепочки Polygon. Как и Solana, Somnia отказывается от крайней децентрализации в пользу производительности, но Somnia отличается тем, что придерживается EVM (что помогает ей использовать базу разработчиков Ethereum) и внедряет уникальный многоцепочечный консенсус, а не одного лидера за раз. Подход Solana к параллелизму (несколько потоков GPU, обрабатывающих разные транзакции) контрастирует с подходом Somnia (несколько валидаторов, каждый обрабатывающий разные потоки). При коррелированных нагрузках (один «горячий» контракт) оптимизация Somnia для одного ядра проявляет себя, тогда как параллелизм Solana будет замедляться, поскольку все потоки конкурируют за одно и то же состояние.

По сравнению с мейннетом Ethereum, Somnia на порядки быстрее, но жертвует децентрализацией (100 валидаторов против сотен тысяч у Ethereum). Ethereum также имеет гораздо более крупную и проверенную экосистему. Однако Ethereum не может напрямую обрабатывать игры или социальные приложения в масштабе — они в конечном итоге оказываются на L2 или сайдчейнах. Somnia, по сути, позиционирует себя как альтернатива роллапу Ethereum, которая является собственным L1 с более высокой производительностью, чем любой текущий роллап, и без необходимости доказательств мошенничества или отдельных предположений о безопасности (помимо меньшего набора валидаторов). В долгосрочной перспективе дорожная карта Ethereum (шардинг, данкшардинг и т. д.) увеличит пропускную способность, но, вероятно, не до миллионов TPS на L1. Вместо этого Ethereum делает ставку на роллапы; Somnia делает ставку на масштабирование самого L1 с помощью передовых инженерных решений. Возможно, они не будут конкурировать за одни и те же варианты использования изначально (DeFi может остаться на Ethereum/L2, в то время как игры перейдут на Somnia или аналогичные цепочки). Взаимодействие (через LayerZero или другие) может позволить им дополнять друг друга, при этом активы будут перемещаться между Ethereum и Somnia по мере необходимости.

Avalanche предлагает подсети, которые, как и Somnia, могут быть выделены для игр с высокой пропускной способностью. Разница в том, что каждая подсеть Avalanche является отдельным экземпляром (вам нужно будет запустить свои собственные валидаторы или набрать валидаторов для присоединения к ней). Somnia вместо этого предоставляет общую высокопроизводительную цепочку, что упрощает взаимодействие между приложениями (все приложения Somnia живут в одной цепочке, компонуемые, как в Ethereum или Solana). Основная подсеть Avalanche (C-Chain) является EVM, но намного медленнее, чем Somnia. Таким образом, Somnia значительно превосходит общую цепочку Avalanche, хотя Avalanche может масштабироваться, если проект создает пользовательскую подсеть (но тогда эта подсеть может не иметь полной общей компонуемости или пользовательской базы). Для разработчика развертывание на Somnia может быть проще, чем управление подсетью Avalanche, и вы сразу же получаете доступ к общему пулу пользователей и ликвидности Somnia.

Sui (и Aptos) часто упоминаются как высокопроизводительные цепочки нового поколения, использующие Move и параллельный консенсус. Преимущество Somnia перед Sui — это пропускная способность (Sui не продемонстрировала миллионы TPS; их дизайн, возможно, составляет в лучшем случае сотни тысяч) и EVM-совместимость. Преимущество Sui может заключаться в безопасности Move для сложной логики активов и, возможно, в более децентрализованной дорожной карте (хотя при запуске Sui также имела около 100 валидаторов). Если Somnia привлечет игровые студии, которые предпочитают использовать Solidity (возможно, портируя контракты Solidity из прототипов игр Ethereum), она может быстро опередить Sui в экосистеме быстро, учитывая, насколько велико сообщество разработчиков Solidity.

Somnia также сравнивается с Solana в стремлении к потребительскому Web3 (обе подчеркивали социальные и телефонные интеграции — у Solana был телефон Saga, у Somnia — браузер и т. д.). Смелое заявление Германа Нарулы о том, что Somnia может обеспечить «в тысячи раз большую пропускную способность, чем Solana», задает тон, что Somnia видит себя не просто еще одной быстрой цепочкой, а самой быстрой EVM-цепочкой, где Solana является самой быстрой не-EVM-цепочкой. Если Somnia обеспечит даже на порядок лучшую устойчивую TPS, чем Solana на практике (скажем, Solana делает в среднем 5 тыс. TPS, а Somnia может делать в среднем 50 тыс. или более с пиками в миллионы), она действительно займет нишу для приложений, которые даже Solana не может обрабатывать (например, блокчейн-игра масштаба Fortnite или глобальная социальная сеть).

Еще один конкурент, который следует отметить, — это Polygon 2.0 или zkEVM — хотя они не являются L1, они предлагают масштабирование для EVM. Polygon работает над множеством ZK-роллапов и высокопроизводительных цепочек. Они потенциально могут соответствовать некоторым показателям производительности Somnia, при этом извлекая выгоду из безопасности Ethereum. Однако ZK-роллапы с 1 миллионом TPS еще не появились, и даже тогда они могут столкнуться с ограничениями доступности данных. Подход Somnia — это комплексное решение с собственной безопасностью. Ей придется доказать, что ее безопасность (100 валидаторов PoS) достаточно надежна для приложений с большими деньгами, что роллапы Ethereum наследуют от ETH. Но для игр и социальных сетей, где требования к безопасности немного отличаются (кража NFT игрового меча не так катастрофична, как кража миллиардов в TVL DeFi), компромисс Somnia может быть вполне приемлемым и даже предпочтительным из-за пользовательского опыта.

В заключение, Somnia выделяется тем, что расширяет границы производительности дальше, чем любой существующий универсальный L1, сохраняя при этом привычность EVM. Она стремится занять место на рынке для «Web3 в масштабе Web2», которое другие лишь частично затронули:

  • Ethereum будет доминировать в доверии и DeFi, но будет перекладывать высокочастотные задачи на L2 (что добавляет сложности и фрагментации).
  • Solana показала высокую TPS для DeFi и NFT, но не является EVM и имела проблемы со стабильностью; Somnia может привлечь проекты, которые хотят скорости, подобной Solana, с инструментами Ethereum.
  • Avalanche предлагает настраиваемость и удобство EVM, но не продемонстрировала производительности, близкой к Somnia, для одной цепочки.
  • Sui/Aptos относятся к тому же поколению, что и Somnia, конкурируя за разработчиков игр, но ранние партнерства Somnia (Improbable, крупные бренды) и EVM-совместимость дают ей сильное преимущество, если все будет хорошо реализовано.

Как сказал Нарула, Somnia, возможно, первая цепочка, созданная специально для виртуальных впечатлений в реальном времени в массовом масштабе. Если эти впечатления (игры, события, социальные миры) станут следующей большой волной внедрения блокчейна, конкурентами Somnia могут быть не столько другие блокчейны, сколько традиционная облачная инфраструктура (AWS и т. д.) — потому что она пытается заменить централизованные игровые серверы и социальные базы данных, а не просто конкурировать за существующие блокчейн-приложения. В этом свете успех Somnia будет измеряться тем, сможет ли она размещать приложения, которые привлекают миллионы пользователей, которые, возможно, даже не знают (или им все равно), что под капотом работает блокчейн. Ни один текущий L1 еще не достиг такого уровня массового пользовательского приложения (даже самые крупные приложения Solana имеют сотни тысяч, а не миллионы активных пользователей). Это та планка, которую Somnia установила для себя, и по которой ее инновационная архитектура будет проверена в ближайшие годы.

Дорожная карта и текущий статус

Путь Somnia стремительно прошел от концепции до реальности за короткое время, и она продолжает развиваться после запуска мейннета с четкими целями:

Последние разработки (2024–2025):

  • Финансирование и тестнет (2024): Проект вышел из тени при значительной финансовой поддержке. В начале 2024 года Improbable объявила о выделении 270 миллионов долларов на экосистему Somnia и MSquared. Это обеспечило огромный стартовый капитал. Somnia запустила Devnet в конце 2024 года (ноябрь), где побила рекорды: достигнув 1,05 миллиона TPS и других бенчмарков в глобальной установке из 100 узлов. Эти результаты (включая 50 тыс. сделок Uniswap/сек, 300 тыс. минтингов NFT/сек) были опубликованы для повышения доверия. После Devnet, полностью публичный Testnet был запущен 20 февраля 2025 года. Тестнет (кодовое название Shannon) работал около 6 месяцев. За это время Somnia утверждает, что обработала более 10 миллиардов транзакций и привлекла 118 миллионов тестовых адресов кошельков — ошеломляющие цифры. Эти цифры, вероятно, включают скриптовые нагрузочные тесты и участие сообщества. Тестнет также показал пиковую ежедневную пропускную способность в 1,9 миллиарда транзакций за день (рекорд для любого EVM-контекста). CoinDesk отметил эти цифры, но также и то, что публичный эксплорер в то время был недоступен для проверки, подразумевая, что некоторые из них были внутренними метриками. Тем не менее, тестнет продемонстрировал стабильность при беспрецедентной нагрузке.

    На протяжении всего тестнета Somnia проводила программы вовлечения: программу стимулирования баллами, где ранние пользователи, выполняющие задания, могли зарабатывать баллы (вероятно, конвертируемые в будущие токены или награды), и сотрудничала с партнерами (разработчики игр проводили плейтесты, проводились хакатоны). Фаза тестнета также была временем, когда было привлечено более 70 партнеров/проектов экосистемы. Это указывает на то, что к моменту запуска мейннета многие интеграции и приложения были готовы или почти готовы.

  • Запуск мейннета (3 квартал 2025 года): Somnia запустила мейннет 2 сентября 2025 года. Запуск включал выпуск токена SOMI и активацию стейкинга. Примечательно, что при запуске мейннета:

    • 60 валидаторов вышли в онлайн (среди них крупные имена, такие как Google Cloud).
    • Somnia Foundation начал работу, осуществляя надзор за цепочкой как нейтральный управляющий. Improbable предоставила технологию, и теперь Фонд (также называемый Virtual Society Foundation) отвечает за управление и дальнейшее развитие.
    • Листинг и распределение SOMI: В течение дня после запуска Binance объявила SOMI частью своих листингов «Seed Tag» и провела аирдроп HODLer. Это был огромный стимул — по сути, одобрение от ведущей биржи. Многие новые L1 изо всех сил пытаются получить поддержку бирж, но Somnia немедленно доставила SOMI в руки пользователей через Binance.
    • В социальных сетях команда Somnia и партнеры рекламировали возможности мейннета. Пресс-релиз от Improbable и публикации в таких изданиях, как CoinDesk, Yahoo Finance и т. д., распространили информацию о том, что «самая быстрая EVM-цепочка» запущена.
    • Первоначальные DApp экосистемы начали развертывание. Например, NFT-бриджинг через LayerZero был активен (можно было бриджить стейблкоины согласно документации), и некоторые из игр тестнета начали переходить на мейннет (запуск Sparkball и т. д., примерно в сентябре, как указано в блогах и обновлениях).
    • События аирдропов сообщества (Somnia Odyssey), вероятно, завершились примерно к запуску, распределив часть токенов сообщества среди ранних сторонников.

Таким образом, запуск мейннета был успешным и позиционировал Somnia с действующими валидаторами, действующим токеном и более чем 70 проектами, либо запущенными, либо находящимися на стадии скорого запуска. Важно отметить, что они вышли на рынок именно тогда, когда интерес к Web3-играм и метавселенным снова начал расти в конце 2025 года, используя эту тенденцию.

Текущий статус (конец 2025 года): Мейннет Somnia работает с блоками, создаваемыми за доли секунды. Сеть все еще находится на стадии начальной загрузки, где Somnia Foundation и основная команда сохраняют значительный контроль для обеспечения стабильности. Например, предложения по управлению, вероятно, еще не полностью открыты; фонд, вероятно, управляет обновлениями и настройками параметров, пока сообщество обучается процессам управления. Распределение токенов все еще очень концентрировано (поскольку в обращении находится только ~16%, а токены инвесторов/команды начнут разблокироваться только в конце 2026 года). Это означает, что у Фонда есть достаточные резервы токенов для поддержки экосистемы (через гранты, предоставление ликвидности и т. д.).

С технической точки зрения Somnia, вероятно, мониторит и тонко настраивает производительность в реальных условиях. Действительно ли DApp доводят ее до предела? Возможно, еще нет — первоначальное количество пользователей, вероятно, исчисляется тысячами, а не миллионами. Так что, возможно, 1 миллион TPS не происходит в мейннете регулярно, но потенциал есть. Команда может использовать этот период для оптимизации клиентского программного обеспечения, включения любой обратной связи от Cuthbert (если были обнаружены какие-либо расхождения, они будут немедленно исправлены) и укрепления безопасности. Результаты аудитов безопасности (если они еще не опубликованы) могут быть опубликованы примерно в это время или в начале 2026 года, чтобы заверить разработчиков в безопасности.

Ближайшая дорожная карта (2026): Документация и сообщения Somnia намекают на несколько ближайших целей:

  • Внедрение функций: Некоторые функции планировалось активировать после запуска:
    • Динамическое ценообразование газа и скидки за объем планируется внедрить к концу 2025 года. Это требует некоторого тестирования и, возможно, одобрения управления для включения. После активации высокопроизводительные DApp начнут пользоваться более дешевым газом, что может стать преимуществом для привлечения корпоративных или крупных Web2-партнеров.
    • Функция временного хранения также запланирована на конец 2025 года. Реализация, вероятно, требует тщательного тестирования (обеспечение корректного удаления данных и отсутствия проблем с консенсусом). Когда это будет запущено, Somnia станет одной из первых цепочек, предлагающих данные в цепочке с истекающим сроком действия, что будет огромным преимуществом для разработчиков игр (представьте временные игровые сессии в цепочке).
    • Чаевые (приоритетные комиссии): Они отметили, что чаевые могут быть введены позже, если потребуется. Если использование сети увеличится до такой степени, что блоки будут постоянно заполнены, к 2026 году они могут включить необязательные чаевые для приоритезации транзакций (точно так же, как модель базовой комиссии и чаевых Ethereum). Это будет признаком здоровой перегрузки, если это произойдет.
    • Расширение набора валидаторов: Изначально около 60, цель состоит в том, чтобы со временем увеличить количество валидаторов для улучшения децентрализации без ущерба для производительности. Они упомянули, что ожидают роста до более чем 100 по мере развития сети. Сроки могут зависеть от того, насколько хорошо консенсус масштабируется с большим количеством валидаторов (PBFT имеет тенденцию замедляться по мере увеличения количества валидаторов, но, возможно, их вариант, вдохновленный Autobahn, может обрабатывать несколько сотен). В 2026 году они могут привлечь дополнительных валидаторов, возможно, из своего сообщества или новых партнеров. Это может быть сделано путем голосования по управлению (держатели токенов одобряют новых валидаторов) или автоматически, если достаточное количество стейка поддерживает новых участников.
    • Децентрализация управления: Somnia представила дорожную карту прогрессивной децентрализации в управлении. В первые 6 месяцев (фаза начальной загрузки) совет Фонда полностью контролирует ситуацию. Таким образом, примерно до 1/2 квартала 2026 года мы будем находиться в фазе начальной загрузки — в течение которой они, вероятно, будут совершенствовать процессы и привлекать членов в советы. Затем, с 6 по 24 месяц (середина 2026 года — конец 2027 года), они переходят в переходную фазу, где Палата токенов (держатели токенов) могут начать голосовать по предложениям, хотя Фонд может наложить вето при необходимости. Мы можем увидеть первые ончейн-голосования в 2026 году по таким вопросам, как распределение грантов или незначительные изменения параметров. К концу 2 года (2027 год) цель — зрелая фаза, где решения держателей токенов в основном остаются в силе, а Фонд вмешивается только в экстренных случаях. Таким образом, на 2026 год одной из ключевых целей является создание этих органов управления: возможно, избрание членов в Совет валидаторов, Совет разработчиков, Ассамблею пользователей, которые были описаны. Это потребует организации сообщества — вероятно, Фонд будет способствовать этому, изначально выбирая авторитетных членов (например, приглашая ведущих разработчиков игр в совет разработчиков или лидеров крупных гильдий сообщества в ассамблею пользователей).
  • Рост экосистемы: Что касается внедрения, 2026 год будет посвящен превращению пилотных проектов в массовые успехи:
    • Мы ожидаем полноценных релизов игр: Sparkball и Variance могут перейти из бета-версии в официальный запуск на мейннете Somnia в 2026 году, стремясь привлечь десятки тысяч игроков. Другие игры из когорты Dream Catalyst (Maelstrom, Netherak, Dark Table и т. д.), вероятно, будут выпущены для публики. Команда Somnia будет поддерживать эти запуски, возможно, через маркетинговые кампании, турниры и программы стимулирования (такие как play-to-earn или аирдропы) для привлечения геймеров.
    • Новые партнерства: Improbable/MSquared планировали увеличить количество мероприятий с 30 в 2023 году до более 300 мероприятий метавселенной в 2024 году. В 2024 году они провели много офчейн-мероприятий; в 2025/2026 годах мы ожидаем, что эти мероприятия будут интегрировать Somnia. Например, возможно, крупное спортивное мероприятие или музыкальный фестиваль в 2026 году будет использовать Somnia для продажи билетов или вознаграждения фанатов. Участие Google Cloud предполагает возможные корпоративные мероприятия или демонстрации через облачных клиентов Google. Кроме того, учитывая, что Mirana (связанная с Bybit/BitDAO) и другие инвестировали, Somnia может увидеть сотрудничество с биржами или крупными Web3-брендами для использования сети.
    • Интеграция MSquared: В пресс-релизе Chainwire отмечалось, что M² планирует интегрировать Somnia в свою сеть метавселенных. Это означает, что любой виртуальный мир, использующий технологию MSquared, может принять Somnia в качестве своего уровня транзакций. К 2026 году мы можем увидеть официальный запуск сети метавселенных MSquared с Somnia, лежащей в основе идентификации аватаров, торговли предметами и т. д. Если Otherside от Yuga Labs все еще в разработке, возможно, произойдет демонстрация интероперабельности с Somnia (например, использование вашего NFT Otherside в мире на базе Somnia).
    • Расширение сообщества разработчиков: Гранты в размере 10 миллионов долларов будут распределяться со временем — к 2026 году, вероятно, десятки проектов получат финансирование. Результатом этого могут стать новые инструменты (например, Unity SDK для Somnia или дополнительные улучшения Ormi), больше приложений (возможно, кто-то создаст децентрализованный Twitter на базе Somnia или новую DeFi-платформу). Somnia, вероятно, проведет больше хакатонов (потенциально некоторые очные на конференциях и т. д.) и продолжит агрессивную работу с разработчиками для привлечения талантов. Они могут особенно нацелиться на разработчиков Ethereum, которые сталкиваются с ограничениями масштабирования своих DApp, предлагая им легкий перенос на Somnia.
    • Интероперабельность и мосты: Уже интегрированная с LayerZero, Somnia, вероятно, расширит мосты к другим экосистемам для более широкой поддержки активов. Например, интеграция с Polygon или Cosmos IBC может быть на повестке дня. Также могут быть реализованы кроссчейн-стандарты для NFT (возможно, позволяющие зеркалировать NFT Ethereum на Somnia для использования в играх). Поскольку Somnia является EVM, развертывание мостовых контрактов для популярных токенов (USDC, USDT, WETH) является простым — 2026 год может принести более глубокую ликвидность по мере притока этих кроссчейн-активов.
    • Мониторинг производительности: По мере увеличения реального использования команда будет отслеживать любые проблемы со стабильностью. Есть ли какие-либо векторы атак (спам многих цепочек данных и т. д.)? Они могут реализовать улучшения, такие как ограничения скорости для каждой цепочки данных или дальнейшие оптимизации, если это необходимо. Двойное выполнение Cuthbert, вероятно, будет работать как минимум до 2026 года, чтобы выявлять любые расхождения; если система окажется очень стабильной, они могут рассмотреть возможность ее отключения для снижения накладных расходов через год или два, но это зависит от полной уверенности.
  • Маркетинг и охват: С запуском мейннета и первых приложений, задача Somnia на 2026 год — создание базы пользователей. Ожидайте активного маркетинга, направленного как на геймеров, так и на криптопользователей:
    • Мы можем увидеть партнерства с игровыми гильдиями или киберспортивными командами, чтобы привлечь игроков в игры Somnia.
    • Возможно, сотрудничество со знаменитостями для виртуальных мероприятий (учитывая, что они проводили K-Pop и спортивные легенды в тестовых мероприятиях, они могли бы расширить это — представьте, что известный музыкант выпускает альбом через метавселенную Somnia с NFT-мерчем).
    • Также, посещение и спонсирование крупных конференций (GDC для разработчиков игр, Consensus для криптоиндустрии и т. д.) для продвижения платформы.
    • К концу 2025 года у них уже была значительная пресса (статья Binance Academy, освещение CoinDesk и т. д.). В 2026 году появятся более независимые анализы (профили Messari и т. д.), и Somnia захочет продемонстрировать метрики использования, чтобы доказать свою привлекательность (например, «X ежедневных активных пользователей, Y обработанных транзакций»).

Долгосрочное видение: Хотя это не было явно запрошено, стоит отметить траекторию Somnia:

  • Через несколько лет они представляют Somnia как широко используемый базовый уровень для Web3-развлечений, с миллиардами транзакций в обычном режиме и децентрализованным управлением, осуществляемым ее сообществом и советами. Они также, вероятно, предвидят постоянное техническое совершенствование — например, изучение шардинга при необходимости или внедрение новой криптографии (возможно, zk-доказательства для еще большего сжатия данных или постквантовая криптография в конечном итоге).
  • Еще одной долгосрочной целью может быть углеродная нейтральность или эффективность: высокопроизводительные цепочки часто беспокоятся об энергопотреблении. Если Somnia достигнет миллионов TPS, обеспечение эффективной обработки узлами (возможно, за счет аппаратного ускорения или облачного масштабирования) будет важным. С Google Cloud в игре, возможно, будут рассмотрены инициативы по зеленым центрам обработки данных или специальное оборудование (например, GPU или FPGA для сжатия).
  • К тому времени конкуренция также усилится (Ethereum 2.0 с шардингом, zkEVM, улучшения Solana и т. д.). Somnia придется сохранять свое преимущество за счет инноваций и сетевых эффектов (если она рано привлечет большую базу игроков, этот импульс может поддержать ее).

В итоге, дорожная карта на ближайшие 1-2 года сосредоточена на:

  1. Активации ключевых функций протокола (скидки на газ, временное хранилище) для полной реализации обещанной функциональности.
  2. Постепенной децентрализации управления — переход от управления фондом к управлению сообществом без ущерба для прогресса.
  3. Стимулировании роста экосистемы — обеспечении запуска финансируемых проектов и привлечения пользователей, формировании новых партнерств (с создателями контента, игровыми студиями, возможно, даже с Web2-компаниями, заинтересованными в Web3), а также, возможно, расширении в новые регионы и сообщества.
  4. Поддержании производительности и безопасности по мере масштабирования использования — отслеживании любых проблем, когда, например, игра вызывает всплеск реального трафика в 10 тыс. TPS, и соответствующем реагировании (это может включать проведение дополнительных публичных тестовых мероприятий, возможно, «стресс-тест мейннета», где они поощряют множество транзакций для проверки пределов).

Somnia произвела яркий дебют, но 2026 год станет испытательным полигоном: ей необходимо превратить свои впечатляющие технологии и хорошо финансируемую экосистему в реальное внедрение и устойчивую, децентрализованную сеть. Большой токен-казначейство фонда (Экосистема и Сообщество ~55% предложения) дает ей средства для стимулирования активности на годы, поэтому в ближайшей перспективе мы увидим, как эти токены будут использоваться — через аирдропы, вознаграждения (возможно, ликвидность майнинг, если запустится DEX), вознаграждения разработчикам и кампании по привлечению пользователей. Лозунг запуска мейннета от Improbable гласил, что Somnia «закладывает основу открытой экономики цифровых активов, где миллиарды людей могут взаимодействовать в иммерсивных впечатлениях». Следующие шаги дорожной карты направлены на закладку кирпичей этого фундамента: привлечение первых миллионов людей и первых убийственных приложений для взаимодействия с «компьютером мечты» Somnia (как они его называют), тем самым подтверждая, что Web3 действительно может работать в масштабе интернета.

Если Somnia продолжит свою текущую траекторию, к концу 2026 года мы можем увидеть десятки полностью ончейн-игр и социальных платформ, процветающую сеть, управляемую сообществом, с сотнями валидаторов, и SOMI, ежедневно используемый массовыми пользователями (часто неосознанно, под капотом игр). Достижение этого станет значительной вехой не только для Somnia, но и для продвижения блокчейн-индустрии в массовые приложения реального времени. Все части на месте; теперь дело за реализацией и внедрением на этом критическом, основанном на глубоких исследованиях этапе дорожной карты проекта.

Источники:

  • Официальная документация Somnia (Litepaper и Технические концепции)
  • Документация по токеномике и управлению Somnia
  • Пресс-релиз Improbable (Запуск мейннета)
  • Освещение запуска Somnia в CoinDesk
  • Binance Academy – Что такое Somnia (SOMI)
  • Gam3s.gg – Освещение игр Somnia (Variance, Sparkball и т. д.)
  • Stakin Research – Введение в Somnia
  • Пресс-релиз Chainwire – Инвестиции в $270 млн и результаты Devnet
  • Блог Somnia – События Improbable & MSquared, новости мейннета
  • Официальная документация Somnia – Руководства для разработчиков (бриджинг, кошельки и т. д.)

Создание децентрализованного шифрования с @mysten/seal: Руководство для разработчиков

· 13 мин. чтения
Dora Noda
Software Engineer

Конфиденциальность становится общественной инфраструктурой. В 2025 году разработчикам нужны инструменты, которые сделают шифрование таким же простым, как хранение данных. Seal от Mysten Labs предоставляет именно это — децентрализованное управление секретами с контролем доступа в блокчейне. Это руководство научит вас создавать безопасные Web3-приложения, используя шифрование на основе идентификаторов, пороговую безопасность и программируемые политики доступа.


Введение: Почему Seal важен для Web3

Традиционные облачные приложения полагаются на централизованные системы управления ключами, где один провайдер контролирует доступ к зашифрованным данным. Хотя это удобно, это создает опасные единые точки отказа. Если провайдер скомпрометирован, отключается или решает ограничить доступ, ваши данные становятся недоступными или уязвимыми.

Seal полностью меняет эту парадигму. Разработанный Mysten Labs для блокчейна Sui, Seal — это децентрализованный сервис управления секретами (DSM), который обеспечивает:

  • Шифрование на основе идентификаторов, при котором контент защищается до того, как покинет вашу среду
  • Пороговое шифрование, которое распределяет доступ к ключам между несколькими независимыми узлами
  • Контроль доступа в блокчейне с временными блокировками, токен-гейтингом и настраиваемой логикой авторизации
  • Независимый от хранилища дизайн, который работает с Walrus, IPFS или любым другим решением для хранения

Независимо от того, создаете ли вы безопасные приложения для обмена сообщениями, платформы с ограниченным доступом к контенту или переводы активов с временной блокировкой, Seal предоставляет необходимые криптографические примитивы и инфраструктуру контроля доступа.


Начало работы

Предварительные требования

Прежде чем приступить к работе, убедитесь, что у вас есть:

  • Установленный Node.js 18+
  • Базовое знакомство с TypeScript/JavaScript
  • Кошелек Sui для тестирования (например, Sui Wallet)
  • Понимание концепций блокчейна

Установка

Установите SDK Seal через npm:

npm install @mysten/seal

Вам также понадобится Sui SDK для взаимодействия с блокчейном:

npm install @mysten/sui

Настройка проекта

Создайте новый проект и инициализируйте его:

mkdir seal-tutorial
cd seal-tutorial
npm init -y
npm install @mysten/seal @mysten/sui typescript @types/node

Создайте простую конфигурацию TypeScript:

// tsconfig.json
{
"compilerOptions": {
"target": "ES2020",
"module": "commonjs",
"strict": true,
"esModuleInterop": true,
"skipLibCheck": true,
"forceConsistentCasingInFileNames": true
}
}

Основные концепции: Как работает Seal

Прежде чем писать код, давайте разберемся в архитектуре Seal:

1. Шифрование на основе идентификаторов (IBE)

В отличие от традиционного шифрования, где вы шифруете данные с помощью публичного ключа, IBE позволяет шифровать данные для идентификатора (например, адреса электронной почты или адреса Sui). Получатель может расшифровать данные только в том случае, если он может доказать, что контролирует этот идентификатор.

2. Пороговое шифрование

Вместо того чтобы доверять одному серверу ключей, Seal использует t-из-n пороговые схемы. Вы можете настроить 3 из 5 серверов ключей, что означает, что любые 3 сервера могут сотрудничать для предоставления ключей дешифрования, но 2 или меньше не могут.

3. Контроль доступа в блокчейне

Политики доступа обеспечиваются смарт-контрактами Sui. Прежде чем сервер ключей предоставит ключи дешифрования, он проверяет, соответствует ли запрашивающий требованиям политики в блокчейне (владение токенами, временные ограничения и т. д.).

4. Сеть серверов ключей

Распределенные серверы ключей проверяют политики доступа и генерируют ключи дешифрования. Эти серверы управляются различными сторонами для обеспечения отсутствия единой точки контроля.


Базовая реализация: Ваше первое приложение Seal

Давайте создадим простое приложение, которое шифрует конфиденциальные данные и контролирует доступ через политики блокчейна Sui.

Шаг 1: Инициализация клиента Seal

// src/seal-client.ts
import { SealClient } from "@mysten/seal";
import { SuiClient } from "@mysten/sui/client";

export async function createSealClient() {
// Initialize Sui client for testnet
const suiClient = new SuiClient({
url: "https://fullnode.testnet.sui.io",
});

// Configure Seal client with testnet key servers
const sealClient = new SealClient({
suiClient,
keyServers: [
"https://keyserver1.seal-testnet.com",
"https://keyserver2.seal-testnet.com",
"https://keyserver3.seal-testnet.com",
],
threshold: 2, // 2-of-3 threshold
network: "testnet",
});

return { sealClient, suiClient };
}

Шаг 2: Простое шифрование/дешифрование

// src/basic-encryption.ts
import { createSealClient } from "./seal-client";

async function basicExample() {
const { sealClient } = await createSealClient();

// Data to encrypt
const sensitiveData = "This is my secret message!";
const recipientAddress =
"0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

try {
// Encrypt data for a specific Sui address
const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, "utf-8"),
recipientId: recipientAddress,
// Optional: add metadata
metadata: {
contentType: "text/plain",
timestamp: Date.now(),
},
});

console.log("Encrypted data:", {
ciphertext: encryptedData.ciphertext.toString("base64"),
encryptionId: encryptedData.encryptionId,
});

// Later, decrypt the data (requires proper authorization)
const decryptedData = await sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientAddress,
});

console.log("Decrypted data:", decryptedData.toString("utf-8"));
} catch (error) {
console.error("Encryption/decryption failed:", error);
}
}

basicExample();

Контроль доступа с помощью смарт-контрактов Sui

Настоящая мощь Seal заключается в программируемом контроле доступа. Давайте создадим пример шифрования с временной блокировкой, где данные могут быть расшифрованы только по истечении определенного времени.

Шаг 1: Развертывание контракта контроля доступа

Сначала нам нужен смарт-контракт Move, который определяет нашу политику доступа:

// contracts/time_lock.move
module time_lock::policy {
use sui::clock::{Self, Clock};
use sui::object::{Self, UID};
use sui::tx_context::{Self, TxContext};

public struct TimeLockPolicy has key, store {
id: UID,
unlock_time: u64,
authorized_user: address,
}

public fun create_time_lock(
unlock_time: u64,
authorized_user: address,
ctx: &mut TxContext
): TimeLockPolicy {
TimeLockPolicy {
id: object::new(ctx),
unlock_time,
authorized_user,
}
}

public fun can_decrypt(
policy: &TimeLockPolicy,
user: address,
clock: &Clock
): bool {
let current_time = clock::timestamp_ms(clock);
policy.authorized_user == user && current_time >= policy.unlock_time
}
}

Шаг 2: Интеграция с Seal

// src/time-locked-encryption.ts
import { createSealClient } from "./seal-client";
import { TransactionBlock } from "@mysten/sui/transactions";

async function createTimeLocked() {
const { sealClient, suiClient } = await createSealClient();

// Create access policy on Sui
const txb = new TransactionBlock();

const unlockTime = Date.now() + 60000; // Unlock in 1 minute
const authorizedUser =
"0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

txb.moveCall({
target: "time_lock::policy::create_time_lock",
arguments: [txb.pure(unlockTime), txb.pure(authorizedUser)],
});

// Execute transaction to create policy
const result = await suiClient.signAndExecuteTransactionBlock({
transactionBlock: txb,
signer: yourKeypair, // Your Sui keypair
});

const policyId = result.objectChanges?.find(
(change) => change.type === "created",
)?.objectId;

// Now encrypt with this policy
const sensitiveData = "This will unlock in 1 minute!";

const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, "utf-8"),
recipientId: authorizedUser,
accessPolicy: {
policyId,
policyType: "time_lock",
},
});

console.log("Time-locked data created. Try decrypting after 1 minute.");

return {
encryptedData,
policyId,
unlockTime,
};
}

Практические примеры

Пример 1: Приложение для безопасного обмена сообщениями

// src/secure-messaging.ts
import { createSealClient } from "./seal-client";

class SecureMessenger {
private sealClient: any;

constructor(sealClient: any) {
this.sealClient = sealClient;
}

async sendMessage(
message: string,
recipientAddress: string,
senderKeypair: any,
) {
const messageData = {
content: message,
timestamp: Date.now(),
sender: senderKeypair.toSuiAddress(),
messageId: crypto.randomUUID(),
};

const encryptedMessage = await this.sealClient.encrypt({
data: Buffer.from(JSON.stringify(messageData), "utf-8"),
recipientId: recipientAddress,
metadata: {
type: "secure_message",
sender: senderKeypair.toSuiAddress(),
},
});

// Store encrypted message on decentralized storage (Walrus)
return this.storeOnWalrus(encryptedMessage);
}

async readMessage(encryptionId: string, recipientKeypair: any) {
// Retrieve from storage
const encryptedData = await this.retrieveFromWalrus(encryptionId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientKeypair.toSuiAddress(),
});

return JSON.parse(decryptedData.toString("utf-8"));
}

private async storeOnWalrus(data: any) {
// Integration with Walrus storage
// This would upload the encrypted data to Walrus
// and return the blob ID for retrieval
}

private async retrieveFromWalrus(blobId: string) {
// Retrieve encrypted data from Walrus using blob ID
}
}

Пример 2: Платформа контента с токен-гейтингом

// src/gated-content.ts
import { createSealClient } from "./seal-client";

class ContentGating {
private sealClient: any;
private suiClient: any;

constructor(sealClient: any, suiClient: any) {
this.sealClient = sealClient;
this.suiClient = suiClient;
}

async createGatedContent(
content: string,
requiredNftCollection: string,
creatorKeypair: any,
) {
// Create NFT ownership policy
const accessPolicy = await this.createNftPolicy(
requiredNftCollection,
creatorKeypair,
);

// Encrypt content with NFT access requirement
const encryptedContent = await this.sealClient.encrypt({
data: Buffer.from(content, "utf-8"),
recipientId: "nft_holders", // Special recipient for NFT holders
accessPolicy: {
policyId: accessPolicy.policyId,
policyType: "nft_ownership",
},
});

return {
contentId: encryptedContent.encryptionId,
accessPolicy: accessPolicy.policyId,
};
}

async accessGatedContent(
contentId: string,
userAddress: string,
userKeypair: any,
) {
// Verify NFT ownership first
const hasAccess = await this.verifyNftOwnership(userAddress, contentId);

if (!hasAccess) {
throw new Error("Access denied: Required NFT not found");
}

// Decrypt content
const decryptedContent = await this.sealClient.decrypt({
encryptionId: contentId,
recipientId: userAddress,
});

return decryptedContent.toString("utf-8");
}

private async createNftPolicy(collection: string, creator: any) {
// Create Move contract that checks NFT ownership
// Returns policy object ID
}

private async verifyNftOwnership(user: string, contentId: string) {
// Check if user owns required NFT
// Query Sui for NFT ownership
}
}

Пример 3: Передача активов с временной блокировкой

// src/time-locked-transfer.ts
import { createSealClient } from "./seal-client";

async function createTimeLockTransfer(
assetData: any,
recipientAddress: string,
unlockTimestamp: number,
senderKeypair: any,
) {
const { sealClient, suiClient } = await createSealClient();

// Create time-lock policy on Sui
const timeLockPolicy = await createTimeLockPolicy(
unlockTimestamp,
recipientAddress,
senderKeypair,
suiClient,
);

// Encrypt asset transfer data
const transferData = {
asset: assetData,
recipient: recipientAddress,
unlockTime: unlockTimestamp,
transferId: crypto.randomUUID(),
};

const encryptedTransfer = await sealClient.encrypt({
data: Buffer.from(JSON.stringify(transferData), "utf-8"),
recipientId: recipientAddress,
accessPolicy: {
policyId: timeLockPolicy.policyId,
policyType: "time_lock",
},
});

console.log(`Asset locked until ${new Date(unlockTimestamp)}`);

return {
transferId: encryptedTransfer.encryptionId,
unlockTime: unlockTimestamp,
policyId: timeLockPolicy.policyId,
};
}

async function claimTimeLockTransfer(
transferId: string,
recipientKeypair: any,
) {
const { sealClient } = await createSealClient();

try {
const decryptedData = await sealClient.decrypt({
encryptionId: transferId,
recipientId: recipientKeypair.toSuiAddress(),
});

const transferData = JSON.parse(decryptedData.toString("utf-8"));

// Process the asset transfer
console.log("Asset transfer unlocked:", transferData);

return transferData;
} catch (error) {
console.error("Transfer not yet unlocked or access denied:", error);
throw error;
}
}

Интеграция с децентрализованным хранилищем Walrus

Seal бесшовно работает с Walrus, децентрализованным решением для хранения данных от Sui. Вот как интегрировать оба:

// src/walrus-integration.ts
import { createSealClient } from "./seal-client";

class SealWalrusIntegration {
private sealClient: any;
private walrusClient: any;

constructor(sealClient: any, walrusClient: any) {
this.sealClient = sealClient;
this.walrusClient = walrusClient;
}

async storeEncryptedData(
data: Buffer,
recipientAddress: string,
accessPolicy?: any,
) {
// Encrypt with Seal
const encryptedData = await this.sealClient.encrypt({
data,
recipientId: recipientAddress,
accessPolicy,
});

// Store encrypted data on Walrus
const blobId = await this.walrusClient.store(encryptedData.ciphertext);

// Return reference that includes both Seal and Walrus info
return {
blobId,
encryptionId: encryptedData.encryptionId,
accessPolicy: encryptedData.accessPolicy,
};
}

async retrieveAndDecrypt(
blobId: string,
encryptionId: string,
userKeypair: any,
) {
// Retrieve from Walrus
const encryptedData = await this.walrusClient.retrieve(blobId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData,
encryptionId,
recipientId: userKeypair.toSuiAddress(),
});

return decryptedData;
}
}

// Usage example
async function walrusExample() {
const { sealClient } = await createSealClient();
const walrusClient = new WalrusClient("https://walrus-testnet.sui.io");

const integration = new SealWalrusIntegration(sealClient, walrusClient);

const fileData = Buffer.from("Important document content");
const recipientAddress = "0x...";

// Store encrypted
const result = await integration.storeEncryptedData(
fileData,
recipientAddress,
);

console.log("Stored with Blob ID:", result.blobId);

// Later, retrieve and decrypt
const decrypted = await integration.retrieveAndDecrypt(
result.blobId,
result.encryptionId,
recipientKeypair,
);

console.log("Retrieved data:", decrypted.toString());
}

Пороговое шифрование: Расширенная конфигурация

Для производственных приложений вам потребуется настроить пользовательское пороговое шифрование с несколькими серверами ключей:

// src/advanced-threshold.ts
import { SealClient } from "@mysten/seal";

async function setupProductionSeal() {
// Configure with multiple independent key servers
const keyServers = [
"https://keyserver-1.your-org.com",
"https://keyserver-2.partner-org.com",
"https://keyserver-3.third-party.com",
"https://keyserver-4.backup-provider.com",
"https://keyserver-5.fallback.com",
];

const sealClient = new SealClient({
keyServers,
threshold: 3, // 3-of-5 threshold
network: "mainnet",
// Advanced options
retryAttempts: 3,
timeoutMs: 10000,
backupKeyServers: [
"https://backup-1.emergency.com",
"https://backup-2.emergency.com",
],
});

return sealClient;
}

async function robustEncryption() {
const sealClient = await setupProductionSeal();

const criticalData = "Mission critical encrypted data";

// Encrypt with high security guarantees
const encrypted = await sealClient.encrypt({
data: Buffer.from(criticalData, "utf-8"),
recipientId: "0x...",
// Require all 5 servers for maximum security
customThreshold: 5,
// Add redundancy
redundancy: 2,
accessPolicy: {
// Multi-factor requirements
requirements: ["nft_ownership", "time_lock", "multisig_approval"],
},
});

return encrypted;
}

Лучшие практики безопасности

1. Управление ключами

// src/security-practices.ts

// GOOD: Use secure key derivation
import { generateKeypair } from "@mysten/sui/cryptography/ed25519";

const keypair = generateKeypair();

// GOOD: Store keys securely (example with environment variables)
const keypair = Ed25519Keypair.fromSecretKey(process.env.PRIVATE_KEY);

// BAD: Never hardcode keys
const badKeypair = Ed25519Keypair.fromSecretKey(
"hardcoded-secret-key-12345", // Don't do this!
);

2. Проверка политики доступа

// Always validate access policies before encryption
async function secureEncrypt(data: Buffer, recipient: string) {
const { sealClient } = await createSealClient();

// Validate recipient address
if (!isValidSuiAddress(recipient)) {
throw new Error("Invalid recipient address");
}

// Check policy exists and is valid
const policy = await validateAccessPolicy(policyId);
if (!policy.isValid) {
throw new Error("Invalid access policy");
}

return sealClient.encrypt({
data,
recipientId: recipient,
accessPolicy: policy,
});
}

3. Обработка ошибок и запасные варианты

// Robust error handling
async function resilientDecrypt(encryptionId: string, userKeypair: any) {
const { sealClient } = await createSealClient();

try {
return await sealClient.decrypt({
encryptionId,
recipientId: userKeypair.toSuiAddress(),
});
} catch (error) {
if (error.code === "ACCESS_DENIED") {
throw new Error("Access denied: Check your permissions");
} else if (error.code === "KEY_SERVER_UNAVAILABLE") {
// Try with backup configuration
return await retryWithBackupServers(encryptionId, userKeypair);
} else if (error.code === "THRESHOLD_NOT_MET") {
throw new Error("Insufficient key servers available");
} else {
throw new Error(`Decryption failed: ${error.message}`);
}
}
}

4. Проверка данных

// Validate data before encryption
function validateDataForEncryption(data: Buffer): boolean {
// Check size limits
if (data.length > 1024 * 1024) {
// 1MB limit
throw new Error("Data too large for encryption");
}

// Check for sensitive patterns (optional)
const dataStr = data.toString();
if (containsSensitivePatterns(dataStr)) {
console.warn("Warning: Data contains potentially sensitive patterns");
}

return true;
}

Оптимизация производительности

1. Пакетные операции

// Batch multiple encryptions for efficiency
async function batchEncrypt(dataItems: Buffer[], recipients: string[]) {
const { sealClient } = await createSealClient();

const promises = dataItems.map((data, index) =>
sealClient.encrypt({
data,
recipientId: recipients[index],
}),
);

return Promise.all(promises);
}

2. Кэширование ответов сервера ключей

// Cache key server sessions to reduce latency
class OptimizedSealClient {
private sessionCache = new Map();

async encryptWithCaching(data: Buffer, recipient: string) {
let session = this.sessionCache.get(recipient);

if (!session || this.isSessionExpired(session)) {
session = await this.createNewSession(recipient);
this.sessionCache.set(recipient, session);
}

return this.encryptWithSession(data, session);
}
}

Тестирование вашей интеграции Seal

Модульное тестирование

// tests/seal-integration.test.ts
import { describe, it, expect } from "jest";
import { createSealClient } from "../src/seal-client";

describe("Seal Integration", () => {
it("should encrypt and decrypt data successfully", async () => {
const { sealClient } = await createSealClient();
const testData = Buffer.from("test message");
const recipient =
"0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

const encrypted = await sealClient.encrypt({
data: testData,
recipientId: recipient,
});

expect(encrypted.encryptionId).toBeDefined();
expect(encrypted.ciphertext).toBeDefined();

const decrypted = await sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: recipient,
});

expect(decrypted.toString()).toBe("test message");
});

it("should enforce access control policies", async () => {
// Test that unauthorized users cannot decrypt
const { sealClient } = await createSealClient();

const encrypted = await sealClient.encrypt({
data: Buffer.from("secret"),
recipientId: "authorized-user",
});

await expect(
sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: "unauthorized-user",
}),
).rejects.toThrow("Access denied");
});
});

Развертывание в продакшене

Конфигурация среды

// config/production.ts
export const productionConfig = {
keyServers: [
process.env.KEY_SERVER_1,
process.env.KEY_SERVER_2,
process.env.KEY_SERVER_3,
process.env.KEY_SERVER_4,
process.env.KEY_SERVER_5,
],
threshold: 3,
network: "mainnet",
suiRpc: process.env.SUI_RPC_URL,
walrusGateway: process.env.WALRUS_GATEWAY,
// Security settings
maxDataSize: 1024 * 1024, // 1MB
sessionTimeout: 3600000, // 1 hour
retryAttempts: 3,
};

Мониторинг и логирование

// utils/monitoring.ts
export class SealMonitoring {
static logEncryption(encryptionId: string, recipient: string) {
console.log(`[SEAL] Encrypted data ${encryptionId} for ${recipient}`);
// Send to your monitoring service
}

static logDecryption(encryptionId: string, success: boolean) {
console.log(
`[SEAL] Decryption ${encryptionId}: ${success ? "SUCCESS" : "FAILED"}`,
);
}

static logKeyServerHealth(serverUrl: string, status: string) {
console.log(`[SEAL] Key server ${serverUrl}: ${status}`);
}
}

Ресурсы и дальнейшие шаги

Официальная документация

Сообщество и поддержка

  • Sui Discord: Присоединяйтесь к каналу #seal для поддержки сообщества
  • GitHub Issues: Сообщайте об ошибках и запрашивайте функции
  • Форумы для разработчиков: Форумы сообщества Sui для обсуждений

Расширенные темы для изучения

  1. Пользовательские политики доступа: Создавайте сложную логику авторизации с помощью контрактов Move
  2. Кросс-чейн интеграция: Используйте Seal с другими блокчейн-сетями
  3. Управление ключами для предприятий: Настройте собственную инфраструктуру серверов ключей
  4. Аудит и соответствие требованиям: Внедрите логирование и мониторинг для регулируемых сред

Примеры приложений

  • Приложение для безопасного чата: Сквозное шифрование сообщений с помощью Seal
  • Управление документами: Обмен корпоративными документами с контролем доступа
  • Управление цифровыми правами: Распространение контента с политиками использования
  • Аналитика, сохраняющая конфиденциальность: Рабочие процессы обработки зашифрованных данных

Заключение

Seal представляет собой фундаментальный сдвиг в сторону превращения конфиденциальности и шифрования в инфраструктурные проблемы в Web3. Объединяя шифрование на основе идентификаторов, пороговую безопасность и программируемый контроль доступа, он предоставляет разработчикам мощные инструменты для создания по-настоящему безопасных и децентрализованных приложений.

Основные преимущества использования Seal включают:

  • Отсутствие единой точки отказа: Распределенные серверы ключей устраняют центральные органы
  • Программируемая безопасность: Политики доступа на основе смарт-контрактов обеспечивают гибкую авторизацию
  • Удобство для разработчиков: SDK TypeScript легко интегрируется с существующими инструментами Web3
  • Независимость от хранилища: Работает с Walrus, IPFS или любым другим решением для хранения
  • Готовность к продакшену: Создан Mysten Labs с учетом корпоративных стандартов безопасности

Независимо от того, защищаете ли вы пользовательские данные, внедряете модели подписки или создаете сложные многосторонние приложения, Seal предоставляет криптографические примитивы и инфраструктуру контроля доступа, необходимые для уверенного создания.

Начните создавать сегодня и присоединяйтесь к растущей экосистеме разработчиков, которые делают конфиденциальность фундаментальной частью общественной инфраструктуры.


Готовы начать создавать? Установите @mysten/seal и начните экспериментировать с примерами из этого руководства. Децентрализованная сеть ждет приложений, которые ставят конфиденциальность и безопасность на первое место.

Крипто-эндшпиль: Взгляды визионеров индустрии

· 12 мин. чтения
Dora Noda
Software Engineer

Взгляды Мерта Мумтаза (Helius), Уди Вертхаймера (Taproot Wizards), Жорди Александра (Selini Capital) и Александра Гуда (Post Fiat)

Обзор

На конференции Token2049 состоялась панельная дискуссия под названием «Крипто-эндшпиль» с участием Мерта Мумтаза (генерального директора Helius), Уди Вертхаймера (Taproot Wizards), Жорди Александра (основателя Selini Capital) и Александра Гуда (создателя Post Fiat). Хотя публично доступной стенограммы дискуссии нет, каждый спикер выразил свое уникальное видение долгосрочной траектории криптоиндустрии. В этом отчете обобщаются их публичные заявления и публикации — от постов в блогах, статей, новостных интервью до вайтпейперов — чтобы исследовать, как каждый из них представляет себе «эндшпиль» для криптоиндустрии.

Мерт Мумтаз – Крипто как «Капитализм 2.0»

Основное видение

Мерт Мумтаз отвергает идею о том, что криптовалюты просто представляют собой «Web 3.0». Вместо этого он утверждает, что эндшпиль для криптоиндустрии заключается в модернизации самого капитализма. По его мнению:

  • Крипто усиливает составляющие капитализма: Мумтаз отмечает, что капитализм зависит от свободного потока информации, надежных прав собственности, согласованных стимулов, прозрачности и беспрепятственных потоков капитала. Он утверждает, что децентрализованные сети, публичные блокчейны и токенизация делают эти функции более эффективными, превращая крипто в «Капитализм 2.0».
  • Круглосуточные рынки и токенизированные активы: Он указывает на регуляторные предложения по созданию круглосуточных финансовых рынков и токенизации акций, облигаций и других реальных активов. Разрешение рынкам работать непрерывно и рассчитываться через блокчейн-рельсы модернизирует устаревшую финансовую систему. Токенизация создает постоянную ликвидность и беспрепятственную торговлю активами, которые ранее требовали клиринговых палат и посредников.
  • Децентрализация и прозрачность: Используя открытые реестры, крипто устраняет некоторые барьеры и информационные асимметрии, присущие традиционным финансам. Мумтаз рассматривает это как возможность демократизировать финансы, согласовать стимулы и сократить количество посредников.

Последствия

Тезис Мумтаза о «Капитализме 2.0» предполагает, что эндшпиль индустрии не ограничивается цифровыми коллекционными предметами или «Web3-приложениями». Вместо этого он предвидит будущее, в котором государственные регуляторы примут круглосуточные рынки, токенизацию активов и прозрачность. В этом мире блокчейн-инфраструктура станет основным компонентом глобальной экономики, объединяя крипто с регулируемыми финансами. Он также предупреждает, что переход столкнется с проблемами — такими как атаки Сивиллы, концентрация управления и регуляторная неопределенность — но считает, что эти препятствия могут быть преодолены за счет лучшего дизайна протоколов и сотрудничества с регуляторами.

Уди Вертхаймер – Биткойн как «смена поколений» и расплата для альткойнов

Смена поколений и тезис Биткойна «обеспечьте свой род»

Уди Вертхаймер, соучредитель Taproot Wizards, известен своей провокационной защитой Биткойна и высмеиванием альткойнов. В середине 2025 года он опубликовал вирусный тезис под названием «Этот тезис о Биткойне обеспечит ваш род». Согласно его аргументации:

  • Смена поколений: Вертхаймер утверждает, что ранние «киты» Биткойна, накопившие монеты по низким ценам, в значительной степени продали или передали их. Их заменили институциональные покупатели — ETF, казначейства и суверенные фонды благосостояния. Он называет этот процесс «полномасштабной сменой владельцев», аналогичной ралли Dogecoin в 2019–2021 годах, когда переход от китов к розничному спросу подпитывал взрывную доходность.
  • Нечувствительный к цене спрос: Институты распределяют капитал, не заботясь о цене за единицу. Используя IBIT ETF BlackRock в качестве примера, он отмечает, что новые инвесторы считают увеличение на 40 долларов США незначительным и готовы покупать по любой цене. Этот шок предложения в сочетании с ограниченным объемом в обращении означает, что Биткойн может ускориться далеко за пределы консенсусных ожиданий.
  • Цель 400 000+ долларов США и крах альткойнов: Он прогнозирует, что Биткойн может превысить 400 000 долларов США за BTC к концу 2025 года и предупреждает, что альткойны будут отставать или даже рухнут, при этом Эфириум выделяется как «самый большой неудачник». По словам Вертхаймера, как только начнется институциональный FOMO, альткойны будут «уничтожены одним выстрелом», и Биткойн поглотит большую часть капитала.

Последствия

Тезис Вертхаймера об эндшпиле изображает Биткойн как вступающий в свою финальную параболическую фазу. «Смена поколений» означает, что предложение переходит в сильные руки (ETF и казначейства), в то время как розничный интерес только начинает расти. Если это верно, это создаст серьезный шок предложения, подтолкнув цену BTC значительно выше текущих оценок. Между тем, он считает, что альткойны предлагают асимметричный риск снижения, поскольку им не хватает институциональной поддержки спроса, и они сталкиваются с регуляторным контролем. Его послание инвесторам ясно: накапливайте Биткойн сейчас, пока Уолл-стрит не скупит его весь.

Жорди Александр – Макропрагматизм, ИИ и крипто как две революции

Инвестирование в ИИ и крипто — две ключевые отрасли

Жорди Александр, основатель Selini Capital и известный теоретик игр, утверждает, что ИИ и блокчейн — две самые важные отрасли этого столетия. В интервью, обобщенном Bitget, он делает несколько замечаний:

  • Две революции: Александр считает, что единственные способы достичь реального роста благосостояния — это инвестировать в технологические инновации (особенно в ИИ) или рано участвовать в развивающихся рынках, таких как криптовалюта. Он отмечает, что развитие ИИ и криптоинфраструктура станут фундаментальными модулями для интеллекта и координации в этом столетии.
  • Конец четырехлетнего цикла: Он утверждает, что традиционный четырехлетний криптоцикл, обусловленный халвингами Биткойна, закончился; вместо этого рынок теперь переживает «мини-циклы», обусловленные ликвидностью. Будущие движения вверх произойдут, когда «реальный капитал» полностью войдет в это пространство. Он призывает трейдеров рассматривать неэффективность как возможность и развивать как технические, так и психологические навыки, чтобы преуспеть в этой среде.
  • Принятие рисков и развитие навыков: Александр советует инвесторам держать большую часть средств в безопасных активах, но выделять небольшую часть для принятия рисков. Он подчеркивает важность развития суждений и сохранения адаптивности, поскольку в быстро развивающейся области «нет такого понятия, как выход на пенсию».

Критика централизованных стратегий и макроэкономических взглядов

  • Игра с нулевой суммой MicroStrategy: В краткой заметке он предупреждает, что стратегия MicroStrategy по покупке BTC может быть игрой с нулевой суммой. Хотя участники могут чувствовать себя победителями, динамика может скрывать риски и приводить к волатильности. Это подчеркивает его убеждение, что крипторынки часто движутся динамикой с отрицательной или нулевой суммой, поэтому трейдеры должны понимать мотивы крупных игроков.
  • Эндшпиль монетарной политики США: Анализ Александром макрополитики США подчеркивает, что контроль Федеральной резервной системы над рынком облигаций может ослабевать. Он отмечает, что долгосрочные облигации резко упали с 2020 года, и считает, что ФРС может вскоре вернуться к количественному смягчению. Он предупреждает, что такие изменения политики могут вызвать движения рынка «сначала постепенно… затем все сразу» и называет это ключевым катализатором для Биткойна и крипто.

Последствия

Видение эндшпиля Жорди Александра нюансировано и макроориентировано. Вместо прогнозирования единой ценовой цели он выделяет структурные изменения: переход к циклам, обусловленным ликвидностью, важность координации на основе ИИ и взаимодействие между государственной политикой и крипторынками. Он призывает инвесторов развивать глубокое понимание и адаптивность, а не слепо следовать нарративам.

Александр Гуд – Web 4, ИИ-агенты и Post Fiat L1

Провал Web 3 и рост ИИ-агентов

Александр Гуд (также известный под псевдонимом «goodalexander») утверждает, что Web 3 в значительной степени потерпел неудачу, потому что пользователи больше заботятся об удобстве и торговле, чем о владении своими данными. В своем эссе «Web 4» он отмечает, что принятие потребительских приложений зависит от бесшовного UX; требование от пользователей переводить активы или управлять кошельками убивает рост. Однако он видит появление экзистенциальной угрозы: ИИ-агенты, которые могут генерировать реалистичное видео, управлять компьютерами через протоколы (такие как фреймворк Anthropic «Computer Control») и подключаться к основным платформам, таким как Instagram или YouTube. Поскольку модели ИИ быстро совершенствуются, а стоимость создания контента падает, он предсказывает, что ИИ-агенты будут создавать большую часть онлайн-контента.

Web 4: ИИ-агенты, ведущие переговоры в блокчейне

Гуд предлагает Web 4 в качестве решения. Его ключевые идеи:

  • Экономическая система с ИИ-агентами: Web 4 предполагает, что ИИ-агенты, представляющие пользователей как «голливудские агенты», ведут переговоры от их имени. Эти агенты будут использовать блокчейны для обмена данными, разрешения споров и управления. Пользователи предоставляют контент или экспертные знания агентам, а агенты извлекают ценность — часто взаимодействуя с другими ИИ-агентами по всему миру — а затем распределяют платежи обратно пользователю в крипто.
  • ИИ-агенты справляются со сложностью: Гуд утверждает, что люди не начнут внезапно переводить активы в блокчейны, поэтому ИИ-агенты должны обрабатывать эти взаимодействия. Пользователи будут просто общаться с чат-ботами (через Telegram, Discord и т. д.), а ИИ-агенты будут управлять кошельками, лицензионными соглашениями и обменами токенов за кулисами. Он предсказывает ближайшее будущее, когда будет бесконечное количество протоколов, токенов и конфигураций «компьютер-компьютер», которые будут непонятны людям, что сделает помощь ИИ необходимой.
  • Неизбежные тенденции: Гуд перечисляет несколько тенденций, поддерживающих Web 4: фискальные кризисы правительств стимулируют альтернативы; ИИ-агенты будут каннибализировать прибыль от контента; люди «глупеют», полагаясь на машины; и крупнейшие компании делают ставку на пользовательский контент. Он заключает, что неизбежно, что пользователи будут общаться с системами ИИ, эти системы будут вести переговоры от их имени, а пользователи будут получать криптоплатежи, взаимодействуя в основном через чат-приложения.

Картирование экосистемы и представление Post Fiat

Гуд классифицирует существующие проекты как инфраструктуру Web 4 или проекты компонуемости. Он отмечает, что протоколы, такие как Story, которые создают ончейн-управление для претензий на интеллектуальную собственность, станут двусторонними маркетплейсами между ИИ-агентами. Между тем, Akash и Render продают вычислительные услуги и могут адаптироваться для лицензирования ИИ-агентам. Он утверждает, что биржи, такие как Hyperliquid, выиграют, потому что для удобства использования этих систем потребуются бесконечные обмены токенов.

Его собственный проект, Post Fiat, позиционируется как «кингмейкер в Web 4». Post Fiat — это блокчейн первого уровня (L1), построенный на базовой технологии XRP, но с улучшенной децентрализацией и токеномикой. Ключевые особенности включают:

  • Выбор валидаторов на основе ИИ: Вместо того чтобы полагаться на стейкинг, управляемый людьми, Post Fiat использует большие языковые модели (LLM) для оценки валидаторов по достоверности и качеству транзакций. Сеть распределяет 55% токенов валидаторам через процесс, управляемый ИИ-агентом, с целью «объективности, справедливости и отсутствия участия человека». Ежемесячный цикл системы — публикация, оценка, отправка, верификация, выбор и вознаграждение — обеспечивает прозрачный выбор.
  • Фокус на инвестировании и экспертных сетях: В отличие от XRP, ориентированного на транзакционные банки, Post Fiat нацелен на финансовые рынки, используя блокчейны для комплаенса, индексирования и управления экспертной сетью, состоящей из членов сообщества и ИИ-агентов. AGTI (подразделение Post Fiat по разработке) продает продукты финансовым учреждениям и может запустить ETF, при этом доходы финансируют развитие сети.
  • Новые варианты использования: Проект направлен на разрушение индустрии индексирования путем создания децентрализованных ETF, предоставления соответствующих требованиям зашифрованных заметок и поддержки экспертных сетей, где участники зарабатывают токены за свои идеи. В вайтпейпере подробно описаны технические меры — такие как статистическая дактилоскопия и шифрование — для предотвращения атак Сивиллы и манипулирования системой.

Web 4 как механизм выживания

Гуд заключает, что Web 4 — это механизм выживания, а не просто крутая идеология. Он утверждает, что «бомба сложности» взорвется в течение шести месяцев по мере распространения ИИ-агентов. Пользователям придется отказаться от части прибыли в пользу систем ИИ, потому что участие в агентских экономиках будет единственным способом процветания. По его мнению, мечта Web 3 о децентрализованном владении и конфиденциальности пользователей недостаточна; Web 4 объединит ИИ-агентов, крипто-стимулы и управление, чтобы ориентироваться во все более автоматизированной экономике.

Сравнительный анализ

Сходящиеся темы

  1. Институциональные и технологические сдвиги определяют эндшпиль.
    • Мумтаз предвидит, что регуляторы позволят круглосуточным рынкам и токенизации стать мейнстримом крипто.
    • Вертхаймер подчеркивает институциональное принятие через ETF как катализатор параболической фазы Биткойна.
    • Александр отмечает, что следующий криптобум будет обусловлен ликвидностью, а не циклами, и что макрополитика (например, разворот ФРС) обеспечит мощные попутные ветры.
  2. ИИ становится центральным.
    • Александр подчеркивает инвестирование в ИИ наряду с крипто как два столпа будущего благосостояния.
    • Гуд строит Web 4 вокруг ИИ-агентов, которые совершают транзакции в блокчейнах, управляют контентом и заключают сделки.
    • Выбор валидаторов и управление Post Fiat полагаются на LLM для обеспечения объективности. Вместе эти видения подразумевают, что эндшпиль для крипто будет включать синергию между ИИ и блокчейном, где ИИ обрабатывает сложность, а блокчейны обеспечивают прозрачные расчеты.
  3. Необходимость лучшего управления и справедливости.
    • Мумтаз предупреждает, что централизация управления остается проблемой.
    • Александр призывает понимать игровые стимулы, указывая, что стратегии, подобные MicroStrategy, могут быть играми с нулевой суммой.
    • Гуд предлагает оценку валидаторов на основе ИИ для устранения человеческих предубеждений и создания справедливого распределения токенов, решая проблемы управления в существующих сетях, таких как XRP.

Расходящиеся видения

  1. Роль альткойнов. Вертхаймер считает альткойны обреченными и полагает, что Биткойн захватит большую часть капитала. Мумтаз фокусируется на общем крипторынке, включая токенизированные активы и DeFi, в то время как Александр инвестирует в различные блокчейны и считает, что неэффективность создает возможности. Гуд строит альтернативный L1 (Post Fiat), специализированный для ИИ-финансов, подразумевая, что он видит место для специализированных сетей.
  2. Человеческая субъектность против ИИ-субъектности. Мумтаз и Александр подчеркивают роль человеческих инвесторов и регуляторов, тогда как Гуд предвидит будущее, в котором ИИ-агенты станут основными экономическими акторами, а люди будут взаимодействовать через чат-боты. Этот сдвиг подразумевает принципиально иной пользовательский опыт и поднимает вопросы об автономии, справедливости и контроле.
  3. Оптимизм против осторожности. Тезис Вертхаймера агрессивно оптимистичен в отношении Биткойна с небольшим беспокойством о рисках снижения. Мумтаз оптимистичен в отношении улучшения капитализма с помощью крипто, но признает проблемы регулирования и управления. Александр осторожен — он подчеркивает неэффективность, динамику с нулевой суммой и необходимость развития навыков — при этом все еще веря в долгосрочные перспективы крипто. Гуд считает Web 4 неизбежным, но предупреждает о «бомбе сложности», призывая к подготовке, а не к слепому оптимизму.

Заключение

Панельная дискуссия Token2049 «Крипто-эндшпиль» собрала мыслителей с очень разными точками зрения. Мерт Мумтаз рассматривает крипто как модернизацию капитализма, подчеркивая децентрализацию, прозрачность и круглосуточные рынки. Уди Вертхаймер видит, как Биткойн вступает в поколенческое ралли, вызванное шоком предложения, которое оставит альткойны позади. Жорди Александр занимает более макропрагматичную позицию, призывая инвестировать как в ИИ, так и в крипто, понимая циклы ликвидности и динамику теории игр. Александр Гуд предвидит эру Web 4, где ИИ-агенты ведут переговоры в блокчейнах, а Post Fiat становится инфраструктурой для финансов, управляемых ИИ.

Хотя их видения различаются, общей темой является эволюция экономической координации. Будь то через токенизированные активы, институциональную ротацию, управление на основе ИИ или автономных агентов, каждый спикер считает, что крипто фундаментально изменит то, как создается и обменивается ценность. Таким образом, эндшпиль кажется не столько конечной точкой, сколько переходом в новую систему, где капитал, вычисления и координация сходятся.

Токенизация: Переосмысление рынков капитала

· 11 мин. чтения
Dora Noda
Software Engineer

Введение

Токенизация относится к представлению права собственности на актив в блокчейне посредством цифровых токенов. Эти токены могут представлять финансовые активы (акции, облигации, фонды денежного рынка), реальные активы (недвижимость, искусство, счета-фактуры) или даже сами деньги (стейблкоины или депозитные токены). Перемещая активы в программируемые, постоянно работающие блокчейны, токенизация обещает сократить трения при расчетах, улучшить прозрачность и обеспечить круглосуточный глобальный доступ к рынкам капитала. Во время TOKEN2049 и последующих дискуссий в 2024–2025 годах лидеры криптоиндустрии и традиционных финансов исследовали, как токенизация может изменить рынки капитала.

Ниже представлен подробный обзор видений и прогнозов ключевых участников панели «Токенизация: Переосмысление рынков капитала» и связанных интервью: Диого Моника (генеральный партнер, Haun Ventures), Синтия Ло Бессетт (руководитель отдела управления цифровыми активами, Fidelity Investments), Шан Аггарвал (главный коммерческий директор, Coinbase), Алекс Торн (руководитель отдела исследований, Galaxy) и Арджун Сети (со‑генеральный директор, Kraken). В отчете также рассматриваются их взгляды в контексте более широких разработок, таких как токенизированные казначейские фонды, стейблкоины, депозитные токены и токенизированные акции.

1. Диого Моника – Генеральный партнер, Haun Ventures

1.1 Видение: Стейблкоины — «стартовый выстрел» для токенизации

Диого Моника утверждает, что хорошо регулируемые стейблкоины являются необходимым условием для токенизации рынков капитала. В своей статье для American Banker он написал, что стейблкоины превращают деньги в программируемые цифровые токены, открывая круглосуточную торговлю и позволяя токенизировать многие классы активов. Как только деньги попадают в блокчейн, «вы открываете дверь для токенизации всего остального — акций, облигаций, недвижимости, счетов-фактур, искусства». Моника отмечает, что несколько технологически продвинутых стейблкоинов уже обеспечивают почти мгновенные и дешевые трансграничные переводы; однако необходима ясность регулирования для обеспечения широкого распространения. Он подчеркивает, что регулирование стейблкоинов должно быть строгим — по образцу режима регулирования фондов денежного рынка — для обеспечения защиты потребителей.

1.2 Токенизация возродит формирование капитала и глобализует рынки

Моника утверждает, что токенизация может «исправить» неработающие механизмы формирования капитала. Традиционные IPO дороги и ограничены определенными рынками; однако выпуск токенизированных ценных бумаг может позволить компаниям привлекать капитал в блокчейне с глобальным доступом и более низкими затратами. Прозрачные, всегда открытые рынки могут позволить инвесторам по всему миру торговать токенами, представляющими акции или другие активы, независимо от географических границ. Для Моники цель состоит не в обходе регулирования, а в создании новых регуляторных рамок, которые позволят функционировать ончейн-рынкам капитала. Он утверждает, что токенизированные рынки могут повысить ликвидность традиционно неликвидных активов (например, недвижимости, акций малого бизнеса) и демократизировать инвестиционные возможности. Он подчеркивает, что регуляторы должны разработать последовательные правила для выпуска, торговли и передачи токенизированных ценных бумаг, чтобы инвесторы и эмитенты обрели уверенность в ончейн-рынках.

1.3 Поощрение стартапов и институционального внедрения

Будучи венчурным капиталистом в Haun Ventures, Моника поощряет стартапы, работающие над инфраструктурой для токенизированных активов. Он подчеркивает важность соответствующих требованиям решений для цифровой идентификации и кастодиального хранения, ончейн-управления и взаимодействующих блокчейнов, способных поддерживать большие объемы. Моника рассматривает стейблкоины как первый шаг, но считает, что следующей фазой станут токенизированные фонды денежного рынка и ончейн-казначейства — строительные блоки для полномасштабных рынков капитала.

2. Синтия Ло Бессетт – Руководитель отдела управления цифровыми активами, Fidelity Investments

2.1 Токенизация обеспечивает эффективность транзакций и доступ

Синтия Ло Бессетт возглавляет бизнес Fidelity по управлению цифровыми активами и отвечает за разработку инициатив по токенизации. Она утверждает, что токенизация повышает эффективность расчетов и расширяет доступ к рынкам. В интервью о планируемом Fidelity токенизированном фонде денежного рынка Ло Бессетт заявила, что токенизация активов может «повысить эффективность транзакций» и улучшить доступ и распределение капитала на рынках. Она отметила, что токенизированные активы могут использоваться в качестве неденежного залога для повышения эффективности капитала, и сказала, что Fidelity хочет «быть новатором… [и] использовать технологии для обеспечения лучшего доступа».

2.2 Токенизированный фонд денежного рынка Fidelity

В 2024 году Fidelity подала заявку в SEC на запуск Fidelity Treasury Digital Fund, токенизированного фонда денежного рынка на блокчейне Ethereum. Фонд выпускает акции в виде токенов ERC-20, которые представляют собой дробные доли в пуле государственных казначейских обязательств. Цель состоит в обеспечении круглосуточной подписки и погашения, атомарных расчетов и программируемого соответствия. Ло Бессетт объяснила, что токенизация казначейских обязательств может улучшить операционную инфраструктуру, уменьшить потребность в посредниках и открыть фонд для более широкой аудитории, включая фирмы, ищущие ончейн-залог. Предлагая токенизированную версию основного инструмента денежного рынка, Fidelity стремится привлечь учреждения, изучающие ончейн-финансирование.

2.3 Взаимодействие с регуляторами

Ло Бессетт предупреждает, что регулирование имеет решающее значение. Fidelity работает с регуляторами для обеспечения защиты инвесторов и соблюдения требований. Она считает, что тесное сотрудничество с SEC и отраслевыми органами будет необходимо для получения одобрения на токенизированные паевые фонды и другие регулируемые продукты. Fidelity также участвует в отраслевых инициативах, таких как Tokenized Asset Coalition, для разработки стандартов кастодиального хранения, раскрытия информации и защиты инвесторов.

3. Шан Аггарвал – Главный коммерческий директор, Coinbase

3.1 Расширение за пределы криптоторговли до ончейн-финансов

Будучи первым CBO Coinbase, Шан Аггарвал отвечает за стратегию и новые направления бизнеса. Он сформулировал видение, согласно которому Coinbase становится «AWS криптоинфраструктуры», предоставляя услуги кастодиального хранения, стейкинга, соблюдения требований и токенизации для учреждений и разработчиков. В интервью (переведенном из Forbes) Аггарвал сказал, что видит роль Coinbase в поддержке ончейн-экономики путем создания инфраструктуры для токенизации реальных активов, соединения традиционных финансов с Web3 и предложения финансовых услуг, таких как кредитование, платежи и денежные переводы. Он отмечает, что Coinbase хочет определять будущее денег, а не просто участвовать в нем.

3.2 Стейблкоины — это нативный платежный рельс для ИИ-агентов и глобальной коммерции

Аггарвал считает, что стейблкоины станут нативным расчетным уровнем как для людей, так и для ИИ. В интервью 2024 года он сказал, что стейблкоины обеспечивают глобальные платежи без посредников; по мере распространения ИИ-агентов в коммерции, «стейблкоины являются нативными платежными рельсами для ИИ-агентов». Он предсказывает, что платежи стейблкоинами настолько укоренятся в коммерции, что потребители и машины будут использовать их, не замечая, открывая цифровую коммерцию для миллиардов.

Аггарвал утверждает, что все классы активов в конечном итоге перейдут в блокчейн. Он указывает, что токенизация таких активов, как акции, казначейские обязательства или недвижимость, позволяет мгновенно рассчитываться по ним и торговать ими по всему миру. Он признает, что ясность регулирования и надежная инфраструктура являются необходимыми условиями, но видит неизбежный переход от устаревших клиринговых систем к блокчейнам.

3.3 Формирование институционального внедрения и соблюдения требований

Аггарвал подчеркивает, что учреждениям необходимы безопасное кастодиальное хранение, услуги по соблюдению требований и надежная инфраструктура для внедрения токенизации. Coinbase инвестировала в Coinbase International Exchange, Base (свою сеть L2) и партнерства с эмитентами стейблкоинов (например, USDC). Он предполагает, что по мере токенизации все большего числа активов Coinbase будет предоставлять «единую» инфраструктуру для торговли, финансирования и ончейн-операций. Важно отметить, что Аггарвал тесно сотрудничает с политиками, чтобы гарантировать, что регулирование способствует инновациям, не подавляя рост.

4. Алекс Торн – Руководитель отдела исследований, Galaxy

4.1 Токенизированные акции: Первый шаг в новой инфраструктуре рынков капитала

Алекс Торн возглавляет исследования в Galaxy и сыграл важную роль в решении фирмы токенизировать свои собственные акции. В сентябре 2024 года Galaxy объявила, что позволит акционерам перемещать свои акции Galaxy класса А в блокчейн Solana через партнерство по токенизации с Superstate. Торн объяснил, что токенизированные акции предоставляют те же юридические и экономические права, что и традиционные акции, но их можно передавать одноранговым способом и рассчитываться за минуты, а не за дни. Он сказал, что токенизированные акции — это «новый метод построения более быстрых, более эффективных, более инклюзивных рынков капитала».

4.2 Работа в рамках существующего регулирования и с SEC

Торн подчеркивает важность соблюдения требований. Galaxy разработала свою программу токенизированных акций в соответствии с законами США о ценных бумагах: токенизированные акции выпускаются через регистратора, токены могут передаваться только между кошельками, одобренными KYC, а погашение происходит через регулируемого брокера. Торн сказал, что Galaxy хочет «работать в рамках существующих правил» и будет сотрудничать с SEC для разработки рамок для ончейн-акций. Он считает этот процесс жизненно важным для убеждения регуляторов в том, что токенизация может защитить инвесторов, одновременно обеспечивая повышение эффективности.

4.3 Критическая перспектива в отношении депозитных токенов и несанкционированных предложений

Торн выразил осторожность в отношении других форм токенизации. Обсуждая банковские депозитные токены, он сравнил текущую ситуацию с эпохой «дикого банкинга» 1830-х годов и предупредил, что депозитные токены могут не получить широкого распространения, если каждый банк будет выпускать свой собственный токен. Он утверждал, что регуляторы могут рассматривать депозитные токены как регулируемые стейблкоины и требовать единого, жесткого федерального стандарта, чтобы сделать их взаимозаменяемыми.

Аналогичным образом, он критиковал токен-предложения до IPO, запущенные без согласия эмитента. В интервью о токене Jupiter до IPO акций Robinhood Торн отметил, что многие токены до IPO являются несанкционированными и «не предлагают чистого владения акциями». Для Торна токенизация должна происходить с одобрения эмитента и соблюдением нормативных требований; несанкционированная токенизация подрывает защиту инвесторов и может нанести ущерб общественному восприятию.

5. Арджун Сети – Со‑генеральный директор, Kraken

5.1 Токенизированные акции превзойдут стейблкоины и демократизируют владение

Арджун Сети, со‑генеральный директор Kraken, является ярым сторонником токенизированных акций. Он предсказывает, что токенизированные акции в конечном итоге превзойдут стейблкоины по размеру рынка, поскольку они предоставляют реальные экономические права и глобальную доступность. Сети представляет себе мир, где любой, у кого есть подключение к Интернету, может купить долю любой акции круглосуточно, без географических ограничений. Он утверждает, что токенизированные акции возвращают власть отдельным лицам, устраняя барьеры, налагаемые географией или институциональными привратниками; впервые люди по всему миру могут владеть и использовать долю акции как деньги.

5.2 xStocks и партнерства Kraken

В 2024 году Kraken запустила xStocks, платформу для торговли токенизированными акциями США на Solana. Сети объяснил, что цель состоит в том, чтобы встретить людей там, где они есть — путем встраивания торговли токенизированными акциями в широко используемые приложения. Когда Kraken интегрировала xStocks в Telegram Wallet, Сети сказал, что интеграция направлена на то, чтобы «предоставить сотням миллионов пользователей доступ к токенизированным акциям внутри привычных приложений». Он подчеркнул, что это не просто новинка; это представляет собой смену парадигмы в сторону безграничных рынков, работающих 24/7.

Kraken также приобрела фьючерсную платформу NinjaTrader и запустила сеть Ethereum Layer 2 (Ink), сигнализируя о своем намерении расшириться за пределы криптоиндустрии до полнофункциональной платформы финансовых услуг. Партнерства с Apollo Global и Securitize позволяют Kraken работать над токенизацией частных активов и корпоративных акций.

5.3 Взаимодействие с регуляторами и публичное размещение

Сети считает, что безграничная, постоянно работающая торговая платформа потребует регуляторного сотрудничества. В интервью Reuters он сказал, что расширение на акции является естественным шагом и открывает путь для токенизации активов; будущее торговли будет безграничным, постоянно работающим и построенным на крипторельсах. Kraken взаимодействует с регуляторами по всему миру, чтобы гарантировать соответствие своих токенизированных продуктов законам о ценных бумагах. Сети также заявил, что Kraken может рассмотреть возможность публичного размещения в будущем, если это будет способствовать их миссии.

6. Сравнительный анализ и новые темы

6.1 Токенизация как следующая фаза рыночной инфраструктуры

Все участники дискуссии согласны с тем, что токенизация — это фундаментальное изменение инфраструктуры. Моника описывает стейблкоины как катализатор, который позволяет токенизировать все остальные классы активов. Ло Бессетт рассматривает токенизацию как способ повышения эффективности расчетов и открытия доступа. Аггарвал предсказывает, что все активы в конечном итоге перейдут в блокчейн, и Coinbase предоставит для этого инфраструктуру. Торн подчеркивает, что токенизированные акции создают более быстрые, более инклюзивные рынки капитала, в то время как Сети предвидит, что токенизированные акции превзойдут стейблкоины и демократизируют владение.

6.2 Необходимость ясности регулирования

Повторяющаяся тема — необходимость четкого, последовательного регулирования. Моника и Торн настаивают на том, что токенизированные активы должны соответствовать законам о ценных бумагах, а стейблкоины и депозитные токены требуют строгого регулирования. Ло Бессетт отмечает, что Fidelity тесно сотрудничает с регуляторами, и ее токенизированный фонд денежного рынка разработан таким образом, чтобы соответствовать существующим нормативным рамкам. Аггарвал и Сети подчеркивают взаимодействие с политиками для обеспечения соответствия их ончейн-продуктов требованиям. Без ясности регулирования токенизация рискует воспроизвести фрагментацию и непрозрачность, которые блокчейн стремится решить.

6.3 Интеграция стейблкоинов и токенизированных активов

Стейблкоины и токенизированные казначейские обязательства рассматриваются как фундаментальные. Аггарвал считает стейблкоины нативным рельсом для ИИ и глобальной коммерции. Моника видит хорошо регулируемые стейблкоины как «стартовый выстрел» для токенизации других активов. Токенизированный фонд денежного рынка Ло Бессетт и предостережения Торна относительно депозитных токенов подчеркивают различные подходы к токенизации денежных эквивалентов. По мере широкого распространения стейблкоинов они, вероятно, будут использоваться для расчетов по сделкам с токенизированными ценными бумагами и реальными активами (RWA).

6.4 Демократизация и глобальная доступность

Токенизация обещает демократизировать доступ к рынкам капитала. Энтузиазм Сети по поводу предоставления «сотням миллионов пользователей» доступа к токенизированным акциям через привычные приложения отражает это видение. Аггарвал видит, что токенизация позволит миллиардам людей и ИИ-агентов участвовать в цифровой коммерции. Взгляд Моники на круглосуточные рынки, доступные по всему миру, согласуется с этими прогнозами. Все подчеркивают, что токенизация устранит барьеры и принесет инклюзивность в финансовые услуги.

6.5 Осторожный оптимизм и вызовы

Будучи оптимистичными, участники дискуссии также признают вызовы. Торн предостерегает от несанкционированной токенизации до IPO и подчеркивает, что депозитные токены могут воспроизвести «дикий банкинг», если каждый банк будет выпускать свой собственный. Ло Бессетт и Моника призывают к тщательному регуляторному дизайну. Аггарвал и Сети подчеркивают инфраструктурные требования, такие как соблюдение требований, кастодиальное хранение и пользовательский опыт. Баланс между инновациями и защитой инвесторов будет ключом к реализации полного потенциала токенизированных рынков капитала.

Заключение

Видения, выраженные на TOKEN2049 и в последующих интервью, иллюстрируют общую уверенность в том, что токенизация переосмыслит рынки капитала. Лидеры Haun Ventures, Fidelity, Coinbase, Galaxy и Kraken рассматривают токенизацию как неизбежную эволюцию финансовой инфраструктуры, движимую стейблкоинами, токенизированными казначейскими обязательствами и токенизированными акциями. Они ожидают, что ончейн-рынки будут работать круглосуточно, обеспечивать глобальное участие, сокращать трения при расчетах и демократизировать доступ. Однако эти преимущества зависят от надежного регулирования, соблюдения требований и инфраструктуры. По мере сотрудничества регуляторов и участников отрасли токенизация может открыть новые формы формирования капитала, демократизировать владение и привести к созданию более инклюзивной финансовой системы.