Перейти к основному контенту

584 поста с тегом "Блокчейн"

Общая технология блокчейн и инновации

Посмотреть все теги

Эволюция TRON: от блокчейн-эксперимента к глобальной платежной инфраструктуре

· 17 мин чтения
Dora Noda
Software Engineer

TRON превратился из амбициозного блокчейна, ориентированного на развлечения, в доминирующую в мире платежную сеть стейблкоинов, обрабатывающую более $75 млрд в USDT и приносящую $2,12 млрд годового дохода — превзойдя Ethereum и став самым прибыльным блокчейном в 2024 году. Имея более 300 миллионов пользовательских аккаунтов и осуществляя 75% глобальных переводов USDT, TRON развился из видения Джастина Сана 2017 года о "исцелении интернета" через децентрализованный обмен контентом в то, что он теперь позиционирует как "глобальную финансовую и информационную инфраструктуру". Эта трансформация потребовала стратегических изменений от развлечений к DeFi, спорных приобретений, таких как BitTorrent и Steemit, преодоления плагиатных скандалов и регуляторных вызовов, и, в конечном итоге, нахождения соответствия продукта рынку в качестве низкозатратной платежной системы для развивающихся рынков. Путь TRON показывает, как прагматичная адаптация может преобладать над первоначальным видением, обеспечивая подлинную полезность для трансграничных платежей, одновременно воплощая опасения по поводу централизации, противоречащие основополагающим принципам блокчейна.

От развлекательной платформы к независимому блокчейну (2017–2019)

Джастин Сан основал TRON в июле 2017 года, имея впечатляющие полномочия, которые определили траекторию проекта. Будучи первым выпускником-миллениалом престижного Университета Хупань Джека Ма и бывшим представителем Ripple Labs в Китае, Сан понимал как предпринимательскую деятельность, так и платежные системы на основе блокчейна. Его предыдущее предприятие, Peiwo, привлекло более 10 миллионов пользователей, предоставив TRON немедленную заявленную пользовательскую базу, которой могли похвастаться немногие блокчейн-стартапы. Когда Сан запустил ICO TRON в сентябре 2017 года, стратегически завершив его всего за несколько дней до того, как Китай запретил ICO, он привлек $70 миллионов с видением "исцелить интернет" путем создания децентрализованной инфраструктуры для создателей контента, чтобы монетизировать свою работу без посредников, забирающих 30–90% прибыли.

Первоначальный вайтпейпер формулировал амбициозную философию: пользователи должны владеть и контролировать свои данные, контент должен свободно распространяться без централизованных привратников, а создатели должны получать справедливое вознаграждение через цифровые активы на основе блокчейна. TRON обещал построить "развлекательную систему свободного контента блокчейна" с шестью фазами разработки, охватывающими период с 2017 по 2027 год, от "Исхода" (освобождение данных) до "Вечности" (полная децентрализованная игровая экосистема). Техническое видение было сосредоточено на высокой пропускной способности — заявлено 2 000 транзакций в секунду против 15–25 TPS у Ethereum — в сочетании с почти нулевыми комиссиями и механизмом консенсуса Delegated Proof of Stake. Это позиционирование как "убийцы Ethereum" нашло отклик во время бурного роста ICO в 2017 году, подняв TRX до рыночной капитализации в $18 млрд к январю 2018 года.

Эйфория рухнула с треском, когда разработчики обнаружили, что вайтпейпер TRON содержал девять последовательных страниц, скопированных дословно из документации IPFS и Filecoin без указания авторства. Хуан Бенет, генеральный директор Protocol Labs, подтвердил плагиат, в то время как отдельный анализ показал, что TRON форкнул Java-клиент Ethereum (EthereumJ), нарушив лицензию GNU. Джастин Сан обвинил "переводчиков-добровольцев", оправдание, которое было подорвано, когда китайская версия содержала идентичные скопированные уравнения. Виталик Бутерин саркастически упомянул "эффективность Ctrl+C + Ctrl+V" TRON. Скандал, в сочетании с ложными слухами о партнерстве и спорными тактиками саморекламы Джастина Сана, привел к падению TRX более чем на 80% в течение двух недель. Тем не менее, Сан продолжал техническое развитие, запустив тестовую сеть TRON в марте 2018 года и достигнув критического рубежа 25 июня 2018 года — "Дня независимости" — когда TRON мигрировал с токена Ethereum на независимый блокчейн Уровня-1 со своей собственной основной сетью.

Запуск в День независимости продемонстрировал подлинные технические достижения, несмотря на более ранние противоречия. TRON учредил выбранную сообществом группу из 27 Представителей Генезиса, которые валидировали сеть в ходе четырехфазного процесса, в конечном итоге перейдя к избранным Суперпредставителям в рамках системы Delegated Proof of Stake. Виртуальная машина TRON (TVM) была запущена в августе 2018 года, предлагая почти 100% совместимость с языком программирования Solidity Ethereum, что позволило разработчикам легко портировать приложения. Что более важно, Сан осуществил первое крупное приобретение TRON в июле 2018 года, купив BitTorrent за $140 миллионов. Это принесло более 100 миллионов пользователей и крупнейший в мире децентрализованный протокол обмена файлами под эгиду TRON, обеспечив мгновенную легитимность и инфраструктуру, которую вайтпейпер только обещал. Схема приобретений установила стратегический подход Сана: покупать проверенные платформы с существующими пользователями, а не строить все с нуля.

Расширение экосистемы и прорыв стейблкоинов (2019–2021)

Видение Джастина Сана начало развиваться от развлечений к более широкой инфраструктуре, поскольку фактические варианты использования TRON расходились с его первоначальным позиционированием. В то время как вайтпейпер делал акцент на обмене контентом, азартные dApps изначально доминировали в экосистеме TRON, а такие платформы, как WINK, обеспечивали объем транзакций. Сан переключился на приобретения, которые могли бы расширить охват TRON: DLive, блокчейн-платформа для прямых трансляций с 3,5 миллионами ежемесячных пользователей и эксклюзивным партнерством с PewDiePie, присоединилась к TRON в декабре 2019 года. Спорное приобретение Steemit в феврале 2020 года принесло еще миллион пользователей с блокчейн-платформы социальных сетей, хотя это вызвало восстание сообщества, когда TRON использовал токены, находящиеся на биржах, для замены избранных свидетелей, что привело к хардфорку со стороны несогласных членов, которые создали блокчейн Hive.

Более важным, чем эти приобретения, было органическое развитие, которое определило будущее TRON: Tether начал выпускать значительные объемы USDT в сети TRON в 2019 году. Сочетание низких комиссий TRON (часто менее цента), быстрого времени блока в три секунды и надежной инфраструктуры сделало его идеальным для переводов стейблкоинов. В то время как Ethereum был пионером выпуска USDT, его растущие комиссии за газ — иногда превышающие $20 за транзакцию во время перегрузки сети — создали возможность. Ценовое преимущество TRON оказалось убедительным для основного варианта использования USDT: цифровое перемещение долларов для платежей, денежных переводов и торговли. К 2021 году USDT на TRON превысил $30 миллиардов, и сеть временно превзошла Ethereum по общему объему обращения USDT.

Доминирование стейблкоинов представляло собой стратегический поворот, который Сан изначально не предвидел, но быстро принял. Вместо того чтобы стать "развлекательной системой блокчейна", TRON становился низкозатратной платежной системой мира. Сообщения Сана соответственно изменились, с меньшим акцентом на создателей контента и большим — на финансовую инфраструктуру. Сеть запустила свои собственные проекты стейблкоинов: сначала токен SUN в сентябре 2020 года как "социальный эксперимент" DeFi, затем более амбициозный алгоритмический стейблкоин USDD в мае 2022 года. Хотя USDD столкнулся с трудностями после краха Terra/UST и так и не достиг масштаба USDT, эти инициативы продемонстрировали признание Саном того, что будущее TRON лежит в финансовых услугах, а не в развлечениях.

Декабрь 2021 года ознаменовал еще один поворотный момент, когда Джастин Сан объявил, что TRON перейдет к полностью децентрализованной автономной организации (DAO). Сан ушел с поста генерального директора, чтобы стать Постоянным представителем Гренады во Всемирной торговой организации, дипломатическую роль, которую он использовал для продвижения блокчейна и принятия криптовалют в странах Карибского бассейна. В своем прощальном письме Сан заявил, что TRON стал "по сути децентрализованным", и структура DAO "предоставит пользователям безопасный, децентрализованный блокчейн, который уважает конфиденциальность данных". Критики отметили иронию: Сан контролировал большинство токенов TRX (позже подтверждено в судебных разбирательствах как более 60% предложения), продвигая децентрализацию. Тем не менее, переход к DAO действительно обеспечил управление сообществом через систему Суперпредставителей, где 27 избранных валидаторов производят блоки и принимают протокольные решения каждые шесть часов на основе голосования держателей токенов.

Превосходство стейблкоинов и позиционирование инфраструктуры (2022–2024)

Доминирование TRON в сфере стейблкоинов резко ускорилось с 2022 года, превратившись из конкурентной альтернативы в подавляющего лидера рынка. К 2024 году TRON размещал 50–60% всего USDT в мире — более $75 миллиардов — и обрабатывал 75% глобальных переводов USDT ежедневно, перемещая $17–25 миллиардов в объеме транзакций. Это представляло собой больше, чем численное лидерство; TRON стал стандартным уровнем расчетов для криптовалютных платежей, особенно на развивающихся рынках. В Нигерии, Аргентине, Бразилии и Юго-Восточной Азии сочетание стабильности TRON, выраженной в долларах (через USDT), и незначительных транзакционных издержек сделало его предпочтительной инфраструктурой для денежных переводов, платежей торговцев и доступа к сбережениям, выраженным в долларах, где местные валюты сталкивались с инфляцией.

Заявления Джастина Сана о видении все больше подчеркивали эту трансформацию. На TOKEN2049 в Сингапуре в октябре 2024 года Сан явно озаглавил свой основной доклад "Эволюция TRON: от блокчейна к глобальной инфраструктуре", что стало самым четким выражением перепозиционированной идентичности TRON. Он подчеркнул, что 335 миллионов пользовательских аккаунтов сделали TRON одним из самых используемых блокчейнов в мире, с более чем $27 миллиардами общей заблокированной стоимости (TVL) и квартальным доходом, приближающимся к $1 миллиарду. Что более важно, Сан объявил о институциональных достижениях, которые продемонстрировали массовое принятие: Министерство торговли США выбрало блокчейн TRON для публикации официальных данных ВВП — впервые государственная экономическая статистика появилась на публичном блокчейне. Две заявки на ETF в США для TRX находились на рассмотрении, и зарегистрированная на Nasdaq компания под названием TRON Inc. была запущена со стратегией казначейства TRX, генерирующей $1,8 миллиарда в объеме торгов в первый день.

Сообщения Сана эволюционировали от "убийцы Ethereum" до "глобального расчетного уровня" и "фундаментального компонента глобальной цифровой финансовой инфраструктуры". На Consensus Hong Kong в феврале 2025 года он заявил, что TRON "убежден, что сочетание ИИ и блокчейна будет чрезвычайно мощной комбинацией", и пообещал интеграцию ИИ в течение года. Его видение теперь охватывало три инфраструктурных уровня: финансовый (расчеты стейблкоинов, протоколы DeFi), данные (государственные партнерства для прозрачных экономических данных) и управление (структура DAO с институциональными Суперпредставителями, включая Google Cloud, Binance и Kraken). В интервью и сообщениях в социальных сетях в течение 2024–2025 годов Сан позиционировал TRON как служащий небанковскому населению — ссылаясь на то, что 1,4 миллиарда человек по всему миру не имеют доступа к банковским услугам — предоставляя финансовую инклюзию на основе смартфонов через кошельки USDT, которые позволяют сберегать, переводить и накапливать богатство без традиционных посредников.

Техническая инфраструктура созрела для поддержки этого позиционирования. TRON реализовал Stake 2.0 в апреле 2023 года, устранив трехдневную блокировку отмены стейкинга и обеспечив гибкое делегирование ресурсов. Сеть обрабатывает более 8 миллионов ежедневных транзакций с фактической пропускной способностью 63–272 TPS (значительно ниже заявленных 2 000 TPS, но достаточно для текущего спроса). Что наиболее важно, TRON достиг исключительной надежности с 99,7% времени безотказной работы — резкий контраст с периодическими сбоями Solana — что делает его надежным для платежной инфраструктуры, где простой означает финансовые потери. Модель ресурсов сети, использующая Bandwidth и Energy вместо переменных комиссий за газ, обеспечивала предсказуемость затрат, что критически важно для торговцев и платежных систем. Средние комиссии за транзакции составляли $0,0003, что позволяло осуществлять микроплатежи и высокообъемные, низкостоимостные переводы, которые были бы экономически невыгодны при структуре комиссий Ethereum в $1–50+.

Экосистема DeFi TRON расширилась, став второй по величине не-Ethereum сетью Уровня-1 по общей заблокированной стоимости (TVL), достигнув $4,6–9,3 миллиарда в таких протоколах, как JustLend (кредитование и заимствование), JustStables (выпуск стейблкоинов под залог) и SunSwap (децентрализованная биржа). Запуск SunPump в августе 2024 года, платформы для запуска мемкоинов, вдохновленной Pump.fun Solana, продемонстрировал способность TRON извлекать выгоду из трендов. В течение 12 дней SunPump превзошел Pump.fun по ежедневному количеству запусков токенов, сгенерировав более $1,5 миллиона дохода за две недели и позиционируя TRON как крупную платформу для мемкоинов наряду с доминированием стейблкоинов.

Преодоление противоречий при создании легитимности (2020–2025)

Эволюция TRON происходила на фоне постоянных противоречий, которые формировали его репутацию и требовали адаптивных ответов. Помимо скандала с плагиатом 2018 года, критики постоянно указывали на проблемы централизации: 27 Суперпредставителей, контролирующих консенсус, представляли гораздо меньше валидаторов, чем тысячи у Ethereum или 1 900+ у Solana, в то время как контроль Джастина Сана над большинством токенов создавал непрозрачность управления, несмотря на риторику DAO. Академические исследователи характеризовали TRON как "клон Ethereum без фундаментальных различий" и ставили под сомнение существование технических инноваций помимо форкнутого кода.

Что более серьезно, TRON стал ассоциироваться с незаконной криптовалютной деятельностью. Расследование Wall Street Journal в 2024 году показало, что 58% всех незаконных криптотранзакций в том году произошло на TRON, составив $26 миллиардов. Отчеты Организации Объединенных Наций определили USDT на TRON как "предпочитаемый мошенниками" по всей Азии, в то время как законодатели США выразили обеспокоенность по поводу торговли фентанилом и уклонения от санкций Северной Кореи с использованием инфраструктуры TRON. Сильные стороны сети — низкие комиссии, быстрые расчеты и доступность без KYC — сделали ее привлекательной как для законных пользователей развивающихся рынков, так и для преступников, ищущих эффективные, псевдонимные переводы.

Джастин Сан сам сталкивался с противоречиями, которые периодически подрывали доверие к TRON. Сага об обеде с Уорреном Баффетом в 2019 году — когда Сан заплатил $4,57 миллиона за благотворительный ужин, отменил его, сославшись на камни в почках, а затем появился здоровым через несколько дней на фоне обвинений в отмывании денег — олицетворяла опасения по поводу его суждений и прозрачности. Его заявленное партнерство с футбольным клубом "Ливерпуль" оказалось полностью сфабрикованным, клуб прямо отрицал какие-либо отношения. Удаленное извинение 2019 года за "вульгарный хайп" и "чрезмерный маркетинг" предполагало самосознание, которое Сан редко демонстрировал публично. SEC подала в суд в марте 2023 года, обвинив в незарегистрированных предложениях ценных бумаг TRX и BTT, а также в манипулировании рынком через нераскрытые рекламные акции знаменитостей, судебный процесс, который продолжался до 2024 года, прежде чем был прекращен в начале 2025 года после прокриптовой позиции администрации Трампа.

TRON ответил на эти вызовы прагматичной стратегией соблюдения нормативных требований, что ознаменовало значительный сдвиг. В сентябре 2024 года TRON в партнерстве с Tether и блокчейн-аналитической фирмой TRM Labs запустил T3 Financial Crime Unit (T3 FCU), государственно-частную инициативу по борьбе с незаконной деятельностью. В течение шести месяцев T3 FCU заморозил более $130 миллионов преступных активов на пяти континентах и сотрудничал с глобальными правоохранительными органами для сокращения незаконных транзакций примерно на $6 миллиардов (снижение на 24%). Этот проактивный подход к соблюдению, смоделированный по традиционным финансовым подразделениям по борьбе с отмыванием денег, представлял собой признание Джастином Саном того, что легитимность требует большего, чем маркетинг — она требует управления рисками институционального уровня.

Поворот к соблюдению соответствовал более широкой стратегии Сана по позиционированию TRON для институционального принятия. Стратегические партнерства, объявленные на TOKEN2049 2024, включали интеграцию MetaMask (привлечение десятков миллионов пользователей), deBridge для кросс-чейн совместимости с 25 блокчейнами и, что критически важно, Chainlink в качестве официального решения оракула TRON в октябре 2024 года, обеспечивающего более $6,5 миллиардов в общей заблокированной стоимости DeFi. Наличие таких крупных учреждений, как Google Cloud, Binance и Kraken, в качестве Суперпредставителей придало доверие управлению. Университетская работа Сана с Корнеллом, Дартмутом, Гарвардом и Принстоном была направлена на создание академической легитимности и каналов привлечения разработчиков. Решение Содружества Доминики в октябре 2022 года назначить TRON "национальной блокчейн-инфраструктурой" и предоставить юридический статус законного платежного средства TRX и токенам экосистемы продемонстрировало государственное одобрение, пусть и от небольшой карибской нации.

Путь вперед: амбициозная дорожная карта сталкивается с конкурентным давлением

Текущее видение Джастина Сана для TRON сосредоточено на укреплении его позиции в качестве "глобального расчетного уровня" при одновременном расширении в смежные возможности. Его интервью в июле 2025 года о продвижении мемкоина TRUMP в Азии раскрыло его стратегическое мышление: "TRON имеет потенциал стать расчетным уровнем следующего поколения — не только для стейблкоинов, но и для мемкоинов и других популярных активов". Это позиционирование признает, что TRON не будет конкурировать во всех случаях использования блокчейна, но будет доминировать в определенных нишах, где его инфраструктурные преимущества — стоимость, скорость, надежность — создают защитные барьеры.

Техническая дорожная карта на 2025 год подчеркивает стабильность и оптимизацию производительности, а не революционные изменения. TRON планирует крупную перестройку архитектуры P2P-сети, заменяя семилетнюю инфраструктуру для устранения рисков вредоносных подключений и повышения эффективности. Внедрение поддержки архитектуры ARM направлено на снижение затрат на оборудование и расширение возможностей развертывания узлов. Долгосрочные инициативы включают параллельное выполнение транзакций (в настоящее время последовательная обработка ограничивает пропускную способность) и быструю финализацию, сокращающую время подтверждения с 57 секунд до примерно 6 секунд за счет улучшенных механизмов консенсуса. Механизмы истечения срока действия состояния, абстракция учетных записей для кошельков смарт-контрактов и постоянные улучшения совместимости с EVM завершают техническое видение.

Стратегические приоритеты Сана на 2024–2025 годы подчеркивают интеграцию ИИ, с обещаниями внедрить модели ИИ в TRON "в течение года" для торговых стратегий и взаимодействия с пользователями, позиционируя TRON на пересечении блокчейна и искусственного интеллекта. Дорожная карта DeFi включает расширение возможностей JustLend и SunSwap, рост стейблкоина USDD V2 с рыночной капитализации в $200 миллионов за счет 20% процентных ставок и разработку SunPerp, первой децентрализованной платформы для торговли бессрочными контрактами TRON с нулевыми комиссиями за газ и прозрачностью в сети. Инициативы экосистемы, такие как Программа стимулирования развития мемкоин-экосистемы на $10 миллионов и расширенные хакатоны HackaTRON (7-й сезон предлагает призы на $650 000), направлены на поддержание вовлеченности разработчиков.

Тем не менее, TRON сталкивается с усиливающимся конкурентным давлением, которое ставит под сомнение его доминирование в сфере стейблкоинов. Решения Ethereum Layer-2, такие как Arbitrum, Optimism и Base, снизили транзакционные издержки до центов, сохраняя при этом безопасность и децентрализацию Ethereum, что подрывает основное отличие TRON. Tether объявил о планах по созданию Plasma, блокчейна USDT с нулевыми комиссиями, который мог бы напрямую конкурировать с основным ценностным предложением TRON. Улучшения инфраструктуры Solana и расширение USDC от Circle угрожают доле TRON на рынке стейблкоинов, в то время как регуляторные изменения могут либо легитимизировать TRON (если соответствующие рамки для стейблкоинов благоприятствуют устоявшимся игрокам), либо разрушить его (если регуляторы нацелятся на сети, связанные с незаконной деятельностью).

Недавние политические маневры Джастина Сана свидетельствуют об осознании регуляторного риска. Его инвестиции в размере более $75 миллионов в World Liberty Financial (связанную с президентом Трампом), покупка токенов TRUMP на $100 миллионов и посещение эксклюзивных ужинов с Трампом позиционируют TRON так, чтобы извлечь выгоду из прокриптовалютной политики США. Заявление Сана о том, что благоприятное регулирование "принесет пользу США в течение следующих 20, 50, даже 100 лет", отражает его долгосрочные институциональные амбиции. Дипломатические полномочия от его роли в ВТО Гренады и партнерство с Содружеством Доминики обеспечивают дополнительное геополитическое позиционирование.

Парадокс TRON: прагматичный успех против философского компромисса

Восьмилетняя эволюция TRON от развлекательного блокчейна до инфраструктуры стейблкоинов воплощает фундаментальное напряжение в криптовалюте: может ли централизованная эффективность обеспечить децентрализованную ценность? Сеть генерирует $2,12 миллиарда годового дохода — превышая Ethereum, несмотря на в десять раз меньшую экосистему разработчиков — безжалостно сосредоточившись на конкретном варианте использования, где производительность важнее чистоты децентрализации. Более 300 миллионов пользовательских аккаунтов и ежедневная обработка десятков миллиардов переводов стейблкоинов демонстрируют подлинную полезность, особенно для пользователей развивающихся рынков, получающих доступ к финансовым услугам, выраженным в долларах, без традиционной банковской инфраструктуры.

Видение Джастина Сана эволюционировало от идеалистической риторики об "исцелении интернета" и расширении возможностей создателей контента до прагматичного создания инфраструктуры вокруг платежей и финансовой инклюзии. Его позиционирование TRON в 2025 году как "глобального порта для финансов — где деньги становятся безграничными, возможности универсальными, а доступ к цифровой экономике открыт для всех" отражает стратегическую ясность относительно того, где TRON преуспел, а где первоначальные амбиции потерпели неудачу. Видение развлечений и обмена контентом в значительной степени испарилось; интеграция BitTorrent так и не превратила TRON в контент-платформу, DLive столкнулся с катастрофами модерации контента, а приобретение Steemit вызвало восстание сообщества, а не рост экосистемы.

Тем не менее, доминирование стейблкоинов представляет собой нечто большее, чем случайный успех — оно демонстрирует адаптивное стратегическое мышление. Сан признал, что технические характеристики TRON (низкие комиссии, быстрое подтверждение, надежное время безотказной работы) лучше соответствуют потребностям развивающихся рынков в платежах, чем любое повествование о децентрализованном контенте. Вместо того чтобы навязывать первоначальное видение, он изменил сообщения и приоритеты в сторону варианта использования, который получил органическую поддержку. Приобретения, спорные и иногда плохо управляемые, принесли пользовательские базы и легитимность быстрее, чем мог бы достичь органический рост. Инициативы по соблюдению, особенно T3 FCU, показали извлечение уроков из критики, а не оборонительное отрицание.

Фундаментальный вопрос остается: противоречит ли централизация TRON — 27 валидаторов, контроль большинства основателем, концентрированное распределение токенов — цели блокчейна или представляет собой необходимые компромиссы для производительности? TRON доказывает, что относительно централизованный блокчейн может обеспечивать реальную ценность в масштабе, обслуживая миллионы людей, которым нужны быстрые, дешевые, надежные долларовые переводы больше, чем философская чистота децентрализации. Но он также демонстрирует, что спорное руководство, плагиат кода, регуляторные проблемы и непрозрачность управления создают постоянный дефицит легитимности, который ограничивает институциональное принятие и доверие сообщества.

Будущее TRON, вероятно, зависит от того, окажется ли его стейблкоин-барьер устойчивым по мере развития Ethereum Layer-2, будут ли регуляторные среды благоприятствовать или наказывать его исторические связи с незаконной деятельностью, и сможет ли Джастин Сан перейти от спорного основателя к уважаемому поставщику инфраструктуры. Сеть эволюционировала от блокчейна к инфраструктуре, как заявляет Сан, но достигнет ли она "глобального" масштаба, зависит от преодоления конкурентных, регуляторных и репутационных вызовов при сохранении экономической эффективности и надежности, которые привели к первоначальному успеху. С более чем $75 миллиардами в USDT, более 300 миллионами пользователей и доминирующим присутствием на развивающихся рынках, TRON достиг статуса инфраструктуры — вопрос в том, станет ли эта инфраструктура основным стержнем или нишевой платежной системой, постепенно вытесняемой лучше управляемыми конкурентами.

Видение Баладжи о криптоидентичности: от ключей к сетевым государствам

· 10 мин чтения
Dora Noda
Software Engineer

1) Что Баладжи подразумевает под «криптоидентичностью»

В словаре Баладжи криптоидентичность — это идентичность, основанная на криптографии — в частности, на парах открытых и закрытых ключей — и затем расширенная ончейн-именами, проверяемыми учетными данными/аттестациями и интерфейсами к устаревшей («фиатной») идентичности. В его словах и работах:

  • Ключи как идентичность. Основой является идея, что в Bitcoin и web3 ваша пара ключей — это ваша идентичность; аутентификация и авторизация исходят из контроля над закрытыми ключами, а не из учетных записей в корпоративной базе данных. (balajis.com)
  • Имена и репутация ончейн. Системы именования, такие как ENS/SNS, привязывают удобочитаемые идентификаторы к адресам; учетные данные (NFT, «связанные с душой» токены, ончейн «криптоучетные данные») и аттестации накладывают репутацию и историю на эти идентификаторы.
  • Ончейн, проверяемая «перепись». Для обществ и сетевых государств идентичность участвует в криптографически проверяемой переписи (доказательство человечности/уникальной личности, доказательство дохода, доказательство владения недвижимостью) для демонстрации реального населения и экономической активности.
  • Соединение устаревшего ID ↔ крипто ID. Он прямо утверждает, что нам нужен «обмен фиатной идентичности ↔ криптоидентичности» — сродни фиат↔крипто биржам — чтобы «цифровые паспорта следовали за цифровой валютой». Он выделяет «криптопаспорта» как следующий интерфейс после стейблкоинов. (Circle)
  • Идентичность для «web3 доверия» в эпоху ИИ. Чтобы противостоять дипфейкам и ботам, он продвигает контент, подписанный ончейн-идентификаторами (например, ENS), чтобы происхождение и авторство были криптографически проверяемы по всей открытой сети. (Chainlink Today)
  • Гражданская защита. В его кратком изложении: «Криптовалюта частично защищает вас от дебанкинга. Криптоидентичность частично защищает вас от денатурализации». (X (ранее Twitter))

2) Как развивалось его видение (краткая хронология)

  • 2019–2020 – криптографическая идентичность и псевдонимность. В работах Баладжи подчеркивается криптография с открытым ключом как идентичность (ключи как ID) и прогнозируется рост децентрализованной идентичности + репутации на протяжении 2020-х годов. В то же время его доклад «псевдонимная экономика» выступает за постоянные, несущие репутацию псевдонимы для защиты свободы слова и экспериментов с новыми видами работы и организации. (balajis.com)
  • 2022 – Сетевое государство. Он формализует роль идентичности в сетевом государстве: ончейн-перепись; идентичность в стиле ENS; криптографические доказательства (личности/дохода/недвижимости); и криптоучетные данные/soulbounds. Идентичность является инфраструктурной — это то, что общество считает и что мир может проверить.
  • 2022–2024 – мосты к устаревшим системам. В публичных интервью и своем подкасте он призывает к мостам фиатной↔криптоидентичности (например, цифровая резиденция RNS.ID Палау) и подчеркивает необходимость перевода «бумажных» записей в код. (Circle)
  • 2023–настоящее время – идентичность как защита от подделок ИИ. Он рассматривает криптоидентичность как основу «web3 доверия»: подписанный контент, ончейн-происхождение и экономическое трение (стейкинг, платежи) для отделения людей от ботов. (Chainlink Today)

3) Технический стек, на который указывает Баладжи

Корневой примитив: ключи и кошельки

  • Контроль над закрытым ключом = контроль над идентичностью; ротация/разделение ключей для разных персон и профилей риска. (balajis.com)

Разрешение и вход

  • ENS/SNS сопоставляют удобочитаемые имена с адресами; Sign‑In with Ethereum (EIP‑4361) превращает эти адреса в стандартный способ аутентификации для оффчейн-приложений.

Учетные данные и аттестации (уровень репутации)

  • W3C Verifiable Credentials (VC 2.0) определяют интероперабельный способ выдачи/хранения/проверки утверждений (например, проверки KYC, дипломы).
  • Ethereum Attestation Service (EAS) предоставляет общедоступный уровень для ончейн- или оффчейн-аттестаций для создания идентичности, репутации и реестров, которые приложения могут проверять. (W3C)

Доказательство личности и уникальности

  • В Сетевом государстве Баладжи описывает методы «доказательства человечности» для ончейн-переписи; вне его работы подходы, такие как World ID, пытаются проверить человечность/уникальность, что также вызвало опасения по поводу защиты данных — иллюстрируя компромиссы биометрического PoP.

Мосты к устаревшей идентичности

  • Palau RNS.ID — яркий пример суверенного государства, выдающего юридический идентификатор с ончейн-компонентами; принятие неравномерно на разных платформах, что подчеркивает проблему «моста», которую выделяет Баладжи. (Biometric Update)

Происхождение и защита от дипфейков

  • Он выступает за подписание контента с адресов, связанных с ENS, чтобы каждое изображение/пост/видео можно было отследить до криптографической идентичности в «web3 доверия». (Chainlink Today)

4) Почему это важно (стратегические утверждения Баладжи)

  1. Устойчивость к цензуре и деплатформингу: Ключи и децентрализованное именование снижают зависимость от централизованных поставщиков ID. (Ключи — это идентификаторы на предъявителя.) (balajis.com)
  2. Проверяемость для обществ: Сетевые государства требуют проверяемого населения/дохода/следа; проверяемость невозможна без идентичности, которая может быть доказана ончейн.
  3. Устойчивость к ИИ: Криптографический уровень идентичности (плюс подписи/аттестации) лежит в основе подлинности в интернете, противодействуя подделкам, созданным ИИ. (Chainlink Today)
  4. Интероперабельность и компонуемость: Стандарты (ENS, SIWE, VC/EAS) делают идентичность переносимой между приложениями и юрисдикциями.

5) Как это связано с Сетевым государством

Книга Баладжи неоднократно связывает идентичность с ончейн-переписью в реальном времени — включая доказательство человечности, доказательство дохода и доказательство владения недвижимостью — и выделяет именование (ENS) и криптоучетные данные как основные примитивы. Он также описывает паттерны «ENS-вход в физический мир» (цифровые ключи к дверям/услугам), встроенные в социальный смарт-контракт, указывая на криптоидентичность как на уровень доступа как для цифрового, так и (в конечном итоге) для физического управления.


6) План реализации (практический путь, который вы можете осуществить сегодня)

A. Установите базовые идентификаторы

  1. Сгенерируйте отдельные пары ключей для: (i) юридического/«реального имени», (ii) рабочего/профессионального псевдонима, (iii) псевдонима для публичных выступлений. Храните каждый в отдельной конфигурации кошелька (аппаратный, MPC или смарт-аккаунты с хранителями). (balajis.com)
  2. Зарегистрируйте имена ENS для каждой персоны; опубликуйте минимальные метаданные публичного профиля.

B. Добавьте аутентификацию и происхождение контента 3. Включите SIWE (EIP‑4361) для входа в приложения; постепенно отказывайтесь от паролей/социальных входов. (Ethereum Improvement Proposals) 4. Подписывайте публичные артефакты (посты, изображения, выпуски кода) с вашего адреса, связанного с ENS; опубликуйте простую ленту «подписанного контента», которую другие могут проверить. (Chainlink Today)

C. Наложите учетные данные и аттестации 5. Выдавайте/собирайте VC для юридических фактов (роль в компании, лицензии) и аттестации EAS для мягких сигналов (репутация, проверенные вклады, посещаемость). Храните конфиденциальные утверждения оффчейн, оставляя только хеши/квитанции ончейн. (W3C)

D. Подключайтесь к устаревшей идентичности при необходимости 6. Там, где это законно и полезно, свяжите суверенный/корпоративный ID (например, Palau RNS.ID) с вашей криптоидентичностью для мест, требующих KYC. Ожидайте неоднородного принятия и поддерживайте альтернативы. (Biometric Update)

E. Развертывание для групп/обществ 7. Для стартап-общества или DAO: - Ограничьте членство с помощью ENS + метода доказательства человечности, который вы считаете приемлемым. - Поддерживайте публичную, проверяемую перепись (количество членов/доходов/активов), используя оракулы плюс подписанные аттестации, а не необработанные PII.


7) Риски, критика и открытые вопросы

  • Эрозия конфиденциальности/псевдонимности. Анализ блокчейна может группировать кошельки; собственная концепция псевдонимности Баладжи предупреждает, как несколько «битов» данных могут повторно идентифицировать вас. Используйте миксеры/технологии конфиденциальности осторожно и законно — но признавайте ограничения. (blog.blockstack.org)
  • Компромиссы доказательства личности. Биометрический PoP (например, радужная оболочка глаза) вызывает значительное внимание к защите данных; альтернативные методы PoP снижают риск, но могут увеличить уязвимость к атакам Сивиллы. (law.kuleuven.be)
  • Хрупкость моста. ID в стиле Палау не являются универсальным пропуском KYC; принятие варьируется в зависимости от платформы и юрисдикции и может меняться. Разрабатывайте с учетом постепенной деградации. (Malakouti Law)
  • Потеря ключей и принуждение. Ключи могут быть украдены/принудительно получены; используйте мультиподпись/хранителей и политики реагирования на инциденты. (Модель Баладжи предполагает криптографию + согласие, что должно быть социально спроектировано.) (balajis.com)
  • Централизация имен/реестров. ENS или любой орган именования становится узким местом политики; смягчайте это с помощью многоперсонального дизайна и экспортируемых доказательств.

8) Как криптоидентичность Баладжи соотносится со стандартами (и в чем ее отличия)

  • Соответствие:

    • DIDs + VCs (W3C) = переносимые, интероперабельные идентификаторы/утверждения; SIWE = аутентификация, встроенная в кошелек; EAS = аттестации для репутации/реестров. Это компоненты, на которые он указывает — даже если он использует простой язык (ENS, учетные данные), а не аббревиатуры стандартов. (W3C)
  • Различия/акцент:

    • Он возвышает общественную проверяемость (ончейн-перепись) и происхождение в эпоху ИИ (подписанный контент) больше, чем многие обсуждения DID/VC, и он явно продвигает мосты фиатной↔криптоидентичности и криптопаспорта как ближайший приоритет.

9) Если вы создаете: минимально жизнеспособное внедрение «криптоидентичности» (90 дней)

  1. Неделя 1–2: Ключи, ENS, SIWE включены; опубликуйте свою политику подписи и начните подписывать публичные посты/релизы. (Ethereum Improvement Proposals)
  2. Неделя 3–6: Интегрируйте VC/EAS для роли/членства/участия; создайте публичную «страницу доверия», которая программно проверяет эти данные. (W3C)
  3. Неделя 7–10: Создайте базовую панель мониторинга переписи (общее количество членов, ончейн-доказательства казначейства/дохода) с четкой позицией по конфиденциальности.
  4. Неделя 11–13: Протестируйте устаревший мост (например, RNS.ID, где это уместно) для одного потока, требующего соблюдения нормативных требований; опубликуйте результаты (что сработало/не сработало). (Biometric Update)

Избранные источники (основные и опорные)

  • Сетевое государство (ончейн-перепись; ENS/идентичность; криптоучетные данные) и примеры «ENS-входа в физический мир».
  • Криптография с открытым ключом (ключи как идентичность). (balajis.com)
  • Circle – Движение денег (Эп. 74) (мост фиатной↔криптоидентичности; «криптопаспорта»). (Circle)
  • Подкаст The Network State, Эп. 10 (обмен фиатной идентичности→криптоидентичности; Palau RNS.ID). (thenetworkstate.com)
  • Chainlink Today (подписанный контент/ENS для борьбы с дипфейками; «web3 доверия»). (Chainlink Today)
  • Баладжи в X («Криптоидентичность… денатурализация»). (X (ранее Twitter))
  • Стандарты: W3C DID Core, VC 2.0; EIP‑4361 (SIWE); документация EAS. (W3C)
  • RNS.ID / Палау (реальный мост; смешанное принятие). (Biometric Update)
  • Псевдонимная экономика (идентичность и интуиция повторной идентификации по 33 битам). (blog.blockstack.org)

Итог

Для Баладжи криптоидентичность — это не просто «технология DID». Это цивилизационный примитив: ключи и подписи в основе; имена и учетные данные сверху; мосты к устаревшей идентичности; и проверяемая публичная запись, которая масштабируется от отдельных лиц до сетевых обществ. Это способ получить подлинных людей и подлинные записи в интернете, наводненном ИИ, — и способ для стартап-общества доказать свою реальность, не требуя от мира верить ему на слово. (Chainlink Today)

Если хотите, я могу адаптировать план реализации под ваш конкретный случай использования (потребительское приложение, DAO, предприятие или пилотный проект стартап-общества) и предоставить конкретные схемы/потоки для SIWE, EAS и VC 2.0, соответствующие вашим нормативным требованиям и ограничениям UX.

Следующая глава DeFi: перспективы от ведущих разработчиков и инвесторов (2024 – 2025)

· 11 мин чтения
Dora Noda
Software Engineer

Децентрализованные финансы (DeFi) значительно развились от спекулятивного бума лета 2020 года до цикла 2024–2025 годов. Более высокие процентные ставки замедлили рост DeFi в 2022–2023 годах, но появление высокопроизводительных блокчейнов, стимулирующих токенов и более четкой нормативно-правовой среды создает условия для новой фазы ончейн-финансов. Лидеры Hyperliquid, Aave, Ethena и Dragonfly разделяют общее ожидание, что следующая глава будет обусловлена подлинной полезностью: эффективной рыночной инфраструктурой, доходными стейблкоинами, токенизацией реальных активов и пользовательским опытом с помощью ИИ. Следующие разделы анализируют будущее DeFi через призму мнений Джеффа Яна (Hyperliquid Labs), Стани Кулехова (Aave Labs), Гая Янга (Ethena Labs) и Хасиба Куреши (Dragonfly).

Джефф Ян – Hyperliquid Labs

Предыстория

Джефф Ян — соучредитель и генеральный директор Hyperliquid, децентрализованной биржи (DEX), которая управляет высокопроизводительной книгой ордеров для бессрочных фьючерсов и спотовой торговли. Hyperliquid приобрела известность в 2024 году благодаря своему аирдропу, управляемому сообществом, и отказу продавать акции венчурным капиталистам; Ян сохранил команду небольшой и самофинансируемой, чтобы сосредоточиться на продукте. Видение Hyperliquid — стать децентрализованным базовым уровнем для других финансовых продуктов, таких как токенизированные активы и стейблкоины.

Видение следующей главы DeFi

  • Эффективность вместо хайпа. На панели Token 2049 Ян сравнил DeFi с математической задачей; он утверждал, что рынки должны быть эффективными, где пользователи получают лучшие цены без скрытых спредов. Высокопроизводительная книга ордеров Hyperliquid призвана обеспечить эту эффективность.
  • Владение сообществом и анти-венчурная позиция. Ян считает, что успех DeFi должен измеряться ценностью, предоставляемой пользователям, а не выходом инвесторов. Hyperliquid отказалась от партнерства с частными маркет-мейкерами и листингов на централизованных биржах, чтобы избежать компрометации децентрализации. Этот подход соответствует этосу DeFi: протоколы должны принадлежать их сообществам и создаваться для долгосрочной полезности.
  • Фокус на инфраструктуре, а не на цене токена. Ян подчеркивает, что цель Hyperliquid — создание надежной технологии; улучшения продукта, такие как HIP‑3, направлены на снижение рисков dApp за счет автоматизированных аудитов и лучшей интеграции. Он избегает жестких дорожных карт, предпочитая адаптироваться к отзывам пользователей и технологическим изменениям. Эта адаптивность отражает более широкий сдвиг от спекуляций к зрелой инфраструктуре.
  • Видение безразрешительного финансового стека. Ян видит, как Hyperliquid превращается в фундаментальный уровень, на котором другие могут создавать стейблкоины, RWA и новые финансовые инструменты. Оставаясь децентрализованным и капиталоэффективным, он надеется создать нейтральный уровень, подобный децентрализованному Nasdaq.

Выводы

Перспектива Джеффа Яна подчеркивает эффективность рынка, владение, управляемое сообществом, и модульную инфраструктуру. Он видит следующую главу DeFi как фазу консолидации, в которой высокопроизводительные DEX становятся основой для токенизированных активов и доходных продуктов. Его отказ от венчурного финансирования сигнализирует о противодействии чрезмерным спекуляциям; в следующей главе протоколы могут отдавать приоритет устойчивости над громкими оценками.

Стани Кулехов – Aave Labs

Предыстория

Стани Кулехов основал Aave, один из первых протоколов денежного рынка и лидера в децентрализованном кредитовании. Рынки ликвидности Aave позволяют пользователям получать доход или занимать активы без посредников. К 2025 году TVL и набор продуктов Aave расширились, включив стейблкоины и недавно запущенный Family Wallet — фиат-крипто шлюз, дебютировавший на саммите Blockchain Ireland.

Видение следующей главы DeFi

  • Катализатор снижения ставок для «DeFi лета 2.0». На Token 2049 Кулехов утверждал, что падение процентных ставок вызовет новый бум DeFi, аналогичный 2020 году. Более низкие ставки создают арбитражные возможности, поскольку ончейн-доходность остается привлекательной по сравнению с TradFi, привлекая капитал в протоколы DeFi. Он вспоминает, что TVL DeFi подскочил с менее чем $1 миллиарда до $10 миллиардов во время снижения ставок в 2020 году и ожидает аналогичной динамики, когда денежно-кредитная политика ослабнет.
  • Интеграция с финтехом. Кулехов предвидит внедрение DeFi в основную финтех-инфраструктуру. Он планирует распределять ончейн-доходность через удобные для потребителя приложения и институциональные каналы, превращая DeFi в бэкэнд для сберегательных продуктов. Family Wallet является примером этого, предлагая бесшовные конвертации фиат-стейблкоинов и ежедневные платежи.
  • Реальные активы (RWA) и стейблкоины. Он рассматривает токенизированные реальные активы и стейблкоины как столпы будущего блокчейна. Стейблкоин GHO от Aave и инициативы RWA направлены на привязку доходности DeFi к залогам реальной экономики, преодолевая разрыв между крипто- и традиционными финансами.
  • Инновации, управляемые сообществом. Кулехов приписывает успех Aave своему сообществу и ожидает, что инновации, управляемые пользователями, будут двигать следующую фазу. Он предполагает, что DeFi сосредоточится на потребительских приложениях, которые абстрагируют сложность, сохраняя при этом децентрализацию.

Выводы

Стани Кулехов предвидит возвращение бычьего цикла DeFi, подпитываемого более низкими ставками и улучшенным пользовательским опытом. Он подчеркивает интеграцию с финтехом и реальными активами, предсказывая, что стейблкоины и токенизированные казначейские обязательства встроят доходность DeFi в повседневные финансовые продукты. Это отражает созревание от спекулятивного доходного фермерства до инфраструктуры, которая сосуществует с традиционными финансами.

Гай Янг – Ethena Labs

Предыстория

Гай Янг — генеральный директор Ethena Labs, создателя sUSDe, синтетического долларового стейблкоина, который использует дельта-нейтральные стратегии для предложения доходного доллара. Ethena привлекла внимание благодаря предоставлению привлекательной доходности при использовании залога USDT и коротких бессрочных позиций для хеджирования ценового риска. В 2025 году Ethena объявила об инициативах, таких как iUSDe, соответствующая требованиям обернутая версия для традиционных учреждений.

Видение следующей главы DeFi

  • Стейблкоины для сбережений и торгового обеспечения. Янг классифицирует варианты использования стейблкоинов на торговое обеспечение, сбережения для развивающихся стран, платежи и спекуляции. Ethena фокусируется на сбережениях и торговле, потому что доходность делает доллар привлекательным, а интеграция с биржами стимулирует внедрение. Он считает, что доходный доллар станет самым важным сберегательным активом в мире.
  • Нейтральные, платформенно-независимые стейблкоины. Янг утверждает, что стейблкоины должны быть нейтральными и широко приниматься на всех площадках; попытки бирж продвигать собственные стейблкоины вредят пользовательскому опыту. Использование USDT компанией Ethena увеличивает спрос на Tether, а не конкурирует с ним, демонстрируя синергию между стейблкоинами DeFi и существующими игроками.
  • Интеграция с TradFi и мессенджерами. Ethena планирует выпустить iUSDe с ограничениями на передачу для удовлетворения нормативных требований и интегрировать sUSDe в Telegram и Apple Pay, позволяя пользователям сберегать и тратить доходные доллары, как отправлять сообщения. Янг предполагает предоставление опыта, подобного необанку, миллиарду пользователей через мобильные приложения.
  • Переход к фундаментальным показателям и RWA. Он отмечает, что криптоспекуляции кажутся насыщенными — рыночная капитализация альткоинов достигла пика в $1,2 триллиона как в 2021, так и в 2024 году — поэтому инвесторы сосредоточатся на проектах с реальным доходом и токенизированных реальных активах. Стратегия Ethena по предоставлению доходности от офчейн-активов позиционирует ее для этого перехода.

Выводы

Перспектива Гая Янга сосредоточена на доходных стейблкоинах как на «убийственном приложении» DeFi. Он утверждает, что следующая глава DeFi включает в себя повышение продуктивности долларов и встраивание их в основные платежи и мессенджеры, привлекая миллиарды пользователей. Платформенно-независимый подход Ethena отражает убеждение, что стейблкоины DeFi должны дополнять, а не конкурировать с существующими системами. Он также предвидит переход от спекулятивных альткоинов к токенам, генерирующим доход, и RWA.

Хасиб Куреши – Dragonfly

Предыстория

Хасиб Куреши — управляющий партнер Dragonfly, венчурной фирмы, специализирующейся на крипто и DeFi. Куреши известен своими аналитическими статьями и участием в подкасте Chopping Block. В конце 2024 и начале 2025 года он опубликовал серию прогнозов, описывающих, как ИИ, стейблкоины и регуляторные изменения будут формировать криптоиндустрию.

Видение следующей главы DeFi

  • Кошельки и агенты на базе ИИ. Куреши предсказывает, что ИИ-агенты произведут революцию в криптоиндустрии, автоматизируя мосты, оптимизируя торговые маршруты, минимизируя комиссии и отводя пользователей от мошенничества. Он ожидает, что кошельки, управляемые ИИ, будут беспрепятственно обрабатывать кроссчейн-операции, снижая сложность, которая в настоящее время отпугивает обычных пользователей. Инструменты разработки с помощью ИИ также упростят создание смарт-контрактов, укрепляя доминирование EVM.
  • Токены ИИ-агентов против мем-коинов. Куреши считает, что токены, связанные с ИИ-агентами, превзойдут мем-коины в 2025 году, но предупреждает, что новизна исчезнет, а реальная ценность будет исходить от влияния ИИ на разработку программного обеспечения и торговлю. Он рассматривает нынешнее волнение как сдвиг от «финансового нигилизма к финансовому сверхоптимизму», предостерегая от чрезмерного хайпа вокруг чат-бот-коинов.
  • Сближение стейблкоинов и ИИ. В своих прогнозах на 2025 год Куреши выделяет шесть основных тем: (1) различие между сетями первого и второго уровня будет стираться по мере того, как инструменты ИИ расширят долю EVM; (2) распределение токенов изменится с крупных аирдропов на модели, основанные на метриках или краудфандинге; (3) принятие стейблкоинов резко возрастет, при этом банки будут выпускать свои собственные стейблкоины, а Tether сохранит доминирование; (4) ИИ-агенты будут доминировать в крипто-взаимодействиях, но их новизна может исчезнуть к 2026 году; (5) инструменты ИИ значительно снизят затраты на разработку, что позволит волне инноваций dApp и повысит безопасность; и (6) регуляторная ясность, особенно в США, ускорит массовое принятие.
  • Институциональное принятие и регуляторные сдвиги. Куреши ожидает, что компании из списка Fortune 100 будут предлагать криптоактивы потребителям при администрации Трампа и считает, что законодательство США о стейблкоинах будет принято, открывая путь для институционального участия. Обзор исследований Gate.io подтверждает это, отмечая, что ИИ-агенты будут использовать стейблкоины для одноранговых транзакций и что децентрализованное обучение ИИ ускорится.
  • DeFi как инфраструктура для финансов с поддержкой ИИ. В подкасте The Chopping Block Куреши назвал Hyperliquid «крупнейшим победителем» цикла 2024 года и предсказал, что токены DeFi покажут взрывной рост в 2025 году. Он объясняет это такими инновациями, как пулы ликвидности, которые делают децентрализованную торговлю бессрочными фьючерсами конкурентоспособной. Его бычий настрой в отношении DeFi проистекает из убеждения, что пользовательский опыт, основанный на ИИ, и регуляторная ясность привлекут капитал в ончейн-протоколы.

Выводы

Хасиб Куреши рассматривает следующую главу DeFi как сближение ИИ и ончейн-финансов. Он предвидит всплеск кошельков, управляемых ИИ, и автономных агентов, которые упростят взаимодействие с пользователями и привлекут новых участников. Однако он предупреждает, что ажиотаж вокруг ИИ может угаснуть; устойчивая ценность будет исходить от инструментов ИИ, снижающих затраты на разработку и повышающих безопасность. Он ожидает, что законодательство о стейблкоинах, институциональное принятие и распределение токенов, основанное на метриках, профессионализируют отрасль. В целом, он видит, как DeFi превращается в основу для финансовых услуг с поддержкой ИИ, соответствующих нормативным требованиям.

Сравнительный анализ

ИзмерениеДжефф Ян (Hyperliquid)Стани Кулехов (Aave)Гай Янг (Ethena)Хасиб Куреши (Dragonfly)
Основное вниманиеВысокопроизводительная инфраструктура DEX; владение сообществом; эффективностьДецентрализованное кредитование; интеграция с финтехом; реальные активыДоходные стейблкоины; торговое обеспечение; интеграция платежейИнвестиционная перспектива; ИИ-агенты; институциональное принятие
Ключевые факторы для следующей главыЭффективные рынки книг ордеров; модульный протокольный уровень для RWA и стейблкоиновСнижение ставок, стимулирующее приток капитала и «DeFi лето 2.0»; интеграция с финтехом и RWAНейтральные стейблкоины, генерирующие доход; интеграция с мессенджерами и TradFiКошельки и агенты на базе ИИ; регуляторная ясность; распределение токенов, основанное на метриках
Роль стейблкоиновЛежит в основе будущих слоев DeFi; поощряет децентрализованных эмитентовСтейблкоин GHO и токенизированные казначейские обязательства интегрируют доходность DeFi в основные финансовые продуктыsUSDe превращает доллары в доходные сбережения; iUSDe ориентирован на институтыБанки будут выпускать стейблкоины к концу 2025 года; ИИ-агенты будут использовать стейблкоины для транзакций
Взгляд на стимулы токеновОтклоняет венчурное финансирование и сделки с частными маркет-мейкерами для приоритета сообществаПодчеркивает инновации, управляемые сообществом; рассматривает токены DeFi как инфраструктуру для финтехаВыступает за платформенно-независимые стейблкоины, дополняющие существующие экосистемыПрогнозирует переход от крупных аирдропов к распределениям, основанным на KPI или краудфандинге
Перспективы регулирования и институтовМинимальное внимание к регулированию; подчеркивает децентрализацию и самофинансированиеВидит, что регуляторная ясность позволяет токенизацию RWA и институциональное использованиеРаботает над iUSDe с ограничениями на передачу для соответствия нормативным требованиямОжидает, что законодательство США о стейблкоинах и прокриптовая администрация ускорят принятие
Об ИИ и автоматизацииН/ПН/ПНе является центральным (хотя Ethena может использовать системы ИИ для управления рисками)ИИ-агенты будут доминировать в пользовательском опыте; новизна исчезнет к 2026 году

Заключение

Следующая глава DeFi, вероятно, будет сформирована эффективной инфраструктурой, доходными активами, интеграцией с традиционными финансами и пользовательским опытом, управляемым ИИ. Джефф Ян сосредоточен на создании высокопроизводительной, принадлежащей сообществу инфраструктуры DEX, которая может служить нейтральным базовым уровнем для токенизированных активов. Стани Кулехов ожидает, что более низкие процентные ставки, интеграция с финтехом и реальные активы катализируют новый бум DeFi. Гай Янг отдает приоритет доходным стейблкоинам и бесшовным платежам, продвигая DeFi в мессенджеры и традиционные банки. Хасиб Куреши предвидит, что ИИ-агенты трансформируют кошельки, а регуляторная ясность откроет институциональный капитал, одновременно предостерегая от чрезмерно раздутых нарративов о токенах ИИ.

В совокупности эти перспективы предполагают, что будущее DeFi выйдет за рамки спекулятивного фермерства и перейдет к зрелым, ориентированным на пользователя финансовым продуктам. Протоколы должны предоставлять реальную экономическую ценность, интегрироваться с существующими финансовыми системами и использовать технологические достижения, такие как ИИ и высокопроизводительные блокчейны. По мере сближения этих тенденций DeFi может развиться из нишевой экосистемы в глобальную, безразрешительную финансовую инфраструктуру.

MCP в экосистеме Web3: Всесторонний обзор

· 46 мин чтения
Dora Noda
Software Engineer

1. Определение и происхождение MCP в контексте Web3

Протокол контекста модели (MCP) — это открытый стандарт, который соединяет ИИ-помощников (таких как большие языковые модели) с внешними источниками данных, инструментами и средами. Часто описываемый как «порт USB-C для ИИ» из-за его универсальной природы «подключи и работай», MCP был разработан Anthropic и впервые представлен в конце ноября 2024 года. Он возник как решение для вывода ИИ-моделей из изоляции путем их безопасного соединения с «системами, где живут данные» — от баз данных и API до сред разработки и блокчейнов.

Изначально экспериментальный побочный проект в Anthropic, MCP быстро набрал обороты. К середине 2024 года появились эталонные реализации с открытым исходным кодом, а к началу 2025 года он стал стандартом де-факто для интеграции агентного ИИ, с ведущими ИИ-лабораториями (OpenAI, Google DeepMind, Meta AI), принявшими его нативно. Это быстрое внедрение было особенно заметно в сообществе Web3. Блокчейн-разработчики увидели в MCP способ внедрения ИИ-возможностей в децентрализованные приложения, что привело к распространению созданных сообществом MCP-коннекторов для ончейн-данных и сервисов. Фактически, некоторые аналитики утверждают, что MCP может реализовать первоначальное видение Web3 о децентрализованном, ориентированном на пользователя интернете более практичным способом, чем один только блокчейн, используя интерфейсы на естественном языке для расширения возможностей пользователей.

В итоге, MCP не является блокчейном или токеном, а представляет собой открытый протокол, родившийся в мире ИИ, который быстро был принят в экосистеме Web3 как мост между ИИ-агентами и децентрализованными источниками данных. Anthropic открыл исходный код стандарта (с первоначальной спецификацией GitHub и SDK) и сформировал вокруг него открытое сообщество. Этот подход, управляемый сообществом, подготовил почву для интеграции MCP в Web3, где он теперь рассматривается как фундаментальная инфраструктура для децентрализованных приложений с поддержкой ИИ.

2. Техническая архитектура и основные протоколы

MCP работает на легковесной клиент-серверной архитектуре с тремя основными ролями:

  • Хост MCP: Само ИИ-приложение или агент, которое оркестрирует запросы. Это может быть чат-бот (Claude, ChatGPT) или ИИ-приложение, которому нужны внешние данные. Хост инициирует взаимодействия, запрашивая инструменты или информацию через MCP.
  • Клиент MCP: Компонент-коннектор, который хост использует для связи с серверами. Клиент поддерживает соединение, управляет обменом запросами/ответами и может обрабатывать несколько серверов параллельно. Например, инструмент разработчика, такой как Cursor или агентный режим VS Code, может выступать в качестве клиента MCP, соединяющего локальную ИИ-среду с различными серверами MCP.
  • Сервер MCP: Сервис, который предоставляет ИИ некоторые контекстные данные или функциональность. Серверы предоставляют инструменты, ресурсы или подсказки, которые ИИ может использовать. На практике, сервер MCP может взаимодействовать с базой данных, облачным приложением или блокчейн-нодой и представлять стандартизированный набор операций для ИИ. Каждая пара клиент-сервер общается по своему собственному каналу, поэтому ИИ-агент может одновременно подключаться к нескольким серверам для различных нужд.

Основные примитивы: MCP определяет набор стандартных типов сообщений и примитивов, которые структурируют взаимодействие ИИ-инструмента. Три фундаментальных примитива:

  • Инструменты: Дискретные операции или функции, которые ИИ может вызывать на сервере. Например, инструмент «searchDocuments» или инструмент «eth_call». Инструменты инкапсулируют действия, такие как запрос API, выполнение вычисления или вызов функции смарт-контракта. Клиент MCP может запросить список доступных инструментов у сервера и вызывать их по мере необходимости.
  • Ресурсы: Конечные точки данных, которые ИИ может считывать (или иногда записывать) через сервер. Это могут быть файлы, записи базы данных, состояние блокчейна (блоки, транзакции) или любые контекстные данные. ИИ может перечислять ресурсы и получать их содержимое через стандартные сообщения MCP (например, запросы ListResources и ReadResource).
  • Подсказки: Структурированные шаблоны подсказок или инструкции, которые серверы могут предоставлять для направления рассуждений ИИ. Например, сервер может предоставить шаблон форматирования или предопределенный запрос. ИИ может запросить список шаблонов подсказок и использовать их для поддержания согласованности в своем взаимодействии с этим сервером.

Под капотом, коммуникации MCP обычно основаны на JSON и следуют шаблону запрос-ответ, похожему на RPC (удаленный вызов процедур). Спецификация протокола определяет сообщения, такие как InitializeRequest, ListTools, CallTool, ListResources и т. д., которые гарантируют, что любой MCP-совместимый клиент может взаимодействовать с любым MCP-сервером унифицированным образом. Эта стандартизация позволяет ИИ-агенту обнаруживать, что он может делать: при подключении к новому серверу он может спросить: «Какие инструменты и данные вы предлагаете?» и затем динамически решить, как их использовать.

Модель безопасности и выполнения: MCP был разработан с учетом безопасных, контролируемых взаимодействий. Сама ИИ-модель не выполняет произвольный код; она отправляет высокоуровневые намерения (через клиент) на сервер, который затем выполняет фактическую операцию (например, извлечение данных или вызов API) и возвращает результаты. Это разделение означает, что конфиденциальные действия (такие как блокчейн-транзакции или записи в базу данных) могут быть изолированы или требовать явного одобрения пользователя. Например, существуют сообщения, такие как Ping (для поддержания соединений в активном состоянии) и даже CreateMessageRequest, которое позволяет серверу MCP попросить ИИ клиента сгенерировать под-ответ, обычно ограниченный подтверждением пользователя. Функции, такие как аутентификация, контроль доступа и аудит, активно разрабатываются для обеспечения безопасного использования MCP в корпоративных и децентрализованных средах (подробнее об этом в разделе «Дорожная карта»).

Таким образом, архитектура MCP основана на стандартизированном протоколе сообщений (с вызовами в стиле JSON-RPC), который соединяет ИИ-агентов (хостов) с гибким набором серверов, предоставляющих инструменты, данные и действия. Эта открытая архитектура независима от модели и независима от платформы — любой ИИ-агент может использовать MCP для взаимодействия с любым ресурсом, и любой разработчик может создать новый сервер MCP для источника данных без необходимости изменять основной код ИИ. Эта расширяемость по принципу «подключи и работай» делает MCP мощным в Web3: можно создавать серверы для блокчейн-нод, смарт-контрактов, кошельков или оракулов и бесшовно интегрировать эти возможности ИИ-агентами наряду с Web2 API.

3. Варианты использования и приложения MCP в Web3

MCP открывает широкий спектр вариантов использования, позволяя приложениям, управляемым ИИ, получать доступ к данным блокчейна и выполнять ончейн- или офчейн-действия безопасным, высокоуровневым способом. Вот некоторые ключевые приложения и проблемы, которые он помогает решить в домене Web3:

  • Анализ и запросы данных в блокчейне: ИИ-агенты могут запрашивать текущее состояние блокчейна в реальном времени для предоставления аналитики или запуска действий. Например, MCP-сервер, подключенный к ноде Ethereum, позволяет ИИ получать балансы счетов, считывать хранилище смарт-контрактов, отслеживать транзакции или получать журналы событий по запросу. Это превращает чат-бота или помощника по кодированию в блокчейн-обозреватель. Разработчики могут задавать ИИ-помощнику вопросы, такие как «Какова текущая ликвидность в пуле Uniswap X?» или «Смоделируйте стоимость газа этой транзакции Ethereum», и ИИ будет использовать инструменты MCP для вызова RPC-ноды и получения ответа из живой цепочки. Это гораздо мощнее, чем полагаться на обучающие данные ИИ или статические снимки.
  • Автоматизированное управление портфелем DeFi: Объединяя доступ к данным и инструменты для действий, ИИ-агенты могут управлять криптопортфелями или позициями DeFi. Например, «Оптимизатор хранилища ИИ» может отслеживать позиции пользователя в фарминговых пулах и автоматически предлагать или выполнять стратегии ребалансировки на основе рыночных условий в реальном времени. Аналогично, ИИ может выступать в качестве менеджера портфеля DeFi, корректируя распределение между протоколами при изменении риска или ставок. MCP предоставляет стандартный интерфейс для ИИ для чтения ончейн-метрик (цены, ликвидность, коэффициенты обеспечения) и затем вызова инструментов для выполнения транзакций (таких как перемещение средств или обмен активов), если это разрешено. Это может помочь пользователям максимизировать доходность или управлять риском 24/7 таким образом, что было бы трудно сделать вручную.
  • Пользовательские агенты на базе ИИ для транзакций: Представьте себе персонального ИИ-помощника, который может обрабатывать блокчейн-взаимодействия для пользователя. С помощью MCP такой агент может интегрироваться с кошельками и DApps для выполнения задач с помощью команд на естественном языке. Например, пользователь может сказать: «ИИ, отправь 0,5 ETH с моего кошелька Алисе» или «Застейкай мои токены в пуле с самой высокой APY». ИИ, через MCP, будет использовать безопасный сервер кошелька (хранящий приватный ключ пользователя) для создания и подписи транзакции, а также блокчейн-сервер MCP для ее трансляции. Этот сценарий превращает сложные взаимодействия через командную строку или Metamask в разговорный опыт. Крайне важно, чтобы здесь использовались безопасные MCP-серверы кошельков, обеспечивающие разрешения и подтверждения, но конечным результатом является упрощение ончейн-транзакций с помощью ИИ.
  • Помощники разработчиков и отладка смарт-контрактов: Разработчики Web3 могут использовать ИИ-помощников на базе MCP, которые осведомлены об инфраструктуре блокчейна. Например, MCP-серверы Chainstack для EVM и Solana предоставляют ИИ-помощникам для кодирования глубокую видимость в блокчейн-среду разработчика. Инженер по смарт-контрактам, использующий ИИ-помощника (в VS Code или IDE), может попросить ИИ получить текущее состояние контракта в тестовой сети, запустить симуляцию транзакции или проверить журналы — все это через вызовы MCP к локальным блокчейн-нодам. Это помогает в отладке и тестировании контрактов. ИИ больше не кодирует «вслепую»; он может фактически проверять, как код ведет себя в блокчейне в реальном времени. Этот вариант использования решает серьезную проблему, позволяя ИИ постоянно получать актуальную документацию (через MCP-сервер документации) и напрямую запрашивать блокчейн, уменьшая галлюцинации и делая предложения гораздо более точными.
  • Межпротокольная координация: Поскольку MCP является унифицированным интерфейсом, один ИИ-агент может координировать работу нескольких протоколов и сервисов одновременно — что чрезвычайно мощно в взаимосвязанном ландшафте Web3. Представьте себе автономного торгового агента, который отслеживает различные DeFi-платформы на предмет арбитража. Через MCP один агент может одновременно взаимодействовать с рынками кредитования Aave, кроссчейн-мостом LayerZero и аналитическим сервисом MEV (Miner Extractable Value), все через согласованный интерфейс. ИИ мог бы в одном «мыслительном процессе» собирать данные о ликвидности из Ethereum (через MCP-сервер на ноде Ethereum), получать информацию о ценах или данные оракулов (через другой сервер) и даже вызывать операции моста или обмена. Ранее такая многоплатформенная координация требовала бы сложных пользовательских ботов, но MCP предоставляет обобщенный способ для ИИ навигировать по всей экосистеме Web3, как если бы это был один большой пул данных/ресурсов. Это может позволить использовать передовые варианты использования, такие как кроссчейн-оптимизация доходности или автоматизированная защита от ликвидации, где ИИ проактивно перемещает активы или обеспечение между цепочками.
  • ИИ-боты для консультаций и поддержки: Еще одна категория — это пользовательские консультанты в криптоприложениях. Например, чат-бот помощи DeFi, интегрированный в платформу, такую как Uniswap или Compound, мог бы использовать MCP для получения информации в реальном времени для пользователя. Если пользователь спрашивает: «Как лучше всего хеджировать мою позицию?», ИИ может получить текущие ставки, данные о волатильности и детали портфеля пользователя через MCP, а затем дать контекстно-ориентированный ответ. Платформы изучают ИИ-помощников, встроенных в кошельки или dApps, которые могут направлять пользователей через сложные транзакции, объяснять риски и даже выполнять последовательности шагов с одобрения. Эти ИИ-агенты эффективно располагаются поверх нескольких сервисов Web3 (DEX, пулы кредитования, страховые протоколы), используя MCP для запроса и управления ими по мере необходимости, тем самым упрощая пользовательский опыт.
  • За пределами Web3 – Многодоменные рабочие процессы: Хотя наше внимание сосредоточено на Web3, стоит отметить, что варианты использования MCP распространяются на любую область, где ИИ нужны внешние данные. Он уже используется для подключения ИИ к таким вещам, как Google Drive, Slack, GitHub, Figma и многим другим. На практике один ИИ-агент может охватывать Web3 и Web2: например, анализировать финансовую модель Excel из Google Drive, затем предлагать ончейн-транзакции на основе этого анализа, все в одном рабочем процессе. Гибкость MCP позволяет автоматизировать кросс-доменные задачи (например, «запланировать мою встречу, если мое голосование DAO пройдет, и отправить результаты по электронной почте»), которые сочетают блокчейн-действия с повседневными инструментами.

Решенные проблемы: Главная проблема, которую решает MCP, — это отсутствие унифицированного интерфейса для взаимодействия ИИ с актуальными данными и сервисами. До MCP, если вы хотели, чтобы ИИ использовал новый сервис, вам приходилось вручную кодировать плагин или интеграцию для API этого конкретного сервиса, часто специальным образом. В Web3 это было особенно громоздко — каждый блокчейн или протокол имеет свои собственные интерфейсы, и ни один ИИ не мог надеяться поддерживать их все. MCP решает эту проблему, стандартизируя то, как ИИ описывает, что он хочет (естественный язык, сопоставленный с вызовами инструментов), и как сервисы описывают, что они предлагают. Это значительно сокращает объем интеграционной работы. Например, вместо написания пользовательского плагина для каждого протокола DeFi, разработчик может написать один MCP-сервер для этого протокола (по сути, аннотируя его функции на естественном языке). Любой ИИ с поддержкой MCP (будь то Claude, ChatGPT или модели с открытым исходным кодом) может немедленно использовать его. Это делает ИИ расширяемым по принципу «подключи и работай», подобно тому, как добавление нового устройства через универсальный порт проще, чем установка новой интерфейсной карты.

В итоге, MCP в Web3 позволяет ИИ-агентам стать полноправными гражданами мира блокчейна — запрашивать, анализировать и даже совершать транзакции в децентрализованных системах, все через безопасные, стандартизированные каналы. Это открывает двери для более автономных dApps, более умных пользовательских агентов и бесшовной интеграции ончейн- и офчейн-интеллекта.

4. Токеномика и модель управления

В отличие от типичных протоколов Web3, MCP не имеет собственного токена или криптовалюты. Он не является блокчейном или децентрализованной сетью сам по себе, а скорее открытой спецификацией протокола (по духу ближе к HTTP или JSON-RPC). Таким образом, нет встроенной токеномики — нет выпуска токенов, стейкинга или модели комиссий, присущих использованию MCP. ИИ-приложения и серверы общаются через MCP без участия какой-либо криптовалюты; например, ИИ, вызывающий блокчейн через MCP, может платить комиссии за газ для блокчейн-транзакции, но сам MCP не добавляет никаких дополнительных комиссий за токены. Этот дизайн отражает происхождение MCP в сообществе ИИ: он был представлен как технический стандарт для улучшения взаимодействия ИИ-инструментов, а не как токенизированный проект.

Управление MCP осуществляется открытым, управляемым сообществом способом. После выпуска MCP в качестве открытого стандарта Anthropic заявил о приверженности совместной разработке. Был сформирован широкий руководящий комитет и рабочие группы для управления развитием протокола. Примечательно, что к середине 2025 года крупные заинтересованные стороны, такие как Microsoft и GitHub, присоединились к руководящему комитету MCP наряду с Anthropic. Об этом было объявлено на Microsoft Build 2025, что указывает на коалицию игроков отрасли, направляющих дорожную карту и решения по стандартам MCP. Комитет и сопровождающие работают через открытый процесс управления: предложения по изменению или расширению MCP обычно обсуждаются публично (например, через проблемы GitHub и руководства по «SEP» — Предложениям по улучшению стандарта). Существует также рабочая группа по Реестру MCP (с сопровождающими из таких компаний, как Block, PulseMCP, GitHub и Anthropic), которая демонстрирует многостороннее управление. В начале 2025 года участники из по крайней мере 9 различных организаций сотрудничали для создания унифицированного реестра серверов MCP для обнаружения, демонстрируя, как разработка децентрализована среди членов сообщества, а не контролируется одной сущностью.

Поскольку токена нет, стимулы управления основаны на общих интересах заинтересованных сторон (ИИ-компаний, облачных провайдеров, блокчейн-разработчиков и т. д.) по улучшению протокола для всех. Это в некоторой степени аналогично тому, как управляются стандарты W3C или IETF, но с более быстрым процессом, ориентированным на GitHub. Например, Microsoft и Anthropic работали вместе над разработкой улучшенной спецификации авторизации для MCP (интегрируя такие вещи, как OAuth и единый вход), а GitHub сотрудничал над официальным сервисом Реестра MCP для перечисления доступных серверов. Эти улучшения были внесены обратно в спецификацию MCP на всеобщее благо.

Стоит отметить, что хотя сам MCP не токенизирован, существуют перспективные идеи о наложении экономических стимулов и децентрализации поверх MCP. Некоторые исследователи и лидеры мнений в Web3 предвидят появление «сетей MCP» — по сути, децентрализованных сетей серверов и агентов MCP, которые используют блокчейн-подобные механизмы для обнаружения, доверия и вознаграждений. В таком сценарии можно представить, что токен будет использоваться для вознаграждения тех, кто управляет высококачественными серверами MCP (подобно тому, как стимулируются майнеры или операторы нод). Такие возможности, как рейтинги репутации, проверяемые вычисления и обнаружение нод, могут быть облегчены смарт-контрактами или блокчейном, при этом токен будет стимулировать честное поведение. Это все еще концептуально, но такие проекты, как Namda от MIT (обсуждаемый позже), экспериментируют с механизмами стимулирования на основе токенов для сетей ИИ-агентов, использующих MCP. Если эти идеи созреют, MCP может более прямо пересекаться с ончейн-токеномикой, но по состоянию на 2025 год основной стандарт MCP остается без токенов.

Таким образом, «модель управления» MCP — это модель открытого технологического стандарта: совместно поддерживаемого сообществом и руководящим комитетом экспертов, без ончейн-токена управления. Решения принимаются на основе технических достоинств и широкого консенсуса, а не голосования, взвешенного по количеству монет. Это отличает MCP от многих протоколов Web3 — он стремится реализовать идеалы Web3 (децентрализация, интероперабельность, расширение прав и возможностей пользователей) через открытое программное обеспечение и стандарты, а не через проприетарный блокчейн или токен. По словам одного из аналитиков, «обещание Web3... наконец-то может быть реализовано не через блокчейн и криптовалюту, а через естественный язык и ИИ-агентов», позиционируя MCP как ключевой фактор этого видения. Тем не менее, по мере роста сетей MCP мы можем увидеть гибридные модели, где блокчейн-управление или механизмы стимулирования дополняют экосистему — за этим стоит внимательно следить.

5. Сообщество и экосистема

Экосистема MCP стремительно выросла за короткое время, охватывая ИИ-разработчиков, участников открытого исходного кода, Web3-инженеров и крупные технологические компании. Это активное усилие сообщества, с ключевыми участниками и партнерствами, включая:

  • Anthropic: Как создатель, Anthropic заложил основу экосистемы, открыв исходный код спецификации MCP и нескольких эталонных серверов (для Google Drive, Slack, GitHub и т. д.). Anthropic продолжает лидировать в разработке (например, сотрудники, такие как Теодора Чу, выступают в качестве менеджеров по продуктам MCP, а команда Anthropic активно участвует в обновлениях спецификаций и поддержке сообщества). Открытость Anthropic привлекла других к созданию на базе MCP, а не к рассмотрению его как инструмента одной компании.

  • Ранние пользователи (Block, Apollo, Zed, Replit, Codeium, Sourcegraph): В первые месяцы после выпуска волна ранних пользователей внедрила MCP в свои продукты. Block (ранее Square) интегрировал MCP для изучения агентных ИИ-систем в финтехе — технический директор Block высоко оценил MCP как открытый мост, соединяющий ИИ с реальными приложениями. Apollo (вероятно, Apollo GraphQL) также интегрировал MCP, чтобы позволить ИИ доступ к внутренним данным. Компании-разработчики инструментов, такие как Zed (редактор кода), Replit (облачная IDE), Codeium (ИИ-помощник для кодирования) и Sourcegraph (поиск кода), каждая работали над добавлением поддержки MCP. Например, Sourcegraph использует MCP, чтобы ИИ-помощник для кодирования мог извлекать соответствующий код из репозитория в ответ на вопрос, а агенты IDE Replit могут получать контекст, специфичный для проекта. Эти ранние пользователи придали MCP авторитет и видимость.

  • Поддержка крупных технологических компаний – OpenAI, Microsoft, Google: Примечательно, что компании, которые в противном случае являются конкурентами, объединились вокруг MCP. Генеральный директор OpenAI Сэм Альтман публично объявил в марте 2025 года, что OpenAI добавит поддержку MCP во все свои продукты (включая десктопное приложение ChatGPT), заявив: «Люди любят MCP, и мы рады добавить поддержку во все наши продукты». Это означало, что Agent API OpenAI и плагины ChatGPT будут использовать MCP, обеспечивая интероперабельность. Всего через несколько недель генеральный директор Google DeepMind Демис Хассабис сообщил, что предстоящие модели и инструменты Gemini от Google будут поддерживать MCP, назвав его хорошим протоколом и открытым стандартом для «эры ИИ-агентов». Microsoft не только присоединилась к руководящему комитету, но и сотрудничала с Anthropic для создания официального C# SDK для MCP, чтобы обслуживать сообщество корпоративных разработчиков. Подразделение GitHub от Microsoft интегрировало MCP в GitHub Copilot (режим «Copilot Labs/Agents» в VS Code), позволяя Copilot использовать серверы MCP для таких вещей, как поиск по репозиториям и запуск тестовых случаев. Кроме того, Microsoft объявила, что Windows 11 будет предоставлять определенные функции ОС (например, доступ к файловой системе) в качестве серверов MCP, чтобы ИИ-агенты могли безопасно взаимодействовать с операционной системой. Сотрудничество между OpenAI, Microsoft, Google и Anthropic — все они объединились вокруг MCP — является экстраординарным и подчеркивает этику сообщества, а не конкуренции, этого стандарта.

  • Сообщество Web3-разработчиков: Ряд блокчейн-разработчиков и стартапов приняли MCP. Было создано несколько управляемых сообществом MCP-серверов для обслуживания вариантов использования блокчейна:

    • Команда Alchemy (ведущего поставщика блокчейн-инфраструктуры) создала MCP-сервер Alchemy, который предлагает инструменты блокчейн-аналитики по запросу через MCP. Это, вероятно, позволяет ИИ получать статистику блокчейна (например, исторические транзакции, активность адресов) через API Alchemy, используя естественный язык.
    • Участники разработали MCP-сервер Bitcoin и Lightning Network для взаимодействия с нодами Bitcoin и платежной сетью Lightning, позволяя ИИ-агентам читать данные блоков Bitcoin или даже создавать счета Lightning через стандартные инструменты.
    • Криптомедиа и образовательная группа Bankless создала Onchain MCP-сервер, ориентированный на финансовые взаимодействия Web3, возможно, предоставляя интерфейс для протоколов DeFi (отправка транзакций, запрос позиций DeFi и т. д.) для ИИ-помощников.
    • Проекты, такие как Rollup.codes (база знаний для Ethereum Layer 2), создали MCP-сервер для информации об экосистеме роллапов, чтобы ИИ мог отвечать на технические вопросы о роллапах, запрашивая этот сервер.
    • Chainstack, поставщик блокчейн-нод, запустил набор MCP-серверов (упомянутых ранее) для документации, данных цепочки EVM и Solana, явно позиционируя его как «установку вашего ИИ на блокчейн-стероиды» для Web3-разработчиков.

    Кроме того, вокруг MCP возникли сообщества, ориентированные на Web3. Например, PulseMCP и Goose упоминаются как инициативы сообщества, помогающие создавать реестр MCP. Мы также наблюдаем перекрестное опыление с фреймворками ИИ-агентов: сообщество LangChain интегрировало адаптеры, так что все серверы MCP могут использоваться в качестве инструментов в агентах на базе LangChain, а платформы ИИ с открытым исходным кодом, такие как Hugging Face TGI (вывод текста), изучают совместимость с MCP. Результатом является богатая экосистема, где новые серверы MCP объявляются почти ежедневно, обслуживая все — от баз данных до устройств IoT.

  • Масштаб внедрения: Тягу можно в некоторой степени количественно оценить. К февралю 2025 года — всего через три месяца после запуска — сообществом было создано более 1000 серверов/коннекторов MCP. Это число только выросло, что указывает на тысячи интеграций в различных отраслях. Майк Кригер (директор по продуктам Anthropic) отметил к весне 2025 года, что MCP стал «процветающим открытым стандартом с тысячами интеграций и растущим числом». Официальный Реестр MCP (запущенный в предварительной версии в сентябре 2025 года) каталогизирует общедоступные серверы, облегчая обнаружение инструментов; открытый API реестра позволяет любому искать, например, «Ethereum» или «Notion» и находить соответствующие MCP-коннекторы. Это снижает барьер для новых участников и еще больше стимулирует рост.

  • Партнерства: Мы уже упоминали многие неявные партнерства (Anthropic с Microsoft и т. д.). Чтобы выделить еще несколько:

    • Anthropic и Slack: Anthropic сотрудничал со Slack для интеграции Claude с данными Slack через MCP (Slack имеет официальный сервер MCP, позволяющий ИИ получать сообщения Slack или публиковать оповещения).
    • Облачные провайдеры: Amazon (AWS) и Google Cloud работали с Anthropic над размещением Claude, и, вероятно, они поддерживают MCP в этих средах (например, AWS Bedrock может разрешать MCP-коннекторы для корпоративных данных). Хотя это явно не указано в цитатах, эти облачные партнерства важны для корпоративного внедрения.
    • Академическое сотрудничество: Исследовательский проект MIT и IBM Namda (обсуждаемый далее) представляет собой партнерство между академией и промышленностью для расширения границ MCP в децентрализованных условиях.
    • GitHub и VS Code: Партнерство для улучшения опыта разработчиков — например, команда VS Code активно участвовала в разработке MCP (один из сопровождающих реестра — из команды VS Code).
    • Многочисленные стартапы: Многие ИИ-стартапы (стартапы по агентам, стартапы по автоматизации рабочих процессов) строят свои решения на базе MCP вместо того, чтобы изобретать велосипед. Это включает новые Web3 ИИ-стартапы, стремящиеся предлагать «ИИ как DAO» или автономных экономических агентов.

В целом, сообщество MCP разнообразно и быстро расширяется. Оно включает основные технологические компании (для стандартов и базовых инструментов), Web3-специалистов (привносящих знания о блокчейне и варианты использования) и независимых разработчиков (которые часто вносят коннекторы для своих любимых приложений или протоколов). Этика — это сотрудничество. Например, проблемы безопасности сторонних серверов MCP вызвали обсуждения в сообществе и вклад в лучшие практики (например, участники Stacklok работают над инструментами безопасности для серверов MCP). Способность сообщества быстро итерировать (MCP претерпел несколько обновлений спецификаций в течение нескольких месяцев, добавив такие функции, как потоковая передача ответов и улучшенная аутентификация) является свидетельством широкого участия.

В экосистеме Web3, в частности, MCP способствовал формированию мини-экосистемы проектов «ИИ + Web3». Это не просто протокол для использования; он катализирует новые идеи, такие как DAO, управляемые ИИ, ончейн-управление, поддерживаемое ИИ-анализом, и кросс-доменная автоматизация (например, связывание ончейн-событий с офчейн-действиями через ИИ). Присутствие ключевых фигур Web3 — например, Живко Тодорова из LimeChain, заявившего: «MCP представляет собой неизбежную интеграцию ИИ и блокчейна» — показывает, что ветераны блокчейна активно его поддерживают. Партнерства между ИИ- и блокчейн-компаниями (такие как между Anthropic и Block, или облако Microsoft Azure, упрощающее развертывание MCP наряду с его блокчейн-сервисами) намекают на будущее, где ИИ-агенты и смарт-контракты будут работать рука об руку.

Можно сказать, что MCP зажег первое подлинное сближение сообщества ИИ-разработчиков с сообществом Web3-разработчиков. Хакатоны и митапы теперь включают треки MCP. В качестве конкретной меры внедрения экосистемы: к середине 2025 года OpenAI, Google и Anthropic — совместно представляющие большинство передовых моделей ИИ — все поддерживают MCP, а с другой стороны, ведущие поставщики блокчейн-инфраструктуры (Alchemy, Chainstack), криптокомпании (Block и т. д.) и децентрализованные проекты создают MCP-хуки. Этот двусторонний сетевой эффект предвещает, что MCP станет долгосрочным стандартом.

6. Дорожная карта и этапы развития

Развитие MCP было стремительным. Здесь мы описываем основные вехи на данный момент и дорожную карту на будущее, полученные из официальных источников и обновлений сообщества:

  • Конец 2024 года – Первоначальный выпуск: 25 ноября 2024 года Anthropic официально объявил о MCP и открыл исходный код спецификации и первоначальных SDK. Наряду со спецификацией они выпустили несколько реализаций MCP-серверов для общих инструментов (Google Drive, Slack, GitHub и т. д.) и добавили поддержку в ИИ-помощнике Claude (приложение Claude Desktop) для подключения к локальным MCP-серверам. Это ознаменовало запуск MCP 1.0. Ранние пилотные интеграции в Anthropic показали, как Claude может использовать MCP для чтения файлов или запроса базы данных SQL на естественном языке, подтверждая концепцию.
  • 1 квартал 2025 года – Быстрое внедрение и итерации: В первые несколько месяцев 2025 года MCP получил широкое распространение в отрасли. К марту 2025 года OpenAI и другие поставщики ИИ объявили о поддержке (как описано выше). В этот период также произошла эволюция спецификации: Anthropic обновил MCP, включив возможности потоковой передачи (позволяя отправлять большие результаты или непрерывные потоки данных инкрементально). Это обновление было отмечено в апреле 2025 года новостями о C# SDK, что указывает на то, что MCP теперь поддерживает такие функции, как фрагментированные ответы или интеграция с потоками в реальном времени. Сообщество также создало эталонные реализации на различных языках (Python, JavaScript и т. д.) помимо SDK Anthropic, обеспечивая многоязычную поддержку.
  • 2 квартал 2025 года – Инструменты экосистемы и управление: В мае 2025 года, когда Microsoft и GitHub присоединились к усилиям, был сделан акцент на формализации управления и повышении безопасности. На Build 2025 Microsoft представила планы по интеграции MCP в Windows 11 и подробно описала сотрудничество по улучшению потоков авторизации в MCP. Примерно в то же время была представлена идея Реестра MCP для индексации доступных серверов (первоначальный мозговой штурм начался в марте 2025 года, согласно блогу реестра). Процесс «стандартизации» (SEP — Предложения по улучшению стандарта) был установлен на GitHub, аналогично EIP Ethereum или PEP Python, для упорядоченного управления вкладами. Начали собираться звонки сообщества и рабочие группы (по безопасности, реестру, SDK).
  • Середина 2025 года – Расширение функционала: К середине 2025 года дорожная карта приоритезировала несколько ключевых улучшений:
    • Поддержка асинхронных и длительных задач: Планы по обеспечению обработки MCP длительных операций без блокировки соединения. Например, если ИИ запускает облачное задание, которое занимает минуты, протокол MCP будет поддерживать асинхронные ответы или переподключение для получения результатов.
    • Аутентификация и детальная безопасность: Разработка механизмов детальной авторизации для конфиденциальных действий. Это включает возможное интегрирование потоков OAuth, ключей API и корпоративного SSO в серверы MCP, чтобы доступ ИИ мог безопасно управляться. К середине 2025 года были в процессе разработки руководства и лучшие практики по безопасности MCP, учитывая риски безопасности, связанные с разрешением ИИ вызывать мощные инструменты. Цель состоит в том, чтобы, например, если ИИ должен получить доступ к частной базе данных пользователя через MCP, он следовал безопасному потоку авторизации (с согласия пользователя), а не просто открытой конечной точке.
    • Валидация и тестирование на соответствие: Признавая необходимость в надежности, сообщество приоритезировало создание наборов тестов на соответствие и эталонных реализаций. Обеспечивая соблюдение спецификации всеми клиентами/серверами MCP (через автоматизированное тестирование), они стремились предотвратить фрагментацию. Эталонный сервер (вероятно, пример с лучшими практиками для удаленного развертывания и аутентификации) был в дорожной карте, как и эталонное клиентское приложение, демонстрирующее полное использование MCP с ИИ.
    • Поддержка мультимодальности: Расширение MCP за пределы текста для поддержки модальностей, таких как изображения, аудио, видео данные в контексте. Например, ИИ может запросить изображение у сервера MCP (скажем, дизайнерский актив или диаграмму) или вывести изображение. Обсуждение спецификации включало добавление поддержки потоковой передачи и фрагментированных сообщений для интерактивной обработки большого мультимедийного контента. Ранняя работа над «MCP Streaming» уже велась (для поддержки таких вещей, как потоки живого аудио или непрерывные данные датчиков для ИИ).
    • Центральный реестр и обнаружение: План по реализации центрального сервиса Реестра MCP для обнаружения серверов был выполнен в середине 2025 года. К сентябрю 2025 года был запущен официальный Реестр MCP (предварительная версия). Этот реестр предоставляет единый источник истины для общедоступных серверов MCP, позволяя клиентам находить серверы по имени, категории или возможностям. По сути, это как магазин приложений (но открытый) для ИИ-инструментов. Дизайн позволяет использовать публичные реестры (глобальный индекс) и частные (специфичные для предприятий), все они интероперабельны через общий API. Реестр также представил механизм модерации для пометки или удаления вредоносных серверов, с моделью модерации сообщества для поддержания качества.
  • Конец 2025 года и далее – К децентрализованным сетям MCP: Хотя это еще не «официальные» пункты дорожной карты, траектория указывает на большую децентрализацию и синергию с Web3:
    • Исследователи активно изучают, как добавить децентрализованные слои обнаружения, репутации и стимулирования к MCP. Концепция Сети MCP (или «рынка конечных точек MCP») находится в стадии инкубации. Это может включать реестры на основе смарт-контрактов (чтобы не было единой точки отказа для списков серверов), системы репутации, где серверы/клиенты имеют ончейн-идентификаторы и стейк для добросовестного поведения, и, возможно, токен-вознаграждения за запуск надежных нод MCP.
    • Проект Namda в MIT, начатый в 2024 году, является конкретным шагом в этом направлении. К 2025 году Namda построила прототип распределенной агентной среды на основе MCP, включая такие функции, как динамическое обнаружение нод, балансировка нагрузки между кластерами агентов и децентрализованный реестр с использованием блокчейн-технологий. Они даже имеют экспериментальные стимулы на основе токенов и отслеживание происхождения для многоагентного сотрудничества. Вехи Namda показывают, что возможно создать сеть агентов MCP, работающих на многих машинах с бездоверительной координацией. Если концепции Namda будут приняты, мы можем увидеть, как MCP эволюционирует, чтобы включить некоторые из этих идей (возможно, через необязательные расширения или отдельные протоколы, наложенные сверху).
    • Укрепление для предприятий: Что касается корпоративного сектора, к концу 2025 года мы ожидаем, что MCP будет интегрирован в основные корпоративные программные предложения (включение Microsoft в Windows и Azure является одним из примеров). Дорожная карта включает функции, удобные для предприятий, такие как интеграция SSO для серверов MCP и надежные средства контроля доступа. Общая доступность Реестра MCP и наборов инструментов для развертывания MCP в масштабе (например, внутри корпоративной сети) ожидается к концу 2025 года.

Чтобы подытожить некоторые ключевые этапы развития на данный момент (формат временной шкалы для ясности):

  • Ноябрь 2024: Выпущен MCP 1.0 (Anthropic).
  • Декабрь 2024 – Январь 2025: Сообщество создает первую волну MCP-серверов; Anthropic выпускает Claude Desktop с поддержкой MCP; пилотные проекты малого масштаба от Block, Apollo и т. д.
  • Февраль 2025: Достигнуто более 1000 MCP-коннекторов сообщества; Anthropic проводит семинары (например, на саммите ИИ, способствуя образованию).
  • Март 2025: OpenAI объявляет о поддержке (ChatGPT Agents SDK).
  • Апрель 2025: Google DeepMind объявляет о поддержке (Gemini будет поддерживать MCP); Microsoft выпускает предварительную версию C# SDK.
  • Май 2025: Расширен Руководящий комитет (Microsoft/GitHub); демонстрации на Build 2025 (интеграция MCP в Windows).
  • Июнь 2025: Chainstack запускает Web3 MCP-серверы (EVM/Solana) для публичного использования.
  • Июль 2025: Обновления версии спецификации MCP (потоковая передача, улучшения аутентификации); официальная Дорожная карта опубликована на сайте MCP.
  • Сентябрь 2025: Запущен Реестр MCP (предварительная версия); вероятно, MCP достигнет общей доступности в большем количестве продуктов (Claude для работы и т. д.).
  • Конец 2025 года (прогноз): Реестр v1.0 запущен; выпущены руководства по лучшим практикам безопасности; возможно, первые эксперименты с децентрализованным обнаружением (результаты Namda).

Дальнейшее видение состоит в том, что MCP станет таким же повсеместным и невидимым, как HTTP или JSON — общим уровнем, который многие приложения используют под капотом. Для Web3 дорожная карта предполагает более глубокое слияние: где ИИ-агенты не только будут использовать Web3 (блокчейны) в качестве источников или приемников информации, но и сама инфраструктура Web3 может начать включать ИИ-агентов (через MCP) как часть своей работы (например, DAO может запускать MCP-совместимый ИИ для управления определенными задачами, или оракулы могут публиковать данные через конечные точки MCP). Акцент дорожной карты на таких вещах, как проверяемость и аутентификация, намекает на то, что в будущем взаимодействия MCP с минимизацией доверия могут стать реальностью — представьте себе выводы ИИ, которые сопровождаются криптографическими доказательствами, или ончейн-журнал того, какие инструменты ИИ вызывал для целей аудита. Эти возможности стирают грань между ИИ и блокчейн-сетями, и MCP находится в центре этого сближения.

В заключение, развитие MCP очень динамично. Он достиг важных ранних вех (широкое внедрение и стандартизация в течение года после запуска) и продолжает быстро развиваться с четкой дорожной картой, подчеркивающей безопасность, масштабируемость и обнаружение. Достигнутые и запланированные вехи гарантируют, что MCP останется надежным по мере масштабирования: решение таких проблем, как длительные задачи, безопасные разрешения и простота обнаружения тысяч инструментов. Этот импульс вперед указывает на то, что MCP — это не статическая спецификация, а растущий стандарт, который, вероятно, будет включать больше функций в стиле Web3 (децентрализованное управление серверами, согласование стимулов) по мере возникновения таких потребностей. Сообщество готово адаптировать MCP к новым вариантам использования (мультимодальный ИИ, IoT и т. д.), при этом сохраняя основное обещание: сделать ИИ более связанным, контекстно-ориентированным и расширяющим возможности пользователей в эпоху Web3.

7. Сравнение с аналогичными проектами или протоколами Web3

Уникальное сочетание ИИ и связности MCP означает, что прямых аналогов не так много, но полезно сравнить его с другими проектами на пересечении Web3 и ИИ или с аналогичными целями:

  • SingularityNET (AGI/X)Децентрализованный рынок ИИ: SingularityNET, запущенный в 2017 году доктором Беном Гертцелем и другими, представляет собой блокчейн-рынок для ИИ-сервисов. Он позволяет разработчикам монетизировать ИИ-алгоритмы как сервисы, а пользователям — потреблять эти сервисы, все это облегчается токеном (AGIX), который используется для платежей и управления. По сути, SingularityNET пытается децентрализовать предложение ИИ-моделей, размещая их в сети, где любой может вызвать ИИ-сервис в обмен на токены. Это принципиально отличается от MCP. MCP не размещает и не монетизирует ИИ-модели; вместо этого он предоставляет стандартный интерфейс для ИИ (где бы он ни работал) для доступа к данным/инструментам. Можно представить использование MCP для подключения ИИ к сервисам, перечисленным на SingularityNET, но сам SingularityNET фокусируется на экономическом уровне (кто предоставляет ИИ-сервис и как он получает оплату). Еще одно ключевое отличие: Управление — SingularityNET имеет ончейн-управление (через Предложения по улучшению SingularityNET (SNEP) и голосование токенами AGIX) для развития своей платформы. Управление MCP, напротив, является офчейн и совместным, без токена. В итоге, SingularityNET и MCP оба стремятся к более открытой экосистеме ИИ, но SingularityNET — это токенизированная сеть ИИ-алгоритмов, тогда как MCP — это стандарт протокола для интероперабельности ИИ-инструментов. Они могут дополнять друг друга: например, ИИ на SingularityNET может использовать MCP для получения необходимых внешних данных. Но SingularityNET не пытается стандартизировать использование инструментов; он использует блокчейн для координации ИИ-сервисов, в то время как MCP использует программные стандарты, чтобы позволить ИИ работать с любым сервисом.
  • Fetch.ai (FET)Децентрализованная платформа на основе агентов: Fetch.ai — еще один проект, сочетающий ИИ и блокчейн. Он запустил свой собственный блокчейн с доказательством доли и фреймворк для создания автономных агентов, которые выполняют задачи и взаимодействуют в децентрализованной сети. В видении Fetch миллионы «программных агентов» (представляющих людей, устройства или организации) могут договариваться и обмениваться ценностями, используя токены FET для транзакций. Fetch.ai предоставляет агентную среду (uAgents) и инфраструктуру для обнаружения и связи между агентами в своем реестре. Например, агент Fetch может помочь оптимизировать трафик в городе, взаимодействуя с другими агентами по вопросам парковки и транспорта, или автономно управлять рабочим процессом цепочки поставок. Как это сравнивается с MCP? Оба проекта имеют дело с концепцией агентов, но агенты Fetch.ai тесно связаны с его блокчейном и токен-экономикой — они живут в сети Fetch и используют ончейн-логику. Агенты MCP (хосты ИИ) управляются моделями (как LLM) и не привязаны к какой-либо одной сети; MCP довольствуется работой через интернет или в облачной среде, не требуя блокчейна. Fetch.ai пытается построить новую децентрализованную экономику ИИ с нуля (со своим собственным реестром для доверия и транзакций), тогда как MCP независим от уровня — он использует существующие сети (может использоваться через HTTPS или даже поверх блокчейна, если необходимо) для обеспечения ИИ-взаимодействий. Можно сказать, что Fetch больше о автономных экономических агентах, а MCP — о умных агентах, использующих инструменты. Интересно, что они могут пересекаться: автономный агент на Fetch.ai может использовать MCP для взаимодействия с офчейн-ресурсами или другими блокчейнами. И наоборот, можно использовать MCP для создания многоагентных систем, которые используют различные блокчейны (а не только один). На практике MCP получил более быстрое распространение, потому что ему не требовалась собственная сеть — он работает с Ethereum, Solana, Web2 API и т. д. из коробки. Подход Fetch.ai более тяжеловесен, создавая целую экосистему, к которой участники должны присоединиться (и приобрести токены) для использования. В итоге, Fetch.ai против MCP: Fetch — это платформа со своим токеном/блокчейном для ИИ-агентов, фокусирующаяся на интероперабельности и экономическом обмене между агентами, в то время как MCP — это протокол, который ИИ-агенты (в любой среде) могут использовать для подключения к инструментам и данным. Их цели пересекаются в обеспечении автоматизации, управляемой ИИ, но они решают разные уровни стека и имеют очень разные архитектурные философии (закрытая экосистема против открытого стандарта).
  • Chainlink и децентрализованные оракулыПодключение блокчейнов к офчейн-данным: Chainlink не является ИИ-проектом, но он очень актуален как протокол Web3, решающий дополнительную проблему: как соединить блокчейны с внешними данными и вычислениями. Chainlink — это децентрализованная сеть нод (оракулов), которые получают, проверяют и доставляют офчейн-данные смарт-контрактам способом с минимизацией доверия. Например, оракулы Chainlink предоставляют ценовые потоки для протоколов DeFi или вызывают внешние API от имени смарт-контрактов через Chainlink Functions. Сравнительно, MCP соединяет ИИ-модели с внешними данными/инструментами (некоторые из которых могут быть блокчейнами). Можно сказать, что Chainlink доставляет данные в блокчейны, а MCP доставляет данные в ИИ. Существует концептуальная параллель: оба устанавливают мост между иначе изолированными системами. Chainlink фокусируется на надежности, децентрализации и безопасности данных, подаваемых в блокчейн (решая «проблему оракула» единой точки отказа). MCP фокусируется на гибкости и стандартизации того, как ИИ может получать доступ к данным (решая «проблему интеграции» для ИИ-агентов). Они работают в разных областях (смарт-контракты против ИИ-помощников), но можно сравнить серверы MCP с оракулами: MCP-сервер для ценовых данных может вызывать те же API, что и нода Chainlink. Разница в потребителе — в случае MCP потребителем является ИИ или пользовательский помощник, а не детерминированный смарт-контракт. Кроме того, MCP по своей сути не предоставляет гарантий доверия, которые предоставляет Chainlink (серверы MCP могут быть централизованными или управляемыми сообществом, при этом доверие управляется на уровне приложения). Однако, как упоминалось ранее, идеи децентрализации сетей MCP могут заимствовать из сетей оракулов — например, можно запрашивать несколько серверов MCP и перепроверять результаты, чтобы убедиться, что ИИ не получает плохие данные, подобно тому, как несколько нод Chainlink агрегируют цену. Короче говоря, Chainlink против MCP: Chainlink — это Web3-промежуточное ПО для блокчейнов для потребления внешних данных, MCP — это ИИ-промежуточное ПО для моделей для потребления внешних данных (которые могут включать данные блокчейна). Они решают аналогичные потребности в разных областях и даже могут дополнять друг друга: ИИ, использующий MCP, может получать данные, предоставляемые Chainlink, в качестве надежного ресурса, и наоборот, ИИ может служить источником анализа, который оракул Chainlink доставляет в блокчейн (хотя последний сценарий поднимет вопросы проверяемости).
  • Плагины ChatGPT / Функции OpenAI против MCPПодходы к интеграции ИИ-инструментов: Хотя это не Web3-проекты, быстрое сравнение оправдано, потому что плагины ChatGPT и функция вызова функций OpenAI также соединяют ИИ с внешними инструментами. Плагины ChatGPT используют спецификацию OpenAPI, предоставляемую сервисом, и модель затем может вызывать эти API в соответствии со спецификацией. Ограничения заключаются в том, что это закрытая экосистема (плагины, одобренные OpenAI, работающие на серверах OpenAI) и каждый плагин представляет собой изолированную интеграцию. Новый SDK «Agents» от OpenAI ближе к MCP по концепции, позволяя разработчикам определять инструменты/функции, которые ИИ может использовать, но изначально он был специфичен для экосистемы OpenAI. LangChain аналогичным образом предоставил фреймворк для предоставления LLM инструментов в коде. MCP отличается тем, что предлагает открытый, независимый от модели стандарт для этого. Как выразился один аналитик, LangChain создал стандарт, ориентированный на разработчиков (интерфейс Python) для инструментов, тогда как MCP создает стандарт, ориентированный на модели — ИИ-агент может обнаруживать и использовать любой инструмент, определенный MCP, во время выполнения без пользовательского кода. На практике экосистема серверов MCP выросла больше и разнообразнее, чем магазин плагинов ChatGPT, в течение нескольких месяцев. И вместо того, чтобы каждая модель имела свой собственный формат плагинов (у OpenAI был свой, у других были другие), многие объединяются вокруг MCP. Сама OpenAI заявила о поддержке MCP, по сути, согласовав свой подход к функциям с более широким стандартом. Итак, сравнивая плагины OpenAI с MCP: плагины — это курируемый, централизованный подход, в то время как MCP — это децентрализованный, управляемый сообществом подход. В менталитете Web3 MCP более «открытый исходный код и без разрешений», тогда как проприетарные экосистемы плагинов более закрыты. Это делает MCP аналогичным этосу Web3, хотя это не блокчейн — он обеспечивает интероперабельность и пользовательский контроль (вы можете запустить свой собственный сервер MCP для своих данных, вместо того чтобы отдавать все одному поставщику ИИ). Это сравнение показывает, почему многие считают, что MCP имеет больший долгосрочный потенциал: он не привязан к одному поставщику или одной модели.
  • Проект Namda и децентрализованные агентные фреймворки: Namda заслуживает отдельного упоминания, потому что он явно сочетает MCP с концепциями Web3. Как описано ранее, Namda (Сетевая модульная распределенная архитектура агентов) — это инициатива MIT/IBM, начатая в 2024 году для создания масштабируемой, распределенной сети ИИ-агентов с использованием MCP в качестве уровня связи. Она рассматривает MCP как основу для обмена сообщениями (поскольку MCP использует стандартные сообщения, похожие на JSON-RPC, он хорошо подходит для меж-агентных коммуникаций), а затем добавляет слои для динамического обнаружения, отказоустойчивости и проверяемых идентификаторов с использованием методик, вдохновленных блокчейном. Агенты Namda могут находиться где угодно (облако, периферийные устройства и т. д.), но децентрализованный реестр (нечто вроде DHT или блокчейна) отслеживает их и их возможности способом, защищенным от подделки. Они даже исследуют предоставление агентам токенов для стимулирования сотрудничества или совместного использования ресурсов. По сути, Namda — это эксперимент по созданию «Web3-версии MCP». Это еще не широко развернутый проект, но он является одним из самых близких «аналогичных протоколов» по духу. Если мы рассмотрим Namda против MCP: Namda использует MCP (поэтому это не конкурирующие стандарты), но расширяет его протоколом для сетевого взаимодействия и координации нескольких агентов способом с минимизацией доверия. Можно сравнить Namda с фреймворками, такими как Autonolas или многоагентные системы (MAS), которые криптосообщество видело, но им часто не хватало мощного ИИ-компонента или общего протокола. Namda + MCP вместе демонстрируют, как может функционировать децентрализованная агентная сеть, при этом блокчейн обеспечивает идентификацию, репутацию и, возможно, токен-стимулы, а MCP — связь агентов и использование инструментов.

В итоге, MCP выделяется среди большинства предыдущих Web3-проектов: он вообще не начинался как криптопроект, но быстро пересекается с Web3, потому что решает дополнительные проблемы. Такие проекты, как SingularityNET и Fetch.ai, стремились децентрализовать ИИ-вычисления или сервисы с использованием блокчейна; MCP вместо этого стандартизирует интеграцию ИИ с сервисами, что может усилить децентрализацию, избегая привязки к платформе. Сети оракулов, такие как Chainlink, решали проблему доставки данных в блокчейн; MCP решает проблему доставки данных в ИИ (включая данные блокчейна). Если основные идеалы Web3 — это децентрализация, интероперабельность и расширение прав и возможностей пользователей, то MCP атакует часть интероперабельности в области ИИ. Он даже влияет на эти старые проекты — например, ничто не мешает SingularityNET сделать свои ИИ-сервисы доступными через серверы MCP, или агентам Fetch использовать MCP для взаимодействия с внешними системами. Мы вполне можем увидеть сближение, когда ИИ-сети, управляемые токенами, будут использовать MCP в качестве своего лингва франка, сочетая структуру стимулов Web3 с гибкостью MCP.

Наконец, если мы рассмотрим восприятие рынка: MCP часто рекламируется как то, что он делает для ИИ то, что Web3 надеялся сделать для интернета — разрушить барьеры и расширить возможности пользователей. Это привело к тому, что MCP неофициально называют «Web3 для ИИ» (даже когда блокчейн не задействован). Однако важно признать, что MCP — это стандарт протокола, тогда как большинство проектов Web3 — это полнофункциональные платформы с экономическими уровнями. В сравнениях MCP обычно оказывается более легким, универсальным решением, в то время как блокчейн-проекты — более тяжелые, специализированные решения. В зависимости от варианта использования они могут дополнять, а не строго конкурировать. По мере созревания экосистемы мы можем увидеть, что MCP будет интегрирован во многие Web3-проекты как модуль (подобно тому, как HTTP или JSON повсеместны), а не как конкурирующий проект.

8. Общественное восприятие, рыночная динамика и освещение в СМИ

Общественное мнение о MCP было подавляюще позитивным как в сообществах ИИ, так и в Web3, часто граничащим с энтузиазмом. Многие видят в нем переломный момент, который появился тихо, но затем штурмом взял индустрию. Давайте разберем восприятие, динамику и заметные медиа-нарративы:

Рыночная динамика и метрики внедрения: К середине 2025 года MCP достиг уровня внедрения, редкого для нового протокола. Его поддерживают практически все основные поставщики ИИ-моделей (Anthropic, OpenAI, Google, Meta) и инфраструктура крупных технологических компаний (Microsoft, GitHub, AWS и т. д.), как подробно описано ранее. Одно это сигнализирует рынку, что MCP, вероятно, останется (подобно тому, как широкая поддержка способствовала развитию TCP/IP или HTTP в первые дни интернета). Со стороны Web3 динамика очевидна в поведении разработчиков: на хакатонах стали появляться проекты MCP, и многие инструменты для блокчейн-разработки теперь упоминают интеграцию MCP как преимущество. Статистика «более 1000 коннекторов за несколько месяцев» и цитата Майка Кригера о «тысячах интеграций» часто приводятся для иллюстрации того, как быстро MCP набрал популярность. Это предполагает сильные сетевые эффекты — чем больше инструментов доступно через MCP, тем он полезнее, что стимулирует дальнейшее внедрение (положительная обратная связь). Венчурные капиталисты и аналитики отмечают, что MCP достиг за менее чем год того, чего более ранние попытки «интероперабельности ИИ» не смогли сделать за несколько лет, в основном благодаря своевременности (оседлав волну интереса к ИИ-агентам) и открытому исходному коду. В Web3-медиа динамика иногда измеряется с точки зрения внимания разработчиков и интеграции в проекты, и MCP сейчас высоко оценивается по обоим показателям.

Общественное восприятие в сообществах ИИ и Web3: Изначально MCP оставался незамеченным, когда был впервые анонсирован (конец 2024 года). Но к началу 2025 года, по мере появления историй успеха, восприятие изменилось на восторженное. Практики ИИ увидели в MCP «недостающий элемент головоломки» для того, чтобы сделать ИИ-агентов по-настоящему полезными за пределами игрушечных примеров. Разработчики Web3, с другой стороны, увидели в нем мост для окончательного включения ИИ в dApps без отказа от децентрализации — ИИ может использовать ончейн-данные, например, без необходимости в централизованном оракуле. Лидеры мнений поют дифирамбы: например, Хесус Родригес (известный автор по Web3 AI) написал в CoinDesk, что MCP может быть «одним из самых трансформационных протоколов для эры ИИ и отлично подходящим для архитектур Web3». Рарес Крисан в блоге Notable Capital утверждал, что MCP может выполнить обещание Web3, где блокчейн сам по себе испытывал трудности, сделав интернет более ориентированным на пользователя и естественным для взаимодействия. Эти нарративы представляют MCP как революционный, но практичный — не просто хайп.

Справедливости ради, не все комментарии некритичны. Некоторые ИИ-разработчики на форумах, таких как Reddit, указывали, что MCP «не делает всего» — это протокол связи, а не готовый агент или механизм рассуждений. Например, одно обсуждение на Reddit под названием «MCP — это тупик» утверждало, что сам по себе MCP не управляет когнитивными способностями агента и не гарантирует качество; он по-прежнему требует хорошего дизайна агента и средств контроля безопасности. Эта точка зрения предполагает, что MCP может быть переоценен как серебряная пуля. Однако эти критические замечания скорее направлены на смягчение ожиданий, чем на отказ от полезности MCP. Они подчеркивают, что MCP решает проблему подключения инструментов, но все еще необходимо создавать надежную логику агента (т. е. MCP не создает магическим образом интеллектуального агента, он оснащает его инструментами). Консенсус, однако, заключается в том, что MCP — это большой шаг вперед, даже среди осторожных голосов. В блоге сообщества Hugging Face отмечалось, что, хотя MCP не является панацеей, он является важным фактором для интегрированного, контекстно-ориентированного ИИ, и разработчики объединяются вокруг него по этой причине.

Освещение в СМИ: MCP получил значительное освещение как в основных технологических СМИ, так и в нишевых блокчейн-изданиях:

  • TechCrunch опубликовал несколько статей. Они освещали первоначальную концепцию («Anthropic предлагает новый способ подключения данных к ИИ-чат-ботам») примерно во время запуска в 2024 году. В 2025 году TechCrunch освещал каждый крупный момент внедрения: поддержку OpenAI, принятие Google, участие Microsoft/GitHub. Эти статьи часто подчеркивают единство отрасли вокруг MCP. Например, TechCrunch цитировал одобрение Сэма Альтмана и отмечал быстрый переход от конкурирующих стандартов к MCP. При этом они изображали MCP как развивающийся стандарт, подобно тому, как никто не хотел остаться в стороне от интернет-протоколов в 90-х. Такое освещение в известном издании сигнализировало более широкому технологическому миру, что MCP важен и реален, а не просто маргинальный проект с открытым исходным кодом.
  • CoinDesk и другие криптоиздания ухватились за Web3-аспект. Колонка Родригеса в CoinDesk (июль 2025 года) часто цитируется; она рисовала футуристическую картину, где каждый блокчейн мог бы быть MCP-сервером, а новые сети MCP могли бы работать на блокчейнах. Она связывала MCP с такими концепциями, как децентрализованная идентификация, аутентификация и проверяемость — говоря на языке блокчейн-аудитории и предполагая, что MCP может быть протоколом, который по-настоящему объединит ИИ с децентрализованными фреймворками. Cointelegraph, Bankless и другие также обсуждали MCP в контексте «ИИ-агентов и DeFi» и подобных тем, обычно оптимистично оценивая возможности (например, у Bankless была статья об использовании MCP, чтобы позволить ИИ управлять ончейн-транзакциями, и она включала инструкцию по созданию собственного MCP-сервера).
  • Известные блоги венчурных капиталистов / Аналитические отчеты: Блог Notable Capital (июль 2025 года) является примером венчурного анализа, проводящего параллели между MCP и эволюцией веб-протоколов. По сути, он утверждает, что MCP может сделать для Web3 то, что HTTP сделал для Web1 — предоставить новый интерфейсный уровень (интерфейс на естественном языке), который не заменяет базовую инфраструктуру, но делает ее пригодной для использования. Такой нарратив убедителен и повторялся в панельных дискуссиях и подкастах. Он позиционирует MCP не как конкурирующий с блокчейном, а как следующий уровень абстракции, который наконец-то позволяет обычным пользователям (через ИИ) легко использовать блокчейн и веб-сервисы.
  • Ажиотаж в сообществе разработчиков: Помимо официальных статей, рост MCP можно оценить по его присутствию в дискуссиях разработчиков — на конференциях, YouTube-каналах, в рассылках. Например, были популярные посты в блогах, такие как «MCP: Недостающее звено для агентного ИИ?» на таких сайтах, как Runtime.news, и рассылки (например, от ИИ-исследователя Натана Ламберта), обсуждающие практические эксперименты с MCP и то, как он сравнивается с другими фреймворками для использования инструментов. Общий тон — любопытство и энтузиазм: разработчики делятся демонстрациями подключения ИИ к своей домашней автоматизации или криптокошельку всего несколькими строками кода с использованием серверов MCP, что еще недавно казалось научной фантастикой. Этот низовой энтузиазм важен, потому что он показывает, что MCP имеет влияние не только благодаря корпоративным одобрениям.
  • Корпоративная перспектива: СМИ и аналитики, специализирующиеся на корпоративном ИИ, также отмечают MCP как ключевое событие. Например, The New Stack освещал, как Anthropic добавил поддержку удаленных серверов MCP в Claude для корпоративного использования. Здесь акцент делается на том, что предприятия могут использовать MCP для безопасного подключения своих внутренних баз знаний и систем к ИИ. Это важно и для Web3, поскольку многие блокчейн-компании сами являются предприятиями и могут использовать MCP внутри компании (например, криптобиржа может использовать MCP, чтобы позволить ИИ анализировать внутренние журналы транзакций для обнаружения мошенничества).

Известные цитаты и реакции: Стоит выделить несколько, которые инкапсулируют общественное восприятие:

  • «Подобно тому, как HTTP произвел революцию в веб-коммуникациях, MCP предоставляет универсальную основу... заменяя фрагментированные интеграции единым протоколом». — CoinDesk. Это сравнение с HTTP мощно; оно представляет MCP как инновацию на уровне инфраструктуры.
  • «MCP [стал] процветающим открытым стандартом с тысячами интеграций и растущим числом. LLM наиболее полезны при подключении к уже имеющимся у вас данным...» — Майк Кригер (директор по продуктам Anthropic). Это официальное подтверждение как динамики, так и основного ценностного предложения, которое широко распространилось в социальных сетях.
  • «Обещание Web3... наконец-то может быть реализовано... через естественный язык и ИИ-агентов. ...MCP — это самое близкое, что мы видели к настоящему Web3 для масс». — Notable Capital. Это смелое заявление находит отклик у тех, кто разочарован медленными улучшениями UX в криптоиндустрии; оно предполагает, что ИИ может взломать код массового внедрения, абстрагируя сложность.

Вызовы и скептицизм: Хотя энтузиазм высок, СМИ также обсуждали вызовы:

  • Проблемы безопасности: Такие издания, как The New Stack или блоги по безопасности, поднимали вопрос о том, что разрешение ИИ выполнять инструменты может быть опасным, если не изолировано. Что, если вредоносный MCP-сервер попытается заставить ИИ выполнить вредоносное действие? Блог LimeChain прямо предупреждает о «значительных рисках безопасности» с MCP-серверами, разработанными сообществом (например, сервер, который обрабатывает приватные ключи, должен быть чрезвычайно безопасным). Эти опасения повторялись в дискуссиях: по сути, MCP расширяет возможности ИИ, но с властью приходит риск. Ответ сообщества (руководства, механизмы аутентификации) также освещался, в целом успокаивая, что меры по смягчению рисков разрабатываются. Тем не менее, любое громкое неправомерное использование MCP (скажем, ИИ спровоцировал непреднамеренный криптоперевод) повлияет на восприятие, поэтому СМИ внимательно следят за этим.
  • Производительность и стоимость: Некоторые аналитики отмечают, что использование ИИ-агентов с инструментами может быть медленнее или дороже, чем прямой вызов API (поскольку ИИ может потребоваться несколько шагов туда-обратно, чтобы получить то, что ему нужно). В контекстах высокочастотной торговли или ончейн-исполнения такая задержка может быть проблематичной. На данный момент это рассматривается как технические препятствия, которые нужно оптимизировать (через лучший дизайн агента или потоковую передачу), а не как непреодолимые проблемы.
  • Управление хайпом: Как и в случае с любой модной технологией, есть доля хайпа. Несколько голосов предостерегают от объявления MCP решением всех проблем. Например, статья Hugging Face спрашивает: «Является ли MCP серебряной пулей?» и отвечает отрицательно — разработчикам по-прежнему необходимо управлять контекстом, и MCP лучше всего работает в сочетании с хорошими стратегиями подсказок и памяти. Такие сбалансированные мнения полезны в дискурсе.

Общее настроение СМИ: Нарратив, который формируется, в значительной степени обнадеживающий и дальновидный:

  • MCP рассматривается как практический инструмент, обеспечивающий реальные улучшения уже сейчас (поэтому это не вейпвар), что СМИ подчеркивают, приводя работающие примеры: Claude читает файлы, Copilot использует MCP в VSCode, ИИ завершает транзакцию Solana в демо и т. д.
  • Он также изображается как стратегический стержень для будущего как ИИ, так и Web3. СМИ часто заключают, что MCP или подобные ему вещи будут необходимы для «децентрализованного ИИ» или «Web4» или любого другого термина, используемого для веб-технологий следующего поколения. Есть ощущение, что MCP открыл дверь, и теперь инновации текут — будь то децентрализованные агенты Namda или предприятия, подключающие устаревшие системы к ИИ, многие будущие сюжетные линии восходят к появлению MCP.

На рынке можно оценить динамику по формированию стартапов и финансированию вокруг экосистемы MCP. Действительно, ходят слухи/сообщения о стартапах, ориентированных на «рынки MCP» или управляемые MCP-платформы, получающих финансирование (Notable Capital, пишущий об этом, предполагает интерес венчурных капиталистов). Мы можем ожидать, что СМИ начнут освещать это косвенно — например, «Стартап X использует MCP, чтобы ваш ИИ управлял вашим криптопортфелем — привлек $Y миллионов».

Вывод о восприятии: К концу 2025 года MCP пользуется репутацией прорывной технологии. У него сильная поддержка со стороны влиятельных фигур как в ИИ, так и в криптоиндустрии. Общественный нарратив эволюционировал от «вот классный инструмент» до «это может стать основой для следующего веба». Тем временем практическое освещение подтверждает, что он работает и внедряется, что придает ему доверия. При условии, что сообщество продолжит решать проблемы (безопасность, управление в масштабе) и не произойдет крупных катастроф, общественный имидж MCP, вероятно, останется позитивным или даже станет культовым как «протокол, который заставил ИИ и Web3 хорошо работать вместе».

СМИ, вероятно, будут внимательно следить за:

  • Историями успеха (например, если крупная DAO реализует ИИ-казначея через MCP, или правительство использует MCP для ИИ-систем с открытыми данными).
  • Любыми инцидентами безопасности (для оценки риска).
  • Эволюцией сетей MCP и тем, появится ли официально какой-либо токен или блокчейн-компонент (что стало бы большой новостью, еще теснее связывающей ИИ и криптоиндустрию).

Однако на данный момент освещение можно подытожить строкой из CoinDesk: «Сочетание Web3 и MCP может стать новой основой для децентрализованного ИИ» — это утверждение, которое отражает как обещание, так и ажиотаж вокруг MCP в глазах общественности.

Ссылки:

  • Новости Anthropic: "Представляем Протокол контекста модели," Ноябрь 2024
  • Блог LimeChain: "Что такое MCP и как он применяется к блокчейнам?" Май 2025
  • Блог Chainstack: "MCP для разработчиков Web3: Solana, EVM и документация," Июнь 2025
  • Колонка CoinDesk: "Протокол агентов: потенциал MCP в Web3," Июль 2025
  • Notable Capital: "Почему MCP представляет собой реальную возможность Web3," Июль 2025
  • TechCrunch: "OpenAI принимает стандарт Anthropic…", 26 марта 2025
  • TechCrunch: "Google примет стандарт Anthropic…", 9 апреля 2025
  • TechCrunch: "GitHub, Microsoft принимают… (руководящий комитет MCP)", 19 мая 2025
  • Блог разработчиков Microsoft: "Официальный C# SDK для MCP," Апрель 2025
  • Блог Hugging Face: "#14: Что такое MCP, и почему все о нем говорят?" Март 2025
  • Messari Research: "Профиль Fetch.ai," 2023
  • Medium (Nu FinTimes): "Представляем SingularityNET," Март 2024

World Liberty Financial: Будущее денег, обеспеченное USD1

· 10 мин чтения
Dora Noda
Software Engineer

Обзор World Liberty Financial

World Liberty Financial (WLFI) — это платформа децентрализованных финансов (DeFi), созданная членами семьи Трампов и их партнерами. Согласно сайту Trump Organization, платформа призвана объединить традиционный банкинг и блокчейн-технологии, сочетая стабильность традиционных финансов с прозрачностью и доступностью децентрализованных систем. Ее миссия — предоставлять современные услуги для перемещения денег, кредитования и управления цифровыми активами, поддерживая при этом стабильность, обеспеченную долларом, делая капитал доступным для частных лиц и учреждений, а также упрощая DeFi для массовых пользователей.

WLFI запустила свой токен управления ($WLFI) в сентябре 2025 года и представила стейблкоин, привязанный к доллару, под названием USD1 в марте 2025 года. Платформа описывает USD1 как стейблкоин «будущего денег», разработанный для использования в качестве базовой пары для токенизированных активов и для продвижения доминирования доллара США в цифровой экономике. Соучредитель Дональд Трамп-младший охарактеризовал WLFI как неполитический проект, призванный расширить возможности обычных людей и укрепить глобальную роль доллара США.

История и основание

  • Истоки (2024–2025). WLFI была анонсирована в сентябре 2024 года как крипто-проект, возглавляемый членами семьи Трампов. Компания запустила свой токен управления WLFIпозднеевтомжегоду.ПоданнымReuters,первоначальнаяпродажатокеновWLFI позднее в том же году. По данным Reuters, первоначальная продажа токенов WLFI принесла всего около 2,7 млн долларов, но продажи резко возросли после победы Дональда Трампа на выборах 2024 года (информация, на которую ссылаются в широко цитируемых отчетах, хотя она не доступна напрямую в наших источниках). WLFI принадлежит в основном бизнес-структуре Трампа и имеет девять соучредителей, включая Дональда Трампа-младшего, Эрика Трампа и Бэррона Трампа.
  • Руководство. Trump Organization описывает руководящие роли WLFI следующим образом: Дональд Трамп (главный крипто-адвокат), Эрик Трамп и Дональд Трамп-младший (амбассадоры Web3), Бэррон Трамп (визионер DeFi) и Зак Уиткофф (генеральный директор и соучредитель). Ежедневные операции компании управляются Заком Уиткоффом и партнерами, такими как Захари Фолкман и Чейз Херро.
  • Инициатива стейблкоина. WLFI анонсировала стейблкоин USD1 в марте 2025 года. USD1 был описан как стейблкоин, привязанный к доллару, обеспеченный казначейскими облигациями США, долларовыми депозитами и другими денежными эквивалентами. Резервы монеты хранятся в BitGo Trust Company, регулируемом хранителе цифровых активов. USD1 был запущен на BNB Chain от Binance, а затем расширился до Ethereum, Solana и Tron.

Стейблкоин USD1: Дизайн и особенности

Модель резервов и механизм стабильности

USD1 разработан как стейблкоин, обеспеченный фиатными деньгами, с механизмом погашения 1:1. Каждый токен USD1 может быть погашен за один доллар США, а резервы стейблкоина хранятся в краткосрочных казначейских векселях США, долларовых депозитах и денежных эквивалентах. Эти активы хранятся BitGo Trust, регулируемой организацией, известной институциональным хранением цифровых активов. WLFI заявляет, что USD1 предлагает:

  1. Полное обеспечение и аудиты. Резервы полностью обеспечены и подлежат ежемесячным сторонним аттестациям, обеспечивая прозрачность в отношении активов обеспечения. В мае 2025 года Binance Academy отметила, что регулярные отчеты о составе резервов еще не были общедоступны, и что WLFI обещала провести сторонние аудиты.
  2. Институциональная направленность. WLFI позиционирует USD1 как «готовый для институционалов» стейблкоин, предназначенный для банков, фондов и крупных компаний, хотя он также доступен розничным пользователям.
  3. Нулевые комиссии за выпуск/погашение. Сообщается, что USD1 не взимает комиссий за выпуск или погашение, что снижает трение для пользователей, работающих с большими объемами.
  4. Кроссчейн-совместимость. Стейблкоин использует протокол кроссчейн-совместимости (CCIP) Chainlink для обеспечения безопасных переводов через Ethereum, BNB Chain и Tron. Планы по расширению на дополнительные блокчейны были подтверждены благодаря партнерствам с такими сетями, как Aptos и Tron.

Рыночные показатели

  • Быстрый рост. В течение месяца после запуска рыночная капитализация USD1 достигла примерно 2,1 миллиарда долларов, что было обусловлено крупными институциональными сделками, такими как инвестиции в размере 2 миллиардов долларов фондом MGX из Абу-Даби в Binance с использованием USD1. К началу октября 2025 года предложение выросло примерно до 2,68 миллиарда долларов, при этом большинство токенов было выпущено на BNB Chain (79 %), за которой следовали Ethereum, Solana и Tron.
  • Листинг и принятие. Binance разместила USD1 на своем спотовом рынке в мае 2025 года. WLFI заявляет о широкой интеграции с протоколами DeFi и централизованными биржами. Платформы DeFi, такие как ListaDAO, Venus Protocol и Aster, поддерживают кредитование, заимствование и пулы ликвидности с использованием USD1. WLFI подчеркивает, что пользователи могут обменять USD1 на доллары США через BitGo в течение одного-двух рабочих дней.

Институциональное использование и планы по токенизированным активам

WLFI рассматривает USD1 как основной расчетный актив для токенизированных реальных активов (RWAs). Генеральный директор Зак Уиткофф заявил, что такие товары, как нефть, газ, хлопок и древесина, должны торговаться в блокчейне, и что WLFI активно работает над токенизацией этих активов и их сопряжением с USD1, поскольку они требуют надежного, прозрачного стейблкоина. Он описал USD1 как «самый надежный и прозрачный стейблкоин на Земле».

Продукты и услуги

Дебетовая карта и розничные приложения

На конференции TOKEN2049 в Сингапуре Зак Уиткофф объявил, что WLFI выпустит крипто-дебетовую карту, которая позволит пользователям тратить цифровые активы в повседневных транзакциях. Компания планировала запустить пилотную программу в следующем квартале, а полный запуск ожидается в Q4 2025 или Q1 2026. CoinLaw обобщил ключевые детали:

  • Карта будет связывать крипто-балансы с потребительскими покупками и, как ожидается, будет интегрирована с такими сервисами, как Apple Pay.
  • WLFI также разрабатывает розничное приложение для потребителей в дополнение к карте.

Токенизация и инвестиционные продукты

Помимо платежей, WLFI стремится токенизировать реальные товары. Уиткофф заявил, что они изучают токенизацию нефти, газа, древесины и недвижимости для создания торговых инструментов на основе блокчейна. Токен управления WLFI ($WLFI), запущенный в сентябре 2025 года, предоставляет держателям возможность голосовать по определенным корпоративным решениям. Проект также сформировал стратегические партнерства, включая соглашение ALT5 Sigma о покупке токенов WLFI на сумму 750 миллионов долларов в рамках своей казначейской стратегии.

Точка зрения Дональда Трампа-младшего

Соучредитель Дональд Трамп-младший является видным публичным лицом WLFI. Его выступления на отраслевых мероприятиях и интервью раскрывают мотивы проекта и его взгляды на традиционные финансы, регулирование и роль доллара США.

Критика традиционных финансов

  • «Сломанная» и недемократическая система. Во время панельной дискуссии под названием World Liberty Financial: Будущее денег, обеспеченное USD1 на конференции Token2049 Трамп-младший утверждал, что традиционные финансы недемократичны и «сломаны». Он рассказал, что когда его семья пришла в политику, 300 их банковских счетов были закрыты за одну ночь, что иллюстрирует, как финансовые учреждения могут наказывать людей по политическим причинам. Он сказал, что семья переместилась с вершины финансовой «пирамиды» на дно, показав, что система благоприятствует инсайдерам и функционирует как схема Понци.
  • Неэффективность и отсутствие ценности. Он критиковал традиционную финансовую индустрию за погрязание в неэффективности, где люди, «зарабатывающие семизначные суммы в год», просто перекладывают бумаги, не создавая реальной ценности.

Защита стейблкоинов и доллара

  • Сохранение долларовой гегемонии. Трамп-младший утверждает, что стейблкоины, такие как USD1, восполнят роль, которую ранее играли страны, покупающие казначейские облигации США. Он заявил Business Times, что стейблкоины могут создать «долларовую гегемонию», позволяя США лидировать в мире и обеспечивать безопасность и стабильность во многих местах. В интервью Cryptopolitan он утверждал, что стейблкоины фактически сохраняют доминирование доллара США, потому что спрос на токены, обеспеченные долларом, поддерживает казначейские облигации в то время, когда традиционные покупатели (например, Китай и Япония) сокращают свое участие.
  • Будущее финансов и DeFi. Трамп-младший описал WLFI как будущее финансов и подчеркнул, что блокчейн и DeFi-технологии могут демократизировать доступ к капиталу. На мероприятии ETH Denver, освещенном Panews, он утверждал, что необходимы четкие регуляторные рамки, чтобы предотвратить уход компаний в офшоры и защитить инвесторов. Он призвал США возглавить глобальные крипто-инновации и критиковал чрезмерное регулирование за подавление роста.
  • Финансовая демократизация. Он считает, что объединение традиционных и децентрализованных финансов через WLFI обеспечит ликвидность, прозрачность и стабильность для недостаточно обслуживаемых слоев населения. Он также подчеркивает потенциал блокчейна в устранении коррупции за счет обеспечения прозрачности транзакций и их размещения в блокчейне.
  • Советы новичкам. Трамп-младший советует новым инвесторам начинать с небольших сумм, избегать чрезмерного кредитного плеча и постоянно изучать DeFi.

Политический нейтралитет и критика СМИ

Трамп-младший подчеркивает, что WLFI «на 100 % не является политической организацией», несмотря на глубокое участие семьи Трампов. Он представляет проект как платформу для блага американцев и всего мира, а не как политический инструмент. Во время панельной дискуссии Token2049 он критиковал основные средства массовой информации, заявляя, что они дискредитировали себя, а Зак Уиткофф спросил аудиторию, считают ли они The New York Times заслуживающей доверия.

Партнерства и интеграция в экосистему

Инвестиции MGX–Binance

В мае 2025 года WLFI объявила, что USD1 будет способствовать инвестициям в размере 2 миллиардов долларов от MGX из Абу-Даби в криптобиржу Binance. Это объявление подчеркнуло растущее влияние WLFI и было представлено как доказательство институциональной привлекательности USD1. Однако сенатор США Элизабет Уоррен раскритиковала сделку, назвав ее «коррупцией», поскольку ожидающееся законодательство о стейблкоинах (Закон GENIUS) может принести выгоду семье президента. Данные CoinMarketCap, цитируемые Reuters, показали, что оборотная стоимость USD1 достигла примерно 2,1 миллиарда долларов в то время.

Партнерство с Aptos

На конференции TOKEN2049 в октябре 2025 года WLFI и блокчейн первого уровня Aptos объявили о партнерстве по развертыванию USD1 в сети Aptos. Brave New Coin сообщает, что WLFI выбрала Aptos из-за ее высокой пропускной способности (транзакции завершаются менее чем за полсекунды) и комиссий менее одной сотой цента. Сотрудничество направлено на то, чтобы бросить вызов доминирующим сетям стейблкоинов, предоставляя более дешевые и быстрые каналы для институциональных транзакций. CryptoSlate отмечает, что интеграция USD1 сделает Aptos пятой сетью для выпуска стейблкоина, с поддержкой с первого дня от протоколов DeFi, таких как Echelon Market и Hyperion, а также кошельков и бирж, таких как Petra, Backpack и OKX. Руководители WLFI рассматривают это расширение как часть более широкой стратегии по увеличению внедрения DeFi и позиционированию USD1 как расчетного уровня для токенизированных активов.

Интеграция дебетовой карты и Apple Pay

Reuters и CoinLaw сообщают, что WLFI запустит крипто-дебетовую карту, связывающую криптоактивы с повседневными расходами. Уиткофф сообщил Reuters, что компания ожидает запустить пилотную программу в следующем квартале, а полный запуск состоится к концу 2025 или началу 2026 года. Карта будет интегрирована с Apple Pay, и WLFI выпустит розничное приложение для упрощения криптоплатежей.

Споры и критика

  • Прозрачность резервов. Binance Academy подчеркнула, что по состоянию на май 2025 года USD1 не имел общедоступных отчетов о составе резервов. WLFI обещала сторонние аудиты, но отсутствие подробных раскрытий вызвало обеспокоенность инвесторов.
  • Политические конфликты интересов. Глубокие связи WLFI с семьей Трампов вызвали пристальное внимание. Расследование Reuters сообщило, что анонимный кошелек, содержащий 2 миллиарда долларов в USD1, получил средства незадолго до инвестиций MGX, и владельцы кошелька не могли быть идентифицированы. Критики утверждают, что это предприятие может позволить семье Трампов получать финансовую выгоду от регуляторных решений. Сенатор Элизабет Уоррен предупредила, что законодательство о стейблкоинах, рассматриваемое Конгрессом, облегчит президенту и его семье «набивать свои карманы». Средства массовой информации, такие как The New York Times и The New Yorker, описали WLFI как размывающую границу между частным предпринимательством и государственной политикой.
  • Концентрация рынка и проблемы ликвидности. CoinLaw сообщила, что более половины ликвидности USD1 по состоянию на июнь 2025 года поступало всего с трех кошельков. Такая концентрация вызывает вопросы об органическом спросе на USD1 и его устойчивости на стрессовых рынках.
  • Регуляторная неопределенность. Сам Трамп-младший признает, что регулирование криптовалют в США остается неясным, и призывает к разработке всеобъемлющих правил, чтобы предотвратить уход компаний в офшоры. Критики утверждают, что WLFI извлекает выгоду из дерегуляционных шагов администрации Трампа, одновременно формируя политику, которая может благоприятствовать ее собственным финансовым интересам.

Заключение

World Liberty Financial позиционирует себя как пионер на пересечении традиционных финансов и децентрализованных технологий, используя стейблкоин USD1 в качестве основы для платежей, токенизации и DeFi-продуктов. Акцент платформы на институциональной поддержке, кроссчейн-совместимости и выпуске без комиссий отличает USD1 от других стейблкоинов. Партнерства с такими сетями, как Aptos, и крупные сделки, такие как инвестиции MGX–Binance, подчеркивают амбиции WLFI стать глобальным расчетным уровнем для токенизированных активов.

С точки зрения Дональда Трампа-младшего, WLFI — это не просто коммерческое предприятие, а миссия по демократизации финансов, сохранению гегемонии доллара США и вызову тому, что он считает сломанной и элитарной традиционной финансовой системой. Он выступает за ясность регулирования, критикуя чрезмерный надзор, что отражает более широкие дебаты в криптоиндустрии. Однако политические связи WLFI, непрозрачное раскрытие резервов и концентрация ликвидности вызывают скептицизм. Успех компании будет зависеть от баланса инноваций и прозрачности, а также от навигации в сложном взаимодействии между частными интересами и государственной политикой.

Направленный ациклический граф (DAG) в блокчейне

· 46 мин чтения
Dora Noda
Software Engineer

Что такое DAG и чем он отличается от блокчейна?

Направленный ациклический граф (DAG) — это тип структуры данных, состоящий из вершин (узлов), соединенных направленными ребрами, которые никогда не образуют цикл. В контексте распределенных реестров, реестр на основе DAG организует транзакции или события в виде паутинообразного графа, а не единой последовательной цепочки. Это означает, что в отличие от традиционного блокчейна, где каждый новый блок ссылается только на одного предшественника (образуя линейную цепочку), узел в DAG может ссылаться на несколько предыдущих транзакций или блоков. В результате многие транзакции могут быть подтверждены параллельно, а не строго одна за другой в хронологических блоках.

Чтобы проиллюстрировать разницу, если блокчейн выглядит как длинная цепочка блоков (каждый блок содержит множество транзакций), то реестр на основе DAG больше похож на дерево или сеть отдельных транзакций. Каждая новая транзакция в DAG может присоединяться к (и тем самым подтверждать) одну или несколько более ранних транзакций, вместо того чтобы ждать упаковки в следующий единственный блок. Это структурное различие приводит к нескольким ключевым отличиям:

  • Параллельная валидация: В блокчейнах майнеры/валидаторы добавляют по одному блоку в цепочку за раз, поэтому транзакции подтверждаются партиями для каждого нового блока. В DAG несколько транзакций (или небольших «блоков» транзакций) могут быть добавлены одновременно, поскольку каждая из них может присоединяться к разным частям графа. Эта параллелизация означает, что сетям DAG не нужно ждать, пока одна длинная цепочка будет расти по одному блоку за раз.
  • Отсутствие глобального последовательного порядка: Блокчейн по своей сути создает полный порядок транзакций (каждый блок имеет определенное место в одной последовательности). Реестр DAG, напротив, формирует частичный порядок транзакций. Нет единого «последнего блока», в очередь к которому выстраиваются все транзакции; вместо этого множество «вершин» графа могут сосуществовать и расширяться одновременно. Затем требуются протоколы консенсуса, чтобы в конечном итоге упорядочить или согласовать порядок или действительность транзакций в DAG.
  • Подтверждение транзакций: В блокчейне транзакции подтверждаются, когда они включаются в добытый/валидированный блок, и этот блок становится частью принятой цепочки (часто после добавления новых блоков поверх него). В системах DAG новая транзакция сама по себе помогает подтверждать предыдущие транзакции, ссылаясь на них. Например, в Tangle IOTA (DAG) каждая транзакция должна подтвердить две предыдущие транзакции, фактически заставляя пользователей совместно проверять транзакции друг друга. Это устраняет строгое разделение между «создателями транзакций» и «валидаторами», которое существует в майнинге блокчейна — каждый участник, выпускающий транзакцию, также выполняет небольшую работу по валидации.

Важно отметить, что блокчейн на самом деле является частным случаем DAG — DAG, который был ограничен одной цепочкой блоков. Оба являются формами технологии распределенного реестра (DLT) и разделяют такие цели, как неизменяемость и децентрализация. Однако реестры на основе DAG имеют «бесблочную» или мульти-родительскую структуру, что придает им различные свойства на практике. Традиционные блокчейны, такие как Bitcoin и Ethereum, используют последовательные блоки и часто отбрасывают любые конкурирующие блоки (форки), тогда как реестры DAG пытаются включать и упорядочивать все транзакции, не отбрасывая ни одной, если они не конфликтуют. Это фундаментальное различие закладывает основу для различий в производительности и дизайне, подробно описанных ниже.

Техническое сравнение: архитектура DAG против блокчейна

Чтобы лучше понять DAG и блокчейны, мы можем сравнить их архитектуры и процессы валидации:

  • Структура данных: Блокчейны хранят данные в блоках, связанных в линейной последовательности (каждый блок содержит множество транзакций и указывает на один предыдущий блок, образуя одну длинную цепочку). Реестры DAG используют графовую структуру: каждый узел в графе представляет транзакцию или блок событий и может ссылаться на несколько предыдущих узлов. Этот направленный граф не имеет циклов, что означает, что если вы будете следовать по ссылкам «назад», вы никогда не сможете вернуться к транзакции, с которой начали. Отсутствие циклов позволяет выполнять топологическую сортировку транзакций (способ их упорядочивания таким образом, чтобы каждая ссылка следовала за ссылаемой транзакцией). Короче говоря, блокчейны = одномерная цепочка, DAG = многомерный граф.
  • Пропускная способность и параллелизм: Из-за структурных различий блокчейны и DAG обрабатывают пропускную способность по-разному. Блокчейн, даже в оптимальных условиях, добавляет блоки один за другим (часто ожидая, пока каждый блок будет проверен и распространен по всей сети, прежде чем будет добавлен следующий). Это по своей сути ограничивает пропускную способность транзакций — например, Bitcoin в среднем обрабатывает 5–7 транзакций в секунду (TPS), а Ethereum ~15–30 TPS при классическом дизайне Proof-of-Work. Системы на основе DAG, напротив, позволяют многим новым транзакциям/блокам одновременно входить в реестр. Множественные ветви транзакций могут расти одновременно и позже объединяться, что значительно увеличивает потенциальную пропускную способность. Некоторые современные сети DAG заявляют о пропускной способности в тысячи TPS, приближаясь или превосходя традиционные платежные сети по пропускной способности.
  • Процесс валидации транзакций: В блокчейн-сетях транзакции ожидают в мемпуле и валидируются, когда майнер или валидатор упаковывает их в новый блок, затем другие узлы проверяют этот блок на соответствие истории. В сетях DAG валидация часто более непрерывна и децентрализована: каждая новая транзакция выполняет действие валидации, ссылаясь на (одобряя) более ранние транзакции. Например, каждая транзакция в Tangle IOTA должна подтвердить две предыдущие транзакции, проверив их действительность и выполнив небольшое доказательство работы, тем самым «голосуя» за эти транзакции. В DAG-структуре block-lattice Nano транзакции каждого аккаунта образуют свою собственную цепочку и валидируются посредством голосования узлами-представителями (подробнее об этом позже). Конечный эффект заключается в том, что DAG распределяет работу по валидации: вместо того, чтобы один производитель блоков валидировал пакет транзакций, каждый участник или множество валидаторов одновременно валидируют разные транзакции.
  • Механизм консенсуса: И блокчейнам, и DAG нужен способ для сети договориться о состоянии реестра (какие транзакции подтверждены и в каком порядке). В блокчейнах консенсус часто достигается за счет Proof of Work или Proof of Stake, производящих следующий блок, и правила «самая длинная (или самая тяжелая) цепочка выигрывает». В реестрах DAG консенсус может быть более сложным, поскольку нет единой цепочки. Различные проекты DAG используют разные подходы: некоторые используют протоколы сплетен и виртуальное голосование (как в Hedera Hashgraph) для достижения согласия по порядку транзакций, другие используют выбор вершин по методу Монте-Карло с цепями Маркова (ранний подход IOTA) или другие схемы голосования для определения предпочтительных ветвей графа. Мы обсудим конкретные методы консенсуса в системах DAG в последующем разделе. В целом, достижение общесетевого согласия в DAG может быть быстрее с точки зрения пропускной способности, но требует тщательного проектирования для обработки конфликтов (таких как попытки двойной траты), поскольку несколько транзакций могут существовать параллельно до окончательного упорядочивания.
  • Обработка форков: В блокчейне «форк» (два блока, добытые почти одновременно) приводит к тому, что одна ветвь в конечном итоге выигрывает (самая длинная цепочка), а другая становится сиротской (отбрасывается), что приводит к потере всей работы, выполненной над сиротским блоком. В DAG философия заключается в том, чтобы принимать форки как дополнительные ветви графа, а не отбрасывать их. DAG будет включать оба форка; затем алгоритм консенсуса определяет, какие транзакции в конечном итоге подтверждаются (или как разрешаются конфликтующие транзакции), не отбрасывая всю одну ветвь. Это означает, что мощность майнинга или усилия не тратятся впустую на устаревшие блоки, что способствует повышению эффективности. Например, Tree-Graph Conflux (DAG на PoW) пытается включить все блоки в реестр и упорядочивает их, а не делает их сиротскими, тем самым используя 100% произведенных блоков.

Таким образом, блокчейны предлагают более простую, строго упорядоченную структуру, где валидация происходит блок за блоком, тогда как DAG предоставляют более сложную графовую структуру, позволяющую асинхронную и параллельную обработку транзакций. Реестры на основе DAG должны использовать дополнительную логику консенсуса для управления этой сложностью, но они обещают значительно более высокую пропускную способность и эффективность за счет использования полной пропускной способности сети, а не принудительного создания очереди блоков.

Преимущества блокчейн-систем на основе DAG

Архитектуры DAG были введены в первую очередь для преодоления ограничений традиционных блокчейнов в масштабируемости, скорости и стоимости. Вот основные преимущества распределенных реестров на основе DAG:

  • Высокая масштабируемость и пропускная способность: Сети DAG могут достигать высокой пропускной способности транзакций, поскольку они обрабатывают множество транзакций параллельно. Поскольку нет узкого места в виде одной цепочки, TPS (транзакций в секунду) может масштабироваться в зависимости от сетевой активности. Фактически, некоторые протоколы DAG продемонстрировали пропускную способность порядка тысяч TPS. Например, Hedera Hashgraph способна обрабатывать более 10 000 транзакций в секунду на базовом уровне, значительно превосходя Bitcoin или Ethereum. На практике Hedera продемонстрировала завершение транзакций примерно за 3–5 секунд, по сравнению с минутами или более длительным временем подтверждения в блокчейнах PoW. Даже платформы смарт-контрактов на основе DAG, такие как Fantom, достигли почти мгновенной завершенности (~1–2 секунды) для транзакций при нормальных нагрузках. Эта масштабируемость делает DAG привлекательными для приложений, требующих большого объема, таких как микротранзакции IoT или потоки данных в реальном времени.
  • Низкие комиссии за транзакции (бесплатные или минимальные): Многие реестры на основе DAG могут похвастаться незначительными комиссиями или даже бесплатными транзакциями. По своей конструкции они часто не полагаются на майнеров, ожидающих вознаграждения за блоки или комиссии; например, в IOTA и Nano нет обязательных комиссий за транзакции — это важнейшее свойство для микроплатежей в IoT и повседневном использовании. Там, где комиссии существуют (например, Hedera или Fantom), они, как правило, очень низкие и предсказуемые, поскольку сеть может обрабатывать нагрузку без ценовых войн за ограниченное пространство блоков. Транзакции Hedera стоят около $0.0001 (одна десятитысячная доллара) в виде комиссий, что составляет крошечную долю от типичных комиссий блокчейна. Такие низкие затраты открывают двери для таких вариантов использования, как высокочастотные транзакции или крошечные платежи, которые были бы невозможны в цепочках с высокими комиссиями. Кроме того, поскольку DAG включают все действительные транзакции, а не отбрасывают некоторые в случае форков, меньше «потерянной» работы — что косвенно помогает снизить затраты за счет эффективного использования ресурсов.
  • Быстрое подтверждение и низкая задержка: В реестрах DAG транзакциям не нужно ждать включения в глобальный блок, поэтому подтверждение может быть быстрее. Многие системы DAG достигают быстрой завершенности — момента, когда транзакция считается окончательно подтвержденной. Например, консенсус Hedera Hashgraph обычно завершает транзакции в течение нескольких секунд со 100% уверенностью (завершенность aBFT). Сеть Nano часто видит транзакции, подтвержденные менее чем за 1 секунду благодаря легковесному процессу голосования. Эта низкая задержка улучшает пользовательский опыт, делая транзакции почти мгновенными, что важно для реальных платежей и интерактивных приложений.
  • Энергоэффективность: Сети на основе DAG часто не требуют интенсивного майнинга с использованием доказательства работы, который используют многие блокчейны, что делает их гораздо более энергоэффективными. Даже по сравнению с блокчейнами на основе доказательства доли владения, некоторые сети DAG потребляют минимальное количество энергии на транзакцию. Например, одна транзакция Hedera Hashgraph потребляет порядка 0.0001 кВт·ч (киловатт-час) энергии. Это на несколько порядков меньше, чем Bitcoin (который может потреблять сотни кВт·ч на транзакцию) или даже многие цепочки PoS. Эффективность достигается за счет устранения расточительных вычислений (отсутствие гонки майнинга) и отказа от отбрасывания любых попыток транзакций. Если бы блокчейн-сети повсеместно перешли на модели на основе DAG, экономия энергии могла бы быть колоссальной. Углеродный след сетей DAG, таких как Hedera, настолько низок, что ее общая сеть является углеродно-отрицательной при учете компенсаций. Такая энергоэффективность становится все более важной для устойчивой инфраструктуры Web3.
  • Отсутствие майнинга и демократизированная валидация: Во многих моделях DAG нет отдельной роли майнера/валидатора, которую не могли бы выполнять обычные пользователи. Например, каждый пользователь IOTA, выпускающий транзакцию, также помогает валидировать две другие, по сути децентрализуя работу по валидации до периферии сети. Это может снизить потребность в мощном майнинговом оборудовании или стейкинге больших объемов капитала для участия в консенсусе, потенциально делая сеть более доступной. (Однако некоторые сети DAG по-прежнему используют валидаторов или координаторов — см. обсуждение консенсуса и децентрализации позже.)
  • Плавная обработка высокого трафика: Блокчейны часто страдают от переполнения мемпула и скачков комиссий при высокой нагрузке (поскольку только один блок за раз может обрабатывать транзакции). Сети DAG, благодаря своей параллельной природе, обычно более изящно справляются со скачками трафика. По мере того, как все больше транзакций наводняют сеть, они просто создают больше параллельных ветвей в DAG, которые система может обрабатывать одновременно. Жесткого ограничения пропускной способности меньше (масштабируемость более «горизонтальная»). Это приводит к лучшей масштабируемости под нагрузкой, с меньшими задержками и лишь умеренным увеличением времени подтверждения или комиссий, вплоть до пропускной способности сети узлов и вычислительной мощности. По сути, DAG может поглощать всплески транзакций без быстрого перегрузки, что делает его подходящим для вариантов использования, связанных со всплесками активности (например, все устройства IoT отправляют данные одновременно или вирусное событие DApp).

Таким образом, реестры на основе DAG обещают более быстрые, дешевые и масштабируемые транзакции, чем классический подход блокчейна. Они нацелены на поддержку сценариев массового внедрения (микроплатежи, IoT, высокочастотная торговля и т. д.), с которыми текущие основные блокчейны сталкиваются из-за ограничений пропускной способности и стоимости. Однако эти преимущества сопряжены с определенными компромиссами и проблемами реализации, которые мы рассмотрим в последующих разделах.

Механизмы консенсуса в платформах на основе DAG

Поскольку реестры DAG естественным образом не производят единую цепочку блоков, им требуются инновационные механизмы консенсуса для проверки транзакций и обеспечения согласия всех участников относительно состояния реестра. Различные проекты разработали различные решения, адаптированные к их архитектуре DAG. Здесь мы описываем некоторые примечательные подходы к консенсусу, используемые платформами на основе DAG:

  • Tangle IOTA – Выбор вершин и взвешенное голосование: Tangle IOTA — это DAG транзакций, разработанный для Интернета вещей (IoT). В оригинальной модели IOTA нет майнеров; вместо этого каждая новая транзакция должна выполнить небольшое доказательство работы и одобрить две предыдущие транзакции (это «вершины» графа). Этот выбор вершин часто осуществляется с помощью алгоритма Монте-Карло с цепями Маркова (MCMC), который вероятностно выбирает, какие вершины одобрить, отдавая предпочтение самому тяжелому подграфу для предотвращения фрагментации. Консенсус в ранней IOTA частично достигался за счет этого кумулятивного веса одобрений — чем больше будущих транзакций косвенно одобряют вашу, тем более «подтвержденной» она становится. Однако для обеспечения безопасности сети на ранних этапах IOTA полагалась на временный централизованный узел Координатора, который выпускал периодические транзакции-вехи для завершения Tangle. Это было серьезной критикой (централизация) и сейчас устраняется в обновлении, известном как «Coordicide» (IOTA 2.0). В IOTA 2.0 новая модель консенсуса применяет безответственный консенсус в стиле Накамото на DAG. По сути, узлы выполняют голосование в Tangle: когда узел присоединяет новый блок, этот блок неявно голосует за действительность транзакций, на которые он ссылается. Комитет узлов-валидаторов (выбранных с помощью механизма стейкинга) выпускает блоки валидации в качестве голосов, и транзакция подтверждается, когда она накапливает достаточное количество взвешенных одобрений (концепция, называемая весом одобрения). Этот подход сочетает идею самого тяжелого DAG (подобно самой длинной цепочке) с явным голосованием для достижения консенсуса без координатора. Короче говоря, консенсус IOTA эволюционировал от выбора вершин + Координатор к полностью децентрализованному голосованию по ветвям DAG узлами, стремясь к безопасности и быстрому согласию о состоянии реестра.
  • Hedera Hashgraph – Сплетни и виртуальное голосование (aBFT): Hedera Hashgraph использует DAG событий в сочетании с асинхронным византийским отказоустойчивым (aBFT) алгоритмом консенсуса. Основная идея — «сплетни о сплетнях»: каждый узел быстро распространяет подписанную информацию о транзакциях и о своей истории сплетен другим узлам. Это создает Hashgraph (DAG событий), где каждый узел в конечном итоге знает, что распространил каждый другой узел, включая структуру того, кто что слышал и когда. Используя этот DAG событий, Hedera реализует виртуальное голосование. Вместо того чтобы отправлять фактические сообщения о голосовании для упорядочивания транзакций, узлы моделируют алгоритм голосования локально, анализируя граф связей сплетен. Алгоритм Hashgraph Лимона Бэрда может детерминированно рассчитать, как пройдет теоретический раунд голосования по порядку транзакций, просматривая историю «сети сплетен», записанную в DAG. Это дает метку времени консенсуса и полный порядок транзакций, который является справедливым и окончательным (транзакции упорядочиваются по медианному времени их получения сетью). Консенсус Hashgraph является безответственным и достигает aBFT, что означает, что он может выдерживать до 1/3 злонамеренных узлов без ущерба для консенсуса. На практике сеть Hedera управляется набором из 39 известных узлов, управляемых организациями (Совет Hedera), поэтому она является разрешенной, но географически распределенной. Преимуществом является чрезвычайно быстрый и безопасный консенсус: Hedera может достичь завершенности за секунды с гарантированной согласованностью. Механизм консенсуса Hashgraph запатентован, но был открыт в 2024 году и демонстрирует, как DAG + инновационный консенсус (сплетни и виртуальное голосование) могут заменить традиционный протокол блокчейна.
  • Lachesis Fantom – Безответственный PoS aBFT: Fantom — это платформа смарт-контрактов, которая использует консенсус на основе DAG под названием Lachesis. Lachesis — это протокол Proof-of-Stake aBFT, вдохновленный Hashgraph. В Fantom каждый узел-валидатор собирает полученные транзакции в блок событий и добавляет его в свой локальный DAG событий. Эти блоки событий содержат транзакции и ссылки на более ранние события. Валидаторы асинхронно передают эти блоки событий друг другу — нет единой последовательности, в которой блоки должны быть произведены или согласованы. По мере распространения блоков событий валидаторы периодически идентифицируют определенные события как вехи (или «корневые блоки событий») после того, как их увидит супербольшинство узлов. Затем Lachesis упорядочивает эти завершенные события и фиксирует их в окончательной Opera Chain (традиционная структура данных блокчейна), которая действует как реестр подтвержденных блоков. По сути, DAG блоков событий позволяет Fantom достигать консенсуса асинхронно и очень быстро, а затем конечным результатом является линейная цепочка для совместимости. Это обеспечивает примерно 1–2 секунды завершенности для транзакций в Fantom. В Lachesis нет майнеров или лидеров, предлагающих блоки; все валидаторы вносят блоки событий, и протокол детерминированно упорядочивает их. Консенсус обеспечивается моделью Proof-of-Stake (валидаторы должны стейкать токены FTM и взвешиваются по стейку). Lachesis также является aBFT, допуская до 1/3 неисправных узлов. Объединяя параллелизм DAG с выходом в виде конечной цепочки, Fantom достигает высокой пропускной способности (несколько тысяч TPS в тестах), оставаясь при этом EVM-совместимым для смарт-контрактов. Это хороший пример использования DAG внутренне для повышения производительности, не раскрывая сложность DAG на уровне приложения (разработчики в конечном итоге все равно видят обычную цепочку транзакций).
  • Открытое представительное голосование Nano (ORV): Nano — это платежная криптовалюта, которая использует уникальную структуру DAG, называемую block-lattice. В Nano у каждого аккаунта есть свой собственный блокчейн (цепочка аккаунта), который может обновлять только владелец аккаунта. Все эти отдельные цепочки образуют DAG, поскольку транзакции из разных аккаунтов связываются асинхронно (отправка в одной цепочке аккаунта ссылается на получение в другой и т. д.). Консенсус в Nano достигается с помощью механизма, называемого Открытое представительное голосование (ORV). Пользователи назначают узел-представитель для своего аккаунта (это делегирование веса, а не блокировка средств), и эти представители голосуют за действительность транзакций. Каждая транзакция рассчитывается индивидуально (нет блоков, объединяющих несколько транзакций) и считается подтвержденной, когда супербольшинство (например, >67%) голосующего веса (от представителей) соглашается с ней. Поскольку честные владельцы аккаунтов не будут дважды тратить свои средства, форки редки и обычно вызваны только злонамеренными попытками, которые представители могут быстро отклонить. Завершенность обычно достигается менее чем за секунду для каждой транзакции. ORV аналогичен Proof-of-Stake тем, что вес голоса основан на балансах аккаунтов (стейке), но нет вознаграждения за стейкинг или комиссии — представители являются добровольными узлами. Отсутствие майнинга и производства блоков означает, что Nano может работать без комиссий и эффективно. Однако он полагается на набор доверенных представителей, находящихся в сети для голосования, и существует неявная централизация, при которой узлы накапливают большой вес голоса (хотя пользователи могут переключать представителей в любое время, сохраняя контроль децентрализации в руках пользователей). Консенсус Nano является легковесным и оптимизирован для скорости и энергоэффективности, что соответствует его цели быть быстрыми, бесплатными цифровыми деньгами.
  • Другие примечательные подходы: Существует несколько других протоколов консенсуса на основе DAG. Hedera Hashgraph и Fantom Lachesis мы рассмотрели; помимо них:
    • Консенсус Avalanche (Avalanche/X-Chain): Avalanche использует консенсус на основе DAG, где валидаторы многократно опрашивают друг друга в рандомизированном процессе, чтобы решить, каким транзакциям или блокам отдать предпочтение. X-Chain Avalanche (цепочка обмена) — это DAG транзакций (UTXO) и достигает консенсуса с помощью этого метода сетевой выборки. Протокол Avalanche вероятностный, но чрезвычайно быстрый и масштабируемый — он может завершать транзакции примерно за 1 секунду и, как сообщается, обрабатывать до 4500 TPS на подсеть. Подход Avalanche уникален тем, что сочетает структуры данных DAG с метастабильным консенсусом (протокол Snowball) и обеспечивается Proof-of-Stake (любой может быть валидатором с достаточным стейком).
    • Conflux Tree-Graph: Conflux — это платформа, которая расширила PoW Bitcoin до DAG блоков. Она использует структуру Tree-Graph, где блоки ссылаются не только на одного родителя, но и на все известные предыдущие блоки (без сиротства). Это позволяет Conflux использовать майнинг Proof-of-Work, но сохранять все форки как часть реестра, что приводит к гораздо более высокой пропускной способности, чем у типичной цепочки. Таким образом, Conflux может достигать порядка 3–6 тысяч TPS в теории, используя PoW, за счет того, что майнеры производят блоки непрерывно, не дожидаясь одной цепочки. Затем его консенсус упорядочивает эти блоки и разрешает конфликты по правилу самого тяжелого поддерева. Это пример гибридного PoW DAG.
    • Варианты Hashgraph и академические протоколы: Существует множество академических протоколов DAG (некоторые реализованы в более новых проектах): SPECTRE и PHANTOM (протоколы blockDAG, нацеленные на высокую пропускную способность и быстрое подтверждение, от DAGlabs), Aleph Zero (консенсус DAG aBFT, используемый в блокчейне Aleph Zero), Parallel Chains / Prism (исследовательские проекты, разделяющие подтверждение транзакций на параллельные подцепочки и DAG), а также недавние достижения, такие как Narwhal & Bullshark Sui, которые используют мемпул DAG для высокой пропускной способности и отдельный консенсус для завершенности. Хотя не все из них имеют крупномасштабные развертывания, они указывают на богатую область исследований. Многие из этих протоколов различают доступность (быстрая запись большого количества данных в DAG) и согласованность (согласие по одной истории), пытаясь получить лучшее из обоих.

Каждая платформа DAG адаптирует свой консенсус к своим потребностям — будь то бесплатные микротранзакции, выполнение смарт-контрактов или интероперабельность. Однако общая тема — избегание единого последовательного узкого места: механизмы консенсуса DAG стремятся обеспечить множество одновременных действий, а затем используют умные алгоритмы (сплетни, голосование, выборка и т. д.) для упорядочивания, а не ограничивают сеть одним производителем блоков за раз.

Примеры использования: проекты блокчейнов на основе DAG

Несколько проектов реализовали реестры на основе DAG, каждый со своими уникальными дизайнерскими решениями и целевыми вариантами использования. Ниже мы рассмотрим некоторые известные платформы на основе DAG:

  • IOTA (The Tangle): IOTA — одна из первых криптовалют на основе DAG, разработанная для Интернета вещей. Ее реестр, называемый Tangle, представляет собой DAG транзакций, где каждая новая транзакция подтверждает две предыдущие. Цель IOTA — обеспечить бесплатные микротранзакции между устройствами IoT (оплата небольших сумм за данные или услуги). Она была запущена в 2016 году, и для обеспечения начальной безопасности использовала узел Координатора (управляемый Фондом IOTA) для предотвращения атак на раннюю сеть. IOTA работает над «Coordicide» для полной децентрализации сети путем введения консенсуса голосования (как описано ранее), где узлы голосуют по конфликтующим транзакциям, используя безответственный консенсус Накамото на самом тяжелом DAG. С точки зрения производительности, IOTA может, в теории, достигать очень высокой пропускной способности (протокол не устанавливает жесткого ограничения TPS; большая активность фактически помогает быстрее подтверждать транзакции). На практике тестовые сети продемонстрировали сотни TPS, и ожидается, что предстоящая IOTA 2.0 будет хорошо масштабироваться для потребностей IoT. Варианты использования IOTA вращаются вокруг IoT и целостности данных: например, потоковая передача данных датчиков с доказательствами целостности, платежи между транспортными средствами, отслеживание цепочек поставок и даже децентрализованная идентификация (фреймворк IOTA Identity позволяет выпускать и проверять цифровые учетные данные/DID в Tangle). IOTA изначально не поддерживает смарт-контракты на своем базовом уровне, но проект представил параллельный фреймворк смарт-контрактов и токены на вторичном уровне для обеспечения более сложной функциональности DApp. Заметной особенностью IOTA являются ее нулевые комиссии, что достигается за счет требования небольшого PoW от отправителя вместо взимания комиссии — это делает ее привлекательной для высокообъемных, низкостоимостных транзакций (например, датчик, отправляющий данные каждые несколько секунд за незначительную стоимость).
  • Hedera Hashgraph (HBAR): Hedera — это публичный распределенный реестр, использующий алгоритм консенсуса Hashgraph (изобретенный доктором Лимоном Бэрдом). Hedera была запущена в 2018 году и управляется советом крупных организаций (Google, IBM, Boeing и другие), которые управляют первоначальным набором узлов. В отличие от большинства других, Hedera разрешена в управлении (только утвержденные члены совета в настоящее время управляют узлами консенсуса, до 39 узлов), хотя любой может использовать сеть. Ее Hashgraph DAG обеспечивает очень высокую пропускную способность и быструю завершенность — Hedera может обрабатывать более 10 000 TPS с завершенностью за 3–5 секунд в оптимальных условиях. Это достигается с помощью описанного ранее консенсуса aBFT на основе сплетен. Hedera делает акцент на корпоративных и Web3 вариантах использования, требующих надежности в масштабе: ее сеть предлагает услуги по токенизации (Hedera Token Service), службу консенсуса для защищенного от подделки журналирования событий и службу смарт-контрактов (которая совместима с EVM). Заметные приложения на Hedera включают отслеживание происхождения цепочки поставок (например, отслеживание одежды Avery Dennison), высокообъемный минтинг NFT (низкие комиссии делают минтинг NFT недорогим), платежи и микроплатежи (например, микроплатежи в рекламных технологиях) и даже решения для децентрализованной идентификации. Hedera имеет метод DID, зарегистрированный в W3C, и фреймворки, такие как Hedera Guardian, для поддержки проверяемых учетных данных и соответствия нормативным требованиям (например, отслеживание углеродных кредитов). Ключевой особенностью является высокая производительность Hedera в сочетании с заявленной стабильностью (алгоритм Hashgraph гарантирует отсутствие форков и математически доказанную справедливость в упорядочивании). Компромисс заключается в том, что Hedera менее децентрализована по количеству узлов, чем открытые сети (по замыслу, с ее моделью управления), хотя узлы совета расположены по всему миру, и в планах со временем увеличить открытость. В целом, Hedera Hashgraph является ярким примером DLT на основе DAG, ориентированной на корпоративные приложения, с акцентом на высокую пропускную способность, безопасность и управление.
  • Fantom (FTM): Fantom — это платформа смарт-контрактов (блокчейн первого уровня), которая использует консенсус на основе DAG под названием Lachesis. Запущенная в 2019 году, Fantom приобрела популярность, особенно во время бума DeFi в 2021–2022 годах, как цепочка, совместимая с Ethereum, с гораздо более высокой производительностью. Сеть Opera Fantom работает на консенсусе Lachesis aBFT (подробно описанном выше), где валидаторы поддерживают локальный DAG блоков событий и достигают консенсуса асинхронно, а затем завершают транзакции в основной цепочке. Это дает Fantom типичное время до завершенности ~1 секунда для транзакций и способность обрабатывать тысячи транзакций в секунду. Fantom совместим с EVM, что означает, что разработчики могут развертывать Solidity смарт-контракты и использовать те же инструменты, что и Ethereum, что значительно способствовало его внедрению в DeFi. Действительно, Fantom стал домом для многочисленных проектов DeFi (DEX, протоколы кредитования, фарминг доходности), привлеченных его скоростью и низкими комиссиями. Он также размещает проекты NFT и игровые DApp — по сути, любое приложение Web3, которое выигрывает от быстрых и дешевых транзакций. Стоит отметить, что Fantom достиг высокого уровня децентрализации для платформы DAG: у него есть десятки независимых валидаторов, обеспечивающих безопасность сети (без разрешений, любой может запустить валидатор с минимальным стейком), в отличие от некоторых сетей DAG, которые ограничивают валидаторов. Это позиционирует Fantom как надежную альтернативу более традиционным блокчейнам для децентрализованных приложений, используя технологию DAG для устранения узких мест в производительности. Токен FTM сети используется для стейкинга, управления и комиссий (которые составляют всего несколько центов за транзакцию, намного ниже, чем комиссии за газ Ethereum). Fantom продемонстрировал, что консенсус на основе DAG может быть интегрирован с платформами смарт-контрактов для достижения как скорости, так и совместимости.
  • Nano (XNO): Nano — это легковесная криптовалюта, запущенная в 2015 году (первоначально как RaiBlocks), которая использует структуру DAG block-lattice. Основное внимание Nano уделяется одноранговым цифровым деньгам: мгновенные, бесплатные транзакции с минимальным использованием ресурсов. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Hedera против IOTA против Fantom против Nano (краткий обзор): В таблице ниже приведены некоторые ключевые характеристики этих проектов на основе DAG:
Проект (Год)Структура данных и консенсусПроизводительность (Пропускная способность и завершенность)Заметные особенности / Варианты использования

Направленный ациклический граф (DAG) в блокчейне

Что такое DAG и чем он отличается от блокчейна?

Направленный ациклический граф (DAG) — это тип структуры данных, состоящий из вершин (узлов), соединенных направленными ребрами, которые никогда не образуют цикл. В контексте распределенных реестров, реестр на основе DAG организует транзакции или события в виде паутинообразного графа, а не единой последовательной цепочки. Это означает, что в отличие от традиционного блокчейна, где каждый новый блок ссылается только на одного предшественника (образуя линейную цепочку), узел в DAG может ссылаться на несколько предыдущих транзакций или блоков. В результате многие транзакции могут быть подтверждены параллельно, а не строго одна за другой в хронологических блоках.

Чтобы проиллюстрировать разницу, если блокчейн выглядит как длинная цепочка блоков (каждый блок содержит множество транзакций), то реестр на основе DAG больше похож на дерево или сеть отдельных транзакций. Каждая новая транзакция в DAG может присоединяться к (и тем самым подтверждать) одну или несколько более ранних транзакций, вместо того чтобы ждать упаковки в следующий единственный блок. Это структурное различие приводит к нескольким ключевым отличиям:

  • Параллельная валидация: В блокчейнах майнеры/валидаторы добавляют по одному блоку в цепочку за раз, поэтому транзакции подтверждаются партиями для каждого нового блока. В DAG несколько транзакций (или небольших «блоков» транзакций) могут быть добавлены одновременно, поскольку каждая из них может присоединяться к разным частям графа. Эта параллелизация означает, что сетям DAG не нужно ждать, пока одна длинная цепочка будет расти по одному блоку за раз.
  • Отсутствие глобального последовательного порядка: Блокчейн по своей сути создает полный порядок транзакций (каждый блок имеет определенное место в одной последовательности). Реестр DAG, напротив, формирует частичный порядок транзакций. Нет единого «последнего блока», в очередь к которому выстраиваются все транзакции; вместо этого множество «вершин» графа могут сосуществовать и расширяться одновременно. Затем требуются протоколы консенсуса, чтобы в конечном итоге упорядочить или согласовать порядок или действительность транзакций в DAG.
  • Подтверждение транзакций: В блокчейне транзакции подтверждаются, когда они включаются в добытый/валидированный блок, и этот блок становится частью принятой цепочки (часто после добавления новых блоков поверх него). В системах DAG новая транзакция сама по себе помогает подтверждать предыдущие транзакции, ссылаясь на них. Например, в Tangle IOTA (DAG) каждая транзакция должна подтвердить две предыдущие транзакции, фактически заставляя пользователей совместно проверять транзакции друг друга. Это устраняет строгое разделение между «создателями транзакций» и «валидаторами», которое существует в майнинге блокчейна — каждый участник, выпускающий транзакцию, также выполняет небольшую работу по валидации.

Важно отметить, что блокчейн на самом деле является частным случаем DAG — DAG, который был ограничен одной цепочкой блоков. Оба являются формами технологии распределенного реестра (DLT) и разделяют такие цели, как неизменяемость и децентрализация. Однако реестры на основе DAG имеют «бесблочную» или мульти-родительскую структуру, что придает им различные свойства на практике. Традиционные блокчейны, такие как Bitcoin и Ethereum, используют последовательные блоки и часто отбрасывают любые конкурирующие блоки (форки), тогда как реестры DAG пытаются включать и упорядочивать все транзакции, не отбрасывая ни одной, если они не конфликтуют. Это фундаментальное различие закладывает основу для различий в производительности и дизайне, подробно описанных ниже.

Техническое сравнение: архитектура DAG против блокчейна

Чтобы лучше понять DAG и блокчейны, мы можем сравнить их архитектуры и процессы валидации:

  • Структура данных: Блокчейны хранят данные в блоках, связанных в линейной последовательности (каждый блок содержит множество транзакций и указывает на один предыдущий блок, образуя одну длинную цепочку). Реестры DAG используют графовую структуру: каждый узел в графе представляет транзакцию или блок событий и может ссылаться на несколько предыдущих узлов. Этот направленный граф не имеет циклов, что означает, что если вы будете следовать по ссылкам «назад», вы никогда не сможете вернуться к транзакции, с которой начали. Отсутствие циклов позволяет выполнять топологическую сортировку транзакций (способ их упорядочивания таким образом, чтобы каждая ссылка следовала за ссылаемой транзакцией). Короче говоря, блокчейны = одномерная цепочка, DAG = многомерный граф.
  • Пропускная способность и параллелизм: Из-за структурных различий блокчейны и DAG обрабатывают пропускную способность по-разному. Блокчейн, даже в оптимальных условиях, добавляет блоки один за другим (часто ожидая, пока каждый блок будет проверен и распространен по всей сети, прежде чем будет добавлен следующий). Это по своей сути ограничивает пропускную способность транзакций — например, Bitcoin в среднем обрабатывает 5–7 транзакций в секунду (TPS), а Ethereum ~15–30 TPS при классическом дизайне Proof-of-Work. Системы на основе DAG, напротив, позволяют многим новым транзакциям/блокам одновременно входить в реестр. Множественные ветви транзакций могут расти одновременно и позже объединяться, что значительно увеличивает потенциальную пропускную способность. Некоторые современные сети DAG заявляют о пропускной способности в тысячи TPS, приближаясь или превосходя традиционные платежные сети по пропускной способности.
  • Процесс валидации транзакций: В блокчейн-сетях транзакции ожидают в мемпуле и валидируются, когда майнер или валидатор упаковывает их в новый блок, затем другие узлы проверяют этот блок на соответствие истории. В сетях DAG валидация часто более непрерывна и децентрализована: каждая новая транзакция выполняет действие валидации, ссылаясь на (одобряя) более ранние транзакции. Например, каждая транзакция в Tangle IOTA должна подтвердить две предыдущие транзакции, проверив их действительность и выполнив небольшое доказательство работы, тем самым «голосуя» за эти транзакции. В DAG-структуре block-lattice Nano транзакции каждого аккаунта образуют свою собственную цепочку и валидируются посредством голосования узлами-представителями (подробнее об этом позже). Конечный эффект заключается в том, что DAG распределяет работу по валидации: вместо того, чтобы один производитель блоков валидировал пакет транзакций, каждый участник или множество валидаторов одновременно валидируют разные транзакции.
  • Механизм консенсуса: И блокчейнам, и DAG нужен способ для сети договориться о состоянии реестра (какие транзакции подтверждены и в каком порядке). В блокчейнах консенсус часто достигается за счет Proof of Work или Proof of Stake, производящих следующий блок, и правила «самая длинная (или самая тяжелая) цепочка выигрывает». В реестрах DAG консенсус может быть более сложным, поскольку нет единой цепочки. Различные проекты DAG используют разные подходы: некоторые используют протоколы сплетен и виртуальное голосование (как в Hedera Hashgraph) для достижения согласия по порядку транзакций, другие используют выбор вершин по методу Монте-Карло с цепями Маркова (ранний подход IOTA) или другие схемы голосования для определения предпочтительных ветвей графа. Мы обсудим конкретные методы консенсуса в системах DAG в последующем разделе. В целом, достижение общесетевого согласия в DAG может быть быстрее с точки зрения пропускной способности, но требует тщательного проектирования для обработки конфликтов (таких как попытки двойной траты), поскольку несколько транзакций могут существовать параллельно до окончательного упорядочивания.
  • Обработка форков: В блокчейне «форк» (два блока, добытые почти одновременно) приводит к тому, что одна ветвь в конечном итоге выигрывает (самая длинная цепочка), а другая становится сиротской (отбрасывается), что приводит к потере всей работы, выполненной над сиротским блоком. В DAG философия заключается в том, чтобы принимать форки как дополнительные ветви графа, а не отбрасывать их. DAG будет включать оба форка; затем алгоритм консенсуса определяет, какие транзакции в конечном итоге подтверждаются (или как разрешаются конфликтующие транзакции), не отбрасывая всю одну ветвь. Это означает, что мощность майнинга или усилия не тратятся впустую на устаревшие блоки, что способствует повышению эффективности. Например, Tree-Graph Conflux (DAG на PoW) пытается включить все блоки в реестр и упорядочивает их, а не делает их сиротскими, тем самым используя 100% произведенных блоков.

Таким образом, блокчейны предлагают более простую, строго упорядоченную структуру, где валидация происходит блок за блоком, тогда как DAG предоставляют более сложную графовую структуру, позволяющую асинхронную и параллельную обработку транзакций. Реестры на основе DAG должны использовать дополнительную логику консенсуса для управления этой сложностью, но они обещают значительно более высокую пропускную способность и эффективность за счет использования полной пропускной способности сети, а не принудительного создания очереди блоков.

Преимущества блокчейн-систем на основе DAG

Архитектуры DAG были введены в первую очередь для преодоления ограничений традиционных блокчейнов в масштабируемости, скорости и стоимости. Вот основные преимущества распределенных реестров на основе DAG:

  • Высокая масштабируемость и пропускная способность: Сети DAG могут достигать высокой пропускной способности транзакций, поскольку они обрабатывают множество транзакций параллельно. Поскольку нет узкого места в виде одной цепочки, TPS (транзакций в секунду) может масштабироваться в зависимости от сетевой активности. Фактически, некоторые протоколы DAG продемонстрировали пропускную способность порядка тысяч TPS. Например, Hedera Hashgraph способна обрабатывать более 10 000 транзакций в секунду на базовом уровне, значительно превосходя Bitcoin или Ethereum. На практике Hedera продемонстрировала завершение транзакций примерно за 3–5 секунд, по сравнению с минутами или более длительным временем подтверждения в блокчейнах PoW. Даже платформы смарт-контрактов на основе DAG, такие как Fantom, достигли почти мгновенной завершенности (~1–2 секунды) для транзакций при нормальных нагрузках. Эта масштабируемость делает DAG привлекательными для приложений, требующих большого объема, таких как микротранзакции IoT или потоки данных в реальном времени.
  • Низкие комиссии за транзакции (бесплатные или минимальные): Многие реестры на основе DAG могут похвастаться незначительными комиссиями или даже бесплатными транзакциями. По своей конструкции они часто не полагаются на майнеров, ожидающих вознаграждения за блоки или комиссии; например, в IOTA и Nano нет обязательных комиссий за транзакции — это важнейшее свойство для микроплатежей в IoT и повседневном использовании. Там, где комиссии существуют (например, Hedera или Fantom), они, как правило, очень низкие и предсказуемые, поскольку сеть может обрабатывать нагрузку без ценовых войн за ограниченное пространство блоков. Транзакции Hedera стоят около $0.0001 (одна десятитысячная доллара) в виде комиссий, что составляет крошечную долю от типичных комиссий блокчейна. Такие низкие затраты открывают двери для таких вариантов использования, как высокочастотные транзакции или крошечные платежи, которые были бы невозможны в цепочках с высокими комиссиями. Кроме того, поскольку DAG включают все действительные транзакции, а не отбрасывают некоторые в случае форков, меньше «потерянной» работы — что косвенно помогает снизить затраты за счет эффективного использования ресурсов.
  • Быстрое подтверждение и низкая задержка: В реестрах DAG транзакциям не нужно ждать включения в глобальный блок, поэтому подтверждение может быть быстрее. Многие системы DAG достигают быстрой завершенности — момента, когда транзакция считается окончательно подтвержденной. Например, консенсус Hedera Hashgraph обычно завершает транзакции в течение нескольких секунд со 100% уверенностью (завершенность aBFT). Сеть Nano часто видит транзакции, подтвержденные менее чем за 1 секунду благодаря легковесному процессу голосования. Эта низкая задержка улучшает пользовательский опыт, делая транзакции почти мгновенными, что важно для реальных платежей и интерактивных приложений.
  • Энергоэффективность: Сети на основе DAG часто не требуют интенсивного майнинга с использованием доказательства работы, который используют многие блокчейны, что делает их гораздо более энергоэффективными. Даже по сравнению с блокчейнами на основе доказательства доли владения, некоторые сети DAG потребляют минимальное количество энергии на транзакцию. Например, одна транзакция Hedera Hashgraph потребляет порядка 0.0001 кВт·ч (киловатт-час) энергии. Это на несколько порядков меньше, чем Bitcoin (который может потреблять сотни кВт·ч на транзакцию) или даже многие цепочки PoS. Эффективность достигается за счет устранения расточительных вычислений (отсутствие гонки майнинга) и отказа от отбрасывания любых попыток транзакций. Если бы блокчейн-сети повсеместно перешли на модели на основе DAG, экономия энергии могла бы быть колоссальной. Углеродный след сетей DAG, таких как Hedera, настолько низок, что ее общая сеть является углеродно-отрицательной при учете компенсаций. Такая энергоэффективность становится все более важной для устойчивой инфраструктуры Web3.
  • Отсутствие майнинга и демократизированная валидация: Во многих моделях DAG нет отдельной роли майнера/валидатора, которую не могли бы выполнять обычные пользователи. Например, каждый пользователь IOTA, выпускающий транзакцию, также помогает валидировать две другие, по сути децентрализуя работу по валидации до периферии сети. Это может снизить потребность в мощном майнинговом оборудовании или стейкинге больших объемов капитала для участия в консенсусе, потенциально делая сеть более доступной. (Однако некоторые сети DAG по-прежнему используют валидаторов или координаторов — см. обсуждение консенсуса и децентрализации позже.)
  • Плавная обработка высокого трафика: Блокчейны часто страдают от переполнения мемпула и скачков комиссий при высокой нагрузке (поскольку только один блок за раз может обрабатывать транзакции). Сети DAG, благодаря своей параллельной природе, обычно более изящно справляются со скачками трафика. По мере того, как все больше транзакций наводняют сеть, они просто создают больше параллельных ветвей в DAG, которые система может обрабатывать одновременно. Жесткого ограничения пропускной способности меньше (масштабируемость более «горизонтальная»). Это приводит к лучшей масштабируемости под нагрузкой, с меньшими задержками и лишь умеренным увеличением времени подтверждения или комиссий, вплоть до пропускной способности сети узлов и вычислительной мощности. По сути, DAG может поглощать всплески транзакций без быстрого перегрузки, что делает его подходящим для вариантов использования, связанных со всплесками активности (например, все устройства IoT отправляют данные одновременно или вирусное событие DApp).

Таким образом, реестры на основе DAG обещают более быстрые, дешевые и масштабируемые транзакции, чем классический подход блокчейна. Они нацелены на поддержку сценариев массового внедрения (микроплатежи, IoT, высокочастотная торговля и т. д.), с которыми текущие основные блокчейны сталкиваются из-за ограничений пропускной способности и стоимости. Однако эти преимущества сопряжены с определенными компромиссами и проблемами реализации, которые мы рассмотрим в последующих разделах.

Механизмы консенсуса в платформах на основе DAG

Поскольку реестры DAG естественным образом не производят единую цепочку блоков, им требуются инновационные механизмы консенсуса для проверки транзакций и обеспечения согласия всех участников относительно состояния реестра. Различные проекты разработали различные решения, адаптированные к их архитектуре DAG. Здесь мы описываем некоторые примечательные подходы к консенсусу, используемые платформами на основе DAG:

  • Tangle IOTA – Выбор вершин и взвешенное голосование: Tangle IOTA — это DAG транзакций, разработанный для Интернета вещей (IoT). В оригинальной модели IOTA нет майнеров; вместо этого каждая новая транзакция должна выполнить небольшое доказательство работы и одобрить две предыдущие транзакции (это «вершины» графа). Этот выбор вершин часто осуществляется с помощью алгоритма Монте-Карло с цепями Маркова (MCMC), который вероятностно выбирает, какие вершины одобрить, отдавая предпочтение самому тяжелому подграфу для предотвращения фрагментации. Консенсус в ранней IOTA частично достигался за счет этого кумулятивного веса одобрений — чем больше будущих транзакций косвенно одобряют вашу, тем более «подтвержденной» она становится. Однако для обеспечения безопасности сети на ранних этапах IOTA полагалась на временный централизованный узел Координатора, который выпускал периодические транзакции-вехи для завершения Tangle. Это было серьезной критикой (централизация) и сейчас устраняется в обновлении, известном как «Coordicide» (IOTA 2.0). В IOTA 2.0 новая модель консенсуса применяет безответственный консенсус в стиле Накамото на DAG. По сути, узлы выполняют голосование в Tangle: когда узел присоединяет новый блок, этот блок неявно голосует за действительность транзакций, на которые он ссылается. Комитет узлов-валидаторов (выбранных с помощью механизма стейкинга) выпускает блоки валидации в качестве голосов, и транзакция подтверждается, когда она накапливает достаточное количество взвешенных одобрений (концепция, называемая весом одобрения). Этот подход сочетает идею самого тяжелого DAG (подобно самой длинной цепочке) с явным голосованием для достижения консенсуса без координатора. Короче говоря, консенсус IOTA эволюционировал от выбора вершин + Координатор к полностью децентрализованному голосованию по ветвям DAG узлами, стремясь к безопасности и быстрому согласию о состоянии реестра.
  • Hedera Hashgraph – Сплетни и виртуальное голосование (aBFT): Hedera Hashgraph использует DAG событий в сочетании с асинхронным византийским отказоустойчивым (aBFT) алгоритмом консенсуса. Основная идея — «сплетни о сплетнях»: каждый узел быстро распространяет подписанную информацию о транзакциях и о своей истории сплетен другим узлам. Это создает Hashgraph (DAG событий), где каждый узел в конечном итоге знает, что распространил каждый другой узел, включая структуру того, кто что слышал и когда. Используя этот DAG событий, Hedera реализует виртуальное голосование. Вместо того чтобы отправлять фактические сообщения о голосовании для упорядочивания транзакций, узлы моделируют алгоритм голосования локально, анализируя граф связей сплетен. Алгоритм Hashgraph Лимона Бэрда может детерминированно рассчитать, как пройдет теоретический раунд голосования по порядку транзакций, просматривая историю «сети сплетен», записанную в DAG. Это дает метку времени консенсуса и полный порядок транзакций, который является справедливым и окончательным (транзакции упорядочиваются по медианному времени их получения сетью). Консенсус Hashgraph является безответственным и достигает aBFT, что означает, что он может выдерживать до 1/3 злонамеренных узлов без ущерба для консенсуса. На практике сеть Hedera управляется набором из 39 известных узлов, управляемых организациями (Совет Hedera), поэтому она является разрешенной, но географически распределенной. Преимуществом является чрезвычайно быстрый и безопасный консенсус: Hedera может достичь завершенности за секунды с гарантированной согласованностью. Механизм консенсуса Hashgraph запатентован, но был открыт в 2024 году и демонстрирует, как DAG + инновационный консенсус (сплетни и виртуальное голосование) могут заменить традиционный протокол блокчейна.
  • Lachesis Fantom – Безответственный PoS aBFT: Fantom — это платформа смарт-контрактов, которая использует консенсус на основе DAG под названием Lachesis. Lachesis — это протокол Proof-of-Stake aBFT, вдохновленный Hashgraph. В Fantom каждый узел-валидатор собирает полученные транзакции в блок событий и добавляет его в свой локальный DAG событий. Эти блоки событий содержат транзакции и ссылки на более ранние события. Валидаторы асинхронно передают эти блоки событий друг другу — нет единой последовательности, в которой блоки должны быть произведены или согласованы. По мере распространения блоков событий валидаторы периодически идентифицируют определенные события как вехи (или «корневые блоки событий») после того, как их увидит супербольшинство узлов. Затем Lachesis упорядочивает эти завершенные события и фиксирует их в окончательной Opera Chain (традиционная структура данных блокчейна), которая действует как реестр подтвержденных блоков. По сути, DAG блоков событий позволяет Fantom достигать консенсуса асинхронно и очень быстро, а затем конечным результатом является линейная цепочка для совместимости. Это обеспечивает примерно 1–2 секунды завершенности для транзакций в Fantom. В Lachesis нет майнеров или лидеров, предлагающих блоки; все валидаторы вносят блоки событий и протокол детерминированно упорядочивает их. Консенсус обеспечивается моделью Proof-of-Stake (валидаторы должны стейкать токены FTM и взвешиваются по стейку). Lachesis также является aBFT, допуская до 1/3 неисправных узлов. Объединяя параллелизм DAG с выходом в виде конечной цепочки, Fantom достигает высокой пропускной способности (несколько тысяч TPS в тестах), оставаясь при этом EVM-совместимым для смарт-контрактов. Это хороший пример использования DAG внутренне для повышения производительности, не раскрывая сложность DAG на уровне приложения (разработчики в конечном итоге все равно видят обычную цепочку транзакций).
  • Открытое представительное голосование Nano (ORV): Nano — это платежная криптовалюта, которая использует уникальную структуру DAG, называемую block-lattice. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Другие примечательные подходы: Существует несколько других протоколов консенсуса на основе DAG. Hedera Hashgraph и Fantom Lachesis мы рассмотрели; помимо них:
    • Консенсус Avalanche (Avalanche/X-Chain): Avalanche использует консенсус на основе DAG, где валидаторы многократно опрашивают друг друга в рандомизированном процессе, чтобы решить, каким транзакциям или блокам отдать предпочтение. X-Chain Avalanche (цепочка обмена) — это DAG транзакций (UTXO) и достигает консенсуса с помощью этого метода сетевой выборки. Протокол Avalanche вероятностный, но чрезвычайно быстрый и масштабируемый — он может завершать транзакции примерно за 1 секунду и, как сообщается, обрабатывать до 4500 TPS на подсеть. Подход Avalanche уникален тем, что сочетает структуры данных DAG с метастабильным консенсусом (протокол Snowball) и обеспечивается Proof-of-Stake (любой может быть валидатором с достаточным стейком).
    • Conflux Tree-Graph: Conflux — это платформа, которая расширила PoW Bitcoin до DAG блоков. Она использует структуру Tree-Graph, где блоки ссылаются не только на одного родителя, но и на все известные предыдущие блоки (без сиротства). Это позволяет Conflux использовать майнинг Proof-of-Work, но сохранять все форки как часть реестра, что приводит к гораздо более высокой пропускной способности, чем у типичной цепочки. Таким образом, Conflux может достигать порядка 3–6 тысяч TPS в теории, используя PoW, за счет того, что майнеры производят блоки непрерывно, не дожидаясь одной цепочки. Затем его консенсус упорядочивает эти блоки и разрешает конфликты по правилу самого тяжелого поддерева. Это пример гибридного PoW DAG.
    • Варианты Hashgraph и академические протоколы: Существует множество академических протоколов DAG (некоторые реализованы в более новых проектах): SPECTRE и PHANTOM (протоколы blockDAG, нацеленные на высокую пропускную способность и быстрое подтверждение, от DAGlabs), Aleph Zero (консенсус DAG aBFT, используемый в блокчейне Aleph Zero), Parallel Chains / Prism (исследовательские проекты, разделяющие подтверждение транзакций на параллельные подцепочки и DAG), а также недавние достижения, такие как Narwhal & Bullshark Sui, которые используют мемпул DAG для высокой пропускной способности и отдельный консенсус для завершенности. Хотя не все из них имеют крупномасштабные развертывания, они указывают на богатую область исследований. Многие из этих протоколов различают доступность (быстрая запись большого количества данных в DAG) и согласованность (согласие по одной истории), пытаясь получить лучшее из обоих.

Каждая платформа DAG адаптирует свой консенсус к своим потребностям — будь то бесплатные микротранзакции, выполнение смарт-контрактов или интероперабельность. Однако общая тема — избегание единого последовательного узкого места: механизмы консенсуса DAG стремятся обеспечить множество одновременных действий, а затем используют умные алгоритмы (сплетни, голосование, выборка и т. д.) для упорядочивания, а не ограничивают сеть одним производителем блоков за раз.

Примеры использования: проекты блокчейнов на основе DAG

Несколько проектов реализовали реестры на основе DAG, каждый со своими уникальными дизайнерскими решениями и целевыми вариантами использования. Ниже мы рассмотрим некоторые известные платформы на основе DAG:

  • IOTA (The Tangle): IOTA — одна из первых криптовалют на основе DAG, разработанная для Интернета вещей. Ее реестр, называемый Tangle, представляет собой DAG транзакций, где каждая новая транзакция подтверждает две предыдущие. Цель IOTA — обеспечить бесплатные микротранзакции между устройствами IoT (оплата небольших сумм за данные или услуги). Она была запущена в 2016 году, и для обеспечения начальной безопасности использовала узел Координатора (управляемый Фондом IOTA) для предотвращения атак на раннюю сеть. IOTA работает над «Coordicide» для полной децентрализации сети путем введения консенсуса голосования (как описано ранее), где узлы голосуют по конфликтующим транзакциям, используя безответственный консенсус Накамото на самом тяжелом DAG. С точки зрения производительности, IOTA может, в теории, достигать очень высокой пропускной способности (протокол не устанавливает жесткого ограничения TPS; большая активность фактически помогает быстрее подтверждать транзакции). На практике тестовые сети продемонстрировали сотни TPS, и ожидается, что предстоящая IOTA 2.0 будет хорошо масштабироваться для потребностей IoT. Варианты использования IOTA вращаются вокруг IoT и целостности данных: например, потоковая передача данных датчиков с доказательствами целостности, платежи между транспортными средствами, отслеживание цепочек поставок и даже децентрализованная идентификация (фреймворк IOTA Identity позволяет выпускать и проверять цифровые учетные данные/DID в Tangle). IOTA изначально не поддерживает смарт-контракты на своем базовом уровне, но проект представил параллельный фреймворк смарт-контрактов и токены на вторичном уровне для обеспечения более сложной функциональности DApp. Заметной особенностью IOTA являются ее нулевые комиссии, что достигается за счет требования небольшого PoW от отправителя вместо взимания комиссии — это делает ее привлекательной для высокообъемных, низкостоимостных транзакций (например, датчик, отправляющий данные каждые несколько секунд за незначительную стоимость).
  • Hedera Hashgraph (HBAR): Hedera — это публичный распределенный реестр, использующий алгоритм консенсуса Hashgraph (изобретенный доктором Лимоном Бэрдом). Hedera была запущена в 2018 году и управляется советом крупных организаций (Google, IBM, Boeing и другие), которые управляют первоначальным набором узлов. В отличие от большинства других, Hedera разрешена в управлении (только утвержденные члены совета в настоящее время управляют узлами консенсуса, до 39 узлов), хотя любой может использовать сеть. Ее Hashgraph DAG обеспечивает очень высокую пропускную способность и быструю завершенность — Hedera может обрабатывать более 10 000 TPS с завершенностью за 3–5 секунд в оптимальных условиях. Это достигается с помощью описанного ранее консенсуса aBFT на основе сплетен. Hedera делает акцент на корпоративных и Web3 вариантах использования, требующих надежности в масштабе: ее сеть предлагает услуги по токенизации (Hedera Token Service), службу консенсуса для защищенного от подделки журналирования событий и службу смарт-контрактов (которая совместима с EVM). Заметные приложения на Hedera включают отслеживание происхождения цепочки поставок (например, отслеживание одежды Avery Dennison), высокообъемный минтинг NFT (низкие комиссии делают минтинг NFT недорогим), платежи и микроплатежи (например, микроплатежи в рекламных технологиях) и даже решения для децентрализованной идентификации. Hedera имеет метод DID, зарегистрированный в W3C, и фреймворки, такие как Hedera Guardian, для поддержки проверяемых учетных данных и соответствия нормативным требованиям (например, отслеживание углеродных кредитов). Ключевой особенностью является высокая производительность Hedera в сочетании с заявленной стабильностью (алгоритм Hashgraph гарантирует отсутствие форков и математически доказанную справедливость в упорядочивании). Компромисс заключается в том, что Hedera менее децентрализована по количеству узлов, чем открытые сети (по замыслу, с ее моделью управления), хотя узлы совета расположены по всему миру, и в планах со временем увеличить открытость. В целом, Hedera Hashgraph является ярким примером DLT на основе DAG, ориентированной на корпоративные приложения, с акцентом на высокую пропускную способность, безопасность и управление.
  • Fantom (FTM): Fantom — это платформа смарт-контрактов (блокчейн первого уровня), которая использует консенсус на основе DAG под названием Lachesis. Запущенная в 2019 году, Fantom приобрела популярность, особенно во время бума DeFi в 2021–2022 годах, как цепочка, совместимая с Ethereum, с гораздо более высокой производительностью. Сеть Opera Fantom работает на консенсусе Lachesis aBFT (подробно описанном выше), где валидаторы поддерживают локальный DAG блоков событий и достигают консенсуса асинхронно, а затем завершают транзакции в основной цепочке. Это дает Fantom типичное время до завершенности ~1 секунда для транзакций и способность обрабатывать тысячи транзакций в секунду. Fantom совместим с EVM, что означает, что разработчики могут развертывать Solidity смарт-контракты и использовать те же инструменты, что и Ethereum, что значительно способствовало его внедрению в DeFi. Действительно, Fantom стал домом для многочисленных проектов DeFi (DEX, протоколы кредитования, фарминг доходности), привлеченных его скоростью и низкими комиссиями. Он также размещает проекты NFT и игровые DApp — по сути, любое приложение Web3, которое выигрывает от быстрых и дешевых транзакций. Стоит отметить, что Fantom достиг высокого уровня децентрализации для платформы DAG: у него есть десятки независимых валидаторов, обеспечивающих безопасность сети (без разрешений, любой может запустить валидатор с минимальным стейком), в отличие от некоторых сетей DAG, которые ограничивают валидаторов. Это позиционирует Fantom как надежную альтернативу более традиционным блокчейнам для децентрализованных приложений, используя технологию DAG для устранения узких мест в производительности. Токен FTM сети используется для стейкинга, управления и комиссий (которые составляют всего несколько центов за транзакцию, намного ниже, чем комиссии за газ Ethereum). Fantom продемонстрировал, что консенсус на основе DAG может быть интегрирован с платформами смарт-контрактов для достижения как скорости, так и совместимости.
  • Nano (XNO): Nano — это легковесная криптовалюта, запущенная в 2015 году (первоначально как RaiBlocks), которая использует структуру DAG block-lattice. Основное внимание Nano уделяется одноранговым цифровым деньгам: мгновенные, бесплатные транзакции с минимальным использованием ресурсов. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Hedera против IOTA против Fantom против Nano (краткий обзор): В таблице ниже приведены некоторые ключевые характеристики этих проектов на основе DAG:
Проект (Год)Структура данных и консенсусПроизводительность (Пропускная способность и завершенность)Заметные особенности / Варианты использования

Волна из более чем 100 крипто-ETF: как 2026 год изменит институциональный доступ за пределами биткоина

· 9 мин чтения
Dora Noda
Software Engineer

Когда в январе 2024 года были запущены биткоин-ETF, они побили все рекорды, собрав 4,6 миллиарда долларов притока в первую же неделю. Перенесемся в конец 2025 года: ландшафт крипто-ETF расширился сверх всяких ожиданий. Речь уже не только о биткоине и Ethereum — по прогнозам, в 2026 году будет запущено более 100 новых крипто-ETF, причем более 50 спотовых продуктов на альткоины уже готовы к выходу на рынок. Вопрос больше не в том, расширится ли институциональный доступ к криптовалютам, а в том, как быстро это произойдет и что это будет значить для структуры рынка.

От двух до ста: Взрывной рост ETF на альткоины

Трансформация произошла быстрее, чем предсказывало большинство аналитиков. К октябрю 2025 года Solana стала третьей криптовалютой, одобренной для спотовых ETP, после биткоина и Ethereum.

XRP-ETF запустились в ноябре 2025 года, собрав 1,37 миллиарда долларов активов под управлением (AUM) в течение первых нескольких месяцев. Litecoin, Hedera и даже Dogecoin — мемкоин, начавшийся как шутка — теперь имеют одобренные SEC биржевые продукты.

По состоянию на начало 2026 года 92 крипто-ETF ожидают одобрения SEC, при этом Solana лидирует с восемью активными заявками, а XRP идет следом с семью.

Только компания Bitwise подала заявки на 11 новых ETF на альткоины, запуск которых намечен на 16 марта 2026 года, включая Uniswap (UNI), Aave (AAVE), Tron (TRX), Sui (SUI), Zcash (ZEC) и NEAR Protocol.

Что изменилось? SEC утвердила новые общие стандарты листинга для криптовалютных биржевых продуктов, сократив сроки одобрения с 240 до всего 75 дней.

Эта стандартизированная структура фактически отменила индивидуальные крайние сроки, позволяя агентству действовать быстрее после того, как эмитенты завершат подачу документов S-1. Аналитик Bloomberg по ETF Эрик Балчунас теперь оценивает вероятность одобрения всех 16 ожидающих рассмотрения заявок в 100 %.

Сдвиг институционального капитала: от розничного FOMO к пенсионным фондам

Первый год существования биткоина прошел под знаком розничных инвесторов и корпоративных казначейств. Но 2026 год знаменует фундаментальный сдвиг в том, кто покупает крипто-ETF и почему.

Последний анализ JPMorgan прогнозирует, что притоки в ETF институционального уровня от пенсионных фондов и управляющих активами могут достичь 15 миллиардов долларов при консервативном сценарии или до 40 миллиардов долларов при благоприятных условиях.

Это представляет собой отход от покупок, движимых розничным сектором, которые определили общий приток на крипторынок в размере 130 миллиардов долларов в 2025 году.

Цифры говорят сами за себя:

  • Ожидается, что объем активов под управлением в биткоин-ETF достигнет 180–220 миллиардов долларов к концу 2026 года по сравнению с нынешними примерно 120 миллиардами.
  • По прогнозам, общий объем активов под управлением в криптовалютных биржевых продуктах превысит 400 миллиардов долларов — это вдвое больше, чем примерно 200 миллиардов на конец 2025 года.

Что движет этим институциональным всплеском? Выделяются три фактора:

  1. Регуляторная ясность: Принятие Закона о прозрачности рынка цифровых активов (Digital Asset Market Clarity Act) устранило обременительные обязательства по раскрытию информации для токенов, включенных в ETF, торгуемых на национальных фондовых биржах не позднее 1 января 2026 года. Это создало уровень «Первой восьмерки» основных регулируемых активов: BTC, ETH, XRP, SOL, LTC, HBAR, DOGE и LINK.

  2. Расширение каналов дистрибуции: Крупные банки, такие как Wells Fargo, Bank of America и Vanguard, теперь распространяют крипто-ETF среди розничных клиентов. Morgan Stanley, Merrill Lynch и традиционные платформы по управлению капиталом открыли доступ, кратно увеличив базу потенциальных инвесторов.

  3. Необходимость диверсификации портфеля: Поскольку традиционные портфели 60/40 испытывают трудности в условиях высоких процентных ставок, институциональные инвесторы изучают альтернативные активы. Даже распределение 1–2 % капитала в криптовалюты во всей индустрии пенсионных фондов объемом более 30 триллионов долларов означает колоссальные потоки капитала.

Зрелость рынка или его фрагментация? Две стороны одной медали

Волна ETF на альткоины представляет собой парадокс: это одновременно признак зрелости рынка и потенциальный риск фрагментации.

Сигналы зрелости

Само разнообразие продуктов ETF указывает на интеграцию криптовалют в основной финансовый сектор. Инвесторы теперь могут выбирать между:

  • Спотовыми ETF на отдельные активы (Bitcoin, Ethereum, Solana, XRP)
  • Мультиактивными крипто-ETF
  • Криптовалютными продуктами с плечом (leveraged)
  • Доходными структурами (продукты с возможностью стейкинга выходят в мейнстрим)
  • Секторальными фондами (DeFi, Layer 1, приватные монеты)

Это разнообразие зеркально отражает традиционные рынки акций, где инвесторы могут выбирать широкие индексные фонды или инструменты, ориентированные на конкретные секторы.

Это сигнализирует о том, что криптовалюта больше не является монолитным рисковым активом, а представляет собой дифференцированный класс активов с различными сценариями использования и профилями риска.

Совокупный объем торгов спотовыми криптовалютными ETF в США превысил 2 триллиона долларов менее чем через два года после запуска биткоин-ETF — рубеж, на достижение которого золотым ETF потребовалось более десятилетия. Скорость внедрения является беспрецедентной.

Проблемы фрагментации

Но быстрое расширение несет в себе и вызовы. Как отмечается в одном из рыночных анализов, «одним из самых недооцененных изменений в эпоху после появления ETF стало возникновение фрагментации ликвидности».

До появления ETF ликвидность концентрировалась на крупных криптобиржах, таких как Coinbase и Binance. После появления ETF ликвидность теперь рассредоточена по нескольким площадкам: рынкам создания/выкупа ETF, традиционным биржам, внебиржевым (OTC) столам и децентрализованным протоколам.

Широкие спреды между различными площадками указывают на фрагментированное позиционирование — их сближение сигнализировало бы о формировании консенсуса между участниками, но мы пока этого не достигли.

Распространение продуктов также повышает риски путаницы среди инвесторов:

  • Понимают ли розничные инвесторы разницу между спотовым Dogecoin-ETF и мультиактивным криптопродуктом с плечом?
  • Будут ли сотни крипто-ETF поглощать потоки друг друга или они расширят общий объем целевого рынка?

Ранние данные предполагают, что действуют оба процесса. 1,25 миллиарда долларов чистого притока в XRP с ноября 2025 года демонстрируют устойчивый спрос на конкретные альткоины.

Но это также капитал, который в противном случае мог бы поступить в ETF на биткоин или Ethereum, что подчеркивает аспект «игры с нулевой суммой» в борьбе за долю рынка.

Недостающее звено: где институциональные инфраструктурные решения?

Несмотря на весь ажиотаж вокруг одобрения ETF, остается критически важный вопрос: как институционалы будут на самом деле использовать эти цифровые активы в масштабе?

Именно здесь поставщики блокчейн-инфраструктуры становятся незаменимыми. Институциональным инвесторам нужны не просто ETF-оболочки — им необходим надежный доступ к API корпоративного уровня для взаимодействия с данными ончейн, верификации активов и интеграции криптовалют в существующие системы управления портфелем.

Будь то запрос состояния блокчейна в реальном времени для получения доходности от стейкинга Solana или проверка кроссчейн-расчетов для мультиактивных портфелей — инфраструктурный уровень, поддерживающий институциональное внедрение криптоактивов, должен быть таким же надежным, как и сами структуры ETF.

Что готовит 2026 год: прогнозы и «джокеры»

Несколько трендов выглядят предопределенными на оставшуюся часть 2026 года:

Почти неоспоримые факты:

  • Общий объем активов под управлением (AUM) крипто-ETP превысит 400 миллиардов долларов
  • Solana, XRP и Litecoin будут доминировать в притоках средств в альткоин-ETF (вероятность одобрения уже составляет 95%+)
  • ETF с поддержкой стейкинга станут мейнстримом, фундаментально меняя ожидания по доходности
  • Все больше традиционных финансовых институтов запустят криптопродукты (гонка вооружений ускоряется)

Вероятные события:

  • Получение одобрения для ETF на Cardano, Polkadot и дополнительные DeFi-токены
  • BlackRock подает заявку на XRP-ETF (инсайдеры прогнозируют конец 2026 или начало 2027 года)
  • Запуск первой волны мультиактивных крипто-индексных ETF, повторяющих стратегии диверсификации в стиле S&P 500
  • Европейские и азиатские рынки запускают конкурирующие продукты крипто-ETP, создавая глобальную регуляторную гонку

«Джокеры» (непредсказуемые факторы):

  • Одобрит ли SEC ETF на стейблкоины с выплатой доходности? Регуляторная база остается неясной.
  • Сможет ли крупный инцидент в сфере безопасности или обвал рынка сорвать институциональное внедрение? Криптоиндустрия пережила крах FTX и Luna, но системные риски сохраняются.
  • Вытеснят ли со временем децентрализованные биржи (DEX) доминирование ETF в вопросе институционального доступа? Технологии DEX стремительно совершенствуются.

Вердикт: эволюция, а не революция

Волна из 100+ крипто-ETF — это не революция, а эволюция. Мы наблюдаем, как традиционные финансы поглощают криптосферу через свою существующую инфраструктуру, а не как криптовалюты разрушают финансовые рынки извне.

И это не обязательно плохо. ETF-оболочки обеспечивают:

  • Соответствие регуляторным нормам и юридическую чистоту
  • Кастодиальные решения институционального уровня
  • Налоговую эффективность и упрощенную отчетность
  • Знакомые инвестиционные инструменты для институтов, избегающих рисков
  • Демократизацию доступа для розничных инвесторов, которые не хотят управлять приватными ключами

Но это также означает, что крипта становится более похожей на традиционные финансы: посреднической, регулируемой и сконцентрированной в руках крупнейших финансовых институтов.

Оригинальное видение криптовалют как децентрализованной одноранговой (P2P) системы передачи ценностей уступает место BlackRock и Fidelity, управляющим цифровыми активами от имени пенсионных фондов.

Считаете ли вы это легитимизацией или поглощением — зависит от вашей точки зрения.

Неоспоримо одно: институциональные ворота открылись, и 2026 год увидит такой приток капитала, по сравнению с которым запуск биткоин-ETF в 2024 году покажется лишь разминкой.

Волна альткоин-ETF уже здесь.

Теперь вопрос заключается в том, сможет ли децентрализованная инфраструктура криптовалют масштабироваться, чтобы удовлетворить требования институционалов — или же традиционные финансы просто построят свои собственные «закрытые сады» поверх публичных блокчейнов.

Для институтов, строящих решения на блокчейн-инфраструктуре, надежный доступ к API для нескольких сетей не является опциональным — это фундамент. Изучите мультичейн-API корпоративного уровня от BlockEden.xyz, разработанные для эры институционального внедрения.

Источники

Base захватывает 60% доходов Ethereum L2: как Coinbase строит AWS для Web3

· 9 мин чтения
Dora Noda
Software Engineer

Когда Amazon запустила AWS в 2006 году, никто не думал, что внутренняя серверная инфраструктура книжного интернет-магазина станет основой интернета. Спустя почти два десятилетия похожая история разворачивается в криптоиндустрии: в 2025 году сеть Base от Coinbase обеспечила 62 % всей выручки Ethereum Layer 2, сосредоточила 46 % TVL в секторе L2 DeFi и обработала большую часть всех переводов стейблкоинов на L2 — и всё это без нативного токена. Вопрос не в том, побеждает ли Base в «войнах L2». Вопрос в том, не становится ли Coinbase потихоньку «AWS для ончейн-экономики».

Момент DeepSeek для Bittensor: может ли TAO стать вторым полюсом мирового ИИ?

· 9 мин чтения
Dora Noda
Software Engineer

Когда 70 незнакомцев, разбросанных по всему миру — вооруженных потребительскими GPU и домашним интернет-соединением — коллективно обучили языковую модель с 72 миллиардами параметров, которая превзошла LLaMA-2-70B от Meta, в повествовании об ИИ что-то изменилось. Никаких корпоративных белых списков. Никаких дата-центров за 100 миллионов долларов. Никаких централизованных лабораторий, дергающих за ниточки. Только Subnet 3 сети Bittensor, криптоэкономическая система стимулов и технический прием под названием SparseLoCo, который сделал все это возможным.

В начале 2026 года мир ИИ был одержим доказательством DeepSeek того, что модели фронтирного уровня не требуют бюджетов масштаба OpenAI. Сообщество Bittensor называет событие 10 марта 2026 года своим собственным «моментом DeepSeek» — доказательством того, что большие языковые модели теперь могут появляться полностью за пределами централизованных институтов. Стоит задаться вопросом: действительно ли Bittensor строит второй полюс глобальной инфраструктуры ИИ, или это захватывающая история, обернутая вокруг элегантного, но хрупкого эксперимента?