Перейти к основному контенту

Один пост с тегом "Масштабируемость"

Решения масштабирования блокчейна и производительность

Посмотреть все теги

EigenCloud: Восстановление основы доверия Web3 через верифицируемую облачную инфраструктуру

· 1 мин чтения
Dora Noda
Software Engineer

EigenCloud представляет собой самую амбициозную попытку решить фундаментальный компромисс блокчейна между масштабируемостью и доверием. Объединив рестейкнутые активы на сумму $17,5 млрд, новый механизм токенов на основе форков и три верифицируемых примитива — EigenDA, EigenCompute и EigenVerify — Eigen Labs создала то, что она называет "моментом AWS для криптоиндустрии": платформу, где любой разработчик может получить доступ к вычислениям облачного масштаба с криптографическим доказательством корректного выполнения. Ребрендинг в июне 2025 года с EigenLayer на EigenCloud ознаменовал стратегический переход от инфраструктурного протокола к полнофункциональному верифицируемому облаку, поддержанный $70 млн от a16z crypto и партнерствами с Google, LayerZero и Coinbase. Эта трансформация направлена на расширение доступного рынка с 25 000 крипторазработчиков до 20+ млн разработчиков программного обеспечения по всему миру, которым нужны как программируемость, так и доверие.

Трилогия экосистемы Eigen: от фрагментации безопасности к рынку доверия

Экосистема Eigen решает структурную проблему, которая сдерживала инновации в блокчейне с момента создания Ethereum: каждый новый протокол, требующий децентрализованной валидации, должен создавать свою собственную безопасность с нуля. Оракулы, мосты, уровни доступности данных и секвенсоры — каждый из них строил изолированные сети валидаторов, фрагментируя общий капитал, доступный для обеспечения безопасности, между десятками конкурирующих сервисов. Эта фрагментация означала, что злоумышленникам нужно было скомпрометировать только самое слабое звено — мост стоимостью $50 млн — а не $114 млрд, обеспечивающих безопасность самого Ethereum.

Решение Eigen Labs разворачивается на трех архитектурных уровнях, которые работают согласованно. Уровень протокола (EigenLayer) создает рынок, где застейканный ETH Ethereum может одновременно обеспечивать безопасность нескольких сервисов, превращая изолированные островки безопасности в объединенную сеть доверия. Уровень токенов (EIGEN) вводит совершенно новый криптоэкономический примитив — интерсубъективный стейкинг — который позволяет применять слэшинг за ошибки, которые код не может доказать, но которые универсально признаются людьми. Уровень платформы (EigenCloud) абстрагирует эту инфраструктуру в удобные для разработчиков примитивы: доступность данных 100 МБ/с через EigenDA, верифицируемые вычисления вне сети через EigenCompute и программируемое разрешение споров через EigenVerify.

Эти три уровня создают то, что Eigen Labs называет "стеком доверия" — каждый примитив строится на гарантиях безопасности нижележащих уровней. ИИ-агент, работающий на EigenCompute, может хранить свои трассировки выполнения на EigenDA, сталкиваться с вызовами через EigenVerify и в конечном итоге использовать форкинг токенов EIGEN как крайнюю меру для спорных результатов.


Уровень протокола: как EigenLayer создает рынок доверия

Дилемма изолированных островков безопасности

До EigenLayer запуск децентрализованного сервиса требовал решения дорогостоящей проблемы начальной загрузки. Новой сети оракулов нужно было привлекать валидаторов, разрабатывать токеномику, реализовывать условия слэшинга и убеждать стейкеров, что вознаграждения оправдывают риски — и все это до предоставления какого-либо реального продукта. Затраты были значительными: Chainlink поддерживает собственную безопасность, обеспеченную стейкингом LINK; каждый мост управлял независимыми наборами валидаторов; уровни доступности данных, такие как Celestia, запускали целые блокчейны.

Эта фрагментация создавала извращенную экономику. Стоимость атаки на любой отдельный сервис определялась его изолированным стейком, а не совокупной безопасностью экосистемы. Мост, обеспечивающий безопасность $100 млн с залогом в $10 млн, оставался уязвимым, даже когда миллиарды бездействовали в валидаторах Ethereum.

Решение: заставить ETH работать на несколько сервисов одновременно

EigenLayer представил рестейкинг — механизм, позволяющий валидаторам Ethereum расширять свой застейканный ETH для обеспечения безопасности дополнительных сервисов, называемых Активно Валидируемыми Сервисами (AVS). Протокол поддерживает два пути рестейкинга:

Нативный рестейкинг требует запуска валидатора Ethereum (минимум 32 ETH) и указания учетных данных для вывода средств на смарт-контракт EigenPod. Стейк валидатора получает двойную функциональность: обеспечение консенсуса Ethereum при одновременной поддержке гарантий AVS.

Рестейкинг токенов ликвидного стейкинга (LST) принимает деривативы, такие как stETH от Lido, mETH от Mantle или cbETH от Coinbase. Пользователи депонируют эти токены в контракт StrategyManager EigenLayer, что позволяет участвовать без запуска инфраструктуры валидатора. Минимум отсутствует — участие начинается с долей ETH через протоколы ликвидного рестейкинга, такие как EtherFi и Renzo.

Текущий состав рестейкинга показывает 83,7% нативного ETH и 16,3% токенов ликвидного стейкинга, что составляет более 6,25 млн ETH, заблокированных в протоколе.

Рыночный механизм: треугольная теория игр

Три класса заинтересованных сторон участвуют в рынке EigenLayer, каждый со своими стимулами:

Рестейкеры предоставляют капитал и получают суммированную доходность: базовая доходность стейкинга Ethereum (~4% годовых) плюс вознаграждения, специфичные для AVS, выплачиваемые в EIGEN, WETH или нативных токенах, таких как ARPA. Текущая совокупная доходность достигает примерно 4,24% в EIGEN плюс базовые вознаграждения. Риск: подверженность дополнительным условиям слэшинга от каждого AVS, который обслуживают их делегированные операторы.

Операторы управляют инфраструктурой узлов и выполняют задачи валидации AVS. Они получают стандартные 10% комиссионных (настраиваемые от 0-100%) от делегированных вознаграждений плюс прямые платежи AVS. Зарегистрировано более 2000 операторов, из них 500+ активно валидируют AVS. Операторы выбирают, какие AVS поддерживать, исходя из доходности с учетом риска, создавая конкурентный рынок.

AVS потребляют объединенную безопасность без начальной загрузки независимых сетей валидаторов. Они определяют условия слэшинга, устанавливают структуры вознаграждений и конкурируют за внимание операторов через привлекательную экономику. В настоящее время 40+ AVS работают в основной сети, 162 находятся в разработке, всего более 190 в экосистеме.

Эта треугольная структура создает естественное ценообразование: AVS, предлагающие недостаточные вознаграждения, с трудом привлекают операторов; операторы с плохой репутацией теряют делегирования; рестейкеры оптимизируют, выбирая надежных операторов, поддерживающих ценные AVS.

Операционный поток протокола

Механизм делегирования следует структурированному потоку:

  1. Стейкинг: Пользователи стейкают ETH в Ethereum или приобретают LST.
  2. Подключение: Депозит в контракты EigenLayer (EigenPod для нативного, StrategyManager для LST).
  3. Делегирование: Выбор оператора для управления валидацией.
  4. Регистрация: Операторы регистрируются в EigenLayer и выбирают AVS.
  5. Валидация: Операторы запускают ПО AVS и выполняют задачи аттестации.
  6. Вознаграждения: AVS распределяют вознаграждения еженедельно через ончейн-меркл-корни.
  7. Запрос: Стейкеры и операторы запрашивают вознаграждения после 1-недельной задержки.

Вывод средств требует 7-дневного периода ожидания (14 дней для стейков с включенным слэшингом), что дает время для обнаружения ошибок до вывода средств.

Эффективность протокола и рыночные показатели

Траектория роста EigenLayer демонстрирует рыночное подтверждение:

  • Текущий TVL: ~$17,51 млрд (декабрь 2025 г.)
  • Пиковый TVL: $20,09 млрд (июнь 2024 г.), что делает его вторым по величине DeFi-протоколом после Lido
  • Уникальные адреса стейкинга: 80 000+
  • Рестейкеры, квалифицированные для получения стимулов: 140 000+
  • Общее количество распределенных вознаграждений: $128,02 млн+

Активация слэшинга 17 апреля 2025 года стала важной вехой — протокол стал "полнофункциональным" с экономическим принуждением. Слэшинг использует Уникальное Распределение Стейка, позволяя операторам выделять определенные части стейка для отдельных AVS, изолируя риск слэшинга между сервисами. Комитет по вето может расследовать и отменять несправедливый слэшинг, предоставляя дополнительные гарантии.


Уровень токенов: как EIGEN решает проблему субъективности

Дилемма непроверяемых кодом ошибок

Традиционный слэшинг в блокчейне работает только для объективно приписываемых ошибок — поведений, доказуемых с помощью криптографии или математики. Двойная подпись блока, создание недействительных переходов состояний или сбои в проверках активности — все это может быть проверено в сети. Но многие критические сбои не поддаются алгоритмическому обнаружению:

  • Оракул, сообщающий ложные цены (удержание данных)
  • Уровень доступности данных, отказывающийся предоставлять данные
  • Модель ИИ, производящая манипулированные результаты
  • Секвенсор, цензурирующий определенные транзакции

Эти интерсубъективные ошибки имеют определяющую характеристику: любые два разумных наблюдателя согласились бы, что ошибка произошла, но ни один смарт-контракт не может это доказать.

Решение: форкинг как наказание

EIGEN вводит радикальный механизм — слэшинг через форкинг — который использует социальный консенсус, а не алгоритмическую верификацию. Когда операторы совершают интерсубъективные ошибки, сам токен форкается:

Шаг 1: Обнаружение ошибки. Стейкер bEIGEN наблюдает вредоносное поведение и поднимает тревогу.

Шаг 2: Социальное обсуждение. Участники консенсуса обсуждают проблему. Честные наблюдатели приходят к единому мнению о том, произошла ли ошибка.

Шаг 3: Инициирование оспаривания. Оспаривающий развертывает три контракта: новый контракт токена bEIGEN (форк), контракт Challenge для будущих форков и контракт Fork-Distributor, идентифицирующий вредоносных операторов. Оспаривающий вносит значительный залог в EIGEN, чтобы предотвратить необоснованные оспаривания.

Шаг 4: Выбор токена. Теперь существуют две версии EIGEN. Пользователи и AVS свободно выбирают, какую версию поддерживать. Если консенсус подтверждает неправомерное поведение, только форкнутый токен сохраняет ценность — вредоносные стейкеры теряют всю свою долю.

Шаг 5: Разрешение. Залог вознаграждается, если оспаривание успешно, и сжигается, если отклонено. Контракт-обертка EIGEN обновляется, чтобы указывать на новый канонический форк.

Архитектура с двумя токенами

EIGEN использует два токена, чтобы изолировать сложность форкинга от DeFi-приложений:

ТокенНазначениеПоведение при форкинге
EIGENТорговля, DeFi, залогНечувствителен к форкам — защищен от сложности
bEIGENСтейкинг, обеспечение безопасности AVSПодвержен интерсубъективному форкингу

Пользователи оборачивают EIGEN в bEIGEN для стейкинга; после вывода bEIGEN разворачивается обратно в EIGEN. Во время форков bEIGEN разделяется (bEIGENv1 → bEIGENv2), в то время как держатели EIGEN, не участвующие в стейкинге, могут выкупить токены без подверженности механике форков.

Токеномика

Начальное предложение: 1 673 646 668 EIGEN (кодирует "1. Open Innovation" на телефонной клавиатуре)

Распределение:

  • Сообщество (45%): 15% эйрдропы, 15% инициативы сообщества, 15% R&D/экосистема
  • Инвесторы (29,5%): ~504,73 млн токенов с ежемесячными разблокировками после клиффа
  • Ранние участники (25,5%): ~458,55 млн токенов с ежемесячными разблокировками после клиффа

Вестинг: Инвесторы и основные участники сталкиваются с 1-летней блокировкой с момента возможности передачи токенов (30 сентября 2024 года), затем 4% ежемесячных разблокировок в течение 3 лет.

Инфляция: 4% годовая инфляция распределяется через Программные Стимулы стейкерам и операторам, в настоящее время ~1,29 млн EIGEN еженедельно.

Текущее состояние рынка (декабрь 2025 г.):

  • Цена: ~$0,50-0,60
  • Рыночная капитализация: ~$245-320 млн
  • Циркулирующее предложение: ~485 млн EIGEN
  • Исторический максимум: $5,65 (17 декабря 2024 г.) — текущая цена представляет собой ~90% снижение от ATH

Управление и голос сообщества

Управление EigenLayer остается в "фазе мета-настройки", где исследователи и сообщество формируют параметры для полной активации протокола. Ключевые механизмы включают:

  • Управление свободным рынком: Операторы определяют риск/вознаграждение, подключаясь/отключаясь от AVS
  • Комитеты по вето: Защита от необоснованного слэшинга
  • Совет протокола: Рассматривает Предложения по улучшению EigenLayer (ELIP)
  • Управление на основе токенов: Держатели EIGEN голосуют за поддержку форка во время споров — сам процесс форкинга является управлением

Уровень платформы: стратегическая трансформация EigenCloud

Стек верифицируемости EigenCloud: три примитива, создающие инфраструктуру доверия

Ребрендинг в июне 2025 года в EigenCloud ознаменовал переход Eigen Labs от протокола рестейкинга к верифицируемой облачной платформе. Видение: объединить программируемость облачного масштаба с верификацией криптографического уровня, ориентируясь на рынок публичных облаков стоимостью более $10 трлн, где важны как производительность, так и доверие.

Архитектура напрямую соответствует знакомым облачным сервисам:

EigenCloudЭквивалент AWSФункция
EigenDAS3Доступность данных (100 МБ/с)
EigenComputeLambda/ECSВерифицируемое выполнение вне сети
EigenVerifyН/ДПрограммируемое разрешение споров

Токен EIGEN обеспечивает безопасность всего конвейера доверия через криптоэкономические механизмы.


EigenDA: убийца затрат и движок пропускной способности для роллапов

Предыстория проблемы: Роллапы публикуют данные транзакций в Ethereum для обеспечения безопасности, но затраты на calldata поглощают 80-90% операционных расходов. Arbitrum и Optimism потратили десятки миллионов на доступность данных. Общая пропускная способность Ethereum ~83 КБ/с создает фундаментальное узкое место по мере роста внедрения роллапов.

Архитектура решения: EigenDA переносит доступность данных в неблокчейн-структуру, сохраняя при этом безопасность Ethereum через рестейкинг. Идея: DA не требует независимого консенсуса — Ethereum занимается координацией, в то время как операторы EigenDA напрямую управляют распределением данных.

Техническая реализация использует кодирование Рида-Соломона с исправлением ошибок для информационно-теоретически минимальных накладных расходов и коммитменты KZG для гарантий валидности без периодов ожидания доказательств мошенничества. Ключевые компоненты включают:

  • Дисперсеры: Кодируют блобы, генерируют доказательства KZG, распределяют чанки, агрегируют аттестации
  • Узлы валидаторов: Проверяют чанки на соответствие коммитментам, хранят части, возвращают подписи
  • Узлы извлечения: Собирают шарды и реконструируют исходные данные

Результаты: EigenDA V2 запущен в июле 2025 года с ведущими в отрасли характеристиками:

МетрикаEigenDA V2CelestiaБлобы Ethereum
Пропускная способность100 МБ/с~1,33 МБ/с~0,032 МБ/с
ЗадержкаВ среднем 5 секунд6 секунд блок + 10 минут доказательство мошенничества12 секунд
СтоимостьСнижение ~98,91% по сравнению с calldata~$0,07/МБ~$3,83/МБ

При 100 МБ/с EigenDA может обрабатывать 800 000+ переводов ERC-20 в секунду — в 12,8 раза больше пиковой пропускной способности Visa.

Безопасность экосистемы: 4,3 млн ETH в стейкинге (март 2025 г.), 245 операторов, 127 000+ уникальных стейкинг-кошельков, более $9,1 млрд рестейкнутого капитала.

Текущие интеграции: Fuel (первый роллап, достигший 2-й стадии децентрализации), Aevo, Mantle, Celo, MegaETH, AltLayer, Conduit, Gelato, Movement Labs и другие. 75% всех активов на L2 Ethereum с альтернативным DA используют EigenDA.

Цены (снижение в 10 раз объявлено в мае 2025 г.):

  • Бесплатный уровень: 1,28 КиБ/с в течение 12 месяцев
  • По запросу: 0,015 ETH/ГБ
  • Зарезервированная пропускная способность: 70 ETH/год за 256 КиБ/с

EigenCompute: криптографический щит для облачных вычислений

Предыстория проблемы: Блокчейны надежны, но не масштабируемы; облака масштабируемы, но не надежны. Сложные ИИ-выводы, обработка данных и алгоритмическая торговля требуют облачных ресурсов, но традиционные провайдеры не дают гарантий того, что код выполнялся без изменений или что выходные данные не были подделаны.

Решение: EigenCompute позволяет разработчикам запускать произвольный код вне сети в Доверенных Средах Выполнения (TEE), сохраняя при этом гарантии верификации на уровне блокчейна. Приложения развертываются как контейнеры Docker — работает любой язык, который запускается в Docker (TypeScript, Rust, Go, Python).

Архитектура обеспечивает:

  • Ончейн-коммитмент: Стратегия агента, хеш контейнера кода и источники данных хранятся верифицируемо
  • Залог с возможностью слэшинга: Операторы стейкают активы, которые могут быть слэшнуты за отклонение выполнения
  • Инфраструктура аттестации: TEE предоставляют аппаратное доказательство того, что код выполнялся без изменений
  • Аудиторский след: Каждое выполнение записывается в EigenDA

Гибкие модели доверия: Дорожная карта EigenCompute включает несколько подходов к верификации:

  1. TEE (текущая альфа-версия основной сети) — Intel SGX/TDX, AMD SEV-SNP
  2. Криптоэкономическая безопасность (предстоящий GA) — слэшинг, подкрепленный EIGEN
  3. Доказательства с нулевым разглашением (будущее) — математическая верификация без доверия

Опыт разработчика: CLI EigenCloud (eigenx) предоставляет шаблоны, локальное тестирование в devnet и развертывание одной командой в тестовой сети Base Sepolia. Примеры приложений включают чат-интерфейсы, торговых агентов, эскроу-системы и стартовый комплект протокола платежей x402.


EigenAI: расширение верифицируемости на ИИ-выводы

Разрыв в доверии к ИИ: Традиционные поставщики ИИ не дают криптографических гарантий того, что запросы не были изменены, ответы не были подделаны или что модели являются заявленными версиями. Это делает ИИ непригодным для высокорисковых приложений, таких как торговля, заключение контрактов или управление DeFi.

Прорыв EigenAI: Детерминированный вывод LLM в масштабе. Команда заявляет о побитово-точном детерминированном выполнении вывода LLM на GPU — что широко считалось невозможным или непрактичным. Повторное выполнение запроса X с моделью Y дает точно вывод Z; любое расхождение является криптографическим доказательством подделки.

Технический подход: Глубокая оптимизация по типам GPU, ядрам CUDA, движкам вывода и генерации токенов обеспечивает последовательное детерминированное поведение с достаточно низкими накладными расходами для практического пользовательского опыта.

Текущие спецификации:

  • API, совместимый с OpenAI (прямая замена)
  • В настоящее время поддерживает gpt-oss-120b-f16 (модель с 120 млрд параметров)
  • Поддерживается вызов инструментов
  • Дополнительные модели, включая модели встраивания, в ближайшей дорожной карте

Разрабатываемые приложения:

  • FereAI: Торговые агенты с верифицируемым принятием решений
  • elizaOS: 50 000+ агентов с криптографическими аттестациями
  • Dapper Labs (Микела): Виртуальный инфлюенсер с неподделываемым "мозгом"
  • Collective Memory: 1,6 млн+ изображений/видео, обработанных с помощью верифицированного ИИ
  • Humans vs AI: 70 000+ еженедельно активных пользователей в играх на рынке прогнозов

EigenVerify: высший арбитр доверия

Ключевое позиционирование: EigenVerify функционирует как "высший, беспристрастный суд по разрешению споров" для EigenCloud. Когда возникают споры о выполнении, EigenVerify изучает доказательства и выносит окончательные решения, подкрепленные экономическим принуждением.

Два режима верификации:

Объективная верификация: Для детерминированных вычислений любой может оспорить, запустив повторное выполнение с идентичными входными данными. Если выходные данные отличаются, криптографические доказательства подтверждают ошибку. Обеспечивается рестейкнутым ETH.

Интерсубъективная верификация: Для задач, где рациональные люди согласились бы, но алгоритмы не могут проверить — "Кто выиграл выборы?" "Содержит ли это изображение кошку?" — EigenVerify использует консенсус большинства среди застейканных валидаторов. Механизм форка EIGEN служит ядерным резервом. Обеспечивается стейкингом EIGEN.

Верификация с помощью ИИ (новый режим): Споры разрешаются верифицируемыми ИИ-системами, сочетающими алгоритмическую объективность с гибкостью суждений.

Синергия с другими примитивами: EigenCompute организует развертывание контейнеров; результаты выполнения записываются в EigenDA для аудиторских следов; EigenVerify обрабатывает споры; токен EIGEN обеспечивает максимальную безопасность через возможность форкинга. Разработчики выбирают режимы верификации с помощью "регулятора доверия", балансируя скорость, стоимость и безопасность:

  • Мгновенный: Самый быстрый, наименьшая безопасность
  • Оптимистичный: Стандартная безопасность с периодом оспаривания
  • Форкируемый: Полные интерсубъективные гарантии
  • Конечный: Максимальная безопасность с криптографическими доказательствами

Статус: Devnet запущен во 2 квартале 2025 года, запуск основной сети запланирован на 3 квартал 2025 года.


Структура экосистемы: от TVL в $17+ млрд до стратегических партнерств

Карта экосистемы AVS

Экосистема AVS охватывает несколько категорий:

Доступность данных: EigenDA (59 млн EIGEN и 3,44 млн ETH в рестейкинге, 215 операторов, 97 000+ уникальных стейкеров)

Сети оракулов: Eoracle (первый нативный оракул Ethereum)

Инфраструктура роллапов: AltLayer MACH (быстрая финализация), Xterio MACH (игры), Lagrange State Committees (ZK-легкий клиент с 3,18 млн ETH в рестейкинге)

Взаимодействие: Hyperlane (межчейн-обмен сообщениями), LayerZero DVN (кроссчейн-валидация)

Координация DePIN: Witness Chain (Доказательство местоположения, Доказательство пропускной способности)

Инфраструктура: Infura DIN (децентрализованная инфраструктура), ARPA Network (рандомизация без доверия)

Партнерство с Google: A2A + MCP + EigenCloud

16 сентября 2025 года было объявлено, что EigenCloud присоединился в качестве партнера по запуску Протокола платежей агентов (AP2) Google Cloud.

Техническая интеграция: Протокол A2A (Agent-to-Agent) позволяет автономным ИИ-агентам обнаруживать и взаимодействовать на разных платформах. AP2 расширяет A2A, используя HTTP 402 ("требуется оплата") через стандарт x402 для блокчейн-независимых платежей. EigenCloud предоставляет:

  • Верифицируемый платежный сервис: Абстрагирует конвертацию активов, бриджинг и сложность сети с подотчетностью операторов, участвующих в рестейкинге
  • Верификация работы: EigenCompute обеспечивает TEE или детерминированное выполнение с аттестациями и ZK-доказательствами
  • Криптографическая подотчетность: "Мандаты" — защищенные от подделки, криптографически подписанные цифровые контракты

Масштаб партнерства: Консорциум из 60+ организаций, включая Coinbase, Ethereum Foundation, MetaMask, Mastercard, PayPal, American Express и Adobe.

Стратегическое значение: Позиционирует EigenCloud как инфраструктурную основу для экономики ИИ-агентов, которая, по прогнозам, будет расти на 45% ежегодно.

Партнерство с Recall: верифицируемая оценка ИИ-моделей

16 октября 2025 года было объявлено, что Recall интегрировал EigenCloud для сквозного верифицируемого бенчмаркинга ИИ.

Концепция рынка навыков: Сообщества финансируют необходимые им навыки, привлекают ИИ с этими возможностями и получают вознаграждение за выявление лучших исполнителей. ИИ-модели соревнуются в прямых соревнованиях, верифицированных детерминированным выводом EigenCloud.

Детали интеграции: EigenAI предоставляет криптографическое доказательство того, что модели производят определенные выходные данные для заданных входных данных; EigenCompute гарантирует, что результаты производительности прозрачны, воспроизводимы и доказуемы с использованием TEE.

Предыдущие результаты: Recall протестировал 50 ИИ-моделей на 8 рынках навыков, проведя 7000+ соревнований с 150 000+ участниками, представившими 7,5 млн прогнозов.

Стратегическое значение: Создает "первую сквозную структуру для предоставления криптографически доказуемых и прозрачных рейтингов для передовых ИИ-моделей" — заменяя маркетинговые бенчмарки верифицируемыми данными о производительности.

Партнерство с LayerZero: децентрализованная верификация EigenZero

Фреймворк анонсирован 2 октября 2024 года; EigenZero запущен 13 ноября 2025 года.

Техническая архитектура: Фреймворк CryptoEconomic DVN позволяет любой команде развертывать AVS децентрализованной сети верификаторов, принимающие ETH, ZRO и EIGEN в качестве активов для стейкинга. EigenZero реализует оптимистическую верификацию с 11-дневным периодом оспаривания и экономическим слэшингом за сбои верификации.

Модель безопасности: Переходит от "систем, основанных на доверии, к экономически измеримой безопасности, которую можно аудировать в сети". DVN должны подкреплять обязательства застейканными активами, а не только репутацией.

Текущие спецификации: Стейк ZRO в $5 млн для EigenZero; LayerZero поддерживает 80+ блокчейнов с 600+ приложениями и 35 DVN-сущностями, включая Google Cloud.

Стратегическое значение: Устанавливает рестейкинг как стандарт безопасности для кроссчейн-взаимодействия — устраняя постоянные уязвимости в протоколах обмена сообщениями.

Другие значимые партнерства

Coinbase: Оператор основной сети с первого дня; интеграция AgentKit, позволяющая агентам работать на EigenCompute с выводом EigenAI.

elizaOS: Ведущий фреймворк ИИ с открытым исходным кодом (17 тыс. звезд на GitHub, 50 тыс.+ агентов) интегрировал EigenCloud для криптографически гарантированного вывода и безопасных рабочих процессов TEE.

Infura DIN: Децентрализованная инфраструктурная сеть теперь работает на EigenLayer, позволяя стейкерам Ethereum обеспечивать безопасность сервисов и получать вознаграждения.

Securitize/BlackRock: Валидация данных о ценах для токенизированного казначейского фонда BlackRock BUIDL на $2 млрд — первая корпоративная реализация.


Анализ рисков: технические компромиссы и динамика рынка

Технические риски

Уязвимости смарт-контрактов: Аудиты выявили риски повторного входа в StrategyBase, неполную реализацию логики слэшинга и сложные взаимозависимости между базовыми контрактами и промежуточным ПО AVS. Программа вознаграждения за обнаружение ошибок в размере $2 млн признает существующие риски уязвимостей.

Каскадные сбои слэшинга: Валидаторы, подверженные воздействию нескольких AVS, сталкиваются с одновременными условиями слэшинга. Если значительная часть стейка будет оштрафована, несколько сервисов могут деградировать одновременно, создавая системный риск "слишком большой, чтобы рухнуть".

Криптоэкономические векторы атак: Если $6 млн рестейкнутого ETH обеспечивают безопасность 10 модулей, каждый с заблокированной стоимостью $1 млн, стоимость атаки (слэшинг $3 млн) может быть ниже потенциальной выгоды ($10 млн по всем модулям), что делает систему экономически небезопасной.

Проблемы безопасности TEE

Альфа-версия основной сети EigenCompute опирается на Доверенные Среды Выполнения с задокументированными уязвимостями:

  • Foreshadow (2018): Сочетает спекулятивное выполнение и переполнение буфера для обхода SGX
  • SGAxe (2020): Утечка ключей аттестации из приватного анклава SGX
  • Tee.fail (2024): Атака по побочному каналу времени буфера строк DDR5, затрагивающая Intel SGX/TDX и AMD SEV-SNP

Уязвимости TEE остаются значительной поверхностью атаки в переходный период до полной реализации криптоэкономической безопасности и доказательств с нулевым разглашением.

Ограничения детерминированного ИИ

EigenAI заявляет о побитово-точном детерминированном выводе LLM, но ограничения сохраняются:

  • Зависимость от TEE: Текущая верификация наследует поверхность уязвимостей SGX/TDX
  • ZK-доказательства: Обещаны "в конечном итоге", но еще не реализованы в масштабе
  • Накладные расходы: Детерминированный вывод добавляет вычислительные затраты
  • Ограничения zkML: Традиционные доказательства с нулевым разглашением для машинного обучения остаются ресурсоемкими

Рыночные и конкурентные риски

Конкуренция в рестейкинге:

ПротоколTVLКлючевое отличие
EigenLayer$17-19 млрдОриентация на институциональных клиентов, верифицируемое облако
Symbiotic$1,7 млрдБез разрешений, неизменяемые контракты
Karak$740-826 млнМультиактивы, позиционирование на уровне национальных государств

Symbiotic первым выпустил полную функциональность слэшинга (январь 2025 г.), достиг TVL в $200 млн за 24 часа и использует неизменяемые, не подлежащие обновлению контракты, устраняя риск управления.

Конкуренция в доступности данных: Архитектура DAC EigenDA вводит предположения о доверии, отсутствующие в верификации DAS на основе блокчейна Celestia. Celestia предлагает более низкие затраты (~$3,41/МБ) и более глубокую интеграцию в экосистему (50+ роллапов). Переход Aevo на Celestia сократил затраты на DA более чем на 90%.

Регуляторные риски

Классификация ценных бумаг: Руководство SEC от мая 2025 года явно исключило ликвидный стейкинг, рестейкинг и ликвидный рестейкинг из положений о безопасной гавани. Прецедент Kraken (штраф $30 млн за услуги стейкинга) вызывает опасения по поводу соблюдения нормативных требований. Токены ликвидного рестейкинга могут столкнуться с классификацией ценных бумаг, учитывая многоуровневые претензии на будущие деньги.

Географические ограничения: Аирдроп EIGEN запретил пользователям из США и Канады, создавая сложные рамки соблюдения нормативных требований. В раскрытии рисков Wealthsimple отмечаются "юридические и регуляторные риски, связанные с EIGEN".

Инциденты безопасности

Взлом электронной почты в октябре 2024 года: 1,67 млн EIGEN ($5,7 млн) украдено через скомпрометированную цепочку электронной почты, перехватившую коммуникацию по передаче токенов инвесторам — не эксплойт смарт-контракта, но подрывающий позиционирование "верифицируемого облака".

Взлом аккаунта X в октябре 2024 года: Официальный аккаунт был скомпрометирован фишинговыми ссылками; один пострадавший потерял $800 000.


Перспективы: от инфраструктуры к конечной цели цифрового общества

Перспективы сценариев применения

EigenCloud позволяет создавать ранее невозможные категории приложений:

Верифицируемые ИИ-агенты: Автономные системы, управляющие реальным капиталом с криптографическим доказательством корректного поведения. Партнерство с Google AP2 позиционирует EigenCloud как основу для платежей в агентской экономике.

Институциональный DeFi: Сложные торговые алгоритмы с вычислениями вне сети, но с ончейн-подотчетностью. Интеграция Securitize/BlackRock BUIDL демонстрирует путь корпоративного внедрения.

Рынки прогнозов без разрешений: Рынки, разрешающиеся по любому реальному исходу с интерсубъективной обработкой споров и криптоэкономической финализацией.

Верифицируемые социальные сети: Токен-вознаграждения, привязанные к криптографически верифицированному взаимодействию; заметки сообщества с экономическими последствиями за дезинформацию.

Игры и развлечения: Доказуемая случайность для казино; вознаграждения на основе местоположения с криптоэкономической верификацией; верифицируемые киберспортивные турниры с автоматизированным эскроу.

Анализ пути развития

Прогресс дорожной карты отражает растущую децентрализацию и безопасность:

Ближайшая перспектива (1-2 квартал 2026 г.): Запуск основной сети EigenVerify; GA EigenCompute с полным слэшингом; дополнительные модели LLM; ончейн-API для EigenAI.

Среднесрочная перспектива (2026-2027 гг.): Интеграция ZK-доказательств для верификации без доверия; кроссчейн-развертывание AVS на основных L2; полная разблокировка токенов инвесторов/участников.

Долгосрочное видение: Заявленная цель — "Биткойн изменил деньги, Ethereum сделал их программируемыми, EigenCloud делает верифицируемость программируемой для любого разработчика, создающего любое приложение в любой отрасли" — нацелена на рынок публичных облаков стоимостью более $10 трлн.

Критические факторы успеха

Траектория EigenCloud зависит от нескольких факторов:

  1. Переход от TEE к ZK: Успешная миграция верификации от уязвимых TEE к криптографическим доказательствам
  2. Конкурентная защита: Сохранение доли рынка в условиях более быстрой реализации функций Symbiotic и ценовых преимуществ Celestia
  3. Регуляторная навигация: Достижение ясности в вопросах соблюдения нормативных требований для рестейкинга и LRT
  4. Институциональное внедрение: Превращение партнерств (Google, Coinbase, BlackRock) в значимый доход

Экосистема в настоящее время обеспечивает безопасность приложений на сумму более $2 млрд с застейканными активами на сумму более $12 млрд — соотношение избыточного обеспечения 6x, обеспечивающее существенный запас безопасности. С более чем 190 AVS в разработке и самой быстрорастущей экосистемой разработчиков в криптоиндустрии, согласно Electric Capital, EigenCloud получил значительные преимущества первопроходца. Сохранятся ли эти преимущества, превратившись в устойчивые сетевые эффекты, или они будут подорваны под давлением конкуренции и регулирования, остается центральным вопросом для следующей фазы развития экосистемы.

Направленный ациклический граф (DAG) в блокчейне

· 46 мин чтения
Dora Noda
Software Engineer

Что такое DAG и чем он отличается от блокчейна?

Направленный ациклический граф (DAG) — это тип структуры данных, состоящий из вершин (узлов), соединенных направленными ребрами, которые никогда не образуют цикл. В контексте распределенных реестров, реестр на основе DAG организует транзакции или события в виде паутинообразного графа, а не единой последовательной цепочки. Это означает, что в отличие от традиционного блокчейна, где каждый новый блок ссылается только на одного предшественника (образуя линейную цепочку), узел в DAG может ссылаться на несколько предыдущих транзакций или блоков. В результате многие транзакции могут быть подтверждены параллельно, а не строго одна за другой в хронологических блоках.

Чтобы проиллюстрировать разницу, если блокчейн выглядит как длинная цепочка блоков (каждый блок содержит множество транзакций), то реестр на основе DAG больше похож на дерево или сеть отдельных транзакций. Каждая новая транзакция в DAG может присоединяться к (и тем самым подтверждать) одну или несколько более ранних транзакций, вместо того чтобы ждать упаковки в следующий единственный блок. Это структурное различие приводит к нескольким ключевым отличиям:

  • Параллельная валидация: В блокчейнах майнеры/валидаторы добавляют по одному блоку в цепочку за раз, поэтому транзакции подтверждаются партиями для каждого нового блока. В DAG несколько транзакций (или небольших «блоков» транзакций) могут быть добавлены одновременно, поскольку каждая из них может присоединяться к разным частям графа. Эта параллелизация означает, что сетям DAG не нужно ждать, пока одна длинная цепочка будет расти по одному блоку за раз.
  • Отсутствие глобального последовательного порядка: Блокчейн по своей сути создает полный порядок транзакций (каждый блок имеет определенное место в одной последовательности). Реестр DAG, напротив, формирует частичный порядок транзакций. Нет единого «последнего блока», в очередь к которому выстраиваются все транзакции; вместо этого множество «вершин» графа могут сосуществовать и расширяться одновременно. Затем требуются протоколы консенсуса, чтобы в конечном итоге упорядочить или согласовать порядок или действительность транзакций в DAG.
  • Подтверждение транзакций: В блокчейне транзакции подтверждаются, когда они включаются в добытый/валидированный блок, и этот блок становится частью принятой цепочки (часто после добавления новых блоков поверх него). В системах DAG новая транзакция сама по себе помогает подтверждать предыдущие транзакции, ссылаясь на них. Например, в Tangle IOTA (DAG) каждая транзакция должна подтвердить две предыдущие транзакции, фактически заставляя пользователей совместно проверять транзакции друг друга. Это устраняет строгое разделение между «создателями транзакций» и «валидаторами», которое существует в майнинге блокчейна — каждый участник, выпускающий транзакцию, также выполняет небольшую работу по валидации.

Важно отметить, что блокчейн на самом деле является частным случаем DAG — DAG, который был ограничен одной цепочкой блоков. Оба являются формами технологии распределенного реестра (DLT) и разделяют такие цели, как неизменяемость и децентрализация. Однако реестры на основе DAG имеют «бесблочную» или мульти-родительскую структуру, что придает им различные свойства на практике. Традиционные блокчейны, такие как Bitcoin и Ethereum, используют последовательные блоки и часто отбрасывают любые конкурирующие блоки (форки), тогда как реестры DAG пытаются включать и упорядочивать все транзакции, не отбрасывая ни одной, если они не конфликтуют. Это фундаментальное различие закладывает основу для различий в производительности и дизайне, подробно описанных ниже.

Техническое сравнение: архитектура DAG против блокчейна

Чтобы лучше понять DAG и блокчейны, мы можем сравнить их архитектуры и процессы валидации:

  • Структура данных: Блокчейны хранят данные в блоках, связанных в линейной последовательности (каждый блок содержит множество транзакций и указывает на один предыдущий блок, образуя одну длинную цепочку). Реестры DAG используют графовую структуру: каждый узел в графе представляет транзакцию или блок событий и может ссылаться на несколько предыдущих узлов. Этот направленный граф не имеет циклов, что означает, что если вы будете следовать по ссылкам «назад», вы никогда не сможете вернуться к транзакции, с которой начали. Отсутствие циклов позволяет выполнять топологическую сортировку транзакций (способ их упорядочивания таким образом, чтобы каждая ссылка следовала за ссылаемой транзакцией). Короче говоря, блокчейны = одномерная цепочка, DAG = многомерный граф.
  • Пропускная способность и параллелизм: Из-за структурных различий блокчейны и DAG обрабатывают пропускную способность по-разному. Блокчейн, даже в оптимальных условиях, добавляет блоки один за другим (часто ожидая, пока каждый блок будет проверен и распространен по всей сети, прежде чем будет добавлен следующий). Это по своей сути ограничивает пропускную способность транзакций — например, Bitcoin в среднем обрабатывает 5–7 транзакций в секунду (TPS), а Ethereum ~15–30 TPS при классическом дизайне Proof-of-Work. Системы на основе DAG, напротив, позволяют многим новым транзакциям/блокам одновременно входить в реестр. Множественные ветви транзакций могут расти одновременно и позже объединяться, что значительно увеличивает потенциальную пропускную способность. Некоторые современные сети DAG заявляют о пропускной способности в тысячи TPS, приближаясь или превосходя традиционные платежные сети по пропускной способности.
  • Процесс валидации транзакций: В блокчейн-сетях транзакции ожидают в мемпуле и валидируются, когда майнер или валидатор упаковывает их в новый блок, затем другие узлы проверяют этот блок на соответствие истории. В сетях DAG валидация часто более непрерывна и децентрализована: каждая новая транзакция выполняет действие валидации, ссылаясь на (одобряя) более ранние транзакции. Например, каждая транзакция в Tangle IOTA должна подтвердить две предыдущие транзакции, проверив их действительность и выполнив небольшое доказательство работы, тем самым «голосуя» за эти транзакции. В DAG-структуре block-lattice Nano транзакции каждого аккаунта образуют свою собственную цепочку и валидируются посредством голосования узлами-представителями (подробнее об этом позже). Конечный эффект заключается в том, что DAG распределяет работу по валидации: вместо того, чтобы один производитель блоков валидировал пакет транзакций, каждый участник или множество валидаторов одновременно валидируют разные транзакции.
  • Механизм консенсуса: И блокчейнам, и DAG нужен способ для сети договориться о состоянии реестра (какие транзакции подтверждены и в каком порядке). В блокчейнах консенсус часто достигается за счет Proof of Work или Proof of Stake, производящих следующий блок, и правила «самая длинная (или самая тяжелая) цепочка выигрывает». В реестрах DAG консенсус может быть более сложным, поскольку нет единой цепочки. Различные проекты DAG используют разные подходы: некоторые используют протоколы сплетен и виртуальное голосование (как в Hedera Hashgraph) для достижения согласия по порядку транзакций, другие используют выбор вершин по методу Монте-Карло с цепями Маркова (ранний подход IOTA) или другие схемы голосования для определения предпочтительных ветвей графа. Мы обсудим конкретные методы консенсуса в системах DAG в последующем разделе. В целом, достижение общесетевого согласия в DAG может быть быстрее с точки зрения пропускной способности, но требует тщательного проектирования для обработки конфликтов (таких как попытки двойной траты), поскольку несколько транзакций могут существовать параллельно до окончательного упорядочивания.
  • Обработка форков: В блокчейне «форк» (два блока, добытые почти одновременно) приводит к тому, что одна ветвь в конечном итоге выигрывает (самая длинная цепочка), а другая становится сиротской (отбрасывается), что приводит к потере всей работы, выполненной над сиротским блоком. В DAG философия заключается в том, чтобы принимать форки как дополнительные ветви графа, а не отбрасывать их. DAG будет включать оба форка; затем алгоритм консенсуса определяет, какие транзакции в конечном итоге подтверждаются (или как разрешаются конфликтующие транзакции), не отбрасывая всю одну ветвь. Это означает, что мощность майнинга или усилия не тратятся впустую на устаревшие блоки, что способствует повышению эффективности. Например, Tree-Graph Conflux (DAG на PoW) пытается включить все блоки в реестр и упорядочивает их, а не делает их сиротскими, тем самым используя 100% произведенных блоков.

Таким образом, блокчейны предлагают более простую, строго упорядоченную структуру, где валидация происходит блок за блоком, тогда как DAG предоставляют более сложную графовую структуру, позволяющую асинхронную и параллельную обработку транзакций. Реестры на основе DAG должны использовать дополнительную логику консенсуса для управления этой сложностью, но они обещают значительно более высокую пропускную способность и эффективность за счет использования полной пропускной способности сети, а не принудительного создания очереди блоков.

Преимущества блокчейн-систем на основе DAG

Архитектуры DAG были введены в первую очередь для преодоления ограничений традиционных блокчейнов в масштабируемости, скорости и стоимости. Вот основные преимущества распределенных реестров на основе DAG:

  • Высокая масштабируемость и пропускная способность: Сети DAG могут достигать высокой пропускной способности транзакций, поскольку они обрабатывают множество транзакций параллельно. Поскольку нет узкого места в виде одной цепочки, TPS (транзакций в секунду) может масштабироваться в зависимости от сетевой активности. Фактически, некоторые протоколы DAG продемонстрировали пропускную способность порядка тысяч TPS. Например, Hedera Hashgraph способна обрабатывать более 10 000 транзакций в секунду на базовом уровне, значительно превосходя Bitcoin или Ethereum. На практике Hedera продемонстрировала завершение транзакций примерно за 3–5 секунд, по сравнению с минутами или более длительным временем подтверждения в блокчейнах PoW. Даже платформы смарт-контрактов на основе DAG, такие как Fantom, достигли почти мгновенной завершенности (~1–2 секунды) для транзакций при нормальных нагрузках. Эта масштабируемость делает DAG привлекательными для приложений, требующих большого объема, таких как микротранзакции IoT или потоки данных в реальном времени.
  • Низкие комиссии за транзакции (бесплатные или минимальные): Многие реестры на основе DAG могут похвастаться незначительными комиссиями или даже бесплатными транзакциями. По своей конструкции они часто не полагаются на майнеров, ожидающих вознаграждения за блоки или комиссии; например, в IOTA и Nano нет обязательных комиссий за транзакции — это важнейшее свойство для микроплатежей в IoT и повседневном использовании. Там, где комиссии существуют (например, Hedera или Fantom), они, как правило, очень низкие и предсказуемые, поскольку сеть может обрабатывать нагрузку без ценовых войн за ограниченное пространство блоков. Транзакции Hedera стоят около $0.0001 (одна десятитысячная доллара) в виде комиссий, что составляет крошечную долю от типичных комиссий блокчейна. Такие низкие затраты открывают двери для таких вариантов использования, как высокочастотные транзакции или крошечные платежи, которые были бы невозможны в цепочках с высокими комиссиями. Кроме того, поскольку DAG включают все действительные транзакции, а не отбрасывают некоторые в случае форков, меньше «потерянной» работы — что косвенно помогает снизить затраты за счет эффективного использования ресурсов.
  • Быстрое подтверждение и низкая задержка: В реестрах DAG транзакциям не нужно ждать включения в глобальный блок, поэтому подтверждение может быть быстрее. Многие системы DAG достигают быстрой завершенности — момента, когда транзакция считается окончательно подтвержденной. Например, консенсус Hedera Hashgraph обычно завершает транзакции в течение нескольких секунд со 100% уверенностью (завершенность aBFT). Сеть Nano часто видит транзакции, подтвержденные менее чем за 1 секунду благодаря легковесному процессу голосования. Эта низкая задержка улучшает пользовательский опыт, делая транзакции почти мгновенными, что важно для реальных платежей и интерактивных приложений.
  • Энергоэффективность: Сети на основе DAG часто не требуют интенсивного майнинга с использованием доказательства работы, который используют многие блокчейны, что делает их гораздо более энергоэффективными. Даже по сравнению с блокчейнами на основе доказательства доли владения, некоторые сети DAG потребляют минимальное количество энергии на транзакцию. Например, одна транзакция Hedera Hashgraph потребляет порядка 0.0001 кВт·ч (киловатт-час) энергии. Это на несколько порядков меньше, чем Bitcoin (который может потреблять сотни кВт·ч на транзакцию) или даже многие цепочки PoS. Эффективность достигается за счет устранения расточительных вычислений (отсутствие гонки майнинга) и отказа от отбрасывания любых попыток транзакций. Если бы блокчейн-сети повсеместно перешли на модели на основе DAG, экономия энергии могла бы быть колоссальной. Углеродный след сетей DAG, таких как Hedera, настолько низок, что ее общая сеть является углеродно-отрицательной при учете компенсаций. Такая энергоэффективность становится все более важной для устойчивой инфраструктуры Web3.
  • Отсутствие майнинга и демократизированная валидация: Во многих моделях DAG нет отдельной роли майнера/валидатора, которую не могли бы выполнять обычные пользователи. Например, каждый пользователь IOTA, выпускающий транзакцию, также помогает валидировать две другие, по сути децентрализуя работу по валидации до периферии сети. Это может снизить потребность в мощном майнинговом оборудовании или стейкинге больших объемов капитала для участия в консенсусе, потенциально делая сеть более доступной. (Однако некоторые сети DAG по-прежнему используют валидаторов или координаторов — см. обсуждение консенсуса и децентрализации позже.)
  • Плавная обработка высокого трафика: Блокчейны часто страдают от переполнения мемпула и скачков комиссий при высокой нагрузке (поскольку только один блок за раз может обрабатывать транзакции). Сети DAG, благодаря своей параллельной природе, обычно более изящно справляются со скачками трафика. По мере того, как все больше транзакций наводняют сеть, они просто создают больше параллельных ветвей в DAG, которые система может обрабатывать одновременно. Жесткого ограничения пропускной способности меньше (масштабируемость более «горизонтальная»). Это приводит к лучшей масштабируемости под нагрузкой, с меньшими задержками и лишь умеренным увеличением времени подтверждения или комиссий, вплоть до пропускной способности сети узлов и вычислительной мощности. По сути, DAG может поглощать всплески транзакций без быстрого перегрузки, что делает его подходящим для вариантов использования, связанных со всплесками активности (например, все устройства IoT отправляют данные одновременно или вирусное событие DApp).

Таким образом, реестры на основе DAG обещают более быстрые, дешевые и масштабируемые транзакции, чем классический подход блокчейна. Они нацелены на поддержку сценариев массового внедрения (микроплатежи, IoT, высокочастотная торговля и т. д.), с которыми текущие основные блокчейны сталкиваются из-за ограничений пропускной способности и стоимости. Однако эти преимущества сопряжены с определенными компромиссами и проблемами реализации, которые мы рассмотрим в последующих разделах.

Механизмы консенсуса в платформах на основе DAG

Поскольку реестры DAG естественным образом не производят единую цепочку блоков, им требуются инновационные механизмы консенсуса для проверки транзакций и обеспечения согласия всех участников относительно состояния реестра. Различные проекты разработали различные решения, адаптированные к их архитектуре DAG. Здесь мы описываем некоторые примечательные подходы к консенсусу, используемые платформами на основе DAG:

  • Tangle IOTA – Выбор вершин и взвешенное голосование: Tangle IOTA — это DAG транзакций, разработанный для Интернета вещей (IoT). В оригинальной модели IOTA нет майнеров; вместо этого каждая новая транзакция должна выполнить небольшое доказательство работы и одобрить две предыдущие транзакции (это «вершины» графа). Этот выбор вершин часто осуществляется с помощью алгоритма Монте-Карло с цепями Маркова (MCMC), который вероятностно выбирает, какие вершины одобрить, отдавая предпочтение самому тяжелому подграфу для предотвращения фрагментации. Консенсус в ранней IOTA частично достигался за счет этого кумулятивного веса одобрений — чем больше будущих транзакций косвенно одобряют вашу, тем более «подтвержденной» она становится. Однако для обеспечения безопасности сети на ранних этапах IOTA полагалась на временный централизованный узел Координатора, который выпускал периодические транзакции-вехи для завершения Tangle. Это было серьезной критикой (централизация) и сейчас устраняется в обновлении, известном как «Coordicide» (IOTA 2.0). В IOTA 2.0 новая модель консенсуса применяет безответственный консенсус в стиле Накамото на DAG. По сути, узлы выполняют голосование в Tangle: когда узел присоединяет новый блок, этот блок неявно голосует за действительность транзакций, на которые он ссылается. Комитет узлов-валидаторов (выбранных с помощью механизма стейкинга) выпускает блоки валидации в качестве голосов, и транзакция подтверждается, когда она накапливает достаточное количество взвешенных одобрений (концепция, называемая весом одобрения). Этот подход сочетает идею самого тяжелого DAG (подобно самой длинной цепочке) с явным голосованием для достижения консенсуса без координатора. Короче говоря, консенсус IOTA эволюционировал от выбора вершин + Координатор к полностью децентрализованному голосованию по ветвям DAG узлами, стремясь к безопасности и быстрому согласию о состоянии реестра.
  • Hedera Hashgraph – Сплетни и виртуальное голосование (aBFT): Hedera Hashgraph использует DAG событий в сочетании с асинхронным византийским отказоустойчивым (aBFT) алгоритмом консенсуса. Основная идея — «сплетни о сплетнях»: каждый узел быстро распространяет подписанную информацию о транзакциях и о своей истории сплетен другим узлам. Это создает Hashgraph (DAG событий), где каждый узел в конечном итоге знает, что распространил каждый другой узел, включая структуру того, кто что слышал и когда. Используя этот DAG событий, Hedera реализует виртуальное голосование. Вместо того чтобы отправлять фактические сообщения о голосовании для упорядочивания транзакций, узлы моделируют алгоритм голосования локально, анализируя граф связей сплетен. Алгоритм Hashgraph Лимона Бэрда может детерминированно рассчитать, как пройдет теоретический раунд голосования по порядку транзакций, просматривая историю «сети сплетен», записанную в DAG. Это дает метку времени консенсуса и полный порядок транзакций, который является справедливым и окончательным (транзакции упорядочиваются по медианному времени их получения сетью). Консенсус Hashgraph является безответственным и достигает aBFT, что означает, что он может выдерживать до 1/3 злонамеренных узлов без ущерба для консенсуса. На практике сеть Hedera управляется набором из 39 известных узлов, управляемых организациями (Совет Hedera), поэтому она является разрешенной, но географически распределенной. Преимуществом является чрезвычайно быстрый и безопасный консенсус: Hedera может достичь завершенности за секунды с гарантированной согласованностью. Механизм консенсуса Hashgraph запатентован, но был открыт в 2024 году и демонстрирует, как DAG + инновационный консенсус (сплетни и виртуальное голосование) могут заменить традиционный протокол блокчейна.
  • Lachesis Fantom – Безответственный PoS aBFT: Fantom — это платформа смарт-контрактов, которая использует консенсус на основе DAG под названием Lachesis. Lachesis — это протокол Proof-of-Stake aBFT, вдохновленный Hashgraph. В Fantom каждый узел-валидатор собирает полученные транзакции в блок событий и добавляет его в свой локальный DAG событий. Эти блоки событий содержат транзакции и ссылки на более ранние события. Валидаторы асинхронно передают эти блоки событий друг другу — нет единой последовательности, в которой блоки должны быть произведены или согласованы. По мере распространения блоков событий валидаторы периодически идентифицируют определенные события как вехи (или «корневые блоки событий») после того, как их увидит супербольшинство узлов. Затем Lachesis упорядочивает эти завершенные события и фиксирует их в окончательной Opera Chain (традиционная структура данных блокчейна), которая действует как реестр подтвержденных блоков. По сути, DAG блоков событий позволяет Fantom достигать консенсуса асинхронно и очень быстро, а затем конечным результатом является линейная цепочка для совместимости. Это обеспечивает примерно 1–2 секунды завершенности для транзакций в Fantom. В Lachesis нет майнеров или лидеров, предлагающих блоки; все валидаторы вносят блоки событий, и протокол детерминированно упорядочивает их. Консенсус обеспечивается моделью Proof-of-Stake (валидаторы должны стейкать токены FTM и взвешиваются по стейку). Lachesis также является aBFT, допуская до 1/3 неисправных узлов. Объединяя параллелизм DAG с выходом в виде конечной цепочки, Fantom достигает высокой пропускной способности (несколько тысяч TPS в тестах), оставаясь при этом EVM-совместимым для смарт-контрактов. Это хороший пример использования DAG внутренне для повышения производительности, не раскрывая сложность DAG на уровне приложения (разработчики в конечном итоге все равно видят обычную цепочку транзакций).
  • Открытое представительное голосование Nano (ORV): Nano — это платежная криптовалюта, которая использует уникальную структуру DAG, называемую block-lattice. В Nano у каждого аккаунта есть свой собственный блокчейн (цепочка аккаунта), который может обновлять только владелец аккаунта. Все эти отдельные цепочки образуют DAG, поскольку транзакции из разных аккаунтов связываются асинхронно (отправка в одной цепочке аккаунта ссылается на получение в другой и т. д.). Консенсус в Nano достигается с помощью механизма, называемого Открытое представительное голосование (ORV). Пользователи назначают узел-представитель для своего аккаунта (это делегирование веса, а не блокировка средств), и эти представители голосуют за действительность транзакций. Каждая транзакция рассчитывается индивидуально (нет блоков, объединяющих несколько транзакций) и считается подтвержденной, когда супербольшинство (например, >67%) голосующего веса (от представителей) соглашается с ней. Поскольку честные владельцы аккаунтов не будут дважды тратить свои средства, форки редки и обычно вызваны только злонамеренными попытками, которые представители могут быстро отклонить. Завершенность обычно достигается менее чем за секунду для каждой транзакции. ORV аналогичен Proof-of-Stake тем, что вес голоса основан на балансах аккаунтов (стейке), но нет вознаграждения за стейкинг или комиссии — представители являются добровольными узлами. Отсутствие майнинга и производства блоков означает, что Nano может работать без комиссий и эффективно. Однако он полагается на набор доверенных представителей, находящихся в сети для голосования, и существует неявная централизация, при которой узлы накапливают большой вес голоса (хотя пользователи могут переключать представителей в любое время, сохраняя контроль децентрализации в руках пользователей). Консенсус Nano является легковесным и оптимизирован для скорости и энергоэффективности, что соответствует его цели быть быстрыми, бесплатными цифровыми деньгами.
  • Другие примечательные подходы: Существует несколько других протоколов консенсуса на основе DAG. Hedera Hashgraph и Fantom Lachesis мы рассмотрели; помимо них:
    • Консенсус Avalanche (Avalanche/X-Chain): Avalanche использует консенсус на основе DAG, где валидаторы многократно опрашивают друг друга в рандомизированном процессе, чтобы решить, каким транзакциям или блокам отдать предпочтение. X-Chain Avalanche (цепочка обмена) — это DAG транзакций (UTXO) и достигает консенсуса с помощью этого метода сетевой выборки. Протокол Avalanche вероятностный, но чрезвычайно быстрый и масштабируемый — он может завершать транзакции примерно за 1 секунду и, как сообщается, обрабатывать до 4500 TPS на подсеть. Подход Avalanche уникален тем, что сочетает структуры данных DAG с метастабильным консенсусом (протокол Snowball) и обеспечивается Proof-of-Stake (любой может быть валидатором с достаточным стейком).
    • Conflux Tree-Graph: Conflux — это платформа, которая расширила PoW Bitcoin до DAG блоков. Она использует структуру Tree-Graph, где блоки ссылаются не только на одного родителя, но и на все известные предыдущие блоки (без сиротства). Это позволяет Conflux использовать майнинг Proof-of-Work, но сохранять все форки как часть реестра, что приводит к гораздо более высокой пропускной способности, чем у типичной цепочки. Таким образом, Conflux может достигать порядка 3–6 тысяч TPS в теории, используя PoW, за счет того, что майнеры производят блоки непрерывно, не дожидаясь одной цепочки. Затем его консенсус упорядочивает эти блоки и разрешает конфликты по правилу самого тяжелого поддерева. Это пример гибридного PoW DAG.
    • Варианты Hashgraph и академические протоколы: Существует множество академических протоколов DAG (некоторые реализованы в более новых проектах): SPECTRE и PHANTOM (протоколы blockDAG, нацеленные на высокую пропускную способность и быстрое подтверждение, от DAGlabs), Aleph Zero (консенсус DAG aBFT, используемый в блокчейне Aleph Zero), Parallel Chains / Prism (исследовательские проекты, разделяющие подтверждение транзакций на параллельные подцепочки и DAG), а также недавние достижения, такие как Narwhal & Bullshark Sui, которые используют мемпул DAG для высокой пропускной способности и отдельный консенсус для завершенности. Хотя не все из них имеют крупномасштабные развертывания, они указывают на богатую область исследований. Многие из этих протоколов различают доступность (быстрая запись большого количества данных в DAG) и согласованность (согласие по одной истории), пытаясь получить лучшее из обоих.

Каждая платформа DAG адаптирует свой консенсус к своим потребностям — будь то бесплатные микротранзакции, выполнение смарт-контрактов или интероперабельность. Однако общая тема — избегание единого последовательного узкого места: механизмы консенсуса DAG стремятся обеспечить множество одновременных действий, а затем используют умные алгоритмы (сплетни, голосование, выборка и т. д.) для упорядочивания, а не ограничивают сеть одним производителем блоков за раз.

Примеры использования: проекты блокчейнов на основе DAG

Несколько проектов реализовали реестры на основе DAG, каждый со своими уникальными дизайнерскими решениями и целевыми вариантами использования. Ниже мы рассмотрим некоторые известные платформы на основе DAG:

  • IOTA (The Tangle): IOTA — одна из первых криптовалют на основе DAG, разработанная для Интернета вещей. Ее реестр, называемый Tangle, представляет собой DAG транзакций, где каждая новая транзакция подтверждает две предыдущие. Цель IOTA — обеспечить бесплатные микротранзакции между устройствами IoT (оплата небольших сумм за данные или услуги). Она была запущена в 2016 году, и для обеспечения начальной безопасности использовала узел Координатора (управляемый Фондом IOTA) для предотвращения атак на раннюю сеть. IOTA работает над «Coordicide» для полной децентрализации сети путем введения консенсуса голосования (как описано ранее), где узлы голосуют по конфликтующим транзакциям, используя безответственный консенсус Накамото на самом тяжелом DAG. С точки зрения производительности, IOTA может, в теории, достигать очень высокой пропускной способности (протокол не устанавливает жесткого ограничения TPS; большая активность фактически помогает быстрее подтверждать транзакции). На практике тестовые сети продемонстрировали сотни TPS, и ожидается, что предстоящая IOTA 2.0 будет хорошо масштабироваться для потребностей IoT. Варианты использования IOTA вращаются вокруг IoT и целостности данных: например, потоковая передача данных датчиков с доказательствами целостности, платежи между транспортными средствами, отслеживание цепочек поставок и даже децентрализованная идентификация (фреймворк IOTA Identity позволяет выпускать и проверять цифровые учетные данные/DID в Tangle). IOTA изначально не поддерживает смарт-контракты на своем базовом уровне, но проект представил параллельный фреймворк смарт-контрактов и токены на вторичном уровне для обеспечения более сложной функциональности DApp. Заметной особенностью IOTA являются ее нулевые комиссии, что достигается за счет требования небольшого PoW от отправителя вместо взимания комиссии — это делает ее привлекательной для высокообъемных, низкостоимостных транзакций (например, датчик, отправляющий данные каждые несколько секунд за незначительную стоимость).
  • Hedera Hashgraph (HBAR): Hedera — это публичный распределенный реестр, использующий алгоритм консенсуса Hashgraph (изобретенный доктором Лимоном Бэрдом). Hedera была запущена в 2018 году и управляется советом крупных организаций (Google, IBM, Boeing и другие), которые управляют первоначальным набором узлов. В отличие от большинства других, Hedera разрешена в управлении (только утвержденные члены совета в настоящее время управляют узлами консенсуса, до 39 узлов), хотя любой может использовать сеть. Ее Hashgraph DAG обеспечивает очень высокую пропускную способность и быструю завершенность — Hedera может обрабатывать более 10 000 TPS с завершенностью за 3–5 секунд в оптимальных условиях. Это достигается с помощью описанного ранее консенсуса aBFT на основе сплетен. Hedera делает акцент на корпоративных и Web3 вариантах использования, требующих надежности в масштабе: ее сеть предлагает услуги по токенизации (Hedera Token Service), службу консенсуса для защищенного от подделки журналирования событий и службу смарт-контрактов (которая совместима с EVM). Заметные приложения на Hedera включают отслеживание происхождения цепочки поставок (например, отслеживание одежды Avery Dennison), высокообъемный минтинг NFT (низкие комиссии делают минтинг NFT недорогим), платежи и микроплатежи (например, микроплатежи в рекламных технологиях) и даже решения для децентрализованной идентификации. Hedera имеет метод DID, зарегистрированный в W3C, и фреймворки, такие как Hedera Guardian, для поддержки проверяемых учетных данных и соответствия нормативным требованиям (например, отслеживание углеродных кредитов). Ключевой особенностью является высокая производительность Hedera в сочетании с заявленной стабильностью (алгоритм Hashgraph гарантирует отсутствие форков и математически доказанную справедливость в упорядочивании). Компромисс заключается в том, что Hedera менее децентрализована по количеству узлов, чем открытые сети (по замыслу, с ее моделью управления), хотя узлы совета расположены по всему миру, и в планах со временем увеличить открытость. В целом, Hedera Hashgraph является ярким примером DLT на основе DAG, ориентированной на корпоративные приложения, с акцентом на высокую пропускную способность, безопасность и управление.
  • Fantom (FTM): Fantom — это платформа смарт-контрактов (блокчейн первого уровня), которая использует консенсус на основе DAG под названием Lachesis. Запущенная в 2019 году, Fantom приобрела популярность, особенно во время бума DeFi в 2021–2022 годах, как цепочка, совместимая с Ethereum, с гораздо более высокой производительностью. Сеть Opera Fantom работает на консенсусе Lachesis aBFT (подробно описанном выше), где валидаторы поддерживают локальный DAG блоков событий и достигают консенсуса асинхронно, а затем завершают транзакции в основной цепочке. Это дает Fantom типичное время до завершенности ~1 секунда для транзакций и способность обрабатывать тысячи транзакций в секунду. Fantom совместим с EVM, что означает, что разработчики могут развертывать Solidity смарт-контракты и использовать те же инструменты, что и Ethereum, что значительно способствовало его внедрению в DeFi. Действительно, Fantom стал домом для многочисленных проектов DeFi (DEX, протоколы кредитования, фарминг доходности), привлеченных его скоростью и низкими комиссиями. Он также размещает проекты NFT и игровые DApp — по сути, любое приложение Web3, которое выигрывает от быстрых и дешевых транзакций. Стоит отметить, что Fantom достиг высокого уровня децентрализации для платформы DAG: у него есть десятки независимых валидаторов, обеспечивающих безопасность сети (без разрешений, любой может запустить валидатор с минимальным стейком), в отличие от некоторых сетей DAG, которые ограничивают валидаторов. Это позиционирует Fantom как надежную альтернативу более традиционным блокчейнам для децентрализованных приложений, используя технологию DAG для устранения узких мест в производительности. Токен FTM сети используется для стейкинга, управления и комиссий (которые составляют всего несколько центов за транзакцию, намного ниже, чем комиссии за газ Ethereum). Fantom продемонстрировал, что консенсус на основе DAG может быть интегрирован с платформами смарт-контрактов для достижения как скорости, так и совместимости.
  • Nano (XNO): Nano — это легковесная криптовалюта, запущенная в 2015 году (первоначально как RaiBlocks), которая использует структуру DAG block-lattice. Основное внимание Nano уделяется одноранговым цифровым деньгам: мгновенные, бесплатные транзакции с минимальным использованием ресурсов. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Hedera против IOTA против Fantom против Nano (краткий обзор): В таблице ниже приведены некоторые ключевые характеристики этих проектов на основе DAG:
Проект (Год)Структура данных и консенсусПроизводительность (Пропускная способность и завершенность)Заметные особенности / Варианты использования

Направленный ациклический граф (DAG) в блокчейне

Что такое DAG и чем он отличается от блокчейна?

Направленный ациклический граф (DAG) — это тип структуры данных, состоящий из вершин (узлов), соединенных направленными ребрами, которые никогда не образуют цикл. В контексте распределенных реестров, реестр на основе DAG организует транзакции или события в виде паутинообразного графа, а не единой последовательной цепочки. Это означает, что в отличие от традиционного блокчейна, где каждый новый блок ссылается только на одного предшественника (образуя линейную цепочку), узел в DAG может ссылаться на несколько предыдущих транзакций или блоков. В результате многие транзакции могут быть подтверждены параллельно, а не строго одна за другой в хронологических блоках.

Чтобы проиллюстрировать разницу, если блокчейн выглядит как длинная цепочка блоков (каждый блок содержит множество транзакций), то реестр на основе DAG больше похож на дерево или сеть отдельных транзакций. Каждая новая транзакция в DAG может присоединяться к (и тем самым подтверждать) одну или несколько более ранних транзакций, вместо того чтобы ждать упаковки в следующий единственный блок. Это структурное различие приводит к нескольким ключевым отличиям:

  • Параллельная валидация: В блокчейнах майнеры/валидаторы добавляют по одному блоку в цепочку за раз, поэтому транзакции подтверждаются партиями для каждого нового блока. В DAG несколько транзакций (или небольших «блоков» транзакций) могут быть добавлены одновременно, поскольку каждая из них может присоединяться к разным частям графа. Эта параллелизация означает, что сетям DAG не нужно ждать, пока одна длинная цепочка будет расти по одному блоку за раз.
  • Отсутствие глобального последовательного порядка: Блокчейн по своей сути создает полный порядок транзакций (каждый блок имеет определенное место в одной последовательности). Реестр DAG, напротив, формирует частичный порядок транзакций. Нет единого «последнего блока», в очередь к которому выстраиваются все транзакции; вместо этого множество «вершин» графа могут сосуществовать и расширяться одновременно. Затем требуются протоколы консенсуса, чтобы в конечном итоге упорядочить или согласовать порядок или действительность транзакций в DAG.
  • Подтверждение транзакций: В блокчейне транзакции подтверждаются, когда они включаются в добытый/валидированный блок, и этот блок становится частью принятой цепочки (часто после добавления новых блоков поверх него). В системах DAG новая транзакция сама по себе помогает подтверждать предыдущие транзакции, ссылаясь на них. Например, в Tangle IOTA (DAG) каждая транзакция должна подтвердить две предыдущие транзакции, фактически заставляя пользователей совместно проверять транзакции друг друга. Это устраняет строгое разделение между «создателями транзакций» и «валидаторами», которое существует в майнинге блокчейна — каждый участник, выпускающий транзакцию, также выполняет небольшую работу по валидации.

Важно отметить, что блокчейн на самом деле является частным случаем DAG — DAG, который был ограничен одной цепочкой блоков. Оба являются формами технологии распределенного реестра (DLT) и разделяют такие цели, как неизменяемость и децентрализация. Однако реестры на основе DAG имеют «бесблочную» или мульти-родительскую структуру, что придает им различные свойства на практике. Традиционные блокчейны, такие как Bitcoin и Ethereum, используют последовательные блоки и часто отбрасывают любые конкурирующие блоки (форки), тогда как реестры DAG пытаются включать и упорядочивать все транзакции, не отбрасывая ни одной, если они не конфликтуют. Это фундаментальное различие закладывает основу для различий в производительности и дизайне, подробно описанных ниже.

Техническое сравнение: архитектура DAG против блокчейна

Чтобы лучше понять DAG и блокчейны, мы можем сравнить их архитектуры и процессы валидации:

  • Структура данных: Блокчейны хранят данные в блоках, связанных в линейной последовательности (каждый блок содержит множество транзакций и указывает на один предыдущий блок, образуя одну длинную цепочку). Реестры DAG используют графовую структуру: каждый узел в графе представляет транзакцию или блок событий и может ссылаться на несколько предыдущих узлов. Этот направленный граф не имеет циклов, что означает, что если вы будете следовать по ссылкам «назад», вы никогда не сможете вернуться к транзакции, с которой начали. Отсутствие циклов позволяет выполнять топологическую сортировку транзакций (способ их упорядочивания таким образом, чтобы каждая ссылка следовала за ссылаемой транзакцией). Короче говоря, блокчейны = одномерная цепочка, DAG = многомерный граф.
  • Пропускная способность и параллелизм: Из-за структурных различий блокчейны и DAG обрабатывают пропускную способность по-разному. Блокчейн, даже в оптимальных условиях, добавляет блоки один за другим (часто ожидая, пока каждый блок будет проверен и распространен по всей сети, прежде чем будет добавлен следующий). Это по своей сути ограничивает пропускную способность транзакций — например, Bitcoin в среднем обрабатывает 5–7 транзакций в секунду (TPS), а Ethereum ~15–30 TPS при классическом дизайне Proof-of-Work. Системы на основе DAG, напротив, позволяют многим новым транзакциям/блокам одновременно входить в реестр. Множественные ветви транзакций могут расти одновременно и позже объединяться, что значительно увеличивает потенциальную пропускную способность. Некоторые современные сети DAG заявляют о пропускной способности в тысячи TPS, приближаясь или превосходя традиционные платежные сети по пропускной способности.
  • Процесс валидации транзакций: В блокчейн-сетях транзакции ожидают в мемпуле и валидируются, когда майнер или валидатор упаковывает их в новый блок, затем другие узлы проверяют этот блок на соответствие истории. В сетях DAG валидация часто более непрерывна и децентрализована: каждая новая транзакция выполняет действие валидации, ссылаясь на (одобряя) более ранние транзакции. Например, каждая транзакция в Tangle IOTA должна подтвердить две предыдущие транзакции, проверив их действительность и выполнив небольшое доказательство работы, тем самым «голосуя» за эти транзакции. В DAG-структуре block-lattice Nano транзакции каждого аккаунта образуют свою собственную цепочку и валидируются посредством голосования узлами-представителями (подробнее об этом позже). Конечный эффект заключается в том, что DAG распределяет работу по валидации: вместо того, чтобы один производитель блоков валидировал пакет транзакций, каждый участник или множество валидаторов одновременно валидируют разные транзакции.
  • Механизм консенсуса: И блокчейнам, и DAG нужен способ для сети договориться о состоянии реестра (какие транзакции подтверждены и в каком порядке). В блокчейнах консенсус часто достигается за счет Proof of Work или Proof of Stake, производящих следующий блок, и правила «самая длинная (или самая тяжелая) цепочка выигрывает». В реестрах DAG консенсус может быть более сложным, поскольку нет единой цепочки. Различные проекты DAG используют разные подходы: некоторые используют протоколы сплетен и виртуальное голосование (как в Hedera Hashgraph) для достижения согласия по порядку транзакций, другие используют выбор вершин по методу Монте-Карло с цепями Маркова (ранний подход IOTA) или другие схемы голосования для определения предпочтительных ветвей графа. Мы обсудим конкретные методы консенсуса в системах DAG в последующем разделе. В целом, достижение общесетевого согласия в DAG может быть быстрее с точки зрения пропускной способности, но требует тщательного проектирования для обработки конфликтов (таких как попытки двойной траты), поскольку несколько транзакций могут существовать параллельно до окончательного упорядочивания.
  • Обработка форков: В блокчейне «форк» (два блока, добытые почти одновременно) приводит к тому, что одна ветвь в конечном итоге выигрывает (самая длинная цепочка), а другая становится сиротской (отбрасывается), что приводит к потере всей работы, выполненной над сиротским блоком. В DAG философия заключается в том, чтобы принимать форки как дополнительные ветви графа, а не отбрасывать их. DAG будет включать оба форка; затем алгоритм консенсуса определяет, какие транзакции в конечном итоге подтверждаются (или как разрешаются конфликтующие транзакции), не отбрасывая всю одну ветвь. Это означает, что мощность майнинга или усилия не тратятся впустую на устаревшие блоки, что способствует повышению эффективности. Например, Tree-Graph Conflux (DAG на PoW) пытается включить все блоки в реестр и упорядочивает их, а не делает их сиротскими, тем самым используя 100% произведенных блоков.

Таким образом, блокчейны предлагают более простую, строго упорядоченную структуру, где валидация происходит блок за блоком, тогда как DAG предоставляют более сложную графовую структуру, позволяющую асинхронную и параллельную обработку транзакций. Реестры на основе DAG должны использовать дополнительную логику консенсуса для управления этой сложностью, но они обещают значительно более высокую пропускную способность и эффективность за счет использования полной пропускной способности сети, а не принудительного создания очереди блоков.

Преимущества блокчейн-систем на основе DAG

Архитектуры DAG были введены в первую очередь для преодоления ограничений традиционных блокчейнов в масштабируемости, скорости и стоимости. Вот основные преимущества распределенных реестров на основе DAG:

  • Высокая масштабируемость и пропускная способность: Сети DAG могут достигать высокой пропускной способности транзакций, поскольку они обрабатывают множество транзакций параллельно. Поскольку нет узкого места в виде одной цепочки, TPS (транзакций в секунду) может масштабироваться в зависимости от сетевой активности. Фактически, некоторые протоколы DAG продемонстрировали пропускную способность порядка тысяч TPS. Например, Hedera Hashgraph способна обрабатывать более 10 000 транзакций в секунду на базовом уровне, значительно превосходя Bitcoin или Ethereum. На практике Hedera продемонстрировала завершение транзакций примерно за 3–5 секунд, по сравнению с минутами или более длительным временем подтверждения в блокчейнах PoW. Даже платформы смарт-контрактов на основе DAG, такие как Fantom, достигли почти мгновенной завершенности (~1–2 секунды) для транзакций при нормальных нагрузках. Эта масштабируемость делает DAG привлекательными для приложений, требующих большого объема, таких как микротранзакции IoT или потоки данных в реальном времени.
  • Низкие комиссии за транзакции (бесплатные или минимальные): Многие реестры на основе DAG могут похвастаться незначительными комиссиями или даже бесплатными транзакциями. По своей конструкции они часто не полагаются на майнеров, ожидающих вознаграждения за блоки или комиссии; например, в IOTA и Nano нет обязательных комиссий за транзакции — это важнейшее свойство для микроплатежей в IoT и повседневном использовании. Там, где комиссии существуют (например, Hedera или Fantom), они, как правило, очень низкие и предсказуемые, поскольку сеть может обрабатывать нагрузку без ценовых войн за ограниченное пространство блоков. Транзакции Hedera стоят около $0.0001 (одна десятитысячная доллара) в виде комиссий, что составляет крошечную долю от типичных комиссий блокчейна. Такие низкие затраты открывают двери для таких вариантов использования, как высокочастотные транзакции или крошечные платежи, которые были бы невозможны в цепочках с высокими комиссиями. Кроме того, поскольку DAG включают все действительные транзакции, а не отбрасывают некоторые в случае форков, меньше «потерянной» работы — что косвенно помогает снизить затраты за счет эффективного использования ресурсов.
  • Быстрое подтверждение и низкая задержка: В реестрах DAG транзакциям не нужно ждать включения в глобальный блок, поэтому подтверждение может быть быстрее. Многие системы DAG достигают быстрой завершенности — момента, когда транзакция считается окончательно подтвержденной. Например, консенсус Hedera Hashgraph обычно завершает транзакции в течение нескольких секунд со 100% уверенностью (завершенность aBFT). Сеть Nano часто видит транзакции, подтвержденные менее чем за 1 секунду благодаря легковесному процессу голосования. Эта низкая задержка улучшает пользовательский опыт, делая транзакции почти мгновенными, что важно для реальных платежей и интерактивных приложений.
  • Энергоэффективность: Сети на основе DAG часто не требуют интенсивного майнинга с использованием доказательства работы, который используют многие блокчейны, что делает их гораздо более энергоэффективными. Даже по сравнению с блокчейнами на основе доказательства доли владения, некоторые сети DAG потребляют минимальное количество энергии на транзакцию. Например, одна транзакция Hedera Hashgraph потребляет порядка 0.0001 кВт·ч (киловатт-час) энергии. Это на несколько порядков меньше, чем Bitcoin (который может потреблять сотни кВт·ч на транзакцию) или даже многие цепочки PoS. Эффективность достигается за счет устранения расточительных вычислений (отсутствие гонки майнинга) и отказа от отбрасывания любых попыток транзакций. Если бы блокчейн-сети повсеместно перешли на модели на основе DAG, экономия энергии могла бы быть колоссальной. Углеродный след сетей DAG, таких как Hedera, настолько низок, что ее общая сеть является углеродно-отрицательной при учете компенсаций. Такая энергоэффективность становится все более важной для устойчивой инфраструктуры Web3.
  • Отсутствие майнинга и демократизированная валидация: Во многих моделях DAG нет отдельной роли майнера/валидатора, которую не могли бы выполнять обычные пользователи. Например, каждый пользователь IOTA, выпускающий транзакцию, также помогает валидировать две другие, по сути децентрализуя работу по валидации до периферии сети. Это может снизить потребность в мощном майнинговом оборудовании или стейкинге больших объемов капитала для участия в консенсусе, потенциально делая сеть более доступной. (Однако некоторые сети DAG по-прежнему используют валидаторов или координаторов — см. обсуждение консенсуса и децентрализации позже.)
  • Плавная обработка высокого трафика: Блокчейны часто страдают от переполнения мемпула и скачков комиссий при высокой нагрузке (поскольку только один блок за раз может обрабатывать транзакции). Сети DAG, благодаря своей параллельной природе, обычно более изящно справляются со скачками трафика. По мере того, как все больше транзакций наводняют сеть, они просто создают больше параллельных ветвей в DAG, которые система может обрабатывать одновременно. Жесткого ограничения пропускной способности меньше (масштабируемость более «горизонтальная»). Это приводит к лучшей масштабируемости под нагрузкой, с меньшими задержками и лишь умеренным увеличением времени подтверждения или комиссий, вплоть до пропускной способности сети узлов и вычислительной мощности. По сути, DAG может поглощать всплески транзакций без быстрого перегрузки, что делает его подходящим для вариантов использования, связанных со всплесками активности (например, все устройства IoT отправляют данные одновременно или вирусное событие DApp).

Таким образом, реестры на основе DAG обещают более быстрые, дешевые и масштабируемые транзакции, чем классический подход блокчейна. Они нацелены на поддержку сценариев массового внедрения (микроплатежи, IoT, высокочастотная торговля и т. д.), с которыми текущие основные блокчейны сталкиваются из-за ограничений пропускной способности и стоимости. Однако эти преимущества сопряжены с определенными компромиссами и проблемами реализации, которые мы рассмотрим в последующих разделах.

Механизмы консенсуса в платформах на основе DAG

Поскольку реестры DAG естественным образом не производят единую цепочку блоков, им требуются инновационные механизмы консенсуса для проверки транзакций и обеспечения согласия всех участников относительно состояния реестра. Различные проекты разработали различные решения, адаптированные к их архитектуре DAG. Здесь мы описываем некоторые примечательные подходы к консенсусу, используемые платформами на основе DAG:

  • Tangle IOTA – Выбор вершин и взвешенное голосование: Tangle IOTA — это DAG транзакций, разработанный для Интернета вещей (IoT). В оригинальной модели IOTA нет майнеров; вместо этого каждая новая транзакция должна выполнить небольшое доказательство работы и одобрить две предыдущие транзакции (это «вершины» графа). Этот выбор вершин часто осуществляется с помощью алгоритма Монте-Карло с цепями Маркова (MCMC), который вероятностно выбирает, какие вершины одобрить, отдавая предпочтение самому тяжелому подграфу для предотвращения фрагментации. Консенсус в ранней IOTA частично достигался за счет этого кумулятивного веса одобрений — чем больше будущих транзакций косвенно одобряют вашу, тем более «подтвержденной» она становится. Однако для обеспечения безопасности сети на ранних этапах IOTA полагалась на временный централизованный узел Координатора, который выпускал периодические транзакции-вехи для завершения Tangle. Это было серьезной критикой (централизация) и сейчас устраняется в обновлении, известном как «Coordicide» (IOTA 2.0). В IOTA 2.0 новая модель консенсуса применяет безответственный консенсус в стиле Накамото на DAG. По сути, узлы выполняют голосование в Tangle: когда узел присоединяет новый блок, этот блок неявно голосует за действительность транзакций, на которые он ссылается. Комитет узлов-валидаторов (выбранных с помощью механизма стейкинга) выпускает блоки валидации в качестве голосов, и транзакция подтверждается, когда она накапливает достаточное количество взвешенных одобрений (концепция, называемая весом одобрения). Этот подход сочетает идею самого тяжелого DAG (подобно самой длинной цепочке) с явным голосованием для достижения консенсуса без координатора. Короче говоря, консенсус IOTA эволюционировал от выбора вершин + Координатор к полностью децентрализованному голосованию по ветвям DAG узлами, стремясь к безопасности и быстрому согласию о состоянии реестра.
  • Hedera Hashgraph – Сплетни и виртуальное голосование (aBFT): Hedera Hashgraph использует DAG событий в сочетании с асинхронным византийским отказоустойчивым (aBFT) алгоритмом консенсуса. Основная идея — «сплетни о сплетнях»: каждый узел быстро распространяет подписанную информацию о транзакциях и о своей истории сплетен другим узлам. Это создает Hashgraph (DAG событий), где каждый узел в конечном итоге знает, что распространил каждый другой узел, включая структуру того, кто что слышал и когда. Используя этот DAG событий, Hedera реализует виртуальное голосование. Вместо того чтобы отправлять фактические сообщения о голосовании для упорядочивания транзакций, узлы моделируют алгоритм голосования локально, анализируя граф связей сплетен. Алгоритм Hashgraph Лимона Бэрда может детерминированно рассчитать, как пройдет теоретический раунд голосования по порядку транзакций, просматривая историю «сети сплетен», записанную в DAG. Это дает метку времени консенсуса и полный порядок транзакций, который является справедливым и окончательным (транзакции упорядочиваются по медианному времени их получения сетью). Консенсус Hashgraph является безответственным и достигает aBFT, что означает, что он может выдерживать до 1/3 злонамеренных узлов без ущерба для консенсуса. На практике сеть Hedera управляется набором из 39 известных узлов, управляемых организациями (Совет Hedera), поэтому она является разрешенной, но географически распределенной. Преимуществом является чрезвычайно быстрый и безопасный консенсус: Hedera может достичь завершенности за секунды с гарантированной согласованностью. Механизм консенсуса Hashgraph запатентован, но был открыт в 2024 году и демонстрирует, как DAG + инновационный консенсус (сплетни и виртуальное голосование) могут заменить традиционный протокол блокчейна.
  • Lachesis Fantom – Безответственный PoS aBFT: Fantom — это платформа смарт-контрактов, которая использует консенсус на основе DAG под названием Lachesis. Lachesis — это протокол Proof-of-Stake aBFT, вдохновленный Hashgraph. В Fantom каждый узел-валидатор собирает полученные транзакции в блок событий и добавляет его в свой локальный DAG событий. Эти блоки событий содержат транзакции и ссылки на более ранние события. Валидаторы асинхронно передают эти блоки событий друг другу — нет единой последовательности, в которой блоки должны быть произведены или согласованы. По мере распространения блоков событий валидаторы периодически идентифицируют определенные события как вехи (или «корневые блоки событий») после того, как их увидит супербольшинство узлов. Затем Lachesis упорядочивает эти завершенные события и фиксирует их в окончательной Opera Chain (традиционная структура данных блокчейна), которая действует как реестр подтвержденных блоков. По сути, DAG блоков событий позволяет Fantom достигать консенсуса асинхронно и очень быстро, а затем конечным результатом является линейная цепочка для совместимости. Это обеспечивает примерно 1–2 секунды завершенности для транзакций в Fantom. В Lachesis нет майнеров или лидеров, предлагающих блоки; все валидаторы вносят блоки событий и протокол детерминированно упорядочивает их. Консенсус обеспечивается моделью Proof-of-Stake (валидаторы должны стейкать токены FTM и взвешиваются по стейку). Lachesis также является aBFT, допуская до 1/3 неисправных узлов. Объединяя параллелизм DAG с выходом в виде конечной цепочки, Fantom достигает высокой пропускной способности (несколько тысяч TPS в тестах), оставаясь при этом EVM-совместимым для смарт-контрактов. Это хороший пример использования DAG внутренне для повышения производительности, не раскрывая сложность DAG на уровне приложения (разработчики в конечном итоге все равно видят обычную цепочку транзакций).
  • Открытое представительное голосование Nano (ORV): Nano — это платежная криптовалюта, которая использует уникальную структуру DAG, называемую block-lattice. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Другие примечательные подходы: Существует несколько других протоколов консенсуса на основе DAG. Hedera Hashgraph и Fantom Lachesis мы рассмотрели; помимо них:
    • Консенсус Avalanche (Avalanche/X-Chain): Avalanche использует консенсус на основе DAG, где валидаторы многократно опрашивают друг друга в рандомизированном процессе, чтобы решить, каким транзакциям или блокам отдать предпочтение. X-Chain Avalanche (цепочка обмена) — это DAG транзакций (UTXO) и достигает консенсуса с помощью этого метода сетевой выборки. Протокол Avalanche вероятностный, но чрезвычайно быстрый и масштабируемый — он может завершать транзакции примерно за 1 секунду и, как сообщается, обрабатывать до 4500 TPS на подсеть. Подход Avalanche уникален тем, что сочетает структуры данных DAG с метастабильным консенсусом (протокол Snowball) и обеспечивается Proof-of-Stake (любой может быть валидатором с достаточным стейком).
    • Conflux Tree-Graph: Conflux — это платформа, которая расширила PoW Bitcoin до DAG блоков. Она использует структуру Tree-Graph, где блоки ссылаются не только на одного родителя, но и на все известные предыдущие блоки (без сиротства). Это позволяет Conflux использовать майнинг Proof-of-Work, но сохранять все форки как часть реестра, что приводит к гораздо более высокой пропускной способности, чем у типичной цепочки. Таким образом, Conflux может достигать порядка 3–6 тысяч TPS в теории, используя PoW, за счет того, что майнеры производят блоки непрерывно, не дожидаясь одной цепочки. Затем его консенсус упорядочивает эти блоки и разрешает конфликты по правилу самого тяжелого поддерева. Это пример гибридного PoW DAG.
    • Варианты Hashgraph и академические протоколы: Существует множество академических протоколов DAG (некоторые реализованы в более новых проектах): SPECTRE и PHANTOM (протоколы blockDAG, нацеленные на высокую пропускную способность и быстрое подтверждение, от DAGlabs), Aleph Zero (консенсус DAG aBFT, используемый в блокчейне Aleph Zero), Parallel Chains / Prism (исследовательские проекты, разделяющие подтверждение транзакций на параллельные подцепочки и DAG), а также недавние достижения, такие как Narwhal & Bullshark Sui, которые используют мемпул DAG для высокой пропускной способности и отдельный консенсус для завершенности. Хотя не все из них имеют крупномасштабные развертывания, они указывают на богатую область исследований. Многие из этих протоколов различают доступность (быстрая запись большого количества данных в DAG) и согласованность (согласие по одной истории), пытаясь получить лучшее из обоих.

Каждая платформа DAG адаптирует свой консенсус к своим потребностям — будь то бесплатные микротранзакции, выполнение смарт-контрактов или интероперабельность. Однако общая тема — избегание единого последовательного узкого места: механизмы консенсуса DAG стремятся обеспечить множество одновременных действий, а затем используют умные алгоритмы (сплетни, голосование, выборка и т. д.) для упорядочивания, а не ограничивают сеть одним производителем блоков за раз.

Примеры использования: проекты блокчейнов на основе DAG

Несколько проектов реализовали реестры на основе DAG, каждый со своими уникальными дизайнерскими решениями и целевыми вариантами использования. Ниже мы рассмотрим некоторые известные платформы на основе DAG:

  • IOTA (The Tangle): IOTA — одна из первых криптовалют на основе DAG, разработанная для Интернета вещей. Ее реестр, называемый Tangle, представляет собой DAG транзакций, где каждая новая транзакция подтверждает две предыдущие. Цель IOTA — обеспечить бесплатные микротранзакции между устройствами IoT (оплата небольших сумм за данные или услуги). Она была запущена в 2016 году, и для обеспечения начальной безопасности использовала узел Координатора (управляемый Фондом IOTA) для предотвращения атак на раннюю сеть. IOTA работает над «Coordicide» для полной децентрализации сети путем введения консенсуса голосования (как описано ранее), где узлы голосуют по конфликтующим транзакциям, используя безответственный консенсус Накамото на самом тяжелом DAG. С точки зрения производительности, IOTA может, в теории, достигать очень высокой пропускной способности (протокол не устанавливает жесткого ограничения TPS; большая активность фактически помогает быстрее подтверждать транзакции). На практике тестовые сети продемонстрировали сотни TPS, и ожидается, что предстоящая IOTA 2.0 будет хорошо масштабироваться для потребностей IoT. Варианты использования IOTA вращаются вокруг IoT и целостности данных: например, потоковая передача данных датчиков с доказательствами целостности, платежи между транспортными средствами, отслеживание цепочек поставок и даже децентрализованная идентификация (фреймворк IOTA Identity позволяет выпускать и проверять цифровые учетные данные/DID в Tangle). IOTA изначально не поддерживает смарт-контракты на своем базовом уровне, но проект представил параллельный фреймворк смарт-контрактов и токены на вторичном уровне для обеспечения более сложной функциональности DApp. Заметной особенностью IOTA являются ее нулевые комиссии, что достигается за счет требования небольшого PoW от отправителя вместо взимания комиссии — это делает ее привлекательной для высокообъемных, низкостоимостных транзакций (например, датчик, отправляющий данные каждые несколько секунд за незначительную стоимость).
  • Hedera Hashgraph (HBAR): Hedera — это публичный распределенный реестр, использующий алгоритм консенсуса Hashgraph (изобретенный доктором Лимоном Бэрдом). Hedera была запущена в 2018 году и управляется советом крупных организаций (Google, IBM, Boeing и другие), которые управляют первоначальным набором узлов. В отличие от большинства других, Hedera разрешена в управлении (только утвержденные члены совета в настоящее время управляют узлами консенсуса, до 39 узлов), хотя любой может использовать сеть. Ее Hashgraph DAG обеспечивает очень высокую пропускную способность и быструю завершенность — Hedera может обрабатывать более 10 000 TPS с завершенностью за 3–5 секунд в оптимальных условиях. Это достигается с помощью описанного ранее консенсуса aBFT на основе сплетен. Hedera делает акцент на корпоративных и Web3 вариантах использования, требующих надежности в масштабе: ее сеть предлагает услуги по токенизации (Hedera Token Service), службу консенсуса для защищенного от подделки журналирования событий и службу смарт-контрактов (которая совместима с EVM). Заметные приложения на Hedera включают отслеживание происхождения цепочки поставок (например, отслеживание одежды Avery Dennison), высокообъемный минтинг NFT (низкие комиссии делают минтинг NFT недорогим), платежи и микроплатежи (например, микроплатежи в рекламных технологиях) и даже решения для децентрализованной идентификации. Hedera имеет метод DID, зарегистрированный в W3C, и фреймворки, такие как Hedera Guardian, для поддержки проверяемых учетных данных и соответствия нормативным требованиям (например, отслеживание углеродных кредитов). Ключевой особенностью является высокая производительность Hedera в сочетании с заявленной стабильностью (алгоритм Hashgraph гарантирует отсутствие форков и математически доказанную справедливость в упорядочивании). Компромисс заключается в том, что Hedera менее децентрализована по количеству узлов, чем открытые сети (по замыслу, с ее моделью управления), хотя узлы совета расположены по всему миру, и в планах со временем увеличить открытость. В целом, Hedera Hashgraph является ярким примером DLT на основе DAG, ориентированной на корпоративные приложения, с акцентом на высокую пропускную способность, безопасность и управление.
  • Fantom (FTM): Fantom — это платформа смарт-контрактов (блокчейн первого уровня), которая использует консенсус на основе DAG под названием Lachesis. Запущенная в 2019 году, Fantom приобрела популярность, особенно во время бума DeFi в 2021–2022 годах, как цепочка, совместимая с Ethereum, с гораздо более высокой производительностью. Сеть Opera Fantom работает на консенсусе Lachesis aBFT (подробно описанном выше), где валидаторы поддерживают локальный DAG блоков событий и достигают консенсуса асинхронно, а затем завершают транзакции в основной цепочке. Это дает Fantom типичное время до завершенности ~1 секунда для транзакций и способность обрабатывать тысячи транзакций в секунду. Fantom совместим с EVM, что означает, что разработчики могут развертывать Solidity смарт-контракты и использовать те же инструменты, что и Ethereum, что значительно способствовало его внедрению в DeFi. Действительно, Fantom стал домом для многочисленных проектов DeFi (DEX, протоколы кредитования, фарминг доходности), привлеченных его скоростью и низкими комиссиями. Он также размещает проекты NFT и игровые DApp — по сути, любое приложение Web3, которое выигрывает от быстрых и дешевых транзакций. Стоит отметить, что Fantom достиг высокого уровня децентрализации для платформы DAG: у него есть десятки независимых валидаторов, обеспечивающих безопасность сети (без разрешений, любой может запустить валидатор с минимальным стейком), в отличие от некоторых сетей DAG, которые ограничивают валидаторов. Это позиционирует Fantom как надежную альтернативу более традиционным блокчейнам для децентрализованных приложений, используя технологию DAG для устранения узких мест в производительности. Токен FTM сети используется для стейкинга, управления и комиссий (которые составляют всего несколько центов за транзакцию, намного ниже, чем комиссии за газ Ethereum). Fantom продемонстрировал, что консенсус на основе DAG может быть интегрирован с платформами смарт-контрактов для достижения как скорости, так и совместимости.
  • Nano (XNO): Nano — это легковесная криптовалюта, запущенная в 2015 году (первоначально как RaiBlocks), которая использует структуру DAG block-lattice. Основное внимание Nano уделяется одноранговым цифровым деньгам: мгновенные, бесплатные транзакции с минимальным использованием ресурсов. В Nano у каждого аккаунта есть своя цепочка транзакций, а переводы между аккаунтами обрабатываются с помощью блока отправки в цепочке отправителя и блока получения в цепочке получателя. Эта асинхронная конструкция означает, что сеть может обрабатывать транзакции независимо и параллельно. Консенсус достигается Открытым представительным голосованием (ORV), где сообщество назначает узлы-представители путем делегирования веса баланса. Представители голосуют по конфликтующим транзакциям (которые редки, обычно только при попытках двойной траты), и как только кворум (67% веса) соглашается, транзакция закрепляется (необратимо подтверждается). Типичное время подтверждения Nano значительно меньше секунды, что делает его мгновенным в повседневном использовании. Поскольку нет вознаграждений за майнинг или комиссий, запуск узла Nano или представителя является добровольным усилием, но дизайн сети минимизирует нагрузку (каждая транзакция составляет всего 200 байт и может быть обработана быстро). Подход DAG и консенсус Nano позволяют ему быть чрезвычайно энергоэффективным — отправители выполняют небольшое PoW (в основном в качестве меры по борьбе со спамом), но это ничтожно по сравнению с блокчейнами PoW. Варианты использования Nano просты по замыслу: он предназначен для денежных переводов, от повседневных покупок до денежных переводов, где скорость и нулевые комиссии являются основными преимуществами. Nano не поддерживает смарт-контракты или сложные скрипты; он сосредоточен на очень хорошем выполнении одной задачи. Проблема модели Nano заключается в том, что она полагается на честное большинство представителей; поскольку нет денежных стимулов, модель безопасности основана на предположении, что крупные держатели токенов будут действовать в интересах сети. До сих пор Nano поддерживала достаточно децентрализованный набор основных представителей и видела использование в торговых платежах, чаевых и других сценариях микроплатежей в Интернете.
  • Hedera против IOTA против Fantom против Nano (краткий обзор): В таблице ниже приведены некоторые ключевые характеристики этих проектов на основе DAG:
Проект (Год)Структура данных и консенсусПроизводительность (Пропускная способность и завершенность)Заметные особенности / Варианты использования

Как Data Availability Sampling от Celestia достигает 1 терабита в секунду: технический глубокий анализ

· 14 мин чтения
Dora Noda
Software Engineer

13 января 2026 года Celestia превзошла все ожидания, достигнув невероятного показателя: 1 терабит в секунду пропускной способности данных в сети из 498 распределенных узлов. Для сравнения: этой пропускной способности достаточно, чтобы обработать весь ежедневный объем транзакций крупнейших роллапов второго уровня (Layer 2) Ethereum менее чем за секунду.

Но главное здесь — не сама цифра. Важна криптографическая инфраструктура, которая делает это возможным: выборка доступности данных (Data Availability Sampling, DAS) — прорывная технология, позволяющая легким узлам с ограниченными ресурсами проверять доступность данных блокчейна без загрузки целых блоков. В то время как роллапы стремятся масштабироваться за пределы нативного хранилища блобов Ethereum, понимание того, как Celestia достигает такой пропускной способности и почему это важно для экономики роллапов, становится критически необходимым.

Узкое место доступности данных: почему роллапам нужно лучшее решение

Масштабируемость блокчейна долгое время была ограничена фундаментальным компромиссом: как проверить, что данные транзакций действительно доступны, не заставляя каждый узел скачивать и хранить абсолютно все? Это проблема доступности данных, и она является основным препятствием для масштабирования роллапов.

Подход Ethereum, требующий от каждого полноценного узла загрузки полных блоков, создает барьер доступности. По мере роста размера блоков все меньше участников могут позволить себе пропускную способность и хранилище для запуска полных узлов, что угрожает децентрализации. Роллапы, размещающие данные в L1 Ethereum, сталкиваются с непомерными расходами: на пике спроса отправка одной партии данных может стоить тысячи долларов в виде комиссий за газ.

Здесь на сцену выходят модульные уровни доступности данных. Отделяя доступность данных от исполнения и консенсуса, такие протоколы, как Celestia, EigenDA и Avail, обещают радикально снизить затраты роллапов при сохранении гарантий безопасности. Инновация Celestia? Техника выборки, которая инвертирует модель проверки: вместо того чтобы скачивать все для подтверждения доступности, легкие узлы случайным образом выбирают крошечные фрагменты и получают статистическую уверенность в том, что полный набор данных существует.

Как работает выборка доступности данных: проверка без загрузки

По своей сути DAS — это механизм вероятностной проверки. Вот как это работает:

Случайная выборка и рост уверенности

Легкие узлы не загружают блоки целиком. Вместо этого они проводят несколько раундов случайной выборки небольших порций данных блока. Каждая успешная выборка повышает уверенность в том, что весь блок доступен.

Математика здесь элегантна: если злонамеренный валидатор скроет даже небольшой процент данных блока, честные легкие узлы обнаружат недоступность с высокой вероятностью всего после нескольких раундов выборки. Это создает модель безопасности, в которой даже устройства с ограниченными ресурсами могут участвовать в проверке доступности данных.

В частности, каждый легкий узел случайным образом выбирает набор уникальных координат в расширенной матрице данных и запрашивает у мостовых узлов соответствующие доли данных вместе с доказательствами Меркла (Merkle proofs). Если легкий узел получает корректные ответы на каждый запрос, статистическая вероятность гарантирует, что данные всего блока доступны.

2D-кодирование Рида-Соломона: математическая основа

Celestia использует двумерную схему кодирования Рида-Соломона, чтобы сделать выборку эффективной и устойчивой к мошенничеству. Технический процесс выглядит так:

  1. Данные блока разделяются на фрагменты k × k, образуя квадрат данных.
  2. Избыточное кодирование Рида-Соломона расширяет его до матрицы 2k × 2k (добавляя избыточность).
  3. Вычисляются корни Меркла для каждой строки и каждого столбца расширенной матрицы.
  4. Корень Меркла этих корней становится обязательством по данным блока (data commitment) в заголовке блока.

Этот подход обладает критически важным свойством: если какая-либо часть расширенной матрицы отсутствует, кодирование нарушается, и легкие узлы обнаружат несоответствия при проверке доказательств Меркла. Атакующий не может скрыть данные выборочно, не будучи пойманным.

Деревья Меркла с пространствами имен: изоляция данных для конкретных роллапов

Именно здесь архитектура Celestia проявляет себя наилучшим образом для сред с множеством роллапов: деревья Меркла с пространствами имен (Namespaced Merkle Trees, NMT).

Стандартное дерево Меркла группирует данные произвольно. NMT, напротив, помечает каждый узел идентификаторами минимального и максимального пространства имен его дочерних элементов и упорядочивает листья по пространствам имен. Это позволяет роллапам:

  • Загружать только свои собственные данные с уровня DA.
  • Доказывать полноту данных своего пространства имен с помощью доказательства Меркла.
  • Полностью игнорировать нерелевантные данные других роллапов.

Для оператора роллапа это означает, что вы не платите за пропускную способность для загрузки данных из конкурирующих сетей. Вы получаете именно то, что вам нужно, проверяете это с помощью криптографических доказательств и продолжаете работу. Это огромный выигрыш в эффективности по сравнению с монолитными цепочками, где все участники должны обрабатывать все данные.

Обновление Matcha: масштабирование до блоков размером 128 МБ

В 2025 году в Celestia было активировано обновление Matcha, ставшее переломным моментом для модульной доступности данных. Вот что изменилось:

Увеличение размера блока

Matcha увеличивает максимальный размер блока с 8 МБ до 128 МБ — это 16-кратный рост пропускной способности. Это означает:

  • Размер квадрата данных (data square size): 128 → 512
  • Максимальный размер транзакции: 2 МБ → 8 МБ
  • Устойчивая пропускная способность: 21,33 МБ/с в тестнете (апрель 2025 г.)

Для сравнения: целевое количество блобов (blobs) в Ethereum составляет 6 на блок (примерно 0,75 МБ) с возможностью расширения до 9 блобов. Блоки Celestia размером 128 МБ превосходят эту мощность более чем в 100 раз.

Высокопроизводительное распространение блоков

Ограничением был не только размер блока — им была скорость распространения блоков (block propagation speed). Matcha внедряет новый механизм распространения (CIP-38), который безопасно распределяет блоки размером 128 МБ по сети, не вызывая десинхронизации валидаторов.

В тестнете сеть поддерживала время блока в 6 секунд при размере блоков 128 МБ, достигая пропускной способности 21,33 МБ/с. Это в 16 раз превышает текущую мощность мейннета.

Снижение затрат на хранение

Одно из самых недооцененных экономических изменений: Matcha сократила минимальное окно прунинга (удаления старых данных) с 30 дней до 7 дней + 1 час (CIP-34).

Для бридж-нод это снижает требования к хранилищу с 30 ТБ до 7 ТБ при прогнозируемых уровнях пропускной способности. Более низкие операционные расходы для поставщиков инфраструктуры означают более дешевую доступность данных для роллапов.

Пересмотр экономики токенов

Matcha также улучшила экономику токена TIA:

  • Сокращение инфляции: с 5% до 2,5% в год
  • Увеличение комиссии валидаторов: максимум поднят с 10% до 20%
  • Улучшенные свойства обеспечения (collateral): делает TIA более подходящим для использования в DeFi

В совокупности эти изменения готовят Celestia к следующему этапу: масштабированию до пропускной способности 1 ГБ/с и выше.

Экономика роллапов: почему 50% доли рынка DA имеют значение

По состоянию на начало 2026 года Celestia занимает примерно 50% рынка доступности данных (DA), обработав более 160 ГБ данных роллапов. Это доминирование отражает реальное признание со стороны разработчиков роллапов, которые ставят в приоритет стоимость и масштабируемость.

Сравнение стоимости: Celestia против блобов Ethereum

Модель комиссий Celestia проста: роллапы платят за каждый блоб в зависимости от его размера и текущих цен на газ. В отличие от уровней исполнения, где преобладают вычисления, доступность данных фундаментально зависит от пропускной способности канала и объема хранилища — ресурсов, которые масштабируются более предсказуемо по мере совершенствования оборудования.

Для операторов роллапов математика убедительна:

  • Размещение данных в Ethereum L1: при пиковом спросе отправка пакета (batch submission) может стоить от $1 000 до $10 000+ в газе.
  • Celestia DA: стоимость менее доллара за пакет для эквивалентного объема данных.

Это снижение затрат в 100 раз и более является причиной того, почему роллапы мигрируют на модульные DA-решения. Дешевая доступность данных напрямую конвертируется в более низкие комиссии за транзакции для конечных пользователей.

Структура стимулов роллапов

Экономическая модель Celestia выстраивает систему стимулов:

  1. Роллапы платят за хранение блобов пропорционально размеру данных.
  2. Валидаторы получают вознаграждение за обеспечение безопасности уровня DA.
  3. Бридж-ноды предоставляют данные легким нодам и получают плату за обслуживание.
  4. Легкие ноды бесплатно проводят проверку данных (sampling), внося вклад в безопасность.

Это создает «маховик»: чем больше роллапов используют Celestia, тем выше доход валидаторов, что привлекает больше стейкеров, укрепляет безопасность и, в свою очередь, привлекает еще больше роллапов.

Конкуренция: EigenDA, Avail и блобы Ethereum

Доля рынка Celestia в 50% находится под давлением. Три основных конкурента агрессивно масштабируются:

EigenDA: Нативный рестейкинг Ethereum

EigenDA использует инфраструктуру рестейкинга EigenLayer для обеспечения высокой пропускной способности данных для роллапов Ethereum. Ключевые преимущества:

  • Экономическая безопасность: обеспечивается за счет рестейкинга ETH (в настоящее время составляет 93,9% рынка рестейкинга).
  • Тесная интеграция с Ethereum: нативная совместимость с рынком блобов Ethereum.
  • Заявленная высочайшая пропускная способность: хотя предыдущим версиям не хватало активной экономической безопасности.

Критики отмечают, что зависимость EigenDA от рестейкинга вносит каскадный риск: если сервис активно проверяемых транзакций (AVS) подвергнется слэшингу, это может распространиться на держателей Lido stETH и дестабилизировать рынок LST.

Avail: Универсальный уровень DA для всех сетей

В отличие от ориентации Celestia на экосистему Cosmos и направленности EigenDA на Ethereum, Avail позиционирует себя как универсальный уровень DA, совместимый с любой архитектурой блокчейна:

  • Поддержка моделей UTXO, аккаунтов и объектов: работает с L2-решениями Bitcoin, EVM-сетями и системами на базе Move.
  • Модульный дизайн: полностью отделяет DA от консенсуса.
  • Межэкосистемное видение: стремится служить нейтральным уровнем DA для всех блокчейнов.

Сложность для Avail? Это новейший участник, который пока отстает по количеству живых интеграций роллапов по сравнению с Celestia и EigenDA.

Нативные блобы Ethereum: EIP-4844 и далее

Обновление Ethereum EIP-4844 (Dencun) ввело транзакции, несущие блобы, предложив роллапам более дешевую альтернативу размещению данных в calldata. Текущая мощность:

  • Цель: 6 блобов на блок (~0,75 МБ)
  • Максимум: 9 блобов на блок (~1,125 МБ)
  • Будущее расширение: обновления PeerDAS и zkEVM, нацеленные на 10 000+ TPS.

Однако блобы Ethereum имеют свои компромиссы:

  • Короткое окно хранения: данные удаляются примерно через 18 дней.
  • Конкуренция за общие ресурсы: все роллапы соревнуются за одно и то же пространство блобов.
  • Ограниченная масштабируемость: даже с PeerDAS мощность блобов остается значительно ниже запланированных показателей Celestia.

Для роллапов, приоритетом которых является соответствие экосистеме Ethereum (Ethereum alignment), блобы привлекательны. Для тех, кому нужна огромная пропускная способность и долгосрочное хранение данных, Celestia остается лучшим выбором.

Fibre Blockspace: Видение 1 терабита

14 января 2026 года соучредитель Celestia Мустафа Аль-Бассам представил Fibre Blockspace — новый протокол, нацеленный на пропускную способность 1 терабит в секунду с задержкой в миллисекунды. Это представляет собой 1 500-кратное улучшение по сравнению с целями дорожной карты, поставленными всего год назад.

Детали бенчмарка

Команда достигла показателя 1 Тбит / с, используя:

  • 498 узлов, распределенных по Северной Америке
  • Экземпляры GCP с 48–64 vCPU и 90–128 ГБ ОЗУ каждый
  • Сетевые каналы 34–45 Гбит / с на экземпляр

В этих контролируемых условиях протокол поддерживал пропускную способность данных на уровне 1 терабит в секунду — ошеломляющий скачок в производительности блокчейна.

Кодирование ZODA: в 881 раз быстрее, чем KZG

В основе Fibre лежит ZODA, новый протокол кодирования, который, по утверждению Celestia, обрабатывает данные в 881 раз быстрее, чем альтернативы на основе KZG-коммитментов, используемые EigenDA и блобами Ethereum.

KZG-коммитменты (полиномиальные обязательства Кейта — Заверухи — Гольдберга) криптографически элегантны, но требуют больших вычислительных затрат. ZODA обменивает некоторые криптографические свойства на огромный прирост скорости, делая пропускную способность терабитного масштаба достижимой на стандартном оборудовании.

Видение: каждый рынок переходит в ончейн

Заявление Аль-Бассама о дорожной карте отражает амбиции Celestia:

«Если 10 КБ / с позволили создать AMM, а 10 МБ / с — ончейн-книги ордеров, то 1 Тбит / с — это скачок, который позволит каждому рынку перейти в ончейн».

Смысл прост: при достаточной пропускной способности для доступности данных финансовые рынки, на которых сейчас доминируют централизованные биржи — спот, деривативы, опционы, рынки прогнозов — смогут мигрировать на прозрачную, общедоступную блокчейн-инфраструктуру.

Проверка реальностью: бенчмарки против продакшена

Условия бенчмарков редко соответствуют хаосу реального мира. Результат 1 Тбит / с был достигнут в контролируемой среде тестнета с высокопроизводительными облачными экземплярами. Настоящее испытание наступит, когда:

  • Реальные роллапы запустят производственные рабочие нагрузки
  • Сетевые условия будут меняться (скачки задержки, потеря пакетов, асимметричная пропускная способность)
  • Враждебные валидаторы попытаются провести атаки с сокрытием данных

Команда Celestia признает это: Fibre работает параллельно с существующим уровнем L1 DA, предоставляя пользователям выбор между проверенной временем инфраструктурой и передовой экспериментальной пропускной способностью.

Что это значит для разработчиков роллапов

Если вы создаете роллап, архитектура DAS от Celestia предлагает убедительные преимущества:

Когда выбирать Celestia

  • Высокопроизводительные приложения: Игры, социальные сети, микроплатежи
  • Варианты использования, чувствительные к стоимости: Роллапы, нацеленные на комиссии за транзакции менее цента
  • Рабочие процессы с интенсивным использованием данных: Инференс ИИ, интеграция с децентрализованными хранилищами
  • Экосистемы с несколькими роллапами: Проекты, запускающие несколько специализированных роллапов

Когда придерживаться блобов Ethereum

  • Соответствие Ethereum: Если для вашего роллапа важны социальный консенсус и безопасность Ethereum
  • Упрощенная архитектура: Блобы обеспечивают более тесную интеграцию с инструментами Ethereum
  • Меньшая сложность: Меньше инфраструктуры для управления (отсутствует отдельный уровень DA)

Рекомендации по интеграции

Уровень DA Celestia интегрируется с основными фреймворками роллапов:

  • Polygon CDK: Легко подключаемый компонент DA
  • OP Stack: Доступны кастомные адаптеры DA
  • Arbitrum Orbit: Интеграции, созданные сообществом
  • Rollkit: Нативная поддержка Celestia

Для разработчиков внедрение Celestia часто означает замену модуля доступности данных в стеке роллапа — минимальные изменения в логике исполнения или расчетов.

Войны за доступность данных: что дальше

Тезис о модульном блокчейне проходит проверку на прочность в режиме реального времени. Доля рынка Celestia в 50 %, импульс рестейкинга EigenDA и универсальное позиционирование Avail создают трехстороннюю конкуренцию за внимание роллапов.

Ключевые тенденции, за которыми стоит следить

  1. Эскалация пропускной способности: Celestia нацелена на 1 ГБ / с → 1 Тбит / с; EigenDA и Avail ответят на это
  2. Модели экономической безопасности: Достигнут ли риски рестейкинга EigenDA? Сможет ли масштабироваться набор валидаторов Celestia?
  3. Расширение блобов Ethereum: Обновления PeerDAS и zkEVM могут изменить динамику затрат
  4. Кроссчейн DA: Универсальное видение Avail против решений, специфичных для экосистем

Взгляд BlockEden.xyz

Для инфраструктурных провайдеров поддержка нескольких уровней DA становится обязательным условием. Разработчикам роллапов нужен надежный RPC-доступ не только к Ethereum, но и к Celestia, EigenDA и Avail.

BlockEden.xyz предлагает высокопроизводительную RPC-инфраструктуру для Celestia и более чем 10 блокчейн-экосистем, позволяя командам роллапов строить на модульных стеках без управления инфраструктурой узлов. Изучите наши API для доступности данных, чтобы ускорить развертывание вашего роллапа.

Заключение: доступность данных как новый конкурентный ров

Data Availability Sampling от Celestia — это не просто постепенное улучшение, а смена парадигмы в том, как блокчейны проверяют состояние. Позволяя легким узлам участвовать в обеспечении безопасности через вероятностную выборку, Celestia демократизирует проверку так, как не могут монолитные цепи.

Блоки по 128 МБ в обновлении Matcha и видение Fibre с пропускной способностью 1 Тбит / с представляют собой точки перегиба для экономики роллапов. Когда затраты на доступность данных падают в 100 раз, жизнеспособными становятся совершенно новые категории приложений: высокочастотная торговля ончейн, многопользовательские игры в реальном времени, координация ИИ-агентов в масштабе.

Но технология сама по себе не определяет победителей. Исход войн DA будет зависеть от трех факторов:

  1. Принятие роллапами: Какие сети на самом деле перейдут на производственное использование?
  2. Экономическая устойчивость: Смогут ли эти протоколы поддерживать низкие затраты по мере масштабирования использования?
  3. Устойчивость безопасности: Насколько хорошо системы на основе выборки противостоят сложным атакам?

Доля рынка Celestia в 50 % и 160 ГБ обработанных данных роллапов доказывают, что концепция работает. Теперь вопрос переходит из плоскости «может ли модульная DA масштабироваться?» в «какой уровень DA будет доминировать в экономике роллапов?»

Для разработчиков, ориентирующихся в этой среде, совет ясен: абстрагируйте свой уровень DA. Проектируйте роллапы так, чтобы можно было переключаться между Celestia, EigenDA, блобами Ethereum и Avail без перепроектирования архитектуры. Войны за доступность данных только начинаются, и победители могут оказаться не теми, кого мы ожидаем.


Источники:

За пределами выбора между монолитностью и модульностью: Как Zero Network от LayerZero переписывает сценарий масштабирования блокчейна

· 11 мин чтения
Dora Noda
Software Engineer

Каждый блокчейн, когда-либо достигший масштабируемости, делал это за счет того, что заставлял каждого валидатора повторять одну и ту же работу. Этот единственный архитектурный выбор — назовем его требованием репликации — десятилетиями ограничивал пропускную способность. Zero Network от LayerZero предлагает полностью отказаться от него, а участие институциональных партнеров намекает на то, что индустрия может воспринять это заявление всерьез.

Парадокс Layer 2: Как комиссии в $0,001 разрушают бизнес-модель масштабирования Ethereum

· 12 мин чтения
Dora Noda
Software Engineer

Сети второго уровня (Layer 2) Ethereum в 2025 году совершили нечто экстраординарное: они снизили транзакционные издержки более чем на 90 %, сделав взаимодействие с блокчейном практически бесплатным. Однако этот триумф инженерной мысли породил неожиданный кризис — сама бизнес-модель, финансирующая эти сети, рушится под тяжестью собственного успеха.

По мере того как транзакционные комиссии стремительно падают к отметке $ 0,001 за операцию, операторы Layer 2 сталкиваются с суровым вопросом: как поддерживать инфраструктуру стоимостью в миллиард долларов, когда ваш основной источник дохода испаряется?

Великий крах комиссий 2025 года

Цифры говорят сами за себя. В период с января 2025 года по январь 2026 года средние цены на газ в сетях Ethereum Layer 2 упали с 7,141 gwei до примерно 0,50 gwei — ошеломляющее снижение на 93 %. Сегодня транзакции в Base стоят в среднем 0,01,втовремякаквArbitrumиOptimismониколеблютсяврайоне0,01, в то время как в Arbitrum и Optimism они колеблются в районе 0,15–0,20, а стоимость многих операций теперь составляет сущие доли цента.

Что послужило катализатором? EIP-4844, обновление Dencun для Ethereum, запущенное в марте 2024 года, в котором были представлены «блобы» (blobs) — временные пакеты данных, которые сети Layer 2 могут использовать для экономичного проведения расчетов. В отличие от традиционных calldata, хранящихся в Ethereum вечно, блобы остаются доступными в течение примерно 18 дней, что позволяет устанавливать на них значительно более низкие цены.

Эффект был мгновенным и разрушительным для традиционной модели доходов. Optimism, Arbitrum и Base зафиксировали снижение комиссий на 90–99 % для многих типов транзакций. Медианные комиссии за блобы упали до уровня $ 0,0000000005, что сделало взаимодействие пользователей с сетью почти ничтожно дешевым. С момента запуска EIP-4844 в Ethereum было опубликовано более 950 000 блобов, что коренным образом изменило экономику операций Layer 2.

Для пользователей и разработчиков это рай. Для операторов Layer 2, рассчитывающих на доход от секвенирования (sequencer revenue), это экзистенциальная угроза.

Доход от секвенирования: вымирающий источник прибыли

Традиционно сети Layer 2 зарабатывали на простой модели: они собирают комиссии с пользователей за обработку транзакций, а затем выплачивают часть этих комиссий Ethereum за доступность данных и расчеты. Разница между тем, что они собирают, и тем, что платят, становится их прибылью — доходом секвенсора.

Эта модель работала блестяще, когда комиссии Layer 2 были значительными. Но теперь, когда транзакционные издержки стремятся к нулю, маржа стала ничтожно малой.

Экономические показатели наглядно демонстрируют масштаб проблемы. Сеть Base, несмотря на лидерство, за последние 180 дней в среднем приносит всего 185291ежедневногодохода.Arbitrumполучаетоколо185 291 ежедневного дохода. Arbitrum получает около 55 025 в день. Эти цифры, хоть и не являются мизерными, должны обеспечивать работу обширной инфраструктуры, команд разработчиков и текущие операции для сетей, обрабатывающих сотни тысяч транзакций ежедневно.

Ситуация становится еще более шаткой при рассмотрении годовой валовой прибыли. Base лидирует с годовым доходом почти в 30миллионов,втовремякакArbitrumиOptimismзаработалиоколо30 миллионов, в то время как Arbitrum и Optimism заработали около 9,5 миллионов каждая. Эти суммы должны поддерживать сети, которые в совокупности обрабатывают 60–70 % всего объема транзакций Ethereum — огромная операционная нагрузка при относительно скромной прибыли.

Фундаментальное противоречие очевидно: сетям Layer 2 необходимо найти нишу, оправдывающую их существование вне основной сети Ethereum, и генерировать достаточный доход для самообеспечения. Как отмечается в одном из отраслевых анализов, «прибыльность заключается в разнице между тем, что L2-сети зарабатывают на пользователях, и тем, что они платят Ethereum» — но эта разница сокращается с каждым днем.

Дивергенция MEV: разные пути извлечения ценности

Столкнувшись с сокращением доходов от секвенирования, сети Layer 2 изучают максимальную извлекаемую стоимость (MEV) как альтернативный источник дохода. Однако их подходы кардинально различаются, создавая как конкурентные преимущества, так и новые вызовы.

Философия справедливого упорядочивания Arbitrum

Arbitrum использует систему очередности «первым пришел — первым обслужен» (FCFS), предназначенную для минимизации ущерба пользователям от извлечения MEV. Эта философия ставит во главу угла пользовательский опыт, а не максимизацию прибыли, что приводит к значительно более низкой активности MEV — всего 7 % потребления газа в сети по сравнению с более чем 50 % в конкурирующих сетях.

Тем не менее, Arbitrum не отказывается от MEV полностью. Сеть изучает возможности внедрения децентрализованных секвенсоров в будущем, которые могут включать аукционы для реализации возможностей MEV, потенциально возвращая часть ценности пользователям или в казначейство протокола. Это представляет собой «срединный путь»: сохранение справедливости при одновременном извлечении экономической выгоды.

Аукционный подход Base и Optimism

Напротив, Base и Optimism используют аукционы приоритетного газа (PGA), где пользователи могут предлагать более высокие комиссии за приоритетность транзакции. Такая конструкция по своей сути способствует большей активности MEV — на долю Optimistic MEV приходится 51–55 % от общего потребления газа в этих сетях.

В чем подвох? Коэффициент успеха реального арбитража в роллапах на базе OP-Stack остается крайне низким, колеблясь в районе 1 % — что гораздо ниже, чем в Arbitrum. Большая часть газа тратится на «зондирование взаимодействий» — внутрисетевые вычисления в поиске арбитражных возможностей, которые редко материализуются. Это создает своеобразную ситуацию, когда активность MEV потребляет ресурсы, не принося пропорциональной выгоды.

Несмотря на более низкие показатели успеха, сам объем активности, связанной с MEV в Base, способствует лидерству сети по доходам. Сеть обрабатывает более 1 000 транзакций в секунду при минимальных затратах, превращая объем в конкурентное преимущество.

Альтернативные модели доходов: помимо комиссий за транзакции

Поскольку традиционные доходы секвенсоров оказываются недостаточными, сети второго уровня (Layer 2) внедряют альтернативные бизнес-модели, которые могут изменить экономику блокчейн-инфраструктуры.

Различия в лицензировании

Arbitrum и Optimism выбрали кардинально разные подходы к монетизации своих технологических стеков.

Доля выручки Arbitrum Orbit: Arbitrum использует модель «исходного кода сообщества» (community source code), требуя от сетей, построенных на базе фреймворка Orbit, отчислять 10 % дохода протокола, если их расчеты (settlement) производятся вне экосистемы Arbitrum. Это создает структуру, подобную роялти, которая приносит доход даже в тех случаях, когда сети не используют Arbitrum напрямую для финализации транзакций.

Гамбит Optimism с открытым исходным кодом: OP Stack от Optimism полностью открыт под лицензией MIT, что позволяет любому желающему получать код, свободно модифицировать его и создавать кастомные сети Layer 2 без выплаты роялти или авансовых платежей. Распределение доходов активируется только тогда, когда сеть присоединяется к официальной экосистеме Optimism — «Суперчейну» (Superchain).

Это создает интересную динамику: Optimism делает ставку на рост экосистемы и добровольное участие, в то время как Arbitrum обеспечивает экономическое соответствие через лицензионные требования. Время покажет, какой подход лучше сбалансирует рост и устойчивость.

Корпоративные роллапы и профессиональные услуги

Возможно, самая многообещающая альтернатива появилась в 2025 году: рост «корпоративных роллапов». Крупные институты запускают кастомные сети Layer 2 и готовы платить за профессиональное развертывание, обслуживание и услуги поддержки.

Это зеркально отражает традиционные бизнес-модели с открытым исходным кодом — код бесплатен, но операционный опыт требует премиальной оплаты. Недавно запущенный сервис OP Enterprise от Optimism иллюстрирует этот подход, предлагая премиальное обслуживание «под ключ» организациям, строящим индивидуальную блокчейн-инфраструктуру.

Ценностное предложение для предприятий весьма убедительно. Они получают доступ к ликвидности и сетевым эффектам экономики Ethereum, сохраняя при этом индивидуальные возможности безопасности, конфиденциальности и соответствия нормативным требованиям. Как отмечается в одном из отраслевых отчетов, «институты могут иметь собственный кастомный институциональный L2, который подключается к ликвидности и сетевым эффектам экономики Ethereum».

L3-сети и специализированные блокчейны для приложений

Высокопроизводительные DeFi-протоколы все чаще требуют возможностей, которые обычные сети Layer 2 не могут эффективно предоставить: предсказуемое исполнение, гибкая логика ликвидации, гранулярный контроль над очередностью транзакций и возможность внутреннего захвата MEV.

На сцену выходят L3-сети и специализированные блокчейны (app-chains), построенные на таких фреймворках, как Arbitrum Orbit. Эти специализированные сети позволяют протоколам интернализировать MEV, настраивать экономику и оптимизировать работу под конкретные сценарии использования. Для операторов Layer 2 предоставление инфраструктуры и инструментов для этих специализированных сетей представляет собой новый поток доходов, который не зависит от низкомаржинальной обработки транзакций.

Стратегический вывод ясен: сети Layer 2 выигрывают, распространяя свою инфраструктуру вовне и сотрудничая с крупными платформами, а не конкурируя исключительно по стоимости транзакций.

Вопрос устойчивости: смогут ли L2 пережить войну комиссий?

Фундаментальное противоречие, с которым сталкиваются сети Layer 2 в 2026 году, заключается в том, сможет ли любая комбинация альтернативных моделей дохода компенсировать исчезающие комиссии за транзакции.

Рассмотрим математику: если комиссии за транзакции продолжат снижаться до $0,001, а стоимость блобов (blob costs) останется близкой к нулю, даже обработка миллионов транзакций в день будет приносить минимальный доход. Base, несмотря на свое лидерство по объемам, вынужден искать дополнительные источники дохода, чтобы оправдать текущие операции в масштабе.

Ситуация осложняется сохраняющимися опасениями по поводу централизации. Большинство сетей Layer 2 остаются гораздо более централизованными, чем кажется, а децентрализация рассматривается как долгосрочная цель, а не как немедленный приоритет. Это создает регуляторные риски и вопросы о долгосрочном накоплении стоимости — если сеть централизована, почему пользователи должны доверять ей больше, чем традиционным базам данных с «умной криптографией»?

Недавние структурные изменения предполагают, что сам Ethereum осознает проблему. Обновление Fusaka направлено на то, чтобы «исправить» цепочку захвата стоимости между Layer 1 и Layer 2, требуя от L2 выплачивать повышенную «дань» в основную сеть Ethereum. Это перераспределение помогает Ethereum, но еще больше сжимает и без того тонкую маржу Layer 2.

Модели доходов на 2026 год и далее

В будущем успешные сети Layer 2, вероятно, примут гибридные стратегии монетизации:

  1. Объем важнее маржи: Подход Base — обработка огромных объемов транзакций при минимальной прибыли с каждой операции — может сработать при достижении масштаба. Более 1 000 TPS в сети Base при комиссии $0,01 генерирует больше дохода, чем 400 TPS в Arbitrum при комиссии $0,20.

  2. Выборочный захват MEV: Сети должны балансировать извлечение MEV и пользовательский опыт. Изучение Arbitrum аукционов MEV, которые возвращают стоимость пользователям, представляет собой срединный путь, приносящий доход без отчуждения сообщества.

  3. Корпоративные услуги: Профессиональная поддержка, помощь в развертывании и услуги по кастомизации для институциональных клиентов обеспечивают высокую маржу, которая масштабируется в зависимости от ценности для клиента, а не от количества транзакций.

  4. Распределение доходов в экосистеме: Как обязательные (Arbitrum Orbit), так и добровольные (Optimism Superchain) модели распределения выручки создают сетевые эффекты, где успех Layer 2 приумножается через участие в экосистеме.

  5. Рынки доступности данных: По мере изменения цен на блобы сети Layer 2 могут ввести многоуровневые предложения по доступности данных (Data Availability) — премиальные гарантии расчетов для институтов и бюджетные варианты для потребительских приложений.

Ожидается, что к 2026 году сети введут модели распределения выручки, распределение прибыли секвенсоров и доходность, привязанную к фактическому использованию сети, что ознаменует фундаментальный переход от комиссий за транзакции к экономике участия.

Путь вперед

Экономический кризис сетей Layer 2 парадоксальным образом является признаком технологического успеха. Решения для масштабирования Ethereum достигли своей основной цели: сделали транзакции в блокчейне доступными и недорогими. Но технологический триумф не переносится автоматически на устойчивость бизнеса.

Сетями, которые выживут и будут процветать, станут те, которые:

  • Признают, что одни только комиссии за транзакции не могут поддерживать работу при стоимости 0,001 $ за операцию
  • Разработают диверсифицированные потоки доходов, которые соответствуют реальному созданию ценности
  • Сбалансируют вопросы централизации с операционной эффективностью
  • Создадут сетевые эффекты экосистемы, которые увеличивают ценность сверх отдельных транзакций
  • Будут обслуживать институциональных и корпоративных клиентов, готовых платить за надежность инфраструктуры

Base, Arbitrum и Optimism экспериментируют с различными комбинациями этих стратегий. Base лидирует по валовому доходу за счет объема, Arbitrum обеспечивает экономическое соответствие через лицензирование, а Optimism делает ставку на рост экосистемы с открытым исходным кодом.

Конечными победителями, скорее всего, станут те, кто осознает фундаментальный сдвиг: сети Layer 2 больше не являются просто процессорами транзакций. Они становятся инфраструктурными платформами, поставщиками корпоративных услуг и оркестраторами экосистем. Модели получения дохода должны развиваться соответствующим образом — иначе они рискуют превратиться в нерентабельно дешевые сырьевые услуги в «гонке на выбывание», в которой никто не сможет позволить себе победить.

Для разработчиков, создающих решения на инфраструктуре Layer 2, надежный доступ к узлам и индексация данных остаются критически важными по мере развития бизнес-моделей этих сетей. BlockEden.xyz предоставляет доступ к API корпоративного уровня во всех основных сетях Layer 2, обеспечивая стабильную производительность независимо от лежащих в основе экономических изменений.


Источники

MegaETH: Layer-2 решение с пропускной способностью 100 000 TPS, призванное ускорить Ethereum

· 10 мин чтения

Скоростная революция, которую ждал Ethereum?

В мире высококонкурентных решений для масштабирования блокчейна появился новый игрок, вызывающий как восторг, так и споры. MegaETH позиционирует себя как ответ Ethereum на сверхбыстрые блокчейны, такие как Solana, обещая задержку менее миллисекунды и поразительную пропускную способность в 100 000 транзакций в секунду (TPS).

MegaETH

Однако эти заявления сопряжены со значительными компромиссами. MegaETH идет на обдуманные жертвы, чтобы «сделать Ethereum снова великим», поднимая важные вопросы о балансе между производительностью, безопасностью и децентрализацией.

Как поставщики инфраструктуры, которые видели множество многообещающих решений, появляющихся и исчезающих, мы в BlockEden.xyz провели этот анализ, чтобы помочь разработчикам и строителям понять, что делает MegaETH уникальным — и какие риски следует учитывать, прежде чем строить на его основе.

Что отличает MegaETH?

MegaETH — это Layer-2 решение для Ethereum, которое переосмыслило архитектуру блокчейна с единственной целью: производительность в реальном времени.

В то время как большинство решений L2 улучшают пропускную способность Ethereum (~15 TPS) в 10-100 раз, MegaETH стремится к улучшению в 1000-10 000 раз — скорости, которые вывели бы его в отдельную категорию.

Революционный технический подход

MegaETH достигает своей необычайной скорости благодаря радикальным инженерным решениям:

  1. Архитектура с одним секвенсором: В отличие от большинства L2, которые используют несколько секвенсоров или планируют децентрализацию, MegaETH использует один секвенсор для упорядочивания транзакций, сознательно выбирая производительность вместо децентрализации.

  2. Оптимизированное дерево состояний (State Trie): Полностью переработанная система хранения состояний, которая может эффективно обрабатывать данные состояний объемом в терабайты, даже на узлах с ограниченным объемом оперативной памяти.

  3. JIT-компиляция байт-кода: JIT-компиляция байт-кода смарт-контрактов Ethereum, приближающая выполнение к «аппаратной» скорости.

  4. Конвейер параллельного выполнения: Многоядерный подход, который обрабатывает транзакции в параллельных потоках для максимизации пропускной способности.

  5. Микроблоки: Целевое время блока ~1 мс за счет непрерывного «потокового» производства блоков, а не пакетной обработки.

  6. Интеграция с EigenDA: Использование решения EigenLayer для доступности данных вместо публикации всех данных в Ethereum L1, что снижает затраты при сохранении безопасности за счет валидации, согласованной с Ethereum.

Эта архитектура обеспечивает показатели производительности, которые кажутся почти невозможными для блокчейна:

  • Задержка менее миллисекунды (цель 10 мс)
  • Пропускная способность 100 000+ TPS
  • Совместимость с EVM для легкого портирования приложений

Проверка заявлений: Текущий статус MegaETH

По состоянию на март 2025 года публичная тестовая сеть MegaETH запущена. Первоначальное развертывание началось 6 марта с поэтапного внедрения, начиная с инфраструктурных партнеров и команд dApp, прежде чем открыть доступ для более широкого круга пользователей.

Ранние метрики тестовой сети показывают:

  • Пропускная способность ~1,68 гига-газа в секунду
  • Время блока ~15 мс (значительно быстрее, чем у других L2)
  • Поддержка параллельного выполнения, которая в конечном итоге еще больше повысит производительность

Команда указала, что тестовая сеть работает в несколько ограниченном режиме, с планами включить дополнительную параллелизацию, которая может удвоить пропускную способность газа примерно до 3,36 Ггаз/сек, приближаясь к их конечной цели в 10 Ггаз/сек (10 миллиардов газа в секунду).

Модель безопасности и доверия

Подход MegaETH к безопасности представляет собой значительное отступление от ортодоксальной блокчейн-практики. В отличие от Ethereum с его минимизированным доверием и тысячами валидирующих узлов, MegaETH использует централизованный уровень исполнения с Ethereum в качестве резервной копии безопасности.

Философия «Не может быть злым»

MegaETH использует модель безопасности оптимистичного роллапа с некоторыми уникальными характеристиками:

  1. Система доказательств мошенничества: Как и другие оптимистичные роллапы, MegaETH позволяет наблюдателям оспаривать недействительные переходы состояний через доказательства мошенничества, отправляемые в Ethereum.

  2. Узлы-верификаторы: Независимые узлы реплицируют вычисления секвенсора и инициируют доказательства мошенничества, если обнаруживаются расхождения.

  3. Расчеты в Ethereum: Все транзакции в конечном итоге рассчитываются в Ethereum, наследуя его безопасность для окончательного состояния.

Это создает то, что команда называет механизмом «не может быть злым» — секвенсор не может производить недействительные блоки или некорректно изменять состояние, не будучи пойманным и наказанным.

Компромисс централизации

Спорный аспект: MegaETH работает с одним секвенсором и явно «не планирует когда-либо децентрализовать секвенсор». Это влечет за собой два значительных риска:

  1. Риск жизнеспособности: Если секвенсор отключается, сеть может остановиться до его восстановления или назначения нового секвенсора.

  2. Риск цензуры: Секвенсор теоретически может подвергать цензуре определенные транзакции или пользователей в краткосрочной перспективе (хотя пользователи в конечном итоге могут выйти через L1).

MegaETH утверждает, что эти риски приемлемы, потому что:

  • L2 привязан к Ethereum для окончательной безопасности
  • Доступность данных обрабатывается несколькими узлами в EigenDA
  • Любая цензура или мошенничество могут быть замечены и оспорены сообществом

Варианты использования: Когда сверхбыстрое выполнение имеет значение

Возможности MegaETH в реальном времени открывают варианты использования, которые ранее были непрактичны на более медленных блокчейнах:

1. Высокочастотная торговля и DeFi

MegaETH позволяет DEX с почти мгновенным исполнением сделок и обновлением книг ордеров. Проекты, которые уже строятся, включают:

  • GTE: Спотовая DEX в реальном времени, объединяющая книги ордеров с центральным лимитом и ликвидность AMM
  • Teko Finance: Денежный рынок для кредитования с плечом с быстрыми обновлениями маржи
  • Cap: Стейблкоин и механизм доходности, который арбитражирует на разных рынках
  • Avon: Протокол кредитования с сопоставлением займов на основе книги ордеров

Эти приложения DeFi выигрывают от пропускной способности MegaETH, позволяя работать с минимальным проскальзыванием и высокочастотными обновлениями.

2. Игры и Метавселенная

Субсекундная завершенность делает полностью ончейн-игры жизнеспособными без ожидания подтверждений:

  • Awe: 3D-игра с открытым миром и ончейн-действиями
  • Biomes: Ончейн-метавселенная, похожая на Minecraft
  • Mega Buddies и Mega Cheetah: Серии коллекционных аватаров

Такие приложения могут обеспечивать обратную связь в реальном времени в блокчейн-играх, позволяя быстро развивающийся игровой процесс и ончейн-PvP-сражения.

3. Корпоративные приложения

Производительность MegaETH делает его подходящим для корпоративных приложений, требующих высокой пропускной способности:

  • Инфраструктура мгновенных платежей
  • Системы управления рисками в реальном времени
  • Верификация цепочек поставок с немедленной завершенностью
  • Высокочастотные аукционные системы

Ключевое преимущество во всех этих случаях — это возможность запускать ресурсоемкие приложения с немедленной обратной связью, оставаясь при этом подключенными к экосистеме Ethereum.

Команда, стоящая за MegaETH

MegaETH был основан командой с впечатляющими достижениями:

  • Ли Илун (Li Yilong): Доктор компьютерных наук из Стэнфорда, специализирующийся на вычислительных системах с низкой задержкой
  • Ян Лэй (Yang Lei): Доктор наук из Массачусетского технологического института, исследующий децентрализованные системы и связность Ethereum
  • Шуяо Кун (Shuyao Kong): Бывший руководитель глобального развития бизнеса в ConsenSys

Проект привлек известных спонсоров, включая соучредителей Ethereum Виталика Бутерина и Джозефа Любина в качестве ангельских инвесторов. Участие Виталика особенно примечательно, поскольку он редко инвестирует в конкретные проекты.

Среди других инвесторов — Срирам Каннан (основатель EigenLayer), венчурные фонды, такие как Dragonfly Capital, Figment Capital и Robot Ventures, а также влиятельные деятели сообщества, такие как Cobie.

Токен-стратегия: Подход Soulbound NFT

MegaETH представил инновационный метод распределения токенов через «soulbound NFT» (привязанные к душе NFT), называемые «The Fluffle». В феврале 2025 года они создали 10 000 непередаваемых NFT, представляющих не менее 5% от общего объема токенов MegaETH.

Ключевые аспекты токеномики:

  • 5 000 NFT были проданы по 1 ETH каждый (привлечено ~13-14 миллионов долларов)
  • Остальные 5 000 NFT были выделены экосистемным проектам и строителям
  • NFT являются soulbound (непередаваемыми), что обеспечивает долгосрочное соответствие интересов
  • Подразумеваемая оценка около 540 миллионов долларов, что чрезвычайно высоко для проекта до запуска
  • Команда привлекла примерно 30-40 миллионов долларов венчурного финансирования

В конечном итоге ожидается, что токен MegaETH будет служить нативной валютой для комиссий за транзакции и, возможно, для стейкинга и управления.

Как MegaETH сравнивается с конкурентами

Против других L2 Ethereum

По сравнению с Optimism, Arbitrum и Base, MegaETH значительно быстрее, но идет на большие компромиссы в отношении децентрализации:

  • Производительность: MegaETH нацелен на 100 000+ TPS против времени транзакций Arbitrum ~250 мс и более низкой пропускной способности
  • Децентрализация: MegaETH использует один секвенсор против планов других L2 по децентрализованным секвенсорам
  • Доступность данных: MegaETH использует EigenDA против других L2, публикующих данные непосредственно в Ethereum

Против Solana и высокопроизводительных L1

MegaETH стремится «победить Solana в ее собственной игре», используя при этом безопасность Ethereum:

  • Пропускная способность: MegaETH нацелен на 100 000+ TPS против теоретических 65 000 TPS Solana (обычно несколько тысяч на практике)
  • Задержка: MegaETH ~10 мс против завершенности Solana ~400 мс
  • Децентрализация: MegaETH имеет 1 секвенсор против ~1 900 валидаторов Solana

Против ZK-роллапов (StarkNet, zkSync)

В то время как ZK-роллапы предлагают более сильные гарантии безопасности через доказательства достоверности:

  • Скорость: MegaETH предлагает более быстрый пользовательский опыт без ожидания генерации ZK-доказательств
  • Отсутствие доверия: ZK-роллапы не требуют доверия к честности секвенсора, обеспечивая более сильную безопасность
  • Планы на будущее: MegaETH может в конечном итоге интегрировать ZK-доказательства, став гибридным решением

Позиционирование MegaETH ясно: это самый быстрый вариант в экосистеме Ethereum, жертвующий некоторой децентрализацией для достижения скоростей, сравнимых с Web2.

Инфраструктурная перспектива: Что следует учитывать строителям

Как поставщик инфраструктуры, соединяющий разработчиков с блокчейн-узлами, BlockEden.xyz видит как возможности, так и проблемы в подходе MegaETH:

Потенциальные преимущества для строителей

  1. Исключительный пользовательский опыт: Приложения могут предлагать мгновенную обратную связь и высокую пропускную способность, создавая отзывчивость, сравнимую с Web2.

  2. Совместимость с EVM: Существующие dApp Ethereum могут быть перенесены с минимальными изменениями, что открывает производительность без переписывания кода.

  3. Экономическая эффективность: Высокая пропускная способность означает более низкие затраты на транзакцию для пользователей и приложений.

  4. Резервная безопасность Ethereum: Несмотря на централизацию на уровне исполнения, расчеты в Ethereum обеспечивают основу безопасности.

Соображения по рискам

  1. Единая точка отказа: Централизованный секвенсор создает риск жизнеспособности — если он выходит из строя, то же самое происходит и с вашим приложением.

  2. Уязвимость к цензуре: Приложения могут столкнуться с цензурой транзакций без немедленного возмещения.

  3. Технология на ранней стадии: Новая архитектура MegaETH не была проверена в масштабе с реальной ценностью.

  4. Зависимость от EigenDA: Использование нового решения для доступности данных добавляет дополнительное предположение о доверии.

Требования к инфраструктуре

Поддержка пропускной способности MegaETH потребует надежной инфраструктуры:

  • Высокопроизводительные RPC-узлы, способные обрабатывать огромный поток данных
  • Передовые решения для индексации для доступа к данным в реальном времени
  • Специализированный мониторинг для уникальной архитектуры
  • Надежный мониторинг мостов для кроссчейн-операций

Заключение: Революция или компромисс?

MegaETH представляет собой смелый эксперимент в масштабировании блокчейна — тот, который сознательно отдает приоритет производительности над децентрализацией. Успех этого подхода зависит от того, ценит ли рынок скорость больше, чем децентрализованное исполнение.

Ближайшие месяцы будут критическими, поскольку MegaETH переходит из тестовой сети в основную. Если он выполнит свои обещания по производительности, сохраняя при этом достаточную безопасность, он может фундаментально изменить наше представление о масштабировании блокчейна. Если он споткнется, это подтвердит, почему децентрализация остается основной ценностью блокчейна.

На данный момент MegaETH является одним из самых амбициозных решений для масштабирования Ethereum. Его готовность бросить вызов ортодоксальности уже вызвала важные дискуссии о том, какие компромиссы приемлемы в погоне за массовым внедрением блокчейна.

В BlockEden.xyz мы стремимся поддерживать разработчиков, где бы они ни строили, включая высокопроизводительные сети, такие как MegaETH. Наша надежная инфраструктура узлов и API-сервисы разработаны для того, чтобы помочь приложениям процветать в мультичейн-экосистеме, независимо от того, какой подход к масштабированию в конечном итоге возобладает.


Хотите строить на MegaETH или нуждаетесь в надежной инфраструктуре узлов для высокопроизводительных приложений? Свяжитесь с нами по электронной почте: info@BlockEden.xyz, чтобы узнать, как мы можем поддержать вашу разработку с нашей гарантией бесперебойной работы 99,9% и специализированными RPC-сервисами для более чем 27 блокчейнов.

Масштабирование блокчейнов: как Caldera и революция RaaS формируют будущее Web3

· 7 мин чтения

Проблема масштабирования Web3

Индустрия блокчейна сталкивается с постоянной проблемой: как масштабироваться для поддержки миллионов пользователей, не жертвуя при этом безопасностью или децентрализацией?

Ethereum, ведущая платформа смарт-контрактов, обрабатывает примерно 15 транзакций в секунду на своем базовом уровне. В периоды высокого спроса это ограничение приводило к непомерным комиссиям за газ — иногда превышающим 100 долларов США за транзакцию во время минтинга NFT или ажиотажа в DeFi-фарминге.

Это узкое место в масштабировании представляет собой экзистенциальную угрозу для принятия Web3. Пользователи, привыкшие к мгновенной отзывчивости приложений Web2, не будут терпеть оплату 50 долларов США и ожидание 3 минут только для того, чтобы обменять токены или сминтить NFT.

Представляем решение, которое быстро меняет архитектуру блокчейна: Rollups-as-a-Service (RaaS).

Масштабирование блокчейнов

Понимание Rollups-as-a-Service (RaaS)

Платформы RaaS позволяют разработчикам развертывать собственные кастомные блокчейн-роллапы без сложностей создания всего с нуля. Эти сервисы превращают то, что обычно требовало бы специализированной инженерной команды и месяцев разработки, в упрощенный процесс развертывания, иногда в один клик.

Почему это важно? Потому что роллапы — это ключ к масштабированию блокчейна.

Роллапы работают следующим образом:

  • Обработка транзакций вне основной цепи (Уровень 1)
  • Объединение этих транзакций в пакеты
  • Отправка сжатых доказательств этих транзакций обратно в основную цепь

Результат? Резко увеличенная пропускная способность и значительно сниженные затраты при наследовании безопасности от базового блокчейна Уровня 1 (например, Ethereum).

"Роллапы не конкурируют с Ethereum — они расширяют его. Они подобны специализированным экспресс-полосам, построенным поверх магистрали Ethereum."

Этот подход к масштабированию настолько многообещающ, что Ethereum официально принял "дорожную карту, ориентированную на роллапы" в 2020 году, признав, что будущее — это не единая монолитная цепь, а скорее экосистема взаимосвязанных, специально созданных роллапов.

Caldera: Лидер революции RaaS

Среди новых поставщиков RaaS Caldera выделяется как лидер. Основанная в 2023 году и привлекшая 25 миллионов долларов США от известных инвесторов, включая Dragonfly, Sequoia Capital и Lattice, Caldera быстро зарекомендовала себя как ведущий поставщик инфраструктуры в пространстве роллапов.

Что отличает Caldera?

Caldera отличается несколькими ключевыми особенностями:

  1. Поддержка нескольких фреймворков: В отличие от конкурентов, которые сосредоточены на одном фреймворке роллапов, Caldera поддерживает основные фреймворки, такие как OP Stack Optimism и технологию Orbit/Nitro Arbitrum, предоставляя разработчикам гибкость в их техническом подходе.

  2. Комплексная инфраструктура: При развертывании с Caldera вы получаете полный набор компонентов: надежные RPC-узлы, обозреватели блоков, службы индексации и интерфейсы мостов.

  3. Богатая экосистема интеграций: Caldera поставляется с предустановленной интеграцией с более чем 40 инструментами и сервисами Web3, включая оракулы, краны, кошельки и кросс-чейн мосты (LayerZero, Axelar, Wormhole, Connext и другие).

  4. Сеть Metalayer: Возможно, самым амбициозным нововведением Caldera является ее Metalayer — сеть, которая объединяет все роллапы, работающие на Caldera, в единую экосистему, позволяя им беспрепятственно обмениваться ликвидностью и сообщениями.

  5. Поддержка нескольких VM: В конце 2024 года Caldera стала первой RaaS, поддержавшей виртуальную машину Solana (SVM) на Ethereum, что позволило создавать высокопроизводительные цепи, подобные Solana, которые по-прежнему осуществляют расчеты на безопасном базовом уровне Ethereum.

Подход Caldera создает то, что они называют "универсальным уровнем" для роллапов — связную сеть, где различные роллапы могут взаимодействовать, а не существовать как изолированные острова.

Реальное применение: кто использует Caldera?

Caldera получила значительное распространение: к концу 2024 года в производстве находится более 75 роллапов. Среди заметных проектов:

  • Manta Pacific: Высокомасштабируемая сеть для развертывания приложений с нулевым разглашением, которая использует OP Stack Caldera в сочетании с Celestia для доступности данных.

  • RARI Chain: Роллап Rarible, ориентированный на NFT, который обрабатывает транзакции менее чем за секунду и обеспечивает соблюдение роялти NFT на уровне протокола.

  • Kinto: Соответствующая нормативным требованиям DeFi-платформа с ончейн KYC/AML и возможностями абстракции учетных записей.

  • inEVM Injective: EVM-совместимый роллап, который расширяет совместимость Injective, соединяя экосистему Cosmos с dApps на базе Ethereum.

Эти проекты подчеркивают, как роллапы, ориентированные на конкретные приложения, обеспечивают настройку, невозможную на универсальных Уровнях 1. К концу 2024 года коллективные роллапы Caldera, как сообщается, обработали более 300 миллионов транзакций для более чем 6 миллионов уникальных кошельков, с почти 1 миллиардом долларов США в общей заблокированной стоимости (TVL).

Сравнение RaaS: Caldera против конкурентов

Ландшафт RaaS становится все более конкурентным, с несколькими заметными игроками:

Conduit

  • Сосредоточен исключительно на экосистемах Optimism и Arbitrum
  • Акцент на полностью самообслуживаемом опыте без кода
  • Обеспечивает работу примерно 20 % роллапов основной сети Ethereum, включая Zora

AltLayer

  • Предлагает "Flashlayers" — одноразовые, по требованию роллапы для временных нужд
  • Сосредоточен на эластичном масштабировании для конкретных событий или периодов высокой нагрузки
  • Продемонстрировал впечатляющую пропускную способность во время игровых событий (более 180 000 ежедневных транзакций)

Sovereign Labs

  • Создает Rollup SDK, ориентированный на технологии нулевого разглашения
  • Стремится обеспечить ZK-роллапы на любом базовом блокчейне, а не только на Ethereum
  • Все еще находится в разработке, позиционируя себя для следующей волны многоцепочечного развертывания ZK

Хотя эти конкуренты преуспевают в определенных нишах, комплексный подход Caldera, объединяющий унифицированную сеть роллапов, поддержку нескольких VM и акцент на опыт разработчиков, помог ей утвердиться в качестве лидера рынка.

Будущее RaaS и масштабирования блокчейна

RaaS готова глубоко изменить ландшафт блокчейна:

1. Распространение цепей, ориентированных на конкретные приложения

Отраслевые исследования показывают, что мы движемся к будущему с потенциально миллионами роллапов, каждый из которых обслуживает конкретные приложения или сообщества. С RaaS, снижающим барьеры развертывания, каждое значимое dApp может иметь свою собственную оптимизированную цепь.

2. Взаимодействие как критическая задача

По мере увеличения числа роллапов способность обмениваться данными и ценностью между ними становится критически важной. Metalayer Caldera представляет собой раннюю попытку решить эту проблему — создание унифицированного опыта в сети роллапов.

3. От изолированных цепей к сетевым экосистемам

Конечная цель — это бесшовный многоцепочечный опыт, где пользователям почти не нужно знать, на какой цепи они находятся. Ценность и данные будут свободно перемещаться по взаимосвязанной сети специализированных роллапов, все из которых защищены надежными сетями Уровня 1.

4. Облачная блокчейн-инфраструктура

RaaS фактически превращает блокчейн-инфраструктуру в облачный сервис. "Rollup Engine" Caldera позволяет динамически обновлять и использовать модульные компоненты, рассматривая роллапы как настраиваемые облачные сервисы, которые могут масштабироваться по требованию.

Что это значит для разработчиков и BlockEden.xyz

В BlockEden.xyz мы видим огромный потенциал в революции RaaS. Как поставщик инфраструктуры, безопасно подключающий разработчиков к узлам блокчейна, мы готовы сыграть решающую роль в этом развивающемся ландшафте.

Распространение роллапов означает, что разработчикам как никогда нужна надежная инфраструктура узлов. Будущее с тысячами цепей, ориентированных на конкретные приложения, требует надежных RPC-сервисов с высокой доступностью — именно то, в чем специализируется BlockEden.xyz.

Мы особенно воодушевлены возможностями в следующих областях:

  1. Специализированные RPC-сервисы для роллапов: По мере того, как роллапы внедряют уникальные функции и оптимизации, специализированная инфраструктура становится критически важной.

  2. Кросс-чейн индексация данных: Поскольку ценность перемещается между несколькими роллапами, разработчикам нужны инструменты для отслеживания и анализа кросс-чейн активности.

  3. Улучшенные инструменты для разработчиков: По мере упрощения развертывания роллапов растет потребность в сложных инструментах мониторинга, отладки и аналитики.

  4. Унифицированный доступ к API: Разработчикам, работающим с несколькими роллапами, нужен упрощенный, унифицированный доступ к разнообразным блокчейн-сетям.

Заключение: Модульное будущее блокчейна

Появление Rollups-as-a-Service представляет собой фундаментальный сдвиг в нашем понимании масштабирования блокчейна. Вместо того, чтобы принуждать все приложения к одной цепи, мы движемся к модульному будущему со специализированными цепями для конкретных вариантов использования, все взаимосвязанные и защищенные надежными сетями Уровня 1.

Подход Caldera — создание унифицированной сети роллапов с общей ликвидностью и бесшовным обменом сообщениями — дает представление об этом будущем. Делая развертывание роллапов таким же простым, как запуск облачного сервера, поставщики RaaS демократизируют доступ к блокчейн-инфраструктуре.

В BlockEden.xyz мы стремимся поддерживать эту эволюцию, предоставляя надежную инфраструктуру узлов и инструменты для разработчиков, необходимые для создания в этом многоцепочечном будущем. Как мы часто говорим, будущее Web3 — это не одна цепь, а тысячи специализированных цепей, работающих вместе.


Хотите создать роллап или нуждаетесь в надежной инфраструктуре узлов для вашего блокчейн-проекта? Свяжитесь с нами по электронной почте: info@BlockEden.xyz, чтобы узнать, как мы можем поддержать вашу разработку с нашей гарантией бесперебойной работы 99,9 % и специализированными RPC-сервисами для более чем 27 блокчейнов.