Перейти к основному контенту

33 поста с тегом "Масштабируемость"

Решения масштабирования блокчейна и производительность

Посмотреть все теги

Война за консолидацию Layer 2: как Base и Arbitrum захватили 77% будущего Ethereum

· 15 мин чтения
Dora Noda
Software Engineer

Когда Виталик Бутерин заявил в феврале 2026 года, что ориентированная на роллапы дорожная карта Ethereum «больше не имеет смысла», он не критиковал технологию Layer 2 — он признавал суровую рыночную правду, которая была очевидна в течение нескольких месяцев: большинство Layer 2 роллапов мертвы, и они просто еще об этом не знают.

Base (46,58 % TVL в L2 DeFi) и Arbitrum (30,86 %) теперь контролируют более 77 % общей заблокированной стоимости экосистемы Layer 2. Optimism добавляет еще ~6 %, в результате чего доля первой тройки достигает 83 % доминирования на рынке. Для остальных 50+ роллапов, борющихся за крохи, математика неумолима: без дифференциации, без пользователей и без устойчивой экономики вымирание — это не вероятность, а неизбежность по расписанию.

Цифры рассказывают историю выживания

Прогноз Layer 2 на 2026 год от The Block рисует картину экстремальной консолидации. В 2025 году Base стал явным лидером по TVL, пользователям и активности. Между тем, в большинстве новых L2 использование резко сократилось после окончания циклов стимулирования, что показало: TVL, подпитываемый баллами (points), — это не реальный спрос, а арендованное внимание, которое испаряется в тот момент, когда прекращаются вознаграждения.

Объем транзакций демонстрирует историю доминирования в режиме реального времени. Base часто лидирует по ежедневным транзакциям, обрабатывая более 50 миллионов транзакций в месяц по сравнению с 40 миллионами у Arbitrum. Arbitrum по-прежнему обрабатывает 1,5 миллиона ежедневных транзакций благодаря устоявшимся протоколам DeFi, играм и активности на DEX. Optimism отстает с 800 000 ежедневных транзакций, хотя и демонстрирует импульс роста.

Ежедневно активные пользователи отдают предпочтение Base с более чем 1 миллионом активных адресов — этот показатель отражает способность Coinbase направлять розничных пользователей напрямую в свою сеть Layer 2. Arbitrum сохраняет около 250 000–300 000 активных пользователей в день, сосредоточенных среди опытных пользователей DeFi и протоколов, которые мигрировали на ранних этапах. Optimism в среднем имеет 82 130 активных адресов в день в OP Mainnet, при этом число активных пользователей в неделю достигает 422 170 (рост на 38,2 %).

Пропасть между победителями и проигравшими огромна. На три ведущих L2 приходится более 80 % активности, в то время как десятки других вместе взятых не могут преодолеть порог в двузначные проценты. Многие развивающиеся L2 следовали по идентичным траекториям: всплеск активности, вызванный стимулами перед событиями генерации токенов (TGE), за которым следовал резкий спад после TGE по мере миграции ликвидности и пользователей в устоявшиеся экосистемы. Это эквивалент схем «памп и дамп» для Layer 2, за исключением того, что команды искренне верили, что их роллапы особенные.

Stage 1 Fraud Proofs: Важный порог безопасности

В январе 2026 года Arbitrum One, OP Mainnet и Base достигли статуса «Stage 1» (Этап 1) согласно классификации роллапов L2BEAT — веха, которая звучит технически, но представляет собой фундаментальный сдвиг в работе системы безопасности Layer 2.

Stage 1 означает, что эти роллапы теперь проходят «тест на выход» (walkaway test): пользователи могут вывести средства даже при наличии злонамеренных операторов и даже если Совет Безопасности исчезнет. Это достигается за счет безразрешительных доказательств мошенничества (permissionless fraud proofs), которые позволяют любому человеку оспорить недействительные переходы состояний в сети. Если оператор попытается украсть средства или подвергнуть цензуре вывод средств, валидаторы могут предоставить доказательства мошенничества, которые отменят вредоносную транзакцию и накажут злоумышленника.

Система BoLD (Bounded Liquidity Delay) от Arbitrum позволяет любому желающему участвовать в проверке состояния цепочки и подаче апелляций, устраняя узкое место централизованного валидатора. BoLD запущена в Arbitrum One, Arbitrum Nova и Arbitrum Sepolia, что делает ее одним из первых крупных роллапов, внедривших полностью безразрешительную систему доказательства мошенничества.

Optimism и Base (который работает на стеке OP Stack) внедрили безразрешительные доказательства мошенничества, которые позволяют любому участнику оспаривать корни состояния (state roots). Такая децентрализация процесса доказательства мошенничества устраняет единую точку отказа, которая преследовала ранние оптимистичные роллапы, где только валидаторы из белого списка могли оспаривать мошеннические транзакции.

Значение: роллапы Stage 1 больше не требуют доверия к мультисигу или совету управления для предотвращения кражи. Если бы команда Arbitrum исчезла завтра, цепочка продолжила бы работать, и пользователи все равно могли бы вывести средства. Это не относится к большинству Layer 2, которые остаются на этапе Stage 0 — централизованных сетях под управлением мультисига, где выход зависит от честности операторов.

Для предприятий и институционалов, оценивающих L2, Stage 1 — это обязательное условие. Нельзя продвигать децентрализованную инфраструктуру, требуя от пользователей доверять мультисигу 5 из 9. Роллапы, не достигшие Stage 1 к середине 2026 года, столкнутся с кризисом доверия: если вы работаете более двух лет и до сих пор не можете децентрализовать безопасность, в чем ваше оправдание?

Великое вымирание Layer 2

Заявление Виталика в феврале 2026 года было не просто философским — это была проверка реальности, подкрепленная данными в блокчейне. Он утверждал, что Layer 1 Ethereum масштабируется быстрее, чем ожидалось: более низкие комиссии и более высокая пропускная способность снижают потребность в распространении типовых роллапов. Если основная сеть Ethereum сможет обрабатывать более 10 000 TPS с помощью PeerDAS и выборки доступности данных (data availability sampling), зачем пользователям фрагментироваться между десятками идентичных L2?

Ответ: они не будут этого делать. Пространство L2 сужается до двух категорий:

  1. Стандартные роллапы, конкурирующие по комиссиям и пропускной способности (Base, Arbitrum, Optimism, Polygon zkEVM)
  2. Специализированные L2 с фундаментально иными моделями исполнения (Prividium от zkSync для предприятий, Immutable X для игр, dYdX для деривативов)

Все, что находится посередине — типовые EVM-роллапы без дистрибуции, без уникальных функций и без причин для существования, кроме «мы тоже Layer 2», — обречено на вымирание.

Десятки роллапов, запущенных в 2024–2025 годах, имели почти идентичные технологические стеки: форки OP Stack или Arbitrum Orbit, оптимистичные или ZK-доказательства мошенничества, стандартное исполнение EVM. Они конкурировали с помощью программ баллов и обещаний аирдропов, а не дифференциации продуктов. Когда события генерации токенов завершились и стимулы иссякли, пользователи массово ушли. TVL рухнул на 70–90 % за считанные недели. Ежедневные транзакции упали до трехзначных чисел.

Паттерн повторялся настолько часто, что стал мемом: «стимулированный тестнет → фарминг баллов → TGE → призрачная сеть (ghost chain)».

Ethereum Name Service (ENS) свернул свой запланированный запуск Layer 2 в феврале 2026 года после комментариев Виталика, решив, что сложность и фрагментация при запуске отдельной цепочки больше не оправдывают маржинальные преимущества масштабирования. Если ENS — одно из самых авторитетных приложений Ethereum — не может обосновать необходимость роллапа, на что надеяться более новым, менее дифференцированным сетям?

Преимущество Coinbase для Base: Дистрибуция как защитный ров

Доминирование Base обусловлено не чисто техническими аспектами, а дистрибуцией. Coinbase может проводить онбординг миллионов розничных пользователей напрямую в Base, так что они даже не осознают, что покинули основную сеть Ethereum. Когда Coinbase Wallet выбирает Base по умолчанию, когда Coinbase Commerce проводит расчеты в Base, когда более 110 миллионов верифицированных пользователей Coinbase получают предложение «попробовать Base для снижения комиссий», маховик раскручивается быстрее, чем это может сделать любая программа стимулирования.

В 2025 году Base обрабатывала более 1 миллиона активных адресов в день — показатель, к которому не приблизилось ни одно другое L2-решение. Эта база пользователей — не наемные фермеры аирдропов, а розничные криптопользователи, которые доверяют Coinbase и следуют подсказкам интерфейса. Их не волнуют этапы децентрализации или механизмы доказательства мошенничества (fraud proofs). Им важно, чтобы транзакции стоили копейки и подтверждались мгновенно.

Coinbase также выигрывает от нормативной ясности, которой не хватает другим L2. Будучи публичной регулируемой компанией, Coinbase может напрямую работать с банками, финтех-компаниями и предприятиями, которые не станут взаимодействовать с псевдонимными командами роллапов. Когда Stripe интегрировала платежи в стейблкоинах, она отдала приоритет Base. Когда PayPal изучала расчеты на блокчейне, Base была в числе обсуждаемых вариантов. Это не просто криптосфера — это масштабное привлечение TradFi (традиционных финансов) в ончейн.

Подвох заключается в том, что Base наследует централизацию Coinbase. Если Coinbase решит цензурировать транзакции, корректировать комиссии или изменять правила протокола, у пользователей будет ограниченный выбор средств защиты. Безопасность уровня Stage 1 помогает, но на практике успех Base зависит от того, останется ли Coinbase заслуживающим доверия оператором. Для DeFi-пуристов это неприемлемо. Для обычных пользователей это преимущество — им нужна была криптовалюта с «подпорками», и Base её предоставляет.

DeFi-крепость Arbitrum: Почему ликвидность важнее пользователей

Arbitrum пошел другим путем: вместо привлечения розничных пользователей он на раннем этапе захватил основные DeFi-протоколы. GMX, Camelot, Radiant Capital, Sushi, Gains Network — Arbitrum стал сетью по умолчанию для деривативов, бессрочных контрактов и высокообъемной торговли. Это создало маховик ликвидности, который практически невозможно остановить.

Доминирование Arbitrum по TVL в DeFi (30,86%) — это не только капитал, но и сетевые эффекты. Трейдеры идут туда, где ликвидность самая глубокая. Маркет-мейкеры развертываются там, где объем торгов самый высокий. Протоколы интегрируются там, где пользователи уже совершают транзакции. Как только этот маховик запущен, конкурентам нужны в 10 раз лучшие технологии или стимулы, чтобы переманить пользователей.

Arbitrum также вложил значительные средства в гейминг и NFT через партнерства с Treasure DAO, Trident и другими проектами. Программа катализатора игрового сектора стоимостью 215 миллионов долларов, запущенная в 2026 году, нацелена на Web3-игры, которым требуются высокая пропускная способность и низкие комиссии — сценарии использования, в которых Ethereum Layer 1 не может конкурировать и где розничный фокус Base не совсем уместен.

В отличие от Base, у Arbitrum нет материнской корпорации, направляющей пользователей. Он рос органично, привлекая сначала разработчиков, а затем пользователей. Это делает рост медленнее, но устойчивее. Проекты, переходящие на Arbitrum, обычно остаются там, потому что их пользователи, ликвидность и интеграции уже на месте.

Проблема: DeFi-ров Arbitrum подвергается атакам со стороны Solana, которая предлагает более быстрое завершение транзакций и более низкие комиссии для тех же сценариев высокочастотной торговли. Если трейдеры деривативами и маркет-мейкеры решат, что гарантии безопасности Ethereum не стоят таких затрат, TVL Arbitrum может перетечь в альтернативные L1 быстрее, чем новые DeFi-протоколы смогут его заменить.

Корпоративный разворот zkSync: Когда розница подводит, целься в банки

zkSync совершил самый смелый разворот среди всех крупных L2. После многих лет борьбы за розничных DeFi-пользователей и конкуренции с Arbitrum и Optimism, zkSync объявил в январе 2026 года, что его основным направлением станут институциональные финансы через Prividium — корпоративный уровень с сохранением конфиденциальности и ограниченным доступом, построенный на ZK Stack.

Prividium соединяет децентрализованную инфраструктуру с институциональными потребностями через корпоративные сети на базе Ethereum с защитой данных. Deutsche Bank и UBS входят в число первых партнеров, изучающих управление фондами на чейне, трансграничные оптовые платежи, потоки ипотечных активов и расчеты по токенизированным активам — всё это с соблюдением корпоративных стандартов конфиденциальности и комплаенса.

Ценностное предложение: банки получают эффективность и прозрачность блокчейна, не раскрывая конфиденциальные данные о транзакциях в публичных сетях. Prividium использует доказательства с нулевым разглашением для проверки транзакций без раскрытия сумм, сторон или типов активов. Решение соответствует регламенту MiCA (крипторегулирование ЕС), поддерживает контроль доступа с разрешениями и закрепляет безопасность в основной сети Ethereum.

Дорожная карта zkSync приоритизирует обновления Atlas (15 000 TPS) и Fusaka (30 000 TPS), одобренные Виталиком Бутериным, позиционируя ZK Stack как инфраструктуру как для публичных роллапов, так и для частных корпоративных сетей. Токен $ZK получает полезность через Token Assembly, которая связывает доходы Prividium с ростом экосистемы.

Риск: zkSync делает ставку на то, что корпоративное внедрение компенсирует снижение его доли на розничном рынке. Если развертывания Deutsche Bank и UBS окажутся успешными, zkSync захватит рынок «голубого океана», на который не претендуют Base и Arbitrum. Если корпорации откажутся от расчетов на чейне или регуляторы отвергнут финансы на базе блокчейна, разворот zkSync станет тупиком, и проект потеряет как розничный DeFi, так и институциональные доходы.

Что убивает роллапы: три причины провала

Изучая «кладбище L2», можно выделить три закономерности, объясняющие крах роллапов:

1. Отсутствие дистрибуции. Создание технически совершенного роллапа ничего не значит, если им никто не пользуется. Разработчики не будут развертывать приложения в «сетях-призраках». Пользователи не будут переводить активы в роллапы без приложений. Проблема холодного старта жестока, и большинство команд недооценивают, сколько капитала и усилий требуется для запуска двустороннего маркетплейса.

2. Истощение стимулов. Программы начисления баллов работают — до поры до времени. Команды, полагающиеся на майнинг ликвидности, ретроактивные аирдропы и фарминг доходности для привлечения TVL, обнаруживают, что спекулятивный капитал уходит в тот же миг, как прекращаются вознаграждения. Устойчивым роллапам нужен органический спрос, а не арендованная ликвидность.

3. Отсутствие дифференциации. Если единственное преимущество вашего роллапа — «мы дешевле, чем Arbitrum», вы участвуете в ценовой гонке на выживание. Основная сеть Ethereum становится дешевле. Arbitrum становится быстрее. У Base есть поддержка Coinbase. В чем ваше конкурентное преимущество? Если ответ — «у нас отличное сообщество», вы уже мертвы, просто еще не признали этого.

Роллапы, которые выживут в 2026 году, окончательно решат хотя бы одну из этих проблем. Остальные превратятся в «сети-зомби»: технически работающие, но экономически не значимые, с валидаторами, обрабатывающими по несколько транзакций в день в ожидании изящного закрытия, которое никогда не наступит, потому что всем будет все равно.

Волна корпоративных роллапов: институты как канал дистрибуции

2025 год ознаменовался ростом «корпоративных роллапов» — крупные институты запускали или внедряли инфраструктуру L2, часто стандартизируя ее на базе OP Stack. Kraken представил INK, Uniswap запустил UniChain, Sony представила Soneium для игр и медиа, а Robinhood интегрировал Arbitrum для расчетных рельсов квази-L2.

Этот тренд продолжится в 2026 году, когда предприятия поймут, что могут развертывать роллапы, адаптированные под их конкретные нужды: разрешенный доступ, настраиваемые структуры комиссий, механизмы комплаенса и прямая интеграция с унаследованными системами. Это не публичные сети, конкурирующие с Base или Arbitrum — это частная инфраструктура, которая использует технологию роллапов и рассчитывается в Ethereum для обеспечения безопасности.

Следствие: общее количество «Layer 2» может увеличиться, но число значимых публичных L2 сократится. Большинство корпоративных роллапов не будут фигурировать в рейтингах TVL, списках количества пользователей или DeFi-активности. Они станут невидимой инфраструктурой, и в этом вся суть.

Для разработчиков, строящих на публичных L2, это создает более четкую конкурентную среду. Вы больше не конкурируете с каждым встречным роллапом — вы конкурируете с дистрибуцией Base, ликвидностью Arbitrum и экосистемой OP Stack от Optimism. Все остальное — просто шум.

Как выглядит 2026 год: будущее трех платформ

К концу года экосистема Layer 2, скорее всего, консолидируется вокруг трех доминирующих платформ, каждая из которых обслуживает разные рынки:

Base забирает розничный сектор и массовое внедрение. Преимущество дистрибуции Coinbase непреодолимо для обычных конкурентов. Любой проект, ориентированный на обычных пользователей, должен выбирать Base по умолчанию, если нет веских причин поступать иначе.

Arbitrum доминирует в DeFi и высокочастотных приложениях. Глубокая ликвидность и развитая экосистема разработчиков делают его стандартом для деривативов, перпетуалов и сложных финансовых протоколов. Игры и NFT останутся векторами роста, если программа стимулирования на $ 215 млн принесет плоды.

zkSync / Prividium забирает корпоративный сектор и институциональные финансы. Если пилотные проекты Deutsche Bank и UBS увенчаются успехом, zkSync захватит рынок, к которому публичные L2 не могут прикоснуться из-за требований комплаенса и конфиденциальности.

Optimism выживает как поставщик OP Stack — скорее не как отдельная сеть, а как инфраструктурный уровень, питающий Base, корпоративные роллапы и общественные блага. Его ценность растет благодаря концепции Superchain, где десятки сетей на базе OP Stack разделяют ликвидность, обмен сообщениями и безопасность.

Все остальные — Polygon zkEVM, Scroll, Starknet, Linea, Metis, Blast, Manta, Mode и еще более 40 публичных L2 — сражаются за оставшиеся 10–15 % доли рынка. Некоторые найдут свои ниши (Immutable X для игр, dYdX для деривативов). Большинство — нет.

Почему это важно для разработчиков (и где строить)

Если вы строите на Ethereum, ваш выбор L2 в 2026 году будет не техническим, а стратегическим. Optimistic роллапы и ZK-роллапы сблизились настолько, что разница в производительности для большинства приложений стала незначительной. Теперь важны дистрибуция, ликвидность и соответствие экосистеме.

Стройте на Base, если: вы ориентируетесь на массовых пользователей, создаете потребительские приложения или интегрируетесь с продуктами Coinbase. Здесь самый низкий порог входа для пользователей.

Стройте на Arbitrum, если: вы создаете DeFi-проекты, деривативы или высокопроизводительные приложения, которым нужна глубокая ликвидность и устоявшиеся протоколы. Здесь самые сильные сетевые эффекты.

Стройте на zkSync / Prividium, если: вы ориентируетесь на институты, требуете конфиденциальных транзакций или нуждаетесь в инфраструктуре, готовой к комплаенсу. Здесь уникальный фокус на корпоративный сектор.

Стройте на Optimism, если: вы разделяете видение Superchain, хотите кастомизировать роллап на базе OP Stack или цените финансирование общественных благ. Здесь самая высокая модульность.

Не стройте в сетях-зомби. Если в роллапе менее 10 000 активных пользователей в день, менее $ 100 млн TVL, а запущен он был более года назад — это не «ранняя стадия», это провал. Миграция позже обойдется дороже, чем запуск на доминирующей сети сегодня.

Для проектов, строящих на Ethereum Layer 2, BlockEden.xyz предоставляет RPC-инфраструктуру корпоративного уровня для Base, Arbitrum, Optimism и других ведущих сетей. Независимо от того, привлекаете ли вы розничных пользователей, управляете ликвидностью в DeFi или масштабируете высокопроизводительные приложения, наша API-инфраструктура создана для обеспечения работы роллапов промышленного уровня. Изучите наш маркетплейс мультичейн API, чтобы строить на тех Layer 2, которые действительно имеют значение.

Источники

Запуск основной сети MegaETH: сможет ли блокчейн реального времени свергнуть гигантов L2 в Ethereum?

· 11 мин чтения
Dora Noda
Software Engineer

Мир блокчейна только что стал свидетелем чего-то экстраординарного. 9 февраля 2026 года MegaETH запустила свой публичный мейннет с амбициозным обещанием: 100 000 транзакций в секунду при времени генерации блока в 10 миллисекунд. Только во время стресс-тестирования сеть обработала более 10,7 миллиарда транзакций — превзойдя всю десятилетнюю историю Ethereum всего за одну неделю.

Но сможет ли маркетинговый ажиотаж превратиться в производственную реальность? И что еще более важно, сможет ли этот новичок, поддерживаемый Виталиком, бросить вызов устоявшемуся доминированию Arbitrum, Optimism и Base в войнах Ethereum Layer 2?

Обещание: пришествие блокчейна реального времени

Большинство пользователей блокчейна сталкивались с разочарованием от ожидания подтверждения транзакции в течение нескольких секунд или минут. Даже самые быстрые решения Layer 2 для Ethereum работают с временем финализации 100–500 мс и в лучшем случае обрабатывают десятки тысяч транзакций в секунду. Для большинства DeFi-приложений это приемлемо. Но для высокочастотного трейдинга, игр в реальном времени и ИИ-агентов, требующих мгновенной обратной связи, такие задержки являются критическим препятствием.

Предложение MegaETH простое, но радикальное: полностью устранить ончейн-задержки.

Сеть нацелена на 100 000 TPS с временем блока 1–10 мс, создавая то, что команда называет «первым блокчейном реального времени». Для сравнения: это 1 700 Mgas / s (миллионов газа в секунду) вычислительной пропускной способности — что полностью затмевает 15 Mgas / s у Optimism и 128 Mgas / s у Arbitrum. Даже амбициозная цель Base в 1 000 Mgas / s выглядит скромно на этом фоне.

Проект, поддерживаемый соучредителями Ethereum Виталиком Бутериным и Джо Любиным через материнскую компанию MegaLabs, привлек 450 миллионов долларов в ходе токенсейла с переподпиской, в котором приняли участие 14 491 человек, при этом 819 кошельков выбрали максимальные индивидуальные аллокации в размере 186 000 долларов каждый. Такой уровень институционального и розничного интереса позиционирует MegaETH как один из самых хорошо финансируемых и наиболее отслеживаемых проектов Ethereum Layer 2 на начало 2026 года.

Реальность: результаты стресс-тестирования

Обещания в криптомире стоят дешево. Важна измеримая производительность в реальных условиях.

Недавние стресс-тесты MegaETH продемонстрировали устойчивую пропускную способность в 35 000 TPS — это значительно ниже теоретической цели в 100 000 TPS, но все же впечатляет по сравнению с конкурентами. Во время этих тестов сеть поддерживала время блока 10 мс, обрабатывая 10,7 миллиарда транзакций, что затмило весь исторический объем Ethereum.

Эти цифры раскрывают как потенциал, так и существующий разрыв. Достижение 35 000 TPS в контролируемых испытаниях — это выдающийся результат. Сможет ли сеть сохранять такие скорости в состязательных условиях, при спам-атаках, извлечении MEV и сложных взаимодействиях со смарт-контрактами, еще предстоит выяснить.

Архитектурный подход фундаментально отличается от существующих решений Layer 2. В то время как Arbitrum и Optimism используют оптимистичные роллапы, которые объединяют транзакции вне чейна и периодически проводят расчеты в L1 Ethereum, MegaETH использует трехуровневую архитектуру со специализированными нодами:

  • Ноды-секвенсоры (Sequencer Nodes) упорядочивают и транслируют транзакции в реальном времени
  • Ноды-пруверы (Prover Nodes) проверяют и генерируют криптографические доказательства
  • Полные ноды (Full Nodes) поддерживают состояние сети

Эта параллельная модульная конструкция выполняет несколько смарт-контрактов одновременно на разных ядрах без конфликтов, что теоретически позволяет достичь экстремальных показателей пропускной способности. Секвенсор немедленно финализирует транзакции, не дожидаясь расчетов пакета, благодаря чему MegaETH достигает задержки менее миллисекунды.

Конкурентная среда: войны L2 накаляются

Экосистема Layer 2 в Ethereum превратилась в жесткий конкурентный рынок с явными победителями и проигравшими. По состоянию на начало 2026 года общая заблокированная стоимость (TVL) в решениях Layer 2 для Ethereum достигла 51 миллиарда долларов, а к 2030 году прогнозируется рост до 1 триллиона долларов.

Но этот рост распределен неравномерно. Base, Arbitrum и Optimism контролируют примерно 90% объема транзакций Layer 2. Только Base за последние месяцы захватила 60% доли транзакций L2, используя дистрибуцию Coinbase и 100 миллионов потенциальных пользователей. Arbitrum удерживает 31% доли рынка DeFi с 215 миллионами долларов в игровых катализаторах, в то время как Optimism фокусируется на интероперабельности в своей экосистеме Superchain.

Большинство новых Layer 2 рушатся после прекращения стимулов, создавая то, что некоторые аналитики называют «зомби-чейнами» с минимальной активностью. Волна консолидации жестока: если вы не входите в топ-тир, вы, скорее всего, боретесь за выживание.

MegaETH выходит на этот зрелый конкурентный рынок с иным ценностным предложением. Вместо того чтобы напрямую конкурировать с L2 общего назначения по комиссиям или безопасности, проект нацелен на конкретные сценарии использования, где производительность в реальном времени открывает совершенно новые категории приложений:

Высокочастотный трейдинг

Традиционные CEX обрабатывают сделки за микросекунды. DeFi-протоколы на существующих L2 не могут конкурировать с временем финализации в 100–500 мс. Время блока MegaETH в 10 мс приближает ончейн-трейдинг к производительности CEX, что потенциально может привлечь институциональную ликвидность, которая в настоящее время избегает DeFi из-за задержек.

Игры в реальном времени

Ончейн-игры на современных блокчейнах страдают от заметных задержек, которые разрушают эффект погружения. Субмиллисекундная финальность обеспечивает отзывчивый игровой процесс, который ощущается как в традиционных играх Web2, сохраняя при этом проверяемость блокчейна и гарантии владения активами.

Координация ИИ-агентов

Автономным ИИ-агентам, совершающим миллионы микротранзакций в день, необходимы мгновенные расчеты. Архитектура MegaETH специально оптимизирована для приложений на базе ИИ, требующих высокой пропускной способности и низкой задержки при выполнении смарт-контрактов.

Вопрос заключается в том, создадут ли эти специализированные варианты использования достаточный спрос, чтобы оправдать существование MegaETH наряду с L2-сетями общего назначения, или же рынок продолжит консолидироваться вокруг Base, Arbitrum и Optimism.

Сигналы институционального принятия

Институциональное принятие стало ключевым фактором, отделяющим успешные проекты Layer 2 от неудачных. Предсказуемая и высокопроизводительная инфраструктура теперь является обязательным требованием для институциональных участников, распределяющих капитал в ончейн-приложения.

Продажа токенов MegaETH на сумму 450 миллионов долларов продемонстрировала сильный аппетит со стороны институционалов. Состав участников — от крипто-нативных фондов до стратегических партнеров — свидетельствует о доверии, выходящем за рамки розничных спекуляций. Однако успех в привлечении средств не гарантирует принятия сети.

Настоящее испытание наступит в месяцы, следующие за запуском основной сети. Ключевые метрики, за которыми стоит следить:

  • Принятие разработчиками: Строят ли команды HFT-протоколы, игры и приложения для ИИ-агентов на MegaETH?
  • Рост TVL: Поступает ли капитал в нативные DeFi-протоколы MegaETH?
  • Устойчивость объема транзакций: Сможет ли сеть поддерживать высокий показатель TPS за пределами стресс-тестов?
  • Корпоративные партнерства: Интегрируют ли MegaETH институциональные торговые фирмы и игровые студии?

Ранние показатели указывают на растущий интерес. Запуск мейннета MegaETH совпадает с Consensus Hong Kong 2026 — стратегический выбор времени, который обеспечивает сети максимальную видимость среди азиатской институциональной блокчейн-аудитории.

Мейннет также запускается в тот момент, когда сам Виталик Бутерин поставил под сомнение давнюю дорожную карту Ethereum, ориентированную на роллапы, предположив, что масштабированию L1 Ethereum следует уделять больше внимания. Это создает как возможности, так и риски для MegaETH: возможности, если нарратив L2 ослабнет, и риски, если сам L1 Ethereum достигнет более высокой производительности благодаря обновлениям, таким как PeerDAS и Fusaka.

Проверка технических реалий

Заявления об архитектуре MegaETH заслуживают тщательного анализа. Цель в 100 000 TPS с временем блока 10 мс звучит впечатляюще, но несколько факторов усложняют эту картину.

Во-первых, показатель в 35 000 TPS, достигнутый в ходе стресс-тестирования, представляет собой контролируемые, оптимизированные условия. Реальное использование включает в себя различные типы транзакций, сложные взаимодействия смарт-контрактов и состязательное поведение. Поддерживать стабильную производительность в таких условиях гораздо сложнее, чем в синтетических бенчмарках.

Во-вторых, трехслойная архитектура несет в себе риски централизации. Узлы-секвенсоры обладают значительной властью при упорядочивании транзакций, что создает возможности для извлечения MEV. Хотя MegaETH, вероятно, включает механизмы распределения ответственности секвенсоров, детали имеют огромное значение для безопасности и устойчивости к цензуре.

В-третьих, гарантии финальности различаются: существует «мягкая финальность» от секвенсора и «жесткая финальность» после генерации доказательств и расчетов в L1 Ethereum. Пользователям нужна ясность относительно того, о каком типе финальности говорит маркетинг MegaETH, заявляя о субмиллисекундной производительности.

В-четвертых, модель параллельного выполнения требует тщательного управления состоянием во избежание конфликтов. Если несколько транзакций затрагивают одно и то же состояние смарт-контракта, они не могут выполняться по-настоящему параллельно. Эффективность подхода MegaETH сильно зависит от характеристик рабочей нагрузки — приложения с естественно распараллеливаемыми транзакциями получат больше преимуществ, чем те, где часто возникают конфликты состояний.

Наконец, инструментарий для разработчиков и совместимость экосистемы важны не меньше, чем чистая производительность. Успех Ethereum частично обусловлен стандартизированными инструментами (Solidity, Remix, Hardhat, Foundry), которые делают процесс разработки бесшовным. Если MegaETH потребует значительных изменений в рабочих процессах разработки, принятие пострадает независимо от преимуществ в скорости.

Сможет ли MegaETH свергнуть гигантов L2?

Честный ответ: скорее всего, не полностью, но это может и не потребоваться.

Base, Arbitrum и Optimism обладают устоявшимися сетевыми эффектами, миллиардами в TVL и разнообразными экосистемами приложений. Они эффективно обслуживают общие потребности с разумными комиссиями и безопасностью. Их полное вытеснение потребовало бы не только превосходных технологий, но и миграции экосистемы, что чрезвычайно сложно.

Тем не менее, MegaETH не обязательно одерживать полную победу. Если сеть успешно захватит рынки высокочастотной торговли, игр в реальном времени и координации ИИ-агентов, она сможет процветать как специализированный Layer 2 наряду с конкурентами общего назначения.

Блокчейн-индустрия движется к архитектурам, ориентированным на конкретные приложения. Uniswap запустил специализированный L2. Kraken построил роллап для трейдинга. Sony создала сеть, ориентированную на игры. MegaETH вписывается в этот тренд: специализированная инфраструктура для приложений, чувствительных к задержкам.

Критическими факторами успеха являются:

  1. Выполнение обещаний по производительности: Поддержание более 35 000 TPS с финальностью < 100 мс в производственной среде было бы выдающимся достижением. Достижение 100 000 TPS с временем блока 10 мс стало бы трансформационным событием.

  2. Привлечение прорывных приложений: MegaETH нужен как минимум один протокол-хит, который продемонстрирует явные преимущества перед альтернативами. HFT-протокол с производительностью уровня CEX или игра в реальном времени с миллионами пользователей подтвердили бы этот тезис.

  3. Управление вопросами централизации: Прозрачное решение проблем централизации секвенсоров и рисков MEV укрепит доверие институциональных пользователей, которым важна устойчивость к цензуре.

  4. Создание экосистемы разработчиков: Инструменты, документация и поддержка разработчиков определят, выберут ли создатели MegaETH вместо устоявшихся альтернатив.

  5. Работа в регуляторной среде: Приложения для трейдинга и игр в реальном времени привлекают внимание регуляторов. Четкие нормативные рамки будут иметь значение для институционального принятия.

Вердикт: сдержанный оптимизм

MegaETH представляет собой подлинный технический прогресс в масштабировании Ethereum. Результаты стресс-тестирования впечатляют, поддержка заслуживает доверия, а ориентация на конкретные сценарии использования выглядит разумной. Блокчейн реального времени открывает доступ к приложениям, которые действительно не могут существовать на текущей инфраструктуре.

Но скептицизм вполне оправдан. Мы видели много «убийц Ethereum» и «L2 следующего поколения», которые не оправдали маркетинговую шумиху. Разрыв между теоретической производительностью и надежностью в реальных условиях эксплуатации часто бывает огромен. Сетевые эффекты и привязка к экосистеме играют на руку уже устоявшимся игрокам.

Следующие шесть месяцев станут решающими. Если MegaETH сохранит показатели стресс-тестов в реальных условиях эксплуатации, привлечет значительную активность разработчиков и продемонстрирует практические сценарии использования, которые невозможны на Arbitrum или Base, он займет свое место в экосистеме Layer 2 для Ethereum.

Если же производительность при стресс-тестировании снизится под реальной нагрузкой или специализированные сценарии использования не материализуются, MegaETH рискует стать еще одним переоцененным проектом, борющимся за актуальность на все более консолидированном рынке.

Индустрии блокчейна не нужны новые Layer 2 общего назначения. Ей необходима специализированная инфраструктура, позволяющая создавать совершенно новые категории приложений. Успех или неудача MegaETH покажет, является ли блокчейн реального времени востребованной категорией или же это решение, которое ищет проблему.

BlockEden.xyz предоставляет инфраструктуру корпоративного уровня для высокопроизводительных блокчейн-приложений, включая специализированную поддержку экосистем Ethereum Layer 2. Изучите наши API-сервисы, разработанные для обеспечения строгих требований к задержке и пропускной способности.


Источники:

Сенсационное заявление Виталика об L2: почему дорожная карта Ethereum, ориентированная на роллапы, «больше не имеет смысла»

· 12 мин чтения
Dora Noda
Software Engineer

«Вы не масштабируете Ethereum».

Этими словами Виталик Бутерин представил суровую реальность, которая вызвала шок во всей экосистеме Ethereum. Это заявление, адресованное сетям с высокой пропускной способностью, использующим мультисиг-мосты, вызвало немедленную реакцию: всего через несколько дней ENS Labs отменила запланированный запуск роллапа Namechain, сославшись на резкое улучшение производительности базового уровня Ethereum.

После многих лет позиционирования L2-роллапов в качестве основного решения для масштабирования Ethereum, разворот соучредителя в феврале 2026 года представляет собой один из самых значительных стратегических сдвигов в истории блокчейна. Теперь вопрос заключается в том, смогут ли тысячи существующих L2-проектов адаптироваться — или они станут неактуальными.

Дорожная карта, ориентированная на роллапы: что изменилось?

В течение многих лет официальная стратегия масштабирования Ethereum строилась вокруг роллапов. Логика была проста: Ethereum L1 сосредоточится на безопасности и децентрализации, в то время как сети Layer 2 будут обрабатывать основной объем транзакций, выполняя их вне сети и отправляя сжатые данные обратно в мейннет.

Эта дорожная карта имела смысл, когда Ethereum L1 с трудом справлялся с 15–30 TPS, а комиссии за газ регулярно превышали 50 $ за транзакцию в периоды пиковой нагрузки. Проекты, такие как Arbitrum, Optimism и zkSync, привлекли миллиарды для создания инфраструктуры роллапов, которая в конечном итоге должна была масштабировать Ethereum до миллионов транзакций в секунду.

Но два критических события подорвали этот сценарий.

Во-первых, децентрализация L2 продвигалась «гораздо медленнее», чем ожидалось, по словам Бутерина. Большинство роллапов по-прежнему полагаются на централизованные секвенсоры, ключи обновления мультисиг и доверенных операторов. Путь к децентрализации «Стадии 2» (Stage 2) — когда роллапы могут работать без «вспомогательных колес» — оказался чрезвычайно сложным. Лишь немногие проекты достигли «Стадии 1», и ни один не достиг «Стадии 2».

Во-вторых, сам Ethereum L1 значительно масштабировался. Обновление Fusaka в начале 2026 года принесло снижение комиссий на 99 % для многих вариантов использования. Лимиты газа увеличились с 60 миллионов до 200 миллионов с предстоящим форком Glamsterdam. Проверка доказательств с нулевым разглашением нацелена на 10 000 TPS на уровне L1 к концу 2026 года.

Внезапно предпосылка, на которой основывались миллиардные инвестиции в L2 — о том, что Ethereum L1 не может масштабироваться — стала сомнительной.

ENS Namechain: первая крупная жертва

Решение Ethereum Name Service отказаться от своего L2-роллапа Namechain стало самым резонансным подтверждением пересмотренного мышления Бутерина.

ENS разрабатывала Namechain годами как специализированный роллап для более дешевой регистрации и продления имен, чем это позволяла основная сеть. При комиссии за газ в 5 $ за регистрацию во время пиковой нагрузки в 2024 году экономическое обоснование было убедительным.

К февралю 2026 года этот расчет полностью изменился. Плата за регистрацию ENS упала ниже 5 центов в основной сети Ethereum L1 — снижение на 99 %. Сложность инфраструктуры, текущие расходы на обслуживание и фрагментация пользователей при запуске отдельного L2 больше не оправдывали минимальную экономию средств.

ENS Labs не отказалась от обновления ENSv2, которое представляет собой полную переработку контрактов ENS с улучшенным удобством использования и инструментами для разработчиков. Вместо этого команда развернула ENSv2 непосредственно в мейннете Ethereum, избегая накладных расходов на координацию при переносе данных между L1 и L2.

Эта отмена сигнализирует о более широкой тенденции: если Ethereum L1 продолжит эффективно масштабироваться, специализированные роллапы потеряют свое экономическое обоснование. Зачем поддерживать отдельную инфраструктуру, когда базового уровня достаточно?

Проблема мультисиг-мостов и 10 000 TPS

Критика Бутериным мультисиг-мостов затрагивает саму суть того, что на самом деле означает «масштабирование Ethereum».

Его заявление — «Если вы создаете EVM с 10 000 TPS, где связь с L1 опосредована мультисиг-мостом, то вы не масштабируете Ethereum» — проводит четкую черту между подлинным масштабированием Ethereum и независимыми блокчейнами, которые лишь заявляют о своей связи с ним.

Это различие имеет огромное значение для безопасности и децентрализации.

Мультисиг-мост полагается на небольшую группу операторов для подтверждения кросс-чейн транзакций. Пользователи доверяют тому, что эта группа не вступит в сговор, не будет взломана и не окажется под давлением регуляторов. История показывает, что это доверие часто неоправданно: взломы мостов привели к убыткам на миллиарды долларов, при этом только эксплойт Ronin Bridge стоил более 600 миллионов $.

Настоящее масштабирование Ethereum наследует гарантии безопасности самого Ethereum. Правильно реализованный роллап использует доказательства мошенничества (fraud proofs) или доказательства достоверности (validity proofs), чтобы гарантировать, что любой недопустимый переход состояния может быть оспорен и отменен, а споры разрешаются валидаторами Ethereum L1. Пользователям не нужно доверять мультисигу — они доверяют механизму консенсуса Ethereum.

Проблема в том, что достижение такого уровня безопасности технически сложно и дорого. Многие проекты, называющие себя «Ethereum L2», срезают углы:

  • Централизованные секвенсоры: одна сущность упорядочивает транзакции, создавая риск цензуры и единые точки отказа.
  • Мультисиг-ключи обновления: небольшая группа может изменять правила протокола без согласия сообщества, что потенциально позволяет украсть средства или изменить экономику.
  • Отсутствие гарантий выхода: если секвенсор отключится или ключи обновления будут скомпрометированы, у пользователей может не быть надежного способа вывести активы.

Это не теоретические опасения. Исследования показывают, что большинство сетей L2 остаются гораздо более централизованными, чем Ethereum L1, а децентрализация рассматривается как долгосрочная цель, а не как немедленный приоритет.

Формулировка Бутерина ставит неудобный вопрос: если L2 не наследует безопасность Ethereum, действительно ли он «масштабирует Ethereum» или это просто еще один альтчейн с брендингом Ethereum?

Новая концепция L2: ценность за пределами масштабирования

Вместо того чтобы полностью отказываться от L2-решений, Бутерин предложил рассматривать их как спектр сетей с различным уровнем связи с Ethereum, каждая из которых предлагает свои компромиссы.

Важнейший вывод заключается в том, что L2 должны предоставлять ценность помимо базового масштабирования, если они хотят оставаться актуальными по мере совершенствования Ethereum L1:

Функции конфиденциальности

Такие сети, как Aztec и Railgun, предлагают программируемую конфиденциальность с использованием доказательств с нулевым разглашением. Эти возможности сложно реализовать в прозрачном публичном L1, что создает реальную дифференциацию.

Дизайн под конкретные приложения

Игровые роллапы, такие как Ronin или IMX, оптимизированы для высокочастотных транзакций с низкой стоимостью и имеют иные требования к финализации, чем финансовые приложения. Такая специализация оправдана, даже если L1 адекватно масштабируется для большинства случаев использования.

Сверхбыстрое подтверждение

Некоторым приложениям требуется финализация менее чем за секунду, что невозможно при 12-секундном времени блока в L1. Эту нишу могут занять L2-решения с оптимизированным консенсусом.

Нефинансовые сценарии использования

Идентификация, социальные графы и доступность данных имеют иные требования, чем DeFi. Специализированные L2 могут оптимизироваться под эти рабочие нагрузки.

Бутерин подчеркнул, что L2 должны «четко объяснять пользователям, какие гарантии они предоставляют». Времена расплывчатых заявлений о «масштабировании Ethereum» без уточнения моделей безопасности, статуса децентрализации и предположений о доверии прошли.

Реакция экосистемы: адаптация или отрицание?

Реакция на комментарии Бутерина выявила раздробленность экосистемы, переживающей кризис идентичности.

Polygon объявил о стратегическом повороте, сосредоточившись в первую очередь на платежах, явно признав, что масштабирование общего назначения становится обыденным товаром. Команда поняла, что для дифференциации необходима специализация.

Марк Буарон (Offchain Labs) утверждал, что комментарии Бутерина были «не столько об отказе от роллапов, сколько о повышении ожиданий от них». Такая формулировка сохраняет нарратив о роллапах, признавая при этом необходимость более высоких стандартов.

Сторонники Solana воспользовались возможностью заявить, что монолитная архитектура Solana полностью исключает сложность L2, указывая на то, что многоцепочечная фрагментация Ethereum создает худший пользовательский опыт (UX), чем один высокопроизводительный L1.

Разработчики L2, как правило, защищали свою значимость, подчеркивая функции, выходящие за рамки чистой пропускной способности — конфиденциальность, кастомизацию, специализированную экономику — при этом молча признавая, что стратегии, основанные только на масштабировании, становится все труднее обосновывать.

Общая тенденция очевидна: ландшафт L2 разделится на две категории:

  1. Массовые роллапы, конкурирующие в основном по комиссиям и пропускной способности, вероятно, консолидирующиеся вокруг нескольких доминирующих игроков (Base, Arbitrum, Optimism).

  2. Специализированные L2 с фундаментально иными моделями исполнения, предлагающие уникальные ценностные предложения, которые L1 не может воспроизвести.

Сети, не попавшие ни в одну из этих категорий, столкнутся с неопределенным будущим.

Что должны сделать L2-решения, чтобы выжить

Для существующих Layer 2 проектов поворот Бутерина создает как экзистенциальное давление, так и стратегическую ясность. Выживание требует решительных действий по нескольким направлениям:

1. Ускорить децентрализацию

Нарратив «мы когда-нибудь децентрализуемся» больше неприемлем. Проекты должны опубликовать конкретные графики для:

  • Сетей секвенсоров без разрешений (или заслуживающих доверия доказательств полномочий)
  • Удаления или временной блокировки ключей обновления
  • Внедрения систем защиты от сбоев с гарантированными окнами выхода

L2, которые остаются централизованными, заявляя при этом о безопасности Ethereum, особенно уязвимы для регуляторного надзора и репутационного ущерба.

2. Сформулировать ценностное предложение

Если главным преимуществом L2 является то, что он «дешевле Ethereum», ему нужен новый подход. Устойчивая дифференциация требует:

  • Специализированных функций: конфиденциальность, кастомизированное исполнение VM, новые модели состояния
  • Четкости целевой аудитории: игры? платежи? социальные сети? DeFi?
  • Честного раскрытия информации о безопасности: какие существуют предположения о доверии? какие векторы атак остаются?

Маркетинговые обещания не сработают, когда пользователи могут сравнить реальные показатели децентрализации с помощью таких инструментов, как L2Beat.

3. Решить проблему безопасности мостов

Мосты с мультиподписью — самое слабое звено в безопасности L2. Проекты должны:

  • Внедрить доказательства мошенничества или доказательства достоверности для мостов без доверия
  • Добавить временные задержки и слои социального консенсуса для экстренного вмешательства
  • Обеспечить механизмы гарантированного выхода, которые работают даже в случае сбоя секвенсоров

Безопасность мостов не может быть второстепенной задачей, когда на кону стоят миллиарды пользовательских средств.

4. Сосредоточиться на интероперабельности

Фрагментация — самая большая проблема UX в Ethereum. L2 должны:

  • Поддерживать стандарты межсетевого обмена сообщениями (LayerZero, Wormhole, Chainlink CCIP)
  • Обеспечить беспрепятственный обмен ликвидностью между сетями
  • Создавать уровни абстракции, скрывающие сложность от конечных пользователей

Победившие L2 будут восприниматься как расширение Ethereum, а не как изолированные острова.

5. Принять консолидацию

Реально рынок не может поддерживать более 100 жизнеспособных L2. Многим придется объединиться, сменить направление или изящно закрыться. Чем раньше команды признают это, тем лучше они смогут подготовиться к стратегическому партнерству или поглощению, вместо того чтобы медленно терять актуальность.

Дорожная карта масштабирования Ethereum L1

Пока L2-решения сталкиваются с кризисом идентичности, Ethereum L1 реализует агрессивный план масштабирования, который подкрепляет аргументы Бутерина.

Форк Glamsterdam (середина 2026 года): Внедряет списки доступа к блокам (Block Access Lists, BAL), обеспечивая идеальную параллельную обработку путем предварительной загрузки данных транзакций в память. Лимиты газа увеличатся с 60 миллионов до 200 миллионов, что значительно повысит пропускную способность для сложных смарт-контрактов.

Валидация доказательств с нулевым разглашением (ZK-доказательств): Первый этап развертывания в 2026 году нацелен на переход 10% валидаторов на ZK-валидацию, при которой валидаторы проверяют математические доказательства точности блоков вместо повторного выполнения всех транзакций. Это позволит Ethereum масштабироваться до 10 000 TPS, сохраняя при этом безопасность и децентрализацию.

Разделение предлагающего и строителя (ePBS): Интегрирует конкуренцию строителей непосредственно в уровень консенсуса Ethereum, сокращая извлечение MEV и повышая цензуроустойчивость.

Эти обновления не устраняют необходимость в L2, но они опровергают предположение о том, что масштабирование L1 невозможно или нецелесообразно. Если Ethereum L1 достигнет 10 000 TPS с параллельным выполнением и ZK-валидацией, планка для дифференциации L2-решений значительно поднимется.

Долгосрочная перспектива: Что победит?

Стратегия масштабирования Ethereum вступает в новую фазу, где разработку L1 и L2 следует рассматривать как взаимодополняющую, а не конкурентную.

Роллап-центричная дорожная карта предполагала, что L1 останется медленным и дорогим на неопределенный срок. Это предположение теперь устарело. L1 будет масштабироваться — возможно, не до миллионов TPS, но достаточно для обслуживания большинства массовых сценариев использования с разумными комиссиями.

L2-проекты, которые осознают эту реальность и переориентируются на подлинную дифференциацию, смогут процветать. Те же, кто продолжит позиционировать себя как «быстрее и дешевле, чем Ethereum», столкнутся с трудностями, поскольку L1 сокращает разрыв в производительности.

Главная ирония заключается в том, что комментарии Бутерина могут укрепить долгосрочные позиции Ethereum. Заставляя L2 повышать свои стандарты — реальную децентрализацию, честное раскрытие информации о безопасности, специализированные ценностные предложения — Ethereum отсеивает слабейшие проекты, одновременно повышая качество всей экосистемы.

Пользователи выигрывают от более четкого выбора: использовать Ethereum L1 для максимальной безопасности и децентрализации или выбирать специализированные L2 для конкретных функций с явно заявленными компромиссами. Промежуточный вариант в духе «мы вроде как масштабируем Ethereum с помощью моста с мультиподписью» исчезает.

Для проектов, строящих будущее блокчейн-инфраструктуры, сигнал ясен: задача общего масштабирования решена. Если ваш L2 не предлагает того, чего не может Ethereum L1, вы строите на заимствованном времени.

BlockEden.xyz предоставляет инфраструктуру корпоративного уровня для Ethereum L1 и основных сетей второго уровня (Layer 2), предлагая разработчикам инструменты для создания приложений во всей экосистеме Ethereum. Изучите наши API-сервисы для масштабируемого и надежного подключения к блокчейну.


Источники:

SONAMI достигает 10-го этапа: сможет ли стратегия Layer 2 для Solana бросить вызов доминированию L2 на Ethereum?

· 11 мин чтения
Dora Noda
Software Engineer

Solana только что преодолела порог, который многие считали невозможным: блокчейн, созданный для чистой скорости, теперь накладывает дополнительные среды исполнения. SONAMI, позиционирующая себя как первый Layer 2 (L2) промышленного уровня для Solana, объявила о достижении 10-го этапа (Stage 10) в начале февраля 2026 года, ознаменовав поворотный момент в подходе высокопроизводительного блокчейна к масштабируемости.

В течение многих лет нарратив был прост: Ethereum нужны решения Layer 2, потому что его базовый уровень не масштабируется. Solana не нужны L2, потому что она уже обрабатывает тысячи транзакций в секунду. Теперь, когда SONAMI достигла готовности к эксплуатации, а конкурирующие проекты, такие как SOON и Eclipse, набирают обороты, Solana тихо перенимает модульную стратегию, которая превратила экосистему роллапов Ethereum в гиганта стоимостью $ 33 миллиарда.

Вопрос не в том, нужны ли Solana решения Layer 2. Вопрос в том, сможет ли нарратив Solana L2 конкурировать с устоявшимся доминированием Base, Arbitrum и Optimism — и что это значит, когда каждый блокчейн сходится к одному и тому же решению для масштабирования.

Почему Solana строит уровни Layer 2 (и почему именно сейчас)

Теоретическая цель Solana — 65 000 транзакций в секунду. На практике сеть обычно работает на уровне нескольких тысяч, время от времени сталкиваясь с перегрузками во время минта NFT или безумия мем-коинов. Критики указывают на сбои в работе сети и снижение производительности при пиковой нагрузке как на доказательство того, что одной высокой пропускной способности недостаточно.

Запуск 10-го этапа SONAMI напрямую решает эти болевые точки. Согласно официальным заявлениям, этот этап сосредоточен на трех основных улучшениях:

  • Усиление возможностей исполнения при пиковом спросе
  • Расширение возможностей модульного развертывания для сред под конкретные приложения
  • Повышение эффективности сети для снижения нагрузки на базовый уровень

Это стратегия L2 от Ethereum, адаптированная для архитектуры Solana. В то время как Ethereum переносит исполнение транзакций в роллапы, такие как Arbitrum и Base, Solana теперь создает специализированные уровни исполнения, которые обрабатывают перегрузки и логику конкретных приложений, проводя расчеты на основной сети.

Выбор времени стратегически выверен. К концу 2025 года экосистема Layer 2 в Ethereum обрабатывала почти 90 % всех L2-транзакций, причем на долю Base пришлось более 60 % рынка. Тем временем институциональный капитал перетекает в L2 на Ethereum: TVL Base составляет 10миллиардов,Arbitrumудерживает10 миллиардов, Arbitrum удерживает 16,63 миллиарда, а объединенная экосистема L2 представляет собой значительную часть общей стоимости, защищенной Ethereum.

Стремление Solana к Layer 2 — это не признание неудачи. Это борьба за то же внимание институционалов и разработчиков, которое привлекла модульная дорожная карта Ethereum.

SONAMI против гигантов Ethereum L2: Неравный бой

SONAMI выходит на рынок, где консолидация уже произошла. К началу 2026 года большинство L2 на Ethereum за пределами первой тройки — Base, Arbitrum, Optimism — фактически превратились в «цепочки-зомби», активность в которых упала на 61 %, а TVL подавляющим образом концентрируется в сложившихся экосистемах.

Вот с чем сталкивается SONAMI:

Преимущество Base от Coinbase: Base извлекает выгоду из 110 миллионов верифицированных пользователей Coinbase, удобных фиатных шлюзов и институционального доверия. В конце 2025 года Base доминировала на 46,58 % в DeFi TVL среди Layer 2 и обеспечивала 60 % объема транзакций. Ни один L2 на Solana не имеет сопоставимых каналов распределения.

Ров DeFi от Arbitrum: Arbitrum лидирует среди всех L2 с TVL в размере 16,63миллиарда,опираясьнагодыработыустановленныхDeFiпротоколов,пуловликвидностииинституциональныхинтеграций.ОбщийTVLSolanaвDeFiсоставляет16,63 миллиарда, опираясь на годы работы установленных DeFi-протоколов, пулов ликвидности и институциональных интеграций. Общий TVL Solana в DeFi составляет 11,23 миллиарда по всей экосистеме.

Сетевые эффекты управления Optimism: Архитектура Superchain от Optimism привлекает корпоративные роллапы от Coinbase, Kraken и Uniswap. У SONAMI нет сопоставимой структуры управления или партнерской экосистемы.

Архитектурное сравнение не менее разительное. L2 на Ethereum, такие как Arbitrum, теоретически достигают 40 000 TPS, при этом фактическое подтверждение транзакций кажется мгновенным благодаря низким комиссиям и быстрому завершению. Архитектура SONAMI обещает аналогичные улучшения пропускной способности, но она строится на базовом уровне, который уже обеспечивает подтверждения с низкой задержкой.

Ценностное предложение выглядит размытым. L2 на Ethereum решают реальную проблему: базовый уровень Ethereum с его 15–30 TPS слишком медленный для потребительских приложений. Базовый уровень Solana уже комфортно справляется с большинством сценариев использования. Какую проблему решает L2 на Solana, которую не сможет решить Firedancer — клиент-валидатор нового поколения для Solana, призванный значительно повысить производительность?

Расширение SVM: игра в L2 другого типа

Стратегия Layer 2 для Solana может заключаться не в масштабировании самой Solana. Возможно, речь идет о масштабировании Solana Virtual Machine (SVM) как технологического стека, независимого от блокчейна Solana.

Eclipse, первый L2 на Ethereum на базе SVM, стабильно поддерживает более 1 000 TPS без скачков комиссий. SOON, оптимистичный роллап, сочетающий SVM с модульным дизайном Ethereum, нацелен на расчеты в Ethereum при исполнении с использованием модели параллелизации Solana. Atlas обещает время блока в 50 мс с быстрой мерклизацией состояния. Yona проводит расчеты в Bitcoin, используя SVM для исполнения.

Это не L2 для Solana в традиционном смысле. Это роллапы на базе SVM, рассчитывающиеся в других цепочках, предлагающие производительность уровня Solana с ликвидностью Ethereum или безопасностью Bitcoin.

SONAMI вписывается в этот нарратив как «первый промышленный L2 для Solana», но более широкая игра заключается в экспорте SVM в каждую крупную экосистему блокчейнов. В случае успеха Solana станет предпочтительным уровнем исполнения для множества уровней расчетов — по аналогии с тем, как доминирование EVM вышло за пределы самого Ethereum.

Проблема заключается во фрагментации. Экосистема L2 Ethereum страдает от разделения ликвидности между десятками роллапов. Пользователи Arbitrum не могут беспрепятственно взаимодействовать с Base или Optimism без мостов. Стратегия Solana L2 рискует столкнуться с той же судьбой: SONAMI, SOON, Eclipse и другие будут бороться за ликвидность, разработчиков и пользователей, теряя компонуемость, которая определяет опыт использования L1 Solana.

Что на самом деле означает Этап 10 (и чего он не означает)

Анонс 10-го этапа SONAMI богат на видение, но скуп на технические детали. В пресс-релизах подчеркиваются «варианты модульного развертывания», «усиление возможностей исполнения» и «эффективность сети при пиковых нагрузках», однако отсутствуют конкретные показатели производительности или метрики основной сети (mainnet).

Это типично для запусков L2 на ранних стадиях. Eclipse провела реструктуризацию в конце 2025 года, сократив 65 % персонала и сменив вектор с поставщика инфраструктуры на внутреннюю студию приложений. SOON привлекла 22 млн долларов через продажу NFT перед запуском основной сети, но еще не продемонстрировала устойчивого использования в реальных условиях. Экосистема L2 на Solana находится в зачаточном состоянии, она спекулятивна и не проверена временем.

Для контекста: доминирование L2 на Ethereum формировалось годами. Arbitrum запустил свою основную сеть в августе 2021 года. Optimism заработал в декабре 2021 года. Base запустился лишь в августе 2023 года, но уже через несколько месяцев превзошел Arbitrum по объему транзакций благодаря дистрибьюторской мощи Coinbase. SONAMI пытается конкурировать на рынке, где сетевые эффекты, ликвидность и институциональные партнерства уже определили явных победителей.

Веха 10-го этапа указывает на то, что SONAMI продвигается по своей дорожной карте, но без данных о TVL, объеме транзакций или метрик активных пользователей невозможно оценить реальную востребованность. Большинство L2-проектов объявляют о «запусках основной сети» или «этапах тестнета», которые создают громкие заголовки, но не генерируют реального использования.

Может ли концепция L2 на Solana добиться успеха?

Ответ зависит от того, что считать «успехом». Если успех — это свержение Base или Arbitrum, то ответ почти наверняка — нет. Экосистема L2 на Ethereum пользуется преимуществом первопроходца, институциональным капиталом и беспрецедентной ликвидностью DeFi в Ethereum. У L2 на Solana нет этих структурных преимуществ.

Если успехом считается создание сред исполнения для конкретных приложений, которые снижают нагрузку на базовый уровень, сохраняя при этом компонуемость Solana, тогда ответ — возможно. Способность Solana масштабироваться горизонтально через L2, сохраняя быстрое и компонуемое ядро L1, может укрепить ее позиции для высокочастотных децентрализованных приложений, работающих в реальном времени.

Если успех — это экспорт SVM в другие экосистемы и превращение среды исполнения Solana в кросс-чейн стандарт, то такой сценарий вероятен, но не доказан. Роллапы на базе SVM в сетях Ethereum, Bitcoin и других цепочках могут способствовать массовому внедрению, но проблемы фрагментации и разделения ликвидности остаются нерешенными.

Наиболее вероятный исход — бифуркация. Экосистема L2 на Ethereum продолжит доминировать в институциональном DeFi, токенизированных активах и корпоративных сценариях использования. Базовый уровень Solana будет процветать за счет розничной активности, мемкоинов, гейминга и постоянных транзакций с низкими комиссиями. L2 на Solana займут промежуточное положение: специализированные уровни исполнения для разгрузки сети, логики конкретных приложений и кросс-чейн развертываний SVM.

Это не сценарий, где «победитель получает всё». Это признание того, что разные стратегии масштабирования служат разным целям, а модульная концепция — будь то на Ethereum или Solana — становится стандартом де-факто для каждого крупного блокчейна.

Тихая конвергенция

Создание Layer 2 на Solana кажется идеологической капитуляцией. В течение многих лет преимуществом Solana была простота: одна быстрая цепочка, отсутствие фрагментации, отсутствие мостов. Преимуществом Ethereum была модульность: отделение консенсуса от исполнения, специализация L2, принятие компромиссов в компонуемости.

Теперь обе экосистемы сходятся в одном и том же решении. Ethereum обновляет свой базовый уровень (Pectra, Fusaka) для поддержки большего количества L2. Solana строит L2 для расширения своего базового уровня. Архитектурные различия сохраняются, но стратегическое направление идентично: перенос исполнения на специализированные уровни при сохранении безопасности базового уровня.

Ирония заключается в том, что по мере того как блокчейны становятся все более похожими, конкуренция обостряется. У Ethereum есть многолетнее преимущество, 33 млрд долларов TVL в сетях L2 и институциональные партнерства. У Solana — превосходная производительность базового уровня, более низкие комиссии и экосистема, ориентированная на розничного пользователя. Достижение SONAMI 10-го этапа — это шаг к паритету, но одного паритета недостаточно на рынке, где доминируют сетевые эффекты.

Настоящий вопрос не в том, может ли Solana строить L2. А в том, смогут ли L2 на Solana привлечь ликвидность, разработчиков и пользователей, необходимых для выживания в экосистеме, где большинство L2 уже терпят неудачу.

BlockEden.xyz предоставляет RPC-инфраструктуру корпоративного уровня для Solana и других высокопроизводительных блокчейнов. Изучите наш маркетплейс API, чтобы создавать проекты на масштабируемых фундаментах, оптимизированных для скорости.

Источники

ZK-сопроцессоры: инфраструктура, преодолевающая вычислительный барьер блокчейна

· 14 мин чтения
Dora Noda
Software Engineer

Когда Ethereum обрабатывает транзакции, каждое вычисление происходит ончейн — проверяемо, безопасно и мучительно дорого. Это фундаментальное ограничение годами сдерживало возможности разработчиков. Однако новый класс инфраструктуры переписывает правила: ZK-копроцессоры открывают доступ к неограниченным вычислениям для блокчейнов с ограниченными ресурсами, не жертвуя при этом принципом отсутствия необходимости в доверии (trustlessness).

К октябрю 2025 года ZK-копроцессор Brevis Network уже сгенерировал 125 миллионов доказательств с нулевым разглашением, обеспечил поддержку более $2,8 миллиарда общей заблокированной стоимости (TVL) и верифицировал объем транзакций на сумму более $1 миллиарда. Это больше не экспериментальная технология — это продакшн-инфраструктура, позволяющая создавать приложения, которые раньше были невозможны в ончейне.

Узкое место вычислений, определившее блокчейн

Блокчейны сталкиваются с неизбежной трилеммой: они могут быть децентрализованными, безопасными или масштабируемыми — но достижение всех трех качеств одновременно оказалось трудновыполнимой задачей. Смарт-контракты на Ethereum оплачивают газ за каждый вычислительный шаг, что делает сложные операции непомерно дорогими. Хотите проанализировать полную историю транзакций пользователя, чтобы определить его уровень лояльности? Рассчитать персональные игровые награды на основе сотен ончейн-действий? Запустить инференс машинного обучения для моделей оценки рисков в DeFi?

Традиционные смарт-контракты не могут делать это экономически эффективно. Чтение исторических данных блокчейна, обработка сложных алгоритмов и доступ к кроссчейн-информации требуют вычислений, которые обанкротили бы большинство приложений при выполнении на уровне 1 (Layer 1). Именно поэтому протоколы DeFi используют упрощенную логику, игры полагаются на оффчейн-серверы, а интеграция ИИ остается в основном концептуальной.

Обходной путь всегда был одним и тем же: перенести вычисления в оффчейн и доверять централизованной стороне их корректное выполнение. Но это сводит на нет саму суть архитектуры блокчейна, не требующей доверия.

Появление ZK-копроцессора: оффчейн-выполнение, ончейн-верификация

Копроцессоры с нулевым разглашением решают эту проблему, внедряя новую вычислительную парадигму: «оффчейн-вычисления + ончейн-верификация». Они позволяют смарт-контрактам делегировать тяжелую обработку специализированной оффчейн-инфраструктуре, а затем проверять результаты ончейн с помощью доказательств с нулевым разглашением — без необходимости доверять какому-либо посреднику.

Вот как это работает на практике:

  1. Доступ к данным: Копроцессор считывает исторические данные блокчейна, состояние кроссчейн-сетей или внешнюю информацию, доступ к которой в ончейне был бы слишком дорогим из-за затрат на газ.
  2. Оффчейн-вычисления: Сложные алгоритмы запускаются в специализированных средах, оптимизированных для производительности и не ограниченных лимитами газа.
  3. Генерация доказательств: Создается доказательство с нулевым разглашением, подтверждающее, что вычисления были выполнены корректно на основе конкретных входных данных.
  4. Ончейн-верификация: Смарт-контракт проверяет доказательство за миллисекунды без повторного выполнения вычислений и без доступа к исходным необработанным данным.

Эта архитектура экономически жизнеспособна, поскольку генерация доказательств оффчейн и их верификация ончейн стоят гораздо дешевле, чем прямое выполнение вычислений на Layer 1. Результат: смарт-контракты получают доступ к неограниченным вычислительным мощностям, сохраняя при этом гарантии безопасности блокчейна.

Эволюция: от zkRollups до ZK-копроцессоров

Технология появилась не в одночасье. Системы доказательств с нулевым разглашением прошли через несколько этапов эволюции:

L2 zkRollups стали пионерами модели «вычисления оффчейн, верификация ончейн» для масштабирования пропускной способности транзакций. Проекты вроде zkSync и StarkNet объединяют тысячи транзакций, выполняют их оффчейн и отправляют в Ethereum единое доказательство валидности, значительно увеличивая мощность сети и наследуя безопасность Ethereum.

zkVM (виртуальные машины с нулевым разглашением) обобщили эту концепцию, позволив доказывать корректность произвольных вычислений. Вместо того чтобы ограничиваться обработкой транзакций, разработчики смогли писать любые программы и генерировать проверяемые доказательства их выполнения. zkVM Pico / Prism от Brevis достигает среднего времени генерации доказательства в 6,9 секунды на кластерах из 64 видеокарт RTX 5090, что делает верификацию в реальном времени практичной.

ZK-копроцессоры представляют собой следующий этап: специализированную инфраструктуру, сочетающую zkVM с копроцессорами данных для обработки исторических и кроссчейн-данных. Они созданы специально для уникальных нужд блокчейн-приложений — чтения истории ончейн, объединения нескольких сетей и предоставления смарт-контрактам возможностей, которые ранее были доступны только через централизованные API.

Lagrange запустила первый ZK-копроцессор на базе SQL в 2025 году, позволив разработчикам подтверждать пользовательские SQL-запросы к огромным объемам ончейн-данных прямо из смарт-контрактов. Brevis последовала за ней с мультичейн-архитектурой, поддерживающей верифицируемые вычисления в Ethereum, Arbitrum, Optimism, Base и других сетях. Axiom сосредоточилась на верифицируемых запросах к истории с использованием обратных вызовов схем (circuit callbacks) для программируемой логики верификации.

Сравнение ZK-копроцессоров с альтернативами

Чтобы понять место ZK-копроцессоров в экосистеме, необходимо сравнить их со смежными технологиями:

ZK-сопроцессоры против zkML

Машинное обучение с нулевым разглашением (zkML) использует аналогичные системы доказательств, но нацелено на другую задачу: доказательство того, что модель ИИ выдала конкретный результат без раскрытия весов модели или входных данных. zkML в первую очередь фокусируется на верификации инференса — подтверждении того, что нейронная сеть была вычислена честно.

Ключевое отличие заключается в рабочем процессе. С ZK-сопроцессорами разработчики пишут явную логику реализации, обеспечивают корректность схем и генерируют доказательства для детерминированных вычислений. В случае с zkML процесс начинается с исследования данных и обучения модели перед созданием схем для проверки инференса. ZK-сопроцессоры обрабатывают логику общего назначения; zkML специализируется на том, чтобы сделать ИИ верифицируемым ончейн.

Обе технологии разделяют одну и ту же парадигму верификации: вычисления выполняются вне блокчейна, создавая доказательство с нулевым разглашением вместе с результатами. Блокчейн проверяет доказательство за миллисекунды, не видя исходных данных и не выполняя вычисления повторно. Но схемы zkML оптимизированы для тензорных операций и архитектур нейронных сетей, в то время как схемы сопроцессоров обрабатывают запросы к базам данных, переходы состояний и агрегацию данных между блокчейнами.

ZK-сопроцессоры против оптимистичных роллапов

Оптимистичные роллапы и ZK-роллапы масштабируют блокчейны путем выноса исполнения вне сети, но их модели доверия фундаментально различаются.

Оптимистичные роллапы по умолчанию предполагают, что транзакции валидны. Валидаторы отправляют пакеты транзакций без доказательств, и любой может оспорить невалидные пакеты в течение периода оспаривания (обычно 7 дней). Эта отложенная финальность означает, что вывод средств из Optimism или Arbitrum требует ожидания в течение недели — это приемлемо для масштабирования, но проблематично для многих приложений.

ZK-сопроцессоры немедленно доказывают корректность. Каждый пакет включает доказательство валидности, проверяемое в блокчейне перед принятием. Здесь нет периода оспаривания, нет предположений о мошенничестве и нет недельных задержек на вывод средств. Транзакции достигают мгновенной финальности.

Исторически компромиссом были сложность и стоимость. Генерация доказательств с нулевым разглашением требует специализированного оборудования и сложной криптографии, что делает ZK-инфраструктуру более дорогой в эксплуатации. Но аппаратное ускорение меняет экономику. Pico Prism от Brevis достигает 96.8 % охвата доказательствами в реальном времени, что означает, что доказательства генерируются достаточно быстро, чтобы не отставать от потока транзакций — устраняя разрыв в производительности, который ранее давал преимущество оптимистичным подходам.

На текущем рынке оптимистичные роллапы, такие как Arbitrum и Optimism, по-прежнему доминируют по общему объему заблокированных средств (TVL). Их EVM-совместимость и более простая архитектура облегчили их масштабное развертывание. Но по мере созревания ZK-технологий мгновенная финальность и более сильные гарантии безопасности доказательств валидности смещают акцент. Масштабирование второго уровня (Layer 2) — это лишь один из вариантов использования; ZK-сопроцессоры открывают более широкую категорию — верифицируемые вычисления для любого ончейн-приложения.

Реальные сценарии использования: от DeFi до гейминга

Инфраструктура позволяет реализовать сценарии, которые ранее были невозможны или требовали централизованного доверия:

DeFi: Динамические структуры комиссий и программы лояльности

Децентрализованные биржи сталкиваются с трудностями при внедрении сложных программ лояльности, так как расчет исторического объема торгов пользователя ончейн обходится непомерно дорого. С помощью ZK-сопроцессоров DEX могут отслеживать пожизненный объем операций в нескольких сетях, рассчитывать VIP-уровни и динамически корректировать торговые комиссии — и все это с верификацией в блокчейне.

Incentra, построенная на базе Brevis zkCoprocessor, распределяет вознаграждения на основе подтвержденной ончейн-активности без раскрытия конфиденциальных данных пользователей. Протоколы теперь могут внедрять кредитные линии на основе прошлого поведения по возврату средств, активное управление ликвидностью с предопределенными алгоритмами и динамические предпочтения при ликвидации — и все это подкреплено криптографическими доказательствами вместо доверенных посредников.

Гейминг: Персонализированный опыт без централизованных серверов

Блокчейн-игры сталкиваются с дилеммой UX: записывать каждое действие игрока ончейн слишком дорого, но перенос игровой логики вне блокчейна требует доверия к централизованным серверам. ZK-сопроцессоры предлагают третий путь.

Смарт-контракты теперь могут отвечать на сложные запросы, такие как: «Какие кошельки выиграли в этой игре за последнюю неделю, сминтили NFT из моей коллекции и провели в игре не менее двух часов?». Это позволяет реализовать персонализированный LiveOps — динамическое предложение внутриигровых покупок, подбор противников, запуск бонусных событий — на основе подтвержденной ончейн-истории, а не централизованной аналитики.

Игроки получают персонализированный опыт. Разработчики сохраняют инфраструктуру без необходимости доверия. Состояние игры остается верифицируемым.

Кроссчейн-приложения: Единое состояние без мостов

Чтение данных из другого блокчейна традиционно требует мостов — доверенных посредников, которые блокируют активы в одной сети и выпускают их представления в другой. ZK-сопроцессоры проверяют кроссчейн-состояние напрямую с помощью криптографических доказательств.

Смарт-контракт на Ethereum может запросить информацию о владении NFT пользователем на Polygon, его позиции в DeFi на Arbitrum и его голоса в управлении на Optimism — и все это без доверия операторам мостов. Это открывает возможности для кроссчейн кредитного скоринга, унифицированных систем идентификации и протоколов многоцепочечной репутации.

Конкурентная среда: кто и что создает

Сегмент ZK-сопроцессоров консолидировался вокруг нескольких ключевых игроков, каждый из которых использует свои архитектурные подходы:

Brevis Network лидирует в объединении «ZK-сопроцессор данных + универсальная zkVM». Их zkCoprocessor обрабатывает чтение исторических данных и кроссчейн-запросы, в то время как Pico/Prism zkVM обеспечивает программируемые вычисления для произвольной логики. Brevis привлекла $ 7,5 миллиона в ходе посевного раунда токенов и развернута в сетях Ethereum, Arbitrum, Base, Optimism, BSC и других. Их токен BREV набирает обороты на биржах в преддверии 2026 года.

Lagrange стала пионером SQL-запросов с ZK Coprocessor 1.0, сделав ончейн-данные доступными через привычные интерфейсы баз данных. Разработчики могут подтверждать кастомные SQL-запросы напрямую из смарт-контрактов, что значительно снижает технический барьер для создания приложений с интенсивным использованием данных. Azuki, Gearbox и другие протоколы используют Lagrange для верифицируемой исторической аналитики.

Axiom фокусируется на верифицируемых запросах с обратными вызовами схем (circuit callbacks), позволяя смарт-контрактам запрашивать конкретные исторические точки данных и получать криптографические доказательства корректности. Их архитектура оптимизирована для сценариев, где приложениям нужны точные срезы истории блокчейна, а не общие вычисления.

Space and Time сочетает верифицируемую базу данных с SQL-запросами, ориентируясь на корпоративные сценарии использования, требующие как ончейн-верификации, так и функциональности традиционных баз данных. Их подход привлекает институциональных игроков, мигрирующих существующие системы на блокчейн-инфраструктуру.

Рынок стремительно развивается, и 2026 год повсеместно считается «годом ZK-инфраструктуры». По мере ускорения генерации доказательств, улучшения аппаратного ускорения и созревания инструментов для разработчиков, ZK-сопроцессоры превращаются из экспериментальной технологии в критически важную производственную инфраструктуру.

Технические сложности: почему это трудно

Несмотря на прогресс, сохраняются значительные препятствия.

Скорость генерации доказательств ограничивает многие приложения. Даже с использованием GPU-кластеров вычисление сложных доказательств может занимать секунды или минуты — это приемлемо для одних сценариев, но проблематично для высокочастотной торговли или игр в реальном времени. Средний показатель Brevis в 6,9 секунды представляет собой передовую производительность, но достижение генерации доказательств менее чем за секунду для всех типов нагрузок требует дальнейших аппаратных инноваций.

Сложность разработки схем создает трудности для разработчиков. Написание схем с нулевым разглашением требует специализированных знаний в области криптографии, которыми не обладает большинство блокчейн-разработчиков. Хотя zkVM абстрагируют часть сложности, позволяя писать код на привычных языках, оптимизация схем для обеспечения производительности все равно требует экспертных знаний. Улучшение инструментов сокращает этот разрыв, но он остается барьером для массового внедрения.

Доступность данных создает проблемы координации. Сопроцессоры должны поддерживать синхронизированное представление состояния блокчейна в нескольких сетях, обрабатывая реорганизации, финальность и различия в консенсусе. Обеспечение того, чтобы доказательства ссылались на каноническое состояние сети, требует сложной инфраструктуры — особенно для кроссчейн-приложений, где разные сети имеют разные гарантии финальности.

Экономическая устойчивость остается неопределенной. Эксплуатация инфраструктуры для генерации доказательств капиталоемка, требует специализированных GPU и постоянных операционных расходов. Сети сопроцессоров должны балансировать стоимость доказательств, пользовательские комиссии и стимулы в токенах для создания устойчивых бизнес-моделей. Ранние проекты субсидируют расходы для стимулирования внедрения, но долгосрочная жизнеспособность зависит от доказательства юнит-экономики в масштабе.

Тезис об инфраструктуре: вычисления как уровень верифицируемых сервисов

ZK-сопроцессоры становятся «уровнями верифицируемых сервисов» — нативными для блокчейна API, которые обеспечивают функциональность без необходимости доверия. Это повторяет эволюцию облачных вычислений: разработчики не строят собственные серверы, они используют API AWS. Аналогично, разработчикам смарт-контрактов не нужно заново реализовывать запросы исторических данных или верификацию кроссчейн-состояний — они должны обращаться к проверенной инфраструктуре.

Смена парадигмы едва уловима, но глубока. Вместо вопроса «что может этот блокчейн?» возникает вопрос «к каким верифицируемым сервисам может получить доступ этот смарт-контракт?». Блокчейн обеспечивает расчеты и верификацию, а сопроцессоры — неограниченные вычисления. Вместе они открывают путь для приложений, требующих одновременно децентрализации и сложности.

Это выходит за рамки DeFi и игр. Токенизация реальных активов (RWA) требует верифицированных офчейн-данных о праве собственности на недвижимость, ценах на сырьевые товары и соблюдении нормативных требований. Децентрализованная идентификация требует агрегации учетных данных из нескольких блокчейнов и проверки статуса их отзыва. AI-агентам необходимо доказывать процессы принятия решений, не раскрывая проприетарные модели. Все это требует верифицируемых вычислений — именно той возможности, которую предоставляют ZK-сопроцессоры.

Инфраструктура также меняет подход разработчиков к ограничениям блокчейна. В течение многих лет мантрой была «оптимизация эффективности газа». С сопроцессорами разработчики могут писать логику так, будто лимитов газа не существует, а затем переносить дорогостоящие операции на верифицируемую инфраструктуру. Этот ментальный сдвиг — от ограниченных смарт-контрактов к смарт-контрактам с бесконечными вычислениями — изменит облик того, что создается ончейн.

Что готовит 2026 год: от исследований к производству

Множество трендов сходятся воедино, чтобы сделать 2026 год переломным моментом для внедрения ZK-сопроцессоров.

Аппаратное ускорение кардинально повышает производительность генерации доказательств. Компании, такие как Cysic, создают специализированные ASIC для доказательств с нулевым разглашением, подобно тому как майнинг биткоина эволюционировал от CPU к GPU и затем к ASIC. Когда генерация доказательств станет в 10–100 раз быстрее и дешевле, экономические барьеры рухнут.

Инструментарий для разработчиков абстрагирует сложность. Ранняя разработка zkVM требовала экспертных знаний в проектировании схем; современные фреймворки позволяют разработчикам писать на Rust или Solidity и автоматически компилировать код в доказуемые схемы. По мере созревания этих инструментов опыт разработчиков приближается к написанию стандартных смарт-контрактов — верифицируемые вычисления становятся стандартом, а не исключением.

Институциональное внедрение стимулирует спрос на верифицируемую инфраструктуру. Поскольку BlackRock токенизирует активы, а традиционные банки запускают системы расчетов в стейблкоинах, им требуются верифицируемые внесетевые (off-chain) вычисления для соблюдения комплаенса, аудита и регуляторной отчетности. ZK-сопроцессоры обеспечивают инфраструктуру, делающую этот процесс бездоверительным (trustless).

Кроссчейн-фрагментация создает острую необходимость в унифицированной верификации состояния. В условиях, когда сотни сетей второго уровня (Layer 2) фрагментируют ликвидность и пользовательский опыт, приложениям нужны способы агрегации состояния между чейнами без зависимости от мостовых посредников. Сопроцессоры предлагают единственное trustless-решение.

Проекты, которые выживут, скорее всего, консолидируются вокруг конкретных вертикалей: Brevis — для универсальной кроссчейн-инфраструктуры, Lagrange — для приложений с интенсивным использованием данных, Axiom — для оптимизации исторических запросов. Как и в случае с облачными провайдерами, большинство разработчиков не будут запускать собственную инфраструктуру доказательств — они будут использовать API сопроцессоров и оплачивать верификацию как услугу.

Глобальная картина: бесконечные вычисления встречаются с безопасностью блокчейна

ZK-сопроцессоры решают одно из самых фундаментальных ограничений блокчейна: вы можете получить либо бездоверительную безопасность, ЛИБО сложные вычисления, но не то и другое одновременно. Благодаря отделению исполнения от верификации, они делают этот компромисс неактуальным.

Это открывает путь для следующей волны блокчейн-приложений — тех, которые не могли существовать в условиях прежних ограничений. DeFi-протоколы с риск-менеджментом уровня традиционных финансов. Игры класса AAA, работающие на верифицируемой инфраструктуре. ИИ-агенты, действующие автономно с криптографическим подтверждением процесса принятия решений. Кроссчейн-приложения, которые ощущаются как единые унифицированные платформы.

Инфраструктура уже здесь. Доказательства создаются достаточно быстро. Инструменты для разработчиков развиваются. Осталось только создать приложения, которые раньше были невозможны, и наблюдать за тем, как индустрия осознает: вычислительные ограничения блокчейна никогда не были постоянными — они просто ждали подходящей инфраструктуры для прорыва.

BlockEden.xyz предоставляет RPC-инфраструктуру корпоративного уровня для блокчейнов, на которых строятся приложения с ZK-сопроцессорами — от Ethereum и Arbitrum до Base, Optimism и других. Изучите наш маркетплейс API, чтобы получить доступ к той же надежной инфраструктуре узлов, которая обеспечивает работу следующего поколения верифицируемых вычислений.

Обновление Ethereum BPO-2: новая эра параметрической масштабируемости

· 9 мин чтения
Dora Noda
Software Engineer

Что происходит, когда блокчейн решает масштабироваться не путем собственного переизобретения, а просто за счет подстройки параметров? 7 января 2026 года Ethereum активировал BPO-2 — второй форк «Blob Parameters Only» (только параметры блобов), тихо завершив финальную фазу обновления Fusaka. Результат: расширение пропускной способности на 40 %, что в одночасье сократило комиссии в сетях второго уровня (Layer 2) до 90 %. Это не было ярким пересмотром протокола. Это была хирургическая точность, доказавшая, что масштабируемость Ethereum теперь носит параметрический, а не процедурный характер.

Обновление BPO-2: Цифры, которые имеют значение

BPO-2 увеличил целевой показатель блобов Ethereum с 10 до 14, а максимальный лимит блобов — с 15 до 21. Каждый блоб содержит 128 килобайт данных, что означает, что теперь один блок может нести примерно 2,6–2,7 мегабайта данных блобов — по сравнению с примерно 1,9 МБ до форка.

Для контекста: блобы — это пакеты данных, которые роллапы публикуют в Ethereum. Они позволяют сетям второго уровня, таким как Arbitrum, Base и Optimism, обрабатывать транзакции вне основной сети, сохраняя при этом гарантии безопасности Ethereum. Когда пространство для блобов ограничено, роллапы конкурируют за пропускную способность, что ведет к росту затрат. BPO-2 снял это напряжение.

Хронология: Трехфазное развертывание Fusaka

Обновление не произошло изолированно. Это был заключительный этап методичного развертывания Fusaka:

  • 3 декабря 2025 г.: Активация мейннета Fusaka, внедрение PeerDAS (Peer Data Availability Sampling — выборка доступности данных узлами).
  • 9 декабря 2025 г.: BPO-1 увеличил целевой показатель блобов до 10, а максимум — до 15.
  • 7 января 2026 г.: BPO-2 поднял цель до 14, а максимум — до 21.

Этот поэтапный подход позволил разработчикам отслеживать состояние сети между каждым увеличением, гарантируя, что операторы домашних узлов справятся с возросшими требованиями к пропускной способности.

Почему «цель» и «лимит» — это разные вещи

Понимание различия между целевым показателем блобов (target) и лимитом блобов (limit) имеет решающее значение для понимания механики комиссий Ethereum.

Лимит блобов (21) представляет собой жесткий потолок — абсолютное максимальное количество блобов, которые могут быть включены в один блок. Целевой показатель блобов (14) — это точка равновесия, которую протокол стремится поддерживать в течение долгого времени.

Когда фактическое использование блобов превышает цель, базовые комиссии растут, чтобы предотвратить чрезмерное потребление. Когда использование падает ниже цели, комиссии снижаются, чтобы стимулировать активность. Эта динамическая регулировка создает саморегулирующийся рынок:

  • Полные блобы: Базовая комиссия увеличивается примерно на 8,2 %.
  • Отсутствие блобов: Базовая комиссия уменьшается примерно на 14,5 %.

Эта асимметрия намеренна. Она позволяет комиссиям быстро падать в периоды низкого спроса и постепенно расти при высоком спросе, предотвращая резкие скачки цен, которые могут дестабилизировать экономику роллапов.

Влияние на комиссии: Реальные цифры из реальных сетей

Стоимость транзакций на втором уровне (L2) упала на 40–90 % с момента развертывания Fusaka. Цифры говорят сами за себя:

СетьСредняя комиссия после BPO-2Сравнение с мейннетом Ethereum
Base$ 0.000116$ 0.3139
Arbitrum~$ 0.001$ 0.3139
Optimism~$ 0.001$ 0.3139

Медианные комиссии за блобы упали до минимума в $ 0.0000000005 за блоб — что практически бесплатно для любых прикладных целей. Для конечных пользователей это означает почти нулевые затраты на свопы, переводы, минт NFT и игровые транзакции.

Как адаптировались роллапы

Крупнейшие роллапы перестроили свою работу для максимальной эффективности использования блобов:

  • Optimism обновил свой батчер (batcher), чтобы полагаться в основном на блобы, а не на calldata, сократив расходы на доступность данных более чем вдвое.
  • zkSync переработал конвейер подачи доказательств, чтобы сжимать обновления состояния в меньшее количество более крупных блобов, снижая частоту публикаций.
  • Arbitrum подготовился к обновлению ArbOS Dia (первый квартал 2026 года), которое вводит более плавные комиссии и более высокую пропускную способность с поддержкой Fusaka.

С момента внедрения EIP-4844 в Ethereum было опубликовано более 950 000 блобов. В оптимистичных роллапах использование calldata сократилось на 81 %, что доказывает: модель блобов работает именно так, как и планировалось.

Путь к 128 блобам: Что дальше

BPO-2 — это промежуточный этап, а не пункт назначения. Дорожная карта Ethereum предполагает будущее, в котором блоки будут содержать 128 или более блобов на слот — восьмикратное увеличение по сравнению с текущим уровнем.

PeerDAS: Технический фундамент

PeerDAS (EIP-7594) — это сетевой протокол, который делает возможным агрессивное масштабирование блобов. Вместо того чтобы требовать от каждого узла загрузки каждого блоба, PeerDAS использует выборку доступности данных (data availability sampling) для проверки целостности данных при загрузке лишь их части.

Вот как это работает:

  1. Расширенные данные блобов делятся на 128 частей, называемых столбцами.
  2. Каждый узел участвует как минимум в 8 случайно выбранных подсетях столбцов.
  3. Получения 8 из 128 столбцов (около 12,5 % данных) математически достаточно для подтверждения полной доступности данных.
  4. Избыточное кодирование (Erasure coding) гарантирует, что даже если часть данных отсутствует, оригинал может быть восстановлен.

этот подход обеспечивает теоретическое восьмикратное увеличение пропускной способности данных, сохраняя при этом требования к узлам посильными для домашних операторов.

Хронология масштабирования блобов

ФазаЦелевые блобыМакс. блобовСтатус
Dencun (март 2024)36Завершено
Pectra (май 2025)69Завершено
BPO-1 (декабрь 2025)1015Завершено
BPO-2 (январь 2026)1421Завершено
BPO-3/4 (2026)Будет определено72+Запланировано
Долгосрочная перспектива128+128+Дорожная карта

На недавней встрече основных разработчиков (All Core Devs) обсуждался «предположительный график», который может включать дополнительные форки BPO каждые две недели после конца февраля для достижения цели в 72 блоба. Реализуется ли этот агрессивный график, зависит от данных мониторинга сети.

Glamsterdam: следующий важный этап

Заглядывая за пределы форков BPO, комбинированное обновление Glamsterdam (Glam для уровня консенсуса, Amsterdam для уровня исполнения) в настоящее время намечено на 2-й или 3-й квартал 2026 года. Оно обещает еще более значительные улучшения:

  • Списки доступа к блокам (BAL): динамические лимиты газа, обеспечивающие параллельную обработку транзакций.
  • Встроенное разделение предлагающего и строителя (ePBS): ончейн-протокол для разделения ролей создания блоков, обеспечивающий больше времени для распространения блоков.
  • Увеличение лимита газа: потенциально до 200 миллионов, что обеспечит «идеальную параллельную обработку».

Виталик Бутерин спрогнозировал, что конец 2026 года принесет «значительное увеличение лимита газа, не зависящее от ZK-EVM, благодаря BAL и ePBS». Эти изменения могут довести устойчивую пропускную способность до 100 000+ TPS во всей экосистеме Layer 2.

Что BPO-2 говорит о стратегии Ethereum

Модель форка BPO представляет собой философский сдвиг в том, как Ethereum подходит к обновлениям. Вместо того чтобы объединять множество сложных изменений в монолитные хардфорки, подход BPO изолирует корректировки отдельных переменных, которые можно быстро развернуть и откатить в случае возникновения проблем.

«Форк BPO2 подчеркивает, что масштабируемость Ethereum теперь стала параметрической, а не процедурной», — заметил один разработчик. «Пространство блобов (blob space) все еще далеко от насыщения, и сеть может расширять пропускную способность, просто настраивая параметры емкости».

Это наблюдение влечет за собой важные последствия:

  1. Предсказуемое масштабирование: роллапы могут планировать свои потребности в мощностях, зная, что Ethereum продолжит расширять пространство блобов.
  2. Снижение риска: изолированные изменения параметров минимизируют вероятность возникновения каскадных ошибок.
  3. Более быстрая итерация: форки BPO могут происходить за недели, а не за месяцы.
  4. Решения на основе данных: каждое приращение дает реальные данные для обоснования следующего шага.

Экономика: кто выигрывает?

Выгодоприобретатели BPO-2 — это не только конечные пользователи, наслаждающиеся дешевыми транзакциями:

Операторы роллапов

Более низкие затраты на публикацию данных улучшают юнит-экономику для каждого роллапа. Сети, которые ранее работали с минимальной маржой, теперь имеют возможность инвестировать в привлечение пользователей, инструменты для разработчиков и рост экосистемы.

Разработчики приложений

Транзакционные издержки менее цента открывают варианты использования, которые ранее были экономически невыгодными: микроплатежи, высокочастотный гейминг, социальные приложения с ончейн-состоянием и интеграции с IoT.

Валидаторы Ethereum

Увеличение пропускной способности блобов означает больше общих комиссий, даже если комиссии за один блоб снизятся. Сеть обрабатывает большую стоимость, сохраняя стимулы для валидаторов и одновременно улучшая пользовательский опыт.

Широкая экосистема

Более дешевая доступность данных (DA) в Ethereum делает альтернативные уровни DA менее привлекательными для роллапов, которые ставят безопасность во главу угла. Это укрепляет позиции Ethereum в центре модульного стека блокчейнов.

Проблемы и соображения

BPO-2 не лишен компромиссов:

Требования к узлам

Хотя PeerDAS снижает требования к пропускной способности канала за счет выборки (sampling), увеличение количества блобов по-прежнему требует большего от операторов узлов. Поэтапное развертывание направлено на выявление узких мест до того, как они станут критическими, но домашние операторы с ограниченным интернет-каналом могут столкнуться с трудностями по мере того, как количество блобов приблизится к 72 или 128.

Динамика MEV

Больше блобов означает больше возможностей для извлечения MEV в транзакциях роллапов. Обновление ePBS в Glamsterdam призвано решить эту проблему, но в переходный период может наблюдаться повышенная активность MEV.

Волатильность пространства блобов

Во время всплесков спроса комиссии за блобы все еще могут быстро расти. Увеличение на 8,2% за каждый полный блок означает, что устойчиво высокий спрос создает экспоненциальный рост комиссий. Будущим форкам BPO нужно будет сбалансировать расширение емкости и эту волатильность.

Заключение: масштабирование по шагам

BPO-2 демонстрирует, что значимое масштабирование не всегда требует революционных прорывов. Иногда наиболее эффективные улучшения происходят благодаря тщательной калибровке существующих систем.

Емкость блобов в Ethereum выросла с максимум 6 в обновлении Dencun до 21 в BPO-2 — это увеличение на 250% менее чем за два года. Комиссии в Layer 2 упали на порядки. И дорожная карта к 128+ блобам предполагает, что это только начало.

Для роллапов сигнал ясен: уровень доступности данных Ethereum масштабируется, чтобы удовлетворить спрос. Для пользователей результат становится все более незаметным: транзакции, которые стоят доли цента, завершаются за секунды и защищены самой проверенной платформой смарт-контрактов в мире.

Наступила эра параметрического масштабирования Ethereum. BPO-2 — это доказательство того, что иногда поворот нужной ручки — это все, что требуется.


Строите на базе расширяющейся емкости блобов Ethereum? BlockEden.xyz предоставляет RPC-сервисы корпоративного уровня для Ethereum и его экосистемы Layer 2, включая Arbitrum, Optimism и Base. Изучите наш маркетплейс API, чтобы подключиться к инфраструктуре, обеспечивающей работу следующего поколения масштабируемых приложений.

Эволюция Ethereum: от высоких комиссий за газ к бесшовным транзакциям

· 10 мин чтения
Dora Noda
Software Engineer

Кошмар с комиссией за газ в размере 50 официальноосталсявпрошлом.17января2026годаEthereumобработал2,6миллионатранзакцийзаодиндень—новыйрекорд—втовремякаккомиссиизагазсоставили0,01официально остался в прошлом. 17 января 2026 года Ethereum обработал 2,6 миллиона транзакций за один день — новый рекорд — в то время как комиссии за газ составили 0,01. Два года назад такой уровень активности парализовал бы сеть. Сегодня это едва заметное событие.

Это не просто техническое достижение. Это представляет собой фундаментальный сдвиг в том, чем становится Ethereum: платформой, где реальная экономическая активность — а не спекуляции — движет ростом. Вопрос больше не в том, может ли Ethereum масштабировать DeFi. Вопрос в том, сможет ли остальная финансовая система поспеть за ним.

Bitcoin ZK-Rollup от Citrea: смогут ли доказательства с нулевым разглашением наконец реализовать потенциал BTCFi в $ 4,95 миллиарда?

· 11 мин чтения
Dora Noda
Software Engineer

В Биткоине только что появились смарт-контракты — настоящие, подтвержденные доказательствами с нулевым разглашением непосредственно в сети Биткоин. Запуск мейннета Citrea 27 января 2026 года знаменует собой первый случай, когда ZK-доказательства были вписаны и нативно проверены в блокчейне Биткоина, открывая дверь, которую более 75 проектов Bitcoin L2 пытались открыть годами.

Но есть одна загвоздка: общая заблокированная стоимость (TVL) BTCFi сократилась на 74% за последний год, а в экосистеме по-прежнему доминируют протоколы рестейкинга, а не программируемые приложения. Сможет ли технический прорыв Citrea трансформироваться в реальное внедрение, или он пополнит кладбище решений для масштабирования Биткоина, которые так и не получили развития? Давайте рассмотрим, что отличает Citrea и сможет ли она конкурировать в условиях растущей переполненности рынка.

MegaETH: Блокчейн реального времени, революционизирующий скорость и масштабируемость

· 9 мин чтения
Dora Noda
Software Engineer

Когда Виталик Бутерин лично инвестирует в блокчейн-проект, криптомир обращает на это внимание. Но когда этот проект заявляет о достижении 100 000 транзакций в секунду с временем блока в 10 миллисекунд — что заставляет традиционные блокчейны выглядеть как модемное интернет-соединение (dial-up) — вопрос меняется с «почему мне это должно быть интересно?» на «возможно ли это вообще?».

MegaETH, самопровозглашенный «первый блокчейн реального времени», запустил свою основную сеть 22 января 2026 года, и цифры поражают: 10,7 миллиарда транзакций обработано в ходе семидневного стресс-теста, устойчивая пропускная способность 35 000 TPS, а время блока сократилось с 400 миллисекунд до всего 10 миллисекунд. Проект привлек более 506 миллионов долларов в ходе четырех раундов финансирования, включая публичную продажу токенов на сумму 450 миллионов долларов, которая была переподписана в 27,8 раз.

Но за впечатляющими показателями скрывается фундаментальный компромисс, затрагивающий саму суть главного обещания блокчейна: децентрализацию. Архитектура MegaETH опирается на один гипероптимизированный секвенсор, работающий на оборудовании, которое заставило бы покраснеть большинство дата-центров — более 100 ядер процессора, до 4 терабайт оперативной памяти и сетевые подключения 10 Гбит/с. Это не типичная установка валидатора; это суперкомпьютер.

Архитектура: скорость через специализацию

Прирост производительности MegaETH обусловлен двумя ключевыми инновациями: гетерогенной архитектурой блокчейна и гипероптимизированной средой выполнения EVM.

Традиционные блокчейны требуют, чтобы каждый узел выполнял одни и те же задачи — упорядочивание транзакций, их выполнение и поддержание состояния. MegaETH отказывается от этого подхода. Вместо этого он разделяет узлы по специализированным ролям:

Узлы-секвенсоры (Sequencer Nodes) берут на себя основную нагрузку по упорядочиванию и выполнению транзакций. Это не валидаторы, собранные «на коленке»; это серверы корпоративного класса, требования к оборудованию которых в 20 раз дороже, чем у среднего валидатора Solana.

Узлы-пруверы (Prover Nodes) генерируют и проверяют криптографические доказательства, используя специализированное оборудование, такое как GPU или FPGA. Разделяя генерацию доказательств и выполнение, MegaETH может поддерживать безопасность без ограничения пропускной способности.

Узлы-реплики (Replica Nodes) проверяют вывод секвенсора с минимальными требованиями к оборудованию — примерно сопоставимыми с запуском узла Ethereum L1 — гарантируя, что любой желающий может проверить состояние сети, даже если он не участвует в процессе секвенирования.

Результат? Время блока измеряется однозначными числами миллисекунд, при этом команда стремится к конечному показателю в 1 миллисекунду — первому в индустрии, если это будет достигнуто.

Результаты стресс-теста: доказательство концепции или хайп?

В ходе семидневного глобального стресс-теста MegaETH было обработано около 10,7 миллиарда транзакций, при этом такие игры, как Smasher, Crossy Fluffle и Stomp.gg, создавали постоянную нагрузку на сеть. Сеть достигла пиковой пропускной способности 47 000 TPS при стабильных показателях от 15 000 до 35 000 TPS.

Этим цифрам нужен контекст. Solana, которую часто называют эталоном скорости, имеет теоретический максимум 65 000 TPS, но в реальных условиях работает на уровне около 3 400 TPS. Ethereum L1 обрабатывает примерно 15–30 TPS. Даже самые быстрые L2, такие как Arbitrum и Base, обычно обрабатывают несколько сотен TPS при нормальной нагрузке.

Показатели стресс-теста MegaETH, если они подтвердятся в продакшене, будут означать 10-кратное улучшение по сравнению с реальной производительностью Solana и 1000-кратное улучшение по сравнению с основной сетью Ethereum.

Но есть критическая оговорка: стресс-тесты проводятся в контролируемой среде. Тестовые транзакции поступали в основном из игровых приложений — простых, предсказуемых операций, которые не отражают сложных взаимодействий состояний в протоколах DeFi или непредсказуемых паттернов транзакций реальной пользовательской активности.

Компромисс с децентрализацией

Здесь MegaETH резко расходится с догмами блокчейна: проект открыто признает, что у него нет планов децентрализовать свой секвенсор. Никогда.

«Проект не притворяется децентрализованным и объясняет, почему централизованный секвенсор был необходим в качестве компромисса для достижения желаемого уровня производительности», — отмечается в одном из аналитических обзоров.

Это не временный мост к будущей децентрализации — это постоянное архитектурное решение. Секвенсор MegaETH является единой точкой отказа, контролируемой одной организацией и работающей на оборудовании, которое могут позволить себе только хорошо финансируемые структуры.

Модель безопасности опирается на то, что команда называет «оптимистичными доказательствами мошенничества и слэшингом» (optimistic fraud proofs and slashing). Безопасность системы не зависит от множества субъектов, независимо приходящих к одному и тому же результату. Вместо этого она полагается на децентрализованную сеть пруверов и реплик для проверки вычислительной корректности вывода секвенсора. Если секвенсор поведет себя злонамеренно, пруверы не смогут сгенерировать валидные доказательства для некорректных вычислений.

Кроме того, MegaETH наследует безопасность Ethereum благодаря архитектуре роллапа (rollup), гарантируя, что даже если секвенсор выйдет из строя или поведет себя злонамеренно, пользователи смогут вернуть свои активы через основную сеть Ethereum.

Но критики не убеждены. Текущий анализ показывает, что у MegaETH всего 16 валидаторов по сравнению с более чем 800 000 у Ethereum, что вызывает вопросы к управлению (governance). Проект также использует EigenDA для обеспечения доступности данных вместо Ethereum — выбор, который приносит в жертву проверенную временем безопасность ради более низких затрат и высокой пропускной способности.

USDm: Стратегия стейблкоинов

MegaETH строит не просто быстрый блокчейн; проект создает экономический «ров». Проект в партнерстве с Ethena Labs запустил USDm — нативный стейблкоин, обеспеченный преимущественно токенизированным фондом казначейских облигаций США BUIDL от BlackRock (в настоящее время активы составляют более $ 2,2 млрд).

Умная инновация: доходность резервов USDm программно направляется на покрытие операций секвенсора. Это позволяет MegaETH предлагать транзакционные комиссии менее цента, не полагаясь на газ, оплачиваемый пользователями. По мере роста использования сети доходность стейблкоина пропорционально увеличивается, создавая самодостаточную экономическую модель, которая не требует повышения пользовательских комиссий.

Это противопоставляет MegaETH традиционной модели комиссий L2, где секвенсоры получают прибыль от разницы между комиссиями, оплачиваемыми пользователями, и затратами на публикацию данных в L1. Субсидируя комиссии за счет доходности, MegaETH может предлагать более низкие цены, чем конкуренты, сохраняя при этом предсказуемую экономику для разработчиков.

Конкурентная среда

MegaETH выходит на переполненный рынок L2, где Base, Arbitrum и Optimism контролируют примерно 90 % объема транзакций. Его конкурентное позиционирование уникально:

Против Solana: Время блока MegaETH в 10 мс оставляет далеко позади 400 мс у Solana, что делает его теоретически более предпочтительным для приложений, чувствительных к задержкам, таких как высокочастотная торговля или игры в реальном времени. Однако Solana предлагает единый опыт L1 без сложности мостов, а ее предстоящее обновление Firedancer обещает значительное улучшение производительности.

Против других L2: Традиционные роллапы, такие как Arbitrum и Optimism, приоритезируют децентрализацию над чистой скоростью. Они внедряют доказательства мошенничества (fraud proofs) этапов Stage 1 и Stage 2, в то время как MegaETH оптимизирует другую точку на кривой компромиссов.

Против Monad: Оба проекта нацелены на высокопроизводительное выполнение EVM, но Monad строит L1 с собственным консенсусом, в то время как MegaETH наследует безопасность от Ethereum. Monad запустился с TVL в размере $ 255 млн в конце 2025 года, продемонстрировав спрос на высокопроизводительные EVM-цепи.

Кому это должно быть интересно?

Архитектура MegaETH наиболее актуальна для конкретных вариантов использования:

Игры в реальном времени: Задержка в 10 мс обеспечивает состояние игры в сети, которое ощущается мгновенным. Фокус стресс-теста на играх не был случайным — это целевой рынок.

Высокочастотная торговля: Время блока менее миллисекунды может обеспечить сопоставление ордеров, не уступающее централизованным биржам. Hyperliquid доказал наличие спроса на высокопроизводительную торговлю в сети.

Потребительские приложения: Приложения, которым требуется отзывчивость уровня Web2 — социальные ленты, интерактивные медиа, аукционы в реальном времени — могут, наконец, обеспечить плавный пользовательский опыт без компромиссов в виде офчейн-решений.

Эта архитектура менее оправдана для приложений, где децентрализация имеет первостепенное значение: финансовая инфраструктура, требующая устойчивости к цензуре, протоколы, обрабатывающие крупные переводы активов, где важны допущения о доверии, или любые приложения, где пользователям нужны строгие гарантии поведения секвенсора.

Путь впереди

Публичная основная сеть MegaETH запускается 9 февраля 2026 года, переходя от стадии стресс-теста к промышленной эксплуатации. Успех проекта будет зависеть от нескольких факторов:

Принятие разработчиками: Сможет ли MegaETH привлечь разработчиков для создания приложений, использующих его уникальные характеристики производительности? Игровые студии и разработчики потребительских приложений являются очевидными целями.

История безопасности: Централизация секвенсора — это известный риск. Любой инцидент — будь то технический сбой, цензура или злонамеренное поведение — подорвет доверие ко всей архитектуре.

Экономическая устойчивость: Модель субсидирования USDm элегантна на бумаге, но она зависит от достаточного объема TVL стейблкоина для генерации значимой доходности. Если принятие будет отставать, структура комиссий станет неустойчивой.

Нормативная ясность: Централизованные секвенсоры вызывают вопросы об ответственности и контроле, которых избегают децентрализованные сети. Как регуляторы будут относиться к L2 с одним оператором, остается неясным.

Вердикт

MegaETH представляет собой самую агрессивную ставку на то, что производительность важнее децентрализации для определенных сценариев использования блокчейна. Проект не пытается быть Ethereum — он пытается стать той «быстрой полосой», которой не хватает Ethereum.

Результаты стресс-теста действительно впечатляют. Если MegaETH сможет обеспечить 35 000 TPS с задержкой 10 мс в промышленной сети, он станет самой быстрой EVM-совместимой сетью со значительным отрывом. Экономика USDm продумана, опыт команды из MIT и Стэнфорда внушителен, а поддержка Виталика добавляет легитимности.

Но компромисс в сторону централизации реален. В мире, где мы видели крах централизованных систем — FTX, Celsius и многих других — доверие к одному секвенсору требует веры в операторов и систему доказательств мошенничества. Модель безопасности MegaETH звучит разумно в теории, но она не была проверена в боевых условиях против решительных противников.

Вопрос не в том, сможет ли MegaETH выполнить свои обещания по производительности. Стресс-тест показывает, что сможет. Вопрос в том, нужен ли рынку блокчейн, который очень быстрый, но существенно централизованный, или же первоначальное видение децентрализованных систем без доверия все еще имеет значение.

Для приложений, где скорость — это всё, а пользователи доверяют оператору, MegaETH может стать революционным решением. Для всего остального — вопрос остается открытым.


Запуск основной сети MegaETH 9 февраля станет одним из самых наблюдаемых криптособытий 2026 года. Независимо от того, выполнит ли он обещание «блокчейна в реальном времени» или станет очередной поучительной историей о компромиссе между централизацией и производительностью, сам эксперимент расширяет наше понимание того, что возможно на рубеже производительности блокчейнов.