Перейти к основному контенту

Один пост с тегом "Масштабируемость"

Решения масштабирования блокчейна и производительность

Посмотреть все теги

Сенсационное заявление Виталика об L2: почему дорожная карта Ethereum, ориентированная на роллапы, «больше не имеет смысла»

· 12 мин чтения
Dora Noda
Software Engineer

«Вы не масштабируете Ethereum».

Этими словами Виталик Бутерин представил суровую реальность, которая вызвала шок во всей экосистеме Ethereum. Это заявление, адресованное сетям с высокой пропускной способностью, использующим мультисиг-мосты, вызвало немедленную реакцию: всего через несколько дней ENS Labs отменила запланированный запуск роллапа Namechain, сославшись на резкое улучшение производительности базового уровня Ethereum.

После многих лет позиционирования L2-роллапов в качестве основного решения для масштабирования Ethereum, разворот соучредителя в феврале 2026 года представляет собой один из самых значительных стратегических сдвигов в истории блокчейна. Теперь вопрос заключается в том, смогут ли тысячи существующих L2-проектов адаптироваться — или они станут неактуальными.

Дорожная карта, ориентированная на роллапы: что изменилось?

В течение многих лет официальная стратегия масштабирования Ethereum строилась вокруг роллапов. Логика была проста: Ethereum L1 сосредоточится на безопасности и децентрализации, в то время как сети Layer 2 будут обрабатывать основной объем транзакций, выполняя их вне сети и отправляя сжатые данные обратно в мейннет.

Эта дорожная карта имела смысл, когда Ethereum L1 с трудом справлялся с 15–30 TPS, а комиссии за газ регулярно превышали 50 $ за транзакцию в периоды пиковой нагрузки. Проекты, такие как Arbitrum, Optimism и zkSync, привлекли миллиарды для создания инфраструктуры роллапов, которая в конечном итоге должна была масштабировать Ethereum до миллионов транзакций в секунду.

Но два критических события подорвали этот сценарий.

Во-первых, децентрализация L2 продвигалась «гораздо медленнее», чем ожидалось, по словам Бутерина. Большинство роллапов по-прежнему полагаются на централизованные секвенсоры, ключи обновления мультисиг и доверенных операторов. Путь к децентрализации «Стадии 2» (Stage 2) — когда роллапы могут работать без «вспомогательных колес» — оказался чрезвычайно сложным. Лишь немногие проекты достигли «Стадии 1», и ни один не достиг «Стадии 2».

Во-вторых, сам Ethereum L1 значительно масштабировался. Обновление Fusaka в начале 2026 года принесло снижение комиссий на 99 % для многих вариантов использования. Лимиты газа увеличились с 60 миллионов до 200 миллионов с предстоящим форком Glamsterdam. Проверка доказательств с нулевым разглашением нацелена на 10 000 TPS на уровне L1 к концу 2026 года.

Внезапно предпосылка, на которой основывались миллиардные инвестиции в L2 — о том, что Ethereum L1 не может масштабироваться — стала сомнительной.

ENS Namechain: первая крупная жертва

Решение Ethereum Name Service отказаться от своего L2-роллапа Namechain стало самым резонансным подтверждением пересмотренного мышления Бутерина.

ENS разрабатывала Namechain годами как специализированный роллап для более дешевой регистрации и продления имен, чем это позволяла основная сеть. При комиссии за газ в 5 $ за регистрацию во время пиковой нагрузки в 2024 году экономическое обоснование было убедительным.

К февралю 2026 года этот расчет полностью изменился. Плата за регистрацию ENS упала ниже 5 центов в основной сети Ethereum L1 — снижение на 99 %. Сложность инфраструктуры, текущие расходы на обслуживание и фрагментация пользователей при запуске отдельного L2 больше не оправдывали минимальную экономию средств.

ENS Labs не отказалась от обновления ENSv2, которое представляет собой полную переработку контрактов ENS с улучшенным удобством использования и инструментами для разработчиков. Вместо этого команда развернула ENSv2 непосредственно в мейннете Ethereum, избегая накладных расходов на координацию при переносе данных между L1 и L2.

Эта отмена сигнализирует о более широкой тенденции: если Ethereum L1 продолжит эффективно масштабироваться, специализированные роллапы потеряют свое экономическое обоснование. Зачем поддерживать отдельную инфраструктуру, когда базового уровня достаточно?

Проблема мультисиг-мостов и 10 000 TPS

Критика Бутериным мультисиг-мостов затрагивает саму суть того, что на самом деле означает «масштабирование Ethereum».

Его заявление — «Если вы создаете EVM с 10 000 TPS, где связь с L1 опосредована мультисиг-мостом, то вы не масштабируете Ethereum» — проводит четкую черту между подлинным масштабированием Ethereum и независимыми блокчейнами, которые лишь заявляют о своей связи с ним.

Это различие имеет огромное значение для безопасности и децентрализации.

Мультисиг-мост полагается на небольшую группу операторов для подтверждения кросс-чейн транзакций. Пользователи доверяют тому, что эта группа не вступит в сговор, не будет взломана и не окажется под давлением регуляторов. История показывает, что это доверие часто неоправданно: взломы мостов привели к убыткам на миллиарды долларов, при этом только эксплойт Ronin Bridge стоил более 600 миллионов $.

Настоящее масштабирование Ethereum наследует гарантии безопасности самого Ethereum. Правильно реализованный роллап использует доказательства мошенничества (fraud proofs) или доказательства достоверности (validity proofs), чтобы гарантировать, что любой недопустимый переход состояния может быть оспорен и отменен, а споры разрешаются валидаторами Ethereum L1. Пользователям не нужно доверять мультисигу — они доверяют механизму консенсуса Ethereum.

Проблема в том, что достижение такого уровня безопасности технически сложно и дорого. Многие проекты, называющие себя «Ethereum L2», срезают углы:

  • Централизованные секвенсоры: одна сущность упорядочивает транзакции, создавая риск цензуры и единые точки отказа.
  • Мультисиг-ключи обновления: небольшая группа может изменять правила протокола без согласия сообщества, что потенциально позволяет украсть средства или изменить экономику.
  • Отсутствие гарантий выхода: если секвенсор отключится или ключи обновления будут скомпрометированы, у пользователей может не быть надежного способа вывести активы.

Это не теоретические опасения. Исследования показывают, что большинство сетей L2 остаются гораздо более централизованными, чем Ethereum L1, а децентрализация рассматривается как долгосрочная цель, а не как немедленный приоритет.

Формулировка Бутерина ставит неудобный вопрос: если L2 не наследует безопасность Ethereum, действительно ли он «масштабирует Ethereum» или это просто еще один альтчейн с брендингом Ethereum?

Новая концепция L2: ценность за пределами масштабирования

Вместо того чтобы полностью отказываться от L2-решений, Бутерин предложил рассматривать их как спектр сетей с различным уровнем связи с Ethereum, каждая из которых предлагает свои компромиссы.

Важнейший вывод заключается в том, что L2 должны предоставлять ценность помимо базового масштабирования, если они хотят оставаться актуальными по мере совершенствования Ethereum L1:

Функции конфиденциальности

Такие сети, как Aztec и Railgun, предлагают программируемую конфиденциальность с использованием доказательств с нулевым разглашением. Эти возможности сложно реализовать в прозрачном публичном L1, что создает реальную дифференциацию.

Дизайн под конкретные приложения

Игровые роллапы, такие как Ronin или IMX, оптимизированы для высокочастотных транзакций с низкой стоимостью и имеют иные требования к финализации, чем финансовые приложения. Такая специализация оправдана, даже если L1 адекватно масштабируется для большинства случаев использования.

Сверхбыстрое подтверждение

Некоторым приложениям требуется финализация менее чем за секунду, что невозможно при 12-секундном времени блока в L1. Эту нишу могут занять L2-решения с оптимизированным консенсусом.

Нефинансовые сценарии использования

Идентификация, социальные графы и доступность данных имеют иные требования, чем DeFi. Специализированные L2 могут оптимизироваться под эти рабочие нагрузки.

Бутерин подчеркнул, что L2 должны «четко объяснять пользователям, какие гарантии они предоставляют». Времена расплывчатых заявлений о «масштабировании Ethereum» без уточнения моделей безопасности, статуса децентрализации и предположений о доверии прошли.

Реакция экосистемы: адаптация или отрицание?

Реакция на комментарии Бутерина выявила раздробленность экосистемы, переживающей кризис идентичности.

Polygon объявил о стратегическом повороте, сосредоточившись в первую очередь на платежах, явно признав, что масштабирование общего назначения становится обыденным товаром. Команда поняла, что для дифференциации необходима специализация.

Марк Буарон (Offchain Labs) утверждал, что комментарии Бутерина были «не столько об отказе от роллапов, сколько о повышении ожиданий от них». Такая формулировка сохраняет нарратив о роллапах, признавая при этом необходимость более высоких стандартов.

Сторонники Solana воспользовались возможностью заявить, что монолитная архитектура Solana полностью исключает сложность L2, указывая на то, что многоцепочечная фрагментация Ethereum создает худший пользовательский опыт (UX), чем один высокопроизводительный L1.

Разработчики L2, как правило, защищали свою значимость, подчеркивая функции, выходящие за рамки чистой пропускной способности — конфиденциальность, кастомизацию, специализированную экономику — при этом молча признавая, что стратегии, основанные только на масштабировании, становится все труднее обосновывать.

Общая тенденция очевидна: ландшафт L2 разделится на две категории:

  1. Массовые роллапы, конкурирующие в основном по комиссиям и пропускной способности, вероятно, консолидирующиеся вокруг нескольких доминирующих игроков (Base, Arbitrum, Optimism).

  2. Специализированные L2 с фундаментально иными моделями исполнения, предлагающие уникальные ценностные предложения, которые L1 не может воспроизвести.

Сети, не попавшие ни в одну из этих категорий, столкнутся с неопределенным будущим.

Что должны сделать L2-решения, чтобы выжить

Для существующих Layer 2 проектов поворот Бутерина создает как экзистенциальное давление, так и стратегическую ясность. Выживание требует решительных действий по нескольким направлениям:

1. Ускорить децентрализацию

Нарратив «мы когда-нибудь децентрализуемся» больше неприемлем. Проекты должны опубликовать конкретные графики для:

  • Сетей секвенсоров без разрешений (или заслуживающих доверия доказательств полномочий)
  • Удаления или временной блокировки ключей обновления
  • Внедрения систем защиты от сбоев с гарантированными окнами выхода

L2, которые остаются централизованными, заявляя при этом о безопасности Ethereum, особенно уязвимы для регуляторного надзора и репутационного ущерба.

2. Сформулировать ценностное предложение

Если главным преимуществом L2 является то, что он «дешевле Ethereum», ему нужен новый подход. Устойчивая дифференциация требует:

  • Специализированных функций: конфиденциальность, кастомизированное исполнение VM, новые модели состояния
  • Четкости целевой аудитории: игры? платежи? социальные сети? DeFi?
  • Честного раскрытия информации о безопасности: какие существуют предположения о доверии? какие векторы атак остаются?

Маркетинговые обещания не сработают, когда пользователи могут сравнить реальные показатели децентрализации с помощью таких инструментов, как L2Beat.

3. Решить проблему безопасности мостов

Мосты с мультиподписью — самое слабое звено в безопасности L2. Проекты должны:

  • Внедрить доказательства мошенничества или доказательства достоверности для мостов без доверия
  • Добавить временные задержки и слои социального консенсуса для экстренного вмешательства
  • Обеспечить механизмы гарантированного выхода, которые работают даже в случае сбоя секвенсоров

Безопасность мостов не может быть второстепенной задачей, когда на кону стоят миллиарды пользовательских средств.

4. Сосредоточиться на интероперабельности

Фрагментация — самая большая проблема UX в Ethereum. L2 должны:

  • Поддерживать стандарты межсетевого обмена сообщениями (LayerZero, Wormhole, Chainlink CCIP)
  • Обеспечить беспрепятственный обмен ликвидностью между сетями
  • Создавать уровни абстракции, скрывающие сложность от конечных пользователей

Победившие L2 будут восприниматься как расширение Ethereum, а не как изолированные острова.

5. Принять консолидацию

Реально рынок не может поддерживать более 100 жизнеспособных L2. Многим придется объединиться, сменить направление или изящно закрыться. Чем раньше команды признают это, тем лучше они смогут подготовиться к стратегическому партнерству или поглощению, вместо того чтобы медленно терять актуальность.

Дорожная карта масштабирования Ethereum L1

Пока L2-решения сталкиваются с кризисом идентичности, Ethereum L1 реализует агрессивный план масштабирования, который подкрепляет аргументы Бутерина.

Форк Glamsterdam (середина 2026 года): Внедряет списки доступа к блокам (Block Access Lists, BAL), обеспечивая идеальную параллельную обработку путем предварительной загрузки данных транзакций в память. Лимиты газа увеличатся с 60 миллионов до 200 миллионов, что значительно повысит пропускную способность для сложных смарт-контрактов.

Валидация доказательств с нулевым разглашением (ZK-доказательств): Первый этап развертывания в 2026 году нацелен на переход 10% валидаторов на ZK-валидацию, при которой валидаторы проверяют математические доказательства точности блоков вместо повторного выполнения всех транзакций. Это позволит Ethereum масштабироваться до 10 000 TPS, сохраняя при этом безопасность и децентрализацию.

Разделение предлагающего и строителя (ePBS): Интегрирует конкуренцию строителей непосредственно в уровень консенсуса Ethereum, сокращая извлечение MEV и повышая цензуроустойчивость.

Эти обновления не устраняют необходимость в L2, но они опровергают предположение о том, что масштабирование L1 невозможно или нецелесообразно. Если Ethereum L1 достигнет 10 000 TPS с параллельным выполнением и ZK-валидацией, планка для дифференциации L2-решений значительно поднимется.

Долгосрочная перспектива: Что победит?

Стратегия масштабирования Ethereum вступает в новую фазу, где разработку L1 и L2 следует рассматривать как взаимодополняющую, а не конкурентную.

Роллап-центричная дорожная карта предполагала, что L1 останется медленным и дорогим на неопределенный срок. Это предположение теперь устарело. L1 будет масштабироваться — возможно, не до миллионов TPS, но достаточно для обслуживания большинства массовых сценариев использования с разумными комиссиями.

L2-проекты, которые осознают эту реальность и переориентируются на подлинную дифференциацию, смогут процветать. Те же, кто продолжит позиционировать себя как «быстрее и дешевле, чем Ethereum», столкнутся с трудностями, поскольку L1 сокращает разрыв в производительности.

Главная ирония заключается в том, что комментарии Бутерина могут укрепить долгосрочные позиции Ethereum. Заставляя L2 повышать свои стандарты — реальную децентрализацию, честное раскрытие информации о безопасности, специализированные ценностные предложения — Ethereum отсеивает слабейшие проекты, одновременно повышая качество всей экосистемы.

Пользователи выигрывают от более четкого выбора: использовать Ethereum L1 для максимальной безопасности и децентрализации или выбирать специализированные L2 для конкретных функций с явно заявленными компромиссами. Промежуточный вариант в духе «мы вроде как масштабируем Ethereum с помощью моста с мультиподписью» исчезает.

Для проектов, строящих будущее блокчейн-инфраструктуры, сигнал ясен: задача общего масштабирования решена. Если ваш L2 не предлагает того, чего не может Ethereum L1, вы строите на заимствованном времени.

BlockEden.xyz предоставляет инфраструктуру корпоративного уровня для Ethereum L1 и основных сетей второго уровня (Layer 2), предлагая разработчикам инструменты для создания приложений во всей экосистеме Ethereum. Изучите наши API-сервисы для масштабируемого и надежного подключения к блокчейну.


Источники:

SONAMI достигает 10-го этапа: сможет ли стратегия Layer 2 для Solana бросить вызов доминированию L2 на Ethereum?

· 11 мин чтения
Dora Noda
Software Engineer

Solana только что преодолела порог, который многие считали невозможным: блокчейн, созданный для чистой скорости, теперь накладывает дополнительные среды исполнения. SONAMI, позиционирующая себя как первый Layer 2 (L2) промышленного уровня для Solana, объявила о достижении 10-го этапа (Stage 10) в начале февраля 2026 года, ознаменовав поворотный момент в подходе высокопроизводительного блокчейна к масштабируемости.

В течение многих лет нарратив был прост: Ethereum нужны решения Layer 2, потому что его базовый уровень не масштабируется. Solana не нужны L2, потому что она уже обрабатывает тысячи транзакций в секунду. Теперь, когда SONAMI достигла готовности к эксплуатации, а конкурирующие проекты, такие как SOON и Eclipse, набирают обороты, Solana тихо перенимает модульную стратегию, которая превратила экосистему роллапов Ethereum в гиганта стоимостью $ 33 миллиарда.

Вопрос не в том, нужны ли Solana решения Layer 2. Вопрос в том, сможет ли нарратив Solana L2 конкурировать с устоявшимся доминированием Base, Arbitrum и Optimism — и что это значит, когда каждый блокчейн сходится к одному и тому же решению для масштабирования.

Почему Solana строит уровни Layer 2 (и почему именно сейчас)

Теоретическая цель Solana — 65 000 транзакций в секунду. На практике сеть обычно работает на уровне нескольких тысяч, время от времени сталкиваясь с перегрузками во время минта NFT или безумия мем-коинов. Критики указывают на сбои в работе сети и снижение производительности при пиковой нагрузке как на доказательство того, что одной высокой пропускной способности недостаточно.

Запуск 10-го этапа SONAMI напрямую решает эти болевые точки. Согласно официальным заявлениям, этот этап сосредоточен на трех основных улучшениях:

  • Усиление возможностей исполнения при пиковом спросе
  • Расширение возможностей модульного развертывания для сред под конкретные приложения
  • Повышение эффективности сети для снижения нагрузки на базовый уровень

Это стратегия L2 от Ethereum, адаптированная для архитектуры Solana. В то время как Ethereum переносит исполнение транзакций в роллапы, такие как Arbitrum и Base, Solana теперь создает специализированные уровни исполнения, которые обрабатывают перегрузки и логику конкретных приложений, проводя расчеты на основной сети.

Выбор времени стратегически выверен. К концу 2025 года экосистема Layer 2 в Ethereum обрабатывала почти 90 % всех L2-транзакций, причем на долю Base пришлось более 60 % рынка. Тем временем институциональный капитал перетекает в L2 на Ethereum: TVL Base составляет 10миллиардов,Arbitrumудерживает10 миллиардов, Arbitrum удерживает 16,63 миллиарда, а объединенная экосистема L2 представляет собой значительную часть общей стоимости, защищенной Ethereum.

Стремление Solana к Layer 2 — это не признание неудачи. Это борьба за то же внимание институционалов и разработчиков, которое привлекла модульная дорожная карта Ethereum.

SONAMI против гигантов Ethereum L2: Неравный бой

SONAMI выходит на рынок, где консолидация уже произошла. К началу 2026 года большинство L2 на Ethereum за пределами первой тройки — Base, Arbitrum, Optimism — фактически превратились в «цепочки-зомби», активность в которых упала на 61 %, а TVL подавляющим образом концентрируется в сложившихся экосистемах.

Вот с чем сталкивается SONAMI:

Преимущество Base от Coinbase: Base извлекает выгоду из 110 миллионов верифицированных пользователей Coinbase, удобных фиатных шлюзов и институционального доверия. В конце 2025 года Base доминировала на 46,58 % в DeFi TVL среди Layer 2 и обеспечивала 60 % объема транзакций. Ни один L2 на Solana не имеет сопоставимых каналов распределения.

Ров DeFi от Arbitrum: Arbitrum лидирует среди всех L2 с TVL в размере 16,63миллиарда,опираясьнагодыработыустановленныхDeFiпротоколов,пуловликвидностииинституциональныхинтеграций.ОбщийTVLSolanaвDeFiсоставляет16,63 миллиарда, опираясь на годы работы установленных DeFi-протоколов, пулов ликвидности и институциональных интеграций. Общий TVL Solana в DeFi составляет 11,23 миллиарда по всей экосистеме.

Сетевые эффекты управления Optimism: Архитектура Superchain от Optimism привлекает корпоративные роллапы от Coinbase, Kraken и Uniswap. У SONAMI нет сопоставимой структуры управления или партнерской экосистемы.

Архитектурное сравнение не менее разительное. L2 на Ethereum, такие как Arbitrum, теоретически достигают 40 000 TPS, при этом фактическое подтверждение транзакций кажется мгновенным благодаря низким комиссиям и быстрому завершению. Архитектура SONAMI обещает аналогичные улучшения пропускной способности, но она строится на базовом уровне, который уже обеспечивает подтверждения с низкой задержкой.

Ценностное предложение выглядит размытым. L2 на Ethereum решают реальную проблему: базовый уровень Ethereum с его 15–30 TPS слишком медленный для потребительских приложений. Базовый уровень Solana уже комфортно справляется с большинством сценариев использования. Какую проблему решает L2 на Solana, которую не сможет решить Firedancer — клиент-валидатор нового поколения для Solana, призванный значительно повысить производительность?

Расширение SVM: игра в L2 другого типа

Стратегия Layer 2 для Solana может заключаться не в масштабировании самой Solana. Возможно, речь идет о масштабировании Solana Virtual Machine (SVM) как технологического стека, независимого от блокчейна Solana.

Eclipse, первый L2 на Ethereum на базе SVM, стабильно поддерживает более 1 000 TPS без скачков комиссий. SOON, оптимистичный роллап, сочетающий SVM с модульным дизайном Ethereum, нацелен на расчеты в Ethereum при исполнении с использованием модели параллелизации Solana. Atlas обещает время блока в 50 мс с быстрой мерклизацией состояния. Yona проводит расчеты в Bitcoin, используя SVM для исполнения.

Это не L2 для Solana в традиционном смысле. Это роллапы на базе SVM, рассчитывающиеся в других цепочках, предлагающие производительность уровня Solana с ликвидностью Ethereum или безопасностью Bitcoin.

SONAMI вписывается в этот нарратив как «первый промышленный L2 для Solana», но более широкая игра заключается в экспорте SVM в каждую крупную экосистему блокчейнов. В случае успеха Solana станет предпочтительным уровнем исполнения для множества уровней расчетов — по аналогии с тем, как доминирование EVM вышло за пределы самого Ethereum.

Проблема заключается во фрагментации. Экосистема L2 Ethereum страдает от разделения ликвидности между десятками роллапов. Пользователи Arbitrum не могут беспрепятственно взаимодействовать с Base или Optimism без мостов. Стратегия Solana L2 рискует столкнуться с той же судьбой: SONAMI, SOON, Eclipse и другие будут бороться за ликвидность, разработчиков и пользователей, теряя компонуемость, которая определяет опыт использования L1 Solana.

Что на самом деле означает Этап 10 (и чего он не означает)

Анонс 10-го этапа SONAMI богат на видение, но скуп на технические детали. В пресс-релизах подчеркиваются «варианты модульного развертывания», «усиление возможностей исполнения» и «эффективность сети при пиковых нагрузках», однако отсутствуют конкретные показатели производительности или метрики основной сети (mainnet).

Это типично для запусков L2 на ранних стадиях. Eclipse провела реструктуризацию в конце 2025 года, сократив 65 % персонала и сменив вектор с поставщика инфраструктуры на внутреннюю студию приложений. SOON привлекла 22 млн долларов через продажу NFT перед запуском основной сети, но еще не продемонстрировала устойчивого использования в реальных условиях. Экосистема L2 на Solana находится в зачаточном состоянии, она спекулятивна и не проверена временем.

Для контекста: доминирование L2 на Ethereum формировалось годами. Arbitrum запустил свою основную сеть в августе 2021 года. Optimism заработал в декабре 2021 года. Base запустился лишь в августе 2023 года, но уже через несколько месяцев превзошел Arbitrum по объему транзакций благодаря дистрибьюторской мощи Coinbase. SONAMI пытается конкурировать на рынке, где сетевые эффекты, ликвидность и институциональные партнерства уже определили явных победителей.

Веха 10-го этапа указывает на то, что SONAMI продвигается по своей дорожной карте, но без данных о TVL, объеме транзакций или метрик активных пользователей невозможно оценить реальную востребованность. Большинство L2-проектов объявляют о «запусках основной сети» или «этапах тестнета», которые создают громкие заголовки, но не генерируют реального использования.

Может ли концепция L2 на Solana добиться успеха?

Ответ зависит от того, что считать «успехом». Если успех — это свержение Base или Arbitrum, то ответ почти наверняка — нет. Экосистема L2 на Ethereum пользуется преимуществом первопроходца, институциональным капиталом и беспрецедентной ликвидностью DeFi в Ethereum. У L2 на Solana нет этих структурных преимуществ.

Если успехом считается создание сред исполнения для конкретных приложений, которые снижают нагрузку на базовый уровень, сохраняя при этом компонуемость Solana, тогда ответ — возможно. Способность Solana масштабироваться горизонтально через L2, сохраняя быстрое и компонуемое ядро L1, может укрепить ее позиции для высокочастотных децентрализованных приложений, работающих в реальном времени.

Если успех — это экспорт SVM в другие экосистемы и превращение среды исполнения Solana в кросс-чейн стандарт, то такой сценарий вероятен, но не доказан. Роллапы на базе SVM в сетях Ethereum, Bitcoin и других цепочках могут способствовать массовому внедрению, но проблемы фрагментации и разделения ликвидности остаются нерешенными.

Наиболее вероятный исход — бифуркация. Экосистема L2 на Ethereum продолжит доминировать в институциональном DeFi, токенизированных активах и корпоративных сценариях использования. Базовый уровень Solana будет процветать за счет розничной активности, мемкоинов, гейминга и постоянных транзакций с низкими комиссиями. L2 на Solana займут промежуточное положение: специализированные уровни исполнения для разгрузки сети, логики конкретных приложений и кросс-чейн развертываний SVM.

Это не сценарий, где «победитель получает всё». Это признание того, что разные стратегии масштабирования служат разным целям, а модульная концепция — будь то на Ethereum или Solana — становится стандартом де-факто для каждого крупного блокчейна.

Тихая конвергенция

Создание Layer 2 на Solana кажется идеологической капитуляцией. В течение многих лет преимуществом Solana была простота: одна быстрая цепочка, отсутствие фрагментации, отсутствие мостов. Преимуществом Ethereum была модульность: отделение консенсуса от исполнения, специализация L2, принятие компромиссов в компонуемости.

Теперь обе экосистемы сходятся в одном и том же решении. Ethereum обновляет свой базовый уровень (Pectra, Fusaka) для поддержки большего количества L2. Solana строит L2 для расширения своего базового уровня. Архитектурные различия сохраняются, но стратегическое направление идентично: перенос исполнения на специализированные уровни при сохранении безопасности базового уровня.

Ирония заключается в том, что по мере того как блокчейны становятся все более похожими, конкуренция обостряется. У Ethereum есть многолетнее преимущество, 33 млрд долларов TVL в сетях L2 и институциональные партнерства. У Solana — превосходная производительность базового уровня, более низкие комиссии и экосистема, ориентированная на розничного пользователя. Достижение SONAMI 10-го этапа — это шаг к паритету, но одного паритета недостаточно на рынке, где доминируют сетевые эффекты.

Настоящий вопрос не в том, может ли Solana строить L2. А в том, смогут ли L2 на Solana привлечь ликвидность, разработчиков и пользователей, необходимых для выживания в экосистеме, где большинство L2 уже терпят неудачу.

BlockEden.xyz предоставляет RPC-инфраструктуру корпоративного уровня для Solana и других высокопроизводительных блокчейнов. Изучите наш маркетплейс API, чтобы создавать проекты на масштабируемых фундаментах, оптимизированных для скорости.

Источники

ZK-сопроцессоры: инфраструктура, преодолевающая вычислительный барьер блокчейна

· 14 мин чтения
Dora Noda
Software Engineer

Когда Ethereum обрабатывает транзакции, каждое вычисление происходит ончейн — проверяемо, безопасно и мучительно дорого. Это фундаментальное ограничение годами сдерживало возможности разработчиков. Однако новый класс инфраструктуры переписывает правила: ZK-копроцессоры открывают доступ к неограниченным вычислениям для блокчейнов с ограниченными ресурсами, не жертвуя при этом принципом отсутствия необходимости в доверии (trustlessness).

К октябрю 2025 года ZK-копроцессор Brevis Network уже сгенерировал 125 миллионов доказательств с нулевым разглашением, обеспечил поддержку более $2,8 миллиарда общей заблокированной стоимости (TVL) и верифицировал объем транзакций на сумму более $1 миллиарда. Это больше не экспериментальная технология — это продакшн-инфраструктура, позволяющая создавать приложения, которые раньше были невозможны в ончейне.

Узкое место вычислений, определившее блокчейн

Блокчейны сталкиваются с неизбежной трилеммой: они могут быть децентрализованными, безопасными или масштабируемыми — но достижение всех трех качеств одновременно оказалось трудновыполнимой задачей. Смарт-контракты на Ethereum оплачивают газ за каждый вычислительный шаг, что делает сложные операции непомерно дорогими. Хотите проанализировать полную историю транзакций пользователя, чтобы определить его уровень лояльности? Рассчитать персональные игровые награды на основе сотен ончейн-действий? Запустить инференс машинного обучения для моделей оценки рисков в DeFi?

Традиционные смарт-контракты не могут делать это экономически эффективно. Чтение исторических данных блокчейна, обработка сложных алгоритмов и доступ к кроссчейн-информации требуют вычислений, которые обанкротили бы большинство приложений при выполнении на уровне 1 (Layer 1). Именно поэтому протоколы DeFi используют упрощенную логику, игры полагаются на оффчейн-серверы, а интеграция ИИ остается в основном концептуальной.

Обходной путь всегда был одним и тем же: перенести вычисления в оффчейн и доверять централизованной стороне их корректное выполнение. Но это сводит на нет саму суть архитектуры блокчейна, не требующей доверия.

Появление ZK-копроцессора: оффчейн-выполнение, ончейн-верификация

Копроцессоры с нулевым разглашением решают эту проблему, внедряя новую вычислительную парадигму: «оффчейн-вычисления + ончейн-верификация». Они позволяют смарт-контрактам делегировать тяжелую обработку специализированной оффчейн-инфраструктуре, а затем проверять результаты ончейн с помощью доказательств с нулевым разглашением — без необходимости доверять какому-либо посреднику.

Вот как это работает на практике:

  1. Доступ к данным: Копроцессор считывает исторические данные блокчейна, состояние кроссчейн-сетей или внешнюю информацию, доступ к которой в ончейне был бы слишком дорогим из-за затрат на газ.
  2. Оффчейн-вычисления: Сложные алгоритмы запускаются в специализированных средах, оптимизированных для производительности и не ограниченных лимитами газа.
  3. Генерация доказательств: Создается доказательство с нулевым разглашением, подтверждающее, что вычисления были выполнены корректно на основе конкретных входных данных.
  4. Ончейн-верификация: Смарт-контракт проверяет доказательство за миллисекунды без повторного выполнения вычислений и без доступа к исходным необработанным данным.

Эта архитектура экономически жизнеспособна, поскольку генерация доказательств оффчейн и их верификация ончейн стоят гораздо дешевле, чем прямое выполнение вычислений на Layer 1. Результат: смарт-контракты получают доступ к неограниченным вычислительным мощностям, сохраняя при этом гарантии безопасности блокчейна.

Эволюция: от zkRollups до ZK-копроцессоров

Технология появилась не в одночасье. Системы доказательств с нулевым разглашением прошли через несколько этапов эволюции:

L2 zkRollups стали пионерами модели «вычисления оффчейн, верификация ончейн» для масштабирования пропускной способности транзакций. Проекты вроде zkSync и StarkNet объединяют тысячи транзакций, выполняют их оффчейн и отправляют в Ethereum единое доказательство валидности, значительно увеличивая мощность сети и наследуя безопасность Ethereum.

zkVM (виртуальные машины с нулевым разглашением) обобщили эту концепцию, позволив доказывать корректность произвольных вычислений. Вместо того чтобы ограничиваться обработкой транзакций, разработчики смогли писать любые программы и генерировать проверяемые доказательства их выполнения. zkVM Pico / Prism от Brevis достигает среднего времени генерации доказательства в 6,9 секунды на кластерах из 64 видеокарт RTX 5090, что делает верификацию в реальном времени практичной.

ZK-копроцессоры представляют собой следующий этап: специализированную инфраструктуру, сочетающую zkVM с копроцессорами данных для обработки исторических и кроссчейн-данных. Они созданы специально для уникальных нужд блокчейн-приложений — чтения истории ончейн, объединения нескольких сетей и предоставления смарт-контрактам возможностей, которые ранее были доступны только через централизованные API.

Lagrange запустила первый ZK-копроцессор на базе SQL в 2025 году, позволив разработчикам подтверждать пользовательские SQL-запросы к огромным объемам ончейн-данных прямо из смарт-контрактов. Brevis последовала за ней с мультичейн-архитектурой, поддерживающей верифицируемые вычисления в Ethereum, Arbitrum, Optimism, Base и других сетях. Axiom сосредоточилась на верифицируемых запросах к истории с использованием обратных вызовов схем (circuit callbacks) для программируемой логики верификации.

Сравнение ZK-копроцессоров с альтернативами

Чтобы понять место ZK-копроцессоров в экосистеме, необходимо сравнить их со смежными технологиями:

ZK-сопроцессоры против zkML

Машинное обучение с нулевым разглашением (zkML) использует аналогичные системы доказательств, но нацелено на другую задачу: доказательство того, что модель ИИ выдала конкретный результат без раскрытия весов модели или входных данных. zkML в первую очередь фокусируется на верификации инференса — подтверждении того, что нейронная сеть была вычислена честно.

Ключевое отличие заключается в рабочем процессе. С ZK-сопроцессорами разработчики пишут явную логику реализации, обеспечивают корректность схем и генерируют доказательства для детерминированных вычислений. В случае с zkML процесс начинается с исследования данных и обучения модели перед созданием схем для проверки инференса. ZK-сопроцессоры обрабатывают логику общего назначения; zkML специализируется на том, чтобы сделать ИИ верифицируемым ончейн.

Обе технологии разделяют одну и ту же парадигму верификации: вычисления выполняются вне блокчейна, создавая доказательство с нулевым разглашением вместе с результатами. Блокчейн проверяет доказательство за миллисекунды, не видя исходных данных и не выполняя вычисления повторно. Но схемы zkML оптимизированы для тензорных операций и архитектур нейронных сетей, в то время как схемы сопроцессоров обрабатывают запросы к базам данных, переходы состояний и агрегацию данных между блокчейнами.

ZK-сопроцессоры против оптимистичных роллапов

Оптимистичные роллапы и ZK-роллапы масштабируют блокчейны путем выноса исполнения вне сети, но их модели доверия фундаментально различаются.

Оптимистичные роллапы по умолчанию предполагают, что транзакции валидны. Валидаторы отправляют пакеты транзакций без доказательств, и любой может оспорить невалидные пакеты в течение периода оспаривания (обычно 7 дней). Эта отложенная финальность означает, что вывод средств из Optimism или Arbitrum требует ожидания в течение недели — это приемлемо для масштабирования, но проблематично для многих приложений.

ZK-сопроцессоры немедленно доказывают корректность. Каждый пакет включает доказательство валидности, проверяемое в блокчейне перед принятием. Здесь нет периода оспаривания, нет предположений о мошенничестве и нет недельных задержек на вывод средств. Транзакции достигают мгновенной финальности.

Исторически компромиссом были сложность и стоимость. Генерация доказательств с нулевым разглашением требует специализированного оборудования и сложной криптографии, что делает ZK-инфраструктуру более дорогой в эксплуатации. Но аппаратное ускорение меняет экономику. Pico Prism от Brevis достигает 96.8 % охвата доказательствами в реальном времени, что означает, что доказательства генерируются достаточно быстро, чтобы не отставать от потока транзакций — устраняя разрыв в производительности, который ранее давал преимущество оптимистичным подходам.

На текущем рынке оптимистичные роллапы, такие как Arbitrum и Optimism, по-прежнему доминируют по общему объему заблокированных средств (TVL). Их EVM-совместимость и более простая архитектура облегчили их масштабное развертывание. Но по мере созревания ZK-технологий мгновенная финальность и более сильные гарантии безопасности доказательств валидности смещают акцент. Масштабирование второго уровня (Layer 2) — это лишь один из вариантов использования; ZK-сопроцессоры открывают более широкую категорию — верифицируемые вычисления для любого ончейн-приложения.

Реальные сценарии использования: от DeFi до гейминга

Инфраструктура позволяет реализовать сценарии, которые ранее были невозможны или требовали централизованного доверия:

DeFi: Динамические структуры комиссий и программы лояльности

Децентрализованные биржи сталкиваются с трудностями при внедрении сложных программ лояльности, так как расчет исторического объема торгов пользователя ончейн обходится непомерно дорого. С помощью ZK-сопроцессоров DEX могут отслеживать пожизненный объем операций в нескольких сетях, рассчитывать VIP-уровни и динамически корректировать торговые комиссии — и все это с верификацией в блокчейне.

Incentra, построенная на базе Brevis zkCoprocessor, распределяет вознаграждения на основе подтвержденной ончейн-активности без раскрытия конфиденциальных данных пользователей. Протоколы теперь могут внедрять кредитные линии на основе прошлого поведения по возврату средств, активное управление ликвидностью с предопределенными алгоритмами и динамические предпочтения при ликвидации — и все это подкреплено криптографическими доказательствами вместо доверенных посредников.

Гейминг: Персонализированный опыт без централизованных серверов

Блокчейн-игры сталкиваются с дилеммой UX: записывать каждое действие игрока ончейн слишком дорого, но перенос игровой логики вне блокчейна требует доверия к централизованным серверам. ZK-сопроцессоры предлагают третий путь.

Смарт-контракты теперь могут отвечать на сложные запросы, такие как: «Какие кошельки выиграли в этой игре за последнюю неделю, сминтили NFT из моей коллекции и провели в игре не менее двух часов?». Это позволяет реализовать персонализированный LiveOps — динамическое предложение внутриигровых покупок, подбор противников, запуск бонусных событий — на основе подтвержденной ончейн-истории, а не централизованной аналитики.

Игроки получают персонализированный опыт. Разработчики сохраняют инфраструктуру без необходимости доверия. Состояние игры остается верифицируемым.

Кроссчейн-приложения: Единое состояние без мостов

Чтение данных из другого блокчейна традиционно требует мостов — доверенных посредников, которые блокируют активы в одной сети и выпускают их представления в другой. ZK-сопроцессоры проверяют кроссчейн-состояние напрямую с помощью криптографических доказательств.

Смарт-контракт на Ethereum может запросить информацию о владении NFT пользователем на Polygon, его позиции в DeFi на Arbitrum и его голоса в управлении на Optimism — и все это без доверия операторам мостов. Это открывает возможности для кроссчейн кредитного скоринга, унифицированных систем идентификации и протоколов многоцепочечной репутации.

Конкурентная среда: кто и что создает

Сегмент ZK-сопроцессоров консолидировался вокруг нескольких ключевых игроков, каждый из которых использует свои архитектурные подходы:

Brevis Network лидирует в объединении «ZK-сопроцессор данных + универсальная zkVM». Их zkCoprocessor обрабатывает чтение исторических данных и кроссчейн-запросы, в то время как Pico/Prism zkVM обеспечивает программируемые вычисления для произвольной логики. Brevis привлекла $ 7,5 миллиона в ходе посевного раунда токенов и развернута в сетях Ethereum, Arbitrum, Base, Optimism, BSC и других. Их токен BREV набирает обороты на биржах в преддверии 2026 года.

Lagrange стала пионером SQL-запросов с ZK Coprocessor 1.0, сделав ончейн-данные доступными через привычные интерфейсы баз данных. Разработчики могут подтверждать кастомные SQL-запросы напрямую из смарт-контрактов, что значительно снижает технический барьер для создания приложений с интенсивным использованием данных. Azuki, Gearbox и другие протоколы используют Lagrange для верифицируемой исторической аналитики.

Axiom фокусируется на верифицируемых запросах с обратными вызовами схем (circuit callbacks), позволяя смарт-контрактам запрашивать конкретные исторические точки данных и получать криптографические доказательства корректности. Их архитектура оптимизирована для сценариев, где приложениям нужны точные срезы истории блокчейна, а не общие вычисления.

Space and Time сочетает верифицируемую базу данных с SQL-запросами, ориентируясь на корпоративные сценарии использования, требующие как ончейн-верификации, так и функциональности традиционных баз данных. Их подход привлекает институциональных игроков, мигрирующих существующие системы на блокчейн-инфраструктуру.

Рынок стремительно развивается, и 2026 год повсеместно считается «годом ZK-инфраструктуры». По мере ускорения генерации доказательств, улучшения аппаратного ускорения и созревания инструментов для разработчиков, ZK-сопроцессоры превращаются из экспериментальной технологии в критически важную производственную инфраструктуру.

Технические сложности: почему это трудно

Несмотря на прогресс, сохраняются значительные препятствия.

Скорость генерации доказательств ограничивает многие приложения. Даже с использованием GPU-кластеров вычисление сложных доказательств может занимать секунды или минуты — это приемлемо для одних сценариев, но проблематично для высокочастотной торговли или игр в реальном времени. Средний показатель Brevis в 6,9 секунды представляет собой передовую производительность, но достижение генерации доказательств менее чем за секунду для всех типов нагрузок требует дальнейших аппаратных инноваций.

Сложность разработки схем создает трудности для разработчиков. Написание схем с нулевым разглашением требует специализированных знаний в области криптографии, которыми не обладает большинство блокчейн-разработчиков. Хотя zkVM абстрагируют часть сложности, позволяя писать код на привычных языках, оптимизация схем для обеспечения производительности все равно требует экспертных знаний. Улучшение инструментов сокращает этот разрыв, но он остается барьером для массового внедрения.

Доступность данных создает проблемы координации. Сопроцессоры должны поддерживать синхронизированное представление состояния блокчейна в нескольких сетях, обрабатывая реорганизации, финальность и различия в консенсусе. Обеспечение того, чтобы доказательства ссылались на каноническое состояние сети, требует сложной инфраструктуры — особенно для кроссчейн-приложений, где разные сети имеют разные гарантии финальности.

Экономическая устойчивость остается неопределенной. Эксплуатация инфраструктуры для генерации доказательств капиталоемка, требует специализированных GPU и постоянных операционных расходов. Сети сопроцессоров должны балансировать стоимость доказательств, пользовательские комиссии и стимулы в токенах для создания устойчивых бизнес-моделей. Ранние проекты субсидируют расходы для стимулирования внедрения, но долгосрочная жизнеспособность зависит от доказательства юнит-экономики в масштабе.

Тезис об инфраструктуре: вычисления как уровень верифицируемых сервисов

ZK-сопроцессоры становятся «уровнями верифицируемых сервисов» — нативными для блокчейна API, которые обеспечивают функциональность без необходимости доверия. Это повторяет эволюцию облачных вычислений: разработчики не строят собственные серверы, они используют API AWS. Аналогично, разработчикам смарт-контрактов не нужно заново реализовывать запросы исторических данных или верификацию кроссчейн-состояний — они должны обращаться к проверенной инфраструктуре.

Смена парадигмы едва уловима, но глубока. Вместо вопроса «что может этот блокчейн?» возникает вопрос «к каким верифицируемым сервисам может получить доступ этот смарт-контракт?». Блокчейн обеспечивает расчеты и верификацию, а сопроцессоры — неограниченные вычисления. Вместе они открывают путь для приложений, требующих одновременно децентрализации и сложности.

Это выходит за рамки DeFi и игр. Токенизация реальных активов (RWA) требует верифицированных офчейн-данных о праве собственности на недвижимость, ценах на сырьевые товары и соблюдении нормативных требований. Децентрализованная идентификация требует агрегации учетных данных из нескольких блокчейнов и проверки статуса их отзыва. AI-агентам необходимо доказывать процессы принятия решений, не раскрывая проприетарные модели. Все это требует верифицируемых вычислений — именно той возможности, которую предоставляют ZK-сопроцессоры.

Инфраструктура также меняет подход разработчиков к ограничениям блокчейна. В течение многих лет мантрой была «оптимизация эффективности газа». С сопроцессорами разработчики могут писать логику так, будто лимитов газа не существует, а затем переносить дорогостоящие операции на верифицируемую инфраструктуру. Этот ментальный сдвиг — от ограниченных смарт-контрактов к смарт-контрактам с бесконечными вычислениями — изменит облик того, что создается ончейн.

Что готовит 2026 год: от исследований к производству

Множество трендов сходятся воедино, чтобы сделать 2026 год переломным моментом для внедрения ZK-сопроцессоров.

Аппаратное ускорение кардинально повышает производительность генерации доказательств. Компании, такие как Cysic, создают специализированные ASIC для доказательств с нулевым разглашением, подобно тому как майнинг биткоина эволюционировал от CPU к GPU и затем к ASIC. Когда генерация доказательств станет в 10–100 раз быстрее и дешевле, экономические барьеры рухнут.

Инструментарий для разработчиков абстрагирует сложность. Ранняя разработка zkVM требовала экспертных знаний в проектировании схем; современные фреймворки позволяют разработчикам писать на Rust или Solidity и автоматически компилировать код в доказуемые схемы. По мере созревания этих инструментов опыт разработчиков приближается к написанию стандартных смарт-контрактов — верифицируемые вычисления становятся стандартом, а не исключением.

Институциональное внедрение стимулирует спрос на верифицируемую инфраструктуру. Поскольку BlackRock токенизирует активы, а традиционные банки запускают системы расчетов в стейблкоинах, им требуются верифицируемые внесетевые (off-chain) вычисления для соблюдения комплаенса, аудита и регуляторной отчетности. ZK-сопроцессоры обеспечивают инфраструктуру, делающую этот процесс бездоверительным (trustless).

Кроссчейн-фрагментация создает острую необходимость в унифицированной верификации состояния. В условиях, когда сотни сетей второго уровня (Layer 2) фрагментируют ликвидность и пользовательский опыт, приложениям нужны способы агрегации состояния между чейнами без зависимости от мостовых посредников. Сопроцессоры предлагают единственное trustless-решение.

Проекты, которые выживут, скорее всего, консолидируются вокруг конкретных вертикалей: Brevis — для универсальной кроссчейн-инфраструктуры, Lagrange — для приложений с интенсивным использованием данных, Axiom — для оптимизации исторических запросов. Как и в случае с облачными провайдерами, большинство разработчиков не будут запускать собственную инфраструктуру доказательств — они будут использовать API сопроцессоров и оплачивать верификацию как услугу.

Глобальная картина: бесконечные вычисления встречаются с безопасностью блокчейна

ZK-сопроцессоры решают одно из самых фундаментальных ограничений блокчейна: вы можете получить либо бездоверительную безопасность, ЛИБО сложные вычисления, но не то и другое одновременно. Благодаря отделению исполнения от верификации, они делают этот компромисс неактуальным.

Это открывает путь для следующей волны блокчейн-приложений — тех, которые не могли существовать в условиях прежних ограничений. DeFi-протоколы с риск-менеджментом уровня традиционных финансов. Игры класса AAA, работающие на верифицируемой инфраструктуре. ИИ-агенты, действующие автономно с криптографическим подтверждением процесса принятия решений. Кроссчейн-приложения, которые ощущаются как единые унифицированные платформы.

Инфраструктура уже здесь. Доказательства создаются достаточно быстро. Инструменты для разработчиков развиваются. Осталось только создать приложения, которые раньше были невозможны, и наблюдать за тем, как индустрия осознает: вычислительные ограничения блокчейна никогда не были постоянными — они просто ждали подходящей инфраструктуры для прорыва.

BlockEden.xyz предоставляет RPC-инфраструктуру корпоративного уровня для блокчейнов, на которых строятся приложения с ZK-сопроцессорами — от Ethereum и Arbitrum до Base, Optimism и других. Изучите наш маркетплейс API, чтобы получить доступ к той же надежной инфраструктуре узлов, которая обеспечивает работу следующего поколения верифицируемых вычислений.

Обновление Ethereum BPO-2: новая эра параметрической масштабируемости

· 9 мин чтения
Dora Noda
Software Engineer

Что происходит, когда блокчейн решает масштабироваться не путем собственного переизобретения, а просто за счет подстройки параметров? 7 января 2026 года Ethereum активировал BPO-2 — второй форк «Blob Parameters Only» (только параметры блобов), тихо завершив финальную фазу обновления Fusaka. Результат: расширение пропускной способности на 40 %, что в одночасье сократило комиссии в сетях второго уровня (Layer 2) до 90 %. Это не было ярким пересмотром протокола. Это была хирургическая точность, доказавшая, что масштабируемость Ethereum теперь носит параметрический, а не процедурный характер.

Обновление BPO-2: Цифры, которые имеют значение

BPO-2 увеличил целевой показатель блобов Ethereum с 10 до 14, а максимальный лимит блобов — с 15 до 21. Каждый блоб содержит 128 килобайт данных, что означает, что теперь один блок может нести примерно 2,6–2,7 мегабайта данных блобов — по сравнению с примерно 1,9 МБ до форка.

Для контекста: блобы — это пакеты данных, которые роллапы публикуют в Ethereum. Они позволяют сетям второго уровня, таким как Arbitrum, Base и Optimism, обрабатывать транзакции вне основной сети, сохраняя при этом гарантии безопасности Ethereum. Когда пространство для блобов ограничено, роллапы конкурируют за пропускную способность, что ведет к росту затрат. BPO-2 снял это напряжение.

Хронология: Трехфазное развертывание Fusaka

Обновление не произошло изолированно. Это был заключительный этап методичного развертывания Fusaka:

  • 3 декабря 2025 г.: Активация мейннета Fusaka, внедрение PeerDAS (Peer Data Availability Sampling — выборка доступности данных узлами).
  • 9 декабря 2025 г.: BPO-1 увеличил целевой показатель блобов до 10, а максимум — до 15.
  • 7 января 2026 г.: BPO-2 поднял цель до 14, а максимум — до 21.

Этот поэтапный подход позволил разработчикам отслеживать состояние сети между каждым увеличением, гарантируя, что операторы домашних узлов справятся с возросшими требованиями к пропускной способности.

Почему «цель» и «лимит» — это разные вещи

Понимание различия между целевым показателем блобов (target) и лимитом блобов (limit) имеет решающее значение для понимания механики комиссий Ethereum.

Лимит блобов (21) представляет собой жесткий потолок — абсолютное максимальное количество блобов, которые могут быть включены в один блок. Целевой показатель блобов (14) — это точка равновесия, которую протокол стремится поддерживать в течение долгого времени.

Когда фактическое использование блобов превышает цель, базовые комиссии растут, чтобы предотвратить чрезмерное потребление. Когда использование падает ниже цели, комиссии снижаются, чтобы стимулировать активность. Эта динамическая регулировка создает саморегулирующийся рынок:

  • Полные блобы: Базовая комиссия увеличивается примерно на 8,2 %.
  • Отсутствие блобов: Базовая комиссия уменьшается примерно на 14,5 %.

Эта асимметрия намеренна. Она позволяет комиссиям быстро падать в периоды низкого спроса и постепенно расти при высоком спросе, предотвращая резкие скачки цен, которые могут дестабилизировать экономику роллапов.

Влияние на комиссии: Реальные цифры из реальных сетей

Стоимость транзакций на втором уровне (L2) упала на 40–90 % с момента развертывания Fusaka. Цифры говорят сами за себя:

СетьСредняя комиссия после BPO-2Сравнение с мейннетом Ethereum
Base$ 0.000116$ 0.3139
Arbitrum~$ 0.001$ 0.3139
Optimism~$ 0.001$ 0.3139

Медианные комиссии за блобы упали до минимума в $ 0.0000000005 за блоб — что практически бесплатно для любых прикладных целей. Для конечных пользователей это означает почти нулевые затраты на свопы, переводы, минт NFT и игровые транзакции.

Как адаптировались роллапы

Крупнейшие роллапы перестроили свою работу для максимальной эффективности использования блобов:

  • Optimism обновил свой батчер (batcher), чтобы полагаться в основном на блобы, а не на calldata, сократив расходы на доступность данных более чем вдвое.
  • zkSync переработал конвейер подачи доказательств, чтобы сжимать обновления состояния в меньшее количество более крупных блобов, снижая частоту публикаций.
  • Arbitrum подготовился к обновлению ArbOS Dia (первый квартал 2026 года), которое вводит более плавные комиссии и более высокую пропускную способность с поддержкой Fusaka.

С момента внедрения EIP-4844 в Ethereum было опубликовано более 950 000 блобов. В оптимистичных роллапах использование calldata сократилось на 81 %, что доказывает: модель блобов работает именно так, как и планировалось.

Путь к 128 блобам: Что дальше

BPO-2 — это промежуточный этап, а не пункт назначения. Дорожная карта Ethereum предполагает будущее, в котором блоки будут содержать 128 или более блобов на слот — восьмикратное увеличение по сравнению с текущим уровнем.

PeerDAS: Технический фундамент

PeerDAS (EIP-7594) — это сетевой протокол, который делает возможным агрессивное масштабирование блобов. Вместо того чтобы требовать от каждого узла загрузки каждого блоба, PeerDAS использует выборку доступности данных (data availability sampling) для проверки целостности данных при загрузке лишь их части.

Вот как это работает:

  1. Расширенные данные блобов делятся на 128 частей, называемых столбцами.
  2. Каждый узел участвует как минимум в 8 случайно выбранных подсетях столбцов.
  3. Получения 8 из 128 столбцов (около 12,5 % данных) математически достаточно для подтверждения полной доступности данных.
  4. Избыточное кодирование (Erasure coding) гарантирует, что даже если часть данных отсутствует, оригинал может быть восстановлен.

этот подход обеспечивает теоретическое восьмикратное увеличение пропускной способности данных, сохраняя при этом требования к узлам посильными для домашних операторов.

Хронология масштабирования блобов

ФазаЦелевые блобыМакс. блобовСтатус
Dencun (март 2024)36Завершено
Pectra (май 2025)69Завершено
BPO-1 (декабрь 2025)1015Завершено
BPO-2 (январь 2026)1421Завершено
BPO-3/4 (2026)Будет определено72+Запланировано
Долгосрочная перспектива128+128+Дорожная карта

На недавней встрече основных разработчиков (All Core Devs) обсуждался «предположительный график», который может включать дополнительные форки BPO каждые две недели после конца февраля для достижения цели в 72 блоба. Реализуется ли этот агрессивный график, зависит от данных мониторинга сети.

Glamsterdam: следующий важный этап

Заглядывая за пределы форков BPO, комбинированное обновление Glamsterdam (Glam для уровня консенсуса, Amsterdam для уровня исполнения) в настоящее время намечено на 2-й или 3-й квартал 2026 года. Оно обещает еще более значительные улучшения:

  • Списки доступа к блокам (BAL): динамические лимиты газа, обеспечивающие параллельную обработку транзакций.
  • Встроенное разделение предлагающего и строителя (ePBS): ончейн-протокол для разделения ролей создания блоков, обеспечивающий больше времени для распространения блоков.
  • Увеличение лимита газа: потенциально до 200 миллионов, что обеспечит «идеальную параллельную обработку».

Виталик Бутерин спрогнозировал, что конец 2026 года принесет «значительное увеличение лимита газа, не зависящее от ZK-EVM, благодаря BAL и ePBS». Эти изменения могут довести устойчивую пропускную способность до 100 000+ TPS во всей экосистеме Layer 2.

Что BPO-2 говорит о стратегии Ethereum

Модель форка BPO представляет собой философский сдвиг в том, как Ethereum подходит к обновлениям. Вместо того чтобы объединять множество сложных изменений в монолитные хардфорки, подход BPO изолирует корректировки отдельных переменных, которые можно быстро развернуть и откатить в случае возникновения проблем.

«Форк BPO2 подчеркивает, что масштабируемость Ethereum теперь стала параметрической, а не процедурной», — заметил один разработчик. «Пространство блобов (blob space) все еще далеко от насыщения, и сеть может расширять пропускную способность, просто настраивая параметры емкости».

Это наблюдение влечет за собой важные последствия:

  1. Предсказуемое масштабирование: роллапы могут планировать свои потребности в мощностях, зная, что Ethereum продолжит расширять пространство блобов.
  2. Снижение риска: изолированные изменения параметров минимизируют вероятность возникновения каскадных ошибок.
  3. Более быстрая итерация: форки BPO могут происходить за недели, а не за месяцы.
  4. Решения на основе данных: каждое приращение дает реальные данные для обоснования следующего шага.

Экономика: кто выигрывает?

Выгодоприобретатели BPO-2 — это не только конечные пользователи, наслаждающиеся дешевыми транзакциями:

Операторы роллапов

Более низкие затраты на публикацию данных улучшают юнит-экономику для каждого роллапа. Сети, которые ранее работали с минимальной маржой, теперь имеют возможность инвестировать в привлечение пользователей, инструменты для разработчиков и рост экосистемы.

Разработчики приложений

Транзакционные издержки менее цента открывают варианты использования, которые ранее были экономически невыгодными: микроплатежи, высокочастотный гейминг, социальные приложения с ончейн-состоянием и интеграции с IoT.

Валидаторы Ethereum

Увеличение пропускной способности блобов означает больше общих комиссий, даже если комиссии за один блоб снизятся. Сеть обрабатывает большую стоимость, сохраняя стимулы для валидаторов и одновременно улучшая пользовательский опыт.

Широкая экосистема

Более дешевая доступность данных (DA) в Ethereum делает альтернативные уровни DA менее привлекательными для роллапов, которые ставят безопасность во главу угла. Это укрепляет позиции Ethereum в центре модульного стека блокчейнов.

Проблемы и соображения

BPO-2 не лишен компромиссов:

Требования к узлам

Хотя PeerDAS снижает требования к пропускной способности канала за счет выборки (sampling), увеличение количества блобов по-прежнему требует большего от операторов узлов. Поэтапное развертывание направлено на выявление узких мест до того, как они станут критическими, но домашние операторы с ограниченным интернет-каналом могут столкнуться с трудностями по мере того, как количество блобов приблизится к 72 или 128.

Динамика MEV

Больше блобов означает больше возможностей для извлечения MEV в транзакциях роллапов. Обновление ePBS в Glamsterdam призвано решить эту проблему, но в переходный период может наблюдаться повышенная активность MEV.

Волатильность пространства блобов

Во время всплесков спроса комиссии за блобы все еще могут быстро расти. Увеличение на 8,2% за каждый полный блок означает, что устойчиво высокий спрос создает экспоненциальный рост комиссий. Будущим форкам BPO нужно будет сбалансировать расширение емкости и эту волатильность.

Заключение: масштабирование по шагам

BPO-2 демонстрирует, что значимое масштабирование не всегда требует революционных прорывов. Иногда наиболее эффективные улучшения происходят благодаря тщательной калибровке существующих систем.

Емкость блобов в Ethereum выросла с максимум 6 в обновлении Dencun до 21 в BPO-2 — это увеличение на 250% менее чем за два года. Комиссии в Layer 2 упали на порядки. И дорожная карта к 128+ блобам предполагает, что это только начало.

Для роллапов сигнал ясен: уровень доступности данных Ethereum масштабируется, чтобы удовлетворить спрос. Для пользователей результат становится все более незаметным: транзакции, которые стоят доли цента, завершаются за секунды и защищены самой проверенной платформой смарт-контрактов в мире.

Наступила эра параметрического масштабирования Ethereum. BPO-2 — это доказательство того, что иногда поворот нужной ручки — это все, что требуется.


Строите на базе расширяющейся емкости блобов Ethereum? BlockEden.xyz предоставляет RPC-сервисы корпоративного уровня для Ethereum и его экосистемы Layer 2, включая Arbitrum, Optimism и Base. Изучите наш маркетплейс API, чтобы подключиться к инфраструктуре, обеспечивающей работу следующего поколения масштабируемых приложений.

Эволюция Ethereum: от высоких комиссий за газ к бесшовным транзакциям

· 10 мин чтения
Dora Noda
Software Engineer

Кошмар с комиссией за газ в размере 50 официальноосталсявпрошлом.17января2026годаEthereumобработал2,6миллионатранзакцийзаодиндень—новыйрекорд—втовремякаккомиссиизагазсоставили0,01официально остался в прошлом. 17 января 2026 года Ethereum обработал 2,6 миллиона транзакций за один день — новый рекорд — в то время как комиссии за газ составили 0,01. Два года назад такой уровень активности парализовал бы сеть. Сегодня это едва заметное событие.

Это не просто техническое достижение. Это представляет собой фундаментальный сдвиг в том, чем становится Ethereum: платформой, где реальная экономическая активность — а не спекуляции — движет ростом. Вопрос больше не в том, может ли Ethereum масштабировать DeFi. Вопрос в том, сможет ли остальная финансовая система поспеть за ним.

Bitcoin ZK-Rollup от Citrea: смогут ли доказательства с нулевым разглашением наконец реализовать потенциал BTCFi в $ 4,95 миллиарда?

· 11 мин чтения
Dora Noda
Software Engineer

В Биткоине только что появились смарт-контракты — настоящие, подтвержденные доказательствами с нулевым разглашением непосредственно в сети Биткоин. Запуск мейннета Citrea 27 января 2026 года знаменует собой первый случай, когда ZK-доказательства были вписаны и нативно проверены в блокчейне Биткоина, открывая дверь, которую более 75 проектов Bitcoin L2 пытались открыть годами.

Но есть одна загвоздка: общая заблокированная стоимость (TVL) BTCFi сократилась на 74% за последний год, а в экосистеме по-прежнему доминируют протоколы рестейкинга, а не программируемые приложения. Сможет ли технический прорыв Citrea трансформироваться в реальное внедрение, или он пополнит кладбище решений для масштабирования Биткоина, которые так и не получили развития? Давайте рассмотрим, что отличает Citrea и сможет ли она конкурировать в условиях растущей переполненности рынка.

MegaETH: Блокчейн реального времени, революционизирующий скорость и масштабируемость

· 9 мин чтения
Dora Noda
Software Engineer

Когда Виталик Бутерин лично инвестирует в блокчейн-проект, криптомир обращает на это внимание. Но когда этот проект заявляет о достижении 100 000 транзакций в секунду с временем блока в 10 миллисекунд — что заставляет традиционные блокчейны выглядеть как модемное интернет-соединение (dial-up) — вопрос меняется с «почему мне это должно быть интересно?» на «возможно ли это вообще?».

MegaETH, самопровозглашенный «первый блокчейн реального времени», запустил свою основную сеть 22 января 2026 года, и цифры поражают: 10,7 миллиарда транзакций обработано в ходе семидневного стресс-теста, устойчивая пропускная способность 35 000 TPS, а время блока сократилось с 400 миллисекунд до всего 10 миллисекунд. Проект привлек более 506 миллионов долларов в ходе четырех раундов финансирования, включая публичную продажу токенов на сумму 450 миллионов долларов, которая была переподписана в 27,8 раз.

Но за впечатляющими показателями скрывается фундаментальный компромисс, затрагивающий саму суть главного обещания блокчейна: децентрализацию. Архитектура MegaETH опирается на один гипероптимизированный секвенсор, работающий на оборудовании, которое заставило бы покраснеть большинство дата-центров — более 100 ядер процессора, до 4 терабайт оперативной памяти и сетевые подключения 10 Гбит/с. Это не типичная установка валидатора; это суперкомпьютер.

Архитектура: скорость через специализацию

Прирост производительности MegaETH обусловлен двумя ключевыми инновациями: гетерогенной архитектурой блокчейна и гипероптимизированной средой выполнения EVM.

Традиционные блокчейны требуют, чтобы каждый узел выполнял одни и те же задачи — упорядочивание транзакций, их выполнение и поддержание состояния. MegaETH отказывается от этого подхода. Вместо этого он разделяет узлы по специализированным ролям:

Узлы-секвенсоры (Sequencer Nodes) берут на себя основную нагрузку по упорядочиванию и выполнению транзакций. Это не валидаторы, собранные «на коленке»; это серверы корпоративного класса, требования к оборудованию которых в 20 раз дороже, чем у среднего валидатора Solana.

Узлы-пруверы (Prover Nodes) генерируют и проверяют криптографические доказательства, используя специализированное оборудование, такое как GPU или FPGA. Разделяя генерацию доказательств и выполнение, MegaETH может поддерживать безопасность без ограничения пропускной способности.

Узлы-реплики (Replica Nodes) проверяют вывод секвенсора с минимальными требованиями к оборудованию — примерно сопоставимыми с запуском узла Ethereum L1 — гарантируя, что любой желающий может проверить состояние сети, даже если он не участвует в процессе секвенирования.

Результат? Время блока измеряется однозначными числами миллисекунд, при этом команда стремится к конечному показателю в 1 миллисекунду — первому в индустрии, если это будет достигнуто.

Результаты стресс-теста: доказательство концепции или хайп?

В ходе семидневного глобального стресс-теста MegaETH было обработано около 10,7 миллиарда транзакций, при этом такие игры, как Smasher, Crossy Fluffle и Stomp.gg, создавали постоянную нагрузку на сеть. Сеть достигла пиковой пропускной способности 47 000 TPS при стабильных показателях от 15 000 до 35 000 TPS.

Этим цифрам нужен контекст. Solana, которую часто называют эталоном скорости, имеет теоретический максимум 65 000 TPS, но в реальных условиях работает на уровне около 3 400 TPS. Ethereum L1 обрабатывает примерно 15–30 TPS. Даже самые быстрые L2, такие как Arbitrum и Base, обычно обрабатывают несколько сотен TPS при нормальной нагрузке.

Показатели стресс-теста MegaETH, если они подтвердятся в продакшене, будут означать 10-кратное улучшение по сравнению с реальной производительностью Solana и 1000-кратное улучшение по сравнению с основной сетью Ethereum.

Но есть критическая оговорка: стресс-тесты проводятся в контролируемой среде. Тестовые транзакции поступали в основном из игровых приложений — простых, предсказуемых операций, которые не отражают сложных взаимодействий состояний в протоколах DeFi или непредсказуемых паттернов транзакций реальной пользовательской активности.

Компромисс с децентрализацией

Здесь MegaETH резко расходится с догмами блокчейна: проект открыто признает, что у него нет планов децентрализовать свой секвенсор. Никогда.

«Проект не притворяется децентрализованным и объясняет, почему централизованный секвенсор был необходим в качестве компромисса для достижения желаемого уровня производительности», — отмечается в одном из аналитических обзоров.

Это не временный мост к будущей децентрализации — это постоянное архитектурное решение. Секвенсор MegaETH является единой точкой отказа, контролируемой одной организацией и работающей на оборудовании, которое могут позволить себе только хорошо финансируемые структуры.

Модель безопасности опирается на то, что команда называет «оптимистичными доказательствами мошенничества и слэшингом» (optimistic fraud proofs and slashing). Безопасность системы не зависит от множества субъектов, независимо приходящих к одному и тому же результату. Вместо этого она полагается на децентрализованную сеть пруверов и реплик для проверки вычислительной корректности вывода секвенсора. Если секвенсор поведет себя злонамеренно, пруверы не смогут сгенерировать валидные доказательства для некорректных вычислений.

Кроме того, MegaETH наследует безопасность Ethereum благодаря архитектуре роллапа (rollup), гарантируя, что даже если секвенсор выйдет из строя или поведет себя злонамеренно, пользователи смогут вернуть свои активы через основную сеть Ethereum.

Но критики не убеждены. Текущий анализ показывает, что у MegaETH всего 16 валидаторов по сравнению с более чем 800 000 у Ethereum, что вызывает вопросы к управлению (governance). Проект также использует EigenDA для обеспечения доступности данных вместо Ethereum — выбор, который приносит в жертву проверенную временем безопасность ради более низких затрат и высокой пропускной способности.

USDm: Стратегия стейблкоинов

MegaETH строит не просто быстрый блокчейн; проект создает экономический «ров». Проект в партнерстве с Ethena Labs запустил USDm — нативный стейблкоин, обеспеченный преимущественно токенизированным фондом казначейских облигаций США BUIDL от BlackRock (в настоящее время активы составляют более $ 2,2 млрд).

Умная инновация: доходность резервов USDm программно направляется на покрытие операций секвенсора. Это позволяет MegaETH предлагать транзакционные комиссии менее цента, не полагаясь на газ, оплачиваемый пользователями. По мере роста использования сети доходность стейблкоина пропорционально увеличивается, создавая самодостаточную экономическую модель, которая не требует повышения пользовательских комиссий.

Это противопоставляет MegaETH традиционной модели комиссий L2, где секвенсоры получают прибыль от разницы между комиссиями, оплачиваемыми пользователями, и затратами на публикацию данных в L1. Субсидируя комиссии за счет доходности, MegaETH может предлагать более низкие цены, чем конкуренты, сохраняя при этом предсказуемую экономику для разработчиков.

Конкурентная среда

MegaETH выходит на переполненный рынок L2, где Base, Arbitrum и Optimism контролируют примерно 90 % объема транзакций. Его конкурентное позиционирование уникально:

Против Solana: Время блока MegaETH в 10 мс оставляет далеко позади 400 мс у Solana, что делает его теоретически более предпочтительным для приложений, чувствительных к задержкам, таких как высокочастотная торговля или игры в реальном времени. Однако Solana предлагает единый опыт L1 без сложности мостов, а ее предстоящее обновление Firedancer обещает значительное улучшение производительности.

Против других L2: Традиционные роллапы, такие как Arbitrum и Optimism, приоритезируют децентрализацию над чистой скоростью. Они внедряют доказательства мошенничества (fraud proofs) этапов Stage 1 и Stage 2, в то время как MegaETH оптимизирует другую точку на кривой компромиссов.

Против Monad: Оба проекта нацелены на высокопроизводительное выполнение EVM, но Monad строит L1 с собственным консенсусом, в то время как MegaETH наследует безопасность от Ethereum. Monad запустился с TVL в размере $ 255 млн в конце 2025 года, продемонстрировав спрос на высокопроизводительные EVM-цепи.

Кому это должно быть интересно?

Архитектура MegaETH наиболее актуальна для конкретных вариантов использования:

Игры в реальном времени: Задержка в 10 мс обеспечивает состояние игры в сети, которое ощущается мгновенным. Фокус стресс-теста на играх не был случайным — это целевой рынок.

Высокочастотная торговля: Время блока менее миллисекунды может обеспечить сопоставление ордеров, не уступающее централизованным биржам. Hyperliquid доказал наличие спроса на высокопроизводительную торговлю в сети.

Потребительские приложения: Приложения, которым требуется отзывчивость уровня Web2 — социальные ленты, интерактивные медиа, аукционы в реальном времени — могут, наконец, обеспечить плавный пользовательский опыт без компромиссов в виде офчейн-решений.

Эта архитектура менее оправдана для приложений, где децентрализация имеет первостепенное значение: финансовая инфраструктура, требующая устойчивости к цензуре, протоколы, обрабатывающие крупные переводы активов, где важны допущения о доверии, или любые приложения, где пользователям нужны строгие гарантии поведения секвенсора.

Путь впереди

Публичная основная сеть MegaETH запускается 9 февраля 2026 года, переходя от стадии стресс-теста к промышленной эксплуатации. Успех проекта будет зависеть от нескольких факторов:

Принятие разработчиками: Сможет ли MegaETH привлечь разработчиков для создания приложений, использующих его уникальные характеристики производительности? Игровые студии и разработчики потребительских приложений являются очевидными целями.

История безопасности: Централизация секвенсора — это известный риск. Любой инцидент — будь то технический сбой, цензура или злонамеренное поведение — подорвет доверие ко всей архитектуре.

Экономическая устойчивость: Модель субсидирования USDm элегантна на бумаге, но она зависит от достаточного объема TVL стейблкоина для генерации значимой доходности. Если принятие будет отставать, структура комиссий станет неустойчивой.

Нормативная ясность: Централизованные секвенсоры вызывают вопросы об ответственности и контроле, которых избегают децентрализованные сети. Как регуляторы будут относиться к L2 с одним оператором, остается неясным.

Вердикт

MegaETH представляет собой самую агрессивную ставку на то, что производительность важнее децентрализации для определенных сценариев использования блокчейна. Проект не пытается быть Ethereum — он пытается стать той «быстрой полосой», которой не хватает Ethereum.

Результаты стресс-теста действительно впечатляют. Если MegaETH сможет обеспечить 35 000 TPS с задержкой 10 мс в промышленной сети, он станет самой быстрой EVM-совместимой сетью со значительным отрывом. Экономика USDm продумана, опыт команды из MIT и Стэнфорда внушителен, а поддержка Виталика добавляет легитимности.

Но компромисс в сторону централизации реален. В мире, где мы видели крах централизованных систем — FTX, Celsius и многих других — доверие к одному секвенсору требует веры в операторов и систему доказательств мошенничества. Модель безопасности MegaETH звучит разумно в теории, но она не была проверена в боевых условиях против решительных противников.

Вопрос не в том, сможет ли MegaETH выполнить свои обещания по производительности. Стресс-тест показывает, что сможет. Вопрос в том, нужен ли рынку блокчейн, который очень быстрый, но существенно централизованный, или же первоначальное видение децентрализованных систем без доверия все еще имеет значение.

Для приложений, где скорость — это всё, а пользователи доверяют оператору, MegaETH может стать революционным решением. Для всего остального — вопрос остается открытым.


Запуск основной сети MegaETH 9 февраля станет одним из самых наблюдаемых криптособытий 2026 года. Независимо от того, выполнит ли он обещание «блокчейна в реальном времени» или станет очередной поучительной историей о компромиссе между централизацией и производительностью, сам эксперимент расширяет наше понимание того, что возможно на рубеже производительности блокчейнов.

ZKsync Airbender zkVM

· 10 мин чтения
Dora Noda
Software Engineer

Что, если бы доказательство блока Ethereum занимало 35 секунд вместо того, чтобы требовать целый склад GPU? Это не гипотеза — это то, что сегодня предлагает Airbender от ZKsync.

В гонке за тем, чтобы сделать доказательства с нулевым разглашением (zero-knowledge proofs) практически применимыми для массовой блокчейн-инфраструктуры, появился новый стандарт. Airbender, zkVM с открытым исходным кодом на базе RISC-V от ZKsync, достигает 21,8 миллиона циклов в секунду на одном графическом процессоре H100 — это более чем в 6 раз быстрее конкурирующих систем. Он может доказывать блоки Ethereum менее чем за 35 секунд, используя оборудование, стоимость которого составляет лишь малую часть того, что требуется конкурентам.

Обновление Sei Giga: от 10 000 до 200 000 TPS — Sei отказывается от Cosmos в пользу сети только на базе EVM

· 8 мин чтения
Dora Noda
Software Engineer

Когда Sei была запущена в 2023 году, она позиционировалась как самая быстрая сеть в экосистеме Cosmos с теоретическим показателем в 20 000 TPS. Два года спустя сеть делает свою самую агрессивную ставку: Giga — обновление, нацеленное на 200 000 TPS с финальностью менее 400 мс — и спорное решение полностью отказаться от Cosmos, чтобы стать исключительно EVM-сетью.

Время выбрано не случайно. Monad обещает 10 000 TPS со своей параллельной EVM, запуск которой намечен на 2025 год. MegaETH заявляет о возможности достижения 100 000+ TPS. Sei не просто обновляется — она участвует в гонке, чтобы определить, что означает «высокая скорость» для EVM-совместимых блокчейнов, прежде чем конкуренты установят свои стандарты.

Что на самом деле меняет Giga

Sei Giga представляет собой полную перестройку основной архитектуры сети, запланированную на первый квартал 2026 года. Цифры говорят об амбициях проекта:

Целевые показатели производительности:

  • 200 000 транзакций в секунду (по сравнению с текущими ~5 000–10 000)
  • Финальность менее 400 миллисекунд (по сравнению с ~500 мс)
  • В 40 раз выше эффективность выполнения по сравнению со стандартными EVM-клиентами

Архитектурные изменения:

Консенсус с несколькими пропоузерами (Autobahn): Традиционный консенсус с одним лидером создает узкие места. Giga представляет Autobahn, где несколько валидаторов одновременно предлагают блоки в разных шардах. Представьте это как многополосное шоссе вместо одной узкой дороги.

Кастомный EVM-клиент: Sei заменила стандартный EVM на базе Go кастомным клиентом, который разделяет управление состоянием и выполнение. Это разделение позволяет оптимизировать каждый компонент независимо — подобно тому, как базы данных отделяют механизмы хранения от обработки запросов.

Параллельное выполнение: В то время как другие сети выполняют транзакции последовательно, Giga обрабатывает неконфликтующие транзакции одновременно. Движок исполнения определяет, какие транзакции затрагивают разные состояния, и запускает их параллельно.

Дизайн с ограниченным MEV: Вместо борьбы с MEV, Sei внедряет «ограниченный» MEV, где валидаторы могут извлекать стоимость только в рамках определенных параметров, что создает предсказуемую очередность транзакций.

Спорный выход из Cosmos: SIP-3

Возможно, более значимым, чем обновление производительности, является SIP-3 — предложение по улучшению Sei, направленное на полное прекращение поддержки CosmWasm и IBC к середине 2026 года.

Что предлагает SIP-3:

  • Удаление среды выполнения CosmWasm (смарт-контракты на базе Rust)
  • Прекращение поддержки протокола Inter-Blockchain Communication (IBC)
  • Переход Sei к формату чистой EVM-сети
  • Требование к существующим dApps на CosmWasm мигрировать на EVM

Обоснование:

Команда Sei утверждает, что поддержка двух виртуальных машин (EVM и CosmWasm) создает инженерные издержки, которые замедляют разработку. EVM доминирует в предпочтениях разработчиков — более 70 % разработчиков смарт-контрактов работают в основном с Solidity. Переходя исключительно на EVM, Sei может:

  1. Сосредоточить инженерные ресурсы на одной среде выполнения
  2. Привлечь больше разработчиков из более крупной экосистемы EVM
  3. Упростить кодовую базу и уменьшить поверхность атаки
  4. Максимизировать оптимизацию параллельного выполнения

Критика:

Не все с этим согласны. Участники экосистемы Cosmos утверждают, что подключение через IBC обеспечивает ценную кроссчейн-композируемость. Разработчики на CosmWasm сталкиваются с затратами на принудительную миграцию. Некоторые критики предполагают, что Sei отказывается от своего уникального позиционирования в пользу прямой конкуренции с L2-решениями Ethereum.

Контраргумент: Sei так и не добилась значительного внедрения CosmWasm. Большая часть TVL и активности уже приходится на EVM. SIP-3 скорее формализует реальность, чем меняет ее.

Контекст производительности: гонка параллельных EVM

Запуск Sei Giga происходит на фоне растущей конкуренции в сфере параллельных EVM:

СетьЦелевой TPSСтатусАрхитектура
Sei Giga200 0001 кв. 2026Консенсус с несколькими пропоузерами
MegaETH100 000+Тестовая сетьОбработка в реальном времени
Monad10 0002025Параллельная EVM
Solana65 000ЗапущенаProof of History

Как выглядит Sei на их фоне:

vs. Monad: Параллельная EVM от Monad нацелена на 10 000 TPS с финальностью в 1 секунду. Sei заявляет о пропускной способности в 20 раз выше и более быстрой финальности. Однако Monad запускается первым, а реальная производительность часто отличается от показателей в тестовой сети.

vs. MegaETH: MegaETH делает упор на блокчейн «в реальном времени» с потенциалом 100 000+ TPS. Обе сети нацелены на схожие уровни производительности, но MegaETH сохраняет эквивалентность EVM, тогда как кастомный клиент Sei может иметь незначительные отличия в совместимости.

vs. Solana: Показатели Solana — 65 000 TPS с финальностью 400 мс — являются текущим эталоном высокой производительности. Цель Sei (менее 400 мс) позволит сравняться со скоростью Solana, предлагая при этом совместимость с EVM, которой у Solana нет нативно.

Честная оценка: все эти цифры являются теоретическими или результатами тестов. Реальная производительность зависит от фактических моделей использования, состояния сети и экономической активности.

Текущая экосистема: TVL и внедрение

DeFi-экосистема Sei значительно выросла, хотя и не без волатильности:

Траектория TVL:

  • Пик: 688 млн долларов (начало 2025 года)
  • Текущий показатель: ~455–500 млн долларов
  • Рост в годовом исчислении: примерно в 3 раза по сравнению с концом 2024 года

Ведущие протоколы:

  1. Yei Finance: протокол кредитования, доминирующий в DeFi на Sei
  2. DragonSwap: основная DEX со значительным объемом торгов
  3. Silo Finance: интеграция кроссчейн-кредитования
  4. Различные NFT и игры: развивающийся, но пока небольшой сегмент

Пользовательские метрики:

  • Ежедневно активные адреса: ~50 000–100 000 (варьируется)
  • Объем транзакций: растет, но отстает от Solana/Base

Экосистема остается меньше, чем у устоявшихся L1-сетей, но демонстрирует стабильный рост. Вопрос в том, конвертируются ли улучшения производительности Giga в пропорциональный рост внедрения.

Последствия для разработчиков

Для разработчиков, рассматривающих Sei, технологии Giga и SIP-3 создают как возможности, так и вызовы:

Возможности:

  • Стандартная разработка на Solidity с экстремальной производительностью
  • Снижение затрат на газ благодаря повышению эффективности
  • Преимущество первопроходца в нише высокопроизводительных EVM
  • Растущая экосистема с меньшей конкуренцией, чем в основной сети Ethereum

Вызовы:

  • Кастомный EVM-клиент может иметь незначительные проблемы с совместимостью
  • Меньшая база пользователей по сравнению с устоявшимися сетями
  • График отказа от CosmWasm создает давление в вопросе миграции
  • Инструментарий экосистемы все еще находится в стадии становления

Путь миграции для разработчиков CosmWasm:

Если SIP-3 будет принят, у разработчиков CosmWasm будет время до середины 2026 года, чтобы:

  1. Перенести контракты на Solidity / Vyper
  2. Мигрировать в другую сеть Cosmos
  3. Принять прекращение поддержки и свернуть деятельность

Команда Sei не объявляла о конкретной помощи в миграции, хотя в обсуждениях сообщества упоминаются потенциальные гранты или техническая поддержка.

Инвестиционные соображения

Оптимистичный сценарий (Bull Case):

  • Первопроходец в пространстве EVM с 200 000 TPS
  • Четкая техническая дорожная карта с реализацией в 1 квартале 2026 года
  • Ориентация исключительно на EVM привлекает большее количество разработчиков
  • Технологический ров за счет производительности перед более медленными конкурентами

Пессимистичный сценарий (Bear Case):

  • Теоретический показатель TPS редко совпадает с реальностью в продакшене
  • Конкуренты (Monad, MegaETH) запускаются с серьезным импульсом
  • Отказ от CosmWasm отталкивает существующих разработчиков
  • Рост TVL не соответствует заявлениям о производительности

Ключевые показатели для мониторинга:

  • TPS в тестнете и время финализации в реальных условиях
  • Активность разработчиков после анонса SIP-3
  • Траектория TVL до и после запуска Giga
  • Объем кроссчейн-мостов и интеграций

Что будет дальше

1 квартал 2026: Запуск Giga

  • Активация консенсуса с несколькими пропозерами
  • Запуск целевого показателя в 200 000 TPS
  • Развертывание кастомного EVM-клиента

Середина 2026: Реализация SIP-3 (в случае одобрения)

  • Крайний срок прекращения поддержки CosmWasm
  • Удаление поддержки IBC
  • Полный переход на формат «только EVM»

Ключевые вопросы:

  1. Будет ли реальный TPS соответствовать цели в 200 000?
  2. Сколько проектов CosmWasm мигрирует, а сколько покинет сеть?
  3. Сможет ли Sei привлечь крупные протоколы DeFi из Ethereum?
  4. Конвертируется ли производительность в принятие пользователями?

Общая картина

Обновление Giga от Sei представляет собой ставку на то, что чистая производительность станет отличительным фактором в условиях растущей конкуренции среди блокчейнов. Отказываясь от Cosmos и переходя исключительно на EVM, Sei выбирает фокус вместо универсальности — делая ставку на то, что доминирование EVM делает другие среды исполнения избыточными.

Окупится ли эта ставка, зависит от исполнения (в прямом и переносном смысле). Индустрия блокчейнов полна проектов, которые обещали революционную производительность, но обеспечили лишь умеренные улучшения. График Sei на 1 квартал 2026 года предоставит конкретные данные.

Для разработчиков и инвесторов Giga создает четкую точку принятия решения: поверить, что Sei сможет обеспечить 200 000 TPS, и занять соответствующую позицию, или дождаться подтверждения в продакшене перед выделением ресурсов.

Гонка параллельных EVM официально началась. Sei только что объявила свою стартовую скорость.


BlockEden.xyz предоставляет инфраструктуру RPC для высокопроизводительных блокчейнов, включая Sei Network. По мере того как сети с параллельным исполнением расширяют границы пропускной способности, надежная инфраструктура нод становится критически важной для разработчиков, создающих приложения, чувствительные к задержкам. Изучите наш маркетплейс API для доступа к Sei и другим блокчейнам.