Saltar para o conteúdo principal

61 posts marcados com "Escalabilidade"

Soluções de escalabilidade blockchain e desempenho

Ver todas as tags

A Bomba de Vitalik sobre L2: Por Que o Roadmap Centrado em Rollups da Ethereum 'Não Faz Mais Sentido'

· 14 min de leitura
Dora Noda
Software Engineer

"Você não está escalando o Ethereum."

Com essas seis palavras, Vitalik Buterin entregou um choque de realidade que enviou ondas de impacto através do ecossistema Ethereum. A declaração, dirigida a cadeias de alta vazão que utilizam pontes multisig, desencadeou uma resposta imediata : a ENS Labs cancelou seu planejado rollup Namechain apenas alguns dias depois, citando o desempenho dramaticamente melhorado da camada base do Ethereum.

Após anos posicionando os rollups de Camada 2 como a principal solução de escalabilidade do Ethereum, a guinada do cofundador em fevereiro de 2026 representa uma das mudanças estratégicas mais significativas na história do blockchain. A questão agora é se milhares de projetos de L2 existentes podem se adaptar — ou se tornarão obsoletos.

O Roadmap Centrado em Rollups : O Que Mudou?

Por anos, a estratégia oficial de escalabilidade do Ethereum centrou-se em rollups. A lógica era simples : a L1 do Ethereum se concentraria em segurança e descentralização, enquanto as redes de Camada 2 lidariam com a vazão de transações ao agrupar execuções fora da rede (off-chain) e postar dados compactados de volta para a mainnet.

Esse roadmap fazia sentido quando a L1 do Ethereum lutava com 15 - 30 TPS e as taxas de gás rotineiramente excediam US$ 50 por transação durante os picos de congestionamento. Projetos como Arbitrum, Optimism e zkSync levantaram bilhões para construir infraestrutura de rollup que eventualmente escalaria o Ethereum para milhões de transações por segundo.

Mas dois desenvolvimentos críticos minaram essa narrativa.

Primeiro, a descentralização das L2s progrediu "muito mais devagar" do que o esperado, de acordo com Buterin. A maioria dos rollups ainda depende de sequenciadores centralizados, chaves de atualização multisig e operadores confiáveis. A jornada para a descentralização de Estágio 2 — onde os rollups podem operar sem "rodinhas de treinamento" — provou-se extraordinariamente difícil. Apenas um punhado de projetos alcançou o Estágio 1, e nenhum chegou ao Estágio 2.

Segundo, a própria L1 do Ethereum escalou drasticamente. A atualização Fusaka no início de 2026 trouxe reduções de 99 % nas taxas para muitos casos de uso. Os limites de gás aumentaram de 60 milhões para 200 milhões com o próximo fork Glamsterdam. A validação de provas de conhecimento zero (zero-knowledge proof) tem como meta 10.000 TPS na L1 até o final de 2026.

De repente, a premissa que impulsionava bilhões em investimentos em L2 — a de que a L1 do Ethereum não poderia escalar — parecia questionável.

ENS Namechain : A Primeira Grande Baixa

A decisão do Ethereum Name Service de descartar seu rollup Namechain L2 tornou-se a validação de maior destaque do pensamento revisado de Buterin.

A ENS vinha desenvolvendo o Namechain há anos como um rollup especializado para lidar com registros e renovações de nomes de forma mais barata do que a mainnet permitia. A US$ 5 em taxas de gás por registro durante o pico de congestionamento de 2024, o caso econômico era convincente.

Em fevereiro de 2026, esse cálculo mudou completamente. As taxas de registro da ENS caíram para menos de 5 centavos na L1 do Ethereum — uma redução de 99 %. A complexidade da infraestrutura, os custos contínuos de manutenção e a fragmentação de usuários ao operar uma L2 separada não justificavam mais a economia mínima de custos.

A ENS Labs não abandonou sua atualização ENSv2, que representa uma reescrita do zero dos contratos ENS com melhor usabilidade e ferramentas para desenvolvedores. Em vez disso, a equipe implantou o ENSv2 diretamente na mainnet do Ethereum, evitando a sobrecarga de coordenação de pontes entre L1 e L2.

O cancelamento sinaliza um padrão mais amplo : se a L1 do Ethereum continuar escalando de forma eficaz, rollups de casos de uso especializados perdem sua justificativa econômica. Por que manter uma infraestrutura separada quando a camada base é suficiente?

O Problema da Ponte Multisig de 10.000 TPS

A crítica de Buterin às pontes multisig atinge o cerne do que "escalar o Ethereum" realmente significa.

Sua declaração — "Se você cria uma EVM de 10.000 TPS onde sua conexão com a L1 é mediada por uma ponte multisig, então você não está escalando o Ethereum" — desenha uma linha clara entre a verdadeira escalabilidade do Ethereum e cadeias independentes que apenas reivindicam associação.

A distinção importa enormemente para a segurança e a descentralização.

Uma ponte multisig depende de um pequeno grupo de operadores para validar transações entre cadeias (cross-chain). Os usuários confiam que esse grupo não irá coludir, não será hackeado e não será comprometido por reguladores. A história mostra que essa confiança é frequentemente mal depositada : hacks em pontes resultaram em bilhões em perdas, com o exploit da Ronin Bridge custando, sozinho, mais de US$ 600 + milhões.

A verdadeira escalabilidade do Ethereum herda as garantias de segurança do Ethereum. Um rollup devidamente implementado usa provas de fraude ou provas de validade para garantir que qualquer transição de estado inválida possa ser contestada e revertida, com disputas resolvidas pelos validadores da L1 do Ethereum. Os usuários não precisam confiar em um multisig — eles confiam no mecanismo de consenso do Ethereum.

O problema é que alcançar esse nível de segurança é tecnicamente complexo e caro. Muitos projetos que se autodenominam "L2s do Ethereum" pegam atalhos :

  • Sequenciadores centralizados : Uma única entidade ordena transações, criando riscos de censura e pontos únicos de falha.
  • Chaves de atualização multisig : Um pequeno grupo pode alterar as regras do protocolo sem o consentimento da comunidade, potencialmente roubando fundos ou alterando a economia.
  • Sem garantias de saída : Se o sequenciador ficar offline ou as chaves de atualização forem comprometidas, os usuários podem não ter uma maneira confiável de retirar ativos.

Estas não são preocupações teóricas. Pesquisas mostram que a maioria das redes L2 permanece muito mais centralizada do que a L1 do Ethereum, com a descentralização tratada como um objetivo de longo prazo em vez de uma prioridade imediata.

O enquadramento de Buterin força uma pergunta desconfortável : se uma L2 não herda a segurança do Ethereum, ela está realmente "escalando o Ethereum" ou é apenas outra alt-chain com a marca Ethereum?

O Novo Framework de L2: Valor Além do Escalonamento

Em vez de abandonar as L2s inteiramente, Buterin propôs vê-las como um espectro de redes com diferentes níveis de conexão com a Ethereum, cada uma oferecendo diferentes compensações (trade-offs).

A percepção crítica é que as L2s devem fornecer valor além do escalonamento básico se quiserem permanecer relevantes à medida que a L1 da Ethereum melhora:

Recursos de Privacidade

Cadeias como Aztec e Railgun oferecem privacidade programável usando provas de conhecimento zero. Esses recursos não podem existir facilmente em uma L1 pública transparente, criando uma diferenciação genuína.

Design Específico para Aplicações

Rollups focados em jogos, como Ronin ou IMX, otimizam para transações de alta frequência e baixo valor com requisitos de finalidade diferentes das aplicações financeiras. Essa especialização faz sentido mesmo se a L1 escalar adequadamente para a maioria dos casos de uso.

Confirmação Ultra-Rápida

Algumas aplicações precisam de finalidade de sub-segundo que o tempo de bloco de 12 segundos da L1 não pode fornecer. L2s com consenso otimizado podem atender a esse nicho.

Casos de Uso Não Financeiros

Identidade, grafos sociais e disponibilidade de dados têm requisitos diferentes do DeFi. L2s especializadas podem otimizar para essas cargas de trabalho.

Buterin enfatizou que as L2s devem "ser claras com os usuários sobre quais garantias elas fornecem". Os dias de alegações vagas sobre "escalar a Ethereum" sem especificar modelos de segurança, status de descentralização e suposições de confiança acabaram.

Respostas do Ecossistema: Adaptação ou Negação?

A reação aos comentários de Buterin revela um ecossistema fraturado lidando com uma crise de identidade.

A Polygon anunciou um pivô estratégico para focar principalmente em pagamentos, reconhecendo explicitamente que o escalonamento de propósito geral está se tornando cada vez mais comoditizado. A equipe reconheceu que a diferenciação exige especialização.

Marc Boiron (Offchain Labs) argumentou que os comentários de Buterin eram "menos sobre abandonar os rollups do que sobre elevar as expectativas para eles". Esse enquadramento preserva a narrativa do rollup enquanto reconhece a necessidade de padrões mais elevados.

Defensores da Solana aproveitaram a oportunidade para argumentar que a arquitetura monolítica da Solana evita totalmente a complexidade das L2, apontando que a fragmentação multi-chain da Ethereum cria uma experiência de usuário (UX) pior do que uma única L1 de alto desempenho.

Desenvolvedores de L2 geralmente defenderam sua relevância enfatizando recursos além do rendimento bruto — privacidade, personalização, economia especializada — enquanto reconheciam discretamente que as estratégias de escalonamento puro estão se tornando mais difíceis de justificar.

A tendência mais ampla é clara: o cenário das L2 se bifurcará em duas categorias:

  1. Rollups de commodities competindo principalmente em taxas e rendimento, provavelmente se consolidando em torno de alguns players dominantes (Base, Arbitrum, Optimism).

  2. L2s especializadas com modelos de execução fundamentalmente diferentes, oferecendo propostas de valor únicas que a L1 não pode replicar.

Cadeias que não se enquadram em nenhuma das categorias enfrentam um futuro incerto.

O que as L2s Devem Fazer para Sobreviver

Para projetos de Camada 2 existentes, o pivô de Buterin cria tanto pressão existencial quanto clareza estratégica. A sobrevivência exige ação decisiva em várias frentes:

1. Acelerar a Descentralização

A narrativa de "vamos descentralizar eventualmente" não é mais aceitável. Os projetos devem publicar cronogramas concretos para:

  • Redes de sequenciadores sem permissão (ou provas de autoridade credíveis)
  • Remoção ou bloqueio temporal (time-locking) de chaves de atualização
  • Implementação de sistemas de prova de falha (fault-proof) com janelas de saída garantidas

L2s que permanecem centralizadas enquanto reivindicam a segurança da Ethereum são particularmente vulneráveis ao escrutínio regulatório e a danos de reputação.

2. Clarificar a Proposta de Valor

Se o principal ponto de venda de uma L2 é ser "mais barata que a Ethereum", ela precisa de um novo argumento. A diferenciação sustentável exige:

  • Recursos especializados: Privacidade, execução de VM personalizada, novos modelos de estado
  • Clareza do público-alvo: Jogos? Pagamentos? Social? DeFi?
  • Divulgações de segurança honestas: Quais suposições de confiança existem? Quais vetores de ataque permanecem?

Marketing de "vaporware" não funcionará quando os usuários puderem comparar métricas reais de descentralização através de ferramentas como L2Beat.

3. Resolver o Problema de Segurança da Ponte

Pontes multissig são o elo mais fraco na segurança das L2. Os projetos devem:

  • Implementar provas de fraude ou provas de validade para pontes sem confiança (trustless)
  • Adicionar atrasos de tempo e camadas de consenso social para intervenções de emergência
  • Fornecer mecanismos de saída garantidos que funcionem mesmo se os sequenciadores falharem

A segurança da ponte não pode ser uma consideração secundária quando bilhões em fundos de usuários estão em jogo.

4. Focar na Interoperabilidade

A fragmentação é o maior problema de UX da Ethereum. As L2s devem:

  • Suportar padrões de mensagens cross-chain (LayerZero, Wormhole, Chainlink CCIP)
  • Permitir o compartilhamento contínuo de liquidez entre cadeias
  • Construir camadas de abstração que ocultem a complexidade dos usuários finais

As L2s vencedoras parecerão extensões da Ethereum, não ilhas isoladas.

5. Aceitar a Consolidação

Realisticamente, o mercado não pode suportar mais de 100 L2s viáveis. Muitas precisarão se fundir, pivotar ou encerrar as atividades graciosamente. Quanto antes as equipes reconhecerem isso, melhor poderão se posicionar para parcerias estratégicas ou aquisições em vez de uma irrelevância lenta.

O Roadmap de Escalonamento da L1 do Ethereum

Enquanto as L2s enfrentam uma crise de identidade, a L1 do Ethereum está executando um plano de escalonamento agressivo que fortalece o argumento de Buterin.

Fork Glamsterdam (Meados de 2026): Introduz as Listas de Acesso a Blocos (BAL), permitindo o processamento paralelo perfeito ao pré-carregar dados de transações na memória. Os limites de gás aumentam de 60 milhões para 200 milhões, melhorando drasticamente o rendimento (throughput) para contratos inteligentes complexos.

Validação de Provas de Conhecimento Zero: O lançamento da Fase 1 em 2026 visa a transição de 10% dos validadores para a validação ZK, onde os validadores verificam provas matemáticas que confirmam a precisão do bloco, em vez de reexecutar todas as transações. Isso permite que o Ethereum escale para 10.000 TPS, mantendo a segurança e a descentralização.

Separação Propositor-Construtor (ePBS): Integra a competição entre construtores diretamente na camada de consenso do Ethereum, reduzindo a extração de MEV e melhorando a resistência à censura.

Essas atualizações não eliminam a necessidade de L2s, mas eliminam a suposição de que o escalonamento da L1 é impossível ou impraticável. Se a L1 do Ethereum atingir 10.000 TPS com execução paralela e validação ZK, o patamar de diferenciação das L2s subirá drasticamente.

Perspectiva de Longo Prazo: Quem Vence?

A estratégia de escalonamento do Ethereum está entrando em uma nova fase, onde o desenvolvimento de L1 e L2 deve ser visto como complementar em vez de competitivo.

O roadmap centrado em rollups assumia que a L1 permaneceria lenta e cara indefinidamente. Essa suposição agora é obsoleta. A L1 irá escalar — talvez não para milhões de TPS, mas o suficiente para lidar com a maioria dos casos de uso convencionais com taxas razoáveis.

As L2s que reconhecem essa realidade e pivotam em direção a uma diferenciação genuína podem prosperar. Aquelas que continuarem prometendo ser "mais baratas e rápidas que o Ethereum" terão dificuldades à medida que a L1 diminui a lacuna de desempenho.

A ironia final é que os comentários de Buterin podem fortalecer a posição de longo prazo do Ethereum. Ao forçar as L2s a elevarem seus padrões — descentralização real, divulgações honestas de segurança, propostas de valor especializadas — o Ethereum elimina os projetos mais fracos e eleva a qualidade de todo o ecossistema.

Os usuários se beneficiam de escolhas mais claras: usar a L1 do Ethereum para o máximo de segurança e descentralização, ou escolher L2s especializadas para recursos específicos com compensações (trade-offs) explicitamente declaradas. O meio-termo de "estamos meio que escalando o Ethereum com uma ponte multisig" desaparece.

Para projetos que constroem o futuro da infraestrutura blockchain, a mensagem é clara: o escalonamento genérico está resolvido. Se a sua L2 não oferece algo que a L1 do Ethereum não possa oferecer, você está construindo em tempo emprestado.

A BlockEden.xyz fornece infraestrutura de nível empresarial para a L1 do Ethereum e as principais redes Layer 2, oferecendo aos desenvolvedores as ferramentas para construir em todo o ecossistema Ethereum. Explore nossos serviços de API para conectividade blockchain escalável e confiável.


Fontes:

SONAMI Atinge o Estágio 10: A Estratégia de Camada 2 da Solana Pode Desafiar a Dominância de L2 do Ethereum?

· 12 min de leitura
Dora Noda
Software Engineer

A Solana acaba de cruzar um limiar que a maioria considerava impossível: uma blockchain construída para velocidade bruta está agora adicionando camadas de ambientes de execução adicionais. A SONAMI, apresentando-se como a primeira Camada 2 de nível de produção da Solana, anunciou seu marco Stage 10 no início de fevereiro de 2026, marcando uma mudança fundamental na forma como a blockchain de alto desempenho aborda a escalabilidade.

Por anos, a narrativa era simples: a Ethereum precisa de Camadas 2 porque sua camada base não consegue escalar. A Solana não precisa de L2s porque já processa milhares de transações por segundo. Agora, com a SONAMI atingindo a prontidão para produção e projetos concorrentes como SOON e Eclipse ganhando tração, a Solana está silenciosamente adotando a cartilha modular que tornou o ecossistema de rollups da Ethereum um gigante de US$ 33 bilhões.

A questão não é se a Solana precisa de Camadas 2. É se a narrativa de L2 da Solana pode competir com o domínio estabelecido da Base, Arbitrum e Optimism — e o que significa quando cada blockchain converge para a mesma solução de escalabilidade.

Por Que a Solana Está Construindo Camadas 2 (E Por Que Agora)

O objetivo de design teórico da Solana é de 65.000 transações por segundo. Na prática, a rede normalmente opera na casa dos poucos milhares, ocasionalmente enfrentando congestionamento durante mints de NFTs ou frenesis de meme coins. Os críticos apontam para interrupções de rede e degradação de desempenho sob carga de pico como evidência de que a alta taxa de transferência por si só não é suficiente.

O lançamento do Stage 10 da SONAMI aborda esses pontos problemáticos de frente. De acordo com anúncios oficiais, o marco foca em três melhorias principais:

  • Fortalecimento das capacidades de execução sob demanda de pico
  • Expansão das opções de implantação modular para ambientes específicos de aplicações
  • Melhoria da eficiência da rede para reduzir o congestionamento da camada base

Esta é a estratégia de L2 da Ethereum, adaptada para a arquitetura da Solana. Onde a Ethereum descarrega a execução de transações para rollups como Arbitrum e Base, a Solana está agora criando camadas de execução especializadas que lidam com o excesso e a lógica específica da aplicação enquanto realizam a liquidação de volta na cadeia principal.

O momento é estratégico. O ecossistema de Camada 2 da Ethereum processou quase 90% de todas as transações de L2 até o final de 2025, com a Base sozinha capturando mais de 60% da participação de mercado. Enquanto isso, o capital institucional está fluindo para as L2s da Ethereum: a Base detém US10bilho~esemTVL,aArbitrumcomandaUS 10 bilhões em TVL, a Arbitrum comanda US 16,63 bilhões, e o ecossistema L2 combinado representa uma parte significativa do valor total protegido da Ethereum.

O avanço da Solana para a Camada 2 não é sobre admitir falha. É sobre competir pela mesma atenção institucional e de desenvolvedores que o roteiro modular da Ethereum capturou.

SONAMI vs. Gigantes L2 da Ethereum: Uma Luta Desigual

A SONAMI entra em um mercado onde a consolidação já aconteceu. No início de 2026, a maioria das L2s da Ethereum fora das três principais — Base, Arbitrum, Optimism — são efetivamente "redes zumbi", com o uso caindo 61% e o TVL se concentrando esmagadoramente em ecossistemas estabelecidos.

Aqui está o que a SONAMI enfrenta:

A vantagem da Coinbase na Base: A Base se beneficia dos 110 milhões de usuários verificados da Coinbase, rampas de entrada fiduciárias integradas e confiança institucional. No final de 2025, a Base dominava 46,58% do TVL de DeFi em Camada 2 e 60% do volume de transações. Nenhuma L2 da Solana possui distribuição comparável.

O fosso de DeFi da Arbitrum: A Arbitrum lidera todas as L2s com US16,63bilho~esemTVL,construıˊdosobreanosdeprotocolosDeFiestabelecidos,poolsdeliquidezeintegrac\co~esinstitucionais.OTVLtotaldeDeFidaSolanaeˊdeUS 16,63 bilhões em TVL, construído sobre anos de protocolos DeFi estabelecidos, pools de liquidez e integrações institucionais. O TVL total de DeFi da Solana é de US 11,23 bilhões em todo o seu ecossistema.

Efeitos de rede de governança da Optimism: A arquitetura Superchain da Optimism está atraindo rollups empresariais da Coinbase, Kraken e Uniswap. A SONAMI não possui uma estrutura de governança ou ecossistema de parcerias comparável.

A comparação arquitetônica é igualmente marcante. As L2s da Ethereum como a Arbitrum alcançam 40.000 TPS teoricamente, com as confirmações de transações reais parecendo instantâneas devido às taxas baratas e à finalidade rápida. A arquitetura da SONAMI promete melhorias semelhantes na taxa de transferência, mas está sendo construída sobre uma camada base que já entrega confirmações de baixa latência.

A proposta de valor é confusa. As L2s da Ethereum resolvem um problema real: a camada base de 15-30 TPS da Ethereum é muito lenta para aplicações de consumo. A camada base da Solana já lida com a maioria dos casos de uso confortavelmente. Que problema uma L2 da Solana resolve que o Firedancer — o cliente validador de próxima geração da Solana esperado para elevar significativamente o desempenho — não consiga resolver?

A Expansão da SVM: Um Tipo Diferente de Jogo de L2

A estratégia de Camada 2 da Solana pode não ser sobre escalar a própria Solana. Pode ser sobre escalar a Solana Virtual Machine (SVM) como uma pilha tecnológica independente da blockchain Solana.

Eclipse, a primeira L2 da Ethereum alimentada pela SVM, sustenta consistentemente mais de 1.000 TPS sem picos de taxas. SOON, um rollup otimista que mistura SVM com o design modular da Ethereum, visa liquidar na Ethereum enquanto executa com o modelo de paralelização da Solana. Atlas promete tempos de bloco de 50ms com merklização rápida de estado. Yona liquida no Bitcoin enquanto usa a SVM para execução.

Estas não são L2s da Solana no sentido tradicional. São rollups alimentados por SVM que liquidam em outras cadeias, oferecendo desempenho de nível Solana com a liquidez da Ethereum ou a segurança do Bitcoin.

SONAMI se encaixa nesta narrativa como a "primeira L2 de produção da Solana", mas a jogada mais ampla é exportar a SVM para todos os principais ecossistemas de blockchain. Se for bem-sucedida, a Solana se torna a camada de execução preferencial em várias camadas de liquidação — um paralelo a como o domínio da EVM transcendeu a própria Ethereum.

O desafio é a fragmentação. O ecossistema L2 da Ethereum sofre com a divisão da liquidez em dezenas de rollups. Usuários na Arbitrum não podem interagir perfeitamente com a Base ou Optimism sem pontes. A estratégia de L2 da Solana corre o mesmo risco: SONAMI, SOON, Eclipse e outras competindo por liquidez, desenvolvedores e usuários, sem a composibilidade que define a experiência de L1 da Solana.

O que o Estágio 10 realmente significa (e o que não significa)

O anúncio do Estágio 10 da SONAMI foca muito na visão e pouco em detalhes técnicos. Os comunicados de imprensa enfatizam "opções de implantação modular", "fortalecimento das capacidades de execução" e "eficiência da rede sob demanda de pico", mas carecem de benchmarks de desempenho concretos ou métricas da mainnet.

Isso é típico de lançamentos de L2 em estágio inicial. A Eclipse reestruturou-se no final de 2025, demitindo 65 % da equipe e mudando seu foco de provedora de infraestrutura para um estúdio de aplicativos interno. A SOON arrecadou US$ 22 milhões em uma venda de NFT antes do lançamento da mainnet, mas ainda não demonstrou uso sustentado em produção. O ecossistema L2 da Solana é nascente, especulativo e não comprovado.

Para contextualizar, a dominância das L2s da Ethereum levou anos para se solidificar. A Arbitrum lançou sua mainnet em agosto de 2021. A Optimism entrou em operação em dezembro de 2021. A Base não foi lançada até agosto de 2023, mas superou a Arbitrum em volume de transações em poucos meses devido ao poder de distribuição da Coinbase. A SONAMI está tentando competir em um mercado onde os efeitos de rede, a liquidez e as parcerias institucionais já criaram vencedores claros.

O marco do Estágio 10 sugere que a SONAMI está avançando em seu roteiro de desenvolvimento, mas sem TVL, volume de transações ou métricas de usuários ativos, é impossível avaliar a tração real. A maioria dos projetos L2 anuncia "lançamentos de mainnet" ou "marcos de testnet" que geram manchetes sem gerar uso real.

A narrativa das L2s da Solana pode ter sucesso?

A resposta depende do que significa "sucesso". Se o sucesso for destronar a Base ou a Arbitrum, a resposta é quase certamente não. O ecossistema L2 da Ethereum se beneficia da vantagem de pioneirismo, do capital institucional e da liquidez DeFi incomparável da Ethereum. As L2s da Solana carecem dessas vantagens estruturais.

Se o sucesso for a criação de ambientes de execução específicos para aplicações que reduzam o congestionamento da camada base, mantendo a composabilidade da Solana, a resposta é talvez. A capacidade da Solana de escalar horizontalmente por meio de L2s, mantendo uma L1 central rápida e composável, poderia fortalecer sua posição para aplicações descentralizadas de alta frequência e em tempo real.

Se o sucesso for exportar o SVM para outros ecossistemas e estabelecer o ambiente de execução da Solana como um padrão cross-chain, a resposta é plausível, mas não comprovada. Rollups baseados em SVM na Ethereum, Bitcoin e outras redes poderiam impulsionar a adoção, mas a fragmentação e a divisão de liquidez continuam sendo problemas não resolvidos.

O resultado mais provável é a bifurcação. O ecossistema L2 da Ethereum continuará dominando o DeFi institucional, ativos tokenizados e casos de uso corporativos. A camada base da Solana prosperará para atividades de varejo, memecoins, jogos e transações constantes de baixo custo. As L2s da Solana ocuparão um meio-termo: camadas de execução especializadas para transbordamento, lógica específica de aplicativos e implantações de SVM cross-chain.

Este não é um cenário onde o vencedor leva tudo. É o reconhecimento de que diferentes estratégias de escalonamento atendem a diferentes casos de uso, e a tese modular — seja na Ethereum ou na Solana — está se tornando o manual padrão para todas as grandes blockchains.

A Convergência Silenciosa

A construção de Camadas 2 pela Solana parece uma rendição ideológica. Por anos, o argumento da Solana foi a simplicidade: uma rede rápida, sem fragmentação, sem pontes. O argumento da Ethereum era a modularidade: separar o consenso da execução, deixar as L2s se especializarem, aceitar as compensações de composabilidade.

Agora, ambos os ecossistemas estão convergindo para a mesma solução. A Ethereum está atualizando sua camada base (Pectra, Fusaka) para suportar mais L2s. A Solana está construindo L2s para estender sua camada base. As diferenças arquitetônicas permanecem, mas a direção estratégica é idêntica: descarregar a execução para camadas especializadas enquanto preserva a segurança da camada base.

A ironia é que, à medida que as blockchains se tornam mais parecidas, a competição se intensifica. A Ethereum tem uma vantagem de vários anos, US$ 33 bilhões em TVL de L2s e parcerias institucionais. A Solana possui desempenho superior na camada base, taxas mais baixas e um ecossistema focado no varejo. O marco do Estágio 10 da SONAMI é um passo em direção à paridade, mas a paridade não é suficiente em um mercado dominado por efeitos de rede.

A verdadeira questão não é se a Solana pode construir L2s. É se as L2s da Solana conseguem atrair a liquidez, os desenvolvedores e os usuários necessários para serem relevantes em um ecossistema onde a maioria das L2s já está falhando.

BlockEden.xyz fornece infraestrutura RPC de nível empresarial para Solana e outras blockchains de alto desempenho. Explore nosso marketplace de APIs para construir em bases escaláveis otimizadas para velocidade.

Fontes

Coprocessadores ZK: A Infraestrutura que Quebra a Barreira de Computação do Blockchain

· 16 min de leitura
Dora Noda
Software Engineer

Quando a Ethereum processa transações, cada computação acontece on-chain — verificável, segura e dolorosamente cara. Essa limitação fundamental restringiu o que os desenvolvedores podem construir por anos. Mas uma nova classe de infraestrutura está reescrevendo as regras: os coprocessadores ZK estão trazendo computação ilimitada para blockchains com recursos limitados sem sacrificar a ausência de confiança (trustlessness).

Até outubro de 2025, o coprocessador ZK da Brevis Network já havia gerado 125 milhões de provas de conhecimento zero, suportado mais de 2,8bilho~esemvalortotalbloqueadoeverificadomaisde2,8 bilhões em valor total bloqueado e verificado mais de 1 bilhão em volume de transações. Esta não é mais uma tecnologia experimental — é uma infraestrutura de produção que permite aplicações que eram anteriormente impossíveis on-chain.

O Gargalo de Computação que Definiu a Blockchain

As blockchains enfrentam um trilema inerente: elas podem ser descentralizadas, seguras ou escaláveis — mas alcançar as três simultaneamente tem se mostrado difícil. Contratos inteligentes na Ethereum pagam gas por cada etapa computacional, tornando operações complexas proibitivamente caras. Quer analisar o histórico completo de transações de um usuário para determinar seu nível de fidelidade? Calcular recompensas de jogos personalizadas com base em centenas de ações on-chain? Executar inferência de aprendizado de máquina para modelos de risco DeFi?

Os contratos inteligentes tradicionais não conseguem fazer isso de forma econômica. Ler dados históricos da blockchain, processar algoritmos complexos e acessar informações cross-chain exigem uma computação que levaria a maioria das aplicações à falência se executada na Camada 1. É por isso que os protocolos DeFi usam lógica simplificada, os jogos dependem de servidores off-chain e a integração de IA permanece amplamente conceitual.

A solução alternativa sempre foi a mesma: mover a computação para off-chain e confiar em uma parte centralizada para executá-la corretamente. Mas isso derrota todo o propósito da arquitetura trustless da blockchain.

Surge o Coprocessador ZK: Execução Off-Chain, Verificação On-Chain

Os coprocessadores de conhecimento zero resolvem isso introduzindo um novo paradigma computacional: "computação off-chain + verificação on-chain". Eles permitem que contratos inteligentes deleguem processamento pesado para uma infraestrutura off-chain especializada e, em seguida, verifiquem os resultados on-chain usando provas de conhecimento zero — sem confiar em nenhum intermediário.

Aqui está como funciona na prática:

  1. Acesso a Dados: O coprocessador lê dados históricos da blockchain, estado cross-chain ou informações externas cujo acesso on-chain seria proibitivo em termos de gas.
  2. Computação Off-Chain: Algoritmos complexos são executados em ambientes especializados otimizados para desempenho, não restringidos por limites de gas.
  3. Geração de Prova: Uma prova de conhecimento zero é gerada, demonstrando que a computação foi executada corretamente com entradas específicas.
  4. Verificação On-Chain: O contrato inteligente verifica a prova em milissegundos sem reexecutar a computação ou ver os dados brutos.

Essa arquitetura é economicamente viável porque gerar provas off-chain e verificá-las on-chain custa muito menos do que executar a computação diretamente na Camada 1. O resultado: os contratos inteligentes ganham acesso a um poder computacional ilimitado, mantendo as garantias de segurança da blockchain.

A Evolução: De zkRollups a Coprocessadores ZK

A tecnologia não surgiu da noite para o dia. Os sistemas de prova de conhecimento zero evoluíram através de fases distintas:

L2 zkRollups foram pioneiros no modelo "computar off-chain, verificar on-chain" para escalar o rendimento das transações. Projetos como zkSync e StarkNet agrupam milhares de transações, as executam off-chain e enviam uma única prova de validade para a Ethereum — aumentando drasticamente a capacidade enquanto herdam a segurança da Ethereum.

zkVMs (Máquinas Virtuais de Conhecimento Zero) generalizaram este conceito, permitindo que qualquer computação fosse provada como correta. Em vez de se limitarem ao processamento de transações, os desenvolvedores poderiam escrever qualquer programa e gerar provas verificáveis de sua execução. A zkVM Pico / Prism da Brevis alcança um tempo médio de prova de 6,9 segundos em clusters de GPU 64 × RTX 5090, tornando a verificação em tempo real prática.

zkCoprocessors representam a próxima evolução: infraestrutura especializada que combina zkVMs com coprocessadores de dados para lidar com o acesso a dados históricos e cross-chain. Eles são construídos especificamente para as necessidades exclusivas das aplicações de blockchain — lendo o histórico on-chain, fazendo a ponte entre várias cadeias e fornecendo aos contratos inteligentes recursos anteriormente bloqueados por APIs centralizadas.

A Lagrange lançou o primeiro coprocessador ZK baseado em SQL em 2025, permitindo que os desenvolvedores provem consultas SQL personalizadas de vastas quantidades de dados on-chain diretamente de contratos inteligentes. A Brevis seguiu com uma arquitetura multi-chain, suportando computação verificável em Ethereum, Arbitrum, Optimism, Base e outras redes. A Axiom focou em consultas históricas verificáveis com callbacks de circuito para lógica de verificação programável.

Como os Coprocessadores ZK se Comparam às Alternativas

Coprocessadores ZK vs. zkML

O aprendizado de máquina de conhecimento zero (zkML) utiliza sistemas de prova semelhantes, mas visa um problema diferente: provar que um modelo de IA produziu um resultado específico sem revelar os pesos do modelo ou os dados de entrada. O zkML concentra-se principalmente na verificação de inferência — confirmando que uma rede neural foi avaliada de forma honesta.

A principal distinção está no fluxo de trabalho. Com os coprocessadores ZK, os desenvolvedores escrevem uma lógica de implementação explícita, garantem a correção do circuito e geram provas para computações determinísticas. Com o zkML, o processo começa com a exploração de dados e o treinamento do modelo antes de criar circuitos para verificar a inferência. Os coprocessadores ZK lidam com lógica de propósito geral; o zkML é especializado em tornar a IA verificável on-chain.

Ambas as tecnologias compartilham o mesmo paradigma de verificação: a computação é executada fora da cadeia (off-chain), produzindo uma prova de conhecimento zero junto com os resultados. A rede verifica a prova em milissegundos sem ver as entradas brutas ou reexecutar a computação. No entanto, os circuitos zkML são otimizados para operações de tensores e arquiteturas de redes neurais, enquanto os circuitos de coprocessadores lidam com consultas de banco de dados, transições de estado e agregação de dados entre cadeias (cross-chain).

Coprocessadores ZK vs. Rollups Otimistas

Rollups otimistas e Rollups ZK escalam blockchains movendo a execução para fora da cadeia, mas seus modelos de confiança diferem fundamentalmente.

Rollups otimistas assumem que as transações são válidas por padrão. Os validadores enviam lotes de transações sem provas, e qualquer pessoa pode contestar lotes inválidos durante um período de disputa (geralmente 7 dias). Essa finalidade atrasada significa que retirar fundos do Optimism ou Arbitrum exige esperar uma semana — aceitável para escalabilidade, mas problemático para muitas aplicações.

Coprocessadores ZK provam a correção imediatamente. Cada lote inclui uma prova de validade verificada on-chain antes da aceitação. Não há período de disputa, nem suposições de fraude, nem atrasos de uma semana para saques. As transações alcançam finalidade instantânea.

O compromisso historicamente tem sido a complexidade e o custo. A geração de provas de conhecimento zero requer hardware especializado e criptografia sofisticada, tornando a infraestrutura ZK mais cara de operar. No entanto, a aceleração de hardware está mudando a economia. O Pico Prism da Brevis alcança 96,8 % de cobertura de prova em tempo real, o que significa que as provas são geradas com rapidez suficiente para acompanhar o fluxo de transações — eliminando a lacuna de desempenho que favorecia as abordagens otimistas.

No mercado atual, rollups otimistas como Arbitrum e Optimism ainda dominam o valor total bloqueado. Sua compatibilidade com EVM e arquitetura mais simples facilitaram a implantação em escala. Mas à medida que a tecnologia ZK amadurece, a finalidade instantânea e as garantias de segurança mais fortes das provas de validade estão mudando o momento. A escalabilidade de Camada 2 representa um caso de uso; os coprocessadores ZK desbloqueiam uma categoria mais ampla — computação verificável para qualquer aplicação on-chain.

Aplicações no Mundo Real: De DeFi a Jogos

A infraestrutura permite casos de uso que antes eram impossíveis ou exigiam confiança centralizada:

DeFi: Estruturas de Taxas Dinâmicas e Programas de Fidelidade

As exchanges descentralizadas têm dificuldade em implementar programas de fidelidade sofisticados porque calcular o volume de negociação histórico de um usuário on-chain é proibitivamente caro. Com coprocessadores ZK, as DEXs podem rastrear o volume vitalício em várias cadeias, calcular níveis VIP e ajustar as taxas de negociação dinamicamente — tudo verificável on-chain.

O Incentra, construído no zkCoprocessor da Brevis, distribui recompensas com base na atividade verificada on-chain sem expor dados sensíveis do usuário. Os protocolos agora podem implementar linhas de crédito baseadas no comportamento de reembolso anterior, gestão ativa de posição de liquidez com algoritmos predefinidos e preferências de liquidação dinâmicas — tudo respaldado por provas criptográficas em vez de intermediários confiáveis.

Jogos: Experiências Personalizadas Sem Servidores Centralizados

Os jogos em blockchain enfrentam um dilema de experiência do usuário (UX): registrar cada ação do jogador on-chain é caro, mas mover a lógica do jogo para fora da cadeia exige confiar em servidores centralizados. Os coprocessadores ZK permitem um terceiro caminho.

Contratos inteligentes agora podem responder a consultas complexas como "Quais carteiras ganharam este jogo na última semana, cunharam um NFT da minha coleção e registraram pelo menos duas horas de tempo de jogo?". Isso impulsiona LiveOps personalizados — oferecendo dinamicamente compras no jogo, combinando oponentes, acionando eventos de bônus — com base no histórico verificado on-chain, em vez de análises centralizadas.

Os jogadores obtêm experiências personalizadas. Os desenvolvedores mantêm a infraestrutura sem necessidade de confiança (trustless). O estado do jogo permanece verificável.

Aplicações Cross-Chain: Estado Unificado Sem Pontes

Ler dados de outra blockchain tradicionalmente requer pontes (bridges) — intermediários confiáveis que bloqueiam ativos em uma cadeia e cunham representações em outra. Os coprocessadores ZK verificam o estado entre cadeias diretamente usando provas criptográficas.

Um contrato inteligente na Ethereum pode consultar as posses de NFT de um usuário na Polygon, suas posições DeFi na Arbitrum e seus votos de governança na Optimism — tudo sem confiar em operadores de pontes. Isso desbloqueia pontuação de crédito entre cadeias, sistemas de identidade unificados e protocolos de reputação multi-chain.

O Cenário Competitivo: Quem está Construindo o Quê

O espaço dos coprocessadores ZK consolidou-se em torno de vários players principais, cada um com abordagens arquitetônicas distintas:

A Brevis Network lidera na fusão "ZK Data Coprocessor + General zkVM". Seu zkCoprocessor lida com a leitura de dados históricos e consultas cross-chain, enquanto o Pico/Prism zkVM fornece computação programável para lógica arbitrária. A Brevis arrecadou $ 7,5 milhões em uma rodada de tokens seed e foi implantada na Ethereum, Arbitrum, Base, Optimism, BSC e outras redes. Seu token BREV está ganhando força nas exchanges rumo a 2026.

A Lagrange foi pioneira em consultas baseadas em SQL com o ZK Coprocessor 1.0, tornando os dados on-chain acessíveis através de interfaces de banco de dados familiares. Os desenvolvedores podem provar consultas SQL personalizadas diretamente de contratos inteligentes, reduzindo drasticamente a barreira técnica para a construção de aplicações intensivas em dados. Azuki, Gearbox e outros protocolos usam a Lagrange para análises históricas verificáveis.

A Axiom foca em consultas verificáveis com callbacks de circuito, permitindo que contratos inteligentes solicitem pontos de dados históricos específicos e recebam provas criptográficas de correção. Sua arquitetura é otimizada para casos de uso onde as aplicações precisam de fatias precisas do histórico da blockchain em vez de computação geral.

A Space and Time combina um banco de dados verificável com consultas SQL, visando casos de uso empresariais que exigem tanto verificação on-chain quanto funcionalidade de banco de dados tradicional. Sua abordagem atrai instituições que estão migrando sistemas existentes para infraestrutura de blockchain.

O mercado está evoluindo rapidamente, com 2026 sendo amplamente considerado como o "Ano da Infraestrutura ZK". À medida que a geração de provas se torna mais rápida, a aceleração de hardware melhora e as ferramentas de desenvolvimento amadurecem, os coprocessadores ZK estão em transição de tecnologia experimental para infraestrutura de produção crítica.

Desafios Técnicos: Por que isso é Difícil

Apesar do progresso, permanecem obstáculos significativos.

A velocidade de geração de provas gargala muitas aplicações. Mesmo com clusters de GPU, computações complexas podem levar segundos ou minutos para serem provadas — aceitável para alguns casos de uso, problemático para negociação de alta frequência ou jogos em tempo real. A média de 6,9 segundos da Brevis representa um desempenho de ponta, mas alcançar a prova em menos de um segundo para todas as cargas de trabalho requer mais inovação de hardware.

A complexidade do desenvolvimento de circuitos cria atritos para o desenvolvedor. Escrever circuitos de conhecimento zero exige conhecimento criptográfico especializado que falta à maioria dos desenvolvedores de blockchain. Embora as zkVMs abstraiam parte da complexidade permitindo que os desenvolvedores escrevam em linguagens familiares, a otimização de circuitos para desempenho ainda exige expertise. Melhorias nas ferramentas estão diminuindo essa lacuna, mas ela continua sendo uma barreira para a adoção em massa.

A disponibilidade de dados apresenta desafios de coordenação. Os coprocessadores devem manter visões sincronizadas do estado da blockchain em várias redes, lidando com reorgs, finalidade e diferenças de consenso. Garantir que as provas referenciem o estado canônico da rede exige infraestrutura sofisticada — especialmente para aplicações cross-chain onde diferentes redes têm diferentes garantias de finalidade.

A sustentabilidade econômica permanece incerta. Operar uma infraestrutura de geração de provas é intensivo em capital, exigindo GPUs especializadas e custos operacionais contínuos. As redes de coprocessadores devem equilibrar os custos de prova, taxas de usuários e incentivos de tokens para criar modelos de negócios sustentáveis. Projetos iniciais estão subsidiando custos para impulsionar a adoção, mas a viabilidade a longo prazo depende da comprovação da economia unitária em escala.

A Tese da Infraestrutura: Computação como uma Camada de Serviço Verificável

Os coprocessadores ZK estão surgindo como "camadas de serviço verificáveis" — APIs nativas de blockchain que fornecem funcionalidade sem exigir confiança. Isso reflete como a computação em nuvem evoluiu: os desenvolvedores não constroem seus próprios servidores; eles consomem APIs da AWS. Da mesma forma, os desenvolvedores de contratos inteligentes não deveriam precisar reimplementar consultas de dados históricos ou verificação de estado cross-chain — eles deveriam chamar uma infraestrutura comprovada.

A mudança de paradigma é sutil, mas profunda. Em vez de "o que esta blockchain pode fazer?", a pergunta passa a ser "quais serviços verificáveis este contrato inteligente pode acessar?". A blockchain fornece liquidação e verificação; os coprocessadores fornecem computação ilimitada. Juntos, eles desbloqueiam aplicações que exigem tanto trustlessness quanto complexidade.

Isso se estende além de DeFi e jogos. A tokenização de ativos do mundo real precisa de dados off-chain verificados sobre propriedade de imóveis, preços de commodities e conformidade regulatória. A identidade descentralizada exige a agregação de credenciais em várias blockchains e a verificação do status de revogação. Agentes de IA precisam provar seus processos de tomada de decisão sem expor modelos proprietários. Tudo isso requer computação verificável — a capacidade exata que os coprocessadores ZK fornecem.

A infraestrutura também muda a forma como os desenvolvedores pensam sobre as restrições da blockchain. Por anos, o mantra foi "otimizar para eficiência de gas". Com os coprocessadores, os desenvolvedores podem escrever lógica como se os limites de gas não existissem, e então descarregar operações caras para uma infraestrutura verificável. Essa mudança mental — de contratos inteligentes restritos para contratos inteligentes com computação infinita — remodelará o que é construído on-chain.

O que 2026 reserva: Da pesquisa à produção

Múltiplas tendências estão convergindo para tornar 2026 o ponto de inflexão para a adoção de coprocessadores ZK.

A aceleração de hardware está melhorando drasticamente o desempenho da geração de provas. Empresas como a Cysic estão construindo ASICs especializados para provas de conhecimento zero, de forma semelhante a como a mineração de Bitcoin evoluiu de CPUs para GPUs e depois para ASICs. Quando a geração de provas se torna 10 a 100 vezes mais rápida e barata, as barreiras econômicas colapsam.

As ferramentas de desenvolvedor estão abstraindo a complexidade. O desenvolvimento inicial de zkVM exigia especialização em design de circuitos; frameworks modernos permitem que os desenvolvedores escrevam em Rust ou Solidity e compilem para circuitos prováveis automaticamente. À medida que essas ferramentas amadurecem, a experiência do desenvolvedor se aproxima da escrita de contratos inteligentes padrão — a computação verificável torna-se o padrão, não a exceção.

A adoção institucional está impulsionando a demanda por infraestrutura verificável. À medida que a BlackRock tokeniza ativos e bancos tradicionais lançam sistemas de liquidação de stablecoins, eles exigem computação off-chain verificável para conformidade, auditoria e relatórios regulatórios. Os coprocessadores ZK fornecem a infraestrutura para tornar isso trustless.

A fragmentação cross-chain cria urgência para a verificação de estado unificada. Com centenas de Layer 2s fragmentando a liquidez e a experiência do usuário, as aplicações precisam de formas de agregar o estado entre redes sem depender de intermediários de pontes. Os coprocessadores oferecem a única solução trustless.

Os projetos que sobreviverem provavelmente se consolidarão em verticais específicas: Brevis para infraestrutura multi-chain de propósito geral, Lagrange para aplicações intensivas em dados, Axiom para otimização de consultas históricas. Assim como nos provedores de nuvem, a maioria dos desenvolvedores não executará sua própria infraestrutura de provas — eles consumirão APIs de coprocessadores e pagarão pela verificação como um serviço.

O cenário geral: A computação infinita encontra a segurança do blockchain

Os coprocessadores ZK resolvem uma das limitações mais fundamentais do blockchain: você pode ter segurança trustless OU computação complexa, mas não ambas. Ao desacoplar a execução da verificação, eles tornam essa troca obsoleta.

Isso desbloqueia a próxima onda de aplicações em blockchain — aquelas que não poderiam existir sob as restrições antigas. Protocolos DeFi com gerenciamento de risco de nível financeiro tradicional. Jogos com valores de produção AAA rodando em infraestrutura verificável. Agentes de IA operando de forma autônoma com prova criptográfica de sua tomada de decisão. Aplicações cross-chain que parecem plataformas únicas e unificadas.

A infraestrutura está aqui. As provas são rápidas o suficiente. As ferramentas de desenvolvedor estão amadurecendo. O que resta é construir as aplicações que eram impossíveis antes — e observar uma indústria perceber que as limitações de computação do blockchain nunca foram permanentes, apenas esperavam pela infraestrutura certa para avançar.

BlockEden.xyz fornece infraestrutura RPC de nível empresarial nas blockchains onde as aplicações de coprocessadores ZK estão sendo construídas — do Ethereum e Arbitrum à Base, Optimism e além. Explore nosso marketplace de APIs para acessar a mesma infraestrutura de nós confiável que alimenta a próxima geração de computação verificável.

Upgrade BPO-2 da Ethereum: Uma Nova Era de Escalabilidade Paramétrica

· 10 min de leitura
Dora Noda
Software Engineer

O que acontece quando um blockchain decide escalonar não ao se reinventar, mas simplesmente ajustando os seletores? Em 7 de janeiro de 2026, o Ethereum ativou o BPO-2 — o segundo fork de Apenas Parâmetros de Blob (Blob Parameters Only) — concluindo silenciosamente a fase final da atualização Fusaka. O resultado: uma expansão de 40 % na capacidade que reduziu as taxas da Camada 2 em até 90 % da noite para o dia. Esta não foi uma reformulação chamativa do protocolo. Foi precisão cirúrgica, provando que a escalabilidade do Ethereum agora é paramétrica, não procedural.

A Atualização BPO-2: Números que Importam

O BPO-2 aumentou o objetivo (target) de blobs do Ethereum de 10 para 14 e o limite máximo de blobs de 15 para 21. Cada blob contém 128 kilobytes de dados, o que significa que um único bloco agora pode carregar aproximadamente 2,6 – 2,7 megabytes de dados de blob — um aumento em relação aos cerca de 1,9 MB antes do fork.

Para contextualizar, os blobs são os pacotes de dados que os rollups publicam no Ethereum. Eles permitem que redes de Camada 2 como Arbitrum, Base e Optimism processem transações fora da rede principal (off-chain) enquanto herdam as garantias de segurança do Ethereum. Quando o espaço de blob é escasso, os rollups competem pela capacidade, elevando os custos. O BPO-2 aliviou essa pressão.

O Cronograma: A Implementação em Três Fases da Fusaka

A atualização não aconteceu de forma isolada. Foi o estágio final da implantação metódica da Fusaka:

  • 3 de dezembro de 2025: Ativação da mainnet Fusaka, introduzindo o PeerDAS (Peer Data Availability Sampling)
  • 9 de dezembro de 2025: O BPO-1 aumentou o objetivo de blobs para 10 e o máximo para 15
  • 7 de janeiro de 2026: O BPO-2 elevou o objetivo para 14 e o máximo para 21

Essa abordagem em etapas permitiu que os desenvolvedores monitorassem a saúde da rede entre cada incremento, garantindo que os operadores de nós domésticos pudessem lidar com as crescentes demandas de largura de banda.

Por que "Objetivo" e "Limite" são Diferentes

Entender a distinção entre o objetivo (target) de blobs e o limite (limit) de blobs é fundamental para compreender a mecânica de taxas do Ethereum.

O limite de blobs (21) representa o teto rígido — o número absoluto máximo de blobs que podem ser incluídos em um único bloco. O objetivo de blobs (14) é o ponto de equilíbrio que o protocolo visa manter ao longo do tempo.

Quando o uso real de blobs excede o objetivo, as taxas básicas aumentam para desencorajar o consumo excessivo. Quando o uso cai abaixo do objetivo, as taxas diminuem para incentivar mais atividade. Este ajuste dinâmico cria um mercado autorregulado:

  • Blobs cheios: As taxas básicas aumentam em aproximadamente 8,2 %
  • Sem blobs: As taxas básicas diminuem em aproximadamente 14,5 %

Esta assimetria é intencional. Ela permite que as taxas caiam rapidamente durante períodos de baixa demanda, enquanto aumentam mais gradualmente durante a alta demanda, evitando picos de preços que poderiam desestabilizar a economia dos rollups.

O Impacto nas Taxas: Números Reais de Redes Reais

Os custos de transação da Camada 2 despencaram entre 40 – 90 % desde a implementação da Fusaka. Os números falam por si:

RedeTaxa Média Pós-BPO-2Comparação com a Mainnet do Ethereum
Base$ 0,000116$ 0,3139
Arbitrum~ $ 0,001$ 0,3139
Optimism~ $ 0,001$ 0,3139

As taxas medianas de blob caíram para valores tão baixos quanto $ 0,0000000005 por blob — efetivamente gratuitas para fins práticos. Para os usuários finais, isso se traduz em custos quase nulos para swaps, transferências, cunhagem de NFTs e transações de jogos.

Como os Rollups se Adaptaram

Os principais rollups reestruturaram suas operações para maximizar a eficiência dos blobs:

  • A Optimism atualizou seu batcher para depender primordialmente de blobs em vez de calldata, reduzindo os custos de disponibilidade de dados em mais da metade
  • A zkSync reformulou seu pipeline de envio de provas para compactar as atualizações de estado em menos blobs e maiores, reduzindo a frequência de postagem
  • A Arbitrum preparou-se para sua atualização ArbOS Dia (1º trimestre de 2026), que introduz taxas mais suaves e maior taxa de transferência com suporte à Fusaka

Desde a introdução do EIP-4844, mais de 950.000 blobs foram postados no Ethereum. Os rollups otimistas viram uma redução de 81 % no uso de calldata, demonstrando que o modelo de blob está funcionando como planejado.

O Caminho para 128 Blobs: O que Vem a Seguir

O BPO-2 é um ponto de passagem, não o destino final. O roteiro do Ethereum prevê um futuro onde os blocos contenham 128 ou mais blobs por slot — um aumento de 8 vezes em relação aos níveis atuais.

PeerDAS: A Fundação Técnica

O PeerDAS (EIP-7594) é o protocolo de rede que torna possível o escalonamento agressivo de blobs. Em vez de exigir que cada nó baixe cada blob, o PeerDAS utiliza a amostragem de disponibilidade de dados (data availability sampling) para verificar a integridade dos dados baixando apenas um subconjunto.

Veja como funciona:

  1. Os dados estendidos do blob são divididos em 128 partes chamadas colunas
  2. Cada nó participa de pelo menos 8 sub-redes de colunas escolhidas aleatoriamente
  3. Receber 8 de 128 colunas (cerca de 12,5 % dos dados) é matematicamente suficiente para provar a disponibilidade total dos dados
  4. A codificação de apagamento (erasure coding) garante que, mesmo que alguns dados estejam faltando, o original possa ser reconstruído

Esta abordagem permite um escalonamento teórico de 8 vezes na taxa de transferência de dados, mantendo os requisitos dos nós gerenciáveis para operadores domésticos.

O Cronograma de Escalonamento de Blobs

FaseBlobs de Objetivo (Target)Blobs MáximosStatus
Dencun (março de 2024)36Concluído
Pectra (maio de 2025)69Concluído
BPO-1 (dezembro de 2025)1015Concluído
BPO-2 (janeiro de 2026)1421Concluído
BPO-3/4 (2026)A definir72+Planejado
Longo prazo128+128+Roteiro

Uma chamada recente de todos os desenvolvedores principais (all-core-devs) discutiu um "cronograma especulativo" que poderia incluir forks BPO adicionais a cada duas semanas após o final de fevereiro para atingir um objetivo de 72 blobs. Se este cronograma agressivo se concretizará, dependerá dos dados de monitoramento da rede.

Glamsterdam: O Próximo Grande Marco

Olhando além dos forks BPO, o upgrade combinado Glamsterdam (Glam para a camada de consenso, Amsterdam para a camada de execução) está atualmente planejado para o Q2 / Q3 de 2026. Ele promete melhorias ainda mais dramáticas:

  • Block Access Lists (BALs): limites de gas dinâmicos que permitem o processamento paralelo de transações
  • Enshrined Proposer-Builder Separation (ePBS): protocolo on-chain para separar as funções de construção de blocos, proporcionando mais tempo para a propagação de blocos
  • Aumento do limite de gas: potencialmente até 200 milhões, permitindo um "processamento paralelo perfeito"

Vitalik Buterin projetou que o final de 2026 trará "grandes aumentos no limite de gas não dependentes de ZK-EVM devido às BALs e ePBS". Essas mudanças podem elevar o throughput sustentável para mais de 100.000+ TPS em todo o ecossistema de Camada 2.

O Que a BPO-2 Revela Sobre a Estratégia da Ethereum

O modelo de fork BPO representa uma mudança filosófica na forma como a Ethereum aborda os upgrades. Em vez de agrupar múltiplas mudanças complexas em hard forks monolíticos, a abordagem BPO isola ajustes de variável única que podem ser implantados rapidamente e revertidos caso surjam problemas.

"O fork BPO2 ressalta que a escalabilidade da Ethereum agora é paramétrica, não processual", observou um desenvolvedor. "O espaço de blobs continua longe da saturação, e a rede pode expandir o throughput simplesmente ajustando a capacidade."

Essa observação traz implicações significativas:

  1. Escalabilidade previsível: os rollups podem planejar as necessidades de capacidade sabendo que a Ethereum continuará expandindo o espaço de blobs
  2. Risco reduzido: mudanças de parâmetros isoladas minimizam a chance de bugs em cascata
  3. Iteração mais rápida: os forks BPO podem acontecer em semanas, não meses
  4. Decisões orientadas por dados: cada incremento fornece dados do mundo real para informar o próximo

A Economia: Quem se Beneficia?

Os beneficiários da BPO-2 estendem-se além dos usuários finais que desfrutam de transações mais baratas:

Operadores de Rollup

Custos mais baixos de publicação de dados melhoram a economia unitária para cada rollup. Redes que anteriormente operavam com margens estreitas agora têm espaço para investir na aquisição de usuários, ferramentas para desenvolvedores e crescimento do ecossistema.

Desenvolvedores de Aplicações

Custos de transação abaixo de um centavo desbloqueiam casos de uso que antes eram economicamente inviáveis: micropayments, jogos de alta frequência, aplicações sociais com estado on-chain e integrações de IoT.

Validadores da Ethereum

O aumento no throughput de blobs significa mais taxas totais, mesmo que as taxas por blob caiam. A rede processa mais valor, mantendo os incentivos para os validadores enquanto melhora a experiência do usuário.

O Ecossistema Mais Amplo

A disponibilidade de dados da Ethereum mais barata torna as camadas de DA alternativas menos atraentes para rollups que priorizam a segurança. Isso reforça a posição da Ethereum no centro da stack de blockchain modular.

Desafios e Considerações

A BPO-2 não está isenta de compensações:

Requisitos de Nó

Embora o PeerDAS reduza os requisitos de largura de banda por meio de amostragem, o aumento na contagem de blobs ainda exige mais dos operadores de nós. A implantação faseada visa identificar gargalos antes que se tornem críticos, mas operadores domésticos com largura de banda limitada podem ter dificuldades à medida que a contagem de blobs sobe para 72 ou 128.

Dinâmicas de MEV

Mais blobs significam mais oportunidades para extração de MEV em transações de rollup. O upgrade ePBS no Glamsterdam visa resolver isso, mas o período de transição pode ver um aumento na atividade de MEV.

Volatilidade do Espaço de Blobs

Durante picos de demanda, as taxas de blobs ainda podem subir rapidamente. O aumento de 8,2% por bloco cheio significa que a demanda alta sustentada cria um crescimento exponencial das taxas. Os futuros forks BPO precisarão equilibrar a expansão da capacidade contra essa volatilidade.

Conclusão: Escalando por Graus

A BPO-2 demonstra que uma escalabilidade significativa nem sempre exige avanços revolucionários. Às vezes, as melhorias mais eficazes vêm da calibração cuidadosa dos sistemas existentes.

A capacidade de blobs da Ethereum cresceu de no máximo 6 no Dencun para 21 na BPO-2 — um aumento de 250% em menos de dois anos. As taxas da Camada 2 caíram ordens de magnitude. E o roadmap para mais de 128 blobs sugere que este é apenas o começo.

Para os rollups, a mensagem é clara: a camada de disponibilidade de dados da Ethereum está escalando para atender à demanda. Para os usuários, o resultado é cada vez mais invisível: transações que custam frações de centavos, finalizadas em segundos, protegidas pela plataforma de smart contracts mais testada em combate existente.

A era paramétrica da escalabilidade da Ethereum chegou. A BPO-2 é a prova de que, às vezes, girar o botão certo é tudo o que é necessário.


Está construindo sobre a capacidade de blobs em expansão da Ethereum? BlockEden.xyz fornece serviços RPC de nível empresarial para a Ethereum e seu ecossistema de Camada 2, incluindo Arbitrum, Optimism e Base. Explore nosso marketplace de APIs para se conectar à infraestrutura que alimenta a próxima geração de aplicações escaláveis.

A Evolução do Ethereum: De Altas Taxas de Gas a Transações Sem Atrito

· 11 min de leitura
Dora Noda
Software Engineer

O pesadelo da taxa de gás de 50estaˊoficialmentemorto.Em17dejaneirode2026,aEthereumprocessou2,6milho~esdetransac\co~esemumuˊnicodiaumnovorecordeenquantoastaxasdegaˊsficaramem50 está oficialmente morto. Em 17 de janeiro de 2026, a Ethereum processou 2,6 milhões de transações em um único dia — um novo recorde — enquanto as taxas de gás ficaram em 0,01. Dois anos atrás, esse nível de atividade teria paralisado a rede. Hoje, mal é registrado como um pequeno desvio.

Isso não é apenas uma conquista técnica. Representa uma mudança fundamental no que a Ethereum está se tornando: uma plataforma onde a atividade econômica real — não a especulação — impulsiona o crescimento. A questão não é mais se a Ethereum pode lidar com DeFi em escala. É se o resto do sistema financeiro consegue acompanhar.

ZK-Rollup de Bitcoin da Citrea: Podem as Provas de Conhecimento Zero Finalmente Desbloquear a Promessa de $ 4,95 Bilhões do BTCFi?

· 12 min de leitura
Dora Noda
Software Engineer

O Bitcoin acaba de ganhar contratos inteligentes — reais, verificados por provas de conhecimento zero diretamente na rede Bitcoin. O lançamento da mainnet da Citrea em 27 de janeiro de 2026 marca a primeira vez que provas ZK foram inscritas e verificadas nativamente dentro da blockchain do Bitcoin, abrindo uma porta que mais de 75 projetos de Bitcoin L2 tentam desbloquear há anos.

Mas aqui está o detalhe: o valor total bloqueado (TVL) do BTCFi encolheu 74 % no último ano, e o ecossistema continua dominado por protocolos de restaking em vez de aplicações programáveis. Será que o avanço técnico da Citrea pode se traduzir em adoção real, ou ele se juntará ao cemitério de soluções de escalabilidade do Bitcoin que nunca ganharam tração? Vamos examinar o que torna a Citrea diferente e se ela pode competir em um campo cada vez mais lotado.

MegaETH: O Blockchain em Tempo Real que Revoluciona a Velocidade e Escalabilidade

· 10 min de leitura
Dora Noda
Software Engineer

Quando Vitalik Buterin investe pessoalmente em um projeto de blockchain, o mundo cripto presta atenção. Mas quando esse projeto afirma entregar 100.000 transações por segundo com tempos de bloco de 10 milissegundos — fazendo as blockchains tradicionais parecerem internet discada — a pergunta muda de "por que eu deveria me importar ?" para "isso é sequer possível ?".

A MegaETH, autoproclamada a "primeira blockchain em tempo real", lançou sua mainnet em 22 de janeiro de 2026, e os números são impressionantes : 10,7 bilhões de transações processadas durante um teste de estresse de sete dias, throughput sustentado de 35.000 TPS e tempos de bloco que caíram de 400 milissegundos para apenas 10 milissegundos. O projeto arrecadou mais de 506milho~esemquatrorodadasdefinanciamento,incluindoumavendapuˊblicadetokensde506 milhões em quatro rodadas de financiamento, incluindo uma venda pública de tokens de 450 milhões que teve uma demanda 27,8x superior à oferta.

Mas por trás das métricas impressionantes reside um compromisso fundamental que atinge o cerne da promessa principal da blockchain : a descentralização. A arquitetura da MegaETH depende de um único sequenciador hiper-otimizado, operando em hardware que faria a maioria dos data centers corar — mais de 100 núcleos de CPU, até 4 terabytes de RAM e conexões de rede de 10 Gbps. Esta não é a sua configuração típica de validador ; é um supercomputador.

A Arquitetura : Velocidade Através da Especialização

Os ganhos de desempenho da MegaETH derivam de duas inovações principais : arquitetura de blockchain heterogênea e um ambiente de execução EVM hiper-otimizado.

As blockchains tradicionais exigem que cada nó execute as mesmas tarefas — ordenar transações, executá-las e manter o estado. A MegaETH descarta esse manual. Em vez disso, ela diferencia os nós em funções especializadas :

Nós Sequenciadores (Sequencer Nodes) lidam com o trabalho pesado de ordenação e execução de transações. Estes não são validadores configurados em uma garagem ; são servidores de nível empresarial com requisitos de hardware 20 vezes mais caros do que os validadores médios da Solana.

Nós Provadores (Prover Nodes) geram e verificam provas criptográficas usando hardware especializado, como GPUs ou FPGAs. Ao separar a geração de provas da execução, a MegaETH pode manter a segurança sem gargalar o throughput.

Nós Réplicas (Replica Nodes) verificam a saída do sequenciador com requisitos mínimos de hardware — aproximadamente comparáveis à execução de um nó Ethereum L1 — garantindo que qualquer pessoa possa validar o estado da rede, mesmo que não possa participar do sequenciamento.

O resultado ? Tempos de bloco medidos em milissegundos de dígito único, com a equipe visando um eventual tempo de bloco de 1 milissegundo — uma inovação inédita no setor, se alcançada.

Resultados do Teste de Estresse : Prova de Conceito ou Prova de Hype ?

O teste de estresse global de sete dias da MegaETH processou aproximadamente 10,7 bilhões de transações, com jogos como Smasher, Crossy Fluffle e Stomp.gg gerando carga sustentada na rede. A rede atingiu um pico de throughput de 47.000 TPS, com taxas sustentadas entre 15.000 e 35.000 TPS.

Esses números exigem contexto. A Solana, frequentemente citada como a referência de velocidade, tem um máximo teórico de 65.000 TPS, mas opera em torno de 3.400 TPS em condições reais. A Ethereum L1 gerencia cerca de 15 - 30 TPS. Mesmo as L2s mais rápidas, como Arbitrum e Base, normalmente processam algumas centenas de TPS sob carga normal.

Os números do teste de estresse da MegaETH, se traduzidos para a produção, representariam uma melhoria de 10x em relação ao desempenho real da Solana e uma melhoria de 1.000x em relação à mainnet da Ethereum.

Mas há uma ressalva crítica : testes de estresse são ambientes controlados. As transações de teste vieram principalmente de aplicativos de jogos — operações simples e previsíveis que não refletem as complexas interações de estado dos protocolos DeFi ou os padrões de transação imprevisíveis da atividade orgânica dos usuários.

O Trade-Off da Centralização

É aqui que a MegaETH diverge drasticamente da ortodoxia das blockchains : o projeto reconhece abertamente que não tem planos de descentralizar seu sequenciador. Nunca.

"O projeto não finge ser descentralizado e explica por que um sequenciador centralizado foi necessário como um compromisso para alcançar o nível de desempenho desejado", observa uma análise.

Esta não é uma ponte temporária para uma futura descentralização — é uma decisão arquitetônica permanente. O sequenciador da MegaETH é um ponto único de falha, controlado por uma única entidade, rodando em um hardware que apenas operações bem financiadas podem pagar.

O modelo de segurança baseia-se no que a equipe chama de "provas de fraude otimistas e slashing". A segurança do sistema não depende de múltiplas entidades chegando independentemente ao mesmo resultado. Em vez disso, depende de uma rede descentralizada de Provadores e Réplicas para verificar a correção computacional da saída do sequenciador. Se o sequenciador agir maliciosamente, os provadores não deverão ser capazes de gerar provas válidas para cálculos incorretos.

Além disso, a MegaETH herda a segurança da Ethereum através de um design de rollup, garantindo que, mesmo que o sequenciador falhe ou aja maliciosamente, os usuários possam recuperar ativos via mainnet da Ethereum.

Mas os críticos não estão convencidos. Análises atuais mostram que a MegaETH possui apenas 16 validadores em comparação com os mais de 800.000 da Ethereum, levantando preocupações de governança. O projeto também usa a EigenDA para disponibilidade de dados em vez da Ethereum — uma escolha que troca a segurança testada em batalha por custos mais baixos e maior throughput.

USDm: A Estratégia de Stablecoin

A MegaETH não está apenas construindo uma blockchain rápida; está construindo um fosso econômico. O projeto fez uma parceria com a Ethena Labs para lançar a USDm, uma stablecoin nativa lastreada principalmente pelo fundo de tesouraria tokenizado dos EUA da BlackRock, o BUIDL (atualmente com mais de $ 2,2 bilhões em ativos).

A inovação inteligente: o rendimento da reserva da USDm é direcionado programaticamente para cobrir as operações do sequenciador. Isso permite que a MegaETH ofereça taxas de transação abaixo de um centavo sem depender do gas pago pelo usuário. À medida que o uso da rede cresce, o rendimento da stablecoin expande proporcionalmente, criando um modelo econômico autossustentável que não exige o aumento das taxas dos usuários.

Isso posiciona a MegaETH contra o modelo tradicional de taxas de L2, onde os sequenciadores lucram com o spread entre as taxas pagas pelos usuários e os custos de publicação de dados na L1. Ao subsidiar as taxas por meio do rendimento, a MegaETH pode superar os concorrentes em custo, mantendo uma economia previsível para os desenvolvedores.

O Cenário Competitivo

A MegaETH entra em um mercado de L2 saturado, onde Base, Arbitrum e Optimism controlam aproximadamente 90 % do volume de transações. Seu posicionamento competitivo é único:

Vs. Solana: Os tempos de bloco de 10 ms da MegaETH esmagam os 400 ms da Solana, tornando-a teoricamente superior para aplicações sensíveis à latência, como trading de alta frequência ou jogos em tempo real. No entanto, a Solana oferece uma experiência de L1 unificada sem a complexidade de pontes (bridging), e sua próxima atualização Firedancer promete melhorias significativas de desempenho.

Vs. Outras L2s: Rollups tradicionais como Arbitrum e Optimism priorizam a descentralização em detrimento da velocidade bruta. Eles estão buscando provas de fraude de Estágio 1 e Estágio 2, enquanto a MegaETH está otimizando para um ponto diferente na curva de trade-off.

Vs. Monad: Ambos os projetos visam a execução EVM de alto desempenho, mas a Monad está construindo uma L1 com seu próprio consenso, enquanto a MegaETH herda a segurança do Ethereum. A Monad foi lançada com $ 255 milhões em TVL no final de 2025, demonstrando apetite por cadeias EVM de alto desempenho.

Quem Deve se Interessar?

A arquitetura da MegaETH faz mais sentido para casos de uso específicos:

Jogos em tempo real: A latência de 10 ms permite um estado de jogo on-chain que parece instantâneo. O foco em jogos no teste de estresse não foi acidental — esse é o mercado-alvo.

Trading de alta frequência: Tempos de bloco sub-milissegundos poderiam permitir correspondência de ordens que rivaliza com exchanges centralizadas. A Hyperliquid provou o apetite pelo trading on-chain de alto desempenho.

Aplicações de consumo: Apps que precisam de uma responsividade semelhante à Web2 — feeds sociais, mídia interativa, leilões em tempo real — poderiam finalmente oferecer experiências fluidas sem concessões off-chain.

A arquitetura faz menos sentido para aplicações onde a descentralização é primordial: infraestrutura financeira que exige resistência à censura, protocolos que lidam com grandes transferências de valor onde as suposições de confiança importam, ou qualquer aplicação onde os usuários precisem de garantias fortes sobre o comportamento do sequenciador.

O Caminho Pela Frente

A mainnet pública da MegaETH será lançada em 9 de fevereiro de 2026, passando do teste de estresse para a produção. O sucesso do projeto dependerá de vários fatores:

Adoção por desenvolvedores: A MegaETH conseguirá atrair desenvolvedores para construir aplicações que aproveitem suas características únicas de desempenho? Estúdios de jogos e desenvolvedores de apps de consumo são os alvos óbvios.

Histórico de segurança: A centralização do sequenciador é um risco conhecido. Qualquer incidente — seja falha técnica, censura ou comportamento malicioso — prejudicaria a confiança em toda a arquitetura.

Sustentabilidade econômica: O modelo de subsídio USDm é elegante no papel, mas depende de TVL de stablecoin suficiente para gerar rendimento significativo. Se a adoção estagnar, a estrutura de taxas torna-se insustentável.

Clareza regulatória: Sequenciadores centralizados levantam questões sobre responsabilidade e controle que as redes descentralizadas evitam. Como os reguladores tratarão L2s de operador único permanece incerto.

O Veredito

A MegaETH representa a aposta mais agressiva até agora na proposição de que o desempenho importa mais do que a descentralização para certos casos de uso de blockchain. O projeto não está tentando ser o Ethereum — está tentando ser a via rápida que falta ao Ethereum.

Os resultados do teste de estresse são genuinamente impressionantes. Se a MegaETH conseguir entregar 35.000 TPS com 10 ms de latência em produção, será a cadeia compatível com EVM mais rápida por uma margem significativa. A economia da USDm é inteligente, a formação da equipe no MIT e Stanford é sólida, e o apoio de Vitalik adiciona legitimidade.

Mas o trade-off da centralização é real. Em um mundo onde vimos sistemas centralizados falharem — FTX, Celsius e inúmeros outros — confiar em um único sequenciador exige fé nos operadores e no sistema de prova de fraude. O modelo de segurança da MegaETH é sólido em teoria, mas não foi testado em batalha contra adversários determinados.

A questão não é se a MegaETH pode cumprir suas promessas de desempenho. O teste de estresse sugere que sim. A questão é se o mercado quer uma blockchain que seja realmente rápida, mas significativamente centralizada, ou se a visão original de sistemas descentralizados e trustless ainda importa.

Para aplicações onde a velocidade é tudo e os usuários confiam no operador, a MegaETH pode ser transformadora. Para tudo o mais, o veredito ainda não saiu.


O lançamento da mainnet da MegaETH em 9 de fevereiro será um dos eventos cripto mais acompanhados de 2026. Se ela cumprirá a promessa de "blockchain em tempo real" ou se tornará outro conto de advertência sobre o trade-off entre centralização e desempenho, o experimento em si avança nosso entendimento sobre o que é possível na fronteira do desempenho da blockchain.

ZKsync Airbender zkVM

· 11 min de leitura
Dora Noda
Software Engineer

E se a prova de um bloco Ethereum levasse 35 segundos em vez de exigir um armazém de GPUs? Isso não é uma hipótese — é o que o Airbender da ZKsync está entregando hoje.

Na corrida para tornar as provas de conhecimento zero práticas para a infraestrutura de blockchain convencional, um novo benchmark surgiu. O Airbender, o zkVM RISC-V de código aberto da ZKsync, alcança 21,8 milhões de ciclos por segundo em uma única GPU H100 — mais de 6x mais rápido do que os sistemas concorrentes. Ele pode provar blocos Ethereum em menos de 35 segundos usando hardware que custa uma fração do que os concorrentes exigem.

Upgrade Sei Giga: De 10.000 para 200.000 TPS à medida que a Sei Abandona a Cosmos para se tornar uma Chain Apenas-EVM

· 8 min de leitura
Dora Noda
Software Engineer

Quando a Sei foi lançada em 2023 , posicionou-se como a chain Cosmos mais rápida com 20.000 TPS teóricos . Dois anos depois , a rede está a fazer a sua aposta mais agressiva : Giga , uma atualização que visa 200.000 TPS com finalidade inferior a 400 ms — e uma decisão controversa de abandonar totalmente a Cosmos em favor de se tornar uma chain apenas EVM .

O timing é importante . A Monad promete 10.000 TPS com a sua EVM paralela a ser lançada em 2025 . A MegaETH reivindica uma capacidade superior a 100.000 TPS . A Sei não está apenas a atualizar-se — está a correr para definir o que " rápido " significa para blockchains compatíveis com EVM antes que os concorrentes estabeleçam o benchmark .

O que a Giga Realmente Altera

A Sei Giga representa uma reconstrução do zero da arquitetura central da rede , agendada para o primeiro trimestre de 2026 . Os números contam a história da ambição :

Metas de Desempenho :

  • 200.000 transações por segundo ( acima das ~ 5.000 - 10.000 atuais )
  • Finalidade inferior a 400 milissegundos ( abaixo dos ~ 500 ms )
  • Eficiência de execução 40x superior em comparação com clientes EVM padrão

Mudanças Arquiteturais :

Consenso de Múltiplos Proponentes ( Autobahn ) : O consenso tradicional de líder único cria gargalos . A Giga introduz o Autobahn , onde múltiplos validadores propõem blocos simultaneamente em diferentes shards . Pense nisso como autoestradas paralelas em vez de uma estrada única .

Cliente EVM Personalizado : A Sei substituiu a EVM padrão baseada em Go por um cliente personalizado que separa a gestão de estado da execução . Este desacoplamento permite a otimização independente de cada componente — semelhante a como as bases de dados separam os motores de armazenamento do processamento de consultas .

Execução Paralelizada : Enquanto outras chains executam transações sequencialmente , a Giga processa transações não conflitantes simultaneamente . O motor de execução identifica quais transações tocam estados separados e executa-as em paralelo .

Design de MEV Limitado ( Bounded MEV ) : Em vez de combater o MEV , a Sei implementa o MEV " limitado " onde os validadores podem extrair valor apenas dentro de parâmetros definidos , criando uma ordenação de transações previsível .

A Saída Controversa da Cosmos : SIP-3

Talvez mais significativo do que a atualização de desempenho seja a SIP-3 — a Proposta de Melhoria da Sei para descontinuar totalmente o suporte a CosmWasm e IBC até meados de 2026 .

O que a SIP-3 Propõe :

  • Remover o runtime CosmWasm ( contratos inteligentes baseados em Rust )
  • Descontinuar o suporte ao protocolo Inter-Blockchain Communication ( IBC )
  • Transição da Sei para uma chain puramente EVM
  • Exigir que as dApps CosmWasm existentes migrem para EVM

A Justificativa :

A equipa da Sei argumenta que manter duas máquinas virtuais ( EVM e CosmWasm ) cria uma sobrecarga de engenharia que abranda o desenvolvimento . A EVM domina a atenção dos desenvolvedores — mais de 70 % dos desenvolvedores de smart contracts trabalham principalmente com Solidity . Ao tornar-se apenas EVM , a Sei pode :

  1. Focar recursos de engenharia num único ambiente de execução
  2. Atrair mais desenvolvedores do ecossistema EVM alargado
  3. Simplificar a base de código e reduzir a superfície de ataque
  4. Maximizar as otimizações de execução paralela

A Crítica :

Nem todos concordam . Os participantes do ecossistema Cosmos argumentam que a conetividade IBC fornece uma composabilidade cross-chain valiosa . Os desenvolvedores CosmWasm enfrentam custos de migração forçada . Alguns críticos sugerem que a Sei está a abandonar o seu posicionamento diferenciado em favor de competir diretamente com as L2 de Ethereum .

O contra-argumento : A Sei nunca alcançou uma adoção significativa de CosmWasm . A maior parte do TVL e da atividade já corre em EVM . A SIP-3 formaliza a realidade em vez de a alterar .

Contexto de Desempenho : A Corrida das EVM Paralelas

A Sei Giga é lançada num cenário cada vez mais competitivo de EVM paralelas :

ChainMeta de TPSStatusArquitetura
Sei Giga200.000T1 2026Consenso multi-proponente
MegaETH100.000+TestnetProcessamento em tempo real
Monad10.0002025EVM paralela
Solana65.000LiveProof of History

Como a Sei se Compara :

vs. Monad : A EVM paralela da Monad visa 10.000 TPS com finalidade de 1 segundo . A Sei reivindica um rendimento 20x superior com finalidade mais rápida . No entanto , a Monad lança primeiro , e o desempenho no mundo real muitas vezes difere dos números da testnet .

vs. MegaETH : A MegaETH enfatiza a blockchain em " tempo real " com um potencial de mais de 100.000 TPS . Ambas as chains visam níveis de desempenho semelhantes , mas a MegaETH mantém a equivalência EVM , enquanto o cliente personalizado da Sei pode ter diferenças subtis de compatibilidade .

vs. Solana : Os 65.000 TPS da Solana com finalidade de 400 ms representam o benchmark atual de alto desempenho . A meta de sub-400 ms da Sei igualaria a velocidade da Solana , oferecendo ao mesmo tempo a compatibilidade EVM que a Solana não possui nativamente .

A avaliação honesta : Todos estes números são resultados teóricos ou de testnet . O desempenho no mundo real depende dos padrões reais de utilização , das condições da rede e da atividade económica .

Ecossistema Atual : TVL e Adoção

O ecossistema DeFi da Sei cresceu significativamente , embora não sem volatilidade :

Trajetória do TVL :

  • Pico : $ 688 milhões ( início de 2025 )
  • Atual : ~ $ 455 - 500 milhões
  • Crescimento YoY : Aproximadamente 3x desde o final de 2024

Protocolos Líderes :

  1. Yei Finance : Protocolo de empréstimo que domina o DeFi da Sei
  2. DragonSwap : DEX principal com volume significativo
  3. Silo Finance : Integração de empréstimos cross-chain
  4. Vários NFT / Gaming : Emergentes , mas menores

Métricas de Utilizador :

  • Endereços ativos diários : ~ 50.000 - 100.000 ( variável )
  • Volume de transações : Em crescimento , mas atrás de Solana / Base

O ecossistema permanece menor do que as L1 estabelecidas , mas mostra um crescimento consistente . A questão é se as melhorias de desempenho da Giga se traduzem em aumentos proporcionais de adoção .

Implicações para Desenvolvedores

Para os desenvolvedores que consideram a Sei, o Giga e a SIP-3 criam tanto oportunidades quanto desafios:

Oportunidades:

  • Desenvolvimento Solidity padrão com desempenho extremo
  • Custos de gas mais baixos devido a melhorias de eficiência
  • Vantagem de pioneirismo no nicho de EVM de alto desempenho
  • Ecossistema em crescimento com menos concorrência do que a rede principal da Ethereum

Desafios:

  • O cliente EVM personalizado pode apresentar problemas sutis de compatibilidade
  • Base de usuários menor do que cadeias estabelecidas
  • O cronograma de descontinuação do CosmWasm cria pressão de migração
  • Ferramental do ecossistema ainda em maturação

Caminho de Migração para Desenvolvedores CosmWasm:

Se a SIP-3 for aprovada, os desenvolvedores CosmWasm terão até meados de 2026 para:

  1. Portar contratos para Solidity / Vyper
  2. Migrar para outra cadeia Cosmos
  3. Aceitar a descontinuação e encerrar as atividades

A Sei não anunciou assistência de migração específica, embora as discussões na comunidade sugiram potenciais subsídios ou suporte técnico.

Considerações de Investimento

Cenário Otimista (Bull Case):

  • Pioneirismo no espaço de EVM com 200.000 TPS
  • Roteiro técnico claro com entrega no 1º trimestre de 2026
  • Foco exclusivo em EVM atrai um grupo maior de desenvolvedores
  • Fosso de desempenho contra concorrentes mais lentos

Cenário Pessimista (Bear Case):

  • O TPS teórico raramente corresponde à realidade da produção
  • Concorrentes (Monad, MegaETH) sendo lançados com impulso
  • A descontinuação do CosmWasm afasta desenvolvedores existentes
  • O crescimento do TVL não acompanhou as alegações de desempenho

Métricas Principais a Acompanhar:

  • TPS e finalidade da testnet em condições do mundo real
  • Atividade dos desenvolvedores após o anúncio da SIP-3
  • Trajetória do TVL até o lançamento do Giga
  • Volume de pontes cross-chain e integrações

O Que Acontece a Seguir

1º Trimestre de 2026: Lançamento do Giga

  • Ativação do consenso de múltiplos propositores
  • A meta de 200.000 TPS entra em vigor
  • Implantação do cliente EVM personalizado

Meados de 2026: Implementação da SIP-3 (se aprovada)

  • Prazo para descontinuação do CosmWasm
  • Remoção do suporte a IBC
  • Transição completa para apenas EVM

Perguntas-Chave:

  1. O TPS no mundo real corresponderá à meta de 200.000?
  2. Quantos projetos CosmWasm migrarão versus sairão?
  3. A Sei consegue atrair grandes protocolos DeFi da Ethereum?
  4. O desempenho se traduz em adoção pelos usuários?

A Visão Geral

A atualização Giga da Sei representa uma aposta de que o desempenho bruto será o diferencial em um cenário de blockchain cada vez mais lotado. Ao abandonar a Cosmos e tornar-se exclusivamente EVM, a Sei está escolhendo o foco em vez da opcionalidade — apostando que a dominância da EVM torna outros ambientes de execução redundantes.

Se essa aposta valerá a pena, depende da execução (com o perdão do trocadilho). A indústria blockchain está repleta de projetos que prometeram desempenho revolucionário e entregaram melhorias moderadas. O cronograma da Sei para o 1º trimestre de 2026 fornecerá dados concretos.

Para desenvolvedores e investidores, o Giga cria um ponto de decisão claro: acreditar que a Sei pode entregar 200.000 TPS e posicionar-se adequadamente, ou esperar por provas em produção antes de comprometer recursos.

A corrida da EVM paralela está oficialmente em andamento. A Sei acaba de anunciar sua velocidade de entrada.


BlockEden.xyz fornece infraestrutura RPC para blockchains de alto desempenho, incluindo a Sei Network. À medida que as cadeias de execução paralela ampliam os limites de processamento, uma infraestrutura de nós confiável torna-se crítica para desenvolvedores que criam aplicações sensíveis à latência. Explore nosso marketplace de APIs para acesso à Sei e outras blockchains.