Saltar al contenido principal

61 publicaciones etiquetados con "Escalabilidad"

Soluciones de escalado blockchain y rendimiento

Ver Todas las Etiquetas

La bomba de Vitalik sobre L2: Por qué la hoja de ruta centrada en rollups de Ethereum 'ya no tiene sentido'

· 14 min de lectura
Dora Noda
Software Engineer

"Ustedes no están escalando a Ethereum."

Con esas seis palabras, Vitalik Buterin entregó una dosis de realidad que envió ondas de choque a través del ecosistema de Ethereum. La declaración, dirigida a las cadenas de alto rendimiento que utilizan puentes multifirma (multisig), provocó una respuesta inmediata: ENS Labs canceló su rollup Namechain planeado solo unos días después, citando el rendimiento dramáticamente mejorado de la capa base de Ethereum.

Después de años de posicionar los rollups de Capa 2 como la principal solución de escalabilidad de Ethereum, el giro del cofundador en febrero de 2026 representa uno de los cambios estratégicos más significativos en la historia de blockchain. La pregunta ahora es si miles de proyectos L2 existentes pueden adaptarse—o volverse obsoletos.

La hoja de ruta centrada en rollups: ¿Qué ha cambiado?

Durante años, la estrategia oficial de escalado de Ethereum se centró en los rollups. La lógica era simple: la L1 de Ethereum se centraría en la seguridad y la descentralización, mientras que las redes de Capa 2 manejarían el rendimiento de las transacciones agrupando las ejecuciones fuera de la cadena y publicando los datos comprimidos de vuelta en la red principal (mainnet).

Esta hoja de ruta tenía sentido cuando la L1 de Ethereum luchaba con 15-30 TPS y las tarifas de gas superaban habitualmente los $ 50 por transacción durante los picos de congestión. Proyectos como Arbitrum, Optimism y zkSync recaudaron miles de millones para construir una infraestructura de rollups que eventualmente escalaría Ethereum a millones de transacciones por segundo.

Pero dos desarrollos críticos socavaron esta narrativa.

Primero, la descentralización de las L2 progresó "mucho más lento" de lo esperado, según Buterin. La mayoría de los rollups todavía dependen de secuenciadores centralizados, claves de actualización multifirma y operadores de confianza. El viaje hacia la descentralización de Etapa 2—donde los rollups pueden operar sin "ruedas de entrenamiento"—ha resultado ser extraordinariamente difícil. Solo un puñado de proyectos ha alcanzado la Etapa 1, y ninguno ha llegado a la Etapa 2.

Segundo, la propia L1 de Ethereum escaló drásticamente. La actualización Fusaka a principios de 2026 trajo reducciones de tarifas del 99 % para muchos casos de uso. Los límites de gas aumentaron de 60 millones a 200 millones con la próxima bifurcación (fork) Glamsterdam. La validación de pruebas de conocimiento cero (zero-knowledge proofs) tiene como objetivo 10,000 TPS en la L1 para finales de 2026.

De repente, la premisa que impulsó miles de millones en inversiones en L2—que la L1 de Ethereum no podía escalar—parecía cuestionable.

ENS Namechain: La primera víctima importante

La decisión de Ethereum Name Service de descartar su rollup L2 Namechain se convirtió en la validación de más alto perfil del pensamiento revisado de Buterin.

ENS había estado desarrollando Namechain durante años como un rollup especializado para manejar registros y renovaciones de nombres de manera más económica de lo que permitía la red principal. Con tarifas de gas de $ 5 por registro durante el pico de congestión de 2024, el caso económico era convincente.

Para febrero de 2026, ese cálculo cambió por completo. Las tarifas de registro de ENS cayeron por debajo de los 5 centavos en la L1 de Ethereum—una reducción del 99 %. La complejidad de la infraestructura, los costos de mantenimiento continuo y la fragmentación de usuarios al ejecutar una L2 separada ya no justificaban los ahorros de costos mínimos.

ENS Labs no abandonó su actualización ENSv2, que representa una reescritura desde cero de los contratos de ENS con usabilidad y herramientas de desarrollo mejoradas. En su lugar, el equipo desplegó ENSv2 directamente en la red principal de Ethereum, evitando la sobrecarga de coordinación de puentear (bridging) entre L1 y L2.

La cancelación señala un patrón más amplio: si la L1 de Ethereum continúa escalando de manera efectiva, los rollups de casos de uso especializados pierden su justificación económica. ¿Por qué mantener una infraestructura separada cuando la capa base es suficiente?

El problema de los puentes multifirma de 10,000 TPS

La crítica de Buterin a los puentes multifirma llega al corazón de lo que realmente significa "escalar Ethereum".

Su declaración—"Si creas una EVM de 10,000 TPS donde su conexión a la L1 está mediada por un puente multifirma, entonces no estás escalando Ethereum"—traza una línea clara entre el escalado genuino de Ethereum y las cadenas independientes que simplemente afirman una asociación.

La distinción importa enormemente para la seguridad y la descentralización.

Un puente multifirma depende de un pequeño grupo de operadores para validar las transacciones entre cadenas. Los usuarios confían en que este grupo no coludirá, no será hackeado y no se verá comprometido por los reguladores. La historia muestra que esta confianza frecuentemente está mal depositada: los hackeos de puentes han resultado en pérdidas de miles de millones, con el exploit del Ronin Bridge costando por sí solo más de $ 600 millones.

El verdadero escalado de Ethereum hereda las garantías de seguridad de Ethereum. Un rollup implementado correctamente utiliza pruebas de fraude (fraud proofs) o pruebas de validez (validity proofs) para asegurar que cualquier transición de estado inválida pueda ser desafiada y revertida, con disputas resueltas por los validadores de la L1 de Ethereum. Los usuarios no necesitan confiar en una multifirma—confían en el mecanismo de consenso de Ethereum.

El problema es que alcanzar este nivel de seguridad es técnicamente complejo y costoso. Muchos proyectos que se hacen llamar "L2 de Ethereum" toman atajos:

  • Secuenciadores centralizados: Una sola entidad ordena las transacciones, creando riesgo de censura y puntos únicos de falla.
  • Claves de actualización multifirma: Un pequeño grupo puede cambiar las reglas del protocolo sin el consentimiento de la comunidad, robando potencialmente fondos o cambiando la economía.
  • Sin garantías de salida: Si el secuenciador se desconecta o las claves de actualización se ven comprometidas, es posible que los usuarios no tengan una forma confiable de retirar activos.

Estas no son preocupaciones teóricas. La investigación muestra que la mayoría de las redes L2 siguen siendo mucho más centralizadas que la L1 de Ethereum, con la descentralización tratada como un objetivo a largo plazo en lugar de una prioridad inmediata.

El planteamiento de Buterin fuerza una pregunta incómoda: si una L2 no hereda la seguridad de Ethereum, ¿realmente está "escalando Ethereum" o es simplemente otra cadena alternativa con la marca Ethereum?

El Nuevo Marco de Trabajo de las L2: Valor Más Allá del Escalamiento

En lugar de abandonar por completo las L2, Buterin propuso verlas como un espectro de redes con diferentes niveles de conexión con Ethereum, cada una ofreciendo distintos equilibrios (trade-offs).

La visión crítica es que las L2 deben proporcionar valor más allá del escalamiento básico si quieren seguir siendo relevantes a medida que la L1 de Ethereum mejora:

Características de Privacidad

Cadenas como Aztec y Railgun ofrecen privacidad programable utilizando pruebas de conocimiento cero. Estas capacidades no pueden existir fácilmente en una L1 pública transparente, lo que crea una diferenciación genuina.

Diseño Específico para Aplicaciones

Los rollups enfocados en juegos como Ronin o IMX se optimizan para transacciones de alta frecuencia y bajo valor con requisitos de finalidad diferentes a los de las aplicaciones financieras. Esta especialización tiene sentido incluso si la L1 escala adecuadamente para la mayoría de los casos de uso.

Confirmación Ultra-Rápida

Algunas aplicaciones necesitan una finalidad de sub-segundo que el tiempo de bloque de 12 segundos de la L1 no puede proporcionar. Las L2 con consenso optimizado pueden servir a este nicho.

Casos de Uso No Financieros

La identidad, los grafos sociales y la disponibilidad de datos tienen requisitos diferentes a los de DeFi. Las L2 especializadas pueden optimizarse para estas cargas de trabajo.

Buterin enfatizó que las L2 deben "ser claras con los usuarios sobre qué garantías brindan". Los días de afirmaciones vagas sobre "escalar Ethereum" sin especificar modelos de seguridad, estado de descentralización y supuestos de confianza han terminado.

Respuestas del Ecosistema: ¿Adaptación o Negación?

La reacción a los comentarios de Buterin revela un ecosistema fracturado que lucha con una crisis de identidad.

Polygon anunció un pivote estratégico para enfocarse principalmente en los pagos, reconociendo explícitamente que el escalamiento de propósito general está cada vez más mercantilizado. El equipo reconoció que la diferenciación requiere especialización.

Marc Boiron (Offchain Labs) argumentó que los comentarios de Buterin se trataban "menos de abandonar los rollups que de elevar las expectativas para ellos". Este enfoque preserva la narrativa de los rollups al tiempo que reconoce la necesidad de estándares más altos.

Solana advocates aprovecharon la oportunidad para argumentar que la arquitectura monolítica de Solana evita por completo la complejidad de las L2, señalando que la fragmentación multicadena de Ethereum crea una UX peor que una sola L1 de alto rendimiento.

L2 developers generalmente defendieron su relevancia enfatizando características más allá del rendimiento bruto — privacidad, personalización, economía especializada — mientras reconocían silenciosamente que los proyectos de escalamiento puro son cada vez más difíciles de justificar.

La tendencia más amplia es clara: el panorama de las L2 se bifurcará en dos categorías:

  1. Rollups de commodities que compiten principalmente en tarifas y rendimiento, probablemente consolidándose en torno a unos pocos actores dominantes (Base, Arbitrum, Optimism).

  2. L2 especializadas con modelos de ejecución fundamentalmente diferentes, que ofrecen propuestas de valor únicas que la L1 no puede replicar.

Las cadenas que no caigan en ninguna categoría enfrentan un futuro incierto.

Qué Deben Hacer las L2 para Sobrevivir

Para los proyectos de Capa 2 existentes, el pivote de Buterin crea tanto presión existencial como claridad estratégica. La supervivencia requiere una acción decisiva en varios frentes:

1. Acelerar la Descentralización

La narrativa de "nos descentralizaremos eventualmente" ya no es aceptable. Los proyectos deben publicar cronogramas concretos para:

  • Redes de secuenciadores sin permisos (o pruebas de autoridad creíbles)
  • Eliminación o bloqueo temporal (time-lock) de las llaves de actualización
  • Implementación de sistemas a prueba de fallos con ventanas de salida garantizadas

Las L2 que permanecen centralizadas mientras reclaman la seguridad de Ethereum son particularmente vulnerables al escrutinio regulatorio y al daño reputacional.

2. Clarificar la Propuesta de Valor

Si el principal punto de venta de una L2 es "más barato que Ethereum", necesita un nuevo enfoque. La diferenciación sostenible requiere:

  • Características especializadas: Privacidad, ejecución de VM personalizada, modelos de estado novedosos
  • Claridad del público objetivo: ¿Juegos? ¿Pagos? ¿Social? ¿DeFi?
  • Divulgaciones honestas de seguridad: ¿Qué supuestos de confianza existen? ¿Qué vectores de ataque permanecen?

El marketing de vaporware no funcionará cuando los usuarios pueden comparar métricas reales de descentralización a través de herramientas como L2Beat.

3. Resolver el Problema de Seguridad de los Puentes

Los puentes multifirma (multisig) son el eslabón más débil en la seguridad de las L2. Los proyectos deben:

  • Implementar pruebas de fraude o pruebas de validez para puentes sin confianza (trustless)
  • Agregar retrasos de tiempo y capas de consenso social para intervenciones de emergencia
  • Proporcionar mecanismos de salida garantizados que funcionen incluso si los secuenciadores fallan

La seguridad de los puentes no puede ser algo secundario cuando hay miles de millones en fondos de usuarios en juego.

4. Enfocarse en la Interoperabilidad

La fragmentación es el mayor problema de UX de Ethereum. Las L2 deberían:

  • Soportar estándares de mensajería cross-chain (LayerZero, Wormhole, Chainlink CCIP)
  • Habilitar el intercambio de liquidez sin fricciones entre cadenas
  • Construir capas de abstracción que oculten la complejidad a los usuarios finales

Las L2 ganadoras se sentirán como extensiones de Ethereum, no como islas aisladas.

5. Aceptar la Consolidación

Realísticamente, el mercado no puede soportar más de 100 L2 viables. Muchas necesitarán fusionarse, pivotar o cerrar con elegancia. Cuanto antes los equipos reconozcan esto, mejor podrán posicionarse para asociaciones estratégicas o adquisiciones de talento en lugar de caer en una lenta irrelevancia.

La hoja de ruta de escalamiento de Ethereum L1

Mientras las L2 enfrentan una crisis de identidad, Ethereum L1 está ejecutando un agresivo plan de escalamiento que refuerza los argumentos de Buterin.

Fork Glamsterdam (mediados de 2026): Introduce las Listas de Acceso a Bloques (BAL), permitiendo un procesamiento paralelo perfecto al precargar los datos de las transacciones en la memoria. Los límites de gas aumentan de 60 millones a 200 millones, mejorando drásticamente el rendimiento para contratos inteligentes complejos.

Validación de pruebas de conocimiento cero (Zero-Knowledge): El despliegue de la Fase 1 en 2026 apunta a que el 10 % de los validadores realicen la transición a la validación ZK, donde los validadores verifican pruebas matemáticas que confirman la precisión del bloque en lugar de volver a ejecutar todas las transacciones. Esto permite que Ethereum escale hacia los 10,000 TPS manteniendo la seguridad y la descentralización.

Separación Proponente-Constructor (ePBS): Integra la competencia de constructores directamente en la capa de consenso de Ethereum, reduciendo la extracción de MEV y mejorando la resistencia a la censura.

Estas actualizaciones no eliminan la necesidad de las L2, pero sí eliminan la suposición de que el escalamiento de L1 es imposible o poco práctico. Si Ethereum L1 alcanza los 10,000 TPS con ejecución paralela y validación ZK, el estándar para la diferenciación de las L2 se eleva drásticamente.

Perspectiva a largo plazo: ¿Qué resultará ganador?

La estrategia de escalamiento de Ethereum está entrando en una nueva fase en la que el desarrollo de L1 y L2 debe verse como complementario en lugar de competitivo.

La hoja de ruta centrada en los rollups asumía que la L1 seguiría siendo lenta y costosa indefinidamente. Esa suposición ahora es obsoleta. La L1 escalará — quizás no a millones de TPS, pero lo suficiente para manejar la mayoría de los casos de uso convencionales con tarifas razonables.

Las L2 que reconozcan esta realidad y giren hacia una diferenciación genuina podrán prosperar. Aquellas que sigan promocionándose como "más baratas y rápidas que Ethereum" tendrán dificultades a medida que la L1 cierre la brecha de rendimiento.

La ironía última es que los comentarios de Buterin pueden fortalecer la posición a largo plazo de Ethereum. Al obligar a las L2 a elevar sus estándares — descentralización real, divulgaciones de seguridad honestas, propuestas de valor especializadas — Ethereum elimina los proyectos más débiles mientras eleva la calidad de todo el ecosistema.

Los usuarios se benefician de opciones más claras: usar Ethereum L1 para máxima seguridad y descentralización, o elegir L2 especializadas para funciones específicas con compensaciones declaradas explícitamente. El punto medio de "estamos escalando Ethereum un poco con un puente multifirma" desaparece.

Para los proyectos que construyen el futuro de la infraestructura blockchain, el mensaje es claro: el escalamiento genérico está resuelto. Si tu L2 no ofrece algo que Ethereum L1 no pueda, estás construyendo sobre tiempo prestado.

BlockEden.xyz proporciona infraestructura de nivel empresarial para Ethereum L1 y las principales redes de Capa 2, ofreciendo a los desarrolladores las herramientas para construir en todo el ecosistema de Ethereum. Explore nuestros servicios de API para una conectividad blockchain escalable y confiable.


Fuentes:

SONAMI alcanza la Etapa 10: ¿Puede la estrategia de Capa 2 de Solana desafiar el dominio de las L2 de Ethereum?

· 12 min de lectura
Dora Noda
Software Engineer

Solana acaba de cruzar un umbral que la mayoría consideraba imposible: una cadena de bloques construida para la velocidad pura ahora está sumando capas adicionales de entornos de ejecución. SONAMI, que se autodenomina la primera Capa 2 de grado de producción de Solana, anunció su hito de la Etapa 10 a principios de febrero de 2026, lo que marca un cambio fundamental en la forma en que la cadena de bloques de alto rendimiento aborda la escalabilidad.

Durante años, la narrativa fue sencilla: Ethereum necesita Capas 2 porque su capa base no puede escalar. Solana no necesita L2 porque ya procesa miles de transacciones por segundo. Ahora, con SONAMI alcanzando la preparación para producción y proyectos competidores como SOON y Eclipse ganando tracción, Solana está adoptando silenciosamente el manual modular que convirtió al ecosistema de rollups de Ethereum en un gigante de 33 mil millones de dólares.

La pregunta no es si Solana necesita Capas 2. Es si la narrativa de las L2 de Solana puede competir con el dominio arraigado de Base, Arbitrum y Optimism — y qué significa cuando cada cadena de bloques converge en la misma solución de escalado.

Por qué Solana está construyendo Capas 2 (y por qué ahora)

El objetivo de diseño teórico de Solana es de 65,000 transacciones por segundo. En la práctica, la red suele operar en los bajos miles, experimentando congestiones ocasionales durante acuñaciones de NFT o frenesíes de memecoins. Los críticos señalan los cortes de red y la degradación del rendimiento bajo carga máxima como evidencia de que el alto rendimiento por sí solo no es suficiente.

El lanzamiento de la Etapa 10 de SONAMI aborda estos puntos críticos de frente. Según los anuncios oficiales, el hito se centra en tres mejoras principales:

  • Fortalecimiento de las capacidades de ejecución bajo demanda máxima
  • Expansión de las opciones de despliegue modular para entornos específicos de aplicaciones
  • Mejora de la eficiencia de la red para reducir la congestión de la capa base

Esta es la estrategia de L2 de Ethereum, adaptada para la arquitectura de Solana. Mientras que Ethereum delega la ejecución de transacciones a rollups como Arbitrum y Base, Solana ahora está creando capas de ejecución especializadas que manejan el desbordamiento y la lógica específica de las aplicaciones mientras liquidan en la cadena principal.

El momento es estratégico. El ecosistema de Capa 2 de Ethereum procesaba casi el 90% de todas las transacciones de L2 para finales de 2025, con Base capturando por sí solo más del 60% de la cuota de mercado. Mientras tanto, el capital institucional fluye hacia las L2 de Ethereum: Base posee 10 mil millones de dólares en TVL, Arbitrum comanda 16.63 mil millones, y el ecosistema combinado de L2 representa una parte significativa del valor total asegurado de Ethereum.

El impulso de las Capas 2 de Solana no se trata de admitir un fracaso. Se trata de competir por la misma atención de instituciones y desarrolladores que capturó la hoja de ruta modular de Ethereum.

SONAMI vs. los gigantes de las L2 de Ethereum: Una lucha desigual

SONAMI entra en un mercado donde la consolidación ya ha ocurrido. A principios de 2026, la mayoría de las L2 de Ethereum fuera de las tres principales — Base, Arbitrum, Optimism — son efectivamente "cadenas zombis", con un uso que ha caído un 61% y un TVL que se concentra abrumadoramente en ecosistemas establecidos.

Esto es a lo que se enfrenta SONAMI:

La ventaja de Coinbase con Base: Base se beneficia de los 110 millones de usuarios verificados de Coinbase, rampas de entrada fiat fluidas y confianza institucional. A finales de 2025, Base dominaba el 46.58% del TVL de DeFi en Capa 2 y el 60% del volumen de transacciones. Ninguna L2 de Solana tiene una distribución comparable.

El foso DeFi de Arbitrum: Arbitrum lidera todas las L2 con 16.63 mil millones de dólares en TVL, construido sobre años de protocolos DeFi establecidos, fondos de liquidez e integraciones institucionales. El TVL total de DeFi de Solana es de 11.23 mil millones de dólares en todo su ecosistema.

Los efectos de red de gobernanza de Optimism: La arquitectura Superchain de Optimism está atrayendo rollups empresariales de Coinbase, Kraken y Uniswap. SONAMI no tiene un marco de gobernanza o ecosistema de asociaciones comparable.

La comparación arquitectónica es igualmente cruda. Las L2 de Ethereum como Arbitrum alcanzan teóricamente los 40,000 TPS, con confirmaciones de transacciones que se sienten instantáneas debido a las tarifas bajas y la rápida finalidad. La arquitectura de SONAMI promete mejoras de rendimiento similares, pero está construyendo sobre una capa base que ya ofrece confirmaciones de baja latencia.

La propuesta de valor es confusa. Las L2 de Ethereum resuelven un problema real: la capa base de 15-30 TPS de Ethereum es demasiado lenta para aplicaciones de consumo. La capa base de Solana ya maneja la mayoría de los casos de uso cómodamente. ¿Qué problema resuelve una L2 de Solana que Firedancer — el cliente validador de próxima generación de Solana que se espera que aumente significativamente el rendimiento — no pueda abordar?

La expansión de SVM: Un tipo diferente de juego de L2

La estrategia de Capa 2 de Solana podría no tratarse de escalar la propia Solana. Podría tratarse de escalar la Máquina Virtual de Solana (SVM) como una pila tecnológica independiente de Solana como cadena de bloques.

Eclipse, la primera L2 de Ethereum impulsada por SVM, mantiene consistentemente más de 1,000 TPS sin picos de tarifas. SOON, un rollup optimista que mezcla SVM con el diseño modular de Ethereum, tiene como objetivo liquidar en Ethereum mientras ejecuta con el modelo de paralelización de Solana. Atlas promete tiempos de bloque de 50ms con una rápida merklización de estado. Yona liquida en Bitcoin mientras usa SVM para la ejecución.

Estas no son L2 de Solana en el sentido tradicional. Son rollups impulsados por SVM que liquidan en otras cadenas, ofreciendo un rendimiento al nivel de Solana con la liquidez de Ethereum o la seguridad de Bitcoin.

SONAMI encaja en esta narrativa como la "primera L2 de producción de Solana", pero el juego más amplio es exportar SVM a cada ecosistema de cadena de bloques importante. Si tiene éxito, Solana se convierte en la capa de ejecución preferida a través de múltiples capas de liquidación — un paralelo a cómo el dominio de EVM trascendió a la propia Ethereum.

El desafío es la fragmentación. El ecosistema L2 de Ethereum sufre de división de liquidez entre docenas de rollups. Los usuarios en Arbitrum no pueden interactuar sin problemas con Base u Optimism sin puentes. La estrategia de L2 de Solana corre el mismo riesgo: SONAMI, SOON, Eclipse y otros compitiendo por liquidez, desarrolladores y usuarios, sin la composibilidad que define la experiencia L1 de Solana.

Qué significa realmente la Etapa 10 (y qué no)

El anuncio de la Etapa 10 de SONAMI está cargado de visión, pero es escaso en detalles técnicos. Los comunicados de prensa enfatizan las "opciones de despliegue modular", el "fortalecimiento de las capacidades de ejecución" y la "eficiencia de la red bajo demanda máxima", pero carecen de métricas de rendimiento concretas o datos de la mainnet.

Esto es típico de los lanzamientos de L2 en etapas tempranas. Eclipse se reestructuró a finales de 2025, despidiendo al 65 % del personal y pasando de ser un proveedor de infraestructura a un estudio de aplicaciones interno. SOON recaudó 22 millones de dólares en una venta de NFT antes del lanzamiento de su mainnet, pero aún no ha demostrado un uso sostenido en producción. El ecosistema L2 de Solana es incipiente, especulativo y no ha sido probado.

Para contextualizar, el dominio de las L2 de Ethereum tardó años en consolidarse. Arbitrum lanzó su mainnet en agosto de 2021. Optimism entró en funcionamiento en diciembre de 2021. Base no se lanzó hasta agosto de 2023 y, sin embargo, superó a Arbitrum en volumen de transacciones en pocos meses gracias al poder de distribución de Coinbase. SONAMI está intentando competir en un mercado donde los efectos de red, la liquidez y las asociaciones institucionales ya han creado ganadores claros.

El hito de la Etapa 10 sugiere que SONAMI está avanzando en su hoja de ruta de desarrollo, pero sin métricas de TVL, volumen de transacciones o usuarios activos, es imposible evaluar su tracción real. La mayoría de los proyectos de L2 anuncian "lanzamientos de mainnet" o "hitos de testnet" que generan titulares sin generar uso real.

¿Puede tener éxito la narrativa de las L2 de Solana?

La respuesta depende de lo que signifique el "éxito". Si el éxito consiste en destronar a Base o Arbitrum, la respuesta es casi con seguridad un no. El ecosistema L2 de Ethereum se beneficia de la ventaja de ser el primero, del capital institucional y de la liquidez DeFi inigualable de Ethereum. Las L2 de Solana carecen de estas ventajas estructurales.

Si el éxito consiste en crear entornos de ejecución específicos para aplicaciones que reduzcan la congestión de la capa base manteniendo la composabilidad de Solana, la respuesta es un quizás. La capacidad de Solana para escalar horizontalmente a través de L2, conservando una L1 central rápida y composable, podría fortalecer su posición para aplicaciones descentralizadas de alta frecuencia y en tiempo real.

Si el éxito consiste en exportar la SVM a otros ecosistemas y establecer el entorno de ejecución de Solana como un estándar cross-chain, la respuesta es plausible pero no probada. Los rollups impulsados por SVM en Ethereum, Bitcoin y otras cadenas podrían impulsar la adopción, pero la fragmentación y la división de la liquidez siguen siendo problemas sin resolver.

El resultado más probable es una bifurcación. El ecosistema L2 de Ethereum seguirá dominando las DeFi institucionales, los activos tokenizados y los casos de uso empresarial. La capa base de Solana prosperará para la actividad minorista (retail), memecoins, juegos y transacciones constantes de bajo costo. Las L2 de Solana ocuparán un terreno intermedio: capas de ejecución especializadas para el desbordamiento, lógica específica de aplicaciones y despliegues de SVM cross-chain.

Este no es un escenario en el que el ganador se lo lleva todo. Es el reconocimiento de que diferentes estrategias de escalado sirven para diferentes casos de uso, y la tesis modular —ya sea en Ethereum o en Solana— se está convirtiendo en el manual de estrategia predeterminado para cada blockchain importante.

La convergencia silenciosa

Que Solana construya capas 2 se siente como una rendición ideológica. Durante años, la propuesta de Solana fue la simplicidad: una cadena rápida, sin fragmentación, sin puentes (bridging). La propuesta de Ethereum fue la modularidad: separar el consenso de la ejecución, dejar que las L2 se especialicen y aceptar las compensaciones de la composabilidad.

Ahora, ambos ecosistemas convergen en la misma solución. Ethereum está actualizando su capa base (Pectra, Fusaka) para admitir más L2. Solana está construyendo L2 para extender su capa base. Las diferencias arquitectónicas permanecen, pero la dirección estratégica es idéntica: descargar la ejecución a capas especializadas preservando la seguridad de la capa base.

La ironía es que, a medida que las blockchains se vuelven más parecidas, la competencia se intensifica. Ethereum tiene una ventaja de varios años, 33 000 millones de dólares en TVL en L2 y asociaciones institucionales. Solana tiene un rendimiento superior en su capa base, tarifas más bajas y un ecosistema centrado en el sector minorista. El hito de la Etapa 10 de SONAMI es un paso hacia la paridad, pero la paridad no es suficiente en un mercado dominado por los efectos de red.

La verdadera pregunta no es si Solana puede construir L2. Es si las L2 de Solana pueden atraer la liquidez, los desarrolladores y los usuarios necesarios para ser relevantes en un ecosistema donde la mayoría de las L2 ya están fallando.

BlockEden.xyz proporciona infraestructura RPC de grado empresarial para Solana y otras blockchains de alto rendimiento. Explore nuestro marketplace de APIs para construir sobre bases escalables optimizadas para la velocidad.

Fuentes

Coprocesadores ZK: La infraestructura que rompe la barrera de computación de la blockchain

· 17 min de lectura
Dora Noda
Software Engineer

Cuando Ethereum procesa transacciones, cada cálculo ocurre on-chain: verificable, seguro y extremadamente costoso. Esta limitación fundamental ha restringido lo que los desarrolladores pueden construir durante años. Pero una nueva clase de infraestructura está reescribiendo las reglas: los coprocesadores ZK están aportando computación ilimitada a las blockchains con recursos limitados sin sacrificar la seguridad trustless.

Para octubre de 2025, el coprocesador ZK de Brevis Network ya había generado 125 millones de pruebas de conocimiento cero, respaldado más de 2.8milmillonesenvalortotalbloqueadoyverificadomaˊsde2.8 mil millones en valor total bloqueado y verificado más de 1 mil millones en volumen de transacciones. Esta ya no es una tecnología experimental; es una infraestructura de producción que permite aplicaciones que antes eran imposibles on-chain.

El cuello de botella de computación que definió la blockchain

Las blockchains enfrentan un trilema inherente: pueden ser descentralizadas, seguras o escalables, pero lograr las tres simultáneamente ha resultado difícil. Los contratos inteligentes en Ethereum pagan gas por cada paso computacional, lo que hace que las operaciones complejas sean prohibitivamente costosas. ¿Desea analizar el historial completo de transacciones de un usuario para determinar su nivel de lealtad? ¿Calcular recompensas de juego personalizadas basadas en cientos de acciones on-chain? ¿Ejecutar inferencia de aprendizaje automático para modelos de riesgo DeFi?

Los contratos inteligentes tradicionales no pueden hacer esto de manera económica. Leer datos históricos de la blockchain, procesar algoritmos complejos y acceder a información cross-chain requiere una computación que llevaría a la quiebra a la mayoría de las aplicaciones si se ejecutara en la Capa 1. Esta es la razón por la que los protocolos DeFi utilizan una lógica simplificada, los juegos dependen de servidores off-chain y la integración de IA sigue siendo en gran medida conceptual.

La solución temporal siempre ha sido la misma: mover la computación fuera de la cadena (off-chain) y confiar en una parte centralizada para ejecutarla correctamente. Pero esto anula todo el propósito de la arquitectura trustless de la blockchain.

El surgimiento del coprocesador ZK: ejecución off-chain, verificación on-chain

Los coprocesadores de conocimiento cero (ZK) resuelven esto introduciendo un nuevo paradigma computacional: "computación off-chain + verificación on-chain". Permiten que los contratos inteligentes deleguen el procesamiento pesado a una infraestructura especializada fuera de la cadena, para luego verificar los resultados on-chain utilizando pruebas de conocimiento cero, sin confiar en ningún intermediario.

Así es como funciona en la práctica:

  1. Acceso a datos: El coprocesador lee datos históricos de la blockchain, el estado cross-chain o información externa cuya consulta sería prohibitiva en términos de gas on-chain.
  2. Computación off-chain: Los algoritmos complejos se ejecutan en entornos especializados optimizados para el rendimiento, no limitados por los topes de gas.
  3. Generación de pruebas: Se genera una prueba de conocimiento cero que demuestra que la computación se ejecutó correctamente sobre entradas específicas.
  4. Verificación on-chain: El contrato inteligente verifica la prueba en milisegundos sin volver a ejecutar la computación ni ver los datos sin procesar.

Esta arquitectura es económicamente viable porque generar pruebas off-chain y verificarlas on-chain cuesta mucho menos que ejecutar la computación directamente en la Capa 1. El resultado: los contratos inteligentes obtienen acceso a una potencia computacional ilimitada manteniendo las garantías de seguridad de la blockchain.

La evolución: de zkRollups a coprocesadores ZK

La tecnología no surgió de la noche a la mañana. Los sistemas de pruebas de conocimiento cero han evolucionado a través de distintas fases:

Los L2 zkRollups fueron pioneros en el modelo "computar off-chain, verificar on-chain" para escalar el rendimiento de las transacciones. Proyectos como zkSync y StarkNet agrupan miles de transacciones, las ejecutan fuera de la cadena y envían una única prueba de validez a Ethereum, aumentando drásticamente la capacidad mientras heredan la seguridad de Ethereum.

Las zkVMs (máquinas virtuales de conocimiento cero) generalizaron este concepto, permitiendo que cualquier computación arbitraria sea probada como correcta. En lugar de limitarse al procesamiento de transacciones, los desarrolladores podrían escribir cualquier programa y generar pruebas verificables de su ejecución. La zkVM Pico/Prism de Brevis logra un tiempo de prueba promedio de 6.9 segundos en clústeres de 64 GPU RTX 5090, lo que hace que la verificación en tiempo real sea práctica.

Los coprocesadores ZK representan la siguiente evolución: infraestructura especializada que combina zkVMs con coprocesadores de datos para manejar el acceso a datos históricos y cross-chain. Están diseñados específicamente para las necesidades únicas de las aplicaciones blockchain: leer el historial on-chain, conectar múltiples cadenas y proporcionar a los contratos inteligentes capacidades que antes estaban bloqueadas tras APIs centralizadas.

Lagrange lanzó el primer coprocesador ZK basado en SQL en 2025, permitiendo a los desarrolladores probar consultas SQL personalizadas de grandes cantidades de datos on-chain directamente desde contratos inteligentes. Brevis le siguió con una arquitectura multicadena, soportando computación verificable en Ethereum, Arbitrum, Optimism, Base y otras redes. Axiom se centró en consultas históricas verificables con devoluciones de llamada de circuitos (circuit callbacks) para una lógica de verificación programable.

Cómo se comparan los coprocesadores ZK con las alternativas

Coprocesadores ZK vs. zkML

El aprendizaje automático de conocimiento cero (zkML) utiliza sistemas de prueba similares pero se enfoca en un problema diferente: demostrar que un modelo de IA produjo un resultado específico sin revelar los pesos del modelo ni los datos de entrada. zkML se centra principalmente en la verificación de inferencia — confirmar que una red neuronal se evaluó honestamente.

La distinción clave es el flujo de trabajo. Con los coprocesadores ZK, los desarrolladores escriben una lógica de implementación explícita, aseguran la corrección del circuito y generan pruebas para cálculos deterministas. Con zkML, el proceso comienza con la exploración de datos y el entrenamiento del modelo antes de crear circuitos para verificar la inferencia. Los coprocesadores ZK manejan lógica de propósito general; zkML se especializa en hacer que la IA sea verificable en la cadena (on-chain).

Ambas tecnologías comparten el mismo paradigma de verificación: el cálculo se ejecuta fuera de la cadena (off-chain), produciendo una prueba de conocimiento cero junto con los resultados. La cadena verifica la prueba en milisegundos sin ver las entradas sin procesar ni volver a ejecutar el cálculo. Pero los circuitos zkML están optimizados para operaciones de tensores y arquitecturas de redes neuronales, mientras que los circuitos de coprocesadores manejan consultas de bases de datos, transiciones de estado y agregación de datos entre cadenas (cross-chain).

Coprocesadores ZK vs. Rollups Optimistas

Los rollups optimistas y los rollups ZK escalan las blockchains moviendo la ejecución fuera de la cadena, pero sus modelos de confianza difieren fundamentalmente.

Los rollups optimistas asumen que las transacciones son válidas por defecto. Los validadores envían lotes de transacciones sin pruebas, y cualquiera puede impugnar lotes inválidos durante un período de disputa (generalmente 7 días). Esta finalidad retrasada significa que retirar fondos de Optimism o Arbitrum requiere esperar una semana — algo aceptable para el escalado, pero problemático para muchas aplicaciones.

Los coprocesadores ZK prueban la corrección de inmediato. Cada lote incluye una prueba de validez verificada en la cadena antes de ser aceptado. No hay período de disputa, ni suposiciones de fraude, ni retrasos de una semana para los retiros. Las transacciones logran una finalidad instantánea.

El equilibrio históricamente ha sido la complejidad y el costo. La generación de pruebas de conocimiento cero requiere hardware especializado y criptografía sofisticada, lo que hace que la infraestructura ZK sea más costosa de operar. Sin embargo, la aceleración por hardware está cambiando la economía. Pico Prism de Brevis logra una cobertura de prueba en tiempo real del 96.8 %, lo que significa que las pruebas se generan lo suficientemente rápido como para mantener el ritmo del flujo de transacciones — eliminando la brecha de rendimiento que favorecía a los enfoques optimistas.

En el mercado actual, los rollups optimistas como Arbitrum y Optimism aún dominan el valor total bloqueado. Su compatibilidad con EVM y su arquitectura más simple facilitaron su despliegue a escala. Pero a medida que la tecnología ZK madura, la finalidad instantánea y las garantías de seguridad más sólidas de las pruebas de validez están cambiando la tendencia. El escalado de Capa 2 representa un caso de uso; los coprocesadores ZK desbloquean una categoría más amplia: computación verificable para cualquier aplicación on-chain.

Aplicaciones en el mundo real: De DeFi a los juegos

La infraestructura permite casos de uso que antes eran imposibles o requerían confianza centralizada:

DeFi: Estructuras de comisiones dinámicas y programas de fidelidad

Los exchanges descentralizados tienen dificultades para implementar programas de fidelidad sofisticados porque calcular el volumen de trading histórico de un usuario en la cadena es prohibitivamente costoso. Con los coprocesadores ZK, los DEX pueden rastrear el volumen de por vida a través de múltiples cadenas, calcular niveles VIP y ajustar las comisiones de trading dinámicamente — todo verificable on-chain.

Incentra, construido sobre el zkCoprocessor de Brevis, distribuye recompensas basadas en la actividad verificada en la cadena sin exponer datos confidenciales del usuario. Los protocolos ahora pueden implementar líneas de crédito basadas en el comportamiento de pago pasado, gestión activa de posiciones de liquidez con algoritmos predefinidos y preferencias de liquidación dinámicas — todo respaldado por pruebas criptográficas en lugar de intermediarios de confianza.

Gaming: Experiencias personalizadas sin servidores centralizados

Los juegos en blockchain enfrentan un dilema de UX: registrar cada acción del jugador en la cadena es costoso, pero mover la lógica del juego fuera de la cadena requiere confiar en servidores centralizados. Los coprocesadores ZK permiten un tercer camino.

Los contratos inteligentes ahora pueden responder consultas complejas como "¿Qué billeteras ganaron este juego en la última semana, acuñaron un NFT de mi colección y registraron al menos dos horas de juego?". Esto potencia LiveOps personalizados — ofreciendo dinámicamente compras dentro del juego, emparejando oponentes, activando eventos de bonificación — basados en el historial verificado en la cadena en lugar de análisis centralizados.

Los jugadores obtienen experiencias personalizadas. Los desarrolladores conservan una infraestructura sin confianza. El estado del juego permanece verificable.

Aplicaciones cross-chain: Estado unificado sin puentes

Leer datos de otra blockchain tradicionalmente requiere puentes (bridges) — intermediarios de confianza que bloquean activos en una cadena y acuñan representaciones en otra. Los coprocesadores ZK verifican el estado entre cadenas directamente utilizando pruebas criptográficas.

Un contrato inteligente en Ethereum puede consultar las tenencias de NFT de un usuario en Polygon, sus posiciones DeFi en Arbitrum y sus votos de gobernanza en Optimism — todo sin confiar en los operadores de puentes. Esto desbloquea el scoring crediticio cross-chain, sistemas de identidad unificados y protocolos de reputación multicadena.

El panorama competitivo: quién está construyendo qué

El espacio de los coprocesadores ZK se ha consolidado en torno a varios actores clave, cada uno con enfoques arquitectónicos distintos:

Brevis Network lidera la fusión de "Coprocesador de Datos ZK + zkVM general". Su zkCoprocessor maneja la lectura de datos históricos y las consultas cross-chain, mientras que Pico / Prism zkVM proporciona computación programable para lógica arbitraria. Brevis recaudó $7,5 millones en una ronda de tokens semilla y se ha desplegado en Ethereum, Arbitrum, Base, Optimism, BSC y otras redes. Su token BREV está ganando impulso en los exchanges de cara a 2026.

Lagrange fue pionero en las consultas basadas en SQL con ZK Coprocessor 1.0, haciendo que los datos on-chain sean accesibles a través de interfaces de bases de datos familiares. Los desarrolladores pueden probar consultas SQL personalizadas directamente desde contratos inteligentes, reduciendo drásticamente la barrera técnica para construir aplicaciones intensivas en datos. Azuki, Gearbox y otros protocolos utilizan Lagrange para análisis históricos verificables.

Axiom se centra en consultas verificables con callbacks de circuitos, lo que permite a los contratos inteligentes solicitar puntos de datos históricos específicos y recibir pruebas criptográficas de su veracidad. Su arquitectura se optimiza para casos de uso donde las aplicaciones necesitan fragmentos precisos del historial de la blockchain en lugar de computación general.

Space and Time combina una base de datos verificable con consultas SQL, dirigiéndose a casos de uso empresariales que requieren tanto verificación on-chain como funcionalidad de base de datos tradicional. Su enfoque resulta atractivo para las instituciones que migran sus sistemas existentes a la infraestructura blockchain.

El mercado está evolucionando rápidamente, y 2026 es ampliamente considerado como el "Año de la Infraestructura ZK". A medida que la generación de pruebas se vuelve más rápida, la aceleración por hardware mejora y las herramientas para desarrolladores maduran, los coprocesadores ZK están pasando de ser una tecnología experimental a una infraestructura de producción crítica.

Desafíos técnicos: por qué es difícil

A pesar del progreso, persisten obstáculos significativos.

La velocidad de generación de pruebas es un cuello de botella para muchas aplicaciones. Incluso con clústeres de GPU, las computaciones complejas pueden tardar segundos o minutos en probarse; algo aceptable para algunos casos de uso, pero problemático para el trading de alta frecuencia o los juegos en tiempo real. El promedio de 6,9 segundos de Brevis representa un rendimiento de vanguardia, pero alcanzar la generación de pruebas en menos de un segundo para todas las cargas de trabajo requiere una mayor innovación en el hardware.

La complejidad del desarrollo de circuitos genera fricción para los desarrolladores. Escribir circuitos de conocimiento cero requiere conocimientos criptográficos especializados de los que carecen la mayoría de los desarrolladores de blockchain. Si bien las zkVM abstraen parte de la complejidad al permitir que los desarrolladores escriban en lenguajes familiares, la optimización de los circuitos para el rendimiento sigue exigiendo experiencia. Las mejoras en las herramientas están cerrando esta brecha, pero sigue siendo una barrera para la adopción masiva.

La disponibilidad de datos plantea desafíos de coordinación. Los coprocesadores deben mantener vistas sincronizadas del estado de la blockchain en múltiples cadenas, gestionando reorgs, finalidad y diferencias de consenso. Garantizar que las pruebas hagan referencia al estado canónico de la cadena requiere una infraestructura sofisticada, especialmente para aplicaciones cross-chain donde las diferentes redes tienen distintas garantías de finalidad.

La sostenibilidad económica sigue siendo incierta. Operar una infraestructura de generación de pruebas requiere mucho capital, GPUs especializadas y costos operativos continuos. Las redes de coprocesadores deben equilibrar los costos de las pruebas, las tarifas de los usuarios y los incentivos de los tokens para crear modelos de negocio sostenibles. Los proyectos iniciales están subsidiando los costos para impulsar la adopción, pero la viabilidad a largo plazo depende de demostrar la rentabilidad económica unitaria a escala.

La tesis de la infraestructura: la computación como una capa de servicio verificable

Los coprocesadores ZK están emergiendo como "capas de servicio verificables": APIs nativas de blockchain que brindan funcionalidad sin requerir confianza. Esto refleja cómo evolucionó la computación en la nube: los desarrolladores no construyen sus propios servidores, sino que consumen las APIs de AWS. Del mismo modo, los desarrolladores de contratos inteligentes no deberían necesitar reimplementar consultas de datos históricos o verificación de estado cross-chain; deberían llamar a una infraestructura probada.

El cambio de paradigma es sutil pero profundo. En lugar de "¿qué puede hacer esta blockchain?", la pregunta pasa a ser "¿a qué servicios verificables puede acceder este contrato inteligente?". La blockchain proporciona la liquidación y la verificación; los coprocesadores proporcionan computación ilimitada. Juntos, desbloquean aplicaciones que requieren tanto la ausencia de necesidad de confianza (trustlessness) como complejidad.

Esto se extiende más allá de DeFi y los juegos. La tokenización de activos del mundo real necesita datos off-chain verificados sobre la propiedad de bienes raíces, precios de materias primas y cumplimiento regulatorio. La identidad descentralizada requiere agregar credenciales a través de múltiples blockchains y verificar el estado de revocación. Los agentes de IA necesitan probar sus procesos de toma de decisiones sin exponer modelos propietarios. Todo esto requiere computación verificable, la capacidad exacta que proporcionan los coprocesadores ZK.

La infraestructura también cambia la forma en que los desarrolladores piensan sobre las limitaciones de la blockchain. Durante años, el mantra ha sido "optimizar la eficiencia del gas". Con los coprocesadores, los desarrolladores pueden escribir lógica como si los límites de gas no existieran, y luego delegar las operaciones costosas a una infraestructura verificable. Este cambio mental —de contratos inteligentes limitados a contratos inteligentes con computación infinita— remodelará lo que se construye on-chain.

Lo que depara el 2026: de la investigación a la producción

Múltiples tendencias están convergiendo para hacer del 2026 el punto de inflexión para la adopción de los coprocesadores ZK.

La aceleración de hardware está mejorando drásticamente el rendimiento de la generación de pruebas. Empresas como Cysic están construyendo ASICs especializados para pruebas de conocimiento cero, de manera similar a cómo la minería de Bitcoin evolucionó de CPUs a GPUs y luego a ASICs. Cuando la generación de pruebas se vuelve entre 10 y 100 veces más rápida y barata, las barreras económicas colapsan.

Las herramientas para desarrolladores están abstrayendo la complejidad. El desarrollo temprano de zkVM requería experiencia en diseño de circuitos; los frameworks modernos permiten a los desarrolladores escribir en Rust o Solidity y compilar a circuitos demostrables automáticamente. A medida que estas herramientas maduran, la experiencia del desarrollador se asemeja a la escritura de smart contracts estándar: la computación verificable se convierte en la norma, no en la excepción.

La adopción institucional está impulsando la demanda de infraestructura verificable. A medida que BlackRock tokeniza activos y los bancos tradicionales lanzan sistemas de liquidación de stablecoins, requieren computación off-chain verificable para el cumplimiento, la auditoría y los informes regulatorios. Los coprocesadores ZK proporcionan la infraestructura para que esto sea trustless.

La fragmentación cross-chain crea una urgencia por la verificación de estado unificada. Con cientos de Layer 2 fragmentando la liquidez y la experiencia del usuario, las aplicaciones necesitan formas de agregar el estado a través de las cadenas sin depender de intermediarios de puentes. Los coprocesadores proporcionan la única solución trustless.

Los proyectos que sobrevivan probablemente se consolidarán en torno a verticales específicas: Brevis para infraestructura multi-chain de propósito general, Lagrange para aplicaciones con uso intensivo de datos, Axiom para la optimización de consultas históricas. Al igual que con los proveedores de la nube, la mayoría de los desarrolladores no ejecutarán su propia infraestructura de pruebas: consumirán las APIs de los coprocesadores y pagarán por la verificación como servicio.

El panorama general: la computación infinita se encuentra con la seguridad blockchain

Los coprocesadores ZK resuelven una de las limitaciones más fundamentales de la blockchain: puedes tener seguridad trustless O computación compleja, pero no ambas. Al desacoplar la ejecución de la verificación, hacen que esta compensación sea obsoleta.

Esto desbloquea la próxima ola de aplicaciones blockchain, aquellas que no podrían existir bajo las antiguas restricciones. Protocolos DeFi con gestión de riesgos de grado financiero tradicional. Juegos con valores de producción AAA ejecutándose sobre infraestructura verificable. Agentes de IA operando de forma autónoma con pruebas criptográficas de su toma de decisiones. Aplicaciones cross-chain que se sienten como plataformas únicas y unificadas.

La infraestructura está aquí. Las pruebas son lo suficientemente rápidas. Las herramientas de desarrollo están madurando. Lo que queda es construir las aplicaciones que antes eran imposibles, y observar cómo una industria se da cuenta de que las limitaciones de computación de la blockchain nunca fueron permanentes, sino que solo esperaban la infraestructura adecuada para superarlas.

BlockEden.xyz proporciona infraestructura RPC de grado empresarial en las blockchains donde se están construyendo aplicaciones de coprocesadores ZK, desde Ethereum y Arbitrum hasta Base, Optimism y más allá. Explore nuestro marketplace de APIs para acceder a la misma infraestructura de nodos confiable que impulsa la próxima generación de computación verificable.

Actualización BPO-2 de Ethereum: Una Nueva Era de Escalabilidad Paramétrica

· 10 min de lectura
Dora Noda
Software Engineer

¿Qué sucede cuando una blockchain decide escalar no reinventándose a sí misma, sino simplemente ajustando los mandos? El 7 de enero de 2026, Ethereum activó BPO-2 —el segundo fork de solo parámetros de blob (Blob Parameters Only)— completando silenciosamente la fase final de la actualización Fusaka. El resultado: una expansión de capacidad del 40 % que redujo las tarifas de Capa 2 hasta en un 90 % de la noche a la mañana. No fue una revisión ostentosa del protocolo. Fue precisión quirúrgica, demostrando que la escalabilidad de Ethereum ahora es paramétrica, no procedimental.

La Actualización BPO-2: Números que Importan

BPO-2 elevó el objetivo de blobs de Ethereum de 10 a 14 y el límite máximo de blobs de 15 a 21. Cada blob contiene 128 kilobytes de datos, lo que significa que un solo bloque ahora puede transportar aproximadamente 2.6 – 2.7 megabytes de datos de blob —frente a los aproximadamente 1.9 MB antes del fork.

Para contextualizar, los blobs son los paquetes de datos que los rollups publican en Ethereum. Permiten que las redes de Capa 2 como Arbitrum, Base y Optimism procesen transacciones fuera de la cadena mientras heredan las garantías de seguridad de Ethereum. Cuando el espacio de los blobs es escaso, los rollups compiten por la capacidad, lo que eleva los costos. BPO-2 alivió esa presión.

El Cronograma: El Despliegue en Tres Fases de Fusaka

La actualización no ocurrió de forma aislada. Fue la etapa final del despliegue metódico de Fusaka:

  • 3 de diciembre de 2025: Activación de la mainnet de Fusaka, introduciendo PeerDAS (Peer Data Availability Sampling)
  • 9 de diciembre de 2025: BPO-1 aumentó el objetivo de blobs a 10 y el máximo a 15
  • 7 de enero de 2026: BPO-2 llevó el objetivo a 14 y el máximo a 21

Este enfoque por etapas permitió a los desarrolladores monitorear la salud de la red entre cada incremento, asegurando que los operadores de nodos domésticos pudieran manejar las crecientes demandas de ancho de banda.

Por qué el "Objetivo" y el "Límite" son Diferentes

Comprender la distinción entre el objetivo de blobs (blob target) y el límite de blobs (blob limit) es fundamental para entender la mecánica de tarifas de Ethereum.

El límite de blobs (21) representa el techo máximo —el número absoluto de blobs que se pueden incluir en un solo bloque. El objetivo de blobs (14) es el punto de equilibrio que el protocolo busca mantener a lo largo del tiempo.

Cuando el uso real de blobs supera el objetivo, las tarifas base suben para desalentar el consumo excesivo. Cuando el uso cae por debajo del objetivo, las tarifas disminuyen para incentivar más actividad. Este ajuste dinámico crea un mercado autorregulado:

  • Blobs llenos: Las tarifas base aumentan aproximadamente un 8.2 %
  • Sin blobs: Las tarifas base disminuyen aproximadamente un 14.5 %

Esta asimetría es intencional. Permite que las tarifas bajen rápidamente durante los períodos de baja demanda, mientras aumentan de forma más gradual durante la alta demanda, evitando picos de precios que podrían desestabilizar la economía de los rollups.

El Impacto en las Tarifas: Números Reales de Redes Reales

Los costos de transacción de la Capa 2 se han desplomado entre un 40 % y un 90 % desde el despliegue de Fusaka. Las cifras hablan por sí solas:

RedTarifa Promedio Post-BPO-2Comparación con la Mainnet de Ethereum
Base$ 0.000116$ 0.3139
Arbitrum~ $ 0.001$ 0.3139
Optimism~ $ 0.001$ 0.3139

Las tarifas medianas de los blobs han caído hasta tan solo $ 0.0000000005 por blob —efectivamente gratuitas para fines prácticos. Para los usuarios finales, esto se traduce en costos cercanos a cero para swaps, transferencias, acuñación de NFTs y transacciones de juegos.

Cómo se Adaptaron los Rollups

Los principales rollups reestructuraron sus operaciones para maximizar la eficiencia de los blobs:

  • Optimism actualizó su batcher para depender principalmente de los blobs en lugar de calldata, reduciendo los costos de disponibilidad de datos en más de la mitad
  • zkSync reelaboró su canalización de envío de pruebas para comprimir las actualizaciones de estado en menos blobs y más grandes, reduciendo la frecuencia de publicación
  • Arbitrum se preparó para su actualización ArbOS Dia (T1 2026), que introduce tarifas más fluidas y un mayor rendimiento con soporte para Fusaka

Desde la introducción del EIP-4844, se han publicado más de 950,000 blobs en Ethereum. Los rollups optimistas han visto una reducción del 81 % en el uso de calldata, lo que demuestra que el modelo de blobs está funcionando según lo previsto.

El Camino hacia los 128 Blobs: Qué Sigue

BPO-2 es un punto de paso, no el destino. La hoja de ruta de Ethereum visualiza un futuro donde los bloques contengan 128 o más blobs por slot —un aumento de 8 veces respecto a los niveles actuales.

PeerDAS: La Base Técnica

PeerDAS (EIP-7594) es el protocolo de red que hace posible el escalado agresivo de los blobs. En lugar de requerir que cada nodo descargue cada blob, PeerDAS utiliza el muestreo de disponibilidad de datos (data availability sampling) para verificar la integridad de los datos descargando solo un subconjunto.

Aquí se explica cómo funciona:

  1. Los datos extendidos del blob se dividen en 128 partes llamadas columnas
  2. Cada nodo participa en al menos 8 subredes de columnas elegidas al azar
  3. Recibir 8 de 128 columnas (aproximadamente el 12.5 % de los datos) es matemáticamente suficiente para demostrar la disponibilidad total de los datos
  4. La codificación de borrado (erasure coding) garantiza que incluso si faltan algunos datos, el original se pueda reconstruir

Este enfoque permite un escalado teórico de 8 veces el rendimiento de datos, manteniendo los requisitos de los nodos manejables para los operadores domésticos.

Cronograma de Escalado de Blobs

FaseObjetivo de BlobsMáximo de BlobsEstado
Dencun (marzo 2024)36Completado
Pectra (mayo 2025)69Completado
BPO-1 (diciembre 2025)1015Completado
BPO-2 (enero 2026)1421Completado
BPO-3/4 (2026)Por determinar72 +Planificado
A largo plazo128 +128 +Hoja de ruta

Una llamada reciente de todos los desarrolladores principales (all-core-devs) discutió un "cronograma especulativo" que podría incluir forks BPO adicionales cada dos semanas después de finales de febrero para lograr un objetivo de 72 blobs. El hecho de que este cronograma agresivo se materialice depende de los datos de monitoreo de la red.

Glamsterdam: El Próximo Gran Hito

Más allá de los forks BPO, la actualización combinada Glamsterdam (Glam para la capa de consenso, Amsterdam para la capa de ejecución) está programada actualmente para el Q2 / Q3 de 2026. Promete mejoras aún más drásticas:

  • Block Access Lists (BALs): Límites de gas dinámicos que permiten el procesamiento de transacciones en paralelo
  • Enshrined Proposer-Builder Separation (ePBS): Protocolo on-chain para separar los roles de construcción de bloques, proporcionando más tiempo para la propagación de bloques
  • Aumento del límite de gas: Potencialmente hasta 200 millones, permitiendo un "procesamiento paralelo perfecto"

Vitalik Buterin ha proyectado que finales de 2026 traerá "grandes aumentos de los límites de gas no dependientes de ZK-EVM debido a las BALs y ePBS". Estos cambios podrían impulsar el rendimiento sostenible hacia más de 100,000 TPS en todo el ecosistema de Capa 2.

Lo que Revela BPO-2 sobre la Estrategia de Ethereum

El modelo de fork BPO representa un cambio filosófico en la forma en que Ethereum aborda las actualizaciones. En lugar de agrupar múltiples cambios complejos en hard forks monolíticos, el enfoque BPO aísla ajustes de una sola variable que pueden desplegarse rápidamente y revertirse si surgen problemas.

"El fork BPO2 subraya que la escalabilidad de Ethereum es ahora paramétrica, no procedimental", observó un desarrollador. "El espacio de blobs sigue estando lejos de la saturación, y la red puede expandir el rendimiento simplemente ajustando la capacidad".

Esta observación conlleva implicaciones significativas:

  1. Escalado predecible: Los rollups pueden planificar las necesidades de capacidad sabiendo que Ethereum continuará expandiendo el espacio de blobs
  2. Riesgo reducido: Los cambios de parámetros aislados minimizan la posibilidad de errores en cascada
  3. Iteración más rápida: Los forks BPO pueden ocurrir en semanas, no en meses
  4. Decisiones impulsadas por datos: Cada incremento proporciona datos del mundo real para informar el siguiente

La Economía: ¿Quién se Beneficia?

Los beneficiarios de BPO-2 se extienden más allá de los usuarios finales que disfrutan de transacciones más baratas:

Operadores de Rollups

Los menores costes de publicación de datos mejoran la economía unitaria de cada rollup. Las redes que anteriormente operaban con márgenes estrechos ahora tienen margen para invertir en la adquisición de usuarios, herramientas para desarrolladores y el crecimiento del ecosistema.

Desarrolladores de Aplicaciones

Los costes de transacción de menos de un céntimo desbloquean casos de uso que antes no eran rentables: micropagos, juegos de alta frecuencia, aplicaciones sociales con estado on-chain e integraciones de IoT.

Validadores de Ethereum

El aumento del rendimiento de blobs significa más comisiones totales, incluso si las comisiones por blob disminuyen. La red procesa más valor, manteniendo los incentivos de los validadores al tiempo que mejora la experiencia del usuario.

El Ecosistema en General

La disponibilidad de datos de Ethereum más barata hace que las capas de DA alternativas sean menos atractivas para los rollups que priorizan la seguridad. Esto refuerza la posición de Ethereum en el centro del stack de blockchain modular.

Desafíos y Consideraciones

BPO-2 no está exento de compensaciones:

Requisitos de los Nodos

Si bien PeerDAS reduce los requisitos de ancho de banda mediante el muestreo, el aumento del número de blobs sigue exigiendo más de los operadores de nodos. El despliegue por etapas tiene como objetivo identificar cuellos de botella antes de que se vuelvan críticos, pero los operadores domésticos con ancho de banda limitado pueden tener dificultades a medida que el recuento de blobs asciende hacia 72 o 128.

Dinámicas de MEV

Más blobs significan más oportunidades para la extracción de MEV en las transacciones de los rollups. La actualización ePBS en Glamsterdam tiene como objetivo abordar esto, pero el período de transición podría ver un aumento en la actividad de MEV.

Volatilidad del Espacio de Blobs

Durante los picos de demanda, las comisiones de los blobs aún pueden aumentar rápidamente. El incremento del 8.2 % por bloque lleno significa que una demanda alta sostenida crea un crecimiento exponencial de las comisiones. Los futuros forks BPO deberán equilibrar la expansión de la capacidad frente a esta volatilidad.

Conclusión: Escalado por Grados

BPO-2 demuestra que el escalado significativo no siempre requiere avances revolucionarios. A veces, las mejoras más efectivas provienen de una calibración cuidadosa de los sistemas existentes.

La capacidad de blobs de Ethereum ha crecido de un máximo de 6 en Dencun a 21 en BPO-2 — un aumento del 250 % en menos de dos años. Las comisiones de Capa 2 han caído en órdenes de magnitud. Y la hoja de ruta hacia más de 128 blobs sugiere que esto es solo el comienzo.

Para los rollups, el mensaje es claro: la capa de disponibilidad de datos de Ethereum se está escalando para satisfacer la demanda. Para los usuarios, el resultado es cada vez más invisible: transacciones que cuestan fracciones de céntimo, finalizadas en segundos, aseguradas por la plataforma de contratos inteligentes más probada en batalla que existe.

La era paramétrica del escalado de Ethereum ha llegado. BPO-2 es la prueba de que, a veces, girar el dial correcto es todo lo que se necesita.


¿Está construyendo sobre la capacidad de blobs en expansión de Ethereum? BlockEden.xyz proporciona servicios RPC de nivel empresarial para Ethereum y su ecosistema de Capa 2, incluidos Arbitrum, Optimism y Base. Explore nuestro API marketplace para conectarse a la infraestructura que impulsa la próxima generación de aplicaciones escalables.

La evolución de Ethereum: de altas tarifas de gas a transacciones fluidas

· 11 min de lectura
Dora Noda
Software Engineer

La pesadilla de las tarifas de gas de 50hamuertooficialmente.El17deenerode2026,Ethereumprocesoˊ2.6millonesdetransaccionesenunsolodıˊaunnuevoreˊcordmientrasquelastarifasdegassesituaronen50 ha muerto oficialmente. El 17 de enero de 2026, Ethereum procesó 2.6 millones de transacciones en un solo día —un nuevo récord— mientras que las tarifas de gas se situaron en 0.01. Hace dos años, este nivel de actividad habría paralizado la red. Hoy, apenas se registra como un hecho menor.

Esto no es solo un logro técnico. Representa un cambio fundamental en lo que Ethereum se está convirtiendo: una plataforma donde la actividad económica real —no la especulación— impulsa el crecimiento. La pregunta ya no es si Ethereum puede manejar DeFi a escala. Es si el resto del sistema financiero puede seguirle el ritmo.

ZK-Rollup de Bitcoin de Citrea: ¿Pueden las Pruebas de Conocimiento Cero Desbloquear Finalmente la Promesa de $ 4.95 Mil Millones de BTCFi?

· 12 min de lectura
Dora Noda
Software Engineer

Bitcoin acaba de obtener contratos inteligentes —reales, verificados por pruebas de conocimiento cero directamente en la red de Bitcoin. El lanzamiento de la red principal de Citrea el 27 de enero de 2026 marca la primera vez que las pruebas ZK se han inscrito y verificado de forma nativa dentro de la blockchain de Bitcoin, abriendo una puerta que más de 75 proyectos de L2 de Bitcoin han estado intentando desbloquear durante años.

Pero aquí está el truco: el valor total bloqueado (TVL) de BTCFi se ha reducido un 74 % durante el último año, y el ecosistema sigue dominado por protocolos de restaking en lugar de aplicaciones programables. ¿Podrá el avance técnico de Citrea traducirse en una adopción real, o se unirá al cementerio de soluciones de escalado de Bitcoin que nunca ganaron tracción? Examinemos qué hace diferente a Citrea y si puede competir en un campo cada vez más concurrido.

MegaETH: La blockchain en tiempo real que revoluciona la velocidad y la escalabilidad

· 10 min de lectura
Dora Noda
Software Engineer

Cuando Vitalik Buterin invierte personalmente en un proyecto de blockchain, el mundo de las criptomonedas presta atención. Pero cuando ese proyecto afirma ofrecer 100,000 transacciones por segundo con tiempos de bloque de 10 milisegundos — haciendo que las blockchains tradicionales parezcan una conexión por dial-up — la pregunta pasa de "¿por qué debería importarme?" a "¿es esto siquiera posible?".

MegaETH, autodenominada la "primera blockchain en tiempo real", lanzó su mainnet el 22 de enero de 2026, y las cifras son asombrosas: 10.7 mil millones de transacciones procesadas durante una prueba de estrés de siete días, un rendimiento sostenido de 35,000 TPS y tiempos de bloque que bajaron de 400 milisegundos a solo 10 milisegundos. El proyecto ha recaudado más de 506millonesatraveˊsdecuatrorondasdefinanciacioˊn,incluidaunaventapuˊblicadetokensde506 millones a través de cuatro rondas de financiación, incluida una venta pública de tokens de 450 millones que fue sobresuscrita 27.8 veces.

Pero detrás de estas métricas impresionantes se esconde una concesión fundamental que ataca el corazón de la promesa central de la blockchain: la descentralización. La arquitectura de MegaETH depende de un único secuenciador hiperoptimizado que se ejecuta en un hardware que haría sonrojar a la mayoría de los centros de datos: más de 100 núcleos de CPU , hasta 4 terabytes de RAM y conexiones de red de 10 Gbps . Esta no es la configuración típica de un validador; es una supercomputadora.

La arquitectura: Velocidad a través de la especialización

Las ganancias de rendimiento de MegaETH provienen de dos innovaciones clave: una arquitectura de blockchain heterogénea y un entorno de ejecución EVM hiperoptimizado.

Las blockchains tradicionales requieren que cada nodo realice las mismas tareas: ordenar transacciones, ejecutarlas y mantener el estado. MegaETH descarta este manual de estrategias. En su lugar, diferencia a los nodos en roles especializados:

Nodos Secuenciadores (Sequencer Nodes): Se encargan del trabajo pesado de ordenar y ejecutar transacciones. Estos no son validadores configurados en un garaje; son servidores de nivel empresarial con requisitos de hardware 20 veces más costosos que los de un validador promedio de Solana.

Nodos Provers (Prover Nodes): Generan y verifican pruebas criptográficas utilizando hardware especializado como GPUs o FPGAs . Al separar la generación de pruebas de la ejecución, MegaETH puede mantener la seguridad sin generar cuellos de botella en el rendimiento.

Nodos Réplica (Replica Nodes): Verifican la salida del secuenciador con requisitos de hardware mínimos — aproximadamente comparables a ejecutar un nodo de Ethereum L1 — asegurando que cualquiera pueda validar el estado de la cadena incluso si no puede participar en la secuenciación.

¿El resultado? Tiempos de bloque medidos en milisegundos de un solo dígito, con el equipo apuntando a un tiempo de bloque final de 1 milisegundo, un hito sin precedentes en la industria si se logra.

Resultados de las pruebas de estrés: ¿Prueba de concepto o prueba de hype?

La prueba de estrés global de siete días de MegaETH procesó aproximadamente 10.7 mil millones de transacciones, con juegos como Smasher, Crossy Fluffle y Stomp.gg generando una carga sostenida en la red. La cadena alcanzó un rendimiento máximo de 47,000 TPS , con tasas sostenidas entre 15,000 y 35,000 TPS .

Estas cifras requieren contexto. Solana, citada a menudo como el referente de velocidad, tiene un máximo teórico de 65,000 TPS , pero opera a unos 3,400 TPS en condiciones del mundo real. Ethereum L1 gestiona aproximadamente 15 - 30 TPS . Incluso las L2 más rápidas como Arbitrum y Base suelen procesar unos pocos cientos de TPS bajo una carga normal.

Los números de la prueba de estrés de MegaETH, si se trasladan a la producción, representarían una mejora de 10 veces sobre el rendimiento real de Solana y una mejora de 1,000 veces sobre la mainnet de Ethereum.

Pero hay una advertencia crítica: las pruebas de estrés son entornos controlados. Las transacciones de la prueba provinieron principalmente de aplicaciones de juegos: operaciones simples y predecibles que no reflejan las interacciones de estado complejas de los protocolos DeFi o los patrones de transacciones impredecibles de la actividad orgánica de los usuarios.

El dilema de la centralización

Aquí es donde MegaETH diverge drásticamente de la ortodoxia blockchain: el proyecto reconoce abiertamente que no tiene planes de descentralizar su secuenciador. Nunca.

"El proyecto no finge ser descentralizado y explica por qué un secuenciador centralizado era necesario como una compensación para lograr el nivel de rendimiento deseado", señala un análisis.

Esto no es un puente temporal hacia una futura descentralización; es una decisión arquitectónica permanente. El secuenciador de MegaETH es un punto único de falla, controlado por una sola entidad, que se ejecuta en un hardware que solo las operaciones bien financiadas pueden costear.

El modelo de seguridad se basa en lo que el equipo llama "pruebas de fraude optimistas y slashing". La seguridad del sistema no depende de que múltiples entidades lleguen de forma independiente al mismo resultado. En cambio, depende de una red descentralizada de Provers y Réplicas para verificar la corrección computacional de la salida del secuenciador. Si el secuenciador actúa de forma maliciosa, los provers no deberían poder generar pruebas válidas para cálculos incorrectos.

Además, MegaETH hereda de Ethereum a través de un diseño de rollup , lo que garantiza que incluso si el secuenciador falla o actúa de forma maliciosa, los usuarios puedan recuperar sus activos a través de la mainnet de Ethereum.

Sin embargo, los críticos no están convencidos. Los análisis actuales muestran que MegaETH solo tiene 16 validadores en comparación con los más de 800,000 de Ethereum, lo que plantea preocupaciones de gobernanza. El proyecto también utiliza EigenDA para la disponibilidad de datos en lugar de Ethereum, una elección que intercambia una seguridad rigurosamente probada por costos más bajos y un mayor rendimiento.

USDm: La estrategia de la stablecoin

MegaETH no solo está construyendo una blockchain rápida; está construyendo un foso económico. El proyecto se asoció con Ethena Labs para lanzar USDm, una stablecoin nativa respaldada principalmente por el fondo de bonos del Tesoro de EE. UU. tokenizado de BlackRock, BUIDL (que actualmente cuenta con más de $ 2.2 mil millones en activos).

La innovación ingeniosa: el rendimiento de las reservas de USDm se dirige programáticamente a cubrir las operaciones del secuenciador. Esto permite a MegaETH ofrecer tarifas de transacción de menos de un centavo sin depender del gas pagado por el usuario. A medida que crece el uso de la red, el rendimiento de la stablecoin se expande proporcionalmente, creando un modelo económico autosustentable que no requiere aumentar las tarifas de los usuarios.

Esto posiciona a MegaETH frente al modelo tradicional de tarifas de L2, donde los secuenciadores obtienen ganancias del diferencial (spread) entre las tarifas pagadas por el usuario y los costos de publicación de datos en L1. Al subsidiar las tarifas a través del rendimiento, MegaETH puede superar a sus competidores en costos mientras mantiene una economía predecible para los desarrolladores.

El panorama competitivo

MegaETH entra en un mercado de L2 saturado donde Base, Arbitrum y Optimism controlan aproximadamente el 90 % del volumen de transacciones. Su posicionamiento competitivo es único:

Vs. Solana: Los tiempos de bloque de 10 ms de MegaETH superan con creces los 400 ms de Solana, lo que la hace teóricamente superior para aplicaciones sensibles a la latencia como el trading de alta frecuencia o los juegos en tiempo real. Sin embargo, Solana ofrece una experiencia de L1 unificada sin la complejidad del bridging, y su próxima actualización Firedancer promete mejoras significativas en el rendimiento.

Vs. Otras L2: Los rollups tradicionales como Arbitrum y Optimism priorizan la descentralización sobre la velocidad pura. Están buscando pruebas de fraude (fraud proofs) de Etapa 1 y Etapa 2, mientras que MegaETH se está optimizando para un punto diferente en la curva de compensación.

Vs. Monad: Ambos proyectos apuntan a una ejecución de EVM de alto rendimiento, pero Monad está construyendo una L1 con su propio consenso, mientras que MegaETH hereda la seguridad de Ethereum. Monad lanzó con $ 255 millones en TVL a finales de 2025, demostrando el apetito por las cadenas EVM de alto rendimiento.

¿A quién debería importarle?

La arquitectura de MegaETH tiene más sentido para casos de uso específicos:

Juegos en tiempo real: La latencia de 10 ms permite un estado del juego on-chain que se siente instantáneo. El enfoque del stress test en los juegos no fue accidental: este es el mercado objetivo.

Trading de alta frecuencia: Los tiempos de bloque de menos de un milisegundo podrían permitir un calce de órdenes (order matching) que rivalice con los exchanges centralizados. Hyperliquid ha demostrado el apetito por el trading on-chain de alto rendimiento.

Aplicaciones de consumo: Las aplicaciones que necesitan una capacidad de respuesta similar a la de la Web2 (feeds sociales, medios interactivos, subastas en tiempo real) podrían finalmente ofrecer experiencias fluidas sin compromisos off-chain.

La arquitectura tiene menos sentido para aplicaciones donde la descentralización es primordial: infraestructura financiera que requiere resistencia a la censura, protocolos que manejan transferencias de gran valor donde los supuestos de confianza importan, o cualquier aplicación donde los usuarios necesiten garantías sólidas sobre el comportamiento del secuenciador.

El camino por delante

La mainnet pública de MegaETH se lanza el 9 de febrero de 2026, pasando de la fase de stress test a la de producción. El éxito del proyecto dependerá de varios factores:

Adopción de desarrolladores: ¿Puede MegaETH atraer a desarrolladores para construir aplicaciones que aprovechen sus características de rendimiento únicas? Los estudios de videojuegos y los desarrolladores de aplicaciones de consumo son los objetivos obvios.

Historial de seguridad: La centralización del secuenciador es un riesgo conocido. Cualquier incidente, ya sea una falla técnica, censura o comportamiento malicioso, socavaría la confianza en toda la arquitectura.

Sustentabilidad económica: El modelo de subsidio de USDm es elegante sobre el papel, pero depende de un TVL de stablecoins suficiente para generar un rendimiento significativo. Si la adopción se retrasa, la estructura de tarifas se vuelve insostenible.

Claridad regulatoria: Los secuenciadores centralizados plantean interrogantes sobre la responsabilidad y el control que las redes descentralizadas evitan. Sigue sin estar claro cómo tratarán los reguladores a las L2 de un solo operador.

El veredicto

MegaETH representa la apuesta más agresiva hasta ahora en la propuesta de que el rendimiento importa más que la descentralización para ciertos casos de uso de blockchain. El proyecto no intenta ser Ethereum; intenta ser el carril rápido del que Ethereum carece.

Los resultados del stress test son realmente impresionantes. Si MegaETH puede ofrecer 35,000 TPS con una latencia de 10 ms en producción, será la cadena compatible con EVM más rápida por un margen significativo. La economía de USDm es ingeniosa, la trayectoria del equipo proveniente de MIT y Stanford es sólida, y el respaldo de Vitalik añade legitimidad.

Pero la compensación por la centralización es real. En un mundo donde hemos visto fallar sistemas centralizados (FTX, Celsius y muchos otros), confiar en un solo secuenciador requiere fe en los operadores y en el sistema de pruebas de fraude. El modelo de seguridad de MegaETH es sólido en teoría, pero no ha sido probado en batalla contra adversarios decididos.

La pregunta no es si MegaETH puede cumplir sus promesas de rendimiento. El stress test sugiere que puede. La pregunta es si el mercado quiere una blockchain que sea realmente rápida pero significativamente centralizada, o si la visión original de sistemas descentralizados y sin necesidad de confianza (trustless) todavía importa.

Para aplicaciones donde la velocidad lo es todo y los usuarios confían en el operador, MegaETH podría ser transformadora. Para todo lo demás, aún no hay un veredicto claro.


El lanzamiento de la mainnet de MegaETH el 9 de febrero será uno de los eventos cripto más seguidos de 2026. Ya sea que cumpla con la promesa de la "blockchain en tiempo real" o se convierta en otra historia de advertencia sobre la compensación entre centralización y rendimiento, el experimento en sí mismo avanza nuestra comprensión de lo que es posible en la frontera del rendimiento de blockchain.

ZKsync Airbender zkVM

· 12 min de lectura
Dora Noda
Software Engineer

¿Qué pasaría si probar un bloque de Ethereum tomara 35 segundos en lugar de requerir un almacén lleno de GPUs? Eso no es una hipótesis: es lo que Airbender de ZKsync está ofreciendo hoy.

En la carrera por hacer que las pruebas de conocimiento cero sean prácticas para la infraestructura de blockchain convencional, ha surgido un nuevo punto de referencia. Airbender, la zkVM RISC-V de código abierto de ZKsync, alcanza 21,8 millones de ciclos por segundo en una sola GPU H100 —más de 6 veces más rápido que los sistemas competidores. Puede probar bloques de Ethereum en menos de 35 segundos utilizando hardware que cuesta una fracción de lo que requieren sus competidores.

Actualización Sei Giga: De 10.000 a 200.000 TPS mientras Sei abandona Cosmos para ser una cadena solo EVM

· 9 min de lectura
Dora Noda
Software Engineer

Cuando Sei se lanzó en 2023, se posicionó como la cadena de Cosmos más rápida con 20.000 TPS teóricos. Dos años después, la red está realizando su apuesta más agresiva hasta la fecha: Giga, una actualización que apunta a 200.000 TPS con una finalidad inferior a 400 ms — y una polémica decisión de abandonar Cosmos por completo para convertirse en una cadena exclusivamente EVM.

El momento es clave. Monad promete 10.000 TPS con su EVM paralelo que se lanzará en 2025. MegaETH afirma tener una capacidad de más de 100.000 TPS. Sei no solo se está actualizando, sino que está compitiendo para definir lo que significa "rápido" para las blockchains compatibles con EVM antes de que sus competidores establezcan el estándar.

Lo que realmente cambia con Giga

Sei Giga representa una reconstrucción integral de la arquitectura central de la red, programada para el primer trimestre de 2026. Las cifras reflejan la magnitud de su ambición:

Objetivos de rendimiento:

  • 200.000 transacciones por segundo (frente a las ~ 5.000 - 10.000 actuales)
  • Finalidad inferior a 400 milisegundos (frente a los ~ 500 ms)
  • Eficiencia de ejecución 40 veces superior en comparación con los clientes EVM estándar

Cambios arquitectónicos:

Consenso de múltiples proponentes (Autobahn): El consenso tradicional de un solo líder crea cuellos de botella. Giga introduce Autobahn, donde múltiples validadores proponen bloques simultáneamente a través de diferentes fragmentos (shards). Piense en ello como autopistas paralelas en lugar de una sola carretera.

Cliente EVM personalizado: Sei reemplazó el EVM estándar basado en Go por un cliente personalizado que separa la gestión de estados de la ejecución. Este desacoplamiento permite la optimización independiente de cada componente, de forma similar a cómo las bases de datos separan los motores de almacenamiento del procesamiento de consultas.

Ejecución paralela: Mientras que otras cadenas ejecutan transacciones de forma secuencial, Giga procesa transacciones que no entran en conflicto simultáneamente. El motor de ejecución identifica qué transacciones afectan a estados separados y las ejecuta en paralelo.

Diseño de MEV acotado (Bounded MEV): En lugar de luchar contra el MEV, Sei implementa un MEV "acotado" donde los validadores pueden extraer valor solo dentro de parámetros definidos, creando un orden de transacciones predecible.

La polémica salida de Cosmos: SIP-3

Quizás más significativo que la actualización de rendimiento es la SIP-3 — la Propuesta de Mejora de Sei para dejar de admitir CosmWasm e IBC por completo a mediados de 2026.

Lo que propone la SIP-3:

  • Eliminar el entorno de ejecución CosmWasm (contratos inteligentes basados en Rust)
  • Descontinuar el soporte del protocolo de Comunicación Inter-Blockchain (IBC)
  • Transición de Sei a una cadena EVM pura
  • Requerir que las dApps de CosmWasm existentes migren a EVM

La justificación:

El equipo de Sei sostiene que mantener dos máquinas virtuales (EVM y CosmWasm) genera una sobrecarga de ingeniería que ralentiza el desarrollo. El EVM domina la cuota de desarrolladores: más del 70 % de los desarrolladores de contratos inteligentes trabajan principalmente con Solidity. Al volverse exclusivamente EVM, Sei puede:

  1. Concentrar los recursos de ingeniería en un único entorno de ejecución
  2. Atraer a más desarrolladores del ecosistema EVM, que es más amplio
  3. Simplificar la base de código y reducir la superficie de ataque
  4. Maximizar las optimizaciones de ejecución paralela

Las críticas:

No todo el mundo está de acuerdo. Los participantes del ecosistema Cosmos argumentan que la conectividad IBC proporciona una valiosa composibilidad entre cadenas. Los desarrolladores de CosmWasm se enfrentan a costes de migración forzada. Algunos críticos sugieren que Sei está abandonando su posicionamiento diferenciado para competir directamente con las L2 de Ethereum.

El contraargumento: Sei nunca logró una adopción significativa de CosmWasm. La mayor parte del TVL y la actividad ya se ejecutan en EVM. La SIP-3 formaliza la realidad en lugar de cambiarla.

Contexto de rendimiento: La carrera por el EVM paralelo

Sei Giga se lanza en un panorama de EVM paralelos cada vez más competitivo:

CadenaObjetivo de TPSEstadoArquitectura
Sei Giga200.000T1 2026Consenso de múltiples proponentes
MegaETH+ 100.000Red de pruebaProcesamiento en tiempo real
Monad10.0002025EVM paralelo
Solana65.000ActivaProof of History

Cómo se compara Sei:

vs. Monad: El EVM paralelo de Monad apunta a 10.000 TPS con una finalidad de 1 segundo. Sei afirma tener una capacidad 20 veces mayor con una finalidad más rápida. Sin embargo, Monad se lanza primero, y el rendimiento en el mundo real suele diferir de las cifras de las redes de prueba.

vs. MegaETH: MegaETH enfatiza una blockchain de "tiempo real" con un potencial de más de 100.000 TPS. Ambas cadenas apuntan a niveles de rendimiento similares, pero MegaETH mantiene la equivalencia con EVM, mientras que el cliente personalizado de Sei podría tener sutiles diferencias de compatibilidad.

vs. Solana: Los 65.000 TPS de Solana con una finalidad de 400 ms representan el punto de referencia actual de alto rendimiento. El objetivo de Sei de menos de 400 ms igualaría la velocidad de Solana al tiempo que ofrecería la compatibilidad con EVM de la que Solana carece de forma nativa.

La evaluación honesta: Todas estas cifras son resultados teóricos o de redes de prueba. El rendimiento en el mundo real depende de los patrones de uso reales, las condiciones de la red y la actividad económica.

Ecosistema actual: TVL y adopción

El ecosistema DeFi de Sei ha crecido significativamente, aunque no sin volatilidad:

Trayectoria del TVL:

  • Pico: $ 688 millones (principios de 2025)
  • Actual: ~ $ 455 - 500 millones
  • Crecimiento interanual: Aproximadamente 3 veces desde finales de 2024

Protocolos líderes:

  1. Yei Finance: Protocolo de préstamos que domina el sector DeFi en Sei
  2. DragonSwap: DEX principal con un volumen significativo
  3. Silo Finance: Integración de préstamos entre cadenas
  4. Varios de NFT / Gaming: Emergentes pero más pequeños

Métricas de usuario:

  • Direcciones activas diarias: ~ 50.000 - 100.000 (variable)
  • Volumen de transacciones: En aumento, pero por detrás de Solana / Base

El ecosistema sigue siendo más pequeño que las L1 establecidas, pero muestra un crecimiento constante. La pregunta es si las mejoras de rendimiento de Giga se traducirán en aumentos proporcionales de la adopción.

Implicaciones para desarrolladores

Para los desarrolladores que consideran Sei, Giga y SIP-3 crean tanto oportunidades como desafíos:

Oportunidades:

  • Desarrollo estándar en Solidity con rendimiento extremo
  • Menores costos de gas gracias a las mejoras de eficiencia
  • Ventaja de ser el primero en el nicho de EVM de alto rendimiento
  • Ecosistema en crecimiento con menos competencia que la red principal de Ethereum

Desafíos:

  • El cliente EVM personalizado puede tener problemas sutiles de compatibilidad
  • Base de usuarios más pequeña que la de las cadenas establecidas
  • El cronograma de depreciación de CosmWasm crea presión de migración
  • Las herramientas del ecosistema aún están madurando

Ruta de migración para desarrolladores de CosmWasm:

Si se aprueba el SIP-3, los desarrolladores de CosmWasm tienen hasta mediados de 2026 para:

  1. Portar contratos a Solidity / Vyper
  2. Migrar a otra cadena de Cosmos
  3. Aceptar la depreciación y finalizar operaciones

Sei no ha anunciado asistencia específica para la migración, aunque las discusiones en la comunidad sugieren posibles subvenciones o soporte técnico.

Consideraciones de inversión

Caso alcista (Bull Case):

  • Pionero en el espacio EVM de 200,000 TPS
  • Hoja de ruta técnica clara con entrega en el Q1 de 2026
  • El enfoque exclusivo en EVM atrae a un grupo de desarrolladores más grande
  • Foso de rendimiento frente a competidores más lentos

Caso bajista (Bear Case):

  • El TPS teórico rara vez coincide con la realidad de producción
  • Competidores (Monad, MegaETH) lanzándose con gran impulso
  • La depreciación de CosmWasm aleja a los desarrolladores existentes
  • El crecimiento del TVL no ha coincidido con las promesas de rendimiento

Métricas clave a seguir:

  • TPS de la red de prueba (testnet) y finalidad en condiciones del mundo real
  • Actividad de los desarrolladores tras el anuncio del SIP-3
  • Trayectoria del TVL durante el lanzamiento de Giga
  • Volumen de puentes entre cadenas e integraciones

Qué sucede a continuación

Q1 2026: Lanzamiento de Giga

  • Activación del consenso multi-proponente (multi-proposer)
  • El objetivo de 200,000 TPS entra en funcionamiento
  • Despliegue del cliente EVM personalizado

Mediados de 2026: Implementación de SIP-3 (si se aprueba)

  • Fecha límite de depreciación de CosmWasm
  • Eliminación del soporte de IBC
  • Transición completa a solo EVM

Preguntas clave:

  1. ¿Coincidirá el TPS del mundo real con el objetivo de 200,000?
  2. ¿Cuántos proyectos de CosmWasm migrarán frente a los que se irán?
  3. ¿Puede Sei atraer a los principales protocolos DeFi de Ethereum?
  4. ¿Se traduce el rendimiento en adopción por parte de los usuarios?

El panorama general

La actualización Giga de Sei representa una apuesta a que el rendimiento bruto marcará la diferencia en un panorama de blockchain cada vez más saturado. Al abandonar Cosmos y volverse exclusivo de EVM, Sei elige el enfoque sobre la opcionalidad, apostando a que el dominio de EVM hace que otros entornos de ejecución sean redundantes.

El hecho de que esta apuesta dé sus frutos depende de la ejecución (valga la redundancia). La industria de la cadena de bloques está llena de proyectos que prometieron un rendimiento revolucionario y entregaron mejoras moderadas. El cronograma del Q1 2026 de Sei proporcionará datos concretos.

Para desarrolladores e inversores, Giga crea un punto de decisión claro: creer que Sei puede cumplir con los 200,000 TPS y posicionarse en consecuencia, o esperar a la prueba de producción antes de comprometer recursos.

La carrera por la EVM paralela está oficialmente en marcha. Sei acaba de anunciar su velocidad de entrada.


BlockEden.xyz proporciona infraestructura RPC para cadenas de bloques de alto rendimiento, incluyendo Sei Network. A medida que las cadenas de ejecución paralela superan los límites de capacidad de procesamiento, una infraestructura de nodos confiable se vuelve crítica para los desarrolladores que crean aplicaciones sensibles a la latencia. Explore nuestro mercado de API para acceder a Sei y otras cadenas de bloques.