Saltar al contenido principal

33 publicaciones etiquetados con "Escalabilidad"

Soluciones de escalado blockchain y rendimiento

Ver Todas las Etiquetas

La guerra de consolidación de la Capa 2: Cómo Base y Arbitrum capturaron el 77% del futuro de Ethereum

· 18 min de lectura
Dora Noda
Software Engineer

Cuando Vitalik Buterin declaró en febrero de 2026 que la hoja de ruta centrada en rollups de Ethereum "ya no tiene sentido", no estaba criticando la tecnología de Capa 2; estaba reconociendo una brutal verdad del mercado que había sido obvia durante meses: la mayoría de los rollups de Capa 2 están muertos, y simplemente aún no lo saben.

Base (46,58 % del TVL DeFi de L2) y Arbitrum (30,86 %) ahora controlan más del 77 % del valor total bloqueado del ecosistema de Capa 2. Optimism añade otro ~ 6 %, lo que eleva a los tres primeros a un dominio del mercado del 83 %. Para los más de 50 rollups restantes que luchan por las sobras, las matemáticas son implacables: sin diferenciación, sin usuarios y sin una economía sostenible, la extinción no es una posibilidad — está programada.

Los números cuentan una historia de supervivencia

La perspectiva de Capa 2 para 2026 de The Block describe un panorama de consolidación extrema. Base surgió como el líder indiscutible en TVL, usuarios y actividad en 2025. Mientras tanto, la mayoría de las nuevas L2 vieron colapsar su uso después de que terminaron los ciclos de incentivos, revelando que el TVL impulsado por puntos no es demanda real — es atención alquilada que se evapora en el momento en que se detienen las recompensas.

El volumen de transacciones cuenta la historia del dominio en tiempo real. Base lidera frecuentemente en transacciones diarias, procesando más de 50 millones de transacciones mensuales en comparación con los 40 millones de Arbitrum. Arbitrum todavía maneja 1,5 millones de transacciones diarias, impulsadas por protocolos DeFi establecidos, juegos y actividad de DEX. Optimism le sigue con 800.000 transacciones diarias, aunque muestra un impulso de crecimiento.

Los usuarios activos diarios favorecen a Base con más de 1 millón de direcciones activas — una métrica que refleja la capacidad de Coinbase para canalizar a los usuarios minoristas directamente a su Capa 2. Arbitrum mantiene entre 250.000 y 300.000 usuarios activos diarios, concentrados entre usuarios avanzados de DeFi y protocolos que migraron temprano. Optimism promedia 82.130 direcciones activas diarias en OP Mainnet, con usuarios activos semanales que alcanzan los 422.170 (crecimiento del 38,2 %).

El abismo entre ganadores y perdedores es masivo. Las tres principales L2 dominan más del 80 % de la actividad, mientras que docenas de otras combinadas no pueden superar porcentajes de dos dígitos. Muchas L2 emergentes siguieron trayectorias idénticas: picos de actividad impulsados por incentivos antes de los eventos de generación de tokens (TGE), seguidos de rápidos descensos post-TGE a medida que la liquidez y los usuarios migran a ecosistemas establecidos. Es el equivalente en Capa 2 del "pump-and-dump", excepto que los equipos realmente creían que sus rollups eran diferentes.

Pruebas de fraude de Etapa 1: El umbral de seguridad que importa

En enero de 2026, Arbitrum One, OP Mainnet y Base alcanzaron el estatus de "Etapa 1" bajo la clasificación de rollups de L2BEAT — un hito que suena técnico pero representa un cambio fundamental en cómo funciona la seguridad de la Capa 2.

La Etapa 1 significa que estos rollups ahora pasan la "prueba de salida": los usuarios pueden salir incluso en presencia de operadores maliciosos, incluso si el Consejo de Seguridad desaparece. Esto se logra a través de pruebas de fraude sin permiso, que permiten a cualquier persona desafiar transiciones de estado inválidas on-chain. Si un operador intenta robar fondos o censurar retiros, los validadores pueden presentar pruebas de fraude que revierten la transacción maliciosa y penalizan al atacante.

El sistema BoLD (Bounded Liquidity Delay) de Arbitrum permite que cualquier persona participe en la validación del estado de la cadena y en la presentación de desafíos, eliminando el cuello de botella del validador centralizado. BoLD está activo en Arbitrum One, Arbitrum Nova y Arbitrum Sepolia, convirtiéndolo en uno de los primeros rollups principales en lograr pruebas de fraude completamente sin permiso.

Optimism y Base (que se ejecutan sobre el OP Stack) han implementado pruebas de fraude sin permiso que permiten a cualquier participante desafiar las raíces de estado. Esta descentralización del proceso de prueba de fraude elimina el punto único de falla que afectaba a los rollups optimistas iniciales, donde solo los validadores en la lista blanca podían disputar transacciones fraudulentas.

La importancia: los rollups de Etapa 1 ya no requieren confianza en un multisig o consejo de gobernanza para evitar el robo. Si el equipo de Arbitrum desapareciera mañana, la cadena continuaría operando y los usuarios aún podrían retirar fondos. Eso no es cierto para la mayoría de las Capas 2, que permanecen en la Etapa 0 — redes centralizadas controladas por multisig donde la salida depende de operadores honestos.

Para las empresas e instituciones que evalúan las L2, la Etapa 1 es el requisito mínimo. No se puede proponer infraestructura descentralizada mientras se requiere que los usuarios confíen en un multisig de 5 de 9. Los rollups que no hayan alcanzado la Etapa 1 para mediados de 2026 se enfrentan a una crisis de credibilidad: si has estado activo por más de 2 años y aún no puedes descentralizar la seguridad, ¿cuál es tu excusa?

El gran evento de extinción de la Capa 2

La declaración de Vitalik en febrero de 2026 no fue solo filosófica — fue una realidad respaldada por datos on-chain. Argumentó que la Capa 1 de Ethereum se está escalando más rápido de lo esperado, con tarifas más bajas y una mayor capacidad que reduce la necesidad de la proliferación de rollups genéricos. Si la red principal de Ethereum puede manejar más de 10.000 TPS con PeerDAS y el muestreo de disponibilidad de datos (data availability sampling), ¿por qué los usuarios se fragmentarían en docenas de L2 idénticas?

La respuesta: no lo harán. El espacio de las L2 se está contrayendo en dos categorías:

  1. Rollups de commodities que compiten en tarifas y rendimiento (Base, Arbitrum, Optimism, Polygon zkEVM)
  2. L2 especializadas con modelos de ejecución fundamentalmente diferentes (Prividium de zkSync para empresas, Immutable X para juegos, dYdX para derivados)

Todo lo que se encuentre en medio — rollups EVM genéricos sin distribución, sin características únicas y sin razón de existir más allá de "nosotros también somos una Capa 2" — se enfrenta a la extinción.

Docenas de rollups lanzados en 2024-2025 con pilas tecnológicas casi idénticas: bifurcaciones de OP Stack o Arbitrum Orbit, pruebas de fraude optimistas o ZK, ejecución EVM genérica. Compitieron en programas de puntos y promesas de airdrops, no en diferenciación de productos. Cuando concluyeron los eventos de generación de tokens y los incentivos se agotaron, los usuarios se fueron en masa. El TVL colapsó entre un 70 y un 90 % en cuestión de semanas. Las transacciones diarias cayeron a tres dígitos.

El patrón se repitió tan a menudo que se convirtió en un meme: "testnet incentivada → farmeo de puntos → TGE → cadena fantasma".

Ethereum Name Service (ENS) descartó su lanzamiento planeado de Capa 2 en febrero de 2026 tras los comentarios de Vitalik, decidiendo que la complejidad y fragmentación de lanzar una cadena separada ya no justificaban los beneficios marginales de escalado. Si ENS — una de las aplicaciones de Ethereum más establecidas — no puede justificar un rollup, ¿qué esperanza tienen las cadenas más nuevas y menos diferenciadas?

La ventaja de Coinbase para Base: La distribución como foso (moat)

El dominio de Base no es puramente técnico — es la distribución. Coinbase puede incorporar a millones de usuarios minoristas directamente a Base sin que se den cuenta de que han salido de la red principal de Ethereum. Cuando Coinbase Wallet utiliza Base por defecto, cuando Coinbase Commerce liquida en Base, cuando los más de 110 + millones de usuarios verificados de Coinbase reciben el aviso para "probar Base para obtener tarifas más bajas", el flywheel (volante de inercia) gira más rápido de lo que cualquier programa de incentivos puede igualar.

Base procesó más de 1 millón de direcciones activas diarias en 2025, una cifra a la que ninguna otra L2 se acercó. Esa base de usuarios no son granjeros de airdrops mercenarios — son usuarios cripto minoristas que confían en Coinbase y siguen sus indicaciones. No les importan las etapas de descentralización o los mecanismos de prueba de fraude. Les importa que las transacciones cuesten centavos y se liquiden instantáneamente.

Coinbase también se beneficia de una claridad regulatoria de la que carecen otras L2. Como entidad regulada que cotiza en bolsa, Coinbase puede trabajar directamente con bancos, fintechs y empresas que no tocarían a equipos de rollups seudónimos. Cuando Stripe integró pagos con stablecoins, priorizó a Base. Cuando PayPal exploró la liquidación en blockchain, Base estuvo en la conversación. Esto no es solo cripto — es la adopción de las TradFi a escala.

El inconveniente: Base hereda la centralización de Coinbase. Si Coinbase decide censurar transacciones, ajustar tarifas o modificar las reglas del protocolo, los usuarios tienen recursos limitados. La seguridad de la Etapa 1 ayuda, pero la realidad práctica es que el éxito de Base depende de que Coinbase siga siendo un operador confiable. Para los puristas de las DeFi, eso es un impedimento insuperable. Para los usuarios convencionales, es una característica — querían cripto con "rueditas de entrenamiento" y Base cumple.

La fortaleza DeFi de Arbitrum: Por qué la liquidez importa más que los usuarios

Arbitrum tomó un camino diferente: en lugar de incorporar al sector minorista, capturó los protocolos principales de las DeFi desde el principio. GMX, Camelot, Radiant Capital, Sushi, Gains Network — Arbitrum se convirtió en la cadena por defecto para derivados, perpetuos y trading de alto volumen. Esto creó un flywheel de liquidez que es casi imposible de desalojar.

El dominio del TVL de Arbitrum en las DeFi (30,86 %) no se trata solo de capital — se trata de efectos de red. Los traders van donde la liquidez es más profunda. Los creadores de mercado se despliegan donde el volumen es más alto. Los protocolos se integran donde los usuarios ya operan. Una vez que ese volante de inercia gira, los competidores necesitan una tecnología o incentivos 10x mejor para alejar a los usuarios.

Arbitrum también invirtió fuertemente en gaming y NFTs a través de asociaciones con Treasure DAO, Trident y otros. El programa catalizador de gaming de $ 215 millones lanzado en 2026 se dirige a juegos Web3 que necesitan un alto rendimiento y tarifas bajas — casos de uso donde Ethereum Layer 1 no puede competir y donde el enfoque minorista de Base no se alinea.

A diferencia de Base, Arbitrum no tiene una empresa matriz que canalice a los usuarios. Creció orgánicamente atrayendo primero a los constructores y después a los usuarios. Eso hace que el crecimiento sea más lento pero más persistente. Los proyectos que migran a Arbitrum generalmente se quedan porque sus usuarios, liquidez e integraciones ya están allí.

El desafío: el foso de las DeFi de Arbitrum está bajo el ataque de Solana, que ofrece una finalidad más rápida y tarifas más bajas para los mismos casos de uso de trading de alta frecuencia. Si los traders de derivados y los creadores de mercado deciden que las garantías de seguridad de Ethereum no valen el costo, el TVL de Arbitrum podría filtrarse hacia las L1 alternativas más rápido de lo que los nuevos protocolos DeFi pueden reemplazarlo.

El giro empresarial de zkSync: Cuando el sector minorista falla, apunta a los bancos

zkSync dio el giro más audaz de cualquier L2 importante. Después de años de apuntar a los usuarios de DeFi minoristas y competir con Arbitrum y Optimism, zkSync anunció en enero de 2026 que su enfoque principal cambiaría a las finanzas institucionales a través de Prividium — una capa empresarial permisionada que preserva la privacidad construida sobre ZK Stack.

Prividium conecta la infraestructura descentralizada con las necesidades institucionales a través de redes empresariales ancladas a Ethereum que preservan la privacidad. Deutsche Bank y UBS se encuentran entre los primeros socios, explorando la gestión de fondos on-chain, los pagos mayoristas transfronterizos, los flujos de activos hipotecarios y la liquidación de activos tokenizados — todo con privacidad y cumplimiento de grado empresarial.

La propuesta de valor: los bancos obtienen la eficiencia y transparencia de la blockchain sin exponer datos de transacciones sensibles en cadenas públicas. Prividium utiliza pruebas de conocimiento cero para verificar transacciones sin revelar montos, partes o tipos de activos. Cumple con MiCA (regulación de criptoactivos de la UE), admite controles de acceso permisionados y ancla la seguridad a la red principal de Ethereum.

La hoja de ruta de zkSync prioriza las actualizaciones Atlas (15.000 TPS) y Fusaka (30.000 TPS) respaldadas por Vitalik Buterin, posicionando a ZK Stack como la infraestructura tanto para rollups públicos como para cadenas empresariales privadas. El token $ ZK gana utilidad a través de Token Assembly, que vincula los ingresos de Prividium al crecimiento del ecosistema.

El riesgo: zkSync apuesta a que la adopción empresarial compensará su decreciente cuota de mercado minorista. Si los despliegues de Deutsche Bank y UBS tienen éxito, zkSync captura un mercado de océano azul al que Base y Arbitrum no se dirigen. Si las empresas rechazan la liquidación on-chain o los reguladores rechazan las finanzas basadas en blockchain, el giro de zkSync se convierte en un callejón sin salida y pierde tanto las DeFi minoristas como los ingresos institucionales.

Qué mata a un Rollup: Los tres modos de fallo

Al observar el cementerio de las L2, surgen tres patrones de por qué fallan los rollups:

1. Sin distribución. Construir un rollup técnicamente superior no significa nada si nadie lo usa. Los desarrolladores no desplegarán en cadenas fantasma. Los usuarios no harán puentes (bridge) hacia rollups que no tengan aplicaciones. El problema del arranque en frío es brutal, y la mayoría de los equipos subestiman cuánto capital y esfuerzo se necesita para poner en marcha un mercado bilateral.

2. Agotamiento de incentivos. Los programas de puntos funcionan —hasta que dejan de hacerlo—. Los equipos que dependen de la minería de liquidez, los airdrops retroactivos y el yield farming para impulsar el TVL descubren que el capital mercenario se marcha en el instante en que se detienen las recompensas. Los rollups sostenibles necesitan demanda orgánica, no liquidez alquilada.

3. Falta de diferenciación. Si el único punto de venta de su rollup es "somos más baratos que Arbitrum", están compitiendo en precio en una carrera hacia el cero. La red principal de Ethereum se está volviendo más barata. Arbitrum se está volviendo más rápido. Base tiene a Coinbase. ¿Cuál es su foso competitivo? Si la respuesta es "tenemos una gran comunidad", ya están muertos; simplemente aún no lo han admitido.

Los rollups que sobrevivan al 2026 habrán resuelto al menos uno de estos problemas de forma definitiva. El resto se desvanecerá en cadenas zombis: técnicamente operativas pero económicamente irrelevantes, ejecutando validadores que procesan un puñado de transacciones al día, esperando un cierre ordenado que nunca llega porque a nadie le importa lo suficiente como para apagar las luces.

La ola de los Rollups empresariales: Las instituciones como distribución

El 2025 marcó el auge del "rollup empresarial": grandes instituciones que lanzan o adoptan infraestructura L2, a menudo estandarizándose en el OP Stack. Kraken introdujo INK, Uniswap lanzó UniChain, Sony lanzó Soneium para juegos y medios, y Robinhood integró Arbitrum para rieles de liquidación cuasi-L2.

Esta tendencia continúa en 2026, con las empresas dándose cuenta de que pueden desplegar rollups adaptados a sus necesidades específicas: acceso con permisos, estructuras de tarifas personalizadas, ganchos de cumplimiento (compliance hooks) e integración directa con sistemas heredados. Estas no son cadenas públicas que compiten con Base o Arbitrum; son infraestructura privada que casualmente utiliza tecnología rollup y liquida en Ethereum para obtener seguridad.

La implicación: el número total de "Capas 2" podría aumentar, pero el número de L2 públicas que importan se reducirá. La mayoría de los rollups empresariales no aparecerán en las clasificaciones de TVL, conteos de usuarios o actividad DeFi. Son infraestructura invisible, y ese es el objetivo.

Para los desarrolladores que construyen en L2 públicas, esto crea un panorama competitivo más claro. Ya no compiten con cada rollup; compiten con la distribución de Base, la liquidez de Arbitrum y el ecosistema OP Stack de Optimism. Todo lo demás es ruido.

Cómo se ve el 2026: El futuro de las tres plataformas

Para finales de año, es probable que el ecosistema de Capa 2 se consolide en torno a tres plataformas dominantes, cada una atendiendo a diferentes mercados:

Base domina el sector minorista (retail) y la adopción generalizada. La ventaja de distribución de Coinbase es insuperable para los competidores genéricos. Cualquier proyecto dirigido a usuarios comunes debería optar por Base por defecto, a menos que tenga una razón de peso para no hacerlo.

Arbitrum domina el sector DeFi y las aplicaciones de alta frecuencia. El foso de liquidez y el ecosistema de desarrolladores lo convierten en la opción predeterminada para derivados, perpetuos y protocolos financieros complejos. Los juegos y los NFT siguen siendo vectores de crecimiento si el programa catalizador de $ 215 millones da resultados.

zkSync / Prividium domina las finanzas empresariales e institucionales. Si los pilotos de Deutsche Bank y UBS tienen éxito, zkSync capturará un mercado que las L2 públicas no pueden tocar debido a los requisitos de cumplimiento y privacidad.

Optimism sobrevive como el proveedor del OP Stack: menos una cadena independiente y más la capa de infraestructura que impulsa a Base, los rollups empresariales y los bienes públicos. Su valor se acumula a través de la visión de la Supercadena (Superchain), donde docenas de cadenas OP Stack comparten liquidez, mensajería y seguridad.

Todo lo demás —Polygon zkEVM, Scroll, Starknet, Linea, Metis, Blast, Manta, Mode y las más de 40 otras L2 públicas— luchará por el 10-15 % restante de la cuota de mercado. Algunos encontrarán nichos (Immutable X para juegos, dYdX para derivados). La mayoría no lo hará.

Por qué debería importarles a los desarrolladores (y dónde construir)

Si están construyendo en Ethereum, su elección de L2 en 2026 no es técnica; es estratégica. Los rollups optimistas y los ZK rollups han convergido lo suficiente como para que las diferencias de rendimiento sean marginales para la mayoría de las aplicaciones. Lo que importa ahora es la distribución, la liquidez y el encaje en el ecosistema.

Construyan en Base si: Se dirigen a usuarios minoristas, construyen aplicaciones de consumo o se integran con productos de Coinbase. La fricción en la incorporación de usuarios es la más baja aquí.

Construyan en Arbitrum si: Están construyendo DeFi, derivados o aplicaciones de alto rendimiento que necesitan liquidez profunda y protocolos establecidos. Los efectos de red del ecosistema son más fuertes aquí.

Construyan en zkSync / Prividium si: Se dirigen a instituciones, requieren transacciones que preserven la privacidad o necesitan infraestructura lista para el cumplimiento normativo. El enfoque empresarial es único aquí.

Construyan en Optimism si: Están alineados con la visión de la Supercadena, desean personalizar un rollup de OP Stack o valoran el financiamiento de bienes públicos. La modularidad es máxima aquí.

No construyan en cadenas zombis. Si un rollup tiene < 10,000 usuarios activos diarios, < $ 100 millones de TVL y se lanzó hace más de un año, no es "temprano"; ha fallado. Migrar más tarde costará más que comenzar en una cadena dominante hoy.

Para los proyectos que construyen en la Capa 2 de Ethereum, BlockEden.xyz proporciona infraestructura RPC de nivel empresarial en Base, Arbitrum, Optimism y otras redes líderes. Ya sea que esté incorporando usuarios minoristas, gestionando liquidez DeFi o escalando aplicaciones de alto rendimiento, nuestra infraestructura de API está diseñada para manejar las demandas de los rollups de nivel de producción. Explore nuestro mercado de API multicadena para construir en las Capas 2 que realmente importan.

Fuentes

Lanzamiento de la Mainnet de MegaETH: ¿Puede la Blockchain en Tiempo Real Destronar a los Gigantes L2 de Ethereum?

· 13 min de lectura
Dora Noda
Software Engineer

El ecosistema blockchain acaba de presenciar algo extraordinario. El 9 de febrero de 2026, MegaETH lanzó su mainnet pública con una promesa audaz: 100,000 transacciones por segundo con tiempos de bloque de 10 milisegundos. Solo durante las pruebas de estrés, la red procesó más de 10.7 mil millones de transacciones, superando toda la historia de una década de Ethereum en solo una semana.

¿Pero podrá el hype del marketing traducirse en una realidad de producción? Y lo que es más importante, ¿podrá este recién llegado respaldado por Vitalik desafiar el dominio establecido de Arbitrum, Optimism y Base en las guerras de la Capa 2 de Ethereum?

La promesa: llega la blockchain en tiempo real

La mayoría de los usuarios de blockchain han experimentado la frustración de esperar segundos o minutos para la confirmación de una transacción. Incluso las soluciones de Capa 2 más rápidas de Ethereum operan con tiempos de finalidad de 100 - 500 ms y procesan decenas de miles de transacciones por segundo en el mejor de los casos. Para la mayoría de las aplicaciones DeFi, esto es aceptable. Pero para el trading de alta frecuencia, los juegos en tiempo real y los agentes de IA que requieren retroalimentación instantánea, estos retrasos son un obstáculo insalvable.

La propuesta de MegaETH es simple pero radical: eliminar por completo el "lag" on - chain.

La red apunta a 100,000 TPS con tiempos de bloque de 1 - 10 ms, creando lo que el equipo llama "la primera blockchain en tiempo real". Para poner esto en perspectiva, eso es 1,700 Mgas / s (millones de gas por segundo) de capacidad de cómputo, eclipsando por completo los 15 Mgas / s de Optimism y los 128 Mgas / s de Arbitrum. Incluso el ambicioso objetivo de 1,000 Mgas / s de Base parece modesto en comparación.

Respaldado por los cofundadores de Ethereum, Vitalik Buterin y Joe Lubin, a través de la empresa matriz MegaLabs, el proyecto recaudó 450millonesenunaventadetokenssobresuscritaqueatrajoa14,491participantes,con819billeterasagotandolasasignacionesindividualesde450 millones en una venta de tokens sobresuscrita que atrajo a 14,491 participantes, con 819 billeteras agotando las asignaciones individuales de 186,000 cada una. Este nivel de interés institucional y minorista posiciona a MegaETH como uno de los proyectos de Capa 2 de Ethereum mejor financiados y más seguidos de cara a 2026.

La realidad: resultados de las pruebas de estrés

Las promesas son baratas en el mundo cripto. Lo que importa es el rendimiento medible en condiciones del mundo real.

Las recientes pruebas de estrés de MegaETH demostraron un rendimiento sostenido de 35,000 TPS, significativamente por debajo del objetivo teórico de 100,000 TPS, pero aún así impresionante en comparación con sus competidores. Durante estas pruebas, la red mantuvo tiempos de bloque de 10 ms mientras procesaba los 10.7 mil millones de transacciones que eclipsaron todo el volumen histórico de Ethereum.

Estas cifras revelan tanto el potencial como la brecha. Lograr 35,000 TPS en pruebas controladas es notable. Queda por ver si la red puede mantener estas velocidades en condiciones adversas, con ataques de spam, extracción de MEV e interacciones complejas de contratos inteligentes.

El enfoque arquitectónico difiere fundamentalmente de las soluciones de Capa 2 existentes. Mientras que Arbitrum y Optimism utilizan optimistic rollups que agrupan transacciones fuera de la cadena y las liquidan periódicamente en la L1 de Ethereum, MegaETH emplea una arquitectura de tres capas con nodos especializados:

  • Nodos secuenciadores: ordenan y emiten transacciones en tiempo real.
  • Nodos probadores: verifican y generan pruebas criptográficas.
  • Nodos completos: mantienen el estado de la red.

Este diseño modular y paralelo ejecuta múltiples contratos inteligentes simultáneamente a través de núcleos sin contención, permitiendo teóricamente los objetivos de rendimiento extremos. El secuenciador finaliza inmediatamente las transacciones en lugar de esperar la liquidación por lotes, que es como MegaETH logra una latencia inferior al milisegundo.

El panorama competitivo: se calientan las guerras de las L2

El ecosistema de Capa 2 de Ethereum ha evolucionado hacia un mercado ferozmente competitivo con ganadores y perdedores claros. A principios de 2026, el valor total bloqueado (TVL) de Ethereum en soluciones de Capa 2 alcanzó los 51milmillones,conproyeccionesdellegara51 mil millones, con proyecciones de llegar a 1 billón para 2030.

Pero este crecimiento no se distribuye de manera uniforme. Base, Arbitrum y Optimism controlan aproximadamente el 90 % del volumen de transacciones de Capa 2. Solo Base capturó el 60 % de la cuota de transacciones L2 en los últimos meses, aprovechando la distribución de Coinbase y sus 100 millones de usuarios potenciales. Arbitrum mantiene una cuota de mercado DeFi del 31 % con $ 215 millones en catalizadores de juegos, mientras que Optimism se centra en la interoperabilidad a través de su ecosistema Superchain.

La mayoría de las nuevas Capas 2 colapsan tras el fin de los incentivos, creando lo que algunos analistas llaman "cadenas zombis" con una actividad mínima. La ola de consolidación es brutal: si no estás en el nivel superior, es probable que estés luchando por sobrevivir.

MegaETH entra en este panorama maduro y competitivo con una propuesta de valor diferente. En lugar de competir directamente con las L2 de propósito general en tarifas o seguridad, se enfoca en casos de uso específicos donde el rendimiento en tiempo real desbloquea categorías de aplicaciones completamente nuevas:

Trading de alta frecuencia

Los CEX tradicionales procesan operaciones en microsegundos. Los protocolos DeFi en las L2 existentes no pueden competir con una finalidad de 100 - 500 ms. Los tiempos de bloque de 10 ms de MegaETH acercan el trading on - chain al rendimiento de los CEX, atrayendo potencialmente la liquidez institucional que actualmente evita las DeFi debido a la latencia.

Juegos en tiempo real

Los juegos on-chain en las cadenas de bloques actuales sufren retrasos notables que rompen la inmersión. La finalidad de submilisegundos permite experiencias de juego receptivas que se sienten como los juegos tradicionales de la Web2, manteniendo al mismo tiempo la verificabilidad de la cadena de bloques y las garantías de propiedad de los activos.

Coordinación de agentes de IA

Los agentes de IA autónomos que realizan millones de microtransacciones al día necesitan una liquidación instantánea. La arquitectura de MegaETH está optimizada específicamente para aplicaciones impulsadas por IA que requieren una ejecución de contratos inteligentes de alto rendimiento y baja latencia.

La pregunta es si estos casos de uso especializados generan suficiente demanda para justificar la existencia de MegaETH junto con las L2 de propósito general, o si el mercado se consolida aún más en torno a Base, Arbitrum y Optimism.

Señales de adopción institucional

La adopción institucional se ha convertido en el diferenciador clave que separa los proyectos exitosos de Capa 2 de los que fracasan. Una infraestructura predecible y de alto rendimiento es ahora un requisito para los participantes institucionales que asignan capital a aplicaciones on-chain.

La venta de tokens de 450 millones de dólares de MegaETH demostró un fuerte apetito institucional. La mezcla de participación —desde fondos nativos de criptomonedas hasta socios estratégicos— sugiere credibilidad más allá de la especulación minorista. Sin embargo, el éxito en la recaudación de fondos no garantiza la adopción de la red.

El verdadero prueba llegará en los meses posteriores al lanzamiento de la mainnet. Las métricas clave a seguir incluyen:

  • Adopción de desarrolladores: ¿Están los equipos construyendo protocolos HFT, juegos y aplicaciones de agentes de IA en MegaETH?
  • Crecimiento del TVL: ¿Fluye el capital hacia los protocolos DeFi nativos de MegaETH?
  • Sostenibilidad del volumen de transacciones: ¿Puede la red mantener un TPS alto fuera de las pruebas de estrés?
  • Asociaciones empresariales: ¿Las firmas de trading institucional y los estudios de videojuegos integran MegaETH?

Los indicadores tempranos sugieren un interés creciente. El lanzamiento de la mainnet de MegaETH coincide con Consensus Hong Kong 2026, una elección de tiempo estratégica que posiciona a la red para una visibilidad máxima entre la audiencia institucional de blockchain en Asia.

La mainnet también se lanza mientras el propio Vitalik Buterin ha cuestionado la hoja de ruta de Ethereum centrada en los rollups desde hace mucho tiempo, sugiriendo que el escalado de la L1 de Ethereum debería recibir más atención. Esto crea tanto una oportunidad como un riesgo para MegaETH: oportunidad si la narrativa de las L2 se debilita, pero riesgo si la propia L1 de Ethereum logra un mejor rendimiento a través de actualizaciones como PeerDAS y Fusaka.

Análisis de la realidad técnica

Las afirmaciones arquitectónicas de MegaETH merecen un escrutinio. El objetivo de 100,000 TPS con tiempos de bloque de 10 ms suena impresionante, pero varios factores complican esta narrativa.

Primero, los 35,000 TPS logrados en las pruebas de estrés representan condiciones controladas y optimizadas. El uso en el mundo real implica diversos tipos de transacciones, interacciones complejas de contratos inteligentes y comportamientos adversos. Mantener un rendimiento constante bajo estas condiciones es mucho más desafiante que los puntos de referencia sintéticos.

Segundo, la arquitectura de tres capas introduce riesgos de centralización. Los nodos secuenciadores tienen un poder significativo en el ordenamiento de las transacciones, creando oportunidades de extracción de MEV. Si bien es probable que MegaETH incluya mecanismos para distribuir la responsabilidad del secuenciador, los detalles importan enormemente para la seguridad y la resistencia a la censura.

Tercero, las garantías de finalidad difieren entre la "finalidad suave" del secuenciador y la "finalidad dura" después de la generación de pruebas y la liquidación en la L1 de Ethereum. Los usuarios necesitan claridad sobre a qué tipo de finalidad se refiere el marketing de MegaETH cuando afirma un rendimiento de submilisegundos.

Cuarto, el modelo de ejecución en paralelo requiere una gestión cuidadosa del estado para evitar conflictos. Si múltiples transacciones afectan el mismo estado de un contrato inteligente, no pueden ejecutarse realmente en paralelo. La eficacia del enfoque de MegaETH depende en gran medida de las características de la carga de trabajo: las aplicaciones con transacciones naturalmente paralelizables se beneficiarán más que aquellas con conflictos de estado frecuentes.

Finalmente, las herramientas para desarrolladores y la compatibilidad del ecosistema importan tanto como el rendimiento bruto. El éxito de Ethereum proviene en parte de herramientas estandarizadas (Solidity, Remix, Hardhat, Foundry) que hacen que la construcción sea fluida. Si MegaETH requiere cambios significativos en los flujos de trabajo de desarrollo, la adopción sufrirá independientemente de las ventajas de velocidad.

¿Puede MegaETH destronar a los gigantes de las L2?

La respuesta honesta: probablemente no del todo, pero puede que no sea necesario.

Base, Arbitrum y Optimism han establecido efectos de red, miles de millones en TVL y ecosistemas de aplicaciones diversos. Atienden eficazmente las necesidades de propósito general con tarifas y seguridad razonables. Desplazarlos por completo requeriría no solo una tecnología superior, sino también una migración del ecosistema, lo cual es extraordinariamente difícil.

Sin embargo, MegaETH no necesita obtener una victoria total. Si logra capturar los mercados de trading de alta frecuencia, juegos en tiempo real y coordinación de agentes de IA, puede prosperar como una Capa 2 especializada junto a competidores de propósito general.

La industria de la cadena de bloques se está moviendo hacia arquitecturas específicas para aplicaciones. Uniswap lanzó una L2 especializada. Kraken construyó un rollup para trading. Sony creó una cadena enfocada en juegos. MegaETH encaja en esta tendencia: una infraestructura diseñada específicamente para aplicaciones sensibles a la latencia.

Los factores críticos de éxito son:

  1. Cumplir con las promesas de rendimiento: Mantener más de 35,000 TPS con una finalidad de < 100 ms en producción sería notable. Alcanzar 100,000 TPS con tiempos de bloque de 10 ms sería transformador.

  2. Atraer aplicaciones estrella: MegaETH necesita al menos un protocolo innovador que demuestre ventajas claras sobre las alternativas. Un protocolo HFT con un rendimiento de nivel CEX, o un juego en tiempo real con millones de usuarios, validaría la tesis.

  3. Gestionar las preocupaciones de centralización: Abordar de manera transparente la centralización del secuenciador y los riesgos de MEV genera confianza con los usuarios institucionales que se preocupan por la resistencia a la censura.

  4. Construir un ecosistema de desarrolladores: Las herramientas, la documentación y el soporte para desarrolladores determinan si los creadores eligen MegaETH en lugar de las alternativas establecidas.

  5. Navegar por el entorno regulatorio: Las aplicaciones de trading y juegos en tiempo real atraen el escrutinio regulatorio. Los marcos de cumplimiento claros serán importantes para la adopción institucional.

El Veredicto: Optimismo Cauteloso

MegaETH representa un avance técnico genuino en la escalabilidad de Ethereum. Los resultados de las pruebas de estrés son impresionantes, el respaldo es creíble y el enfoque en los casos de uso es sensato. La blockchain en tiempo real desbloquea aplicaciones que genuinamente no pueden existir en la infraestructura actual.

Pero el escepticismo está justificado. Hemos visto a muchos "Ethereum killers" y "L2 de próxima generación" no estar a la altura del bombo publicitario del marketing. La brecha entre el rendimiento teórico y la fiabilidad en producción suele ser enorme. Los efectos de red y la dependencia del ecosistema favorecen a los actores establecidos.

Los próximos seis meses serán decisivos. Si MegaETH mantiene el rendimiento de las pruebas de estrés en producción, atrae una actividad significativa de desarrolladores y demuestra casos de uso del mundo real que no podrían existir en Arbitrum o Base, se ganará su lugar en el ecosistema de Capa 2 de Ethereum.

Si el rendimiento de las pruebas de estrés se degrada bajo la carga del mundo real, o si los casos de uso especializados no se materializan, MegaETH corre el riesgo de convertirse en otro proyecto sobrevalorado que lucha por la relevancia en un mercado cada vez más consolidado.

La industria blockchain no necesita más soluciones de Capa 2 de propósito general. Necesita infraestructura especializada que permita categorías de aplicaciones completamente nuevas. El éxito o fracaso de MegaETH pondrá a prueba si la blockchain en tiempo real es una categoría convincente o una solución en busca de un problema.

BlockEden.xyz proporciona infraestructura de nivel empresarial para aplicaciones blockchain de alto rendimiento, incluyendo soporte especializado para los ecosistemas de Capa 2 de Ethereum. Explore nuestros servicios de API diseñados para requisitos exigentes de latencia y rendimiento.


Fuentes:

La bomba de Vitalik sobre L2: Por qué la hoja de ruta centrada en rollups de Ethereum 'ya no tiene sentido'

· 14 min de lectura
Dora Noda
Software Engineer

"Ustedes no están escalando a Ethereum."

Con esas seis palabras, Vitalik Buterin entregó una dosis de realidad que envió ondas de choque a través del ecosistema de Ethereum. La declaración, dirigida a las cadenas de alto rendimiento que utilizan puentes multifirma (multisig), provocó una respuesta inmediata: ENS Labs canceló su rollup Namechain planeado solo unos días después, citando el rendimiento dramáticamente mejorado de la capa base de Ethereum.

Después de años de posicionar los rollups de Capa 2 como la principal solución de escalabilidad de Ethereum, el giro del cofundador en febrero de 2026 representa uno de los cambios estratégicos más significativos en la historia de blockchain. La pregunta ahora es si miles de proyectos L2 existentes pueden adaptarse—o volverse obsoletos.

La hoja de ruta centrada en rollups: ¿Qué ha cambiado?

Durante años, la estrategia oficial de escalado de Ethereum se centró en los rollups. La lógica era simple: la L1 de Ethereum se centraría en la seguridad y la descentralización, mientras que las redes de Capa 2 manejarían el rendimiento de las transacciones agrupando las ejecuciones fuera de la cadena y publicando los datos comprimidos de vuelta en la red principal (mainnet).

Esta hoja de ruta tenía sentido cuando la L1 de Ethereum luchaba con 15-30 TPS y las tarifas de gas superaban habitualmente los $ 50 por transacción durante los picos de congestión. Proyectos como Arbitrum, Optimism y zkSync recaudaron miles de millones para construir una infraestructura de rollups que eventualmente escalaría Ethereum a millones de transacciones por segundo.

Pero dos desarrollos críticos socavaron esta narrativa.

Primero, la descentralización de las L2 progresó "mucho más lento" de lo esperado, según Buterin. La mayoría de los rollups todavía dependen de secuenciadores centralizados, claves de actualización multifirma y operadores de confianza. El viaje hacia la descentralización de Etapa 2—donde los rollups pueden operar sin "ruedas de entrenamiento"—ha resultado ser extraordinariamente difícil. Solo un puñado de proyectos ha alcanzado la Etapa 1, y ninguno ha llegado a la Etapa 2.

Segundo, la propia L1 de Ethereum escaló drásticamente. La actualización Fusaka a principios de 2026 trajo reducciones de tarifas del 99 % para muchos casos de uso. Los límites de gas aumentaron de 60 millones a 200 millones con la próxima bifurcación (fork) Glamsterdam. La validación de pruebas de conocimiento cero (zero-knowledge proofs) tiene como objetivo 10,000 TPS en la L1 para finales de 2026.

De repente, la premisa que impulsó miles de millones en inversiones en L2—que la L1 de Ethereum no podía escalar—parecía cuestionable.

ENS Namechain: La primera víctima importante

La decisión de Ethereum Name Service de descartar su rollup L2 Namechain se convirtió en la validación de más alto perfil del pensamiento revisado de Buterin.

ENS había estado desarrollando Namechain durante años como un rollup especializado para manejar registros y renovaciones de nombres de manera más económica de lo que permitía la red principal. Con tarifas de gas de $ 5 por registro durante el pico de congestión de 2024, el caso económico era convincente.

Para febrero de 2026, ese cálculo cambió por completo. Las tarifas de registro de ENS cayeron por debajo de los 5 centavos en la L1 de Ethereum—una reducción del 99 %. La complejidad de la infraestructura, los costos de mantenimiento continuo y la fragmentación de usuarios al ejecutar una L2 separada ya no justificaban los ahorros de costos mínimos.

ENS Labs no abandonó su actualización ENSv2, que representa una reescritura desde cero de los contratos de ENS con usabilidad y herramientas de desarrollo mejoradas. En su lugar, el equipo desplegó ENSv2 directamente en la red principal de Ethereum, evitando la sobrecarga de coordinación de puentear (bridging) entre L1 y L2.

La cancelación señala un patrón más amplio: si la L1 de Ethereum continúa escalando de manera efectiva, los rollups de casos de uso especializados pierden su justificación económica. ¿Por qué mantener una infraestructura separada cuando la capa base es suficiente?

El problema de los puentes multifirma de 10,000 TPS

La crítica de Buterin a los puentes multifirma llega al corazón de lo que realmente significa "escalar Ethereum".

Su declaración—"Si creas una EVM de 10,000 TPS donde su conexión a la L1 está mediada por un puente multifirma, entonces no estás escalando Ethereum"—traza una línea clara entre el escalado genuino de Ethereum y las cadenas independientes que simplemente afirman una asociación.

La distinción importa enormemente para la seguridad y la descentralización.

Un puente multifirma depende de un pequeño grupo de operadores para validar las transacciones entre cadenas. Los usuarios confían en que este grupo no coludirá, no será hackeado y no se verá comprometido por los reguladores. La historia muestra que esta confianza frecuentemente está mal depositada: los hackeos de puentes han resultado en pérdidas de miles de millones, con el exploit del Ronin Bridge costando por sí solo más de $ 600 millones.

El verdadero escalado de Ethereum hereda las garantías de seguridad de Ethereum. Un rollup implementado correctamente utiliza pruebas de fraude (fraud proofs) o pruebas de validez (validity proofs) para asegurar que cualquier transición de estado inválida pueda ser desafiada y revertida, con disputas resueltas por los validadores de la L1 de Ethereum. Los usuarios no necesitan confiar en una multifirma—confían en el mecanismo de consenso de Ethereum.

El problema es que alcanzar este nivel de seguridad es técnicamente complejo y costoso. Muchos proyectos que se hacen llamar "L2 de Ethereum" toman atajos:

  • Secuenciadores centralizados: Una sola entidad ordena las transacciones, creando riesgo de censura y puntos únicos de falla.
  • Claves de actualización multifirma: Un pequeño grupo puede cambiar las reglas del protocolo sin el consentimiento de la comunidad, robando potencialmente fondos o cambiando la economía.
  • Sin garantías de salida: Si el secuenciador se desconecta o las claves de actualización se ven comprometidas, es posible que los usuarios no tengan una forma confiable de retirar activos.

Estas no son preocupaciones teóricas. La investigación muestra que la mayoría de las redes L2 siguen siendo mucho más centralizadas que la L1 de Ethereum, con la descentralización tratada como un objetivo a largo plazo en lugar de una prioridad inmediata.

El planteamiento de Buterin fuerza una pregunta incómoda: si una L2 no hereda la seguridad de Ethereum, ¿realmente está "escalando Ethereum" o es simplemente otra cadena alternativa con la marca Ethereum?

El Nuevo Marco de Trabajo de las L2: Valor Más Allá del Escalamiento

En lugar de abandonar por completo las L2, Buterin propuso verlas como un espectro de redes con diferentes niveles de conexión con Ethereum, cada una ofreciendo distintos equilibrios (trade-offs).

La visión crítica es que las L2 deben proporcionar valor más allá del escalamiento básico si quieren seguir siendo relevantes a medida que la L1 de Ethereum mejora:

Características de Privacidad

Cadenas como Aztec y Railgun ofrecen privacidad programable utilizando pruebas de conocimiento cero. Estas capacidades no pueden existir fácilmente en una L1 pública transparente, lo que crea una diferenciación genuina.

Diseño Específico para Aplicaciones

Los rollups enfocados en juegos como Ronin o IMX se optimizan para transacciones de alta frecuencia y bajo valor con requisitos de finalidad diferentes a los de las aplicaciones financieras. Esta especialización tiene sentido incluso si la L1 escala adecuadamente para la mayoría de los casos de uso.

Confirmación Ultra-Rápida

Algunas aplicaciones necesitan una finalidad de sub-segundo que el tiempo de bloque de 12 segundos de la L1 no puede proporcionar. Las L2 con consenso optimizado pueden servir a este nicho.

Casos de Uso No Financieros

La identidad, los grafos sociales y la disponibilidad de datos tienen requisitos diferentes a los de DeFi. Las L2 especializadas pueden optimizarse para estas cargas de trabajo.

Buterin enfatizó que las L2 deben "ser claras con los usuarios sobre qué garantías brindan". Los días de afirmaciones vagas sobre "escalar Ethereum" sin especificar modelos de seguridad, estado de descentralización y supuestos de confianza han terminado.

Respuestas del Ecosistema: ¿Adaptación o Negación?

La reacción a los comentarios de Buterin revela un ecosistema fracturado que lucha con una crisis de identidad.

Polygon anunció un pivote estratégico para enfocarse principalmente en los pagos, reconociendo explícitamente que el escalamiento de propósito general está cada vez más mercantilizado. El equipo reconoció que la diferenciación requiere especialización.

Marc Boiron (Offchain Labs) argumentó que los comentarios de Buterin se trataban "menos de abandonar los rollups que de elevar las expectativas para ellos". Este enfoque preserva la narrativa de los rollups al tiempo que reconoce la necesidad de estándares más altos.

Solana advocates aprovecharon la oportunidad para argumentar que la arquitectura monolítica de Solana evita por completo la complejidad de las L2, señalando que la fragmentación multicadena de Ethereum crea una UX peor que una sola L1 de alto rendimiento.

L2 developers generalmente defendieron su relevancia enfatizando características más allá del rendimiento bruto — privacidad, personalización, economía especializada — mientras reconocían silenciosamente que los proyectos de escalamiento puro son cada vez más difíciles de justificar.

La tendencia más amplia es clara: el panorama de las L2 se bifurcará en dos categorías:

  1. Rollups de commodities que compiten principalmente en tarifas y rendimiento, probablemente consolidándose en torno a unos pocos actores dominantes (Base, Arbitrum, Optimism).

  2. L2 especializadas con modelos de ejecución fundamentalmente diferentes, que ofrecen propuestas de valor únicas que la L1 no puede replicar.

Las cadenas que no caigan en ninguna categoría enfrentan un futuro incierto.

Qué Deben Hacer las L2 para Sobrevivir

Para los proyectos de Capa 2 existentes, el pivote de Buterin crea tanto presión existencial como claridad estratégica. La supervivencia requiere una acción decisiva en varios frentes:

1. Acelerar la Descentralización

La narrativa de "nos descentralizaremos eventualmente" ya no es aceptable. Los proyectos deben publicar cronogramas concretos para:

  • Redes de secuenciadores sin permisos (o pruebas de autoridad creíbles)
  • Eliminación o bloqueo temporal (time-lock) de las llaves de actualización
  • Implementación de sistemas a prueba de fallos con ventanas de salida garantizadas

Las L2 que permanecen centralizadas mientras reclaman la seguridad de Ethereum son particularmente vulnerables al escrutinio regulatorio y al daño reputacional.

2. Clarificar la Propuesta de Valor

Si el principal punto de venta de una L2 es "más barato que Ethereum", necesita un nuevo enfoque. La diferenciación sostenible requiere:

  • Características especializadas: Privacidad, ejecución de VM personalizada, modelos de estado novedosos
  • Claridad del público objetivo: ¿Juegos? ¿Pagos? ¿Social? ¿DeFi?
  • Divulgaciones honestas de seguridad: ¿Qué supuestos de confianza existen? ¿Qué vectores de ataque permanecen?

El marketing de vaporware no funcionará cuando los usuarios pueden comparar métricas reales de descentralización a través de herramientas como L2Beat.

3. Resolver el Problema de Seguridad de los Puentes

Los puentes multifirma (multisig) son el eslabón más débil en la seguridad de las L2. Los proyectos deben:

  • Implementar pruebas de fraude o pruebas de validez para puentes sin confianza (trustless)
  • Agregar retrasos de tiempo y capas de consenso social para intervenciones de emergencia
  • Proporcionar mecanismos de salida garantizados que funcionen incluso si los secuenciadores fallan

La seguridad de los puentes no puede ser algo secundario cuando hay miles de millones en fondos de usuarios en juego.

4. Enfocarse en la Interoperabilidad

La fragmentación es el mayor problema de UX de Ethereum. Las L2 deberían:

  • Soportar estándares de mensajería cross-chain (LayerZero, Wormhole, Chainlink CCIP)
  • Habilitar el intercambio de liquidez sin fricciones entre cadenas
  • Construir capas de abstracción que oculten la complejidad a los usuarios finales

Las L2 ganadoras se sentirán como extensiones de Ethereum, no como islas aisladas.

5. Aceptar la Consolidación

Realísticamente, el mercado no puede soportar más de 100 L2 viables. Muchas necesitarán fusionarse, pivotar o cerrar con elegancia. Cuanto antes los equipos reconozcan esto, mejor podrán posicionarse para asociaciones estratégicas o adquisiciones de talento en lugar de caer en una lenta irrelevancia.

La hoja de ruta de escalamiento de Ethereum L1

Mientras las L2 enfrentan una crisis de identidad, Ethereum L1 está ejecutando un agresivo plan de escalamiento que refuerza los argumentos de Buterin.

Fork Glamsterdam (mediados de 2026): Introduce las Listas de Acceso a Bloques (BAL), permitiendo un procesamiento paralelo perfecto al precargar los datos de las transacciones en la memoria. Los límites de gas aumentan de 60 millones a 200 millones, mejorando drásticamente el rendimiento para contratos inteligentes complejos.

Validación de pruebas de conocimiento cero (Zero-Knowledge): El despliegue de la Fase 1 en 2026 apunta a que el 10 % de los validadores realicen la transición a la validación ZK, donde los validadores verifican pruebas matemáticas que confirman la precisión del bloque en lugar de volver a ejecutar todas las transacciones. Esto permite que Ethereum escale hacia los 10,000 TPS manteniendo la seguridad y la descentralización.

Separación Proponente-Constructor (ePBS): Integra la competencia de constructores directamente en la capa de consenso de Ethereum, reduciendo la extracción de MEV y mejorando la resistencia a la censura.

Estas actualizaciones no eliminan la necesidad de las L2, pero sí eliminan la suposición de que el escalamiento de L1 es imposible o poco práctico. Si Ethereum L1 alcanza los 10,000 TPS con ejecución paralela y validación ZK, el estándar para la diferenciación de las L2 se eleva drásticamente.

Perspectiva a largo plazo: ¿Qué resultará ganador?

La estrategia de escalamiento de Ethereum está entrando en una nueva fase en la que el desarrollo de L1 y L2 debe verse como complementario en lugar de competitivo.

La hoja de ruta centrada en los rollups asumía que la L1 seguiría siendo lenta y costosa indefinidamente. Esa suposición ahora es obsoleta. La L1 escalará — quizás no a millones de TPS, pero lo suficiente para manejar la mayoría de los casos de uso convencionales con tarifas razonables.

Las L2 que reconozcan esta realidad y giren hacia una diferenciación genuina podrán prosperar. Aquellas que sigan promocionándose como "más baratas y rápidas que Ethereum" tendrán dificultades a medida que la L1 cierre la brecha de rendimiento.

La ironía última es que los comentarios de Buterin pueden fortalecer la posición a largo plazo de Ethereum. Al obligar a las L2 a elevar sus estándares — descentralización real, divulgaciones de seguridad honestas, propuestas de valor especializadas — Ethereum elimina los proyectos más débiles mientras eleva la calidad de todo el ecosistema.

Los usuarios se benefician de opciones más claras: usar Ethereum L1 para máxima seguridad y descentralización, o elegir L2 especializadas para funciones específicas con compensaciones declaradas explícitamente. El punto medio de "estamos escalando Ethereum un poco con un puente multifirma" desaparece.

Para los proyectos que construyen el futuro de la infraestructura blockchain, el mensaje es claro: el escalamiento genérico está resuelto. Si tu L2 no ofrece algo que Ethereum L1 no pueda, estás construyendo sobre tiempo prestado.

BlockEden.xyz proporciona infraestructura de nivel empresarial para Ethereum L1 y las principales redes de Capa 2, ofreciendo a los desarrolladores las herramientas para construir en todo el ecosistema de Ethereum. Explore nuestros servicios de API para una conectividad blockchain escalable y confiable.


Fuentes:

SONAMI alcanza la Etapa 10: ¿Puede la estrategia de Capa 2 de Solana desafiar el dominio de las L2 de Ethereum?

· 12 min de lectura
Dora Noda
Software Engineer

Solana acaba de cruzar un umbral que la mayoría consideraba imposible: una cadena de bloques construida para la velocidad pura ahora está sumando capas adicionales de entornos de ejecución. SONAMI, que se autodenomina la primera Capa 2 de grado de producción de Solana, anunció su hito de la Etapa 10 a principios de febrero de 2026, lo que marca un cambio fundamental en la forma en que la cadena de bloques de alto rendimiento aborda la escalabilidad.

Durante años, la narrativa fue sencilla: Ethereum necesita Capas 2 porque su capa base no puede escalar. Solana no necesita L2 porque ya procesa miles de transacciones por segundo. Ahora, con SONAMI alcanzando la preparación para producción y proyectos competidores como SOON y Eclipse ganando tracción, Solana está adoptando silenciosamente el manual modular que convirtió al ecosistema de rollups de Ethereum en un gigante de 33 mil millones de dólares.

La pregunta no es si Solana necesita Capas 2. Es si la narrativa de las L2 de Solana puede competir con el dominio arraigado de Base, Arbitrum y Optimism — y qué significa cuando cada cadena de bloques converge en la misma solución de escalado.

Por qué Solana está construyendo Capas 2 (y por qué ahora)

El objetivo de diseño teórico de Solana es de 65,000 transacciones por segundo. En la práctica, la red suele operar en los bajos miles, experimentando congestiones ocasionales durante acuñaciones de NFT o frenesíes de memecoins. Los críticos señalan los cortes de red y la degradación del rendimiento bajo carga máxima como evidencia de que el alto rendimiento por sí solo no es suficiente.

El lanzamiento de la Etapa 10 de SONAMI aborda estos puntos críticos de frente. Según los anuncios oficiales, el hito se centra en tres mejoras principales:

  • Fortalecimiento de las capacidades de ejecución bajo demanda máxima
  • Expansión de las opciones de despliegue modular para entornos específicos de aplicaciones
  • Mejora de la eficiencia de la red para reducir la congestión de la capa base

Esta es la estrategia de L2 de Ethereum, adaptada para la arquitectura de Solana. Mientras que Ethereum delega la ejecución de transacciones a rollups como Arbitrum y Base, Solana ahora está creando capas de ejecución especializadas que manejan el desbordamiento y la lógica específica de las aplicaciones mientras liquidan en la cadena principal.

El momento es estratégico. El ecosistema de Capa 2 de Ethereum procesaba casi el 90% de todas las transacciones de L2 para finales de 2025, con Base capturando por sí solo más del 60% de la cuota de mercado. Mientras tanto, el capital institucional fluye hacia las L2 de Ethereum: Base posee 10 mil millones de dólares en TVL, Arbitrum comanda 16.63 mil millones, y el ecosistema combinado de L2 representa una parte significativa del valor total asegurado de Ethereum.

El impulso de las Capas 2 de Solana no se trata de admitir un fracaso. Se trata de competir por la misma atención de instituciones y desarrolladores que capturó la hoja de ruta modular de Ethereum.

SONAMI vs. los gigantes de las L2 de Ethereum: Una lucha desigual

SONAMI entra en un mercado donde la consolidación ya ha ocurrido. A principios de 2026, la mayoría de las L2 de Ethereum fuera de las tres principales — Base, Arbitrum, Optimism — son efectivamente "cadenas zombis", con un uso que ha caído un 61% y un TVL que se concentra abrumadoramente en ecosistemas establecidos.

Esto es a lo que se enfrenta SONAMI:

La ventaja de Coinbase con Base: Base se beneficia de los 110 millones de usuarios verificados de Coinbase, rampas de entrada fiat fluidas y confianza institucional. A finales de 2025, Base dominaba el 46.58% del TVL de DeFi en Capa 2 y el 60% del volumen de transacciones. Ninguna L2 de Solana tiene una distribución comparable.

El foso DeFi de Arbitrum: Arbitrum lidera todas las L2 con 16.63 mil millones de dólares en TVL, construido sobre años de protocolos DeFi establecidos, fondos de liquidez e integraciones institucionales. El TVL total de DeFi de Solana es de 11.23 mil millones de dólares en todo su ecosistema.

Los efectos de red de gobernanza de Optimism: La arquitectura Superchain de Optimism está atrayendo rollups empresariales de Coinbase, Kraken y Uniswap. SONAMI no tiene un marco de gobernanza o ecosistema de asociaciones comparable.

La comparación arquitectónica es igualmente cruda. Las L2 de Ethereum como Arbitrum alcanzan teóricamente los 40,000 TPS, con confirmaciones de transacciones que se sienten instantáneas debido a las tarifas bajas y la rápida finalidad. La arquitectura de SONAMI promete mejoras de rendimiento similares, pero está construyendo sobre una capa base que ya ofrece confirmaciones de baja latencia.

La propuesta de valor es confusa. Las L2 de Ethereum resuelven un problema real: la capa base de 15-30 TPS de Ethereum es demasiado lenta para aplicaciones de consumo. La capa base de Solana ya maneja la mayoría de los casos de uso cómodamente. ¿Qué problema resuelve una L2 de Solana que Firedancer — el cliente validador de próxima generación de Solana que se espera que aumente significativamente el rendimiento — no pueda abordar?

La expansión de SVM: Un tipo diferente de juego de L2

La estrategia de Capa 2 de Solana podría no tratarse de escalar la propia Solana. Podría tratarse de escalar la Máquina Virtual de Solana (SVM) como una pila tecnológica independiente de Solana como cadena de bloques.

Eclipse, la primera L2 de Ethereum impulsada por SVM, mantiene consistentemente más de 1,000 TPS sin picos de tarifas. SOON, un rollup optimista que mezcla SVM con el diseño modular de Ethereum, tiene como objetivo liquidar en Ethereum mientras ejecuta con el modelo de paralelización de Solana. Atlas promete tiempos de bloque de 50ms con una rápida merklización de estado. Yona liquida en Bitcoin mientras usa SVM para la ejecución.

Estas no son L2 de Solana en el sentido tradicional. Son rollups impulsados por SVM que liquidan en otras cadenas, ofreciendo un rendimiento al nivel de Solana con la liquidez de Ethereum o la seguridad de Bitcoin.

SONAMI encaja en esta narrativa como la "primera L2 de producción de Solana", pero el juego más amplio es exportar SVM a cada ecosistema de cadena de bloques importante. Si tiene éxito, Solana se convierte en la capa de ejecución preferida a través de múltiples capas de liquidación — un paralelo a cómo el dominio de EVM trascendió a la propia Ethereum.

El desafío es la fragmentación. El ecosistema L2 de Ethereum sufre de división de liquidez entre docenas de rollups. Los usuarios en Arbitrum no pueden interactuar sin problemas con Base u Optimism sin puentes. La estrategia de L2 de Solana corre el mismo riesgo: SONAMI, SOON, Eclipse y otros compitiendo por liquidez, desarrolladores y usuarios, sin la composibilidad que define la experiencia L1 de Solana.

Qué significa realmente la Etapa 10 (y qué no)

El anuncio de la Etapa 10 de SONAMI está cargado de visión, pero es escaso en detalles técnicos. Los comunicados de prensa enfatizan las "opciones de despliegue modular", el "fortalecimiento de las capacidades de ejecución" y la "eficiencia de la red bajo demanda máxima", pero carecen de métricas de rendimiento concretas o datos de la mainnet.

Esto es típico de los lanzamientos de L2 en etapas tempranas. Eclipse se reestructuró a finales de 2025, despidiendo al 65 % del personal y pasando de ser un proveedor de infraestructura a un estudio de aplicaciones interno. SOON recaudó 22 millones de dólares en una venta de NFT antes del lanzamiento de su mainnet, pero aún no ha demostrado un uso sostenido en producción. El ecosistema L2 de Solana es incipiente, especulativo y no ha sido probado.

Para contextualizar, el dominio de las L2 de Ethereum tardó años en consolidarse. Arbitrum lanzó su mainnet en agosto de 2021. Optimism entró en funcionamiento en diciembre de 2021. Base no se lanzó hasta agosto de 2023 y, sin embargo, superó a Arbitrum en volumen de transacciones en pocos meses gracias al poder de distribución de Coinbase. SONAMI está intentando competir en un mercado donde los efectos de red, la liquidez y las asociaciones institucionales ya han creado ganadores claros.

El hito de la Etapa 10 sugiere que SONAMI está avanzando en su hoja de ruta de desarrollo, pero sin métricas de TVL, volumen de transacciones o usuarios activos, es imposible evaluar su tracción real. La mayoría de los proyectos de L2 anuncian "lanzamientos de mainnet" o "hitos de testnet" que generan titulares sin generar uso real.

¿Puede tener éxito la narrativa de las L2 de Solana?

La respuesta depende de lo que signifique el "éxito". Si el éxito consiste en destronar a Base o Arbitrum, la respuesta es casi con seguridad un no. El ecosistema L2 de Ethereum se beneficia de la ventaja de ser el primero, del capital institucional y de la liquidez DeFi inigualable de Ethereum. Las L2 de Solana carecen de estas ventajas estructurales.

Si el éxito consiste en crear entornos de ejecución específicos para aplicaciones que reduzcan la congestión de la capa base manteniendo la composabilidad de Solana, la respuesta es un quizás. La capacidad de Solana para escalar horizontalmente a través de L2, conservando una L1 central rápida y composable, podría fortalecer su posición para aplicaciones descentralizadas de alta frecuencia y en tiempo real.

Si el éxito consiste en exportar la SVM a otros ecosistemas y establecer el entorno de ejecución de Solana como un estándar cross-chain, la respuesta es plausible pero no probada. Los rollups impulsados por SVM en Ethereum, Bitcoin y otras cadenas podrían impulsar la adopción, pero la fragmentación y la división de la liquidez siguen siendo problemas sin resolver.

El resultado más probable es una bifurcación. El ecosistema L2 de Ethereum seguirá dominando las DeFi institucionales, los activos tokenizados y los casos de uso empresarial. La capa base de Solana prosperará para la actividad minorista (retail), memecoins, juegos y transacciones constantes de bajo costo. Las L2 de Solana ocuparán un terreno intermedio: capas de ejecución especializadas para el desbordamiento, lógica específica de aplicaciones y despliegues de SVM cross-chain.

Este no es un escenario en el que el ganador se lo lleva todo. Es el reconocimiento de que diferentes estrategias de escalado sirven para diferentes casos de uso, y la tesis modular —ya sea en Ethereum o en Solana— se está convirtiendo en el manual de estrategia predeterminado para cada blockchain importante.

La convergencia silenciosa

Que Solana construya capas 2 se siente como una rendición ideológica. Durante años, la propuesta de Solana fue la simplicidad: una cadena rápida, sin fragmentación, sin puentes (bridging). La propuesta de Ethereum fue la modularidad: separar el consenso de la ejecución, dejar que las L2 se especialicen y aceptar las compensaciones de la composabilidad.

Ahora, ambos ecosistemas convergen en la misma solución. Ethereum está actualizando su capa base (Pectra, Fusaka) para admitir más L2. Solana está construyendo L2 para extender su capa base. Las diferencias arquitectónicas permanecen, pero la dirección estratégica es idéntica: descargar la ejecución a capas especializadas preservando la seguridad de la capa base.

La ironía es que, a medida que las blockchains se vuelven más parecidas, la competencia se intensifica. Ethereum tiene una ventaja de varios años, 33 000 millones de dólares en TVL en L2 y asociaciones institucionales. Solana tiene un rendimiento superior en su capa base, tarifas más bajas y un ecosistema centrado en el sector minorista. El hito de la Etapa 10 de SONAMI es un paso hacia la paridad, pero la paridad no es suficiente en un mercado dominado por los efectos de red.

La verdadera pregunta no es si Solana puede construir L2. Es si las L2 de Solana pueden atraer la liquidez, los desarrolladores y los usuarios necesarios para ser relevantes en un ecosistema donde la mayoría de las L2 ya están fallando.

BlockEden.xyz proporciona infraestructura RPC de grado empresarial para Solana y otras blockchains de alto rendimiento. Explore nuestro marketplace de APIs para construir sobre bases escalables optimizadas para la velocidad.

Fuentes

Coprocesadores ZK: La infraestructura que rompe la barrera de computación de la blockchain

· 17 min de lectura
Dora Noda
Software Engineer

Cuando Ethereum procesa transacciones, cada cálculo ocurre on-chain: verificable, seguro y extremadamente costoso. Esta limitación fundamental ha restringido lo que los desarrolladores pueden construir durante años. Pero una nueva clase de infraestructura está reescribiendo las reglas: los coprocesadores ZK están aportando computación ilimitada a las blockchains con recursos limitados sin sacrificar la seguridad trustless.

Para octubre de 2025, el coprocesador ZK de Brevis Network ya había generado 125 millones de pruebas de conocimiento cero, respaldado más de 2.8milmillonesenvalortotalbloqueadoyverificadomaˊsde2.8 mil millones en valor total bloqueado y verificado más de 1 mil millones en volumen de transacciones. Esta ya no es una tecnología experimental; es una infraestructura de producción que permite aplicaciones que antes eran imposibles on-chain.

El cuello de botella de computación que definió la blockchain

Las blockchains enfrentan un trilema inherente: pueden ser descentralizadas, seguras o escalables, pero lograr las tres simultáneamente ha resultado difícil. Los contratos inteligentes en Ethereum pagan gas por cada paso computacional, lo que hace que las operaciones complejas sean prohibitivamente costosas. ¿Desea analizar el historial completo de transacciones de un usuario para determinar su nivel de lealtad? ¿Calcular recompensas de juego personalizadas basadas en cientos de acciones on-chain? ¿Ejecutar inferencia de aprendizaje automático para modelos de riesgo DeFi?

Los contratos inteligentes tradicionales no pueden hacer esto de manera económica. Leer datos históricos de la blockchain, procesar algoritmos complejos y acceder a información cross-chain requiere una computación que llevaría a la quiebra a la mayoría de las aplicaciones si se ejecutara en la Capa 1. Esta es la razón por la que los protocolos DeFi utilizan una lógica simplificada, los juegos dependen de servidores off-chain y la integración de IA sigue siendo en gran medida conceptual.

La solución temporal siempre ha sido la misma: mover la computación fuera de la cadena (off-chain) y confiar en una parte centralizada para ejecutarla correctamente. Pero esto anula todo el propósito de la arquitectura trustless de la blockchain.

El surgimiento del coprocesador ZK: ejecución off-chain, verificación on-chain

Los coprocesadores de conocimiento cero (ZK) resuelven esto introduciendo un nuevo paradigma computacional: "computación off-chain + verificación on-chain". Permiten que los contratos inteligentes deleguen el procesamiento pesado a una infraestructura especializada fuera de la cadena, para luego verificar los resultados on-chain utilizando pruebas de conocimiento cero, sin confiar en ningún intermediario.

Así es como funciona en la práctica:

  1. Acceso a datos: El coprocesador lee datos históricos de la blockchain, el estado cross-chain o información externa cuya consulta sería prohibitiva en términos de gas on-chain.
  2. Computación off-chain: Los algoritmos complejos se ejecutan en entornos especializados optimizados para el rendimiento, no limitados por los topes de gas.
  3. Generación de pruebas: Se genera una prueba de conocimiento cero que demuestra que la computación se ejecutó correctamente sobre entradas específicas.
  4. Verificación on-chain: El contrato inteligente verifica la prueba en milisegundos sin volver a ejecutar la computación ni ver los datos sin procesar.

Esta arquitectura es económicamente viable porque generar pruebas off-chain y verificarlas on-chain cuesta mucho menos que ejecutar la computación directamente en la Capa 1. El resultado: los contratos inteligentes obtienen acceso a una potencia computacional ilimitada manteniendo las garantías de seguridad de la blockchain.

La evolución: de zkRollups a coprocesadores ZK

La tecnología no surgió de la noche a la mañana. Los sistemas de pruebas de conocimiento cero han evolucionado a través de distintas fases:

Los L2 zkRollups fueron pioneros en el modelo "computar off-chain, verificar on-chain" para escalar el rendimiento de las transacciones. Proyectos como zkSync y StarkNet agrupan miles de transacciones, las ejecutan fuera de la cadena y envían una única prueba de validez a Ethereum, aumentando drásticamente la capacidad mientras heredan la seguridad de Ethereum.

Las zkVMs (máquinas virtuales de conocimiento cero) generalizaron este concepto, permitiendo que cualquier computación arbitraria sea probada como correcta. En lugar de limitarse al procesamiento de transacciones, los desarrolladores podrían escribir cualquier programa y generar pruebas verificables de su ejecución. La zkVM Pico/Prism de Brevis logra un tiempo de prueba promedio de 6.9 segundos en clústeres de 64 GPU RTX 5090, lo que hace que la verificación en tiempo real sea práctica.

Los coprocesadores ZK representan la siguiente evolución: infraestructura especializada que combina zkVMs con coprocesadores de datos para manejar el acceso a datos históricos y cross-chain. Están diseñados específicamente para las necesidades únicas de las aplicaciones blockchain: leer el historial on-chain, conectar múltiples cadenas y proporcionar a los contratos inteligentes capacidades que antes estaban bloqueadas tras APIs centralizadas.

Lagrange lanzó el primer coprocesador ZK basado en SQL en 2025, permitiendo a los desarrolladores probar consultas SQL personalizadas de grandes cantidades de datos on-chain directamente desde contratos inteligentes. Brevis le siguió con una arquitectura multicadena, soportando computación verificable en Ethereum, Arbitrum, Optimism, Base y otras redes. Axiom se centró en consultas históricas verificables con devoluciones de llamada de circuitos (circuit callbacks) para una lógica de verificación programable.

Cómo se comparan los coprocesadores ZK con las alternativas

Coprocesadores ZK vs. zkML

El aprendizaje automático de conocimiento cero (zkML) utiliza sistemas de prueba similares pero se enfoca en un problema diferente: demostrar que un modelo de IA produjo un resultado específico sin revelar los pesos del modelo ni los datos de entrada. zkML se centra principalmente en la verificación de inferencia — confirmar que una red neuronal se evaluó honestamente.

La distinción clave es el flujo de trabajo. Con los coprocesadores ZK, los desarrolladores escriben una lógica de implementación explícita, aseguran la corrección del circuito y generan pruebas para cálculos deterministas. Con zkML, el proceso comienza con la exploración de datos y el entrenamiento del modelo antes de crear circuitos para verificar la inferencia. Los coprocesadores ZK manejan lógica de propósito general; zkML se especializa en hacer que la IA sea verificable en la cadena (on-chain).

Ambas tecnologías comparten el mismo paradigma de verificación: el cálculo se ejecuta fuera de la cadena (off-chain), produciendo una prueba de conocimiento cero junto con los resultados. La cadena verifica la prueba en milisegundos sin ver las entradas sin procesar ni volver a ejecutar el cálculo. Pero los circuitos zkML están optimizados para operaciones de tensores y arquitecturas de redes neuronales, mientras que los circuitos de coprocesadores manejan consultas de bases de datos, transiciones de estado y agregación de datos entre cadenas (cross-chain).

Coprocesadores ZK vs. Rollups Optimistas

Los rollups optimistas y los rollups ZK escalan las blockchains moviendo la ejecución fuera de la cadena, pero sus modelos de confianza difieren fundamentalmente.

Los rollups optimistas asumen que las transacciones son válidas por defecto. Los validadores envían lotes de transacciones sin pruebas, y cualquiera puede impugnar lotes inválidos durante un período de disputa (generalmente 7 días). Esta finalidad retrasada significa que retirar fondos de Optimism o Arbitrum requiere esperar una semana — algo aceptable para el escalado, pero problemático para muchas aplicaciones.

Los coprocesadores ZK prueban la corrección de inmediato. Cada lote incluye una prueba de validez verificada en la cadena antes de ser aceptado. No hay período de disputa, ni suposiciones de fraude, ni retrasos de una semana para los retiros. Las transacciones logran una finalidad instantánea.

El equilibrio históricamente ha sido la complejidad y el costo. La generación de pruebas de conocimiento cero requiere hardware especializado y criptografía sofisticada, lo que hace que la infraestructura ZK sea más costosa de operar. Sin embargo, la aceleración por hardware está cambiando la economía. Pico Prism de Brevis logra una cobertura de prueba en tiempo real del 96.8 %, lo que significa que las pruebas se generan lo suficientemente rápido como para mantener el ritmo del flujo de transacciones — eliminando la brecha de rendimiento que favorecía a los enfoques optimistas.

En el mercado actual, los rollups optimistas como Arbitrum y Optimism aún dominan el valor total bloqueado. Su compatibilidad con EVM y su arquitectura más simple facilitaron su despliegue a escala. Pero a medida que la tecnología ZK madura, la finalidad instantánea y las garantías de seguridad más sólidas de las pruebas de validez están cambiando la tendencia. El escalado de Capa 2 representa un caso de uso; los coprocesadores ZK desbloquean una categoría más amplia: computación verificable para cualquier aplicación on-chain.

Aplicaciones en el mundo real: De DeFi a los juegos

La infraestructura permite casos de uso que antes eran imposibles o requerían confianza centralizada:

DeFi: Estructuras de comisiones dinámicas y programas de fidelidad

Los exchanges descentralizados tienen dificultades para implementar programas de fidelidad sofisticados porque calcular el volumen de trading histórico de un usuario en la cadena es prohibitivamente costoso. Con los coprocesadores ZK, los DEX pueden rastrear el volumen de por vida a través de múltiples cadenas, calcular niveles VIP y ajustar las comisiones de trading dinámicamente — todo verificable on-chain.

Incentra, construido sobre el zkCoprocessor de Brevis, distribuye recompensas basadas en la actividad verificada en la cadena sin exponer datos confidenciales del usuario. Los protocolos ahora pueden implementar líneas de crédito basadas en el comportamiento de pago pasado, gestión activa de posiciones de liquidez con algoritmos predefinidos y preferencias de liquidación dinámicas — todo respaldado por pruebas criptográficas en lugar de intermediarios de confianza.

Gaming: Experiencias personalizadas sin servidores centralizados

Los juegos en blockchain enfrentan un dilema de UX: registrar cada acción del jugador en la cadena es costoso, pero mover la lógica del juego fuera de la cadena requiere confiar en servidores centralizados. Los coprocesadores ZK permiten un tercer camino.

Los contratos inteligentes ahora pueden responder consultas complejas como "¿Qué billeteras ganaron este juego en la última semana, acuñaron un NFT de mi colección y registraron al menos dos horas de juego?". Esto potencia LiveOps personalizados — ofreciendo dinámicamente compras dentro del juego, emparejando oponentes, activando eventos de bonificación — basados en el historial verificado en la cadena en lugar de análisis centralizados.

Los jugadores obtienen experiencias personalizadas. Los desarrolladores conservan una infraestructura sin confianza. El estado del juego permanece verificable.

Aplicaciones cross-chain: Estado unificado sin puentes

Leer datos de otra blockchain tradicionalmente requiere puentes (bridges) — intermediarios de confianza que bloquean activos en una cadena y acuñan representaciones en otra. Los coprocesadores ZK verifican el estado entre cadenas directamente utilizando pruebas criptográficas.

Un contrato inteligente en Ethereum puede consultar las tenencias de NFT de un usuario en Polygon, sus posiciones DeFi en Arbitrum y sus votos de gobernanza en Optimism — todo sin confiar en los operadores de puentes. Esto desbloquea el scoring crediticio cross-chain, sistemas de identidad unificados y protocolos de reputación multicadena.

El panorama competitivo: quién está construyendo qué

El espacio de los coprocesadores ZK se ha consolidado en torno a varios actores clave, cada uno con enfoques arquitectónicos distintos:

Brevis Network lidera la fusión de "Coprocesador de Datos ZK + zkVM general". Su zkCoprocessor maneja la lectura de datos históricos y las consultas cross-chain, mientras que Pico / Prism zkVM proporciona computación programable para lógica arbitraria. Brevis recaudó $7,5 millones en una ronda de tokens semilla y se ha desplegado en Ethereum, Arbitrum, Base, Optimism, BSC y otras redes. Su token BREV está ganando impulso en los exchanges de cara a 2026.

Lagrange fue pionero en las consultas basadas en SQL con ZK Coprocessor 1.0, haciendo que los datos on-chain sean accesibles a través de interfaces de bases de datos familiares. Los desarrolladores pueden probar consultas SQL personalizadas directamente desde contratos inteligentes, reduciendo drásticamente la barrera técnica para construir aplicaciones intensivas en datos. Azuki, Gearbox y otros protocolos utilizan Lagrange para análisis históricos verificables.

Axiom se centra en consultas verificables con callbacks de circuitos, lo que permite a los contratos inteligentes solicitar puntos de datos históricos específicos y recibir pruebas criptográficas de su veracidad. Su arquitectura se optimiza para casos de uso donde las aplicaciones necesitan fragmentos precisos del historial de la blockchain en lugar de computación general.

Space and Time combina una base de datos verificable con consultas SQL, dirigiéndose a casos de uso empresariales que requieren tanto verificación on-chain como funcionalidad de base de datos tradicional. Su enfoque resulta atractivo para las instituciones que migran sus sistemas existentes a la infraestructura blockchain.

El mercado está evolucionando rápidamente, y 2026 es ampliamente considerado como el "Año de la Infraestructura ZK". A medida que la generación de pruebas se vuelve más rápida, la aceleración por hardware mejora y las herramientas para desarrolladores maduran, los coprocesadores ZK están pasando de ser una tecnología experimental a una infraestructura de producción crítica.

Desafíos técnicos: por qué es difícil

A pesar del progreso, persisten obstáculos significativos.

La velocidad de generación de pruebas es un cuello de botella para muchas aplicaciones. Incluso con clústeres de GPU, las computaciones complejas pueden tardar segundos o minutos en probarse; algo aceptable para algunos casos de uso, pero problemático para el trading de alta frecuencia o los juegos en tiempo real. El promedio de 6,9 segundos de Brevis representa un rendimiento de vanguardia, pero alcanzar la generación de pruebas en menos de un segundo para todas las cargas de trabajo requiere una mayor innovación en el hardware.

La complejidad del desarrollo de circuitos genera fricción para los desarrolladores. Escribir circuitos de conocimiento cero requiere conocimientos criptográficos especializados de los que carecen la mayoría de los desarrolladores de blockchain. Si bien las zkVM abstraen parte de la complejidad al permitir que los desarrolladores escriban en lenguajes familiares, la optimización de los circuitos para el rendimiento sigue exigiendo experiencia. Las mejoras en las herramientas están cerrando esta brecha, pero sigue siendo una barrera para la adopción masiva.

La disponibilidad de datos plantea desafíos de coordinación. Los coprocesadores deben mantener vistas sincronizadas del estado de la blockchain en múltiples cadenas, gestionando reorgs, finalidad y diferencias de consenso. Garantizar que las pruebas hagan referencia al estado canónico de la cadena requiere una infraestructura sofisticada, especialmente para aplicaciones cross-chain donde las diferentes redes tienen distintas garantías de finalidad.

La sostenibilidad económica sigue siendo incierta. Operar una infraestructura de generación de pruebas requiere mucho capital, GPUs especializadas y costos operativos continuos. Las redes de coprocesadores deben equilibrar los costos de las pruebas, las tarifas de los usuarios y los incentivos de los tokens para crear modelos de negocio sostenibles. Los proyectos iniciales están subsidiando los costos para impulsar la adopción, pero la viabilidad a largo plazo depende de demostrar la rentabilidad económica unitaria a escala.

La tesis de la infraestructura: la computación como una capa de servicio verificable

Los coprocesadores ZK están emergiendo como "capas de servicio verificables": APIs nativas de blockchain que brindan funcionalidad sin requerir confianza. Esto refleja cómo evolucionó la computación en la nube: los desarrolladores no construyen sus propios servidores, sino que consumen las APIs de AWS. Del mismo modo, los desarrolladores de contratos inteligentes no deberían necesitar reimplementar consultas de datos históricos o verificación de estado cross-chain; deberían llamar a una infraestructura probada.

El cambio de paradigma es sutil pero profundo. En lugar de "¿qué puede hacer esta blockchain?", la pregunta pasa a ser "¿a qué servicios verificables puede acceder este contrato inteligente?". La blockchain proporciona la liquidación y la verificación; los coprocesadores proporcionan computación ilimitada. Juntos, desbloquean aplicaciones que requieren tanto la ausencia de necesidad de confianza (trustlessness) como complejidad.

Esto se extiende más allá de DeFi y los juegos. La tokenización de activos del mundo real necesita datos off-chain verificados sobre la propiedad de bienes raíces, precios de materias primas y cumplimiento regulatorio. La identidad descentralizada requiere agregar credenciales a través de múltiples blockchains y verificar el estado de revocación. Los agentes de IA necesitan probar sus procesos de toma de decisiones sin exponer modelos propietarios. Todo esto requiere computación verificable, la capacidad exacta que proporcionan los coprocesadores ZK.

La infraestructura también cambia la forma en que los desarrolladores piensan sobre las limitaciones de la blockchain. Durante años, el mantra ha sido "optimizar la eficiencia del gas". Con los coprocesadores, los desarrolladores pueden escribir lógica como si los límites de gas no existieran, y luego delegar las operaciones costosas a una infraestructura verificable. Este cambio mental —de contratos inteligentes limitados a contratos inteligentes con computación infinita— remodelará lo que se construye on-chain.

Lo que depara el 2026: de la investigación a la producción

Múltiples tendencias están convergiendo para hacer del 2026 el punto de inflexión para la adopción de los coprocesadores ZK.

La aceleración de hardware está mejorando drásticamente el rendimiento de la generación de pruebas. Empresas como Cysic están construyendo ASICs especializados para pruebas de conocimiento cero, de manera similar a cómo la minería de Bitcoin evolucionó de CPUs a GPUs y luego a ASICs. Cuando la generación de pruebas se vuelve entre 10 y 100 veces más rápida y barata, las barreras económicas colapsan.

Las herramientas para desarrolladores están abstrayendo la complejidad. El desarrollo temprano de zkVM requería experiencia en diseño de circuitos; los frameworks modernos permiten a los desarrolladores escribir en Rust o Solidity y compilar a circuitos demostrables automáticamente. A medida que estas herramientas maduran, la experiencia del desarrollador se asemeja a la escritura de smart contracts estándar: la computación verificable se convierte en la norma, no en la excepción.

La adopción institucional está impulsando la demanda de infraestructura verificable. A medida que BlackRock tokeniza activos y los bancos tradicionales lanzan sistemas de liquidación de stablecoins, requieren computación off-chain verificable para el cumplimiento, la auditoría y los informes regulatorios. Los coprocesadores ZK proporcionan la infraestructura para que esto sea trustless.

La fragmentación cross-chain crea una urgencia por la verificación de estado unificada. Con cientos de Layer 2 fragmentando la liquidez y la experiencia del usuario, las aplicaciones necesitan formas de agregar el estado a través de las cadenas sin depender de intermediarios de puentes. Los coprocesadores proporcionan la única solución trustless.

Los proyectos que sobrevivan probablemente se consolidarán en torno a verticales específicas: Brevis para infraestructura multi-chain de propósito general, Lagrange para aplicaciones con uso intensivo de datos, Axiom para la optimización de consultas históricas. Al igual que con los proveedores de la nube, la mayoría de los desarrolladores no ejecutarán su propia infraestructura de pruebas: consumirán las APIs de los coprocesadores y pagarán por la verificación como servicio.

El panorama general: la computación infinita se encuentra con la seguridad blockchain

Los coprocesadores ZK resuelven una de las limitaciones más fundamentales de la blockchain: puedes tener seguridad trustless O computación compleja, pero no ambas. Al desacoplar la ejecución de la verificación, hacen que esta compensación sea obsoleta.

Esto desbloquea la próxima ola de aplicaciones blockchain, aquellas que no podrían existir bajo las antiguas restricciones. Protocolos DeFi con gestión de riesgos de grado financiero tradicional. Juegos con valores de producción AAA ejecutándose sobre infraestructura verificable. Agentes de IA operando de forma autónoma con pruebas criptográficas de su toma de decisiones. Aplicaciones cross-chain que se sienten como plataformas únicas y unificadas.

La infraestructura está aquí. Las pruebas son lo suficientemente rápidas. Las herramientas de desarrollo están madurando. Lo que queda es construir las aplicaciones que antes eran imposibles, y observar cómo una industria se da cuenta de que las limitaciones de computación de la blockchain nunca fueron permanentes, sino que solo esperaban la infraestructura adecuada para superarlas.

BlockEden.xyz proporciona infraestructura RPC de grado empresarial en las blockchains donde se están construyendo aplicaciones de coprocesadores ZK, desde Ethereum y Arbitrum hasta Base, Optimism y más allá. Explore nuestro marketplace de APIs para acceder a la misma infraestructura de nodos confiable que impulsa la próxima generación de computación verificable.

Actualización BPO-2 de Ethereum: Una Nueva Era de Escalabilidad Paramétrica

· 10 min de lectura
Dora Noda
Software Engineer

¿Qué sucede cuando una blockchain decide escalar no reinventándose a sí misma, sino simplemente ajustando los mandos? El 7 de enero de 2026, Ethereum activó BPO-2 —el segundo fork de solo parámetros de blob (Blob Parameters Only)— completando silenciosamente la fase final de la actualización Fusaka. El resultado: una expansión de capacidad del 40 % que redujo las tarifas de Capa 2 hasta en un 90 % de la noche a la mañana. No fue una revisión ostentosa del protocolo. Fue precisión quirúrgica, demostrando que la escalabilidad de Ethereum ahora es paramétrica, no procedimental.

La Actualización BPO-2: Números que Importan

BPO-2 elevó el objetivo de blobs de Ethereum de 10 a 14 y el límite máximo de blobs de 15 a 21. Cada blob contiene 128 kilobytes de datos, lo que significa que un solo bloque ahora puede transportar aproximadamente 2.6 – 2.7 megabytes de datos de blob —frente a los aproximadamente 1.9 MB antes del fork.

Para contextualizar, los blobs son los paquetes de datos que los rollups publican en Ethereum. Permiten que las redes de Capa 2 como Arbitrum, Base y Optimism procesen transacciones fuera de la cadena mientras heredan las garantías de seguridad de Ethereum. Cuando el espacio de los blobs es escaso, los rollups compiten por la capacidad, lo que eleva los costos. BPO-2 alivió esa presión.

El Cronograma: El Despliegue en Tres Fases de Fusaka

La actualización no ocurrió de forma aislada. Fue la etapa final del despliegue metódico de Fusaka:

  • 3 de diciembre de 2025: Activación de la mainnet de Fusaka, introduciendo PeerDAS (Peer Data Availability Sampling)
  • 9 de diciembre de 2025: BPO-1 aumentó el objetivo de blobs a 10 y el máximo a 15
  • 7 de enero de 2026: BPO-2 llevó el objetivo a 14 y el máximo a 21

Este enfoque por etapas permitió a los desarrolladores monitorear la salud de la red entre cada incremento, asegurando que los operadores de nodos domésticos pudieran manejar las crecientes demandas de ancho de banda.

Por qué el "Objetivo" y el "Límite" son Diferentes

Comprender la distinción entre el objetivo de blobs (blob target) y el límite de blobs (blob limit) es fundamental para entender la mecánica de tarifas de Ethereum.

El límite de blobs (21) representa el techo máximo —el número absoluto de blobs que se pueden incluir en un solo bloque. El objetivo de blobs (14) es el punto de equilibrio que el protocolo busca mantener a lo largo del tiempo.

Cuando el uso real de blobs supera el objetivo, las tarifas base suben para desalentar el consumo excesivo. Cuando el uso cae por debajo del objetivo, las tarifas disminuyen para incentivar más actividad. Este ajuste dinámico crea un mercado autorregulado:

  • Blobs llenos: Las tarifas base aumentan aproximadamente un 8.2 %
  • Sin blobs: Las tarifas base disminuyen aproximadamente un 14.5 %

Esta asimetría es intencional. Permite que las tarifas bajen rápidamente durante los períodos de baja demanda, mientras aumentan de forma más gradual durante la alta demanda, evitando picos de precios que podrían desestabilizar la economía de los rollups.

El Impacto en las Tarifas: Números Reales de Redes Reales

Los costos de transacción de la Capa 2 se han desplomado entre un 40 % y un 90 % desde el despliegue de Fusaka. Las cifras hablan por sí solas:

RedTarifa Promedio Post-BPO-2Comparación con la Mainnet de Ethereum
Base$ 0.000116$ 0.3139
Arbitrum~ $ 0.001$ 0.3139
Optimism~ $ 0.001$ 0.3139

Las tarifas medianas de los blobs han caído hasta tan solo $ 0.0000000005 por blob —efectivamente gratuitas para fines prácticos. Para los usuarios finales, esto se traduce en costos cercanos a cero para swaps, transferencias, acuñación de NFTs y transacciones de juegos.

Cómo se Adaptaron los Rollups

Los principales rollups reestructuraron sus operaciones para maximizar la eficiencia de los blobs:

  • Optimism actualizó su batcher para depender principalmente de los blobs en lugar de calldata, reduciendo los costos de disponibilidad de datos en más de la mitad
  • zkSync reelaboró su canalización de envío de pruebas para comprimir las actualizaciones de estado en menos blobs y más grandes, reduciendo la frecuencia de publicación
  • Arbitrum se preparó para su actualización ArbOS Dia (T1 2026), que introduce tarifas más fluidas y un mayor rendimiento con soporte para Fusaka

Desde la introducción del EIP-4844, se han publicado más de 950,000 blobs en Ethereum. Los rollups optimistas han visto una reducción del 81 % en el uso de calldata, lo que demuestra que el modelo de blobs está funcionando según lo previsto.

El Camino hacia los 128 Blobs: Qué Sigue

BPO-2 es un punto de paso, no el destino. La hoja de ruta de Ethereum visualiza un futuro donde los bloques contengan 128 o más blobs por slot —un aumento de 8 veces respecto a los niveles actuales.

PeerDAS: La Base Técnica

PeerDAS (EIP-7594) es el protocolo de red que hace posible el escalado agresivo de los blobs. En lugar de requerir que cada nodo descargue cada blob, PeerDAS utiliza el muestreo de disponibilidad de datos (data availability sampling) para verificar la integridad de los datos descargando solo un subconjunto.

Aquí se explica cómo funciona:

  1. Los datos extendidos del blob se dividen en 128 partes llamadas columnas
  2. Cada nodo participa en al menos 8 subredes de columnas elegidas al azar
  3. Recibir 8 de 128 columnas (aproximadamente el 12.5 % de los datos) es matemáticamente suficiente para demostrar la disponibilidad total de los datos
  4. La codificación de borrado (erasure coding) garantiza que incluso si faltan algunos datos, el original se pueda reconstruir

Este enfoque permite un escalado teórico de 8 veces el rendimiento de datos, manteniendo los requisitos de los nodos manejables para los operadores domésticos.

Cronograma de Escalado de Blobs

FaseObjetivo de BlobsMáximo de BlobsEstado
Dencun (marzo 2024)36Completado
Pectra (mayo 2025)69Completado
BPO-1 (diciembre 2025)1015Completado
BPO-2 (enero 2026)1421Completado
BPO-3/4 (2026)Por determinar72 +Planificado
A largo plazo128 +128 +Hoja de ruta

Una llamada reciente de todos los desarrolladores principales (all-core-devs) discutió un "cronograma especulativo" que podría incluir forks BPO adicionales cada dos semanas después de finales de febrero para lograr un objetivo de 72 blobs. El hecho de que este cronograma agresivo se materialice depende de los datos de monitoreo de la red.

Glamsterdam: El Próximo Gran Hito

Más allá de los forks BPO, la actualización combinada Glamsterdam (Glam para la capa de consenso, Amsterdam para la capa de ejecución) está programada actualmente para el Q2 / Q3 de 2026. Promete mejoras aún más drásticas:

  • Block Access Lists (BALs): Límites de gas dinámicos que permiten el procesamiento de transacciones en paralelo
  • Enshrined Proposer-Builder Separation (ePBS): Protocolo on-chain para separar los roles de construcción de bloques, proporcionando más tiempo para la propagación de bloques
  • Aumento del límite de gas: Potencialmente hasta 200 millones, permitiendo un "procesamiento paralelo perfecto"

Vitalik Buterin ha proyectado que finales de 2026 traerá "grandes aumentos de los límites de gas no dependientes de ZK-EVM debido a las BALs y ePBS". Estos cambios podrían impulsar el rendimiento sostenible hacia más de 100,000 TPS en todo el ecosistema de Capa 2.

Lo que Revela BPO-2 sobre la Estrategia de Ethereum

El modelo de fork BPO representa un cambio filosófico en la forma en que Ethereum aborda las actualizaciones. En lugar de agrupar múltiples cambios complejos en hard forks monolíticos, el enfoque BPO aísla ajustes de una sola variable que pueden desplegarse rápidamente y revertirse si surgen problemas.

"El fork BPO2 subraya que la escalabilidad de Ethereum es ahora paramétrica, no procedimental", observó un desarrollador. "El espacio de blobs sigue estando lejos de la saturación, y la red puede expandir el rendimiento simplemente ajustando la capacidad".

Esta observación conlleva implicaciones significativas:

  1. Escalado predecible: Los rollups pueden planificar las necesidades de capacidad sabiendo que Ethereum continuará expandiendo el espacio de blobs
  2. Riesgo reducido: Los cambios de parámetros aislados minimizan la posibilidad de errores en cascada
  3. Iteración más rápida: Los forks BPO pueden ocurrir en semanas, no en meses
  4. Decisiones impulsadas por datos: Cada incremento proporciona datos del mundo real para informar el siguiente

La Economía: ¿Quién se Beneficia?

Los beneficiarios de BPO-2 se extienden más allá de los usuarios finales que disfrutan de transacciones más baratas:

Operadores de Rollups

Los menores costes de publicación de datos mejoran la economía unitaria de cada rollup. Las redes que anteriormente operaban con márgenes estrechos ahora tienen margen para invertir en la adquisición de usuarios, herramientas para desarrolladores y el crecimiento del ecosistema.

Desarrolladores de Aplicaciones

Los costes de transacción de menos de un céntimo desbloquean casos de uso que antes no eran rentables: micropagos, juegos de alta frecuencia, aplicaciones sociales con estado on-chain e integraciones de IoT.

Validadores de Ethereum

El aumento del rendimiento de blobs significa más comisiones totales, incluso si las comisiones por blob disminuyen. La red procesa más valor, manteniendo los incentivos de los validadores al tiempo que mejora la experiencia del usuario.

El Ecosistema en General

La disponibilidad de datos de Ethereum más barata hace que las capas de DA alternativas sean menos atractivas para los rollups que priorizan la seguridad. Esto refuerza la posición de Ethereum en el centro del stack de blockchain modular.

Desafíos y Consideraciones

BPO-2 no está exento de compensaciones:

Requisitos de los Nodos

Si bien PeerDAS reduce los requisitos de ancho de banda mediante el muestreo, el aumento del número de blobs sigue exigiendo más de los operadores de nodos. El despliegue por etapas tiene como objetivo identificar cuellos de botella antes de que se vuelvan críticos, pero los operadores domésticos con ancho de banda limitado pueden tener dificultades a medida que el recuento de blobs asciende hacia 72 o 128.

Dinámicas de MEV

Más blobs significan más oportunidades para la extracción de MEV en las transacciones de los rollups. La actualización ePBS en Glamsterdam tiene como objetivo abordar esto, pero el período de transición podría ver un aumento en la actividad de MEV.

Volatilidad del Espacio de Blobs

Durante los picos de demanda, las comisiones de los blobs aún pueden aumentar rápidamente. El incremento del 8.2 % por bloque lleno significa que una demanda alta sostenida crea un crecimiento exponencial de las comisiones. Los futuros forks BPO deberán equilibrar la expansión de la capacidad frente a esta volatilidad.

Conclusión: Escalado por Grados

BPO-2 demuestra que el escalado significativo no siempre requiere avances revolucionarios. A veces, las mejoras más efectivas provienen de una calibración cuidadosa de los sistemas existentes.

La capacidad de blobs de Ethereum ha crecido de un máximo de 6 en Dencun a 21 en BPO-2 — un aumento del 250 % en menos de dos años. Las comisiones de Capa 2 han caído en órdenes de magnitud. Y la hoja de ruta hacia más de 128 blobs sugiere que esto es solo el comienzo.

Para los rollups, el mensaje es claro: la capa de disponibilidad de datos de Ethereum se está escalando para satisfacer la demanda. Para los usuarios, el resultado es cada vez más invisible: transacciones que cuestan fracciones de céntimo, finalizadas en segundos, aseguradas por la plataforma de contratos inteligentes más probada en batalla que existe.

La era paramétrica del escalado de Ethereum ha llegado. BPO-2 es la prueba de que, a veces, girar el dial correcto es todo lo que se necesita.


¿Está construyendo sobre la capacidad de blobs en expansión de Ethereum? BlockEden.xyz proporciona servicios RPC de nivel empresarial para Ethereum y su ecosistema de Capa 2, incluidos Arbitrum, Optimism y Base. Explore nuestro API marketplace para conectarse a la infraestructura que impulsa la próxima generación de aplicaciones escalables.

La evolución de Ethereum: de altas tarifas de gas a transacciones fluidas

· 11 min de lectura
Dora Noda
Software Engineer

La pesadilla de las tarifas de gas de 50hamuertooficialmente.El17deenerode2026,Ethereumprocesoˊ2.6millonesdetransaccionesenunsolodıˊaunnuevoreˊcordmientrasquelastarifasdegassesituaronen50 ha muerto oficialmente. El 17 de enero de 2026, Ethereum procesó 2.6 millones de transacciones en un solo día —un nuevo récord— mientras que las tarifas de gas se situaron en 0.01. Hace dos años, este nivel de actividad habría paralizado la red. Hoy, apenas se registra como un hecho menor.

Esto no es solo un logro técnico. Representa un cambio fundamental en lo que Ethereum se está convirtiendo: una plataforma donde la actividad económica real —no la especulación— impulsa el crecimiento. La pregunta ya no es si Ethereum puede manejar DeFi a escala. Es si el resto del sistema financiero puede seguirle el ritmo.

ZK-Rollup de Bitcoin de Citrea: ¿Pueden las Pruebas de Conocimiento Cero Desbloquear Finalmente la Promesa de $ 4.95 Mil Millones de BTCFi?

· 12 min de lectura
Dora Noda
Software Engineer

Bitcoin acaba de obtener contratos inteligentes —reales, verificados por pruebas de conocimiento cero directamente en la red de Bitcoin. El lanzamiento de la red principal de Citrea el 27 de enero de 2026 marca la primera vez que las pruebas ZK se han inscrito y verificado de forma nativa dentro de la blockchain de Bitcoin, abriendo una puerta que más de 75 proyectos de L2 de Bitcoin han estado intentando desbloquear durante años.

Pero aquí está el truco: el valor total bloqueado (TVL) de BTCFi se ha reducido un 74 % durante el último año, y el ecosistema sigue dominado por protocolos de restaking en lugar de aplicaciones programables. ¿Podrá el avance técnico de Citrea traducirse en una adopción real, o se unirá al cementerio de soluciones de escalado de Bitcoin que nunca ganaron tracción? Examinemos qué hace diferente a Citrea y si puede competir en un campo cada vez más concurrido.

MegaETH: La blockchain en tiempo real que revoluciona la velocidad y la escalabilidad

· 10 min de lectura
Dora Noda
Software Engineer

Cuando Vitalik Buterin invierte personalmente en un proyecto de blockchain, el mundo de las criptomonedas presta atención. Pero cuando ese proyecto afirma ofrecer 100,000 transacciones por segundo con tiempos de bloque de 10 milisegundos — haciendo que las blockchains tradicionales parezcan una conexión por dial-up — la pregunta pasa de "¿por qué debería importarme?" a "¿es esto siquiera posible?".

MegaETH, autodenominada la "primera blockchain en tiempo real", lanzó su mainnet el 22 de enero de 2026, y las cifras son asombrosas: 10.7 mil millones de transacciones procesadas durante una prueba de estrés de siete días, un rendimiento sostenido de 35,000 TPS y tiempos de bloque que bajaron de 400 milisegundos a solo 10 milisegundos. El proyecto ha recaudado más de 506millonesatraveˊsdecuatrorondasdefinanciacioˊn,incluidaunaventapuˊblicadetokensde506 millones a través de cuatro rondas de financiación, incluida una venta pública de tokens de 450 millones que fue sobresuscrita 27.8 veces.

Pero detrás de estas métricas impresionantes se esconde una concesión fundamental que ataca el corazón de la promesa central de la blockchain: la descentralización. La arquitectura de MegaETH depende de un único secuenciador hiperoptimizado que se ejecuta en un hardware que haría sonrojar a la mayoría de los centros de datos: más de 100 núcleos de CPU , hasta 4 terabytes de RAM y conexiones de red de 10 Gbps . Esta no es la configuración típica de un validador; es una supercomputadora.

La arquitectura: Velocidad a través de la especialización

Las ganancias de rendimiento de MegaETH provienen de dos innovaciones clave: una arquitectura de blockchain heterogénea y un entorno de ejecución EVM hiperoptimizado.

Las blockchains tradicionales requieren que cada nodo realice las mismas tareas: ordenar transacciones, ejecutarlas y mantener el estado. MegaETH descarta este manual de estrategias. En su lugar, diferencia a los nodos en roles especializados:

Nodos Secuenciadores (Sequencer Nodes): Se encargan del trabajo pesado de ordenar y ejecutar transacciones. Estos no son validadores configurados en un garaje; son servidores de nivel empresarial con requisitos de hardware 20 veces más costosos que los de un validador promedio de Solana.

Nodos Provers (Prover Nodes): Generan y verifican pruebas criptográficas utilizando hardware especializado como GPUs o FPGAs . Al separar la generación de pruebas de la ejecución, MegaETH puede mantener la seguridad sin generar cuellos de botella en el rendimiento.

Nodos Réplica (Replica Nodes): Verifican la salida del secuenciador con requisitos de hardware mínimos — aproximadamente comparables a ejecutar un nodo de Ethereum L1 — asegurando que cualquiera pueda validar el estado de la cadena incluso si no puede participar en la secuenciación.

¿El resultado? Tiempos de bloque medidos en milisegundos de un solo dígito, con el equipo apuntando a un tiempo de bloque final de 1 milisegundo, un hito sin precedentes en la industria si se logra.

Resultados de las pruebas de estrés: ¿Prueba de concepto o prueba de hype?

La prueba de estrés global de siete días de MegaETH procesó aproximadamente 10.7 mil millones de transacciones, con juegos como Smasher, Crossy Fluffle y Stomp.gg generando una carga sostenida en la red. La cadena alcanzó un rendimiento máximo de 47,000 TPS , con tasas sostenidas entre 15,000 y 35,000 TPS .

Estas cifras requieren contexto. Solana, citada a menudo como el referente de velocidad, tiene un máximo teórico de 65,000 TPS , pero opera a unos 3,400 TPS en condiciones del mundo real. Ethereum L1 gestiona aproximadamente 15 - 30 TPS . Incluso las L2 más rápidas como Arbitrum y Base suelen procesar unos pocos cientos de TPS bajo una carga normal.

Los números de la prueba de estrés de MegaETH, si se trasladan a la producción, representarían una mejora de 10 veces sobre el rendimiento real de Solana y una mejora de 1,000 veces sobre la mainnet de Ethereum.

Pero hay una advertencia crítica: las pruebas de estrés son entornos controlados. Las transacciones de la prueba provinieron principalmente de aplicaciones de juegos: operaciones simples y predecibles que no reflejan las interacciones de estado complejas de los protocolos DeFi o los patrones de transacciones impredecibles de la actividad orgánica de los usuarios.

El dilema de la centralización

Aquí es donde MegaETH diverge drásticamente de la ortodoxia blockchain: el proyecto reconoce abiertamente que no tiene planes de descentralizar su secuenciador. Nunca.

"El proyecto no finge ser descentralizado y explica por qué un secuenciador centralizado era necesario como una compensación para lograr el nivel de rendimiento deseado", señala un análisis.

Esto no es un puente temporal hacia una futura descentralización; es una decisión arquitectónica permanente. El secuenciador de MegaETH es un punto único de falla, controlado por una sola entidad, que se ejecuta en un hardware que solo las operaciones bien financiadas pueden costear.

El modelo de seguridad se basa en lo que el equipo llama "pruebas de fraude optimistas y slashing". La seguridad del sistema no depende de que múltiples entidades lleguen de forma independiente al mismo resultado. En cambio, depende de una red descentralizada de Provers y Réplicas para verificar la corrección computacional de la salida del secuenciador. Si el secuenciador actúa de forma maliciosa, los provers no deberían poder generar pruebas válidas para cálculos incorrectos.

Además, MegaETH hereda de Ethereum a través de un diseño de rollup , lo que garantiza que incluso si el secuenciador falla o actúa de forma maliciosa, los usuarios puedan recuperar sus activos a través de la mainnet de Ethereum.

Sin embargo, los críticos no están convencidos. Los análisis actuales muestran que MegaETH solo tiene 16 validadores en comparación con los más de 800,000 de Ethereum, lo que plantea preocupaciones de gobernanza. El proyecto también utiliza EigenDA para la disponibilidad de datos en lugar de Ethereum, una elección que intercambia una seguridad rigurosamente probada por costos más bajos y un mayor rendimiento.

USDm: La estrategia de la stablecoin

MegaETH no solo está construyendo una blockchain rápida; está construyendo un foso económico. El proyecto se asoció con Ethena Labs para lanzar USDm, una stablecoin nativa respaldada principalmente por el fondo de bonos del Tesoro de EE. UU. tokenizado de BlackRock, BUIDL (que actualmente cuenta con más de $ 2.2 mil millones en activos).

La innovación ingeniosa: el rendimiento de las reservas de USDm se dirige programáticamente a cubrir las operaciones del secuenciador. Esto permite a MegaETH ofrecer tarifas de transacción de menos de un centavo sin depender del gas pagado por el usuario. A medida que crece el uso de la red, el rendimiento de la stablecoin se expande proporcionalmente, creando un modelo económico autosustentable que no requiere aumentar las tarifas de los usuarios.

Esto posiciona a MegaETH frente al modelo tradicional de tarifas de L2, donde los secuenciadores obtienen ganancias del diferencial (spread) entre las tarifas pagadas por el usuario y los costos de publicación de datos en L1. Al subsidiar las tarifas a través del rendimiento, MegaETH puede superar a sus competidores en costos mientras mantiene una economía predecible para los desarrolladores.

El panorama competitivo

MegaETH entra en un mercado de L2 saturado donde Base, Arbitrum y Optimism controlan aproximadamente el 90 % del volumen de transacciones. Su posicionamiento competitivo es único:

Vs. Solana: Los tiempos de bloque de 10 ms de MegaETH superan con creces los 400 ms de Solana, lo que la hace teóricamente superior para aplicaciones sensibles a la latencia como el trading de alta frecuencia o los juegos en tiempo real. Sin embargo, Solana ofrece una experiencia de L1 unificada sin la complejidad del bridging, y su próxima actualización Firedancer promete mejoras significativas en el rendimiento.

Vs. Otras L2: Los rollups tradicionales como Arbitrum y Optimism priorizan la descentralización sobre la velocidad pura. Están buscando pruebas de fraude (fraud proofs) de Etapa 1 y Etapa 2, mientras que MegaETH se está optimizando para un punto diferente en la curva de compensación.

Vs. Monad: Ambos proyectos apuntan a una ejecución de EVM de alto rendimiento, pero Monad está construyendo una L1 con su propio consenso, mientras que MegaETH hereda la seguridad de Ethereum. Monad lanzó con $ 255 millones en TVL a finales de 2025, demostrando el apetito por las cadenas EVM de alto rendimiento.

¿A quién debería importarle?

La arquitectura de MegaETH tiene más sentido para casos de uso específicos:

Juegos en tiempo real: La latencia de 10 ms permite un estado del juego on-chain que se siente instantáneo. El enfoque del stress test en los juegos no fue accidental: este es el mercado objetivo.

Trading de alta frecuencia: Los tiempos de bloque de menos de un milisegundo podrían permitir un calce de órdenes (order matching) que rivalice con los exchanges centralizados. Hyperliquid ha demostrado el apetito por el trading on-chain de alto rendimiento.

Aplicaciones de consumo: Las aplicaciones que necesitan una capacidad de respuesta similar a la de la Web2 (feeds sociales, medios interactivos, subastas en tiempo real) podrían finalmente ofrecer experiencias fluidas sin compromisos off-chain.

La arquitectura tiene menos sentido para aplicaciones donde la descentralización es primordial: infraestructura financiera que requiere resistencia a la censura, protocolos que manejan transferencias de gran valor donde los supuestos de confianza importan, o cualquier aplicación donde los usuarios necesiten garantías sólidas sobre el comportamiento del secuenciador.

El camino por delante

La mainnet pública de MegaETH se lanza el 9 de febrero de 2026, pasando de la fase de stress test a la de producción. El éxito del proyecto dependerá de varios factores:

Adopción de desarrolladores: ¿Puede MegaETH atraer a desarrolladores para construir aplicaciones que aprovechen sus características de rendimiento únicas? Los estudios de videojuegos y los desarrolladores de aplicaciones de consumo son los objetivos obvios.

Historial de seguridad: La centralización del secuenciador es un riesgo conocido. Cualquier incidente, ya sea una falla técnica, censura o comportamiento malicioso, socavaría la confianza en toda la arquitectura.

Sustentabilidad económica: El modelo de subsidio de USDm es elegante sobre el papel, pero depende de un TVL de stablecoins suficiente para generar un rendimiento significativo. Si la adopción se retrasa, la estructura de tarifas se vuelve insostenible.

Claridad regulatoria: Los secuenciadores centralizados plantean interrogantes sobre la responsabilidad y el control que las redes descentralizadas evitan. Sigue sin estar claro cómo tratarán los reguladores a las L2 de un solo operador.

El veredicto

MegaETH representa la apuesta más agresiva hasta ahora en la propuesta de que el rendimiento importa más que la descentralización para ciertos casos de uso de blockchain. El proyecto no intenta ser Ethereum; intenta ser el carril rápido del que Ethereum carece.

Los resultados del stress test son realmente impresionantes. Si MegaETH puede ofrecer 35,000 TPS con una latencia de 10 ms en producción, será la cadena compatible con EVM más rápida por un margen significativo. La economía de USDm es ingeniosa, la trayectoria del equipo proveniente de MIT y Stanford es sólida, y el respaldo de Vitalik añade legitimidad.

Pero la compensación por la centralización es real. En un mundo donde hemos visto fallar sistemas centralizados (FTX, Celsius y muchos otros), confiar en un solo secuenciador requiere fe en los operadores y en el sistema de pruebas de fraude. El modelo de seguridad de MegaETH es sólido en teoría, pero no ha sido probado en batalla contra adversarios decididos.

La pregunta no es si MegaETH puede cumplir sus promesas de rendimiento. El stress test sugiere que puede. La pregunta es si el mercado quiere una blockchain que sea realmente rápida pero significativamente centralizada, o si la visión original de sistemas descentralizados y sin necesidad de confianza (trustless) todavía importa.

Para aplicaciones donde la velocidad lo es todo y los usuarios confían en el operador, MegaETH podría ser transformadora. Para todo lo demás, aún no hay un veredicto claro.


El lanzamiento de la mainnet de MegaETH el 9 de febrero será uno de los eventos cripto más seguidos de 2026. Ya sea que cumpla con la promesa de la "blockchain en tiempo real" o se convierta en otra historia de advertencia sobre la compensación entre centralización y rendimiento, el experimento en sí mismo avanza nuestra comprensión de lo que es posible en la frontera del rendimiento de blockchain.