Saltar al contenido principal

255 publicaciones etiquetados con "Innovación Tecnológica"

Innovación tecnológica y avances

Ver Todas las Etiquetas

La emergencia poscuántica de Ethereum: La carrera de $2M contra el Día Q

· 12 min de lectura
Dora Noda
Software Engineer

¿Qué pasaría si todo lo que protege la red de 500.000 millones de dólares de Ethereum pudiera ser descifrado en cuestión de minutos? Eso ya no es ciencia ficción. La Ethereum Foundation acaba de declarar la seguridad poscuántica como una "prioridad estratégica máxima", lanzando un equipo dedicado y respaldándolo con 2 millones de dólares en premios de investigación. El mensaje es claro: la amenaza cuántica ya no es teórica y el tiempo corre.

La bomba de tiempo cuántica

Cada blockchain hoy en día se basa en supuestos criptográficos que las computadoras cuánticas destrozarán. Ethereum, Bitcoin, Solana y prácticamente todas las redes principales utilizan criptografía de curva elíptica (ECC) para las firmas — la misma matemática que el algoritmo de Shor puede romper con suficientes qubits.

El modelo de amenaza es crudo. Las computadoras cuánticas actuales no son ni de lejos capaces de ejecutar el algoritmo de Shor en claves del mundo real. Romper secp256k1 (la curva elíptica que usan Bitcoin y Ethereum) o RSA-2048 requiere de cientos de miles a millones de qubits físicos — mucho más allá de las máquinas actuales de más de 1.000 qubits. Google e IBM tienen hojas de ruta públicas que apuntan a 1 millón de qubits físicos para principios de la década de 2030, aunque los retrasos en la ingeniería probablemente lo retrasen hasta alrededor de 2035.

Pero aquí está el detalle: las estimaciones para el "Q-Day" — el momento en que las computadoras cuánticas puedan romper la criptografía actual — oscilan entre 5 y 10 años (agresivo) y 20 y 40 años (conservador). Algunas evaluaciones dan una probabilidad de 1 entre 7 de que la criptografía de clave pública pueda ser rota para 2026. Ese no es un margen cómodo cuando estás asegurando cientos de miles de millones en activos.

A diferencia de los sistemas tradicionales donde una sola entidad puede ordenar una actualización, las blockchains se enfrentan a una pesadilla de coordinación. No puedes obligar a los usuarios a actualizar sus billeteras. No puedes parchear cada contrato inteligente. Y una vez que una computadora cuántica pueda ejecutar el algoritmo de Shor, cada transacción que exponga una clave pública se vuelve vulnerable a la extracción de la clave privada. Para Bitcoin, eso representa aproximadamente el 25 % de todo el BTC que se encuentra en direcciones reutilizadas o reveladas. Para Ethereum, la abstracción de cuentas ofrece cierto alivio, pero las cuentas heredadas siguen expuestas.

La apuesta poscuántica de 2 millones de dólares de Ethereum

En enero de 2026, la Ethereum Foundation anunció un equipo dedicado a la Poscuántica (PQ) dirigido por Thomas Coratger, con el apoyo de Emile, un criptógrafo que trabaja en leanVM. El investigador senior Justin Drake calificó la seguridad poscuántica como la "prioridad estratégica máxima" de la fundación — una elevación inusual para lo que antes era un tema de investigación a largo plazo.

La fundación respalda esto con una financiación seria:

  • Premio Poseidon de 1 millón de dólares: Fortalecimiento de la función hash Poseidon, un bloque de construcción criptográfico utilizado en sistemas de pruebas de conocimiento cero.
  • Premio de Proximidad de 1 millón de dólares: Continuación de la investigación sobre problemas de proximidad criptográfica poscuántica, lo que indica una preferencia por las técnicas basadas en hash.

La criptografía basada en hash es el camino elegido por la fundación. A diferencia de las alternativas basadas en redes (lattices) o códigos estandarizadas por el NIST (como CRYSTALS-Kyber y Dilithium), las funciones hash tienen supuestos de seguridad más simples y ya han sido probadas en entornos de blockchain. ¿La desventaja? Producen firmas más grandes y requieren más almacenamiento — un compromiso que Ethereum está dispuesto a aceptar para una resistencia cuántica a largo plazo.

LeanVM: La piedra angular de la estrategia de Ethereum

Drake describió leanVM como la "piedra angular" del enfoque poscuántico de Ethereum. Esta máquina virtual de pruebas de conocimiento cero minimalista está optimizada para firmas basadas en hash resistentes al cómputo cuántico. Al centrarse en las funciones hash en lugar de las curvas elípticas, leanVM esquiva las primitivas criptográficas más vulnerables al algoritmo de Shor.

¿Por qué es esto importante? Porque el ecosistema L2 de Ethereum, los protocolos DeFi y las herramientas de privacidad dependen de las pruebas de conocimiento cero. Si la criptografía subyacente no es segura desde el punto de vista cuántico, toda la infraestructura colapsa. LeanVM tiene como objetivo preparar estos sistemas para el futuro antes de que lleguen las computadoras cuánticas.

Varios equipos ya están operando redes de desarrollo poscuánticas multi-cliente, incluidos Zeam, Ream Labs, PierTwo, Gean client y Ethlambda, colaborando con clientes de consenso establecidos como Lighthouse, Grandine y Prysm. Esto no es una promesa vacía — es infraestructura real que se está sometiendo a pruebas de estrés hoy mismo.

La fundación también está lanzando llamadas de trabajo (breakout calls) quincenales como parte del proceso de All Core Developers, centrándose en los cambios de seguridad para el usuario: funciones criptográficas especializadas integradas directamente en el protocolo, nuevos diseños de cuentas y estrategias de agregación de firmas a largo plazo utilizando leanVM.

El desafío de la migración: miles de millones en activos en juego

Migrar Ethereum a la criptografía poscuántica no es una simple actualización de software. Es un esfuerzo de coordinación de varios años y múltiples capas que afecta a todos los participantes de la red.

Protocolo de Capa 1: El consenso debe cambiar a esquemas de firma resistentes al cómputo cuántico. Esto requiere una bifurcación dura (hard fork), lo que significa que cada validador, operador de nodo e implementación de cliente debe actualizarse en sintonía.

Contratos inteligentes: Millones de contratos desplegados en Ethereum utilizan ECDSA para la verificación de firmas. Algunos pueden actualizarse mediante patrones de proxy o gobernanza; otros son inmutables. Proyectos como Uniswap, Aave y Maker necesitarán planes de migración.

Billeteras de usuarios: MetaMask, Ledger, Trust Wallet — cada billetera debe admitir nuevos esquemas de firma. Los usuarios deben migrar fondos de direcciones antiguas a direcciones seguras cuánticamente. Aquí es donde la amenaza de "cosechar ahora, descifrar después" se vuelve real: los adversarios podrían registrar transacciones hoy y descifrarlas una vez que lleguen las computadoras cuánticas.

Rollups de L2: Arbitrum, Optimism, Base, zkSync — todos heredan los supuestos criptográficos de Ethereum. Cada rollup debe migrar de forma independiente o arriesgarse a convertirse en un silo vulnerable a los ataques cuánticos.

Ethereum tiene una ventaja en este punto: la abstracción de cuentas. A diferencia del modelo UTXO de Bitcoin, que requiere que los usuarios muevan fondos manualmente, el modelo de cuentas de Ethereum puede admitir billeteras de contratos inteligentes con criptografía actualizable. Esto no elimina el desafío de la migración, pero proporciona un camino más claro.

Qué están haciendo otras blockchains

Ethereum no está solo. El ecosistema blockchain en general está despertando ante la amenaza cuántica:

  • QRL (Quantum Resistant Ledger): Construido desde el primer día con XMSS (eXtended Merkle Signature Scheme), un estándar de firma basado en hash. QRL 2.0 (Project Zond) entrará en testnet en el primer trimestre de 2026, seguido de la auditoría y el lanzamiento de la mainnet.

  • 01 Quantum: Lanzó un kit de herramientas de migración de blockchain resistente a la computación cuántica a principios de febrero de 2026, emitiendo el token $qONE en Hyperliquid. Su kit de herramientas de migración Layer 1 está programado para su lanzamiento en marzo de 2026.

  • Bitcoin: Existen múltiples propuestas (BIPs para opcodes post-cuánticos, soft forks para nuevos tipos de direcciones), pero la gobernanza conservadora de Bitcoin hace que los cambios rápidos sean poco probables. Se vislumbra un escenario de hard fork polémico si las computadoras cuánticas llegan antes de lo esperado.

  • Solana, Cardano, Ripple: Todos utilizan firmas basadas en curvas elípticas y enfrentan desafíos de migración similares. La mayoría se encuentra en fases iniciales de investigación, sin equipos dedicados ni cronogramas anunciados.

Una revisión de los 26 protocolos de blockchain más importantes revela que 24 dependen exclusivamente de esquemas de firma vulnerables a la computación cuántica. Solo dos (QRL y otra cadena menos conocida) cuentan con bases resistentes a la computación cuántica en la actualidad.

Los escenarios del Día Q (Q-Day): ¿Rápido, lento o nunca?

Cronograma agresivo (5-10 años): Los avances en computación cuántica se aceleran. Una máquina de 1 millón de qubits llega para 2031, lo que le da a la industria solo cinco años para completar las migraciones en toda la red. Las blockchains que no hayan iniciado los preparativos enfrentarán una exposición catastrófica de claves. El liderazgo temprano de Ethereum es importante aquí.

Cronograma conservador (20-40 años): La computación cuántica progresa lentamente, limitada por la corrección de errores y los desafíos de ingeniería. Las blockchains tienen tiempo suficiente para migrar a un ritmo pausado. La inversión temprana de la Fundación Ethereum parece prudente pero no urgente.

Cisne negro (2-5 años): Ocurre un avance cuántico clasificado o privado antes de lo que sugieren las hojas de ruta públicas. Actores estatales o adversarios bien financiados obtienen superioridad criptográfica, permitiendo el robo silencioso de direcciones vulnerables. Este es el escenario que justifica tratar la seguridad post-cuántica como una "prioridad estratégica máxima" en la actualidad.

El escenario intermedio es el más probable, pero las blockchains no pueden permitirse planificar para el promedio. El riesgo de equivocarse es existencial.

Qué deberían hacer los desarrolladores y usuarios

Para los desarrolladores que construyen sobre Ethereum:

  • Monitorear las llamadas de desglose PQ: Las sesiones post-cuánticas quincenales de la Fundación Ethereum darán forma a los cambios del protocolo. Manténgase informado.
  • Planificar actualizaciones de contratos: Si controla contratos de alto valor, diseñe rutas de actualización ahora. Los patrones de proxy, los mecanismos de gobernanza o los incentivos de migración serán críticos.
  • Probar en devnets PQ: Las redes de desarrollo post-cuánticas multi-cliente ya están activas. Pruebe la compatibilidad de sus aplicaciones.

Para los usuarios que poseen ETH o tokens:

  • Evitar la reutilización de direcciones: Una vez que firma una transacción desde una dirección, la clave pública queda expuesta. Las computadoras cuánticas podrían, teóricamente, derivar la clave privada a partir de esto. Use cada dirección una sola vez si es posible.
  • Estar atentos a las actualizaciones de las billeteras: Las billeteras principales integrarán firmas post-cuánticas a medida que los estándares maduren. Esté preparado para migrar fondos cuando llegue el momento.
  • No entrar en pánico: El Día Q no es mañana. La Fundación Ethereum, junto con la industria en general, está construyendo defensas activamente.

Para empresas e instituciones:

  • Evaluar el riesgo cuántico: Si custodia miles de millones en cripto, las amenazas cuánticas son una preocupación fiduciaria. Participe en la investigación post-cuántica y en los cronogramas de migración.
  • Diversificar entre cadenas: La postura proactiva de Ethereum es alentadora, pero otras cadenas pueden rezagarse. Distribuya el riesgo en consecuencia.

La pregunta de los mil millones de dólares: ¿Será suficiente?

Los 2 millones de dólares en premios de investigación de Ethereum, su equipo dedicado y sus redes de desarrollo multi-cliente representan el impulso post-cuántico más agresivo en la industria blockchain. ¿Pero es suficiente?

El caso optimista: Sí. La abstracción de cuentas de Ethereum, su robusta cultura de investigación y su inicio temprano le otorgan la mejor oportunidad para una migración sin problemas. Si las computadoras cuánticas siguen el cronograma conservador de 20 a 40 años, Ethereum tendrá infraestructura resistente a la computación cuántica desplegada con mucha antelación.

El caso pesimista: No. Coordinar a millones de usuarios, miles de desarrolladores y cientos de protocolos no tiene precedentes. Incluso con las mejores herramientas, la migración será lenta, incompleta y polémica. Los sistemas heredados (contratos inmutables, claves perdidas, billeteras abandonadas) seguirán siendo vulnerables a la computación cuántica indefinidamente.

El caso realista: Éxito parcial. El núcleo de Ethereum migrará con éxito. Los principales protocolos DeFi y las L2 seguirán su ejemplo. Pero una larga cola de proyectos más pequeños, billeteras inactivas y casos límite persistirán como remanentes vulnerables a la computación cuántica.

Conclusión: La carrera que nadie quiere perder

La emergencia post-cuántica de la Fundación Ethereum es una apuesta que la industria no puede permitirse perder. 2 millones de dólares en premios, un equipo dedicado y redes de desarrollo activas señalan una intención seria. La criptografía basada en hash, leanVM y la abstracción de cuentas proporcionan un camino técnico creíble.

Pero la intención no es ejecución. La verdadera prueba vendrá cuando las computadoras cuánticas pasen de ser una curiosidad de investigación a una amenaza criptográfica. Para entonces, la ventana de migración podría haberse cerrado. Ethereum está corriendo la carrera ahora, mientras otros todavía se están atando los zapatos.

La amenaza cuántica no es sensacionalismo. Es matemáticas. Y a las matemáticas no les importan las hojas de ruta ni las buenas intenciones. La pregunta no es si las blockchains necesitan seguridad post-cuántica, sino si terminarán la migración antes de que llegue el Día Q.


La estrategia proactiva de defensa cuántica de Ethereum destaca la importancia de una infraestructura de blockchain robusta y preparada para el futuro. En BlockEden.xyz, proporcionamos acceso a API de Ethereum y multi-chain de grado empresarial, construidas sobre bases diseñadas para evolucionar con las necesidades de seguridad de la industria. Explore nuestros servicios para construir sobre una infraestructura en la que pueda confiar a largo plazo.

La crisis de adopción de la Capa 2: Por qué Base domina mientras las cadenas zombis se multiplican

· 17 min de lectura
Dora Noda
Software Engineer

Base procesa el 60% de las transacciones de Ethereum Layer 2. Arbitrum y Optimism se reparten la mayor parte del resto. Juntas, estas tres redes manejan el 90% de la actividad de L2, dejando a decenas de rollups que alguna vez fueron prometedores operando como pueblos fantasma con usuarios mínimos y liquidez evanescente.

La consolidación es brutal y se está acelerando. En 2025, la mayoría de los nuevos lanzamientos de L2 se convirtieron en cadenas zombis pocos meses después de sus eventos de generación de tokens (TGE): aumentos impulsados por puntos seguidos de un rápido colapso post-TGE a medida que el capital mercenario huía hacia la siguiente oportunidad de airdrop.

Entonces Vitalik Buterin asestó el golpe final: "La hoja de ruta centrada en rollups ya no tiene sentido". Con el escalado de Ethereum L1 más rápido de lo esperado y las tarifas cayendo un 99%, la justificación original para la mayoría de las L2 (transacciones más baratas) se evaporó de la noche a la mañana.

Las guerras de Layer 2 han terminado. Los ganadores están claros. La pregunta ahora es qué pasará con todos los demás.

La dinámica de "el ganador se lleva casi todo"

La adopción de Layer 2 sigue la dinámica de la ley de potencia, donde un pequeño número de ganadores captura un valor desproporcionado. Comprender por qué requiere examinar las ventajas estructurales que se acumulan con el tiempo.

Los efectos de red lo son todo

Las L2 exitosas crean volantes de inercia que se refuerzan a sí mismos:

La liquidez engendra liquidez: Los DEX necesitan pools profundos para minimizar el deslizamiento (slippage). Los traders van donde existe liquidez. Los proveedores de liquidez depositan donde el volumen es mayor. Esto concentra la liquidez en las plataformas líderes, haciendo que las alternativas sean menos atractivas independientemente de su mérito técnico.

Cuota de mente de los desarrolladores: Los constructores despliegan donde están los usuarios. La documentación, las herramientas y el soporte de la comunidad siguen la atención de los desarrolladores. Los nuevos proyectos se lanzan en cadenas establecidas porque ahí es donde existen desarrolladores experimentados, contratos auditados e infraestructura probada en batalla.

Impulso de integración: Las billeteras, los puentes (bridges), las rampas de entrada fiduciarias (fiat on-ramps) y los servicios de terceros se integran primero con las cadenas dominantes. Soportar cada L2 crea una complejidad abrumadora. Los protocolos priorizan las 2-3 cadenas que impulsan el 90% de la actividad.

Confianza institucional: Las empresas y los fondos asignan capital a plataformas probadas con trayectoria, liquidez profunda y compromiso regulatorio. Base se beneficia de la infraestructura de cumplimiento de Coinbase. Arbitrum y Optimism tienen años de operación en la red principal (mainnet). Las nuevas cadenas carecen de esta confianza, independientemente de su tecnología.

Estas dinámicas crean resultados donde el ganador se lleva casi todo. Las ventajas tempranas se convierten en ventajas insuperables.

El superpoder de Coinbase para Base

Base no ganó gracias a una tecnología superior. Ganó gracias a la distribución.

Coinbase incorpora a millones de usuarios mensualmente a través de su intercambio centralizado. Convertir incluso una fracción a Base crea efectos de red instantáneos que las L2 orgánicas no pueden igualar.

La integración es perfecta. Los usuarios de Coinbase pueden depositar en Base con un solo clic. Los retiros son instantáneos y sin comisiones dentro del ecosistema de Coinbase. Para los usuarios convencionales, Base se siente como Coinbase: confiable, regulada, simple.

Este foso de distribución es imposible de replicar para los competidores. Construir una L2 exitosa requiere:

  1. Distribución de usuarios comparable (ningún otro intercambio iguala la presencia minorista de Coinbase)
  2. Tecnología drásticamente superior (las mejoras marginales no superan las ventajas estructurales de Base)
  3. Posicionamiento especializado para segmentos que no sean minoristas (la estrategia que siguen Arbitrum y Optimism)

Base capturó primero el comercio en DEX (60% de cuota de mercado), luego se expandió a los NFT, aplicaciones sociales y cripto de consumo. La marca Coinbase convierte a los usuarios curiosos por las criptomonedas en participantes on-chain a escalas que los competidores no pueden alcanzar.

La defensa DeFi de Arbitrum y Optimism

Mientras que Base domina las aplicaciones de consumo, Arbitrum mantiene su fortaleza en DeFi y juegos a través de:

Liquidez profunda: Miles de millones en pools de liquidez establecidos que no pueden migrar fácilmente. Mover la liquidez fragmenta los mercados y crea ineficiencias de arbitraje.

Integraciones de protocolos: Los principales protocolos DeFi (Aave, Curve, GMX, Uniswap) se construyeron sobre Arbitrum con integraciones personalizadas, procesos de gobernanza y deuda técnica que hace que la migración sea costosa.

Ecosistema de desarrolladores: Años de relaciones con desarrolladores, herramientas especializadas y conocimiento institucional crean una fidelidad que va más allá de la tecnología pura.

Enfoque en juegos: Arbitrum cultiva infraestructura específica para juegos con soluciones personalizadas para estados de juego de alto rendimiento, convirtiéndose en la cadena por defecto para los proyectos de juegos Web3.

Optimism se diferencia a través de su visión de Superchain, creando una red de L2 interoperables que comparten seguridad y liquidez. Esto posiciona a Optimism como infraestructura para otras L2 en lugar de competir directamente por aplicaciones.

Las tres cadenas principales sirven a mercados diferentes: Base para consumo/minorista, Arbitrum para DeFi/juegos, y Optimism para infraestructura L2. Esta segmentación reduce la competencia directa y permite que cada una domine su nicho.

El cementerio post-incentivos

El ciclo de vida de las L2 fallidas sigue un patrón predecible.

Fase 1: Hype previo al lanzamiento

Los proyectos anuncian hojas de ruta técnicas ambiciosas, asociaciones importantes y características innovadoras. Los VC invierten en valoraciones de más de $ 500 millones basadas en proyecciones y promesas. Los presupuestos de marketing se despliegan en el cripto Twitter, conferencias y asociaciones con influencers.

La propuesta de valor es siempre la misma: "Somos más rápidos / más baratos / más descentralizados que [el titular]". Los whitepapers técnicos describen mecanismos de consenso novedosos, VM personalizadas u optimizaciones especializadas.

Fase 2: Programas de puntos y capital mercenario

Meses antes del lanzamiento del token, el protocolo introduce sistemas de puntos que recompensan la actividad on-chain. Los usuarios ganan puntos por:

  • Hacer bridge de activos a la L2
  • Operar en DEXs afiliados
  • Proporcionar liquidez a pools específicos
  • Interactuar con aplicaciones del ecosistema
  • Referir nuevos usuarios

Los puntos se convierten en tokens en el TGE, creando expectativas de airdrop. Esto atrae capital mercenario: usuarios y bots que farmean puntos sin intención de participación a largo plazo.

Las métricas de actividad explotan. La L2 reporta millones en TVL, cientos de miles de transacciones diarias y un rápido crecimiento del ecosistema. Estas cifras son huecas: los usuarios están farmeando airdrops anticipados, no construyendo aplicaciones sostenibles.

Fase 3: Evento de generación de tokens (TGE)

El TGE ocurre con listados significativos en exchanges y soporte de market-making. Los inversores iniciales, los miembros del equipo y los farmers de airdrops reciben asignaciones sustanciales. El trading inicial ve volatilidad a medida que diferentes holders persiguen diferentes estrategias.

Durante una breve ventana —generalmente de días a semanas— la L2 mantiene una actividad elevada mientras los farmers completan las tareas finales y los especuladores apuestan por el impulso.

Fase 4: El colapso

Post-TGE, los incentivos se evaporan. Los farmers salen. La liquidez se drena hacia otras cadenas. El volumen de transacciones colapsa entre un 80 y un 95 %. El TVL cae a medida que los usuarios hacen bridge de sus activos hacia otros lugares.

El protocolo entra en una espiral de muerte:

  • La reducción de la actividad hace que la cadena sea menos atractiva para los desarrolladores
  • Menos desarrolladores significan menos aplicaciones e integraciones
  • La menor utilidad impulsa a los usuarios restantes hacia alternativas
  • Los precios más bajos del token desalientan la continuidad del equipo y las subvenciones del ecosistema

La L2 se convierte en una cadena zombi: técnicamente operativa pero prácticamente muerta. Algunos mantienen equipos mínimos con la esperanza de un renacimiento. La mayoría cierra sus operaciones discretamente.

Por qué fallan los incentivos

Los programas de puntos y los airdrops de tokens no crean una adopción sostenible porque atraen a usuarios mercenarios que optimizan para la extracción en lugar de la creación de valor.

Los usuarios reales se preocupan por:

  • Aplicaciones que quieren usar
  • Activos que quieren intercambiar
  • Comunidades a las que quieren unirse

El capital mercenario se preocupa por:

  • Qué cadena ofrece el APY de airdrop más alto
  • Cómo maximizar los puntos con el mínimo capital
  • Cuándo salir antes que todos los demás

Este desajuste fundamental garantiza el fracaso. Los incentivos funcionan solo cuando subsidian la demanda genuina de forma temporal mientras la plataforma construye una retención orgánica. La mayoría de las L2 utilizan los incentivos como un sustituto del product-market fit, no como un suplemento.

La espada de doble filo de la EIP-4844

La actualización Dencun de Ethereum el 13 de marzo de 2024 introdujo la EIP-4844 —"proto-danksharding"— cambiando fundamentalmente la economía de las L2.

Cómo funciona la disponibilidad de datos de blobs

Anteriormente, las L2 publicaban datos de transacciones en la L1 de Ethereum utilizando calldata costoso, que se almacena permanentemente en el estado de Ethereum. Este costo era el mayor gasto operativo para los rollups: más de $ 34 millones solo en diciembre de 2023.

La EIP-4844 introdujo blobs: disponibilidad de datos temporal que los rollups pueden usar para datos de transacciones sin almacenamiento permanente. Los blobs persisten durante aproximadamente 18 días, lo suficiente para que todos los participantes de la L2 recuperen los datos, pero lo suficientemente corto para mantener los requisitos de almacenamiento manejables.

Este cambio arquitectónico redujo los costos de disponibilidad de datos de las L2 en un 95-99 %:

  • Arbitrum: las tarifas de gas cayeron de 0.37a0.37 a 0.012
  • Optimism: las tarifas bajaron de 0.32a0.32 a 0.009
  • Base: las tarifas medias de blobs alcanzaron los $ 0.0000000005

La paradoja económica

La EIP-4844 cumplió el beneficio prometido: transacciones L2 drásticamente más baratas. Pero esto creó consecuencias imprevistas.

Diferenciación reducida: Cuando todas las L2 se vuelven ultrabaratas, la ventaja de costo desaparece como barrera competitiva. Los usuarios ya no eligen cadenas basándose en las tarifas, desplazando la competencia a otras dimensiones como las aplicaciones, la liquidez y la marca.

Compresión de márgenes: Las L2 que cobraban tarifas significativas perdieron ingresos repentinamente. Los protocolos construyeron modelos de negocio en torno a la captura de valor de los altos costos de transacción. Cuando los costos cayeron un 99 %, también lo hicieron los ingresos, obligando a los equipos a buscar monetización alternativa.

Competencia con la L1: Lo más importante es que las L2 más baratas hicieron que la L1 de Ethereum fuera relativamente más atractiva. Combinado con las mejoras de escalado de la L1 (límites de gas más altos, disponibilidad de datos PeerDAS), la brecha de rendimiento entre la L1 y la L2 se estrechó drásticamente.

Este último punto desencadenó la reevaluación de Vitalik. Si la L1 de Ethereum puede manejar la mayoría de las aplicaciones con tarifas aceptables, ¿por qué construir una infraestructura L2 separada con complejidad añadida, supuestos de seguridad y fragmentación?

La "excusa del rollup se está desvaneciendo"

Los comentarios de Vitalik en febrero de 2026 cristalizaron este cambio: "La excusa del rollup se está desvaneciendo".

Durante años, los defensores de las L2 argumentaron que la L1 de Ethereum no podía escalar lo suficiente para una adopción masiva, lo que hacía que los rollups fueran esenciales. Las altas tarifas de gas durante 2021-2023 validaron esta narrativa.

Pero la EIP-4844 y las mejoras de la L1 cambiaron el cálculo:

  • ENS canceló su rollup Namechain después de que las tarifas de registro en la L1 cayeran por debajo de $ 0.05
  • Varios lanzamientos de L2 planificados fueron suspendidos o reposicionados
  • Las L2 existentes se apresuraron a articular su valor más allá del ahorro de costos

La "excusa del rollup" —que la L1 era fundamentalmente inescalable— ya no se sostiene. Las L2 ahora deben justificar su existencia a través de una diferenciación genuina, no como soluciones provisionales para las limitaciones de la L1.

El fenómeno de las cadenas zombie

Decenas de L2s operan ahora en el limbo: técnicamente vivas pero prácticamente irrelevantes. Estas cadenas zombie comparten características comunes:

Actividad orgánica mínima: Volúmenes de transacciones por debajo de 1,000 diarias, mayoritariamente automatizadas o impulsadas por bots. Los usuarios reales están ausentes.

Liquidez ausente: Pools de DEX con un TVL inferior a $ 100k, lo que genera un deslizamiento (slippage) masivo incluso para operaciones pequeñas. Las DeFi no son funcionales.

Desarrollo abandonado: Repositorios de GitHub con commits esporádicos, sin anuncios de nuevas funciones y equipos mínimos que solo mantienen las operaciones básicas.

Colapso del precio del token: Caídas del 80 - 95 % desde el lanzamiento, cotizando a una fracción de las valoraciones de los VC. No hay liquidez para que los grandes tenedores puedan salir.

Gobernanza inactiva: El cese de la actividad de propuestas, conjuntos de validadores sin cambios durante meses y falta de compromiso de la comunidad en la toma de decisiones.

Estas cadenas costaron millones para desarrollarse y lanzarse. Representan capital desperdiciado, oportunidades perdidas y promesas rotas para las comunidades que creyeron en la visión.

Algunas se someterán a "cierres ordenados", ayudando a los usuarios a transferir activos a cadenas supervivientes antes de terminar las operaciones. Otras persistirán indefinidamente como infraestructura zombie, técnicamente operativas pero sin cumplir ningún propósito real.

El impacto psicológico en los equipos es significativo. Los fundadores que recaudaron capital con valoraciones de $ 500 millones ven cómo sus proyectos se vuelven irrelevantes en cuestión de meses. Esto desincentiva la innovación futura, ya que los constructores talentosos se cuestionan si lanzar nuevas L2s tiene sentido en un mercado donde el ganador se lleva casi todo.

Lo que sobrevive: Estrategias de especialización

Mientras que las L2s de propósito general se enfrentan a la consolidación, las cadenas especializadas pueden prosperar atendiendo nichos poco servidos por Base, Arbitrum u Optimism.

Infraestructura específica para juegos

El gaming requiere características únicas:

  • Latencia ultra baja para jugabilidad en tiempo real
  • Alto rendimiento (throughput) para actualizaciones frecuentes de estado
  • Modelos de gas personalizados (transacciones subsidiadas, claves de sesión)
  • Almacenamiento especializado para activos y estados de juego

Ronin (la L2 de Axie Infinity) demuestra este modelo: una infraestructura construida específicamente para juegos con características que las L2s convencionales no priorizan. IMX y otras cadenas enfocadas en juegos siguen estrategias similares.

Cadenas que preservan la privacidad

Aztec, Railgun y proyectos similares ofrecen privacidad programable mediante pruebas de conocimiento cero (zero-knowledge proofs). Esta funcionalidad no existe en las L2s transparentes y sirve a usuarios que requieren transacciones confidenciales, ya sea por privacidad legítima o arbitraje regulatorio.

RWA y cadenas institucionales

Las cadenas optimizadas para la tokenización de activos del mundo real (RWA) con cumplimiento integrado, acceso con permisos e integración de custodia institucional sirven a empresas que no pueden usar infraestructura sin permisos. Estas cadenas priorizan la compatibilidad regulatoria sobre la descentralización.

Rollups específicos de aplicaciones

Los protocolos que lanzan L2s dedicadas para sus aplicaciones específicas, como la cadena personalizada de dYdX para el comercio de derivados, pueden optimizar cada capa de la pila para su caso de uso sin compromisos.

El patrón es claro: la supervivencia requiere una diferenciación que vaya más allá de ser "más rápido y más barato". El posicionamiento especializado para mercados desatendidos crea nichos defendibles que las cadenas de propósito general no pueden capturar fácilmente.

La consolidación institucional se acelera

Las instituciones financieras tradicionales que ingresan al cripto acelerarán la consolidación de las L2s en lugar de diversificarse en múltiples cadenas.

Las empresas priorizan:

  • Claridad regulatoria: Base se beneficia de la infraestructura de cumplimiento y las relaciones regulatorias de Coinbase. Las instituciones confían en esto más que en equipos de L2 anónimos.
  • Simplicidad operativa: Soportar una L2 es manejable. Soportar diez crea una complejidad inaceptable en custodia, cumplimiento y gestión de riesgos.
  • Profundidad de liquidez: Las operaciones institucionales requieren mercados profundos para minimizar el impacto en el precio. Solo las L2s principales proporcionan esto.
  • Reconocimiento de marca: Explicar "Base" a una junta directiva es más fácil que presentar L2s experimentales.

Esto crea un bucle de retroalimentación: el capital institucional fluye hacia las cadenas establecidas, profundizando sus ventajas competitivas y haciendo que las alternativas sean menos viables. Los minoristas siguen a las instituciones y los ecosistemas se consolidan aún más.

El equilibrio a largo plazo probablemente se asentará en torno a 3 - 5 L2s dominantes más un puñado de cadenas especializadas. El sueño de cientos de rollups interconectados se desvanece a medida que las realidades económicas favorecen la concentración.

El camino a seguir para las L2s con dificultades

Los equipos que operan cadenas zombie o L2s previas al lanzamiento se enfrentan a decisiones difíciles.

Opción 1: Fusionarse o ser adquirida

La consolidación con cadenas más fuertes a través de fusiones o adquisiciones podría preservar algo de valor y el impulso del equipo. La Superchain de Optimism proporciona la infraestructura para esto, permitiendo que las L2s con dificultades se unan a una capa de seguridad y liquidez compartida en lugar de competir de forma independiente.

Opción 2: Pivotar hacia la especialización

Abandonar el posicionamiento de propósito general y enfocarse en un nicho defendible. Esto requiere una evaluación honesta de las ventajas competitivas y la voluntad de servir a mercados más pequeños.

Opción 3: Cierre ordenado

Aceptar el fracaso, devolver el capital restante a los inversores, ayudar a los usuarios a migrar a cadenas supervivientes y pasar a otras oportunidades. Esto es psicológicamente difícil, pero a menudo es la elección racional.

Opción 4: Convertirse en infraestructura

En lugar de competir por los usuarios, posicionarse como infraestructura de backend para otras aplicaciones. Esto requiere modelos de negocio diferentes: vender servicios de validador, disponibilidad de datos o herramientas especializadas para proyectos que se construyen sobre cadenas establecidas.

La era de lanzar L2 de propósito general y esperar el éxito basándose únicamente en el mérito técnico ha terminado. Los equipos deben dominar mediante la distribución (imposible sin una incorporación de usuarios a la escala de Coinbase) o diferenciarse a través de la especialización.

BlockEden.xyz proporciona infraestructura de nivel empresarial para Ethereum, Base, Arbitrum, Optimism y ecosistemas emergentes de Capa 2, ofreciendo a los desarrolladores un acceso API confiable y de alto rendimiento en todo el panorama de las L2. Explore nuestros servicios para un despliegue multi-chain escalable.


Fuentes:

Lanzamiento de la Mainnet de MegaETH: ¿Puede la Blockchain en Tiempo Real Destronar a los Gigantes L2 de Ethereum?

· 13 min de lectura
Dora Noda
Software Engineer

El ecosistema blockchain acaba de presenciar algo extraordinario. El 9 de febrero de 2026, MegaETH lanzó su mainnet pública con una promesa audaz: 100,000 transacciones por segundo con tiempos de bloque de 10 milisegundos. Solo durante las pruebas de estrés, la red procesó más de 10.7 mil millones de transacciones, superando toda la historia de una década de Ethereum en solo una semana.

¿Pero podrá el hype del marketing traducirse en una realidad de producción? Y lo que es más importante, ¿podrá este recién llegado respaldado por Vitalik desafiar el dominio establecido de Arbitrum, Optimism y Base en las guerras de la Capa 2 de Ethereum?

La promesa: llega la blockchain en tiempo real

La mayoría de los usuarios de blockchain han experimentado la frustración de esperar segundos o minutos para la confirmación de una transacción. Incluso las soluciones de Capa 2 más rápidas de Ethereum operan con tiempos de finalidad de 100 - 500 ms y procesan decenas de miles de transacciones por segundo en el mejor de los casos. Para la mayoría de las aplicaciones DeFi, esto es aceptable. Pero para el trading de alta frecuencia, los juegos en tiempo real y los agentes de IA que requieren retroalimentación instantánea, estos retrasos son un obstáculo insalvable.

La propuesta de MegaETH es simple pero radical: eliminar por completo el "lag" on - chain.

La red apunta a 100,000 TPS con tiempos de bloque de 1 - 10 ms, creando lo que el equipo llama "la primera blockchain en tiempo real". Para poner esto en perspectiva, eso es 1,700 Mgas / s (millones de gas por segundo) de capacidad de cómputo, eclipsando por completo los 15 Mgas / s de Optimism y los 128 Mgas / s de Arbitrum. Incluso el ambicioso objetivo de 1,000 Mgas / s de Base parece modesto en comparación.

Respaldado por los cofundadores de Ethereum, Vitalik Buterin y Joe Lubin, a través de la empresa matriz MegaLabs, el proyecto recaudó 450millonesenunaventadetokenssobresuscritaqueatrajoa14,491participantes,con819billeterasagotandolasasignacionesindividualesde450 millones en una venta de tokens sobresuscrita que atrajo a 14,491 participantes, con 819 billeteras agotando las asignaciones individuales de 186,000 cada una. Este nivel de interés institucional y minorista posiciona a MegaETH como uno de los proyectos de Capa 2 de Ethereum mejor financiados y más seguidos de cara a 2026.

La realidad: resultados de las pruebas de estrés

Las promesas son baratas en el mundo cripto. Lo que importa es el rendimiento medible en condiciones del mundo real.

Las recientes pruebas de estrés de MegaETH demostraron un rendimiento sostenido de 35,000 TPS, significativamente por debajo del objetivo teórico de 100,000 TPS, pero aún así impresionante en comparación con sus competidores. Durante estas pruebas, la red mantuvo tiempos de bloque de 10 ms mientras procesaba los 10.7 mil millones de transacciones que eclipsaron todo el volumen histórico de Ethereum.

Estas cifras revelan tanto el potencial como la brecha. Lograr 35,000 TPS en pruebas controladas es notable. Queda por ver si la red puede mantener estas velocidades en condiciones adversas, con ataques de spam, extracción de MEV e interacciones complejas de contratos inteligentes.

El enfoque arquitectónico difiere fundamentalmente de las soluciones de Capa 2 existentes. Mientras que Arbitrum y Optimism utilizan optimistic rollups que agrupan transacciones fuera de la cadena y las liquidan periódicamente en la L1 de Ethereum, MegaETH emplea una arquitectura de tres capas con nodos especializados:

  • Nodos secuenciadores: ordenan y emiten transacciones en tiempo real.
  • Nodos probadores: verifican y generan pruebas criptográficas.
  • Nodos completos: mantienen el estado de la red.

Este diseño modular y paralelo ejecuta múltiples contratos inteligentes simultáneamente a través de núcleos sin contención, permitiendo teóricamente los objetivos de rendimiento extremos. El secuenciador finaliza inmediatamente las transacciones en lugar de esperar la liquidación por lotes, que es como MegaETH logra una latencia inferior al milisegundo.

El panorama competitivo: se calientan las guerras de las L2

El ecosistema de Capa 2 de Ethereum ha evolucionado hacia un mercado ferozmente competitivo con ganadores y perdedores claros. A principios de 2026, el valor total bloqueado (TVL) de Ethereum en soluciones de Capa 2 alcanzó los 51milmillones,conproyeccionesdellegara51 mil millones, con proyecciones de llegar a 1 billón para 2030.

Pero este crecimiento no se distribuye de manera uniforme. Base, Arbitrum y Optimism controlan aproximadamente el 90 % del volumen de transacciones de Capa 2. Solo Base capturó el 60 % de la cuota de transacciones L2 en los últimos meses, aprovechando la distribución de Coinbase y sus 100 millones de usuarios potenciales. Arbitrum mantiene una cuota de mercado DeFi del 31 % con $ 215 millones en catalizadores de juegos, mientras que Optimism se centra en la interoperabilidad a través de su ecosistema Superchain.

La mayoría de las nuevas Capas 2 colapsan tras el fin de los incentivos, creando lo que algunos analistas llaman "cadenas zombis" con una actividad mínima. La ola de consolidación es brutal: si no estás en el nivel superior, es probable que estés luchando por sobrevivir.

MegaETH entra en este panorama maduro y competitivo con una propuesta de valor diferente. En lugar de competir directamente con las L2 de propósito general en tarifas o seguridad, se enfoca en casos de uso específicos donde el rendimiento en tiempo real desbloquea categorías de aplicaciones completamente nuevas:

Trading de alta frecuencia

Los CEX tradicionales procesan operaciones en microsegundos. Los protocolos DeFi en las L2 existentes no pueden competir con una finalidad de 100 - 500 ms. Los tiempos de bloque de 10 ms de MegaETH acercan el trading on - chain al rendimiento de los CEX, atrayendo potencialmente la liquidez institucional que actualmente evita las DeFi debido a la latencia.

Juegos en tiempo real

Los juegos on-chain en las cadenas de bloques actuales sufren retrasos notables que rompen la inmersión. La finalidad de submilisegundos permite experiencias de juego receptivas que se sienten como los juegos tradicionales de la Web2, manteniendo al mismo tiempo la verificabilidad de la cadena de bloques y las garantías de propiedad de los activos.

Coordinación de agentes de IA

Los agentes de IA autónomos que realizan millones de microtransacciones al día necesitan una liquidación instantánea. La arquitectura de MegaETH está optimizada específicamente para aplicaciones impulsadas por IA que requieren una ejecución de contratos inteligentes de alto rendimiento y baja latencia.

La pregunta es si estos casos de uso especializados generan suficiente demanda para justificar la existencia de MegaETH junto con las L2 de propósito general, o si el mercado se consolida aún más en torno a Base, Arbitrum y Optimism.

Señales de adopción institucional

La adopción institucional se ha convertido en el diferenciador clave que separa los proyectos exitosos de Capa 2 de los que fracasan. Una infraestructura predecible y de alto rendimiento es ahora un requisito para los participantes institucionales que asignan capital a aplicaciones on-chain.

La venta de tokens de 450 millones de dólares de MegaETH demostró un fuerte apetito institucional. La mezcla de participación —desde fondos nativos de criptomonedas hasta socios estratégicos— sugiere credibilidad más allá de la especulación minorista. Sin embargo, el éxito en la recaudación de fondos no garantiza la adopción de la red.

El verdadero prueba llegará en los meses posteriores al lanzamiento de la mainnet. Las métricas clave a seguir incluyen:

  • Adopción de desarrolladores: ¿Están los equipos construyendo protocolos HFT, juegos y aplicaciones de agentes de IA en MegaETH?
  • Crecimiento del TVL: ¿Fluye el capital hacia los protocolos DeFi nativos de MegaETH?
  • Sostenibilidad del volumen de transacciones: ¿Puede la red mantener un TPS alto fuera de las pruebas de estrés?
  • Asociaciones empresariales: ¿Las firmas de trading institucional y los estudios de videojuegos integran MegaETH?

Los indicadores tempranos sugieren un interés creciente. El lanzamiento de la mainnet de MegaETH coincide con Consensus Hong Kong 2026, una elección de tiempo estratégica que posiciona a la red para una visibilidad máxima entre la audiencia institucional de blockchain en Asia.

La mainnet también se lanza mientras el propio Vitalik Buterin ha cuestionado la hoja de ruta de Ethereum centrada en los rollups desde hace mucho tiempo, sugiriendo que el escalado de la L1 de Ethereum debería recibir más atención. Esto crea tanto una oportunidad como un riesgo para MegaETH: oportunidad si la narrativa de las L2 se debilita, pero riesgo si la propia L1 de Ethereum logra un mejor rendimiento a través de actualizaciones como PeerDAS y Fusaka.

Análisis de la realidad técnica

Las afirmaciones arquitectónicas de MegaETH merecen un escrutinio. El objetivo de 100,000 TPS con tiempos de bloque de 10 ms suena impresionante, pero varios factores complican esta narrativa.

Primero, los 35,000 TPS logrados en las pruebas de estrés representan condiciones controladas y optimizadas. El uso en el mundo real implica diversos tipos de transacciones, interacciones complejas de contratos inteligentes y comportamientos adversos. Mantener un rendimiento constante bajo estas condiciones es mucho más desafiante que los puntos de referencia sintéticos.

Segundo, la arquitectura de tres capas introduce riesgos de centralización. Los nodos secuenciadores tienen un poder significativo en el ordenamiento de las transacciones, creando oportunidades de extracción de MEV. Si bien es probable que MegaETH incluya mecanismos para distribuir la responsabilidad del secuenciador, los detalles importan enormemente para la seguridad y la resistencia a la censura.

Tercero, las garantías de finalidad difieren entre la "finalidad suave" del secuenciador y la "finalidad dura" después de la generación de pruebas y la liquidación en la L1 de Ethereum. Los usuarios necesitan claridad sobre a qué tipo de finalidad se refiere el marketing de MegaETH cuando afirma un rendimiento de submilisegundos.

Cuarto, el modelo de ejecución en paralelo requiere una gestión cuidadosa del estado para evitar conflictos. Si múltiples transacciones afectan el mismo estado de un contrato inteligente, no pueden ejecutarse realmente en paralelo. La eficacia del enfoque de MegaETH depende en gran medida de las características de la carga de trabajo: las aplicaciones con transacciones naturalmente paralelizables se beneficiarán más que aquellas con conflictos de estado frecuentes.

Finalmente, las herramientas para desarrolladores y la compatibilidad del ecosistema importan tanto como el rendimiento bruto. El éxito de Ethereum proviene en parte de herramientas estandarizadas (Solidity, Remix, Hardhat, Foundry) que hacen que la construcción sea fluida. Si MegaETH requiere cambios significativos en los flujos de trabajo de desarrollo, la adopción sufrirá independientemente de las ventajas de velocidad.

¿Puede MegaETH destronar a los gigantes de las L2?

La respuesta honesta: probablemente no del todo, pero puede que no sea necesario.

Base, Arbitrum y Optimism han establecido efectos de red, miles de millones en TVL y ecosistemas de aplicaciones diversos. Atienden eficazmente las necesidades de propósito general con tarifas y seguridad razonables. Desplazarlos por completo requeriría no solo una tecnología superior, sino también una migración del ecosistema, lo cual es extraordinariamente difícil.

Sin embargo, MegaETH no necesita obtener una victoria total. Si logra capturar los mercados de trading de alta frecuencia, juegos en tiempo real y coordinación de agentes de IA, puede prosperar como una Capa 2 especializada junto a competidores de propósito general.

La industria de la cadena de bloques se está moviendo hacia arquitecturas específicas para aplicaciones. Uniswap lanzó una L2 especializada. Kraken construyó un rollup para trading. Sony creó una cadena enfocada en juegos. MegaETH encaja en esta tendencia: una infraestructura diseñada específicamente para aplicaciones sensibles a la latencia.

Los factores críticos de éxito son:

  1. Cumplir con las promesas de rendimiento: Mantener más de 35,000 TPS con una finalidad de < 100 ms en producción sería notable. Alcanzar 100,000 TPS con tiempos de bloque de 10 ms sería transformador.

  2. Atraer aplicaciones estrella: MegaETH necesita al menos un protocolo innovador que demuestre ventajas claras sobre las alternativas. Un protocolo HFT con un rendimiento de nivel CEX, o un juego en tiempo real con millones de usuarios, validaría la tesis.

  3. Gestionar las preocupaciones de centralización: Abordar de manera transparente la centralización del secuenciador y los riesgos de MEV genera confianza con los usuarios institucionales que se preocupan por la resistencia a la censura.

  4. Construir un ecosistema de desarrolladores: Las herramientas, la documentación y el soporte para desarrolladores determinan si los creadores eligen MegaETH en lugar de las alternativas establecidas.

  5. Navegar por el entorno regulatorio: Las aplicaciones de trading y juegos en tiempo real atraen el escrutinio regulatorio. Los marcos de cumplimiento claros serán importantes para la adopción institucional.

El Veredicto: Optimismo Cauteloso

MegaETH representa un avance técnico genuino en la escalabilidad de Ethereum. Los resultados de las pruebas de estrés son impresionantes, el respaldo es creíble y el enfoque en los casos de uso es sensato. La blockchain en tiempo real desbloquea aplicaciones que genuinamente no pueden existir en la infraestructura actual.

Pero el escepticismo está justificado. Hemos visto a muchos "Ethereum killers" y "L2 de próxima generación" no estar a la altura del bombo publicitario del marketing. La brecha entre el rendimiento teórico y la fiabilidad en producción suele ser enorme. Los efectos de red y la dependencia del ecosistema favorecen a los actores establecidos.

Los próximos seis meses serán decisivos. Si MegaETH mantiene el rendimiento de las pruebas de estrés en producción, atrae una actividad significativa de desarrolladores y demuestra casos de uso del mundo real que no podrían existir en Arbitrum o Base, se ganará su lugar en el ecosistema de Capa 2 de Ethereum.

Si el rendimiento de las pruebas de estrés se degrada bajo la carga del mundo real, o si los casos de uso especializados no se materializan, MegaETH corre el riesgo de convertirse en otro proyecto sobrevalorado que lucha por la relevancia en un mercado cada vez más consolidado.

La industria blockchain no necesita más soluciones de Capa 2 de propósito general. Necesita infraestructura especializada que permita categorías de aplicaciones completamente nuevas. El éxito o fracaso de MegaETH pondrá a prueba si la blockchain en tiempo real es una categoría convincente o una solución en busca de un problema.

BlockEden.xyz proporciona infraestructura de nivel empresarial para aplicaciones blockchain de alto rendimiento, incluyendo soporte especializado para los ecosistemas de Capa 2 de Ethereum. Explore nuestros servicios de API diseñados para requisitos exigentes de latencia y rendimiento.


Fuentes:

El puente Web2-a-Web3 de Playnance: ¿Por qué más de 30 estudios de juegos apuestan por la blockchain invisible?

· 7 min de lectura
Dora Noda
Software Engineer

El 70 % de los proyectos de NFT de marcas fracasaron. El gaming Web3 colapsó de manera espectacular en 2022 - 2023. Sin embargo, Playnance opera un ecosistema activo con más de 30 + estudios de videojuegos que incorporan con éxito a usuarios convencionales que ni siquiera saben que están utilizando blockchain.

¿La diferencia? Playnance hace que la blockchain sea invisible. Sin fricciones en la configuración de la billetera (wallet), sin confusión por las tarifas de gas (gas fees), sin la complejidad de los mercados de NFT. Los usuarios juegan, ganan recompensas y disfrutan de experiencias fluidas; la infraestructura de blockchain se ejecuta silenciosamente en segundo plano.

Este enfoque de "blockchain invisible" es la forma en que el gaming Web3 alcanza realmente la adopción masiva. No a través de la especulación criptonativa, sino resolviendo problemas reales de experiencia de usuario (UX) que el gaming tradicional no puede abordar.

Qué es lo que realmente construye Playnance

Playnance proporciona una infraestructura de Web2 a Web3 que permite a los estudios de videojuegos tradicionales integrar funciones de blockchain sin obligar a los usuarios a pasar por el típico "infierno" de incorporación (onboarding) de la Web3.

Billeteras integradas (Embedded wallets): Los usuarios acceden a los juegos con un inicio de sesión familiar de Web2 (correo electrónico, cuentas de redes sociales). Las billeteras se generan automáticamente en segundo plano. Sin frases semilla, sin tutoriales de MetaMask, sin firma manual de transacciones.

Transacciones sin gas (Gasless transactions): Playnance abstrae por completo las tarifas de gas. Los usuarios no necesitan ETH, no necesitan entender los límites de gas y nunca ven fallos en las transacciones. La plataforma gestiona toda la complejidad de la blockchain en el lado del servidor.

NFT invisibles: Los objetos del juego son técnicamente NFT, pero se presentan como activos de juego normales. Los jugadores intercambian, coleccionan y utilizan objetos a través de interfaces de juego familiares. La blockchain proporciona beneficios de propiedad e interoperabilidad sin exponer la implementación técnica.

Abstracción de pagos: Los usuarios pagan con tarjetas de crédito, PayPal o métodos de pago regionales. Las criptomonedas nunca entran en el flujo del usuario. Los sistemas de backend gestionan la conversión a cripto de forma automática.

Infraestructura de cumplimiento: KYC / AML, restricciones regionales y requisitos regulatorios gestionados a nivel de plataforma. Los estudios individuales no necesitan experiencia legal en blockchain.

Esta infraestructura permite a los estudios tradicionales experimentar con los beneficios de la blockchain —propiedad real, activos interoperables, economías transparentes— sin reconstruir todo su ecosistema técnico ni educar a los usuarios en conceptos de Web3.

Por qué los estudios tradicionales necesitan esto

Más de 30 + estudios de videojuegos se han asociado con Playnance porque la infraestructura actual de gaming Web3 exige demasiado tanto a desarrolladores como a usuarios.

Los estudios tradicionales se enfrentan a barreras al entrar en la Web3:

  • Complejidad de desarrollo: La creación de juegos on-chain requiere una experiencia en blockchain de la que carecen la mayoría de los estudios.
  • Fricción del usuario: La incorporación mediante billeteras hace que se pierda a más del 95 % de los usuarios potenciales.
  • Incertidumbre regulatoria: Los requisitos de cumplimiento varían según la jurisdicción y el tipo de activo.
  • Costes de infraestructura: Ejecutar nodos de blockchain, gestionar las tarifas de gas y procesar las transacciones añade una sobrecarga operativa.

Playnance resuelve estos problemas proporcionando una infraestructura de marca blanca (white-label). Los estudios integran API en lugar de aprender Solidity. Los usuarios se incorporan a través de flujos familiares. El cumplimiento y la complejidad de la infraestructura se abstraen.

La propuesta de valor es clara: mantenga su juego actual, su código base actual y su equipo actual; añada los beneficios de la blockchain a través de una plataforma que se encarga de las partes difíciles.

La tasa de fracaso del 70 % en los NFT de marcas

El enfoque de Playnance surgió de la observación de fracasos espectculares en iniciativas de Web3 lideradas por marcas. El 70 % de los proyectos de NFT de marcas colapsaron porque priorizaron la visibilidad de la blockchain sobre la experiencia del usuario.

Patrones de fracaso comunes:

  • Lanzamientos de NFT sin utilidad: Las marcas acuñaron NFT como coleccionables sin integración en el juego ni compromiso continuo.
  • Incorporación con mucha fricción: Exigir la configuración de la billetera y la compra de criptomonedas antes de acceder a las experiencias.
  • Diseño especulativo: Centrarse en el comercio en mercados secundarios en lugar del valor principal del producto.
  • Mala ejecución: Subestimar la complejidad técnica y lanzar productos incompletos y con errores.
  • Falta de alineación con la comunidad: Atraer a especuladores en lugar de a usuarios genuinos.

El gaming Web3 exitoso aprendió estas lecciones. Hacer que la blockchain sea invisible, centrarse primero en la jugabilidad, proporcionar una utilidad real más allá de la especulación y optimizar la experiencia del usuario por encima de la pureza criptonativa.

Playnance encarna estos principios. Los estudios pueden experimentar con funciones de blockchain sin apostar todo su negocio a la adopción de la Web3.

Infraestructura para la incorporación masiva

La tesis del gaming Web3 siempre dependió de resolver la incorporación de usuarios. Los nativos cripto representan menos del 1 % de los jugadores. La adopción masiva requiere una complejidad invisible.

El conjunto de infraestructura de Playnance aborda cada obstáculo de incorporación:

Autenticación: El inicio de sesión social o el correo electrónico sustituyen a la conexión de la billetera. Los usuarios se autentican mediante métodos familiares mientras las billeteras se generan silenciosamente en segundo plano.

Gestión de activos: Los inventarios de los juegos muestran los objetos como activos normales. La implementación técnica como NFT permanece oculta a menos que los usuarios elijan explícitamente funciones nativas de blockchain.

Transacciones: Todas las interacciones de blockchain ocurren en el lado del servidor. Los usuarios hacen clic en "comprar" o "intercambiar" como en cualquier juego tradicional. Sin ventanas emergentes de firma de transacciones ni aprobaciones de tarifas de gas.

Rampas de entrada (Onramps): Los pagos con tarjeta de crédito se sienten idénticos a las compras en el gaming tradicional. La conversión de divisas y el manejo de criptomonedas ocurren de forma transparente en los sistemas de backend.

Esto elimina todas las excusas que tienen los usuarios para no probar los juegos Web3. Si la experiencia coincide con la del gaming tradicional pero ofrece mejores modelos de propiedad, los usuarios convencionales los adoptarán sin necesidad de educación sobre blockchain.

Stack de juegos Web3 escalable

Más de 30 estudios requieren una infraestructura confiable y escalable. La arquitectura técnica de Playnance debe manejar:

  • Un alto rendimiento de transacciones sin picos en las tarifas de gas
  • Baja latencia para juegos en tiempo real
  • Garantías de redundancia y tiempo de actividad (uptime)
  • Seguridad para activos valiosos dentro del juego

La implementación técnica probablemente incluye:

  • Rollups de Capa 2 para transacciones baratas y rápidas
  • Relayers de transacciones sin gas (gasless) que abstraen las tarifas
  • Arquitectura de billeteras calientes / frías (hot / cold wallets) que equilibra la seguridad y la experiencia de usuario (UX)
  • Soporte multi-cadena para la interoperabilidad de activos

El éxito de la plataforma valida que la infraestructura de juegos Web3 puede escalar, siempre que esté correctamente diseñada y abstraída para los usuarios finales.

BlockEden.xyz proporciona infraestructura de nivel empresarial para juegos y aplicaciones Web3, ofreciendo acceso RPC confiable y de alto rendimiento en los principales ecosistemas de blockchain. Explore nuestros servicios para una infraestructura de juegos escalable.


Fuentes:

  • Informes de la industria de juegos Web3 2025-2026
  • Análisis de fallos de proyectos NFT de marcas
  • Documentación del ecosistema Playnance

Blockchains poscuánticas: 8 proyectos en la carrera por construir criptografía a prueba de cuántica

· 10 min de lectura
Dora Noda
Software Engineer

Cuando Coinbase formó un consejo asesor post-cuántico en enero de 2026, validó lo que los investigadores de seguridad advirtieron durante años: las computadoras cuánticas romperán la criptografía actual de blockchain, y la carrera para asegurar las criptomonedas contra la computación cuántica ha comenzado. Las firmas XMSS de QRL, los STARKs basados en hashes de StarkWare y el premio de investigación de $ 2 millones de Ethereum representan la vanguardia de los proyectos que se posicionan para el liderazgo del mercado en 2026. La pregunta no es si las blockchains necesitan resistencia cuántica, sino qué enfoques técnicos dominarán cuando llegue el Q-Day.

El sector de las blockchains post-cuánticas abarca dos categorías: la adaptación de cadenas existentes (Bitcoin, Ethereum) y los protocolos nativos resistentes a la computación cuántica (QRL, Quantum1). Cada uno enfrenta desafíos diferentes. Las adaptaciones deben mantener la compatibilidad hacia atrás, coordinar actualizaciones distribuidas y gestionar las claves públicas expuestas. Los protocolos nativos comienzan desde cero con criptografía resistente a la computación cuántica, pero carecen de efectos de red. Ambos enfoques son necesarios: las cadenas heredadas albergan billones en valor que deben protegerse, mientras que las nuevas cadenas pueden optimizarse para la resistencia cuántica desde su génesis.

QRL: La blockchain pionera resistente a la computación cuántica

Quantum Resistant Ledger (QRL) se lanzó en 2018 como la primera blockchain en implementar criptografía post-cuántica desde su inicio. El proyecto eligió XMSS (eXtended Merkle Signature Scheme), un algoritmo de firma basado en hashes que proporciona resistencia cuántica a través de funciones hash en lugar de la teoría de números.

¿Por qué XMSS?: Se cree que las funciones hash como SHA-256 son resistentes a la computación cuántica porque las computadoras cuánticas no aceleran significativamente las colisiones de hash (el algoritmo de Grover proporciona una aceleración cuadrática, no exponencial como el algoritmo de Shor contra ECDSA). XMSS aprovecha esta propiedad, construyendo firmas a partir de árboles de Merkle de valores hash.

Compromisos: Las firmas XMSS son grandes (~ 2,500 bytes frente a los 65 bytes de ECDSA), lo que encarece las transacciones. Cada dirección tiene una capacidad de firma limitada: después de generar N firmas, el árbol debe regenerarse. Esta naturaleza con estado requiere una gestión de claves cuidadosa.

Posición en el mercado: QRL sigue siendo un nicho, procesando un volumen de transacciones mínimo en comparación con Bitcoin o Ethereum. Sin embargo, demuestra que las blockchains resistentes a la computación cuántica son técnicamente viables. A medida que se acerca el Q-Day, QRL podría captar atención como una alternativa probada en batalla.

Perspectivas futuras: Si las amenazas cuánticas se materializan más rápido de lo esperado, la ventaja de ser el primero de QRL será importante. El protocolo cuenta con años de experiencia en producción con firmas post-cuánticas. Las instituciones que busquen tenencias seguras frente a la computación cuántica podrían asignar fondos a QRL como un "seguro cuántico".

STARKs: Pruebas de conocimiento cero con resistencia cuántica

La tecnología STARK (Scalable Transparent Argument of Knowledge) de StarkWare proporciona resistencia cuántica como un beneficio colateral de su arquitectura de pruebas de conocimiento cero. Los STARKs utilizan funciones hash y polinomios, evitando la criptografía de curva elíptica vulnerable al algoritmo de Shor.

Por qué los STARKs son importantes: A diferencia de los SNARKs (que requieren configuraciones de confianza y utilizan curvas elípticas), los STARKs son transparentes (sin configuración de confianza) y resistentes a la computación cuántica. Esto los hace ideales para soluciones de escalabilidad (StarkNet) y migración post-cuántica.

Uso actual: StarkNet procesa transacciones para el escalado de Capa 2 (L2) de Ethereum. La resistencia cuántica es latente: no es la característica principal, sino una propiedad valiosa a medida que crecen las amenazas cuánticas.

Ruta de integración: Ethereum podría integrar firmas basadas en STARK para la seguridad post-cuántica, manteniendo la compatibilidad hacia atrás con ECDSA durante la transición. Este enfoque híbrido permite una migración gradual.

Desafíos: Las pruebas STARK son grandes (cientos de kilobytes), aunque las técnicas de compresión están mejorando. La verificación es rápida, pero la generación de pruebas es computacionalmente costosa. Estos compromisos limitan el rendimiento para aplicaciones de alta frecuencia.

Perspectivas: Es probable que los STARKs formen parte de la solución post-cuántica de Ethereum, ya sea como un esquema de firma directa o como un envoltorio para la transición de direcciones heredadas. El historial de producción de StarkWare y la integración con Ethereum hacen que este camino sea probable.

Premio de investigación de $ 2 millones de la Fundación Ethereum: Firmas basadas en hashes

La designación de la criptografía post-cuántica como "máxima prioridad estratégica" por parte de la Fundación Ethereum en enero de 2026 fue acompañada por un premio de investigación de $ 2 millones para soluciones de migración prácticas. El enfoque se centra en las firmas basadas en hashes (SPHINCS+, XMSS) y la criptografía basada en redes (Dilithium).

SPHINCS+: Un esquema de firma basado en hashes sin estado estandarizado por el NIST. A diferencia de XMSS, SPHINCS+ no requiere gestión de estado: se pueden firmar mensajes ilimitados con una sola clave. Las firmas son más grandes (~ 16-40 KB), pero la propiedad sin estado simplifica la integración.

Dilithium: Un esquema de firma basado en redes que ofrece firmas más pequeñas (~ 2.5 KB) y una verificación más rápida que las alternativas basadas en hashes. La seguridad se basa en problemas de redes que se consideran difíciles de resolver para la computación cuántica.

El desafío de Ethereum: La migración de Ethereum requiere abordar las claves públicas expuestas de transacciones históricas, mantener la compatibilidad hacia atrás durante la transición y minimizar el aumento del tamaño de las firmas para evitar romper la economía de las L2.

Prioridades de investigación: El premio de $ 2 millones se dirige a rutas de migración prácticas: cómo realizar un fork de la red, transicionar los formatos de dirección, manejar las claves heredadas y mantener la seguridad durante la transición de varios años.

Cronograma: Los desarrolladores de Ethereum estiman de 3 a 5 años desde la investigación hasta el despliegue en producción. Esto sugiere una activación post-cuántica en la red principal alrededor de 2029-2031, asumiendo que el Q-Day no llegue antes.

BIP de Bitcoin: Enfoque conservador para la migración post-cuántica

Las Propuestas de Mejora de Bitcoin (BIP) que analizan la criptografía post-cuántica existen en etapas de borrador, pero la creación de consenso es lenta. La cultura conservadora de Bitcoin se resiste a la criptografía no probada, prefiriendo soluciones endurecidas por el tiempo.

Enfoque probable: Firmas basadas en hash (SPHINCS +) debido a su perfil de seguridad conservador. Bitcoin prioriza la seguridad sobre la eficiencia, aceptando firmas más grandes a cambio de un menor riesgo.

Integración de Taproot: La actualización Taproot de Bitcoin permite una flexibilidad de scripts que podría acomodar firmas post-cuánticas sin un hard fork. Los scripts de Taproot podrían incluir la validación de firmas post-cuánticas junto con ECDSA, permitiendo una migración voluntaria.

Desafío: Los 6,65 millones de BTC en direcciones expuestas. Bitcoin debe decidir: migración forzada (quema de monedas perdidas), migración voluntaria (riesgo de robo cuántico) o un enfoque híbrido que acepte pérdidas.

Cronograma: Bitcoin se mueve más lento que Ethereum. Incluso si los BIP alcanzan el consenso en 2026 - 2027, la activación en la red principal (mainnet) podría tardar hasta 2032 - 2035. Este cronograma asume que el Q - Day no es inminente.

División de la comunidad: Algunos maximalistas de Bitcoin niegan la urgencia cuántica, viéndola como una amenaza lejana. Otros abogan por una acción inmediata. Esta tensión frena la construcción de consenso.

Quantum1: Plataforma nativa de contratos inteligentes resistente a la computación cuántica

Quantum1 (ejemplo hipotético de proyectos emergentes) representa la nueva ola de blockchains diseñadas para ser resistentes a la computación cuántica desde su génesis. A diferencia de QRL (pagos simples), estas plataformas ofrecen funcionalidad de contratos inteligentes con seguridad post-cuántica.

Arquitectura: Combina firmas basadas en redes (Dilithium), compromisos basados en hash y pruebas de conocimiento cero para contratos inteligentes que preservan la privacidad y son resistentes a la computación cuántica.

Propuesta de valor: Los desarrolladores que construyen aplicaciones a largo plazo (vida útil de más de 10 años) pueden preferir plataformas nativas resistentes a la computación cuántica en lugar de cadenas adaptadas. ¿Por qué construir en Ethereum hoy solo para migrar en 2030?

Desafíos: Los efectos de red favorecen a las cadenas establecidas. Bitcoin y Ethereum tienen liquidez, usuarios, desarrolladores y aplicaciones. Las nuevas cadenas luchan por ganar tracción independientemente de su superioridad técnica.

Catalizador potencial: Un ataque cuántico a una cadena importante impulsaría la huida hacia alternativas resistentes a la computación cuántica. Los proyectos de tipo Quantum1 son pólizas de seguro contra el fallo de los incumbentes.

Consejo Asesor de Coinbase: Coordinación Institucional

La formación de un consejo asesor post-cuántico por parte de Coinbase indica un enfoque institucional en la preparación cuántica. Como empresa que cotiza en bolsa con deberes fiduciarios, Coinbase no puede ignorar los riesgos para los activos de los clientes.

Papel del consejo asesor: Evaluar las amenazas cuánticas, recomendar estrategias de migración, coordinar con los desarrolladores de protocolos y garantizar que la infraestructura de Coinbase se prepare para la transición post-cuántica.

Influencia institucional: Coinbase posee miles de millones en criptomonedas de clientes. Si Coinbase empuja los protocolos hacia estándares post-cuánticos específicos, esa influencia importa. La participación de los exchanges acelera la adopción: si los exchanges solo admiten direcciones post-cuánticas, los usuarios migrarán más rápido.

Presión del cronograma: La participación pública de Coinbase sugiere que los cronogramas institucionales son más cortos de lo que admite el discurso de la comunidad. Las empresas públicas no forman consejos asesores para riesgos a 30 años vista.

Los 8 proyectos que se posicionan para el liderazgo

Resumen del panorama competitivo:

  1. QRL: Pionero, implementación de XMSS en producción, mercado de nicho.
  2. StarkWare / StarkNet: Resistencia cuántica basada en STARK, integración con Ethereum.
  3. Ethereum Foundation: Premio de investigación de $ 2M, enfoque en SPHINCS + / Dilithium.
  4. Bitcoin Core: Propuestas BIP, migración voluntaria habilitada por Taproot.
  5. Plataformas tipo Quantum1: Cadenas de contratos inteligentes nativas resistentes a la computación cuántica.
  6. Algorand: Explorando la criptografía post-cuántica para futuras actualizaciones.
  7. Cardano: Investigación sobre la integración de criptografía basada en redes.
  8. IOTA: Funciones hash resistentes a la computación cuántica en la arquitectura Tangle.

Cada proyecto optimiza para diferentes compensaciones: seguridad frente a eficiencia, compatibilidad con versiones anteriores frente a borrón y cuenta nueva, algoritmos estandarizados por el NIST frente a experimentales.

Qué significa esto para desarrolladores e inversores

Para desarrolladores: Al construir aplicaciones con horizontes de más de 10 años se debe considerar la migración post-cuántica. Las aplicaciones en Ethereum eventualmente necesitarán admitir formatos de dirección post-cuánticos. Planificar ahora reduce la deuda técnica futura.

Para inversores: La diversificación entre cadenas resistentes a la computación cuántica y cadenas heredadas cubre el riesgo cuántico. QRL y proyectos similares son especulativos pero ofrecen un potencial alcista asimétrico si las amenazas cuánticas se materializan más rápido de lo esperado.

Para instituciones: La preparación post-cuántica es gestión de riesgos, no especulación. Los custodios que mantienen activos de clientes deben planificar estrategias de migración, coordinar con los desarrolladores de protocolos y garantizar que la infraestructura admita firmas post-cuánticas.

Para protocolos: La ventana para la migración se está cerrando. Los proyectos que comiencen la investigación post-cuántica en 2026 no se desplegarán hasta 2029 - 2031. Si el Q - Day llega en 2035, eso deja solo de 5 a 10 años de seguridad post-cuántica. Comenzar más tarde conlleva el riesgo de no tener tiempo suficiente.

Fuentes

El problema de la migración cuántica: por qué su dirección de Bitcoin deja de ser segura tras una transacción

· 12 min de lectura
Dora Noda
Software Engineer

Cuando firmas una transacción de Bitcoin, tu clave pública se vuelve visible permanentemente en la blockchain. Durante 15 años, esto no ha importado — el cifrado ECDSA que protege a Bitcoin es computacionalmente imposible de romper con ordenadores clásicos. Pero los ordenadores cuánticos lo cambian todo. Una vez que exista un ordenador cuántico lo suficientemente potente ( Q-Day ), este podrá reconstruir tu clave privada a partir de tu clave pública expuesta en cuestión de horas, vaciando tu dirección. El problema del Q-Day , que no se valora lo suficiente, no es solo "actualizar el cifrado". Es que 6,65 millones de BTC en direcciones que han firmado transacciones ya son vulnerables, y la migración es exponencialmente más difícil que actualizar los sistemas informáticos corporativos.

El premio de investigación post-cuántica de 2millonesdelaFundacioˊnEthereumylaformacioˊndeunequipodedicadoalacriptografıˊapostcuaˊntica(PQ)enenerode2026indicanqueelestatusde"prioridadestrateˊgicamaˊxima"hallegado.Estonoesplanificacioˊnafuturoesunapreparacioˊndeemergencia.ProjectElevenrecaudoˊ2 millones de la Fundación Ethereum y la formación de un equipo dedicado a la criptografía post-cuántica ( PQ ) en enero de 2026 indican que el estatus de "prioridad estratégica máxima" ha llegado. Esto no es planificación a futuro — es una preparación de emergencia. Project Eleven recaudó 20 millones específicamente para la seguridad criptográfica resistente a la computación cuántica. Coinbase formó un consejo asesor post-cuántico. La carrera contra el Q-Day ha comenzado, y las blockchains se enfrentan a desafíos únicos que los sistemas tradicionales no tienen: historia inmutable, coordinación distribuida y 6,65 millones de BTC almacenados en direcciones con claves públicas expuestas.

El problema de la exposición de la clave pública: Por qué tu dirección se vuelve vulnerable después de firmar

La seguridad de Bitcoin se basa en una asimetría fundamental: derivar una clave pública a partir de una clave privada es fácil, pero revertirlo es computacionalmente imposible. Tu dirección de Bitcoin es un hash de tu clave pública, lo que proporciona una capa adicional de protección. Mientras tu clave pública permanezca oculta, los atacantes no pueden fijar como objetivo tu clave específica.

Sin embargo, en el momento en que firmas una transacción, tu clave pública se vuelve visible en la blockchain. Esto es inevitable — la verificación de la firma requiere la clave pública. Para recibir fondos, tu dirección ( hash de la clave pública ) es suficiente. Pero gastar requiere revelar la clave.

Los ordenadores clásicos no pueden explotar esta exposición. Romper ECDSA-256 ( el esquema de firma de Bitcoin ) requiere resolver el problema del logaritmo discreto, estimado en 2^128 operaciones — algo inviable incluso para superordenadores funcionando durante milenios.

Los ordenadores cuánticos rompen esta suposición. El algoritmo de Shor, ejecutándose en un ordenador cuántico con suficientes cúbits y corrección de errores, puede resolver logaritmos discretos en tiempo polinómico. Las estimaciones sugieren que un ordenador cuántico con ~ 1.500 cúbits lógicos podría romper ECDSA-256 en horas.

Esto crea una ventana de vulnerabilidad crítica: una vez que firmas una transacción desde una dirección, la clave pública queda expuesta para siempre on-chain . Si más adelante surge un ordenador cuántico, todas las claves expuestas anteriormente se vuelven vulnerables. Los 6,65 millones de BTC mantenidos en direcciones que han firmado transacciones se encuentran con claves públicas permanentemente expuestas, esperando al Q-Day .

Las nuevas direcciones sin historial de transacciones permanecen seguras hasta su primer uso porque sus claves públicas no están expuestas. Pero las direcciones heredadas ( legacy ) — las monedas de Satoshi, las tenencias de los primeros usuarios, el almacenamiento en frío ( cold storage ) de los exchanges que han firmado transacciones — son bombas de relojería.

Por qué la migración de la blockchain es más difícil que las actualizaciones de criptografía tradicional

Los sistemas informáticos tradicionales también se enfrentan a amenazas cuánticas. Los bancos, los gobiernos y las corporaciones utilizan un cifrado vulnerable a los ataques cuánticos. Pero su camino de migración es sencillo: actualizar los algoritmos de cifrado, rotar las claves y volver a cifrar los datos. Aunque es costoso y complejo, es técnicamente factible.

La migración de la blockchain se enfrenta a desafíos únicos:

Inmutabilidad: El historial de la blockchain es permanente. No se pueden cambiar retroactivamente las transacciones pasadas para ocultar las claves públicas expuestas. Una vez reveladas, quedan reveladas para siempre en miles de nodos.

Coordinación distribuida: Las blockchains carecen de autoridades centrales para imponer actualizaciones. El consenso de Bitcoin requiere el acuerdo de la mayoría entre mineros, nodos y usuarios. Coordinar un hard fork para la migración post-cuántica es política y técnicamente complejo.

Compatibilidad hacia atrás: Las nuevas direcciones post-cuánticas deben coexistir con las direcciones heredadas durante la transición. Esto crea complejidad en el protocolo: dos esquemas de firma, formatos de dirección duales y validación de transacciones en modo mixto.

Claves perdidas y usuarios inactivos: Millones de BTC se encuentran en direcciones que pertenecen a personas que perdieron sus claves, fallecieron o abandonaron las criptomonedas hace años. Estas monedas no pueden migrar voluntariamente. ¿Permanecen vulnerables o el protocolo fuerza la migración, arriesgándose a destruir el acceso?

Tamaño y costes de las transacciones: Las firmas post-cuánticas son significativamente más grandes que las de ECDSA. El tamaño de las firmas podría aumentar de 65 bytes a más de 2.500 bytes, dependiendo del esquema. Esto dispara los datos de las transacciones, aumentando las comisiones y limitando el rendimiento ( throughput ).

Consenso sobre la elección del algoritmo: ¿Qué algoritmo post-cuántico elegir? El NIST estandarizó varios, pero cada uno tiene sus compensaciones. Elegir incorrectamente podría significar tener que volver a migrar más tarde. Las blockchains deben apostar por algoritmos que sigan siendo seguros durante décadas.

El premio de investigación de $ 2 millones de la Fundación Ethereum se centra exactamente en estos problemas: cómo migrar Ethereum a la criptografía post-cuántica sin romper la red, perder la compatibilidad hacia atrás o hacer que la blockchain sea inutilizable debido a firmas sobredimensionadas.

El problema de los 6,65 millones de BTC: ¿Qué sucede con las direcciones expuestas?

A partir de 2026, aproximadamente 6,65 millones de BTC se encuentran en direcciones que han firmado al menos una transacción, lo que significa que sus claves públicas están expuestas. Esto representa alrededor del 30 % del suministro total de Bitcoin e incluye:

Las monedas de Satoshi: Aproximadamente 1 millón de BTC minados por el creador de Bitcoin permanecen inmóviles. Muchas de estas direcciones nunca han firmado transacciones, pero otras tienen claves expuestas de transacciones tempranas.

Tenencias de los primeros adoptantes: Miles de BTC en manos de los primeros mineros y adoptantes que los acumularon por centavos por moneda. Muchas direcciones están inactivas pero tienen firmas de transacciones históricas.

Almacenamiento en frío de los exchanges: Los exchanges poseen millones de BTC en almacenamiento en frío. Si bien las mejores prácticas recomiendan rotar las direcciones, las billeteras frías heredadas a menudo tienen claves públicas expuestas de transacciones de consolidación pasadas.

Monedas perdidas: Se estima que se han perdido entre 3 y 4 millones de BTC (propietarios fallecidos, claves olvidadas, discos duros desechados). Muchas de estas direcciones tienen claves expuestas.

¿Qué sucede con estas monedas en el Día Q? Varios escenarios:

Escenario 1 - Migración forzada: Un hard fork podría imponer el traslado de monedas desde direcciones antiguas a nuevas direcciones poscuánticas dentro de un plazo determinado. Las monedas que no se migren dejarían de ser gastables. Esto "quema" las monedas perdidas pero protege a la red de los ataques cuánticos que drenan el tesoro.

Escenario 2 - Migración voluntaria: Los usuarios migran voluntariamente, pero las direcciones expuestas siguen siendo válidas. Riesgo: los atacantes cuánticos drenan las direcciones vulnerables antes de que los propietarios migren. Esto crea un pánico de "carrera por migrar".

Escenario 3 - Enfoque híbrido: Introducir direcciones poscuánticas pero mantener la compatibilidad hacia atrás indefinidamente. Se acepta que las direcciones vulnerables eventualmente serán drenadas después del Día Q, tratándolo como una selección natural.

Escenario 4 - Congelación de emergencia: Al detectar ataques cuánticos, se congelan los tipos de direcciones vulnerables mediante un hard fork de emergencia. Esto gana tiempo para la migración, pero requiere la toma de decisiones centralizada a la que Bitcoin se resiste.

Ninguna es ideal. El Escenario 1 destruye claves legítimamente perdidas. El Escenario 2 permite el robo cuántico. El Escenario 3 acepta miles de millones en pérdidas. El Escenario 4 socava la inmutabilidad de Bitcoin. La Fundación Ethereum y los investigadores de Bitcoin están luchando con estos compromisos ahora, no en un futuro lejano.

Algoritmos poscuánticos: Las soluciones técnicas

Varios algoritmos criptográficos poscuánticos ofrecen resistencia a los ataques cuánticos:

Firmas basadas en hash (XMSS, SPHINCS+): La seguridad se basa en funciones hash, que se consideran resistentes a la computación cuántica. Ventaja: Bien entendidas, suposiciones de seguridad conservadoras. Desventaja: Tamaños de firma grandes (2.500 + bytes), lo que encarece las transacciones.

Criptografía basada en redes (Dilithium, Kyber): Basada en problemas de redes que son difíciles para las computadoras cuánticas. Ventaja: Firmas más pequeñas (~ 2.500 bytes), verificación eficiente. Desventaja: Más nuevas, menos probadas en batalla que los esquemas basados en hash.

STARKs (Scalable Transparent Arguments of Knowledge): Pruebas de conocimiento cero resistentes a ataques cuánticos porque se basan en funciones hash, no en teoría de números. Ventaja: Transparentes (sin configuración de confianza), resistentes a la computación cuántica, escalables. Desventaja: Tamaños de prueba grandes, computacionalmente costosos.

Criptografía multivariada: Seguridad derivada de la resolución de ecuaciones polinómicas multivariadas. Ventaja: Generación rápida de firmas. Desventaja: Claves públicas grandes, menos madura.

Criptografía basada en códigos: Basada en códigos de corrección de errores. Ventaja: Rápida, bien estudiada. Desventaja: Tamaños de clave muy grandes, poco prácticos para el uso en blockchain.

La Fundación Ethereum está explorando las firmas basadas en hash y en redes como las más prometedoras para la integración en la blockchain. QRL (Quantum Resistant Ledger) fue pionero en la implementación de XMSS en 2018, demostrando su viabilidad pero aceptando compromisos en el tamaño de las transacciones y el rendimiento.

Es probable que Bitcoin elija firmas basadas en hash (SPHINCS+ o similar) debido a su filosofía de seguridad conservadora. Ethereum puede optar por las basadas en redes (Dilithium) para minimizar la sobrecarga de tamaño. Ambos enfrentan el mismo desafío: firmas de 10 a 40 veces más grandes que ECDSA disparan el tamaño de la blockchain y los costos de transacción.

El cronograma: ¿Cuánto falta para el Día Q?

Estimar el Día Q (cuando las computadoras cuánticas rompan ECDSA) es especulativo, pero las tendencias son claras:

Cronología optimista (para los atacantes): 10 - 15 años. IBM, Google y varias startups están logrando rápidos progresos en el recuento de qubits y la corrección de errores. Si el progreso continúa de manera exponencial, más de 1.500 qubits lógicos podrían llegar para 2035 - 2040.

Cronología conservadora: 20 - 30 años. La computación cuántica enfrenta inmensos desafíos de ingeniería: corrección de errores, coherencia de los qubits, escalado. Muchos creen que los ataques prácticos siguen estando a décadas de distancia.

Cronología pesimista (para las blockchains): 5 - 10 años. Programas gubernamentales secretos o descubrimientos revolucionarios podrían acelerar los plazos. Una planificación prudente asume plazos más cortos, no más largos.

El hecho de que la Fundación Ethereum trate la migración poscuántica como "máxima prioridad estratégica" en enero de 2026 sugiere que las estimaciones internas son más cortas de lo que admite el discurso público. No se asignan $ 2 millones y se forman equipos dedicados para riesgos a 30 años. Se hace para riesgos a 10 - 15 años.

La cultura de Bitcoin se resiste a la urgencia, pero los desarrolladores clave reconocen el problema. Existen propuestas para un Bitcoin poscuántico (en etapa de borrador de BIP), pero la creación de consenso lleva años. Si el Día Q llega en 2035, Bitcoin debe comenzar la migración para 2030 para permitir tiempo para el desarrollo, las pruebas y el despliegue en la red.

Lo que los individuos pueden hacer ahora

Si bien las soluciones a nivel de protocolo aún están a años de distancia, los individuos pueden reducir su exposición:

Migrar a nuevas direcciones regularmente: Después de realizar un gasto desde una dirección, mueva los fondos restantes a una dirección nueva. Esto minimiza el tiempo de exposición de la clave pública.

Utilizar billeteras multifirma: Las computadoras cuánticas deben vulnerar múltiples firmas simultáneamente, lo que aumenta la dificultad. Aunque no son a prueba de ataques cuánticos, permiten ganar tiempo.

Evitar la reutilización de direcciones: Nunca envíe fondos a una dirección desde la que ya haya realizado un gasto. Cada gasto expone la clave pública nuevamente.

Monitorear los avances: Siga las investigaciones de criptografía post-cuántica (PQ) de la Ethereum Foundation, las actualizaciones del consejo asesor de Coinbase y las Propuestas de Mejora de Bitcoin (BIP) relacionadas con la criptografía post-cuántica.

Diversificar las tenencias: Si el riesgo cuántico le preocupa, diversifique en cadenas resistentes a la computación cuántica (QRL) o activos menos expuestos (las cadenas de prueba de participación son más fáciles de migrar que las de prueba de trabajo).

Estos son parches temporales, no soluciones definitivas. La solución a nivel de protocolo requiere actualizaciones de red coordinadas que involucran miles de millones de dólares en valor y millones de usuarios. El desafío no es solo técnico: es social, político y económico.

Fuentes

La bomba de Vitalik sobre L2: Por qué la hoja de ruta centrada en rollups de Ethereum 'ya no tiene sentido'

· 14 min de lectura
Dora Noda
Software Engineer

"Ustedes no están escalando a Ethereum."

Con esas seis palabras, Vitalik Buterin entregó una dosis de realidad que envió ondas de choque a través del ecosistema de Ethereum. La declaración, dirigida a las cadenas de alto rendimiento que utilizan puentes multifirma (multisig), provocó una respuesta inmediata: ENS Labs canceló su rollup Namechain planeado solo unos días después, citando el rendimiento dramáticamente mejorado de la capa base de Ethereum.

Después de años de posicionar los rollups de Capa 2 como la principal solución de escalabilidad de Ethereum, el giro del cofundador en febrero de 2026 representa uno de los cambios estratégicos más significativos en la historia de blockchain. La pregunta ahora es si miles de proyectos L2 existentes pueden adaptarse—o volverse obsoletos.

La hoja de ruta centrada en rollups: ¿Qué ha cambiado?

Durante años, la estrategia oficial de escalado de Ethereum se centró en los rollups. La lógica era simple: la L1 de Ethereum se centraría en la seguridad y la descentralización, mientras que las redes de Capa 2 manejarían el rendimiento de las transacciones agrupando las ejecuciones fuera de la cadena y publicando los datos comprimidos de vuelta en la red principal (mainnet).

Esta hoja de ruta tenía sentido cuando la L1 de Ethereum luchaba con 15-30 TPS y las tarifas de gas superaban habitualmente los $ 50 por transacción durante los picos de congestión. Proyectos como Arbitrum, Optimism y zkSync recaudaron miles de millones para construir una infraestructura de rollups que eventualmente escalaría Ethereum a millones de transacciones por segundo.

Pero dos desarrollos críticos socavaron esta narrativa.

Primero, la descentralización de las L2 progresó "mucho más lento" de lo esperado, según Buterin. La mayoría de los rollups todavía dependen de secuenciadores centralizados, claves de actualización multifirma y operadores de confianza. El viaje hacia la descentralización de Etapa 2—donde los rollups pueden operar sin "ruedas de entrenamiento"—ha resultado ser extraordinariamente difícil. Solo un puñado de proyectos ha alcanzado la Etapa 1, y ninguno ha llegado a la Etapa 2.

Segundo, la propia L1 de Ethereum escaló drásticamente. La actualización Fusaka a principios de 2026 trajo reducciones de tarifas del 99 % para muchos casos de uso. Los límites de gas aumentaron de 60 millones a 200 millones con la próxima bifurcación (fork) Glamsterdam. La validación de pruebas de conocimiento cero (zero-knowledge proofs) tiene como objetivo 10,000 TPS en la L1 para finales de 2026.

De repente, la premisa que impulsó miles de millones en inversiones en L2—que la L1 de Ethereum no podía escalar—parecía cuestionable.

ENS Namechain: La primera víctima importante

La decisión de Ethereum Name Service de descartar su rollup L2 Namechain se convirtió en la validación de más alto perfil del pensamiento revisado de Buterin.

ENS había estado desarrollando Namechain durante años como un rollup especializado para manejar registros y renovaciones de nombres de manera más económica de lo que permitía la red principal. Con tarifas de gas de $ 5 por registro durante el pico de congestión de 2024, el caso económico era convincente.

Para febrero de 2026, ese cálculo cambió por completo. Las tarifas de registro de ENS cayeron por debajo de los 5 centavos en la L1 de Ethereum—una reducción del 99 %. La complejidad de la infraestructura, los costos de mantenimiento continuo y la fragmentación de usuarios al ejecutar una L2 separada ya no justificaban los ahorros de costos mínimos.

ENS Labs no abandonó su actualización ENSv2, que representa una reescritura desde cero de los contratos de ENS con usabilidad y herramientas de desarrollo mejoradas. En su lugar, el equipo desplegó ENSv2 directamente en la red principal de Ethereum, evitando la sobrecarga de coordinación de puentear (bridging) entre L1 y L2.

La cancelación señala un patrón más amplio: si la L1 de Ethereum continúa escalando de manera efectiva, los rollups de casos de uso especializados pierden su justificación económica. ¿Por qué mantener una infraestructura separada cuando la capa base es suficiente?

El problema de los puentes multifirma de 10,000 TPS

La crítica de Buterin a los puentes multifirma llega al corazón de lo que realmente significa "escalar Ethereum".

Su declaración—"Si creas una EVM de 10,000 TPS donde su conexión a la L1 está mediada por un puente multifirma, entonces no estás escalando Ethereum"—traza una línea clara entre el escalado genuino de Ethereum y las cadenas independientes que simplemente afirman una asociación.

La distinción importa enormemente para la seguridad y la descentralización.

Un puente multifirma depende de un pequeño grupo de operadores para validar las transacciones entre cadenas. Los usuarios confían en que este grupo no coludirá, no será hackeado y no se verá comprometido por los reguladores. La historia muestra que esta confianza frecuentemente está mal depositada: los hackeos de puentes han resultado en pérdidas de miles de millones, con el exploit del Ronin Bridge costando por sí solo más de $ 600 millones.

El verdadero escalado de Ethereum hereda las garantías de seguridad de Ethereum. Un rollup implementado correctamente utiliza pruebas de fraude (fraud proofs) o pruebas de validez (validity proofs) para asegurar que cualquier transición de estado inválida pueda ser desafiada y revertida, con disputas resueltas por los validadores de la L1 de Ethereum. Los usuarios no necesitan confiar en una multifirma—confían en el mecanismo de consenso de Ethereum.

El problema es que alcanzar este nivel de seguridad es técnicamente complejo y costoso. Muchos proyectos que se hacen llamar "L2 de Ethereum" toman atajos:

  • Secuenciadores centralizados: Una sola entidad ordena las transacciones, creando riesgo de censura y puntos únicos de falla.
  • Claves de actualización multifirma: Un pequeño grupo puede cambiar las reglas del protocolo sin el consentimiento de la comunidad, robando potencialmente fondos o cambiando la economía.
  • Sin garantías de salida: Si el secuenciador se desconecta o las claves de actualización se ven comprometidas, es posible que los usuarios no tengan una forma confiable de retirar activos.

Estas no son preocupaciones teóricas. La investigación muestra que la mayoría de las redes L2 siguen siendo mucho más centralizadas que la L1 de Ethereum, con la descentralización tratada como un objetivo a largo plazo en lugar de una prioridad inmediata.

El planteamiento de Buterin fuerza una pregunta incómoda: si una L2 no hereda la seguridad de Ethereum, ¿realmente está "escalando Ethereum" o es simplemente otra cadena alternativa con la marca Ethereum?

El Nuevo Marco de Trabajo de las L2: Valor Más Allá del Escalamiento

En lugar de abandonar por completo las L2, Buterin propuso verlas como un espectro de redes con diferentes niveles de conexión con Ethereum, cada una ofreciendo distintos equilibrios (trade-offs).

La visión crítica es que las L2 deben proporcionar valor más allá del escalamiento básico si quieren seguir siendo relevantes a medida que la L1 de Ethereum mejora:

Características de Privacidad

Cadenas como Aztec y Railgun ofrecen privacidad programable utilizando pruebas de conocimiento cero. Estas capacidades no pueden existir fácilmente en una L1 pública transparente, lo que crea una diferenciación genuina.

Diseño Específico para Aplicaciones

Los rollups enfocados en juegos como Ronin o IMX se optimizan para transacciones de alta frecuencia y bajo valor con requisitos de finalidad diferentes a los de las aplicaciones financieras. Esta especialización tiene sentido incluso si la L1 escala adecuadamente para la mayoría de los casos de uso.

Confirmación Ultra-Rápida

Algunas aplicaciones necesitan una finalidad de sub-segundo que el tiempo de bloque de 12 segundos de la L1 no puede proporcionar. Las L2 con consenso optimizado pueden servir a este nicho.

Casos de Uso No Financieros

La identidad, los grafos sociales y la disponibilidad de datos tienen requisitos diferentes a los de DeFi. Las L2 especializadas pueden optimizarse para estas cargas de trabajo.

Buterin enfatizó que las L2 deben "ser claras con los usuarios sobre qué garantías brindan". Los días de afirmaciones vagas sobre "escalar Ethereum" sin especificar modelos de seguridad, estado de descentralización y supuestos de confianza han terminado.

Respuestas del Ecosistema: ¿Adaptación o Negación?

La reacción a los comentarios de Buterin revela un ecosistema fracturado que lucha con una crisis de identidad.

Polygon anunció un pivote estratégico para enfocarse principalmente en los pagos, reconociendo explícitamente que el escalamiento de propósito general está cada vez más mercantilizado. El equipo reconoció que la diferenciación requiere especialización.

Marc Boiron (Offchain Labs) argumentó que los comentarios de Buterin se trataban "menos de abandonar los rollups que de elevar las expectativas para ellos". Este enfoque preserva la narrativa de los rollups al tiempo que reconoce la necesidad de estándares más altos.

Solana advocates aprovecharon la oportunidad para argumentar que la arquitectura monolítica de Solana evita por completo la complejidad de las L2, señalando que la fragmentación multicadena de Ethereum crea una UX peor que una sola L1 de alto rendimiento.

L2 developers generalmente defendieron su relevancia enfatizando características más allá del rendimiento bruto — privacidad, personalización, economía especializada — mientras reconocían silenciosamente que los proyectos de escalamiento puro son cada vez más difíciles de justificar.

La tendencia más amplia es clara: el panorama de las L2 se bifurcará en dos categorías:

  1. Rollups de commodities que compiten principalmente en tarifas y rendimiento, probablemente consolidándose en torno a unos pocos actores dominantes (Base, Arbitrum, Optimism).

  2. L2 especializadas con modelos de ejecución fundamentalmente diferentes, que ofrecen propuestas de valor únicas que la L1 no puede replicar.

Las cadenas que no caigan en ninguna categoría enfrentan un futuro incierto.

Qué Deben Hacer las L2 para Sobrevivir

Para los proyectos de Capa 2 existentes, el pivote de Buterin crea tanto presión existencial como claridad estratégica. La supervivencia requiere una acción decisiva en varios frentes:

1. Acelerar la Descentralización

La narrativa de "nos descentralizaremos eventualmente" ya no es aceptable. Los proyectos deben publicar cronogramas concretos para:

  • Redes de secuenciadores sin permisos (o pruebas de autoridad creíbles)
  • Eliminación o bloqueo temporal (time-lock) de las llaves de actualización
  • Implementación de sistemas a prueba de fallos con ventanas de salida garantizadas

Las L2 que permanecen centralizadas mientras reclaman la seguridad de Ethereum son particularmente vulnerables al escrutinio regulatorio y al daño reputacional.

2. Clarificar la Propuesta de Valor

Si el principal punto de venta de una L2 es "más barato que Ethereum", necesita un nuevo enfoque. La diferenciación sostenible requiere:

  • Características especializadas: Privacidad, ejecución de VM personalizada, modelos de estado novedosos
  • Claridad del público objetivo: ¿Juegos? ¿Pagos? ¿Social? ¿DeFi?
  • Divulgaciones honestas de seguridad: ¿Qué supuestos de confianza existen? ¿Qué vectores de ataque permanecen?

El marketing de vaporware no funcionará cuando los usuarios pueden comparar métricas reales de descentralización a través de herramientas como L2Beat.

3. Resolver el Problema de Seguridad de los Puentes

Los puentes multifirma (multisig) son el eslabón más débil en la seguridad de las L2. Los proyectos deben:

  • Implementar pruebas de fraude o pruebas de validez para puentes sin confianza (trustless)
  • Agregar retrasos de tiempo y capas de consenso social para intervenciones de emergencia
  • Proporcionar mecanismos de salida garantizados que funcionen incluso si los secuenciadores fallan

La seguridad de los puentes no puede ser algo secundario cuando hay miles de millones en fondos de usuarios en juego.

4. Enfocarse en la Interoperabilidad

La fragmentación es el mayor problema de UX de Ethereum. Las L2 deberían:

  • Soportar estándares de mensajería cross-chain (LayerZero, Wormhole, Chainlink CCIP)
  • Habilitar el intercambio de liquidez sin fricciones entre cadenas
  • Construir capas de abstracción que oculten la complejidad a los usuarios finales

Las L2 ganadoras se sentirán como extensiones de Ethereum, no como islas aisladas.

5. Aceptar la Consolidación

Realísticamente, el mercado no puede soportar más de 100 L2 viables. Muchas necesitarán fusionarse, pivotar o cerrar con elegancia. Cuanto antes los equipos reconozcan esto, mejor podrán posicionarse para asociaciones estratégicas o adquisiciones de talento en lugar de caer en una lenta irrelevancia.

La hoja de ruta de escalamiento de Ethereum L1

Mientras las L2 enfrentan una crisis de identidad, Ethereum L1 está ejecutando un agresivo plan de escalamiento que refuerza los argumentos de Buterin.

Fork Glamsterdam (mediados de 2026): Introduce las Listas de Acceso a Bloques (BAL), permitiendo un procesamiento paralelo perfecto al precargar los datos de las transacciones en la memoria. Los límites de gas aumentan de 60 millones a 200 millones, mejorando drásticamente el rendimiento para contratos inteligentes complejos.

Validación de pruebas de conocimiento cero (Zero-Knowledge): El despliegue de la Fase 1 en 2026 apunta a que el 10 % de los validadores realicen la transición a la validación ZK, donde los validadores verifican pruebas matemáticas que confirman la precisión del bloque en lugar de volver a ejecutar todas las transacciones. Esto permite que Ethereum escale hacia los 10,000 TPS manteniendo la seguridad y la descentralización.

Separación Proponente-Constructor (ePBS): Integra la competencia de constructores directamente en la capa de consenso de Ethereum, reduciendo la extracción de MEV y mejorando la resistencia a la censura.

Estas actualizaciones no eliminan la necesidad de las L2, pero sí eliminan la suposición de que el escalamiento de L1 es imposible o poco práctico. Si Ethereum L1 alcanza los 10,000 TPS con ejecución paralela y validación ZK, el estándar para la diferenciación de las L2 se eleva drásticamente.

Perspectiva a largo plazo: ¿Qué resultará ganador?

La estrategia de escalamiento de Ethereum está entrando en una nueva fase en la que el desarrollo de L1 y L2 debe verse como complementario en lugar de competitivo.

La hoja de ruta centrada en los rollups asumía que la L1 seguiría siendo lenta y costosa indefinidamente. Esa suposición ahora es obsoleta. La L1 escalará — quizás no a millones de TPS, pero lo suficiente para manejar la mayoría de los casos de uso convencionales con tarifas razonables.

Las L2 que reconozcan esta realidad y giren hacia una diferenciación genuina podrán prosperar. Aquellas que sigan promocionándose como "más baratas y rápidas que Ethereum" tendrán dificultades a medida que la L1 cierre la brecha de rendimiento.

La ironía última es que los comentarios de Buterin pueden fortalecer la posición a largo plazo de Ethereum. Al obligar a las L2 a elevar sus estándares — descentralización real, divulgaciones de seguridad honestas, propuestas de valor especializadas — Ethereum elimina los proyectos más débiles mientras eleva la calidad de todo el ecosistema.

Los usuarios se benefician de opciones más claras: usar Ethereum L1 para máxima seguridad y descentralización, o elegir L2 especializadas para funciones específicas con compensaciones declaradas explícitamente. El punto medio de "estamos escalando Ethereum un poco con un puente multifirma" desaparece.

Para los proyectos que construyen el futuro de la infraestructura blockchain, el mensaje es claro: el escalamiento genérico está resuelto. Si tu L2 no ofrece algo que Ethereum L1 no pueda, estás construyendo sobre tiempo prestado.

BlockEden.xyz proporciona infraestructura de nivel empresarial para Ethereum L1 y las principales redes de Capa 2, ofreciendo a los desarrolladores las herramientas para construir en todo el ecosistema de Ethereum. Explore nuestros servicios de API para una conectividad blockchain escalable y confiable.


Fuentes:

El Gran Pivote del Rendimiento de Bitcoin: Cuando la Acumulación se Encuentra con la Generación de Ingresos

· 13 min de lectura
Dora Noda
Software Engineer

El libro de estrategias de tesorería corporativa de Bitcoin se está reescribiendo en tiempo real. Lo que comenzó como una estrategia de acumulación pura — la implacable racha de compras de BTC de MicroStrategy — ahora está chocando con una narrativa más sofisticada: la generación de rendimientos. A medida que los emisores de stablecoins generan ganancias a partir de los rendimientos del Tesoro y la infraestructura de staking de Bitcoin madura, la pregunta que enfrentan las tesorerías institucionales ya no es solo "¿cuánto Bitcoin?", sino "¿qué rendimientos puede generar Bitcoin?".

Esta convergencia representa un cambio fundamental en la estrategia de tesorería cripto. Las empresas que antes competían en tasas de acumulación de BTC ahora tienen la mira puesta en el mercado de BTCFi de 5,5 mil millones de dólares, donde los protocolos de rendimiento sin confianza (trustless) prometen transformar las tenencias de Bitcoin inactivas en activos generadores de ingresos. Mientras tanto, los operadores de stablecoins ya han descifrado el código de los ingresos de tesorería pasivos: los 13.000 millones de dólares en ganancias de Tether en 2024 al depositar reservas en activos que devengan intereses demuestran que el modelo funciona.

La paradoja del rendimiento de Bitcoin: los rendimientos decrecientes de la acumulación

MicroStrategy — ahora rebautizada como Strategy — posee 713.502 bitcoins con un valor de 33.139 millones de dólares, lo que representa aproximadamente el 3 % del suministro total de Bitcoin. La empresa fue pionera en la métrica "Bitcoin Yield", que mide el crecimiento de BTC en relación con las acciones diluidas en circulación. Pero este libro de estrategias se enfrenta a un techo matemático que ninguna cantidad de capital puede superar.

Como revela el análisis de VanEck, los altos rendimientos de Bitcoin son fundamentalmente insostenibles debido a los rendimientos decrecientes a escala. Cada punto básico adicional de rendimiento requiere exponencialmente más BTC a medida que crece la tesorería. Cuando ya posees el 3 % del suministro de Bitcoin, añadir otro 1 % a tu métrica de rendimiento significa adquirir decenas de miles de monedas más, una hazaña que se vuelve prohibitivamente costosa a medida que la profundidad del mercado disminuye.

El estrés financiero ya es visible. Las acciones de Strategy cayeron más rápido que Bitcoin durante la reciente volatilidad, lo que refleja las dudas del mercado sobre la sostenibilidad de las estrategias de acumulación pura. El precio de costo promedio de 66.384 dólares de la compañía, combinado con el reciente retroceso de Bitcoin de 126.000 a 74.000 dólares, ejerce presión sobre la narrativa de que el simple hodling impulsa el valor para los accionistas.

Esta restricción matemática está forzando un giro estratégico. Como indica la investigación, la próxima fase de las tesorerías corporativas de Bitcoin probablemente incorporará mecanismos de rendimiento para demostrar la creación continua de valor más allá de la apreciación del precio.

Stablecoins: la máquina de rendimiento de 310.000 millones de dólares

Mientras las tesorerías de Bitcoin luchan con los límites de la acumulación, los emisores de stablecoins han estado imprimiendo dinero silenciosamente a través de un arbitraje simple: los usuarios depositan dólares, los emisores los colocan en letras del Tesoro de EE. UU. que rinden entre un 4 y un 5 %, y se quedan con el diferencial. No es particularmente innovador, pero es brutalmente efectivo.

Los números hablan por sí solos. Tether generó más de 13.000 millones de dólares en ganancias en 2024, principalmente de los intereses de su base de reservas de más de 110.000 millones de dólares. Circle, PayPal y otros están siguiendo el ejemplo, construyendo negocios de gestión de tesorería disfrazados de infraestructura de pagos.

La Ley GENIUS, aprobada para regular las stablecoins de pago, expuso inadvertidamente lo lucrativo que es este modelo. La legislación prohíbe a los emisores de stablecoins pagar intereses directamente a los tenedores, pero no impide que las plataformas afiliadas ofrezcan recompensas o programas de rendimiento. Esta zona gris regulatoria ha desatado una competencia feroz.

Los protocolos DeFi están explotando esta laguna, ofreciendo un APY del 4 al 10 % en stablecoins mientras los bancos tradicionales luchan por competir. La Ley GENIUS regula las stablecoins de pago pero deja los programas de recompensas en gran medida sin clasificar, lo que permite a las plataformas cripto proporcionar rendimientos que rivalizan o superan a las cuentas de ahorro bancarias, sin la carga regulatoria de la banca autorizada.

Esta dinámica plantea una pregunta existencial para las empresas con tesorería en Bitcoin: si los operadores de stablecoins pueden generar un rendimiento libre de riesgo del 4 al 5 % sobre las reservas de dólares, ¿cuál es el equivalente para las tenencias de Bitcoin? La respuesta está impulsando el crecimiento explosivo de Bitcoin DeFi.

BTCFi: construyendo infraestructura de rendimiento sin confianza

El ecosistema de staking de Bitcoin y DeFi — conocido colectivamente como BTCFi — está entrando en una fase de preparación para la producción en 2026. El valor total bloqueado actual se sitúa en 5,5 mil millones de dólares, una fracción del pico de DeFi, pero la infraestructura institucional está madurando rápidamente.

Babylon Protocol representa el avance técnico que permite el staking nativo de Bitcoin. El 7 de enero de 2026, Babylon Labs recaudó 15 millones de dólares de a16z para construir bóvedas de Bitcoin sin confianza utilizando cifrado de testigos y circuitos de confusión (garbled circuits). El sistema permite a los tenedores de BTC realizar staking de forma nativa — sin puentes (bridges), sin envoltorios (wrappers), sin custodios — mientras aseguran redes de prueba de participación (Proof-of-Stake) y obtienen rendimientos.

La arquitectura técnica es importante porque resuelve el problema de DeFi más antiguo de Bitcoin: cómo desbloquear la liquidez sin sacrificar la autocustodia. Los enfoques tradicionales requerían envolver BTC o confiar en custodios. Las bóvedas criptográficas de Babylon se anclan directamente en la capa base de Bitcoin, lo que permite préstamos colateralizados y la generación de rendimientos mientras el BTC nunca abandona el control del titular.

El anuncio de Fireblocks de integrar Stacks a principios de 2026 marca la apertura de la puerta de enlace institucional. Sus más de 2.400 clientes institucionales obtendrán acceso a recompensas denominadas en Bitcoin, préstamos respaldados por BTC a través de Zest y Granite, y trading nativo a través de Bitflow. Esto no es yield farming minorista: es infraestructura de tesorería empresarial diseñada para el cumplimiento y la escala.

Galaxy Digital proyecta que más de 47.000 millones de dólares en BTC podrían migrar a las Capas 2 de Bitcoin para 2030, frente al 0,8 % del suministro circulante actual. Las oportunidades de rendimiento están surgiendo a través de múltiples vectores:

  • Recompensas de staking: 3-7 % de APY a través de plataformas institucionales, rivalizando con muchas alternativas de renta fija
  • Rendimientos de préstamos: Préstamos colateralizados por BTC que generan retornos sobre las tenencias inactivas
  • Provisión de liquidez: Comisiones de creadores de mercado automatizados (AMM) de pares de trading de BTC
  • Estrategias de derivados: Primas de opciones y productos estructurados

La hoja de ruta de Starknet para 2026 incluye un puente de Bitcoin con minimización de confianza extrema impulsado por un verificador criptográfico llamado "Glock". El BTC se bloquea en la capa base de Bitcoin y solo puede desbloquearse si las condiciones de retiro se prueban y verifican en el propio Bitcoin — sin multisigs, sin validadores externos. Este nivel de minimización de la confianza es lo que separa a la BTCFi de grado de infraestructura de la DeFi especulativa.

La Tesis de Convergencia: Estrategia de Tesorería 2.0

La dinámica competitiva está forzando una convergencia. Las empresas con tesorería en Bitcoin no pueden competir de manera sostenible solo mediante la acumulación cuando los rendimientos proporcionan un flujo de caja demostrable. Mientras tanto, los operadores de stablecoins enfrentan presión regulatoria y una comoditización: cada stablecoin regulada eventualmente ofrecerá retornos similares provenientes del respaldo en bonos del Tesoro.

La estrategia ganadora combina ambas narrativas:

  1. Bitcoin como colateral: Las tenencias de tesorería desbloquean la capacidad de endeudamiento sin necesidad de vender.
  2. Staking para rendimiento base: Un APY del 3 - 7 % en posiciones de BTC proporciona retornos consistentes.
  3. Minteo de stablecoins: Las stablecoins respaldadas por BTC generan capital operativo y rendimiento.
  4. Participación en protocolos: Validar redes y proveer liquidez diversifica los ingresos.

Esto no es teórico. Las guías de gestión de tesorería corporativa ahora recomiendan estrategias de stablecoins para la generación de rendimiento, mientras que las perspectivas institucionales de cripto destacan al BTCFi como un tema clave para 2026.

La curva de adopción institucional se está acelerando. Con más de $ 110 mil millones en ETFs de Bitcoin al contado a partir de 2025, la próxima ola exige más que una exposición pasiva. Los gestores de tesorería necesitan justificar las asignaciones de Bitcoin con estados de resultados, no solo con la apreciación del balance general.

El desafío de MicroStrategy ilustra el cambio más amplio en la industria. La métrica de rendimiento de Bitcoin de la empresa se vuelve más difícil de mover a medida que aumentan sus tenencias, mientras que los competidores podrían generar potencialmente un rendimiento del 4 - 7 % en posiciones similares. El mercado está comenzando a reflejar este diferencial en las valoraciones de las empresas.

Requisitos de Infraestructura: Qué Falta Aún

A pesar del rápido progreso, persisten brechas significativas antes de que las tesorerías institucionales desplieguen el rendimiento de Bitcoin a gran escala:

Claridad regulatoria: La Ley GENIUS abordó las stablecoins pero dejó al BTCFi mayormente sin regular. El tratamiento de las recompensas por staking bajo la ley de valores, los estándares contables para el rendimiento de BTC y el tratamiento fiscal de los tokens de protocolo necesitan una definición clara.

Soluciones de custodia: La autocustodia de grado institucional que soporte interacciones complejas con contratos inteligentes aún está emergiendo. La integración de Fireblocks es un comienzo, pero los custodios tradicionales como Coinbase y Fidelity no han tendido un puente completo hacia los protocolos de BTCFi.

Herramientas de gestión de riesgos: Los instrumentos de cobertura sofisticados para el staking de Bitcoin y las posiciones de DeFi están subdesarrollados. Las tesorerías institucionales necesitan productos de seguros, derivados de volatilidad y mecanismos de protección contra pérdidas.

Profundidad de liquidez: El TVL actual de BTCFi de $ 5.5 mil millones no puede absorber el despliegue de tesorerías corporativas a gran escala. Las posiciones de BTC de mil millones de dólares requieren estrategias de salida líquidas que aún no existen en la mayoría de los protocolos.

Estas brechas de infraestructura explican por qué los informes de perspectivas institucionales de 2026 predicen que la liquidez se concentrará en torno a menos activos y protocolos. Los pioneros que se asocien con proveedores de infraestructura probados capturarán ventajas desproporcionadas.

El Desenlace Competitivo

La convergencia de las estrategias de acumulación de Bitcoin y generación de rendimiento es inevitable porque la economía lo exige. Las empresas no pueden justificar tesorerías de BTC de mil millones de dólares basándose únicamente en la especulación cuando existen alternativas que generan rendimiento.

Están surgiendo tres arquetipos estratégicos:

Acumuladores puros: Continúan comprando BTC sin estrategias de rendimiento, apostando a que la apreciación del precio supere el costo de oportunidad. Cada vez es más difícil de justificar ante los accionistas.

Tesorerías híbridas: Combinan tenencias de BTC con operaciones de stablecoins y participación selectiva en BTCFi. Equilibra la exposición alcista con la generación de ingresos.

Maximizadores de rendimiento: Despliegan Bitcoin principalmente para la generación de ingresos a través del staking, préstamos y participación en protocolos. Mayor complejidad pero con flujos de caja demostrables.

Los ganadores no serán necesariamente los mayores poseedores de Bitcoin. Serán las empresas que construyan experiencia operativa tanto en acumulación como en generación de rendimiento, equilibrando el riesgo, el retorno y el cumplimiento regulatorio.

Para los inversores institucionales que evalúan empresas con tesorería en cripto, las métricas clave están cambiando. Los porcentajes de rendimiento de Bitcoin importan menos que los ingresos absolutos en BTC, la diversificación del staking y la calidad de las asociaciones con protocolos. La ventaja competitiva se está desplazando del tamaño del balance general a la sofisticación operativa.

BlockEden.xyz proporciona infraestructura de blockchain de grado empresarial que soporta el acceso institucional a redes de proof-of-stake y protocolos DeFi. Explore nuestro mercado de APIs para construir sobre una infraestructura diseñada para la generación de rendimiento institucional.

Fuentes

El imperio de restaking de $19.5 mil millones de EigenLayer: Cómo la nueva primitiva de rendimiento de Ethereum está rediseñando las DeFi

· 19 min de lectura
Dora Noda
Software Engineer

El staking de Ethereum acaba de recibir una actualización importante, y se llama restaking. Con 19,5 mil millones de dólares en valor total bloqueado (TVL), EigenLayer ha surgido como la capa de infraestructura dominante que permite a los stakers reutilizar su colateral de ETH para asegurar redes adicionales mientras obtienen rendimientos compuestos. Este no es simplemente otro protocolo DeFi; está remodelando fundamentalmente cómo funcionan la seguridad y la eficiencia del capital en todo el ecosistema de Ethereum.

Pero aquí está el giro: la verdadera acción no está ocurriendo con el restaking directo. En su lugar, los tokens de restaking líquido (LRT) de protocolos como ether.fi, Renzo y Kelp DAO han capturado más de 10 mil millones de dólares en TVL, lo que representa la mayoría del crecimiento de EigenLayer. Estos LRT brindan a los stakers lo mejor de ambos mundos: rendimientos mejorados por el restaking además de la composabilidad de las DeFi. Mientras tanto, la apuesta de infraestructura de IA verificable de EigenCloud indica que las implicaciones del restaking se extienden mucho más allá de la seguridad tradicional de la cadena de bloques.

Si has estado siguiendo la evolución de Ethereum, el restaking representa la primitiva de rendimiento más significativa desde que surgió el staking líquido. Pero no está exento de riesgos. Sumerjámonos en lo que está impulsando este imperio de 19,5 mil millones de dólares y si el restaking merece su lugar como la nueva base de rendimiento de Ethereum.

¿Qué es el restaking y por qué es importante?

El staking tradicional de Ethereum es sencillo: bloqueas ETH para validar transacciones, obtienes un rendimiento anual de aproximadamente el 4-5 % y ayudas a asegurar la red. El restaking toma este concepto y lo multiplica.

El restaking permite que el mismo ETH en staking asegure múltiples redes simultáneamente. En lugar de que tu capital en staking obtenga recompensas solo de Ethereum, ahora puede respaldar Servicios Validados Activamente (AVS): servicios descentralizados como oráculos, puentes, capas de disponibilidad de datos e infraestructura de IA. Cada servicio adicional asegurado genera un rendimiento adicional.

Piénsalo como alquilar una habitación libre en una casa que ya posees. Tu capital inicial (la casa) ya está trabajando para ti, pero el restaking te permite extraer valor adicional del mismo activo sin venderlo ni retirarlo del staking.

La revolución de la eficiencia del capital

EigenLayer fue pionero en este modelo al crear un mercado donde:

  • Stakers: optan por validar servicios adicionales y ganar recompensas extra.
  • Operadores de AVS: obtienen acceso al enorme presupuesto de seguridad de Ethereum sin tener que construir su propia red de validadores.
  • Protocolos: pueden lanzarse más rápido con seguridad compartida en lugar de empezar desde cero.

¿El resultado? Una eficiencia del capital que eleva los rendimientos totales al rango del 15-40 % de APY, en comparación con la línea base del 4-5 % del staking tradicional. Esto explica por qué el TVL de EigenLayer explotó de 1,1 mil millones a más de 18 mil millones de dólares a lo largo de 2024-2025.

Del staking al restaking: la próxima primitiva de las DeFi

El restaking representa una evolución natural en el panorama de rendimientos de las DeFi:

  1. Primera generación (2020-2022): El staking líquido (Lido, Rocket Pool) resolvió el problema de la liquidez al otorgar a los stakers tokens negociables (stETH) en lugar de bloquear el ETH.
  2. Segunda generación (2024-2026): El restaking líquido se basa en esto al permitir que esos tokens de staking líquido se vuelvan a poner en restaking para obtener recompensas compuestas mientras se mantiene la composabilidad de las DeFi.

Como señala un análisis, el restaking ha evolucionado "de una extensión de nicho del staking de Ethereum a una primitiva central de las DeFi, una que funciona tanto como una capa de seguridad compartida como un motor de generación de rendimiento".

El ecosistema de restaking de Ethereum alcanzó los 16,26 mil millones de dólares en valor total bloqueado a principios de 2026, con 4,65 millones de ETH utilizándose actualmente dentro de los marcos de restaking. Esta escala indica que el restaking no es una característica experimental: se está convirtiendo en infraestructura.

La explosión del restaking líquido: ether.fi, Renzo y Kelp DAO

Si bien EigenLayer creó la primitiva del restaking, los protocolos de restaking líquido la convirtieron en un producto para el mercado masivo. Estos protocolos emiten tokens de restaking líquido (LRT) que representan posiciones en restaking, resolviendo el mismo problema de liquidez que los LST abordaron para el staking regular.

Por qué domina el restaking líquido

Los números cuentan la historia: los protocolos de restaking líquido aportan más de 10 mil millones de dólares del valor total bloqueado de EigenLayer, y el mercado total de LRT se ha más que triplicado desde febrero de 2024, sumando ahora 3,34 millones de ETH (equivalente a unos 11,3 mil millones de dólares).

He aquí por qué los LRT se han convertido en el método preferido para participar en el restaking:

Composabilidad del capital: los LRT se pueden usar como colateral en protocolos de préstamo, proporcionarse como liquidez en DEX o implementarse en estrategias de rendimiento, todo mientras se ganan recompensas por restaking. El restaking directo bloquea tu capital con una flexibilidad limitada.

Operaciones simplificadas: los protocolos de restaking líquido manejan la complejidad técnica de seleccionar y validar los AVS. Los stakers individuales no necesitan monitorear docenas de servicios ni administrar la infraestructura de validadores.

Requisitos mínimos reducidos: muchos protocolos LRT no tienen un depósito mínimo, mientras que ejecutar tu propio validador requiere 32 ETH.

Liquidez instantánea: ¿Necesitas salir de tu posición? Los LRT se negocian en mercados secundarios. El restaking directo requiere períodos de desvinculación (unbonding).

Los Protocolos LRT Líderes

Tres protocolos han surgido como líderes del mercado:

ether.fi comanda el TVL más alto entre los proveedores de liquid restaking, superando los $3.2 mil millones según datos de 2024. El protocolo emite tokens eETH y opera una arquitectura no custodial donde los stakers mantienen el control de sus llaves de validador.

Renzo Protocol alcanzó los $2 mil millones en TVL y ofrece ezETH como su token de liquid restaking. Renzo enfatiza la seguridad de grado institucional y se ha integrado con múltiples protocolos DeFi para estrategias de rendimiento mejoradas.

Kelp DAO (mencionado anteriormente como "Kelp LRT") alcanzó los $1.3 mil millones en TVL y se posiciona como una solución de liquid restaking gobernada por la comunidad con un enfoque en la gobernanza descentralizada.

Juntos, estos tres protocolos representan la capa de infraestructura que permite la adopción masiva del restaking. Como señala un informe de la industria, "protocolos como Etherfi, Puffer Finance, Kelp DAO y Renzo Protocol siguen siendo líderes en el espacio del liquid restaking".

La Prima de Rendimiento de LRT

¿Cuánto rendimiento (yield) extra genera realmente el liquid restaking?

Staking estándar de Ethereum: 4-5 % APY Estrategias de liquid restaking: rango de 15-40 % APY

Esta prima de rendimiento proviene de múltiples fuentes:

  • Recompensas base por staking de Ethereum
  • Recompensas específicas de AVS por asegurar servicios adicionales
  • Incentivos de tokens de los propios protocolos LRT
  • Rendimientos de estrategias DeFi cuando los LRT se despliegan en otros protocolos

Sin embargo, es fundamental entender que los rendimientos más altos reflejan riesgos más altos, los cuales examinaremos en breve.

EigenCloud: La Apuesta de $170M en Infraestructura de IA

Si bien el liquid restaking ha acaparado los titulares por las oportunidades de rendimiento, la visión más ambiciosa de EigenLayer se extiende hacia la infraestructura de IA verificable a través de EigenCloud.

¿Qué es EigenCloud?

EigenCloud es una plataforma de computación en la nube descentralizada y verificable construida sobre el protocolo de restaking de EigenLayer. Está diseñada para proporcionar confianza criptográfica para computaciones off-chain — particularmente cargas de trabajo de IA y lógica financiera compleja que son demasiado costosas o lentas para ejecutarse directamente on-chain.

La plataforma opera a través de tres servicios principales:

EigenDA: Capa de disponibilidad de datos que garantiza que los datos requeridos para la verificación permanezcan accesibles. EigenVerify: Mecanismo de resolución de disputas para desafiar computaciones incorrectas. EigenCompute: Entorno de ejecución off-chain para lógica compleja manteniendo la integridad.

El Problema de la Infraestructura de IA

Los agentes de IA actuales enfrentan un problema de confianza fundamental. Cuando un modelo de IA genera una respuesta o toma una decisión, ¿cómo se verifica que:

  1. El prompt no fue modificado
  2. La respuesta no fue alterada
  3. Realmente se utilizó el modelo correcto

Para los agentes de IA que gestionan transacciones financieras o toman decisiones autónomas, estas vulnerabilidades crean un riesgo inaceptable. Aquí es donde entra la infraestructura de IA verificable de EigenCloud.

Lanzamiento de EigenAI y EigenCompute

EigenCloud lanzó recientemente dos servicios críticos:

EigenAI proporciona una API de inferencia de LLM verificable compatible con la especificación de la API de OpenAI. Resuelve los tres riesgos principales (modificación del prompt, modificación de la respuesta, modificación del modelo) a través de pruebas criptográficas que verifican que la computación ocurrió correctamente.

EigenCompute permite a los desarrolladores ejecutar lógica de agentes compleja y de larga duración fuera de los contratos inteligentes, manteniendo la integridad y la seguridad. La alfa de la mainnet utiliza imágenes de Docker ejecutadas dentro de Entornos de Ejecución Confiables (TEEs).

La Oportunidad de Mercado

Si bien las cifras específicas de financiamiento varían (la cifra de $170M mencionada en algunos informes), la oportunidad de mercado más amplia es sustancial. A medida que los agentes de IA se vuelven más autónomos y manejan decisiones financieras más grandes, la demanda de infraestructura de computación verificable crece exponencialmente.

El posicionamiento de EigenCloud en la intersección de la IA y la infraestructura blockchain representa una apuesta de que las garantías de seguridad del restaking pueden extenderse más allá de los casos de uso tradicionales de blockchain hacia la emergente economía de agentes de IA.

Un análisis enmarca esta evolución claramente: "Redefiniendo AVS: De Servicios Validados Activamente a Servicios Verificables Autónomos" — sugiriendo que la próxima ola de AVS no solo validará el estado de la blockchain, sino que verificará computaciones autónomas de IA.

La Realidad del Riesgo: Slashing, Contratos Inteligentes y Contagio Sistémico

Si los rendimientos del 15-40 % del restaking suenan demasiado buenos para ser verdad, es porque conllevan riesgos significativamente elevados en comparación con el staking estándar. Comprender estos riesgos es esencial antes de asignar capital.

Acumulación de Riesgo de Slashing

El riesgo más directo es el slashing — la penalización aplicada cuando los validadores se comportan de manera maliciosa o no cumplen con sus deberes.

En el staking tradicional, enfrentas riesgo de slashing solo desde la capa de consenso de Ethereum. Esto es bien comprendido y relativamente raro bajo operaciones normales.

En el restaking, heredas las condiciones de slashing de cada AVS que apoyas. Como explica un análisis de riesgo: "Los restakers heredan las condiciones de slashing de cada AVS que apoyan, y si un Operador se comporta de manera inadecuada, no solo podría ser penalizado en la capa de Ethereum, sino que podrían aplicarse penalizaciones adicionales basadas en las reglas específicas de la AVS".

Incluso los errores operativos pueden activar penalizaciones: "Llaves desactualizadas o errores en el cliente pueden resultar en penalizaciones, que incluso podrían anular tus ingresos por staking de Ethereum".

Los cálculos empeoran con múltiples AVS. Si la ganancia acumulada por un comportamiento malicioso a través de varias AVS supera la penalización máxima de slashing, los incentivos económicos podrían favorecer a los malos actores. Esto crea lo que los investigadores llaman "vulnerabilidades a nivel de red".

Complejidad de los Contratos Inteligentes

Los contratos inteligentes de EigenLayer son altamente complejos y relativamente nuevos. Aunque están auditados, la superficie de ataque se expande con cada capa adicional de protocolo.

Según los análisis de seguridad: "Cada capa de restaking introduce nuevos contratos inteligentes, lo que aumenta la superficie de ataque para vulnerabilidades, y la complejidad de los mecanismos de restaking incrementa aún más el potencial de errores y exploits en los contratos inteligentes que rigen estos protocolos".

Para los liquid restaking tokens (LRT), esta complejidad se multiplica. Su capital pasa por:

  1. Los contratos inteligentes del protocolo LRT
  2. Los contratos principales de EigenLayer
  3. Los contratos individuales de AVS
  4. Cualquier protocolo DeFi adicional donde despliegue sus LRT

Cada capa introduce posibles puntos de vulnerabilidad.

Riesgo de Contagio Sistémico

Quizás el riesgo más preocupante sea el sistémico: EigenLayer centraliza la seguridad en múltiples protocolos. Si ocurre un exploit importante o un evento de slashing, los efectos en cascada podrían ser graves.

Los analistas de riesgo advierten: "Un evento de slashing generalizado en múltiples AVS podría provocar una venta masiva de ETH en staking y LSD, lo que podría deprimir el precio de ETH, afectando negativamente la salud general del ecosistema de Ethereum".

Esto crea una paradoja: el éxito de EigenLayer al convertirse en una infraestructura crítica hace que todo el ecosistema sea más vulnerable a los riesgos de un único punto de falla.

Incertidumbre en los Parámetros de Slashing

Sumándose a la complejidad, muchos parámetros de slashing de los AVS siguen sin definirse. Como señala una evaluación de riesgos: "Los parámetros exactos de las penalizaciones por slashing para cada AVS aún se están definiendo e implementando, lo que añade una capa de incertidumbre".

Básicamente, usted está aceptando parámetros de riesgo desconocidos a cambio de rendimiento — una posición desafiante para los asignadores de capital conscientes del riesgo.

¿Vale la Pena el Riesgo por el Rendimiento?

El rango de APY del 15-40 % de las estrategias de restaking refleja estos riesgos elevados. Para los participantes sofisticados de DeFi que entienden las compensaciones y pueden monitorear sus posiciones activamente, el restaking puede ofrecer retornos atractivos ajustados al riesgo.

Para los stakers pasivos o aquellos que buscan rendimientos estables y predecibles, el 4-5 % tradicional del staking estándar puede ser preferible. Como sugiere el análisis de la industria: "El staking tradicional en Ethereum probablemente ofrecerá rendimientos modestos y estables, actuando como un flujo de ingresos DeFi fundamental y de menor riesgo".

El Restaking como la Nueva Primitiva de Rendimiento de Ethereum

A pesar de los riesgos, el restaking está consolidando su posición como una primitiva central de Ethereum. Los $ 16.26 mil millones en TVL, la proliferación de protocolos de liquid restaking y la expansión hacia la infraestructura de IA apuntan a un ecosistema en maduración en lugar de una granja de rendimiento temporal.

Por qué el Restaking es Importante para Ethereum

El restaking resuelve problemas críticos en el ecosistema de Ethereum:

Seguridad inicial (bootstrapping): Los nuevos protocolos ya no necesitan arrancar sus propios conjuntos de validadores. Pueden aprovechar el presupuesto de seguridad existente de Ethereum, reduciendo drásticamente el tiempo de salida al mercado.

Eficiencia de capital: El mismo ETH puede asegurar múltiples servicios simultáneamente, maximizando la productividad del capital en staking de Ethereum.

Sostenibilidad de los validadores: A medida que el rendimiento base del staking de Ethereum tiende a la baja debido al aumento de la participación de los validadores, el restaking proporciona flujos de ingresos adicionales que mantienen la validación económicamente viable.

Alineación del ecosistema: Los validadores que realizan restaking tienen intereses en juego en múltiples servicios del ecosistema de Ethereum, creando una alineación más fuerte entre la seguridad de Ethereum y su capa de aplicación.

El Camino a Seguir

Varios desarrollos determinarán si el restaking cumple su potencial o se convierte en otra historia de advertencia:

Madurez en la implementación del slashing: A medida que los operadores de AVS ganen experiencia operativa y los parámetros de slashing se definan bien, el perfil de riesgo debería estabilizarse.

Adopción institucional: La entrada de las finanzas tradicionales en el liquid restaking (a través de custodia regulada y productos envueltos) podría atraer un capital significativo al tiempo que exige una mejor gestión de riesgos.

Claridad regulatoria: El staking y el restaking enfrentan incertidumbre regulatoria. Marcos claros podrían desbloquear el capital institucional que actualmente se mantiene al margen.

Demanda de infraestructura de IA: La apuesta de EigenCloud por una infraestructura de IA verificable será validada o refutada por la demanda real de agentes de IA y sistemas autónomos.

Dinámica Competitiva del Liquid Restaking

El mercado de liquid restaking muestra signos de consolidación. Aunque ether.fi, Renzo y Kelp DAO lideran actualmente, el espacio sigue siendo competitivo con protocolos como Puffer Finance y otros compitiendo por la cuota de mercado.

Los diferenciadores clave en el futuro probablemente serán:

  • Historial de seguridad (evitando exploits)
  • Sostenibilidad del rendimiento (más allá de los incentivos de tokens)
  • Integraciones DeFi (valor de composibilidad)
  • Excelencia operativa (minimizando eventos de slashing)

A medida que los incentivos de tokens y los programas de airdrops concluyen, los protocolos que dependían en gran medida de estos mecanismos ya han visto disminuciones notables en su TVL. Los supervivientes serán aquellos que entreguen un valor económico real más allá de los incentivos a corto plazo.

Construyendo sobre la Infraestructura de Restaking

Para desarrolladores y protocolos, la infraestructura de restaking abre un nuevo espacio de diseño:

Seguridad compartida para rollups: Las redes de Capa 2 pueden usar EigenLayer para obtener garantías de seguridad adicionales más allá de la capa base de Ethereum.

Redes de oráculos: Los oráculos descentralizados pueden aprovechar el restaking para obtener seguridad económica sin mantener economías de tokens separadas.

Puentes cross-chain: Los operadores de puentes pueden depositar garantías a través del restaking para asegurarse contra exploits.

Verificación de agentes de IA: Como demuestra EigenCloud, los sistemas de IA autónomos pueden utilizar la infraestructura de restaking para computación verificable.

La primitiva de restaking crea esencialmente un mercado de seguridad como servicio, donde el ETH en staking de Ethereum puede "alquilarse" para asegurar cualquier servicio compatible.

Para los desarrolladores de blockchain que crean aplicaciones que requieren una infraestructura robusta, comprender las implicaciones de seguridad y eficiencia de capital del restaking es esencial. Aunque BlockEden.xyz no ofrece servicios de restaking directamente, nuestra infraestructura RPC de grado empresarial proporciona la base confiable necesaria para crear aplicaciones que se integran con protocolos de restaking, liquid staking tokens y el ecosistema DeFi en general.

Conclusión

El imperio de restaking de 19,5 mil millones de dólares de EigenLayer representa más que una oportunidad de rendimiento — es un cambio fundamental en cómo se asigna y utiliza el presupuesto de seguridad de Ethereum.

Los protocolos de liquid restaking como ether.fi, Renzo y Kelp DAO han hecho que esta primitiva sea accesible para los usuarios cotidianos, mientras que EigenCloud está empujando los límites hacia la infraestructura de IA verificable. Los rendimientos son atractivos (rango de 15-40 % APY), pero reflejan riesgos reales que incluyen la acumulación de slashing, la complejidad de los contratos inteligentes y el posible contagio sistémico.

Para la evolución a largo plazo de Ethereum, el restaking resuelve problemas críticos: el arranque de seguridad (security bootstrapping) para nuevos protocolos, la eficiencia del capital para los stakers y la sostenibilidad de los validadores a medida que los rendimientos base se comprimen. Pero la maduración del ecosistema depende de que los parámetros de slashing se estabilicen, que la gestión de riesgos institucionales mejore y que los protocolos demuestren que pueden ofrecer rendimientos sostenibles más allá de los incentivos de tokens.

Ya sea que el restaking se convierta en la primitiva de rendimiento duradera de Ethereum o se enfrente a un ajuste de cuentas, dependerá de cómo se gestionen estos desafíos durante el próximo año. Por ahora, los 19,5 mil millones de dólares en TVL sugieren que el mercado ha emitido su veredicto: el restaking llegó para quedarse.

Fuentes: