Saltar al contenido principal

61 publicaciones etiquetados con "Escalabilidad"

Soluciones de escalado blockchain y rendimiento

Ver Todas las Etiquetas

EigenCloud: Reconstruyendo la base de confianza de Web3 a través de infraestructura de nube verificable

· 25 min de lectura
Dora Noda
Software Engineer

EigenCloud representa el intento más ambicioso de resolver el dilema fundamental de la blockchain entre escalabilidad y confianza. Al combinar $17.5 mil millones en activos restakeados, un novedoso mecanismo de token basado en bifurcación y tres primitivas verificables —EigenDA, EigenCompute y EigenVerify—, Eigen Labs ha construido lo que denomina "el momento AWS de las criptomonedas": una plataforma donde cualquier desarrollador puede acceder a computación a escala de nube con prueba criptográfica de ejecución correcta. El cambio de marca de EigenLayer a EigenCloud en junio de 2025 señaló un giro estratégico de protocolo de infraestructura a nube verificable de pila completa, respaldado por $70 millones de a16z crypto y asociaciones con Google, LayerZero y Coinbase. Esta transformación tiene como objetivo expandir el mercado objetivo de 25,000 desarrolladores de criptomonedas a los más de 20 millones de desarrolladores de software en todo el mundo que necesitan tanto programabilidad como confianza.

La trilogía del ecosistema Eigen: de la fragmentación de la seguridad al mercado de la confianza

El ecosistema Eigen aborda un problema estructural que ha limitado la innovación de blockchain desde el inicio de Ethereum: cada nuevo protocolo que requiere validación descentralizada debe iniciar su propia seguridad desde cero. Oráculos, puentes, capas de disponibilidad de datos y secuenciadores construyeron redes de validadores aisladas, fragmentando el capital total disponible para la seguridad en docenas de servicios competidores. Esta fragmentación significaba que los atacantes solo necesitaban comprometer el eslabón más débil —un puente de $50 millones— en lugar de los $114 mil millones que aseguran a Ethereum.

La solución de Eigen Labs se desarrolla en tres capas arquitectónicas que funcionan en conjunto. La Capa de Protocolo (EigenLayer) crea un mercado donde el ETH stakeado de Ethereum puede asegurar simultáneamente múltiples servicios, transformando islas de seguridad aisladas en una red de confianza compartida. La Capa de Token (EIGEN) introduce una primitiva criptoeconómica completamente nueva —el staking intersubjetivo— que permite el slashing por fallas que el código no puede probar pero que los humanos reconocen universalmente. La Capa de Plataforma (EigenCloud) abstrae esta infraestructura en primitivas amigables para desarrolladores: 100 MB/s de disponibilidad de datos a través de EigenDA, computación off-chain verificable a través de EigenCompute y resolución de disputas programable a través de EigenVerify.

Las tres capas crean lo que Eigen Labs denomina una "pila de confianza" —cada primitiva se basa en las garantías de seguridad de las capas inferiores. Un agente de IA que se ejecuta en EigenCompute puede almacenar sus rastros de ejecución en EigenDA, enfrentar desafíos a través de EigenVerify y, en última instancia, recurrir a la bifurcación del token EIGEN como la opción nuclear para resultados disputados.


Capa de Protocolo: cómo EigenLayer crea un mercado de confianza

El dilema de las islas de seguridad aisladas

Antes de EigenLayer, lanzar un servicio descentralizado requería resolver un costoso problema de arranque. Una nueva red de oráculos necesitaba atraer validadores, diseñar tokenomics, implementar condiciones de slashing y convencer a los stakers de que las recompensas justificaban los riesgos, todo antes de entregar cualquier producto real. Los costos eran sustanciales: Chainlink mantiene su propia seguridad stakeada en LINK; cada puente operaba conjuntos de validadores independientes; capas de disponibilidad de datos como Celestia lanzaron blockchains enteras.

Esta fragmentación creó una economía perversa. El costo de atacar cualquier servicio individual estaba determinado por su stake aislado, no por la seguridad agregada del ecosistema. Un puente que aseguraba $100 millones con $10 millones en garantía stakeada permanecía vulnerable incluso mientras miles de millones permanecían inactivos en los validadores de Ethereum.

La solución: hacer que ETH funcione para múltiples servicios simultáneamente

EigenLayer introdujo el restaking —un mecanismo que permite a los validadores de Ethereum extender su ETH stakeado para asegurar servicios adicionales llamados Servicios Validados Activamente (AVS). El protocolo soporta dos rutas de restaking:

  • El restaking nativo requiere ejecutar un validador de Ethereum (mínimo 32 ETH) y apuntar las credenciales de retiro a un contrato inteligente EigenPod. El stake del validador obtiene doble funcionalidad: asegurar el consenso de Ethereum mientras respalda simultáneamente las garantías de los AVS.
  • El restaking de Liquid Staking Token (LST) acepta derivados como stETH de Lido, mETH de Mantle o cbETH de Coinbase. Los usuarios depositan estos tokens en el contrato StrategyManager de EigenLayer, lo que permite la participación sin ejecutar infraestructura de validador. No existe un mínimo; la participación comienza con fracciones de ETH a través de protocolos de restaking líquido como EtherFi y Renzo.

La composición actual del restaking muestra 83.7% de ETH nativo y 16.3% de tokens de staking líquido, lo que representa más de 6.25 millones de ETH bloqueados en el protocolo.

Motor de mercado: la teoría de juegos triangular

Tres clases de partes interesadas participan en el mercado de EigenLayer, cada una con incentivos distintos:

  • Los Restakers proporcionan capital y obtienen rendimientos apilados: retornos base de staking de Ethereum (~4% APR) más recompensas específicas de AVS pagadas en EIGEN, WETH o tokens nativos como ARPA. Los rendimientos combinados actuales alcanzan aproximadamente el 4.24% en EIGEN más las recompensas base. El riesgo: exposición a condiciones de slashing adicionales de cada AVS que sus operadores delegados sirven.
  • Los Operadores ejecutan infraestructura de nodos y realizan tareas de validación de AVS. Ganan comisiones predeterminadas del 10% (configurables del 0-100%) sobre las recompensas delegadas más pagos directos de AVS. Más de 2,000 operadores se han registrado, con más de 500 validando activamente AVS. Los operadores eligen qué AVS soportar basándose en retornos ajustados al riesgo, creando un mercado competitivo.
  • Los AVS consumen seguridad agrupada sin iniciar redes de validadores independientes. Definen condiciones de slashing, establecen estructuras de recompensa y compiten por la atención de los operadores a través de una economía atractiva. Actualmente, más de 40 AVS operan en mainnet con 162 en desarrollo, sumando más de 190 en todo el ecosistema.

Esta estructura triangular crea un descubrimiento de precios natural: los AVS que ofrecen recompensas insuficientes luchan por atraer operadores; los operadores con malos antecedentes pierden delegaciones; los restakers optimizan seleccionando operadores confiables que soporten AVS valiosos.

Flujo operativo del protocolo

El mecanismo de delegación sigue un flujo estructurado:

  1. Stake: Los usuarios hacen stake de ETH en Ethereum o adquieren LSTs
  2. Opt-in: Depositan en los contratos de EigenLayer (EigenPod para nativo, StrategyManager para LSTs)
  3. Delegar: Seleccionan un operador para gestionar la validación
  4. Registrar: Los operadores se registran en EigenLayer y eligen AVS
  5. Validar: Los operadores ejecutan el software AVS y realizan tareas de atestación
  6. Recompensas: Los AVS distribuyen recompensas semanalmente a través de raíces Merkle on-chain
  7. Reclamar: Los stakers y operadores reclaman después de un retraso de 1 semana

Los retiros requieren un período de espera de 7 días (14 días para stakes con slashing habilitado), lo que permite tiempo para la detección de fallas antes de que los fondos salgan.

Eficacia del protocolo y rendimiento del mercado

La trayectoria de crecimiento de EigenLayer demuestra la validación del mercado:

  • TVL actual: ~$17.51 mil millones (diciembre de 2025)
  • TVL pico: $20.09 mil millones (junio de 2024), lo que lo convierte en el segundo protocolo DeFi más grande detrás de Lido
  • Direcciones de staking únicas: más de 80,000
  • Restakers calificados para incentivos: más de 140,000
  • Recompensas totales distribuidas: más de $128.02 millones

La activación del slashing el 17 de abril de 2025 marcó un hito crítico: el protocolo se volvió "completo en características" con aplicación económica. El slashing utiliza la Asignación Única de Stake, permitiendo a los operadores designar porciones específicas de stake para AVS individuales, aislando el riesgo de slashing entre servicios. Un Comité de Veto puede investigar y anular slashing injustos, proporcionando salvaguardias adicionales.


Capa de Token: cómo EIGEN resuelve el problema de la subjetividad

El dilema de los errores no probables por código

El slashing tradicional de blockchain funciona solo para fallas objetivamente atribuibles —comportamientos probables a través de criptografía o matemáticas. La doble firma de un bloque, la producción de transiciones de estado inválidas o la falla en las comprobaciones de vivacidad pueden verificarse on-chain. Pero muchas fallas críticas desafían la detección algorítmica:

  • Un oráculo que informa precios falsos (retención de datos)
  • Una capa de disponibilidad de datos que se niega a servir datos
  • Un modelo de IA que produce resultados manipulados
  • Un secuenciador que censura transacciones específicas

Estas fallas intersubjetivas comparten una característica definitoria: cualquier par de observadores razonables estaría de acuerdo en que la falla ocurrió, pero ningún contrato inteligente puede probarlo.

La solución: la bifurcación como castigo

EIGEN introduce un mecanismo radical —el slashing por bifurcación— que aprovecha el consenso social en lugar de la verificación algorítmica. Cuando los operadores cometen fallas intersubjetivas, el propio token se bifurca:

Paso 1: Detección de fallas. Un staker de bEIGEN observa un comportamiento malicioso y emite una alerta.

Paso 2: Deliberación social. Los participantes del consenso discuten el problema. Los observadores honestos convergen en si ocurrió la falla.

Paso 3: Inicio del desafío. Un desafiante despliega tres contratos: un nuevo contrato de token bEIGEN (la bifurcación), un Contrato de Desafío para futuras bifurcaciones y un Contrato Distribuidor de Bifurcaciones que identifica a los operadores maliciosos. El desafiante presenta una fianza significativa en EIGEN para disuadir desafíos frívolos.

Paso 4: Selección de token. Ahora existen dos versiones de EIGEN. Los usuarios y los AVS eligen libremente cuál apoyar. Si el consenso confirma el mal comportamiento, solo el token bifurcado conserva su valor; los stakers maliciosos pierden toda su asignación.

Paso 5: Resolución. La fianza se recompensa si el desafío tiene éxito, se quema si es rechazado. El contrato wrapper de EIGEN se actualiza para apuntar a la nueva bifurcación canónica.

La arquitectura de doble token

EIGEN utiliza dos tokens para aislar la complejidad de la bifurcación de las aplicaciones DeFi:

TokenPropósitoComportamiento de bifurcación
EIGENTrading, DeFi, colateralNo consciente de la bifurcación —protegido de la complejidad
bEIGENStaking, asegurando AVSSujeto a bifurcación intersubjetiva

Los usuarios envuelven EIGEN en bEIGEN para hacer staking; después del retiro, bEIGEN se desenvuelve de nuevo a EIGEN. Durante las bifurcaciones, bEIGEN se divide (bEIGENv1 → bEIGENv2) mientras que los poseedores de EIGEN que no están haciendo staking pueden canjear sin exposición a la mecánica de la bifurcación.

Tokenomics

  • Suministro inicial: 1,673,646,668 EIGEN (codificando "1. Open Innovation" en un teclado telefónico)

  • Desglose de asignación:

    • Comunidad (45%): 15% stakedrops, 15% iniciativas comunitarias, 15% I+D/ecosistema
    • Inversores (29.5%): ~504.73M tokens con desbloqueos mensuales post-cliff
    • Contribuyentes iniciales (25.5%): ~458.55M tokens con desbloqueos mensuales post-cliff
  • Vesting: Los inversores y los contribuyentes principales se enfrentan a un bloqueo de 1 año desde la transferibilidad del token (30 de septiembre de 2024), y luego a desbloqueos mensuales del 4% durante 3 años.

  • Inflación: 4% de inflación anual distribuida a través de Incentivos Programáticos a stakers y operadores, actualmente ~1.29 millones de EIGEN semanalmente.

  • Estado actual del mercado (diciembre de 2025):

    • Precio: ~$0.50-0.60
    • Capitalización de mercado: ~$245-320 millones
    • Suministro circulante: ~485 millones de EIGEN
    • Máximo histórico: $5.65 (17 de diciembre de 2024) —el precio actual representa una caída de ~90% desde el ATH

Gobernanza y voz de la comunidad

La gobernanza de EigenLayer permanece en una "fase de meta-configuración" donde investigadores y la comunidad dan forma a los parámetros para la actuación completa del protocolo. Los mecanismos clave incluyen:

  • Gobernanza de libre mercado: Los operadores determinan el riesgo/recompensa al optar por participar o no en los AVS
  • Comités de veto: Protegen contra el slashing injustificado
  • Consejo de Protocolo: Revisa las Propuestas de Mejora de EigenLayer (ELIPs)
  • Gobernanza basada en tokens: Los poseedores de EIGEN votan sobre el soporte de bifurcaciones durante las disputas —el propio proceso de bifurcación constituye gobernanza

Capa de Plataforma: la transformación estratégica de EigenCloud

Pila de verificabilidad de EigenCloud: tres primitivas construyendo infraestructura de confianza

El cambio de marca en junio de 2025 a EigenCloud señaló el giro de Eigen Labs de protocolo de restaking a plataforma de nube verificable. La visión: combinar la programabilidad a escala de nube con la verificación de grado cripto, apuntando al mercado de la nube pública de más de $10 billones donde tanto el rendimiento como la confianza importan.

La arquitectura se mapea directamente a servicios de nube familiares:

EigenCloudEquivalente AWSFunción
EigenDAS3Disponibilidad de datos (100 MB/s)
EigenComputeLambda/ECSEjecución off-chain verificable
EigenVerifyN/AResolución de disputas programable

El token EIGEN asegura toda la cadena de confianza a través de mecanismos criptoeconómicos.


EigenDA: el asesino de costos y motor de rendimiento para rollups

Antecedentes del problema: Los rollups publican datos de transacciones en Ethereum para seguridad, pero los costos de calldata consumen entre el 80-90% de los gastos operativos. Arbitrum y Optimism han gastado decenas de millones en disponibilidad de datos. El rendimiento combinado de Ethereum de ~83 KB/s crea un cuello de botella fundamental a medida que crece la adopción de rollups.

Arquitectura de la solución: EigenDA mueve la disponibilidad de datos a una estructura no-blockchain mientras mantiene la seguridad de Ethereum a través del restaking. La clave: la DA no requiere consenso independiente —Ethereum maneja la coordinación mientras los operadores de EigenDA gestionan la dispersión de datos directamente.

La implementación técnica utiliza la codificación de borrado Reed-Solomon para una sobrecarga teóricamente mínima de información y compromisos KZG para garantías de validez sin períodos de espera de prueba de fraude. Los componentes clave incluyen:

  • Dispersores: Codifican blobs, generan pruebas KZG, distribuyen fragmentos, agregan atestaciones
  • Nodos validadores: Verifican fragmentos contra compromisos, almacenan porciones, devuelven firmas
  • Nodos de recuperación: Recolectan fragmentos y reconstruyen los datos originales

Resultados: EigenDA V2 se lanzó en julio de 2025 con especificaciones líderes en la industria:

MétricaEigenDA V2CelestiaBlobs de Ethereum
Rendimiento100 MB/s~1.33 MB/s~0.032 MB/s
Latencia5 segundos de promedioBloque de 6 seg + prueba de fraude de 10 min12 segundos
CostoReducción de ~98.91% vs calldata~$0.07/MB~$3.83/MB

A 100 MB/s, EigenDA puede procesar más de 800,000 transferencias ERC-20 por segundo —12.8 veces el rendimiento pico de Visa.

Seguridad del ecosistema: 4.3 millones de ETH stakeados (marzo de 2025), 245 operadores, más de 127,000 wallets de staking únicas, más de $9.1 mil millones en capital restakeado.

Integraciones actuales: Fuel (primer rollup en lograr la descentralización de etapa 2), Aevo, Mantle, Celo, MegaETH, AltLayer, Conduit, Gelato, Movement Labs y otros. El 75% de todos los activos en L2 de Ethereum con DA alternativa usan EigenDA.

Precios (reducción de 10x anunciada en mayo de 2025):

  • Nivel gratuito: 1.28 KiB/s durante 12 meses
  • Bajo demanda: 0.015 ETH/GB
  • Ancho de banda reservado: 70 ETH/año para 256 KiB/s

EigenCompute: el escudo criptográfico para la computación a escala de nube

Antecedentes del problema: Las blockchains son confiables pero no escalables; las nubes son escalables pero no confiables. La inferencia compleja de IA, el procesamiento de datos y el trading algorítmico requieren recursos en la nube, pero los proveedores tradicionales no ofrecen garantía de que el código se ejecutó sin modificaciones o que los resultados no fueron manipulados.

Solución: EigenCompute permite a los desarrolladores ejecutar código arbitrario off-chain dentro de Entornos de Ejecución Confiables (TEE) manteniendo garantías de verificación a nivel de blockchain. Las aplicaciones se despliegan como contenedores Docker —cualquier lenguaje que se ejecute en Docker (TypeScript, Rust, Go, Python) funciona.

La arquitectura proporciona:

  • Compromiso on-chain: Estrategia del agente, hash del contenedor de código y fuentes de datos almacenados de forma verificable
  • Colateral habilitado para slashing: Los operadores hacen stake de activos sujetos a slashing por desviación de ejecución
  • Infraestructura de atestación: Los TEE proporcionan pruebas basadas en hardware de que el código se ejecutó sin modificaciones
  • Rastro de auditoría: Cada ejecución registrada en EigenDA

Modelos de confianza flexibles: La hoja de ruta de EigenCompute incluye múltiples enfoques de verificación:

  1. TEEs (alpha actual en mainnet) —Intel SGX/TDX, AMD SEV-SNP
  2. Seguridad criptoeconómica (próxima GA) —slashing respaldado por EIGEN
  3. Pruebas de conocimiento cero (futuro) —verificación matemática sin confianza

Experiencia del desarrollador: La CLI de EigenCloud (eigenx) proporciona andamiaje, pruebas en devnet local y despliegue con un solo comando a la testnet de Base Sepolia. Las aplicaciones de ejemplo incluyen interfaces de chat, agentes de trading, sistemas de custodia y el kit de inicio del protocolo de pago x402.


EigenAI: extendiendo la verificabilidad a la inferencia de IA

La brecha de confianza en la IA: Los proveedores tradicionales de IA no ofrecen ninguna garantía criptográfica de que las indicaciones no fueron modificadas, las respuestas no fueron alteradas o que los modelos son las versiones declaradas. Esto hace que la IA no sea adecuada para aplicaciones de alto riesgo como el trading, la negociación de contratos o la gobernanza DeFi.

El avance de EigenAI: Inferencia determinista de LLM a escala. El equipo afirma la ejecución determinista bit a bit de la inferencia de LLM en GPUs —ampliamente considerada imposible o impráctica. Re-ejecutar la indicación X con el modelo Y produce exactamente la salida Z; cualquier discrepancia es evidencia criptográfica de manipulación.

Enfoque técnico: La optimización profunda en tipos de GPU, kernels CUDA, motores de inferencia y generación de tokens permite un comportamiento determinista consistente con una sobrecarga suficientemente baja para una UX práctica.

Especificaciones actuales:

  • API compatible con OpenAI (reemplazo directo)
  • Actualmente soporta gpt-oss-120b-f16 (modelo de 120B parámetros)
  • Soporte para llamadas a herramientas
  • Modelos adicionales, incluyendo modelos de embedding, en la hoja de ruta a corto plazo

Aplicaciones en desarrollo:

  • FereAI: Agentes de trading con toma de decisiones verificable
  • elizaOS: Más de 50,000 agentes con atestaciones criptográficas
  • Dapper Labs (Miquela): Influencer virtual con un "cerebro" inalterable
  • Collective Memory: Más de 1.6M imágenes/videos procesados con IA verificada
  • Humans vs AI: Más de 70K usuarios activos semanales en juegos de mercados de predicción

EigenVerify: el árbitro definitivo de la confianza

Posicionamiento central: EigenVerify funciona como el "tribunal de resolución de disputas definitivo e imparcial" para EigenCloud. Cuando surgen disputas de ejecución, EigenVerify examina la evidencia y emite juicios definitivos respaldados por la aplicación económica.

Modos de verificación duales:

Verificación objetiva: Para la computación determinista, cualquiera puede desafiarla activando una re-ejecución con entradas idénticas. Si las salidas difieren, la evidencia criptográfica prueba la falla. Asegurado por ETH restakeado.

Verificación intersubjetiva: Para tareas donde los humanos racionales estarían de acuerdo pero los algoritmos no pueden verificar —"¿Quién ganó las elecciones?" "¿Contiene esta imagen un gato?"— EigenVerify utiliza el consenso mayoritario entre los validadores stakeados. El mecanismo de bifurcación de EIGEN sirve como respaldo nuclear. Asegurado por el staking de EIGEN.

Verificación adjudicada por IA (modo más reciente): Disputas resueltas por sistemas de IA verificables, combinando la objetividad algorítmica con la flexibilidad de juicio.

Sinergia con otras primitivas: EigenCompute orquesta el despliegue de contenedores; los resultados de la ejecución se registran en EigenDA para rastros de auditoría; EigenVerify maneja las disputas; el token EIGEN proporciona la máxima seguridad a través de la capacidad de bifurcación. Los desarrolladores seleccionan los modos de verificación a través de un "selector de confianza" que equilibra velocidad, costo y seguridad:

  • Instantáneo: Más rápido, menor seguridad
  • Optimista: Seguridad estándar con período de desafío
  • Bifurcable: Garantías intersubjetivas completas
  • Eventual: Máxima seguridad con pruebas criptográficas

Estado: Devnet en vivo en el segundo trimestre de 2025, mainnet prevista para el tercer trimestre de 2025.


Diseño del ecosistema: de más de $17 mil millones de TVL a asociaciones estratégicas

Mapa del ecosistema AVS

El ecosistema AVS abarca múltiples categorías:

Disponibilidad de datos: EigenDA (59M EIGEN y 3.44M ETH restakeados, 215 operadores, más de 97,000 stakers únicos)

Redes de oráculos: Eoracle (primer oráculo nativo de Ethereum)

Infraestructura de Rollup: AltLayer MACH (finalidad rápida), Xterio MACH (gaming), Comités de Estado de Lagrange (cliente ligero ZK con 3.18M ETH restakeados)

Interoperabilidad: Hyperlane (mensajería intercadena), LayerZero DVN (validación cross-chain)

Coordinación DePIN: Witness Chain (Proof-of-Location, Proof-of-Bandwidth)

Infraestructura: Infura DIN (infraestructura descentralizada), ARPA Network (aleatorización sin confianza)

Asociación con Google: A2A + MCP + EigenCloud

Anunciado el 16 de septiembre de 2025, EigenCloud se unió como socio de lanzamiento para el Protocolo de Pagos de Agentes (AP2) de Google Cloud.

Integración técnica: El protocolo A2A (Agente a Agente) permite a los agentes de IA autónomos descubrir e interactuar entre plataformas. AP2 extiende A2A utilizando HTTP 402 ("pago requerido") a través del estándar x402 para pagos agnósticos de blockchain. EigenCloud proporciona:

  • Servicio de pago verificable: Abstrae la conversión de activos, el puenteo y la complejidad de la red con la responsabilidad del operador restakeado
  • Verificación de trabajo: EigenCompute permite la ejecución TEE o determinista con atestaciones y pruebas ZK
  • Responsabilidad criptográfica: "Mandatos" —contratos digitales a prueba de manipulaciones y firmados criptográficamente

Alcance de la asociación: Consorcio de más de 60 organizaciones incluyendo Coinbase, Ethereum Foundation, MetaMask, Mastercard, PayPal, American Express y Adobe.

Significado estratégico: Posiciona a EigenCloud como la columna vertebral de la infraestructura para la economía de agentes de IA proyectada a crecer un 45% anualmente.


Asociación con Recall: evaluación verificable de modelos de IA

Anunciado el 16 de octubre de 2025, Recall integró EigenCloud para la evaluación comparativa de IA verificable de extremo a extremo.

Concepto de mercado de habilidades: Las comunidades financian las habilidades que necesitan, obtienen IA de crowdsourcing con esas capacidades y son recompensadas por identificar a los de mejor rendimiento. Los modelos de IA compiten en concursos directos verificados por la inferencia determinista de EigenCloud.

Detalles de la integración: EigenAI proporciona prueba criptográfica de que los modelos producen salidas específicas para entradas dadas; EigenCompute asegura que los resultados de rendimiento sean transparentes, reproducibles y probables utilizando TEEs.

Resultados previos: Recall probó 50 modelos de IA en 8 mercados de habilidades, generando más de 7,000 competiciones con más de 150,000 participantes que enviaron 7.5 millones de predicciones.

Significado estratégico: Crea el "primer marco de extremo a extremo para ofrecer clasificaciones criptográficamente probables y transparentes para modelos de IA de vanguardia" —reemplazando los puntos de referencia impulsados por el marketing con datos de rendimiento verificables.


Asociación con LayerZero: verificación descentralizada de EigenZero

Marco anunciado el 2 de octubre de 2024; EigenZero lanzado el 13 de noviembre de 2025.

Arquitectura técnica: El Marco DVN Criptoeconómico permite a cualquier equipo desplegar AVS de Red de Verificadores Descentralizados que acepten ETH, ZRO y EIGEN como activos de staking. EigenZero implementa la verificación optimista con un período de desafío de 11 días y slashing económico por fallas de verificación.

Modelo de seguridad: Pasa de "sistemas basados en la confianza a una seguridad económicamente cuantificable que puede ser auditada on-chain." Los DVN deben respaldar los compromisos con activos stakeados en lugar de solo la reputación.

Especificaciones actuales: $5 millones de stake de ZRO para EigenZero; LayerZero soporta más de 80 blockchains con más de 600 aplicaciones y 35 entidades DVN, incluyendo Google Cloud.

Significado estratégico: Establece el restaking como el estándar de seguridad para la interoperabilidad cross-chain —abordando vulnerabilidades persistentes en los protocolos de mensajería.

Otras asociaciones significativas

  • Coinbase: Operador de mainnet desde el primer día; integración de AgentKit que permite a los agentes ejecutarse en EigenCompute con inferencia de EigenAI.
  • elizaOS: Marco de IA de código abierto líder (17K estrellas en GitHub, más de 50K agentes) integró EigenCloud para inferencia criptográficamente garantizada y flujos de trabajo TEE seguros.
  • Infura DIN: La Red de Infraestructura Descentralizada ahora se ejecuta en EigenLayer, permitiendo a los stakers de Ethereum asegurar servicios y obtener recompensas.
  • Securitize/BlackRock: Validación de datos de precios para el fondo del tesoro tokenizado BUIDL de BlackRock de $2 mil millones —primera implementación empresarial.

Análisis de riesgos: compensaciones técnicas y dinámicas del mercado

Riesgos técnicos

  • Vulnerabilidades de contratos inteligentes: Las auditorías identificaron riesgos de reentrada en StrategyBase, implementación incompleta de la lógica de slashing y complejas interdependencias entre los contratos base y el middleware AVS. Un programa de recompensas por errores de $2 millones reconoce los riesgos de vulnerabilidad continuos.
  • Fallas de slashing en cascada: Los validadores expuestos a múltiples AVS enfrentan condiciones de slashing simultáneas. Si se penaliza una cantidad significativa de stake, varios servicios podrían degradarse simultáneamente, creando un riesgo sistémico de "demasiado grande para fallar".
  • Vectores de ataque criptoeconómicos: Si $6M en ETH restakeado aseguran 10 módulos, cada uno con $1M de valor bloqueado, el costo del ataque ($3M de slashing) puede ser menor que la ganancia potencial ($10M en todos los módulos), haciendo que el sistema sea económicamente inseguro.

Problemas de seguridad de TEE

La alpha de mainnet de EigenCompute se basa en Entornos de Ejecución Confiables con vulnerabilidades documentadas:

  • Foreshadow (2018): Combina ejecución especulativa y desbordamiento de búfer para eludir SGX
  • SGAxe (2020): Filtra claves de atestación del enclave de cotización privado de SGX
  • Tee.fail (2024): Canal lateral de temporización de búfer de fila DDR5 que afecta a Intel SGX/TDX y AMD SEV-SNP

Las vulnerabilidades de TEE siguen siendo una superficie de ataque significativa durante el período de transición antes de que la seguridad criptoeconómica y las pruebas ZK se implementen por completo.

Limitaciones de la IA determinista

EigenAI afirma una inferencia de LLM determinista bit a bit, pero persisten las limitaciones:

  • Dependencia de TEE: La verificación actual hereda la superficie de vulnerabilidad de SGX/TDX
  • Pruebas ZK: Prometidas "eventualmente" pero aún no implementadas a escala
  • Sobrecarga: La inferencia determinista añade costos computacionales
  • Limitaciones de zkML: Las pruebas tradicionales de aprendizaje automático de conocimiento cero siguen siendo intensivas en recursos

Riesgos de mercado y competitivos

Competencia de restaking:

ProtocoloTVLDiferenciador clave
EigenLayer$17-19BEnfoque institucional, nube verificable
Symbiotic$1.7BSin permisos, contratos inmutables
Karak$740-826MMulti-activo, posicionamiento de estado-nación

Symbiotic lanzó primero la funcionalidad completa de slashing (enero de 2025), alcanzó $200M de TVL en 24 horas y utiliza contratos inmutables no actualizables, eliminando el riesgo de gobernanza.

Competencia de disponibilidad de datos: La arquitectura DAC de EigenDA introduce suposiciones de confianza ausentes en la verificación DAS basada en blockchain de Celestia. Celestia ofrece costos más bajos (~$3.41/MB) y una integración más profunda del ecosistema (más de 50 rollups). La migración de Aevo a Celestia redujo los costos de DA en más del 90%.

Riesgos regulatorios

  • Clasificación de valores: La guía de la SEC de mayo de 2025 excluyó explícitamente el liquid staking, el restaking y el liquid restaking de las disposiciones de puerto seguro. El precedente de Kraken (multa de $30M por servicios de staking) plantea preocupaciones de cumplimiento. Los Liquid Restaking Tokens podrían enfrentar la clasificación de valores dadas las reclamaciones en capas sobre dinero futuro.
  • Restricciones geográficas: El airdrop de EIGEN prohibió a los usuarios con sede en EE. UU. y Canadá, creando marcos de cumplimiento complejos. La divulgación de riesgos de Wealthsimple señala "riesgos legales y regulatorios asociados con EIGEN."

Incidentes de seguridad

  • Hackeo de correo electrónico de octubre de 2024: 1.67 millones de EIGEN ($5.7M) robados a través de un hilo de correo electrónico comprometido que interceptó la comunicación de transferencia de tokens de un inversor —no un exploit de contrato inteligente, pero socava el posicionamiento de "nube verificable".
  • Hackeo de cuenta X de octubre de 2024: La cuenta oficial fue comprometida con enlaces de phishing; una víctima perdió $800,000.

Perspectivas futuras: de la infraestructura al objetivo final de la sociedad digital

Perspectivas de escenarios de aplicación

EigenCloud habilita categorías de aplicaciones previamente imposibles:

  • Agentes de IA verificables: Sistemas autónomos que gestionan capital real con prueba criptográfica de comportamiento correcto. La asociación con Google AP2 posiciona a EigenCloud como la columna vertebral para los pagos de la economía de agentes.
  • DeFi institucional: Algoritmos de trading complejos con computación off-chain pero responsabilidad on-chain. La integración de Securitize/BlackRock BUIDL demuestra una vía de adopción empresarial.
  • Mercados de predicción sin permisos: Mercados que se resuelven sobre cualquier resultado del mundo real con manejo de disputas intersubjetivas y finalidad criptoeconómica.
  • Redes sociales verificables: Recompensas de tokens vinculadas a la participación criptográficamente verificada; notas de la comunidad con consecuencias económicas por desinformación.
  • Juegos y entretenimiento: Aleatoriedad demostrable para casinos; recompensas basadas en la ubicación con verificación criptoeconómica; torneos de esports verificables con custodia automatizada.

Análisis de la ruta de desarrollo

La progresión de la hoja de ruta refleja una creciente descentralización y seguridad:

  • Corto plazo (Q1-Q2 2026): Lanzamiento de mainnet de EigenVerify; EigenCompute GA con slashing completo; modelos LLM adicionales; API on-chain para EigenAI.
  • Medio plazo (2026-2027): Integración de pruebas ZK para verificación sin confianza; despliegue de AVS cross-chain en las principales L2; desbloqueo completo de tokens de inversores/contribuyentes.
  • Visión a largo plazo: El objetivo declarado —"Bitcoin interrumpió el dinero, Ethereum lo hizo programable, EigenCloud hace que la verificabilidad sea programable para cualquier desarrollador que construya cualquier aplicación en cualquier industria"— apunta al mercado de la nube pública de más de $10 billones.

Factores críticos de éxito

La trayectoria de EigenCloud depende de varios factores:

  1. Transición de TEE a ZK: Migrar con éxito la verificación de TEE vulnerables a pruebas criptográficas
  2. Defensa competitiva: Mantener la cuota de mercado frente a la entrega más rápida de características de Symbiotic y las ventajas de costos de Celestia
  3. Navegación regulatoria: Lograr claridad de cumplimiento para el restaking y los LRT
  4. Adopción institucional: Convertir las asociaciones (Google, Coinbase, BlackRock) en ingresos significativos

El ecosistema actualmente asegura más de $2 mil millones en valor de aplicación con más de $12 mil millones en activos stakeados —una relación de sobrecolateralización de 6x que proporciona un margen de seguridad sustancial. Con más de 190 AVS en desarrollo y el ecosistema de desarrolladores de más rápido crecimiento en cripto según Electric Capital, EigenCloud ha establecido ventajas significativas como pionero. Si esas ventajas se acumulan en efectos de red duraderos o se erosionan bajo la presión competitiva y regulatoria sigue siendo la pregunta central para la próxima fase del ecosistema.

Gráfico Acíclico Dirigido (DAG) en Blockchain

· 51 min de lectura
Dora Noda
Software Engineer

¿Qué es un DAG y en qué se diferencia de una blockchain?

Un gráfico acíclico dirigido (Directed Acyclic Graph, DAG) es un tipo de estructura de datos formada por vértices (nodos) conectados por aristas dirigidas que nunca forman un ciclo. En el contexto de los libros mayores distribuidos, un ledger basado en DAG organiza transacciones o eventos en una red tipo telaraña en lugar de en una cadena secuencial única. Esto significa que, a diferencia de una blockchain tradicional donde cada nuevo bloque referencia solo a un predecesor (formando una cadena lineal), un nodo en un DAG puede referenciar múltiples transacciones o bloques anteriores. Como resultado, muchas transacciones pueden confirmarse en paralelo, en vez de estrictamente una por una en bloques cronológicos.

Para ilustrar la diferencia, si una blockchain se parece a una larga cadena de bloques (cada bloque contiene muchas transacciones), un ledger basado en DAG se asemeja más a un árbol o red de transacciones individuales. Cada nueva transacción en un DAG puede anexarse a (y por tanto validar) una o más transacciones anteriores, en lugar de esperar a ser empaquetada en el siguiente bloque único. Esta diferencia estructural genera varias distinciones clave:

  • Validación paralela: En las blockchains, los mineros/validadores añaden un bloque a la vez a la cadena, por lo que las transacciones se confirman en lotes por cada nuevo bloque. En los DAG, múltiples transacciones (o pequeños “bloques” de transacciones) pueden añadirse de forma concurrente, ya que cada una puede adjuntarse a diferentes partes del grafo. Esta paralelización implica que las redes DAG no tienen que esperar a que una cadena larga crezca bloque a bloque.
  • Sin orden secuencial global: Una blockchain crea inherentemente un orden total de las transacciones (cada bloque ocupa un lugar definido en una única secuencia). Un ledger DAG, en cambio, forma un orden parcial de las transacciones. No existe un único “último bloque” en el que todas las transacciones hagan fila; en su lugar, muchos extremos del grafo pueden coexistir y ampliarse simultáneamente. Luego se necesitan protocolos de consenso para ordenar o acordar el orden o la validez de las transacciones en el DAG.
  • Confirmación de transacciones: En una blockchain, las transacciones se confirman cuando se incluyen en un bloque minado/validado y ese bloque pasa a formar parte de la cadena aceptada (a menudo tras añadirse más bloques encima). En los sistemas DAG, una nueva transacción ayuda por sí misma a confirmar transacciones previas al referenciarlas. Por ejemplo, en el Tangle de IOTA (un DAG), cada transacción debe aprobar dos transacciones anteriores, logrando que los usuarios validen colaborativamente las transacciones de los demás. Esto elimina la división estricta entre “creadores de transacciones” y “validadores” que existe en la minería blockchain: cada participante que emite una transacción también realiza parte del trabajo de validación.

Es importante destacar que una blockchain es en realidad un caso especial de DAG: un DAG restringido a una sola cadena de bloques. Ambos son formas de tecnología de registro distribuido (DLT) y comparten objetivos como la inmutabilidad y la descentralización. Sin embargo, los ledgers basados en DAG son “sin bloques” o multiparentales en su estructura, lo que les da propiedades diferentes en la práctica. Las blockchains tradicionales como Bitcoin y Ethereum usan bloques secuenciales y suelen descartar los bloques competidores (forks), mientras que los ledgers DAG intentan incorporar y ordenar todas las transacciones sin descartar ninguna, siempre que no entren en conflicto. Esta diferencia fundamental sienta las bases de los contrastes de rendimiento y diseño detallados a continuación.

Comparación técnica: arquitectura DAG vs. blockchain

Para entender mejor los DAG frente a las blockchains, podemos comparar sus arquitecturas y procesos de validación:

  • Estructura de datos: Las blockchains almacenan datos en bloques enlazados en una secuencia lineal (cada bloque contiene muchas transacciones y apunta a un único bloque previo, formando una larga cadena). Los ledgers DAG usan una estructura de grafo: cada nodo del grafo representa una transacción o un bloque de eventos, y puede enlazarse a múltiples nodos anteriores. Este grafo dirigido no tiene ciclos, lo que significa que si sigues los enlaces “hacia atrás” nunca volverás a la transacción de la que partiste. La ausencia de ciclos permite un orden topológico de las transacciones (una forma de ordenarlas de modo que cada referencia aparezca después de la transacción referenciada). En resumen, blockchains = cadena unidimensional, DAG = grafo multidimensional.
  • Rendimiento y concurrencia: Debido a las diferencias estructurales, las blockchains y los DAG manejan el rendimiento de manera distinta. Una blockchain, incluso en condiciones óptimas, añade bloques uno por uno (a menudo esperando a que cada bloque se valide y propague por toda la red antes de crear el siguiente). Esto limita inherentemente el rendimiento de transacciones: por ejemplo, Bitcoin promedia 5–7 transacciones por segundo (TPS) y Ethereum alrededor de 15–30 TPS bajo el diseño clásico de proof-of-work. Los sistemas basados en DAG, en cambio, permiten que muchas nuevas transacciones/bloques entren en el ledger simultáneamente. Múltiples ramas de transacciones pueden crecer a la vez y luego entrelazarse, incrementando drásticamente el rendimiento potencial. Algunas redes DAG modernas afirman alcanzar miles de TPS, acercándose o superando la capacidad de las redes de pago tradicionales.
  • Proceso de validación de transacciones: En las redes blockchain, las transacciones esperan en el mempool y se validan cuando un minero o validador las empaqueta en un nuevo bloque, que luego es verificado por otros nodos frente al historial. En las redes DAG, la validación suele ser más continua y descentralizada: cada transacción nueva realiza una acción de validación al referenciar (aprobar) transacciones anteriores. Por ejemplo, cada transacción en el Tangle de IOTA debe confirmar dos transacciones previas comprobando su validez y ejecutando una pequeña prueba de trabajo, “votando” por esas transacciones. En el DAG block-lattice de Nano, las transacciones de cada cuenta forman su propia cadena y se validan mediante votos de nodos representantes (lo explicamos más adelante). El resultado neto es que los DAG distribuyen el trabajo de validación: en lugar de que un único productor de bloques valide un lote de transacciones, cada participante o muchos validadores validan distintas transacciones en paralelo.
  • Mecanismo de consenso: Tanto las blockchains como los DAG necesitan un modo de que la red esté de acuerdo sobre el estado del ledger (qué transacciones están confirmadas y en qué orden). En las blockchains, el consenso suele provenir de la Prueba de Trabajo o la Prueba de Participación generando el siguiente bloque y la regla de “la cadena más larga (o más pesada) gana”. En los ledgers DAG, el consenso puede ser más complejo porque no existe una única cadena. Diferentes proyectos DAG usan distintos enfoques: algunos emplean protocolos gossip y votación virtual (como Hedera Hashgraph) para acordar el orden de las transacciones, otros usan selección de puntas con cadenas de Markov Monte Carlo (el enfoque inicial de IOTA) u otros esquemas de votación para decidir qué ramas del grafo se prefieren. Más adelante detallamos métodos de consenso específicos. En general, alcanzar un acuerdo en toda la red en un DAG puede ser más rápido en términos de rendimiento, pero requiere un diseño cuidadoso para manejar conflictos (como intentos de doble gasto), dado que múltiples transacciones pueden existir en paralelo antes de ordenarse definitivamente.
  • Gestión de forks: En una blockchain, un “fork” (dos bloques minados casi al mismo tiempo) provoca que una rama termine ganando (la cadena más larga) y la otra sea huérfana (descartada), desperdiciando el trabajo realizado en el bloque huérfano. En un DAG, la filosofía es aceptar los forks como ramas adicionales del grafo en lugar de desaprovecharlos. El DAG incorpora ambos forks; el algoritmo de consenso determina qué transacciones se confirman (o cómo se resuelven las que entran en conflicto) sin desechar toda una rama. Esto significa que no se desperdicia energía de minado ni esfuerzo en bloques obsoletos, contribuyendo a la eficiencia. Por ejemplo, el Tree-Graph de Conflux (un DAG de PoW) intenta incluir todos los bloques en el ledger y ordenarlos, en lugar de huérfanar alguno, utilizando así el 100% de los bloques producidos.

En resumen, las blockchains ofrecen una estructura más simple y estrictamente ordenada donde la validación es bloque a bloque, mientras que los DAG proporcionan una estructura de grafo más compleja que permite un procesamiento asíncrono y paralelo de las transacciones. Los ledgers basados en DAG deben emplear lógica de consenso adicional para gestionar esta complejidad, pero prometen una mayor capacidad y eficiencia al utilizar todo el potencial de la red en lugar de obligarla a avanzar en fila india bloque a bloque.

Beneficios de los sistemas blockchain basados en DAG

Las arquitecturas DAG se introdujeron principalmente para superar las limitaciones de las blockchains tradicionales en escalabilidad, velocidad y coste. Estos son los beneficios clave de los ledgers distribuidos basados en DAG:

  • Alta escalabilidad y rendimiento: Las redes DAG pueden lograr altos volúmenes de transacciones porque gestionan muchas operaciones en paralelo. Al no existir un cuello de botella de cadena única, las TPS (transacciones por segundo) pueden escalar con la actividad de la red. De hecho, algunos protocolos DAG han demostrado rendimientos del orden de miles de TPS. Por ejemplo, Hedera Hashgraph tiene capacidad para procesar más de 10.000 transacciones por segundo en la capa base, superando con creces a Bitcoin o Ethereum. En la práctica, Hedera ha demostrado finalizar transacciones en unos 3–5 segundos, frente a los minutos o más que tardan las blockchains PoW. Incluso plataformas de contratos inteligentes basadas en DAG como Fantom han logrado finalidades casi instantáneas (~1–2 segundos) bajo cargas normales. Esta escalabilidad hace que los DAG sean atractivos para aplicaciones que requieren un alto volumen, como microtransacciones IoT o flujos de datos en tiempo real.
  • Costes de transacción bajos (sin comisiones o mínimas): Muchos ledgers DAG presumen de comisiones insignificantes o incluso transacciones sin coste. Por diseño, suelen no depender de mineros que esperen recompensas de bloque o comisiones; por ejemplo, en IOTA y Nano no existen tarifas obligatorias, lo que es crucial para micropagos en IoT y usos cotidianos. Cuando sí hay tarifas (p. ej., en Hedera o Fantom), suelen ser muy bajas y predecibles, ya que la red puede manejar la carga sin guerras de pujas por espacio limitado en bloques. Las transacciones en Hedera cuestan alrededor de 0,0001 dólares (una diezmilésima parte de un dólar), una fracción mínima respecto a las comisiones típicas en blockchain. Este coste reducido abre la puerta a casos de uso como transacciones de alta frecuencia o pagos diminutos inviables en cadenas con tarifas elevadas. Además, como los DAG incluyen todas las transacciones válidas en lugar de descartar algunas en caso de forks, se desperdicia menos trabajo, lo que indirectamente ayuda a mantener bajos los costes aprovechando los recursos con eficiencia.
  • Confirmación rápida y baja latencia: En los ledgers DAG, las transacciones no tienen que esperar a ser incluidas en un bloque global, por lo que la confirmación puede ser más rápida. Muchos sistemas DAG logran finalidad rápida, el punto en el que una transacción se considera permanentemente confirmada. Por ejemplo, el consenso de Hedera Hashgraph suele finalizar transacciones en pocos segundos con certeza del 100% (finalidad ABFT). La red de Nano suele ver transacciones confirmadas en <1 segundo gracias a su proceso de votación ligero. Esta baja latencia mejora la experiencia del usuario, haciendo que las operaciones parezcan casi instantáneas, algo importante para pagos reales y aplicaciones interactivas.
  • Eficiencia energética: Las redes basadas en DAG a menudo no requieren la minería intensiva en pruebas de trabajo que usan muchas blockchains, lo que las hace mucho más eficientes energéticamente. Incluso comparadas con blockchains proof-of-stake, algunas redes DAG consumen energía mínima por transacción. Por ejemplo, una sola transacción en Hedera Hashgraph consume alrededor de 0,0001 kWh (kilovatios-hora). Esto es varios órdenes de magnitud menor que Bitcoin (que puede consumir cientos de kWh por transacción) o incluso que muchas cadenas PoS. La eficiencia proviene de eliminar cálculos desperdiciados (no hay carrera de minado) y de no descartar intentos de transacción. Si las redes blockchain adoptaran modelos basados en DAG de forma generalizada, el ahorro energético sería monumental. La huella de carbono de redes DAG como Hedera es tan baja que el conjunto de la red es carbono-negativa cuando se consideran las compensaciones. Esta eficiencia energética es cada vez más crucial para una infraestructura Web3 sostenible.
  • Sin minería y validación democratizada: En muchos modelos DAG no existe un rol de minero/validador distinto que los usuarios corrientes no puedan desempeñar. Por ejemplo, cada usuario de IOTA que emite una transacción también ayuda a validar otras dos, descentralizando el trabajo de validación hacia los extremos de la red. Esto puede reducir la necesidad de hardware de minería potente o de apostar grandes cantidades de capital para participar en el consenso, lo que potencialmente hace la red más accesible. (Sin embargo, algunas redes DAG siguen usando validadores o coordinadores; más adelante abordamos el consenso y la descentralización).
  • Gestión fluida del alto tráfico: Las blockchains suelen sufrir atascos en el mempool y picos de comisiones bajo alta carga (ya que solo puede añadirse un bloque a la vez). Las redes DAG, debido a su naturaleza paralela, generalmente manejan mejor los picos de tráfico. A medida que más transacciones inundan la red, simplemente crean más ramas paralelas en el DAG, que el sistema puede procesar de forma concurrente. Hay menos un límite rígido de rendimiento (la escalabilidad es más “horizontal”). Esto se traduce en una mejor escalabilidad bajo carga, con menos retrasos y solo incrementos moderados en los tiempos de confirmación o en las tarifas, hasta el límite de la capacidad de red y procesamiento de los nodos. En esencia, un DAG puede absorber ráfagas de transacciones sin congestionar tan rápido, lo que lo hace adecuado para casos de uso con picos de actividad (por ejemplo, dispositivos IoT enviando datos simultáneamente o un evento viral de una DApp).

En resumen, los ledgers basados en DAG prometen transacciones más rápidas, baratas y escalables que el enfoque blockchain clásico. Pretenden soportar escenarios de adopción masiva (micropagos, IoT, trading de alta frecuencia, etc.) con los que las blockchains principales actuales tienen dificultades debido a limitaciones de rendimiento y coste. Sin embargo, estos beneficios vienen acompañados de ciertos compromisos y desafíos de implementación, que abordamos en secciones posteriores.

Mecanismos de consenso en plataformas basadas en DAG

Como los ledgers DAG no producen naturalmente una única cadena de bloques, requieren mecanismos de consenso innovadores para validar transacciones y asegurar que todos acuerdan el estado del ledger. Diferentes proyectos han desarrollado soluciones adaptadas a su arquitectura DAG. Aquí resumimos algunos enfoques notables utilizados por plataformas basadas en DAG:

  • Tangle de IOTA – selección de puntas y votación ponderada: El Tangle de IOTA es un DAG de transacciones diseñado para el Internet de las Cosas (IoT). En el modelo original de IOTA no hay mineros; en su lugar, cada nueva transacción debe realizar una pequeña prueba de trabajo y aprobar dos transacciones previas (las “puntas” del grafo). Esta selección de puntas suele hacerse mediante un algoritmo de Markov Chain Monte Carlo (MCMC) que elige probabilísticamente qué puntas aprobar, favoreciendo el subtangle más pesado para evitar la fragmentación. El consenso en la primera versión de IOTA se lograba en parte por este peso acumulado de aprobaciones: cuantas más transacciones futuras aprueban indirectamente la tuya, más “confirmada” se vuelve. No obstante, para asegurar la red en sus inicios, IOTA dependía de un nodo centralizado temporal, el Coordinator, que emitía transacciones de hito para finalizar el Tangle. Esta centralización recibió críticas y está siendo eliminada en la actualización conocida como “Coordicide” (IOTA 2.0). En IOTA 2.0, un nuevo modelo de consenso aplica un consenso tipo Nakamoto sin líderes sobre un DAG. En esencia, los nodos realizan votación en el propio Tangle: cuando un nodo adjunta un nuevo bloque, ese bloque vota implícitamente sobre la validez de las transacciones que referencia. Un comité de validadores (elegidos mediante un mecanismo de staking) emite bloques de validación como votos, y una transacción se confirma cuando acumula suficientes aprobaciones ponderadas (concepto denominado approval weight). Este enfoque combina la idea del DAG más pesado (similar a la cadena más larga) con una votación explícita para lograr consenso sin un coordinador. En resumen, el consenso de IOTA evolucionó de la selección de puntas + Coordinador a una votación descentralizada sobre las ramas del DAG, buscando seguridad y acuerdos rápidos sobre el estado del ledger.
  • Hedera Hashgraph – gossip y votación virtual (aBFT): Hedera Hashgraph usa un DAG de eventos junto con un algoritmo de consenso asíncrono tolerante a fallas bizantinas (aBFT). La idea central es “gossip about gossip”: cada nodo difunde rápidamente información firmada sobre las transacciones y sobre su historial de gossip a otros nodos. Esto crea un Hashgraph (el DAG de eventos) donde cada nodo termina sabiendo qué ha difundido cada otro nodo, incluyendo la estructura de quién oyó qué y cuándo. A partir de este DAG de eventos, Hedera implementa votación virtual. En lugar de enviar mensajes de voto reales para ordenar las transacciones, los nodos simulan localmente un algoritmo de votación analizando el grafo de conexiones de gossip. El algoritmo Hashgraph de Leemon Baird puede calcular de forma determinista cómo se desarrollaría una ronda teórica de votos sobre el orden de las transacciones, examinando la “red de gossip” registrada en el DAG. Esto produce una marca de tiempo de consenso y un orden total de transacciones que es justo y definitivo (las transacciones se ordenan por la mediana del momento en que la red las recibió). El consenso de Hashgraph es sin líderes y logra aBFT, lo que significa que puede tolerar hasta 1/3 de nodos maliciosos sin comprometerse. En la práctica, la red de Hedera está gobernada por un conjunto de 39 nodos operados por organizaciones conocidas (el Consejo de Hedera), por lo que es permisionada pero geográficamente distribuida. El beneficio es un consenso extremadamente rápido y seguro: Hedera alcanza la finalidad en segundos con consistencia garantizada. El mecanismo de consenso Hashgraph es patentado pero fue abierto en 2024, y muestra cómo un DAG sumado a un consenso innovador (gossip y votación virtual) puede reemplazar un protocolo blockchain tradicional.
  • Lachesis de Fantom – PoS aBFT sin líderes: Fantom es una plataforma de contratos inteligentes que usa un consenso basado en DAG llamado Lachesis. Lachesis es un protocolo PoS aBFT inspirado en Hashgraph. En Fantom, cada validador agrupa las transacciones recibidas en un bloque de eventos y lo añade a su propio DAG local de eventos. Estos bloques contienen transacciones y referencias a eventos anteriores. Los validadores difunden estos bloques de eventos entre sí de forma asíncrona: no hay una secuencia única en la que deban producirse o acordarse los bloques. Conforme los bloques se propagan, los validadores identifican periódicamente ciertos eventos como hitos (o “bloques raíz”) cuando una supermayoría de nodos los ha visto. Lachesis ordena estos eventos finalizados y los compromete en una Opera Chain final (una estructura de blockchain tradicional) que actúa como ledger de bloques confirmados. En esencia, el DAG de bloques de eventos permite a Fantom lograr consenso de forma asíncrona y muy rápida, y luego el resultado final se linealiza para compatibilidad. Esto brinda una finalidad de ~1–2 segundos por transacción en Fantom. Lachesis no tiene mineros ni líderes que propongan bloques; todos los validadores aportan bloques de eventos y el protocolo los ordena determinísticamente. El consenso está asegurado por un modelo PoS (los validadores deben hacer staking de tokens FTM y están ponderados por su stake). Lachesis también es aBFT, tolerando hasta 1/3 de nodos defectuosos. Al combinar la concurrencia del DAG con una salida en cadena final, Fantom logra un alto rendimiento (varios miles de TPS en pruebas) mientras sigue siendo compatible con la EVM para contratos inteligentes. Es un buen ejemplo de usar un DAG internamente para aumentar el rendimiento sin exponer su complejidad a la capa de aplicación (los desarrolladores siguen viendo una cadena normal de transacciones).
  • Votación de Representantes Abiertos (ORV) de Nano: Nano es una criptomoneda orientada a pagos que emplea una estructura DAG única llamada block-lattice. En Nano, cada cuenta tiene su propia blockchain (account-chain) que solo su propietario puede actualizar. Todas esas cadenas individuales forman un DAG, ya que las transacciones de distintas cuentas se enlazan de forma asíncrona (un envío en la cadena de una cuenta referencia una recepción en otra, etc.). El consenso en Nano se logra mediante un mecanismo llamado Open Representative Voting (ORV). Los usuarios designan un nodo representante para su cuenta (una delegación de peso, sin bloquear fondos) y estos representantes votan sobre la validez de las transacciones. Cada transacción se liquida individualmente (no hay bloques que agrupen múltiples tx) y se considera confirmada cuando una supermayoría (por ejemplo, >67%) del peso de voto (de los representantes) está de acuerdo. Dado que los titulares honestos no intentarán gastar dos veces sus propios fondos, los forks son raros y suelen deberse a intentos maliciosos, que los representantes pueden rechazar rápidamente. La finalidad suele alcanzarse en menos de un segundo por transacción. ORV es similar a la Prueba de Participación en que el peso del voto se basa en los saldos (stake), pero no hay recompensas de staking ni comisiones: los representantes son nodos voluntarios. La ausencia de minería y producción de bloques permite a Nano operar sin comisiones y con eficiencia. Sin embargo, depende de que un conjunto de representantes confiables esté en línea para votar, y existe una centralización implícita en los nodos que acumulan gran peso de voto (aunque los usuarios pueden cambiar de representante en cualquier momento, manteniendo el control de la descentralización en manos de la comunidad). El consenso de Nano es liviano y optimizado para la velocidad y eficiencia energética, en línea con su objetivo de ser un dinero digital rápido y sin comisiones.
  • Otros enfoques destacados: Existen otros protocolos de consenso basados en DAG. Además de Hedera Hashgraph y Fantom Lachesis:
    • Consenso Avalanche (Avalanche/X-Chain): Avalanche emplea un consenso basado en DAG donde los validadores se muestrean repetidamente entre sí de forma aleatoria para decidir qué transacciones o bloques preferir. La X-Chain de Avalanche (cadena de intercambio) es un DAG de transacciones (UTXO) y alcanza consenso mediante este muestreo de red. El protocolo de Avalanche es probabilístico pero extremadamente rápido y escalable: puede finalizar transacciones en ~1 segundo y, según se informa, manejar hasta 4.500 TPS por subred. Su enfoque es único al combinar estructuras DAG con un consenso metastable (protocolo Snowball), y está asegurado por Proof-of-Stake (cualquiera puede ser validador con stake suficiente).
    • Tree-Graph de Conflux: Conflux es una plataforma que extendió el PoW de Bitcoin a un DAG de bloques. Utiliza una estructura Tree-Graph donde los bloques referencian no solo a un padre sino a todos los bloques previos conocidos (sin huerfanar). Esto permite a Conflux usar minería PoW pero mantener todos los forks como parte del ledger, logrando mucho mayor rendimiento que una cadena típica. Así, Conflux puede alcanzar teóricamente entre 3.000 y 6.000 TPS usando PoW, permitiendo que los mineros produzcan bloques continuamente sin esperar a una sola cadena. Su consenso ordena estos bloques y resuelve conflictos mediante una regla de subárbol más pesado. Es un ejemplo de DAG híbrido con PoW.
    • Variantes de Hashgraph y protocolos académicos: Hay numerosos protocolos DAG académicos (algunos implementados en proyectos recientes): SPECTRE y PHANTOM (protocolos blockDAG orientados a alto rendimiento y confirmación rápida, de DAGlabs), Aleph Zero (un consenso DAG aBFT usado en la blockchain Aleph Zero), Parallel Chains / Prism (proyectos de investigación que separan la confirmación en subcadenas paralelas y DAGs), y avances recientes como Narwhal & Bullshark de Sui, que usan un mempool en DAG para alto rendimiento y un consenso separado para la finalidad. Aunque no todos tienen despliegues a gran escala, indican un campo de investigación vibrante. Muchos de estos protocolos distinguen entre disponibilidad (escribir datos rápidamente en un DAG) y consistencia (ponerse de acuerdo en una historia), buscando obtener lo mejor de ambas.

Cada plataforma DAG adapta su consenso a sus necesidades —ya sean micropagos sin comisiones, ejecución de contratos inteligentes o interoperabilidad—. Un tema común, sin embargo, es evitar un cuello de botella serial único: los mecanismos de consenso basados en DAG buscan permitir mucha actividad concurrente y luego usan algoritmos ingeniosos (gossip, votación, muestreo, etc.) para ordenar todo, en vez de limitar la red a un único productor de bloques por turno.

Estudios de caso: ejemplos de proyectos blockchain basados en DAG

Varios proyectos han implementado ledgers basados en DAG, cada uno con decisiones de diseño y casos de uso específicos. A continuación analizamos algunas plataformas DAG destacadas:

  • IOTA (The Tangle): IOTA es una de las primeras criptomonedas basadas en DAG, diseñada para el Internet de las Cosas. Su ledger, llamado Tangle, es un DAG de transacciones donde cada nueva transacción confirma dos anteriores. El objetivo de IOTA es habilitar microtransacciones sin comisiones entre dispositivos IoT (pagos diminutos por datos o servicios). Lanzada en 2016, para arrancar con seguridad usó un Coordinador (ejecutado por la Fundación IOTA) que prevenía ataques en la red temprana. IOTA ha estado trabajando en “Coordicide” para descentralizar completamente la red introduciendo un consenso por votación (como describimos antes) donde los nodos votan transacciones conflictivas usando un consenso tipo Nakamoto sin líderes sobre el DAG más pesado. En términos de rendimiento, IOTA puede, en teoría, lograr un rendimiento muy alto (el protocolo no impone un límite rígido de TPS; mayor actividad incluso ayuda a confirmar más rápido). En la práctica, las testnets han demostrado cientos de TPS, y se espera que IOTA 2.0 escale bien para la demanda IoT. Los casos de uso de IOTA giran en torno al IoT y la integridad de datos: por ejemplo, transmisión de datos de sensores con pruebas de integridad, pagos entre vehículos, trazabilidad en la cadena de suministro e incluso identidad descentralizada (el marco IOTA Identity permite emitir y verificar credenciales/identificadores descentralizados en el Tangle). IOTA no admite contratos inteligentes en su capa base, pero el proyecto introdujo un marco paralelo de Smart Contracts y tokens en una capa secundaria para habilitar DApps más complejas. Una característica destacada de IOTA es su ausencia de comisiones, habilitada al requerir una pequeña prueba de trabajo del emisor en lugar de cobrar una tarifa, lo cual es atractivo para transacciones de bajo valor y alto volumen (p. ej., un sensor enviando datos cada pocos segundos a coste insignificante).
  • Hedera Hashgraph (HBAR): Hedera es un ledger público distribuido que usa el algoritmo de consenso Hashgraph (inventado por Leemon Baird). Hedera comenzó en 2018 y está gobernada por un consejo de grandes organizaciones (Google, IBM, Boeing y otras) que operan el conjunto inicial de nodos. A diferencia de la mayoría, Hedera es permisionada en la gobernanza (solo miembros aprobados del consejo ejecutan nodos de consenso actualmente, hasta 39 nodos), aunque cualquiera puede utilizar la red. Su DAG Hashgraph permite altísimo rendimiento y finalidad rápida: Hedera puede procesar más de 10.000 TPS con finalidad en 3-5 segundos en condiciones óptimas. Lo consigue gracias al consenso aBFT basado en gossip que describimos antes. Hedera enfatiza casos de uso empresariales y Web3 que necesitan fiabilidad a escala: la red ofrece servicios de tokenización (Hedera Token Service), un Servicio de Consenso para registro inmutable de eventos y un servicio de Smart Contracts (compatible con la EVM). Aplicaciones notables en Hedera incluyen trazabilidad en la cadena de suministro (p. ej., seguimiento de prendas por Avery Dennison), minting masivo de NFT (las bajas comisiones abaratan el proceso), pagos y micropagos (como micropagos en ad tech) e incluso soluciones de identidad descentralizada. Hedera tiene un método DID registrado en el W3C y marcos como Hedera Guardian para admitir credenciales verificables y cumplimiento normativo (por ejemplo, seguimiento de créditos de carbono). Un aspecto clave es el fuerte rendimiento de Hedera combinado con la estabilidad declarada (el algoritmo Hashgraph garantiza ausencia de forks y una equidad matemática en el orden). El compromiso es que Hedera es menos descentralizada en número de nodos que redes abiertas (por diseño, con su modelo de gobernanza), aunque los nodos del consejo están distribuidos globalmente y el plan es aumentar la apertura con el tiempo. En resumen, Hedera Hashgraph es un ejemplo destacado de DLT basada en DAG orientada a aplicaciones empresariales, con énfasis en alto rendimiento, seguridad y gobernanza.
  • Fantom (FTM): Fantom es una plataforma de contratos inteligentes (blockchain de Capa 1) que utiliza un consenso basado en DAG llamado Lachesis. Lanzada en 2019, Fantom ganó popularidad especialmente durante el auge DeFi de 2021-2022 como una cadena compatible con Ethereum pero con mayor rendimiento. La red Opera de Fantom ejecuta el consenso Lachesis aBFT (ya detallado), donde los validadores mantienen un DAG local de bloques de eventos, logran consenso de forma asíncrona y luego finalizan las transacciones en una cadena principal. Esto otorga a Fantom un tiempo de finalidad de ~1 segundo por transacción y la capacidad de manejar miles de TPS. Fantom es compatible con la EVM, lo que permite a los desarrolladores desplegar contratos Solidity y usar las mismas herramientas que Ethereum, facilitando su adopción en DeFi. De hecho, Fantom se convirtió en hogar de numerosos proyectos DeFi (DEX, protocolos de préstamos, yield farms) atraídos por su velocidad y bajas comisiones. También alberga proyectos NFT y DApps de gaming, prácticamente cualquier aplicación Web3 que se beneficie de transacciones rápidas y baratas. Un punto notable es que Fantom alcanzó un alto grado de descentralización para una plataforma DAG: cuenta con decenas de validadores independientes que aseguran la red (sin permisos, cualquiera puede ejecutar un validador con el stake mínimo), a diferencia de algunas redes DAG que restringen los validadores. Esto posiciona a Fantom como una alternativa creíble a blockchains más tradicionales para aplicaciones descentralizadas, aprovechando la tecnología DAG para superar el cuello de botella del rendimiento. El token FTM se usa para staking, gobernanza y comisiones (solo unos céntimos por transacción, mucho menos que el gas de Ethereum). Fantom demostró que el consenso basado en DAG puede integrarse con plataformas de contratos inteligentes para lograr simultáneamente velocidad y compatibilidad.
  • Nano (XNO): Nano es una criptomoneda ligera lanzada en 2015 (originalmente como RaiBlocks) que usa una estructura DAG block-lattice. El enfoque principal de Nano es ser dinero digital punto a punto: transacciones instantáneas, sin comisiones y con un consumo mínimo de recursos. En Nano, cada cuenta tiene su propia cadena de transacciones, y las transferencias entre cuentas se gestionan mediante un bloque de envío en la cadena del remitente y un bloque de recepción en la del destinatario. Este diseño asíncrono permite que la red procese transacciones de forma independiente y en paralelo. El consenso se logra mediante la votación de representantes abiertos (ORV), donde la comunidad designa nodos representantes delegando su saldo. Los representantes votan en transacciones conflictivas (lo cual es raro, generalmente solo en intentos de doble gasto) y, una vez que una mayoría cualificada (67% del peso) está de acuerdo, la transacción se consolida (confirmada irrevocablemente). Los tiempos típicos de confirmación en Nano son muy inferiores a un segundo, lo que la hace sentir instantánea en el uso cotidiano. Al no existir recompensas de minería ni comisiones, operar un nodo o representante Nano es un esfuerzo voluntario, pero el diseño de la red minimiza la carga (cada transacción pesa apenas 200 bytes y se procesa rápidamente). El enfoque DAG y el consenso de Nano le permiten ser extremadamente eficiente energéticamente: existe una pequeña prueba de trabajo realizada por los remitentes (principalmente como medida antispam), pero es trivial comparada con la PoW blockchain. Los casos de uso de Nano son sencillos por diseño: está pensada para transferencias monetarias, desde compras diarias hasta remesas, donde la velocidad y la ausencia de tarifas son su propuesta de valor. Nano no admite contratos inteligentes ni scripting complejo; se centra en hacer muy bien una sola cosa. Un desafío de su modelo es que se basa en la honestidad de la mayoría de los representantes; al no haber incentivos monetarios, el modelo de seguridad se apoya en la suposición de que los grandes tenedores actuarán en beneficio de la red. Hasta ahora, Nano ha mantenido un conjunto bastante descentralizado de representantes principales y ha visto uso en pagos comerciales, propinas y otros micropagos en línea.
  • Comparativa rápida Hedera vs IOTA vs Fantom vs Nano: La siguiente tabla resume algunas características clave de estos proyectos basados en DAG:
Proyecto (Año)Estructura de datos y consensoRendimiento (TPS y finalidad)Características / casos de uso destacados
IOTA (2016)DAG de transacciones (“Tangle”); cada tx aprueba 2 previas. Originalmente con coordinador; migrando a un consenso sin líderes descentralizado (voto sobre el DAG más pesado, sin mineros).TPS teóricamente alto (escala con la actividad); ~10 s de confirmación en redes activas (más rápido con mayor carga). Investigación en curso para mejorar la finalidad. Transacciones sin comisiones.Micropagos y datos IoT (microtransacciones sin comisiones), cadena de suministro, datos de sensores, automoción, identidad descentralizada (método DID de IOTA Identity). Sin smart contracts en la capa base (se gestionan en capas separadas).
Hedera Hashgraph (2018)DAG de eventos (Hashgraph); consenso gossip-about-gossip + votación virtual (aBFT), operado por ~29–39 nodos del consejo (ponderados por PoS). Sin mineros; marcas de tiempo para ordenar.~10.000 TPS máx.; finalidad en 3-5 segundos por transacción. Energía extremadamente baja por tx (~0,0001 kWh). Tarifas fijas muy bajas (~0,0001 $ por transferencia).Aplicaciones empresariales y Web3: tokenización (HTS), NFTs y servicios de contenidos, pagos, trazabilidad en cadena de suministro, datos sanitarios, gaming, etc. Gobernanza por grandes corporaciones; red compatible con la EVM para smart contracts (Solidity). Enfoque en alto rendimiento y seguridad empresarial.
Fantom (FTM) (2019)DAG de bloques de eventos de validadores; consenso PoS Lachesis aBFT (sin líderes). Cada validador construye un DAG de eventos que se confirma y se ensambla en una blockchain final (Opera Chain).Empíricamente cientos de TPS en uso DeFi; finalidad típica de 1-2 segundos. Capaz de miles de TPS en benchmarks. Tarifas bajas (fracciones de centavo).DeFi y smart contracts en una L1 de alta velocidad. Compatible con la EVM (ejecuta DApps Solidity). Soporta DEX, préstamos, marketplaces NFT (trading rápido, mint barato). El consenso DAG queda oculto tras una interfaz blockchain amigable. Cualquier persona puede hacer staking (conjunto de validadores descentralizado).
Nano (XNO) (2015)DAG de cadenas de cuenta (block-lattice); cada tx es su propio bloque. Consenso por votación de representantes abiertos (tipo dPoS en conflictos). Sin minería ni comisiones.~Cientos de TPS factibles (limitados principalmente por E/S de red). Confirmación <1 s típica. Sin comisiones. Uso de recursos extremadamente bajo (eficiente para IoT/móvil).Moneda digital para pagos instantáneos. Ideal para micropagos, propinas, comercio minorista, donde las tarifas y la latencia deben ser mínimas. No está diseñada para smart contracts; se centra en transferencias simples. Consumo energético muy bajo (criptomoneda ecológica). Representantes administrados por la comunidad (sin autoridad central).

(Tabla: comparación de proyectos de ledger basados en DAG seleccionados y sus características. TPS = transacciones por segundo.)

Otros proyectos basados en DAG no detallados incluyen Obyte (Byteball) – un ledger DAG para pagos condicionales y almacenamiento de datos, IoT Chain (ITC) – un proyecto DAG orientado al IoT, Avalanche – que ya mencionamos por usar DAG en su consenso y se ha convertido en una plataforma DeFi importante, Conflux – un DAG PoW de alto rendimiento en China, y prototipos académicos como SPECTRE/PHANTOM. Cada uno explora el espacio de diseño de los ledgers DAG de distintas maneras, pero los cuatro ejemplos anteriores (IOTA, Hedera, Fantom, Nano) ilustran la diversidad: desde microtransacciones IoT sin comisiones hasta redes empresariales y cadenas de contratos inteligentes DeFi, todos aprovechando estructuras DAG.

Casos de uso de la tecnología DAG en el ecosistema Web3

Los sistemas blockchain basados en DAG desbloquean determinados casos de uso gracias a su alto rendimiento y propiedades únicas. Estos son algunos casos de uso actuales y potenciales en los que los DAG están impactando en Web3:

  • Internet de las Cosas (IoT): El IoT implica millones de dispositivos transmitiendo datos y potencialmente transaccionando entre sí (pagos máquina a máquina). Ledgers DAG como IOTA se diseñaron explícitamente para este escenario. Con microtransacciones sin comisiones y la capacidad de manejar frecuencias altas de pagos pequeños, un ledger DAG puede permitir que dispositivos IoT paguen por servicios o ancho de banda sobre la marcha. Por ejemplo, un coche eléctrico inteligente podría pagar automáticamente a una estación de carga unos céntimos por la energía, o los sensores podrían vender datos a una plataforma en tiempo real. El Tangle de IOTA se ha usado en pilotos de ciudades inteligentes, integraciones de IoT en cadenas de suministro (seguimiento de mercancías y condiciones ambientales) y mercados descentralizados de datos donde se registran y comercian los datos de sensores de forma inmutable. La escalabilidad de los DAG aborda el enorme volumen que generan las redes IoT masivas, y su bajo coste se ajusta a la economía de los micropagos.
  • Finanzas descentralizadas (DeFi): Aplicaciones DeFi como los exchanges descentralizados (DEX), plataformas de préstamos y redes de pagos se benefician de un alto rendimiento y baja latencia. Las plataformas de smart contracts basadas en DAG (p. ej., Fantom, y en cierta medida la X-Chain de Avalanche para transferencias simples de activos) ofrecen la ventaja de liquidar operaciones más rápido y mantener comisiones bajas incluso durante alta demanda. En 2021, Fantom experimentó un aumento de actividad DeFi (yield farming, market makers automatizados, etc.) y pudo manejarlo con mucha menos congestión que Ethereum en ese momento. Además, la finalidad rápida de los DAG reduce el riesgo de incertidumbre en la ejecución de operaciones (en cadenas lentas, los usuarios esperan varios bloques para la finalidad, lo que introduce riesgo en el trading veloz). Otra perspectiva son las redes de pagos descentralizados: Nano, por ejemplo, puede considerarse parte del espectro DeFi, habilitando transferencias peer-to-peer y posiblemente actuando como carril de micropagos para capas 2 de otros sistemas. El rendimiento de los DAG también podría soportar trading de alta frecuencia o transacciones DeFi complejas multi-paso ejecutándose con mayor fluidez.
  • NFT y gaming: El boom de los NFT evidenció la necesidad de minting y transferencias de bajo coste. En Ethereum, acuñar NFT se volvió costoso cuando el gas se disparó. Redes DAG como Hedera y Fantom se han planteado como alternativas donde acuñar un NFT cuesta una fracción de centavo, haciéndolas viables para activos en juegos, coleccionables o lanzamientos a gran escala. El Token Service de Hedera permite la emisión nativa de tokens y NFT con tarifas bajas y predecibles, y ha sido usado por plataformas de contenido e incluso empresas (p. ej., artistas musicales emitiendo tokens o universidades registrando títulos). En gaming, donde abundan las microtransacciones, un ledger DAG rápido puede gestionar frecuentes intercambios de activos o distribución de recompensas sin ralentizar el juego ni arruinar a los jugadores con comisiones. El alto rendimiento garantiza que, incluso si un juego o colección NFT popular atrae a millones de usuarios, la red pueda soportar la carga (hemos visto juegos en Ethereum congestionar la red en el pasado). Por ejemplo, un juego basado en NFT en Fantom puede actualizar el estado lo suficientemente rápido como para ofrecer una experiencia casi en tiempo real.
  • Identidad descentralizada (DID) y credenciales: Los sistemas de identidad se benefician de un ledger inmutable para anclar identidades, credenciales y atestaciones. Las redes DAG se exploran aquí porque ofrecen escalabilidad para potencialmente miles de millones de transacciones de identidad (cada login, emisión de certificado, etc.) y bajo coste, crucial si, por ejemplo, cada interacción de identidad de un ciudadano se registrara. IOTA Identity es un ejemplo: proporciona un método DID did:iota donde los documentos de identidad se referencian en el Tangle. Se puede usar para identidad autosoberana: los usuarios controlan sus documentos y los verificadores pueden obtener pruebas del DAG. Hedera también está activa en el ámbito DID: tiene una especificación DID y se ha usado en proyectos como registros inmutables de títulos universitarios, certificados de vacunación COVID o documentos de cumplimiento en la cadena de suministro (a través del Hedera Consensus Service como servicio de anclaje). Las ventajas de los DAG aquí son que es barato y rápido escribir datos, de modo que actualizar un estado de identidad (rotar claves, añadir credenciales) no enfrenta el coste o retraso de una blockchain congestionada. Además, las garantías de finalidad y orden pueden ser importantes para auditorías (Hashgraph, por ejemplo, proporciona un orden temporal confiable útil para registros de cumplimiento).
  • Cadena de suministro e integridad de datos: Más allá de la identidad, cualquier caso de uso que involucre registrar un alto volumen de datos puede aprovechar DLT basadas en DAG. La trazabilidad en cadenas de suministro es uno: los productos generan muchos eventos (fabricado, enviado, inspeccionado, etc.). Proyectos han usado Hedera e IOTA para registrar estos eventos en un ledger DAG, aportando inmutabilidad y transparencia. El alto rendimiento garantiza que el ledger no sea un cuello de botella, incluso si se escanea y registra cada artículo de una red de suministro grande. Además, las comisiones nulas o bajas permiten registrar eventos de bajo valor sin costes elevados. Otro ejemplo es la integridad de datos IoT: redes eléctricas o telecomunicaciones pueden registrar lecturas de dispositivos en un ledger DAG para demostrar posteriormente que los datos no fueron manipulados. El DAG de Constellation Network (otro proyecto DAG) se centra en la validación de grandes volúmenes de datos para empresas y gobiernos (como la integridad de datos de drones de la Fuerza Aérea de EE. UU.), destacando cómo un DAG escalable puede manejar flujos masivos de datos de forma confiable.
  • Pagos y remesas: Transacciones rápidas y sin comisiones hacen que criptomonedas DAG como Nano e IOTA sean adecuadas para pagos. Nano ha sido adoptada en escenarios como propinas online (donde un usuario puede enviar unos céntimos instantáneamente a un creador de contenido) y remesas internacionales (donde la velocidad y coste cero marcan una gran diferencia frente a esperar horas y pagar porcentajes elevados). Las redes DAG pueden servir como carriles de pago de alta velocidad integrados en sistemas de punto de venta o aplicaciones móviles. Por ejemplo, una cafetería podría usar una criptomoneda DAG para los pagos sin preocuparse por la latencia o el coste (la experiencia puede rivalizar con una tarjeta de crédito contactless). HBAR de Hedera también se usa en algunas pruebas de pago (su finalidad rápida y baja tarifa atraen a aplicaciones fintech para liquidación). Además, como las redes DAG suelen tener mayor capacidad, pueden mantener el rendimiento incluso durante eventos globales de compras o picos de uso, algo valioso para la fiabilidad de pagos.
  • Feeds de datos en tiempo real y oráculos: Los oráculos (servicios que introducen datos externos en contratos inteligentes) requieren escribir muchos datos en un ledger. Un ledger DAG podría actuar como una red de oráculos de alto rendimiento, registrando precios, datos climáticos, lecturas de sensores IoT, etc., con garantía de orden y marca temporal. El Hedera Consensus Service, por ejemplo, es utilizado por algunos proveedores de oráculos para sellar datos antes de alimentarlos a otras cadenas. La velocidad asegura datos frescos y el rendimiento permite manejar flujos rápidos. En analítica Web3 descentralizada o publicidad, donde cada clic o impresión podría registrarse para transparencia, un backend DAG puede soportar el volumen de eventos.

En todos estos casos, el hilo común es que las redes DAG buscan proporcionar la escalabilidad, velocidad y eficiencia de costes que amplían el alcance de lo que se puede descentralizar. Son particularmente útiles donde ocurren transacciones de alta frecuencia o alto volumen (IoT, microtransacciones, datos de máquinas) o donde la experiencia del usuario exige interacciones rápidas y fluidas (gaming, pagos). No obstante, no todos los casos de uso migrarán a ledgers DAG: a veces la madurez y seguridad de las blockchains tradicionales, o simplemente los efectos de red (por ejemplo, la enorme base de desarrolladores de Ethereum), pesan más que la necesidad de rendimiento bruto. Aun así, los DAG están labrándose un nicho en la pila Web3 para escenarios que tensionan a las cadenas convencionales.

Limitaciones y desafíos de las redes basadas en DAG

Aunque los ledgers distribuidos basados en DAG ofrecen ventajas atractivas, también implican compromisos y desafíos. Es importante examinar críticamente estas limitaciones:

  • Madurez y seguridad: La mayoría de los algoritmos de consenso DAG son relativamente nuevos y están menos probados en batalla que los protocolos blockchain bien estudiados de Bitcoin o Ethereum. Esto puede significar vulnerabilidades de seguridad o vectores de ataque aún desconocidos. La complejidad de los sistemas DAG puede abrir nuevas vías de ataque: por ejemplo, un atacante podría intentar inundar o inflar el DAG con subtangles conflictivos, o aprovechar la estructura paralela para gastar doble antes de que la red alcance consenso. Análisis académicos señalan que la complejidad incrementada introduce una gama más amplia de vulnerabilidades frente a cadenas lineales más simples. Algunas redes DAG han sufrido incidencias: por ejemplo, en sus inicios la red de IOTA tuvo que pausarse en un par de ocasiones por irregularidades/ataques (en 2020 se robó un fondo y el Coordinador se detuvo temporalmente para resolverlo). Estos incidentes subrayan que los modelos de seguridad siguen perfeccionándose. Además, en algunos DAG la finalidad es probabilística (p. ej., antes de Coordicide IOTA no tenía finalidad absoluta, solo confianza creciente), lo que puede ser problemático para ciertas aplicaciones (aunque DAG más recientes como Hashgraph y Fantom ofrecen finalidad instantánea con garantías aBFT).
  • Complejidad del consenso: Lograr consenso en un DAG suele implicar algoritmos complejos (protocolos gossip, votación virtual, muestreo aleatorio, etc.). Esta complejidad se traduce en bases de código más extensas e implementaciones complicadas, aumentando el riesgo de bugs de software. También hace el sistema más difícil de entender para los desarrolladores. La regla de la cadena más larga en una blockchain es conceptualmente simple, mientras que la votación virtual de Hashgraph o el muestreo repetido de Avalanche no son tan intuitivos. La complejidad puede frenar la adopción: desarrolladores y empresas pueden dudar en confiar en un sistema que les cuesta comprender o auditar. Como señaló un estudio, los sistemas basados en órdenes parciales (DAG) requieren más esfuerzo para integrarse con la infraestructura existente y la mentalidad de los desarrolladores. Las herramientas y librerías para redes DAG también son menos maduras en muchos casos, lo que puede empeorar la experiencia de desarrollo frente a Ethereum o Bitcoin.
  • Compromisos de descentralización: Algunas implementaciones DAG actuales sacrifican cierto grado de descentralización para lograr su rendimiento. Por ejemplo, la dependencia de Hedera en un consejo fijo de 39 nodos implica que la red no está abierta a cualquiera para participar en el consenso, lo cual ha recibido críticas pese a sus fortalezas técnicas. IOTA, durante mucho tiempo, dependió de un Coordinador central para evitar ataques, un punto único de fallo/control. El consenso de Nano se basa en un pequeño número de representantes principales que concentran la mayor parte del peso de voto (en 2023, los pocos representantes principales controlaban gran parte del peso en línea), lo que puede considerarse una concentración de poder, aunque es algo análogo a los pools de minería en PoW. En general, se percibe que las blockchains son más fáciles de descentralizar ampliamente (miles de nodos) que algunas redes DAG. Las razones varían: ciertos algoritmos DAG pueden exigir mayores requisitos de ancho de banda (dificultando la participación plena de muchos nodos), o el diseño del proyecto puede mantener intencionalmente una estructura permisionada al inicio. No es una limitación inherente de los DAG, pero en la práctica muchos aún no alcanzan el número de nodos de las grandes blockchains.
  • Necesidad de volumen (seguridad vs rendimiento): Algunas redes DAG requieren paradójicamente un alto volumen de transacciones para funcionar de forma óptima. Por ejemplo, el modelo de seguridad de IOTA se fortalece cuando muchas transacciones honestas se confirman constantemente entre sí (aumentando el peso acumulado de los subtangles honestos). Si la actividad es muy baja, el DAG puede volverse perezoso: puntas sin aprobar rápidamente o atacantes que lo tienen más fácil para intentar sobrescribir partes del grafo. En contraste, una blockchain tradicional como Bitcoin no necesita un número mínimo de transacciones para seguir segura (incluso con pocas transacciones, los mineros siguen compitiendo por extender la cadena). Así, los DAG suelen rendir mejor bajo carga, pero pueden estancarse con uso escaso, salvo que se apliquen medidas especiales (como el coordinador de IOTA o transacciones de “mantenimiento” en segundo plano). Esto significa que el rendimiento puede ser inconsistente: excelente cuando el uso es alto, pero con confirmaciones más lentas en periodos valle o redes con poca actividad.
  • Ordenamiento y compatibilidad: Como los DAG producen un orden parcial de eventos que luego debe hacerse consistente, los algoritmos de consenso pueden ser bastante intrincados. En contextos de contratos inteligentes, se requiere un orden total de las transacciones para evitar doble gastos y mantener la ejecución determinista. Sistemas DAG como Fantom resuelven esto construyendo una capa de ordenamiento (la Opera Chain final), pero no todos los DAG soportan fácilmente smart contracts complejos. El manejo del estado y el modelo de programación puede ser desafiante en un DAG puro. Por ejemplo, si dos transacciones no conflictivas, se pueden confirmar en paralelo en un DAG —eso está bien—. Pero si confligen (p. ej., dos tx gastan el mismo output o dos operaciones sobre el mismo pedido), la red debe decidir una y descartar la otra. Garantizar que todos los nodos tomen la misma decisión de forma descentralizada es más difícil sin una cadena única que lo ordene todo. Por eso muchos proyectos DAG inicialmente evitaron los contratos inteligentes o el estado global y se enfocaron en pagos (donde los conflictos son más sencillos de detectar via UTXO o balances). Interconectar ledgers DAG con ecosistemas blockchain existentes tampoco es trivial; por ejemplo, conectar una EVM a un DAG requirió que Fantom creara un mecanismo para linearizar el DAG para la ejecución EVM. Estas complejidades implican que no todos los casos de uso pueden implementarse inmediatamente sobre un DAG sin un diseño cuidadoso.
  • Almacenamiento y sincronización: Un potencial problema es que, si un ledger DAG permite un volumen alto de transacciones paralelas, el ledger puede crecer rápidamente. Son importantes algoritmos eficientes para podar el DAG (eliminar transacciones antiguas que ya no son necesarias para la seguridad) y para permitir nodos ligeros (los light clients necesitan confirmar transacciones sin almacenar todo el DAG). La investigación ha identificado el desafío de alcanzabilidad: asegurar que las nuevas transacciones puedan alcanzar y referenciar a las anteriores con eficiencia y determinar cómo truncar la historia de forma segura en un DAG. Aunque las blockchains también enfrentan problemas de crecimiento, la estructura del DAG puede complicar tareas como calcular saldos o pruebas para estados parciales, ya que el ledger no es una simple lista de bloques. Es un desafío técnico que puede resolverse, pero añade más carga al diseño de un sistema DAG robusto.
  • Percepción y efectos de red: Más allá de los aspectos técnicos, los proyectos DAG enfrentan el reto de demostrarse en un espacio dominado por blockchains. Muchos desarrolladores y usuarios se sienten más cómodos con las L1 blockchain, y los efectos de red (más usuarios, más dApps, más herramientas en las cadenas existentes) pueden ser difíciles de superar. A veces los DAG se promocionan con afirmaciones audaces (“blockchain killer”), lo que puede invitar al escepticismo. Por ejemplo, un proyecto puede alegar escalabilidad ilimitada, pero los usuarios esperarán ver pruebas en condiciones reales. Hasta que las redes DAG alojan “killer apps” o bases de usuarios grandes, pueden percibirse como experimentales. Además, lograr listados en exchanges, soluciones de custodia, wallets —toda la infraestructura que ya soporta las grandes blockchains— es un esfuerzo continuo para cada nueva plataforma DAG. Hay, por tanto, un desafío de arranque: a pesar de los méritos técnicos, la adopción puede rezagarse por la inercia del ecosistema.

En resumen, los ledgers basados en DAG intercambian simplicidad por rendimiento, y eso conlleva dolores de crecimiento. La complejidad del consenso, la posible centralización en algunas implementaciones y la necesidad de ganarse una confianza comparable a los sistemas blockchain veteranos son obstáculos a superar. La comunidad de investigación estudia activamente estos problemas; por ejemplo, un paper de 2024 de sistematización del conocimiento sobre protocolos DAG destaca la creciente variedad de diseños y la necesidad de comprender integralmente sus compromisos. A medida que los proyectos DAG maduren, probablemente se aborden muchos de estos desafíos (eliminación de coordinadores, participación abierta, mejores herramientas), pero es importante considerarlos al evaluar DAG vs blockchain para una aplicación específica.

Tendencias de adopción y perspectivas futuras

La adopción de la tecnología blockchain basada en DAG todavía está en fases tempranas frente al uso generalizado de las blockchains tradicionales. A 2025, solo un puñado de ledgers públicos usan DAG a escala: entre ellos Hedera Hashgraph, IOTA, Fantom, Nano, Avalanche (en parte de su sistema) y algunos otros. Las blockchains (cadenas lineales) siguen siendo la arquitectura dominante en los sistemas desplegados. Sin embargo, el interés en los DAG ha ido aumentando tanto en la industria como en la academia. Podemos identificar varias tendencias y una perspectiva para los DAG en blockchain:

  • Creciente número de proyectos y estudios DAG: Se aprecia un aumento en la cantidad de proyectos nuevos que exploran arquitecturas DAG o híbridas. Por ejemplo, plataformas recientes como Aleph Zero (una red enfocada en privacidad) usan un consenso DAG para un orden rápido, y Sui y Aptos (cadenas con lenguaje Move) incorporan mempools basados en DAG o motores de ejecución paralela para escalar el rendimiento. La investigación académica en consenso DAG está floreciendo: protocolos como SPECTRE, PHANTOM, GhostDAG y otros más recientes están ampliando los límites, y se publican análisis exhaustivos (papers SoK) para clasificar y evaluar los enfoques DAG. Esto indica una exploración saludable y la aparición de buenas prácticas. A medida que la investigación identifica soluciones a debilidades previas (por ejemplo, cómo lograr equidad, cómo podar DAG, cómo asegurar DAG bajo condiciones dinámicas), es probable que estas innovaciones lleguen a las implementaciones.
  • Modelos híbridos en uso general: Una tendencia interesante es que incluso las blockchains tradicionales están adoptando conceptos DAG para mejorar el rendimiento. Avalanche es un ejemplo principal de híbrido: se presenta como una plataforma blockchain, pero en su núcleo usa un consenso DAG. Ha ganado adopción significativa en DeFi y NFT, demostrando que los usuarios a veces adoptan un sistema DAG sin siquiera notarlo, siempre que satisfaga sus necesidades (rapidez y bajo coste). Esta tendencia puede continuar: DAG como motor interno exponiendo una interfaz blockchain familiar podría ser una estrategia ganadora, facilitando a los desarrolladores la transición. Fantom hizo esto con su Opera Chain, y otros proyectos podrían seguir el mismo camino, convirtiendo la tecnología DAG en el motor invisible de las cadenas de próxima generación.
  • Adopción empresarial y de nicho: Las empresas que requieren alto rendimiento, costes predecibles y que se sienten cómodas con redes más permisionadas se han inclinado a explorar ledgers DAG. El modelo de Consejo de Hedera atrajo a grandes compañías; estas impulsan casos de uso como tokenización de activos para servicios financieros o seguimiento de licencias de software en Hedera. También vemos consorcios considerar DLT basadas en DAG para liquidaciones en telecomunicaciones, seguimiento de impresiones publicitarias o transferencias interbancarias, donde el volumen es alto y necesitan finalidad. IOTA ha participado en proyectos financiados por la Unión Europea para infraestructura, pilotos de identidad digital e IoT industrial: son caminos de adopción a largo plazo, pero demuestran que los DAG están en el radar más allá de la comunidad cripto. Si algunas de estas pruebas tienen éxito y escalan, podríamos ver adopciones sectoriales de redes DAG (p. ej., un consorcio IoT usando un ledger DAG para compartir y monetizar datos).
  • Progreso comunitario y descentralización: Las críticas tempranas a las redes DAG (coordinadores centrales, validadores permisionados) se están abordando gradualmente. Coordicide de IOTA, si tiene éxito, eliminará el coordinador central y transformará IOTA en una red completamente descentralizada con una forma de staking y validadores comunitarios. Hedera ha abierto su código y ha insinuado planes para descentralizar aún más la gobernanza a largo plazo (más allá del consejo inicial). La comunidad de Nano trabaja continuamente para distribuir el peso de los representantes (alentando a más usuarios a operar nodos o repartir sus delegaciones). Estos pasos son importantes para la credibilidad y confianza en las redes DAG, alineándolas más con la ética blockchain. Conforme aumente la descentralización, es probable que más usuarios y desarrolladores cripto-nativos estén dispuestos a construir sobre o contribuir a proyectos DAG, acelerando su crecimiento.
  • Interoperabilidad y uso como capa 2: También podríamos ver a los DAG usarse como capas de escalado o redes interoperables en lugar de ecosistemas independientes. Por ejemplo, un ledger DAG podría servir como capa 2 de alta velocidad para Ethereum, anclando periódicamente resultados agregados en Ethereum para seguridad. Alternativamente, redes DAG podrían conectarse mediante puentes a blockchains existentes, permitiendo mover activos hacia donde sea más barato transaccionar. Si la experiencia de usuario es fluida, los usuarios podrían operar en una red DAG (disfrutando de alta velocidad) mientras confían en una blockchain base para la liquidación o seguridad, obteniendo lo mejor de ambos mundos. Algunos proyectos contemplan este enfoque por capas.
  • Perspectiva futura – complemento, no reemplazo (por ahora): Es revelador que incluso los defensores suelen decir que los DAG son una “alternativa” o complemento a las blockchains, más que un reemplazo total. En el futuro cercano podemos esperar redes heterogéneas: algunas basadas en blockchain, otras en DAG, cada una optimizada para distintos escenarios. Los DAG podrían alimentar la columna vertebral de alta frecuencia de Web3 (gestionando el trabajo pesado de microtransacciones y registro de datos), mientras que las blockchains podrían seguir siendo preferidas para la liquidación, transacciones de muy alto valor o donde la simplicidad y robustez sean críticas. A más largo plazo, si los sistemas DAG siguen demostrando su valía y logran igualar o superar la seguridad y descentralización, es concebible que se conviertan en el paradigma dominante de los ledgers distribuidos. El enfoque en eficiencia energética también alinea a los DAG con las presiones globales de sostenibilidad, lo que podría hacerlos más aceptables política y socialmente a largo plazo. Los beneficios de huella de carbono reducida, junto con las ventajas de rendimiento, podrían ser un impulsor clave si los entornos regulatorios enfatizan la tecnología verde.
  • Sentimiento comunitario: Existe un segmento de la comunidad cripto muy entusiasmado con los DAG, viéndolos como el siguiente paso evolutivo de la DLT. Es común oír frases como “los DAG son el futuro; las blockchains se verán como el internet por dial-up frente a la banda ancha de los DAG”. Este entusiasmo debe equilibrarse con resultados prácticos, pero sugiere que talento e inversiones están fluyendo hacia este ámbito. Por otro lado, persisten los escépticos, señalando que no debe sacrificarse la descentralización y seguridad por velocidad, por lo que los proyectos DAG deberán demostrar que pueden lograr lo mejor de ambos mundos.

En conclusión, el futuro de los DAG en blockchain es cautelosamente optimista. Actualmente las blockchains siguen dominando, pero las plataformas basadas en DAG se están abriendo espacio y demostrando su capacidad en dominios específicos. A medida que la investigación resuelva los desafíos actuales, probablemente veremos más convergencia de ideas: blockchains adoptando mejoras inspiradas en DAG y redes DAG asimilando las lecciones de las blockchains en gobernanza y seguridad. Los investigadores y desarrolladores Web3 harían bien en seguir de cerca los avances DAG, ya que representan una rama significativa de la evolución de los ledgers distribuidos. En los próximos años podríamos ver un ecosistema diverso de ledgers interoperables donde los DAG desempeñen un papel vital en la escalabilidad y aplicaciones especializadas, acercándonos a la visión de una web escalable y descentralizada.

En palabras de una publicación de Hedera: los ledgers basados en DAG son “un paso prometedor” en la evolución de las monedas digitales y la tecnología descentralizada: no una bala de plata para reemplazar completamente a las blockchains, sino una innovación importante que trabajará junto a ellas e inspirará mejoras en todo el panorama de los ledgers distribuidos.

Fuentes: La información de este informe proviene de diversas fuentes confiables, como investigaciones académicas sobre consenso DAG, documentación oficial y whitepapers de proyectos como IOTA, Hedera Hashgraph, Fantom y Nano, además de blogs técnicos y artículos que aportan perspectivas sobre las diferencias DAG vs blockchain. Estas referencias respaldan el análisis comparativo, los beneficios y los estudios de caso discutidos. El diálogo constante en la comunidad de investigación Web3 sugiere que los DAG seguirán siendo un tema candente mientras buscamos resolver la trinidad de escalabilidad, seguridad y descentralización en la próxima generación de tecnología blockchain.

Cómo el muestreo de disponibilidad de datos de Celestia alcanza 1 terabit por segundo: una inmersión técnica profunda

· 17 min de lectura
Dora Noda
Software Engineer

El 13 de enero de 2026, Celestia rompió todas las expectativas con una sola prueba de rendimiento: 1 terabit por segundo de capacidad de procesamiento de datos a través de 498 nodos distribuidos. Para ponerlo en contexto, esa es suficiente banda ancha para procesar el volumen total de transacciones diarias de los rollups de Capa 2 más grandes de Ethereum — en menos de un segundo.

Pero la verdadera historia no es la cifra del titular. Es la infraestructura criptográfica que lo hace posible: Muestreo de Disponibilidad de Datos (DAS), un avance que permite a los nodos ligeros con recursos limitados verificar la disponibilidad de los datos de la blockchain sin descargar bloques enteros. A medida que los rollups compiten para escalar más allá del almacenamiento de blobs nativo de Ethereum, entender cómo Celestia logra este rendimiento — y por qué es importante para la economía de los rollups — nunca ha sido más crítico.

El cuello de botella de la disponibilidad de datos: Por qué los rollups necesitan una solución mejor

La escalabilidad de la blockchain se ha visto limitada durante mucho tiempo por un compromiso fundamental: ¿cómo se verifica que los datos de las transacciones están realmente disponibles sin requerir que cada nodo descargue y almacene todo? Este es el problema de disponibilidad de datos, y es el principal cuello de botella para el escalado de los rollups.

El enfoque de Ethereum — que requiere que cada nodo completo descargue bloques íntegros — crea una barrera de accesibilidad. A medida que aumenta el tamaño de los bloques, menos participantes pueden permitirse el ancho de banda y el almacenamiento necesarios para ejecutar nodos completos, lo que pone en peligro la descentralización. Los rollups que publican datos en la L1 de Ethereum se enfrentan a costes prohibitivos: en picos de demanda, un solo lote puede costar miles de dólares en comisiones de gas.

Aquí es donde entran las capas modulares de disponibilidad de datos. Al separar la disponibilidad de datos de la ejecución y el consenso, protocolos como Celestia, EigenDA y Avail prometen reducir drásticamente los costes de los rollups manteniendo las garantías de seguridad. ¿La innovación de Celestia? Una técnica de muestreo que invierte el modelo de verificación: en lugar de descargarlo todo para verificar la disponibilidad, los nodos ligeros muestrean aleatoriamente pequeños fragmentos y logran una confianza estadística de que el conjunto de datos completo existe.

Explicación del Muestreo de Disponibilidad de Datos: Cómo verifican los nodos ligeros sin descargar

En su núcleo, el DAS es un mecanismo de verificación probabilística. Así es como funciona:

Muestreo aleatorio y generación de confianza

Los nodos ligeros no descargan bloques enteros. En su lugar, realizan múltiples rondas de muestreo aleatorio de pequeñas porciones de los datos del bloque. Cada muestra exitosa aumenta la confianza en que el bloque completo está disponible.

La matemática es elegante: si un validador malicioso retiene incluso un pequeño porcentaje de los datos del bloque, los nodos ligeros honestos detectarán la falta de disponibilidad con una alta probabilidad tras solo unas pocas rondas de muestreo. Esto crea un modelo de seguridad donde incluso los dispositivos con recursos limitados pueden participar en la verificación de la disponibilidad de datos.

Específicamente, cada nodo ligero elige aleatoriamente un conjunto de coordenadas únicas en una matriz de datos extendida y solicita a los nodos puente las participaciones de datos correspondientes junto con pruebas de Merkle. Si el nodo ligero recibe respuestas válidas para cada consulta, la probabilidad estadística garantiza que los datos de todo el bloque están disponibles.

Codificación Reed-Solomon 2D: El fundamento matemático

Celestia emplea un esquema de codificación Reed-Solomon bidimensional para que el muestreo sea tanto eficiente como resistente al fraude. Aquí está el flujo técnico:

  1. Los datos del bloque se dividen en fragmentos de k × k, formando un cuadrado de datos.
  2. La codificación de borrado Reed-Solomon extiende esto a una matriz de 2k × 2k (añadiendo redundancia).
  3. Se calculan las raíces de Merkle para cada fila y columna de la matriz extendida.
  4. La raíz de Merkle de estas raíces se convierte en el compromiso de datos del bloque en la cabecera del bloque.

Este enfoque tiene una propiedad crítica: si falta cualquier parte de la matriz extendida, la codificación se rompe y los nodos ligeros detectarán inconsistencias al verificar las pruebas de Merkle. Un atacante no puede retener datos selectivamente sin ser capturado.

Namespaced Merkle Trees: Aislamiento de datos específico para rollups

Aquí es donde la arquitectura de Celestia brilla para entornos de múltiples rollups: Namespaced Merkle Trees (NMTs).

Un árbol de Merkle estándar agrupa los datos de forma arbitraria. Un NMT, sin embargo, etiqueta cada nodo con los identificadores de espacio de nombres mínimos y máximos de sus hijos, y ordena las hojas por espacio de nombres. Esto permite a los rollups:

  • Descargar solo sus propios datos de la capa de DA.
  • Demostrar la integridad de los datos de su espacio de nombres con una prueba de Merkle.
  • Ignorar por completo los datos irrelevantes de otros rollups.

Para un operador de rollup, esto significa que no está pagando costes de ancho de banda para descargar datos de cadenas competidoras. Usted obtiene exactamente lo que necesita, lo verifica con pruebas criptográficas y continúa. Esta es una ganancia de eficiencia masiva en comparación con las cadenas monolíticas donde todos los participantes deben procesar todos los datos.

La actualización Matcha: Escalando a bloques de 128 MB

En 2025, Celestia activó la actualización Matcha, un momento decisivo para la disponibilidad de datos modular. Esto es lo que cambió:

Expansión del Tamaño de Bloque

Matcha aumenta el tamaño máximo de bloque de 8 MB a 128 MB — un aumento de capacidad de 16x. Esto se traduce en:

  • Tamaño del cuadrado de datos: 128 → 512
  • Tamaño máximo de transacción: 2 MB → 8 MB
  • Rendimiento sostenido: 21.33 MB / s en testnet (abril de 2025)

Para poner esto en perspectiva, el objetivo de recuento de blobs de Ethereum es de 6 por bloque (aproximadamente 0.75 MB), ampliable a 9 blobs. Los bloques de 128 MB de Celestia superan esta capacidad en más de 100 veces.

Propagación de Bloques de Alto Rendimiento

La limitación no era solo el tamaño del bloque — era la velocidad de propagación de los bloques. Matcha introduce un nuevo mecanismo de propagación (CIP-38) que difunde de forma segura bloques de 128 MB a través de la red sin causar la desincronización de los validadores.

En la testnet, la red mantuvo tiempos de bloque de 6 segundos con bloques de 128 MB, logrando un rendimiento de 21.33 MB / s. Esto representa 16 veces la capacidad actual de la mainnet.

Reducción de Costes de Almacenamiento

Uno de los cambios económicos más pasados por alto: Matcha redujo la ventana mínima de poda de datos de 30 días a 7 días + 1 hora (CIP-34).

Para los nodos bridge, esto reduce los requisitos de almacenamiento de 30 TB a 7 TB con los niveles de rendimiento proyectados. Los menores costes operativos para los proveedores de infraestructura se traducen en una disponibilidad de datos más barata para los rollups.

Renovación de la Economía del Token

Matcha también mejoró la economía del token TIA:

  • Recorte de inflación: Del 5 % al 2.5 % anual
  • Aumento de la comisión del validador: El máximo se elevó del 10 % al 20 %
  • Mejora de las propiedades de colateral: Haciendo que TIA sea más adecuado para casos de uso DeFi

En conjunto, estos cambios posicionan a Celestia para la siguiente fase: escalar hacia un rendimiento de 1 GB / s y más allá.

Economía de los Rollups: Por qué el 50 % de cuota de mercado de DA es importante

A principios de 2026, Celestia posee aproximadamente el 50 % de la cuota de mercado de disponibilidad de datos, habiendo procesado más de 160 GB de datos de rollups. Este dominio refleja la adopción en el mundo real por parte de los desarrolladores de rollups que priorizan el coste y la escalabilidad.

Comparación de Costes: Celestia frente a los Blobs de Ethereum

El modelo de tarifas de Celestia es sencillo: los rollups pagan por blob en función del tamaño y los precios actuales del gas. A diferencia de las capas de ejecución donde domina la computación, la disponibilidad de datos trata fundamentalmente sobre el ancho de banda y el almacenamiento — recursos que escalan de forma más predecible con las mejoras de hardware.

Para los operadores de rollups, el cálculo es convincente:

  • Publicación en Ethereum L1: En momentos de máxima demanda, el envío de lotes (batches) puede costar entre 1,000 ymaˊsde10,000y más de 10,000 en gas
  • Celestia DA: Costes inferiores a un dólar por lote para datos equivalentes

Esta reducción de costes de más de 100 veces es la razón por la que los rollups están migrando a soluciones de DA modular. Una disponibilidad de datos más barata se traduce directamente en tarifas de transacción más bajas para los usuarios finales.

La Estructura de Incentivos de los Rollups

El modelo económico de Celestia alinea los incentivos:

  1. Los Rollups pagan por el almacenamiento de blobs proporcionalmente al tamaño de los datos
  2. Los Validadores ganan tarifas por asegurar la capa de DA
  3. Los Nodos bridge sirven datos a los nodos ligeros y ganan tarifas por servicio
  4. Los Nodos ligeros (light nodes) muestrean datos de forma gratuita, contribuyendo a la seguridad

Esto crea un volante de inercia (flywheel): a medida que más rollups adoptan Celestia, aumentan los ingresos de los validadores, atrayendo a más stakers, lo que fortalece la seguridad, lo que a su vez atrae a más rollups.

La Competencia: EigenDA, Avail y los Blobs de Ethereum

La cuota de mercado del 50 % de Celestia está bajo asedio. Tres competidores principales están escalando agresivamente:

EigenDA: Restaking Nativo de Ethereum

EigenDA aprovecha la infraestructura de restaking de EigenLayer para ofrecer disponibilidad de datos de alto rendimiento para los rollups de Ethereum. Ventajas clave:

  • Seguridad económica: Asegurada por ETH re-staked (actualmente el 93.9 % del mercado de restaking)
  • Integración estrecha con Ethereum: Compatibilidad nativa con el mercado de blobs de Ethereum
  • Mayores promesas de rendimiento: Aunque las versiones anteriores carecían de seguridad económica activa

Los críticos señalan que la dependencia de EigenDA en el restaking introduce un riesgo de cascada: si un AVS experimenta un slashing, podría propagarse a los poseedores de stETH de Lido y desestabilizar el mercado de LST en general.

Avail: DA Universal para Todas las Cadenas

A diferencia del enfoque de Celestia en Cosmos y la orientación a Ethereum de EigenDA, Avail se posiciona como una capa de DA universal compatible con cualquier arquitectura de blockchain:

  • Soporte para modelos UTXO, de Cuentas y de Objetos: Funciona con L2 de Bitcoin, cadenas EVM y sistemas basados en Move
  • Diseño modular: Separa completamente la DA del consenso
  • Visión entre ecosistemas: Aspira a servir como la capa de DA neutral para todas las blockchains

¿El desafío de Avail? Es el competidor más reciente, con un retraso en las integraciones de rollups en vivo en comparación con Celestia y EigenDA.

Blobs Nativos de Ethereum: EIP-4844 y más allá

La EIP-4844 (actualización Dencun) de Ethereum introdujo transacciones que transportan blobs, ofreciendo a los rollups una alternativa de publicación de datos más barata que calldata. Capacidad actual:

  • Objetivo: 6 blobs por bloque (~ 0.75 MB)
  • Máximo: 9 blobs por bloque (~ 1.125 MB)
  • Expansión futura: Actualizaciones de PeerDAS y zkEVM con el objetivo de más de 10,000 TPS

Sin embargo, los blobs de Ethereum conllevan compromisos:

  • Ventana de retención corta: Los datos se eliminan después de ~ 18 días
  • Contención de recursos compartidos: Todos los rollups compiten por el mismo espacio de blobs
  • Limitación de escalabilidad: Incluso con PeerDAS, la capacidad de blobs alcanza su máximo muy por debajo de la hoja de ruta de Celestia

Para los rollups que priorizan la alineación con Ethereum, los blobs son atractivos. Para aquellos que necesitan un rendimiento masivo y retención de datos a largo plazo, Celestia sigue siendo la mejor opción.

Fibre Blockspace: La Visión de 1 Terabit

El 14 de enero de 2026, el cofundador de Celestia, Mustafa Al-Bassam, presentó Fibre Blockspace, un nuevo protocolo que apunta a 1 terabit por segundo de rendimiento con una latencia de milisegundos. Esto representa una mejora de 1.500x sobre los objetivos de la hoja de ruta original de hace apenas un año.

Detalles del Benchmark

El equipo logró el benchmark de 1 Tbps utilizando:

  • 498 nodos distribuidos en América del Norte
  • Instancias de GCP con 48 - 64 vCPUs y 90 - 128 GB de RAM cada una
  • Enlaces de red de 34 - 45 Gbps por instancia

Bajo estas condiciones controladas, el protocolo mantuvo un rendimiento de datos de 1 terabit por segundo, un salto asombroso en el rendimiento de la blockchain.

Codificación ZODA: 881x Más Rápida que KZG

En el núcleo de Fibre se encuentra ZODA, un novedoso protocolo de codificación que Celestia afirma que procesa datos 881x más rápido que las alternativas basadas en compromisos KZG utilizadas por EigenDA y los blobs de Ethereum.

Los compromisos KZG (compromisos polinómicos Kate-Zaverucha-Goldberg) son criptográficamente elegantes pero computacionalmente costosos. ZODA intercambia algunas propiedades criptográficas por ganancias masivas de velocidad, lo que hace que el rendimiento a escala de terabits sea alcanzable en hardware convencional.

La Visión: Cada Mercado se Traslada On-chain

La declaración de la hoja de ruta de Al-Bassam captura la ambición de Celestia:

"Si 10 KB / s permitieron los AMM, y 10 MB / s permitieron los libros de órdenes on-chain, entonces 1 Tbps es el salto que permite que cada mercado se traslade a la cadena".

La implicación: con suficiente ancho de banda de disponibilidad de datos, los mercados financieros actualmente dominados por exchanges centralizados — spot, derivados, opciones, mercados de predicción — podrían migrar a una infraestructura blockchain transparente y sin permisos.

Realidad: Benchmarks frente a Producción

Las condiciones de los benchmarks rara vez coinciden con el caos del mundo real. El resultado de 1 Tbps se logró en un entorno de testnet controlado con instancias en la nube de alto rendimiento. La verdadera prueba vendrá cuando:

  • Los rollups reales impulsen cargas de trabajo de producción
  • Las condiciones de la red varíen (picos de latencia, pérdida de paquetes, ancho de banda asimétrico)
  • Los validadores adversarios intenten ataques de retención de datos

El equipo de Celestia reconoce esto: Fibre se ejecuta de forma paralela a la capa DA de L1 existente, lo que ofrece a los usuarios la posibilidad de elegir entre una infraestructura probada en batalla y un rendimiento experimental de vanguardia.

Qué Significa Esto para los Desarrolladores de Rollups

Si estás construyendo un rollup, la arquitectura DAS de Celestia ofrece ventajas convincentes:

Cuándo Elegir Celestia

  • Aplicaciones de alto rendimiento: Juegos, redes sociales, micropagos
  • Casos de uso sensibles a los costos: Rollups que apuntan a tarifas de transacción de menos de un centavo
  • Flujos de trabajo intensivos en datos: Inferencia de IA, integraciones de almacenamiento descentralizado
  • Ecosistemas multi-rollup: Proyectos que lanzan múltiples rollups especializados

Cuándo Mantenerse con los Blobs de Ethereum

  • Alineación con Ethereum: Si tu rollup valora el consenso social y la seguridad de Ethereum
  • Arquitectura simplificada: Los blobs ofrecen una integración más estrecha con las herramientas de Ethereum
  • Menor complejidad: Menos infraestructura que gestionar (sin una capa DA separada)

Consideraciones de Integración

La capa DA de Celestia se integra con los principales frameworks de rollup:

  • Polygon CDK: Componente DA fácilmente conectable
  • OP Stack: Adaptadores DA personalizados disponibles
  • Arbitrum Orbit: Integraciones creadas por la comunidad
  • Rollkit: Soporte nativo de Celestia

Para los desarrolladores, adoptar Celestia a menudo significa intercambiar el módulo de disponibilidad de datos en su stack de rollup, con cambios mínimos en la lógica de ejecución o liquidación.

Las Guerras de Disponibilidad de Datos: Qué Viene Después

La tesis de la blockchain modular se está poniendo a prueba en tiempo real. La cuota de mercado del 50 % de Celestia, el impulso de restaking de EigenDA y el posicionamiento universal de Avail configuran una competencia a tres bandas por la preferencia de los rollups.

Tendencias Clave a Seguir

  1. Escalada del rendimiento: Celestia apunta a 1 GB / s → 1 Tbps; EigenDA y Avail responderán
  2. Modelos de seguridad económica: ¿Alcanzarán los riesgos del restaking a EigenDA? ¿Podrá escalar el conjunto de validadores de Celestia?
  3. Expansión de blobs de Ethereum: Las actualizaciones de PeerDAS y zkEVM podrían cambiar la dinámica de costos
  4. DA entre cadenas: La visión universal de Avail frente a las soluciones específicas de cada ecosistema

El Ángulo de BlockEden.xyz

Para los proveedores de infraestructura, dar soporte a múltiples capas DA se está convirtiendo en un requisito básico. Los desarrolladores de rollups necesitan un acceso RPC confiable no solo a Ethereum, sino también a Celestia, EigenDA y Avail.

BlockEden.xyz ofrece una infraestructura RPC de alto rendimiento para Celestia y más de 10 ecosistemas blockchain, lo que permite a los equipos de rollup construir sobre stacks modulares sin gestionar la infraestructura de nodos. Explore nuestras APIs de disponibilidad de datos para acelerar el despliegue de su rollup.

Conclusión: La Disponibilidad de Datos como el Nuevo Foso Competitivo

El Muestreo de Disponibilidad de Datos (DAS) de Celestia no es solo una mejora incremental; es un cambio de paradigma en cómo las blockchains verifican el estado. Al permitir que los nodos ligeros participen en la seguridad a través del muestreo probabilístico, Celestia democratiza la verificación de una manera que las cadenas monolíticas no pueden.

Los bloques de 128 MB de la actualización Matcha y la visión de 1 Tbps de Fibre representan puntos de inflexión para la economía de los rollups. Cuando los costos de disponibilidad de datos caen 100x, categorías de aplicaciones completamente nuevas se vuelven viables: trading de alta frecuencia on-chain, juegos multijugador en tiempo real, coordinación de agentes de IA a escala.

Pero la tecnología por sí sola no determina a los ganadores. Las guerras de DA se decidirán por tres factores:

  1. Adopción de rollups: ¿Qué cadenas se comprometen realmente con despliegues en producción?
  2. Sostenibilidad económica: ¿Pueden estos protocolos mantener costos bajos a medida que escala el uso?
  3. Resiliencia de seguridad: ¿Qué tan bien resisten los sistemas basados en muestreo a los ataques sofisticados?

La cuota de mercado del 50 % de Celestia y los 160 GB de datos de rollup procesados demuestran que el concepto funciona. Ahora la pregunta pasa de "¿puede escalar la DA modular?" a "¿qué capa DA dominará la economía de los rollups?".

Para los constructores que navegan por este panorama, el consejo es claro: abstraiga su capa DA. Diseñe rollups para intercambiar entre Celestia, EigenDA, blobs de Ethereum y Avail sin necesidad de rediseñar la arquitectura. Las guerras por la disponibilidad de datos no han hecho más que empezar, y puede que los ganadores no sean quienes esperamos.


Fuentes:

Más allá de lo monolítico frente a lo modular: cómo Zero Network de LayerZero redefine el manual de escalabilidad blockchain

· 12 min de lectura
Dora Noda
Software Engineer

Cada blockchain que ha logrado escalar lo ha hecho obligando a cada validador a repetir el mismo trabajo. Esa única elección de diseño —llámenla el requisito de replicación— ha limitado el rendimiento durante décadas. Zero Network de LayerZero propone eliminarlo por completo, y los socios institucionales que se están sumando sugieren que la industria podría estar tomando esa afirmación en serio.

La paradoja de la Capa 2: cómo las tarifas de $0,001 están rompiendo el modelo de negocio de escalado de Ethereum

· 14 min de lectura
Dora Noda
Software Engineer

Las redes de Capa 2 de Ethereum han logrado algo extraordinario en 2025 : han reducido los costos de transacción en más de un 90 %, haciendo que las interacciones en la blockchain sean casi gratuitas. Pero este triunfo de la ingeniería ha creado una crisis inesperada — el mismo modelo de negocio que financia estas redes se está colapsando bajo el peso de su propio éxito.

A medida que las tarifas de transacción caen en picada hacia los $ 0,001 por operación, los operadores de Capa 2 se enfrentan a una pregunta cruda : ¿ cómo se mantiene una infraestructura de miles de millones de dólares cuando su principal flujo de ingresos se está evaporando ?

El gran colapso de las tarifas de 2025

Los números cuentan una historia dramática. Entre enero de 2025 y enero de 2026, los precios promedio del gas en las redes de Capa 2 de Ethereum cayeron de 7,141 gwei a aproximadamente 0,50 gwei — una asombrosa reducción del 93 %. Hoy en día, las transacciones en Base promedian los 0,01,mientrasqueArbitrumyOptimismrondanlos0,01, mientras que Arbitrum y Optimism rondan los 0,15 - 0,20, con muchas operaciones costando ahora apenas fracciones de centavo.

¿ El catalizador ? EIP-4844, la actualización Dencun de Ethereum lanzada en marzo de 2024, que introdujo los " blobs " — paquetes de datos temporales que las redes de Capa 2 pueden usar para una liquidación rentable. A diferencia de los calldata tradicionales almacenados permanentemente en Ethereum, los blobs permanecen disponibles durante aproximadamente 18 días, lo que permite que su precio sea drásticamente más bajo.

El impacto fue inmediato y devastador para el modelo de ingresos tradicional. Optimism, Arbitrum y Base experimentaron reducciones de tarifas del 90 - 99 % para muchos tipos de transacciones. Las tarifas medias de los blobs cayeron hasta los $ 0,0000000005, lo que hace que las interacciones de los usuarios sean casi insignificantes por su bajo costo. Se han publicado más de 950 000 blobs en Ethereum desde el lanzamiento de EIP-4844, remodelando fundamentalmente la economía de las operaciones de Capa 2.

Para los usuarios y desarrolladores, esto es el paraíso. Para los operadores de Capa 2 que cuentan con los ingresos del secuenciador, es una amenaza existencial.

Ingresos del secuenciador : El flujo de ingresos en peligro de extinción

Tradicionalmente, las redes de Capa 2 han ganado dinero a través de un modelo directo : cobran tarifas a los usuarios por procesar transacciones y luego pagan una parte de esas tarifas a Ethereum por la disponibilidad de datos y la liquidación. La diferencia entre lo que cobran y lo que pagan se convierte en su beneficio — los ingresos del secuenciador.

Este modelo funcionó brillantemente cuando las tarifas de la Capa 2 eran sustanciales. Pero con los costos de transacción acercándose a cero, el margen se ha vuelto extremadamente delgado.

La economía revela el desafío de manera cruda. Base, a pesar de liderar el grupo, promedia solo 185291eningresosdiariosdurantelosuˊltimos180dıˊas.Arbitrumrecaudaaproximadamente185 291 en ingresos diarios durante los últimos 180 días. Arbitrum recauda aproximadamente 55 025 por día. Estas cifras, aunque no son insignificantes, deben sostener una infraestructura extensa, equipos de desarrollo y operaciones continuas para redes que procesan cientos de miles de transacciones diarias.

La situación se vuelve más precaria al examinar las ganancias brutas anuales. Base lidera con casi 30millonesparaelan~o,mientrasquetantoArbitrumcomoOptimismhanrecaudadoalrededorde30 millones para el año, mientras que tanto Arbitrum como Optimism han recaudado alrededor de 9,5 millones cada uno. Estas cifras deben sostener redes que procesan colectivamente el 60 - 70 % del volumen total de transacciones de Ethereum — una carga operativa masiva para retornos relativamente modestos.

La tensión fundamental es clara : las redes de Capa 2 deben encontrar un nicho que justifique su existencia fuera de la red principal de Ethereum y generar ingresos suficientes para mantenerse por sí mismas. Como señaló un análisis de la industria, " la rentabilidad reside en la diferencia entre lo que las L2 ganan de los usuarios y lo que pagan a Ethereum " — pero esa diferencia se reduce cada día.

La divergencia del MEV : Diferentes caminos hacia la captura de valor

Ante la presión sobre los ingresos del secuenciador, las redes de Capa 2 están explorando el Valor Máximo Extraíble ( MEV ) como una fuente de ingresos alternativa. Pero sus enfoques difieren drásticamente, creando distintas ventajas competitivas y desafíos.

La filosofía de ordenamiento justo de Arbitrum

Arbitrum emplea un sistema de ordenamiento First-Come First-Serve ( FCFS ), diseñado para reducir el daño al usuario por la extracción de MEV. Esta filosofía prioriza la experiencia del usuario sobre la maximización de ingresos, lo que resulta en una actividad de MEV significativamente menor — solo el 7 % del uso de gas on-chain en comparación con más del 50 % en las redes competidoras.

Sin embargo, Arbitrum no está abandonando el MEV por completo. La red está explorando futuras implementaciones de secuenciadores descentralizados que podrían introducir subastas para oportunidades de MEV, devolviendo potencialmente algo de valor a los usuarios o a la tesorería del protocolo. Esto representa un camino intermedio : preservar la equidad mientras se captura valor económico.

El enfoque de subastas de Base y Optimism

En contraste, Base y Optimism utilizan Priority Gas Auctions ( PGA ), donde los usuarios pueden ofertar tarifas más altas para obtener prioridad en las transacciones. Este diseño permite inherentemente más actividad de MEV — el MEV optimista representa entre el 51 - 55 % del uso total de gas on-chain en estas redes.

¿ El problema ? Las tasas de éxito para el arbitraje real siguen siendo extremadamente bajas en los rollups de OP-Stack, rondando el 1 % — mucho más bajas que en Arbitrum. La mayor parte del gas se gasta en " sondas de interacción " — cálculos on-chain que buscan oportunidades de arbitraje que rara vez se materializan. Esto crea una situación peculiar en la que la actividad de MEV consume recursos sin generar un valor proporcional.

A pesar de las tasas de éxito más bajas, el gran volumen de actividad relacionada con el MEV en Base contribuye a su liderazgo en ingresos. La red procesa más de 1 000 transacciones por segundo a un costo mínimo, convirtiendo el volumen en una ventaja competitiva.

Modelos de ingresos alternativos: más allá de las comisiones de transacción

A medida que los ingresos tradicionales de los secuenciadores resultan insuficientes, las redes de Capa 2 están siendo pioneras en modelos de negocio alternativos que podrían remodelar la economía de la infraestructura blockchain.

La divergencia en las licencias

Arbitrum y Optimism han adoptado enfoques drásticamente diferentes para monetizar sus pilas tecnológicas.

Participación en los ingresos de Orbit de Arbitrum: Arbitrum adopta un modelo de "código fuente comunitario", que requiere que las cadenas construidas sobre su marco Orbit contribuyan con el 10 % de los ingresos del protocolo si se liquidan fuera del ecosistema de Arbitrum. Esto crea una estructura similar a las regalías que genera ingresos incluso cuando las cadenas no utilizan directamente Arbitrum para la liquidación.

La apuesta de código abierto de Optimism: El OP Stack de Optimism es completamente de código abierto bajo la licencia MIT, lo que permite que cualquier persona obtenga el código, lo modifique libremente y construya cadenas de Capa 2 personalizadas sin regalías ni tarifas iniciales. El reparto de ingresos solo se activa cuando una cadena se une al ecosistema oficial de Optimism, la "Superchain".

Esto crea una dinámica interesante: Optimism apuesta por el crecimiento del ecosistema y la participación voluntaria, mientras que Arbitrum impone una alineación económica a través de requisitos de licencia. El tiempo dirá qué enfoque equilibra mejor el crecimiento con la sostenibilidad.

Rollups empresariales y servicios profesionales

Quizás la alternativa más prometedora surgió en 2025: el auge del "rollup empresarial". Las principales instituciones están lanzando redes personalizadas de Capa 2 y están dispuestas a pagar por servicios profesionales de despliegue, mantenimiento y soporte.

Esto refleja los modelos de negocio tradicionales de código abierto: el código es gratuito, pero la experiencia operativa exige precios premium. El recientemente lanzado OP Enterprise de Optimism ejemplifica este enfoque, ofreciendo un servicio de guante blanco a las instituciones que construyen infraestructura blockchain personalizada.

La propuesta de valor es convincente para las empresas. Obtienen acceso a la liquidez y a los efectos de red de la economía de Ethereum mientras mantienen capacidades personalizadas de seguridad, privacidad y cumplimiento. Como señala un informe del sector, "las instituciones pueden tener su propio L2 institucional personalizado que se conecta a la liquidez y a los efectos de red de la economía de Ethereum".

Capas 3 y cadenas específicas de aplicaciones

Los protocolos DeFi de alto rendimiento exigen cada vez más capacidades que las redes genéricas de Capa 2 no pueden proporcionar de manera eficiente: ejecución predecible, lógica de liquidación flexible, control granular sobre el orden de las transacciones y la capacidad de capturar MEV internamente.

Aquí entran las Capas 3 (L3) y las cadenas específicas de aplicaciones construidas sobre marcos como Arbitrum Orbit. Estas redes especializadas permiten que los protocolos internalicen el MEV, personalicen la economía y se optimicen para casos de uso específicos. Para los operadores de Capa 2, proporcionar la infraestructura y las herramientas para estas cadenas especializadas representa una nueva vía de ingresos que no depende del procesamiento de transacciones de bajo margen.

La visión estratégica es clara: las redes de Capa 2 ganan distribuyendo su infraestructura hacia el exterior y asociándose con grandes plataformas, no compitiendo únicamente en costes de transacción.

La cuestión de la sostenibilidad: ¿pueden las L2 sobrevivir a la guerra de comisiones?

La tensión fundamental a la que se enfrentan las redes de Capa 2 en 2026 es si alguna combinación de modelos de ingresos alternativos puede compensar la desaparición de las comisiones por transacción.

Considere las cifras: si las comisiones de transacción continúan con una tendencia hacia los 0,001 $ y los costes de los blobs permanecen cerca de cero, incluso procesar millones de transacciones diarias genera ingresos mínimos. Base, a pesar de su liderazgo en volumen, debe encontrar fuentes de ingresos adicionales para justificar las operaciones en curso a escala.

La situación se complica por las persistentes preocupaciones sobre la centralización. La mayoría de las redes de Capa 2 siguen estando mucho más centralizadas de lo que parecen, y la descentralización se trata como un objetivo a largo plazo en lugar de una prioridad inmediata. Esto crea un riesgo regulatorio y dudas sobre la acumulación de valor a largo plazo: si una red está centralizada, ¿por qué deberían los usuarios confiar en ella por encima de las bases de datos tradicionales con "criptografía inteligente"?

Los cambios estructurales recientes sugieren que la propia Ethereum reconoce el problema. La actualización Fusaka tiene como objetivo "reparar" la cadena de captura de valor entre la Capa 1 y la Capa 2, exigiendo que las L2 paguen un "tributo" incrementado a la red principal de Ethereum. Esta redistribución ayuda a Ethereum, pero reduce aún más los márgenes ya estrechos de la Capa 2.

Modelos de ingresos para 2026 y más allá

Mirando hacia el futuro, es probable que las redes de Capa 2 exitosas adopten estrategias de ingresos híbridas:

  1. Volumen sobre margen: El enfoque de Base —procesar volúmenes masivos de transacciones con un beneficio mínimo por transacción— puede funcionar si se alcanza la escala necesaria. Los más de 1.000 TPS de Base con comisiones de 0,01 generanmaˊsingresosquelos400TPSdeArbitrumconcomisionesde0,20generan más ingresos que los 400 TPS de Arbitrum con comisiones de 0,20.

  2. Captura selectiva de MEV: Las redes deben equilibrar la extracción de MEV con la experiencia del usuario. La exploración de Arbitrum de subastas de MEV que devuelven valor a los usuarios representa un camino intermedio que genera ingresos sin alienar a la comunidad.

  3. Servicios empresariales: El soporte profesional, la asistencia en el despliegue y los servicios de personalización para clientes institucionales ofrecen ingresos de alto margen que escalan con el valor del cliente en lugar del recuento de transacciones.

  4. Reparto de ingresos del ecosistema: Tanto los modelos de reparto de ingresos obligatorios (Arbitrum Orbit) como los voluntarios (Optimism Superchain) crean efectos de red donde el éxito de la Capa 2 se potencia a través de la participación en el ecosistema.

  5. Mercados de disponibilidad de datos: A medida que evoluciona el precio de los blobs, las redes de Capa 2 podrían introducir ofertas de disponibilidad de datos por niveles: garantías de liquidación premium para instituciones y opciones económicas para aplicaciones de consumo.

Para 2026, se espera que las redes introduzcan modelos de reparto de ingresos, distribución de beneficios de los secuenciadores y rendimientos vinculados al uso real de la red, pasando fundamentalmente de las comisiones por transacción a una economía de participación.

El camino a seguir

La crisis económica de la Capa 2 es, paradójicamente, una señal de éxito tecnológico. Las soluciones de escalabilidad de Ethereum han logrado su objetivo principal: hacer que las transacciones en la blockchain sean asequibles y accesibles. Sin embargo, el triunfo tecnológico no se traduce automáticamente en sostenibilidad empresarial.

Las redes que sobrevivan y prosperen serán aquellas que:

  • Acepten que las tarifas de transacción por sí solas no pueden sostener las operaciones a 0.001 $ por operación
  • Desarrollen flujos de ingresos diversificados que se alineen con la creación de valor real
  • Equilibren las preocupaciones de centralización con la eficiencia operativa
  • Construyan efectos de red en el ecosistema que acumulen valor más allá de las transacciones individuales
  • Atiendan a clientes institucionales y corporativos dispuestos a pagar por la fiabilidad de la infraestructura

Base, Arbitrum y Optimism están experimentando con diferentes combinaciones de estas estrategias. Base lidera en ingresos brutos a través del volumen, Arbitrum impone la alineación económica mediante licencias y Optimism apuesta por el crecimiento del ecosistema de código abierto.

Los ganadores finales probablemente serán aquellos que reconozcan el cambio fundamental: las redes de Capa 2 ya no son solo procesadores de transacciones. Se están convirtiendo en plataformas de infraestructura, proveedores de servicios empresariales y orquestadores de ecosistemas. Los modelos de ingresos deben evolucionar en consecuencia, o se arriesgan a convertirse en servicios básicos insosteniblemente baratos en una carrera hacia el cero que nadie puede permitirse ganar.

Para los desarrolladores que construyen sobre infraestructura de Capa 2, el acceso fiable a los nodos y la indexación de datos siguen siendo fundamentales a medida que estas redes evolucionan sus modelos de negocio. BlockEden.xyz proporciona acceso a API de nivel empresarial en las principales redes de Capa 2, ofreciendo un rendimiento constante independientemente de los cambios económicos subyacentes.


Fuentes

MegaETH: La capa-2 de 100,000 TPS que busca potenciar Ethereum

· 11 min de lectura

¿La revolución de velocidad que Ethereum ha estado esperando?

En el mundo de alta presión de las soluciones de escalado de blockchain, ha surgido un nuevo contendiente que está generando tanto entusiasmo como controversia. MegaETH se está posicionando como la respuesta de Ethereum a cadenas ultra‑rápidas como Solana, prometiendo latencia sub‑milisegundo y asombrosos 100,000 transacciones por segundo (TPS).

MegaETH

Pero estas afirmaciones vienen con importantes compromisos. MegaETH está haciendo sacrificios calculados para “Make Ethereum Great Again”, planteando preguntas cruciales sobre el equilibrio entre rendimiento, seguridad y descentralización.

Como proveedores de infraestructura que hemos visto muchas soluciones prometedoras ir y venir, en BlockEden.xyz hemos realizado este análisis para ayudar a desarrolladores y constructores a entender qué hace a MegaETH único — y qué riesgos considerar antes de construir sobre ella.

¿Qué hace a MegaETH diferente?

MegaETH es una solución de capa-2 para Ethereum que ha reinventado la arquitectura de blockchain con un enfoque singular: rendimiento en tiempo real.

Mientras que la mayoría de las L2 mejoran los 15 TPS de Ethereum en un factor de 10‑100×, MegaETH apunta a una mejora de 1,000‑10,000× — velocidades que la colocarían en una categoría propia.

Enfoque técnico revolucionario

MegaETH logra su velocidad extraordinaria mediante decisiones de ingeniería radicales:

  1. Arquitectura de secuenciador único: A diferencia de la mayoría de las L2 que usan múltiples secuenciadores o planean descentralizarlos, MegaETH utiliza un solo secuenciador para ordenar transacciones, eligiendo deliberadamente el rendimiento sobre la descentralización.

  2. Trie de estado optimizado: Un sistema de almacenamiento de estado completamente rediseñado que puede manejar datos de estado a nivel de terabytes de forma eficiente, incluso en nodos con RAM limitada.

  3. Compilación JIT de bytecode: Compilación just‑in‑time del bytecode de contratos inteligentes de Ethereum, acercando la ejecución a la velocidad “bare‑metal”.

  4. Pipeline de ejecución paralela: Un enfoque multinúcleo que procesa transacciones en flujos paralelos para maximizar el rendimiento.

  5. Micro‑bloques: Objetivo de tiempos de bloque de 1 ms mediante producción continua de bloques “streaming” en lugar de procesamiento por lotes.

  6. Integración EigenDA: Uso de la solución de disponibilidad de datos de EigenLayer en lugar de publicar todos los datos en Ethereum L1, reduciendo costos mientras se mantiene la seguridad mediante validación alineada con Ethereum.

Esta arquitectura entrega métricas de rendimiento que parecen casi imposibles para una blockchain:

  • Latencia sub‑milisegundo (objetivo 10 ms)
  • Más de 100,000 TPS de rendimiento
  • Compatibilidad con EVM para facilitar la portación de aplicaciones

Probando las afirmaciones: Estado actual de MegaETH

A marzo de 2025, la testnet pública de MegaETH está en funcionamiento. El despliegue inicial comenzó el 6 de marzo con un lanzamiento por fases, empezando con socios de infraestructura y equipos de dApp antes de abrirse a una incorporación más amplia de usuarios.

Las métricas tempranas de la testnet muestran:

  • 1.68 Giga‑gas por segundo de rendimiento
  • Tiempos de bloque de 15 ms (significativamente más rápidos que otras L2)
  • Soporte para ejecución paralela que eventualmente impulsará el rendimiento aún más

El equipo ha indicado que la testnet funciona en modo algo limitado, con planes de habilitar paralelismo adicional que podría duplicar el rendimiento de gas a alrededor de 3.36 Ggas/seg, avanzando hacia su objetivo final de 10 Ggas/seg (10 mil millones de gas por segundo).

Modelo de seguridad y confianza

El enfoque de seguridad de MegaETH representa una desviación significativa de la ortodoxia de blockchain. A diferencia del diseño de confianza mínima de Ethereum con miles de nodos validadores, MegaETH adopta una capa de ejecución centralizada con Ethereum como respaldo de seguridad.

Filosofía “Can’t Be Evil”

MegaETH emplea un modelo de rollup optimista con características únicas:

  1. Sistema de pruebas de fraude: Al igual que otros rollups optimistas, MegaETH permite a observadores desafiar transiciones de estado inválidas mediante pruebas de fraude enviadas a Ethereum.

  2. Nodos verificadores: Nodos independientes replican los cálculos del secuenciador y generarían pruebas de fraude si se detectan discrepancias.

  3. Liquidación en Ethereum: Todas las transacciones se liquidan finalmente en Ethereum, heredando su seguridad para el estado final.

Esto crea lo que el equipo llama un mecanismo “can’t be evil”: el secuenciador no puede producir bloques inválidos o alterar el estado incorrectamente sin ser detectado y castigado.

Compromiso de centralización

El aspecto controvertido: MegaETH opera con un único secuenciador y explícitamente “no tiene planes de descentralizar el secuenciador”. Esto genera dos riesgos significativos:

  1. Riesgo de disponibilidad: Si el secuenciador se desconecta, la red podría detenerse hasta que se recupere o se nombre un nuevo secuenciador.

  2. Riesgo de censura: El secuenciador podría censurar ciertas transacciones o usuarios a corto plazo (aunque los usuarios podrían salir finalmente a L1).

MegaETH argumenta que estos riesgos son aceptables porque:

  • La L2 está anclada a Ethereum para la seguridad final
  • La disponibilidad de datos es manejada por múltiples nodos en EigenDA
  • Cualquier censura o fraude puede ser visto y desafiado por la comunidad

Casos de uso: Cuando la ejecución ultra‑rápida importa

Las capacidades en tiempo real de MegaETH desbloquean casos de uso que antes eran imprácticos en blockchains más lentas:

1. Trading de alta frecuencia y DeFi

MegaETH permite DEX con ejecución casi instantánea y actualizaciones de libro de órdenes. Proyectos que ya están construyendo incluyen:

  • GTE: Un DEX spot en tiempo real que combina libros de órdenes centralizados y liquidez AMM
  • Teko Finance: Un mercado de dinero para préstamos apalancados con actualizaciones rápidas de margen
  • Cap: Un stablecoin y motor de rendimiento que arbitra entre mercados
  • Avon: Un protocolo de préstamo con emparejamiento de préstamos basado en libro de órdenes

Estas aplicaciones DeFi se benefician del rendimiento de MegaETH para operar con deslizamiento mínimo y actualizaciones de alta frecuencia.

2. Juegos y metaverso

La finalización sub‑segundo hace viables los juegos totalmente on‑chain sin esperar confirmaciones:

  • Awe: Un juego 3D de mundo abierto con acciones on‑chain
  • Biomes: Un metaverso on‑chain similar a Minecraft
  • Mega Buddies y Mega Cheetah: Series de avatares coleccionables

Estas aplicaciones pueden ofrecer retroalimentación en tiempo real en juegos blockchain, habilitando jugabilidad rápida y batallas PvP on‑chain.

3. Aplicaciones empresariales

El rendimiento de MegaETH la hace adecuada para aplicaciones empresariales que requieren alto rendimiento:

  • Infraestructura de pagos instantáneos
  • Sistemas de gestión de riesgos en tiempo real
  • Verificación de cadena de suministro con finalización inmediata
  • Sistemas de subastas de alta frecuencia

La ventaja clave en todos estos casos es la capacidad de ejecutar aplicaciones intensivas en cómputo con retroalimentación inmediata, manteniéndose conectadas al ecosistema de Ethereum.

El equipo detrás de MegaETH

MegaETH fue co‑fundada por un equipo con credenciales impresionantes:

  • Li Yilong: PhD en ciencias de la computación de Stanford especializado en sistemas de computación de baja latencia
  • Yang Lei: PhD del MIT investigando sistemas descentralizados y conectividad con Ethereum
  • Shuyao Kong: Ex Jefe de Desarrollo de Negocios Globales en ConsenSys

El proyecto ha atraído a inversores destacados, incluidos los co‑fundadores de Ethereum Vitalik Buterin y Joseph Lubin como inversores ángeles. La participación de Vitalik es particularmente notable, ya que rara vez invierte en proyectos específicos.

Otros inversores incluyen Sreeram Kannan (fundador de EigenLayer), firmas de capital de riesgo como Dragonfly Capital, Figment Capital y Robot Ventures, y figuras influyentes de la comunidad como Cobie.

Estrategia de token: Enfoque NFT Soulbound

MegaETH introdujo un método innovador de distribución de tokens mediante “NFTs soulbound” llamados “The Fluffle”. En febrero de 2025, crearon 10,000 NFTs no transferibles que representan al menos el 5 % del suministro total de tokens MegaETH.

Aspectos clave de la tokenomía:

  • 5,000 NFTs se vendieron a 1 ETH cada uno (recaudando $13‑14 millones)
  • Los otros 5,000 NFTs fueron asignados a proyectos del ecosistema y constructores
  • Los NFTs son soulbound (no pueden transferirse), asegurando alineación a largo plazo
  • Valoración implícita de alrededor de $540 millones, extremadamente alta para un proyecto pre‑lanzamiento
  • El equipo ha recaudado aproximadamente $30‑40 millones en financiación de riesgo

Eventualmente, se espera que el token MegaETH sirva como moneda nativa para tarifas de transacción y posiblemente para staking y gobernanza.

Comparación de MegaETH con competidores

vs. Otras L2 de Ethereum

Comparada con Optimism, Arbitrum y Base, MegaETH es significativamente más rápida pero hace compromisos mayores en descentralización:

  • Rendimiento: MegaETH apunta a más de 100,000 TPS vs. los tiempos de transacción de 250 ms de Arbitrum y menor rendimiento
  • Descentralización: MegaETH usa un único secuenciador vs. los planes de otras L2 de descentralizar sus secuenciadores
  • Disponibilidad de datos: MegaETH usa EigenDA vs. otras L2 que publican datos directamente en Ethereum

vs. Solana y L1 de alto rendimiento

MegaETH busca “superar a Solana en su propio juego” mientras aprovecha la seguridad de Ethereum:

  • Rendimiento: MegaETH apunta a 100k+ TPS vs. los 65k TPS teóricos de Solana (normalmente unos pocos miles en la práctica)
  • Latencia: MegaETH ~10 ms vs. la finalidad de ~400 ms de Solana
  • Descentralización: MegaETH tiene 1 secuenciador vs. los ~1,900 validadores de Solana

vs. ZK‑Rollups (StarkNet, zkSync)

Mientras los ZK‑rollups ofrecen garantías de seguridad más fuertes mediante pruebas de validez:

  • Velocidad: MegaETH brinda una experiencia de usuario más rápida sin esperar la generación de pruebas ZK
  • Confianza: Los ZK‑rollups no requieren confiar en la honestidad de un secuenciador, proporcionando mayor seguridad
  • Planes futuros: MegaETH podría integrar pruebas ZK, convirtiéndose en una solución híbrida

El posicionamiento de MegaETH es claro: es la opción más rápida dentro del ecosistema Ethereum, sacrificando algo de descentralización para lograr velocidades similares a Web2.

Perspectiva de infraestructura: Qué deben considerar los constructores

Como proveedor de infraestructura que conecta a desarrolladores con nodos blockchain, BlockEden.xyz ve tanto oportunidades como desafíos en el enfoque de MegaETH:

Beneficios potenciales para los constructores

  1. Experiencia de usuario excepcional: Las aplicaciones pueden ofrecer retroalimentación instantánea y alto rendimiento, creando una respuesta similar a Web2.
  2. Compatibilidad con EVM: Las dApps existentes en Ethereum pueden migrar con cambios mínimos, desbloqueando rendimiento sin reescrituras.
  3. Eficiencia de costos: El alto rendimiento implica costos por transacción más bajos para usuarios y aplicaciones.
  4. Respaldo de seguridad de Ethereum: A pesar de la centralización en la capa de ejecución, la liquidación en Ethereum brinda una base de seguridad.

Consideraciones de riesgo

  1. Punto único de falla: El secuenciador centralizado crea riesgo de disponibilidad; si se cae, tu aplicación también.
  2. Vulnerabilidad a censura: Las aplicaciones podrían enfrentar censura de transacciones sin recurso inmediato.
  3. Tecnología en etapa temprana: La arquitectura novedosa de MegaETH no ha sido probada a gran escala con valor real.
  4. Dependencia de EigenDA: Utilizar una solución de disponibilidad de datos más nueva añade una suposición de confianza adicional.

Requisitos de infraestructura

Apoyar el rendimiento de MegaETH requerirá infraestructura robusta:

  • Nodos RPC de alta capacidad capaces de manejar el flujo masivo de datos
  • Soluciones avanzadas de indexado para acceso a datos en tiempo real
  • Monitoreo especializado para la arquitectura única
  • Vigilancia fiable de puentes para operaciones cross‑chain

Conclusión: ¿Revolución o compromiso?

MegaETH representa un experimento audaz en escalado de blockchain, que prioriza deliberadamente el rendimiento sobre la descentralización. Si este enfoque tendrá éxito dependerá de si el mercado valora más la velocidad que la ejecución descentralizada.

Los próximos meses serán críticos mientras MegaETH pasa de testnet a mainnet. Si cumple sus promesas de rendimiento manteniendo suficiente seguridad, podría redefinir nuestra visión del escalado de blockchain. Si tropieza, reforzará por qué la descentralización sigue siendo un valor central de blockchain.

Por ahora, MegaETH se posiciona como una de las soluciones de escalado de Ethereum más ambiciosas hasta la fecha. Su disposición a desafiar la ortodoxia ya ha generado conversaciones importantes sobre qué compromisos son aceptables en la búsqueda de una adopción masiva de blockchain.

En BlockEden.xyz, estamos comprometidos a apoyar a los desarrolladores donde sea que construyan, incluidas redes de alto rendimiento como MegaETH. Nuestra infraestructura de nodos fiable y nuestros servicios API están diseñados para ayudar a que las aplicaciones prosperen en todo el ecosistema multichain, sin importar qué enfoque de escalado prevalezca al final.


¿Quieres construir sobre MegaETH o necesitas infraestructura de nodos fiable para aplicaciones de alto rendimiento? Correo de contacto: info@BlockEden.xyz para conocer cómo podemos apoyar tu desarrollo con nuestra garantía de disponibilidad del 99.9 % y servicios RPC especializados en más de 27 blockchains.

Escalando Blockchains: Cómo Caldera y la Revolución RaaS están dando forma al futuro de Web3

· 8 min de lectura

El problema de escalado de Web3

La industria de blockchain enfrenta un desafío persistente: ¿cómo escalar para soportar millones de usuarios sin sacrificar seguridad ni descentralización?

Ethereum, la principal plataforma de contratos inteligentes, procesa aproximadamente 15 transacciones por segundo en su capa base. Durante periodos de alta demanda, esta limitación ha generado tarifas de gas exorbitantes —a veces superiores a 100 USD por transacción durante minting de NFT o frenéticas rondas de farming en DeFi.

Este cuello de botella de escalado representa una amenaza existencial para la adopción de Web3. Los usuarios acostumbrados a la respuesta instantánea de las aplicaciones Web2 no tolerarán pagar 50 USD y esperar 3 minutos solo para intercambiar tokens o crear un NFT.

Entra la solución que está remodelando rápidamente la arquitectura de blockchain: Rollups-as-a-Service (RaaS).

Escalando Blockchains

Entendiendo Rollups-as-a-Service (RaaS)

Las plataformas RaaS permiten a los desarrolladores desplegar sus propios rollups personalizados sin la complejidad de construir todo desde cero. Estos servicios convierten lo que normalmente requeriría un equipo de ingeniería especializado y meses de desarrollo en un proceso simplificado, a veces con un solo clic.

¿Por qué importa? Porque los rollups son la clave para escalar blockchain.

Los rollups funcionan al:

  • Procesar transacciones fuera de la cadena principal (Capa 1)
  • Agrupar esas transacciones en lotes
  • Enviar pruebas comprimidas de esas transacciones de vuelta a la cadena principal

¿El resultado? Aumento drástico del rendimiento y reducción significativa de costos mientras se hereda la seguridad de la cadena de bloques subyacente (como Ethereum).

"Los rollups no compiten con Ethereum — los extienden. Son como carriles exprés especializados construidos sobre la autopista de Ethereum."

Este enfoque de escalado es tan prometedor que Ethereum adoptó oficialmente una "hoja de ruta centrada en rollups" en 2020, reconociendo que el futuro no será una única cadena monolítica, sino un ecosistema de rollups interconectados y diseñados para propósitos específicos.

Caldera: Liderando la revolución RaaS

Entre los proveedores emergentes de RaaS, Caldera destaca como pionero. Fundada en 2023 y con una recaudación de 25 M USD de inversores prominentes como Dragonfly, Sequoia Capital y Lattice, Caldera se ha posicionado rápidamente como un proveedor de infraestructura líder en el espacio de rollups.

¿Qué hace a Caldera diferente?

Caldera se diferencia en varios aspectos clave:

  1. Soporte multimarco: A diferencia de competidores que se centran en un solo marco de rollup, Caldera soporta los principales marcos como OP Stack de Optimism y la tecnología Orbit/Nitro de Arbitrum, ofreciendo a los desarrolladores flexibilidad en su enfoque técnico.

  2. Infraestructura de extremo a extremo: Cuando despliegas con Caldera, obtienes un conjunto completo de componentes: nodos RPC confiables, exploradores de bloques, servicios de indexación e interfaces de puentes.

  3. Ecosistema de integración rico: Caldera viene preintegrada con más de 40 herramientas y servicios Web3, incluidos oráculos, faucets, wallets y puentes cross‑chain (LayerZero, Axelar, Wormhole, Connext, entre otros).

  4. Red Metalayer: Tal vez la innovación más ambiciosa de Caldera sea su Metalayer, una red que conecta todos los rollups impulsados por Caldera en un ecosistema unificado, permitiendo compartir liquidez y mensajes sin fricciones.

  5. Soporte multivirtual machine: A finales de 2024, Caldera se convirtió en el primer RaaS en soportar la Solana Virtual Machine (SVM) sobre Ethereum, habilitando cadenas de alto rendimiento al estilo Solana que aún se asientan en la capa base segura de Ethereum.

El enfoque de Caldera está creando lo que llaman una "capa de todo" para rollups — una red cohesiva donde diferentes rollups pueden interoperar en lugar de existir como islas aisladas.

Adopción en el mundo real: ¿Quién está usando Caldera?

Caldera ha ganado una tracción significativa, con más de 75 rollups en producción a finales de 2024. Algunos proyectos destacados incluyen:

  • Manta Pacific: Una red altamente escalable para desplegar aplicaciones de conocimiento cero que utiliza el OP Stack de Caldera combinado con Celestia para disponibilidad de datos.

  • RARI Chain: El rollup enfocado en NFT de Rarible que procesa transacciones en menos de un segundo y aplica regalías de NFT a nivel de protocolo.

  • Kinto: Una plataforma DeFi regulatoriamente compliant con KYC/AML on‑chain y capacidades de abstracción de cuentas.

  • inEVM de Injective: Un rollup compatible con EVM que extiende la interoperabilidad de Injective, conectando el ecosistema Cosmos con dApps basadas en Ethereum.

Estos proyectos demuestran cómo los rollups específicos de aplicación permiten personalizaciones imposibles en las cadenas de capa 1 de propósito general. A finales de 2024, los rollups colectivos de Caldera habrían procesado más de 300 millones de transacciones para más de 6 millones de wallets únicas, con casi 1 mil millones de dólares en valor total bloqueado (TVL).

Comparativa RaaS: Caldera vs. Competidores

El panorama RaaS se vuelve cada vez más competitivo, con varios jugadores notables:

Conduit

  • Se enfoca exclusivamente en los ecosistemas de Optimism y Arbitrum
  • Prioriza una experiencia totalmente autoservicio y sin código
  • Alimenta aproximadamente el 20 % de los rollups de la mainnet de Ethereum, incluido Zora

AltLayer

  • Ofrece "Flashlayers" — rollups desechables y bajo demanda para necesidades temporales
  • Se centra en escalado elástico para eventos específicos o periodos de alto tráfico
  • Demostró un rendimiento impresionante durante eventos de gaming (más de 180 000 transacciones diarias)

Sovereign Labs

  • Construye un SDK de Rollup enfocado en tecnologías de conocimiento cero
  • Busca habilitar ZK‑rollups en cualquier cadena base, no solo en Ethereum
  • Aún en desarrollo, posicionándose para la próxima ola de despliegues ZK multichain

Si bien estos competidores sobresalen en nichos específicos, el enfoque integral de Caldera —que combina una red de rollups unificada, soporte multivirtual machine y una fuerte orientación a la experiencia del desarrollador— la ha consolidado como líder de mercado.

El futuro de RaaS y el escalado de blockchain

RaaS está preparado para remodelar el panorama de blockchain de maneras profundas:

1. Proliferación de cadenas específicas de aplicación

Investigaciones de la industria sugieren que nos dirigimos a un futuro con potencialmente millones de rollups, cada uno sirviendo a aplicaciones o comunidades concretas. Con RaaS reduciendo las barreras de despliegue, cada dApp importante podría contar con su propia cadena optimizada.

2. Interoperabilidad como desafío crítico

A medida que los rollups se multiplican, la capacidad de comunicarse y compartir valor entre ellos se vuelve crucial. El Metalayer de Caldera representa un intento temprano de resolver este reto —creando una experiencia unificada a través de una red de rollups.

3. De cadenas aisladas a ecosistemas interconectados

El objetivo final es una experiencia multichain fluida donde los usuarios apenas necesiten saber en qué cadena están. Valor y datos fluirían libremente a través de una telaraña interconectada de rollups especializados, todos asegurados por robustas redes de capa 1.

4. Infraestructura de blockchain al estilo cloud

RaaS está convirtiendo efectivamente la infraestructura de blockchain en un servicio tipo cloud. El "Rollup Engine" de Caldera permite actualizaciones dinámicas y componentes modulares, tratando a los rollups como servicios configurables en la nube que pueden escalar bajo demanda.

Qué significa esto para desarrolladores y BlockEden.xyz

En BlockEden.xyz vemos un enorme potencial en la revolución RaaS. Como proveedor de infraestructura que conecta a los desarrolladores con nodos de blockchain de forma segura, estamos posicionados para jugar un papel crucial en este paisaje en evolución.

La proliferación de rollups implica que los desarrolladores necesiten infraestructura de nodos confiable más que nunca. Un futuro con miles de cadenas específicas de aplicación demanda servicios RPC robustos y de alta disponibilidad —exactamente lo que BlockEden.xyz se especializa en ofrecer.

Nos entusiasman particularmente las oportunidades en:

  1. Servicios RPC especializados para rollups: A medida que los rollups adoptan características y optimizaciones únicas, la infraestructura especializada se vuelve esencial.

  2. Indexación de datos cross‑chain: Con valor fluyendo entre múltiples rollups, los desarrolladores requieren herramientas para rastrear y analizar actividades intercadena.

  3. Herramientas de desarrollo mejoradas: Conforme el despliegue de rollups se simplifica, crece la necesidad de herramientas sofisticadas de monitoreo, depuración y analítica.

  4. Acceso API unificado: Los desarrolladores que trabajan en varios rollups necesitan un acceso simplificado y unificado a diversas redes blockchain.

Conclusión: El futuro modular de blockchain

El auge de Rollups-as-a-Service representa un cambio fundamental en cómo pensamos el escalado de blockchain. En lugar de forzar a todas las aplicaciones a una única cadena, nos dirigimos a un futuro modular con cadenas especializadas para casos de uso concretos, todas interconectadas y aseguradas por redes de capa 1 robustas.

El enfoque de Caldera —creando una red unificada de rollups con liquidez compartida y mensajería fluida— ofrece una visión de ese futuro. Al hacer que el despliegue de rollups sea tan sencillo como lanzar un servidor en la nube, los proveedores RaaS están democratizando el acceso a la infraestructura blockchain.

En BlockEden.xyz, estamos comprometidos a apoyar esta evolución proporcionando la infraestructura de nodos confiable y las herramientas de desarrollo necesarias para construir en este futuro multichain. Como solemos decir, el futuro de Web3 no es una sola cadena — son miles de cadenas especializadas trabajando juntas.


¿Quieres construir sobre un rollup o necesitas infraestructura de nodos confiable para tu proyecto blockchain? Correo de contacto: info@BlockEden.xyz para descubrir cómo podemos apoyar tu desarrollo con nuestra garantía de 99,9 % de tiempo activo y servicios RPC especializados en más de 27 blockchains.