Saltar al contenido principal

584 publicaciones etiquetados con "Blockchain"

Tecnología blockchain general e innovación

Ver Todas las Etiquetas

Cómo el muestreo de disponibilidad de datos de Celestia alcanza 1 terabit por segundo: una inmersión técnica profunda

· 17 min de lectura
Dora Noda
Software Engineer

El 13 de enero de 2026, Celestia rompió todas las expectativas con una sola prueba de rendimiento: 1 terabit por segundo de capacidad de procesamiento de datos a través de 498 nodos distribuidos. Para ponerlo en contexto, esa es suficiente banda ancha para procesar el volumen total de transacciones diarias de los rollups de Capa 2 más grandes de Ethereum — en menos de un segundo.

Pero la verdadera historia no es la cifra del titular. Es la infraestructura criptográfica que lo hace posible: Muestreo de Disponibilidad de Datos (DAS), un avance que permite a los nodos ligeros con recursos limitados verificar la disponibilidad de los datos de la blockchain sin descargar bloques enteros. A medida que los rollups compiten para escalar más allá del almacenamiento de blobs nativo de Ethereum, entender cómo Celestia logra este rendimiento — y por qué es importante para la economía de los rollups — nunca ha sido más crítico.

El cuello de botella de la disponibilidad de datos: Por qué los rollups necesitan una solución mejor

La escalabilidad de la blockchain se ha visto limitada durante mucho tiempo por un compromiso fundamental: ¿cómo se verifica que los datos de las transacciones están realmente disponibles sin requerir que cada nodo descargue y almacene todo? Este es el problema de disponibilidad de datos, y es el principal cuello de botella para el escalado de los rollups.

El enfoque de Ethereum — que requiere que cada nodo completo descargue bloques íntegros — crea una barrera de accesibilidad. A medida que aumenta el tamaño de los bloques, menos participantes pueden permitirse el ancho de banda y el almacenamiento necesarios para ejecutar nodos completos, lo que pone en peligro la descentralización. Los rollups que publican datos en la L1 de Ethereum se enfrentan a costes prohibitivos: en picos de demanda, un solo lote puede costar miles de dólares en comisiones de gas.

Aquí es donde entran las capas modulares de disponibilidad de datos. Al separar la disponibilidad de datos de la ejecución y el consenso, protocolos como Celestia, EigenDA y Avail prometen reducir drásticamente los costes de los rollups manteniendo las garantías de seguridad. ¿La innovación de Celestia? Una técnica de muestreo que invierte el modelo de verificación: en lugar de descargarlo todo para verificar la disponibilidad, los nodos ligeros muestrean aleatoriamente pequeños fragmentos y logran una confianza estadística de que el conjunto de datos completo existe.

Explicación del Muestreo de Disponibilidad de Datos: Cómo verifican los nodos ligeros sin descargar

En su núcleo, el DAS es un mecanismo de verificación probabilística. Así es como funciona:

Muestreo aleatorio y generación de confianza

Los nodos ligeros no descargan bloques enteros. En su lugar, realizan múltiples rondas de muestreo aleatorio de pequeñas porciones de los datos del bloque. Cada muestra exitosa aumenta la confianza en que el bloque completo está disponible.

La matemática es elegante: si un validador malicioso retiene incluso un pequeño porcentaje de los datos del bloque, los nodos ligeros honestos detectarán la falta de disponibilidad con una alta probabilidad tras solo unas pocas rondas de muestreo. Esto crea un modelo de seguridad donde incluso los dispositivos con recursos limitados pueden participar en la verificación de la disponibilidad de datos.

Específicamente, cada nodo ligero elige aleatoriamente un conjunto de coordenadas únicas en una matriz de datos extendida y solicita a los nodos puente las participaciones de datos correspondientes junto con pruebas de Merkle. Si el nodo ligero recibe respuestas válidas para cada consulta, la probabilidad estadística garantiza que los datos de todo el bloque están disponibles.

Codificación Reed-Solomon 2D: El fundamento matemático

Celestia emplea un esquema de codificación Reed-Solomon bidimensional para que el muestreo sea tanto eficiente como resistente al fraude. Aquí está el flujo técnico:

  1. Los datos del bloque se dividen en fragmentos de k × k, formando un cuadrado de datos.
  2. La codificación de borrado Reed-Solomon extiende esto a una matriz de 2k × 2k (añadiendo redundancia).
  3. Se calculan las raíces de Merkle para cada fila y columna de la matriz extendida.
  4. La raíz de Merkle de estas raíces se convierte en el compromiso de datos del bloque en la cabecera del bloque.

Este enfoque tiene una propiedad crítica: si falta cualquier parte de la matriz extendida, la codificación se rompe y los nodos ligeros detectarán inconsistencias al verificar las pruebas de Merkle. Un atacante no puede retener datos selectivamente sin ser capturado.

Namespaced Merkle Trees: Aislamiento de datos específico para rollups

Aquí es donde la arquitectura de Celestia brilla para entornos de múltiples rollups: Namespaced Merkle Trees (NMTs).

Un árbol de Merkle estándar agrupa los datos de forma arbitraria. Un NMT, sin embargo, etiqueta cada nodo con los identificadores de espacio de nombres mínimos y máximos de sus hijos, y ordena las hojas por espacio de nombres. Esto permite a los rollups:

  • Descargar solo sus propios datos de la capa de DA.
  • Demostrar la integridad de los datos de su espacio de nombres con una prueba de Merkle.
  • Ignorar por completo los datos irrelevantes de otros rollups.

Para un operador de rollup, esto significa que no está pagando costes de ancho de banda para descargar datos de cadenas competidoras. Usted obtiene exactamente lo que necesita, lo verifica con pruebas criptográficas y continúa. Esta es una ganancia de eficiencia masiva en comparación con las cadenas monolíticas donde todos los participantes deben procesar todos los datos.

La actualización Matcha: Escalando a bloques de 128 MB

En 2025, Celestia activó la actualización Matcha, un momento decisivo para la disponibilidad de datos modular. Esto es lo que cambió:

Expansión del Tamaño de Bloque

Matcha aumenta el tamaño máximo de bloque de 8 MB a 128 MB — un aumento de capacidad de 16x. Esto se traduce en:

  • Tamaño del cuadrado de datos: 128 → 512
  • Tamaño máximo de transacción: 2 MB → 8 MB
  • Rendimiento sostenido: 21.33 MB / s en testnet (abril de 2025)

Para poner esto en perspectiva, el objetivo de recuento de blobs de Ethereum es de 6 por bloque (aproximadamente 0.75 MB), ampliable a 9 blobs. Los bloques de 128 MB de Celestia superan esta capacidad en más de 100 veces.

Propagación de Bloques de Alto Rendimiento

La limitación no era solo el tamaño del bloque — era la velocidad de propagación de los bloques. Matcha introduce un nuevo mecanismo de propagación (CIP-38) que difunde de forma segura bloques de 128 MB a través de la red sin causar la desincronización de los validadores.

En la testnet, la red mantuvo tiempos de bloque de 6 segundos con bloques de 128 MB, logrando un rendimiento de 21.33 MB / s. Esto representa 16 veces la capacidad actual de la mainnet.

Reducción de Costes de Almacenamiento

Uno de los cambios económicos más pasados por alto: Matcha redujo la ventana mínima de poda de datos de 30 días a 7 días + 1 hora (CIP-34).

Para los nodos bridge, esto reduce los requisitos de almacenamiento de 30 TB a 7 TB con los niveles de rendimiento proyectados. Los menores costes operativos para los proveedores de infraestructura se traducen en una disponibilidad de datos más barata para los rollups.

Renovación de la Economía del Token

Matcha también mejoró la economía del token TIA:

  • Recorte de inflación: Del 5 % al 2.5 % anual
  • Aumento de la comisión del validador: El máximo se elevó del 10 % al 20 %
  • Mejora de las propiedades de colateral: Haciendo que TIA sea más adecuado para casos de uso DeFi

En conjunto, estos cambios posicionan a Celestia para la siguiente fase: escalar hacia un rendimiento de 1 GB / s y más allá.

Economía de los Rollups: Por qué el 50 % de cuota de mercado de DA es importante

A principios de 2026, Celestia posee aproximadamente el 50 % de la cuota de mercado de disponibilidad de datos, habiendo procesado más de 160 GB de datos de rollups. Este dominio refleja la adopción en el mundo real por parte de los desarrolladores de rollups que priorizan el coste y la escalabilidad.

Comparación de Costes: Celestia frente a los Blobs de Ethereum

El modelo de tarifas de Celestia es sencillo: los rollups pagan por blob en función del tamaño y los precios actuales del gas. A diferencia de las capas de ejecución donde domina la computación, la disponibilidad de datos trata fundamentalmente sobre el ancho de banda y el almacenamiento — recursos que escalan de forma más predecible con las mejoras de hardware.

Para los operadores de rollups, el cálculo es convincente:

  • Publicación en Ethereum L1: En momentos de máxima demanda, el envío de lotes (batches) puede costar entre 1,000 ymaˊsde10,000y más de 10,000 en gas
  • Celestia DA: Costes inferiores a un dólar por lote para datos equivalentes

Esta reducción de costes de más de 100 veces es la razón por la que los rollups están migrando a soluciones de DA modular. Una disponibilidad de datos más barata se traduce directamente en tarifas de transacción más bajas para los usuarios finales.

La Estructura de Incentivos de los Rollups

El modelo económico de Celestia alinea los incentivos:

  1. Los Rollups pagan por el almacenamiento de blobs proporcionalmente al tamaño de los datos
  2. Los Validadores ganan tarifas por asegurar la capa de DA
  3. Los Nodos bridge sirven datos a los nodos ligeros y ganan tarifas por servicio
  4. Los Nodos ligeros (light nodes) muestrean datos de forma gratuita, contribuyendo a la seguridad

Esto crea un volante de inercia (flywheel): a medida que más rollups adoptan Celestia, aumentan los ingresos de los validadores, atrayendo a más stakers, lo que fortalece la seguridad, lo que a su vez atrae a más rollups.

La Competencia: EigenDA, Avail y los Blobs de Ethereum

La cuota de mercado del 50 % de Celestia está bajo asedio. Tres competidores principales están escalando agresivamente:

EigenDA: Restaking Nativo de Ethereum

EigenDA aprovecha la infraestructura de restaking de EigenLayer para ofrecer disponibilidad de datos de alto rendimiento para los rollups de Ethereum. Ventajas clave:

  • Seguridad económica: Asegurada por ETH re-staked (actualmente el 93.9 % del mercado de restaking)
  • Integración estrecha con Ethereum: Compatibilidad nativa con el mercado de blobs de Ethereum
  • Mayores promesas de rendimiento: Aunque las versiones anteriores carecían de seguridad económica activa

Los críticos señalan que la dependencia de EigenDA en el restaking introduce un riesgo de cascada: si un AVS experimenta un slashing, podría propagarse a los poseedores de stETH de Lido y desestabilizar el mercado de LST en general.

Avail: DA Universal para Todas las Cadenas

A diferencia del enfoque de Celestia en Cosmos y la orientación a Ethereum de EigenDA, Avail se posiciona como una capa de DA universal compatible con cualquier arquitectura de blockchain:

  • Soporte para modelos UTXO, de Cuentas y de Objetos: Funciona con L2 de Bitcoin, cadenas EVM y sistemas basados en Move
  • Diseño modular: Separa completamente la DA del consenso
  • Visión entre ecosistemas: Aspira a servir como la capa de DA neutral para todas las blockchains

¿El desafío de Avail? Es el competidor más reciente, con un retraso en las integraciones de rollups en vivo en comparación con Celestia y EigenDA.

Blobs Nativos de Ethereum: EIP-4844 y más allá

La EIP-4844 (actualización Dencun) de Ethereum introdujo transacciones que transportan blobs, ofreciendo a los rollups una alternativa de publicación de datos más barata que calldata. Capacidad actual:

  • Objetivo: 6 blobs por bloque (~ 0.75 MB)
  • Máximo: 9 blobs por bloque (~ 1.125 MB)
  • Expansión futura: Actualizaciones de PeerDAS y zkEVM con el objetivo de más de 10,000 TPS

Sin embargo, los blobs de Ethereum conllevan compromisos:

  • Ventana de retención corta: Los datos se eliminan después de ~ 18 días
  • Contención de recursos compartidos: Todos los rollups compiten por el mismo espacio de blobs
  • Limitación de escalabilidad: Incluso con PeerDAS, la capacidad de blobs alcanza su máximo muy por debajo de la hoja de ruta de Celestia

Para los rollups que priorizan la alineación con Ethereum, los blobs son atractivos. Para aquellos que necesitan un rendimiento masivo y retención de datos a largo plazo, Celestia sigue siendo la mejor opción.

Fibre Blockspace: La Visión de 1 Terabit

El 14 de enero de 2026, el cofundador de Celestia, Mustafa Al-Bassam, presentó Fibre Blockspace, un nuevo protocolo que apunta a 1 terabit por segundo de rendimiento con una latencia de milisegundos. Esto representa una mejora de 1.500x sobre los objetivos de la hoja de ruta original de hace apenas un año.

Detalles del Benchmark

El equipo logró el benchmark de 1 Tbps utilizando:

  • 498 nodos distribuidos en América del Norte
  • Instancias de GCP con 48 - 64 vCPUs y 90 - 128 GB de RAM cada una
  • Enlaces de red de 34 - 45 Gbps por instancia

Bajo estas condiciones controladas, el protocolo mantuvo un rendimiento de datos de 1 terabit por segundo, un salto asombroso en el rendimiento de la blockchain.

Codificación ZODA: 881x Más Rápida que KZG

En el núcleo de Fibre se encuentra ZODA, un novedoso protocolo de codificación que Celestia afirma que procesa datos 881x más rápido que las alternativas basadas en compromisos KZG utilizadas por EigenDA y los blobs de Ethereum.

Los compromisos KZG (compromisos polinómicos Kate-Zaverucha-Goldberg) son criptográficamente elegantes pero computacionalmente costosos. ZODA intercambia algunas propiedades criptográficas por ganancias masivas de velocidad, lo que hace que el rendimiento a escala de terabits sea alcanzable en hardware convencional.

La Visión: Cada Mercado se Traslada On-chain

La declaración de la hoja de ruta de Al-Bassam captura la ambición de Celestia:

"Si 10 KB / s permitieron los AMM, y 10 MB / s permitieron los libros de órdenes on-chain, entonces 1 Tbps es el salto que permite que cada mercado se traslade a la cadena".

La implicación: con suficiente ancho de banda de disponibilidad de datos, los mercados financieros actualmente dominados por exchanges centralizados — spot, derivados, opciones, mercados de predicción — podrían migrar a una infraestructura blockchain transparente y sin permisos.

Realidad: Benchmarks frente a Producción

Las condiciones de los benchmarks rara vez coinciden con el caos del mundo real. El resultado de 1 Tbps se logró en un entorno de testnet controlado con instancias en la nube de alto rendimiento. La verdadera prueba vendrá cuando:

  • Los rollups reales impulsen cargas de trabajo de producción
  • Las condiciones de la red varíen (picos de latencia, pérdida de paquetes, ancho de banda asimétrico)
  • Los validadores adversarios intenten ataques de retención de datos

El equipo de Celestia reconoce esto: Fibre se ejecuta de forma paralela a la capa DA de L1 existente, lo que ofrece a los usuarios la posibilidad de elegir entre una infraestructura probada en batalla y un rendimiento experimental de vanguardia.

Qué Significa Esto para los Desarrolladores de Rollups

Si estás construyendo un rollup, la arquitectura DAS de Celestia ofrece ventajas convincentes:

Cuándo Elegir Celestia

  • Aplicaciones de alto rendimiento: Juegos, redes sociales, micropagos
  • Casos de uso sensibles a los costos: Rollups que apuntan a tarifas de transacción de menos de un centavo
  • Flujos de trabajo intensivos en datos: Inferencia de IA, integraciones de almacenamiento descentralizado
  • Ecosistemas multi-rollup: Proyectos que lanzan múltiples rollups especializados

Cuándo Mantenerse con los Blobs de Ethereum

  • Alineación con Ethereum: Si tu rollup valora el consenso social y la seguridad de Ethereum
  • Arquitectura simplificada: Los blobs ofrecen una integración más estrecha con las herramientas de Ethereum
  • Menor complejidad: Menos infraestructura que gestionar (sin una capa DA separada)

Consideraciones de Integración

La capa DA de Celestia se integra con los principales frameworks de rollup:

  • Polygon CDK: Componente DA fácilmente conectable
  • OP Stack: Adaptadores DA personalizados disponibles
  • Arbitrum Orbit: Integraciones creadas por la comunidad
  • Rollkit: Soporte nativo de Celestia

Para los desarrolladores, adoptar Celestia a menudo significa intercambiar el módulo de disponibilidad de datos en su stack de rollup, con cambios mínimos en la lógica de ejecución o liquidación.

Las Guerras de Disponibilidad de Datos: Qué Viene Después

La tesis de la blockchain modular se está poniendo a prueba en tiempo real. La cuota de mercado del 50 % de Celestia, el impulso de restaking de EigenDA y el posicionamiento universal de Avail configuran una competencia a tres bandas por la preferencia de los rollups.

Tendencias Clave a Seguir

  1. Escalada del rendimiento: Celestia apunta a 1 GB / s → 1 Tbps; EigenDA y Avail responderán
  2. Modelos de seguridad económica: ¿Alcanzarán los riesgos del restaking a EigenDA? ¿Podrá escalar el conjunto de validadores de Celestia?
  3. Expansión de blobs de Ethereum: Las actualizaciones de PeerDAS y zkEVM podrían cambiar la dinámica de costos
  4. DA entre cadenas: La visión universal de Avail frente a las soluciones específicas de cada ecosistema

El Ángulo de BlockEden.xyz

Para los proveedores de infraestructura, dar soporte a múltiples capas DA se está convirtiendo en un requisito básico. Los desarrolladores de rollups necesitan un acceso RPC confiable no solo a Ethereum, sino también a Celestia, EigenDA y Avail.

BlockEden.xyz ofrece una infraestructura RPC de alto rendimiento para Celestia y más de 10 ecosistemas blockchain, lo que permite a los equipos de rollup construir sobre stacks modulares sin gestionar la infraestructura de nodos. Explore nuestras APIs de disponibilidad de datos para acelerar el despliegue de su rollup.

Conclusión: La Disponibilidad de Datos como el Nuevo Foso Competitivo

El Muestreo de Disponibilidad de Datos (DAS) de Celestia no es solo una mejora incremental; es un cambio de paradigma en cómo las blockchains verifican el estado. Al permitir que los nodos ligeros participen en la seguridad a través del muestreo probabilístico, Celestia democratiza la verificación de una manera que las cadenas monolíticas no pueden.

Los bloques de 128 MB de la actualización Matcha y la visión de 1 Tbps de Fibre representan puntos de inflexión para la economía de los rollups. Cuando los costos de disponibilidad de datos caen 100x, categorías de aplicaciones completamente nuevas se vuelven viables: trading de alta frecuencia on-chain, juegos multijugador en tiempo real, coordinación de agentes de IA a escala.

Pero la tecnología por sí sola no determina a los ganadores. Las guerras de DA se decidirán por tres factores:

  1. Adopción de rollups: ¿Qué cadenas se comprometen realmente con despliegues en producción?
  2. Sostenibilidad económica: ¿Pueden estos protocolos mantener costos bajos a medida que escala el uso?
  3. Resiliencia de seguridad: ¿Qué tan bien resisten los sistemas basados en muestreo a los ataques sofisticados?

La cuota de mercado del 50 % de Celestia y los 160 GB de datos de rollup procesados demuestran que el concepto funciona. Ahora la pregunta pasa de "¿puede escalar la DA modular?" a "¿qué capa DA dominará la economía de los rollups?".

Para los constructores que navegan por este panorama, el consejo es claro: abstraiga su capa DA. Diseñe rollups para intercambiar entre Celestia, EigenDA, blobs de Ethereum y Avail sin necesidad de rediseñar la arquitectura. Las guerras por la disponibilidad de datos no han hecho más que empezar, y puede que los ganadores no sean quienes esperamos.


Fuentes:

Compromisos de los Modelos de Consenso para la Interoperabilidad: PoW, PoS, DPoS y BFT en la Seguridad de Puentes Cross-Chain

· 14 min de lectura
Dora Noda
Software Engineer

Más de 2.3 mil millones de dólares fueron drenados de los puentes cross-chain solo en la primera mitad de 2025, superando ya el total de todo el año 2024. Mientras que gran parte de la conversación de la industria se centra en las auditorías de smart contracts y la gestión de claves multisig, una vulnerabilidad más silenciosa pero igualmente crítica a menudo no se examina: el desajuste entre cómo las diferentes blockchains alcanzan el consenso y cómo los puentes asumen que lo hacen.

Cada puente cross-chain realiza suposiciones implícitas sobre la finalidad. Cuando esas suposiciones chocan con el modelo de consenso real de una cadena de origen o destino, los atacantes encuentran ventanas para explotarlas. Comprender cómo difieren los mecanismos de consenso PoW, PoS, DPoS y BFT —y cómo esas diferencias se traducen en cascada en las opciones de diseño de puentes y la selección de protocolos de mensajería— es uno de los temas más importantes en la infraestructura Web3 actual.

Los mercados de datos se encuentran con el entrenamiento de IA: Cómo la blockchain resuelve la crisis de fijación de precios de datos de 23 mil millones de dólares

· 17 min de lectura
Dora Noda
Software Engineer

La industria de la IA se enfrenta a una paradoja: la producción mundial de datos se dispara de 33 zettabytes a 175 zettabytes para 2025, sin embargo, la calidad de los modelos de IA se estanca. El problema no es la escasez de datos, sino que los proveedores de datos no tienen forma de capturar el valor de sus contribuciones. Introduzca los mercados de datos basados en blockchain como Ocean Protocol, LazAI y ZENi, que están transformando los datos de entrenamiento de IA de un recurso gratuito a una clase de activos monetizables con un valor de $ 23,18 mil millones para 2034.

El problema de la fijación de precios de los datos de 23.000 millones de dólares

Los costes de entrenamiento de IA aumentaron un 89 % entre 2023 y 2025, y la adquisición y anotación de datos consumieron hasta el 80 % de los presupuestos de los proyectos de aprendizaje automático (machine learning). Sin embargo, los creadores de datos (individuos que generan consultas de búsqueda, interacciones en redes sociales y patrones de comportamiento) no reciben nada, mientras que los gigantes tecnológicos cosechan miles de millones en valor.

El mercado de conjuntos de datos de entrenamiento de IA revela esta desconexión. Valorado en $ 3,59 mil millones en 2025, se prevé que el mercado alcance los $ 23,18 mil millones para 2034 con una CAGR del 22,9 %. Otra previsión sitúa el año 2026 en $ 7,48 mil millones, alcanzando los $ 52,41 mil millones para 2035 con un crecimiento anual del 24,16 %.

Pero, ¿quién captura este valor? Actualmente, las plataformas centralizadas extraen beneficios mientras que los creadores de datos obtienen una compensación nula. El ruido en el etiquetado, las etiquetas inconsistentes y la falta de contexto elevan los costes; sin embargo, los colaboradores carecen de incentivos para mejorar la calidad. Las preocupaciones sobre la privacidad de los datos afectan al 28 % de las empresas, lo que limita la accesibilidad de los conjuntos de datos precisamente cuando la IA necesita entradas diversas y de alta calidad.

Ocean Protocol: Tokenización de la economía de datos de 100 millones de dólares

Ocean Protocol aborda la propiedad permitiendo a los proveedores de datos tokenizar conjuntos de datos y ponerlos a disposición para el entrenamiento de IA sin renunciar al control. Desde el lanzamiento de los Ocean Nodes en agosto de 2024, la red ha crecido hasta más de 1,4 millones de nodos en más de 70 países, ha incorporado más de 35.000 conjuntos de datos y ha facilitado más de $ 100 millones en transacciones de datos relacionadas con la IA.

La hoja de ruta del producto para 2025 incluye tres componentes críticos:

Inference Pipelines: permiten el entrenamiento y despliegue de modelos de IA de extremo a extremo directamente en la infraestructura de Ocean. Los proveedores de datos tokenizan conjuntos de datos propietarios, establecen precios y obtienen ingresos cada vez que un modelo de IA consume sus datos para entrenamiento o inferencia.

Ocean Enterprise Onboarding: traslada a las empresas del ecosistema de la fase piloto a la de producción. Ocean Enterprise v1, que se lanzará en el tercer trimestre de 2025, ofrece una plataforma de datos compatible y lista para producción dirigida a clientes institucionales que necesitan intercambios de datos auditables y que preserven la privacidad.

Node Analytics: introduce paneles de control para rastrear el rendimiento, el uso y el ROI. Socios como NetMind aportan 2.000 GPU mientras que Aethir ayuda a escalar los Ocean Nodes para soportar grandes cargas de trabajo de IA, creando una capa de cómputo descentralizada para el entrenamiento de IA.

El mecanismo de reparto de ingresos de Ocean funciona a través de contratos inteligentes: los proveedores de datos establecen los términos de acceso, los desarrolladores de IA pagan por uso y la blockchain distribuye automáticamente los pagos a todos los colaboradores. Esto transforma los datos de una venta única en un flujo de ingresos continuo vinculado al rendimiento del modelo.

LazAI: Datos de interacción de IA verificables en Metis

LazAI introduce un enfoque fundamentalmente diferente: monetizar los datos de interacción de IA, no solo conjuntos de datos estáticos. Cada conversación con los agentes insignia de LazAI (Lazbubu, SoulTarot) genera Data Anchoring Tokens (DATs), que funcionan como registros rastreables y verificables de los resultados generados por la IA.

La Alpha Mainnet se lanzó en diciembre de 2025 sobre una infraestructura de nivel empresarial utilizando el consenso QBFT y liquidación basada en $ METIS. Los DAT tokenizan y monetizan los conjuntos de datos y modelos de IA como activos verificables con propiedad transparente y atribución de ingresos.

¿Por qué es esto importante? El entrenamiento de IA tradicional utiliza conjuntos de datos estáticos congelados en el momento de la recolección. LazAI captura datos de interacción dinámicos (consultas de usuarios, respuestas de modelos, bucles de refinamiento), creando conjuntos de datos de entrenamiento que reflejan los patrones de uso del mundo real. Estos datos son exponencialmente más valiosos para el ajuste fino (fine-tuning) de los modelos porque contienen señales de retroalimentación humana integradas en el flujo de la conversación.

El sistema incluye tres innovaciones clave:

Proof-of-Stake Validator Staking asegura los pipelines de datos de IA. Los validadores realizan staking de tokens para verificar la integridad de los datos, ganando recompensas por una validación precisa y enfrentando penalizaciones por aprobar datos fraudulentos.

DAT Minting with Revenue Sharing permite a los usuarios que generan datos de interacción valiosos acuñar DAT que representan sus contribuciones. Cuando las empresas de IA compran estos conjuntos de datos para el entrenamiento de modelos, los ingresos fluyen automáticamente a todos los titulares de DAT en función de su contribución proporcional.

iDAO Governance establece colectivos de IA descentralizados donde los colaboradores de datos gobiernan colectivamente la curación de conjuntos de datos, las estrategias de precios y los estándares de calidad a través de votación on-chain.

La hoja de ruta para 2026 añade privacidad basada en ZK (los usuarios pueden monetizar los datos de interacción sin exponer información personal), mercados de computación descentralizada (el entrenamiento ocurre en infraestructura distribuida en lugar de nubes centralizadas) y evaluación de datos multimodales (interacciones de video, audio e imagen más allá del texto).

ZENi: La capa de datos de inteligencia para agentes de IA

ZENi opera en la intersección de la Web3 y la IA impulsando la "Economía InfoFi", una red descentralizada que une el comercio tradicional y el basado en blockchain a través de la inteligencia impulsada por IA. La empresa recaudó $ 1.5 millones en financiación semilla liderada por Waterdrip Capital y Mindfulness Capital.

En su núcleo se encuentra la Capa de Datos InfoFi, un motor de inteligencia conductual de alto rendimiento que procesa más de 1 millón de señales diarias a través de X / Twitter, Telegram, Discord y actividad on-chain. ZENi identifica patrones en el comportamiento de los usuarios, cambios en el sentimiento y compromiso de la comunidad, datos que son críticos para entrenar agentes de IA pero difíciles de recolectar a escala.

El sistema de la plataforma consta de tres partes:

Agente Analítico de Datos de IA: identifica audiencias de alta intención y clústeres de influencia mediante el análisis de grafos sociales, transacciones on-chain y métricas de compromiso. Esto crea conjuntos de datos conductuales que muestran no solo qué hacen los usuarios, sino por qué toman decisiones.

Agente AIGC (Contenido Generado por IA): diseña campañas personalizadas utilizando información de la capa de datos. Al comprender las preferencias de los usuarios y la dinámica de la comunidad, el agente genera contenido optimizado para segmentos de audiencia específicos.

Agente de Ejecución de IA: activa el alcance a través de la dApp ZENi, cerrando el ciclo desde la recolección de datos hasta la monetización. Los usuarios reciben una compensación cuando sus datos conductuales contribuyen a campañas exitosas.

ZENi ya presta servicios a socios en comercio electrónico, juegos y Web3, con 480,000 usuarios registrados y 80,000 usuarios activos diarios. El modelo de negocio monetiza la inteligencia conductual: las empresas pagan para acceder a los conjuntos de datos procesados por la IA de ZENi, y los ingresos fluyen hacia los usuarios cuyos datos impulsaron esa información.

La ventaja competitiva de la blockchain en los mercados de datos

¿Por qué es importante la blockchain para la monetización de datos? Tres capacidades técnicas hacen que los mercados de datos descentralizados sean superiores a las alternativas centralizadas:

Atribución granular de ingresos Los contratos inteligentes permiten un reparto de ingresos sofisticado en el que múltiples colaboradores de un modelo de IA reciben automáticamente una compensación proporcional basada en el uso. Un solo conjunto de datos de entrenamiento podría agregar entradas de 10,000 usuarios; la blockchain rastrea cada contribución y distribuye micropagos por inferencia de modelo.

Los sistemas tradicionales no pueden manejar esta complejidad. Los procesadores de pagos cobran tarifas fijas (2 - 3 %) no aptas para micropagos, y las plataformas centralizadas carecen de transparencia sobre quién contribuyó con qué. La blockchain resuelve ambos problemas: costes de transacción cercanos a cero mediante soluciones de Capa 2 y atribución inmutable mediante la procedencia on-chain.

Procedencia de datos verificable Los Tokens de Anclaje de Datos de LazAI demuestran el origen de los datos sin exponer el contenido subyacente. Las empresas de IA que entrenan modelos pueden verificar que están utilizando datos con licencia y de alta calidad, en lugar de contenido web extraído de legalidad cuestionable.

Esto aborda un riesgo crítico: las regulaciones de privacidad de datos impactan al 28 % de las empresas, lo que limita la accesibilidad de los conjuntos de datos. Los mercados de datos basados en blockchain implementan una verificación que preserva la privacidad, demostrando la calidad de los datos y las licencias sin revelar información personal.

Entrenamiento de IA descentralizado La red de nodos de Ocean Protocol demuestra cómo la infraestructura distribuida reduce los costes. En lugar de pagar a los proveedores de la nube entre 2y2 y 5 por hora de GPU, las redes descentralizadas emparejan la capacidad de cómputo no utilizada (PC de juegos, centros de datos con capacidad de sobra) con la demanda de entrenamiento de IA con una reducción de costes del 50 - 85 %.

La blockchain coordina esta complejidad a través de contratos inteligentes que rigen la asignación de tareas, la distribución de pagos y la verificación de calidad. Los colaboradores realizan staking de tokens para participar, ganando recompensas por un cómputo honesto y enfrentando penalizaciones de slashing por entregar resultados incorrectos.

El camino hacia los $ 52 mil millones: Fuerzas del mercado que impulsan la adopción

Tres tendencias convergentes aceleran el crecimiento del mercado de datos blockchain hacia la proyección de $ 52.41 mil millones para 2035:

Diversificación de modelos de IA La era de los modelos base masivos (GPT-4, Claude, Gemini) entrenados con todo el texto de internet está llegando a su fin. Los modelos especializados para atención médica, finanzas, servicios legales y aplicaciones verticales requieren conjuntos de datos específicos de dominio que las plataformas centralizadas no curan.

Los mercados de datos blockchain destacan en conjuntos de datos de nicho. Un proveedor de imágenes médicas puede tokenizar escaneos de radiología con anotaciones de diagnóstico, establecer términos de uso que requieran el consentimiento del paciente y obtener ingresos por cada modelo de IA entrenado con sus datos. Esto es imposible de implementar con plataformas centralizadas que carecen de control de acceso y atribución granulares.

Presión regulatoria Las regulaciones de privacidad de datos (GDPR, CCPA, Ley de Protección de Información Personal de China) exigen la recopilación de datos basada en el consentimiento. Los mercados basados en blockchain implementan el consentimiento como lógica programable: los usuarios firman permisos criptográficamente, solo se puede acceder a los datos bajo términos especificados y los contratos inteligentes imponen el cumplimiento automáticamente.

El enfoque de Ocean Enterprise v1 en el cumplimiento aborda esto directamente. Las instituciones financieras y los proveedores de atención médica necesitan un linaje de datos auditable que demuestre que cada conjunto de datos utilizado para el entrenamiento del modelo tenía la licencia adecuada. La blockchain proporciona pistas de auditoría inmutables que satisfacen los requisitos regulatorios.

Calidad sobre cantidad Investigaciones recientes muestran que la IA no necesita datos de entrenamiento infinitos cuando los sistemas se asemejan mejor a los cerebros biológicos. Esto traslada los incentivos de recolectar el máximo de datos a curar las entradas de mayor calidad.

Los mercados de datos descentralizados alinean los incentivos correctamente: los creadores de datos ganan más por contribuciones de alta calidad porque los modelos pagan precios premium por conjuntos de datos que mejoran el rendimiento. Los datos de interacción de LazAI capturan señales de retroalimentación humana (qué consultas se refinan, qué respuestas satisfacen a los usuarios) que los conjuntos de datos estáticos pasan por alto, lo que los hace intrínsecamente más valiosos por byte.

Desafíos: privacidad, fijación de precios y guerras de protocolos

A pesar del impulso, los mercados de datos en blockchain enfrentan desafíos estructurales:

Paradoja de la privacidad Entrenar la IA requiere transparencia de datos (los modelos necesitan acceso al contenido real), pero las regulaciones de privacidad exigen la minimización de datos. Las soluciones actuales, como el aprendizaje federado (entrenamiento con datos cifrados), aumentan los costos de 3 a 5 veces en comparación con el entrenamiento centralizado.

Las pruebas de conocimiento cero ofrecen un camino a seguir — demostrando la calidad de los datos sin exponer el contenido — , pero añaden una sobrecarga computacional. La hoja de ruta ZK de LazAI para 2026 aborda esto, aunque las implementaciones listas para producción aún están a 12 o 18 meses de distancia.

Descubrimiento de precios ¿Cuánto vale una interacción en las redes sociales? ¿Una imagen médica con anotaciones diagnósticas? Los mercados de blockchain carecen de mecanismos de fijación de precios establecidos para tipos de datos novedosos.

El enfoque de Ocean Protocol — permitir que los proveedores fijen los precios y que la dinámica del mercado determine el valor — funciona para conjuntos de datos mercantilizados, pero tiene dificultades con los datos propietarios únicos. Los mercados de predicción o la fijación de precios dinámica impulsada por IA podrían resolver esto, aunque ambos introducen dependencias de oráculos (fuentes de precios externas) que socavan la descentralización.

Fragmentación de la interoperabilidad Ocean Protocol se ejecuta en Ethereum, LazAI en Metis, ZENi se integra con múltiples cadenas. Los datos tokenizados en una plataforma no pueden transferirse fácilmente a otra, lo que fragmenta la liquidez.

Los puentes entre cadenas (cross-chain bridges) y los estándares universales de datos (como los identificadores descentralizados para conjuntos de datos) podrían resolver esto, pero el ecosistema aún se encuentra en una fase temprana. El mercado de IA en blockchain, valorado en 680,89 millones de dólares en 2025 y con una previsión de crecimiento hasta los 4.338 millones de dólares para 2034, sugiere que la consolidación en torno a los protocolos ganadores aún tardará años.

Qué significa esto para los desarrolladores

Para los equipos que crean aplicaciones de IA, los mercados de datos en blockchain ofrecen tres ventajas inmediatas:

Acceso a conjuntos de datos propietarios Los más de 35.000 conjuntos de datos de Ocean Protocol incluyen datos de entrenamiento propietarios que no están disponibles a través de los canales tradicionales. Imágenes médicas, transacciones financieras, análisis de comportamiento de aplicaciones Web3: conjuntos de datos especializados que las plataformas centralizadas no seleccionan.

Infraestructura lista para el cumplimiento normativo Las licencias integradas, la gestión del consentimiento y las pistas de auditoría de Ocean Enterprise v1 resuelven los dolores de cabeza regulatorios. En lugar de crear sistemas de gobernanza de datos personalizados, los desarrolladores heredan el cumplimiento por diseño a través de contratos inteligentes que hacen cumplir los términos de uso de los datos.

Reducción de costos Las redes de computación descentralizadas reducen los precios de los proveedores de la nube en un 50 - 85 % para las cargas de trabajo de entrenamiento por lotes. La asociación de Ocean con NetMind (2.000 GPU) y Aethir demuestra cómo los mercados de GPU tokenizados igualan la oferta con la demanda a un costo menor que AWS / GCP / Azure.

BlockEden.xyz proporciona infraestructura RPC de nivel empresarial para aplicaciones de IA basadas en blockchain. Ya sea que esté construyendo sobre Ethereum (Ocean Protocol), Metis (LazAI) o plataformas multi-cadena, nuestros servicios de nodos confiables garantizan que sus tuberías de datos de IA permanezcan en línea y operativas. Explore nuestro marketplace de APIs para conectar sus sistemas de IA con redes blockchain diseñadas para escalar.

El punto de inflexión de 2026

Tres catalizadores posicionan a 2026 como el año de inflexión para los mercados de datos en blockchain:

Lanzamiento de producción de Ocean Enterprise v1 (Q3 2025) Se pone en marcha el primer mercado de datos compatible y de grado institucional. Si Ocean captura incluso el 5 % del mercado de conjuntos de datos de entrenamiento de IA de 7.480 millones de dólares en 2026, eso representaría 374 millones de dólares en transacciones de datos fluyendo a través de infraestructura basada en blockchain.

Implementación de privacidad ZK de LazAI (2026) Las pruebas de conocimiento cero permiten a los usuarios monetizar los datos de interacción sin comprometer la privacidad. Esto desbloquea la adopción a escala de consumo: cientos de millones de usuarios de redes sociales, consultas en motores de búsqueda y sesiones de comercio electrónico que se vuelven monetizables a través de los DAT.

Integración del aprendizaje federado El aprendizaje federado de IA permite el entrenamiento de modelos sin centralizar los datos. El blockchain añade atribución de valor: en lugar de que Google entrene modelos con los datos de los usuarios de Android sin compensación, los sistemas federados que se ejecutan en blockchain distribuyen los ingresos a todos los contribuyentes de datos.

La convergencia significa que el entrenamiento de la IA pasa de "recopilar todos los datos, entrenar centralmente, no pagar nada" a "entrenar sobre datos distribuidos, compensar a los contribuyentes, verificar la procedencia". El blockchain no solo facilita esta transición; es la única pila tecnológica capaz de coordinar a millones de proveedores de datos con distribución automática de ingresos y verificación criptográfica.

Conclusión: los datos se vuelven programables

El crecimiento del mercado de datos de entrenamiento de IA de 3.590 millones de dólares en 2025 a entre 23.000 y 52.000 millones de dólares para 2034 representa algo más que una expansión del mercado. Es un cambio fundamental en la forma en que valoramos la información.

Ocean Protocol demuestra que los datos pueden ser tokenizados, tasados y negociados como activos financieros preservando el control del proveedor. LazAI demuestra que los datos de interacción de la IA — anteriormente descartados como efímeros — se convierten en valiosos insumos de entrenamiento cuando se capturan y verifican adecuadamente. ZENi muestra que la inteligencia del comportamiento puede ser extraída, procesada por la IA y monetizada a través de mercados descentralizados.

Juntas, estas plataformas transforman los datos de materia prima extraída por gigantes tecnológicos en una clase de activo programable donde los creadores capturan el valor. La explosión global de datos de 33 a 175 zettabytes solo importa si la calidad supera a la cantidad, y los mercados basados en blockchain alinean los incentivos para recompensar las contribuciones de calidad.

Cuando los creadores de datos obtienen ingresos proporcionales a sus contribuciones, cuando las empresas de IA pagan precios justos por insumos de calidad y cuando los contratos inteligentes automatizan la atribución entre millones de participantes, no solo solucionamos el problema de la fijación de precios de los datos. Construimos una economía donde la información tiene un valor intrínseco, la procedencia es verificable y los contribuyentes finalmente capturan la riqueza que generan sus datos.

Eso no es una tendencia del mercado. Es un cambio de paradigma — y ya está activo on-chain.

El auge de la privacidad pragmática: equilibrando el cumplimiento y la confidencialidad en blockchain

· 19 min de lectura
Dora Noda
Software Engineer

La industria de la tecnología blockchain se encuentra en una encrucijada donde la privacidad ya no es una opción binaria. Durante los primeros años de las criptomonedas, la narrativa era clara: privacidad absoluta a toda costa, transparencia solo cuando sea necesaria y resistencia a cualquier forma de vigilancia. Pero en 2026, se está produciendo un cambio profundo. El auge de la infraestructura de IA Pragmática Descentralizada (DePAI) señala una nueva era en la que las herramientas de privacidad compatibles con el cumplimiento normativo no solo son aceptadas, sino que se están convirtiendo en el estándar.

Esto no es un retroceso de los principios de privacidad. Es una evolución hacia una comprensión más sofisticada: la privacidad y el cumplimiento regulatorio pueden coexistir y, de hecho, deben coexistir si la blockchain y la IA quieren lograr una adopción institucional a gran escala.

El Fin de la "Privacidad a Toda Costa"

Durante años, el maximalismo de la privacidad dominó el discurso de la blockchain. Proyectos como Monero y las primeras versiones de protocolos centrados en la privacidad defendieron el anonimato absoluto. La filosofía era sencilla: los usuarios merecen una privacidad financiera total, y cualquier compromiso representaba una traición a los principios fundacionales de las criptomonedas.

Pero esta postura absolutista creó un problema crítico. Si bien la privacidad es esencial para proteger a los usuarios honestos de la vigilancia y el front-running, también se convirtió en un escudo para actividades ilícitas. Los reguladores de todo el mundo comenzaron a tratar las monedas de privacidad con sospecha, lo que llevó a su eliminación de los principales exchanges y a prohibiciones directas en varias jurisdicciones.

Como informa Cointelegraph, 2026 es el año en que la privacidad pragmática despega, con nuevos proyectos que abordan formas de privacidad compatibles para las instituciones y un creciente interés en las monedas de privacidad existentes como Zcash. La idea clave: la privacidad no es binaria. Ni la transparencia total ni la privacidad absoluta son viables en el mundo real, porque si bien la privacidad es esencial para los usuarios honestos, también puede ser utilizada por delincuentes para evadir la aplicación de la ley.

La gente está empezando a aceptar compromisos que limitan la privacidad en contextos específicos para hacer que los protocolos sean más resistentes a las amenazas. Esto representa un cambio fundamental en el enfoque de la comunidad blockchain hacia la privacidad.

Definiendo la Privacidad Pragmática

Entonces, ¿qué es exactamente la privacidad pragmática? Según Anaptyss, la privacidad pragmática se refiere a la implementación estratégica de medidas de privacidad que protegen los datos de los usuarios y de las empresas sin incumplir los requisitos regulatorios, garantizando que las operaciones financieras sean tanto seguras como conformes a la ley.

Este enfoque reconoce que los diferentes participantes en el ecosistema blockchain tienen diferentes necesidades de privacidad:

  • Los usuarios minoristas necesitan protección contra la vigilancia masiva y la recolección de datos.
  • Los inversores institucionales requieren confidencialidad para evitar el front-running de sus estrategias de trading.
  • Las empresas deben satisfacer mandatos estrictos de AML / KYC mientras protegen información comercial sensible.
  • Los agentes de IA necesitan computación verificable sin exponer algoritmos propietarios o datos de entrenamiento.

La solución no reside en elegir entre privacidad y cumplimiento, sino en construir una infraestructura que permita ambos simultáneamente.

zkKYC: Verificación de Identidad que Preserva la Privacidad

Uno de los avances más prometedores en la privacidad pragmática es la aparición de soluciones de Conocimiento de su Cliente con conocimiento cero (zkKYC). Los procesos de KYC tradicionales requieren que los usuarios envíen repetidamente documentos personales sensibles a múltiples plataformas, creando numerosos "honeypots" de datos personales vulnerables a filtraciones.

zkKYC cambia este modelo. Como explica zkMe, su servicio zkKYC combina la tecnología de Prueba de Conocimiento Cero (ZKP) con el cumplimiento total de las normas del GAFI. Un proveedor de KYC regulado verifica al usuario fuera de la cadena siguiendo los procedimientos estándar de AML y verificación de identidad, pero los protocolos no recopilan datos de identidad. En su lugar, verifican el cumplimiento criptográficamente.

El mecanismo es elegante: los contratos inteligentes verifican automáticamente una prueba de conocimiento cero antes de permitir el acceso a ciertos servicios o procesar grandes transacciones. Los usuarios demuestran que cumplen con los requisitos de cumplimiento —edad, residencia, estatus de no sancionado— sin revelar ningún dato de identidad real al protocolo ni a otros usuarios.

Según Studio AM, esto ya está sucediendo en algunos ecosistemas blockchain: los usuarios demuestran su edad o residencia con una ZKP antes de acceder a ciertos servicios de finanzas descentralizadas (DeFi). Las principales instituciones financieras están tomando nota. Deutsche Bank y Privado ID han realizado pruebas de concepto demostrando la verificación de identidad basada en blockchain utilizando credenciales de conocimiento cero.

Quizás lo más significativo es que, en julio de 2025, Google liberó el código fuente de sus bibliotecas de pruebas de conocimiento cero tras trabajar con el grupo Sparkasse de Alemania, lo que indica una creciente inversión institucional en infraestructura de identidad que preserva la privacidad.

zkTLS : Haciendo la Web Verificable

Mientras que zkKYC aborda la verificación de identidad, otra tecnología está resolviendo un problema igualmente crítico: cómo llevar datos verificables de la Web2 a los sistemas de blockchain sin comprometer la privacidad o la seguridad. Aquí entra zkTLS ( Zero-Knowledge Transport Layer Security ).

El TLS tradicional — el cifrado que asegura cada conexión HTTPS — tiene una limitación crítica: proporciona confidencialidad pero no verificabilidad. En otras palabras, aunque el TLS garantiza que la información esté cifrada durante la transmisión, no crea una prueba de que la interacción cifrada ocurrió de una manera que pueda ser verificada de forma independiente.

zkTLS soluciona esto integrando Pruebas de Conocimiento Cero con el sistema de cifrado TLS. Usando MPC-TLS y técnicas de conocimiento cero, zkTLS permite que un cliente produzca pruebas y atestaciones criptográficamente verificables de sesiones HTTPS reales.

Como lo describe zkPass , zkTLS genera una prueba de conocimiento cero ( por ejemplo, zk-SNARK ) que confirma que los datos fueron obtenidos de un servidor específico ( identificado por su clave pública y dominio ) a través de una sesión TLS legítima, sin exponer la clave de sesión o los datos en texto plano.

Las implicaciones son profundas. Las API tradicionales pueden ser desactivadas o censuradas fácilmente, mientras que zkTLS garantiza que, mientras los usuarios tengan una conexión HTTPS, puedan seguir accediendo a sus datos. Esto permite que virtualmente cualquier dato de la Web2 se utilice en una blockchain de manera verificable y sin permisos ( permissionless ).

Implementaciones recientes demuestran la madurez de la tecnología. El Coprocesador zkTLS de Brevis , al obtener datos de una fuente web, demuestra que el contenido fue recuperado a través de una sesión TLS genuina desde el dominio auténtico y que los datos no han sido manipulados.

En el FOSDEM 2026 , el proyecto TLSNotary presentó la liberación de los datos de usuario con zkTLS, demostrando cómo los usuarios pueden probar hechos sobre sus datos privados — saldos bancarios, puntajes crediticios, historiales de transacciones — sin exponer la información subyacente.

Computación de IA Verificable : La Pieza que Falta para la Adopción Institucional

La verificación de identidad y datos que preserva la privacidad prepara el terreno, pero el elemento más transformador de la infraestructura DePAI es la computación de IA verificable. A medida que los agentes de IA se convierten en participantes económicamente activos en los ecosistemas de blockchain, la pregunta cambia de "¿Puede la IA hacer esto?" a "¿Puedes probar que la IA hizo esto correctamente?".

Este requisito de verificación no es académico. Según DecentralGPT , a medida que la IA se integra en las finanzas, la automatización y los flujos de trabajo de agentes, el rendimiento por sí solo no es suficiente. En la Web3, la pregunta también es: ¿Puedes probar lo que sucedió? A finales de diciembre de 2025, Cysic e Inference Labs se asociaron para construir una infraestructura escalable para aplicaciones de IA verificables, combinando computación descentralizada con marcos de verificación diseñados para usos del mundo real.

El imperativo institucional para la computación verificable es claro. Como se señala en el análisis de Alexis M. Adams , la transición hacia una infraestructura de IA determinista es el único camino viable para que las organizaciones cumplan con las demandas multijurisdiccionales de la Ley de IA de la UE ( EU AI Act ), las leyes fronterizas a nivel estatal de EE. UU. y las crecientes expectativas del mercado de ciberseguros.

El mercado global de gobernanza de IA refleja esta urgencia: valorado en aproximadamente 429.8millonesen2026,seproyectaquealcancelos429.8 millones en 2026, se proyecta que alcance los 4.2 mil millones para 2033, según el mismo análisis.

Pero la verificación enfrenta una brecha crítica. Como identifica Keyrus , el despliegue de la IA requiere confiar en identidades digitales, pero las empresas no pueden validar quién — o qué — está operando realmente los sistemas de IA. Cuando las organizaciones no pueden distinguir de manera confiable a los agentes de IA legítimos de los impostores controlados por adversarios, no pueden otorgar con confianza a los sistemas de IA acceso a datos sensibles o autoridad para la toma de decisiones.

Aquí es donde la convergencia de zkKYC, zkTLS y la computación verificable crea una solución completa. Los agentes de IA pueden probar su identidad ( zkKYC ), probar que recuperaron los datos correctamente de fuentes autorizadas ( zkTLS ) y probar que calcularon los resultados correctamente ( computación verificable ), todo sin exponer la lógica de negocio sensible o los datos de entrenamiento.

El Impulso Institucional hacia el Cumplimiento

Estas tecnologías no están surgiendo en el vacío. La demanda institucional de infraestructura de privacidad que cumpla con las normas se está acelerando, impulsada por las presiones regulatorias y la necesidad empresarial.

Las grandes instituciones financieras reconocen que sin privacidad, sus estrategias de blockchain se estancarán. Según WEEX Crypto News , los inversores institucionales requieren confidencialidad para evitar el front-running de sus estrategias; sin embargo, deben cumplir con los estrictos mandatos de AML / KYC. Las Pruebas de Conocimiento Cero están ganando terreno como solución, permitiendo a las instituciones demostrar el cumplimiento sin revelar datos subyacentes sensibles a la blockchain pública.

El panorama regulatorio de 2026 no deja lugar a la ambigüedad. La Ley de IA de la UE alcanza su aplicación general en 2026, y los reguladores en todas las jurisdicciones esperan programas de gobernanza documentados, no solo políticas, según SecurePrivacy.ai . El cumplimiento total se aplica a los sistemas de IA de alto riesgo utilizados en infraestructura crítica, educación, empleo, servicios esenciales y cumplimiento de la ley.

En los Estados Unidos, para finales de 2025, 19 estados aplicaron leyes de privacidad integrales, con varios estatutos nuevos entrando en vigor en 2026, lo que complica las obligaciones de cumplimiento de privacidad multiestatales. Colorado y California han añadido "datos neuronales" ( y Colorado también añadió "datos biológicos" ) a las definiciones de datos "sensibles", según informa Nixon Peabody .

Esta convergencia regulatoria crea un incentivo poderoso: las organizaciones que construyen sobre una infraestructura verificable y que cumple con las normas obtienen una ventaja competitiva, mientras que aquellas que se aferran al maximalismo de la privacidad se ven excluidas de los mercados institucionales.

La integridad de los datos como sistema operativo para la IA

Más allá del cumplimiento, la computación verificable permite algo más fundamental: la integridad de los datos como sistema operativo para una IA responsable.

Como señala Precisely, en 2026, la gobernanza no será algo que las organizaciones añadan después del despliegue — estará integrada en la forma en que los datos se estructuran, interpretan y supervisan desde el principio. La integridad de los datos servirá como el sistema operativo para una IA responsable. Desde la claridad semántica y la explicabilidad hasta el cumplimiento, la auditabilidad y el control sobre los datos generados por IA, la integridad determinará si la IA puede escalar de forma segura y ofrecer un valor duradero.

Este cambio tiene profundas implicaciones para la forma en que los agentes de IA operan en las redes blockchain. En lugar de cajas negras opacas, los sistemas de IA se vuelven auditables, verificables y gobernables por diseño. Los contratos inteligentes pueden imponer restricciones al comportamiento de la IA, verificar la corrección computacional y crear registros de auditoría inmutables — todo ello preservando la privacidad de los algoritmos propietarios y los datos de entrenamiento.

El MIT Sloan Management Review identifica esto como una de las cinco tendencias clave en IA y ciencia de datos para 2026, señalando que una IA confiable requiere una procedencia verificable y procesos de toma de decisiones explicables.

Identidad descentralizada: La capa fundamental

Detrás de estas tecnologías se encuentra un cambio más amplio hacia la identidad descentralizada y las Credenciales Verificables. Como explica Indicio, la identidad descentralizada cambia la ecuación — en lugar de verificar datos personales en una ubicación central, las personas poseen sus datos y los comparten con un consentimiento que puede ser verificado independientemente mediante criptografía.

Este modelo invierte los sistemas de identidad tradicionales. En lugar de crear numerosas copias de documentos de identidad dispersas en bases de datos, los usuarios mantienen una única credencial verificable y divulgan selectivamente solo los atributos específicos requeridos para cada interacción.

Para los agentes de IA, este modelo se extiende más allá de la identidad humana. Los agentes pueden poseer credenciales verificables que den fe de su procedencia de entrenamiento, parámetros operativos, historial de auditoría y alcance de autorización. Esto crea un marco de confianza donde los agentes pueden interactuar de forma autónoma manteniendo la responsabilidad.

De la experimentación al despliegue

La transformación clave en 2026 es la transición de los marcos teóricos a los despliegues en producción. Según el análisis de XT Exchange, para 2026, la IA descentralizada superará la fase de experimentación para entrar en el despliegue práctico. Sin embargo, persisten limitaciones clave, como el escalado de las cargas de trabajo de IA, la preservación de la privacidad de los datos y la gobernanza de los sistemas de IA abiertos.

Estas limitaciones son precisamente lo que aborda la infraestructura DePAI. Al combinar zkKYC para la identidad, zkTLS para la verificación de datos y computación verificable para las operaciones de IA, la infraestructura crea un stack completo para desplegar agentes de IA que son simultáneamente:

  • Preservadores de la privacidad para usuarios y empresas
  • Cumplidores con los requisitos regulatorios
  • Verificables y auditables por diseño
  • Escalables para cargas de trabajo institucionales

El camino a seguir: Construyendo privacidad composible

La pieza final del rompecabezas de DePAI es la composibilidad. Como informa Blockmanity, 2026 marca el momento en que el blockchain se convierte en "simples cañerías" para los agentes de IA y las finanzas globales. La infraestructura debe ser modular, interoperable e invisible para los usuarios finales.

Las herramientas de privacidad pragmática destacan en la composibilidad. Un agente de IA puede:

  1. Autenticarse utilizando credenciales zkKYC
  2. Obtener datos externos verificados a través de zkTLS
  3. Realizar computaciones con inferencia verificable
  4. Enviar resultados on-chain con pruebas de conocimiento cero de su corrección
  5. Mantener registros de auditoría sin exponer la lógica sensible

Cada capa opera de forma independiente, lo que permite a los desarrolladores mezclar y combinar tecnologías de preservación de la privacidad basadas en requisitos específicos. Un protocolo DeFi podría requerir zkKYC para el registro de usuarios, zkTLS para obtener feeds de precios y computación verificable para cálculos financieros complejos — todo funcionando perfectamente en conjunto.

Esta composibilidad se extiende a través de las cadenas. La infraestructura de privacidad construida con estándares de interoperabilidad puede funcionar en Ethereum, Solana, Sui, Aptos y otras redes blockchain, creando una capa universal para la computación conforme, privada y verificable.

Por qué esto es importante para los desarrolladores

Para los desarrolladores que construyen la próxima generación de aplicaciones blockchain, la infraestructura DePAI representa tanto una oportunidad como un requisito.

La oportunidad: Ventaja del primer movimiento al construir aplicaciones que las instituciones realmente quieren usar. Las instituciones financieras, los proveedores de atención médica, las agencias gubernamentales y las empresas necesitan soluciones blockchain, pero no pueden comprometer el cumplimiento ni la privacidad. Las aplicaciones construidas sobre una infraestructura de privacidad pragmática pueden servir a estos mercados.

El requisito: Los entornos regulatorios están convergiendo en mandatos para sistemas de IA verificables y gobernables. Las aplicaciones que no puedan demostrar cumplimiento, auditabilidad y protección de la privacidad del usuario se verán excluidas de los mercados regulados.

Las capacidades técnicas están madurando rápidamente. Las soluciones zkKYC están listas para producción con importantes instituciones financieras realizando proyectos piloto. Las implementaciones de zkTLS están procesando datos del mundo real. Los marcos de computación verificable se están escalando para manejar cargas de trabajo institucionales.

Lo que se necesita ahora es la adopción por parte de los desarrolladores. La transición de herramientas de privacidad experimentales a infraestructura de producción requiere que los constructores integren estas tecnologías en las aplicaciones, las prueben en escenarios del mundo real y proporcionen comentarios a los equipos de infraestructura.

BlockEden.xyz proporciona infraestructura RPC de grado empresarial para redes blockchain que implementan tecnologías de preservación de la privacidad. Explore nuestros servicios para construir sobre cimientos diseñados para la era DePAI.

Conclusión: El futuro pragmático de la privacidad

La explosión de DePAI en 2026 representa más que un progreso tecnológico. Señala una maduración de la relación de la blockchain con la privacidad, el cumplimiento normativo y la adopción institucional.

La industria está dejando atrás las batallas ideológicas entre los maximalistas de la privacidad y los absolutistas de la transparencia. La privacidad pragmática reconoce que diferentes contextos exigen diferentes garantías de privacidad, y que el cumplimiento normativo y la privacidad del usuario pueden coexistir mediante un diseño criptográfico bien pensado.

zkKYC demuestra la identidad sin exponerla. zkTLS verifica los datos sin confiar en intermediarios. La computación verificable demuestra la corrección sin revelar los algoritmos. Juntas, estas tecnologías crean una capa de infraestructura donde los agentes de IA pueden operar de forma autónoma, las empresas pueden adoptar la blockchain con confianza y los usuarios mantienen el control sobre sus datos.

Esto no es una concesión en los principios de privacidad. Es el reconocimiento de que la privacidad, para ser significativa, debe ser sostenible dentro de las realidades regulatorias y comerciales de las finanzas globales. La privacidad absoluta que es prohibida, eliminada de los exchanges y excluida del uso institucional no protege a nadie. La privacidad pragmática que permite tanto la confidencialidad como el cumplimiento normativo cumple realmente con la promesa de la blockchain.

Los constructores que reconozcan este cambio y desarrollen hoy sobre la infraestructura DePAI definirán la próxima era de las aplicaciones descentralizadas. Las herramientas están listas. La demanda institucional es clara. El entorno regulatorio se está cristalizando. 2026 es el año en que la privacidad pragmática pasa de la teoría al despliegue — y la industria de la blockchain será más fuerte gracias a ello.


Fuentes

El giro empresarial de DePIN: de la especulación de tokens a la realidad de $166 millones en ARR

· 17 min de lectura
Dora Noda
Software Engineer

Cuando el Foro Económico Mundial proyecta que un sector crecerá de $19 mil millones a $3.5 billones para 2028, es necesario prestar atención. Cuando ese mismo sector genera $166 millones en ingresos recurrentes anuales (ARR) de clientes empresariales reales — no de emisiones de tokens — es hora de dejar de descartarlo como simple exageración publicitaria de las criptomonedas.

Las Redes de Infraestructura Física Descentralizada (DePIN) han experimentado silenciosamente una transformación fundamental. Mientras los especuladores persiguen memecoins, un puñado de proyectos DePIN está construyendo negocios de miles de millones de dólares al ofrecer lo que los proveedores de nube centralizados no pueden: ahorros de costos del 60-80 % con una confiabilidad de nivel de producción. El cambio del "teatro de la tokenomics" hacia la infraestructura empresarial está reescribiendo la propuesta de valor de la blockchain — y los gigantes tradicionales de la nube están tomando nota.

La oportunidad de $3.5 billones oculta a plena vista

Los números cuentan una historia que la mayoría de los inversores de cripto han pasado por alto. El ecosistema DePIN se expandió de $5.2 mil millones en capitalización de mercado (septiembre de 2024) a $19.2 mil millones para septiembre de 2025 — un aumento del 269 % que apenas generó titulares en una industria obsesionada con las narrativas de Capa 1. Casi 250 proyectos monitoreados ahora abarcan seis verticales: computación, almacenamiento, tecnología inalámbrica, energía, sensores y ancho de banda.

Pero la capitalización de mercado es una distracción. La verdadera historia es la densidad de ingresos. Los proyectos DePIN ahora generan un estimado de $72 millones en ingresos anuales on-chain en todo el sector, cotizando a múltiplos de ingresos de 10-25x — una compresión dramática frente a las valoraciones de más de 1,000x del ciclo de 2021. Esto no es solo disciplina de valoración; es evidencia de la maduración fundamental del modelo de negocio.

La proyección de $3.5 billones del Foro Económico Mundial para 2028 no se basa en sueños sobre el precio de los tokens. Refleja la convergencia de tres cambios masivos en la infraestructura:

  1. Explosión de la demanda de cómputo para IA: Se proyecta que las cargas de trabajo de aprendizaje automático consuman el 24 % de la electricidad de EE. UU. para 2030, creando una demanda insaciable de redes de GPU distribuidas.
  2. Economía del despliegue de 5G/6G: Los operadores de telecomunicaciones necesitan desplegar infraestructura de borde con una densidad 10 veces mayor que las redes 4G, pero con un menor gasto de capital por sitio.
  3. Rebelión contra los costos de la nube: Las empresas finalmente se cuestionan por qué AWS, Azure y Google Cloud imponen márgenes de beneficio del 30-70 % en computación y almacenamiento básico (commodity).

DePIN no reemplazará a la infraestructura centralizada mañana. Pero cuando Aethir entrega 1,500 millones de horas de cómputo a más de 150 clientes empresariales, y Helium firma asociaciones con T-Mobile, AT&T y Telefónica, la narrativa de "tecnología experimental" colapsa.

De airdrops a ingresos recurrentes anuales

La transformación del sector DePIN se entiende mejor a través del prisma de empresas reales que generan ingresos de ocho cifras, no de esquemas de inflación de tokens disfrazados de actividad económica.

Aethir: La potencia de las GPU

Aethir no es solo el mayor generador de ingresos de DePIN — está reescribiendo la economía de la computación en la nube. $166 millones de ARR para el tercer trimestre de 2025, derivados de más de 150 clientes empresariales de pago en áreas de entrenamiento de IA, inferencia, juegos e infraestructura Web3. Esto no es un rendimiento teórico; es facturación de clientes como operaciones de entrenamiento de modelos de IA, estudios de videojuegos y plataformas de agentes de IA que requieren disponibilidad de cómputo garantizada.

La escala es asombrosa: más de 440,000 contenedores de GPU desplegados en 94 países, entregando más de 1,500 millones de horas de cómputo. Para ponerlo en contexto, eso representa más ingresos que Filecoin (135 veces más grande por capitalización de mercado), Render (455x) y Bittensor (14x) combinados — medido por la eficiencia de ingresos frente a capitalización de mercado.

La estrategia empresarial de Aethir revela por qué DePIN puede ganar contra las nubes centralizadas: reducción de costos del 70 % frente a AWS manteniendo garantías de SLA que darían envidia a los proveedores de infraestructura tradicionales. Al agregar GPUs inactivas de centros de datos, cafés de juegos y hardware empresarial, Aethir crea un mercado del lado de la oferta que supera a los hiperescaladores en precio mientras los iguala en rendimiento.

Los objetivos para el primer trimestre de 2026 son aún más ambiciosos: duplicar la huella global de cómputo para capturar la acelerada demanda de infraestructura de IA. Las asociaciones con la Fundación Filecoin (para la integración de almacenamiento perpetuo) y las principales plataformas de juegos en la nube posicionan a Aethir como el primer proyecto DePIN en lograr una verdadera retención empresarial — contratos recurrentes, no interacciones de protocolo únicas.

Grass: La red de extracción de datos

Mientras Aethir monetiza el cómputo, Grass demuestra la flexibilidad de DePIN en otras categorías de infraestructura. $33 millones de ARR a partir de una propuesta de valor fundamentalmente diferente: extracción de datos web (web scraping) y recolección de datos descentralizada para procesos de entrenamiento de IA.

Grass convirtió el ancho de banda del consumidor en un producto negociable. Los usuarios instalan un cliente ligero que enruta las solicitudes de datos de entrenamiento de IA a través de sus direcciones IP residenciales, resolviendo el problema de "detección anti-bot" que afecta a los servicios de extracción centralizados. Las empresas de IA pagan tarifas premium para acceder a datos de entrenamiento limpios y geográficamente diversos sin activar límites de velocidad o barreras de CAPTCHA.

La economía funciona porque Grass captura el margen que de otro modo fluiría hacia los proveedores de servicios de proxy (Bright Data, Smartproxy) mientras ofrece una mejor cobertura. Para los usuarios, son ingresos pasivos provenientes de un ancho de banda no utilizado. Para los laboratorios de IA, es un acceso confiable a datos a escala web con ahorros de costos del 50-60 %.

Bittensor: Mercados de Inteligencia Descentralizados

El enfoque de Bittensor difiere fundamentalmente de los modelos de infraestructura como servicio. En lugar de vender cómputo o ancho de banda, monetiza los resultados de los modelos de IA a través de un mercado de "subredes" especializadas, cada una enfocada en tareas específicas de aprendizaje automático como la generación de imágenes, la completación de texto o la analítica predictiva.

Para septiembre de 2025, más de 128 subredes activas generan colectivamente aproximadamente 20 millones de dólares en ingresos anuales, y se proyecta que la subred líder de inferencia como servicio alcance los 10,4 millones de dólares de forma individual. Los desarrolladores acceden a los modelos impulsados por Bittensor a través de APIs compatibles con OpenAI, abstrayendo la infraestructura descentralizada y ofreciendo al mismo tiempo una inferencia con costos competitivos.

La validación institucional llegó con el Bittensor Trust de Grayscale (GTAO) en diciembre de 2025, seguido por empresas públicas como xTAO y TAO Synergies que acumularon más de 70 000 tokens TAO (~ 26 millones de dólares). Proveedores de custodia como BitGo, Copper y Crypto.com integraron Bittensor a través del validador de Yuma, señalando que DePIN ya no es demasiado "exótico" para la infraestructura financiera tradicional.

Render Network: De la renderización 3D a la IA empresarial

La trayectoria de Render muestra cómo los proyectos DePIN evolucionan más allá de sus casos de uso iniciales. Originalmente centrado en la renderización 3D distribuida para artistas y estudios, Render pivotó hacia el cómputo de IA a medida que cambió la demanda.

Métricas de julio de 2025: 1,49 millones de fotogramas renderizados, 207 900 dólares en tarifas de USDC quemadas, con el 35 % de todos los fotogramas renderizados históricamente solo en 2025, lo que demuestra una adopción acelerada. El cuarto trimestre de 2025 trajo la incorporación de GPU empresariales a través de RNP-021, integrando chips NVIDIA H200 y AMD MI300X para atender cargas de trabajo de inferencia y entrenamiento de IA junto con las tareas de renderización.

El modelo económico de Render quema los ingresos por tarifas (207 900 USDC en un solo mes), creando una economía de tokens (tokenomics) deflacionaria que contrasta marcadamente con los proyectos DePIN inflacionarios. A medida que la incorporación de GPU empresariales escala, Render se posiciona como la opción de nivel premium: mayor rendimiento, hardware auditado y suministro curado, apuntando a empresas que necesitan acuerdos de nivel de servicio (SLAs) de cómputo garantizados, no operadores de nodos aficionados.

Helium: La disrupción descentralizada de las telecomunicaciones

Las redes inalámbricas de Helium demuestran que DePIN puede infiltrarse en industrias tradicionales de billones de dólares. Las asociaciones con T-Mobile, AT&T y Telefónica no son programas piloto: son implementaciones de producción donde los puntos de acceso (hotspots) descentralizados de Helium aumentan la cobertura de macroceldas en áreas de difícil acceso.

La economía es convincente para los operadores de telecomunicaciones: los hotspots desplegados por la comunidad de Helium cuestan una fracción de las construcciones tradicionales de torres de telefonía celular, resolviendo el problema de la "cobertura de última milla" sin inversiones de infraestructura intensivas en capital. Para los operadores de hotspots, se trata de ingresos recurrentes por el uso real de datos, no de especulación de tokens.

El informe State of Helium del tercer trimestre de 2025 de Messari destaca el crecimiento sostenido de la red y el volumen de transferencia de datos, y se proyecta que el sector de blockchain en telecomunicaciones crezca de 1,07 mil millones de dólares (2024) a 7,25 mil millones de dólares para 2030. Helium está capturando una cuota de mercado significativa en un segmento que tradicionalmente se resistía a la disrupción.

La ventaja de costos del 60-80 %: Economía que obliga a la adopción

La propuesta de valor de DePIN no es la descentralización ideológica, sino una eficiencia de costos brutal. Cuando Fluence Network afirma ahorros del 60-80 % frente a las nubes centralizadas, están comparando términos equivalentes: capacidad de cómputo equivalente, garantías de SLA y zonas de disponibilidad.

La ventaja de costos proviene de diferencias estructurales:

  1. Eliminación del margen de la plataforma: AWS, Azure y Google Cloud imponen márgenes del 30-70 % sobre los costos de infraestructura subyacentes. Los protocolos DePIN reemplazan estos márgenes con emparejamiento algorítmico y estructuras de tarifas transparentes.

  2. Utilización de la capacidad ociosa: Las nubes centralizadas deben prever la demanda máxima, dejando la capacidad inactiva durante las horas de menor actividad. DePIN agrega recursos distribuidos globalmente que operan a tasas de utilización promedio más altas.

  3. Arbitraje geográfico: Las redes DePIN aprovechan regiones con menores costos de energía y hardware infrautilizado, enrutando dinámicamente las cargas de trabajo para optimizar la relación precio-rendimiento.

  4. Competencia de mercado abierto: El protocolo de Fluence, por ejemplo, fomenta la competencia entre proveedores de cómputo independientes, reduciendo los precios sin requerir compromisos de instancias reservadas de varios años.

Los proveedores de nube tradicionales ofrecen descuentos comparables (las instancias reservadas de AWS ahorran hasta un 72 %, las instancias de VM reservadas de Azure alcanzan el 72 %, el beneficio híbrido de Azure llega al 85 %), pero estos requieren compromisos de 1 a 3 años con pago por adelantado. DePIN ofrece ahorros similares bajo demanda, con precios spot que se ajustan en tiempo real.

Para las empresas que gestionan cargas de trabajo variables (experimentación de modelos de IA, granjas de renderizado, computación científica), la flexibilidad cambia las reglas del juego. Lanzar 10 000 GPU para un fin de semana, pagar tarifas spot un 70 % por debajo de AWS y cerrar la infraestructura el lunes por la mañana: sin planificación de capacidad, sin capacidad reservada desperdiciada.

El capital institucional sigue a los ingresos reales

El cambio de la especulación minorista a la asignación institucional es cuantificable. Las startups de DePIN recaudaron aproximadamente 1 000 millones de dólares en 2025, con 744 millones de dólares invertidos en más de 165 proyectos entre enero de 2024 y julio de 2025 (además de más de 89 acuerdos no revelados). Esto no es dinero poco sofisticado persiguiendo airdrops: es un despliegue calculado de capital de riesgo (VC) centrado en la infraestructura.

Dos fondos señalan la seriedad institucional:

  • DePIN Fund III de 100 millones de dólares de Borderless Capital (septiembre de 2024): Respaldado por peaq, Solana Foundation, Jump Crypto e IoTeX, dirigido a proyectos con un ajuste comprobado del producto al mercado (product-market fit) y tracción de ingresos.

  • Fondo de 300 millones de dólares de Entrée Capital (diciembre de 2025): Enfocado explícitamente en agentes de IA e infraestructura DePIN desde la etapa pre-semilla hasta la Serie A, apostando por la convergencia de sistemas autónomos e infraestructura descentralizada.

Es importante destacar que estos no son fondos criptonativos que se cubren en infraestructura; son inversores de infraestructura tradicionales que reconocen que DePIN ofrece rendimientos superiores ajustados al riesgo en comparación con los competidores de la nube centralizada. Cuando se puede financiar un proyecto que cotiza a 15 veces sus ingresos (Aethir) frente a hiperescaladores a 10 veces sus ingresos pero con fosos monopolísticos, la asimetría de DePIN se vuelve obvia.

Los proyectos DePIN más nuevos también están aprendiendo de los errores de tokenomics de 2021. Los protocolos lanzados en los últimos 12 meses alcanzaron valoraciones promedio totalmente diluidas de 760 millones de dólares, casi el doble de las valoraciones de los proyectos lanzados hace dos años, porque han evitado las espirales de muerte por emisión que plagaron a las redes iniciales. Un suministro de tokens más ajustado, desbloqueos basados en ingresos y mecanismos de quema crean una economía sostenible que atrae capital a largo plazo.

De la especulación a la infraestructura: Qué cambia ahora

Enero de 2026 marcó un punto de inflexión: los ingresos del sector DePIN alcanzaron los 150 millones de dólares en un solo mes, impulsados por la demanda empresarial de potencia de cálculo, datos cartográficos y ancho de banda inalámbrico. Esto no fue un pump del precio de los tokens; fue el uso facturado de clientes que resuelven problemas reales.

Las implicaciones se extienden en cascada por todo el ecosistema cripto:

Para los desarrolladores: La infraestructura DePIN finalmente ofrece alternativas de nivel de producción a AWS. Los 440,000 GPU de Aethir pueden entrenar LLM, Filecoin puede almacenar petabytes de datos con verificación criptográfica, Helium puede ofrecer conectividad IoT sin contratos con AT&T. El stack de blockchain está completo.

Para las empresas: La optimización de costes ya no es una elección entre rendimiento y precio. DePIN ofrece ambos, con precios transparentes, sin vendor lock-in y una flexibilidad geográfica que las nubes centralizadas no pueden igualar. Los CFO se darán cuenta.

Para los inversores: Los múltiplos de ingresos se están comprimiendo hacia las normas del sector tecnológico (10-25x), creando puntos de entrada que eran imposibles durante la manía especulativa de 2021. Aethir a 15x ingresos es más barata que la mayoría de las empresas de SaaS, con tasas de crecimiento más rápidas.

Para la tokenomics: Los proyectos que generan ingresos reales pueden quemar tokens (Render), distribuir comisiones del protocolo (Bittensor) o financiar el crecimiento del ecosistema (Helium) sin depender de emisiones inflacionarias. Los bucles económicos sostenibles reemplazan la reflexividad de tipo Ponzi.

La proyección de 3.5 billones de dólares del Foro Económico Mundial parece ahora conservadora. Si DePIN captura solo el 10% del gasto en infraestructura en la nube para 2028 (~60,000 millones de dólares anuales a las tasas actuales de crecimiento de la nube) y los proyectos cotizan a 15x ingresos, estaríamos ante una capitalización de mercado del sector de 900,000 millones de dólares — 46 veces más que la base actual de 19,200 millones de dólares.

Lo que los constructores de BlockEden.xyz deben saber

La revolución DePIN no está ocurriendo de forma aislada; está creando dependencias de infraestructura en las que los desarrolladores de Web3 confiarán cada vez más. Cuando construyes en Sui, Aptos o Ethereum, los requisitos de computación off-chain de tu dApp (inferencia de IA, indexación de datos, almacenamiento IPFS) se dirigirán cada vez más a través de proveedores DePIN en lugar de AWS.

Por qué es importante: Eficiencia de costes. Si tu dApp ofrece contenido generado por IA (creación de NFT, activos de juegos, señales de trading), ejecutar la inferencia a través de Bittensor o Aethir podría reducir tu factura de AWS en un 70%. Para los proyectos que operan con márgenes ajustados, esa es la diferencia entre la sostenibilidad y la muerte por tasa de consumo (burn rate).

BlockEden.xyz proporciona infraestructura de API de nivel empresarial para Sui, Aptos, Ethereum y más de 15 redes blockchain. A medida que los protocolos DePIN maduran hacia una infraestructura lista para la producción, nuestro enfoque multicadena garantiza que los desarrolladores puedan integrar computación, almacenamiento y ancho de banda descentralizados junto con un acceso RPC confiable. Explora nuestro marketplace de APIs para construir sobre bases diseñadas para durar.

El giro empresarial ya se ha completado

DePIN no está por venir; ya está aquí. Cuando Aethir genera 166 millones de dólares en ARR de 150 clientes empresariales, cuando Helium se asocia con T-Mobile y AT&T, cuando Bittensor ofrece inferencia de IA a través de APIs compatibles con OpenAI, la etiqueta de "tecnología experimental" ya no se aplica.

El sector ha cruzado el abismo desde la adopción cripto-nativa hasta la validación empresarial. El capital institucional ya no financia el potencial; está financiando modelos de ingresos probados con estructuras de costes que los competidores centralizados no pueden igualar.

Para la infraestructura blockchain, las implicaciones son profundas. DePIN demuestra que la descentralización no es solo una preferencia ideológica; es una ventaja competitiva. Cuando puedes ofrecer un ahorro de costes del 70% con garantías de SLA, no necesitas convencer a las empresas sobre la filosofía de la Web3. Solo necesitas mostrarles la factura.

La oportunidad de 3.5 billones de dólares no es una predicción. Es matemáticas. Y los proyectos que construyen negocios reales — no casinos de tokens — se están posicionando para capturarla.


Fuentes:

Más allá de lo monolítico frente a lo modular: cómo Zero Network de LayerZero redefine el manual de escalabilidad blockchain

· 12 min de lectura
Dora Noda
Software Engineer

Cada blockchain que ha logrado escalar lo ha hecho obligando a cada validador a repetir el mismo trabajo. Esa única elección de diseño —llámenla el requisito de replicación— ha limitado el rendimiento durante décadas. Zero Network de LayerZero propone eliminarlo por completo, y los socios institucionales que se están sumando sugieren que la industria podría estar tomando esa afirmación en serio.

El mercado de $ 381 M de InfoFi decodificado: Cómo cuatro verticales están convirtiendo la información en activos negociables

· 13 min de lectura
Dora Noda
Software Engineer

¿Y si tu capacidad para detectar una tendencia cripto emergente antes que la multitud valiera dinero? No en un sentido vago de "el conocimiento es poder", sino literalmente — con un precio de token vinculado a tu perspicacia y un mercado listo para pujar por ella?

Esa es la promesa de la Información Financiera, o InfoFi. Acuñado como concepto por Vitalik Buterin en su ensayo de noviembre de 2024 "De los mercados de predicción a la info finance", InfoFi describe una clase de protocolos que utilizan mecanismos financieros para extraer, agregar y valorar la información como un bien público. A principios de 2025, el sector había crecido hasta alcanzar una capitalización de mercado de 381 millones de dólares. A finales de 2025, se había convertido en uno de los campos de batalla más disputados en Web3.

Pero InfoFi no es una sola cosa. Bajo este término general conviven cuatro verticales distintas, cada una con su propia mecánica, actores principales y dinámica competitiva. Comprender dónde se sitúa cada vertical — y dónde se desdibujan las líneas — es esencial para cualquiera que intente navegar por este espacio de manera inteligente.

La paradoja de la Capa 2: cómo las tarifas de $0,001 están rompiendo el modelo de negocio de escalado de Ethereum

· 14 min de lectura
Dora Noda
Software Engineer

Las redes de Capa 2 de Ethereum han logrado algo extraordinario en 2025 : han reducido los costos de transacción en más de un 90 %, haciendo que las interacciones en la blockchain sean casi gratuitas. Pero este triunfo de la ingeniería ha creado una crisis inesperada — el mismo modelo de negocio que financia estas redes se está colapsando bajo el peso de su propio éxito.

A medida que las tarifas de transacción caen en picada hacia los $ 0,001 por operación, los operadores de Capa 2 se enfrentan a una pregunta cruda : ¿ cómo se mantiene una infraestructura de miles de millones de dólares cuando su principal flujo de ingresos se está evaporando ?

El gran colapso de las tarifas de 2025

Los números cuentan una historia dramática. Entre enero de 2025 y enero de 2026, los precios promedio del gas en las redes de Capa 2 de Ethereum cayeron de 7,141 gwei a aproximadamente 0,50 gwei — una asombrosa reducción del 93 %. Hoy en día, las transacciones en Base promedian los 0,01,mientrasqueArbitrumyOptimismrondanlos0,01, mientras que Arbitrum y Optimism rondan los 0,15 - 0,20, con muchas operaciones costando ahora apenas fracciones de centavo.

¿ El catalizador ? EIP-4844, la actualización Dencun de Ethereum lanzada en marzo de 2024, que introdujo los " blobs " — paquetes de datos temporales que las redes de Capa 2 pueden usar para una liquidación rentable. A diferencia de los calldata tradicionales almacenados permanentemente en Ethereum, los blobs permanecen disponibles durante aproximadamente 18 días, lo que permite que su precio sea drásticamente más bajo.

El impacto fue inmediato y devastador para el modelo de ingresos tradicional. Optimism, Arbitrum y Base experimentaron reducciones de tarifas del 90 - 99 % para muchos tipos de transacciones. Las tarifas medias de los blobs cayeron hasta los $ 0,0000000005, lo que hace que las interacciones de los usuarios sean casi insignificantes por su bajo costo. Se han publicado más de 950 000 blobs en Ethereum desde el lanzamiento de EIP-4844, remodelando fundamentalmente la economía de las operaciones de Capa 2.

Para los usuarios y desarrolladores, esto es el paraíso. Para los operadores de Capa 2 que cuentan con los ingresos del secuenciador, es una amenaza existencial.

Ingresos del secuenciador : El flujo de ingresos en peligro de extinción

Tradicionalmente, las redes de Capa 2 han ganado dinero a través de un modelo directo : cobran tarifas a los usuarios por procesar transacciones y luego pagan una parte de esas tarifas a Ethereum por la disponibilidad de datos y la liquidación. La diferencia entre lo que cobran y lo que pagan se convierte en su beneficio — los ingresos del secuenciador.

Este modelo funcionó brillantemente cuando las tarifas de la Capa 2 eran sustanciales. Pero con los costos de transacción acercándose a cero, el margen se ha vuelto extremadamente delgado.

La economía revela el desafío de manera cruda. Base, a pesar de liderar el grupo, promedia solo 185291eningresosdiariosdurantelosuˊltimos180dıˊas.Arbitrumrecaudaaproximadamente185 291 en ingresos diarios durante los últimos 180 días. Arbitrum recauda aproximadamente 55 025 por día. Estas cifras, aunque no son insignificantes, deben sostener una infraestructura extensa, equipos de desarrollo y operaciones continuas para redes que procesan cientos de miles de transacciones diarias.

La situación se vuelve más precaria al examinar las ganancias brutas anuales. Base lidera con casi 30millonesparaelan~o,mientrasquetantoArbitrumcomoOptimismhanrecaudadoalrededorde30 millones para el año, mientras que tanto Arbitrum como Optimism han recaudado alrededor de 9,5 millones cada uno. Estas cifras deben sostener redes que procesan colectivamente el 60 - 70 % del volumen total de transacciones de Ethereum — una carga operativa masiva para retornos relativamente modestos.

La tensión fundamental es clara : las redes de Capa 2 deben encontrar un nicho que justifique su existencia fuera de la red principal de Ethereum y generar ingresos suficientes para mantenerse por sí mismas. Como señaló un análisis de la industria, " la rentabilidad reside en la diferencia entre lo que las L2 ganan de los usuarios y lo que pagan a Ethereum " — pero esa diferencia se reduce cada día.

La divergencia del MEV : Diferentes caminos hacia la captura de valor

Ante la presión sobre los ingresos del secuenciador, las redes de Capa 2 están explorando el Valor Máximo Extraíble ( MEV ) como una fuente de ingresos alternativa. Pero sus enfoques difieren drásticamente, creando distintas ventajas competitivas y desafíos.

La filosofía de ordenamiento justo de Arbitrum

Arbitrum emplea un sistema de ordenamiento First-Come First-Serve ( FCFS ), diseñado para reducir el daño al usuario por la extracción de MEV. Esta filosofía prioriza la experiencia del usuario sobre la maximización de ingresos, lo que resulta en una actividad de MEV significativamente menor — solo el 7 % del uso de gas on-chain en comparación con más del 50 % en las redes competidoras.

Sin embargo, Arbitrum no está abandonando el MEV por completo. La red está explorando futuras implementaciones de secuenciadores descentralizados que podrían introducir subastas para oportunidades de MEV, devolviendo potencialmente algo de valor a los usuarios o a la tesorería del protocolo. Esto representa un camino intermedio : preservar la equidad mientras se captura valor económico.

El enfoque de subastas de Base y Optimism

En contraste, Base y Optimism utilizan Priority Gas Auctions ( PGA ), donde los usuarios pueden ofertar tarifas más altas para obtener prioridad en las transacciones. Este diseño permite inherentemente más actividad de MEV — el MEV optimista representa entre el 51 - 55 % del uso total de gas on-chain en estas redes.

¿ El problema ? Las tasas de éxito para el arbitraje real siguen siendo extremadamente bajas en los rollups de OP-Stack, rondando el 1 % — mucho más bajas que en Arbitrum. La mayor parte del gas se gasta en " sondas de interacción " — cálculos on-chain que buscan oportunidades de arbitraje que rara vez se materializan. Esto crea una situación peculiar en la que la actividad de MEV consume recursos sin generar un valor proporcional.

A pesar de las tasas de éxito más bajas, el gran volumen de actividad relacionada con el MEV en Base contribuye a su liderazgo en ingresos. La red procesa más de 1 000 transacciones por segundo a un costo mínimo, convirtiendo el volumen en una ventaja competitiva.

Modelos de ingresos alternativos: más allá de las comisiones de transacción

A medida que los ingresos tradicionales de los secuenciadores resultan insuficientes, las redes de Capa 2 están siendo pioneras en modelos de negocio alternativos que podrían remodelar la economía de la infraestructura blockchain.

La divergencia en las licencias

Arbitrum y Optimism han adoptado enfoques drásticamente diferentes para monetizar sus pilas tecnológicas.

Participación en los ingresos de Orbit de Arbitrum: Arbitrum adopta un modelo de "código fuente comunitario", que requiere que las cadenas construidas sobre su marco Orbit contribuyan con el 10 % de los ingresos del protocolo si se liquidan fuera del ecosistema de Arbitrum. Esto crea una estructura similar a las regalías que genera ingresos incluso cuando las cadenas no utilizan directamente Arbitrum para la liquidación.

La apuesta de código abierto de Optimism: El OP Stack de Optimism es completamente de código abierto bajo la licencia MIT, lo que permite que cualquier persona obtenga el código, lo modifique libremente y construya cadenas de Capa 2 personalizadas sin regalías ni tarifas iniciales. El reparto de ingresos solo se activa cuando una cadena se une al ecosistema oficial de Optimism, la "Superchain".

Esto crea una dinámica interesante: Optimism apuesta por el crecimiento del ecosistema y la participación voluntaria, mientras que Arbitrum impone una alineación económica a través de requisitos de licencia. El tiempo dirá qué enfoque equilibra mejor el crecimiento con la sostenibilidad.

Rollups empresariales y servicios profesionales

Quizás la alternativa más prometedora surgió en 2025: el auge del "rollup empresarial". Las principales instituciones están lanzando redes personalizadas de Capa 2 y están dispuestas a pagar por servicios profesionales de despliegue, mantenimiento y soporte.

Esto refleja los modelos de negocio tradicionales de código abierto: el código es gratuito, pero la experiencia operativa exige precios premium. El recientemente lanzado OP Enterprise de Optimism ejemplifica este enfoque, ofreciendo un servicio de guante blanco a las instituciones que construyen infraestructura blockchain personalizada.

La propuesta de valor es convincente para las empresas. Obtienen acceso a la liquidez y a los efectos de red de la economía de Ethereum mientras mantienen capacidades personalizadas de seguridad, privacidad y cumplimiento. Como señala un informe del sector, "las instituciones pueden tener su propio L2 institucional personalizado que se conecta a la liquidez y a los efectos de red de la economía de Ethereum".

Capas 3 y cadenas específicas de aplicaciones

Los protocolos DeFi de alto rendimiento exigen cada vez más capacidades que las redes genéricas de Capa 2 no pueden proporcionar de manera eficiente: ejecución predecible, lógica de liquidación flexible, control granular sobre el orden de las transacciones y la capacidad de capturar MEV internamente.

Aquí entran las Capas 3 (L3) y las cadenas específicas de aplicaciones construidas sobre marcos como Arbitrum Orbit. Estas redes especializadas permiten que los protocolos internalicen el MEV, personalicen la economía y se optimicen para casos de uso específicos. Para los operadores de Capa 2, proporcionar la infraestructura y las herramientas para estas cadenas especializadas representa una nueva vía de ingresos que no depende del procesamiento de transacciones de bajo margen.

La visión estratégica es clara: las redes de Capa 2 ganan distribuyendo su infraestructura hacia el exterior y asociándose con grandes plataformas, no compitiendo únicamente en costes de transacción.

La cuestión de la sostenibilidad: ¿pueden las L2 sobrevivir a la guerra de comisiones?

La tensión fundamental a la que se enfrentan las redes de Capa 2 en 2026 es si alguna combinación de modelos de ingresos alternativos puede compensar la desaparición de las comisiones por transacción.

Considere las cifras: si las comisiones de transacción continúan con una tendencia hacia los 0,001 $ y los costes de los blobs permanecen cerca de cero, incluso procesar millones de transacciones diarias genera ingresos mínimos. Base, a pesar de su liderazgo en volumen, debe encontrar fuentes de ingresos adicionales para justificar las operaciones en curso a escala.

La situación se complica por las persistentes preocupaciones sobre la centralización. La mayoría de las redes de Capa 2 siguen estando mucho más centralizadas de lo que parecen, y la descentralización se trata como un objetivo a largo plazo en lugar de una prioridad inmediata. Esto crea un riesgo regulatorio y dudas sobre la acumulación de valor a largo plazo: si una red está centralizada, ¿por qué deberían los usuarios confiar en ella por encima de las bases de datos tradicionales con "criptografía inteligente"?

Los cambios estructurales recientes sugieren que la propia Ethereum reconoce el problema. La actualización Fusaka tiene como objetivo "reparar" la cadena de captura de valor entre la Capa 1 y la Capa 2, exigiendo que las L2 paguen un "tributo" incrementado a la red principal de Ethereum. Esta redistribución ayuda a Ethereum, pero reduce aún más los márgenes ya estrechos de la Capa 2.

Modelos de ingresos para 2026 y más allá

Mirando hacia el futuro, es probable que las redes de Capa 2 exitosas adopten estrategias de ingresos híbridas:

  1. Volumen sobre margen: El enfoque de Base —procesar volúmenes masivos de transacciones con un beneficio mínimo por transacción— puede funcionar si se alcanza la escala necesaria. Los más de 1.000 TPS de Base con comisiones de 0,01 generanmaˊsingresosquelos400TPSdeArbitrumconcomisionesde0,20generan más ingresos que los 400 TPS de Arbitrum con comisiones de 0,20.

  2. Captura selectiva de MEV: Las redes deben equilibrar la extracción de MEV con la experiencia del usuario. La exploración de Arbitrum de subastas de MEV que devuelven valor a los usuarios representa un camino intermedio que genera ingresos sin alienar a la comunidad.

  3. Servicios empresariales: El soporte profesional, la asistencia en el despliegue y los servicios de personalización para clientes institucionales ofrecen ingresos de alto margen que escalan con el valor del cliente en lugar del recuento de transacciones.

  4. Reparto de ingresos del ecosistema: Tanto los modelos de reparto de ingresos obligatorios (Arbitrum Orbit) como los voluntarios (Optimism Superchain) crean efectos de red donde el éxito de la Capa 2 se potencia a través de la participación en el ecosistema.

  5. Mercados de disponibilidad de datos: A medida que evoluciona el precio de los blobs, las redes de Capa 2 podrían introducir ofertas de disponibilidad de datos por niveles: garantías de liquidación premium para instituciones y opciones económicas para aplicaciones de consumo.

Para 2026, se espera que las redes introduzcan modelos de reparto de ingresos, distribución de beneficios de los secuenciadores y rendimientos vinculados al uso real de la red, pasando fundamentalmente de las comisiones por transacción a una economía de participación.

El camino a seguir

La crisis económica de la Capa 2 es, paradójicamente, una señal de éxito tecnológico. Las soluciones de escalabilidad de Ethereum han logrado su objetivo principal: hacer que las transacciones en la blockchain sean asequibles y accesibles. Sin embargo, el triunfo tecnológico no se traduce automáticamente en sostenibilidad empresarial.

Las redes que sobrevivan y prosperen serán aquellas que:

  • Acepten que las tarifas de transacción por sí solas no pueden sostener las operaciones a 0.001 $ por operación
  • Desarrollen flujos de ingresos diversificados que se alineen con la creación de valor real
  • Equilibren las preocupaciones de centralización con la eficiencia operativa
  • Construyan efectos de red en el ecosistema que acumulen valor más allá de las transacciones individuales
  • Atiendan a clientes institucionales y corporativos dispuestos a pagar por la fiabilidad de la infraestructura

Base, Arbitrum y Optimism están experimentando con diferentes combinaciones de estas estrategias. Base lidera en ingresos brutos a través del volumen, Arbitrum impone la alineación económica mediante licencias y Optimism apuesta por el crecimiento del ecosistema de código abierto.

Los ganadores finales probablemente serán aquellos que reconozcan el cambio fundamental: las redes de Capa 2 ya no son solo procesadores de transacciones. Se están convirtiendo en plataformas de infraestructura, proveedores de servicios empresariales y orquestadores de ecosistemas. Los modelos de ingresos deben evolucionar en consecuencia, o se arriesgan a convertirse en servicios básicos insosteniblemente baratos en una carrera hacia el cero que nadie puede permitirse ganar.

Para los desarrolladores que construyen sobre infraestructura de Capa 2, el acceso fiable a los nodos y la indexación de datos siguen siendo fundamentales a medida que estas redes evolucionan sus modelos de negocio. BlockEden.xyz proporciona acceso a API de nivel empresarial en las principales redes de Capa 2, ofreciendo un rendimiento constante independientemente de los cambios económicos subyacentes.


Fuentes

El Q-Day está más cerca de lo que crees: Cómo la apuesta de $20M de Project Eleven está preparando la blockchain para la amenaza cuántica

· 11 min de lectura
Dora Noda
Software Engineer

En algún lugar, en este mismo momento, una computadora cuántica está procesando su próximo ciclo con corrección de errores — y con cada iteración, los fundamentos criptográficos que aseguran billones de dólares en Bitcoin y Ethereum se vuelven marginalmente más frágiles. La mayoría de las personas en el mundo cripto no están prestando atención. Project Eleven está apostando 20 millones de dólares a que eventualmente tendrán que hacerlo.