Saltar al contenido principal

435 publicaciones etiquetados con "Blockchain"

Tecnología blockchain general e innovación

Ver Todas las Etiquetas

La visión de Balaji para la Criptoidentidad: De las Claves a los Estados de Red

· 11 min de lectura
Dora Noda
Software Engineer

1) Lo que Balaji entiende por "criptoidentidad"

En el vocabulario de Balaji, la criptoidentidad es una identidad arraigada en la criptografía —específicamente en pares de claves públicas y privadas— y luego extendida con nombres en cadena, credenciales/atestaciones verificables e interfaces a la identidad heredada ("fiat"). En sus palabras y trabajo:

  • Claves como identidad. La base es la idea de que, en Bitcoin y web3, tu par de claves es tu identidad; la autenticación y autorización fluyen del control de las claves privadas en lugar de cuentas en una base de datos corporativa. (balajis.com)
  • Nombres y reputación en cadena. Los sistemas de nombres como ENS/SNS anclan identidades legibles por humanos a direcciones; las credenciales (NFTs, tokens "soulbound", "criptocredenciales" en cadena) y las atestaciones superponen reputación e historial a esas identidades.
  • "Censo" en cadena y auditable. Para las sociedades y los estados de red, la identidad participa en un censo criptográficamente auditable (prueba de humanidad/persona única, prueba de ingresos, prueba de bienes raíces) para demostrar población real y actividad económica.
  • Conexión ID heredada ↔ ID cripto. Él argumenta explícitamente que necesitamos un "intercambio de identidad fiat ↔ identidad cripto" —similar a los intercambios fiat↔cripto— para que "los pasaportes digitales sigan a la moneda digital". Destaca los "criptopasaportes" como la próxima interfaz después de las stablecoins. (Circle)
  • Identidad para una "web3 de confianza" en la era de la IA. Para contrarrestar los deepfakes y los bots, promueve el contenido firmado por identidades en cadena (por ejemplo, ENS) para que la procedencia y la autoría sean criptográficamente verificables en toda la web abierta. (Chainlink Today)
  • Protección cívica. En su resumen: "La criptomoneda te protege parcialmente de la desbancarización. La criptoidentidad te protege parcialmente de la desnaturalización." (X (anteriormente Twitter))

2) Cómo evolucionó su visión (una breve cronología)

  • 2019–2020 – identidad criptográfica y seudonimato. Los escritos de Balaji enfatizan la criptografía de clave pública como identidad (claves como ID) y pronostican el crecimiento de la identidad descentralizada + reputación a lo largo de la década de 2020. Al mismo tiempo, su charla sobre la "economía seudónima" aboga por seudónimos persistentes y con reputación para proteger la libertad de expresión y experimentar con nuevos tipos de trabajo y organización. (balajis.com)
  • 2022 – The Network State. Formaliza el papel de la identidad en un estado de red: censo en cadena; identidad estilo ENS; pruebas criptográficas (de personalidad/ingresos/bienes raíces); y criptocredenciales/soulbounds. La identidad es infraestructural: lo que la sociedad cuenta y lo que el mundo puede verificar.
  • 2022–2024 – puentes a sistemas heredados. En entrevistas públicas y su podcast, pide puentes de identidad fiat↔cripto (por ejemplo, la residencia digital RNS.ID de Palau) y enfatiza la migración de registros "en papel" a código. (Circle)
  • 2023–presente – identidad como defensa contra las falsificaciones de IA. Enmarca la criptoidentidad como la columna vertebral de una "web3 de confianza": contenido firmado, procedencia en cadena y fricción económica (staking, pagos) para separar a los humanos de los bots. (Chainlink Today)

3) La pila tecnológica a la que Balaji apunta

Primitiva raíz: claves y monederos

  • El control de una clave privada = el control de una identidad; rotar/particionar claves para diferentes personas y perfiles de riesgo. (balajis.com)

Resolución e inicio de sesión

  • ENS/SNS mapean nombres legibles por humanos a direcciones; Sign-In with Ethereum (EIP-4361) convierte esas direcciones en una forma estándar de autenticarse en aplicaciones fuera de cadena.

Credenciales y atestaciones (capa de reputación)

  • Las Credenciales Verificables W3C (VC 2.0) definen una forma interoperable de emitir/mantener/verificar reclamaciones (por ejemplo, verificaciones KYC, diplomas).
  • El Servicio de Atestación de Ethereum (EAS) proporciona una capa de bien público para atestaciones en o fuera de cadena para construir identidad, reputación y registros que las aplicaciones pueden verificar. (W3C)

Prueba de personalidad y unicidad

  • En The Network State, Balaji esboza técnicas de "prueba de humanidad" para el censo en cadena; fuera de su trabajo, enfoques como World ID intentan verificar la humanidad/unicidad, lo que también ha planteado preocupaciones sobre la protección de datos, ilustrando las compensaciones de la PoP biométrica.

Puentes a la identidad heredada

  • Palau RNS.ID es un ejemplo prominente de un soberano que emite una identificación legal con componentes en cadena; la aceptación es desigual entre plataformas, lo que subraya el problema del "puente" que Balaji destaca. (Biometric Update)

Procedencia y anti-deepfake

  • Aboga por firmar contenido desde direcciones vinculadas a ENS para que cada imagen/publicación/video pueda rastrearse a una identidad criptográfica en una "web3 de confianza". (Chainlink Today)

4) Por qué es importante (las afirmaciones estratégicas de Balaji)

  1. Resistencia a la censura y la desplatformación: Las claves y la denominación descentralizada reducen la dependencia de los proveedores de ID centralizados. (Las claves son identidades al portador.) (balajis.com)
  2. Auditabilidad para las sociedades: Los estados de red requieren población/ingresos/huella verificables; la auditabilidad es imposible sin una identidad que pueda probarse en cadena.
  3. Resiliencia de la IA: Una capa de identidad criptográfica (más firmas/atestaciones) sustenta la autenticidad en línea, revirtiendo la falsificación impulsada por la IA. (Chainlink Today)
  4. Interoperabilidad y componibilidad: Los estándares (ENS, SIWE, VC/EAS) hacen que la identidad sea portátil entre aplicaciones y jurisdicciones.

5) Cómo se conecta con The Network State

El libro de Balaji empareja repetidamente la identidad con un censo en cadena en tiempo real —incluyendo prueba de humanidad, prueba de ingresos y prueba de bienes raíces— y destaca la denominación (ENS) y las criptocredenciales como primitivas centrales. También describe patrones de "inicio de sesión ENS al mundo físico" (claves digitales para puertas/servicios) incrustados en un contrato inteligente social, señalando la criptoidentidad como la capa de acceso para la gobernanza tanto digital como (eventualmente) física.


6) Plan de implementación (un camino práctico que puedes ejecutar hoy)

A. Establecer las identidades base

  1. Generar pares de claves separados para: (i) nombre legal/"nombre real", (ii) seudónimo laboral/profesional, (iii) seudónimo para el discurso público. Almacenar cada uno en una configuración de monedero diferente (hardware, MPC o cuentas inteligentes con guardianes). (balajis.com)
  2. Registrar nombres ENS para cada persona; publicar metadatos mínimos de perfil público.

B. Añadir autenticación y procedencia del contenido 3) Habilitar SIWE (EIP-4361) para inicios de sesión de aplicaciones; eliminar gradualmente las contraseñas/inicios de sesión sociales. (Ethereum Improvement Proposals) 4) Firmar artefactos públicos (publicaciones, imágenes, lanzamientos de código) desde tu dirección vinculada a ENS; publicar un simple feed de "contenido firmado" que otros puedan verificar. (Chainlink Today)

C. Superponer credenciales y atestaciones 5) Emitir/recopilar VCs para hechos legales (rol de empresa, licencias) y atestaciones EAS para señales blandas (reputación, contribuciones verificadas, asistencia). Mantener las reclamaciones sensibles fuera de cadena con solo hashes/recibos en cadena. (W3C)

D. Conectar con la identidad heredada cuando sea necesario 6) Donde sea legal y útil, vincular una ID soberana/empresarial (por ejemplo, Palau RNS.ID) a tu criptoidentidad para lugares con requisitos KYC. Esperar una aceptación heterogénea y mantener alternativas. (Biometric Update)

E. Desplegar para grupos/sociedades 7) Para una sociedad startup o DAO:

  • Restringir la membresía con ENS + un método de prueba de humanidad que consideres aceptable.
  • Mantener un censo público y auditable (recuentos de miembros/ingresos/posesiones) utilizando oráculos más atestaciones firmadas, no PII en bruto.

7) Riesgos, críticas y preguntas abiertas

  • Erosión de la privacidad/seudonimato. El análisis de blockchain puede agrupar monederos; el propio marco de seudonimato de Balaji advierte cómo un puñado de "bits" de datos pueden reidentificarte. Utiliza mezcladores/tecnología de privacidad con cuidado y legalmente, pero reconoce los límites. (blog.blockstack.org)
  • Compensaciones de la prueba de personalidad. La PoP biométrica (por ejemplo, iris) invita a un escrutinio significativo de la protección de datos; los métodos alternativos de PoP reducen el riesgo pero pueden aumentar la vulnerabilidad Sybil. (law.kuleuven.be)
  • Fragilidad del puente. Las identificaciones estilo Palau no son un pase KYC universal; la aceptación varía según la plataforma y la jurisdicción y puede cambiar. Construye para una degradación elegante. (Malakouti Law)
  • Pérdida y coerción de claves. Las claves pueden ser robadas/coercionadas; utiliza multifirma/guardianes y políticas de respuesta a incidentes. (El modelo de Balaji asume criptografía + consentimiento, lo cual debe ser diseñado socialmente.) (balajis.com)
  • Centralización de nombres/registros. ENS o cualquier autoridad de nombres se convierte en un punto de estrangulamiento de políticas; mitiga mediante el diseño de múltiples personas y pruebas exportables.

8) Cómo la criptoidentidad de Balaji se mapea a los estándares (y en qué difiere)

  • Alineación:

    • DIDs + VCs (W3C) = identidad/reclamaciones portátiles e interoperables; SIWE = autenticación nativa de monedero; EAS = atestaciones para reputación/registros. Estos son los componentes a los que apunta, incluso si utiliza un lenguaje sencillo (ENS, credenciales) en lugar de acrónimos de estándares. (W3C)
  • Diferencias/énfasis:

    • Él eleva la auditabilidad social (censo en cadena) y la procedencia en la era de la IA (contenido firmado) más que muchas discusiones sobre DID/VC, y explícitamente impulsa los puentes de identidad fiat↔cripto y los criptopasaportes como una prioridad a corto plazo.

9) Si estás construyendo: un despliegue mínimo viable de "criptoidentidad" (90 días)

  1. Semanas 1–2: Claves, ENS, SIWE habilitados; publica tu política de firma y comienza a firmar publicaciones/lanzamientos públicos. (Ethereum Improvement Proposals)
  2. Semanas 3–6: Integra VCs/EAS para roles/membresías/participación; construye una "página de confianza" pública que verifique esto programáticamente. (W3C)
  3. Semanas 7–10: Configura un panel de censo básico (recuento agregado de miembros, pruebas de tesorería/ingresos en cadena) con una postura de privacidad clara.
  4. Semanas 11–13: Pilota un puente heredado (por ejemplo, RNS.ID donde sea apropiado) para un flujo intensivo en cumplimiento; publica los resultados (lo que funcionó/falló). (Biometric Update)

Fuentes seleccionadas (primarias y fundamentales)

  • The Network State (censo en cadena; ENS/identidad; criptocredenciales) y ejemplos de "inicio de sesión ENS al mundo físico".
  • Criptografía de Clave Pública (claves como identidad). (balajis.com)
  • Circle – The Money Movement (Ep. 74) (puente de identidad fiat↔cripto; "criptopasaportes"). (Circle)
  • The Network State podcast, Ep. 10 (intercambio de identidad fiat→criptoidentidad; Palau RNS.ID). (thenetworkstate.com)
  • Chainlink Today (contenido firmado/ENS para combatir deepfakes; "web3 de confianza"). (Chainlink Today)
  • Balaji en X ("Criptoidentidad... desnaturalización"). (X (anteriormente Twitter))
  • Estándares: W3C DID Core, VC 2.0; EIP-4361 (SIWE); documentos de EAS. (W3C)
  • RNS.ID / Palau (puente del mundo real; aceptación mixta). (Biometric Update)
  • Pseudonymous Economy (identidad e intuición de reidentificación de 33 bits). (blog.blockstack.org)

Conclusión

Para Balaji, la criptoidentidad no es solo "tecnología DID". Es una primitiva civilizatoria: claves y firmas en la base; nombres y credenciales en la parte superior; puentes a la identidad heredada; y un registro público verificable que escala desde individuos hasta sociedades de red. Es cómo se obtienen personas auténticas y registros auténticos en una internet inundada de IA, y cómo una sociedad startup puede probar que es real sin pedirle al mundo que confíe en su palabra. (Chainlink Today)

Si lo deseas, puedo adaptar el plan de implementación a tu caso de uso específico (aplicación de consumidor, DAO, empresa o un piloto de sociedad startup) y producir esquemas/flujos concretos para SIWE, EAS y VC 2.0 que se ajusten a tus restricciones regulatorias y de UX.

El Próximo Capítulo de DeFi: Perspectivas de Constructores e Inversores Líderes (2024 – 2025)

· 13 min de lectura
Dora Noda
Software Engineer

Las Finanzas Descentralizadas (DeFi) maduraron considerablemente desde el auge especulativo del verano de 2020 hasta el ciclo 2024-2025. Las tasas de interés más altas frenaron el crecimiento de DeFi en 2022-2023, pero la aparición de cadenas de alto rendimiento, incentivos impulsados por tokens y un entorno regulatorio más claro están creando las condiciones para una nueva fase de finanzas en cadena. Líderes de Hyperliquid, Aave, Ethena y Dragonfly comparten la expectativa común de que el próximo capítulo estará impulsado por una utilidad genuina: infraestructura de mercado eficiente, stablecoins con rendimiento, tokenización de activos del mundo real y experiencias de usuario asistidas por IA. Las siguientes secciones analizan el futuro de DeFi a través de las voces de Jeff Yan (Hyperliquid Labs), Stani Kulechov (Aave Labs), Guy Young (Ethena Labs) y Haseeb Qureshi (Dragonfly).

Jeff Yan – Hyperliquid Labs

Antecedentes

Jeff Yan es cofundador y CEO de Hyperliquid, un exchange descentralizado (DEX) que opera un libro de órdenes de alto rendimiento para contratos perpetuos y trading al contado. Hyperliquid ganó prominencia en 2024 por su airdrop impulsado por la comunidad y su negativa a vender capital a capitalistas de riesgo; Yan mantuvo el equipo pequeño y autofinanciado para mantener el enfoque en el producto. La visión de Hyperliquid es convertirse en una capa base descentralizada para otros productos financieros, como activos tokenizados y stablecoins.

Visión para el Próximo Capítulo de DeFi

  • Eficiencia sobre el bombo. En un panel de Token 2049, Yan comparó DeFi con un problema matemático; argumentó que los mercados deberían ser eficientes, donde los usuarios obtengan los mejores precios sin spreads ocultos. El libro de órdenes de alto rendimiento de Hyperliquid tiene como objetivo ofrecer esta eficiencia.
  • Propiedad comunitaria y postura anti-VC. Yan cree que el éxito de DeFi debe medirse por el valor entregado a los usuarios en lugar de las salidas de inversores. Hyperliquid rechazó asociaciones con creadores de mercado privados y listados en exchanges centralizados para evitar comprometer la descentralización. Este enfoque resuena con el ethos de DeFi: los protocolos deben ser propiedad de sus comunidades y construidos para una utilidad a largo plazo.
  • Enfoque en la infraestructura, no en el precio del token. Yan enfatiza que el propósito de Hyperliquid es construir tecnología robusta; las mejoras del producto, como HIP-3, tienen como objetivo mitigar los riesgos de las dApps a través de auditorías automatizadas y mejores integraciones. Evita establecer hojas de ruta rígidas, prefiriendo adaptarse a los comentarios de los usuarios y a los cambios tecnológicos. Esta adaptabilidad refleja un cambio más amplio de la especulación hacia una infraestructura madura.
  • Visión para una pila financiera sin permisos. Yan ve a Hyperliquid evolucionando hacia una capa fundamental sobre la cual otros pueden construir stablecoins, RWAs y nuevos instrumentos financieros. Al permanecer descentralizado y eficiente en capital, espera establecer una capa neutral similar a un Nasdaq descentralizado.

Conclusiones

La perspectiva de Jeff Yan enfatiza la eficiencia del mercado, la propiedad impulsada por la comunidad y la infraestructura modular. Él ve el próximo capítulo de DeFi como una fase de consolidación en la que los DEXs de alto rendimiento se convierten en la columna vertebral para los activos tokenizados y los productos de rendimiento. Su negativa a aceptar financiación de capital de riesgo señala un rechazo a la especulación excesiva; en el próximo capítulo, los protocolos pueden priorizar la sostenibilidad sobre las valoraciones que acaparan titulares.

Stani Kulechov – Aave Labs

Antecedentes

Stani Kulechov fundó Aave, uno de los primeros protocolos de mercado monetario y líder en préstamos descentralizados. Los mercados de liquidez de Aave permiten a los usuarios obtener rendimiento o pedir prestados activos sin intermediarios. Para 2025, el TVL de Aave y su suite de productos se expandieron para incluir stablecoins y una recién lanzada Family Wallet, una rampa de entrada fiat-cripto que debutó en la Blockchain Ireland Summit.

Visión para el Próximo Capítulo de DeFi

  • Catalizador de recortes de tasas para el “verano DeFi 2.0.” En Token 2049, Kulechov argumentó que la caída de las tasas de interés encendería un nuevo auge de DeFi similar al de 2020. Las tasas más bajas crean oportunidades de arbitraje, ya que los rendimientos en cadena siguen siendo atractivos en relación con TradFi, atrayendo capital a los protocolos DeFi. Recuerda que el TVL de DeFi saltó de menos de $1 mil millones a $10 mil millones durante los recortes de tasas de 2020 y espera una dinámica similar cuando la política monetaria se relaje.
  • Integración con fintech. Kulechov vislumbra la integración de DeFi en la infraestructura fintech convencional. Planea distribuir rendimientos en cadena a través de aplicaciones amigables para el consumidor y canales institucionales, convirtiendo DeFi en un back-end para productos de ahorro. La Family Wallet ejemplifica esto al ofrecer conversiones fluidas de fiat a stablecoin y pagos cotidianos.
  • Activos del mundo real (RWAs) y stablecoins. Considera que los activos del mundo real tokenizados y las stablecoins son pilares del futuro de blockchain. La stablecoin GHO de Aave y las iniciativas de RWA tienen como objetivo conectar los rendimientos de DeFi con el colateral de la economía real, cerrando la brecha entre las cripto y las finanzas tradicionales.
  • Innovación impulsada por la comunidad. Kulechov atribuye el éxito de Aave a su comunidad y espera que la innovación gobernada por el usuario impulse la próxima fase. Sugiere que DeFi se centrará en aplicaciones de consumo que abstraigan la complejidad mientras preservan la descentralización.

Conclusiones

Stani Kulechov prevé un retorno del ciclo alcista de DeFi impulsado por tasas más bajas y una mejor experiencia de usuario. Enfatiza la integración con fintech y los activos del mundo real, prediciendo que las stablecoins y los tesoros tokenizados integrarán los rendimientos de DeFi en los productos financieros cotidianos. Esto refleja una maduración del yield farming especulativo a una infraestructura que coexiste con las finanzas tradicionales.

Guy Young – Ethena Labs

Antecedentes

Guy Young es el CEO de Ethena Labs, creador de sUSDe, una stablecoin de dólar sintético que utiliza estrategias delta-neutrales para ofrecer un dólar con rendimiento. Ethena ganó atención por proporcionar rendimientos atractivos mientras utilizaba colateral USDT y posiciones cortas de contratos perpetuos para cubrir el riesgo de precio. En 2025, Ethena anunció iniciativas como iUSDe, una versión envuelta compatible para instituciones tradicionales.

Visión para el Próximo Capítulo de DeFi

  • Stablecoins para ahorros y colateral de trading. Young clasifica los casos de uso de stablecoins en colateral de trading, ahorros para países en desarrollo, pagos y especulación. Ethena se centra en ahorros y trading porque el rendimiento hace que el dólar sea atractivo y la integración con los exchanges impulsa la adopción. Cree que un dólar con rendimiento se convertirá en el activo de ahorro más importante del mundo.
  • Stablecoins neutrales y agnósticas a la plataforma. Young argumenta que las stablecoins deben ser neutrales y ampliamente aceptadas en todos los lugares; los intentos de los exchanges de impulsar stablecoins propietarias perjudican la experiencia del usuario. El uso de USDT por parte de Ethena aumenta la demanda de Tether en lugar de competir con él, ilustrando la sinergia entre las stablecoins de DeFi y los actores existentes.
  • Integración con TradFi y aplicaciones de mensajería. Ethena planea emitir iUSDe con restricciones de transferencia para satisfacer los requisitos regulatorios e integrar sUSDe en Telegram y Apple Pay, permitiendo a los usuarios ahorrar y gastar dólares con rendimiento como si enviaran mensajes. Young imagina ofrecer una experiencia similar a un neobanco a mil millones de usuarios a través de aplicaciones móviles.
  • Cambio hacia los fundamentos y los RWAs. Señala que la especulación cripto parece saturada —las capitalizaciones de mercado de altcoins alcanzaron un máximo de $1.2 billones tanto en 2021 como en 2024—, por lo que los inversores se centrarán en proyectos con ingresos reales y activos del mundo real tokenizados. La estrategia de Ethena de proporcionar rendimiento a partir de activos fuera de la cadena la posiciona para esta transición.

Conclusiones

La perspectiva de Guy Young se centra en las stablecoins con rendimiento como la aplicación estrella de DeFi. Argumenta que el próximo capítulo de DeFi implica hacer que los dólares sean productivos e integrarlos en pagos y mensajería convencionales, atrayendo a miles de millones de usuarios. El enfoque agnóstico a la plataforma de Ethena refleja la creencia de que las stablecoins de DeFi deben complementar en lugar de competir con los sistemas existentes. También anticipa una rotación de altcoins especulativas a tokens generadores de ingresos y RWAs.

Haseeb Qureshi – Dragonfly

Antecedentes

Haseeb Qureshi es socio gerente de Dragonfly, una firma de capital de riesgo centrada en cripto y DeFi. Qureshi es conocido por su escritura analítica y su participación en el podcast Chopping Block. A finales de 2024 y principios de 2025, publicó una serie de predicciones que describen cómo la IA, las stablecoins y los cambios regulatorios darán forma a las cripto.

Visión para el Próximo Capítulo de DeFi

  • Wallets y agentes impulsados por IA. Qureshi predice que los agentes de IA revolucionarán las cripto al automatizar el bridging, optimizar las rutas de trading, minimizar las tarifas y alejar a los usuarios de las estafas. Espera que las wallets impulsadas por IA manejen las operaciones entre cadenas sin problemas, reduciendo la complejidad que actualmente disuade a los usuarios convencionales. Las herramientas de desarrollo asistidas por IA también facilitarán la construcción de contratos inteligentes, solidificando el dominio de la EVM.
  • Tokens de agentes de IA vs. meme coins. Qureshi cree que los tokens asociados con agentes de IA superarán a las meme coins en 2025, pero advierte que la novedad se desvanecerá y el valor real provendrá del impacto de la IA en la ingeniería de software y el trading. Ve el entusiasmo actual como un cambio del “nihilismo financiero al sobre-optimismo financiero”, advirtiendo contra el bombo excesivo de las monedas de chat-bot.
  • Convergencia de stablecoins e IA. En sus predicciones para 2025, Qureshi describe seis temas principales: (1) la distinción entre cadenas de capa 1 y capa 2 se difuminará a medida que las herramientas de IA expandan la cuota de EVM; (2) las distribuciones de tokens pasarán de grandes airdrops a modelos basados en métricas o de crowdfunding; (3) la adopción de stablecoins se disparará, con los bancos emitiendo sus propias stablecoins mientras Tether mantendrá su dominio; (4) los agentes de IA dominarán las interacciones cripto, pero su novedad puede desvanecerse para 2026; (5) las herramientas de IA reducirán drásticamente los costos de desarrollo, lo que permitirá una ola de innovación de dApps y una mayor seguridad; y (6) la claridad regulatoria, particularmente en EE. UU., acelerará la adopción masiva.
  • Adopción institucional y cambios regulatorios. Qureshi espera que las empresas Fortune 100 ofrezcan cripto a los consumidores bajo una administración Trump y cree que se aprobará la legislación de stablecoins de EE. UU., desbloqueando la participación institucional. El resumen de investigación de Gate.io se hace eco de esto, señalando que los agentes de IA adoptarán stablecoins para transacciones peer-to-peer y que el entrenamiento de IA descentralizado se acelerará.
  • DeFi como infraestructura para finanzas asistidas por IA. En The Chopping Block, Qureshi nombró a Hyperliquid como el “mayor ganador” del ciclo de 2024 y predijo que los tokens DeFi verían un crecimiento explosivo en 2025. Atribuye esto a innovaciones como los pools de guía de liquidez que hacen que el trading perpetuo descentralizado sea competitivo. Su optimismo sobre DeFi se debe a la creencia de que la UX impulsada por IA y la claridad regulatoria impulsarán el capital hacia los protocolos en cadena.

Conclusiones

Haseeb Qureshi ve el próximo capítulo de DeFi como una convergencia de la IA y las finanzas en cadena. Anticipa un aumento en las wallets y agentes autónomos impulsados por IA, que simplificarán las interacciones del usuario y atraerán a nuevos participantes. Sin embargo, advierte que el bombo de la IA puede desvanecerse; el valor sostenible provendrá de las herramientas de IA que reduzcan los costos de desarrollo y mejoren la seguridad. Espera que la legislación de stablecoins, la adopción institucional y las distribuciones de tokens basadas en métricas profesionalicen la industria. En general, ve a DeFi evolucionando hacia la base de servicios financieros asistidos por IA y conformes con la regulación.

Análisis Comparativo

DimensiónJeff Yan (Hyperliquid)Stani Kulechov (Aave)Guy Young (Ethena)Haseeb Qureshi (Dragonfly)
Enfoque PrincipalInfraestructura DEX de alto rendimiento; propiedad comunitaria; eficienciaPréstamos descentralizados; integración fintech; activos del mundo realStablecoins con rendimiento; colateral de trading; integración de pagosPerspectiva de inversión; agentes de IA; adopción institucional
Impulsores Clave para el Próximo CapítuloMercados eficientes de libro de órdenes; capa de protocolo modular para RWAs y stablecoinsRecortes de tasas que impulsan la entrada de capital y el “verano DeFi 2.0”; integración con fintech y RWAsStablecoins neutrales que generan rendimiento; integración con aplicaciones de mensajería y TradFiWallets y agentes impulsados por IA; claridad regulatoria; distribuciones de tokens basadas en métricas
Rol de las StablecoinsSustenta futuras capas de DeFi; fomenta emisores descentralizadosLa stablecoin GHO y los tesoros tokenizados integran los rendimientos de DeFi en productos financieros convencionalessUSDe convierte los dólares en ahorros con rendimiento; iUSDe apunta a institucionesLos bancos emitirán stablecoins para finales de 2025; los agentes de IA usarán stablecoins para transacciones
Visión sobre los Incentivos de TokensRechaza la financiación de capital de riesgo y los acuerdos con creadores de mercado privados para priorizar la comunidadEnfatiza la innovación impulsada por la comunidad; ve los tokens DeFi como infraestructura para fintechAboga por stablecoins agnósticas a la plataforma que complementen los ecosistemas existentesPredice un cambio de grandes airdrops a distribuciones basadas en KPI o crowdfunding
Perspectiva sobre Regulación e InstitucionesEnfoque mínimo en la regulación; enfatiza la descentralización y la autofinanciaciónVe la claridad regulatoria permitiendo la tokenización de RWA y el uso institucionalTrabajando en iUSDe con restricciones de transferencia para cumplir con los requisitos regulatoriosAnticipa que la legislación de stablecoins de EE. UU. y una administración pro-cripto acelerarán la adopción
Sobre IA y AutomatizaciónN/AN/ANo es central (aunque Ethena puede usar sistemas de riesgo de IA)Los agentes de IA dominarán la experiencia del usuario; la novedad se desvanecerá para 2026

Conclusión

El próximo capítulo de DeFi probablemente estará moldeado por una infraestructura eficiente, activos con rendimiento, la integración con las finanzas tradicionales y las experiencias de usuario impulsadas por IA. Jeff Yan se enfoca en construir una infraestructura DEX de alto rendimiento y propiedad comunitaria que pueda servir como una capa base neutral para activos tokenizados. Stani Kulechov espera que las tasas de interés más bajas, la integración fintech y los activos del mundo real catalicen un nuevo auge de DeFi. Guy Young prioriza las stablecoins con rendimiento y los pagos fluidos, impulsando DeFi hacia las aplicaciones de mensajería y los bancos tradicionales. Haseeb Qureshi anticipa que los agentes de IA transformarán las wallets y que la claridad regulatoria desbloqueará el capital institucional, mientras advierte contra las narrativas exageradas de los tokens de IA.

Colectivamente, estas perspectivas sugieren que el futuro de DeFi irá más allá del farming especulativo hacia productos financieros maduros y centrados en el usuario. Los protocolos deben ofrecer valor económico real, integrarse con los rieles financieros existentes y aprovechar los avances tecnológicos como la IA y las blockchains de alto rendimiento. A medida que estas tendencias convergen, DeFi puede evolucionar de un ecosistema de nicho a una infraestructura financiera global y sin permisos.

MCP en el ecosistema Web3: una revisión exhaustiva

· 58 min de lectura
Dora Noda
Software Engineer

1. Definición y origen de MCP en el contexto de Web3

El ** Modelo de Context Protocolo (MCP) ** es un estándar abierto que conecta a los asistentes de IA (como modelos de idiomas grandes) con fuentes de datos externos, herramientas y entornos. A menudo se describe como un "puerto USB-C para AI" debido a su naturaleza universal de plug-and-play, MCP fue desarrollado por antrópico e introducido por primera vez a fines de noviembre de 2024. Surgió como una solución para romper los modelos de IA fuera del aislamiento al unirlos de forma segura con los * "sistemas donde viven los datos" *, desde las dtasabasas y las API hasta los entornos de desarrollo y los bloqueos.

Originalmente un proyecto paralelo experimental en antrópico, MCP rápidamente ganó tracción. A mediados de 2024, aparecieron implementaciones de referencia de código abierto, y a principios de 2025 se había convertido en el estándar ** de facto para la integración de IA agente **, con los principales laboratorios de IA (OpenAI, Google Deepmind, Meta AI) adoptándolo de forma nativa. Esta rápida absorción fue especialmente notable en la comunidad ** Web3 **. Los desarrolladores de Blockchain vieron a MCP como una forma de infundir capacidades de IA en aplicaciones descentralizadas, lo que llevó a una proliferación de conectores MCP construidos por la comunidad para datos y servicios en la cadena. De hecho, algunos analistas argumentan que MCP puede cumplir con la visión original de Web3 de un Internet descentralizado y centrado en el usuario de una manera más práctica que blockchain sola, utilizando interfaces de lenguaje natural para capacitar a los usuarios.

En resumen, MCP ** no es una cadena de bloques o token **, sino un protocolo abierto nacido en el mundo de la IA que se ha adoptado rápidamente dentro del ecosistema Web3 como un puente entre los agentes de IA y las fuentes de datos descentralizadas. Anthrope de código abierto del estándar (con una especificación inicial de GitHub y SDK) y cultivó una comunidad abierta a su alrededor. Este enfoque impulsado por la comunidad preparó el escenario para la integración de MCP en Web3, donde ahora se ve como infraestructura fundamental para aplicaciones descentralizadas habilitadas para AI.

2. Arquitectura técnica y protocolos centrales

MCP opera en una arquitectura liviana ** cliente -servidor ** con tres roles principales:

  • ** MCP Host: ** La aplicación o agente de AI en sí, que orquesta las solicitudes. Esto podría ser un chatbot (Claude, chatgpt) o una aplicación con IA que necesita datos externos. El host inicia las interacciones, solicitando herramientas o información a través de MCP.
  • ** Cliente MCP: ** Un componente del conector que el host usa para comunicarse con los servidores. El cliente mantiene la conexión, gestiona los mensajes de solicitud/respuesta y puede manejar múltiples servidores en paralelo. Por ejemplo, una herramienta de desarrollador como Cursor o el modo de agente de VS Code puede actuar como un cliente MCP que cierra el entorno de IA local con varios servidores MCP.
  • ** MCP Server: ** Un servicio que expone algunos datos o funcionalidad contextuales a la IA. Los servidores proporcionan ** herramientas **, ** recursos ** o ** indica ** que la AI puede usar. En la práctica, un servidor MCP podría interactuar con una base de datos, una aplicación en la nube o un nodo blockchain, y presentar un conjunto estandarizado de operaciones a la IA. Cada par cliente-servidor se comunica a través de su propio canal, por lo que un agente de IA puede tocar múltiples servidores simultáneamente para diferentes necesidades.

** Primitivas centrales: ** MCP define un conjunto de tipos de mensajes estándar y primitivas que estructuran la interacción AI-Tool. Las tres primitivas fundamentales son:

  • ** Herramientas: ** Operaciones o funciones discretas La IA puede invocar en un servidor. Por ejemplo, una herramienta "SearchDocuments" o una herramienta "ETH_CALL". Las herramientas encapsulan acciones como consultar una API, realizar un cálculo o llamar a una función de contrato inteligente. El cliente MCP puede solicitar una lista de herramientas disponibles desde un servidor y llamarlas según sea necesario.
  • ** Recursos: ** puntos finales de datos que la IA puede leer (o a veces escribir) a través del servidor. Estos podrían ser archivos, entradas de bases de datos, estado blockchain (bloques, transacciones) o cualquier datos contextuales. La IA puede enumerar los recursos y recuperar su contenido a través de mensajes MCP estándar (por ejemplo, `` Listresourcesyreadresource` solicitudes).
  • ** Significaciones: ** Plantillas de solicitud estructuradas o instrucciones que los servidores pueden proporcionar para guiar el razonamiento de la IA. Por ejemplo, un servidor podría proporcionar una plantilla de formato o una solicitud de consulta predefinida. La IA puede solicitar una lista de plantillas de inmediato y usarlas para mantener la consistencia en cómo interactúa con ese servidor.

Bajo el capó, las comunicaciones de MCP suelen estar basadas en JSON y siguen un patrón de respuesta de solicitud similar al RPC (llamada de procedimiento remoto). La especificación del protocolo define mensajes como InitializeRequest, ListTools, CallTool, Listresources, etc., que aseguran que cualquier cliente compatible con MCP pueda hablar con cualquier servidor MCP de manera uniforme. Esta estandarización es lo que permite que un agente de IA * descubra * lo que puede hacer: al conectarse a un nuevo servidor, puede preguntar "¿Qué herramientas y datos ofrecen?" y luego decide dinámicamente cómo usarlos.

** Modelo de seguridad y ejecución: ** MCP fue diseñado con interacciones seguras y controladas en mente. El modelo AI en sí no ejecuta código arbitrario; Envía intentos de alto nivel (a través del cliente) al servidor, que luego realiza la operación real (por ejemplo, obteniendo datos o llamando a una API) y devuelve los resultados. Esta separación significa que las acciones confidenciales (como las transacciones blockchain o las escrituras de base de datos) pueden ser sandboxed o requieren una aprobación explícita del usuario. Por ejemplo, hay mensajes como ping (para mantener vivas las conexiones) e incluso un 'createMessagequest' que permite que un servidor MCP le pida a la IA del cliente que genere una subpuesta de subpuesta, típicamente cerrada por la confirmación del usuario. Las características como la autenticación, el control de acceso y el registro de auditorías se están desarrollando activamente para garantizar que MCP se pueda usar de manera segura en entornos empresariales y descentralizados (más sobre esto en la sección de hoja de ruta).

En resumen, la arquitectura de MCP se basa en un ** Protocolo de mensajes estandarizado ** (con llamadas de estilo JSON-RPC) que conecta a los agentes de IA (hosts) con una gama flexible de servidores que proporcionan herramientas, datos y acciones. Esta arquitectura abierta es ** Modelo-Agnóstico ** y ** Plataforma-Agnóstico **: cualquier agente de IA puede usar MCP para hablar con cualquier recurso, y cualquier desarrollador puede crear un nuevo servidor MCP para una fuente de datos sin necesidad de modificar el código central de la IA. Esta extensibilidad plug-and-play es lo que hace que MCP sea potente en Web3: uno puede construir servidores para nodos blockchain, contratos inteligentes, billeteras o oráculos y los agentes de IA integran sin problemas esas capacidades junto con las API Web2.

3. Casos de uso y aplicaciones de MCP en Web3

MCP desbloquea una amplia gama de ** casos de uso ** al habilitar las aplicaciones impulsadas por la IA para acceder a los datos de blockchain y ejecutar acciones en cadena o fuera de cadena de una manera segura de alto nivel. Aquí hay algunas aplicaciones y problemas clave que ayuda a resolver en el dominio Web3:

-** Análisis y consulta de datos en la cadena: ** Los agentes de AI pueden consultar el estado de blockchain en vivo en tiempo real para proporcionar información o actividades de activación. Por ejemplo, un servidor MCP conectado a un nodo Ethereum permite que una IA obtenga saldos de cuentas, lea el almacenamiento de contratos inteligentes, traza transacciones o recupere los registros de eventos a pedido. Esto convierte un chatbot o un asistente de codificación en un explorador de blockchain. Los desarrolladores pueden hacer preguntas de un asistente de IA como "¿Cuál es la liquidez actual en Uniswap Pool X?" o "Simular el costo de gas de esta transacción de Ethereum", y la IA usará herramientas MCP para llamar a un nodo RPC y obtener la respuesta de la cadena en vivo. Esto es mucho más poderoso que confiar en los datos de entrenamiento de la IA o las instantáneas estáticas.

  • ** Gestión automatizada de cartera Defi: ** Al combinar el acceso a los datos y las herramientas de acción, los agentes de IA pueden administrar carteras de cifrado o posiciones DeFi. Por ejemplo, un ** "AI Vault Optimizer" ** podría monitorear las posiciones de un usuario en granjas de rendimiento y sugerir o ejecutar automáticamente estrategias de reequilibrio basadas en condiciones del mercado en tiempo real. Del mismo modo, una IA podría actuar como un ** Manager de cartera Defi **, ajustando las asignaciones entre los protocolos cuando cambian el riesgo o las tasas. MCP proporciona la interfaz estándar para que la IA lea las métricas en la cadena (precios, la liquidez, las relaciones colaterales) y luego invoque herramientas para ejecutar transacciones (como fondos en movimiento o activos de intercambio) si están permitidos. Esto puede ayudar a los usuarios a maximizar el rendimiento o administrar el riesgo las 24 horas, los 7 días de la semana, de una manera que sería difícil de hacer manualmente.
  • ** Agentes de usuario con AI para transacciones: ** Piense en un asistente personal de IA que puede manejar las interacciones blockchain para un usuario. Con MCP, dicho agente puede integrarse con billeteras y DAPPS para realizar tareas a través de comandos de lenguaje natural. Por ejemplo, un usuario podría decir: "Ai, enviar 0.5 ETH de mi billetera a Alice" o "Estacar mis tokens en la piscina más alta". La IA, a través de MCP, usaría un servidor de billetera seguro ** (manteniendo la clave privada del usuario) para crear y firmar la transacción, y un servidor MCP blockchain para transmitirlo. Este escenario convierte las interacciones complejas de línea de comandos o metamask en una experiencia de conversación. Es crucial que los servidores de MCP de billetera segura se usen aquí, aplicando permisos y confirmaciones, pero el resultado final es optimizar las transacciones en la cadena a través de la asistencia de IA. -** Asistentes de desarrolladores y depuración de contratos inteligentes: ** Los desarrolladores de Web3 pueden aprovechar a los asistentes de IA basados ​​en MCP que son contextos de infraestructura de blockchain. Por ejemplo, ** Los servidores MCP de ChainStack para EVM y Solana ** dan a AI Coding Copilots Visibilidad profunda en el entorno blockchain del desarrollador. Un ingeniero de contratos inteligente que usa un asistente de IA (en código VS o un IDE) puede hacer que la IA obtenga el estado actual de un contrato en una NET de prueba, ejecute una simulación de una transacción o verifique los registros, todo a través de llamadas MCP a nodos de blockchain locales. Esto ayuda a depurar y probar contratos. La IA ya no está codificando "ciegamente"; En realidad, puede verificar cómo el código se comporta en la cadena en tiempo real. Este caso de uso resuelve un punto de dolor importante al permitir que la IA ingiera continuamente documentos actualizados (a través de un servidor MCP de documentación) y consulte la cadena de bloques directamente, reduciendo las alucinaciones y haciendo sugerencias mucho más precisas.
  • ** Coordinación de protocolo cruzado: ** Debido a que MCP es una interfaz unificada, un solo agente de IA puede coordinar en múltiples protocolos y servicios simultáneamente, algo extremadamente poderoso en el panorama interconectado de Web3. Imagine un ** agente comercial autónomo ** que monitorea varias plataformas Defi para el arbitraje. A través de MCP, un agente podría interactuar simultáneamente con los mercados de préstamos de Aave, un puente de cadena cruzada de Layerzero y un servicio de análisis MEV (valor extraíble de minero), todo a través de una interfaz coherente. La IA podría, en un "proceso de pensamiento", recopilar datos de liquidez de Ethereum (a través de un servidor MCP en un nodo Ethereum), obtener información de precios o datos de Oracle (a través de otro servidor) e incluso invocar operaciones de puente o intercambio. Anteriormente, dicha coordinación multiplataforma requeriría bots complejos codificados a medida, pero MCP ofrece una forma generalizable para que una IA navegue por todo el ecosistema Web3 como si fuera un grupo de recursos/big data. Esto podría permitir casos de uso avanzados como la optimización del rendimiento de la cadena cruzada o la protección de liquidación automatizada, donde una IA mueve activos o colaterales a través de las cadenas de manera proactiva.
  • ** Bots de asesoramiento y soporte de AI: ** Otra categoría es asesores orientados al usuario en aplicaciones criptográficas. Por ejemplo, un ** defi ayuda chatbot ** integrado en una plataforma como uniswap o compuesto podría usar MCP para obtener información en tiempo real para el usuario. Si un usuario pregunta: "¿Cuál es la mejor manera de cubrir mi posición?", La IA puede obtener las tasas de corriente, los datos de volatilidad y los detalles de la cartera del usuario a través de MCP, luego dar una respuesta consciente del contexto. Las plataformas están explorando ** Asistentes con AI ** integrados en billeteras o dapps que pueden guiar a los usuarios a través de transacciones complejas, explicar los riesgos e incluso ejecutar secuencias de pasos con aprobación. Estos agentes de IA se sientan efectivamente sobre múltiples servicios de Web3 (DEXES, grupos de préstamos, protocolos de seguros), utilizando MCP para consultar y comandarlos según sea necesario, simplificando así la experiencia del usuario.
  • ** Más allá de Web3- Flujos de trabajo de dominios múltiples: ** Aunque nuestro enfoque es Web3, vale la pena señalar que los casos de uso de MCP se extienden a cualquier dominio donde la IA necesita datos externos. Ya se está utilizando para conectar IA a cosas como Google Drive, Slack, Github, Figma y más. En la práctica, un solo agente de IA podría a partir de Web3 y Web2: por ejemplo, analizar un modelo financiero de Excel de Google Drive, y luego sugerir operaciones en cadena basadas en ese análisis, todo en un flujo de trabajo. La flexibilidad de MCP permite la automatización del dominio cruzado (por ejemplo, "Programe mi reunión si mi voto DAO pasa y envía un correo electrónico a los resultados") que combina acciones blockchain con herramientas cotidianas.

** Problemas resueltos: ** El problema general aborda que MCP es la ** falta de una interfaz unificada para que AI interactúe con datos y servicios en vivo **. Antes de MCP, si quería que una IA usara un nuevo servicio, tenía que codificar un complemento o integración para la API de ese servicio específico, a menudo de una manera ad-hoc. En Web3, esto fue especialmente engorroso: cada blockchain o protocolo tiene sus propias interfaces, y ninguna IA podría esperar apoyarlos a todos. MCP resuelve esto estandarizando cómo la IA describe lo que quiere (el lenguaje natural asignado a las llamadas de herramientas) y cómo los servicios describen lo que ofrecen. Esto reduce drásticamente el trabajo de integración. Por ejemplo, en lugar de escribir un complemento personalizado para cada protocolo Defi, un desarrollador puede escribir un servidor MCP para ese protocolo (esencialmente anotando sus funciones en el lenguaje natural). Cualquier IA habilitada para MCP (ya sea Claude, ChatGPT o modelos de código abierto) puede utilizarlo inmediatamente. Esto hace que AI ** sea extensible ** de forma plug-and-play, al igual que cómo agregar un nuevo dispositivo a través de un puerto universal es más fácil que instalar una nueva tarjeta de interfaz.

En resumen, MCP en Web3 permite que ** agentes AI se convierta en ciudadanos de primera clase del mundo blockchain **-consultando, analizando e incluso transacciones en sistemas descentralizados, todos a través de canales seguros y estandarizados. Esto abre la puerta a Dapps más autónomos, agentes de usuario más inteligentes e integración perfecta de inteligencia en cadena y fuera de la cadena.

4. Modelo de tokenómica y gobernanza

A diferencia de los protocolos Web3 típicos, ** MCP no tiene un token o criptomoneda nativa. ** No es una cadena de bloques o una red descentralizada por sí sola, sino más bien una especificación de protocolo abierto (más parecido a HTTP o JSON-RPC en Spirit). Por lo tanto, no hay tokenómica incorporada: no hay una emisión de token, replanteo o modelo de tarifa inherente al uso de MCP. Las aplicaciones de IA y los servidores se comunican a través de MCP sin ninguna criptomoneda involucrada; Por ejemplo, una IA que llama a una cadena de bloques a través de MCP podría pagar tarifas de gas para la transacción blockchain, pero MCP no agrega ninguna tarifa de token adicional. Este diseño refleja el origen de MCP en la comunidad de IA: se introdujo como un estándar técnico para mejorar las interacciones de la herramienta de IA, no como un proyecto tokenizado.

** La gobernanza ** de MCP se lleva a cabo de manera abierta, impulsada por la comunidad. Después de liberar a MCP como un estándar abierto, Anthrope señaló un compromiso con el desarrollo colaborativo. Un amplio comité directivo ** y grupos de trabajo se han formado para guiar la evolución del protocolo. En particular, a mediados de 2025, las principales partes interesadas como Microsoft y Github se unieron al Comité Directivo de MCP junto con Anthrope. Esto se anunció en Microsoft Build 2025, lo que indica una coalición de actores de la industria que guía la hoja de ruta y las decisiones de estándares de MCP. El comité y los mantenedores trabajan a través de un proceso de gobierno abierto: las propuestas para cambiar o extender MCP generalmente se discuten públicamente (por ejemplo, a través de temas de GitHub y "SEP" - Propuesta de mejora estándar - Directrices). También hay un grupo de trabajo de registro de MCP ** (con mantenedores de compañías como Block, PULSEMCP, GitHub y Anthrope) que ejemplifica la gobernanza multipartidista. A principios de 2025, los colaboradores de al menos 9 organizaciones diferentes colaboraron para construir un Registro Unificado de Servidor MCP para el descubrimiento, lo que demuestra cómo el desarrollo se descentraliza entre los miembros de la comunidad en lugar de controlarse por una entidad.

Dado que no hay token, ** Incentivos de gobernanza ** Confían en los intereses comunes de las partes interesadas (compañías de IA, proveedores de nubes, desarrolladores de blockchain, etc.) para mejorar el protocolo para todos. Esto es algo análogo a cómo se rigen los estándares W3C o IETF, pero con un proceso centrado en GitHub más rápido. Por ejemplo, Microsoft y Anthrope trabajaron juntos para diseñar una especificación de autorización mejorada para MCP (integrando cosas como OAuth y Single Sign-On), y GitHub colaboró ​​en el servicio oficial de registro de MCP para el listado de servidores disponibles. Estas mejoras fueron contribuidas a la especificación de MCP para beneficio de todos.

Vale la pena señalar que, si bien el MCP en sí no está tokenizado, existen ideas con visión de futuro sobre las capas ** Incentivos económicos y descentralización ** Además de MCP. Algunos investigadores y líderes de opinión en Web3 prevén el surgimiento de ** "MCP Networks" **, esencialmente redes descentralizadas de servidores y agentes MCP que utilizan mecanismos similares a blockchain para el descubrimiento, la confianza y las recompensas. En tal escenario, uno podría imaginar que se use una ficha para recompensar a aquellos que ejecutan servidores MCP de alta calidad (similar a la forma en que se incentivan los mineros o los operadores de nodos). Capacidades como ** Las calificaciones de reputación, el cálculo verificable y el descubrimiento de nodos ** podrían verse facilitados por contratos inteligentes o una cadena de bloques, con un token que impulsa un comportamiento honesto. Esto sigue siendo conceptual, pero proyectos como la NAMDA del MIT (discutido más adelante) están experimentando con mecanismos de incentivos basados ​​en token para las redes de agentes de IA que usan MCP. Si estas ideas maduran, MCP podría cruzar con la tokenómica en la cadena más directamente, pero a partir de 2025 ** El estándar MCP central permanece libre de token **.

En resumen, el "modelo de gobernanza" de MCP es el de un estándar de tecnología abierta: mantenido en colaboración por una comunidad y un comité directivo de expertos, sin token de gobernanza en la cadena. Las decisiones se guían por el mérito técnico y el amplio consenso en lugar de la votación ponderada en monedas. Esto distingue a MCP de muchos protocolos Web3: tiene como objetivo cumplir con los ideales de Web3 (descentralización, interoperabilidad, empoderamiento del usuario) a través de software y estándares abiertos, ** no a través de una cadena de bloques o token de propiedad **. En palabras de un análisis, *"La promesa de Web3 ... finalmente se puede realizar no a través de blockchain y criptomonedas, sino a través del lenguaje natural y los agentes de IA" *, posicionando MCP como un habilitador clave de esa visión. Dicho esto, a medida que crecen las redes MCP, podemos ver modelos híbridos donde los mecanismos de gobierno o incentivos basados ​​en blockchain aumentan el ecosistema, un espacio para observar de cerca.

5. Comunidad y ecosistema

El ecosistema MCP ha crecido explosivamente en poco tiempo, que abarca desarrolladores de IA, colaboradores de código abierto, ingenieros de Web3 y las principales compañías tecnológicas. Es un esfuerzo comunitario vibrante, con ** contribuyentes y asociaciones clave ** que incluye:

  • ** Anthrope: ** Como el creador, Anthrope sembró el ecosistema mediante la transferencia de la especificación MCP y varios servidores de referencia (para Google Drive, Slack, Github, etc.). Anthrope continúa liderando el desarrollo (por ejemplo, un personal como Theodora Chu sirve como gerentes de productos de MCP, y el equipo de Anthrope contribuye en gran medida a las actualizaciones de especificaciones y el apoyo de la comunidad). La apertura de Anthrope atrajo a otros a construir en MCP en lugar de verlo como una herramienta de una sola empresa.

  • ** Los primeros usuarios (Block, Apollo, Zed, RepliS, Codeium, SourceGraph): ** En los primeros meses después del lanzamiento, una ola de primeros usuarios implementó MCP en sus productos. ** BLOCK (anteriormente cuadrado) ** MCP integrado para explorar AI Agentic Systems en FinTech: el CTO de Block elogió a MCP como un puente abierto que conecta IA con aplicaciones del mundo real. ** Apollo ** (probablemente Apollo GraphQL) también integró MCP para permitir el acceso de IA a los datos internos. Compañías de herramientas de desarrolladores como ** Zed (editor de código) **, ** Replica (Cloud IDE) **, ** Codeium (AI Coding Assistant) ** y ** SourceGraph (búsqueda de código) ** Cada uno funcionó para agregar soporte MCP. Por ejemplo, SourceGraph usa MCP para que un asistente de codificación de IA pueda recuperar el código relevante de un repositorio en respuesta a una pregunta, y los agentes IDE de IDE de ReplIn pueden atraer el contexto específico del proyecto. Estos primeros usuarios dieron credibilidad y visibilidad de MCP.

  • ** Endoso de gran tecnología - Openai, Microsoft, Google: ** En un turno notable, compañías que de otro modo son competidores alineadas en MCP. ** El CEO de OpenAi, Sam Altman, anunció públicamente ** en marzo de 2025 que OpenAI agregaría soporte de MCP en sus productos (incluida la aplicación de escritorio de Chatgpt), diciendo*"La gente ama MCP y estamos entusiasmados de agregar soporte en nuestros productos"*. Esto significaba que la API de agente de OpenAI y los complementos ChATGPT hablarían MCP, asegurando la interoperabilidad. Solo unas semanas después, **, Demis Hassabis ** de Google Deepmind, reveló que los próximos modelos y herramientas de Gemini de Google admitirían MCP, llamándolo un buen protocolo y un estándar abierto para la "Era de AI Auge". ** Microsoft ** no solo se unió al comité directivo, sino que se asoció con Anthrope para construir un C# SDK oficial para MCP para servir a la comunidad de desarrolladores empresariales. La unidad GitHub de Microsoft integró MCP en ** GitHub Copilot (VS Code’s "Copilot Labs/Mode" agentes ") **, permitiendo que Copilot use servidores MCP para cosas como la búsqueda de repositorio y la ejecución de casos de prueba. Además, Microsoft anunció que Windows 11 exponería ciertas funciones del sistema operativo (como el acceso al sistema de archivos) como servidores MCP para que los agentes de IA puedan interactuar con el sistema operativo de forma segura. La colaboración entre Openai, Microsoft, Google y Anthrope, todas las reuniones en MCP, es extraordinaria y subraya el espíritu de la comunidad sobre la competencia de este estándar.

  • ** Comunidad de desarrollador Web3: ** Varios desarrolladores y startups blockchain han adoptado MCP. Se han creado varios ** Servidores MCP impulsados ​​por la comunidad ** para servir casos de uso de blockchain:

  • El equipo de ** Alchemy ** (un proveedor líder de infraestructura de blockchain) construyó un ** servidor de Alchemy MCP ** que ofrece herramientas de análisis de blockchain a pedido a través de MCP. Esto probablemente permite que una IA obtenga estadísticas de blockchain (como transacciones históricas, actividad de abordar) a través de las API de la alquimia utilizando el lenguaje natural.

    • Los contribuyentes desarrollaron un servidor MCP de la red Bitcoin & Lightning ** para interactuar con los nodos de Bitcoin y la red de pagos Lightning, lo que permite a los agentes de IA leer datos de bloque de bitcoin o incluso crear facturas de rayos a través de herramientas estándar.
    • El Grupo Crypto Media and Education ** Bankless ** creó un ** servidor MCP Onchain ** centrado en las interacciones financieras Web3, posiblemente proporcionando una interfaz para los protocolos Defi (enviando transacciones, consultar posiciones Defi, etc.) para asistentes de IA.
    • proyectos como ** rollup.codes ** (una base de conocimiento para Ethereum Layer 2S) hizo un servidor ** MCP para información de ecosistema enrollable **, por lo que una IA puede responder preguntas técnicas sobre rollups mediante este servidor.
    • ** ChainStack **, un proveedor de nodo blockchain, lanzó un conjunto de servidores MCP (cubiertos anteriormente) para documentación, datos de cadena EVM y Solana, comercializándolo explícitamente como "poner su IA en esteroides blockchain" para los constructores Web3.

Además, las comunidades centradas en Web3 han surgido alrededor de MCP. Por ejemplo, ** PULSEMCP ** y ** GOOSE ** son iniciativas comunitarias a las que se hace referencia como ayudando a construir el registro MCP. También estamos viendo la polinización cruzada con AI Agent Frameworks: los adaptadores integrados de Langchain Community para que todos los servidores MCP puedan usarse como herramientas en los agentes de Langchain, y las plataformas de IA de código abierto como abrazar la TGI (inferencia de generación de texto) están explorando la compatibilidad de MCP. El resultado es un ecosistema rico donde se anuncian nuevos servidores MCP casi a diario, sirviendo de todo, desde bases de datos hasta dispositivos IoT.

  • ** Escala de adopción: ** La tracción se puede cuantificar hasta cierto punto. Para febrero de 2025, apenas tres meses después del lanzamiento, más de ** 1,000 servidores/conectores MCP ** habían sido construidos por la comunidad. Este número solo ha crecido, lo que indica miles de integraciones en todas las industrias. Mike Krieger (Director de Producto de Anthrope) señaló en la primavera de 2025 que MCP se había convertido en un ** estándar de "prosperar con miles de integraciones y creciendo" **. El Registro Oficial de MCP (lanzado en Vista previa en septiembre de 2025) está catalogando servidores disponibles públicamente, lo que facilita el descubrimiento de herramientas; La API abierta del registro permite que cualquiera busque, digamos, "Ethereum" o "noción" y encuentre conectores MCP relevantes. Esto reduce la barrera para los nuevos participantes y un mayor crecimiento de combustibles.

  • ** Asociaciones: ** Hemos tocado muchas asociaciones implícitas (antrópico con Microsoft, etc.). Para resaltar algunos más:

  • ** Anthrope & Slack **: Anthrope se asoció con Slack para integrar Claude con los datos de Slack a través de MCP (Slack tiene un servidor MCP oficial, lo que permite a AI recuperar mensajes de Slack o alertas postales).

    • ** Proveedores en la nube **: Amazon (AWS) y Google Cloud han trabajado con Anthrope para alojar a Claude, y es probable que admitan MCP en esos entornos (por ejemplo, AWS Bedrock podría permitir conectores MCP para datos empresariales). Si bien no están explícitamente en las citas, estas asociaciones en la nube son importantes para la adopción empresarial.
    • ** Colaboraciones académicas **: El proyecto de investigación del MIT e IBM NAMDA (discutido a continuación) representa una asociación entre la academia y la industria para impulsar los límites de MCP en entornos descentralizados.
    • ** GitHub & VS Code **: Asociación para mejorar la experiencia del desarrollador - por ejemplo, el equipo de VS Code contribuyó activamente a MCP (uno de los mantenedores del registro es del equipo VS Code).
    • ** Numerosas startups **: Muchas nuevas empresas de IA (startups de agentes, inicio de automatización de flujo de trabajo) se están basando en MCP en lugar de reinventar la rueda. Esto incluye a las nuevas empresas de IA Web3 emergentes que buscan ofrecer "AI como un DAO" o agentes económicos autónomos.

En general, la comunidad ** MCP es diversa y se expande rápidamente **. Incluye compañías tecnológicas centrales (para estándares y herramientas base), especialistas en Web3 (que trae conocimiento de blockchain y casos de uso) y desarrolladores independientes (que a menudo contribuyen con conectores para sus aplicaciones o protocolos favoritos). El ethos es colaborativo. Por ejemplo, las preocupaciones de seguridad sobre los servidores de MCP de terceros han provocado discusiones comunitarias y contribuciones de las mejores prácticas (por ejemplo, colaboradores de Stacklok que trabajan en herramientas de seguridad para los servidores MCP). La capacidad de la comunidad para iterar rápidamente (MCP vio varias actualizaciones de especificaciones en cuestión de meses, agregar características como respuestas de transmisión y una mejor autores) es un testimonio de una amplia participación.

En el ecosistema Web3 específicamente, MCP ha fomentado un mini-ecosistema de ** proyectos "AI + Web3" . No es solo un protocolo para usar; Está catalizando nuevas ideas como DAOS dirigidas por AI, la gobernanza en cadena ayudada por el análisis de IA y la automatización de dominios cruzados (como vincular eventos en cadena con acciones fuera de la cadena a través de AI). La presencia de cifras de Web3 clave, por ejemplo, ** Zhivko Todorov de Limechain ** indicando"MCP representa la inevitable integración de IA y blockchain", muestra que los veteranos de blockchain lo están defendiendo activamente. Las asociaciones entre las compañías de IA y Blockchain (como la que se entre antrópica y block, o la nube Azure de Microsoft, lo que hace que MCP sea fácil de implementar junto con sus servicios blockchain) sugieran un futuro en el que ** agentes de IA y contratos inteligentes funcionan de la mano **.

Se podría decir que MCP ha encendido la primera convergencia genuina de la comunidad de desarrolladores de IA con la comunidad de desarrolladores de Web3. Hackathons y Meetups ahora presentan pistas de MCP. Como una medida concreta de la adopción del ecosistema: a mediados de 2025, ** OpenAi, Google y Anthrope, representando colectivamente la mayoría de los modelos AI avanzados, todos los soportes MCP **, y por el otro lado, ** Los principales proyectos de infraestructura de blockchain (Alchemy, Chainstack), compañías (bloques, etc.) y decentralizados son los gancos de la construcción de la construcción **. Este efecto de red de dos lados es un buen augurio para que MCP se convierta en un estándar duradero.

6. HILES DE PRUEBA Y DESARROLLO

El desarrollo de MCP ha sido acelerado. Aquí describimos los ** los principales hitos hasta ahora y la hoja de ruta por delante ** como se obtuvo de fuentes oficiales y actualizaciones de la comunidad:

  • ** A finales de 2024- Lanzamiento inicial: ** el 25 de noviembre de 2024 **, Anthrope anunció oficialmente MCP y de código abierto las especificaciones y los SDK iniciales. Junto con la especificación, lanzaron un puñado de implementaciones de servidor MCP para herramientas comunes (Google Drive, Slack, GitHub, etc.) y agregaron soporte en el Asistente de AI de Claude (aplicación de escritorio Claude) para conectarse a los servidores locales de MCP. Esto marcó el lanzamiento 1.0 de MCP. Las integraciones tempranas de prueba de concepto en Anthrope mostraron cómo Claude podría usar MCP para leer archivos o consultar una base de datos SQL en lenguaje natural, validando el concepto.
  • ** Q1 2025 - Adopción y iteración rápidas: ** En los primeros meses de 2025, MCP vio ** Adopción generalizada de la industria **. Para ** marzo de 2025 **, OpenAi y otros proveedores de IA anunciaron apoyo (como se describió anteriormente). Este período también vio ** Evolución especificada **: MCP actualizado antrópico para incluir ** Capacidades de transmisión ** (permitiendo que se envíen grandes resultados o flujos de datos continuos de forma incremental). Esta actualización se anotó en abril de 2025 con las noticias de C# SDK, lo que indica que MCP ahora admitió características como respuestas fragmentadas o integración de alimentación en tiempo real. La comunidad también construyó ** implementaciones de referencia ** en varios idiomas (Python, JavaScript, etc.) más allá del SDK de Anthrope, asegurando el soporte de políglotas.
  • ** Q2 2025 - Herramientas y gobernanza del ecosistema: ** En ** mayo de 2025 **, con Microsoft y Github unirse al esfuerzo, hubo un impulso para formalizar la gobernanza y mejorar la seguridad. En Build 2025, Microsoft presentó planes para ** Integración de MCP Windows 11 ** y detalló una colaboración para mejorar ** los flujos de autorización en MCP **. Casi al mismo tiempo, la idea de un registro ** MCP ** se introdujo en los servidores disponibles del índice (la lluvia de ideas inicial comenzó en marzo de 2025 según el blog del registro). El proceso ** "Track de estándares" ** (SEP - Propuestas de mejora estándar) se estableció en GitHub, similar a EIPS de Ethereum o PEPS de Python, para gestionar las contribuciones de manera ordenada. Las llamadas comunitarias y los grupos de trabajo (para seguridad, registro, SDK) comenzaron a convocarse.
  • ** Mid 2025- Expansión de características: ** A mediados de 2015, la hoja de ruta priorizó varias mejoras clave:
    • ** Soporte de tareas asincrónicas y de larga duración: ** Planea permitir que MCP maneje las operaciones largas sin bloquear la conexión. Por ejemplo, si una IA desencadena un trabajo en la nube que lleva minutos, el protocolo MCP admitiría respuestas de asíncrono o reconexión para obtener resultados. -** Autenticación y seguridad de grano fino: ** Desarrollo ** Autorización de grano fino ** Mecanismos para acciones sensibles. Esto incluye posiblemente la integración de flujos de OAuth, claves API y SSO empresarial en los servidores MCP para que el acceso de IA se pueda administrar de manera segura. A mediados de 2025, las guías y las mejores prácticas para la seguridad de MCP estaban en progreso, dados los riesgos de seguridad de permitir que AI invoque herramientas poderosas. El objetivo es que, por ejemplo, si una IA es acceder a la base de datos privada de un usuario a través de MCP, debe seguir un flujo de autorización seguro (con consentimiento del usuario) en lugar de solo un punto final abierto.
  • ** Pruebas de validación y cumplimiento: ** Reconociendo la necesidad de confiabilidad, la comunidad priorizó la construcción de suites de prueba de cumplimiento ** y ** implementaciones de referencia **. Al garantizar que todos los clientes/servidores de MCP se adhieran a la especificación (a través de pruebas automatizadas), pretendían prevenir la fragmentación. Un servidor de referencia (probablemente un ejemplo con las mejores prácticas para la implementación remota y la autenticación) estaba en la hoja de ruta, al igual que una aplicación de cliente de referencia que demostró el uso completo de MCP con una IA.
    • ** Soporte de multimodalidad: ** Extender MCP más allá del texto para admitir modalidades como ** imagen, audio, datos de video ** en el contexto. Por ejemplo, una IA podría solicitar una imagen de un servidor MCP (por ejemplo, un activo de diseño o un diagrama) o emitir una imagen. La discusión de especificaciones incluyó agregar soporte para * transmisión y mensajes fragmentados * para manejar interactivamente el contenido multimedia grande. El trabajo temprano en "MCP Streaming" ya estaba en marcha (para apoyar cosas como alimentos en audio en vivo o datos de sensores continuos para la IA).
    • ** Registro Central y Discovery: ** El plan para implementar un servicio central ** MCP Registry ** para el descubrimiento del servidor se ejecutó a mediados de 2025. Para ** septiembre de 2025 **, el registro oficial de MCP se lanzó en vista previa. Este registro proporciona una sola fuente de verdad ** para los servidores MCP disponibles públicamente, lo que permite a los clientes encontrar servidores por nombre, categoría o capacidades. Es esencialmente como una tienda de aplicaciones (pero abierta) para herramientas de IA. El diseño permite registros públicos (un índice global) y los privados (específicos de la empresa), todos interoperables a través de una API compartida. El registro también introdujo un ** mecanismo de moderación ** para marcar o eliminar servidores maliciosos, con un modelo de moderación de la comunidad para mantener la calidad.
  • ** A finales de 2025 y más allá - hacia las redes MCP descentralizadas: ** Aunque aún no son artículos de hoja de ruta "oficiales", la trayectoria apunta hacia más ** descentralización y sinergia web3 **:
  • Los investigadores están explorando activamente cómo agregar ** descubrimiento descentralizado, reputación y capas de incentivos ** a MCP. Se está incubando el concepto de una red ** MCP ** (o "mercado de puntos finales MCP"). Esto podría implicar registros inteligentes basados ​​en contratos (por lo que no hay un solo punto de falla para los listados de servidores), sistemas de reputación donde los servidores/clientes tienen identidades y apuestas en la cadena para un buen comportamiento, y posiblemente ** recompensas de token para ejecutar nodos MCP confiables **.
    • ** Proyecto Namda ** en el MIT, que comenzó en 2024, es un paso concreto en esta dirección. Para 2025, NAMDA había construido un marco de agentes distribuido prototipo sobre las bases de MCP, incluidas características como el descubrimiento de nodos dinámicos, el equilibrio de carga entre los grupos de agentes y un registro descentralizado que utilizan técnicas de blockchain. Incluso tienen incentivos experimentales basados ​​en token y seguimiento de procedencia para colaboraciones de múltiples agentes. Los hitos de NAMDA muestran que es factible tener una red de agentes de MCP que se ejecutan en muchas máquinas con coordinación sin confianza. Si se adoptan los conceptos de NAMDA, podríamos ver que MCP evoluciona para incorporar algunas de estas ideas (posiblemente a través de extensiones opcionales o protocolos separados en capas en la parte superior).
    • ** Endurecimiento empresarial: ** En el lado empresarial, a finales de 2025 esperamos que MCP se integre en las principales ofertas de software empresarial (la inclusión de Microsoft en Windows y Azure es un ejemplo). La hoja de ruta incluye características amigables para la empresa como ** SSO Integration para servidores MCP ** y controles de acceso robustos. La disponibilidad general del registro de MCP y los kits de herramientas para implementar MCP a escala (por ejemplo, dentro de una red corporativa) es probable a fines de 2025.

Para recapitular algunos hitos de desarrollo clave ** hasta ahora ** (formato de línea de tiempo para mayor claridad):

  • ** Nov 2024: ** MCP 1.0 liberado (antrópico).
  • ** Dic 2024 - enero de 2025: ** La comunidad construye la primera ola de servidores MCP; Antrópico libera Claude Desktop con soporte de MCP; Pilotos a pequeña escala por bloque, Apolo, etc.
  • ** Feb 2025: ** 1000+ conectores MCP comunitarios logrados; Anthrope organiza talleres (por ejemplo, en una cumbre de IA, educación de conducción).
  • ** Mar 2025: ** OpenAI anuncia apoyo (Chatgpt Agents SDK).
  • ** Abr 2025: ** Google DeepMind anuncia soporte (Gemini admitirá MCP); Microsoft publica una vista previa de C# SDK.
  • ** Mayo de 2025: ** Comité directivo expandido (Microsoft/Github); Build 2025 Demos (integración de Windows MCP).
  • ** Jun 2025: ** ChainStack lanza servidores MCP Web3 (EVM/Solana) para uso público.
  • ** Jul 2025: ** Actualizaciones de la versión de especificación MCP (transmisión, mejoras de autenticación); Hoja de ruta oficial publicada en el sitio de MCP.
  • ** SEP 2025: ** Registro MCP (vista previa) lanzado; Probable MCP alcanza la disponibilidad general en más productos (Claude para el trabajo, etc.).
  • ** A finales de 2025 (proyectado): ** Registro v1.0 en vivo; Seguridad de las mejores guías de práctica liberadas; Posiblemente experimentos iniciales con descubrimiento descentralizado (resultados de NAMDA).

** Vision Forward ** es que MCP se vuelve tan ubicuo e invisible como HTTP o JSON, una capa común que muchas aplicaciones usan debajo del capó. Para Web3, la hoja de ruta sugiere una fusión más profunda: donde los agentes de IA no solo usarán Web3 (blockchains) como fuentes o sumideros de información, sino que la infraestructura de Web3 en sí misma podría comenzar a incorporar agentes de IA (a través de MCP) como parte de su operación (por ejemplo, un DAO podría ejecutar una AI compatible con MCP para administrar ciertas tareas, o Oracles podría publicar datos a través de los puntos finales de MCP). El énfasis de la hoja de ruta en cosas como la verificabilidad y la autenticación sugiere que en el futuro, ** interacciones MCP minimizadas de confianza ** podría ser una realidad: imagine salidas de IA que vienen con pruebas criptográficas o un registro en cadena de qué herramientas se invoca una IA para fines de auditoría. Estas posibilidades difuminan la línea entre las redes AI y Blockchain, y MCP está en el corazón de esa convergencia.

En conclusión, el desarrollo de MCP es altamente dinámico. Ha alcanzado los principales hitos tempranos (amplia adopción y estandarización dentro de un año de lanzamiento) y continúa evolucionando rápidamente con una hoja de ruta clara que enfatiza ** seguridad, escalabilidad y descubrimiento **. Los hitos logrados y planificados garantizan que MCP permanezca robusto a medida que se escala: abordar desafíos como tareas de larga duración, permisos seguros y la capacidad de descubrimiento de miles de herramientas. Este impulso hacia adelante indica que MCP no es una especificación estática, sino un estándar creciente, que es probable que incorpore más características con sabor a Web3 (gobernanza descentralizada de los servidores, alineación de incentivos) a medida que surgen esas necesidades. La comunidad está preparada para adaptar MCP a nuevos casos de uso (IA multimodal, IoT, etc.), todo mientras vigila la promesa central: hacer que AI ** sea más conectado, consciente de contexto y poder de usuario ** en la era Web3.

7. Comparación con proyectos o protocolos Web3 similares

La combinación única de IA y conectividad de MCP significa que no hay muchos equivalentes directos de manzanas a manzanas, pero es esclarecedor compararlo con otros proyectos en la intersección de Web3 e IA o con objetivos análogos:

  • ** SingularityNet (AGI/X) **-*Mercado de IA descentralizado:*SingularityNet, lanzado en 2017 por el Dr. Ben Goertzel y otros, es un mercado basado en blockchain para servicios de IA. Permite a los desarrolladores monetizar los algoritmos de IA como servicios y usuarios para consumir esos servicios, todos facilitados por un token (AGIX) que se utiliza para pagos y gobernanza. En esencia, SingularityNet está tratando de descentralizar el ** suministro de modelos AI ** al alojarlos en una red donde cualquiera puede llamar a un servicio de IA a cambio de tokens. Esto difiere de MCP fundamentalmente. MCP no aloja ni monetiza los modelos AI; En su lugar, proporciona una interfaz estándar ** para AI (donde sea que se esté ejecutando) para acceder a datos/herramientas **. Uno podría imaginarse usar MCP para conectar una IA a los servicios que figuran en SingularityNet, pero SingularityNet se centra en la capa económica (que proporciona un servicio de IA y cómo se les paga). Otra diferencia clave: ** Gobernanza **-SingularityNet tiene una gobernanza en la cadena (a través de ** SingularityNet Propuestas de mejora (SNPS) ** y votación de token Agix) para evolucionar su plataforma. La gobernanza de MCP, por el contrario, está fuera de la cadena y está colaborativa sin una ficha. En resumen, SingularityNet y MCP se esfuerzan por un ecosistema AI más abierto, pero SingularityNet se trata de una ** red tokenizada de algoritmos de IA **, mientras que MCP tiene un estándar de protocolo ** para la interoperabilidad de la toula AI **. Podrían complementar: por ejemplo, una IA en SingularityNet podría usar MCP para obtener datos externos que necesita. Pero SingularityNet no intenta estandarizar el uso de la herramienta; Utiliza blockchain para coordinar los servicios de IA, mientras que MCP utiliza estándares de software para permitir que AI funcione con cualquier servicio.
  • ** Fetch.ai (FET) **-Plataforma descentralizada basada en agentes:Fetch.ai es otro proyecto que combina AI y blockchain. Lanzó su propia prueba de bloques de prueba de prueba y marco para construir ** agentes autónomos ** que realizan tareas e interactúen en una red descentralizada. En la visión de Fetch, millones de "agentes de software" (que representan a personas, dispositivos u organizaciones) pueden negociar e intercambiar valor, utilizando tokens FET para transacciones. Fetch.ai proporciona un marco de agente (UAGENTS) e infraestructura para el descubrimiento y la comunicación entre los agentes en su libro mayor. Por ejemplo, un agente de búsqueda podría ayudar a optimizar el tráfico en una ciudad interactuando con otros agentes para estacionamiento y transporte, o administrar un flujo de trabajo de la cadena de suministro de forma autónoma. ¿Cómo se compara esto con MCP? Ambos tratan con el concepto de agentes, pero los agentes de Fetch.ai están fuertemente vinculados a su economía de blockchain y tokens: viven en la red Fetch ** y usan la lógica en la cadena. Los agentes de MCP (hosts de IA) están impulsados ​​por el modelo (como un LLM) y no están vinculados a ninguna red única; MCP se contenta con operar a través de Internet o dentro de una configuración de nube, sin requerir una cadena de bloques. Fetch.ai intenta construir una nueva economía de AI descentralizada desde cero ** (con su propio libro mayor para la confianza y las transacciones), mientras que MCP es ** Agnóstico de capa ** **: se realiza a las redes existentes en las redes existentes (podría usarse sobre HTTP, o incluso además de una cadena de bloques, si es necesario) a las interacciones AI. Se podría decir que Fetch se trata más de ** Agentes económicos autónomos ** y MCP sobre ** Agentes inteligentes que usan herramientas **. Curiosamente, estos podrían cruzar: un agente autónomo en Fetch.ai podría usar MCP para interactuar con recursos fuera de la cadena u otras blockchains. Por el contrario, uno podría usar MCP para construir sistemas de múltiples agentes que aprovechen diferentes cadenas de bloques (no solo una). En la práctica, MCP ha visto una adopción más rápida porque no requería su propia red: funciona con Ethereum, Solana, API Web2, etc., fuera de la caja. El enfoque de Fetch.ai es más pesado, creando un ecosistema completo al que los participantes deben unirse (y adquirir tokens) para usar. En resumen, ** Fetch.ai vs MCP **: Fetch es una plataformacon su propio token/blockchain para agentes de IA, centrándose en la interoperabilidad y los intercambios económicos entre los agentes, mientras que MCP es un protocoloque los agentes de IA (en cualquier entorno) pueden usar en herramientas y datos. Sus objetivos se superponen para habilitar la automatización impulsada por la IA, pero abordan diferentes capas de la pila y tienen filosofías arquitectónicas muy diferentes (ecosistema cerrado frente al estándar abierto).
  • ** Cadena y oráculos descentralizados **-Conectando blockchains a datos fuera de la cadena:ChainLink no es un proyecto de IA, pero es muy relevante como un protocolo Web3 que resuelve un problema complementario: cómo conectar ** blockchains ** con datos externos y computación. ChainLink es una red descentralizada de nodos (oráculos) que obtiene, verifica y entrega datos fuera de la cadena a contratos inteligentes de una manera minimizada de confianza. Por ejemplo, los oráculos de ChainLink proporcionan alimentos de precios a los protocolos Defi o llaman a API externos en nombre de los contratos inteligentes a través de funciones de Link. Comparativamente, MCP conecta ** AI modelos ** a datos/herramientas externas (algunas de las cuales podrían ser blockchains). Se podría decir que ** ChainLink trae datos a blockchains, mientras que MCP trae datos a AI **. Existe un paralelo conceptual: ambos establecen un puente entre los sistemas aislados. ChainLink se centra en la fiabilidad, la descentralización y la seguridad de los datos alimentados en la cadena (resolviendo el "problema de oráculo" del punto de falla único). MCP se centra en la flexibilidad y la estandarización de cómo la IA puede acceder a los datos (resolver el "problema de integración" para los agentes de IA). Operan en diferentes dominios (contratos inteligentes frente a asistentes de IA), pero uno podría comparar los servidores MCP con los oráculos: un servidor MCP para los datos de precios podría llamar a las mismas API que hace un nodo de chaqueta. La diferencia es el ** consumidor **: en el caso de MCP, el consumidor es un asistente de IA o usuarios, no un contrato inteligente determinista. Además, MCP no proporciona inherentemente la fideicomiso garantías de que ChainLink (los servidores MCP pueden ser centralizados o administrados por la comunidad, con fideicomiso administrado a nivel de aplicación). Sin embargo, como se mencionó anteriormente, las ideas para descentralizar las redes MCP podrían pedir prestado de Oracle Networks, por ejemplo, se pueden consultar múltiples servidores MCP y verificar los resultados para garantizar que una IA no se alimente de datos malos, similar a la forma en que múltiples nodos de luz de cadena agregan un precio. En resumen, ** ChainLink vs MCP **: ChainLink esWeb3 Middleware para blockchains para consumir datos externos, MCP esAI Middleware para que los modelos consumen datos externos (que podrían incluir datos de blockchain). Abordan las necesidades análogas en diferentes ámbitos e incluso podrían complementar: una IA que usa MCP podría obtener una alimentación de datos proporcionada por ChainLink como un recurso confiable y, por el contrario, una IA podría servir como una fuente de análisis que un Oracle de cadena trae en la cadena (aunque ese último escenario plantearía dudas de verificabilidad).
  • ** CHATGPT Plugins / OpenAI Functions vs MCP ** -*Enfoques de integración de herramientas de AI:*Si bien no se proyectos Web3, se justifica una comparación rápida porque los complementos de chatgpt y la función de llamadas de funciones de OpenAI también conectan IA a herramientas externas. Los complementos de ChatGPT utilizan una especificación OpenAPI proporcionada por un servicio, y el modelo puede llamar a esas API siguiendo la especificación. Las limitaciones son que es un ecosistema cerrado (complementos aprobados por OpenAI que se ejecutan en los servidores de OpenAI) y cada complemento es una integración aislada. El nuevo * "agentes" * SDK de Openai está más cerca de MCP en concepto, permitiendo a los desarrolladores definir herramientas/funciones que una IA puede usar, pero inicialmente fue específico para el ecosistema de Openi. ** Langchain ** Del mismo modo proporcionó un marco para proporcionar herramientas LLMS en código. MCP difiere ofreciendo un ** Estándar del modelo y agnóstico del modelo ** para esto. Como lo expresó un análisis, Langchain creó un estándar de desarrollo de desarrolladores (una interfaz de Python) para herramientas, mientras que MCP crea un estándar de * modelo *: un agente de IA puede descubrir y usar cualquier herramienta definida por MCP en tiempo de ejecución sin código personalizado. En términos prácticos, el ecosistema de servidores de MCP se hizo más grande y más diverso que la tienda de complementos ChatGPT en cuestión de meses. Y en lugar de que cada modelo tenga su propio formato de complemento (OpenAi tenía el suyo, otros tenían diferentes), muchos se están fusionando alrededor de MCP. Operai señaló el soporte para MCP, esencialmente alineando su enfoque de función con el estándar más amplio. Por lo tanto, comparar ** los complementos OpenAI con MCP **: los complementos son un enfoque centralizado curado, mientras que MCP es un enfoque descentralizado y impulsado por la comunidad. En una mentalidad de Web3, MCP es más "código abierto y sin permiso", mientras que los ecosistemas de complementos patentados están más cerrados. Esto hace que MCP sea análogo al espíritu de Web3 a pesar de que no es una cadena de bloques: permite la interoperabilidad y el control del usuario (podría ejecutar su propio servidor MCP para sus datos, en lugar de darle todo a un proveedor de IA). Esta comparación muestra por qué muchos consideran que MCP tiene más potencial a largo plazo: no está bloqueado para un proveedor o un modelo.
  • ** Proyecto NAMDA y marcos de agentes descentralizados: ** Namda merece una nota separada porque combina explícitamente MCP con los conceptos Web3. Como se describió anteriormente, NAMDA (arquitectura distribuida modular del agente en red) es una iniciativa MIT/IBM que se inició en 2024 para construir una red de agentes de IA ** escalable ** que usa MCP como capa de comunicación. Trata a MCP como la columna vertebral de mensajería (ya que MCP utiliza mensajes estándar de tipo JSON-RPC, se ajusta bien a las comunicaciones entre agentes), y luego agrega capas para ** descubrimiento dinámico, tolerancia a fallas e identidades verificables ** utilizando técnicas inspiradas en blockchain. Los agentes de NAMDA pueden estar en cualquier lugar (dispositivos de nubes, borde, etc.), pero un registro descentralizado (algo así como un DHT o blockchain) realiza un seguimiento de ellos y sus capacidades de manera a prueba de tamperios. Incluso exploran dar tokens de agentes para incentivar la cooperación o el intercambio de recursos. En esencia, Namda es un experimento en cómo podría ser una ** Versión Web3 de MCP "**. Todavía no es un proyecto ampliamente desplegado, pero es uno de los "protocolos similares" en espíritu. Si vemos NAMDA vs MCP: NAMDA usa MCP (por lo que no son estándares competitivos), pero lo extiende con un protocolo para establecer contactos y coordinar a múltiples agentes de manera minimizada de confianza. Uno podría comparar NAMDA con marcos como ** Autonolas o sistemas de múltiples agentes (MAS) ** que la comunidad criptográfica ha visto, pero aquellos a menudo carecen de un poderoso componente de IA o un protocolo común. Namda + MCP juntos muestra cómo podría funcionar una red de agente descentralizada, con blockchain proporcionando ** identidad, reputación y posiblemente incentivos de token **, y MCP proporcionando la comunicación de agentes ** y el uso de herramientas **.

En resumen, ** MCP se distingue ** de la mayoría de los proyectos Web3 anteriores: no comenzó como un proyecto criptográfico en absoluto, pero se cruza rápidamente con Web3 porque resuelve problemas complementarios. Proyectos como SingularityNet y Fetch.ai tuvieron como objetivo * descentralizar el cálculo o servicios de AI * usando blockchain; En cambio, MCP *estandariza la integración de IA con los servicios *, lo que puede mejorar la descentralización evitando el bloqueo de la plataforma. Las redes Oracle como ChainLink resolvieron la entrega de datos a blockchain; MCP resuelve la entrega de datos a la IA (incluidos los datos de blockchain). Si los ideales centrales de Web3 son la descentralización, la interoperabilidad y el empoderamiento del usuario, MCP está atacando la pieza de interoperabilidad en el ámbito de la IA. Incluso está influyendo en esos proyectos más antiguos; por ejemplo, no hay nada que impida que SingularityNet haga que sus servicios de IA estén disponibles a través de servidores MCP, o obtengan agentes de usar MCP para hablar con sistemas externos. Bien podríamos ver una convergencia en la que *las redes de IA impulsadas por el token usan MCP como su lengua franca *, que se casa con la estructura de incentivos de Web3 con la flexibilidad de MCP.

Finalmente, si consideramos ** la percepción del mercado **: MCP a menudo se promociona para AI lo que Web3 esperaba hacer para Internet: rompa los silos y empodere a los usuarios. Esto ha llevado a algunos a apodar a MCP informalmente como "Web3 para IA" (incluso cuando no hay blockchain involucrado). Sin embargo, es importante reconocer que MCP es un estándar de protocolo, mientras que la mayoría de los proyectos Web3 son plataformas de pila completa con capas económicas. En comparaciones, MCP generalmente sale como una solución universal más liviana, mientras que los proyectos de blockchain son soluciones más pesadas y especializadas. Dependiendo del caso de uso, pueden complementar en lugar de competir estrictamente. A medida que el ecosistema madura, podríamos ver a MCP integrado en muchos proyectos de Web3 como un módulo (muy parecido a cómo HTTP o JSON son omnipresentes), en lugar de como un proyecto rival.

8. Percepción pública, tracción del mercado y cobertura de medios

El sentimiento público hacia MCP ha sido abrumadoramente positivo en las comunidades de AI y Web3, a menudo limitando con entusiasta. Muchos lo ven como un ** cambio de juego ** que llegó en silencio pero luego tomó la industria por asalto. Desglosemos la percepción, la tracción y las notables narrativas de los medios:

** Métricas de tracción y adopción del mercado: ** A mediados de 2025, MCP logró un nivel de adopción raro para un nuevo protocolo. Está respaldado por prácticamente todos los principales proveedores de modelos de IA (antrópico, OpenAi, Google, Meta) y respaldado por una gran infraestructura tecnológica (Microsoft, Github, AWS, etc.), como se detalló anteriormente. Esto solo indica al mercado que MCP probablemente esté aquí para quedarse (similar a cómo el amplio respaldo impulsó TCP/IP o HTTP en los primeros días de Internet). En el lado de la Web3, la *tracción es evidente en el comportamiento del desarrollador *: Hackathons comenzó a presentar proyectos MCP, y muchas herramientas de blockchain Dev ahora mencionan la integración de MCP como un punto de venta. La estadística de "más de 1000 conectores en unos pocos meses" y la cita de "miles de integraciones" de Mike Krieger a menudo se citan para ilustrar cuán rápido se capta MCP. Esto sugiere fuertes efectos de la red: cuantas más herramientas estén disponibles a través de MCP, más útiles es, lo que provoca más adopción (un ciclo de retroalimentación positiva). Los VC y los analistas han notado que MCP logró en menos de un año lo que los intentos anteriores de "interoperabilidad de IA" no lograron hacer durante varios años, en gran parte debido a la hora (montar la ola de interés en los agentes de IA) y ser de código abierto. En Web3 Media, la tracción a veces se mide en términos de desarrollador mental e integración en proyectos, y los puntajes MCP en ambos ahora.

** Percepción pública en comunidades AI y Web3: ** Inicialmente, MCP voló bajo el radar cuando se anunció por primera vez (finales de 2024). Pero a principios de 2025, a medida que surgieron historias de éxito, la percepción cambió a la emoción. Los practicantes de IA vieron a MCP como la "pieza de rompecabezas faltante" para hacer que los agentes de IA realmente útiles más allá de los ejemplos de juguetes. Los constructores de Web3, por otro lado, lo vieron como un puente para finalmente incorporar IA en DAPPS sin tirar la descentralización: una IA puede usar datos en la cadena sin necesidad de un oráculo centralizado, por ejemplo. ** Los líderes de pensamiento ** han estado cantando alabanzas: por ejemplo, Jesús Rodríguez (un destacado escritor de IA Web3) escribió en Coindesk que MCP puede ser*"uno de los protocolos más transformadores para la era de la IA y un gran ajuste para las arquitecturas Web3"*. Rares Crisan en un notable blog de capital argumentó que MCP podría cumplir con la promesa de Web3 donde Blockchain solo luchó, haciendo que Internet sea más centrado en el usuario y natural para interactuar. Estas narrativas enmarcan MCP como revolucionarias pero prácticas, no solo exageradas.

Para ser justos, ** no todos los comentarios son poco críticos **. Algunos desarrolladores de IA en foros como Reddit han señalado que MCP "no hace todo": es un protocolo de comunicación, no un agente listón o motor de razonamiento. Por ejemplo, una discusión de Reddit titulada "MCP es una trampa sin salida" argumentó que MCP en sí mismo no gestiona la cognición del agente ni garantiza la calidad; Todavía requiere un buen diseño de agente y controles de seguridad. Este punto de vista sugiere que MCP podría ser sobrevalorado como una bala de plata. Sin embargo, estas críticas son más sobre el templado de las expectativas que rechazar la utilidad de MCP. Hacen hincapié en que MCP resuelve la conectividad de la herramienta, pero aún uno debe construir una lógica de agente robusta (es decir, MCP no crea mágicamente un agente inteligente, equipa uno con herramientas). Sin embargo, el consenso ** es que MCP es un gran paso adelante **, incluso entre voces cautelosas. Hugging’s Face’s Community Blog señaló que si bien MCP no es un resuelto, es un gran facilitador para la IA integrada, consciente del contexto, y los desarrolladores se están reuniendo a su alrededor por esa razón.

** Cobertura de medios: ** MCP ha recibido una cobertura significativa en los medios tecnológicos principales y los medios de bloques de nicho:

  • ** TechCrunch ** ha ejecutado múltiples historias. Cubrieron el concepto inicial ("Anthrope propone una nueva forma de conectar los datos a los chatbots de IA") alrededor del lanzamiento en 2024. En 2025, TechCrunch destacó cada gran momento de adopción: el soporte de Openi, el abrazo de Google, la participación de Microsoft/Github. Estos artículos a menudo enfatizan la unidad de la industria en torno a MCP. Por ejemplo, TechCrunch citó el respaldo de Sam Altman y señaló el rápido cambio de los estándares rivales a MCP. Al hacerlo, retrataron a MCP como el estándar emergente similar a la forma en que nadie quería quedar fuera de los protocolos de Internet en los años 90. Tal cobertura en una salida prominente señaló al mundo tecnológico más amplio que MCP es importante y real, no solo un proyecto de código abierto marginal.
  • ** CoinDesk ** y otras publicaciones criptográficas adquiridas en el ángulo Web3 ** **. A menudo se cita el artículo de opinión de Coindesk de Rodríguez (julio de 2025); Pintó una imagen futurista donde cada cadena de bloques podría ser un servidor MCP y las nuevas redes MCP podrían ejecutarse en blockchains. Conectó MCP con conceptos como la identidad descentralizada, la autenticación y la verificabilidad: hablar el lenguaje de la audiencia de blockchain y sugerir que MCP podría ser el protocolo que realmente combina la IA con marcos descentralizados. Cointelegraph, Bankless y otros también han discutido MCP en el contexto de "AI Agents & Defi" y temas similares, generalmente optimistas sobre las posibilidades (por ejemplo, Bankless tenía una pieza sobre el uso de MCP para dejar que una IA administre los comercios en la cadena en la cadena, e incluyó un cómo hacer para su propio servidor MCP).
  • ** Blogs de VC notables / Informes de analistas: ** La notable publicación de blog de capital (julio de 2025) es un ejemplo de análisis de análisis de riesgo paralelos entre MCP y la evolución de los protocolos web. Básicamente argumenta que MCP podría hacer para Web3 lo que HTTP hizo para Web1, proporcionando una nueva capa de interfaz (interfaz del lenguaje natural) que no reemplaza la infraestructura subyacente, pero la hace utilizable. Este tipo de narración es convincente y se ha hecho eco en paneles y podcasts. Pos coloca a MCP no tan compitiendo con blockchain, sino como la siguiente capa de abstracción que finalmente permite que los usuarios normales (a través de IA) aprovechen fácilmente los servicios de blockchain y web.
  • ** Desarrollador Community Buzz: ** Fuera de artículos formales, el ascenso de MCP puede ser medido por su presencia en el discurso de desarrolladores: conversaciones de conferencias, canales de YouTube, boletines. Por ejemplo, ha habido publicaciones populares de blog como "MCP: ¿El enlace faltante para la IA de agente?" En sitios como Runtime.News y Newsletters (por ejemplo, uno del investigador de IA Nathan Lambert) discutiendo experimentos prácticos con MCP y cómo se compara con otros marcos de uso de herramientas. El tono general es la curiosidad y la emoción: los desarrolladores comparten demostraciones de enganchar la IA a la automatización de su hogar o la billetera criptográfica con solo unas pocas líneas usando servidores MCP, algo que se sintió de ciencia ficción no hace mucho tiempo. Esta emoción de base es importante porque muestra que MCP tiene mentalidad mental más allá de los respaldos corporativos.
  • ** Perspectiva empresarial: ** Medios y analistas que se centran en la IA empresarial también anotan MCP como un desarrollo clave. Por ejemplo, * la nueva pila * cubrió cómo Anthrope agregó soporte para servidores MCP remotos en Claude para uso empresarial. El ángulo aquí es que las empresas pueden usar MCP para conectar sus bases y sistemas de conocimiento interno a IA de manera segura. Esto también es importante para Web3, ya que muchas empresas blockchain son empresas mismas y pueden aprovechar el MCP internamente (por ejemplo, un intercambio de criptografía podría usar MCP para permitir que una IA analice registros de transacciones internas para la detección de fraude).

** Citas y reacciones notables: ** Vale la pena resaltar algunos como percepción pública encapsulante:

    • "Al igual que las comunicaciones web revolucionadas por HTTP, MCP proporciona un marco universal ... reemplazando las integraciones fragmentadas con un solo protocolo". * - CoindenSk. Esta comparación con HTTP es poderosa; Enmarca MCP como innovación a nivel de infraestructura.
    • “MCP [se ha convertido en un] estándar abierto prosperado con miles de integraciones y crecientes. Los LLM son más útiles cuando se conecta a los datos que ya tiene ..." * - Mike Krieger (antrópico). Esta es una confirmación oficial de la tracción y la proposición de valor central, que ha sido ampliamente compartida en las redes sociales.
    • "La promesa de Web3 ... finalmente se puede realizar ... a través del lenguaje natural y los agentes de IA ... MCP es lo más cercano que hemos visto a una web3 real para las masas". * - Capital notable. Esta audaz declaración resuena con aquellos frustrados por las lentas mejoras de UX en criptografía; Sugiere que la IA podría descifrar el código de adopción convencional al abstraer la complejidad.

** Desafíos y escepticismo: ** Si bien el entusiasmo es alto, los medios también han discutido los desafíos:

  • ** Preocupaciones de seguridad: ** Los puntos de venta como la nueva pila o los blogs de seguridad han planteado que permitir que la IA ejecute herramientas puede ser peligrosa si no se sandan. ¿Qué pasa si un servidor MCP malicioso intentaba que una IA realice una acción dañina? El blog de Limechain advierte explícitamente de * "riesgos de seguridad significativos" * con los servidores MCP desarrollados por la comunidad (por ejemplo, un servidor que maneja las claves privadas debe ser extremadamente segura). Estas preocupaciones se han hecho eco en las discusiones: esencialmente, MCP expande las capacidades de IA, pero con el poder viene el riesgo. La respuesta de la comunidad (guías, mecanismos de autores) también se ha cubierto, generalmente asegurando que se están construyendo mitigaciones. Aún así, cualquier uso indebido de alto perfil de MCP (por ejemplo, una IA desencadenó una transferencia de criptografía involuntaria) afectaría la percepción, por lo que los medios están atentos a este frente. -** Rendimiento y costo: ** Algunos analistas señalan que el uso de agentes de IA con herramientas podría ser más lento o más costoso que llamar directamente a una API (porque la IA podría necesitar múltiples pasos de ida y vuelta para obtener lo que necesita). En los contextos de ejecución en el comercio de alta frecuencia o de ejecución en la cadena, esa latencia podría ser problemática. Por ahora, estos son vistos como obstáculos técnicos para optimizar (a través de un mejor diseño o transmisión de agentes), en lugar de rompecabezas.
  • ** Gestión de exageración: ** Como con cualquier tecnología de tendencia, hay un poco de publicidad. Algunas voces advierten no declarar a MCP la solución a todo. Por ejemplo, el artículo de abrazos de abrazos pregunta "¿MCP es una bala de plata?" y respuestas no: los desarrolladores aún necesitan manejar la gestión del contexto, y MCP funciona mejor en combinación con buenas estrategias de consulta y memoria. Tales tomas equilibradas son saludables en el discurso.

** Sentimiento general de los medios: ** La narrativa que emerge es en gran medida esperanzadora y con visión de futuro:

  • MCP se ve como una herramienta práctica que ofrece mejoras reales ahora (por lo que no vaporware), que los medios subrayan citando ejemplos de trabajo: Claude Reading Archivos, copilotas usando MCP en VScode, una IA que completa una transacción solana en una demostración, etc.
  • También se retrata como una pieza básica estratégica para el futuro de AI y Web3. Los medios a menudo concluyen que MCP o cosas como esto serán esenciales para "IA descentralizada" o "Web4" o cualquier término que se use para la web de próxima generación. Existe la sensación de que MCP abrió una puerta, y ahora la innovación está fluyendo, ya sea los agentes o empresas descentralizadas de Namda que conectan sistemas heredados con IA, muchas historias futuras se remontan a la introducción de MCP.

En el mercado, uno podría medir la tracción mediante la formación de nuevas empresas y fondos alrededor del ecosistema MCP. De hecho, hay rumores/informes de nuevas empresas que se centran en los "mercados MCP" o las plataformas MCP administradas que obtienen fondos (la escritura de capital notable al respecto sugiere un interés de capital de riesgo). Podemos esperar que los medios comiencen a cubrir esos tangencialmente, por ejemplo, "Startup X usa MCP para dejar que su IA administre su cartera de criptografía, recauda $ Y millones".

** Conclusión de percepción: ** A finales de 2025, MCP disfruta de una reputación como una tecnología innovadora. Tiene una fuerte defensa de figuras influyentes tanto en IA como en Crypto. La narrativa pública ha evolucionado de *"Aquí hay una herramienta ordenada" *a *"Esto podría ser fundamental para la próxima web" *. Mientras tanto, la cobertura práctica confirma que está funcionando y siendo adoptada, prestando credibilidad. Siempre que la comunidad continúe abordando los desafíos (seguridad, gobernanza a escala) y no se producen desastres importantes, es probable que la imagen pública de MCP siga siendo positiva o incluso se vuelva icónica como "el protocolo que hizo que AI y Web3 jueguen bien".

Los medios probablemente vigilarán de cerca:

  • Historias de éxito (por ejemplo, si un DAO importante implementa un tesorero de IA a través de MCP, o un gobierno usa MCP para sistemas de IA de datos abiertos).
  • Cualquier incidente de seguridad (para evaluar el riesgo).
  • La evolución de las redes MCP y si algún componente de token o blockchain ingresa oficialmente a la imagen (lo que sería una gran noticia para unir IA y cripto aún más estrechamente).

A partir de ahora, sin embargo, la cobertura se puede resumir mediante una línea de Coindesk: * "La combinación de Web3 y MCP podría ser una nueva base para la IA descentralizada". * - Un sentimiento que captura tanto la promesa como la emoción que rodea a MCP en el ojo público.

** Referencias: **

  • Noticias antrópicas: * "Presentación del protocolo del contexto del modelo", * noviembre 2024
  • Blog de Limechain: * "¿Qué es MCP y cómo se aplica a Blockchains?" * Mayo 2025
  • Blog de ChainStack: * "MCP para Web3 Builders: Solana, EVM y documentación", * junio de 2025
  • Op-Ed Coindesk: * "El protocolo de los agentes: potencial MCP de Web3", * julio de 2025
  • Capital notable: * "Por qué MCP representa la oportunidad real de Web3", * julio de 2025
  • TechCrunch: * "OpenAi adopta el estándar de Anthrope ...", * 26 de marzo de 2025
  • TechCrunch: * "Google para abrazar el estándar de Anthrope ...", * 9 de abril de 2025
  • TechCrunch: * "Github, Microsoft Embrace ... (Comité Directivo de MCP)", * 19 de mayo de 2025
  • Blog de Microsoft Dev: * "C# SDK oficial para MCP", * Abr 2025
  • Blog de abrazadera: * "#14: ¿Qué es MCP y por qué todos hablan de eso?" * Mar 2025
  • Investigación de Messari: * "Fetch.ai Perfil", * 2023
  • Medium (Nu Fintimes): * "Inventa singularitynet", * Mar 2024

World Liberty Financial: El futuro del dinero, respaldado por USD1

· 13 min de lectura
Dora Noda
Software Engineer

Resumen de World Liberty Financial

World Liberty Financial (WLFI) es una plataforma de finanzas descentralizadas (DeFi) creada por miembros de la familia Trump y sus socios. Según el sitio de la Organización Trump, la plataforma tiene como objetivo unir la banca tradicional y la tecnología blockchain combinando la estabilidad de las finanzas tradicionales con la transparencia y accesibilidad de los sistemas descentralizados. Su misión es proporcionar servicios modernos para el movimiento de dinero, préstamos y gestión de activos digitales, al tiempo que apoya la estabilidad respaldada por el dólar, haciendo el capital accesible para individuos e instituciones, y simplificando DeFi para los usuarios convencionales.

WLFI lanzó su token de gobernanza ($WLFI) en septiembre de 2025 e introdujo una stablecoin vinculada al dólar llamada USD1 en marzo de 2025. La plataforma describe USD1 como una stablecoin "futuro del dinero" diseñada para servir como par base para activos tokenizados y para promover el dominio del dólar estadounidense en la economía digital. El cofundador Donald Trump Jr. ha enmarcado a WLFI como una empresa no política destinada a empoderar a la gente común y fortalecer el papel global del dólar estadounidense.

Historia y fundación

  • Orígenes (2024–2025). WLFI fue anunciada en septiembre de 2024 como una empresa de criptomonedas liderada por miembros de la familia Trump. La compañía lanzó su token de gobernanza WLFImaˊstardeesean~o.SeguˊnReuters,laventainicialdetokensWLFI más tarde ese año. Según Reuters, la venta inicial de tokens WLFI de la empresa recaudó solo alrededor de $2.7 millones, pero las ventas aumentaron después de la victoria electoral de Donald Trump en 2024 (información referenciada en informes ampliamente citados, aunque no disponible directamente en nuestras fuentes). WLFI es propiedad mayoritaria de una entidad comercial de Trump y tiene nueve cofundadores, incluidos Donald Trump Jr., Eric Trump y Barron Trump.
  • Gestión. La Organización Trump describe los roles de liderazgo de WLFI como: Donald Trump (Defensor Jefe de Criptomonedas), Eric Trump y Donald Trump Jr. (Embajadores Web3), Barron Trump (visionario de DeFi) y Zach Witkoff (CEO y cofundador). Las operaciones diarias de la compañía son gestionadas por Zach Witkoff y socios como Zachary Folkman y Chase Herro.
  • Iniciativa de stablecoin. WLFI anunció la stablecoin USD1 en marzo de 2025. USD1 fue descrita como una stablecoin vinculada al dólar respaldada por bonos del Tesoro de EE. UU., depósitos en dólares estadounidenses y otros equivalentes de efectivo. Las reservas de la moneda son custodiadas por BitGo Trust Company, un custodio de activos digitales regulado. USD1 se lanzó en la BNB Chain de Binance y luego se expandió a Ethereum, Solana y Tron.

Stablecoin USD1: Diseño y características

Modelo de reserva y mecanismo de estabilidad

USD1 está diseñada como una stablecoin respaldada por fiat con un mecanismo de canje 1:1. Cada token USD1 es canjeable por un dólar estadounidense, y las reservas de la stablecoin se mantienen en letras del Tesoro de EE. UU. a corto plazo, depósitos en dólares y equivalentes de efectivo. Estos activos son custodiados por BitGo Trust, una entidad regulada conocida por la custodia institucional de activos digitales. WLFI anuncia que USD1 ofrece:

  1. Colateralización completa y auditorías. Las reservas están totalmente colateralizadas y sujetas a atestaciones mensuales de terceros, lo que proporciona transparencia sobre los activos de respaldo. En mayo de 2025, Binance Academy señaló que los desgloses regulares de las reservas aún no estaban disponibles públicamente y que WLFI había prometido auditorías de terceros.
  2. Orientación institucional. WLFI posiciona a USD1 como una stablecoin "lista para instituciones" dirigida a bancos, fondos y grandes empresas, aunque también es accesible para usuarios minoristas.
  3. Cero tarifas de acuñación/canje. Según se informa, USD1 no cobra tarifas por la acuñación o el canje, lo que reduce la fricción para los usuarios que manejan grandes volúmenes.
  4. Interoperabilidad entre cadenas. La stablecoin utiliza el Protocolo de Interoperabilidad entre Cadenas (CCIP) de Chainlink para permitir transferencias seguras a través de Ethereum, BNB Chain y Tron. Los planes para expandirse a blockchains adicionales se confirmaron a través de asociaciones con redes como Aptos y Tron.

Rendimiento del mercado

  • Crecimiento rápido. Dentro de un mes de su lanzamiento, la capitalización de mercado de USD1 alcanzó aproximadamente $2.1 mil millones, impulsada por acuerdos institucionales de alto perfil, como una inversión de $2 mil millones del fondo MGX de Abu Dabi en Binance utilizando USD1. A principios de octubre de 2025, la oferta había crecido a aproximadamente $2.68 mil millones, con la mayoría de los tokens emitidos en BNB Chain (79 %), seguidos por Ethereum, Solana y Tron.
  • Listado y adopción. Binance listó USD1 en su mercado al contado en mayo de 2025. WLFI promociona una integración generalizada en protocolos DeFi y exchanges centralizados. Plataformas DeFi como ListaDAO, Venus Protocol y Aster admiten préstamos, empréstitos y fondos de liquidez utilizando USD1. WLFI enfatiza que los usuarios pueden canjear USD1 por dólares estadounidenses a través de BitGo en uno o dos días hábiles.

Usos institucionales y planes de activos tokenizados

WLFI concibe USD1 como el activo de liquidación predeterminado para los activos del mundo real (RWA) tokenizados. El CEO Zach Witkoff ha dicho que productos básicos como el petróleo, el gas, el algodón y la madera deberían comercializarse en cadena y que WLFI está trabajando activamente para tokenizar estos activos y emparejarlos con USD1 porque requieren una stablecoin confiable y transparente. Describió a USD1 como "la stablecoin más confiable y transparente de la Tierra".

Productos y servicios

Tarjeta de débito y aplicaciones minoristas

En la conferencia TOKEN2049 en Singapur, Zach Witkoff anunció que WLFI lanzará una tarjeta de débito cripto que permitirá a los usuarios gastar activos digitales en transacciones cotidianas. La compañía planeó lanzar un programa piloto en el próximo trimestre, con un lanzamiento completo esperado en el cuarto trimestre de 2025 o el primer trimestre de 2026. CoinLaw resumió los detalles clave:

  • La tarjeta vinculará los saldos de criptomonedas a las compras de los consumidores y se espera que se integre con servicios como Apple Pay.
  • WLFI también está desarrollando una aplicación minorista orientada al consumidor para complementar la tarjeta.

Tokenización y productos de inversión

Más allá de los pagos, WLFI tiene como objetivo tokenizar productos básicos del mundo real. Witkoff dijo que están explorando la tokenización de petróleo, gas, madera y bienes raíces para crear instrumentos de negociación basados en blockchain. El token de gobernanza de WLFI (WLFI), lanzado en septiembre de 2025, otorga a los titulares la capacidad de votar sobre ciertas decisiones corporativas. El proyecto también ha formado asociaciones estratégicas, incluido el acuerdo de ALT5 Sigma para comprar \750 millones en tokens WLFI como parte de su estrategia de tesorería.

La perspectiva de Donald Trump Jr.

El cofundador Donald Trump Jr. es una figura pública prominente de WLFI. Sus comentarios en eventos de la industria y entrevistas revelan las motivaciones detrás del proyecto y sus puntos de vista sobre las finanzas tradicionales, la regulación y el papel del dólar estadounidense.

Crítica a las finanzas tradicionales

  • Sistema "roto" y antidemocrático. Durante un panel titulado World Liberty Financial: El futuro del dinero, respaldado por USD1 en la conferencia Token2049, Trump Jr. argumentó que las finanzas tradicionales son antidemocráticas y están "rotas". Relató que cuando su familia entró en política, 300 de sus cuentas bancarias fueron eliminadas de la noche a la mañana, ilustrando cómo las instituciones financieras pueden castigar a los individuos por razones políticas. Dijo que la familia pasó de estar en la cima de la "pirámide" financiera a la parte inferior, revelando que el sistema favorece a los de adentro y funciona como un esquema Ponzi.
  • Ineficiencia y falta de valor. Criticó a la industria financiera tradicional por estar sumida en ineficiencias, donde las personas que "ganan siete cifras al año" simplemente mueven papeleo sin añadir valor real.

Defensa de las stablecoins y el dólar

  • Preservación de la hegemonía del dólar. Trump Jr. afirma que las stablecoins como USD1 llenarán el papel que antes desempeñaban los países que compraban bonos del Tesoro de EE. UU. Dijo al Business Times que las stablecoins podrían crear una "hegemonía del dólar" que permitiría a EE. UU. liderar globalmente y mantener muchos lugares seguros y estables. Hablando con Cryptopolitan, argumentó que las stablecoins en realidad preservan el dominio del dólar estadounidense porque la demanda de tokens respaldados por el dólar apoya a los bonos del Tesoro en un momento en que los compradores convencionales (por ejemplo, China y Japón) están reduciendo su exposición.
  • Futuro de las finanzas y DeFi. Trump Jr. describió a WLFI como el futuro de las finanzas y enfatizó que las tecnologías blockchain y DeFi pueden democratizar el acceso al capital. En un evento de ETH Denver cubierto por Panews, argumentó que se necesitan marcos regulatorios claros para evitar que las empresas se trasladen al extranjero y para proteger a los inversores. Instó a EE. UU. a liderar la innovación cripto global y criticó la regulación excesiva por sofocar el crecimiento.
  • Democratización financiera. Cree que la combinación de finanzas tradicionales y descentralizadas a través de WLFI proporcionará liquidez, transparencia y estabilidad a las poblaciones desatendidas. También destaca el potencial de blockchain para eliminar la corrupción al hacer que las transacciones sean transparentes y en cadena.
  • Consejos para los recién llegados. Trump Jr. aconseja a los nuevos inversores que comiencen con pequeñas cantidades, eviten el apalancamiento excesivo y se involucren en el aprendizaje continuo sobre DeFi.

Neutralidad política y crítica mediática

Trump Jr. enfatiza que WLFI es "100 % una organización no política" a pesar de la profunda participación de la familia Trump. Enmarca la empresa como una plataforma para beneficiar a los estadounidenses y al mundo en lugar de un vehículo político. Durante el panel de Token2049, criticó a los principales medios de comunicación, diciendo que se habían desacreditado a sí mismos, y Zach Witkoff preguntó a la audiencia si consideraban confiable a The New York Times.

Asociaciones e integración del ecosistema

Inversión MGX–Binance

En mayo de 2025, WLFI anunció que USD1 facilitaría una inversión de $2 mil millones de MGX, con sede en Abu Dabi, en el exchange de criptomonedas Binance. El anuncio destacó la creciente influencia de WLFI y fue presentado como evidencia del atractivo institucional de USD1. Sin embargo, la senadora estadounidense Elizabeth Warren criticó el acuerdo, calificándolo de "corrupción" porque la legislación pendiente sobre stablecoins (la Ley GENIUS) podría beneficiar a la familia del presidente. Los datos de CoinMarketCap citados por Reuters mostraron que el valor en circulación de USD1 alcanzó aproximadamente $2.1 mil millones en ese momento.

Asociación con Aptos

En la conferencia TOKEN2049 en octubre de 2025, WLFI y la blockchain de capa 1 Aptos anunciaron una asociación para implementar USD1 en la red Aptos. Brave New Coin informa que WLFI seleccionó Aptos debido a su alto rendimiento (las transacciones se liquidan en menos de medio segundo) y tarifas inferiores a una centésima de centavo. La colaboración tiene como objetivo desafiar a las redes de stablecoins dominantes al proporcionar vías más baratas y rápidas para las transacciones institucionales. CryptoSlate señala que la integración de USD1 convertirá a Aptos en la quinta red en acuñar la stablecoin, con soporte desde el primer día de protocolos DeFi como Echelon Market e Hyperion, así como billeteras y exchanges como Petra, Backpack y OKX. Los ejecutivos de WLFI ven la expansión como parte de una estrategia más amplia para aumentar la adopción de DeFi y posicionar a USD1 como una capa de liquidación para activos tokenizados.

Integración de tarjeta de débito y Apple Pay

Reuters y CoinLaw informan que WLFI lanzará una tarjeta de débito cripto que conectará los criptoactivos con el gasto diario. Witkoff dijo a Reuters que la compañía espera lanzar un programa piloto en el próximo trimestre, con un lanzamiento completo para finales de 2025 o principios de 2026. La tarjeta se integrará con Apple Pay, y WLFI lanzará una aplicación minorista para simplificar los pagos cripto.

Controversias y críticas

Transparencia de las reservas. Binance Academy destacó que, a mayo de 2025, USD1 carecía de desgloses de reservas disponibles públicamente. WLFI prometió auditorías de terceros, pero la ausencia de divulgaciones detalladas generó preocupaciones entre los inversores.

Conflictos de interés políticos. Los profundos lazos de WLFI con la familia Trump han sido objeto de escrutinio. Una investigación de Reuters informó que una billetera anónima que contenía $2 mil millones en USD1 recibió fondos poco antes de la inversión de MGX, y los propietarios de la billetera no pudieron ser identificados. Los críticos argumentan que la empresa podría permitir que la familia Trump se beneficie financieramente de las decisiones regulatorias. La senadora Elizabeth Warren advirtió que la legislación sobre stablecoins que está siendo considerada por el Congreso facilitaría que el presidente y su familia "se llenen los bolsillos". Medios de comunicación como The New York Times y The New Yorker han descrito a WLFI como una erosión del límite entre la empresa privada y la política pública.

Concentración del mercado y preocupaciones de liquidez. CoinLaw informó que más de la mitad de la liquidez de USD1 provenía de solo tres billeteras a junio de 2025. Tal concentración plantea preguntas sobre la demanda orgánica de USD1 y su resiliencia en mercados estresados.

Incertidumbre regulatoria. El propio Trump Jr. reconoce que la regulación cripto de EE. UU. sigue siendo poco clara y pide reglas integrales para evitar que las empresas se trasladen al extranjero. Los críticos argumentan que WLFI se beneficia de las medidas desregulatorias de la administración Trump mientras da forma a políticas que podrían favorecer sus propios intereses financieros.

Conclusión

World Liberty Financial se posiciona como pionero en la intersección de las finanzas tradicionales y la tecnología descentralizada, utilizando la stablecoin USD1 como columna vertebral para pagos, tokenización y productos DeFi. El énfasis de la plataforma en el respaldo institucional, la interoperabilidad entre cadenas y la acuñación sin tarifas distingue a USD1 de otras stablecoins. Las asociaciones con redes como Aptos y acuerdos importantes como la inversión MGX-Binance subrayan la ambición de WLFI de convertirse en una capa de liquidación global para activos tokenizados.

Desde la perspectiva de Donald Trump Jr., WLFI no es simplemente una empresa comercial, sino una misión para democratizar las finanzas, preservar la hegemonía del dólar estadounidense y desafiar lo que él considera un sistema financiero tradicional roto y elitista. Defiende la claridad regulatoria mientras critica la supervisión excesiva, lo que refleja debates más amplios dentro de la industria cripto. Sin embargo, las asociaciones políticas de WLFI, las divulgaciones opacas de reservas y la concentración de liquidez invitan al escepticismo. El éxito de la compañía dependerá de equilibrar la innovación con la transparencia y de navegar la compleja interacción entre los intereses privados y la política pública.

Gráfico Acíclico Dirigido (DAG) en Blockchain

· 51 min de lectura
Dora Noda
Software Engineer

¿Qué es un DAG y en qué se diferencia de una blockchain?

Un gráfico acíclico dirigido (Directed Acyclic Graph, DAG) es un tipo de estructura de datos formada por vértices (nodos) conectados por aristas dirigidas que nunca forman un ciclo. En el contexto de los libros mayores distribuidos, un ledger basado en DAG organiza transacciones o eventos en una red tipo telaraña en lugar de en una cadena secuencial única. Esto significa que, a diferencia de una blockchain tradicional donde cada nuevo bloque referencia solo a un predecesor (formando una cadena lineal), un nodo en un DAG puede referenciar múltiples transacciones o bloques anteriores. Como resultado, muchas transacciones pueden confirmarse en paralelo, en vez de estrictamente una por una en bloques cronológicos.

Para ilustrar la diferencia, si una blockchain se parece a una larga cadena de bloques (cada bloque contiene muchas transacciones), un ledger basado en DAG se asemeja más a un árbol o red de transacciones individuales. Cada nueva transacción en un DAG puede anexarse a (y por tanto validar) una o más transacciones anteriores, en lugar de esperar a ser empaquetada en el siguiente bloque único. Esta diferencia estructural genera varias distinciones clave:

  • Validación paralela: En las blockchains, los mineros/validadores añaden un bloque a la vez a la cadena, por lo que las transacciones se confirman en lotes por cada nuevo bloque. En los DAG, múltiples transacciones (o pequeños “bloques” de transacciones) pueden añadirse de forma concurrente, ya que cada una puede adjuntarse a diferentes partes del grafo. Esta paralelización implica que las redes DAG no tienen que esperar a que una cadena larga crezca bloque a bloque.
  • Sin orden secuencial global: Una blockchain crea inherentemente un orden total de las transacciones (cada bloque ocupa un lugar definido en una única secuencia). Un ledger DAG, en cambio, forma un orden parcial de las transacciones. No existe un único “último bloque” en el que todas las transacciones hagan fila; en su lugar, muchos extremos del grafo pueden coexistir y ampliarse simultáneamente. Luego se necesitan protocolos de consenso para ordenar o acordar el orden o la validez de las transacciones en el DAG.
  • Confirmación de transacciones: En una blockchain, las transacciones se confirman cuando se incluyen en un bloque minado/validado y ese bloque pasa a formar parte de la cadena aceptada (a menudo tras añadirse más bloques encima). En los sistemas DAG, una nueva transacción ayuda por sí misma a confirmar transacciones previas al referenciarlas. Por ejemplo, en el Tangle de IOTA (un DAG), cada transacción debe aprobar dos transacciones anteriores, logrando que los usuarios validen colaborativamente las transacciones de los demás. Esto elimina la división estricta entre “creadores de transacciones” y “validadores” que existe en la minería blockchain: cada participante que emite una transacción también realiza parte del trabajo de validación.

Es importante destacar que una blockchain es en realidad un caso especial de DAG: un DAG restringido a una sola cadena de bloques. Ambos son formas de tecnología de registro distribuido (DLT) y comparten objetivos como la inmutabilidad y la descentralización. Sin embargo, los ledgers basados en DAG son “sin bloques” o multiparentales en su estructura, lo que les da propiedades diferentes en la práctica. Las blockchains tradicionales como Bitcoin y Ethereum usan bloques secuenciales y suelen descartar los bloques competidores (forks), mientras que los ledgers DAG intentan incorporar y ordenar todas las transacciones sin descartar ninguna, siempre que no entren en conflicto. Esta diferencia fundamental sienta las bases de los contrastes de rendimiento y diseño detallados a continuación.

Comparación técnica: arquitectura DAG vs. blockchain

Para entender mejor los DAG frente a las blockchains, podemos comparar sus arquitecturas y procesos de validación:

  • Estructura de datos: Las blockchains almacenan datos en bloques enlazados en una secuencia lineal (cada bloque contiene muchas transacciones y apunta a un único bloque previo, formando una larga cadena). Los ledgers DAG usan una estructura de grafo: cada nodo del grafo representa una transacción o un bloque de eventos, y puede enlazarse a múltiples nodos anteriores. Este grafo dirigido no tiene ciclos, lo que significa que si sigues los enlaces “hacia atrás” nunca volverás a la transacción de la que partiste. La ausencia de ciclos permite un orden topológico de las transacciones (una forma de ordenarlas de modo que cada referencia aparezca después de la transacción referenciada). En resumen, blockchains = cadena unidimensional, DAG = grafo multidimensional.
  • Rendimiento y concurrencia: Debido a las diferencias estructurales, las blockchains y los DAG manejan el rendimiento de manera distinta. Una blockchain, incluso en condiciones óptimas, añade bloques uno por uno (a menudo esperando a que cada bloque se valide y propague por toda la red antes de crear el siguiente). Esto limita inherentemente el rendimiento de transacciones: por ejemplo, Bitcoin promedia 5–7 transacciones por segundo (TPS) y Ethereum alrededor de 15–30 TPS bajo el diseño clásico de proof-of-work. Los sistemas basados en DAG, en cambio, permiten que muchas nuevas transacciones/bloques entren en el ledger simultáneamente. Múltiples ramas de transacciones pueden crecer a la vez y luego entrelazarse, incrementando drásticamente el rendimiento potencial. Algunas redes DAG modernas afirman alcanzar miles de TPS, acercándose o superando la capacidad de las redes de pago tradicionales.
  • Proceso de validación de transacciones: En las redes blockchain, las transacciones esperan en el mempool y se validan cuando un minero o validador las empaqueta en un nuevo bloque, que luego es verificado por otros nodos frente al historial. En las redes DAG, la validación suele ser más continua y descentralizada: cada transacción nueva realiza una acción de validación al referenciar (aprobar) transacciones anteriores. Por ejemplo, cada transacción en el Tangle de IOTA debe confirmar dos transacciones previas comprobando su validez y ejecutando una pequeña prueba de trabajo, “votando” por esas transacciones. En el DAG block-lattice de Nano, las transacciones de cada cuenta forman su propia cadena y se validan mediante votos de nodos representantes (lo explicamos más adelante). El resultado neto es que los DAG distribuyen el trabajo de validación: en lugar de que un único productor de bloques valide un lote de transacciones, cada participante o muchos validadores validan distintas transacciones en paralelo.
  • Mecanismo de consenso: Tanto las blockchains como los DAG necesitan un modo de que la red esté de acuerdo sobre el estado del ledger (qué transacciones están confirmadas y en qué orden). En las blockchains, el consenso suele provenir de la Prueba de Trabajo o la Prueba de Participación generando el siguiente bloque y la regla de “la cadena más larga (o más pesada) gana”. En los ledgers DAG, el consenso puede ser más complejo porque no existe una única cadena. Diferentes proyectos DAG usan distintos enfoques: algunos emplean protocolos gossip y votación virtual (como Hedera Hashgraph) para acordar el orden de las transacciones, otros usan selección de puntas con cadenas de Markov Monte Carlo (el enfoque inicial de IOTA) u otros esquemas de votación para decidir qué ramas del grafo se prefieren. Más adelante detallamos métodos de consenso específicos. En general, alcanzar un acuerdo en toda la red en un DAG puede ser más rápido en términos de rendimiento, pero requiere un diseño cuidadoso para manejar conflictos (como intentos de doble gasto), dado que múltiples transacciones pueden existir en paralelo antes de ordenarse definitivamente.
  • Gestión de forks: En una blockchain, un “fork” (dos bloques minados casi al mismo tiempo) provoca que una rama termine ganando (la cadena más larga) y la otra sea huérfana (descartada), desperdiciando el trabajo realizado en el bloque huérfano. En un DAG, la filosofía es aceptar los forks como ramas adicionales del grafo en lugar de desaprovecharlos. El DAG incorpora ambos forks; el algoritmo de consenso determina qué transacciones se confirman (o cómo se resuelven las que entran en conflicto) sin desechar toda una rama. Esto significa que no se desperdicia energía de minado ni esfuerzo en bloques obsoletos, contribuyendo a la eficiencia. Por ejemplo, el Tree-Graph de Conflux (un DAG de PoW) intenta incluir todos los bloques en el ledger y ordenarlos, en lugar de huérfanar alguno, utilizando así el 100% de los bloques producidos.

En resumen, las blockchains ofrecen una estructura más simple y estrictamente ordenada donde la validación es bloque a bloque, mientras que los DAG proporcionan una estructura de grafo más compleja que permite un procesamiento asíncrono y paralelo de las transacciones. Los ledgers basados en DAG deben emplear lógica de consenso adicional para gestionar esta complejidad, pero prometen una mayor capacidad y eficiencia al utilizar todo el potencial de la red en lugar de obligarla a avanzar en fila india bloque a bloque.

Beneficios de los sistemas blockchain basados en DAG

Las arquitecturas DAG se introdujeron principalmente para superar las limitaciones de las blockchains tradicionales en escalabilidad, velocidad y coste. Estos son los beneficios clave de los ledgers distribuidos basados en DAG:

  • Alta escalabilidad y rendimiento: Las redes DAG pueden lograr altos volúmenes de transacciones porque gestionan muchas operaciones en paralelo. Al no existir un cuello de botella de cadena única, las TPS (transacciones por segundo) pueden escalar con la actividad de la red. De hecho, algunos protocolos DAG han demostrado rendimientos del orden de miles de TPS. Por ejemplo, Hedera Hashgraph tiene capacidad para procesar más de 10.000 transacciones por segundo en la capa base, superando con creces a Bitcoin o Ethereum. En la práctica, Hedera ha demostrado finalizar transacciones en unos 3–5 segundos, frente a los minutos o más que tardan las blockchains PoW. Incluso plataformas de contratos inteligentes basadas en DAG como Fantom han logrado finalidades casi instantáneas (~1–2 segundos) bajo cargas normales. Esta escalabilidad hace que los DAG sean atractivos para aplicaciones que requieren un alto volumen, como microtransacciones IoT o flujos de datos en tiempo real.
  • Costes de transacción bajos (sin comisiones o mínimas): Muchos ledgers DAG presumen de comisiones insignificantes o incluso transacciones sin coste. Por diseño, suelen no depender de mineros que esperen recompensas de bloque o comisiones; por ejemplo, en IOTA y Nano no existen tarifas obligatorias, lo que es crucial para micropagos en IoT y usos cotidianos. Cuando sí hay tarifas (p. ej., en Hedera o Fantom), suelen ser muy bajas y predecibles, ya que la red puede manejar la carga sin guerras de pujas por espacio limitado en bloques. Las transacciones en Hedera cuestan alrededor de 0,0001 dólares (una diezmilésima parte de un dólar), una fracción mínima respecto a las comisiones típicas en blockchain. Este coste reducido abre la puerta a casos de uso como transacciones de alta frecuencia o pagos diminutos inviables en cadenas con tarifas elevadas. Además, como los DAG incluyen todas las transacciones válidas en lugar de descartar algunas en caso de forks, se desperdicia menos trabajo, lo que indirectamente ayuda a mantener bajos los costes aprovechando los recursos con eficiencia.
  • Confirmación rápida y baja latencia: En los ledgers DAG, las transacciones no tienen que esperar a ser incluidas en un bloque global, por lo que la confirmación puede ser más rápida. Muchos sistemas DAG logran finalidad rápida, el punto en el que una transacción se considera permanentemente confirmada. Por ejemplo, el consenso de Hedera Hashgraph suele finalizar transacciones en pocos segundos con certeza del 100% (finalidad ABFT). La red de Nano suele ver transacciones confirmadas en <1 segundo gracias a su proceso de votación ligero. Esta baja latencia mejora la experiencia del usuario, haciendo que las operaciones parezcan casi instantáneas, algo importante para pagos reales y aplicaciones interactivas.
  • Eficiencia energética: Las redes basadas en DAG a menudo no requieren la minería intensiva en pruebas de trabajo que usan muchas blockchains, lo que las hace mucho más eficientes energéticamente. Incluso comparadas con blockchains proof-of-stake, algunas redes DAG consumen energía mínima por transacción. Por ejemplo, una sola transacción en Hedera Hashgraph consume alrededor de 0,0001 kWh (kilovatios-hora). Esto es varios órdenes de magnitud menor que Bitcoin (que puede consumir cientos de kWh por transacción) o incluso que muchas cadenas PoS. La eficiencia proviene de eliminar cálculos desperdiciados (no hay carrera de minado) y de no descartar intentos de transacción. Si las redes blockchain adoptaran modelos basados en DAG de forma generalizada, el ahorro energético sería monumental. La huella de carbono de redes DAG como Hedera es tan baja que el conjunto de la red es carbono-negativa cuando se consideran las compensaciones. Esta eficiencia energética es cada vez más crucial para una infraestructura Web3 sostenible.
  • Sin minería y validación democratizada: En muchos modelos DAG no existe un rol de minero/validador distinto que los usuarios corrientes no puedan desempeñar. Por ejemplo, cada usuario de IOTA que emite una transacción también ayuda a validar otras dos, descentralizando el trabajo de validación hacia los extremos de la red. Esto puede reducir la necesidad de hardware de minería potente o de apostar grandes cantidades de capital para participar en el consenso, lo que potencialmente hace la red más accesible. (Sin embargo, algunas redes DAG siguen usando validadores o coordinadores; más adelante abordamos el consenso y la descentralización).
  • Gestión fluida del alto tráfico: Las blockchains suelen sufrir atascos en el mempool y picos de comisiones bajo alta carga (ya que solo puede añadirse un bloque a la vez). Las redes DAG, debido a su naturaleza paralela, generalmente manejan mejor los picos de tráfico. A medida que más transacciones inundan la red, simplemente crean más ramas paralelas en el DAG, que el sistema puede procesar de forma concurrente. Hay menos un límite rígido de rendimiento (la escalabilidad es más “horizontal”). Esto se traduce en una mejor escalabilidad bajo carga, con menos retrasos y solo incrementos moderados en los tiempos de confirmación o en las tarifas, hasta el límite de la capacidad de red y procesamiento de los nodos. En esencia, un DAG puede absorber ráfagas de transacciones sin congestionar tan rápido, lo que lo hace adecuado para casos de uso con picos de actividad (por ejemplo, dispositivos IoT enviando datos simultáneamente o un evento viral de una DApp).

En resumen, los ledgers basados en DAG prometen transacciones más rápidas, baratas y escalables que el enfoque blockchain clásico. Pretenden soportar escenarios de adopción masiva (micropagos, IoT, trading de alta frecuencia, etc.) con los que las blockchains principales actuales tienen dificultades debido a limitaciones de rendimiento y coste. Sin embargo, estos beneficios vienen acompañados de ciertos compromisos y desafíos de implementación, que abordamos en secciones posteriores.

Mecanismos de consenso en plataformas basadas en DAG

Como los ledgers DAG no producen naturalmente una única cadena de bloques, requieren mecanismos de consenso innovadores para validar transacciones y asegurar que todos acuerdan el estado del ledger. Diferentes proyectos han desarrollado soluciones adaptadas a su arquitectura DAG. Aquí resumimos algunos enfoques notables utilizados por plataformas basadas en DAG:

  • Tangle de IOTA – selección de puntas y votación ponderada: El Tangle de IOTA es un DAG de transacciones diseñado para el Internet de las Cosas (IoT). En el modelo original de IOTA no hay mineros; en su lugar, cada nueva transacción debe realizar una pequeña prueba de trabajo y aprobar dos transacciones previas (las “puntas” del grafo). Esta selección de puntas suele hacerse mediante un algoritmo de Markov Chain Monte Carlo (MCMC) que elige probabilísticamente qué puntas aprobar, favoreciendo el subtangle más pesado para evitar la fragmentación. El consenso en la primera versión de IOTA se lograba en parte por este peso acumulado de aprobaciones: cuantas más transacciones futuras aprueban indirectamente la tuya, más “confirmada” se vuelve. No obstante, para asegurar la red en sus inicios, IOTA dependía de un nodo centralizado temporal, el Coordinator, que emitía transacciones de hito para finalizar el Tangle. Esta centralización recibió críticas y está siendo eliminada en la actualización conocida como “Coordicide” (IOTA 2.0). En IOTA 2.0, un nuevo modelo de consenso aplica un consenso tipo Nakamoto sin líderes sobre un DAG. En esencia, los nodos realizan votación en el propio Tangle: cuando un nodo adjunta un nuevo bloque, ese bloque vota implícitamente sobre la validez de las transacciones que referencia. Un comité de validadores (elegidos mediante un mecanismo de staking) emite bloques de validación como votos, y una transacción se confirma cuando acumula suficientes aprobaciones ponderadas (concepto denominado approval weight). Este enfoque combina la idea del DAG más pesado (similar a la cadena más larga) con una votación explícita para lograr consenso sin un coordinador. En resumen, el consenso de IOTA evolucionó de la selección de puntas + Coordinador a una votación descentralizada sobre las ramas del DAG, buscando seguridad y acuerdos rápidos sobre el estado del ledger.
  • Hedera Hashgraph – gossip y votación virtual (aBFT): Hedera Hashgraph usa un DAG de eventos junto con un algoritmo de consenso asíncrono tolerante a fallas bizantinas (aBFT). La idea central es “gossip about gossip”: cada nodo difunde rápidamente información firmada sobre las transacciones y sobre su historial de gossip a otros nodos. Esto crea un Hashgraph (el DAG de eventos) donde cada nodo termina sabiendo qué ha difundido cada otro nodo, incluyendo la estructura de quién oyó qué y cuándo. A partir de este DAG de eventos, Hedera implementa votación virtual. En lugar de enviar mensajes de voto reales para ordenar las transacciones, los nodos simulan localmente un algoritmo de votación analizando el grafo de conexiones de gossip. El algoritmo Hashgraph de Leemon Baird puede calcular de forma determinista cómo se desarrollaría una ronda teórica de votos sobre el orden de las transacciones, examinando la “red de gossip” registrada en el DAG. Esto produce una marca de tiempo de consenso y un orden total de transacciones que es justo y definitivo (las transacciones se ordenan por la mediana del momento en que la red las recibió). El consenso de Hashgraph es sin líderes y logra aBFT, lo que significa que puede tolerar hasta 1/3 de nodos maliciosos sin comprometerse. En la práctica, la red de Hedera está gobernada por un conjunto de 39 nodos operados por organizaciones conocidas (el Consejo de Hedera), por lo que es permisionada pero geográficamente distribuida. El beneficio es un consenso extremadamente rápido y seguro: Hedera alcanza la finalidad en segundos con consistencia garantizada. El mecanismo de consenso Hashgraph es patentado pero fue abierto en 2024, y muestra cómo un DAG sumado a un consenso innovador (gossip y votación virtual) puede reemplazar un protocolo blockchain tradicional.
  • Lachesis de Fantom – PoS aBFT sin líderes: Fantom es una plataforma de contratos inteligentes que usa un consenso basado en DAG llamado Lachesis. Lachesis es un protocolo PoS aBFT inspirado en Hashgraph. En Fantom, cada validador agrupa las transacciones recibidas en un bloque de eventos y lo añade a su propio DAG local de eventos. Estos bloques contienen transacciones y referencias a eventos anteriores. Los validadores difunden estos bloques de eventos entre sí de forma asíncrona: no hay una secuencia única en la que deban producirse o acordarse los bloques. Conforme los bloques se propagan, los validadores identifican periódicamente ciertos eventos como hitos (o “bloques raíz”) cuando una supermayoría de nodos los ha visto. Lachesis ordena estos eventos finalizados y los compromete en una Opera Chain final (una estructura de blockchain tradicional) que actúa como ledger de bloques confirmados. En esencia, el DAG de bloques de eventos permite a Fantom lograr consenso de forma asíncrona y muy rápida, y luego el resultado final se linealiza para compatibilidad. Esto brinda una finalidad de ~1–2 segundos por transacción en Fantom. Lachesis no tiene mineros ni líderes que propongan bloques; todos los validadores aportan bloques de eventos y el protocolo los ordena determinísticamente. El consenso está asegurado por un modelo PoS (los validadores deben hacer staking de tokens FTM y están ponderados por su stake). Lachesis también es aBFT, tolerando hasta 1/3 de nodos defectuosos. Al combinar la concurrencia del DAG con una salida en cadena final, Fantom logra un alto rendimiento (varios miles de TPS en pruebas) mientras sigue siendo compatible con la EVM para contratos inteligentes. Es un buen ejemplo de usar un DAG internamente para aumentar el rendimiento sin exponer su complejidad a la capa de aplicación (los desarrolladores siguen viendo una cadena normal de transacciones).
  • Votación de Representantes Abiertos (ORV) de Nano: Nano es una criptomoneda orientada a pagos que emplea una estructura DAG única llamada block-lattice. En Nano, cada cuenta tiene su propia blockchain (account-chain) que solo su propietario puede actualizar. Todas esas cadenas individuales forman un DAG, ya que las transacciones de distintas cuentas se enlazan de forma asíncrona (un envío en la cadena de una cuenta referencia una recepción en otra, etc.). El consenso en Nano se logra mediante un mecanismo llamado Open Representative Voting (ORV). Los usuarios designan un nodo representante para su cuenta (una delegación de peso, sin bloquear fondos) y estos representantes votan sobre la validez de las transacciones. Cada transacción se liquida individualmente (no hay bloques que agrupen múltiples tx) y se considera confirmada cuando una supermayoría (por ejemplo, >67%) del peso de voto (de los representantes) está de acuerdo. Dado que los titulares honestos no intentarán gastar dos veces sus propios fondos, los forks son raros y suelen deberse a intentos maliciosos, que los representantes pueden rechazar rápidamente. La finalidad suele alcanzarse en menos de un segundo por transacción. ORV es similar a la Prueba de Participación en que el peso del voto se basa en los saldos (stake), pero no hay recompensas de staking ni comisiones: los representantes son nodos voluntarios. La ausencia de minería y producción de bloques permite a Nano operar sin comisiones y con eficiencia. Sin embargo, depende de que un conjunto de representantes confiables esté en línea para votar, y existe una centralización implícita en los nodos que acumulan gran peso de voto (aunque los usuarios pueden cambiar de representante en cualquier momento, manteniendo el control de la descentralización en manos de la comunidad). El consenso de Nano es liviano y optimizado para la velocidad y eficiencia energética, en línea con su objetivo de ser un dinero digital rápido y sin comisiones.
  • Otros enfoques destacados: Existen otros protocolos de consenso basados en DAG. Además de Hedera Hashgraph y Fantom Lachesis:
    • Consenso Avalanche (Avalanche/X-Chain): Avalanche emplea un consenso basado en DAG donde los validadores se muestrean repetidamente entre sí de forma aleatoria para decidir qué transacciones o bloques preferir. La X-Chain de Avalanche (cadena de intercambio) es un DAG de transacciones (UTXO) y alcanza consenso mediante este muestreo de red. El protocolo de Avalanche es probabilístico pero extremadamente rápido y escalable: puede finalizar transacciones en ~1 segundo y, según se informa, manejar hasta 4.500 TPS por subred. Su enfoque es único al combinar estructuras DAG con un consenso metastable (protocolo Snowball), y está asegurado por Proof-of-Stake (cualquiera puede ser validador con stake suficiente).
    • Tree-Graph de Conflux: Conflux es una plataforma que extendió el PoW de Bitcoin a un DAG de bloques. Utiliza una estructura Tree-Graph donde los bloques referencian no solo a un padre sino a todos los bloques previos conocidos (sin huerfanar). Esto permite a Conflux usar minería PoW pero mantener todos los forks como parte del ledger, logrando mucho mayor rendimiento que una cadena típica. Así, Conflux puede alcanzar teóricamente entre 3.000 y 6.000 TPS usando PoW, permitiendo que los mineros produzcan bloques continuamente sin esperar a una sola cadena. Su consenso ordena estos bloques y resuelve conflictos mediante una regla de subárbol más pesado. Es un ejemplo de DAG híbrido con PoW.
    • Variantes de Hashgraph y protocolos académicos: Hay numerosos protocolos DAG académicos (algunos implementados en proyectos recientes): SPECTRE y PHANTOM (protocolos blockDAG orientados a alto rendimiento y confirmación rápida, de DAGlabs), Aleph Zero (un consenso DAG aBFT usado en la blockchain Aleph Zero), Parallel Chains / Prism (proyectos de investigación que separan la confirmación en subcadenas paralelas y DAGs), y avances recientes como Narwhal & Bullshark de Sui, que usan un mempool en DAG para alto rendimiento y un consenso separado para la finalidad. Aunque no todos tienen despliegues a gran escala, indican un campo de investigación vibrante. Muchos de estos protocolos distinguen entre disponibilidad (escribir datos rápidamente en un DAG) y consistencia (ponerse de acuerdo en una historia), buscando obtener lo mejor de ambas.

Cada plataforma DAG adapta su consenso a sus necesidades —ya sean micropagos sin comisiones, ejecución de contratos inteligentes o interoperabilidad—. Un tema común, sin embargo, es evitar un cuello de botella serial único: los mecanismos de consenso basados en DAG buscan permitir mucha actividad concurrente y luego usan algoritmos ingeniosos (gossip, votación, muestreo, etc.) para ordenar todo, en vez de limitar la red a un único productor de bloques por turno.

Estudios de caso: ejemplos de proyectos blockchain basados en DAG

Varios proyectos han implementado ledgers basados en DAG, cada uno con decisiones de diseño y casos de uso específicos. A continuación analizamos algunas plataformas DAG destacadas:

  • IOTA (The Tangle): IOTA es una de las primeras criptomonedas basadas en DAG, diseñada para el Internet de las Cosas. Su ledger, llamado Tangle, es un DAG de transacciones donde cada nueva transacción confirma dos anteriores. El objetivo de IOTA es habilitar microtransacciones sin comisiones entre dispositivos IoT (pagos diminutos por datos o servicios). Lanzada en 2016, para arrancar con seguridad usó un Coordinador (ejecutado por la Fundación IOTA) que prevenía ataques en la red temprana. IOTA ha estado trabajando en “Coordicide” para descentralizar completamente la red introduciendo un consenso por votación (como describimos antes) donde los nodos votan transacciones conflictivas usando un consenso tipo Nakamoto sin líderes sobre el DAG más pesado. En términos de rendimiento, IOTA puede, en teoría, lograr un rendimiento muy alto (el protocolo no impone un límite rígido de TPS; mayor actividad incluso ayuda a confirmar más rápido). En la práctica, las testnets han demostrado cientos de TPS, y se espera que IOTA 2.0 escale bien para la demanda IoT. Los casos de uso de IOTA giran en torno al IoT y la integridad de datos: por ejemplo, transmisión de datos de sensores con pruebas de integridad, pagos entre vehículos, trazabilidad en la cadena de suministro e incluso identidad descentralizada (el marco IOTA Identity permite emitir y verificar credenciales/identificadores descentralizados en el Tangle). IOTA no admite contratos inteligentes en su capa base, pero el proyecto introdujo un marco paralelo de Smart Contracts y tokens en una capa secundaria para habilitar DApps más complejas. Una característica destacada de IOTA es su ausencia de comisiones, habilitada al requerir una pequeña prueba de trabajo del emisor en lugar de cobrar una tarifa, lo cual es atractivo para transacciones de bajo valor y alto volumen (p. ej., un sensor enviando datos cada pocos segundos a coste insignificante).
  • Hedera Hashgraph (HBAR): Hedera es un ledger público distribuido que usa el algoritmo de consenso Hashgraph (inventado por Leemon Baird). Hedera comenzó en 2018 y está gobernada por un consejo de grandes organizaciones (Google, IBM, Boeing y otras) que operan el conjunto inicial de nodos. A diferencia de la mayoría, Hedera es permisionada en la gobernanza (solo miembros aprobados del consejo ejecutan nodos de consenso actualmente, hasta 39 nodos), aunque cualquiera puede utilizar la red. Su DAG Hashgraph permite altísimo rendimiento y finalidad rápida: Hedera puede procesar más de 10.000 TPS con finalidad en 3-5 segundos en condiciones óptimas. Lo consigue gracias al consenso aBFT basado en gossip que describimos antes. Hedera enfatiza casos de uso empresariales y Web3 que necesitan fiabilidad a escala: la red ofrece servicios de tokenización (Hedera Token Service), un Servicio de Consenso para registro inmutable de eventos y un servicio de Smart Contracts (compatible con la EVM). Aplicaciones notables en Hedera incluyen trazabilidad en la cadena de suministro (p. ej., seguimiento de prendas por Avery Dennison), minting masivo de NFT (las bajas comisiones abaratan el proceso), pagos y micropagos (como micropagos en ad tech) e incluso soluciones de identidad descentralizada. Hedera tiene un método DID registrado en el W3C y marcos como Hedera Guardian para admitir credenciales verificables y cumplimiento normativo (por ejemplo, seguimiento de créditos de carbono). Un aspecto clave es el fuerte rendimiento de Hedera combinado con la estabilidad declarada (el algoritmo Hashgraph garantiza ausencia de forks y una equidad matemática en el orden). El compromiso es que Hedera es menos descentralizada en número de nodos que redes abiertas (por diseño, con su modelo de gobernanza), aunque los nodos del consejo están distribuidos globalmente y el plan es aumentar la apertura con el tiempo. En resumen, Hedera Hashgraph es un ejemplo destacado de DLT basada en DAG orientada a aplicaciones empresariales, con énfasis en alto rendimiento, seguridad y gobernanza.
  • Fantom (FTM): Fantom es una plataforma de contratos inteligentes (blockchain de Capa 1) que utiliza un consenso basado en DAG llamado Lachesis. Lanzada en 2019, Fantom ganó popularidad especialmente durante el auge DeFi de 2021-2022 como una cadena compatible con Ethereum pero con mayor rendimiento. La red Opera de Fantom ejecuta el consenso Lachesis aBFT (ya detallado), donde los validadores mantienen un DAG local de bloques de eventos, logran consenso de forma asíncrona y luego finalizan las transacciones en una cadena principal. Esto otorga a Fantom un tiempo de finalidad de ~1 segundo por transacción y la capacidad de manejar miles de TPS. Fantom es compatible con la EVM, lo que permite a los desarrolladores desplegar contratos Solidity y usar las mismas herramientas que Ethereum, facilitando su adopción en DeFi. De hecho, Fantom se convirtió en hogar de numerosos proyectos DeFi (DEX, protocolos de préstamos, yield farms) atraídos por su velocidad y bajas comisiones. También alberga proyectos NFT y DApps de gaming, prácticamente cualquier aplicación Web3 que se beneficie de transacciones rápidas y baratas. Un punto notable es que Fantom alcanzó un alto grado de descentralización para una plataforma DAG: cuenta con decenas de validadores independientes que aseguran la red (sin permisos, cualquiera puede ejecutar un validador con el stake mínimo), a diferencia de algunas redes DAG que restringen los validadores. Esto posiciona a Fantom como una alternativa creíble a blockchains más tradicionales para aplicaciones descentralizadas, aprovechando la tecnología DAG para superar el cuello de botella del rendimiento. El token FTM se usa para staking, gobernanza y comisiones (solo unos céntimos por transacción, mucho menos que el gas de Ethereum). Fantom demostró que el consenso basado en DAG puede integrarse con plataformas de contratos inteligentes para lograr simultáneamente velocidad y compatibilidad.
  • Nano (XNO): Nano es una criptomoneda ligera lanzada en 2015 (originalmente como RaiBlocks) que usa una estructura DAG block-lattice. El enfoque principal de Nano es ser dinero digital punto a punto: transacciones instantáneas, sin comisiones y con un consumo mínimo de recursos. En Nano, cada cuenta tiene su propia cadena de transacciones, y las transferencias entre cuentas se gestionan mediante un bloque de envío en la cadena del remitente y un bloque de recepción en la del destinatario. Este diseño asíncrono permite que la red procese transacciones de forma independiente y en paralelo. El consenso se logra mediante la votación de representantes abiertos (ORV), donde la comunidad designa nodos representantes delegando su saldo. Los representantes votan en transacciones conflictivas (lo cual es raro, generalmente solo en intentos de doble gasto) y, una vez que una mayoría cualificada (67% del peso) está de acuerdo, la transacción se consolida (confirmada irrevocablemente). Los tiempos típicos de confirmación en Nano son muy inferiores a un segundo, lo que la hace sentir instantánea en el uso cotidiano. Al no existir recompensas de minería ni comisiones, operar un nodo o representante Nano es un esfuerzo voluntario, pero el diseño de la red minimiza la carga (cada transacción pesa apenas 200 bytes y se procesa rápidamente). El enfoque DAG y el consenso de Nano le permiten ser extremadamente eficiente energéticamente: existe una pequeña prueba de trabajo realizada por los remitentes (principalmente como medida antispam), pero es trivial comparada con la PoW blockchain. Los casos de uso de Nano son sencillos por diseño: está pensada para transferencias monetarias, desde compras diarias hasta remesas, donde la velocidad y la ausencia de tarifas son su propuesta de valor. Nano no admite contratos inteligentes ni scripting complejo; se centra en hacer muy bien una sola cosa. Un desafío de su modelo es que se basa en la honestidad de la mayoría de los representantes; al no haber incentivos monetarios, el modelo de seguridad se apoya en la suposición de que los grandes tenedores actuarán en beneficio de la red. Hasta ahora, Nano ha mantenido un conjunto bastante descentralizado de representantes principales y ha visto uso en pagos comerciales, propinas y otros micropagos en línea.
  • Comparativa rápida Hedera vs IOTA vs Fantom vs Nano: La siguiente tabla resume algunas características clave de estos proyectos basados en DAG:
Proyecto (Año)Estructura de datos y consensoRendimiento (TPS y finalidad)Características / casos de uso destacados
IOTA (2016)DAG de transacciones (“Tangle”); cada tx aprueba 2 previas. Originalmente con coordinador; migrando a un consenso sin líderes descentralizado (voto sobre el DAG más pesado, sin mineros).TPS teóricamente alto (escala con la actividad); ~10 s de confirmación en redes activas (más rápido con mayor carga). Investigación en curso para mejorar la finalidad. Transacciones sin comisiones.Micropagos y datos IoT (microtransacciones sin comisiones), cadena de suministro, datos de sensores, automoción, identidad descentralizada (método DID de IOTA Identity). Sin smart contracts en la capa base (se gestionan en capas separadas).
Hedera Hashgraph (2018)DAG de eventos (Hashgraph); consenso gossip-about-gossip + votación virtual (aBFT), operado por ~29–39 nodos del consejo (ponderados por PoS). Sin mineros; marcas de tiempo para ordenar.~10.000 TPS máx.; finalidad en 3-5 segundos por transacción. Energía extremadamente baja por tx (~0,0001 kWh). Tarifas fijas muy bajas (~0,0001 $ por transferencia).Aplicaciones empresariales y Web3: tokenización (HTS), NFTs y servicios de contenidos, pagos, trazabilidad en cadena de suministro, datos sanitarios, gaming, etc. Gobernanza por grandes corporaciones; red compatible con la EVM para smart contracts (Solidity). Enfoque en alto rendimiento y seguridad empresarial.
Fantom (FTM) (2019)DAG de bloques de eventos de validadores; consenso PoS Lachesis aBFT (sin líderes). Cada validador construye un DAG de eventos que se confirma y se ensambla en una blockchain final (Opera Chain).Empíricamente cientos de TPS en uso DeFi; finalidad típica de 1-2 segundos. Capaz de miles de TPS en benchmarks. Tarifas bajas (fracciones de centavo).DeFi y smart contracts en una L1 de alta velocidad. Compatible con la EVM (ejecuta DApps Solidity). Soporta DEX, préstamos, marketplaces NFT (trading rápido, mint barato). El consenso DAG queda oculto tras una interfaz blockchain amigable. Cualquier persona puede hacer staking (conjunto de validadores descentralizado).
Nano (XNO) (2015)DAG de cadenas de cuenta (block-lattice); cada tx es su propio bloque. Consenso por votación de representantes abiertos (tipo dPoS en conflictos). Sin minería ni comisiones.~Cientos de TPS factibles (limitados principalmente por E/S de red). Confirmación <1 s típica. Sin comisiones. Uso de recursos extremadamente bajo (eficiente para IoT/móvil).Moneda digital para pagos instantáneos. Ideal para micropagos, propinas, comercio minorista, donde las tarifas y la latencia deben ser mínimas. No está diseñada para smart contracts; se centra en transferencias simples. Consumo energético muy bajo (criptomoneda ecológica). Representantes administrados por la comunidad (sin autoridad central).

(Tabla: comparación de proyectos de ledger basados en DAG seleccionados y sus características. TPS = transacciones por segundo.)

Otros proyectos basados en DAG no detallados incluyen Obyte (Byteball) – un ledger DAG para pagos condicionales y almacenamiento de datos, IoT Chain (ITC) – un proyecto DAG orientado al IoT, Avalanche – que ya mencionamos por usar DAG en su consenso y se ha convertido en una plataforma DeFi importante, Conflux – un DAG PoW de alto rendimiento en China, y prototipos académicos como SPECTRE/PHANTOM. Cada uno explora el espacio de diseño de los ledgers DAG de distintas maneras, pero los cuatro ejemplos anteriores (IOTA, Hedera, Fantom, Nano) ilustran la diversidad: desde microtransacciones IoT sin comisiones hasta redes empresariales y cadenas de contratos inteligentes DeFi, todos aprovechando estructuras DAG.

Casos de uso de la tecnología DAG en el ecosistema Web3

Los sistemas blockchain basados en DAG desbloquean determinados casos de uso gracias a su alto rendimiento y propiedades únicas. Estos son algunos casos de uso actuales y potenciales en los que los DAG están impactando en Web3:

  • Internet de las Cosas (IoT): El IoT implica millones de dispositivos transmitiendo datos y potencialmente transaccionando entre sí (pagos máquina a máquina). Ledgers DAG como IOTA se diseñaron explícitamente para este escenario. Con microtransacciones sin comisiones y la capacidad de manejar frecuencias altas de pagos pequeños, un ledger DAG puede permitir que dispositivos IoT paguen por servicios o ancho de banda sobre la marcha. Por ejemplo, un coche eléctrico inteligente podría pagar automáticamente a una estación de carga unos céntimos por la energía, o los sensores podrían vender datos a una plataforma en tiempo real. El Tangle de IOTA se ha usado en pilotos de ciudades inteligentes, integraciones de IoT en cadenas de suministro (seguimiento de mercancías y condiciones ambientales) y mercados descentralizados de datos donde se registran y comercian los datos de sensores de forma inmutable. La escalabilidad de los DAG aborda el enorme volumen que generan las redes IoT masivas, y su bajo coste se ajusta a la economía de los micropagos.
  • Finanzas descentralizadas (DeFi): Aplicaciones DeFi como los exchanges descentralizados (DEX), plataformas de préstamos y redes de pagos se benefician de un alto rendimiento y baja latencia. Las plataformas de smart contracts basadas en DAG (p. ej., Fantom, y en cierta medida la X-Chain de Avalanche para transferencias simples de activos) ofrecen la ventaja de liquidar operaciones más rápido y mantener comisiones bajas incluso durante alta demanda. En 2021, Fantom experimentó un aumento de actividad DeFi (yield farming, market makers automatizados, etc.) y pudo manejarlo con mucha menos congestión que Ethereum en ese momento. Además, la finalidad rápida de los DAG reduce el riesgo de incertidumbre en la ejecución de operaciones (en cadenas lentas, los usuarios esperan varios bloques para la finalidad, lo que introduce riesgo en el trading veloz). Otra perspectiva son las redes de pagos descentralizados: Nano, por ejemplo, puede considerarse parte del espectro DeFi, habilitando transferencias peer-to-peer y posiblemente actuando como carril de micropagos para capas 2 de otros sistemas. El rendimiento de los DAG también podría soportar trading de alta frecuencia o transacciones DeFi complejas multi-paso ejecutándose con mayor fluidez.
  • NFT y gaming: El boom de los NFT evidenció la necesidad de minting y transferencias de bajo coste. En Ethereum, acuñar NFT se volvió costoso cuando el gas se disparó. Redes DAG como Hedera y Fantom se han planteado como alternativas donde acuñar un NFT cuesta una fracción de centavo, haciéndolas viables para activos en juegos, coleccionables o lanzamientos a gran escala. El Token Service de Hedera permite la emisión nativa de tokens y NFT con tarifas bajas y predecibles, y ha sido usado por plataformas de contenido e incluso empresas (p. ej., artistas musicales emitiendo tokens o universidades registrando títulos). En gaming, donde abundan las microtransacciones, un ledger DAG rápido puede gestionar frecuentes intercambios de activos o distribución de recompensas sin ralentizar el juego ni arruinar a los jugadores con comisiones. El alto rendimiento garantiza que, incluso si un juego o colección NFT popular atrae a millones de usuarios, la red pueda soportar la carga (hemos visto juegos en Ethereum congestionar la red en el pasado). Por ejemplo, un juego basado en NFT en Fantom puede actualizar el estado lo suficientemente rápido como para ofrecer una experiencia casi en tiempo real.
  • Identidad descentralizada (DID) y credenciales: Los sistemas de identidad se benefician de un ledger inmutable para anclar identidades, credenciales y atestaciones. Las redes DAG se exploran aquí porque ofrecen escalabilidad para potencialmente miles de millones de transacciones de identidad (cada login, emisión de certificado, etc.) y bajo coste, crucial si, por ejemplo, cada interacción de identidad de un ciudadano se registrara. IOTA Identity es un ejemplo: proporciona un método DID did:iota donde los documentos de identidad se referencian en el Tangle. Se puede usar para identidad autosoberana: los usuarios controlan sus documentos y los verificadores pueden obtener pruebas del DAG. Hedera también está activa en el ámbito DID: tiene una especificación DID y se ha usado en proyectos como registros inmutables de títulos universitarios, certificados de vacunación COVID o documentos de cumplimiento en la cadena de suministro (a través del Hedera Consensus Service como servicio de anclaje). Las ventajas de los DAG aquí son que es barato y rápido escribir datos, de modo que actualizar un estado de identidad (rotar claves, añadir credenciales) no enfrenta el coste o retraso de una blockchain congestionada. Además, las garantías de finalidad y orden pueden ser importantes para auditorías (Hashgraph, por ejemplo, proporciona un orden temporal confiable útil para registros de cumplimiento).
  • Cadena de suministro e integridad de datos: Más allá de la identidad, cualquier caso de uso que involucre registrar un alto volumen de datos puede aprovechar DLT basadas en DAG. La trazabilidad en cadenas de suministro es uno: los productos generan muchos eventos (fabricado, enviado, inspeccionado, etc.). Proyectos han usado Hedera e IOTA para registrar estos eventos en un ledger DAG, aportando inmutabilidad y transparencia. El alto rendimiento garantiza que el ledger no sea un cuello de botella, incluso si se escanea y registra cada artículo de una red de suministro grande. Además, las comisiones nulas o bajas permiten registrar eventos de bajo valor sin costes elevados. Otro ejemplo es la integridad de datos IoT: redes eléctricas o telecomunicaciones pueden registrar lecturas de dispositivos en un ledger DAG para demostrar posteriormente que los datos no fueron manipulados. El DAG de Constellation Network (otro proyecto DAG) se centra en la validación de grandes volúmenes de datos para empresas y gobiernos (como la integridad de datos de drones de la Fuerza Aérea de EE. UU.), destacando cómo un DAG escalable puede manejar flujos masivos de datos de forma confiable.
  • Pagos y remesas: Transacciones rápidas y sin comisiones hacen que criptomonedas DAG como Nano e IOTA sean adecuadas para pagos. Nano ha sido adoptada en escenarios como propinas online (donde un usuario puede enviar unos céntimos instantáneamente a un creador de contenido) y remesas internacionales (donde la velocidad y coste cero marcan una gran diferencia frente a esperar horas y pagar porcentajes elevados). Las redes DAG pueden servir como carriles de pago de alta velocidad integrados en sistemas de punto de venta o aplicaciones móviles. Por ejemplo, una cafetería podría usar una criptomoneda DAG para los pagos sin preocuparse por la latencia o el coste (la experiencia puede rivalizar con una tarjeta de crédito contactless). HBAR de Hedera también se usa en algunas pruebas de pago (su finalidad rápida y baja tarifa atraen a aplicaciones fintech para liquidación). Además, como las redes DAG suelen tener mayor capacidad, pueden mantener el rendimiento incluso durante eventos globales de compras o picos de uso, algo valioso para la fiabilidad de pagos.
  • Feeds de datos en tiempo real y oráculos: Los oráculos (servicios que introducen datos externos en contratos inteligentes) requieren escribir muchos datos en un ledger. Un ledger DAG podría actuar como una red de oráculos de alto rendimiento, registrando precios, datos climáticos, lecturas de sensores IoT, etc., con garantía de orden y marca temporal. El Hedera Consensus Service, por ejemplo, es utilizado por algunos proveedores de oráculos para sellar datos antes de alimentarlos a otras cadenas. La velocidad asegura datos frescos y el rendimiento permite manejar flujos rápidos. En analítica Web3 descentralizada o publicidad, donde cada clic o impresión podría registrarse para transparencia, un backend DAG puede soportar el volumen de eventos.

En todos estos casos, el hilo común es que las redes DAG buscan proporcionar la escalabilidad, velocidad y eficiencia de costes que amplían el alcance de lo que se puede descentralizar. Son particularmente útiles donde ocurren transacciones de alta frecuencia o alto volumen (IoT, microtransacciones, datos de máquinas) o donde la experiencia del usuario exige interacciones rápidas y fluidas (gaming, pagos). No obstante, no todos los casos de uso migrarán a ledgers DAG: a veces la madurez y seguridad de las blockchains tradicionales, o simplemente los efectos de red (por ejemplo, la enorme base de desarrolladores de Ethereum), pesan más que la necesidad de rendimiento bruto. Aun así, los DAG están labrándose un nicho en la pila Web3 para escenarios que tensionan a las cadenas convencionales.

Limitaciones y desafíos de las redes basadas en DAG

Aunque los ledgers distribuidos basados en DAG ofrecen ventajas atractivas, también implican compromisos y desafíos. Es importante examinar críticamente estas limitaciones:

  • Madurez y seguridad: La mayoría de los algoritmos de consenso DAG son relativamente nuevos y están menos probados en batalla que los protocolos blockchain bien estudiados de Bitcoin o Ethereum. Esto puede significar vulnerabilidades de seguridad o vectores de ataque aún desconocidos. La complejidad de los sistemas DAG puede abrir nuevas vías de ataque: por ejemplo, un atacante podría intentar inundar o inflar el DAG con subtangles conflictivos, o aprovechar la estructura paralela para gastar doble antes de que la red alcance consenso. Análisis académicos señalan que la complejidad incrementada introduce una gama más amplia de vulnerabilidades frente a cadenas lineales más simples. Algunas redes DAG han sufrido incidencias: por ejemplo, en sus inicios la red de IOTA tuvo que pausarse en un par de ocasiones por irregularidades/ataques (en 2020 se robó un fondo y el Coordinador se detuvo temporalmente para resolverlo). Estos incidentes subrayan que los modelos de seguridad siguen perfeccionándose. Además, en algunos DAG la finalidad es probabilística (p. ej., antes de Coordicide IOTA no tenía finalidad absoluta, solo confianza creciente), lo que puede ser problemático para ciertas aplicaciones (aunque DAG más recientes como Hashgraph y Fantom ofrecen finalidad instantánea con garantías aBFT).
  • Complejidad del consenso: Lograr consenso en un DAG suele implicar algoritmos complejos (protocolos gossip, votación virtual, muestreo aleatorio, etc.). Esta complejidad se traduce en bases de código más extensas e implementaciones complicadas, aumentando el riesgo de bugs de software. También hace el sistema más difícil de entender para los desarrolladores. La regla de la cadena más larga en una blockchain es conceptualmente simple, mientras que la votación virtual de Hashgraph o el muestreo repetido de Avalanche no son tan intuitivos. La complejidad puede frenar la adopción: desarrolladores y empresas pueden dudar en confiar en un sistema que les cuesta comprender o auditar. Como señaló un estudio, los sistemas basados en órdenes parciales (DAG) requieren más esfuerzo para integrarse con la infraestructura existente y la mentalidad de los desarrolladores. Las herramientas y librerías para redes DAG también son menos maduras en muchos casos, lo que puede empeorar la experiencia de desarrollo frente a Ethereum o Bitcoin.
  • Compromisos de descentralización: Algunas implementaciones DAG actuales sacrifican cierto grado de descentralización para lograr su rendimiento. Por ejemplo, la dependencia de Hedera en un consejo fijo de 39 nodos implica que la red no está abierta a cualquiera para participar en el consenso, lo cual ha recibido críticas pese a sus fortalezas técnicas. IOTA, durante mucho tiempo, dependió de un Coordinador central para evitar ataques, un punto único de fallo/control. El consenso de Nano se basa en un pequeño número de representantes principales que concentran la mayor parte del peso de voto (en 2023, los pocos representantes principales controlaban gran parte del peso en línea), lo que puede considerarse una concentración de poder, aunque es algo análogo a los pools de minería en PoW. En general, se percibe que las blockchains son más fáciles de descentralizar ampliamente (miles de nodos) que algunas redes DAG. Las razones varían: ciertos algoritmos DAG pueden exigir mayores requisitos de ancho de banda (dificultando la participación plena de muchos nodos), o el diseño del proyecto puede mantener intencionalmente una estructura permisionada al inicio. No es una limitación inherente de los DAG, pero en la práctica muchos aún no alcanzan el número de nodos de las grandes blockchains.
  • Necesidad de volumen (seguridad vs rendimiento): Algunas redes DAG requieren paradójicamente un alto volumen de transacciones para funcionar de forma óptima. Por ejemplo, el modelo de seguridad de IOTA se fortalece cuando muchas transacciones honestas se confirman constantemente entre sí (aumentando el peso acumulado de los subtangles honestos). Si la actividad es muy baja, el DAG puede volverse perezoso: puntas sin aprobar rápidamente o atacantes que lo tienen más fácil para intentar sobrescribir partes del grafo. En contraste, una blockchain tradicional como Bitcoin no necesita un número mínimo de transacciones para seguir segura (incluso con pocas transacciones, los mineros siguen compitiendo por extender la cadena). Así, los DAG suelen rendir mejor bajo carga, pero pueden estancarse con uso escaso, salvo que se apliquen medidas especiales (como el coordinador de IOTA o transacciones de “mantenimiento” en segundo plano). Esto significa que el rendimiento puede ser inconsistente: excelente cuando el uso es alto, pero con confirmaciones más lentas en periodos valle o redes con poca actividad.
  • Ordenamiento y compatibilidad: Como los DAG producen un orden parcial de eventos que luego debe hacerse consistente, los algoritmos de consenso pueden ser bastante intrincados. En contextos de contratos inteligentes, se requiere un orden total de las transacciones para evitar doble gastos y mantener la ejecución determinista. Sistemas DAG como Fantom resuelven esto construyendo una capa de ordenamiento (la Opera Chain final), pero no todos los DAG soportan fácilmente smart contracts complejos. El manejo del estado y el modelo de programación puede ser desafiante en un DAG puro. Por ejemplo, si dos transacciones no conflictivas, se pueden confirmar en paralelo en un DAG —eso está bien—. Pero si confligen (p. ej., dos tx gastan el mismo output o dos operaciones sobre el mismo pedido), la red debe decidir una y descartar la otra. Garantizar que todos los nodos tomen la misma decisión de forma descentralizada es más difícil sin una cadena única que lo ordene todo. Por eso muchos proyectos DAG inicialmente evitaron los contratos inteligentes o el estado global y se enfocaron en pagos (donde los conflictos son más sencillos de detectar via UTXO o balances). Interconectar ledgers DAG con ecosistemas blockchain existentes tampoco es trivial; por ejemplo, conectar una EVM a un DAG requirió que Fantom creara un mecanismo para linearizar el DAG para la ejecución EVM. Estas complejidades implican que no todos los casos de uso pueden implementarse inmediatamente sobre un DAG sin un diseño cuidadoso.
  • Almacenamiento y sincronización: Un potencial problema es que, si un ledger DAG permite un volumen alto de transacciones paralelas, el ledger puede crecer rápidamente. Son importantes algoritmos eficientes para podar el DAG (eliminar transacciones antiguas que ya no son necesarias para la seguridad) y para permitir nodos ligeros (los light clients necesitan confirmar transacciones sin almacenar todo el DAG). La investigación ha identificado el desafío de alcanzabilidad: asegurar que las nuevas transacciones puedan alcanzar y referenciar a las anteriores con eficiencia y determinar cómo truncar la historia de forma segura en un DAG. Aunque las blockchains también enfrentan problemas de crecimiento, la estructura del DAG puede complicar tareas como calcular saldos o pruebas para estados parciales, ya que el ledger no es una simple lista de bloques. Es un desafío técnico que puede resolverse, pero añade más carga al diseño de un sistema DAG robusto.
  • Percepción y efectos de red: Más allá de los aspectos técnicos, los proyectos DAG enfrentan el reto de demostrarse en un espacio dominado por blockchains. Muchos desarrolladores y usuarios se sienten más cómodos con las L1 blockchain, y los efectos de red (más usuarios, más dApps, más herramientas en las cadenas existentes) pueden ser difíciles de superar. A veces los DAG se promocionan con afirmaciones audaces (“blockchain killer”), lo que puede invitar al escepticismo. Por ejemplo, un proyecto puede alegar escalabilidad ilimitada, pero los usuarios esperarán ver pruebas en condiciones reales. Hasta que las redes DAG alojan “killer apps” o bases de usuarios grandes, pueden percibirse como experimentales. Además, lograr listados en exchanges, soluciones de custodia, wallets —toda la infraestructura que ya soporta las grandes blockchains— es un esfuerzo continuo para cada nueva plataforma DAG. Hay, por tanto, un desafío de arranque: a pesar de los méritos técnicos, la adopción puede rezagarse por la inercia del ecosistema.

En resumen, los ledgers basados en DAG intercambian simplicidad por rendimiento, y eso conlleva dolores de crecimiento. La complejidad del consenso, la posible centralización en algunas implementaciones y la necesidad de ganarse una confianza comparable a los sistemas blockchain veteranos son obstáculos a superar. La comunidad de investigación estudia activamente estos problemas; por ejemplo, un paper de 2024 de sistematización del conocimiento sobre protocolos DAG destaca la creciente variedad de diseños y la necesidad de comprender integralmente sus compromisos. A medida que los proyectos DAG maduren, probablemente se aborden muchos de estos desafíos (eliminación de coordinadores, participación abierta, mejores herramientas), pero es importante considerarlos al evaluar DAG vs blockchain para una aplicación específica.

Tendencias de adopción y perspectivas futuras

La adopción de la tecnología blockchain basada en DAG todavía está en fases tempranas frente al uso generalizado de las blockchains tradicionales. A 2025, solo un puñado de ledgers públicos usan DAG a escala: entre ellos Hedera Hashgraph, IOTA, Fantom, Nano, Avalanche (en parte de su sistema) y algunos otros. Las blockchains (cadenas lineales) siguen siendo la arquitectura dominante en los sistemas desplegados. Sin embargo, el interés en los DAG ha ido aumentando tanto en la industria como en la academia. Podemos identificar varias tendencias y una perspectiva para los DAG en blockchain:

  • Creciente número de proyectos y estudios DAG: Se aprecia un aumento en la cantidad de proyectos nuevos que exploran arquitecturas DAG o híbridas. Por ejemplo, plataformas recientes como Aleph Zero (una red enfocada en privacidad) usan un consenso DAG para un orden rápido, y Sui y Aptos (cadenas con lenguaje Move) incorporan mempools basados en DAG o motores de ejecución paralela para escalar el rendimiento. La investigación académica en consenso DAG está floreciendo: protocolos como SPECTRE, PHANTOM, GhostDAG y otros más recientes están ampliando los límites, y se publican análisis exhaustivos (papers SoK) para clasificar y evaluar los enfoques DAG. Esto indica una exploración saludable y la aparición de buenas prácticas. A medida que la investigación identifica soluciones a debilidades previas (por ejemplo, cómo lograr equidad, cómo podar DAG, cómo asegurar DAG bajo condiciones dinámicas), es probable que estas innovaciones lleguen a las implementaciones.
  • Modelos híbridos en uso general: Una tendencia interesante es que incluso las blockchains tradicionales están adoptando conceptos DAG para mejorar el rendimiento. Avalanche es un ejemplo principal de híbrido: se presenta como una plataforma blockchain, pero en su núcleo usa un consenso DAG. Ha ganado adopción significativa en DeFi y NFT, demostrando que los usuarios a veces adoptan un sistema DAG sin siquiera notarlo, siempre que satisfaga sus necesidades (rapidez y bajo coste). Esta tendencia puede continuar: DAG como motor interno exponiendo una interfaz blockchain familiar podría ser una estrategia ganadora, facilitando a los desarrolladores la transición. Fantom hizo esto con su Opera Chain, y otros proyectos podrían seguir el mismo camino, convirtiendo la tecnología DAG en el motor invisible de las cadenas de próxima generación.
  • Adopción empresarial y de nicho: Las empresas que requieren alto rendimiento, costes predecibles y que se sienten cómodas con redes más permisionadas se han inclinado a explorar ledgers DAG. El modelo de Consejo de Hedera atrajo a grandes compañías; estas impulsan casos de uso como tokenización de activos para servicios financieros o seguimiento de licencias de software en Hedera. También vemos consorcios considerar DLT basadas en DAG para liquidaciones en telecomunicaciones, seguimiento de impresiones publicitarias o transferencias interbancarias, donde el volumen es alto y necesitan finalidad. IOTA ha participado en proyectos financiados por la Unión Europea para infraestructura, pilotos de identidad digital e IoT industrial: son caminos de adopción a largo plazo, pero demuestran que los DAG están en el radar más allá de la comunidad cripto. Si algunas de estas pruebas tienen éxito y escalan, podríamos ver adopciones sectoriales de redes DAG (p. ej., un consorcio IoT usando un ledger DAG para compartir y monetizar datos).
  • Progreso comunitario y descentralización: Las críticas tempranas a las redes DAG (coordinadores centrales, validadores permisionados) se están abordando gradualmente. Coordicide de IOTA, si tiene éxito, eliminará el coordinador central y transformará IOTA en una red completamente descentralizada con una forma de staking y validadores comunitarios. Hedera ha abierto su código y ha insinuado planes para descentralizar aún más la gobernanza a largo plazo (más allá del consejo inicial). La comunidad de Nano trabaja continuamente para distribuir el peso de los representantes (alentando a más usuarios a operar nodos o repartir sus delegaciones). Estos pasos son importantes para la credibilidad y confianza en las redes DAG, alineándolas más con la ética blockchain. Conforme aumente la descentralización, es probable que más usuarios y desarrolladores cripto-nativos estén dispuestos a construir sobre o contribuir a proyectos DAG, acelerando su crecimiento.
  • Interoperabilidad y uso como capa 2: También podríamos ver a los DAG usarse como capas de escalado o redes interoperables en lugar de ecosistemas independientes. Por ejemplo, un ledger DAG podría servir como capa 2 de alta velocidad para Ethereum, anclando periódicamente resultados agregados en Ethereum para seguridad. Alternativamente, redes DAG podrían conectarse mediante puentes a blockchains existentes, permitiendo mover activos hacia donde sea más barato transaccionar. Si la experiencia de usuario es fluida, los usuarios podrían operar en una red DAG (disfrutando de alta velocidad) mientras confían en una blockchain base para la liquidación o seguridad, obteniendo lo mejor de ambos mundos. Algunos proyectos contemplan este enfoque por capas.
  • Perspectiva futura – complemento, no reemplazo (por ahora): Es revelador que incluso los defensores suelen decir que los DAG son una “alternativa” o complemento a las blockchains, más que un reemplazo total. En el futuro cercano podemos esperar redes heterogéneas: algunas basadas en blockchain, otras en DAG, cada una optimizada para distintos escenarios. Los DAG podrían alimentar la columna vertebral de alta frecuencia de Web3 (gestionando el trabajo pesado de microtransacciones y registro de datos), mientras que las blockchains podrían seguir siendo preferidas para la liquidación, transacciones de muy alto valor o donde la simplicidad y robustez sean críticas. A más largo plazo, si los sistemas DAG siguen demostrando su valía y logran igualar o superar la seguridad y descentralización, es concebible que se conviertan en el paradigma dominante de los ledgers distribuidos. El enfoque en eficiencia energética también alinea a los DAG con las presiones globales de sostenibilidad, lo que podría hacerlos más aceptables política y socialmente a largo plazo. Los beneficios de huella de carbono reducida, junto con las ventajas de rendimiento, podrían ser un impulsor clave si los entornos regulatorios enfatizan la tecnología verde.
  • Sentimiento comunitario: Existe un segmento de la comunidad cripto muy entusiasmado con los DAG, viéndolos como el siguiente paso evolutivo de la DLT. Es común oír frases como “los DAG son el futuro; las blockchains se verán como el internet por dial-up frente a la banda ancha de los DAG”. Este entusiasmo debe equilibrarse con resultados prácticos, pero sugiere que talento e inversiones están fluyendo hacia este ámbito. Por otro lado, persisten los escépticos, señalando que no debe sacrificarse la descentralización y seguridad por velocidad, por lo que los proyectos DAG deberán demostrar que pueden lograr lo mejor de ambos mundos.

En conclusión, el futuro de los DAG en blockchain es cautelosamente optimista. Actualmente las blockchains siguen dominando, pero las plataformas basadas en DAG se están abriendo espacio y demostrando su capacidad en dominios específicos. A medida que la investigación resuelva los desafíos actuales, probablemente veremos más convergencia de ideas: blockchains adoptando mejoras inspiradas en DAG y redes DAG asimilando las lecciones de las blockchains en gobernanza y seguridad. Los investigadores y desarrolladores Web3 harían bien en seguir de cerca los avances DAG, ya que representan una rama significativa de la evolución de los ledgers distribuidos. En los próximos años podríamos ver un ecosistema diverso de ledgers interoperables donde los DAG desempeñen un papel vital en la escalabilidad y aplicaciones especializadas, acercándonos a la visión de una web escalable y descentralizada.

En palabras de una publicación de Hedera: los ledgers basados en DAG son “un paso prometedor” en la evolución de las monedas digitales y la tecnología descentralizada: no una bala de plata para reemplazar completamente a las blockchains, sino una innovación importante que trabajará junto a ellas e inspirará mejoras en todo el panorama de los ledgers distribuidos.

Fuentes: La información de este informe proviene de diversas fuentes confiables, como investigaciones académicas sobre consenso DAG, documentación oficial y whitepapers de proyectos como IOTA, Hedera Hashgraph, Fantom y Nano, además de blogs técnicos y artículos que aportan perspectivas sobre las diferencias DAG vs blockchain. Estas referencias respaldan el análisis comparativo, los beneficios y los estudios de caso discutidos. El diálogo constante en la comunidad de investigación Web3 sugiere que los DAG seguirán siendo un tema candente mientras buscamos resolver la trinidad de escalabilidad, seguridad y descentralización en la próxima generación de tecnología blockchain.

La ola de más de 100 ETF de criptomonedas: cómo 2026 redefine el acceso institucional más allá de Bitcoin

· 11 min de lectura
Dora Noda
Software Engineer

Cuando los ETF de Bitcoin se lanzaron en enero de 2024, batieron récords con $ 4,6 mil millones en entradas de capital durante la primera semana. Avanzamos rápidamente hasta finales de 2025, y el panorama de los ETF de criptomonedas ha explotado más allá de las expectativas de cualquiera. Ya no estamos hablando solo de Bitcoin y Ethereum — se proyecta el lanzamiento de más de 100 nuevos ETF de criptomonedas en 2026, con más de 50 productos de altcoins al contado listos para salir al mercado. La pregunta ya no es si se expandirá el acceso institucional a las criptomonedas, sino qué tan rápido y qué significa para la estructura del mercado.

De dos a cien: La explosión de los ETF de altcoins

La transformación ocurrió más rápido de lo que la mayoría de los analistas predijeron. Para octubre de 2025, Solana se convirtió en la tercera criptomoneda aprobada para ETP (productos cotizados en bolsa) al contado, siguiendo a Bitcoin y Ethereum.

Los ETF de XRP se lanzaron en noviembre de 2025, atrayendo $ 1,37 mil millones en activos bajo gestión dentro de sus primeros meses. Litecoin, Hedera e incluso Dogecoin — la memecoin que comenzó como una broma — ahora cuentan con productos cotizados en bolsa aprobados por la SEC.

A principios de 2026, 92 ETF de criptomonedas esperan la aprobación de la SEC, con Solana liderando con ocho solicitudes pendientes y XRP de cerca con siete.

Solo Bitwise ha solicitado 11 nuevos ETF de altcoins programados para lanzarse el 16 de marzo de 2026, incluyendo Uniswap (UNI), Aave (AAVE), Tron (TRX), Sui (SUI), Zcash (ZEC) y NEAR Protocol.

¿Qué cambió? La SEC aprobó nuevos estándares genéricos de cotización en bolsa para productos cripto cotizados en bolsa, reduciendo los plazos de aprobación de hasta 240 días a tan solo 75 días.

Este marco estandarizado eliminó esencialmente los plazos individuales, permitiendo que la agencia actúe más rápido una vez que los emisores completan sus registros S-1. El analista de ETF de Bloomberg, Eric Balchunas, ve ahora una probabilidad del 100 % de aprobación para las 16 solicitudes pendientes.

El cambio del dinero institucional: Del FOMO minorista a la asignación de fondos de pensiones

El primer año de Bitcoin estuvo dominado por inversores minoristas y tesorerías corporativas. Pero 2026 marca un cambio fundamental en quién está comprando ETF de criptomonedas y por qué.

El último análisis de JPMorgan predice que las entradas de ETF de grado institucional provenientes de fondos de pensiones y gestores de activos podrían alcanzar los 15milmillonesenunescenarioconservador,ohasta15 mil millones en un escenario conservador, o hasta 40 mil millones bajo condiciones favorables.

Esto representa un alejamiento de las compras lideradas por minoristas que definieron los $ 130 mil millones en entradas totales al mercado cripto de 2025.

Las cifras cuentan la historia:

  • Se espera que los activos bajo gestión de los ETF de Bitcoin alcancen los **180220milmillonesparafinalesde2026,frentealosaproximadamente180 - 220 mil millones** para finales de 2026, frente a los aproximadamente 120 mil millones actuales.
  • Se proyecta que el AUM total de los productos cripto cotizados en bolsa supere los **400milmillones,eldobledelosaproximadamente400 mil millones**, el doble de los aproximadamente 200 mil millones registrados a finales de 2025.

¿Qué está impulsando este auge institucional? Destacan tres factores:

  1. Claridad regulatoria: La aprobación de la Ley de Claridad del Mercado de Activos Digitales (Digital Asset Market Clarity Act) eliminó las engorrosas obligaciones de divulgación para los tokens listados en ETF negociados en bolsas de valores nacionales el 1 de enero de 2026 o antes. Esto creó un nivel de "Los primeros ocho" de activos regulados principales: BTC, ETH, XRP, SOL, LTC, HBAR, DOGE y LINK.

  2. Expansión de los canales de distribución: Grandes bancos como Wells Fargo, Bank of America y Vanguard ahora distribuyen ETF de criptomonedas a clientes minoristas. Morgan Stanley, Merrill Lynch y las plataformas tradicionales de gestión de patrimonio han abierto el acceso, multiplicando la base de inversores potenciales.

  3. Necesidades de diversificación de cartera: Con las carteras tradicionales 60 / 40 luchando en entornos de tasas altas, los asignadores institucionales están explorando activos alternativos. Incluso una asignación cripto del 1 - 2 % en toda la industria de fondos de pensiones de más de $ 30 billones representa flujos de capital masivos.

¿Maduración o fragmentación del mercado? La moneda de dos caras

La ola de ETF de altcoins presenta una paradoja: es tanto una señal de maduración del mercado como un riesgo potencial de fragmentación.

Señales de maduración

La gran variedad de productos ETF indica la integración de las criptomonedas en las finanzas tradicionales. Los inversores ahora pueden elegir entre:

  • ETF al contado de un solo activo (Bitcoin, Ethereum, Solana, XRP)
  • ETF de criptomonedas multi-activo
  • Productos cripto apalancados
  • Estructuras generadoras de rendimiento (productos con habilitación de staking que se vuelven convencionales)
  • Fondos centrados en sectores (DeFi, Layer 1, monedas de privacidad)

Esta diversidad refleja los mercados de valores tradicionales, donde los inversores pueden elegir fondos de índice amplios o exposición específica a un sector.

Esto indica que el cripto ya no es un activo monolítico de "riesgo", sino una clase de activo diferenciada con casos de uso y perfiles de riesgo distintos.

El volumen de negociación acumulado de los ETF de criptomonedas al contado en EE. UU. superó los $ 2 billones menos de dos años después del lanzamiento de los ETF de Bitcoin — un hito que a los ETF de oro les tomó más de una década alcanzar. La velocidad de adopción no tiene precedentes.

Preocupaciones por la fragmentación

Pero la rápida expansión trae desafíos. Como señala un análisis de mercado, "uno de los cambios más menospreciados en la era post-ETF es el surgimiento de la fragmentación de la liquidez".

Antes de los ETF, la liquidez se concentraba en grandes exchanges de criptomonedas como Coinbase y Binance. Después de los ETF, la liquidez ahora se dispersa en múltiples plataformas: mercados de creación / redención de ETF, bolsas tradicionales, mesas extrabursátiles (OTC) y protocolos descentralizados.

Los diferenciales amplios entre diferentes sedes indican un posicionamiento fragmentado — la convergencia señalaría la formación de un consenso entre los participantes, pero aún no hemos llegado a ese punto.

La proliferación de productos también aumenta los riesgos de confusión para el inversor:

  • ¿Entienden los inversores minoristas la diferencia entre un ETF de Dogecoin al contado y un producto cripto multi-activo apalancado?
  • ¿Se canibalizarán entre sí los flujos de cientos de ETF de criptomonedas, o expandirán el mercado total direccionable?

Los datos iniciales sugieren que ambas dinámicas están en juego. Los $ 1,25 mil millones en entradas netas de XRP desde noviembre de 2025 demuestran una fuerte demanda de exposición específica a altcoins.

Pero también representa capital que, de otro modo, podría haber fluido hacia los ETF de Bitcoin o Ethereum, resaltando el aspecto de suma cero de las batallas por la cuota de mercado.

La pieza faltante: ¿Dónde están las iniciativas de infraestructura institucional?

A pesar de todo el entusiasmo por las aprobaciones de los ETF, queda una pregunta crítica: ¿cómo utilizarán realmente las instituciones estos activos digitales a escala?

Aquí es donde los proveedores de infraestructura blockchain se vuelven esenciales. Los inversores institucionales no solo necesitan envoltorios de ETF; necesitan un acceso a API robusto y de grado empresarial para interactuar con los datos on-chain, verificar las tenencias e integrar las criptomonedas en los sistemas de gestión de carteras existentes.

Ya sea consultando el estado de la blockchain en tiempo real para obtener rendimientos de staking en Solana o verificando la liquidación cross-chain para carteras de múltiples activos, la capa de infraestructura que sustenta la adopción institucional de criptomonedas debe ser tan confiable como las propias estructuras de los ETF.

Lo que depara el 2026: Predicciones y factores impredecibles

Varias tendencias parecen estar consolidadas para el resto de 2026:

Certezas casi absolutas:

  • El AUM total de los ETP de criptomonedas superará los 400 mil millones de dólares
  • Solana, XRP y Litecoin dominarán los flujos de los ETF de altcoins (ya tienen más del 95 % de probabilidades de aprobación)
  • Los ETF con staking habilitado se volverán convencionales, cambiando fundamentalmente las expectativas de rendimiento
  • Más instituciones financieras tradicionales lanzarán productos cripto (la carrera armamentista se está acelerando)

Desarrollos probables:

  • Los ETF de Cardano, Polkadot y otros tokens de DeFi obtienen aprobación
  • BlackRock solicita un ETF de XRP (los expertos predicen finales de 2026 o principios de 2027)
  • Se lanza la primera ola de ETF de índices cripto multi-activos, reflejando las estrategias de diversificación al estilo del S&P 500
  • Los mercados europeos y asiáticos lanzan productos ETP cripto competidores, creando una carrera regulatoria global

Factores impredecibles:

  • ¿Aprobará la SEC los ETF de stablecoins que generan rendimiento? El marco regulatorio sigue siendo poco claro.
  • ¿Podría un incidente de seguridad importante o un colapso del mercado descarrilar la adopción institucional? La industria cripto ha superado los colapsos de FTX y Luna, pero los riesgos sistémicos persisten.
  • ¿Desafiarán eventualmente los exchanges descentralizados el dominio de los ETF para el acceso institucional? La tecnología DEX está mejorando rápidamente.

El veredicto: Evolución, no revolución

La ola de más de 100 ETF cripto no es una revolución, es una evolución. Estamos viendo cómo las finanzas tradicionales absorben a las criptomonedas a través de su infraestructura existente en lugar de que las criptomonedas irrumpan en los mercados financieros desde el exterior.

Eso no es necesariamente algo malo. Los envoltorios de ETF proporcionan:

  • Cumplimiento regulatorio y claridad legal
  • Soluciones de custodia de grado institucional
  • Eficiencia fiscal y presentación de informes simplificada
  • Vehículos de inversión familiares para instituciones reacias al riesgo
  • Acceso democratizado para inversores minoristas que no quieren gestionar claves privadas

Pero también significa que las criptomonedas se están volviendo más parecidas a las finanzas tradicionales: intermediadas, reguladas y concentradas en las principales instituciones financieras.

La visión original de las criptomonedas de transferencia de valor descentralizada y de igual a igual (peer-to-peer) da paso a que BlackRock y Fidelity gestionen activos digitales en nombre de los fondos de pensiones.

Si esto se ve como una legitimación o una cooptación depende de su perspectiva.

Lo que es innegable es que las puertas institucionales se han abierto, y 2026 verá una inundación de capital que hará que el lanzamiento del ETF de Bitcoin de 2024 parezca un simple acto de calentamiento.

La ola de ETF de altcoins ya está aquí.

La pregunta ahora es si la infraestructura descentralizada de las criptomonedas puede escalar para satisfacer las demandas institucionales, o si las finanzas tradicionales simplemente construirán sus propios jardines vallados sobre las blockchains públicas.

Para las instituciones que construyen sobre infraestructura blockchain, el acceso confiable a API para múltiples cadenas no es opcional, es fundamental. Explore las APIs multi-chain de grado empresarial de BlockEden.xyz diseñadas para la era institucional.

Fuentes

Cómo el muestreo de disponibilidad de datos de Celestia alcanza 1 terabit por segundo: una inmersión técnica profunda

· 17 min de lectura
Dora Noda
Software Engineer

El 13 de enero de 2026, Celestia rompió todas las expectativas con una sola prueba de rendimiento: 1 terabit por segundo de capacidad de procesamiento de datos a través de 498 nodos distribuidos. Para ponerlo en contexto, esa es suficiente banda ancha para procesar el volumen total de transacciones diarias de los rollups de Capa 2 más grandes de Ethereum — en menos de un segundo.

Pero la verdadera historia no es la cifra del titular. Es la infraestructura criptográfica que lo hace posible: Muestreo de Disponibilidad de Datos (DAS), un avance que permite a los nodos ligeros con recursos limitados verificar la disponibilidad de los datos de la blockchain sin descargar bloques enteros. A medida que los rollups compiten para escalar más allá del almacenamiento de blobs nativo de Ethereum, entender cómo Celestia logra este rendimiento — y por qué es importante para la economía de los rollups — nunca ha sido más crítico.

El cuello de botella de la disponibilidad de datos: Por qué los rollups necesitan una solución mejor

La escalabilidad de la blockchain se ha visto limitada durante mucho tiempo por un compromiso fundamental: ¿cómo se verifica que los datos de las transacciones están realmente disponibles sin requerir que cada nodo descargue y almacene todo? Este es el problema de disponibilidad de datos, y es el principal cuello de botella para el escalado de los rollups.

El enfoque de Ethereum — que requiere que cada nodo completo descargue bloques íntegros — crea una barrera de accesibilidad. A medida que aumenta el tamaño de los bloques, menos participantes pueden permitirse el ancho de banda y el almacenamiento necesarios para ejecutar nodos completos, lo que pone en peligro la descentralización. Los rollups que publican datos en la L1 de Ethereum se enfrentan a costes prohibitivos: en picos de demanda, un solo lote puede costar miles de dólares en comisiones de gas.

Aquí es donde entran las capas modulares de disponibilidad de datos. Al separar la disponibilidad de datos de la ejecución y el consenso, protocolos como Celestia, EigenDA y Avail prometen reducir drásticamente los costes de los rollups manteniendo las garantías de seguridad. ¿La innovación de Celestia? Una técnica de muestreo que invierte el modelo de verificación: en lugar de descargarlo todo para verificar la disponibilidad, los nodos ligeros muestrean aleatoriamente pequeños fragmentos y logran una confianza estadística de que el conjunto de datos completo existe.

Explicación del Muestreo de Disponibilidad de Datos: Cómo verifican los nodos ligeros sin descargar

En su núcleo, el DAS es un mecanismo de verificación probabilística. Así es como funciona:

Muestreo aleatorio y generación de confianza

Los nodos ligeros no descargan bloques enteros. En su lugar, realizan múltiples rondas de muestreo aleatorio de pequeñas porciones de los datos del bloque. Cada muestra exitosa aumenta la confianza en que el bloque completo está disponible.

La matemática es elegante: si un validador malicioso retiene incluso un pequeño porcentaje de los datos del bloque, los nodos ligeros honestos detectarán la falta de disponibilidad con una alta probabilidad tras solo unas pocas rondas de muestreo. Esto crea un modelo de seguridad donde incluso los dispositivos con recursos limitados pueden participar en la verificación de la disponibilidad de datos.

Específicamente, cada nodo ligero elige aleatoriamente un conjunto de coordenadas únicas en una matriz de datos extendida y solicita a los nodos puente las participaciones de datos correspondientes junto con pruebas de Merkle. Si el nodo ligero recibe respuestas válidas para cada consulta, la probabilidad estadística garantiza que los datos de todo el bloque están disponibles.

Codificación Reed-Solomon 2D: El fundamento matemático

Celestia emplea un esquema de codificación Reed-Solomon bidimensional para que el muestreo sea tanto eficiente como resistente al fraude. Aquí está el flujo técnico:

  1. Los datos del bloque se dividen en fragmentos de k × k, formando un cuadrado de datos.
  2. La codificación de borrado Reed-Solomon extiende esto a una matriz de 2k × 2k (añadiendo redundancia).
  3. Se calculan las raíces de Merkle para cada fila y columna de la matriz extendida.
  4. La raíz de Merkle de estas raíces se convierte en el compromiso de datos del bloque en la cabecera del bloque.

Este enfoque tiene una propiedad crítica: si falta cualquier parte de la matriz extendida, la codificación se rompe y los nodos ligeros detectarán inconsistencias al verificar las pruebas de Merkle. Un atacante no puede retener datos selectivamente sin ser capturado.

Namespaced Merkle Trees: Aislamiento de datos específico para rollups

Aquí es donde la arquitectura de Celestia brilla para entornos de múltiples rollups: Namespaced Merkle Trees (NMTs).

Un árbol de Merkle estándar agrupa los datos de forma arbitraria. Un NMT, sin embargo, etiqueta cada nodo con los identificadores de espacio de nombres mínimos y máximos de sus hijos, y ordena las hojas por espacio de nombres. Esto permite a los rollups:

  • Descargar solo sus propios datos de la capa de DA.
  • Demostrar la integridad de los datos de su espacio de nombres con una prueba de Merkle.
  • Ignorar por completo los datos irrelevantes de otros rollups.

Para un operador de rollup, esto significa que no está pagando costes de ancho de banda para descargar datos de cadenas competidoras. Usted obtiene exactamente lo que necesita, lo verifica con pruebas criptográficas y continúa. Esta es una ganancia de eficiencia masiva en comparación con las cadenas monolíticas donde todos los participantes deben procesar todos los datos.

La actualización Matcha: Escalando a bloques de 128 MB

En 2025, Celestia activó la actualización Matcha, un momento decisivo para la disponibilidad de datos modular. Esto es lo que cambió:

Expansión del Tamaño de Bloque

Matcha aumenta el tamaño máximo de bloque de 8 MB a 128 MB — un aumento de capacidad de 16x. Esto se traduce en:

  • Tamaño del cuadrado de datos: 128 → 512
  • Tamaño máximo de transacción: 2 MB → 8 MB
  • Rendimiento sostenido: 21.33 MB / s en testnet (abril de 2025)

Para poner esto en perspectiva, el objetivo de recuento de blobs de Ethereum es de 6 por bloque (aproximadamente 0.75 MB), ampliable a 9 blobs. Los bloques de 128 MB de Celestia superan esta capacidad en más de 100 veces.

Propagación de Bloques de Alto Rendimiento

La limitación no era solo el tamaño del bloque — era la velocidad de propagación de los bloques. Matcha introduce un nuevo mecanismo de propagación (CIP-38) que difunde de forma segura bloques de 128 MB a través de la red sin causar la desincronización de los validadores.

En la testnet, la red mantuvo tiempos de bloque de 6 segundos con bloques de 128 MB, logrando un rendimiento de 21.33 MB / s. Esto representa 16 veces la capacidad actual de la mainnet.

Reducción de Costes de Almacenamiento

Uno de los cambios económicos más pasados por alto: Matcha redujo la ventana mínima de poda de datos de 30 días a 7 días + 1 hora (CIP-34).

Para los nodos bridge, esto reduce los requisitos de almacenamiento de 30 TB a 7 TB con los niveles de rendimiento proyectados. Los menores costes operativos para los proveedores de infraestructura se traducen en una disponibilidad de datos más barata para los rollups.

Renovación de la Economía del Token

Matcha también mejoró la economía del token TIA:

  • Recorte de inflación: Del 5 % al 2.5 % anual
  • Aumento de la comisión del validador: El máximo se elevó del 10 % al 20 %
  • Mejora de las propiedades de colateral: Haciendo que TIA sea más adecuado para casos de uso DeFi

En conjunto, estos cambios posicionan a Celestia para la siguiente fase: escalar hacia un rendimiento de 1 GB / s y más allá.

Economía de los Rollups: Por qué el 50 % de cuota de mercado de DA es importante

A principios de 2026, Celestia posee aproximadamente el 50 % de la cuota de mercado de disponibilidad de datos, habiendo procesado más de 160 GB de datos de rollups. Este dominio refleja la adopción en el mundo real por parte de los desarrolladores de rollups que priorizan el coste y la escalabilidad.

Comparación de Costes: Celestia frente a los Blobs de Ethereum

El modelo de tarifas de Celestia es sencillo: los rollups pagan por blob en función del tamaño y los precios actuales del gas. A diferencia de las capas de ejecución donde domina la computación, la disponibilidad de datos trata fundamentalmente sobre el ancho de banda y el almacenamiento — recursos que escalan de forma más predecible con las mejoras de hardware.

Para los operadores de rollups, el cálculo es convincente:

  • Publicación en Ethereum L1: En momentos de máxima demanda, el envío de lotes (batches) puede costar entre 1,000 ymaˊsde10,000y más de 10,000 en gas
  • Celestia DA: Costes inferiores a un dólar por lote para datos equivalentes

Esta reducción de costes de más de 100 veces es la razón por la que los rollups están migrando a soluciones de DA modular. Una disponibilidad de datos más barata se traduce directamente en tarifas de transacción más bajas para los usuarios finales.

La Estructura de Incentivos de los Rollups

El modelo económico de Celestia alinea los incentivos:

  1. Los Rollups pagan por el almacenamiento de blobs proporcionalmente al tamaño de los datos
  2. Los Validadores ganan tarifas por asegurar la capa de DA
  3. Los Nodos bridge sirven datos a los nodos ligeros y ganan tarifas por servicio
  4. Los Nodos ligeros (light nodes) muestrean datos de forma gratuita, contribuyendo a la seguridad

Esto crea un volante de inercia (flywheel): a medida que más rollups adoptan Celestia, aumentan los ingresos de los validadores, atrayendo a más stakers, lo que fortalece la seguridad, lo que a su vez atrae a más rollups.

La Competencia: EigenDA, Avail y los Blobs de Ethereum

La cuota de mercado del 50 % de Celestia está bajo asedio. Tres competidores principales están escalando agresivamente:

EigenDA: Restaking Nativo de Ethereum

EigenDA aprovecha la infraestructura de restaking de EigenLayer para ofrecer disponibilidad de datos de alto rendimiento para los rollups de Ethereum. Ventajas clave:

  • Seguridad económica: Asegurada por ETH re-staked (actualmente el 93.9 % del mercado de restaking)
  • Integración estrecha con Ethereum: Compatibilidad nativa con el mercado de blobs de Ethereum
  • Mayores promesas de rendimiento: Aunque las versiones anteriores carecían de seguridad económica activa

Los críticos señalan que la dependencia de EigenDA en el restaking introduce un riesgo de cascada: si un AVS experimenta un slashing, podría propagarse a los poseedores de stETH de Lido y desestabilizar el mercado de LST en general.

Avail: DA Universal para Todas las Cadenas

A diferencia del enfoque de Celestia en Cosmos y la orientación a Ethereum de EigenDA, Avail se posiciona como una capa de DA universal compatible con cualquier arquitectura de blockchain:

  • Soporte para modelos UTXO, de Cuentas y de Objetos: Funciona con L2 de Bitcoin, cadenas EVM y sistemas basados en Move
  • Diseño modular: Separa completamente la DA del consenso
  • Visión entre ecosistemas: Aspira a servir como la capa de DA neutral para todas las blockchains

¿El desafío de Avail? Es el competidor más reciente, con un retraso en las integraciones de rollups en vivo en comparación con Celestia y EigenDA.

Blobs Nativos de Ethereum: EIP-4844 y más allá

La EIP-4844 (actualización Dencun) de Ethereum introdujo transacciones que transportan blobs, ofreciendo a los rollups una alternativa de publicación de datos más barata que calldata. Capacidad actual:

  • Objetivo: 6 blobs por bloque (~ 0.75 MB)
  • Máximo: 9 blobs por bloque (~ 1.125 MB)
  • Expansión futura: Actualizaciones de PeerDAS y zkEVM con el objetivo de más de 10,000 TPS

Sin embargo, los blobs de Ethereum conllevan compromisos:

  • Ventana de retención corta: Los datos se eliminan después de ~ 18 días
  • Contención de recursos compartidos: Todos los rollups compiten por el mismo espacio de blobs
  • Limitación de escalabilidad: Incluso con PeerDAS, la capacidad de blobs alcanza su máximo muy por debajo de la hoja de ruta de Celestia

Para los rollups que priorizan la alineación con Ethereum, los blobs son atractivos. Para aquellos que necesitan un rendimiento masivo y retención de datos a largo plazo, Celestia sigue siendo la mejor opción.

Fibre Blockspace: La Visión de 1 Terabit

El 14 de enero de 2026, el cofundador de Celestia, Mustafa Al-Bassam, presentó Fibre Blockspace, un nuevo protocolo que apunta a 1 terabit por segundo de rendimiento con una latencia de milisegundos. Esto representa una mejora de 1.500x sobre los objetivos de la hoja de ruta original de hace apenas un año.

Detalles del Benchmark

El equipo logró el benchmark de 1 Tbps utilizando:

  • 498 nodos distribuidos en América del Norte
  • Instancias de GCP con 48 - 64 vCPUs y 90 - 128 GB de RAM cada una
  • Enlaces de red de 34 - 45 Gbps por instancia

Bajo estas condiciones controladas, el protocolo mantuvo un rendimiento de datos de 1 terabit por segundo, un salto asombroso en el rendimiento de la blockchain.

Codificación ZODA: 881x Más Rápida que KZG

En el núcleo de Fibre se encuentra ZODA, un novedoso protocolo de codificación que Celestia afirma que procesa datos 881x más rápido que las alternativas basadas en compromisos KZG utilizadas por EigenDA y los blobs de Ethereum.

Los compromisos KZG (compromisos polinómicos Kate-Zaverucha-Goldberg) son criptográficamente elegantes pero computacionalmente costosos. ZODA intercambia algunas propiedades criptográficas por ganancias masivas de velocidad, lo que hace que el rendimiento a escala de terabits sea alcanzable en hardware convencional.

La Visión: Cada Mercado se Traslada On-chain

La declaración de la hoja de ruta de Al-Bassam captura la ambición de Celestia:

"Si 10 KB / s permitieron los AMM, y 10 MB / s permitieron los libros de órdenes on-chain, entonces 1 Tbps es el salto que permite que cada mercado se traslade a la cadena".

La implicación: con suficiente ancho de banda de disponibilidad de datos, los mercados financieros actualmente dominados por exchanges centralizados — spot, derivados, opciones, mercados de predicción — podrían migrar a una infraestructura blockchain transparente y sin permisos.

Realidad: Benchmarks frente a Producción

Las condiciones de los benchmarks rara vez coinciden con el caos del mundo real. El resultado de 1 Tbps se logró en un entorno de testnet controlado con instancias en la nube de alto rendimiento. La verdadera prueba vendrá cuando:

  • Los rollups reales impulsen cargas de trabajo de producción
  • Las condiciones de la red varíen (picos de latencia, pérdida de paquetes, ancho de banda asimétrico)
  • Los validadores adversarios intenten ataques de retención de datos

El equipo de Celestia reconoce esto: Fibre se ejecuta de forma paralela a la capa DA de L1 existente, lo que ofrece a los usuarios la posibilidad de elegir entre una infraestructura probada en batalla y un rendimiento experimental de vanguardia.

Qué Significa Esto para los Desarrolladores de Rollups

Si estás construyendo un rollup, la arquitectura DAS de Celestia ofrece ventajas convincentes:

Cuándo Elegir Celestia

  • Aplicaciones de alto rendimiento: Juegos, redes sociales, micropagos
  • Casos de uso sensibles a los costos: Rollups que apuntan a tarifas de transacción de menos de un centavo
  • Flujos de trabajo intensivos en datos: Inferencia de IA, integraciones de almacenamiento descentralizado
  • Ecosistemas multi-rollup: Proyectos que lanzan múltiples rollups especializados

Cuándo Mantenerse con los Blobs de Ethereum

  • Alineación con Ethereum: Si tu rollup valora el consenso social y la seguridad de Ethereum
  • Arquitectura simplificada: Los blobs ofrecen una integración más estrecha con las herramientas de Ethereum
  • Menor complejidad: Menos infraestructura que gestionar (sin una capa DA separada)

Consideraciones de Integración

La capa DA de Celestia se integra con los principales frameworks de rollup:

  • Polygon CDK: Componente DA fácilmente conectable
  • OP Stack: Adaptadores DA personalizados disponibles
  • Arbitrum Orbit: Integraciones creadas por la comunidad
  • Rollkit: Soporte nativo de Celestia

Para los desarrolladores, adoptar Celestia a menudo significa intercambiar el módulo de disponibilidad de datos en su stack de rollup, con cambios mínimos en la lógica de ejecución o liquidación.

Las Guerras de Disponibilidad de Datos: Qué Viene Después

La tesis de la blockchain modular se está poniendo a prueba en tiempo real. La cuota de mercado del 50 % de Celestia, el impulso de restaking de EigenDA y el posicionamiento universal de Avail configuran una competencia a tres bandas por la preferencia de los rollups.

Tendencias Clave a Seguir

  1. Escalada del rendimiento: Celestia apunta a 1 GB / s → 1 Tbps; EigenDA y Avail responderán
  2. Modelos de seguridad económica: ¿Alcanzarán los riesgos del restaking a EigenDA? ¿Podrá escalar el conjunto de validadores de Celestia?
  3. Expansión de blobs de Ethereum: Las actualizaciones de PeerDAS y zkEVM podrían cambiar la dinámica de costos
  4. DA entre cadenas: La visión universal de Avail frente a las soluciones específicas de cada ecosistema

El Ángulo de BlockEden.xyz

Para los proveedores de infraestructura, dar soporte a múltiples capas DA se está convirtiendo en un requisito básico. Los desarrolladores de rollups necesitan un acceso RPC confiable no solo a Ethereum, sino también a Celestia, EigenDA y Avail.

BlockEden.xyz ofrece una infraestructura RPC de alto rendimiento para Celestia y más de 10 ecosistemas blockchain, lo que permite a los equipos de rollup construir sobre stacks modulares sin gestionar la infraestructura de nodos. Explore nuestras APIs de disponibilidad de datos para acelerar el despliegue de su rollup.

Conclusión: La Disponibilidad de Datos como el Nuevo Foso Competitivo

El Muestreo de Disponibilidad de Datos (DAS) de Celestia no es solo una mejora incremental; es un cambio de paradigma en cómo las blockchains verifican el estado. Al permitir que los nodos ligeros participen en la seguridad a través del muestreo probabilístico, Celestia democratiza la verificación de una manera que las cadenas monolíticas no pueden.

Los bloques de 128 MB de la actualización Matcha y la visión de 1 Tbps de Fibre representan puntos de inflexión para la economía de los rollups. Cuando los costos de disponibilidad de datos caen 100x, categorías de aplicaciones completamente nuevas se vuelven viables: trading de alta frecuencia on-chain, juegos multijugador en tiempo real, coordinación de agentes de IA a escala.

Pero la tecnología por sí sola no determina a los ganadores. Las guerras de DA se decidirán por tres factores:

  1. Adopción de rollups: ¿Qué cadenas se comprometen realmente con despliegues en producción?
  2. Sostenibilidad económica: ¿Pueden estos protocolos mantener costos bajos a medida que escala el uso?
  3. Resiliencia de seguridad: ¿Qué tan bien resisten los sistemas basados en muestreo a los ataques sofisticados?

La cuota de mercado del 50 % de Celestia y los 160 GB de datos de rollup procesados demuestran que el concepto funciona. Ahora la pregunta pasa de "¿puede escalar la DA modular?" a "¿qué capa DA dominará la economía de los rollups?".

Para los constructores que navegan por este panorama, el consejo es claro: abstraiga su capa DA. Diseñe rollups para intercambiar entre Celestia, EigenDA, blobs de Ethereum y Avail sin necesidad de rediseñar la arquitectura. Las guerras por la disponibilidad de datos no han hecho más que empezar, y puede que los ganadores no sean quienes esperamos.


Fuentes:

Compromisos de los Modelos de Consenso para la Interoperabilidad: PoW, PoS, DPoS y BFT en la Seguridad de Puentes Cross-Chain

· 14 min de lectura
Dora Noda
Software Engineer

Más de 2.3 mil millones de dólares fueron drenados de los puentes cross-chain solo en la primera mitad de 2025, superando ya el total de todo el año 2024. Mientras que gran parte de la conversación de la industria se centra en las auditorías de smart contracts y la gestión de claves multisig, una vulnerabilidad más silenciosa pero igualmente crítica a menudo no se examina: el desajuste entre cómo las diferentes blockchains alcanzan el consenso y cómo los puentes asumen que lo hacen.

Cada puente cross-chain realiza suposiciones implícitas sobre la finalidad. Cuando esas suposiciones chocan con el modelo de consenso real de una cadena de origen o destino, los atacantes encuentran ventanas para explotarlas. Comprender cómo difieren los mecanismos de consenso PoW, PoS, DPoS y BFT —y cómo esas diferencias se traducen en cascada en las opciones de diseño de puentes y la selección de protocolos de mensajería— es uno de los temas más importantes en la infraestructura Web3 actual.

Los mercados de datos se encuentran con el entrenamiento de IA: Cómo la blockchain resuelve la crisis de fijación de precios de datos de 23 mil millones de dólares

· 17 min de lectura
Dora Noda
Software Engineer

La industria de la IA se enfrenta a una paradoja: la producción mundial de datos se dispara de 33 zettabytes a 175 zettabytes para 2025, sin embargo, la calidad de los modelos de IA se estanca. El problema no es la escasez de datos, sino que los proveedores de datos no tienen forma de capturar el valor de sus contribuciones. Introduzca los mercados de datos basados en blockchain como Ocean Protocol, LazAI y ZENi, que están transformando los datos de entrenamiento de IA de un recurso gratuito a una clase de activos monetizables con un valor de $ 23,18 mil millones para 2034.

El problema de la fijación de precios de los datos de 23.000 millones de dólares

Los costes de entrenamiento de IA aumentaron un 89 % entre 2023 y 2025, y la adquisición y anotación de datos consumieron hasta el 80 % de los presupuestos de los proyectos de aprendizaje automático (machine learning). Sin embargo, los creadores de datos (individuos que generan consultas de búsqueda, interacciones en redes sociales y patrones de comportamiento) no reciben nada, mientras que los gigantes tecnológicos cosechan miles de millones en valor.

El mercado de conjuntos de datos de entrenamiento de IA revela esta desconexión. Valorado en $ 3,59 mil millones en 2025, se prevé que el mercado alcance los $ 23,18 mil millones para 2034 con una CAGR del 22,9 %. Otra previsión sitúa el año 2026 en $ 7,48 mil millones, alcanzando los $ 52,41 mil millones para 2035 con un crecimiento anual del 24,16 %.

Pero, ¿quién captura este valor? Actualmente, las plataformas centralizadas extraen beneficios mientras que los creadores de datos obtienen una compensación nula. El ruido en el etiquetado, las etiquetas inconsistentes y la falta de contexto elevan los costes; sin embargo, los colaboradores carecen de incentivos para mejorar la calidad. Las preocupaciones sobre la privacidad de los datos afectan al 28 % de las empresas, lo que limita la accesibilidad de los conjuntos de datos precisamente cuando la IA necesita entradas diversas y de alta calidad.

Ocean Protocol: Tokenización de la economía de datos de 100 millones de dólares

Ocean Protocol aborda la propiedad permitiendo a los proveedores de datos tokenizar conjuntos de datos y ponerlos a disposición para el entrenamiento de IA sin renunciar al control. Desde el lanzamiento de los Ocean Nodes en agosto de 2024, la red ha crecido hasta más de 1,4 millones de nodos en más de 70 países, ha incorporado más de 35.000 conjuntos de datos y ha facilitado más de $ 100 millones en transacciones de datos relacionadas con la IA.

La hoja de ruta del producto para 2025 incluye tres componentes críticos:

Inference Pipelines: permiten el entrenamiento y despliegue de modelos de IA de extremo a extremo directamente en la infraestructura de Ocean. Los proveedores de datos tokenizan conjuntos de datos propietarios, establecen precios y obtienen ingresos cada vez que un modelo de IA consume sus datos para entrenamiento o inferencia.

Ocean Enterprise Onboarding: traslada a las empresas del ecosistema de la fase piloto a la de producción. Ocean Enterprise v1, que se lanzará en el tercer trimestre de 2025, ofrece una plataforma de datos compatible y lista para producción dirigida a clientes institucionales que necesitan intercambios de datos auditables y que preserven la privacidad.

Node Analytics: introduce paneles de control para rastrear el rendimiento, el uso y el ROI. Socios como NetMind aportan 2.000 GPU mientras que Aethir ayuda a escalar los Ocean Nodes para soportar grandes cargas de trabajo de IA, creando una capa de cómputo descentralizada para el entrenamiento de IA.

El mecanismo de reparto de ingresos de Ocean funciona a través de contratos inteligentes: los proveedores de datos establecen los términos de acceso, los desarrolladores de IA pagan por uso y la blockchain distribuye automáticamente los pagos a todos los colaboradores. Esto transforma los datos de una venta única en un flujo de ingresos continuo vinculado al rendimiento del modelo.

LazAI: Datos de interacción de IA verificables en Metis

LazAI introduce un enfoque fundamentalmente diferente: monetizar los datos de interacción de IA, no solo conjuntos de datos estáticos. Cada conversación con los agentes insignia de LazAI (Lazbubu, SoulTarot) genera Data Anchoring Tokens (DATs), que funcionan como registros rastreables y verificables de los resultados generados por la IA.

La Alpha Mainnet se lanzó en diciembre de 2025 sobre una infraestructura de nivel empresarial utilizando el consenso QBFT y liquidación basada en $ METIS. Los DAT tokenizan y monetizan los conjuntos de datos y modelos de IA como activos verificables con propiedad transparente y atribución de ingresos.

¿Por qué es esto importante? El entrenamiento de IA tradicional utiliza conjuntos de datos estáticos congelados en el momento de la recolección. LazAI captura datos de interacción dinámicos (consultas de usuarios, respuestas de modelos, bucles de refinamiento), creando conjuntos de datos de entrenamiento que reflejan los patrones de uso del mundo real. Estos datos son exponencialmente más valiosos para el ajuste fino (fine-tuning) de los modelos porque contienen señales de retroalimentación humana integradas en el flujo de la conversación.

El sistema incluye tres innovaciones clave:

Proof-of-Stake Validator Staking asegura los pipelines de datos de IA. Los validadores realizan staking de tokens para verificar la integridad de los datos, ganando recompensas por una validación precisa y enfrentando penalizaciones por aprobar datos fraudulentos.

DAT Minting with Revenue Sharing permite a los usuarios que generan datos de interacción valiosos acuñar DAT que representan sus contribuciones. Cuando las empresas de IA compran estos conjuntos de datos para el entrenamiento de modelos, los ingresos fluyen automáticamente a todos los titulares de DAT en función de su contribución proporcional.

iDAO Governance establece colectivos de IA descentralizados donde los colaboradores de datos gobiernan colectivamente la curación de conjuntos de datos, las estrategias de precios y los estándares de calidad a través de votación on-chain.

La hoja de ruta para 2026 añade privacidad basada en ZK (los usuarios pueden monetizar los datos de interacción sin exponer información personal), mercados de computación descentralizada (el entrenamiento ocurre en infraestructura distribuida en lugar de nubes centralizadas) y evaluación de datos multimodales (interacciones de video, audio e imagen más allá del texto).

ZENi: La capa de datos de inteligencia para agentes de IA

ZENi opera en la intersección de la Web3 y la IA impulsando la "Economía InfoFi", una red descentralizada que une el comercio tradicional y el basado en blockchain a través de la inteligencia impulsada por IA. La empresa recaudó $ 1.5 millones en financiación semilla liderada por Waterdrip Capital y Mindfulness Capital.

En su núcleo se encuentra la Capa de Datos InfoFi, un motor de inteligencia conductual de alto rendimiento que procesa más de 1 millón de señales diarias a través de X / Twitter, Telegram, Discord y actividad on-chain. ZENi identifica patrones en el comportamiento de los usuarios, cambios en el sentimiento y compromiso de la comunidad, datos que son críticos para entrenar agentes de IA pero difíciles de recolectar a escala.

El sistema de la plataforma consta de tres partes:

Agente Analítico de Datos de IA: identifica audiencias de alta intención y clústeres de influencia mediante el análisis de grafos sociales, transacciones on-chain y métricas de compromiso. Esto crea conjuntos de datos conductuales que muestran no solo qué hacen los usuarios, sino por qué toman decisiones.

Agente AIGC (Contenido Generado por IA): diseña campañas personalizadas utilizando información de la capa de datos. Al comprender las preferencias de los usuarios y la dinámica de la comunidad, el agente genera contenido optimizado para segmentos de audiencia específicos.

Agente de Ejecución de IA: activa el alcance a través de la dApp ZENi, cerrando el ciclo desde la recolección de datos hasta la monetización. Los usuarios reciben una compensación cuando sus datos conductuales contribuyen a campañas exitosas.

ZENi ya presta servicios a socios en comercio electrónico, juegos y Web3, con 480,000 usuarios registrados y 80,000 usuarios activos diarios. El modelo de negocio monetiza la inteligencia conductual: las empresas pagan para acceder a los conjuntos de datos procesados por la IA de ZENi, y los ingresos fluyen hacia los usuarios cuyos datos impulsaron esa información.

La ventaja competitiva de la blockchain en los mercados de datos

¿Por qué es importante la blockchain para la monetización de datos? Tres capacidades técnicas hacen que los mercados de datos descentralizados sean superiores a las alternativas centralizadas:

Atribución granular de ingresos Los contratos inteligentes permiten un reparto de ingresos sofisticado en el que múltiples colaboradores de un modelo de IA reciben automáticamente una compensación proporcional basada en el uso. Un solo conjunto de datos de entrenamiento podría agregar entradas de 10,000 usuarios; la blockchain rastrea cada contribución y distribuye micropagos por inferencia de modelo.

Los sistemas tradicionales no pueden manejar esta complejidad. Los procesadores de pagos cobran tarifas fijas (2 - 3 %) no aptas para micropagos, y las plataformas centralizadas carecen de transparencia sobre quién contribuyó con qué. La blockchain resuelve ambos problemas: costes de transacción cercanos a cero mediante soluciones de Capa 2 y atribución inmutable mediante la procedencia on-chain.

Procedencia de datos verificable Los Tokens de Anclaje de Datos de LazAI demuestran el origen de los datos sin exponer el contenido subyacente. Las empresas de IA que entrenan modelos pueden verificar que están utilizando datos con licencia y de alta calidad, en lugar de contenido web extraído de legalidad cuestionable.

Esto aborda un riesgo crítico: las regulaciones de privacidad de datos impactan al 28 % de las empresas, lo que limita la accesibilidad de los conjuntos de datos. Los mercados de datos basados en blockchain implementan una verificación que preserva la privacidad, demostrando la calidad de los datos y las licencias sin revelar información personal.

Entrenamiento de IA descentralizado La red de nodos de Ocean Protocol demuestra cómo la infraestructura distribuida reduce los costes. En lugar de pagar a los proveedores de la nube entre 2y2 y 5 por hora de GPU, las redes descentralizadas emparejan la capacidad de cómputo no utilizada (PC de juegos, centros de datos con capacidad de sobra) con la demanda de entrenamiento de IA con una reducción de costes del 50 - 85 %.

La blockchain coordina esta complejidad a través de contratos inteligentes que rigen la asignación de tareas, la distribución de pagos y la verificación de calidad. Los colaboradores realizan staking de tokens para participar, ganando recompensas por un cómputo honesto y enfrentando penalizaciones de slashing por entregar resultados incorrectos.

El camino hacia los $ 52 mil millones: Fuerzas del mercado que impulsan la adopción

Tres tendencias convergentes aceleran el crecimiento del mercado de datos blockchain hacia la proyección de $ 52.41 mil millones para 2035:

Diversificación de modelos de IA La era de los modelos base masivos (GPT-4, Claude, Gemini) entrenados con todo el texto de internet está llegando a su fin. Los modelos especializados para atención médica, finanzas, servicios legales y aplicaciones verticales requieren conjuntos de datos específicos de dominio que las plataformas centralizadas no curan.

Los mercados de datos blockchain destacan en conjuntos de datos de nicho. Un proveedor de imágenes médicas puede tokenizar escaneos de radiología con anotaciones de diagnóstico, establecer términos de uso que requieran el consentimiento del paciente y obtener ingresos por cada modelo de IA entrenado con sus datos. Esto es imposible de implementar con plataformas centralizadas que carecen de control de acceso y atribución granulares.

Presión regulatoria Las regulaciones de privacidad de datos (GDPR, CCPA, Ley de Protección de Información Personal de China) exigen la recopilación de datos basada en el consentimiento. Los mercados basados en blockchain implementan el consentimiento como lógica programable: los usuarios firman permisos criptográficamente, solo se puede acceder a los datos bajo términos especificados y los contratos inteligentes imponen el cumplimiento automáticamente.

El enfoque de Ocean Enterprise v1 en el cumplimiento aborda esto directamente. Las instituciones financieras y los proveedores de atención médica necesitan un linaje de datos auditable que demuestre que cada conjunto de datos utilizado para el entrenamiento del modelo tenía la licencia adecuada. La blockchain proporciona pistas de auditoría inmutables que satisfacen los requisitos regulatorios.

Calidad sobre cantidad Investigaciones recientes muestran que la IA no necesita datos de entrenamiento infinitos cuando los sistemas se asemejan mejor a los cerebros biológicos. Esto traslada los incentivos de recolectar el máximo de datos a curar las entradas de mayor calidad.

Los mercados de datos descentralizados alinean los incentivos correctamente: los creadores de datos ganan más por contribuciones de alta calidad porque los modelos pagan precios premium por conjuntos de datos que mejoran el rendimiento. Los datos de interacción de LazAI capturan señales de retroalimentación humana (qué consultas se refinan, qué respuestas satisfacen a los usuarios) que los conjuntos de datos estáticos pasan por alto, lo que los hace intrínsecamente más valiosos por byte.

Desafíos: privacidad, fijación de precios y guerras de protocolos

A pesar del impulso, los mercados de datos en blockchain enfrentan desafíos estructurales:

Paradoja de la privacidad Entrenar la IA requiere transparencia de datos (los modelos necesitan acceso al contenido real), pero las regulaciones de privacidad exigen la minimización de datos. Las soluciones actuales, como el aprendizaje federado (entrenamiento con datos cifrados), aumentan los costos de 3 a 5 veces en comparación con el entrenamiento centralizado.

Las pruebas de conocimiento cero ofrecen un camino a seguir — demostrando la calidad de los datos sin exponer el contenido — , pero añaden una sobrecarga computacional. La hoja de ruta ZK de LazAI para 2026 aborda esto, aunque las implementaciones listas para producción aún están a 12 o 18 meses de distancia.

Descubrimiento de precios ¿Cuánto vale una interacción en las redes sociales? ¿Una imagen médica con anotaciones diagnósticas? Los mercados de blockchain carecen de mecanismos de fijación de precios establecidos para tipos de datos novedosos.

El enfoque de Ocean Protocol — permitir que los proveedores fijen los precios y que la dinámica del mercado determine el valor — funciona para conjuntos de datos mercantilizados, pero tiene dificultades con los datos propietarios únicos. Los mercados de predicción o la fijación de precios dinámica impulsada por IA podrían resolver esto, aunque ambos introducen dependencias de oráculos (fuentes de precios externas) que socavan la descentralización.

Fragmentación de la interoperabilidad Ocean Protocol se ejecuta en Ethereum, LazAI en Metis, ZENi se integra con múltiples cadenas. Los datos tokenizados en una plataforma no pueden transferirse fácilmente a otra, lo que fragmenta la liquidez.

Los puentes entre cadenas (cross-chain bridges) y los estándares universales de datos (como los identificadores descentralizados para conjuntos de datos) podrían resolver esto, pero el ecosistema aún se encuentra en una fase temprana. El mercado de IA en blockchain, valorado en 680,89 millones de dólares en 2025 y con una previsión de crecimiento hasta los 4.338 millones de dólares para 2034, sugiere que la consolidación en torno a los protocolos ganadores aún tardará años.

Qué significa esto para los desarrolladores

Para los equipos que crean aplicaciones de IA, los mercados de datos en blockchain ofrecen tres ventajas inmediatas:

Acceso a conjuntos de datos propietarios Los más de 35.000 conjuntos de datos de Ocean Protocol incluyen datos de entrenamiento propietarios que no están disponibles a través de los canales tradicionales. Imágenes médicas, transacciones financieras, análisis de comportamiento de aplicaciones Web3: conjuntos de datos especializados que las plataformas centralizadas no seleccionan.

Infraestructura lista para el cumplimiento normativo Las licencias integradas, la gestión del consentimiento y las pistas de auditoría de Ocean Enterprise v1 resuelven los dolores de cabeza regulatorios. En lugar de crear sistemas de gobernanza de datos personalizados, los desarrolladores heredan el cumplimiento por diseño a través de contratos inteligentes que hacen cumplir los términos de uso de los datos.

Reducción de costos Las redes de computación descentralizadas reducen los precios de los proveedores de la nube en un 50 - 85 % para las cargas de trabajo de entrenamiento por lotes. La asociación de Ocean con NetMind (2.000 GPU) y Aethir demuestra cómo los mercados de GPU tokenizados igualan la oferta con la demanda a un costo menor que AWS / GCP / Azure.

BlockEden.xyz proporciona infraestructura RPC de nivel empresarial para aplicaciones de IA basadas en blockchain. Ya sea que esté construyendo sobre Ethereum (Ocean Protocol), Metis (LazAI) o plataformas multi-cadena, nuestros servicios de nodos confiables garantizan que sus tuberías de datos de IA permanezcan en línea y operativas. Explore nuestro marketplace de APIs para conectar sus sistemas de IA con redes blockchain diseñadas para escalar.

El punto de inflexión de 2026

Tres catalizadores posicionan a 2026 como el año de inflexión para los mercados de datos en blockchain:

Lanzamiento de producción de Ocean Enterprise v1 (Q3 2025) Se pone en marcha el primer mercado de datos compatible y de grado institucional. Si Ocean captura incluso el 5 % del mercado de conjuntos de datos de entrenamiento de IA de 7.480 millones de dólares en 2026, eso representaría 374 millones de dólares en transacciones de datos fluyendo a través de infraestructura basada en blockchain.

Implementación de privacidad ZK de LazAI (2026) Las pruebas de conocimiento cero permiten a los usuarios monetizar los datos de interacción sin comprometer la privacidad. Esto desbloquea la adopción a escala de consumo: cientos de millones de usuarios de redes sociales, consultas en motores de búsqueda y sesiones de comercio electrónico que se vuelven monetizables a través de los DAT.

Integración del aprendizaje federado El aprendizaje federado de IA permite el entrenamiento de modelos sin centralizar los datos. El blockchain añade atribución de valor: en lugar de que Google entrene modelos con los datos de los usuarios de Android sin compensación, los sistemas federados que se ejecutan en blockchain distribuyen los ingresos a todos los contribuyentes de datos.

La convergencia significa que el entrenamiento de la IA pasa de "recopilar todos los datos, entrenar centralmente, no pagar nada" a "entrenar sobre datos distribuidos, compensar a los contribuyentes, verificar la procedencia". El blockchain no solo facilita esta transición; es la única pila tecnológica capaz de coordinar a millones de proveedores de datos con distribución automática de ingresos y verificación criptográfica.

Conclusión: los datos se vuelven programables

El crecimiento del mercado de datos de entrenamiento de IA de 3.590 millones de dólares en 2025 a entre 23.000 y 52.000 millones de dólares para 2034 representa algo más que una expansión del mercado. Es un cambio fundamental en la forma en que valoramos la información.

Ocean Protocol demuestra que los datos pueden ser tokenizados, tasados y negociados como activos financieros preservando el control del proveedor. LazAI demuestra que los datos de interacción de la IA — anteriormente descartados como efímeros — se convierten en valiosos insumos de entrenamiento cuando se capturan y verifican adecuadamente. ZENi muestra que la inteligencia del comportamiento puede ser extraída, procesada por la IA y monetizada a través de mercados descentralizados.

Juntas, estas plataformas transforman los datos de materia prima extraída por gigantes tecnológicos en una clase de activo programable donde los creadores capturan el valor. La explosión global de datos de 33 a 175 zettabytes solo importa si la calidad supera a la cantidad, y los mercados basados en blockchain alinean los incentivos para recompensar las contribuciones de calidad.

Cuando los creadores de datos obtienen ingresos proporcionales a sus contribuciones, cuando las empresas de IA pagan precios justos por insumos de calidad y cuando los contratos inteligentes automatizan la atribución entre millones de participantes, no solo solucionamos el problema de la fijación de precios de los datos. Construimos una economía donde la información tiene un valor intrínseco, la procedencia es verificable y los contribuyentes finalmente capturan la riqueza que generan sus datos.

Eso no es una tendencia del mercado. Es un cambio de paradigma — y ya está activo on-chain.