Saltar al contenido principal

72 publicaciones etiquetados con "Computación Descentralizada"

Computación y nube descentralizada

Ver Todas las Etiquetas

Los sistemas de IA multiagente entran en funcionamiento: El amanecer de la coordinación en red

· 12 min de lectura
Dora Noda
Software Engineer

Cuando Coinbase anunció los Wallets Agénticos el 11 de febrero de 2026, no fue solo el lanzamiento de otro producto. Marcó un punto de inflexión: los agentes de IA han evolucionado de herramientas aisladas que ejecutan tareas únicas a actores económicos autónomos capaces de coordinar flujos de trabajo complejos, gestionar criptoactivos y realizar transacciones sin intervención humana. La era de los sistemas de IA multi-agente ha llegado.

De LLMs Monolíticos a Ecosistemas de Agentes Colaborativos

Durante años, el desarrollo de la IA se centró en construir modelos de lenguaje más grandes y capaces. GPT-4, Claude y sus sucesores demostraron capacidades notables, pero operaban de forma aislada: herramientas potentes esperando la dirección humana. Ese paradigma se está desmoronando.

En 2026, el consenso ha cambiado: el futuro no es una superinteligencia monolítica, sino más bien ecosistemas en red de agentes de IA especializados que colaboran para resolver problemas complejos. Según Gartner, el 40 % de las aplicaciones empresariales contarán con agentes de IA para tareas específicas a finales de año, un salto dramático desde menos del 5 % en 2025.

Piénselo como la transición de los ordenadores mainframe a los microservicios en la nube. En lugar de un modelo masivo que intenta hacerlo todo, los sistemas de IA modernos despliegan docenas de agentes especializados — cada uno optimizado para funciones específicas como facturación, logística, servicio al cliente o gestión de riesgos — trabajando juntos a través de protocolos estandarizados.

Los Protocolos que Impulsan la Coordinación de Agentes

Esta transformación no ocurrió por accidente. En 2025 surgieron dos estándares de infraestructura críticos que ahora permiten sistemas multi-agente a escala de producción en 2026: el Model Context Protocol (MCP) y el Agent-to-Agent Protocol (A2A).

Model Context Protocol (MCP): Anunciado por Anthropic en noviembre de 2024, el MCP funciona como un puerto USB-C para las aplicaciones de IA. Así como el USB-C estandarizó la conectividad de los dispositivos, el MCP estandariza cómo los agentes de IA se conectan a los sistemas de datos, repositorios de contenido, herramientas de negocio y entornos de desarrollo. El protocolo reutiliza patrones de mensajería probados del Language Server Protocol (LSP) y se ejecuta sobre JSON-RPC 2.0.

Para principios de 2026, los principales actores, incluidos Anthropic, OpenAI y Google, han construido sobre MCP, estableciéndolo como el estándar de interoperabilidad de facto. MCP maneja la comunicación contextual, la gestión de la memoria y la planificación de tareas, permitiendo que los agentes mantengan un estado coherente a través de flujos de trabajo complejos.

Agent-to-Agent Protocol (A2A): Introducido por Google en abril de 2025 con el respaldo de más de 50 socios tecnológicos — incluyendo Atlassian, Box, PayPal, Salesforce, SAP y ServiceNow — A2A permite la comunicación directa entre agentes. Mientras que frameworks como crewAI y LangChain automatizan flujos de trabajo multi-agente dentro de sus propios ecosistemas, A2A actúa como una capa de mensajería universal que permite que agentes de diferentes proveedores y plataformas se coordinen a la perfección.

El consenso sobre el stack de protocolos emergentes para 2026 es claro: MCP para la integración de herramientas, A2A para la comunicación entre agentes y AP2 (Agent Payments Protocol) para el comercio. Juntos, estos estándares permiten la "economía invisible": sistemas autónomos que operan en segundo plano, coordinando acciones y liquidando transacciones sin intervención humana.

La Adopción Empresarial en el Mundo Real se Acelera

La orquestación multi-agente ha pasado de ser una prueba de concepto a una realidad. En el sector sanitario, los agentes de IA ahora orquestan la admisión de pacientes, el procesamiento de reclamaciones y las auditorías de cumplimiento, mejorando tanto la interacción con el paciente como la eficiencia de los pagadores. En la gestión de la cadena de suministro, múltiples agentes colaboran a través de disciplinas y geografías, redirigiendo colectivamente los envíos, señalando riesgos y ajustando las expectativas de entrega en tiempo real.

El proveedor de servicios de TI Getronics aprovechó los sistemas multi-agente para automatizar más de 1 millón de tickets de TI anualmente mediante la integración en plataformas como ServiceNow. En el comercio minorista, los sistemas agénticos permiten promociones hiperpersonalizadas y estrategias de precios impulsadas por la demanda que se adaptan continuamente.

Para 2028, el 38 % de las organizaciones esperan que los agentes de IA sean miembros de pleno derecho dentro de los equipos humanos, según encuestas empresariales recientes. El modelo de equipo mixto — donde los agentes de IA proponen y ejecutan mientras los humanos supervisan y gobiernan — se está convirtiendo en el nuevo estándar operativo.

El Puente de Blockchain: Actores Económicos Autónomos

Quizás el desarrollo más transformador sea la convergencia de la IA multi-agente y la tecnología blockchain, creando una nueva capa de comercio digital donde los agentes funcionan como participantes económicos independientes.

Los Wallets Agénticos de Coinbase proporcionan una infraestructura cripto diseñada específicamente para agentes autónomos, permitiéndoles autogestionar activos digitales, ejecutar operaciones y liquidar pagos utilizando rieles de stablecoins. La integración de las capacidades de inferencia de IA de Solana directamente en las criptobilleteras representa otro hito importante.

El impacto es medible. Los agentes de IA podrían impulsar entre el 15 % y el 20 % del volumen de las finanzas descentralizadas (DeFi) para finales de 2025, y los datos de principios de 2026 sugieren que están en camino de superar esa proyección. En la plataforma de mercados de predicción Polymarket, los agentes de IA ya contribuyen con más del 30 % de la actividad comercial.

El estándar ERC-8004 de Ethereum — titulado "Trustless Agents" — aborda los desafíos de confianza inherentes a los sistemas autónomos a través de registros on-chain, identificaciones portátiles para agentes basadas en NFTs, mecanismos de retroalimentación verificables para construir puntuaciones de confianza y pruebas integrables para los resultados. Los esfuerzos de colaboración entre Coinbase, la Fundación Ethereum, MetaMask y otras organizaciones líderes produjeron una extensión A2A x402 para pagos cripto basados en agentes, que ya está en producción.

La oportunidad de mercado de $ 50 mil millones

Las apuestas financieras son enormes. El mercado global de agentes de IA alcanzó los 5,1milmillonesen2024yseproyectaquellegaraˊalos5,1 mil millones en 2024 y se proyecta que llegará a los 47,1 mil millones para 2030. Específicamente dentro del sector cripto, los tokens de agentes de IA han experimentado un crecimiento explosivo, con el sector expandiéndose de 23milmillonesamaˊsde23 mil millones a más de 50 mil millones en menos de un año.

Los proyectos líderes incluyen NEAR Protocol, fortalecido por su alta capacidad de procesamiento (throughput) y finalidad rápida que atrae aplicaciones basadas en agentes de IA; Bittensor (TAO), que impulsa el aprendizaje automático descentralizado; Fetch.ai (FET), que permite agentes económicos autónomos; y Virtuals Protocol (VIRTUAL), que vio un aumento de precio del 850 % a finales de 2024, alcanzando una capitalización de mercado cercana a los $ 800 millones.

El capital de riesgo está fluyendo hacia la infraestructura de comercio entre agentes (A2A). Se prevé que el mercado de blockchain en su conjunto alcance los $ 162,84 mil millones para 2027, siendo los sistemas de IA multi-agente un motor de crecimiento significativo.

Emergen dos modelos arquitectónicos

Los sistemas multi-agente suelen seguir uno de dos patrones de diseño, cada uno con distintas ventajas y desventajas:

Arquitectura jerárquica: Un agente líder orquesta sub-agentes especializados, optimizando la colaboración y la coordinación. Este modelo introduce puntos centrales de control y supervisión, lo que lo hace atractivo para empresas que requieren una gobernanza y rendición de cuentas claras. Los supervisores humanos interactúan principalmente con el agente líder, que delega tareas a los especialistas.

Arquitectura entre pares (Peer-to-Peer): Los agentes colaboran directamente sin un controlador central, lo que requiere protocolos de comunicación robustos pero ofrece mayor resiliencia y descentralización. Este modelo destaca en escenarios donde ningún agente individual tiene visibilidad o autoridad completa, como en las cadenas de suministro interorganizacionales o los sistemas financieros descentralizados.

La elección entre estos modelos depende del caso de uso. El sector de TI empresarial y la atención médica tienden hacia sistemas jerárquicos por cumplimiento y auditabilidad, mientras que DeFi y el comercio en blockchain favorecen los modelos peer-to-peer alineados con los principios de descentralización.

La brecha de confianza y la supervisión humana

A pesar del rápido progreso técnico, la confianza sigue siendo el cuello de botella crítico. En 2024, el 43 % de los ejecutivos expresó confianza en los agentes de IA totalmente autónomos. Para 2025, esa cifra cayó al 22 %, con un 60 % que no confía plenamente en que los agentes gestionen tareas sin supervisión.

Esto no es una regresión, sino una maduración. A medida que las organizaciones despliegan agentes en producción, se han encontrado con casos de borde, fallas de coordinación y algún error espectacular ocasional. La industria está respondiendo no reduciendo la autonomía, sino rediseñando la supervisión.

El modelo emergente trata a los agentes de IA como ejecutores propuestos en lugar de tomadores de decisiones. Los agentes analizas datos, recomiendan acciones y ejecutan flujos de trabajo pre-aprobados, mientras que los humanos establecen salvaguardas (guardrails), auditan los resultados e intervienen cuando surgen excepciones. La supervisión se está convirtiendo en un principio de diseño, no en una ocurrencia de último momento.

Según Forrester, el 75 % de los líderes en experiencia del cliente ven ahora a la IA como un amplificador humano en lugar de un reemplazo, y el 61 % de las organizaciones cree que la IA agéntica tiene un potencial transformador cuando se gobierna adecuadamente.

Mirando hacia el futuro: Coordinación multimodal y capacidades ampliadas

La hoja de ruta de 2026 para los sistemas multi-agente incluye expansiones significativas de capacidades. El MCP está evolucionando para admitir imágenes, video, audio y otros tipos de medios, lo que significa que los agentes no solo leerán y escribirán, sino que verán, escucharán y, potencialmente, observarán.

A finales de 2025 se observó una mayor integración de la tecnología blockchain para firmas, procedencia y verificación, proporcionando registros inmutables de las acciones de los agentes, lo cual es crucial para el cumplimiento y la rendición de cuentas. Esta tendencia se está acelerando en 2026 a medida que las empresas exigen una IA auditable.

La orquestación multi-agente está pasando de ser experimental a ser una infraestructura esencial. Para finales de 2026, será la columna vertebral de cómo operan las empresas líderes, integrada no como una característica, sino como una capa fundacional de las operaciones comerciales.

La capa de infraestructura que lo cambia todo

Los sistemas de IA multi-agente representan más que una mejora incremental: son un cambio de paradigma en cómo construimos sistemas inteligentes. Al estandarizar la comunicación a través de MCP y A2A, integrarse con blockchain para la confianza y los pagos, e incorporar la supervisión humana como un principio de diseño central, la industria está creando la infraestructura para una economía autónoma.

Los agentes de IA ya no son herramientas pasivas que esperan comandos humanos. Son participantes activos en el comercio digital, gestionando activos, coordinando flujos de trabajo y ejecutando procesos complejos de múltiples pasos. La pregunta ya no es si los sistemas multi-agente transformarán las operaciones empresariales y las finanzas digitales, sino qué tan rápido pueden las organizaciones adaptarse a la nueva realidad.

Para los desarrolladores que construyen sobre infraestructura blockchain, la convergencia de la IA multi-agente y los rieles criptográficos crea oportunidades sin precedentes. Los agentes necesitan una infraestructura blockchain de alto rendimiento y confiable para operar a escala.

BlockEden.xyz proporciona infraestructura de API de grado empresarial para redes blockchain que impulsan aplicaciones de agentes de IA. Explore nuestros servicios para construir sistemas autónomos sobre cimientos diseñados para el futuro multi-agente.


Fuentes

Gensyn's Judge: Cómo la reproducibilidad exacta a nivel de bits está terminando con la era de las APIs de IA opacas

· 23 min de lectura
Dora Noda
Software Engineer

Cada vez que consultas a ChatGPT, Claude o Gemini, estás confiando en una caja negra invisible. ¿La versión del modelo? Desconocida. ¿Los pesos exactos? Propietarios. ¿Si el resultado fue generado por el modelo que crees que estás usando, o por una variante actualizada silenciosamente? Imposible de verificar. Para los usuarios casuales que preguntan por recetas o curiosidades, esta opacidad es simplemente molesta. Para la toma de decisiones de IA de alto riesgo —algoritmos de trading financiero, diagnósticos médicos, análisis de contratos legales— es una crisis fundamental de confianza.

Judge de Gensyn, lanzado a finales de 2025 y entrando en producción en 2026, ofrece una alternativa radical: evaluación de IA criptográficamente verificable donde cada inferencia es reproducible hasta el último bit. En lugar de confiar en que OpenAI o Anthropic sirvan el modelo correcto, Judge permite que cualquiera verifique que un modelo de IA específico y acordado previamente se ejecutó de forma determinista contra entradas del mundo real, con pruebas criptográficas que garantizan que los resultados no pueden ser falsificados.

El avance técnico es Verde, el sistema de verificación de Gensyn que elimina el no determinismo de punto flotante, la pesadilla de la reproducibilidad de la IA. Al imponer una computación exacta a nivel de bits en todos los dispositivos, Verde asegura que ejecutar el mismo modelo en una NVIDIA A100 en Londres y en una AMD MI250 en Tokio produzca resultados idénticos, demostrables on-chain. Esto desbloquea la IA verificable para las finanzas descentralizadas, los agentes autónomos y cualquier aplicación donde la transparencia no sea opcional, sino existencial.

El problema de las API opacas: Confianza sin verificación

La industria de la IA funciona con API. Los desarrolladores integran GPT-4 de OpenAI, Claude de Anthropic o Gemini de Google a través de endpoints REST, enviando prompts y recibiendo respuestas. Pero estas API son fundamentalmente opacas:

Incertidumbre de versión: Cuando llamas a gpt-4, ¿qué versión exacta estoy recibiendo? ¿GPT-4-0314? ¿GPT-4-0613? ¿Una variante actualizada silenciosamente? Los proveedores despliegan parches con frecuencia sin anuncios públicos, cambiando el comportamiento del modelo de la noche a la mañana.

Sin rastro de auditoría: Las respuestas de la API no incluyen ninguna prueba criptográfica de qué modelo las generó. Si OpenAI sirve una variante censurada o sesgada para geografías o clientes específicos, los usuarios no tienen forma de detectarlo.

Degradación silenciosa: Los proveedores pueden "lobotomizar" los modelos para reducir costos, degradando la calidad de la inferencia mientras mantienen el mismo contrato de API. Los usuarios informan que GPT-4 se vuelve "más tonto" con el tiempo, pero sin un control de versiones transparente, tales afirmaciones siguen siendo anecdóticas.

Resultados no deterministas: Incluso consultar el mismo modelo dos veces con entradas idénticas puede arrojar resultados diferentes debido a la configuración de temperatura, el procesamiento por lotes (batching) o los errores de redondeo de punto flotante a nivel de hardware. Esto hace que la auditoría sea imposible: ¿cómo se verifica la corrección cuando los resultados no son reproducibles?

Para aplicaciones casuales, estos problemas son inconvenientes. Para la toma de decisiones de alto riesgo, son bloqueadores. Considera lo siguiente:

Trading algorítmico: Un fondo de cobertura despliega un agente de IA que gestiona 50 millones de dólares en posiciones DeFi. El agente confía en GPT-4 para analizar el sentimiento del mercado a partir de publicaciones en X. Si el modelo se actualiza silenciosamente a mitad de la sesión de trading, las puntuaciones de sentimiento cambian de forma impredecible, provocando liquidaciones no deseadas. El fondo no tiene pruebas de que el modelo se comportó mal; los registros de OpenAI no son auditables públicamente.

Diagnósticos médicos: Un hospital utiliza un modelo de IA para recomendar tratamientos contra el cáncer. Las regulaciones exigen que los médicos documenten los procesos de toma de decisiones. Pero si la versión del modelo de IA no se puede verificar, el rastro de auditoría está incompleto. Una demanda por negligencia médica podría depender de demostrar qué modelo generó la recomendación, algo imposible con las API opacas.

Gobernanza de DAO: Una organización descentralizada utiliza un agente de IA para votar sobre propuestas de tesorería. Los miembros de la comunidad exigen pruebas de que el agente utilizó el modelo aprobado, no una variante manipulada que favorezca resultados específicos. Sin verificación criptográfica, el voto carece de legitimidad.

Esta es la brecha de confianza a la que se dirige Gensyn: a medida que la IA se integra en la toma de decisiones críticas, la incapacidad de verificar la autenticidad y el comportamiento del modelo se convierte en un "bloqueador fundamental para desplegar IA agéntica en entornos de alto riesgo".

Judge: El protocolo de evaluación de IA verificable

Judge resuelve el problema de la opacidad mediante la ejecución de modelos de IA deterministas y acordados previamente contra entradas del mundo real, y consignando los resultados en una blockchain donde cualquiera puede desafiarlos. Así es como funciona el protocolo:

1. Compromiso del modelo: Los participantes se ponen de acuerdo sobre un modelo de IA: su arquitectura, pesos y configuración de inferencia. Este modelo se hashea y se registra on-chain. El hash sirve como una huella digital criptográfica: cualquier desviación del modelo acordado produce un hash diferente.

2. Ejecución determinista: Judge ejecuta el modelo utilizando el Runtime Reproducible de Gensyn, que garantiza una reproducibilidad exacta a nivel de bits en todos los dispositivos. Esto elimina el no determinismo de punto flotante, una innovación crítica que exploraremos en breve.

3. Compromiso público: Después de la inferencia, Judge publica el resultado (o un hash del mismo) on-chain. Esto crea un registro permanente y auditable de lo que produjo el modelo para una entrada determinada.

4. Período de desafío: Cualquiera puede desafiar el resultado volviendo a ejecutar el modelo de forma independiente. Si su resultado difiere, presentan una prueba de fraude. El mecanismo de delegación arbitrada de Verde señala el operador exacto en el grafo computacional donde los resultados divergen.

5. Slashing por fraude: Si un desafiante demuestra que Judge produjo resultados incorrectos, el ejecutor original es penalizado (slashing de tokens en staking). Esto alinea los incentivos económicos: los ejecutores maximizan las ganancias ejecutando los modelos correctamente.

Judge transforma la evaluación de la IA de "confiar en el proveedor de la API" a "verificar la prueba criptográfica". El comportamiento del modelo es público, auditable y exigible; ya no está oculto detrás de endpoints propietarios.

Verde: Eliminando el no determinismo de punto flotante

El principal desafío técnico en la IA verificable es el determinismo. Las redes neuronales realizan miles de millones de operaciones de punto flotante durante la inferencia. En las GPU modernas, estas operaciones no son perfectamente reproducibles:

No asociatividad: La suma de punto flotante no es asociativa. (a + b) + c puede arrojar un resultado diferente al de a + (b + c) debido a los errores de redondeo. Las GPU paralizan las sumas en miles de núcleos, y el orden en que se acumulan las sumas parciales varía según el hardware y la versión del controlador.

Variabilidad en la programación de kernels: Los kernels de GPU (como la multiplicación de matrices o la atención) pueden ejecutarse en diferentes órdenes según la carga de trabajo, las optimizaciones del controlador o la arquitectura del hardware. Incluso ejecutar el mismo modelo en la misma GPU dos veces puede dar resultados diferentes si la programación del kernel difiere.

Dependencia del tamaño de lote: La investigación ha descubierto que la inferencia de LLM no es determinista a nivel de sistema porque el resultado depende del tamaño del lote (batch size). Muchos kernels (matmul, RMSNorm, atención) cambian la salida numérica según cuántas muestras se procesen juntas; una inferencia con un tamaño de lote de 1 produce valores diferentes a los de la misma entrada en un lote de 8.

Estos problemas hacen que los modelos de IA estándar no sean adecuados para la verificación en blockchain. Si dos validadores vuelven a ejecutar la misma inferencia y obtienen resultados ligeramente diferentes, ¿quién tiene razón? Sin determinismo, el consenso es imposible.

Verde soluciona esto con RepOps (Reproducible Operators), una biblioteca que elimina el no determinismo del hardware al controlar el orden de las operaciones de punto flotante en todos los dispositivos. Así es como funciona:

Órdenes de reducción canónicos: RepOps impone un orden determinista para sumar resultados parciales en operaciones como la multiplicación de matrices. En lugar de dejar que el programador de la GPU decida, RepOps especifica explícitamente: "sumar la columna 0, luego la columna 1, luego la columna 2..." en todo el hardware. Esto asegura que (a + b) + c se compute siempre en la misma secuencia.

Kernels de CUDA personalizados: Gensyn desarrolló kernels optimizados que priorizan la reproducibilidad sobre la velocidad bruta. Las multiplicaciones de matrices de RepOps incurren en una sobrecarga de menos del 30% en comparación con cuBLAS estándar, un intercambio razonable a cambio del determinismo.

Fijación de controladores y versiones: Verde utiliza controladores de GPU con versiones fijas y configuraciones canónicas, lo que garantiza que el mismo modelo ejecutado en diferentes hardwares produzca salidas idénticas bit a bit. Un modelo que se ejecuta en una NVIDIA A100 en un centro de datos coincide con la salida de una AMD MI250 en otro, bit por bit.

Este es el avance que permite la verificación de Judge: la reproducibilidad exacta a nivel de bits significa que los validadores pueden confirmar los resultados de forma independiente sin confiar en los ejecutores. Si el hash coincide, la inferencia es correcta; es matemáticamente demostrable.

Delegación Arbitrada: Verificación Eficiente sin Recomputación Completa

Incluso con una ejecución determinista, verificar la inferencia de IA de forma ingenua es costoso. Un modelo de 70 mil millones de parámetros que genera 1,000 tokens podría requerir 10 horas de GPU. Si los validadores deben volver a ejecutar cada inferencia para verificar la corrección, el costo de verificación iguala al costo de ejecución, lo que anula el propósito de la descentralización.

El mecanismo de delegación arbitrada de Verde hace que la verificación sea exponencialmente más económica:

Múltiples ejecutores no confiables: En lugar de un solo ejecutor, Judge asigna tareas a múltiples proveedores independientes. Cada uno realiza la misma inferencia y envía los resultados.

El desacuerdo activa una investigación: Si todos los ejecutores están de acuerdo, se acepta el resultado y no se necesita más verificación. Si los resultados difieren, Verde inicia un juego de desafío.

Búsqueda binaria sobre el grafo de computación: Verde no vuelve a ejecutar toda la inferencia. En su lugar, realiza una búsqueda binaria sobre el grafo computacional del modelo para encontrar el primer operador donde los resultados divergen. Esto señala la capa exacta (por ejemplo, "capa de atención 47, cabezal 8") que causa la discrepancia.

Cómputo mínimo del árbitro: Un árbitro (que puede ser un contrato inteligente o un validador con capacidad de cómputo limitada) verifica solo el operador en disputa, no todo el paso hacia adelante (forward pass). Para un modelo de 70B de parámetros con 80 capas, esto reduce la verificación a comprobar unas 7 capas (log₂ 80) en el peor de los casos.

Este enfoque es más de un 1,350% más eficiente que la replicación ingenua (donde cada validador vuelve a ejecutar todo). Gensyn combina pruebas criptográficas, teoría de juegos y procesos optimizados para garantizar la ejecución correcta sin computación redundante.

El resultado: Judge puede verificar cargas de trabajo de IA a escala, permitiendo redes de inferencia descentralizadas donde miles de nodos no confiables aportan cómputo, y los ejecutores deshonestos son detectados y penalizados.

Toma de Decisiones de IA de Alto Riesgo: Por qué la Transparencia es Importante

El mercado objetivo de Judge no son los chatbots casuales, sino aplicaciones donde la verificabilidad no es algo deseable, sino un requisito regulatorio o económico. Estos son escenarios donde las API opacas fallan catastróficamente:

Finanzas descentralizadas (DeFi): Los agentes de trading autónomos gestionan miles de millones en activos. Si un agente utiliza un modelo de IA para decidir cuándo reequilibrar carteras, los usuarios necesitan pruebas de que el modelo no fue manipulado. Judge permite la verificación on-chain: el agente se compromete con un hash de modelo específico, ejecuta operaciones basadas en sus salidas y cualquiera puede desafiar la lógica de decisión. Esta transparencia evita los rug pulls (fraudes de salida) donde los agentes maliciosos afirman que "la IA me dijo que liquidara" sin evidencia.

Cumplimiento normativo: Las instituciones financieras que despliegan IA para la calificación crediticia, la detección de fraudes o la lucha contra el lavado de dinero (AML) se enfrentan a auditorías. Los reguladores exigen explicaciones: "¿Por qué el modelo marcó esta transacción?". Las API opacas no proporcionan una pista de auditoría. Judge crea un registro inmutable de la versión del modelo, las entradas y las salidas, satisfaciendo los requisitos de cumplimiento.

Gobernanza algorítmica: Las organizaciones autónomas descentralizadas (DAO) utilizan agentes de IA para proponer o votar decisiones de gobernanza. Los miembros de la comunidad deben verificar que el agente utilizó el modelo aprobado, no una variante hackeada. Con Judge, la DAO codifica el hash del modelo en su contrato inteligente, y cada decisión incluye una prueba criptográfica de corrección.

IA médica y legal: Los sistemas sanitarios y legales requieren rendición de cuentas. Un médico que diagnostica cáncer con ayuda de IA necesita documentar la versión exacta del modelo utilizado. Un abogado que redacta contratos con IA debe demostrar que el resultado provino de un modelo examinado y sin sesgos. La pista de auditoría on-chain de Judge proporciona esta evidencia.

Mercados de predicción y oráculos: Proyectos como Polymarket utilizan IA para resolver los resultados de las apuestas (por ejemplo, "¿Sucederá este evento?"). Si la resolución depende de un modelo de IA que analiza artículos de noticias, los participantes necesitan pruebas de que el modelo no fue manipulado. Judge verifica la inferencia de IA del oráculo, evitando disputas.

En cada caso, el hilo común es que la confianza sin transparencia es insuficiente. Como señala VeritasChain, los sistemas de IA necesitan "registradores de vuelo criptográficos": registros inmutables que demuestren lo que sucedió cuando surgen disputas.

La alternativa de prueba de conocimiento cero: comparando Verde y ZKML

Judge no es el único enfoque para la IA verificable. El aprendizaje automático de conocimiento cero (ZKML) logra objetivos similares utilizando zk-SNARKs: pruebas criptográficas de que un cálculo se realizó correctamente sin revelar las entradas ni los pesos.

¿Cómo se compara Verde con ZKML?

Costo de verificación: ZKML requiere ~ 1,000 × más cómputo que la inferencia original para generar pruebas (estimaciones de investigación). Un modelo de 70 B - parámetros que necesite 10 horas de GPU para la inferencia podría requerir 10,000 horas de GPU para probarse. La delegación arbitrada de Verde es logarítmica: verificar ~ 7 capas en lugar de 80 es una reducción de 10 ×, no de 1,000 ×.

Complejidad del probador: ZKML exige hardware especializado (como ASICs personalizados para circuitos zk-SNARK) para generar pruebas de manera eficiente. Verde funciona en GPUs comerciales — cualquier minero con una PC para juegos puede participar.

Compensaciones de privacidad: La fortaleza de ZKML es la privacidad — las pruebas no revelan nada sobre las entradas o los pesos del modelo. La ejecución determinante de Verde es transparente: las entradas y salidas son públicas (aunque los pesos pueden estar encriptados). Para la toma de decisiones de alto riesgo, la transparencia suele ser deseable. Una DAO que vota sobre la asignación de la tesorería quiere pistas de auditoría públicas, no pruebas ocultas.

Alcance de la prueba: ZKML está prácticamente limitado a la inferencia — probar el entrenamiento es inviable con los costos computacionales actuales. Verde admite tanto la verificación de inferencia como la de entrenamiento (el protocolo más amplio de Gensyn verifica el entrenamiento distribuido).

Adopción en el mundo real: Los proyectos de ZKML como Modulus Labs han logrado avances (verificando modelos de 18 M - parámetros en cadena), pero siguen limitados a modelos más pequeños. El tiempo de ejecución determinante de Verde maneja modelos de más de 70 B + parámetros en producción.

ZKML destaca donde la privacidad es primordial — como al verificar la autenticación biométrica (Worldcoin) sin exponer los escaneos de iris. Verde destaca donde la transparencia es el objetivo — demostrar que un modelo público específico se ejecutó correctamente. Ambos enfoques son complementarios, no competitivos.

El ecosistema Gensyn: de Judge al entrenamiento descentralizado

Judge es un componente de la visión más amplia de Gensyn: una red descentralizada para el cómputo de aprendizaje automático. El protocolo incluye:

Capa de ejecución: Ejecución consistente de ML a través de hardware heterogéneo (GPUs de consumo, clústeres empresariales, dispositivos de borde). Gensyn estándariza las cargas de trabajo de inferencia y entrenamiento, asegurando la compatibilidad.

Capa de verificación (Verde): Verificación sin confianza utilizando delegación arbitrada. Los ejecutores deshonestos son detectados y penalizados.

Comunicación peer-to-peer: Distribución de la carga de trabajo entre dispositivos sin coordinación centralizada. Los mineros reciben tareas, las ejecutan y envían las pruebas directamente a la cadena de bloques.

Coordinación descentralizada: Los contratos inteligentes en un rollup de Ethereum identifican a los participantes, asignan tareas y procesan los pagos sin necesidad de permisos.

La red de prueba pública de Gensyn se lanzó en marzo de 2025, con la red principal planificada para 2026. La venta pública del token $ AI ocurrió en diciembre de 2025, estableciendo incentivos económicos para mineros y validadores.

Judge encaja en este ecosistema como la capa de evaluación: mientras el protocolo central de Gensyn maneja el entrenamiento y la inferencia, Judge asegura que esos resultados sean verificables. Esto crea un volante de inercia:

Los desarrolladores entrenan modelos en la red descentralizada de Gensyn (más barato que AWS debido a que las GPUs de consumo infrautilizadas aportan cómputo).

Los modelos se despliegan con Judge garantizando la integridad de la evaluación. Las aplicaciones consumen inferencia a través de las APIs de Gensyn, pero a diferencia de OpenAI, cada resultado incluye una prueba criptográfica.

Los validadores ganan tarifas al verificar las pruebas y detectar fraudes, alineando los incentivos económicos con la seguridad de la red.

La confianza escala a medida que más aplicaciones adoptan la IA verificable, reduciendo la dependencia de proveedores centralizados.

El objetivo final: entrenamiento e inferencia de IA que sea demostrablemente correcta, descentralizada y accesible para cualquiera — no solo para las grandes tecnológicas.

Desafíos y preguntas abiertas

El enfoque de Judge es innovador, pero persisten varios desafíos:

Sobrecarga de rendimiento: La ralentización del 30 % de RepOps es aceptable para la verificación, pero si cada inferencia debe ejecutarse de forma determinante, las aplicaciones sensibles a la latencia (trading en tiempo real, vehículos autónomos) podrían preferir alternativas más rápidas y no verificables. La hoja de ruta de Gensyn probablemente incluye optimizar RepOps aún más — pero existe una compensación fundamental entre velocidad y determinismo.

Fragmentación de versiones de controladores: Verde asume controladores con versiones fijas, pero los fabricantes de GPU lanzan actualizaciones constantemente. Si algunos mineros usan CUDA 12.4 y otros usan 12.5, la reproducibilidad bit a bit se rompe. Gensyn debe imponer una gestión de versiones estricta — complicando la incorporación de mineros.

Secreto de los pesos del modelo: La transparencia de Judge es una ventaja para los modelos públicos, pero un inconveniente para los propietarios. Si un fondo de cobertura entrena un modelo de trading valioso, desplegarlo en Judge expone los pesos a los competidores (a través del compromiso en cadena). Las alternativas basadas en ZKML podrían ser preferidas para modelos secretos — lo que sugiere que Judge se dirige a aplicaciones de IA abiertas o semiabiertas.

Latencia en la resolución de disputas: Si un desafiante alega fraude, resolver la disputa mediante búsqueda binaria requiere múltiples transacciones en cadena (cada ronda estrecha el espacio de búsqueda). Las aplicaciones de alta frecuencia no pueden esperar horas por la finalidad. Gensyn podría introducir la verificación optimista (asumir la corrección a menos que sea desafiada dentro de una ventana) para reducir la latencia.

Resistencia a Sybil en la delegación arbitrada: Si varios ejecutores deben estar de acuerdo, ¿qué impide que una sola entidad controle a todos los ejecutores a través de identidades Sybil? Gensyn probablemente utiliza una selección ponderada por participación (se eligen preferentemente validadores de alta reputación) además del slashing para disuadir la colusión — pero los umbrales económicos deben calibrarse cuidadosamente.

Estos no son obstáculos insuperables — son desafíos de ingeniería. La innovación principal (IA determinante + verificación criptográfica) es sólida. Los detalles de ejecución madurarán a medida que la red de prueba pase a la red principal.

El camino hacia la IA verificable: Vías de adopción y ajuste de mercado

El éxito de Judge depende de la adopción. ¿Qué aplicaciones implementarán primero la IA verificable?

Protocolos DeFi con agentes autónomos: Las DAO de Aave, Compound o Uniswap podrían integrar agentes verificados por Judge para la gestión de tesorería. La comunidad vota para aprobar el hash de un modelo, y todas las decisiones de los agentes incluyen pruebas. Esta transparencia genera confianza, algo crítico para la legitimidad de DeFi.

Mercados de predicción y oráculos: Plataformas como Polymarket o Chainlink podrían usar Judge para resolver apuestas o entregar feeds de precios. Los modelos de IA que analizan el sentimiento, las noticias o la actividad on-chain producirían resultados verificables, eliminando disputas sobre la manipulación de oráculos.

Identidad descentralizada y KYC: Los proyectos que requieren verificación de identidad basada en IA (estimación de edad a partir de selfies, verificaciones de autenticidad de documentos) se benefician de la pista de auditoría de Judge. Los reguladores aceptan pruebas criptográficas de cumplimiento sin tener que confiar en proveedores de identidad centralizados.

Moderación de contenido para redes sociales: Las redes sociales descentralizadas (Farcaster, Lens Protocol) podrían implementar moderadores de IA verificados por Judge. Los miembros de la comunidad verifican que el modelo de moderación no esté sesgado ni censurado, garantizando la neutralidad de la plataforma.

Plataformas de IA como servicio (AI-as-a-Service): Los desarrolladores que crean aplicaciones de IA pueden ofrecer "inferencia verificable" como una función premium. Los usuarios pagan un extra por las pruebas, diferenciando los servicios de las alternativas opacas.

El punto común: aplicaciones donde la confianza es costosa (debido a la regulación, la descentralización o los altos riesgos) y el costo de verificación es aceptable (en comparación con el valor de la certeza).

Judge no reemplazará a OpenAI para los chatbots de consumo; a los usuarios no les importa si GPT-4 es verificable cuando piden ideas de recetas. Pero para algoritmos financieros, herramientas médicas y sistemas de gobernanza, la IA verificable es el futuro.

La verificabilidad como el nuevo estándar

Judge de Gensyn representa un cambio de paradigma: la evaluación de la IA está pasando de "confiar en el proveedor" a "verificar la prueba". La base técnica —reproducibilidad exacta a nivel de bits a través de Verde, verificación eficiente mediante delegación arbitrada y pistas de auditoría on-chain— hace que esta transición sea práctica, no solo aspiracional.

Las implicaciones resuenan mucho más allá de Gensyn. Si la IA verificable se convierte en un estándar, los proveedores centralizados pierden sus fosos competitivos (moats). La propuesta de valor de OpenAI no son solo las capacidades de GPT-4, es la conveniencia de no gestionar la infraestructura. Pero si Gensyn demuestra que la IA descentralizada puede igualar el rendimiento centralizado con la verificabilidad añadida, los desarrolladores no tendrán motivos para quedar atrapados en APIs propietarias.

La carrera ha comenzado. Los proyectos de ZKML (Modulus Labs, el sistema biométrico de Worldcoin) apuestan por las pruebas de conocimiento cero. Los entornos de ejecución deterministas (Verde de Gensyn, EigenAI) apuestan por la reproducibilidad. Los enfoques optimistas (oráculos de IA en blockchain) apuestan por las pruebas de fraude. Cada camino tiene sus compensaciones, pero el destino es el mismo: sistemas de IA donde los resultados sean demostrables, no solo plausibles.

Para la toma de decisiones de alto riesgo, esto no es opcional. Los reguladores no aceptarán un "confíe en nosotros" de los proveedores de IA en aplicaciones financieras, de salud o legales. Las DAO no delegarán la gestión de tesorería a agentes de caja negra. Y a medida que los sistemas de IA autónomos se vuelvan más potoresos, el público exigirá transparencia.

Judge es el primer sistema listo para producción que cumple con esta promesa. La red de prueba (testnet) está activa. Los fundamentos criptográficos son sólidos. El mercado — $27 mil millones en criptoactivos de agentes de IA, miles de millones en activos DeFi gestionados por algoritmos y una presión regulatoria creciente — está listo.

La era de las APIs de IA opacas está terminando. La era de la inteligencia verificable está comenzando. Y Judge de Gensyn está iluminando el camino.


Fuentes:

Blacklight de Nillion entra en funcionamiento: Cómo ERC-8004 está construyendo la capa de confianza para agentes de IA autónomos

· 15 min de lectura
Dora Noda
Software Engineer

El 2 de febrero de 2026, la economía de agentes de IA dio un paso crítico hacia adelante. Nillion lanzó Blacklight, una capa de verificación que implementa el estándar ERC-8004 para resolver una de las preguntas más urgentes de la blockchain: ¿cómo confiar en un agente de IA que nunca has conocido?

La respuesta no es una simple puntuación de reputación ni un registro centralizado. Es un proceso de verificación de cinco pasos respaldado por pruebas criptográficas, auditorías programables y una red de nodos operados por la comunidad. A medida que los agentes autónomos ejecutan cada vez más operaciones, gestionan tesorerías y coordinan actividades cross-chain, Blacklight representa la infraestructura que permite la coordinación de IA trustless a escala.

El problema de confianza que los agentes de IA no pueden resolver solos

Las cifras cuentan la historia. Los agentes de IA ahora contribuyen con el 30 % del volumen de operaciones de Polymarket, gestionan estrategias de rendimiento DeFi en múltiples protocolos y ejecutan flujos de trabajo complejos de forma autónoma. Pero existe un cuello de botella fundamental: ¿cómo verifican los agentes la confiabilidad de los demás sin relaciones preexistentes?

Los sistemas tradicionales dependen de autoridades centralizadas que emiten credenciales. La promesa de la Web3 es diferente: verificación trustless a través de la criptografía y el consenso. Sin embargo, hasta el ERC-8004, no existía una forma estandarizada para que los agentes demostraran su autenticidad, rastrearan su comportamiento o validaran su lógica de toma de decisiones on-chain.

Esto no es solo un problema teórico. Como explica Davide Crapis, "ERC-8004 permite interacciones descentralizadas entre agentes de IA, establece el comercio trustless y mejora los sistemas de reputación en Ethereum". Sin él, el comercio entre agentes permanece confinado a ecosistemas cerrados o requiere supervisión manual, lo que anula el propósito de la autonomía.

ERC-8004: La infraestructura de confianza de tres registros

El estándar ERC-8004, que entró en funcionamiento en la mainnet de Ethereum el 29 de enero de 2026, establece una capa de confianza modular a través de tres registros on-chain:

Registro de Identidad (Identity Registry): Utiliza ERC-721 para proporcionar identificadores de agentes portátiles. Cada agente recibe un token no fungible que representa su identidad única on-chain, lo que permite el reconocimiento multiplataforma y evita la suplantación de identidad.

Registro de Reputación (Reputation Registry): Recopila comentarios y calificaciones estandarizados. A diferencia de los sistemas de revisión centralizados, los comentarios se registran on-chain con firmas criptográficas, creando un rastro de auditoría inmutable. Cualquiera puede rastrear este historial y crear algoritmos de reputación personalizados.

Registro de Validación (Validation Registry): Admite la verificación criptográfica y económica del trabajo de los agentes. Aquí es donde ocurren las auditorías programables: los validadores pueden volver a ejecutar cálculos, verificar pruebas de conocimiento cero o aprovechar Entornos de Ejecución Seguros (TEEs) para confirmar que un agente actuó correctamente.

La brillantez del ERC-8004 es su diseño agnóstico. Como señala la especificación técnica, el estándar admite varias técnicas de validación: "re-ejecución de tareas asegurada por participación (stake) (inspirada en sistemas como EigenLayer), verificación de pruebas de aprendizaje automático de conocimiento cero (zkML) y atestaciones de Entornos de Ejecución Seguros (TEEs)".

Esta flexibilidad es importante. Un agente de arbitraje DeFi podría usar pruebas zkML para verificar su lógica de trading sin revelar su alpha. Un agente de cadena de suministro podría usar atestaciones TEE para demostrar que accedió correctamente a datos del mundo real. Un agente de puente cross-chain podría confiar en la validación criptoeconómica con slashing para garantizar una ejecución honesta.

El proceso de verificación de cinco pasos de Blacklight

La implementación del ERC-8004 de Nillion en Blacklight añade una capa crucial: nodos de verificación operados por la comunidad. Así es como funciona el proceso:

1. Registro del Agente: Un agente registra su identidad en el Registro de Identidad, recibiendo un NFT ERC-721. Esto crea un identificador único on-chain vinculado a la clave pública del agente.

2. Inicio de la Solicitud de Verificación: Cuando un agente realiza una acción que requiere validación (por ejemplo, ejecutar una operación, transferir fondos o actualizar un estado), envía una solicitud de verificación a Blacklight.

3. Asignación de Comité: El protocolo de Blacklight asigna aleatoriamente un comité de nodos de verificación para auditar la solicitud. Estos nodos son operados por miembros de la comunidad que realizan un stake de 70,000 tokens NIL, alineando los incentivos para la integridad de la red.

4. Comprobaciones de los Nodos: Los miembros del comité vuelven a ejecutar el cálculo o validan las pruebas criptográficas. Si los validadores detectan un comportamiento incorrecto, pueden realizar un slashing del stake del agente (en sistemas que utilizan validación criptoeconómica) o marcar la identidad en el Registro de Reputación.

5. Informes On-Chain: Los resultados se publican on-chain. El Registro de Validación registra si el trabajo del agente fue verificado, creando una prueba permanente de ejecución. El Registro de Reputación se actualiza en consecuencia.

Este proceso ocurre de forma asíncrona y no bloqueante, lo que significa que los agentes no esperan a que se complete la verificación para realizar tareas rutinarias, pero las acciones de alto riesgo (grandes transferencias, operaciones cross-chain) pueden requerir una validación previa.

Auditorías programables: más allá de la confianza binaria

La característica más ambiciosa de Blacklight es la «verificación programable»: la capacidad de auditar cómo un agente toma decisiones, no solo qué hace.

Considere un agente DeFi que gestiona una tesorería. Las auditorías tradicionales verifican que los fondos se movieron correctamente. Las auditorías programables verifican:

  • Consistencia de la lógica de toma de decisiones: ¿Siguió el agente su estrategia de inversión declarada o se desvió de ella?
  • Ejecución de flujos de trabajo de varios pasos: Si se suponía que el agente debía reequilibrar carteras en tres cadenas, ¿completó todos los pasos?
  • Restricciones de seguridad: ¿Respetó el agente los límites de gas, las tolerancias de deslizamiento y los topes de exposición?

Esto es posible porque el Registro de Verificación de ERC-8004 admite sistemas de prueba arbitrarios. Un agente puede comprometerse con un algoritmo de toma de decisiones on-chain (por ejemplo, un hash de los pesos de su red neuronal o un circuito zk-SNARK que represente su lógica) y luego demostrar que cada acción se ajusta a ese algoritmo sin revelar detalles propietarios.

La hoja de ruta de Nillion apunta explícitamente a estos casos de uso: «Nillion planea expandir las capacidades de Blacklight hacia la "verificación programable", permitiendo auditorías descentralizadas de comportamientos complejos como la consistencia de la lógica de toma de decisiones de los agentes, la ejecución de flujos de trabajo de varios pasos y las restricciones de seguridad».

Esto cambia la verificación de reactiva (detectar errores después del hecho) a proactiva (imponer el comportamiento correcto por diseño).

Computación ciega: la privacidad se une a la verificación

La tecnología subyacente de Nillion, Nil Message Compute (NMC), añade una dimensión de privacidad a la verificación de agentes. A diferencia de las blockchains tradicionales donde todos los datos son públicos, la «computación ciega» de Nillion permite realizar operaciones con datos encriptados sin necesidad de desencriptarlos.

He aquí por qué esto es importante para los agentes: un agente de IA podría necesitar verificar su estrategia de trading sin revelar su «alpha» a los competidores. O demostrar que accedió correctamente a registros médicos confidenciales sin exponer los datos de los pacientes. O demostrar el cumplimiento de las restricciones regulatorias sin revelar la lógica de negocio propietaria.

El NMC de Nillion logra esto a través de la computación multipartita (MPC), donde los nodos generan colaborativamente «factores cegadores» (aleatoriedad correlacionada utilizada para encriptar datos). Como explica DAIC Capital: «Los nodos generan el recurso de red clave necesario para procesar datos —un tipo de aleatoriedad correlacionada denominada factor cegador—, y cada nodo almacena su parte del factor cegador de forma segura, distribuyendo la confianza a través de la red de una manera segura frente a la computación cuántica».

Esta arquitectura es resistente a la computación cuántica por diseño. Incluso si un ordenador cuántico rompe la criptografía de curva elíptica actual, los factores cegadores distribuidos permanecen seguros porque ningún nodo individual posee información suficiente para desencriptar los datos.

Para los agentes de IA, esto significa que la verificación no requiere sacrificar la confidencialidad. Un agente puede demostrar que ejecutó una tarea correctamente mientras mantiene privados sus métodos, fuentes de datos y lógica de toma de decisiones.

La apuesta por la infraestructura de la economía de agentes de $ 4300 millones

El lanzamiento de Blacklight se produce en un momento en que el sector de la IA y la blockchain entra en una fase de hipercrecimiento. Se proyecta que el mercado crezca de 680millones(2025)a680 millones (2025) a 4300 millones (2034) a una tasa de crecimiento anual compuesta (CAGR) del 22,9 %, mientras que el mercado más amplio de la computación confidencial alcanzará los $ 350 000 millones para 2032.

Pero Nillion no solo apuesta por la expansión del mercado; se está posicionando como una infraestructura crítica. El cuello de botella de la economía de agentes no es el cómputo ni el almacenamiento; es la confianza a escala. Como señala el informe de perspectivas de KuCoin para 2026, tres tendencias clave están remodelando la identidad de la IA y el flujo de valor:

Sistemas Agent-Wrapping-Agent (agente envuelve agente): Agentes que se coordinan con otros agentes para ejecutar tareas complejas de varios pasos. Esto requiere una identidad y verificación estandarizadas, exactamente lo que proporciona ERC-8004.

KYA (Know Your Agent - Conozca a su agente): Infraestructura financiera que exige credenciales de agentes. Los reguladores no aprobarán agentes autónomos que gestionen fondos sin pruebas de un comportamiento correcto. Las auditorías programables de Blacklight abordan esto directamente.

Nanopagos: Los agentes necesitan liquidar micropagos de manera eficiente. El protocolo de pago x402, que procesó más de 20 millones de transacciones en enero de 2026, complementa a ERC-8004 encargándose de la liquidación mientras Blacklight se encarga de la confianza.

Juntos, estos estándares alcanzaron su madurez para producción con semanas de diferencia, un avance de coordinación que señala la maduración de la infraestructura.

El futuro de Ethereum centrado en los agentes

La adopción de ERC-8004 se extiende mucho más allá de Nillion. A principios de 2026, múltiples proyectos ya han integrado el estándar:

  • Oasis Network: Implementando ERC-8004 para computación confidencial con validación basada en TEE.
  • The Graph: Soportando ERC-8004 y x402 para permitir interacciones de agentes verificables en la indexación descentralizada.
  • MetaMask: Explorando billeteras de agentes con identidad ERC-8004 integrada.
  • Coinbase: Integrando ERC-8004 para soluciones de custodia de agentes institucionales.

Esta rápida adopción refleja un cambio más amplio en la hoja de ruta de Ethereum. Vitalik Buterin ha enfatizado repetidamente que el papel de la blockchain se está convirtiendo en «simplemente la fontanería» para los agentes de IA, no la capa orientada al consumidor, sino la infraestructura de confianza que permite la coordinación autónoma.

Blacklight de Nillion acelera esta visión al hacer que la verificación sea programable, preserve la privacidad y sea descentralizada. En lugar de depender de oráculos centralizados o revisores humanos, los agentes pueden demostrar su corrección criptográficamente.

Lo que viene a continuación: Integración de la Mainnet y expansión del ecosistema

La hoja de ruta de 2026 de Nillion prioriza la compatibilidad con Ethereum y la descentralización sostenible. El puente de Ethereum se puso en marcha en febrero de 2026, seguido de contratos inteligentes nativos para staking y computación privada (blind computation).

Los miembros de la comunidad que realicen staking de 70,000 tokens NIL pueden operar nodos de verificación Blacklight, obteniendo recompensas mientras mantienen la integridad de la red. Este diseño refleja la economía de validadores de Ethereum, pero añade un rol específico de verificación.

Los próximos hitos incluyen:

  • Soporte ampliado para zkML: Integración con proyectos como Modulus Labs para verificar la inferencia de IA on-chain
  • Verificación cross-chain: Permitir que Blacklight verifique agentes que operan a través de Ethereum, Cosmos y Solana
  • Alianzas institucionales: Colaboraciones con Coinbase y Alibaba Cloud para el despliegue de agentes empresariales
  • Herramientas de cumplimiento regulatorio: Creación de marcos KYA (Know Your Agent) para la adopción de servicios financieros

Quizás lo más importante es que Nillion está desarrollando nilGPT, un chatbot de IA totalmente privado que demuestra cómo la computación ciega (blind computation) permite interacciones de agentes confidenciales. Esto no es solo una demostración; es un modelo para agentes que manejan datos sensibles en salud, finanzas y gobierno.

El objetivo final de la coordinación trustless

El lanzamiento de Blacklight marca un punto de inflexión para la economía de los agentes. Antes del ERC-8004, los agentes operaban en silos: se confiaba en ellos dentro de sus propios ecosistemas, pero no podían coordinarse a través de plataformas sin intermediarios humanos. Después del ERC-8004, los agentes pueden verificar la identidad de los demás, auditar el comportamiento mutuo y liquidar pagos de forma autónoma.

Esto desbloquea categorías de aplicaciones completamente nuevas:

  • Fondos de cobertura descentralizados: Agentes que gestionan carteras a través de múltiples cadenas, con estrategias de inversión verificables y auditorías de rendimiento transparentes
  • Cadenas de suministro autónomas: Agentes que coordinan la logística, los pagos y el cumplimiento sin supervisión centralizada
  • DAOs impulsadas por IA: Organizaciones gobernadas por agentes que votan, proponen y ejecutan basándose en una lógica de toma de decisiones verificada criptográficamente
  • Gestión de liquidez entre protocolos: Agentes que reequilibran activos a través de protocolos DeFi con restricciones de riesgo programables

¿El hilo conductor? Todos requieren una coordinación trustless: la capacidad de que los agentes trabajen juntos sin relaciones preexistentes o anclajes de confianza centralizados.

Blacklight de Nillion proporciona exactamente eso. Al combinar la infraestructura de identidad y reputación del ERC-8004 con la verificación programable y la computación ciega, crea una capa de confianza lo suficientemente escalable para la economía de billones de agentes que se vislumbra en el horizonte.

A medida que blockchain se convierte en la infraestructura básica (plumbing) para los agentes de IA y las finanzas globales, la pregunta no es si necesitamos una infraestructura de verificación, sino quién la construye y si es descentralizada o está controlada por unos pocos intermediarios. Los nodos operados por la comunidad de Blacklight y el estándar abierto defienden la primera opción.

La era de los actores autónomos on-chain ha llegado. La infraestructura está activa. La única pregunta que queda es qué se construirá sobre ella.


Fuentes:

Convergencia de IA × Web3: Cómo Blockchain se Convirtió en el Sistema Operativo para Agentes Autónomos

· 18 min de lectura
Dora Noda
Software Engineer

El 29 de enero de 2026, Ethereum lanzó el ERC-8004, un estándar que otorga a los agentes de software de IA identidades persistentes en cadena (on-chain). En pocos días, más de 24,549 agentes se registraron, y BNB Chain anunció el soporte para el protocolo. Esto no es un progreso incremental: es infraestructura para actores económicos autónomos que pueden transaccionar, coordinar y construir reputación sin intermediación humana.

Los agentes de IA no necesitan blockchain para existir. Pero necesitan blockchain para coordinarse. Para transaccionar sin necesidad de confianza a través de límites organizacionales. Para construir una reputación verificable. Para liquidar pagos de forma autónoma. Para demostrar la ejecución sin intermediarios centralizados.

La convergencia se acelera porque ambas tecnologías resuelven la debilidad crítica de la otra: la IA proporciona inteligencia y automatización, la blockchain proporciona confianza e infraestructura económica. Juntas, crean algo que ninguna de las dos logra por sí sola: sistemas autónomos que pueden participar en mercados abiertos sin requerir relaciones de confianza preexistentes.

Este artículo examina la infraestructura que hace inevitable la convergencia entre IA y Web3, desde los estándares de identidad hasta los protocolos económicos y la ejecución de modelos descentralizada. La pregunta no es si los agentes de IA operarán en blockchain, sino qué tan rápido escalará la infraestructura para soportar a millones de actores económicos autónomos.

ERC-8004: Infraestructura de Identidad para Agentes de IA

ERC-8004 se puso en marcha en la red principal de Ethereum el 29 de enero de 2026, estableciendo mecanismos estandarizados y sin permisos para la identidad, reputación y validación de agentes.

El protocolo resuelve un problema fundamental: cómo descubrir, elegir e interactuar con agentes a través de límites organizacionales sin confianza preexistente. Sin una infraestructura de identidad, cada interacción entre agentes requiere una intermediación centralizada: plataformas de mercado, servicios de verificación, capas de resolución de disputas. ERC-8004 hace que estos sean trustless y componibles.

Tres Registros Principales:

Registro de Identidad: Un identificador on-chain mínimo basado en ERC-721 con extensión URIStorage que resuelve al archivo de registro de un agente. Cada agente obtiene un identificador portátil y resistente a la censura. Ninguna autoridad central controla quién puede crear una identidad de agente o qué plataformas la reconocen.

Registro de Reputación: Interfaz estandarizada para publicar y obtener señales de retroalimentación. Los agentes construyen su reputación a través del historial de transacciones en cadena, tareas completadas y revisiones de contrapartes. La reputación se vuelve portátil entre plataformas en lugar de estar aislada dentro de mercados individuales.

Registro de Validación: Ganchos (hooks) genéricos para solicitar y registrar verificaciones de validadores independientes: stakers que vuelven a ejecutar trabajos, verificadores zkML que confirman la ejecución, oráculos TEE que prueban el cómputo, jueces de confianza que resuelven disputas. Los mecanismos de validación se conectan de forma modular en lugar de requerir implementaciones específicas de la plataforma.

La arquitectura crea las condiciones para mercados de agentes abiertos. En lugar de un Upwork para agentes de IA, se obtienen protocolos sin permisos donde los agentes se descubren entre sí, negocian términos, ejecutan tareas y liquidan pagos, todo sin el control de una plataforma centralizada.

El rápido anuncio de soporte de BNB Chain señala la trayectoria del estándar hacia la adopción cross-chain. La identidad de agente multicadena permite que los agentes operen a través de ecosistemas blockchain manteniendo sistemas unificados de reputación y verificación.

DeMCP: El Model Context Protocol se encuentra con la Descentralización

DeMCP se lanzó como la primera red descentralizada de Model Context Protocol, abordando la confianza y la seguridad con TEE (Entornos de Ejecución Segura) y blockchain.

El Model Context Protocol (MCP), desarrollado por Anthropic, estandariza cómo las aplicaciones proporcionan contexto a los modelos de lenguaje de gran tamaño. Piense en ello como el USB-C para aplicaciones de IA: en lugar de integraciones personalizadas para cada fuente de datos, el MCP proporciona estándares de interfaz universales.

DeMCP extiende esto a la Web3: ofreciendo acceso fluido y de pago por uso a los principales LLM como GPT-4 y Claude a través de instancias de MCP bajo demanda, todo pagado en stablecoins (USDT/USDC) y gobernado por modelos de participación en los ingresos.

La arquitectura resuelve tres problemas críticos:

Acceso: Las API de modelos de IA tradicionales requieren cuentas centralizadas, infraestructura de pagos y SDK específicos de la plataforma. DeMCP permite que los agentes autónomos accedan a los LLM a través de protocolos estandarizados, pagando en cripto sin claves de API gestionadas por humanos ni tarjetas de crédito.

Confianza: Los servicios MCP centralizados se convierten en puntos únicos de falla y vigilancia. Los nodos asegurados por TEE de DeMCP proporcionan una ejecución verificable: los agentes pueden confirmar que los modelos ejecutaron prompts específicos sin manipulación, algo crucial para decisiones financieras o cumplimiento normativo.

Composibilidad: Está surgiendo una nueva generación de infraestructura de agentes de IA basada en los protocolos MCP y A2A (Agente a Agente), diseñada específicamente para escenarios Web3, lo que permite a los agentes acceder a datos multicadena e interactuar de forma nativa con los protocolos DeFi.

El resultado: el MCP convierte a la IA en un ciudadano de primera clase de la Web3. Blockchain suministra la confianza, la coordinación y el sustrato económico. Juntos, forman un sistema operativo descentralizado donde los agentes razonan, coordinan y actúan a través de protocolos interoperables.

Los principales proyectos cripto de MCP a seguir en 2026 incluyen proveedores de infraestructura que construyen capas de coordinación de agentes, redes descentralizadas de ejecución de modelos e integraciones a nivel de protocolo que permiten a los agentes operar de forma autónoma a través de los ecosistemas Web3.

Más de 170 herramientas de agentes de Polymarket: Infraestructura en acción

El ecosistema de Polymarket creció a más de 170 herramientas de terceros en 19 categorías, convirtiéndose en una infraestructura esencial para cualquiera que se tome en serio el comercio en los mercados de predicción.

Las categorías de herramientas abarcan todo el flujo de trabajo de los agentes:

Trading Autónomo: Agentes impulsados por IA que descubren y optimizan estrategias automáticamente, integrando los mercados de predicción con el yield farming y los protocolos DeFi. Algunos agentes logran una precisión del 98% en los pronósticos a corto plazo.

Sistemas de Arbitraje: Bots automatizados que identifican discrepancias de precios entre Polymarket y otras plataformas de predicción o mercados de apuestas tradicionales, ejecutando operaciones más rápido que los operadores humanos.

Seguimiento de Ballenas (Whale Tracking): Herramientas que monitorean los movimientos de posiciones a gran escala, permitiendo a los agentes seguir o contrarrestar la actividad institucional basada en correlaciones de rendimiento histórico.

Infraestructura de Copy Trading: Plataformas que permiten a los agentes replicar estrategias de los mejores perfiles, con verificación on-chain de los historiales para evitar reclamos de rendimiento falsos.

Analítica y Feeds de Datos: Analítica de grado institucional que proporciona a los agentes profundidad de mercado, análisis de liquidez, distribuciones de probabilidad histórica y correlaciones de resultados de eventos.

Gestión de Riesgos: Dimensionamiento automático de posiciones, límites de exposición y mecanismos de stop-loss integrados directamente en la lógica de trading de los agentes.

El ecosistema valida la tesis de convergencia entre IA × Web3. Polymarket proporciona repositorios de GitHub y SDKs específicamente para el desarrollo de agentes, tratando a los actores autónomos como participantes de primera clase en la plataforma, en lugar de casos aislados o violaciones de los términos de servicio.

Las perspectivas para 2026 incluyen el posible lanzamiento del token $POLY, lo que creará nuevas dinámicas en torno a la gobernanza, las estructuras de tarifas y los incentivos del ecosistema. El CEO Shayne Coplan sugirió que podría convertirse en uno de los TGE (Eventos de Generación de Tokens) más grandes de 2026. Además, el posible lanzamiento de la propia blockchain de Polymarket (siguiendo el modelo de Hyperliquid) podría remodelar fundamentalmente la infraestructura, con miles de millones recaudados que hacen de una appchain una evolución natural.

El Stack de Infraestructura: Capas de IA × Web3

Los agentes autónomos que operan en blockchain requieren una infraestructura coordinada a través de múltiples capas:

Capa 1: Identidad y Reputación

  • Registros ERC-8004 para la identificación de agentes
  • Sistemas de reputación on-chain que rastrean el rendimiento
  • Prueba criptográfica de propiedad y autoridad de los agentes
  • Puentes de identidad cross-chain para operaciones en múltiples ecosistemas

Capa 2: Acceso y Ejecución

  • DeMCP para acceso descentralizado a LLM
  • Computación asegurada por TEE para lógica de agentes privada
  • zkML (Zero-Knowledge Machine Learning) para inferencia verificable
  • Redes de inferencia descentralizadas que distribuyen la ejecución de modelos

Capa 3: Coordinación y Comunicación

  • Protocolos A2A (Agente a Agente) para negociación directa
  • Formatos de mensajería estandarizados para la comunicación entre agentes
  • Mecanismos de descubrimiento para encontrar agentes con capacidades específicas
  • Escrow y resolución de disputas para contratos autónomos

Capa 4: Infraestructura Económica

  • Pasarelas de pago con stablecoins para liquidación transfronteriza
  • Creadores de mercado automatizados (AMM) para activos generados por agentes
  • Estructuras de tarifas programables y distribución de ingresos
  • Alineación de incentivos basada en tokens

Capa 5: Protocolos de Aplicación

  • Integraciones DeFi para la optimización autónoma del rendimiento (yield)
  • APIs de mercados de predicción para el comercio de información
  • Mercados de NFT para contenido creado por agentes
  • Marcos de participación en la gobernanza de DAOs

Este stack permite comportamientos de agentes progresivamente complejos: automatización simple (ejecución de contratos inteligentes), agentes reactivos (que responden a eventos on-chain), agentes proactivos (que inician estrategias basadas en inferencias) y agentes coordinadores (que negocian con otros actores autónomos).

La infraestructura no solo permite que los agentes de IA utilicen blockchain; convierte a blockchain en el entorno operativo natural para la actividad económica autónoma.

Por qué la IA necesita Blockchain: El problema de la confianza

Los agentes de IA enfrentan desafíos de confianza fundamentales que las arquitecturas centralizadas no pueden resolver:

Verificación: ¿Cómo se demuestra que un agente de IA ejecutó una lógica específica sin manipulación? Las APIs tradicionales no ofrecen garantías. Blockchain con atestaciones zkML o TEE crea computación verificable: prueba criptográfica de que modelos específicos procesaron entradas específicas y produjeron salidas específicas.

Reputación: ¿Cómo construyen credibilidad los agentes a través de fronteras organizacionales? Las plataformas centralizadas crean jardines cerrados: la reputación ganada en Upwork no se transfiere a Fiverr. La reputación on-chain se vuelve portátil, verificable y resistente a la manipulación mediante ataques Sybil.

Liquidación: ¿Cómo manejan los pagos los agentes autónomos sin intermediación humana? La banca tradicional requiere cuentas, KYC y autorización humana para cada transacción. Las stablecoins y los contratos inteligentes permiten una liquidación programable e instantánea con seguridad criptográfica en lugar de burocrática.

Coordinación: ¿Cómo negocian agentes de diferentes organizaciones sin intermediarios de confianza? Los negocios tradicionales requieren contratos, abogados y mecanismos de cumplimiento. Los contratos inteligentes permiten la ejecución de acuerdos sin necesidad de confianza (trustless): el código hace cumplir los términos automáticamente basándose en condiciones verificables.

Atribución: ¿Cómo se demuestra qué agente creó salidas específicas? La procedencia del contenido de IA se vuelve crítica para los derechos de autor, la responsabilidad y la distribución de ingresos. La atestación on-chain proporciona registros inalterables de creación, modificación y propiedad.

Blockchain no solo habilita estas capacidades; es la única arquitectura que las permite sin volver a introducir supuestos de confianza centralizados. La convergencia surge de una necesidad técnica, no de una narrativa especulativa.

Por qué la blockchain necesita IA: el problema de la inteligencia

La blockchain enfrenta limitaciones igualmente fundamentales que la IA aborda:

Abstracción de la complejidad: La experiencia de usuario (UX) de la blockchain sigue siendo deficiente: frases semilla, tarifas de gas, firma de transacciones. Los agentes de IA pueden abstraer la complejidad, actuando como intermediarios inteligentes que ejecutan la intención del usuario sin exponer los detalles técnicos de la implementación.

Procesamiento de información: Las blockchains proporcionan datos pero carecen de la inteligencia para interpretarlos. Los agentes de IA analizan los patrones de actividad on-chain, identifican oportunidades de arbitraje, predicen movimientos del mercado y optimizan estrategias a velocidades y escalas imposibles para los humanos.

Automatización: Los contratos inteligentes ejecutan lógica pero no pueden adaptarse a condiciones cambiantes sin una programación explícita. Los agentes de IA proporcionan una toma de decisiones dinámica, aprendiendo de los resultados y ajustando las estrategias sin requerir propuestas de gobernanza para cada cambio de parámetro.

Capacidad de descubrimiento: Los protocolos DeFi sufren de fragmentación: los usuarios deben descubrir manualmente oportunidades en cientos de plataformas. Los agentes de IA escanean, evalúan y enrutan continuamente la actividad hacia los protocolos óptimos basándose en una sofisticada optimización multivariable.

Gestión de riesgos: Los traders humanos luchan con la disciplina, la emoción y los límites de atención. Los agentes de IA imponen parámetros de riesgo predefinidos, ejecutan stop-losses sin dudarlo y monitorean posiciones las 24 horas del día, los 7 días de la semana, en múltiples cadenas simultáneamente.

La relación se vuelve simbiótica: la blockchain proporciona la infraestructura de confianza que permite la coordinación de la IA, mientras que la IA proporciona la inteligencia que hace que la infraestructura blockchain sea utilizable para una actividad económica compleja.

La economía emergente de los agentes

El stack de infraestructura permite nuevos modelos económicos:

Agente como servicio (Agent-as-a-Service): Los agentes autónomos alquilan sus capacidades bajo demanda, fijando precios dinámicamente según la oferta y la demanda. Sin plataformas, sin intermediarios: mercados directos de servicios de agente a agente.

Inteligencia colaborativa: Los agentes agrupan su experiencia para tareas complejas, coordinándose a través de contratos inteligentes que distribuyen automáticamente los ingresos según la contribución. Sistemas multi-agente que resuelven problemas más allá de la capacidad de cualquier agente individual.

Aumento de la predicción: Los agentes monitorean continuamente los flujos de información, actualizan las estimaciones de probabilidad y operan basándose en conocimientos antes de que las noticias sean legibles para los humanos. Las finanzas de la información (InfoFi) se vuelven algorítmicas, con agentes dominando el descubrimiento de precios.

Organizaciones autónomas: DAOs gobernadas enteramente por agentes de IA que ejecutan en nombre de los poseedores de tokens, tomando decisiones a través de inferencia verificable en lugar de votaciones humanas. Organizaciones que operan a velocidad de máquina con responsabilidad criptográfica.

Economía del contenido: Contenido generado por IA con procedencia on-chain que permite licencias automatizadas, distribución de regalías y derechos de creación de derivados. Agentes negociando términos de uso y haciendo cumplir la atribución a través de contratos inteligentes.

Estos no son hipotéticos: las primeras versiones ya están operando. La pregunta es: ¿qué tan rápido escalará la infraestructura para soportar a millones de actores económicos autónomos?

Desafíos técnicos pendientes

A pesar del rápido progreso, persisten obstáculos significativos:

Escalabilidad: Las blockchains actuales luchan con el rendimiento (throughput). Millones de agentes ejecutando microtransacciones continuas requieren soluciones de Capa 2, optimistic rollups o cadenas dedicadas específicas para agentes.

Privacidad: Muchas operaciones de agentes requieren lógica o datos confidenciales. Los TEE proporcionan soluciones parciales, pero el cifrado totalmente homomórfico (FHE) y la criptografía avanzada siguen siendo demasiado costosos para la escala de producción.

Regulación: Los actores económicos autónomos desafían los marcos legales existentes. ¿Quién es responsable cuando los agentes causan daños? ¿Cómo se aplican los requisitos KYC / AML? La claridad regulatoria va por detrás de la capacidad técnica.

Costes de los modelos: La inferencia de modelos de lenguaje extenso (LLM) sigue siendo costosa. Las redes descentralizadas deben igualar los precios de las API centralizadas mientras añaden la sobrecarga de verificación. La viabilidad económica requiere mejoras continuas en la eficiencia de los modelos.

Problemas de los oráculos: Los agentes necesitan datos confiables del mundo real. Las soluciones de oráculos existentes introducen supuestos de confianza y latencia. Mejores puentes entre la lógica on-chain y la información off-chain siguen siendo críticos.

Estos desafíos no son insuperables; son problemas de ingeniería con vías de solución claras. La trayectoria de la infraestructura apunta hacia una resolución dentro de 12 a 24 meses.

El punto de inflexión de 2026

Múltiples catalizadores convergen en 2026:

Maduración de los estándares: La adopción de ERC-8004 en las principales cadenas crea una infraestructura de identidad interoperable. Los agentes operan sin problemas en Ethereum, BNB Chain y ecosistemas emergentes.

Eficiencia de los modelos: Los modelos más pequeños y especializados reducen los costes de inferencia de 10 a 100 veces, manteniendo el rendimiento para tareas específicas. La viabilidad económica mejora drásticamente.

Claridad regulatoria: Las primeras jurisdicciones establecen marcos para agentes autónomos, proporcionando seguridad jurídica para la adopción institucional.

Avances en aplicaciones: Los mercados de predicción, la optimización de DeFi y la creación de contenido demuestran una clara superioridad de los agentes sobre los operadores humanos, impulsando la adopción más allá de los usuarios nativos de cripto.

Competencia en infraestructura: Múltiples equipos construyendo inferencia descentralizada, protocolos de coordinación de agentes y cadenas especializadas crean una presión competitiva que acelera el desarrollo.

La convergencia pasa de ser experimental a infraestructural. Los primeros adoptantes obtienen ventajas, las plataformas integran el soporte de agentes por defecto y la actividad económica fluye cada vez más a través de intermediarios autónomos.

Qué significa esto para el desarrollo de Web3

Los desarrolladores que construyen para la próxima fase de Web3 deben priorizar:

Diseño centrado en agentes: Tratar a los actores autónomos como usuarios principales, no como casos aislados. Diseñar APIs, estructuras de tarifas y mecanismos de gobernanza asumiendo que los agentes dominan la actividad.

Componibilidad: Construir protocolos que los agentes puedan integrar, coordinar y extender fácilmente. Las interfaces estandarizadas importan más que las implementaciones propietarias.

Verificación: Proporcionar pruebas criptográficas de ejecución, no solo los resultados de la ejecución. Los agentes necesitan computación verificable para construir cadenas de confianza.

Eficiencia económica: Optimizar para micro-transacciones, liquidación continua y mercados de tarifas dinámicos. El procesamiento por lotes tradicional y las intervenciones manuales no escalan para la actividad de los agentes.

Opciones de privacidad: Soportar operaciones de agentes tanto transparentes como confidenciales. Diferentes casos de uso requieren diferentes garantías de privacidad.

La infraestructura existe. Los estándares están emergiendo. Los incentivos económicos se alinean. La convergencia IA × Web3 no está por venir — ya está aquí. La pregunta es: ¿quién construye la infraestructura que se convertirá en la base para la próxima década de actividad económica autónoma?

BlockEden.xyz proporciona infraestructura de nivel empresarial para aplicaciones Web3, ofreciendo un acceso RPC fiable y de alto rendimiento a través de los principales ecosistemas de blockchain. Explore nuestros servicios para la infraestructura de agentes de IA y el soporte de sistemas autónomos.


Fuentes:

Panorama del mercado InfoFi: Más allá de los mercados de predicción hacia los datos como infraestructura

· 13 min de lectura
Dora Noda
Software Engineer

Los mercados de predicción superaron los $ 6.32 mil millones en volumen semanal a principios de febrero de 2026, con Kalshi manteniendo el 51 % de la cuota de mercado y Polymarket el 47 %. Pero las Finanzas de Información (InfoFi) se extienden mucho más allá de las apuestas binarias. Los mercados de tokenización de datos, las DAOs de datos y la infraestructura de información como activo crean un ecosistema emergente donde la información se vuelve programable, comercializable y verificable.

La tesis de InfoFi: la información tiene valor, los mercados descubren los precios, la blockchain habilita la infraestructura. Este artículo mapea el panorama — desde el motor de predicción de Polymarket hasta la tokenización de datos de Ocean Protocol, desde las DAOs de datos hasta los mercados de verdad restringidos por IA.

Los cimientos del mercado de predicción

Los mercados de predicción anclan el ecosistema InfoFi, proporcionando señales de precios para eventos futuros inciertos.

El duopolio Kalshi-Polymarket

El mercado se dividió casi en un 51 / 49 entre Kalshi y Polymarket, pero su composición difiere fundamentalmente.

Kalshi: Compensó más de $ 43.1 mil millones en 2025, fuertemente ponderado hacia las apuestas deportivas. Con licencia de la CFTC, denominado en dólares e integrado con corredurías minoristas de EE. UU. El "Prediction Markets Hub" de Robinhood canaliza miles de millones en contratos a través de la infraestructura de Kalshi.

Polymarket: Procesó $ 33.4 mil millones en 2025, enfocado en eventos de "alta señal" — geopolítica, macroeconomía y avances científicos. Cripto-nativo, con participación global y componible con DeFi. Completó la adquisición de QCEX por $ 112 millones a finales de 2025 para reingresar al mercado de EE. UU. mediante la obtención de licencias de la CFTC.

La competencia impulsa la innovación: Kalshi captura el cumplimiento minorista e institucional, mientras que Polymarket lidera la componibilidad cripto-nativa y el acceso internacional.

Más allá de las apuestas: Oráculos de información

Los mercados de predicción evolucionaron de ser herramientas de especulación a convertirse en oráculos de información para sistemas de IA. Las probabilidades de mercado sirven como "anclas externas" que limitan las alucinaciones de la IA — muchos sistemas de IA ahora restan importancia a las afirmaciones sobre las que no se puede apostar en los mercados de predicción.

Esto crea bucles de retroalimentación: los agentes de IA operan en mercados de predicción, los precios de mercado informan los resultados de la IA y los pronósticos generados por IA influyen en el trading humano. El resultado: los mercados de información se convierten en infraestructura para el descubrimiento de la verdad algorítmico.

Tokenización de datos: el modelo de Ocean Protocol

Mientras que los mercados de predicción valoran eventos futuros, Ocean Protocol tokeniza conjuntos de datos existentes, creando mercados para datos de entrenamiento de IA, conjuntos de datos de investigación e información patentada.

La arquitectura de Datatoken

El modelo de Ocean: cada datatoken representa una sublicencia de los propietarios de la propiedad intelectual base, lo que permite a los usuarios acceder y consumir los conjuntos de datos asociados. Los datatokens son compatibles con ERC20, lo que los hace comercializables, componibles con DeFi y programables a través de contratos inteligentes.

El stack de tres capas:

Data NFTs: Representan la propiedad de los conjuntos de datos subyacentes. Los creadores acuñan NFTs estableciendo derechos de procedencia y control.

Datatokens: Tokens de control de acceso. Poseer datatokens otorga derechos de uso temporales sin transferir la propiedad. Esto separa el acceso a los datos de la propiedad de los mismos.

Ocean Marketplace: Exchange descentralizado para datatokens. Los proveedores de datos monetizan sus activos, los consumidores compran acceso y los especuladores intercambian tokens.

Esta arquitectura resuelve problemas críticos: los proveedores de datos monetizan sin perder el control, los consumidores acceden sin los costos totales de compra y los mercados descubren un precio justo para el valor de la información.

Casos de uso más allá del trading

Mercados de entrenamiento de IA: Los desarrolladores de modelos compran acceso a conjuntos de datos para el entrenamiento. La economía de los datatokens alinea los incentivos — los datos valiosos alcanzan precios más altos y los creadores obtienen ingresos continuos de la actividad de entrenamiento de modelos.

Intercambio de datos de investigación: Conjuntos de datos académicos y científicos tokenizados para una distribución controlada. Los investigadores verifican la procedencia, rastrean el uso y compensan a los generadores de datos mediante la distribución automatizada de regalías.

Colaboración de datos empresariales: Las empresas comparten conjuntos de datos patentados a través de acceso tokenizado en lugar de una transferencia total. Mantienen la confidencialidad al tiempo que permiten análisis colaborativos y el desarrollo de modelos.

Monetización de datos personales: Los individuos tokenizan registros de salud, datos de comportamiento o preferencias de consumo. Venden el acceso directamente en lugar de que las plataformas extraigan valor sin compensación.

Ocean permite la composibilidad de Ethereum para las DAO de datos como cooperativas de datos, creando una infraestructura donde los datos se convierten en activos financieros programables.

DAO de datos: Propiedad colectiva de la información

Las DAO de datos funcionan como organizaciones autónomas descentralizadas que gestionan activos de datos, permitiendo la propiedad colectiva, la gobernanza y la monetización.

El modelo de unión de datos

Los miembros aportan datos colectivamente, la DAO gobierna las políticas de acceso y los precios, los ingresos se distribuyen automáticamente a través de contratos inteligentes y los derechos de gobernanza escalan con la contribución de datos.

Ejemplos emergentes:

Uniones de datos de salud: Los pacientes agrupan sus registros médicos, manteniendo la privacidad individual mediante pruebas criptográficas. Los investigadores compran acceso agregado y los ingresos fluyen hacia los contribuyentes. Los datos permanecen controlados por los pacientes, no por los sistemas de salud centralizados.

DAO de investigación en neurociencia: Instituciones académicas e investigadores aportan conjuntos de datos de imágenes cerebrales, información genética y resultados clínicos. El conjunto de datos colectivos se vuelve más valioso que las contribuciones individuales, acelerando la investigación mientras se compensa a los proveedores de datos.

Proyectos ecológicos/GIS: Sensores ambientales, imágenes satelitales y datos geográficos agrupados por comunidades. Las DAO gestionan el acceso a los datos para el modelado climático, la planificación urbana y la conservación mientras garantizan que las comunidades locales se beneficien de los datos generados en sus regiones.

Las DAO de datos resuelven problemas de coordinación: los individuos carecen de poder de negociación, las plataformas extraen rentas de monopolio y los datos permanecen aislados. La propiedad colectiva permite una compensación justa y una gobernanza democrática.

La información como activos digitales

El concepto trata los activos de datos como activos digitales, utilizando la infraestructura de blockchain diseñada inicialmente para criptomonedas para gestionar la propiedad, transferencia y valoración de la información.

Esta elección arquitectónica crea una potente composibilidad: los activos de datos se integran con protocolos DeFi, participan en creadores de mercado automatizados (AMM), sirven como garantía para préstamos y permiten el reparto de ingresos programable.

La pila de infraestructura (Infrastructure Stack)

Capa de identidad: Prueba criptográfica de propiedad y contribución de datos. Previene el plagio, establece la procedencia y permite la atribución.

Control de acceso: Contratos inteligentes que gobiernan quién puede acceder a los datos bajo qué condiciones. Licenciamiento programable que reemplaza la negociación manual de contratos.

Mecanismos de fijación de precios: Creadores de mercado automatizados que descubren el valor justo para los conjuntos de datos. Dinámicas de oferta y demanda en lugar de precios institucionales arbitrarios.

Distribución de ingresos: Contratos inteligentes que dividen automáticamente las ganancias entre contribuyentes, curadores y operadores de la plataforma. Elimina intermediarios de pago y retrasos.

Composibilidad: Los activos de datos se integran con el ecosistema Web3 más amplio. Uso de conjuntos de datos como garantía, creación de derivados o agrupación en productos compuestos.

A mediados de 2025, los mercados de RWA on-chain (incluidos los datos) alcanzaron los 23.000 millones de dólares, demostrando el apetito institucional por los activos tokenizados más allá de las criptomonedas especulativas.

IA restringiendo el InfoFi: El bucle de verificación

Los sistemas de IA dependen cada vez más de la infraestructura de InfoFi para la verificación de la verdad.

Los mercados de predicción restringen las alucinaciones de la IA: los traders arriesgan dinero real, las probabilidades del mercado sirven como anclas externas y los sistemas de IA restan peso a las afirmaciones sobre las que no se puede apostar.

Esto crea filtros de calidad: las afirmaciones verificables se negocian en mercados de predicción, las afirmaciones no verificables reciben una menor confianza de la IA, los precios del mercado proporcionan actualizaciones de probabilidad continuas y los resultados de la IA se basan más en la realidad económica.

El bucle de retroalimentación funciona en ambas direcciones: los agentes de IA generan predicciones que mejoran la eficiencia del mercado, los precios del mercado informan sobre la calidad de los datos de entrenamiento de la IA, las predicciones de alto valor impulsan los esfuerzos de recolección de datos y los mercados de información se optimizan para obtener la señal sobre el ruido.

El Mapa del Ecosistema InfoFi 2026

El panorama incluye múltiples capas interconectadas:

Capa 1: Descubrimiento de la Verdad

  • Mercados de predicción (Kalshi, Polymarket)
  • Plataformas de pronóstico
  • Sistemas de reputación
  • Protocolos de verificación

Capa 2: Monetización de Datos

  • Datatokens de Ocean Protocol
  • Mercados de conjuntos de datos
  • Tokens de acceso a API
  • Plataformas de licenciamiento de información

Capa 3: Propiedad Colectiva

  • DAOs de datos
  • Colaboraciones de investigación
  • Uniones de datos
  • Fondos comunitarios de información

Capa 4: Integración de IA

  • Mercados de entrenamiento de modelos
  • Verificación de inferencia
  • Atestación de resultados
  • Restricciones de alucinación

Capa 5: Infraestructura Financiera

  • Derivados de información
  • Colateral de datos
  • Creadores de mercado automatizados
  • Protocolos de distribución de ingresos

Cada capa se apoya en las demás: los mercados de predicción establecen señales de precios, los mercados de datos monetizan la información, las DAOs permiten la acción colectiva, la IA genera demanda y la infraestructura financiera proporciona liquidez.

Lo que revela el 2026

InfoFi pasa de ser experimental a infraestructural.

Validación Institucional: Las principales plataformas integran mercados de predicción. Wall Street consume señales de InfoFi. Surgen marcos regulatorios para el tratamiento de la información como activo.

Maduración de la Infraestructura: Los estándares de tokenización de datos se consolidan. Los patrones de gobernanza de las DAOs se prueban a escala. La integración entre IA y blockchain se vuelve fluida.

Crecimiento del Mercado: $6.32 mil millones en volumen semanal de mercados de predicción, $23 mil millones en activos de datos on-chain, acelerando la adopción en todos los sectores.

Expansión de Casos de Uso: Más allá de la especulación, hacia la investigación, colaboración empresarial, desarrollo de IA y coordinación de bienes públicos.

La pregunta no es si la información se convertirá en una clase de activo, sino qué tan rápido escalará la infraestructura y qué modelos dominarán. Los mercados de predicción captaron primero la atención, pero las DAOs de datos y los protocolos de tokenización podrían, en última instancia, impulsar mayores flujos de valor.

El panorama de InfoFi en 2026: base establecida, casos de uso probados, inicio de la adopción institucional e infraestructura en maduración. La siguiente fase: integración en los sistemas de información convencionales, reemplazando los mercados de datos heredados y convirtiéndose en la infraestructura por defecto para el intercambio de información.

BlockEden.xyz proporciona infraestructura de nivel empresarial para aplicaciones Web3, ofreciendo acceso RPC confiable y de alto rendimiento en los principales ecosistemas blockchain. Explore nuestros servicios para obtener soporte en infraestructura InfoFi y mercados de datos.


Fuentes:

Redes de GPU descentralizadas 2026: Cómo DePIN está desafiando a AWS por el mercado de computación de IA de $100 mil millones

· 13 min de lectura
Dora Noda
Software Engineer

La revolución de la IA ha creado un hambre de poder computacional sin precedentes. Mientras que hiperescaladores como AWS, Azure y Google Cloud han dominado este espacio, está surgiendo una nueva clase de redes de GPUs descentralizadas para desafiar su supremacía. Con el sector DePIN (Redes de Infraestructura Física Descentralizada) explotando de $5.2 mil millones a más de $19 mil millones en capitalización de mercado en un año, y con proyecciones que alcanzan los $3.5 billones para 2028, la cuestión ya no es si el cómputo descentralizado competirá con los proveedores de la nube tradicionales, sino qué tan rápido capturará cuota de mercado.

La crisis de escasez de GPUs: Una tormenta perfecta para la descentralización

La industria de los semiconductores se enfrenta a un cuello de botella en el suministro que valida la tesis del cómputo descentralizado.

SK Hynix y Micron, dos de los mayores productores de Memoria de Alto Ancho de Banda (HBM) del mundo, han anunciado que toda su producción de 2026 ya está agotada. Samsung ha advertido sobre aumentos de precios de dos dígitos a medida que la demanda supera drásticamente la oferta.

Esta escasez está creando un mercado de dos niveles: aquellos con acceso directo a la infraestructura de hiperescala y todos los demás.

Para los desarrolladores de IA, las startups y los investigadores sin presupuestos de miles de millones de dólares, el modelo tradicional de la nube presenta tres barreras críticas:

  • Costos prohibitivos que pueden consumir entre el 50 % y el 70 % de los presupuestos.
  • Contratos de permanencia a largo plazo con una flexibilidad mínima.
  • Disponibilidad limitada de GPUs de gama alta como las NVIDIA H100 o H200.

Las redes de GPUs descentralizadas están posicionadas para resolver los tres problemas.

Los líderes del mercado: Cuatro arquitecturas, una visión

Render Network: De artistas 3D a infraestructura de IA

Construida originalmente para agregar GPUs inactivas para tareas de renderizado distribuido, Render Network ha pivotado con éxito hacia las cargas de trabajo de cómputo de IA. La red procesa ahora aproximadamente 1.5 millones de fotogramas mensualmente, y su lanzamiento de Dispersed.com en diciembre de 2025 marcó una expansión estratégica más allá de las industrias creativas.

Los hitos clave de 2026 incluyen:

  • Escalamiento de subredes de cómputo de IA: Recursos de GPUs descentralizados ampliados específicamente para cargas de trabajo de aprendizaje automático.
  • Más de 600 modelos de IA incorporados: Modelos de pesos abiertos para inferencia y simulaciones robóticas.
  • Optimización de carga del 70 %: Las cargas diferenciales (Differential Uploads) para Blender reducen drásticamente los tiempos de transferencia de archivos.

La migración de la red de Ethereum a Solana (renombrando RNDR a RENDER) la posicionó para las demandas de alto rendimiento del cómputo de IA.

En el CES 2026, Render mostró asociaciones destinadas a satisfacer el crecimiento explosivo en la demanda de GPUs para cargas de trabajo de ML en el borde (edge). El giro del renderizado creativo al cómputo de IA de propósito general representa una de las expansiones de mercado más exitosas en el sector DePIN.

Akash Network: El competidor compatible con Kubernetes

Akash adopta un enfoque fundamentalmente diferente con su modelo de subasta inversa. En lugar de precios fijos, los proveedores de GPUs compiten por las cargas de trabajo, reduciendo los costos mientras mantienen la calidad a través de un mercado descentralizado.

Los resultados hablan por sí solos: un crecimiento del 428 % interanual en el uso, con una utilización superior al 80 % al entrar en 2026.

La iniciativa Starcluster de la red representa su apuesta más ambiciosa hasta la fecha: combinar centros de datos gestionados de forma centralizada con el mercado descentralizado de Akash para crear lo que llaman una "malla planetaria" optimizada tanto para entrenamiento como para inferencia. La adquisición prevista de aproximadamente 7,200 GPUs NVIDIA GB200 a través de Starbonds posicionaría a Akash para soportar la demanda de IA a hiperescala.

Las métricas del tercer trimestre de 2025 revelan un impulso acelerado:

  • Los ingresos por comisiones aumentaron un 11 % trimestral hasta los 715,000 AKT.
  • Los nuevos arrendamientos crecieron un 42 % intertrimestral hasta los 27,000.
  • La Mejora del Mecanismo de Quema (BME) del primer trimestre de 2026 vincula las quemas de tokens AKT con el gasto en cómputo; cada $1 gastado quema $0.85 de AKT.

Con un volumen de cómputo mensual de $3.36 millones, esto sugiere que aproximadamente 2.1 millones de AKT (unos $985,000) podrían quemarse mensualmente, creando una presión deflacionaria en el suministro de tokens.

Este vínculo directo entre el uso y la tokenómica diferencia a Akash de proyectos donde la utilidad del token parece forzada o desconectada de la adopción real del producto.

Hyperbolic: El disruptor de costos

La propuesta de valor de Hyperbolic es brutalmente simple: ofrecer las mismas capacidades de inferencia de IA que AWS, Azure y Google Cloud a costos un 75 % más bajos. Impulsando a más de 100,000 desarrolladores, la plataforma utiliza Hyper-dOS, un sistema operativo descentralizado que coordina recursos de GPUs distribuidos globalmente a través de una capa de orquestación avanzada.

La arquitectura consta de cuatro componentes principales:

  1. Hyper-dOS: Coordina recursos de GPUs distribuidos globalmente.
  2. GPU Marketplace: Conecta a los proveedores con la demanda de cómputo.
  3. Servicio de Inferencia: Acceso a modelos de código abierto de vanguardia.
  4. Marco de Agentes (Agent Framework): Herramientas que permiten la inteligencia autónoma.

Lo que diferencia a Hyperbolic es su próximo protocolo de Prueba de Muestreo (PoSP) —desarrollado con investigadores de UC Berkeley y la Universidad de Columbia— que proporcionará verificación criptográfica de las salidas de IA.

Esto aborda uno de los mayores desafíos del cómputo descentralizado: la verificación sin necesidad de confianza (trustless) sin depender de autoridades centralizadas. Una vez que PoSP esté activo, las empresas podrán verificar que los resultados de la inferencia se computaron correctamente sin necesidad de confiar en el proveedor de la GPU.

Inferix: El constructor de puentes

Inferix se posiciona como la capa de conexión entre los desarrolladores que necesitan potencia de cómputo GPU y los proveedores con capacidad excedente. Su modelo de pago por uso elimina los compromisos a largo plazo que suelen encadenar a los usuarios con los proveedores de nube tradicionales.

Aunque es más reciente en el mercado, Inferix representa la creciente clase de redes GPU especializadas que se dirigen a segmentos específicos; en este caso, desarrolladores que necesitan un acceso flexible y de corta duración sin los requisitos de escala empresarial.

La revolución DePIN: En cifras

El sector DePIN, en su sentido más amplio, proporciona un contexto crucial para entender dónde encaja el cómputo GPU descentralizado en el panorama de la infraestructura.

A partir de septiembre de 2025, CoinGecko rastrea casi 250 proyectos DePIN con una capitalización de mercado combinada superior a los 19.000 millones de dólares, frente a los 5.200 millones de hace solo 12 meses. Esta tasa de crecimiento del 265 % supera drásticamente al mercado cripto en general.

Dentro de este ecosistema, las DePIN relacionadas con la IA dominan por capitalización de mercado, representando el 48 % de la temática. Las redes descentralizadas de cómputo y almacenamiento suman juntas aproximadamente 19.300 millones de dólares, lo que supone más de la mitad de la capitalización total del mercado DePIN.

Los casos más destacados demuestran la maduración del sector:

  • Aethir: entregó más de 1.400 millones de horas de cómputo y reportó casi 40 millones de dólares en ingresos trimestrales en 2025.
  • io.net y Nosana: cada uno alcanzó capitalizaciones de mercado superiores a los 400 millones de dólares durante sus ciclos de crecimiento.
  • Render Network: superó los 2.000 millones de dólares en capitalización de mercado al expandirse del renderizado a las cargas de trabajo de IA.

El contraargumento de los hiperscaladores: Donde la centralización aún gana

A pesar de la economía convincente y las métricas de crecimiento impresionantes, las redes GPU descentralizadas se enfrentan a desafíos técnicos legítimos que los hiperscaladores están diseñados para manejar.

Cargas de trabajo de larga duración: el entrenamiento de grandes modelos de lenguaje puede llevar semanas o meses de cómputo continuo. Las redes descentralizadas tienen dificultades para garantizar que GPUs específicas permanezcan disponibles durante periodos prolongados, mientras que AWS puede reservar capacidad por el tiempo que sea necesario.

Sincronización estrecha: el entrenamiento distribuido en múltiples GPUs requiere una coordinación a nivel de microsegundos. Cuando esas GPUs están dispersas por varios continentes con latencias de red variables, mantener la sincronización necesaria para un entrenamiento eficiente se vuelve exponencialmente más difícil.

Previsibilidad: para las empresas que ejecutan cargas de trabajo críticas, saber exactamente qué rendimiento esperar es innegociable. Los hiperscaladores pueden proporcionar SLAs detallados; las redes descentralizadas aún están construyendo la infraestructura de verificación para ofrecer garantías similares.

El consenso entre los expertos en infraestructura es que las redes GPU descentralizadas sobresalen en cargas de trabajo por lotes, tareas de inferencia y ejecuciones de entrenamiento de corta duración.

Para estos casos de uso, el ahorro de costes del 50-75 % en comparación con los hiperscaladores supone un cambio radical. Pero para las cargas de trabajo más exigentes, de larga duración y de misión crítica, la infraestructura centralizada sigue teniendo la ventaja, al menos por ahora.

Catalizador de 2026: La explosión de la inferencia de IA

A partir de 2026, se proyecta que la demanda de cómputo para entrenamiento e inferencia de IA se acelere drásticamente, impulsada por tres tendencias convergentes:

  1. Proliferación de la IA agéntica: los agentes autónomos requieren cómputo persistente para la toma de decisiones.
  2. Adopción de modelos de código abierto: a medida que las empresas se alejan de las APIs propietarias, necesitan infraestructura para alojar sus propios modelos.
  3. Despliegue de IA empresarial: las empresas están pasando de la experimentación a la producción.

Este aumento de la demanda favorece directamente las fortalezas de las redes descentralizadas.

Las cargas de trabajo de inferencia suelen ser de corta duración y masivamente paralelizables; exactamente el perfil donde las redes GPU descentralizadas superan a los hiperscaladores en coste, ofreciendo un rendimiento comparable. Una startup que ejecute inferencia para un chatbot o un servicio de generación de imágenes puede reducir sus costes de infraestructura en un 75 % sin sacrificar la experiencia del usuario.

Economía de tokens: La capa de incentivos

El componente de criptomoneda de estas redes no es mera especulación; es el mecanismo que hace que la agregación global de GPUs sea económicamente viable.

Render (RENDER): emitida originalmente como RNDR en Ethereum, la red migró a Solana entre 2023 y 2024, con los titulares intercambiando tokens en una proporción de 1:1. Los tokens de compartición de GPU, incluido RENDER, subieron más del 20 % a principios de 2026, reflejando una creciente convicción en el sector.

Akash (AKT): el mecanismo de quema BME crea un vínculo directo entre el uso de la red y el valor del token. A diferencia de muchos proyectos cripto donde la tokenomics parece desconectada del uso del producto, el modelo de Akash asegura que cada dólar de cómputo impacte directamente en el suministro de tokens.

La capa de tokens resuelve el problema del arranque en frío que afectó a los intentos anteriores de cómputo descentralizado.

Al incentivar a los proveedores de GPU con recompensas en tokens durante los inicios de la red, estos proyectos pueden impulsar la oferta antes de que la demanda alcance una masa crítica. A medida que la red madura, los ingresos reales por cómputo reemplazan gradualmente la inflación de los tokens.

Esta transición de los incentivos en tokens a los ingresos genuinos es la prueba de fuego que separa los proyectos de infraestructura sostenibles de los modelos económicos insostenibles.

La pregunta de los 100 mil millones de dólares: ¿Puede competir lo descentralizado?

El mercado de la computación descentralizada se proyecta que crezca de 9 mil millones de dólares en 2024 a 100 mil millones para 2032. Que las redes de GPU descentralizadas capturen una cuota significativa depende de resolver tres desafíos:

Verificación a escala: El protocolo PoSP de Hyperbolic representa un progreso, pero la industria necesita métodos estandarizados para verificar criptográficamente que el trabajo de computación se realizó correctamente. Sin esto, las empresas seguirán dudando.

Fiabilidad de grado empresarial: Lograr un 99.99 % de tiempo de actividad al coordinar GPUs distribuidas globalmente y operadas de forma independiente requiere una orquestación sofisticada; el modelo Starcluster de Akash muestra un camino a seguir.

Experiencia del desarrollador: Las redes descentralizadas deben igualar la facilidad de uso de AWS, Azure o GCP. La compatibilidad con Kubernetes (como la que ofrece Akash) es un comienzo, pero la integración perfecta con los flujos de trabajo de ML existentes es esencial.

Qué significa esto para los desarrolladores

Para los desarrolladores de IA y constructores de Web3, las redes de GPU descentralizadas representan una oportunidad estratégica:

Optimización de costes: Las facturas de entrenamiento e inferencia pueden consumir fácilmente entre el 50 % y el 70 % del presupuesto de una startup de IA. Reducir esos costes a la mitad o más cambia fundamentalmente la economía unitaria.

Evitar la dependencia del proveedor (vendor lock-in): Los hiperescaladores facilitan la entrada y encarecen la salida. Las redes descentralizadas que utilizan estándares abiertos preservan la opcionalidad.

Resistencia a la censura: Para aplicaciones que podrían enfrentar presión de proveedores centralizados, la infraestructura descentralizada proporciona una capa crítica de resiliencia.

La advertencia es ajustar la carga de trabajo a la infraestructura. Para el prototipado rápido, el procesamiento por lotes, el servicio de inferencia y las ejecuciones de entrenamiento en paralelo, las redes de GPU descentralizadas están listas hoy. Para el entrenamiento de modelos de varias semanas que requiere una fiabilidad absoluta, los hiperescaladores siguen siendo la opción más segura, por ahora.

El camino por delante

La convergencia de la escasez de GPUs, el crecimiento de la demanda de computación de IA y la maduración de la infraestructura DePIN crea una oportunidad de mercado poco común. Los proveedores de la nube tradicionales dominaron la primera generación de infraestructura de IA ofreciendo fiabilidad y conveniencia. Las redes de GPU descentralizadas están compitiendo en coste, flexibilidad y resistencia al control centralizado.

Los próximos 12 meses serán definitorios. A medida que Render escala su subred de computación de IA, Akash pone en línea las GPUs de Starcluster e Hyperbolic lanza la verificación criptográfica, veremos si la infraestructura descentralizada puede cumplir su promesa a hiperescala.

Para los desarrolladores, investigadores y empresas que actualmente pagan precios premium por recursos de GPU escasos, la aparición de alternativas creíbles no puede llegar lo suficientemente pronto. La pregunta no es si las redes de GPU descentralizadas capturarán parte del mercado de computación de 100 mil millones de dólares, sino cuánto.

BlockEden.xyz proporciona infraestructura de blockchain de grado empresarial para desarrolladores que construyen sobre cimientos diseñados para durar. Explore nuestro marketplace de APIs para acceder a servicios de nodos fiables en las principales redes de blockchain.

Infraestructura de Privacidad 2026: La Batalla entre ZK, FHE y TEE que está Reconfigurando la Base de Web3

· 15 min de lectura
Dora Noda
Software Engineer

¿Qué pasaría si la mayor vulnerabilidad de la blockchain no fuera un fallo técnico, sino uno filosófico? Cada transacción, cada saldo de billetera, cada interacción con contratos inteligentes queda expuesta en un registro público, legible para cualquiera con una conexión a Internet. A medida que el capital institucional inunda la Web3 y el escrutinio regulatorio se intensifica, esta transparencia radical se está convirtiendo en el mayor lastre de la Web3.

La carrera por la infraestructura de privacidad ya no es una cuestión de ideología. Es una cuestión de supervivencia. Con más de $ 11,7 mil millones en capitalización de mercado de proyectos de conocimiento cero (zero-knowledge), avances disruptivos en el cifrado totalmente homomórfico y entornos de ejecución de confianza que impulsan más de 50 proyectos de blockchain, tres tecnologías en competencia están convergiendo para resolver la paradoja de la privacidad de la blockchain. La pregunta no es si la privacidad remodelará los cimientos de la Web3, sino qué tecnología ganará.

El trilema de la privacidad: velocidad, seguridad y descentralización

El desafío de la privacidad en la Web3 refleja su problema de escalabilidad: se puede optimizar para dos dimensiones cualesquiera, pero rara vez para las tres. Las pruebas de conocimiento cero ofrecen certeza matemática pero con una sobrecarga computacional. El cifrado totalmente homomórfico permite el cómputo sobre datos cifrados pero a costes de rendimiento abrumadores. Los entornos de ejecución de confianza ofrecen velocidad de hardware nativa pero introducen riesgos de centralización debido a las dependencias del hardware.

Cada tecnología representa un enfoque fundamentalmente diferente para el mismo problema. Las pruebas ZK preguntan: "¿Puedo demostrar que algo es cierto sin revelar por qué?". El FHE pregunta: "¿Puedo computar sobre datos sin verlos nunca?". Los TEE preguntan: "¿Puedo crear una caja negra impenetrable dentro del hardware existente?".

La respuesta determina qué aplicaciones se vuelven posibles. Las DeFi necesitan velocidad para el trading de alta frecuencia. Los sistemas de salud y de identidad necesitan garantías criptográficas. Las aplicaciones empresariales necesitan aislamiento a nivel de hardware. Ninguna tecnología por sí sola resuelve todos los casos de uso, razón por la cual la verdadera innovación está ocurriendo en las arquitecturas híbridas.

Conocimiento cero: de los laboratorios de investigación a una infraestructura de $ 11,7 mil millones

Las pruebas de conocimiento cero han pasado de ser una curiosidad criptográfica a una infraestructura de producción. Con 11,7milmillonesencapitalizacioˊndemercadodeproyectosy11,7 mil millones en capitalización de mercado de proyectos y 3,5 mil millones en volumen de negociación en 24 horas, la tecnología ZK ahora impulsa los rollups de validez que reducen drásticamente los tiempos de retiro, comprimen los datos en cadena en un 90 % y permiten sistemas de identidad que preservan la privacidad.

El gran avance se produjo cuando ZK fue más allá de la simple privacidad de las transacciones. Los sistemas ZK modernos permiten el cómputo verificable a escala. Las zkEVM como zkSync y Polygon zkEVM procesan miles de transacciones por segundo mientras heredan la seguridad de Ethereum. Los ZK rollups publican solo datos mínimos en la Capa 1, reduciendo las tarifas de gas en órdenes de magnitud mientras mantienen la certeza matemática de la corrección.

Pero el verdadero poder de ZK emerge en la computación confidencial. Proyectos como Aztec permiten DeFi privadas: saldos de tokens blindados, trading confidencial y estados de contratos inteligentes cifrados. Un usuario puede demostrar que tiene garantías suficientes para un préstamo sin revelar su patrimonio neto. Una DAO puede votar propuestas sin exponer las preferencias individuales de sus miembros. Una empresa puede verificar el cumplimiento normativo sin revelar datos patentados.

El coste computacional sigue siendo el talón de Aquiles de ZK. La generación de pruebas requiere hardware especializado y un tiempo de procesamiento significativo. Las redes de probadores (provers) como Boundless de RISC Zero intentan mercantilizar la generación de pruebas a través de mercados descentralizados, pero la verificación sigue siendo asimétrica: fácil de verificar, costosa de generar. Esto crea un techo natural para las aplicaciones sensibles a la latencia.

ZK sobresale como una capa de verificación, demostrando afirmaciones sobre el cómputo sin revelar el cómputo en sí. Para aplicaciones que requieren garantías matemáticas y verificabilidad pública, ZK sigue siendo inigualable. Pero para el cómputo confidencial en tiempo real, la penalización de rendimiento se vuelve prohibitiva.

Cifrado totalmente homomórfico: computando lo imposible

El FHE representa el santo grial del cómputo que preserva la privacidad: realizar cálculos arbitrarios sobre datos cifrados sin tener que descifrarlos nunca. La matemática es elegante: cifra sus datos, envíelos a un servidor que no es de confianza, deje que computen sobre el texto cifrado, reciba los resultados cifrados y descífrelos localmente. En ningún momento el servidor ve sus datos en texto plano.

La realidad práctica es mucho más compleja. Las operaciones FHE son entre 100 y 1000 veces más lentas que el cómputo en texto plano. Una simple suma sobre datos cifrados requiere una compleja criptografía basada en redes (lattice-based cryptography). La multiplicación es exponencialmente peor. Esta sobrecarga computacional hace que el FHE sea poco práctico para la mayoría de las aplicaciones blockchain donde, tradicionalmente, cada nodo procesa cada transacción.

Proyectos como Fhenix y Zama están atacando este problema desde múltiples ángulos. La tecnología Decomposable BFV de Fhenix logró un avance a principios de 2026, permitiendo esquemas FHE exactos con un mejor rendimiento y escalabilidad para aplicaciones del mundo real. En lugar de obligar a cada nodo a realizar operaciones FHE, Fhenix funciona como una L2 donde nodos coordinadores especializados manejan el pesado cómputo FHE y envían los resultados por lotes a la red principal.

Zama adopta un enfoque diferente con su Protocolo de Blockchain Confidencial, permitiendo contratos inteligentes confidenciales en cualquier L1 o L2 a través de bibliotecas FHE modulares. Los desarrolladores pueden escribir contratos inteligentes en Solidity que operen con datos cifrados, desbloqueando casos de uso que antes eran imposibles en blockchains públicas.

Las aplicaciones son profundas: intercambios de tokens confidenciales que evitan el front-running, protocolos de préstamos cifrados que ocultan las identidades de los prestatarios, gobernanza privada donde los recuentos de votos se calculan sin revelar las elecciones individuales, subastas confidenciales que evitan el espionaje de ofertas. Inco Network demuestra la ejecución de contratos inteligentes cifrados con control de acceso programable: los propietarios de los datos especifican quién puede computar sobre sus datos y bajo qué condiciones.

Sin embargo, la carga computacional del FHE crea compensaciones fundamentales. Las implementaciones actuales requieren hardware potente, coordinación centralizada o la aceptación de un menor rendimiento. La tecnología funciona, pero escalarla a los volúmenes de transacciones de Ethereum sigue siendo un desafío abierto. Los enfoques híbridos que combinan FHE con cómputo multi-parte (MPC) o pruebas de conocimiento cero intentan mitigar las debilidades; los esquemas de FHE de umbral distribuyen las claves de descifrado entre múltiples partes para que ninguna entidad individual pueda descifrar por sí sola.

El FHE es el futuro, pero un futuro que se mide en años, no en meses.

Entornos de Ejecución Confiables: Velocidad de Hardware, Riesgos de Centralización

Mientras que ZK y FHE luchan con la sobrecarga computacional, los TEE (Trusted Execution Environments) adoptan un enfoque radicalmente diferente: aprovechar las características de seguridad del hardware existente para crear entornos de ejecución aislados. Intel SGX, AMD SEV y ARM TrustZone reservan "enclaves seguros" dentro de las CPU donde el código y los datos permanecen confidenciales incluso para el sistema operativo o el hipervisor.

La ventaja de rendimiento es asombrosa — los TEE se ejecutan a velocidad de hardware nativa porque no utilizan gimnasia criptográfica. Un contrato inteligente que se ejecuta en un TEE procesa transacciones tan rápido como el software tradicional. Esto hace que los TEE sean inmediatamente prácticos para aplicaciones de alto rendimiento: trading de DeFi confidencial, redes de oráculos cifradas y puentes cross-chain privados.

La integración de TEE de Chainlink ilustra el patrón arquitectónico: las computaciones sensibles se ejecutan dentro de enclaves seguros, generan atestaciones criptográficas que demuestran la ejecución correcta y publican los resultados en blockchains públicas. El stack de Chainlink coordina múltiples tecnologías simultáneamente — un TEE realiza cálculos complejos a velocidad nativa mientras que una prueba de conocimiento cero verifica la integridad del enclave, proporcionando rendimiento de hardware con certeza criptográfica.

Más de 50 equipos construyen ahora proyectos de blockchain basados en TEE. TrustChain combina TEE con contratos inteligentes para salvaguardar el código y los datos de los usuarios sin algoritmos criptográficos pesados. iExec en Arbitrum ofrece computación confidencial basada en TEE como infraestructura. Flashbots utiliza TEE para optimizar el orden de las transacciones y reducir el MEV manteniendo la seguridad de los datos.

Pero los TEE conllevan una compensación controvertida: la confianza en el hardware. A diferencia de ZK y FHE, donde la confianza se deriva de las matemáticas, los TEE confían en que Intel, AMD o ARM construyan procesadores seguros. ¿Qué sucede cuando surgen vulnerabilidades de hardware? ¿Qué pasa si los gobiernos obligan a los fabricantes a introducir puertas traseras? ¿Qué pasa si vulnerabilidades accidentales socavan la seguridad del enclave?

Las vulnerabilidades Spectre y Meltdown demostraron que la seguridad del hardware nunca es absoluta. Los defensores de los TEE argumentan que los mecanismos de atestación y la verificación remota limitan el daño de los enclaves comprometidos, pero los críticos señalan que todo el modelo de seguridad colapsa si la capa de hardware falla. A diferencia del "confía en las matemáticas" de ZK o el "confía en el cifrado" de FHE, los TEE exigen "confiar en el fabricante".

Esta división filosófica divide a la comunidad de la privacidad. Los pragmáticos aceptan la confianza en el hardware a cambio de un rendimiento listo para la producción. Los puristas insisten en que cualquier suposición de confianza centralizada traiciona el ethos de la Web3. ¿La realidad? Ambas perspectivas coexisten porque diferentes aplicaciones tienen diferentes requisitos de confianza.

La Convergencia: Arquitecturas de Privacidad Híbridas

Los sistemas de privacidad más sofisticados no eligen una sola tecnología — componen múltiples enfoques para equilibrar las compensaciones. DECO de Chainlink combina TEE para la computación con pruebas ZK para la verificación. Los proyectos superponen FHE para el cifrado de datos con computación multipartita para la gestión de claves descentralizada. El futuro no es ZK vs FHE vs TEE — es ZK + FHE + TEE.

Esta convergencia arquitectónica refleja patrones más amplios de la Web3. Al igual que las blockchains modulares separan el consenso, la ejecución y la disponibilidad de datos en capas especializadas, la infraestructura de privacidad se está modularizando. Use TEE donde la velocidad importe, ZK donde importe la verificabilidad pública, y FHE donde los datos deban permanecer cifrados de extremo a extremo. Los protocolos ganadores serán aquellos que orquesten estas tecnologías de manera fluida.

La investigación de Messari sobre computación confidencial descentralizada destaca esta tendencia: circuitos ofuscados (garbled circuits) para computación entre dos partes, computación multipartita para la gestión de claves distribuidas, pruebas ZK para la verificación, FHE para la computación cifrada y TEE para el aislamiento de hardware. Cada tecnología resuelve problemas específicos. La capa de privacidad del futuro las combina todas.

Esto explica por qué fluyen más de $11.7 mil millones hacia proyectos ZK mientras que las startups de FHE recaudan cientos de millones y la adopción de TEE se acelera. El mercado no está apostando por un único ganador — está financiando un ecosistema donde múltiples tecnologías interoperan. El stack de privacidad se está volviendo tan modular como el stack de blockchain.

Privacidad como Infraestructura, no como Característica

El panorama de la privacidad en 2026 marca un cambio filosófico. La privacidad ya no es una característica añadida a las blockchains transparentes — se está convirtiendo en infraestructura fundamental. Nuevas cadenas se lanzan con arquitecturas de privacidad primero. Los protocolos existentes adaptan capas de privacidad. La adopción institucional depende del procesamiento de transacciones confidenciales.

La presión regulatoria acelera esta transición. MiCA en Europa, la Ley GENIUS en los EE. UU. y los marcos de cumplimiento a nivel mundial exigen sistemas que preserven la privacidad y satisfagan demandas contradictorias: mantener confidenciales los datos de los usuarios y, al mismo tiempo, permitir la divulgación selectiva para los reguladores. Las pruebas ZK permiten atestaciones de cumplimiento sin revelar los datos subyacentes. FHE permite a los auditores computar sobre registros cifrados. Los TEE proporcionan entornos aislados por hardware para computaciones regulatorias sensibles.

La narrativa de adopción empresarial refuerza esta tendencia. Los bancos que prueban la liquidación en blockchain necesitan privacidad en las transacciones. Los sistemas de salud que exploran registros médicos on-chain necesitan cumplir con HIPAA. Las redes de cadena de suministro necesitan lógica de negocios confidencial. Cada caso de uso empresarial requiere garantías de privacidad que las blockchains transparentes de primera generación no pueden proporcionar.

Mientras tanto, DeFi enfrenta problemas de front-running, extracción de MEV y preocupaciones de privacidad que socavan la experiencia del usuario. Un trader que emite una orden grande alerta a actores sofisticados que se adelantan a la transacción (front-run). El voto de gobernanza de un protocolo revela intenciones estratégicas. Todo el historial de transacciones de una billetera queda expuesto para que los competidores lo analicen. Estos no son casos aislados — son limitaciones fundamentales de la ejecución transparente.

El mercado está respondiendo. Los DEX impulsados por ZK ocultan los detalles de las operaciones mientras mantienen una liquidación verificable. Los protocolos de préstamo basados en FHE ocultan las identidades de los prestatarios mientras aseguran la colateralización. Los oráculos habilitados para TEE obtienen datos de manera confidencial sin exponer claves API o fórmulas patentadas. La privacidad se está convirtiendo en infraestructura porque las aplicaciones no pueden funcionar sin ella.

El camino a seguir: 2026 y más allá

Si 2025 fue el año de investigación de la privacidad, 2026 es el de la implementación en producción. La tecnología ZK supera los $ 11,7 mil millones de capitalización de mercado con validity rollups que procesan millones de transacciones diarias. El FHE logra un rendimiento sin precedentes con el Decomposable BFV de Fhenix y la maduración del protocolo de Zama. La adopción de TEE se extiende a más de 50 proyectos de blockchain a medida que maduran los estándares de atestación de hardware.

Sin embargo, persisten desafíos significativos. La generación de pruebas ZK aún requiere hardware especializado y crea cuellos de botella de latencia. La sobrecarga computacional del FHE limita el rendimiento a pesar de los avances recientes. Las dependencias de hardware de TEE introducen riesgos de centralización y posibles vulnerabilidades de puertas traseras. Cada tecnología destaca en dominios específicos mientras tiene dificultades en otros.

El enfoque ganador probablemente no sea la pureza ideológica, sino la composición pragmática. Use ZK para la verificabilidad pública y la certeza matemática. Implemente FHE donde la computación cifrada sea innegociable. Aproveche los TEE donde el rendimiento nativo sea crítico. Combine tecnologías a través de arquitecturas híbridas que hereden las fortalezas mientras mitigan las debilidades.

La infraestructura de privacidad de Web3 está madurando, pasando de prototipos experimentales a sistemas de producción. La pregunta ya no es si las tecnologías de privacidad remodelarán los cimientos de la blockchain; es qué arquitecturas híbridas lograrán el triángulo imposible de velocidad, seguridad y descentralización. Los informes de investigación de 26.000 caracteres de Web3Caff y el capital institucional que fluye hacia los protocolos de privacidad sugieren que la respuesta está emergiendo: los tres, trabajando juntos.

El trilema de la blockchain nos enseñó que los compromisos son fundamentales, pero no insuperables con una arquitectura adecuada. La infraestructura de privacidad está siguiendo el mismo patrón. ZK, FHE y TEE aportan capacidades únicas cada uno. Las plataformas que orquesten estas tecnologías en capas de privacidad cohesivas definirán la próxima década de Web3.

Porque cuando el capital institucional se encuentra con el escrutinio regulatorio y la demanda de confidencialidad de los usuarios, la privacidad no es una característica. Es la base.


Construir aplicaciones blockchain que preserven la privacidad requiere una infraestructura que pueda manejar el procesamiento de datos confidenciales a escala. BlockEden.xyz proporciona infraestructura de nodos de nivel empresarial y acceso a API para cadenas enfocadas en la privacidad, lo que permite a los desarrolladores construir sobre cimientos que priorizan la privacidad, diseñados para el futuro de Web3.

Fuentes

El CEO de Coinbase se convierte en el 'Enemigo Público N.º 1' de Wall Street: La batalla por el futuro de las criptomonedas

· 14 min de lectura
Dora Noda
Software Engineer

Cuando el CEO de JPMorgan Chase, Jamie Dimon, interrumpió la charla de café del CEO de Coinbase, Brian Armstrong, con el ex Primer Ministro del Reino Unido, Tony Blair, en Davos en enero de 2026, señalándolo con el dedo y declarando "Estás lleno de mierda", marcó algo más que un simple choque personal. La confrontación cristalizó lo que puede ser el conflicto definitorio de la maduración de las criptomonedas: la batalla existencial entre la banca tradicional y la infraestructura de las finanzas descentralizadas.

La calificación de The Wall Street Journal hacia Armstrong como el "Enemigo No. 1" de Wall Street no es una hipérbole; refleja una guerra de alto riesgo sobre la arquitectura de las finanzas globales valorada en billones de dólares. En el centro de esta confrontación se encuentra la Ley CLARITY, un proyecto de ley de criptomonedas del Senado de 278 páginas que podría determinar si la innovación o la protección de los incumbentes dará forma a la próxima década de la industria.

El desaire de Davos: Cuando los bancos cierran filas

La recepción de Armstrong en el Foro Económico Mundial en enero de 2026 parece una escena de un thriller corporativo. Tras oponerse públicamente a las disposiciones del borrador de la Ley CLARITY, se enfrentó a un desaire coordinado por parte de la élite bancaria de Estados Unidos.

Los encuentros fueron notablemente uniformes en su hostilidad:

  • Brian Moynihan, de Bank of America, mantuvo una reunión de 30 minutos antes de despedir a Armstrong con un: "Si quieres ser un banco, simplemente sé un banco".
  • El CEO de Wells Fargo, Charlie Scharf, se negó por completo a entablar conversación, afirmando que "no había nada de qué hablar con ellos".
  • Jane Fraser, de Citigroup, le concedió menos de 60 segundos.
  • La confrontación de Jamie Dimon fue la más teatral, acusando públicamente a Armstrong de "mentir en televisión" sobre el sabotaje de los bancos a la legislación de activos digitales.

Esta no fue una hostilidad aleatoria. Fue una respuesta coordinada al retiro del apoyo de Coinbase a la Ley CLARITY por parte de Armstrong apenas 24 horas antes de las reuniones de Davos, y a sus posteriores apariciones en los medios acusando a los bancos de captura regulatoria.

La cuestión de las stablecoins de 6.6 billones de dólares

La disputa central se enfoca en una disposición aparentemente técnica: si las plataformas de criptomonedas pueden ofrecer rendimientos (yields) sobre las stablecoins. Pero lo que está en juego es existencial para ambas partes.

La posición de Armstrong: Los bancos están utilizando su influencia legislativa para prohibir productos competitivos que amenazan su base de depósitos. Los rendimientos de las stablecoins —esencialmente cuentas de alto interés construidas sobre infraestructura blockchain— ofrecen a los consumidores mejores retornos que las cuentas de ahorro tradicionales, operando 24/7 con liquidación instantánea.

El contraargumento de los bancos: Los productos de rendimiento de stablecoins deberían enfrentar los mismos requisitos regulatorios que las cuentas de depósito, incluyendo requisitos de reserva, seguro de la FDIC y normas de adecuación de capital. Permitir que las plataformas de criptomonedas eludan estas protecciones crea un riesgo sistémico.

Las cifras explican la intensidad. Armstrong señaló en enero de 2026 que los bancos tradicionales ahora ven a las criptomonedas como una "amenaza existencial para su negocio". Con la circulación de stablecoins acercándose a los 200,000 millones de dólares y creciendo rápidamente, incluso una migración del 5% de los depósitos bancarios de EE. UU. (actualmente 17.5 billones de dólares) representaría casi 900,000 millones de dólares en depósitos perdidos, junto con los ingresos por comisiones que estos generan.

El borrador de la Ley CLARITY publicado el 12 de enero de 2026 prohibía a las plataformas de activos digitales pagar intereses sobre los saldos de stablecoins, mientras que permitía a los bancos hacer exactamente eso. Armstrong calificó esto como "captura regulatoria para prohibir a su competencia", argumentando que los bancos deberían "competir en un campo de juego equilibrado" en lugar de legislar para eliminar la competencia.

¿Captura regulatoria o protección al consumidor?

Las acusaciones de captura regulatoria de Armstrong tocaron una fibra sensible porque resaltaron verdades incómodas sobre cómo funciona a menudo la regulación financiera en la práctica.

Hablando en Fox Business el 16 de enero de 2026, Armstrong enmarcó su oposición en términos contundentes: "Simplemente me pareció profundamente injusto que una industria [los bancos] viniera y lograra realizar una captura regulatoria para prohibir a su competencia".

Sus quejas específicas sobre el borrador de la Ley CLARITY incluyeron:

  1. Prohibición de facto de las acciones tokenizadas: Disposiciones que impedirían las versiones basadas en blockchain de los valores tradicionales.
  2. Restricciones a DeFi: Lenguaje ambiguo que podría requerir que los protocolos descentralizados se registren como intermediarios.
  3. Prohibición de rendimientos en stablecoins: La prohibición explícita de recompensas por mantener stablecoins, mientras los bancos conservan esta capacidad.

El argumento de la captura regulatoria resuena más allá de los círculos cripto. La investigación económica muestra consistentemente que los actores establecidos ejercen una influencia desmedida sobre las reglas que rigen sus industrias, a menudo en detrimento de los nuevos participantes. La "puerta giratoria" entre las agencias reguladoras y las instituciones financieras que regulan está bien documentada.

Sin embargo, los bancos replican que el enfoque de Armstrong distorsiona los imperativos de protección al consumidor. El seguro de depósitos, los requisitos de capital y la supervisión regulatoria existen porque las fallas del sistema bancario crean cascadas sistémicas que arruinan economías. La crisis financiera de 2008 permanece lo suficientemente fresca en la memoria como para justificar la cautela sobre los intermediarios financieros poco regulados.

La pregunta se reduce a: ¿Están las plataformas de criptomonedas ofreciendo alternativas verdaderamente descentralizadas que no requieren la supervisión bancaria tradicional, o son intermediarios centralizados que deberían enfrentar las mismas reglas que los bancos?

La paradoja de la centralización

Aquí es donde la posición de Armstrong se complica: la propia Coinbase encarna la tensión entre los ideales de descentralización de las criptomonedas y la realidad práctica de los exchanges centralizados.

A febrero de 2026, Coinbase custodia miles de millones en activos de clientes, opera como un intermediario regulado y funciona de manera muy similar a una institución financiera tradicional en su custodia y liquidación de transacciones. Cuando Armstrong argumenta en contra de una regulación de tipo bancario, los críticos señalan que Coinbase se parece notablemente a un banco en su modelo operativo.

Esta paradoja se está manifestando en toda la industria:

Los exchanges centralizados (CEXs) como Coinbase, Binance y Kraken siguen dominando el volumen de operaciones, ofreciendo la liquidez, la velocidad y las rampas de entrada de dinero fíat (fiat on-ramps) que la mayoría de los usuarios necesitan. A partir de 2026, los CEXs procesan la gran mayoría de las transacciones de criptomonedas a pesar de los persistentes riesgos de custodia y las vulnerabilidades regulatorias.

Los exchanges descentralizados (DEXs) han madurado significativamente, con plataformas como Uniswap, Hyperliquid y dYdX procesando miles de millones en volumen diario sin intermediarios. Sin embargo, luchan contra la fricción en la experiencia del usuario, la fragmentación de la liquidez y las tarifas de gas (gas fees) que los hacen poco prácticos para muchos casos de uso.

El debate sobre la descentralización de los exchanges no es académico: es fundamental para determinar si las criptomonedas cumplen su promesa fundacional de desintermediación o simplemente recrean las finanzas tradicionales con tuberías de blockchain.

Si Armstrong es el enemigo de Wall Street, es en parte porque Coinbase ocupa un incómodo terreno intermedio: lo suficientemente centralizado como para amenazar los negocios de depósitos y procesamiento de transacciones de los bancos tradicionales, pero no lo suficientemente descentralizado como para escapar al escrutinio regulatorio que conlleva la custodia de los activos de los clientes.

Lo que la lucha significa para la arquitectura de las criptomonedas

El enfrentamiento entre Armstrong y Dimon en Davos será recordado como un momento crucial porque hizo explícito lo que había sido implícito: la maduración de las criptomonedas significa una competencia directa con las finanzas tradicionales por los mismos clientes, los mismos activos y, en última instancia, el mismo marco regulatorio.

Son posibles tres resultados:

1. Las finanzas tradicionales ganan protección legislativa

Si la Ley CLARITY se aprueba con disposiciones favorables a los bancos —prohibiendo los rendimientos (yields) de stablecoins para las plataformas de criptomonedas mientras se permiten para los bancos— se podría consolidar un sistema de dos niveles. Los bancos mantendrían sus monopolios de depósitos con productos de alto rendimiento, mientras que las plataformas de criptomonedas se convertirían en rieles de liquidación (settlement rails) sin relaciones directas con los consumidores.

Este resultado sería una victoria pírrica para la descentralización. La infraestructura de criptomonedas podría potenciar los sistemas de back-end (como ya lo hacen Canton Network de JPMorgan y otros proyectos de blockchain empresarial), pero la capa orientada al consumidor seguiría dominada por las instituciones tradicionales.

2. Las criptomonedas ganan la competencia por méritos propios

La alternativa es que los esfuerzos legislativos para proteger a los bancos fracasen y las plataformas de criptomonedas demuestren ser superiores en experiencia de usuario, rendimientos e innovación. Este es el resultado preferido de Armstrong: un "capitalismo de suma positiva" donde la competencia impulsa las mejoras.

La evidencia temprana sugiere que esto está sucediendo. Las stablecoins ya dominan los pagos transfronterizos en muchos corredores, ofreciendo una liquidación casi instantánea a una fracción del costo y tiempo de SWIFT. Las plataformas de criptomonedas ofrecen comercio 24/7, activos programables y rendimientos que los bancos tradicionales luchan por igualar.

Pero este camino enfrenta vientos en contra significativos. El poder de cabildeo bancario es formidable y las agencias reguladoras han mostrado renuencia a permitir que las plataformas de criptomonedas operen con la libertad que desean. El colapso de FTX y otras plataformas centralizadas en 2022-2023 dio a los reguladores municiones para argumentar a favor de una supervisión más estricta.

3. La convergencia crea nuevos híbridos

El resultado más probable es una convergencia desordenada. Los bancos tradicionales lanzan productos basados en blockchain (varios ya tienen proyectos de stablecoins). Las plataformas de criptomonedas se vuelven cada vez más reguladas y similares a los bancos. Surgen nuevos modelos híbridos —"Exchanges Universales" que combinan características centralizadas y descentralizadas— para atender diferentes casos de uso.

Ya estamos viendo esto. Bank of America, Citigroup y otros tienen iniciativas de blockchain. Coinbase ofrece custodia institucional que parece indistinguible de un corretaje principal (prime brokerage) tradicional. Los protocolos DeFi se integran con las finanzas tradicionales a través de rampas de acceso reguladas.

La pregunta no es si las criptomonedas o los bancos "ganan", sino si el sistema híbrido resultante es más abierto, eficiente e innovador que el que tenemos hoy, o simplemente vino nuevo en odres viejos.

Las implicaciones más amplias

La transformación de Armstrong en el archienemigo de Wall Street importa porque señala la transición de las criptomonedas de una clase de activo especulativo a una competencia de infraestructura.

Cuando Coinbase salió a bolsa en 2021, todavía era posible ver a las criptomonedas como algo ortogonal a las finanzas tradicionales: un ecosistema separado con sus propias reglas y participantes. Para 2026, esa ilusión se ha roto. Los mismos clientes, el mismo capital y, cada vez más, el mismo marco regulatorio se aplica a ambos mundos.

El desaire de los bancos en Davos no se debió solo a los rendimientos de las stablecoins. Fue el reconocimiento de que las plataformas de criptomonedas ahora compiten directamente por:

  • Depósitos y cuentas de ahorro (saldos en stablecoins vs. cuentas corrientes/ahorros)
  • Procesamiento de pagos (liquidación en blockchain vs. redes de tarjetas)
  • Custodia de activos (billeteras de criptomonedas vs. cuentas de corretaje)
  • Infraestructura de trading (DEXs y CEXs vs. bolsas de valores)
  • Transferencias internacionales (stablecoins vs. banca corresponsal)

Cada uno de estos rubros representa miles de millones en comisiones anuales para las instituciones financieras tradicionales. La amenaza existencial que representa Armstrong no es ideológica: es financiera.

Lo que sigue: El enfrentamiento por la Ley CLARITY

El Comité Bancario del Senado ha retrasado las sesiones de debate y enmienda de la Ley CLARITY mientras continúa el estancamiento entre Armstrong y los bancos. Los legisladores establecieron inicialmente un objetivo "agresivo" para finalizar la legislación a finales del primer trimestre de 2026, pero ese cronograma ahora parece optimista.

Armstrong ha dejado claro que Coinbase no puede apoyar el proyecto de ley "tal como está escrito". La industria cripto en general está dividida: algunas empresas, incluidas las respaldadas por a16z, apoyan versiones de compromiso, mientras que otras se alinean con la postura más dura de Coinbase contra lo que perciben como una captura regulatoria.

A puerta cerrada, continúa el intenso cabildeo de ambas partes. Los bancos abogan por la protección del consumidor y la igualdad de condiciones (desde su perspectiva). Las empresas de criptomonedas abogan por la innovación y la competencia. Los reguladores intentan equilibrar estas presiones contrapuestas mientras gestionan las preocupaciones por el riesgo sistémico.

El resultado probablemente determinará:

  • Si los rendimientos de las stablecoins se convierten en productos de consumo masivo
  • Con qué rapidez los bancos tradicionales enfrentarán la competencia nativa de la cadena de bloques
  • Si las alternativas descentralizadas pueden escalar más allá de los usuarios nativos de cripto
  • Qué parte de la capitalización de mercado de un billón de dólares de las criptomonedas fluye hacia DeFi frente a CeFi

Conclusión: Una batalla por el alma de las criptomonedas

La imagen de Jamie Dimon enfrentándose a Brian Armstrong en Davos es memorable porque dramatiza un conflicto que define el momento actual de las criptomonedas: ¿estamos construyendo alternativas verdaderamente descentralizadas a las finanzas tradicionales, o simplemente nuevos intermediarios?

La posición de Armstrong como el "Enemigo No. 1" de Wall Street surge de encarnar esta contradicción. Coinbase es lo suficientemente centralizado como para amenazar los modelos de negocio de los bancos, pero lo suficientemente descentralizado (en su retórica y hoja de ruta) como para resistir los marcos regulatorios tradicionales. La adquisición de Deribit por 2,900 millones de dólares a principios de 2026 muestra que la empresa apuesta por los derivados y los productos institucionales, negocios claramente similares a los bancarios.

Para los constructores e inversores de cripto, el enfrentamiento entre Armstrong y los bancos es importante porque moldeará el entorno regulatorio de la próxima década. Una legislación restrictiva podría congelar la innovación en los Estados Unidos (mientras la empuja a jurisdicciones más permisivas). Una supervisión excesivamente laxa podría permitir el tipo de riesgos sistémicos que invitan a eventuales medidas enérgicas.

El resultado óptimo — regulaciones que protejan a los consumidores sin atrincherar a los incumbentes — requiere pasar por el ojo de una aguja que los reguladores financieros históricamente han tenido dificultades para atravesar. Ya sea que las acusaciones de captura regulatoria de Armstrong sean reivindicadas o descartadas, la lucha misma demuestra que las criptomonedas han pasado de ser una tecnología experimental a una competencia seria de infraestructura.

BlockEden.xyz ofrece infraestructura de API de blockchain de grado empresarial diseñada para el cumplimiento normativo y los estándares institucionales. Explore nuestros servicios para construir sobre cimientos que puedan navegar este panorama en evolución.


Fuentes:

El Momento de los $6.64 Mil Millones de la Identidad Auto-Soberana: Por Qué 2026 Es el Punto de Inflexión para las Credenciales Descentralizadas

· 25 min de lectura
Dora Noda
Software Engineer

La identidad digital está rota. Lo sabemos desde hace años. Las bases de datos centralizadas son hackeadas, los datos personales se venden y los usuarios tienen un control nulo sobre su propia información. Pero en 2026, algo fundamental está cambiando — y las cifras lo demuestran.

El mercado de la identidad autosoberana (SSI) creció de 3.49milmillonesen2025aunaproyeccioˊnde3.49 mil millones en 2025 a una proyección de 6.64 mil millones en 2026, lo que representa un crecimiento interanual del 90 %. Más importante que las cifras monetarias es lo que las impulsa: los gobiernos están pasando de los pilotos a la producción, los estándares están convergiendo y las credenciales basadas en blockchain se están convirtiendo en la capa de infraestructura que le faltaba a la Web3.

La Unión Europea exige carteras de identidad digital para todos los estados miembros para 2026 bajo eIDAS 2.0. Suiza lanza su eID nacional este año. La cartera digital de Dinamarca entra en funcionamiento en el primer trimestre de 2026. El Departamento de Seguridad Nacional de EE. UU. está invirtiendo en identidad descentralizada para controles de seguridad. Esto no es especulación — es política.

Para los desarrolladores de Web3 y los proveedores de infraestructura, la identidad descentralizada representa tanto una oportunidad como un requisito. Sin sistemas de identidad confiables y que preserven la privacidad, las aplicaciones blockchain no pueden escalar más allá de la especulación hacia una utilidad en el mundo real. Este es el año en que eso cambia.

¿Qué es la identidad autosoberana y por qué importa ahora?

La identidad autosoberana invierte el modelo de identidad tradicional. En lugar de que las organizaciones almacenen sus credenciales en bases de datos centralizadas, usted controla su propia identidad en una billetera digital. Usted decide qué información compartir, con quién y por cuánto tiempo.

Los tres pilares de la SSI

Identificadores descentralizados (DIDs): Son identificadores globalmente únicos que permiten a personas, organizaciones y objetos tener identidades verificables sin depender de registros centralizados. Los DIDs cumplen con los estándares del W3C y están diseñados específicamente para ecosistemas descentralizados.

Credenciales verificables (VCs): Son documentos digitales a prueba de manipulaciones que prueban la identidad, una calificación o un estatus. Piense en licencias de conducir digitales, diplomas universitarios o certificaciones profesionales — excepto que están firmados criptográficamente, almacenados en su billetera y son verificables instantáneamente por cualquier persona con permiso.

Pruebas de conocimiento cero (ZKPs): Esta tecnología criptográfica le permite demostrar atributos específicos sin revelar los datos subyacentes. Puede demostrar que es mayor de 18 años sin compartir su fecha de nacimiento, o demostrar solvencia crediticia sin exponer su historial financiero.

Por qué 2026 es diferente

Los intentos anteriores de identidad descentralizada se estancaron debido a la falta de estándares, la incertidumbre regulatoria y la insuficiente madurez tecnológica. El entorno de 2026 ha cambiado drásticamente:

Convergencia de estándares: El modelo de datos de credenciales verificables 2.0 del W3C y las especificaciones de DID proporcionan interoperabilidad. Claridad regulatoria: eIDAS 2.0, la alineación con el RGPD y los mandatos gubernamentales crean marcos de cumplimiento. Maduración tecnológica: Los sistemas de prueba de conocimiento cero, la infraestructura blockchain y la experiencia de usuario (UX) de las billeteras móviles han alcanzado calidad de producción. Demanda del mercado: Las filtraciones de datos, las preocupaciones por la privacidad y la necesidad de servicios digitales transfronterizos impulsan la adopción.

El mercado de soluciones de identidad digital, que incluye credenciales verificables y gestión de confianza basada en blockchain, crece a más del 20 % anual y se espera que supere los $ 50 mil millones para 2026. Para 2026, los analistas esperan que el 70 % de las agencias gubernamentales adopten la verificación descentralizada, acelerando la adopción en los sectores privados.

Adopción gubernamental: de los pilotos a la producción

El desarrollo más significativo en 2026 no proviene de startups de criptomonedas — proviene de naciones soberanas que construyen infraestructura de identidad sobre rieles de blockchain.

La Cartera de Identidad Digital de la Unión Europea

El reglamento eIDAS 2.0 obliga a los estados miembros a proporcionar a los ciudadanos billeteras de identidad digital para 2026. Esto no es una recomendación — es un requisito legal que afecta a 450 millones de europeos.

La Cartera de Identidad Digital de la Unión Europea representa la integración más completa de identidad legal, privacidad y seguridad hasta la fecha. Los ciudadanos pueden almacenar credenciales emitidas por el gobierno, calificaciones profesionales, instrumentos de pago y acceso a servicios públicos en una única billetera interoperable.

Dinamarca ha anunciado planes para lanzar una billetera digital nacional con entrada en funcionamiento en el primer trimestre de 2026. La billetera cumplirá con el reglamento eIDAS 2.0 de la UE y contará con una amplia gama de credenciales digitales, desde licencias de conducir hasta certificados educativos.

El gobierno de Suiza anunció planes para comenzar a emitir eID a partir de 2026, explorando la interoperabilidad con el marco EUDI (Identidad Digital de la UE). Esto demuestra cómo las naciones que no pertenecen a la UE se están alineando con los estándares europeos para mantener la interoperabilidad digital transfronteriza.

Iniciativas del gobierno de los Estados Unidos

El Departamento de Seguridad Nacional está invirtiendo en identidad descentralizada para acelerar los controles de seguridad e inmigración. En lugar de verificar manualmente los documentos en los cruces fronterizos, los viajeros podrían presentar credenciales verificadas criptográficamente desde sus billeteras digitales, reduciendo el tiempo de procesamiento y mejorando la seguridad.

La votación mediante blockchain para las tropas en el extranjero fue pilotada en Virginia Occidental, demostrando cómo la identidad descentralizada puede permitir el voto remoto seguro manteniendo el secreto del sufragio. La Administración de Servicios Generales y la NASA están estudiando el uso de contratos inteligentes en la contratación y gestión de subvenciones, con la verificación de identidad como un componente fundamental.

California e Illinois, entre otros departamentos estatales de vehículos motorizados, están probando licencias de conducir digitales basadas en blockchain. No son imágenes PDF en su teléfono — son credenciales firmadas criptográficamente que pueden divulgarse selectivamente (demostrar que es mayor de 21 años sin revelar su edad exacta o dirección).

El cambio de la especulación a la infraestructura

El cambio hacia un futuro descentralizado en 2026 ya no es un campo de juego para especuladores — se ha convertido en el principal banco de trabajo para las naciones soberanas. Los gobiernos están dando forma cada vez más a cómo las tecnologías Web3 pasan de la experimentación a la infraestructura a largo plazo.

Las instituciones del sector público están comenzando a adoptar tecnologías descentralizadas como parte de sus sistemas centrales, particularmente donde la transparencia, la eficiencia y la rendición de cuentas son más importantes. Para 2026, se espera que los proyectos piloto se vuelvan reales con identificaciones digitales, registros de tierras y sistemas de pago en blockchain.

Líderes de los principales exchanges informan de conversaciones con más de 12 gobiernos sobre la tokenización de activos estatales, con la identidad digital sirviendo como la capa de autenticación que permite el acceso seguro a los servicios gubernamentales y a los activos tokenizados.

Credenciales verificables: Los casos de uso que impulsan la adopción

Las credenciales verificables no son teóricas — están resolviendo problemas reales en diversas industrias hoy en día. Comprender dónde las VCs aportan valor aclara por qué se está acelerando su adopción.

Credenciales educativas y profesionales

Las universidades pueden emitir diplomas digitales que los empleadores u otras instituciones pueden verificar instantáneamente. En lugar de solicitar expedientes académicos, esperar la verificación y arriesgarse al fraude, los empleadores verifican las credenciales criptográficamente en segundos.

Las certificaciones profesionales funcionan de manera similar. La licencia de una enfermera, la acreditación de un ingeniero o la colegiación de un abogado se convierten en una credencial verificable. Las juntas de certificación emiten las credenciales, los profesionales las controlan y los empleadores o clientes las verifican sin intermediarios.

¿El beneficio? Reducción de la fricción, eliminación del fraude de credenciales y empoderamiento de las personas para poseer su identidad profesional a través de jurisdicciones y empleadores.

Sector salud: Registros médicos que preservan la privacidad

Las VCs permiten el intercambio seguro y respetuoso de la privacidad de los registros médicos y las credenciales profesionales. Un paciente puede compartir información médica específica con un nuevo médico sin transferir todo su historial de salud. Un farmacéutico puede verificar la autenticidad de una receta sin acceder a datos innecesarios del paciente.

Los proveedores de atención médica pueden demostrar sus credenciales y especializaciones sin depender de bases de datos de acreditación centralizadas que crean puntos únicos de falla y vulnerabilidades de privacidad.

La propuesta de valor es convincente: reducción de la carga administrativa, mayor privacidad, verificación de credenciales más rápida y mejor coordinación de la atención al paciente.

Gestión de la cadena de suministro

Existe una clara oportunidad para utilizar VCs en las cadenas de suministro con múltiples casos de uso y beneficios potenciales. Las multinacionales gestionan las identidades de los proveedores con blockchain, reduciendo el fraude y aumentando la transparencia.

Un fabricante puede verificar que un proveedor cumple con certificaciones específicas (normas ISO, abastecimiento ético, cumplimiento ambiental) revisando credenciales firmadas criptográficamente en lugar de realizar auditorías prolongadas o confiar en datos autoinformados.

Las aduanas y el control de fronteras pueden verificar el origen de los productos y las certificaciones de cumplimiento al instante, reduciendo los tiempos de despacho y evitando que entren productos falsificados en las cadenas de suministro.

Servicios financieros: KYC y cumplimiento normativo

Los requisitos de "Conozca a su cliente" (KYC) crean una fricción masiva en los servicios financieros. Los usuarios envían repetidamente los mismos documentos a diferentes instituciones, y cada una de ellas realiza procesos de verificación redundantes.

Con las credenciales verificables, un banco o un exchange regulado verifica la identidad de un usuario una vez, emite una credencial KYC y el usuario puede presentar esa credencial a otras instituciones financieras sin volver a enviar documentos. La privacidad se preserva mediante la divulgación selectiva — las instituciones verifican solo lo que necesitan saber.

Las VCs pueden simplificar el cumplimiento normativo mediante la codificación y verificación de estándares, como certificaciones o requisitos legales, fomentando una mayor confianza a través de la transparencia y el intercambio de datos que preserva la privacidad.

El stack tecnológico: DIDs, VCs y pruebas de conocimiento cero

Comprender la arquitectura técnica de la identidad autosoberana aclara cómo logra propiedades imposibles con los sistemas centralizados.

Identificadores descentralizados (DIDs)

Los DIDs son identificadores únicos que no son emitidos por una autoridad central. Se generan criptográficamente y se anclan a blockchains u otras redes descentralizadas. Un DID se ve así: did:polygon:0x1234...abcd

Las propiedades clave:

  • Globalmente únicos: No se requiere un registro central
  • Persistentes: No dependen de la supervivencia de ninguna organización individual
  • Criptográficamente verificables: La propiedad se demuestra mediante firmas digitales
  • Preservan la privacidad: Pueden generarse sin revelar información personal

Los DIDs permiten a las entidades crear y gestionar sus propias identidades sin el permiso de autoridades centralizadas.

Credenciales verificables (VCs)

Las credenciales verificables son documentos digitales que contienen afirmaciones sobre un sujeto. Son emitidas por autoridades de confianza, poseídas por los sujetos y verificadas por las partes que confían en ellas.

La estructura de una VC incluye:

  • Emisor: La entidad que realiza las afirmaciones (universidad, agencia gubernamental, empleador)
  • Sujeto: La entidad sobre la cual se realizan las afirmaciones (usted)
  • Afirmaciones: La información real (título obtenido, verificación de edad, licencia profesional)
  • Prueba: Firma criptográfica que demuestra la autenticidad del emisor y la integridad del documento

Las VCs son resistentes a manipulaciones. Cualquier modificación en la credencial invalida la firma criptográfica, haciendo que la falsificación sea prácticamente imposible.

Pruebas de conocimiento cero (ZKPs)

Las pruebas de conocimiento cero son la tecnología que hace posible la divulgación selectiva. Usted puede demostrar afirmaciones sobre sus credenciales sin revelar los datos subyacentes.

Ejemplos de verificación habilitada por ZK:

  • Demostrar que es mayor de 18 años sin compartir su fecha de nacimiento.
  • Demostrar que su puntaje crediticio supera un umbral sin revelar su puntaje exacto ni su historial financiero.
  • Demostrar que es residente de un país sin revelar su dirección precisa.
  • Demostrar que posee una credencial válida sin revelar qué organización la emitió.

Polygon ID fue pionero en la integración de las ZKP con la identidad descentralizada, convirtiéndose en la primera plataforma de identidad impulsada por criptografía de conocimiento cero. Esta combinación proporciona privacidad, seguridad y divulgación selectiva de una manera que los sistemas centralizados no pueden igualar.

Proyectos y protocolos principales que lideran el camino

Varios proyectos han surgido como proveedores de infraestructura para la identidad descentralizada, cada uno adoptando diferentes enfoques para resolver los mismos problemas centrales.

Polygon ID: Identidad de conocimiento cero para Web3

Polygon ID es una plataforma de identidad privada, descentralizada y soberana para la próxima iteración de Internet. Lo que la hace única es que es la primera en ser impulsada por criptografía de conocimiento cero.

Los componentes centrales incluyen:

  • Identificadores descentralizados (DIDs) que cumplen con los estándares del W3C.
  • Credenciales verificables (VCs) para declaraciones que preservan la privacidad.
  • Pruebas de conocimiento cero que permiten la divulgación selectiva.
  • Integración con la cadena de bloques Polygon para el anclaje de credenciales.

La plataforma permite a los desarrolladores crear aplicaciones que requieran una identidad verificable sin comprometer la privacidad del usuario, algo fundamental para DeFi, juegos, aplicaciones sociales y cualquier servicio Web3 que requiera pruebas de humanidad o credenciales.

World ID: Prueba de humanidad (Proof of Personhood)

World (anteriormente Worldcoin), respaldado por Sam Altman, se enfoca en resolver el problema de la prueba de humanidad. El protocolo de identidad, World ID, permite a los usuarios demostrar que son humanos reales y únicos en línea sin revelar datos personales.

Esto aborda un desafío fundamental de la Web3: ¿cómo demostrar que alguien es un humano único sin crear un registro de identidad centralizado? World utiliza verificación biométrica (escaneos de iris) combinada con pruebas de conocimiento cero para crear credenciales de prueba de humanidad verificables.

Los casos de uso incluyen:

  • Resistencia a ataques Sybil para airdrops y gobernanza.
  • Prevención de bots para plataformas sociales.
  • Mecanismos de distribución justa que requieren "una persona, un voto".
  • Distribución de renta básica universal que requiere prueba de identidad única.

Civic, Fractal y soluciones empresariales

Otros actores importantes incluyen Civic (infraestructura de verificación de identidad), Fractal (credenciales KYC para cripto) y soluciones empresariales de Microsoft, IBM y Okta que integran estándares de identidad descentralizada en los sistemas existentes de gestión de identidad y acceso.

La diversidad de enfoques sugiere que el mercado es lo suficientemente grande como para soportar múltiples ganadores, cada uno atendiendo a diferentes casos de uso y segmentos de usuarios.

La oportunidad de alineación con el RGPD

Uno de los argumentos más convincentes para la identidad descentralizada en 2026 proviene de las regulaciones de privacidad, particularmente el Reglamento General de Protección de Datos (RGPD) de la UE.

Minimización de datos por diseño

El Artículo 5 del RGPD exige la minimización de datos: recopilar solo los datos personales necesarios para fines específicos. Los sistemas de identidad descentralizada apoyan intrínsecamente este principio a través de la divulgación selectiva.

En lugar de compartir su documento de identidad completo (nombre, dirección, fecha de nacimiento, número de identificación) al demostrar su edad, comparte solo el hecho de que supera el umbral de edad requerido. La parte solicitante recibe la información mínima necesaria y usted conserva el control sobre sus datos completos.

Control del usuario y derechos de los titulares de los datos

Según los Artículos 15 a 22 del RGPD, los usuarios tienen amplios derechos sobre sus datos personales: el derecho de acceso, rectificación, supresión, portabilidad y limitación del tratamiento. Los sistemas centralizados tienen dificultades para respetar estos derechos porque los datos a menudo se duplican en múltiples bases de datos con un linaje poco claro.

Con la identidad soberana, los usuarios mantienen el control directo sobre el procesamiento de sus datos personales. Usted decide quién accede a qué información, por cuánto tiempo, y puede revocar el acceso en cualquier momento. Esto simplifica significativamente el cumplimiento de los derechos de los titulares de los datos.

Mandato de privacidad por diseño

El Artículo 25 del RGPD exige la protección de datos por diseño y por defecto. Los principios de identidad descentralizada se alinean naturalmente con este mandato. La arquitectura comienza con la privacidad como estado predeterminado, requiriendo una acción explícita del usuario para compartir información en lugar de optar por la recopilación de datos por defecto.

El desafío de la corresponsabilidad (Joint Controllership)

Sin embargo, existen complejidades técnicas y legales por resolver. Los sistemas de cadena de bloques a menudo buscan la descentralización, reemplazando a un solo actor centralizado con múltiples participantes. Esto complica la asignación de responsabilidad y rendición de cuentas, especialmente dada la definición ambigua del RGPD sobre la corresponsabilidad (joint controllership).

Los marcos regulatorios están evolucionando para abordar estos desafíos. El marco eIDAS 2.0 contempla explícitamente los sistemas de identidad basados en blockchain, proporcionando claridad legal sobre las responsabilidades y obligaciones de cumplimiento.

Por qué 2026 es el punto de inflexión

Varios factores convergentes posicionan a 2026 de manera única como el año de despegue para la identidad autosoberana.

Los mandatos regulatorios crean demanda

La fecha límite de eIDAS 2.0 de la Unión Europea crea una demanda inmediata de soluciones de identidad digital que cumplan con la normativa en los 27 estados miembros. Los proveedores, emisores de billeteras, emisores de credenciales y las partes que confían en ellas deben implementar sistemas interoperables antes de los plazos legalmente exigidos.

Este impulso regulatorio crea un efecto de cascada: a medida que los sistemas europeos entran en funcionamiento, los países no pertenecientes a la UE que buscan la integración del comercio y los servicios digitales deben adoptar estándares compatibles. El mercado de 450 millones de personas de la UE se convierte en el pozo de gravedad que atrae la alineación de los estándares globales.

La madurez tecnológica permite el escalado

Los sistemas de pruebas de conocimiento cero (zero-knowledge proofs), anteriormente teóricos o imprácticamente lentos, ahora se ejecutan de manera eficiente en dispositivos de consumo. Los zkSNARKs y zkSTARKs permiten la generación y verificación instantánea de pruebas sin requerir hardware especializado.

La infraestructura de blockchain ha madurado para manejar cargas de trabajo relacionadas con la identidad. Las soluciones de Capa 2 (Layer 2) proporcionan entornos de alto rendimiento y bajo costo para anclar DIDs y registros de credenciales. La experiencia de usuario (UX) de las billeteras móviles evolucionó de la complejidad nativa de las criptomonedas a interfaces amigables para el consumidor.

Las preocupaciones por la privacidad impulsan la adopción

Las brechas de datos, el capitalismo de vigilancia y la erosión de la privacidad digital han pasado de ser preocupaciones marginales a una conciencia generalizada. Los consumidores comprenden cada vez más que los sistemas de identidad centralizados crean "honeypots" para los hackers y facilitan el mal uso por parte de las plataformas.

El cambio hacia la identidad descentralizada surgió como una de las respuestas más activas de la industria a la vigilancia digital. En lugar de converger en un único identificador global, los esfuerzos enfatizan cada vez más la divulgación selectiva, permitiendo a los usuarios demostrar atributos específicos sin revelar su identidad completa.

Servicios digitales transfronterizos que requieren interoperabilidad

Los servicios digitales globales — desde el trabajo remoto hasta la educación en línea y el comercio internacional — requieren la verificación de la identidad en distintas jurisdicciones. Los sistemas nacionales de identificación centralizados no son interoperables. Los estándares de identidad descentralizada permiten la verificación transfronteriza sin forzar a los usuarios a entrar en sistemas aislados y fragmentados.

Un europeo puede demostrar sus credenciales a un empleador estadounidense, un brasileño puede verificar sus cualificaciones ante una universidad japonesa y un desarrollador indio puede demostrar su reputación a un cliente canadiense; todo a través de credenciales verificables criptográficamente sin intermediarios centralizados.

La integración de Web3: La identidad como la capa faltante

Para que el blockchain y la Web3 vayan más allá de la especulación y alcancen la utilidad, la identidad es esencial. DeFi, NFTs, DAOs y las plataformas sociales descentralizadas requieren una identidad verificable para casos de uso del mundo real.

DeFi y finanzas conformes

Las finanzas descentralizadas no pueden escalar hacia mercados regulados sin identidad. Los préstamos con garantía insuficiente (undercollateralized) requieren la verificación de la solvencia crediticia. Los valores tokenizados requieren verificaciones del estado de inversor acreditado. Los pagos transfronterizos necesitan el cumplimiento de KYC.

Las credenciales verificables permiten que los protocolos DeFi verifiquen los atributos del usuario (puntuación crediticia, estado de inversor acreditado, jurisdicción) sin almacenar datos personales en la cadena (on-chain). Los usuarios mantienen su privacidad, los protocolos logran el cumplimiento normativo y los reguladores obtienen capacidad de auditoría.

Resistencia a ataques de Sybil para airdrops y gobernanza

Los proyectos de Web3 luchan constantemente contra los ataques de Sybil, en los que una persona crea múltiples identidades para reclamar recompensas desproporcionadas o poder de gobernanza. Las credenciales de prueba de humanidad (proof-of-personhood) resuelven esto al permitir la verificación de una identidad humana única sin revelar dicha identidad.

Los airdrops pueden distribuir tokens de manera justa a usuarios reales en lugar de a granjas de bots. La gobernanza de las DAOs puede implementar el principio de "una persona, un voto" en lugar de "un token, un voto", manteniendo al mismo tiempo la privacidad del votante.

Redes sociales descentralizadas y sistemas de reputación

Las plataformas sociales descentralizadas como Farcaster y Lens Protocol necesitan capas de identidad para prevenir el spam, establecer reputación y permitir la confianza sin una moderación centralizada. Las credenciales verificables permiten a los usuarios demostrar atributos (edad, estatus profesional, pertenencia a una comunidad) mientras mantienen el pseudonimato.

Los sistemas de reputación pueden acumularse a través de las plataformas cuando los usuarios controlan su propia identidad. Tus contribuciones en GitHub, tu reputación en StackOverflow y tus seguidores en Twitter se convierten en credenciales portátiles que te siguen a través de las aplicaciones de Web3.

Construyendo sobre la infraestructura de identidad descentralizada

Para los desarrolladores y proveedores de infraestructura, la identidad descentralizada crea oportunidades en todo el stack tecnológico.

Proveedores de billeteras e interfaces de usuario

Las billeteras de identidad digital son la capa de aplicación de cara al consumidor. Estas deben gestionar el almacenamiento de credenciales, la divulgación selectiva y la verificación con una UX lo suficientemente sencilla para usuarios no técnicos.

Las oportunidades incluyen aplicaciones de billeteras móviles, extensiones de navegador para la identidad Web3 y soluciones de billeteras empresariales para credenciales organizacionales.

Plataformas de emisión de credenciales

Los gobiernos, las universidades, las organizaciones profesionales y los empleadores necesitan plataformas para emitir credenciales verificables. Estas soluciones deben integrarse con los sistemas existentes (sistemas de información estudiantil, plataformas de RR.HH., bases de datos de licencias) y, al mismo tiempo, generar VCs conformes con los estándares del W3C.

Servicios de Verificación y APIs

Las aplicaciones que necesitan verificación de identidad requieren APIs para solicitar y verificar credenciales. Estos servicios se encargan de la verificación criptográfica, las comprobaciones de estado (¿se ha revocado la credencial?) y los informes de cumplimiento.

Infraestructura de Blockchain para el Anclaje de DIDs

Los DIDs y los registros de revocación de credenciales necesitan una infraestructura de blockchain. Mientras que algunas soluciones utilizan blockchains públicas como Ethereum o Polygon, otras construyen redes con permisos o arquitecturas híbridas que combinan ambas.

Para los desarrolladores que construyen aplicaciones Web3 que requieren la integración de identidad descentralizada, una infraestructura de blockchain confiable es esencial. BlockEden.xyz ofrece servicios RPC de grado empresarial para Polygon, Ethereum, Sui y otras redes utilizadas comúnmente para el anclaje de DIDs y sistemas de credenciales verificables, garantizando que su infraestructura de identidad escale con un tiempo de actividad del 99.99 %.

Los Desafíos por Delante

A pesar del impulso, persisten desafíos significativos antes de que la identidad soberana (SSI) logre una adopción masiva.

Interoperabilidad entre Ecosistemas

Múltiples estándares, protocolos y enfoques de implementación corren el riesgo de crear ecosistemas fragmentados. Una credencial emitida en Polygon ID podría no ser verificable por sistemas construidos en plataformas diferentes. La alineación de la industria en torno a los estándares del W3C ayuda, pero los detalles de implementación aún varían.

La interoperabilidad cross-chain —la capacidad de verificar credenciales independientemente de qué blockchain ancle el DID— sigue siendo un área activa de desarrollo.

Recuperación y Gestión de Claves

La identidad soberana otorga a los usuarios la responsabilidad de gestionar sus claves criptográficas. Si pierde sus claves, pierde su identidad. Esto crea un desafío de UX y seguridad: ¿cómo equilibrar el control del usuario con los mecanismos de recuperación de cuentas?

Las soluciones incluyen la recuperación social (contactos de confianza que ayudan a restaurar el acceso), esquemas de copia de seguridad en múltiples dispositivos y modelos híbridos custodiales / no custodiales. Aún no ha surgido una solución perfecta.

Fragmentación Regulatoria

Mientras que la UE proporciona marcos claros con eIDAS 2.0, los enfoques regulatorios varían a nivel mundial. EE. UU. carece de una legislación federal integral sobre identidad digital. Los mercados asiáticos adoptan enfoques diversos. Esta fragmentación complica la creación de sistemas de identidad globales.

Tensión entre Privacidad y Auditabilidad

Los reguladores a menudo requieren auditabilidad y la capacidad de identificar a los actores maliciosos. Los sistemas zero-knowledge priorizan la privacidad y el anonimato. Equilibrar estas demandas contrapuestas —permitir la aplicación legítima de la ley mientras se previene la vigilancia masiva— sigue siendo un tema polémico.

Las soluciones pueden incluir la divulgación selectiva a partes autorizadas, criptografía de umbral que permite la supervisión de múltiples partes, o pruebas de zero-knowledge de cumplimiento sin revelar identidades.

Conclusión: La Identidad es Infraestructura

La valoración de mercado de 6.64 mil millones de dólares para la identidad soberana en 2026 refleja algo más que simple expectativa: representa un cambio fundamental en la infraestructura. La identidad se está convirtiendo en una capa de protocolo, no en una característica de la plataforma.

Los mandatos gubernamentales en toda Europa, los pilotos gubernamentales en EE. UU., la maduración tecnológica de las pruebas zero-knowledge y la convergencia de estándares en torno a las especificaciones del W3C crean las condiciones para la adopción masiva. Las credenciales verificables resuelven problemas reales en educación, salud, cadena de suministro, finanzas y gobernanza.

Para la Web3, la identidad descentralizada proporciona la capa faltante que permite el cumplimiento, la resistencia a ataques Sybil y la utilidad en el mundo real. DeFi no puede escalar hacia mercados regulados sin ella. Las plataformas sociales no pueden prevenir el spam sin ella. Las DAOs no pueden implementar una gobernanza justa sin ella.

Los desafíos son reales: brechas de interoperabilidad, UX de gestión de claves, fragmentación regulatoria y tensiones entre privacidad y auditabilidad. Pero la dirección del viaje es clara.

2026 no será el año en que todos adopten repentinamente la identidad soberana. Es el año en que los gobiernos despliegan sistemas de producción, los estándares se consolidan y la capa de infraestructura se vuelve disponible para que los desarrolladores construyan sobre ella. Las aplicaciones que aprovechen esa infraestructura surgirán en los años siguientes.

Para quienes construyen en este espacio, la oportunidad es histórica: construir la capa de identidad para la próxima iteración de Internet —una que devuelve el control a los usuarios, respeta la privacidad por diseño y funciona a través de fronteras y plataformas—. Eso vale mucho más que 6.64 mil millones de dólares.

Fuentes: