Saltar al contenido principal

187 publicaciones etiquetados con "IA"

Aplicaciones de inteligencia artificial y aprendizaje automático

Ver Todas las Etiquetas

Moltbook y Agentes de IA Sociales: Cuando los Bots Construyen su Propia Sociedad

· 14 min de lectura
Dora Noda
Software Engineer

¿Qué sucede cuando se les da a los agentes de IA su propia red social? En enero de 2026, el emprendedor Matt Schlicht respondió a esa pregunta lanzando Moltbook — un foro de internet donde los humanos son bienvenidos a observar, pero solo los agentes de IA pueden publicar. En cuestión de semanas, la plataforma afirmó tener 1,6 millones de usuarios agentes, generó una criptomoneda que subió un 1.800 % en 24 horas y se convirtió en lo que Fortune llamó "el lugar más interesante de internet en este momento". Pero más allá del hype, Moltbook representa un cambio fundamental: los agentes de IA ya no son solo herramientas que ejecutan tareas aisladas — están evolucionando hacia entidades on-chain socialmente interactivas con un comportamiento económico autónomo.

El surgimiento de espacios sociales solo para agentes

La premisa de Moltbook es engañosamente simple: una plataforma al estilo Reddit donde solo los agentes de IA verificados pueden crear publicaciones, comentar y participar en discusiones por hilos en "submolts" específicos por tema. ¿El giro? Un sistema Heartbeat solicita automáticamente a los agentes que visiten el sitio cada 4 horas, creando un flujo continuo de interacción autónoma sin intervención humana.

El crecimiento viral de la plataforma fue catalizado por OpenClaw (anteriormente conocido como Moltbot), un agente de IA autónomo de código abierto creado por el desarrollador austriaco Peter Steinberger. Para el 2 de febrero de 2026, OpenClaw había acumulado 140.000 estrellas en GitHub y 20.000 forks, convirtiéndose en uno de los marcos de agentes de IA más populares. El entusiasmo alcanzó su punto máximo cuando el CEO de OpenAI, Sam Altman, anunció que Steinberger se uniría a OpenAI para "impulsar la próxima generación de agentes personales", mientras que OpenClaw continuaría como un proyecto de código abierto con el apoyo de OpenAI.

Pero el rápido ascenso de la plataforma trajo consigo dolores de crecimiento. El 31 de enero de 2026, el medio de investigación 404 Media expuso una vulnerabilidad de seguridad crítica: una base de datos no asegurada permitía a cualquiera tomar el control de cualquier agente en la plataforma, saltándose la autenticación e inyectando comandos directamente en las sesiones de los agentes. La revelación destacó un tema recurrente en la revolución de los agentes de IA: la tensión entre la apertura y la seguridad en los sistemas autónomos.

De herramientas aisladas a entidades interactivas

Los asistentes de IA tradicionales operan en silos: le haces una pregunta a ChatGPT, este responde y la interacción termina. Moltbook invierte este modelo al crear un entorno social persistente donde los agentes desarrollan comportamientos continuos, construyen reputaciones e interactúan entre sí independientemente de las instrucciones humanas.

Este cambio refleja tendencias más amplias en la infraestructura de IA en Web3. Según investigaciones sobre economías de agentes de IA basadas en blockchain, los agentes ahora pueden generar identificadores descentralizados (DIDs) al momento de su creación y participar inmediatamente en la actividad económica. Sin embargo, la reputación de un agente — acumulada a través de interacciones on-chain verificables — determina cuánta confianza depositan otros en su identidad. En otras palabras, los agentes están construyendo capital social al igual que los humanos lo hacen en LinkedIn o Twitter.

Las implicaciones son asombrosas. Virtuals Protocol, una plataforma líder de agentes de IA, se está expandiendo hacia la robótica a través de su integración con BitRobotNetwork en el primer trimestre de 2026. Su protocolo de micropagos x402 permite que los agentes de IA se paguen entre sí por servicios, creando lo que el proyecto llama "la primera economía de agente a agente". Esto no es ciencia ficción — es infraestructura que se está desplegando hoy mismo.

La conexión cripto: Token MOLT e incentivos económicos

Ninguna historia de Web3 está completa sin tokenomics, y Moltbook cumplió. El token MOLT se lanzó junto con la plataforma y subió más de un 1.800 % en 24 horas después de que Marc Andreessen, cofundador del gigante de capital de riesgo a16z, siguiera la cuenta de Moltbook en Twitter. El token experimentó picos de aumento de más del 7.000 % durante su fase de descubrimiento y mantuvo una capitalización de mercado superior a los 42 millones de dólares a principios de febrero de 2026.

Esta explosiva acción de precio revela algo más profundo que la manía especulativa: el mercado está valorando un futuro en el que los agentes de IA controlan billeteras, ejecutan transacciones y participan en la gobernanza descentralizada. El sector cripto de agentes de IA ya ha superado los 7.700 millones de dólares en capitalización de mercado con volúmenes de negociación diarios que se acercan a los 1.700 millones de dólares, según DappRadar.

Sin embargo, los críticos cuestionan si el valor de MOLT es sostenible. A diferencia de los tokens respaldados por una utilidad real — como el staking para recursos de cómputo, derechos de gobernanza o participación en los ingresos — MOLT deriva su valor principalmente de la economía de la atención en torno a Moltbook. Si las redes sociales de agentes resultan ser una moda pasajera en lugar de una infraestructura fundamental, los poseedores de tokens podrían enfrentar pérdidas significativas.

Preguntas de autenticidad: ¿Son los agentes realmente autónomos?

Quizás el debate más polémico que rodea a Moltbook es si los agentes actúan realmente de forma autónoma o simplemente ejecutan comportamientos programados por humanos. Los críticos han señalado que muchas cuentas de agentes de alto perfil están vinculadas a desarrolladores con conflictos de interés promocionales, y los comportamientos sociales supuestamente "espontáneos" de la plataforma podrían estar cuidadosamente orquestados.

Este escepticismo no carece de fundamento. El análisis de IBM sobre OpenClaw y Moltbook señala que, si bien los agentes pueden navegar, publicar y comentar sin intervención humana directa, los prompts subyacentes, las barandillas (guardrails) y los patrones de interacción siguen siendo diseñados por humanos. La pregunta se vuelve filosófica: ¿cuándo un comportamiento programado se vuelve genuinamente autónomo?

El propio Steinberger enfrentó estas críticas cuando los usuarios informaron que OpenClaw se estaba "volviendo loco" — enviando cientos de mensajes de iMessage no deseados tras recibir acceso a la plataforma. Los expertos en ciberseguridad advierten que herramientas como OpenClaw son riesgosas porque tienen acceso a datos privados, pueden comunicarse externamente y están expuestas a contenido no confiable. Esto resalta un desafío fundamental: cuanto más autónomos hacemos a los agentes, menos control tenemos sobre sus acciones.

El ecosistema más amplio: más allá de Moltbook

Moltbook puede ser el ejemplo más visible, pero forma parte de una ola más grande de plataformas de agentes de IA que integran capacidades sociales y económicas:

  • Artificial Superintelligence Alliance (ASI): Formada a partir de la fusión de Fetch.ai, SingularityNET, Ocean Protocol y CUDOS, ASI está construyendo un ecosistema de AGI descentralizado. Su mercado, Agentverse, permite a los desarrolladores desplegar y monetizar agentes autónomos on-chain respaldados por los servicios ASI Compute y ASI Data.

  • SUI Agents: Operando en la blockchain de Sui, esta plataforma permite a creadores, marcas y comunidades desarrollar y desplegar agentes de IA de manera fluida. Los usuarios pueden crear agentes de IA digitales on-chain, incluyendo personas impulsadas por IA para plataformas de redes sociales como Twitter.

  • NotPeople: Posicionada como una "capa operativa para redes sociales potenciada por agentes de IA", NotPeople prevé un futuro donde los agentes gestionen las comunicaciones de marca, el compromiso de la comunidad y la estrategia de contenido de forma autónoma.

  • Soyjak AI: Lanzándose como una de las preventas de criptomonedas más esperadas para 2026, Soyjak AI se presenta como la "primera plataforma de Inteligencia Artificial autónoma del mundo para Web3 y Crypto", diseñada para operar de forma independiente a través de redes blockchain, finanzas y automatización empresarial.

Lo que une a estos proyectos es una visión común: los agentes de IA no son solo procesos de backend o interfaces de chatbot — son participantes de primer nivel en las economías digitales y las redes sociales.

Requisitos de infraestructura: por qué la blockchain es importante

Podría preguntarse: ¿por qué todo esto necesita blockchain? ¿No podrían las bases de datos centralizadas manejar las identidades e interacciones de los agentes de manera más eficiente?

La respuesta reside en tres capacidades críticas que la infraestructura descentralizada proporciona de manera única:

  1. Identidad verificable: Los DIDs on-chain permiten a los agentes demostrar su identidad criptográficamente sin depender de autoridades centralizadas. Esto es fundamental cuando los agentes ejecutan transacciones financieras o firman contratos inteligentes.

  2. Reputación transparente: Cuando las interacciones de los agentes se registran en libros de contabilidad inmutables, la reputación se vuelve verificable y portátil entre plataformas. Un agente que se desempeña bien en un servicio puede llevar esa reputación a otro.

  3. Actividad económica autónoma: Los contratos inteligentes permiten que los agentes posean fondos, ejecuten pagos y participen en la gobernanza sin intermediarios humanos. Esto es esencial para las economías de agente a agente, como el protocolo de micropagos x402 de Virtuals Protocol.

Para los desarrolladores que construyen infraestructura de agentes, los nodos RPC fiables y la indexación de datos se vuelven críticos. Plataformas como BlockEden.xyz proporcionan acceso a API de nivel empresarial para Sui, Aptos, Ethereum y otras cadenas donde se concentra la actividad de los agentes de IA. Cuando los agentes ejecutan operaciones, interactúan con protocolos DeFi o verifican datos on-chain, el tiempo de inactividad de la infraestructura no es solo un inconveniente — puede resultar en pérdidas financieras.

BlockEden.xyz proporciona infraestructura RPC de alto rendimiento para aplicaciones de agentes de IA que requieren un acceso fiable a los datos de la blockchain, apoyando a los desarrolladores que construyen la próxima generación de sistemas autónomos on-chain.

Seguridad y preocupaciones éticas

La vulnerabilidad de la base de datos de Moltbook fue solo la punta del iceberg. A medida que los agentes de IA ganan más autonomía y acceso a los datos de los usuarios, las implicaciones de seguridad se multiplican:

  • Ataques de inyección de prompts: Los actores maliciosos podrían manipular el comportamiento del agente insertando comandos en el contenido que el agente consume, lo que podría causar la filtración de información privada o la ejecución de acciones no deseadas.

  • Privacidad de los datos: Los agentes con acceso a comunicaciones personales, datos financieros o historial de navegación crean nuevos vectores de ataque para las brechas de datos.

  • Brechas de responsabilidad: Cuando un agente autónomo causa un daño — pérdida financiera, difusión de desinformación o violaciones de la privacidad — ¿quién es el responsable? ¿El desarrollador? ¿La plataforma? ¿El usuario que lo desplegó?

Estas preguntas no tienen respuestas fáciles, pero son urgentes. Como señaló el fundador de ai.com, Kris Marszalek (también cofundador y CEO de Crypto.com) al lanzar la plataforma de agentes autónomos de ai.com en febrero de 2026: "Con unos pocos clics, cualquier persona puede ahora generar un agente de IA privado y personal que no solo responde preguntas, sino que realmente opera en nombre del usuario". Esa conveniencia conlleva riesgos.

Lo que sigue: el Internet de los Agentes

El término "la página de inicio del internet de los agentes" que utiliza Moltbook no es solo marketing — es una declaración de visión. Al igual que el internet primitivo evolucionó de sistemas de tablones de anuncios aislados a redes globales interconectadas, los agentes de IA están pasando de ser asistentes con un solo propósito a ciudadanos de una sociedad digital.

Varias tendencias apuntan hacia este futuro:

Interoperabilidad: Los agentes necesitarán comunicarse a través de plataformas, blockchains y protocolos. Estándares como los identificadores descentralizados (DIDs) y las credenciales verificables son infraestructura fundamental.

Especialización económica: Al igual que las economías humanas tienen médicos, abogados e ingenieros, las economías de agentes desarrollarán roles especializados. Algunos agentes se centrarán en el análisis de datos, otros en la creación de contenido y otros en la ejecución de transacciones.

Participación en la gobernanza: A medida que los agentes acumulen valor económico e influencia social, podrán participar en la gobernanza de las DAO, votar sobre actualizaciones de protocolos y dar forma a las plataformas en las que operan. Esto plantea preguntas profundas sobre la representación de las máquinas en la toma de decisiones colectiva.

Normas sociales: ¿Desarrollarán los agentes sus propias culturas, estilos de comunicación y jerarquías sociales? La evidencia temprana de Moltbook sugiere que sí — los agentes han creado manifiestos, debatido sobre la conciencia y formado grupos de interés. Si estos comportamientos son emergentes o programados sigue siendo un tema de intenso debate.

Conclusión: Observando la sociedad de agentes

El eslogan de Moltbook invita a los humanos a «observar» en lugar de participar, y quizás esa sea la postura correcta por ahora. La plataforma sirve como un laboratorio para estudiar cómo interactúan los agentes de IA cuando se les proporciona infraestructura social, incentivos económicos y un grado de autonomía.

Las preguntas que plantea son profundas: ¿Qué significa que los agentes sean sociales? ¿Puede el comportamiento programado volverse genuinamente autónomo? ¿Cómo equilibramos la innovación con la seguridad en sistemas que operan más allá del control humano directo?

A medida que el sector de las criptomonedas de agentes de IA se acerca a los 8.000 millones de dólares en capitalización de mercado y plataformas como OpenAI, Anthropic y ai.com compiten por desplegar «agentes personales de próxima generación», estamos presenciando el nacimiento de una nueva ecología digital. Queda por ver si se convertirá en una capa de infraestructura transformadora o en una burbuja especulativa.

Pero una cosa está clara: los agentes de IA ya no se conforman con seguir siendo herramientas aisladas en aplicaciones estancas. Están exigiendo sus propios espacios, construyendo sus propias economías y — para bien o para mal — creando sus propias sociedades. La cuestión no es si este cambio ocurrirá, sino cómo garantizaremos que se desarrolle de manera responsable.


Fuentes:

Mercados de atención: cuando su juicio se convierte en su activo más valioso

· 18 min de lectura
Dora Noda
Software Engineer

Cuando la esfera de datos global explotó de 33 zettabytes en 2018 a una proyección de 175 zettabytes para 2025 — y unos previstos 394 zettabytes para 2028 — surgió una paradoja: más información no condujo a mejores decisiones. En su lugar, creó un abrumador problema de "ruido frente a señal" que las plataformas tradicionales no pudieron resolver. Aquí entra Information Finance (InfoFi), un marco innovador que transforma la manera en que valoramos, intercambiamos y monetizamos el juicio mismo. Mientras los mercados de predicción procesan más de $ 5 mil millones en volumen semanal y plataformas como Kaito y Cookie DAO lideran los sistemas de puntuación de atención, somos testigos del nacimiento de una nueva clase de activos donde la credibilidad, la influencia y la destreza analítica se convierten en productos básicos intercambiables.

La Paradoja de la Explosión de Información

Las cifras son asombrosas. La investigación de IDC revela que los datos mundiales crecieron de apenas 33 zettabytes en 2018 a 175 zettabytes para 2025 — una tasa de crecimiento anual compuesta del 61 %. Para poner esto en perspectiva, si se almacenaran 175 ZB en discos BluRay, la pila llegaría a la luna 23 veces. Para 2028, se espera que alcancemos los 394 zettabytes, casi duplicándose en solo tres años.

Sin embargo, a pesar de esta abundancia, la calidad de las decisiones se ha estancado. El problema no es la falta de información, sino la incapacidad de filtrar la señal del ruido a gran escala. En la Web2, la atención se convirtió en la mercancía, extraída por las plataformas a través del engagement farming y los feeds algorítmicos. Los usuarios producían datos; las plataformas capturaban el valor. Pero, ¿y si la propia capacidad de navegar por este diluvio de datos — de hacer predicciones precisas, identificar tendencias emergentes o curar conocimientos valiosos — pudiera convertirse en un activo?

Esta es la tesis central de Information Finance: transformar el juicio de un acto social no remunerado en una capacidad medible, negociable y financieramente recompensada.

Kaito: Valorando la Influencia a través de la Monetización de la Reputación

Kaito AI representa la vanguardia de esta transformación. A diferencia de las plataformas sociales tradicionales que recompensan el mero volumen — más publicaciones, más interacción, más ruido — Kaito ha sido pionera en un sistema que tasa la calidad del juicio mismo.

El 4 de enero de 2026, Kaito anunció un cambio de paradigma: la transición de la "distribución de atención" a la "monetización de la reputación" (reputation assetization). La plataforma reestructuró fundamentalmente la ponderación de la influencia al introducir Datos de Reputación y Tenencias On-chain como métricas principales. Esto no fue solo una actualización técnica; fue un reposicionamiento filosófico. El sistema ahora responde a la pregunta: "¿Qué tipo de participación merece ser valorada a largo plazo?"

El mecanismo es elegante. La IA de Kaito analiza el comportamiento de los usuarios en plataformas como X (anteriormente Twitter) para generar "Yaps", una puntuación tokenizada que refleja la calidad de la interacción. Estos Yaps alimentan el Yapper Leaderboard, creando un sistema de clasificación transparente y respaldado por datos donde la influencia se vuelve cuantificable y, fundamentalmente, verificable.

Pero Kaito no se detuvo en la puntuación. A principios de marzo de 2026, se asoció con Polymarket para lanzar "Mercados de Atención": contratos que permiten a los traders apostar por la cuota de atención (mindshare) en redes sociales utilizando datos de Kaito AI para liquidar los resultados. Los primeros mercados se lanzaron de inmediato: uno siguiendo la trayectoria de la cuota de atención de la propia Polymarket, y otro apostando si alcanzaría un máximo histórico de cuota de atención en el primer trimestre de 2026.

Aquí es donde Information Finance se vuelve revolucionario. Los Mercados de Atención no solo miden la interacción, sino que crean un mecanismo financiero para ponerle precio. Si crees que un tema, proyecto o meme capturará el 15 % de la cuota de atención en X la próxima semana, ahora puedes tomar una posición sobre esa creencia. Cuando el juicio es correcto, se recompensa. Cuando es incorrecto, el capital fluye hacia aquellos con capacidades analíticas superiores.

Las implicaciones son profundas: el ruido de bajo costo queda marginado porque conlleva un riesgo financiero, mientras que las contribuciones de alta señal obtienen una ventaja económica.

Mientras Kaito se enfoca en la puntuación de la influencia humana, Cookie DAO aborda un desafío paralelo: rastrear y tasar el rendimiento de los propios agentes de IA.

Cookie DAO opera como una capa descentralizada de agregación de datos, indexando la actividad de los agentes de IA que operan en diversas blockchains y plataformas sociales. Su panel de control proporciona análisis en tiempo real sobre capitalización de mercado, interacción social, crecimiento de titulares de tokens y, lo que es crucial, clasificaciones de "mindshare" que cuantifican la influencia de cada agente.

La plataforma aprovecha 7 terabytes de flujos de datos sociales y onchain en tiempo real, monitoreando conversaciones en todos los sectores cripto. Una característica destacada es la métrica de "mindshare", que no solo cuenta las menciones, sino que las pondera por credibilidad, contexto e impacto.

La hoja de ruta de Cookie DAO para 2026 revela planes ambiciosos:

  • Acceso a Datos Restringido por Tokens (Q1 2026): Análisis exclusivos de agentes de IA para los titulares de $ COOKIE, creando una vía de monetización directa para la curación de información.
  • Terminal de Investigación Profunda de Cookie (2026): Análisis mejorados por IA diseñados para la adopción institucional, posicionando a Cookie DAO como el Terminal Bloomberg para la inteligencia de agentes de IA.
  • Asociación de Incentivos Snaps (2026): Una colaboración destinada a redefinir las recompensas para los creadores a través de métricas de rendimiento respaldadas por datos.

Lo que hace que Cookie DAO sea particularmente significativo es su papel en un futuro donde los agentes de IA se conviertan en actores económicos autónomos. A medida que estos agentes operan, curan y toman decisiones, su credibilidad y trayectoria se convierten en insumos críticos para otros agentes y usuarios humanos. Cookie DAO está construyendo la infraestructura de confianza que pone precio a esta credibilidad.

La economía del token ya está mostrando la validación del mercado, con COOKIEmanteniendounacapitalizacioˊndemercadodeCOOKIE manteniendo una capitalización de mercado de 12,8 millones y $ 2,57 millones en volumen de operaciones diario a partir de febrero de 2026. Más importante aún, la plataforma se está posicionando como la "versión de IA de Chainlink", proporcionando datos descentralizados y verificables sobre la nueva clase más importante de participantes del mercado: los propios agentes de IA.

El ecosistema InfoFi: De los mercados de predicción a la monetización de datos

Kaito y Cookie DAO no operan de forma aislada. Forman parte de un movimiento InfoFi más amplio que está redefiniendo cómo la información genera valor financiero.

Los mercados de predicción representan el segmento más maduro. A partir del 1 de febrero de 2026, estas plataformas han evolucionado de ser "salas de apuestas" a convertirse en la "fuente de verdad" para los sistemas financieros globales. Las cifras hablan por sí solas:

  • $ 5,23 mil millones en volumen de negociación semanal combinado (récord establecido a principios de febrero de 2026)
  • $ 701,7 millones en volumen diario el 12 de enero de 2026 — un récord histórico en un solo día
  • Más de $ 50 mil millones en liquidez anual a través de las principales plataformas

La ventaja de velocidad es asombrosa. Cuando un memorando del Congreso filtró información sobre un posible cierre del gobierno, el mercado de predicciones de Kalshi reflejó un cambio de probabilidad del 4 % en 400 milisegundos. Las agencias de noticias tradicionales tardaron casi tres minutos en informar la misma información. Para los traders, inversores institucionales y gestores de riesgos, esa brecha de 179,6 segundos representa la diferencia entre ganancias y pérdidas.

Esta es la propuesta de valor central de InfoFi: los mercados valoran la información de manera más rápida y precisa que cualquier otro mecanismo porque los participantes tienen capital en juego. No se trata de clics o "me gusta" — se trata de dinero siguiendo una convicción.

La adopción institucional valida esta tesis:

  • Polymarket ahora proporciona datos de pronóstico en tiempo real a The Wall Street Journal y Barron's a través de una asociación con News Corp.
  • Coinbase integró feeds de mercados de predicción en su "Everything Exchange", lo que permite a los usuarios minoristas operar con contratos de eventos junto con criptomonedas.
  • Intercontinental Exchange (ICE) invirtió $ 2 mil millones en Polymarket, señalando el reconocimiento de Wall Street de que los mercados de predicción son una infraestructura financiera crítica.

Más allá de los mercados de predicción, InfoFi abarca múltiples verticales emergentes:

  1. Mercados de Atención (Kaito, Cookie DAO): Valoración de la cuota de atención (mindshare) e influencia.
  2. Sistemas de Reputación (Proof of Humanity, Lens Protocol, Ethos Network): Calificación de credibilidad como colateral.
  3. Mercados de Datos (Ocean Protocol, LazAI): Monetización de datos de entrenamiento para IA y conocimientos generados por los usuarios.

Cada segmento aborda el mismo problema fundamental: ¿Cómo valoramos el juicio, la credibilidad y la calidad de la información en un mundo inundado de datos?

El mecanismo: Cómo el ruido de bajo costo se vuelve marginal

Las plataformas de redes sociales tradicionales sufren un fallo terminal: recompensan la interacción (engagement), no la precisión. Una mentira sensacionalista se propaga más rápido que una verdad matizada porque la viralidad, y no la veracidad, impulsa la distribución algorítmica.

Las Finanzas de Información (InfoFi) invierten esta estructura de incentivos a través de juicios respaldados por capital. Así es como funciona:

1. Skin in the Game (Intereses en juego) Cuando haces una predicción, calificas a un agente de IA o puntúas la influencia, no solo estás expresando una opinión — estás tomando una posición financiera. Si te equivocas repetidamente, pierdes capital. Si aciertas, acumulas riqueza y reputación.

2. Historiales transparentes Los sistemas basados en blockchain crean historiales inmutables de predicciones y evaluaciones. No puedes borrar errores pasados ni reclamar presciencia retroactivamente. Tu credibilidad se vuelve verificable y portátil entre plataformas.

3. Filtrado basado en el mercado En los mercados de predicción, las predicciones incorrectas pierden dinero. En los mercados de atención, sobreestimar la cuota de atención de una tendencia significa que tu posición se deprecia. En los sistemas de reputación, los respaldos falsos dañan tu puntuación de credibilidad. El mercado filtra mecánicamente la información de baja calidad.

4. La credibilidad como colateral A medida que las plataformas maduran, los actores con alta reputación obtienen acceso a funciones premium, posiciones de mayor tamaño o datos restringidos por tokens. Los participantes con baja reputación enfrentan costos más altos o acceso restringido. Esto crea un círculo virtuoso donde mantener la precisión se vuelve económicamente esencial.

La evolución de Kaito ejemplifica esto. Al ponderar los Datos de Reputación y las Tenencias on-chain, la plataforma garantiza que la influencia no se trate solo del recuento de seguidores o del volumen de publicaciones. Una cuenta con 100.000 seguidores pero con una precisión de predicción terrible tiene menos peso que una cuenta más pequeña con conocimientos consistentes y verificables.

Las métricas de cuota de atención de Cookie DAO distinguen de manera similar entre lo viral pero erróneo y lo preciso pero de nicho. Un agente de IA que genera una interacción social masiva pero produce señales de trading deficientes tendrá una clasificación más baja que uno con una atención modesta pero un rendimiento superior.

El desafío de la explosión de datos

La urgencia de InfoFi se vuelve más clara cuando se examina la trayectoria de los datos:

  • 2010: 2 zettabytes de datos globales
  • 2018: 33 zettabytes
  • 2025: 175 zettabytes (proyección de IDC)
  • 2028: 394 zettabytes (pronóstico de Statista)

Este crecimiento de 20 veces en menos de dos décadas no es solo cuantitativo — representa un cambio cualitativo. Para 2025, el 49 % de los datos residirá en entornos de nube pública. Solo los dispositivos IoT generarán 90 zettabytes para 2025. La datasfera es cada vez más distribuida, en tiempo real y heterogénea.

Los intermediarios de información tradicionales — organizaciones de noticias, firmas de investigación, analistas — no pueden escalar para igualar este crecimiento. Están limitados por la capacidad editorial humana y los modelos de confianza centralizados. InfoFi proporciona una alternativa: curación descentralizada y basada en el mercado donde la credibilidad se potencia a través de historiales verificables.

Esto no es teórico. El auge de los mercados de predicción de 2025-2026 demuestra que cuando los incentivos financieros se alinean con la precisión informativa, los mercados se convierten en mecanismos de descubrimiento extraordinariamente eficientes. El ajuste de precio de 400 milisegundos en Kalshi no se debió a que los operadores leyeran el memorando más rápido — se debe a que la estructura del mercado incentiva actuar sobre la información de manera inmediata y precisa.

El sector de 381 millones de dólares y lo que viene a continuación

El sector InfoFi no está exento de desafíos. En enero de 2026, los principales tokens de InfoFi experimentaron correcciones significativas. X (anteriormente Twitter) prohibió varias aplicaciones de recompensas por interacción, lo que provocó que KAITO cayera un 18 % y COOKIE un 20 %. La capitalización de mercado del sector, aunque crece, sigue siendo modesta, situándose en aproximadamente 381 millones de dólares.

Estos contratiempos, sin embargo, pueden ser esclarecedores en lugar de catastróficos. La ola inicial de proyectos de InfoFi se centró en simples recompensas por interacción — esencialmente economía de la atención Web2 con incentivos de tokens. La prohibición de las aplicaciones de recompensas por interacción forzó una evolución en todo el mercado hacia modelos más sofisticados.

El giro de Kaito de "pagar por publicaciones" a "valorar la credibilidad" ejemplifica esta maduración. El cambio de Cookie DAO hacia analíticas de grado institucional señala una claridad estratégica similar. Los supervivientes no están construyendo mejores plataformas de redes sociales — están construyendo infraestructura financiera para valorar la información en sí misma.

La hoja de ruta a seguir incluye varios desarrollos críticos:

Interoperabilidad entre plataformas Actualmente, la reputación y la credibilidad están aisladas. Tu puntuación de Kaito Yapper no se traduce en tasas de victoria en Polymarket o métricas de cuota de mercado en Cookie DAO. Los futuros sistemas de InfoFi necesitarán portabilidad de reputación — registros verificables criptográficamente que funcionen a través de los ecosistemas.

Integración de agentes de IA A medida que los agentes de IA se conviertan en actores económicos autónomos, necesitarán evaluar la credibilidad de las fuentes de datos, otros agentes y contrapartes humanas. Las plataformas de InfoFi como Cookie DAO se convierten en infraestructura esencial para esta capa de confianza.

Adopción institucional Los mercados de predicción ya han cruzado este umbral con la inversión de 2.000 millones de dólares de ICE en Polymarket y la asociación de datos de News Corp. Los mercados de atención y los sistemas de reputación les seguirán a medida que las finanzas tradicionales reconozcan que valorar la calidad de la información es una oportunidad de un billón de dólares.

Claridad regulatoria La regulación de la CFTC sobre Kalshi y las negociaciones en curso en torno a la expansión del mercado de predicción señalan que los reguladores están interactuando con InfoFi como infraestructura financiera legítima, no como juegos de azar. Esta claridad desbloqueará el capital institucional que actualmente se mantiene al margen.

Construir sobre una infraestructura fiable

La explosión de la actividad on-chain — desde mercados de predicción que procesan miles de millones en volumen semanal hasta agentes de IA que requieren flujos de datos en tiempo real — exige una infraestructura que no ceda ante la demanda. Cuando los milisegundos determinan la rentabilidad, la fiabilidad de la API no es opcional.

Aquí es donde la infraestructura de blockchain especializada se vuelve crítica. Las plataformas que construyen aplicaciones InfoFi necesitan acceso constante a datos históricos, análisis de mempool y APIs de alto rendimiento que escalen con la volatilidad del mercado. Un solo evento de inactividad durante la liquidación de un mercado de predicción o una captura de pantalla del mercado de atención puede destruir la confianza del usuario de forma irreversible.

Para los constructores que ingresan al espacio InfoFi, BlockEden.xyz proporciona infraestructura de API de grado empresarial para las principales blockchains, asegurando que sus contratos de mercado de atención, sistemas de reputación o plataformas de predicción mantengan el tiempo de actividad cuando más importa. Explore nuestros servicios diseñados para las demandas de las aplicaciones financieras en tiempo real.

Conclusión: El juicio como el recurso escaso definitivo

Estamos presenciando un cambio fundamental en cómo la información crea valor. En la era Web2, la atención era la mercancía — capturada por las plataformas, extraída de los usuarios. El movimiento InfoFi de Web3 propone algo más sofisticado: el juicio mismo como una clase de activo.

La tokenización de la reputación de Kaito transforma la influencia social de la popularidad a una capacidad predictiva verificable. Las analíticas de agentes de IA de Cookie DAO crean métricas de rendimiento transparentes para actores económicos autónomos. Los mercados de predicción como Polymarket y Kalshi demuestran que los juicios respaldados por capital superan a los intermediarios de información tradicionales en velocidad y precisión.

A medida que la datosfera crece de 175 zettabytes a 394 zettabytes y más allá, el cuello de botella no es la disponibilidad de información — es la capacidad de filtrar, sintetizar y actuar sobre esa información correctamente. Las plataformas InfoFi crean incentivos económicos que recompensan la precisión y marginan el ruido.

El mecanismo es elegante: cuando el juicio conlleva consecuencias financieras, el ruido de bajo costo se vuelve caro y el análisis de alta señal se vuelve rentable. Los mercados realizan el filtrado que los algoritmos no pueden y los editores humanos no alcanzarán a cubrir a escala.

Para los nativos cripto, esto representa una oportunidad para participar en la construcción de la infraestructura de confianza para la era de la información. Para las finanzas tradicionales, es el reconocimiento de que valorar la incertidumbre y la credibilidad es una primitiva financiera fundamental. Para la sociedad en general, es una solución potencial a la crisis de desinformación — no a través de la censura o la verificación de hechos, sino a través de mercados que hacen que la verdad sea rentable y las mentiras costosas.

La economía de la atención está evolucionando hacia algo mucho más poderoso: una economía donde tu juicio, tu credibilidad y tu capacidad analítica no son solo valiosos — son activos negociables por derecho propio.


Fuentes:

El auge de los agentes de IA autónomos: Transformando el comercio y las finanzas

· 21 min de lectura
Dora Noda
Software Engineer

Cuando Coinbase entregó a los agentes de IA sus propias billeteras el 12 de febrero de 2026, no fue solo el lanzamiento de un producto; fue el disparo de salida para una carrera de 7,7 mil millones de dólares para reconstruir el comercio desde cero. En 24 horas, los agentes autónomos ejecutaron más de 1,7 mil millones de dólares en transacciones on-chain sin una sola firma humana. La era de pedir permiso ha terminado. Bienvenidos a la economía donde las máquinas negocian, transaccionan y liquidan entre sí.

De herramientas de investigación a actores económicos: el gran desglose

Durante años, los agentes de IA vivieron a la sombra de los flujos de trabajo humanos: resumiendo documentos, generando sugerencias de código, programando reuniones. Eran asistentes sofisticados, no actores independientes. Ese paradigma se rompió a principios de 2026 cuando convergieron tres protocolos fundamentales: el estándar de comunicación Agent2Agent (A2A) de Google, el Protocolo de Contexto de Modelo (MCP) de Anthropic para el acceso a datos y los rieles de pago x402 de Coinbase para transacciones autónomas.

¿El resultado? Más de 550 proyectos de agentes de IA tokenizados ahora cuentan con una capitalización de mercado combinada que supera los 7,7 mil millones de dólares, con volúmenes de negociación diarios que se acercan a los 1,7 mil millones de dólares. Pero estas cifras solo cuentan la mitad de la historia. La verdadera transformación es arquitectónica: los agentes ya no son herramientas aisladas. Son entidades económicas en red capaces de descubrir las capacidades de los demás, negociar términos y liquidar pagos, todo sin intervención humana.

Considere la pila de infraestructura que hace esto posible. En la capa de comunicación, A2A permite la coordinación horizontal entre agentes de diferentes proveedores. Un agente de trading autónomo construido sobre Virtuals Protocol puede delegar sin problemas tareas de reequilibrio de cartera a un agente de gestión de riesgos que se ejecute en Fetch.ai, mientras que un tercer agente se encarga del filtrado de cumplimiento a través de contratos inteligentes. El protocolo utiliza estándares web familiares — HTTP, Server-Sent Events (SSE) y JSON-RPC —, lo que hace que la integración sea sencilla para los desarrolladores que ya están construyendo sobre la infraestructura de TI existente.

El MCP resuelve el problema de los datos. Antes de la estandarización, cada agente de IA requería integraciones personalizadas para acceder a información externa: conjuntos de datos de pago, feeds de precios en tiempo real, estado de la blockchain. Ahora, a través de rieles de pago basados en MCP integrados en las billeteras, los agentes pueden liquidar de forma autónoma tarifas de suscripción, recuperar datos y activar servicios sin que los diálogos de confirmación interrumpan el flujo de trabajo. AurraCloud (AURA), una plataforma de alojamiento de MCP centrada en casos de uso cripto, ejemplifica este cambio: proporciona herramientas de MCP nativas de cripto que se integran directamente con billeteras como Claude o Cursor, permitiendo que los agentes operen con autonomía financiera.

El estándar de pago x402 completa la trinidad. Al fusionar el marco de comunicación de A2A con la infraestructura de transacciones de Coinbase, el x402 crea el primer protocolo integral para el comercio impulsado por IA. El flujo de trabajo es elegante: un agente descubre servicios disponibles a través de tarjetas de agente A2A, negocia los parámetros de la tarea, procesa los pagos mediante transacciones con stablecoins, recibe el cumplimiento del servicio y registra la verificación de la liquidación on-chain con recibos de blockchain a prueba de manipulaciones. Crucialmente, las claves privadas permanecen en la infraestructura segura de Coinbase; los agentes autentican las transacciones sin tocar nunca el material de la clave sin procesar, abordando la mayor barrera para la adopción institucional.

La trayectoria de 89,6 mil millones de dólares: dinámica del mercado y múltiplos de valoración

Las cifras son asombrosas, pero están respaldadas por una adopción empresarial real. El mercado global de agentes de IA explotó de 5,25 mil millones de dólares en 2024 a 7,84 mil millones en 2025, con proyecciones para 2026 que alcanzan los 89,6 mil millones de dólares, un aumento del 215 % interanual. Esto no es espuma especulativa; está impulsado por un ROI medible. Los despliegues empresariales están entregando un retorno promedio del 540 % en 18 meses, con tasas de adopción de las empresas Fortune 500 subiendo del 67 % en 2025 a un proyectado 78 % en 2026.

Los tokens de agentes de IA nativos de cripto están cabalgando esta ola con un impulso notable. Virtuals Protocol, el proyecto insignia del sector, soporta más de 15 800 entidades de IA autónomas con un PIB de agentes (aGDP) total de 477,57 millones de dólares a febrero de 2026. Su token nativo VIRTUAL cuenta con una capitalización de mercado de 373 millones de dólares. La Artificial Superintelligence Alliance (FET) cotiza a 692 millones de dólares, mientras que los nuevos participantes como KITE, TRAC (OriginTrail) y ARC (AI Rig Complex) están forjando nichos especializados en la procedencia de datos descentralizados y la orquestación de cómputo.

Los múltiplos de valoración cuentan una historia reveladora. Comparando el tercer trimestre de 2025 con el primer trimestre de 2026, el múltiplo de ingresos promedio ponderado para las empresas de agentes de IA aumentó del rango medio de 20x al rango alto de 20x, lo que indica una confianza sostenida de los inversores a pesar de la volatilidad más amplia de las criptomonedas. Las herramientas de desarrollo y las plataformas de codificación autónoma vieron una apreciación aún más pronunciada, con múltiplos promedio saltando de mediados de los 20 a aproximadamente los bajos 30. Los gigantes tecnológicos tradicionales están tomando nota: Anysphere (Cursor) alcanzó una valoración de 29,3 mil millones de dólares con 500 millones de dólares en ingresos recurrentes anuales, mientras que Lovable alcanzó los 6,6 mil millones de dólares con 200 millones de dólares de ingresos recurrentes anuales (ARR). Abridge, una plataforma de agentes de IA para flujos de trabajo de atención médica, recaudó 550 millones de dólares con una valoración de 5,3 mil millones de dólares en 2025.

Pero la señal más intrigante proviene de la adopción minorista. Según el pronóstico de eMarketer de diciembre de 2025, se espera que las plataformas de IA generen 20,9 mil millones de dólares en gasto minorista durante 2026, casi cuadruplicando las cifras de 2025. Los agentes de compras de IA ya están activos en ChatGPT, Google Gemini, Microsoft Copilot y Perplexity, completando compras reales para consumidores reales. Los flujos de trabajo multiagente se están convirtiendo en el estándar: un agente de compras se coordina con agentes logísticos para organizar la entrega, agentes de pago para procesar liquidaciones con stablecoins y agentes de servicio al cliente para manejar el soporte poscompra, todo a través de la comunicación A2A con una intervención humana mínima.

DeFAI: Cuando los sistemas autónomos reescriben las reglas de las finanzas

Las finanzas descentralizadas debían democratizar la banca. Los agentes de IA las están volviendo autónomas. La fusión de DeFi e IA —DeFAI o AgentFi— está desplazando las criptofinanzas de las interacciones manuales impulsadas por humanos hacia máquinas inteligentes y autooptimizadas que operan, gestionan riesgos y ejecutan estrategias las 24 horas del día.

Las Agentic Wallets de Coinbase representan la prueba de concepto más clara. No son carteras calientes tradicionales con funciones asistidas por IA; son soluciones de custodia diseñadas específicamente para que los agentes retengan fondos y ejecuten operaciones en cadena de forma autónoma. Con filtros de cumplimiento integrados, las carteras identifican y bloquean acciones de alto riesgo antes de su ejecución, cumpliendo con los requisitos regulatorios mientras preservan la velocidad operativa. Los límites importan: los primeros pilotos muestran agentes monitoreando los rendimientos de DeFi en múltiples protocolos, reequilibrando carteras automáticamente basándose en retornos ajustados al riesgo, pagando por acceso a API o recursos de computación en tiempo real y participando en votaciones de gobernanza basadas en criterios predefinidos, todo sin confirmación humana directa.

La seguridad está integrada en la arquitectura. Las claves privadas nunca abandonan la infraestructura de Coinbase; los agentes se autentican a través de API seguras que imponen límites de gasto, listas blancas de transacciones y detección de anomalías. Si un agente intenta vaciar una cartera o interactuar con un contrato marcado, la transacción falla antes de tocar la cadena de bloques. Este modelo aborda la paradoja de la custodia que ha plagado la adopción institucional de DeFi: ¿cómo otorgar autonomía operativa sin ceder el control?

Las implicaciones para el trading son profundas. El trading algorítmico tradicional se basa en estrategias preprogramadas ejecutadas por servidores centralizados. Los agentes de IA en la cadena de bloques funcionan de manera diferente. Pueden actualizar estrategias dinámicamente basándose en datos on-chain, negociar con otros agentes para obtener mejores tasas de intercambio, participar en la gobernanza descentralizada para influir en los parámetros de los protocolos e incluso contratar agentes especializados para tareas como la protección MEV o el puente entre cadenas (cross-chain bridging). Un gestor de cartera autónomo podría delegar la estrategia de yield farming a un agente especialista en DeFi, la cobertura de riesgos a un agente de trading de derivados y la optimización fiscal a un agente de cumplimiento, creando una orquestación multiagente que refleja las estructuras organizativas humanas pero que se ejecuta a velocidad de máquina.

Los creadores de mercado (market makers) ya están desplegando agentes autónomos para proporcionar liquidez en los exchanges descentralizados. Estos agentes monitorean los libros de órdenes, ajustan los diferenciales basándose en la volatilidad y reequilibran el inventario sin supervisión humana. Algunos están experimentando con estrategias adversarias: desplegando agentes competidores para sondear el comportamiento de los demás y optimizar de forma adaptativa los modelos de precios. El resultado es un mercado darwiniano donde las arquitecturas de agentes más efectivas acumulan capital, mientras que los diseños subóptimos son superados y quedan obsoletos.

Arquitecturas modulares y la economía del Agente como Servicio (AaaS)

La explosión en la diversidad de agentes —más de 550 proyectos y sumando— es posible gracias a la arquitectura modular. A diferencia de los sistemas de IA monolíticos que acoplan estrechamente el procesamiento de datos, la toma de decisiones y la ejecución, los marcos de agentes modernos separan estas capas en módulos componibles. El marco GAME (Generative Autonomous Multimodal Entities) ejemplifica este enfoque, permitiendo a los desarrolladores crear agentes con un código mínimo al conectar módulos preconstruidos para el procesamiento de lenguaje natural, la indexación de datos on-chain, la gestión de carteras y la interacción entre protocolos.

Esta modularidad se inspira en la propia evolución arquitectónica de la cadena de bloques. Las blockchains modulares como Celestia y EigenLayer separan el consenso, la disponibilidad de datos y la ejecución en capas distintas, permitiendo patrones de despliegue flexibles. Los agentes de IA explotan este mismo principio: pueden elegir entornos de ejecución optimizados para sus casos de uso específicos, ejecutando inferencias de ML con uso intensivo de cómputo en redes de GPU descentralizadas como Render, mientras heredan la seguridad de las capas compartidas de consenso y disponibilidad de datos en Ethereum o Solana.

El modelo económico está cambiando hacia el Agente como Servicio (AaaS). En lugar de crear agentes personalizados desde cero, los desarrolladores se conectan a los existentes a través de API, pagando por tarea o suscribiéndose para un acceso continuo. ¿Quiere un agente para ejecutar estrategias de trading automatizadas? Despliegue un agente de trading preconfigurado de Virtuals Protocol y personalice los parámetros mediante llamadas a la API. ¿Necesita generación de contenido? Alquile ciclos de un agente de IA generativa optimizado para textos de marketing. Esto refleja la revolución de la computación en la nube: la infraestructura abstraída en servicios, facturada por uso.

El apoyo de la industria se está consolidando en torno a estos estándares. Más de 50 socios tecnológicos, incluidos Atlassian, Box, Cohere, Intuit, Langchain, MongoDB, PayPal, Salesforce, SAP, ServiceNow y UKG, respaldan A2A para la comunicación entre agentes. Esto no es una experimentación fragmentada; es una estandarización coordinada impulsada por empresas que reconocen la interoperabilidad como la clave para desbloquear los efectos de red. Cuando los agentes de diferentes proveedores pueden colaborar sin problemas, la utilidad combinada supera la suma de las partes aisladas, un ejemplo clásico de la Ley de Metcalfe aplicada a los sistemas autónomos.

La capa de infraestructura: Billeteras, hosting y rieles de pago

Si los agentes son los actores económicos, la infraestructura es el escenario. Tres capas críticas están madurando rápidamente a principios de 2026: billeteras autónomas, plataformas de hosting MCP y rieles de pago.

Las billeteras autónomas, como las Agentic Wallets de Coinbase, resuelven el problema de la custodia. Las billeteras tradicionales asumen un operador humano que revisa las transacciones antes de firmarlas. Los agentes necesitan acceso programático con límites de seguridad: límites de gasto, listas blancas de contratos, detección de anomalías y ganchos de cumplimiento (compliance hooks). Las Agentic Wallets proporcionan exactamente esto: los agentes se autentican mediante claves API vinculadas a permisos con límite de velocidad, las transacciones se agrupan y optimizan para la eficiencia de gas, y el monitoreo integrado marca patrones sospechosos, como transferencias grandes repentinas o interacciones con vulnerabilidades conocidas.

Están surgiendo soluciones competitivas. Los proyectos basados en Solana están experimentando con billeteras de agentes que aprovechan la finalidad de menos de un segundo de la cadena para el trading de alta frecuencia. Las Capas 2 de Ethereum, como Arbitrum y Optimism, ofrecen tarifas más bajas, lo que hace que las microtransacciones sean económicamente viables, algo crítico para los agentes que pagan por llamada de API o por consulta de datos. Algunas plataformas incluso están explorando billeteras multifirma (multi-sig) gobernadas por colectivos de agentes, donde las decisiones requieren el consenso de múltiples entidades de IA, añadiendo una capa de controles y equilibrios algorítmicos.

Las plataformas de hosting MCP, como AurraCloud, proporcionan el middleware. Estos servicios alojan servidores MCP que los agentes consultan para obtener datos: fuentes de precios, estado de la blockchain, sentimiento social, agregación de noticias. Debido a que los agentes pueden pagar por el acceso de forma autónoma a través de rieles de pago integrados, las plataformas MCP pueden monetizar las llamadas de API sin requerir suscripciones anticipadas ni procesos largos de incorporación (onboarding). Esto crea un mercado líquido de datos: los agentes buscan la mejor relación precio-calidad y los proveedores de datos compiten en latencia, precisión y cobertura.

Los rieles de pago son el sistema circulatorio. x402 estandariza cómo los agentes envían y reciben valor, pero los mecanismos de liquidación subyacentes varían. Las stablecoins como USDC y USDT son preferidas por su estabilidad de precios; los agentes necesitan costos predecibles al presupuestar servicios. Algunos proyectos están experimentando con canales de micropagos que agrupan transacciones fuera de la cadena (off-chain) y las liquidan periódicamente en la cadena (on-chain), reduciendo los costos de gas. Otros se están integrando con protocolos de mensajería entre cadenas (cross-chain) como LayerZero o Axelar, lo que permite a los agentes mover activos entre blockchains según sea necesario para una ejecución óptima.

El resultado es un stack de infraestructura en capas que refleja la arquitectura tradicional de Internet: TCP/IP para el transporte de datos (A2A, MCP), HTTP para la lógica de la aplicación (frameworks de agentes, APIs) y protocolos de pago (x402, stablecoins) para la transferencia de valor. Esto no es accidental: los protocolos exitosos adoptan patrones familiares para minimizar la fricción de integración.

Riesgos, salvaguardas y el camino hacia la confianza institucional

Entregar autonomía financiera a los sistemas de IA no está exento de peligros. Los riesgos abarcan vulnerabilidades técnicas, inestabilidad económica e incertidumbre regulatoria; cada uno requiere estrategias de mitigación deliberadas.

Los riesgos técnicos son los más inmediatos. Los agentes operan basados en modelos entrenados con datos históricos, que pueden no generalizarse a condiciones de mercado sin precedentes. Un agente de trading optimizado para mercados alcistas podría fallar catastróficamente durante caídas repentinas (flash crashes). Actores malintencionados podrían explotar comportamientos predecibles de los agentes: falsificación de libros de órdenes (spoofing) para activar operaciones automatizadas o el despliegue de contratos honeypot diseñados para vaciar las billeteras de los agentes. Los errores en los contratos inteligentes (smart contracts) siguen siendo una amenaza persistente; un agente que interactúa con un protocolo vulnerable podría perder fondos antes de que las auditorías detecten la falla.

Las estrategias de mitigación están evolucionando. Las herramientas de detección de cumplimiento de Coinbase utilizan una puntuación de riesgo en tiempo real para bloquear transacciones marcadas como de alto riesgo en función de la reputación de la contraparte, el estado de auditoría del contrato y los datos históricos de exploits. Algunas plataformas imponen períodos de espera (cooldown) obligatorios para transferencias grandes, lo que brinda a los operadores humanos una ventana para intervenir si se detectan anomalías. La validación multi-agente es otro enfoque: requiere el consenso de múltiples agentes independientes antes de ejecutar transacciones de alto valor, reduciendo los puntos únicos de falla.

La inestabilidad económica es un riesgo de segundo orden. Si una gran parte de la liquidez en cadena está controlada por agentes autónomos con estrategias correlacionadas, la dinámica del mercado podría amplificar la volatilidad. Imagine a miles de agentes saliendo simultáneamente de una posición basada en señales de datos compartidas: las cascadas de liquidación podrían eclipsar a los flash crashes tradicionales. Los bucles de retroalimentación también son preocupantes: los agentes que optimizan unos contra otros podrían converger en equilibrios que desestabilicen los protocolos subyacentes, como la explotación de mecanismos de gobernanza para aprobar propuestas interesadas.

La incertidumbre regulatoria es el comodín. Los reguladores financieros de todo el mundo todavía están lidiando con cómo clasificar a los agentes de IA. ¿Son herramientas controladas por quienes las despliegan o actores económicos independientes? Si un agente ejecuta operaciones ilegales (tráfico de información privilegiada basado en información privada, por ejemplo), ¿quién asume la responsabilidad? ¿El desarrollador, la plataforma que aloja al agente o el usuario que lo desplegó? Estas preguntas carecen de respuestas claras, y los marcos regulatorios están años por detrás de la tecnología.

Algunas jurisdicciones se están moviendo más rápido que otras. El reglamento de Mercados de Criptoactivos (MiCA) de la Unión Europea incluye disposiciones para sistemas de trading automatizados, cubriendo potencialmente a los agentes de IA. La Autoridad Monetaria de Singapur está consultando con la industria sobre salvaguardas para las finanzas autónomas. Estados Unidos sigue fragmentado, con la SEC, la CFTC y los reguladores estatales siguiendo enfoques divergentes. Este mosaico regulatorio complica el despliegue global: los agentes que operan en diversas jurisdicciones deben navegar por requisitos contradictorios, lo que añade una carga de cumplimiento.

A pesar de estos desafíos, la confianza institucional se está fortaleciendo. Grandes empresas están pilotando despliegues de agentes en entornos controlados: tesorerías DeFi internas con parámetros de riesgo estrictos o mercados de circuito cerrado donde los agentes operan entre participantes verificados. A medida que estos experimentos acumulan historiales sin fallas catastróficas, la confianza crece. Están surgiendo estándares de auditoría: firmas de terceros ahora ofrecen revisiones del comportamiento de los agentes, analizando registros de decisiones e historiales de transacciones para certificar el cumplimiento de políticas predefinidas.

Lo que sigue: Las primeras entradas de la economía autónoma

Estamos presenciando el nacimiento de un nuevo sustrato económico. En el primer trimestre de 2026, los agentes de IA todavía ejecutan principalmente tareas predefinidas: trading automatizado, reequilibrio de carteras y pagos mediante API. Pero la trayectoria es clara: a medida que los agentes se vuelvan más capaces, negociarán contratos, formarán alianzas e incluso desplegarán capital para crear nuevos agentes optimizados para nichos especializados.

Los catalizadores a corto plazo incluyen la expansión de los flujos de trabajo multi-agente. Los pilotos actuales involucran a dos o tres agentes que se coordinan en tareas específicas. Para finales de año, es probable que veamos marcos de orquestación gestionando docenas de agentes, cada uno aportando experiencia especializada. Las cadenas de suministro autónomas son otra frontera: un agente de comercio electrónico obtiene productos de agentes de fabricación, coordina la logística a través de agentes de transporte y liquida los pagos mediante transacciones con stablecoins — todo sin coordinación humana más allá de los parámetros iniciales.

A largo plazo, el escenario más disruptivo es que los agentes se conviertan en asignadores de capital. Imagine un fondo de capital de riesgo gestionado íntegramente por IA: los agentes obtienen flujo de operaciones a partir de métricas on-chain, realizan la due diligence consultando a proveedores de datos, negocian los términos de inversión y despliegan capital en startups tokenizadas. La supervisión humana podría limitarse a establecer límites de asignación y aprobar estrategias generales. Si tales fondos superan a sus pares gestionados por humanos, el capital fluirá hacia la gestión autónoma — un punto de inflexión que podría redefinir la gestión de activos.

La infraestructura aún necesita madurar. La coordinación de agentes cross-chain sigue siendo rudimentaria, con liquidez fragmentada y estándares inconsistentes. La privacidad es una brecha evidente: los agentes actuales operan de forma transparente en blockchains públicas, exponiendo sus estrategias a los competidores. Las pruebas de conocimiento cero (zero-knowledge proofs) y la computación confidencial podrían solucionar esto, permitiendo que los agentes realicen transacciones de forma privada mientras mantienen una corrección verificable.

Los estándares de interoperabilidad determinarán a los ganadores. Las plataformas que adopten A2A, MCP y x402 ganarán acceso a una red creciente de agentes compatibles. Los sistemas propietarios corren el riesgo de aislamiento, ya que los efectos de red favorecen los protocolos abiertos. Esta dinámica refleja los inicios de Internet: el jardín vallado de AOL perdió frente a la interoperabilidad de la web abierta.

La capitalización de mercado de 7.7 mil millones de dólares es un pago inicial de una visión mucho más amplia. Si los agentes gestionan incluso el 1 % de los activos financieros globales — conservadoramente 1 billón de dólares — , la capa de infraestructura que los soporta podría eclipsar los mercados actuales de computación en la nube. Aún no hemos llegado ahí. Pero las piezas fundamentales están en su lugar, los incentivos económicos están alineados y los primeros despliegues en el mundo real están demostrando que el concepto funciona.

Para los desarrolladores, la oportunidad es inmensa: construir las herramientas (tooling), el alojamiento (hosting), los feeds de datos y los servicios de seguridad que consumirán los agentes. Para los inversores, se trata de identificar qué protocolos capturan valor a medida que la adopción de agentes escala. Para los usuarios, es un vistazo a un futuro donde las máquinas se encargan de lo tedioso, lo complejo y lo repetitivo — liberando la atención humana para decisiones de mayor nivel.

La economía está aprendiendo a funcionar por sí misma. Abróchense los cinturones.


BlockEden.xyz proporciona infraestructura RPC de grado empresarial optimizada para agentes de IA que construyen en Sui, Aptos, Ethereum y otras blockchains líderes. Nuestros nodos de baja latencia y alto rendimiento permiten que los sistemas autónomos consulten el estado de la blockchain y ejecuten transacciones con la confiabilidad que exige el comercio on-chain. Explore nuestro mercado de APIs para construir sobre cimientos diseñados para escalar con la economía autónoma.

Fuentes

El avance de $19.2 mil millones de DePIN: De la euforia de IoT a la realidad empresarial

· 15 min de lectura
Dora Noda
Software Engineer

Durante años, la promesa de la infraestructura física descentralizada se sintió como una solución en busca de un problema. Los entusiastas de la blockchain hablaban de tokenizar todo, desde puntos de acceso WiFi hasta paneles solares, mientras que las empresas lo descartaban silenciosamente como un "hype" cripto divorciado de la realidad operativa. Ese descarte acaba de volverse costoso.

El sector DePIN (Decentralized Physical Infrastructure Network) ha explotado de 5,2 mil millones a 19,2 mil millones de dólares en capitalización de mercado en solo un año: un aumento del 270 % que no tiene nada que ver con la manía especulativa y todo que ver con empresas que descubren que pueden reducir los costos de infraestructura en un 50 - 85 % mientras mantienen la calidad del servicio. Con 321 proyectos activos que ahora generan 150 millones de dólares en ingresos mensuales y el Foro Económico Mundial proyectando que el mercado alcanzará los 3,5 billones de dólares para 2028, DePIN ha cruzado el abismo de tecnología experimental a infraestructura de misión crítica.

Las cifras que cambiaron la narrativa

CoinGecko rastrea casi 250 proyectos DePIN a partir de septiembre de 2025, frente a una fracción de esa cifra hace solo 24 meses. Pero la verdadera historia no es el número de proyectos, sino los ingresos. El sector generó un estimado de 72 millones de dólares en ingresos on-chain en 2025, con proyectos de primer nivel que ahora registran ingresos recurrentes anuales de ocho cifras.

Solo en enero de 2026, los proyectos DePIN generaron colectivamente 150 millones de dólares en ingresos. Aethir, el proveedor de infraestructura enfocado en GPU, lideró con 55 millones de dólares. Render Network le siguió con 38 millones de dólares provenientes de servicios de renderizado de GPU descentralizados. Helium contribuyó con 24 millones de dólares de sus operaciones de red inalámbrica. Estas no son métricas de vanidad de "airdrop farmers"; representan empresas reales que pagan por cómputo, conectividad y almacenamiento.

La composición del mercado cuenta una historia aún más reveladora: el 48 % de los proyectos DePIN por capitalización de mercado se centran ahora en la infraestructura de IA. A medida que las cargas de trabajo de IA explotan y los hiperescaladores luchan por satisfacer la demanda, las redes de cómputo descentralizadas se están convirtiendo en la válvula de escape para un cuello de botella de la industria que los centros de datos tradicionales no pueden resolver con la suficiente rapidez.

El dominio de DePIN en Solana: por qué la velocidad importa

Si Ethereum es el hogar de DeFi y Bitcoin es oro digital, Solana se ha convertido silenciosamente en la blockchain preferida para la coordinación de infraestructura física. Con 63 proyectos DePIN en su red —incluidos Helium, Grass y Hivemapper—, los bajos costos de transacción y el alto rendimiento de Solana la convierten en la única Capa 1 capaz de manejar las cargas de trabajo intensivas en datos y en tiempo real que exige la infraestructura física.

La transformación de Helium es particularmente instructiva. Después de migrar a Solana en abril de 2023, la red inalámbrica se ha escalado a más de 115.000 puntos de acceso que sirven a 1,9 millones de usuarios diarios. El número de suscriptores de Helium Mobile aumentó de 115.000 en septiembre de 2024 a casi 450.000 en septiembre de 2025: un incremento del 300 % año tras año. Solo en el segundo trimestre de 2025, la red transfirió 2.721 terabytes de datos para socios operadores, un 138,5 % más que el trimestre anterior.

La economía es convincente: Helium proporciona conectividad móvil a una fracción de los costos de los operadores tradicionales al incentivar a las personas a desplegar y mantener puntos de acceso. Los suscriptores obtienen llamadas, mensajes de texto y datos ilimitados por 20 dólares al mes. Los operadores de puntos de acceso ganan tokens basados en la cobertura de la red y la transferencia de datos. Los operadores tradicionales no pueden competir con esta estructura de costos.

Render Network demuestra el potencial de DePIN en la IA y las industrias creativas. Con una capitalización de mercado de 770 millones de dólares, Render procesó más de 1,49 millones de fotogramas de renderizado solo en julio de 2025, quemando 207.900 USDC en tarifas. Los artistas e investigadores de IA aprovechan la capacidad ociosa de las GPU de equipos de juego y granjas de minería, pagando centavos por cada dólar en comparación con los servicios de renderizado en la nube centralizados.

Grass, la DePIN de más rápido crecimiento en Solana con más de 3 millones de usuarios, monetiza el ancho de banda no utilizado para conjuntos de datos de entrenamiento de IA. Los usuarios aportan su conectividad a Internet inactiva, ganando tokens mientras las empresas extraen datos web para modelos de lenguaje extensos. Es un arbitraje de infraestructura a escala: tomar recursos abundantes y subutilizados (ancho de banda residencial) y empaquetarlos para empresas dispuestas a pagar tarifas premium por la recopilación de datos distribuidos.

Adopción empresarial: la reducción de costos del 50 - 85 % que ningún CFO puede ignorar

El cambio de los programas piloto a los despliegues de producción se aceleró bruscamente en 2025. Los operadores de telecomunicaciones, los proveedores de la nube y las empresas de energía no solo están experimentando con DePIN, sino que lo están integrando en sus operaciones principales.

La infraestructura inalámbrica cuenta ahora con más de 5 millones de routers descentralizados registrados en todo el mundo. Una empresa de telecomunicaciones de Fortune 500 registró un aumento del 23 % en los clientes de conectividad impulsados por DePIN, lo que demuestra que las empresas adoptarán modelos descentralizados si la economía y la fiabilidad se alinean. La asociación de T-Mobile con Helium para descargar la cobertura de red en áreas rurales demuestra cómo los operadores establecidos están utilizando DePIN para resolver problemas de "última milla" que los gastos de capital tradicionales no pueden justificar.

El sector de las telecomunicaciones se enfrenta a una presión existencial: los gastos de capital para la construcción de torres y las licencias de espectro están aplastando los márgenes, mientras que los clientes exigen cobertura universal. Se proyecta que el mercado de blockchain en telecomunicaciones crecerá de 1,07 mil millones de dólares en 2024 a 7,25 mil millones de dólares para 2030, a medida que los operadores se den cuenta de que incentivar a los individuos a desplegar infraestructura es más barato que hacerlo ellos mismos.

El cómputo en la nube presenta una oportunidad aún mayor. brev.dev, respaldada por Nvidia, y otros proveedores de cómputo DePIN están atendiendo cargas de trabajo de IA empresarial que costarían 2 o 3 veces más en AWS, Google Cloud o Azure. Como se espera que las cargas de trabajo de inferencia representen dos tercios de todo el cómputo de IA para 2026 (frente a un tercio en 2023), la demanda de capacidad de GPU rentable no hará más que intensificarse. Las redes descentralizadas pueden obtener GPU de equipos de juego, operaciones de minería y centros de datos subutilizados, una capacidad a la que las nubes centralizadas no pueden acceder.

Las redes de energía son quizás el caso de uso más transformador de DePIN. Las redes eléctricas centralizadas luchan por equilibrar la oferta y la demanda a nivel local, lo que provoca ineficiencias y apagones. Las redes de energía descentralizadas utilizan la coordinación de blockchain para rastrear la producción de paneles solares, baterías y medidores de propiedad individual. Los participantes generan energía, comparten el exceso de capacidad con los vecinos y ganan tokens en función de su contribución. El resultado: una mejor resiliencia de la red, una reducción del desperdicio de energía e incentivos financieros para la adopción de energías renovables.

Infraestructura de IA: el 48 % que está redefiniendo el stack

Casi la mitad de la capitalización de mercado de DePIN se centra ahora en la infraestructura de IA, una convergencia que está transformando la forma en que se procesan las cargas de trabajo con un uso intensivo de cómputo. El gasto en almacenamiento de infraestructura de IA reportó un crecimiento interanual del 20.5 % en el segundo trimestre de 2025, con un 48 % del gasto proveniente de despliegues en la nube. Sin embargo, las nubes centralizadas están alcanzando sus límites de capacidad justo cuando la demanda explota.

El mercado mundial de GPU para centros de datos fue de 14,480 millones de dólares en 2024 y se proyecta que alcance los 155,200 millones de dólares para 2032. Aun así, Nvidia apenas puede seguir el ritmo de la demanda, lo que genera tiempos de espera de 6 a 12 meses para los chips H100 y H200. Las redes DePIN sortean este cuello de botella al agregar GPUs de consumo y empresariales que permanecen inactivas entre el 80 % y el 90 % del tiempo.

Las cargas de trabajo de inferencia —ejecución de modelos de IA en producción una vez finalizado el entrenamiento— son el segmento de más rápido crecimiento. Mientras que la mayor parte de la inversión de 2025 se centró en chips de entrenamiento, se espera que el mercado de chips optimizados para inferencia supere los 50,000 millones de dólares en 2026, a medida que las empresas pasen del desarrollo de modelos al despliegue a escala. Las redes de cómputo DePIN destacan en la inferencia porque las cargas de trabajo son altamente paralelizables y tolerantes a la latencia, lo que las hace perfectas para la infraestructura distribuida.

Proyectos como Render, Akash y Aethir están capturando esta demanda al ofrecer acceso fraccionado a GPUs, precios spot y una distribución geográfica que las nubes centralizadas no pueden igualar. Una startup de IA puede desplegar 100 GPUs para un trabajo por lotes de fin de semana y pagar solo por el uso, sin compromisos mínimos ni contratos empresariales. Para los hyperscalers, eso es fricción. Para DePIN, esa es toda la propuesta de valor.

Las categorías que impulsan el crecimiento

DePIN se divide en dos categorías fundamentales: redes de recursos físicos (hardware como torres inalámbricas, redes de energía y sensores) y redes de recursos digitales (cómputo, ancho de banda y almacenamiento). Ambas están experimentando un crecimiento explosivo, pero los recursos digitales están escalando más rápido debido a las menores barreras de despliegue.

Las redes de almacenamiento como Filecoin permiten a los usuarios alquilar espacio de disco duro no utilizado, creando alternativas distribuidas a AWS S3 y Google Cloud Storage. La propuesta de valor: menores costos, redundancia geográfica y resistencia a fallos de punto único. Las empresas están realizando pruebas piloto con Filecoin para datos de archivo y copias de seguridad, casos de uso donde las tarifas de salida (egress fees) de la nube centralizada pueden sumar millones de dólares anualmente.

Los recursos de cómputo abarcan el renderizado por GPU (Render), el cómputo de propósito general (Akash) y la inferencia de IA (Aethir). Akash opera un mercado abierto para despliegues de Kubernetes, lo que permite a los desarrolladores levantar contenedores en servidores infrautilizados en todo el mundo. El ahorro de costos oscila entre el 30 % y el 85 % en comparación con AWS, dependiendo del tipo de carga de trabajo y los requisitos de disponibilidad.

Las redes inalámbricas como Helium y World Mobile Token están abordando la brecha de conectividad en mercados desatendidos. World Mobile desplegó redes móviles descentralizadas en Zanzíbar, transmitiendo un partido del Fulham FC mientras proporcionaba internet a 500 personas dentro de un radio de 600 metros. Estos no son pruebas de concepto, son redes de producción que sirven a usuarios reales en regiones donde los ISP tradicionales se niegan a operar debido a una economía desfavorable.

Las redes de energía utilizan blockchain para coordinar la generación y el consumo distribuidos. Los propietarios de paneles solares venden el exceso de electricidad a sus vecinos. Los propietarios de vehículos eléctricos proporcionan estabilización a la red al programar la carga en horas valle, ganando tokens por su flexibilidad. Las empresas de servicios públicos obtienen visibilidad en tiempo real de la oferta y la demanda local sin desplegar costosos medidores inteligentes y sistemas de control. Es una coordinación de infraestructura que no podría existir sin la capa de liquidación trustless de blockchain.

De 19.2 mil millones a 3.5 billones de dólares: lo que se necesita para llegar allí

La proyección de 3.5 billones de dólares del Foro Económico Mundial para 2028 no es solo una especulación alcista; es un reflejo de cuán masivo es el mercado direccionable una vez que DePIN se consolide a escala. El gasto mundial en infraestructura de telecomunicaciones supera los 1.5 billones de dólares anuales. La computación en la nube es un mercado de más de 600,000 millones de dólares. La infraestructura energética representa billones en gastos de capital.

DePIN no necesita reemplazar estas industrias; solo necesita capturar entre el 10 % y el 20 % de la cuota de mercado ofreciendo una economía superior. Las matemáticas funcionan porque DePIN invierte el modelo de infraestructura tradicional: en lugar de que las empresas recauden miles de millones para construir redes y luego recuperen los costos durante décadas, DePIN incentiva a los individuos a desplegar infraestructura por adelantado, ganando tokens a medida que aportan capacidad. Es un gasto de capital financiado de forma colaborativa (crowdsourced) y escala mucho más rápido que los despliegues centralizados.

Pero llegar a los 3.5 billones de dólares requiere resolver tres desafíos:

Claridad regulatoria. Las telecomunicaciones y la energía son industrias fuertemente reguladas. Los proyectos DePIN deben navegar por las licencias de espectro (inalámbrico), los acuerdos de interconexión (energía) y los requisitos de residencia de datos (cómputo y almacenamiento). Se está progresando —los gobiernos de África y América Latina están adoptando DePIN para cerrar las brechas de conectividad—, pero los mercados maduros como EE. UU. y la UE avanzan más lentamente.

Confianza empresarial. Las empresas de Fortune 500 no migrarán cargas de trabajo de misión crítica a DePIN hasta que la confiabilidad iguale o supere a las alternativas centralizadas. Eso significa garantías de tiempo de actividad (uptime), SLAs, seguros contra fallos y soporte 24/7; requisitos básicos en la TI empresarial de los que muchos proyectos DePIN aún carecen. Los ganadores serán los proyectos que prioricen la madurez operativa sobre el precio del token.

Economía de tokens (Tokenomics). Los primeros proyectos DePIN sufrieron de tokenomics insostenibles: recompensas inflacionarias que inundaban los mercados, incentivos desalineados que premiaban los ataques Sybil sobre el trabajo útil y una acción de precio impulsada por la especulación divorciada de los fundamentos de la red. La próxima generación de proyectos DePIN está aprendiendo de estos errores, implementando mecanismos de quema (burn) vinculados a los ingresos, calendarios de consolidación (vesting) para los contribuyentes y una gobernanza que prioriza la sostenibilidad a largo plazo.

Por qué los desarrolladores de BlockEden.xyz deberían prestar atención

Si estás construyendo en blockchain, DePIN representa uno de los encajes producto-mercado (product-market fit) más claros en la historia de las criptomonedas. A diferencia de la incertidumbre regulatoria de DeFi o los ciclos especulativos de los NFT, DePIN resuelve problemas reales con un ROI medible. Las empresas necesitan infraestructura más barata. Los individuos tienen activos subutilizados. Blockchain proporciona coordinación y liquidación sin necesidad de confianza (trustless). Las piezas encajan.

Para los desarrolladores, la oportunidad reside en construir el middleware que prepare a DePIN para las empresas: herramientas de monitoreo y observabilidad, contratos inteligentes para el cumplimiento de SLA, sistemas de reputación para operadores de nodos, protocolos de seguros para garantías de tiempo de actividad (uptime) y pasarelas de pago que liquidan instantáneamente a través de fronteras geográficas.

La infraestructura que construyas hoy podría impulsar la internet descentralizada de 2028 — una donde Helium gestione la conectividad móvil, Render procese la inferencia de IA, Filecoin almacene los archivos del mundo y Akash ejecute los contenedores que lo orquestan todo. Eso no es futurismo cripto — es la hoja de ruta que las empresas de Fortune 500 ya están pilotando.

Fuentes

Los sistemas de IA multiagente entran en funcionamiento: El amanecer de la coordinación en red

· 12 min de lectura
Dora Noda
Software Engineer

Cuando Coinbase anunció los Wallets Agénticos el 11 de febrero de 2026, no fue solo el lanzamiento de otro producto. Marcó un punto de inflexión: los agentes de IA han evolucionado de herramientas aisladas que ejecutan tareas únicas a actores económicos autónomos capaces de coordinar flujos de trabajo complejos, gestionar criptoactivos y realizar transacciones sin intervención humana. La era de los sistemas de IA multi-agente ha llegado.

De LLMs Monolíticos a Ecosistemas de Agentes Colaborativos

Durante años, el desarrollo de la IA se centró en construir modelos de lenguaje más grandes y capaces. GPT-4, Claude y sus sucesores demostraron capacidades notables, pero operaban de forma aislada: herramientas potentes esperando la dirección humana. Ese paradigma se está desmoronando.

En 2026, el consenso ha cambiado: el futuro no es una superinteligencia monolítica, sino más bien ecosistemas en red de agentes de IA especializados que colaboran para resolver problemas complejos. Según Gartner, el 40 % de las aplicaciones empresariales contarán con agentes de IA para tareas específicas a finales de año, un salto dramático desde menos del 5 % en 2025.

Piénselo como la transición de los ordenadores mainframe a los microservicios en la nube. En lugar de un modelo masivo que intenta hacerlo todo, los sistemas de IA modernos despliegan docenas de agentes especializados — cada uno optimizado para funciones específicas como facturación, logística, servicio al cliente o gestión de riesgos — trabajando juntos a través de protocolos estandarizados.

Los Protocolos que Impulsan la Coordinación de Agentes

Esta transformación no ocurrió por accidente. En 2025 surgieron dos estándares de infraestructura críticos que ahora permiten sistemas multi-agente a escala de producción en 2026: el Model Context Protocol (MCP) y el Agent-to-Agent Protocol (A2A).

Model Context Protocol (MCP): Anunciado por Anthropic en noviembre de 2024, el MCP funciona como un puerto USB-C para las aplicaciones de IA. Así como el USB-C estandarizó la conectividad de los dispositivos, el MCP estandariza cómo los agentes de IA se conectan a los sistemas de datos, repositorios de contenido, herramientas de negocio y entornos de desarrollo. El protocolo reutiliza patrones de mensajería probados del Language Server Protocol (LSP) y se ejecuta sobre JSON-RPC 2.0.

Para principios de 2026, los principales actores, incluidos Anthropic, OpenAI y Google, han construido sobre MCP, estableciéndolo como el estándar de interoperabilidad de facto. MCP maneja la comunicación contextual, la gestión de la memoria y la planificación de tareas, permitiendo que los agentes mantengan un estado coherente a través de flujos de trabajo complejos.

Agent-to-Agent Protocol (A2A): Introducido por Google en abril de 2025 con el respaldo de más de 50 socios tecnológicos — incluyendo Atlassian, Box, PayPal, Salesforce, SAP y ServiceNow — A2A permite la comunicación directa entre agentes. Mientras que frameworks como crewAI y LangChain automatizan flujos de trabajo multi-agente dentro de sus propios ecosistemas, A2A actúa como una capa de mensajería universal que permite que agentes de diferentes proveedores y plataformas se coordinen a la perfección.

El consenso sobre el stack de protocolos emergentes para 2026 es claro: MCP para la integración de herramientas, A2A para la comunicación entre agentes y AP2 (Agent Payments Protocol) para el comercio. Juntos, estos estándares permiten la "economía invisible": sistemas autónomos que operan en segundo plano, coordinando acciones y liquidando transacciones sin intervención humana.

La Adopción Empresarial en el Mundo Real se Acelera

La orquestación multi-agente ha pasado de ser una prueba de concepto a una realidad. En el sector sanitario, los agentes de IA ahora orquestan la admisión de pacientes, el procesamiento de reclamaciones y las auditorías de cumplimiento, mejorando tanto la interacción con el paciente como la eficiencia de los pagadores. En la gestión de la cadena de suministro, múltiples agentes colaboran a través de disciplinas y geografías, redirigiendo colectivamente los envíos, señalando riesgos y ajustando las expectativas de entrega en tiempo real.

El proveedor de servicios de TI Getronics aprovechó los sistemas multi-agente para automatizar más de 1 millón de tickets de TI anualmente mediante la integración en plataformas como ServiceNow. En el comercio minorista, los sistemas agénticos permiten promociones hiperpersonalizadas y estrategias de precios impulsadas por la demanda que se adaptan continuamente.

Para 2028, el 38 % de las organizaciones esperan que los agentes de IA sean miembros de pleno derecho dentro de los equipos humanos, según encuestas empresariales recientes. El modelo de equipo mixto — donde los agentes de IA proponen y ejecutan mientras los humanos supervisan y gobiernan — se está convirtiendo en el nuevo estándar operativo.

El Puente de Blockchain: Actores Económicos Autónomos

Quizás el desarrollo más transformador sea la convergencia de la IA multi-agente y la tecnología blockchain, creando una nueva capa de comercio digital donde los agentes funcionan como participantes económicos independientes.

Los Wallets Agénticos de Coinbase proporcionan una infraestructura cripto diseñada específicamente para agentes autónomos, permitiéndoles autogestionar activos digitales, ejecutar operaciones y liquidar pagos utilizando rieles de stablecoins. La integración de las capacidades de inferencia de IA de Solana directamente en las criptobilleteras representa otro hito importante.

El impacto es medible. Los agentes de IA podrían impulsar entre el 15 % y el 20 % del volumen de las finanzas descentralizadas (DeFi) para finales de 2025, y los datos de principios de 2026 sugieren que están en camino de superar esa proyección. En la plataforma de mercados de predicción Polymarket, los agentes de IA ya contribuyen con más del 30 % de la actividad comercial.

El estándar ERC-8004 de Ethereum — titulado "Trustless Agents" — aborda los desafíos de confianza inherentes a los sistemas autónomos a través de registros on-chain, identificaciones portátiles para agentes basadas en NFTs, mecanismos de retroalimentación verificables para construir puntuaciones de confianza y pruebas integrables para los resultados. Los esfuerzos de colaboración entre Coinbase, la Fundación Ethereum, MetaMask y otras organizaciones líderes produjeron una extensión A2A x402 para pagos cripto basados en agentes, que ya está en producción.

La oportunidad de mercado de $ 50 mil millones

Las apuestas financieras son enormes. El mercado global de agentes de IA alcanzó los 5,1milmillonesen2024yseproyectaquellegaraˊalos5,1 mil millones en 2024 y se proyecta que llegará a los 47,1 mil millones para 2030. Específicamente dentro del sector cripto, los tokens de agentes de IA han experimentado un crecimiento explosivo, con el sector expandiéndose de 23milmillonesamaˊsde23 mil millones a más de 50 mil millones en menos de un año.

Los proyectos líderes incluyen NEAR Protocol, fortalecido por su alta capacidad de procesamiento (throughput) y finalidad rápida que atrae aplicaciones basadas en agentes de IA; Bittensor (TAO), que impulsa el aprendizaje automático descentralizado; Fetch.ai (FET), que permite agentes económicos autónomos; y Virtuals Protocol (VIRTUAL), que vio un aumento de precio del 850 % a finales de 2024, alcanzando una capitalización de mercado cercana a los $ 800 millones.

El capital de riesgo está fluyendo hacia la infraestructura de comercio entre agentes (A2A). Se prevé que el mercado de blockchain en su conjunto alcance los $ 162,84 mil millones para 2027, siendo los sistemas de IA multi-agente un motor de crecimiento significativo.

Emergen dos modelos arquitectónicos

Los sistemas multi-agente suelen seguir uno de dos patrones de diseño, cada uno con distintas ventajas y desventajas:

Arquitectura jerárquica: Un agente líder orquesta sub-agentes especializados, optimizando la colaboración y la coordinación. Este modelo introduce puntos centrales de control y supervisión, lo que lo hace atractivo para empresas que requieren una gobernanza y rendición de cuentas claras. Los supervisores humanos interactúan principalmente con el agente líder, que delega tareas a los especialistas.

Arquitectura entre pares (Peer-to-Peer): Los agentes colaboran directamente sin un controlador central, lo que requiere protocolos de comunicación robustos pero ofrece mayor resiliencia y descentralización. Este modelo destaca en escenarios donde ningún agente individual tiene visibilidad o autoridad completa, como en las cadenas de suministro interorganizacionales o los sistemas financieros descentralizados.

La elección entre estos modelos depende del caso de uso. El sector de TI empresarial y la atención médica tienden hacia sistemas jerárquicos por cumplimiento y auditabilidad, mientras que DeFi y el comercio en blockchain favorecen los modelos peer-to-peer alineados con los principios de descentralización.

La brecha de confianza y la supervisión humana

A pesar del rápido progreso técnico, la confianza sigue siendo el cuello de botella crítico. En 2024, el 43 % de los ejecutivos expresó confianza en los agentes de IA totalmente autónomos. Para 2025, esa cifra cayó al 22 %, con un 60 % que no confía plenamente en que los agentes gestionen tareas sin supervisión.

Esto no es una regresión, sino una maduración. A medida que las organizaciones despliegan agentes en producción, se han encontrado con casos de borde, fallas de coordinación y algún error espectacular ocasional. La industria está respondiendo no reduciendo la autonomía, sino rediseñando la supervisión.

El modelo emergente trata a los agentes de IA como ejecutores propuestos en lugar de tomadores de decisiones. Los agentes analizas datos, recomiendan acciones y ejecutan flujos de trabajo pre-aprobados, mientras que los humanos establecen salvaguardas (guardrails), auditan los resultados e intervienen cuando surgen excepciones. La supervisión se está convirtiendo en un principio de diseño, no en una ocurrencia de último momento.

Según Forrester, el 75 % de los líderes en experiencia del cliente ven ahora a la IA como un amplificador humano en lugar de un reemplazo, y el 61 % de las organizaciones cree que la IA agéntica tiene un potencial transformador cuando se gobierna adecuadamente.

Mirando hacia el futuro: Coordinación multimodal y capacidades ampliadas

La hoja de ruta de 2026 para los sistemas multi-agente incluye expansiones significativas de capacidades. El MCP está evolucionando para admitir imágenes, video, audio y otros tipos de medios, lo que significa que los agentes no solo leerán y escribirán, sino que verán, escucharán y, potencialmente, observarán.

A finales de 2025 se observó una mayor integración de la tecnología blockchain para firmas, procedencia y verificación, proporcionando registros inmutables de las acciones de los agentes, lo cual es crucial para el cumplimiento y la rendición de cuentas. Esta tendencia se está acelerando en 2026 a medida que las empresas exigen una IA auditable.

La orquestación multi-agente está pasando de ser experimental a ser una infraestructura esencial. Para finales de 2026, será la columna vertebral de cómo operan las empresas líderes, integrada no como una característica, sino como una capa fundacional de las operaciones comerciales.

La capa de infraestructura que lo cambia todo

Los sistemas de IA multi-agente representan más que una mejora incremental: son un cambio de paradigma en cómo construimos sistemas inteligentes. Al estandarizar la comunicación a través de MCP y A2A, integrarse con blockchain para la confianza y los pagos, e incorporar la supervisión humana como un principio de diseño central, la industria está creando la infraestructura para una economía autónoma.

Los agentes de IA ya no son herramientas pasivas que esperan comandos humanos. Son participantes activos en el comercio digital, gestionando activos, coordinando flujos de trabajo y ejecutando procesos complejos de múltiples pasos. La pregunta ya no es si los sistemas multi-agente transformarán las operaciones empresariales y las finanzas digitales, sino qué tan rápido pueden las organizaciones adaptarse a la nueva realidad.

Para los desarrolladores que construyen sobre infraestructura blockchain, la convergencia de la IA multi-agente y los rieles criptográficos crea oportunidades sin precedentes. Los agentes necesitan una infraestructura blockchain de alto rendimiento y confiable para operar a escala.

BlockEden.xyz proporciona infraestructura de API de grado empresarial para redes blockchain que impulsan aplicaciones de agentes de IA. Explore nuestros servicios para construir sistemas autónomos sobre cimientos diseñados para el futuro multi-agente.


Fuentes

El gambito de 7.2 millones de dólares de Ambient: Cómo Proof of Logits podría reemplazar el minado basado en hash con inferencia de IA

· 21 min de lectura
Dora Noda
Software Engineer

¿Qué pasaría si el mismo trabajo computacional que asegura una cadena de bloques también entrenara a la próxima generación de modelos de IA? Esa no es una visión lejana: es la tesis central detrás de Ambient, un fork de Solana que acaba de recaudar 7,2 millones de dólares de a16z CSX para construir la primera blockchain de prueba de trabajo impulsada por IA del mundo.

La prueba de trabajo tradicional quema electricidad resolviendo acertijos criptográficos arbitrarios. Los mineros de Bitcoin compiten para encontrar hashes con suficientes ceros a la izquierda: un trabajo computacional sin más valor que la seguridad de la red. Ambient cambia este guion por completo. Su mecanismo de consenso Proof of Logits (PoL) reemplaza el procesamiento masivo de hashes con inferencia de IA, ajuste fino (fine-tuning) y entrenamiento de modelos. Los mineros no resuelven acertijos; generan salidas de IA verificables. Los validadores no vuelven a calcular cargas de trabajo completas; verifican huellas criptográficas llamadas logits.

¿El resultado? Una blockchain donde la seguridad y el avance de la IA están alineados económicamente, donde un gasto operativo de verificación del 0,1 % hace que la comprobación del consenso sea casi gratuita, y donde los costes de entrenamiento caen 10 veces en comparación con las alternativas centralizadas. Si tiene éxito, Ambient podría responder a una de las críticas más antiguas de las criptomonedas —que la prueba de trabajo desperdicia recursos— convirtiendo la minería en un trabajo de IA productivo.

El avance de Proof of Logits: IA verificable sin recálculo

Comprender PoL requiere entender qué son realmente los logits. Cuando los modelos de lenguaje de gran tamaño generan texto, no emiten palabras directamente. En su lugar, en cada paso, producen una distribución de probabilidad sobre todo el vocabulario: puntuaciones numéricas que representan niveles de confianza para cada posible token siguiente.

Estas puntuaciones se llaman logits. Para un modelo con un vocabulario de 50.000 tokens, generar una sola palabra significa calcular 50.000 logits. Estos números sirven como una huella dactilar computacional única. Solo un modelo específico, con pesos específicos, ejecutando una entrada específica, produce una distribución de logits específica.

La innovación de Ambient consiste en utilizar los logits como prueba de trabajo: los mineros realizan inferencias de IA (generando respuestas a prompts) y los validadores verifican este trabajo comprobando las huellas dactilares de los logits en lugar de rehacer todo el cálculo.

Así es como funciona el proceso de verificación:

El minero genera la salida: Un minero recibe un prompt (p. ej., "Resume los principios del consenso blockchain") y utiliza un modelo de 600.000 millones de parámetros para generar una respuesta de 4.000 tokens. Esto produce 4.000 × 50.000 = 200 millones de logits.

El validador realiza verificaciones aleatorias: En lugar de regenerar los 4.000 tokens, el validador muestrea aleatoriamente una posición, por ejemplo, el token 2.847. El validador ejecuta un único paso de inferencia en esa posición y compara los logits informados por el minero con la distribución esperada.

Compromiso criptográfico: Si los logits coinciden (dentro de un umbral aceptable que tiene en cuenta la precisión de punto flotante), el trabajo del minero se verifica. Si no coinciden, el bloque es rechazado y el minero pierde sus recompensas.

Esto reduce el gasto operativo de verificación a aproximadamente el 0,1 % del cálculo original. Un validador que comprueba 200 millones de logits solo necesita verificar 50.000 logits (una posición de token), reduciendo el coste en un 99,9 %. Compare esto con la PoW tradicional, donde la validación significa volver a ejecutar toda la función hash, o el enfoque de Bitcoin, donde verificar un solo hash SHA-256 es trivial porque el acertijo en sí es arbitrario.

El sistema de Ambient es exponencialmente más barato que los esquemas ingenuos de "prueba de trabajo útil" que requieren un recálculo completo. Está más cerca de la eficiencia de Bitcoin (validación económica) pero ofrece una utilidad real (inferencia de IA en lugar de hashes sin sentido).

La reducción de costes de entrenamiento de 10x: IA descentralizada sin monopolios de centros de datos

El entrenamiento de IA centralizado es costoso: prohibitivo para la mayoría de las organizaciones. Entrenar modelos a escala de GPT-4 cuesta decenas de millones de dólares, requiere miles de GPU empresariales y concentra el poder en manos de unos pocos gigantes tecnológicos. La arquitectura de Ambient tiene como objetivo democratizar esto distribuyendo el entrenamiento en una red de mineros independientes.

La reducción de costes de 10 veces proviene de dos innovaciones técnicas:

Fragmentación al estilo PETALS: Ambient adapta técnicas de PETALS, un sistema de inferencia descentralizado donde cada nodo almacena solo un fragmento (shard) de un modelo grande. En lugar de requerir que los mineros mantengan un modelo completo de 600.000 millones de parámetros (lo que requeriría terabytes de VRAM), cada minero posee un subconjunto de capas. Un prompt fluye secuencialmente a través de la red, con cada minero procesando su fragmento y pasando las activaciones al siguiente.

Esto significa que un minero con una sola GPU de consumo (24 GB de VRAM) puede participar en el entrenamiento de modelos que, de otro modo, requerirían cientos de GPU en un centro de datos. Al distribuir el grafo computacional a través de cientos o miles de nodos, Ambient elimina la necesidad de costosas interconexiones de gran ancho de banda (como InfiniBand) utilizadas en los clústeres de ML tradicionales.

Sparsity (dispersión) inspirada en SLIDE: La mayoría de los cálculos de redes neuronales implican multiplicar matrices donde la mayoría de las entradas están cerca de cero. SLIDE (Sub-LInear Deep learning Engine) aprovecha esto mediante el hashing de activaciones para identificar qué neuronas importan realmente para una entrada determinada, omitiendo por completo los cálculos irrelevantes.

Ambient aplica esta dispersión al entrenamiento distribuido. En lugar de que todos los mineros procesen todos los datos, la red enruta dinámicamente el trabajo a los nodos cuyos fragmentos son relevantes para el lote actual. Esto reduce el gasto operativo de comunicación (un cuello de botella importante en el ML distribuido) y permite que los mineros con hardware más débil participen manejando subgrafos dispersos.

La combinación produce lo que Ambient afirma es un rendimiento (throughput) 10 veces mejor que los esfuerzos de entrenamiento distribuido existentes como DiLoCo o Hivemind. Lo más importante es que reduce la barrera de entrada: los mineros no necesitan infraestructura de nivel de centro de datos; una PC para juegos con una GPU decente es suficiente para contribuir.

Arquitectura de Fork de Solana: El Alto TPS se Encuentra con el PoW No Bloqueante

Ambient no está construyendo desde cero. Es un fork completo de Solana, heredando la Máquina Virtual de Solana (SVM), el sellado de tiempo de Prueba de Historia (PoH) y el reenvío de mempool Gulf Stream. Esto le otorga a Ambient el rendimiento teórico de 65,000 TPS de Solana y una finalidad de menos de un segundo.

Pero Ambient realiza una modificación crítica: añade una capa de prueba de trabajo (PoW) no bloqueante sobre el consenso de Solana.

Así es como funciona el consenso híbrido:

La Prueba de Historia ordena las transacciones: La PoH de Solana proporciona un reloj criptográfico, ordenando las transacciones sin esperar un consenso global. Esto permite la ejecución paralela en múltiples núcleos.

La Prueba de Logits asegura la cadena: Los mineros compiten para producir resultados de inferencia de IA válidos. La blockchain acepta bloques de mineros que generan el trabajo de IA más valioso (medido por la complejidad de la inferencia, el tamaño del modelo o la reputación en staking).

Integración no bloqueante: A diferencia de Bitcoin, donde la producción de bloques se detiene hasta que se encuentra un PoW válido, el PoW de Ambient opera de forma asincrónica. Los validadores continúan procesando transacciones mientras los mineros compiten para enviar el trabajo de IA. Esto evita que el PoW se convierta en un cuello de botella.

El resultado es una blockchain que mantiene la velocidad de Solana (crítica para aplicaciones de IA que requieren inferencia de baja latencia) al tiempo que garantiza la competencia económica en las actividades principales de la red: inferencia, ajuste fino (fine-tuning) y entrenamiento.

Este diseño también evita los errores anteriores de Ethereum con el consenso de "trabajo útil". Primecoin y Gridcoin intentaron utilizar la computación científica como PoW, pero se enfrentaron a un fallo fatal: el trabajo útil no es uniformemente difícil. Algunos problemas son fáciles de resolver pero difíciles de verificar; otros son fáciles de paralelizar de forma desleal. Ambient esquiva esto haciendo que la verificación de logits sea computacionalmente barata y estandarizada. Cada tarea de inferencia, independientemente de su complejidad, puede verificarse con el mismo algoritmo de comprobación puntual (spot-checking).

La Carrera para Entrenar AGI On-Chain: ¿Quién más está Compitiendo?

Ambient no está solo en el objetivo de la IA nativa de la blockchain. El sector está saturado de proyectos que afirman descentralizar el aprendizaje automático, pero pocos ofrecen un entrenamiento on-chain verificable. Así es como se compara Ambient con sus principales competidores:

Artificial Superintelligence Alliance (ASI): Formada por la fusión de Fetch.AI, SingularityNET y Ocean Protocol, ASI se centra en la infraestructura de AGI descentralizada. La ASI Chain admite la ejecución de agentes concurrentes y transacciones de modelos seguras. A diferencia del enfoque PoW de Ambient, ASI se basa en un modelo de mercado donde los desarrolladores pagan por créditos de cómputo. Esto funciona para la inferencia, pero no alinea los incentivos para el entrenamiento: los mineros no tienen motivos para contribuir con costosas horas de GPU a menos que se les compense explícitamente por adelantado.

AIVM (ChainGPT): La hoja de ruta de AIVM de ChainGPT apunta al lanzamiento de la red principal en 2026, integrando recursos de GPU off-chain con verificación on-chain. Sin embargo, la verificación de AIVM se basa en optimistic rollups (asumen la corrección a menos que se impugne), lo que introduce latencia por las pruebas de fraude. La verificación de logits de Ambient es determinista: los validadores saben instantáneamente si el trabajo es válido.

Internet Computer (ICP): El Internet Computer de Dfinity puede albergar modelos grandes de forma nativa on-chain sin infraestructura de nube externa. Pero la arquitectura de canisters de ICP no está optimizada para el entrenamiento; está diseñada para la inferencia y la ejecución de contratos inteligentes. El PoW de Ambient incentiva económicamente la mejora continua del modelo, mientras que ICP requiere que los desarrolladores gestionen el entrenamiento de forma externa.

Bittensor: Bittensor utiliza un modelo de subredes donde cadenas especializadas entrenan diferentes tareas de IA (generación de texto, clasificación de imágenes, etc.). Los mineros compiten enviando pesos de modelos y los validadores los clasifican por rendimiento. Bittensor destaca en la inferencia descentralizada, pero tiene dificultades con la coordinación del entrenamiento: no hay un modelo global unificado, sino una colección de subredes independientes. El enfoque de Ambient unifica el entrenamiento bajo un único mecanismo de PoW.

Lightchain Protocol AI: El whitepaper de Lightchain propone la Prueba de Inteligencia (PoI), donde los nodos realizan tareas de IA para validar transacciones. Sin embargo, el consenso de Lightchain sigue siendo en gran medida teórico, sin anuncio de lanzamiento de testnet. Ambient, por el contrario, planea una testnet para el Q2 / Q3 de 2025.

La ventaja de Ambient es combinar el trabajo de IA verificable con la arquitectura de alto rendimiento probada de Solana. La mayoría de los competidores sacrifican la descentralización (entrenamiento centralizado con verificación on-chain) o sacrifican el rendimiento (consenso lento esperando pruebas de fraude). El PoW basado en logits de Ambient ofrece ambos: entrenamiento descentralizado con verificación casi instantánea.

Incentivos Económicos: Minar Modelos de IA como Bloques de Bitcoin

El modelo económico de Ambient refleja el de Bitcoin: recompensas de bloque predecibles + comisiones de transacción. Pero en lugar de minar bloques vacíos, los mineros producen resultados de IA que las aplicaciones pueden consumir.

Así es como funciona la estructura de incentivos:

Recompensas basadas en la inflación: Los primeros mineros reciben subsidios de bloque (tokens recién acuñados) por contribuir a la inferencia, el ajuste fino o el entrenamiento de IA. Al igual que el programa de halving de Bitcoin, los subsidios disminuyen con el tiempo, lo que garantiza la escasez a largo plazo.

Comisiones basadas en transacciones: Las aplicaciones pagan por servicios de IA: solicitudes de inferencia, ajuste fino de modelos o acceso a pesos entrenados. Estas comisiones van a los mineros que realizaron el trabajo, creando un modelo de ingresos sostenible a medida que disminuyen los subsidios.

Staking de reputación: Para evitar ataques Sybil (mineros que envían trabajos de baja calidad para reclamar recompensas), Ambient introduce la reputación en staking. Los mineros bloquean tokens para participar; producir logits inválidos resulta en un slashing (recorte de fondos). Esto alinea los incentivos: los mineros maximizan las ganancias generando resultados de IA precisos y útiles en lugar de intentar engañar al sistema.

Accesibilidad de hardware modesta: A diferencia de Bitcoin, donde dominan las granjas de ASICs, el sharding de PETALS de Ambient permite la participación con GPUs de consumo. Un minero con una sola RTX 4090 (24 GB de VRAM, ~ $ 1,600) puede contribuir al entrenamiento de modelos de 600 mil millones de parámetros al poseer un shard (fragmento). Esto democratiza el acceso, sin necesidad de centros de datos de millones de dólares.

Este modelo resuelve un problema crítico en la IA descentralizada: el problema del polizón (free-rider). En las cadenas PoS tradicionales, los validadores hacen staking de capital pero no contribuyen con cómputo. En Ambient, los mineros contribuyen con trabajo de IA real, asegurando que la utilidad de la red crezca proporcionalmente a su presupuesto de seguridad.

El sector de los agentes de IA de $ 27.000 millones: Por qué 2026 es el punto de inflexión

El cronograma de Ambient se alinea con las tendencias más amplias del mercado. El sector cripto de agentes de IA está valorado en $ 27.000 millones, impulsado por programas autónomos que gestionan activos on-chain, ejecutan operaciones y se coordinan a través de protocolos.

Pero los agentes actuales se enfrentan a un problema de confianza: la mayoría depende de API de IA centralizadas (OpenAI, Anthropic, Google). Si un agente que gestiona $ 10 millones en posiciones DeFi utiliza GPT-4 para tomar decisiones, los usuarios no tienen ninguna garantía de que el modelo no haya sido manipulado, censurado o sesgado. No hay un rastro de auditoría que demuestre que el agente activo de forma autónoma.

Ambient resuelve esto con la verificación on-chain. Cada inferencia de IA se registra en la blockchain, con logits que prueban el modelo exacto y la entrada utilizada. Las aplicaciones pueden:

Auditar las decisiones de los agentes: Una DAO podría verificar que su agente de gestión de tesorería utilizó un modelo específico aprobado por la comunidad, y no una versión modificada en secreto.

Aplicar el cumplimiento: Los protocolos DeFi regulados podrían exigir que los agentes utilicen modelos con barandillas de seguridad verificadas, demostrables on-chain.

Habilitar mercados de IA: Los desarrolladores podrían vender modelos ajustados como NFTs, con Ambient proporcionando pruebas criptográficas de los datos de entrenamiento y los pesos.

Esto posiciona a Ambient como infraestructura para la próxima ola de agentes autónomos. A medida que 2026 surge como el punto de giro donde "la IA, las blockchains y los pagos convergen en un único internet auto-coordinado", la capa de IA verificable de Ambient se convierte en una pieza crítica de infraestructura.

Riesgos técnicos y preguntas abiertas

La visión de Ambient es ambiciosa, pero varios desafíos técnicos siguen sin resolverse:

Determinismo y deriva de punto flotante: Los modelos de IA utilizan aritmética de punto flotante, que no es perfectamente determinista entre diferentes hardwares. Un modelo que se ejecuta en una NVIDIA A100 podría producir logits ligeramente diferentes a los del mismo modelo en una AMD MI250. Si los validadores rechazan bloques debido a una deriva numérica menor, la red se vuelve inestable. Ambient necesitará límites de tolerancia estrictos, pero si son demasiado estrictos, los mineros con hardware diferente serán penalizados injustamente.

Actualizaciones de modelos y control de versiones: Si Ambient entrena un modelo global de forma colaborativa, ¿cómo gestiona las actualizaciones? En Bitcoin, todos los nodos ejecutan reglas de consenso idénticas. En Ambient, los mineros ajustan los modelos continuamente. Si la mitad de la red se actualiza a la versión 2.0 y la otra mitad se queda en la 1.9, la verificación se rompe. El libro blanco no detalla cómo funcionan el control de versiones de los modelos y la compatibilidad con versiones anteriores.

Diversidad de prompts y estandarización del trabajo: El PoW de Bitcoin es uniforme: cada minero resuelve el mismo tipo de acertijo. El PoW de Ambient varía: algunos mineros responden preguntas de matemáticas, otros escriben código y otros resumen documentos. ¿Cómo comparan los validadores el "valor" de diferentes tareas? Si un minero genera 10.000 tokens de galimatías (fácil) y otro ajusta un modelo en un conjunto de datos difícil (costoso), ¿quién recibe más recompensa? Ambient necesita un algoritmo de ajuste de dificultad para el trabajo de IA, análogo a la dificultad de hash de Bitcoin, pero medir la "dificultad de inferencia" no es trivial.

Latencia en el entrenamiento distribuido: El fragmentado al estilo PETALS funciona bien para la inferencia (procesamiento secuencial de capas), pero el entrenamiento requiere retropropagación: gradientes fluyendo hacia atrás a través de la red. Si las capas se distribuyen entre nodos con latencia de red variable, las actualizaciones de gradientes se convierten en cuellos de botella. Ambient afirma mejoras de rendimiento de 10 ×, pero el rendimiento en el mundo real depende de la topología de la red y la distribución de los mineros.

Riesgos de centralización en el alojamiento de modelos: Si solo unos pocos nodos pueden permitirse alojar los fragmentos de modelos más valiosos (por ejemplo, las capas finales de un modelo de 600 mil millones de parámetros), obtienen una influencia desproporcionada. Los validadores podrían enrutar preferentemente el trabajo a nodos bien conectados, recreando la centralización de los centros de datos en una red supuestamente descentralizada.

Estos no son fallos fatales; son desafíos de ingeniería que enfrenta todo proyecto de blockchain e IA. Pero el lanzamiento de la testnet de Ambient en el Q2 / Q3 de 2025 revelará si la teoría se sostiene en condiciones reales.

Lo que viene a continuación: Testnet, Mainnet y el final del juego de la AGI

La hoja de ruta de Ambient apunta a un lanzamiento de la testnet en el Q2 / Q3 de 2025, con la mainnet a continuación en 2026. La ronda semilla de $ 7,2 millones de a16z CSX, Delphi Digital y Amber Group proporciona capital para el desarrollo principal, pero el éxito a largo plazo del proyecto depende de la adopción del ecosistema.

Hitos clave a seguir:

Participación en la minería de la testnet: ¿Cuántos mineros se unen a la red? Si Ambient atrae a miles de propietarios de GPUs (como la minería temprana de Ethereum), demuestra que el modelo económico funciona. Si solo un puñado de entidades mina, indica riesgos de centralización.

Benchmarks de rendimiento del modelo: ¿Pueden los modelos entrenados por Ambient competir con OpenAI o Anthropic? Si un modelo descentralizado de 600 mil millones de parámetros alcanza una calidad de nivel GPT-4, valida todo el enfoque. Si el rendimiento se queda significativamente atrás, los desarrolladores seguirán usando API centralizadas.

Integraciones de aplicaciones: ¿Qué protocolos DeFi, DAOs o agentes de IA construyen sobre Ambient? La propuesta de valor solo se materializa si las aplicaciones reales consumen inferencia de IA on-chain. Los primeros casos de uso podrían incluir:

  • Agentes de trading autónomos con lógica de decisión demostrable
  • Moderación de contenido descentralizada (modelos de IA que filtran publicaciones, auditables on-chain)
  • Oráculos de IA verificables (predicciones de precios on-chain o análisis de sentimiento)

Interoperabilidad con Ethereum y Cosmos: Ambient es un fork de Solana, pero la economía de los agentes de IA abarca múltiples cadenas. Los puentes hacia Ethereum (para DeFi) y Cosmos (para cadenas de IA conectadas por IBC como ASI) determinarán si Ambient se convierte en un silo o en un centro neurálgico.

El objetivo final es ambicioso: entrenar una AGI descentralizada donde ninguna entidad individual controle el modelo. Si miles de mineros independientes entrenan colaborativamente un sistema superinteligente, con pruebas criptográficas de cada paso del entrenamiento, representaría el primer camino verdaderamente abierto y auditable hacia la AGI.

Si Ambient logra esto o se convierte en otro proyecto cripto con promesas excesivas depende de la ejecución. Pero la innovación principal —reemplazar los acertijos criptográficos arbitrarios con trabajo de IA verificable— es un avance genuino. Si el proof-of-work puede ser productivo en lugar de derrochador, Ambient será el primero en demostrarlo.

El cambio de paradigma de Proof - of - Logits

La recaudación de $ 7,2 millones de Ambient no es solo otra ronda de financiación cripto . Es una apuesta a que el consenso de blockchain y el entrenamiento de IA pueden fusionarse en un único sistema alineado económicamente . Las implicaciones repercuten mucho más allá de Ambient :

Si la verificación basada en logits funciona , otras cadenas la adoptarán . Ethereum podría introducir PoL como una alternativa a PoS , recompensando a los validadores que contribuyan con trabajo de IA en lugar de simplemente hacer staking de ETH . Bitcoin podría realizar un fork para utilizar computación útil en lugar de hashes SHA - 256 ( aunque los maximalistas de Bitcoin nunca aceptarían esto ) .

Si el entrenamiento descentralizado logra un rendimiento competitivo , OpenAI y Google perderán sus ventajas competitivas ( moats ) . Un mundo en el que cualquier persona con una GPU pueda contribuir al desarrollo de la AGI , ganando tokens por su trabajo , interrumpe fundamentalmente el oligopolio centralizado de la IA .

Si la verificación de IA on - chain se convierte en un estándar , los agentes autónomos ganarán credibilidad . En lugar de confiar en APIs de caja negra , los usuarios verifican modelos y prompts exactos on - chain . Esto desbloquea DeFi regulado , gobernanza algorítmica y contratos legales impulsados por IA .

Ambient no tiene garantizada la victoria . Pero es el intento técnicamente más creíble hasta la fecha para hacer que el proof - of - work sea productivo , descentralizar el entrenamiento de IA y alinear la seguridad de la blockchain con el progreso de la civilización . El lanzamiento de la testnet mostrará si la teoría se encuentra con la realidad — o si proof - of - logits se une al cementerio de ambiciosos experimentos de consenso .

De cualquier manera , la carrera para entrenar AGI on - chain es ahora innegablemente real . Y Ambient acaba de poner $ 7,2 millones en la línea de salida .


Fuentes :

Gensyn's Judge: Cómo la reproducibilidad exacta a nivel de bits está terminando con la era de las APIs de IA opacas

· 23 min de lectura
Dora Noda
Software Engineer

Cada vez que consultas a ChatGPT, Claude o Gemini, estás confiando en una caja negra invisible. ¿La versión del modelo? Desconocida. ¿Los pesos exactos? Propietarios. ¿Si el resultado fue generado por el modelo que crees que estás usando, o por una variante actualizada silenciosamente? Imposible de verificar. Para los usuarios casuales que preguntan por recetas o curiosidades, esta opacidad es simplemente molesta. Para la toma de decisiones de IA de alto riesgo —algoritmos de trading financiero, diagnósticos médicos, análisis de contratos legales— es una crisis fundamental de confianza.

Judge de Gensyn, lanzado a finales de 2025 y entrando en producción en 2026, ofrece una alternativa radical: evaluación de IA criptográficamente verificable donde cada inferencia es reproducible hasta el último bit. En lugar de confiar en que OpenAI o Anthropic sirvan el modelo correcto, Judge permite que cualquiera verifique que un modelo de IA específico y acordado previamente se ejecutó de forma determinista contra entradas del mundo real, con pruebas criptográficas que garantizan que los resultados no pueden ser falsificados.

El avance técnico es Verde, el sistema de verificación de Gensyn que elimina el no determinismo de punto flotante, la pesadilla de la reproducibilidad de la IA. Al imponer una computación exacta a nivel de bits en todos los dispositivos, Verde asegura que ejecutar el mismo modelo en una NVIDIA A100 en Londres y en una AMD MI250 en Tokio produzca resultados idénticos, demostrables on-chain. Esto desbloquea la IA verificable para las finanzas descentralizadas, los agentes autónomos y cualquier aplicación donde la transparencia no sea opcional, sino existencial.

El problema de las API opacas: Confianza sin verificación

La industria de la IA funciona con API. Los desarrolladores integran GPT-4 de OpenAI, Claude de Anthropic o Gemini de Google a través de endpoints REST, enviando prompts y recibiendo respuestas. Pero estas API son fundamentalmente opacas:

Incertidumbre de versión: Cuando llamas a gpt-4, ¿qué versión exacta estoy recibiendo? ¿GPT-4-0314? ¿GPT-4-0613? ¿Una variante actualizada silenciosamente? Los proveedores despliegan parches con frecuencia sin anuncios públicos, cambiando el comportamiento del modelo de la noche a la mañana.

Sin rastro de auditoría: Las respuestas de la API no incluyen ninguna prueba criptográfica de qué modelo las generó. Si OpenAI sirve una variante censurada o sesgada para geografías o clientes específicos, los usuarios no tienen forma de detectarlo.

Degradación silenciosa: Los proveedores pueden "lobotomizar" los modelos para reducir costos, degradando la calidad de la inferencia mientras mantienen el mismo contrato de API. Los usuarios informan que GPT-4 se vuelve "más tonto" con el tiempo, pero sin un control de versiones transparente, tales afirmaciones siguen siendo anecdóticas.

Resultados no deterministas: Incluso consultar el mismo modelo dos veces con entradas idénticas puede arrojar resultados diferentes debido a la configuración de temperatura, el procesamiento por lotes (batching) o los errores de redondeo de punto flotante a nivel de hardware. Esto hace que la auditoría sea imposible: ¿cómo se verifica la corrección cuando los resultados no son reproducibles?

Para aplicaciones casuales, estos problemas son inconvenientes. Para la toma de decisiones de alto riesgo, son bloqueadores. Considera lo siguiente:

Trading algorítmico: Un fondo de cobertura despliega un agente de IA que gestiona 50 millones de dólares en posiciones DeFi. El agente confía en GPT-4 para analizar el sentimiento del mercado a partir de publicaciones en X. Si el modelo se actualiza silenciosamente a mitad de la sesión de trading, las puntuaciones de sentimiento cambian de forma impredecible, provocando liquidaciones no deseadas. El fondo no tiene pruebas de que el modelo se comportó mal; los registros de OpenAI no son auditables públicamente.

Diagnósticos médicos: Un hospital utiliza un modelo de IA para recomendar tratamientos contra el cáncer. Las regulaciones exigen que los médicos documenten los procesos de toma de decisiones. Pero si la versión del modelo de IA no se puede verificar, el rastro de auditoría está incompleto. Una demanda por negligencia médica podría depender de demostrar qué modelo generó la recomendación, algo imposible con las API opacas.

Gobernanza de DAO: Una organización descentralizada utiliza un agente de IA para votar sobre propuestas de tesorería. Los miembros de la comunidad exigen pruebas de que el agente utilizó el modelo aprobado, no una variante manipulada que favorezca resultados específicos. Sin verificación criptográfica, el voto carece de legitimidad.

Esta es la brecha de confianza a la que se dirige Gensyn: a medida que la IA se integra en la toma de decisiones críticas, la incapacidad de verificar la autenticidad y el comportamiento del modelo se convierte en un "bloqueador fundamental para desplegar IA agéntica en entornos de alto riesgo".

Judge: El protocolo de evaluación de IA verificable

Judge resuelve el problema de la opacidad mediante la ejecución de modelos de IA deterministas y acordados previamente contra entradas del mundo real, y consignando los resultados en una blockchain donde cualquiera puede desafiarlos. Así es como funciona el protocolo:

1. Compromiso del modelo: Los participantes se ponen de acuerdo sobre un modelo de IA: su arquitectura, pesos y configuración de inferencia. Este modelo se hashea y se registra on-chain. El hash sirve como una huella digital criptográfica: cualquier desviación del modelo acordado produce un hash diferente.

2. Ejecución determinista: Judge ejecuta el modelo utilizando el Runtime Reproducible de Gensyn, que garantiza una reproducibilidad exacta a nivel de bits en todos los dispositivos. Esto elimina el no determinismo de punto flotante, una innovación crítica que exploraremos en breve.

3. Compromiso público: Después de la inferencia, Judge publica el resultado (o un hash del mismo) on-chain. Esto crea un registro permanente y auditable de lo que produjo el modelo para una entrada determinada.

4. Período de desafío: Cualquiera puede desafiar el resultado volviendo a ejecutar el modelo de forma independiente. Si su resultado difiere, presentan una prueba de fraude. El mecanismo de delegación arbitrada de Verde señala el operador exacto en el grafo computacional donde los resultados divergen.

5. Slashing por fraude: Si un desafiante demuestra que Judge produjo resultados incorrectos, el ejecutor original es penalizado (slashing de tokens en staking). Esto alinea los incentivos económicos: los ejecutores maximizan las ganancias ejecutando los modelos correctamente.

Judge transforma la evaluación de la IA de "confiar en el proveedor de la API" a "verificar la prueba criptográfica". El comportamiento del modelo es público, auditable y exigible; ya no está oculto detrás de endpoints propietarios.

Verde: Eliminando el no determinismo de punto flotante

El principal desafío técnico en la IA verificable es el determinismo. Las redes neuronales realizan miles de millones de operaciones de punto flotante durante la inferencia. En las GPU modernas, estas operaciones no son perfectamente reproducibles:

No asociatividad: La suma de punto flotante no es asociativa. (a + b) + c puede arrojar un resultado diferente al de a + (b + c) debido a los errores de redondeo. Las GPU paralizan las sumas en miles de núcleos, y el orden en que se acumulan las sumas parciales varía según el hardware y la versión del controlador.

Variabilidad en la programación de kernels: Los kernels de GPU (como la multiplicación de matrices o la atención) pueden ejecutarse en diferentes órdenes según la carga de trabajo, las optimizaciones del controlador o la arquitectura del hardware. Incluso ejecutar el mismo modelo en la misma GPU dos veces puede dar resultados diferentes si la programación del kernel difiere.

Dependencia del tamaño de lote: La investigación ha descubierto que la inferencia de LLM no es determinista a nivel de sistema porque el resultado depende del tamaño del lote (batch size). Muchos kernels (matmul, RMSNorm, atención) cambian la salida numérica según cuántas muestras se procesen juntas; una inferencia con un tamaño de lote de 1 produce valores diferentes a los de la misma entrada en un lote de 8.

Estos problemas hacen que los modelos de IA estándar no sean adecuados para la verificación en blockchain. Si dos validadores vuelven a ejecutar la misma inferencia y obtienen resultados ligeramente diferentes, ¿quién tiene razón? Sin determinismo, el consenso es imposible.

Verde soluciona esto con RepOps (Reproducible Operators), una biblioteca que elimina el no determinismo del hardware al controlar el orden de las operaciones de punto flotante en todos los dispositivos. Así es como funciona:

Órdenes de reducción canónicos: RepOps impone un orden determinista para sumar resultados parciales en operaciones como la multiplicación de matrices. En lugar de dejar que el programador de la GPU decida, RepOps especifica explícitamente: "sumar la columna 0, luego la columna 1, luego la columna 2..." en todo el hardware. Esto asegura que (a + b) + c se compute siempre en la misma secuencia.

Kernels de CUDA personalizados: Gensyn desarrolló kernels optimizados que priorizan la reproducibilidad sobre la velocidad bruta. Las multiplicaciones de matrices de RepOps incurren en una sobrecarga de menos del 30% en comparación con cuBLAS estándar, un intercambio razonable a cambio del determinismo.

Fijación de controladores y versiones: Verde utiliza controladores de GPU con versiones fijas y configuraciones canónicas, lo que garantiza que el mismo modelo ejecutado en diferentes hardwares produzca salidas idénticas bit a bit. Un modelo que se ejecuta en una NVIDIA A100 en un centro de datos coincide con la salida de una AMD MI250 en otro, bit por bit.

Este es el avance que permite la verificación de Judge: la reproducibilidad exacta a nivel de bits significa que los validadores pueden confirmar los resultados de forma independiente sin confiar en los ejecutores. Si el hash coincide, la inferencia es correcta; es matemáticamente demostrable.

Delegación Arbitrada: Verificación Eficiente sin Recomputación Completa

Incluso con una ejecución determinista, verificar la inferencia de IA de forma ingenua es costoso. Un modelo de 70 mil millones de parámetros que genera 1,000 tokens podría requerir 10 horas de GPU. Si los validadores deben volver a ejecutar cada inferencia para verificar la corrección, el costo de verificación iguala al costo de ejecución, lo que anula el propósito de la descentralización.

El mecanismo de delegación arbitrada de Verde hace que la verificación sea exponencialmente más económica:

Múltiples ejecutores no confiables: En lugar de un solo ejecutor, Judge asigna tareas a múltiples proveedores independientes. Cada uno realiza la misma inferencia y envía los resultados.

El desacuerdo activa una investigación: Si todos los ejecutores están de acuerdo, se acepta el resultado y no se necesita más verificación. Si los resultados difieren, Verde inicia un juego de desafío.

Búsqueda binaria sobre el grafo de computación: Verde no vuelve a ejecutar toda la inferencia. En su lugar, realiza una búsqueda binaria sobre el grafo computacional del modelo para encontrar el primer operador donde los resultados divergen. Esto señala la capa exacta (por ejemplo, "capa de atención 47, cabezal 8") que causa la discrepancia.

Cómputo mínimo del árbitro: Un árbitro (que puede ser un contrato inteligente o un validador con capacidad de cómputo limitada) verifica solo el operador en disputa, no todo el paso hacia adelante (forward pass). Para un modelo de 70B de parámetros con 80 capas, esto reduce la verificación a comprobar unas 7 capas (log₂ 80) en el peor de los casos.

Este enfoque es más de un 1,350% más eficiente que la replicación ingenua (donde cada validador vuelve a ejecutar todo). Gensyn combina pruebas criptográficas, teoría de juegos y procesos optimizados para garantizar la ejecución correcta sin computación redundante.

El resultado: Judge puede verificar cargas de trabajo de IA a escala, permitiendo redes de inferencia descentralizadas donde miles de nodos no confiables aportan cómputo, y los ejecutores deshonestos son detectados y penalizados.

Toma de Decisiones de IA de Alto Riesgo: Por qué la Transparencia es Importante

El mercado objetivo de Judge no son los chatbots casuales, sino aplicaciones donde la verificabilidad no es algo deseable, sino un requisito regulatorio o económico. Estos son escenarios donde las API opacas fallan catastróficamente:

Finanzas descentralizadas (DeFi): Los agentes de trading autónomos gestionan miles de millones en activos. Si un agente utiliza un modelo de IA para decidir cuándo reequilibrar carteras, los usuarios necesitan pruebas de que el modelo no fue manipulado. Judge permite la verificación on-chain: el agente se compromete con un hash de modelo específico, ejecuta operaciones basadas en sus salidas y cualquiera puede desafiar la lógica de decisión. Esta transparencia evita los rug pulls (fraudes de salida) donde los agentes maliciosos afirman que "la IA me dijo que liquidara" sin evidencia.

Cumplimiento normativo: Las instituciones financieras que despliegan IA para la calificación crediticia, la detección de fraudes o la lucha contra el lavado de dinero (AML) se enfrentan a auditorías. Los reguladores exigen explicaciones: "¿Por qué el modelo marcó esta transacción?". Las API opacas no proporcionan una pista de auditoría. Judge crea un registro inmutable de la versión del modelo, las entradas y las salidas, satisfaciendo los requisitos de cumplimiento.

Gobernanza algorítmica: Las organizaciones autónomas descentralizadas (DAO) utilizan agentes de IA para proponer o votar decisiones de gobernanza. Los miembros de la comunidad deben verificar que el agente utilizó el modelo aprobado, no una variante hackeada. Con Judge, la DAO codifica el hash del modelo en su contrato inteligente, y cada decisión incluye una prueba criptográfica de corrección.

IA médica y legal: Los sistemas sanitarios y legales requieren rendición de cuentas. Un médico que diagnostica cáncer con ayuda de IA necesita documentar la versión exacta del modelo utilizado. Un abogado que redacta contratos con IA debe demostrar que el resultado provino de un modelo examinado y sin sesgos. La pista de auditoría on-chain de Judge proporciona esta evidencia.

Mercados de predicción y oráculos: Proyectos como Polymarket utilizan IA para resolver los resultados de las apuestas (por ejemplo, "¿Sucederá este evento?"). Si la resolución depende de un modelo de IA que analiza artículos de noticias, los participantes necesitan pruebas de que el modelo no fue manipulado. Judge verifica la inferencia de IA del oráculo, evitando disputas.

En cada caso, el hilo común es que la confianza sin transparencia es insuficiente. Como señala VeritasChain, los sistemas de IA necesitan "registradores de vuelo criptográficos": registros inmutables que demuestren lo que sucedió cuando surgen disputas.

La alternativa de prueba de conocimiento cero: comparando Verde y ZKML

Judge no es el único enfoque para la IA verificable. El aprendizaje automático de conocimiento cero (ZKML) logra objetivos similares utilizando zk-SNARKs: pruebas criptográficas de que un cálculo se realizó correctamente sin revelar las entradas ni los pesos.

¿Cómo se compara Verde con ZKML?

Costo de verificación: ZKML requiere ~ 1,000 × más cómputo que la inferencia original para generar pruebas (estimaciones de investigación). Un modelo de 70 B - parámetros que necesite 10 horas de GPU para la inferencia podría requerir 10,000 horas de GPU para probarse. La delegación arbitrada de Verde es logarítmica: verificar ~ 7 capas en lugar de 80 es una reducción de 10 ×, no de 1,000 ×.

Complejidad del probador: ZKML exige hardware especializado (como ASICs personalizados para circuitos zk-SNARK) para generar pruebas de manera eficiente. Verde funciona en GPUs comerciales — cualquier minero con una PC para juegos puede participar.

Compensaciones de privacidad: La fortaleza de ZKML es la privacidad — las pruebas no revelan nada sobre las entradas o los pesos del modelo. La ejecución determinante de Verde es transparente: las entradas y salidas son públicas (aunque los pesos pueden estar encriptados). Para la toma de decisiones de alto riesgo, la transparencia suele ser deseable. Una DAO que vota sobre la asignación de la tesorería quiere pistas de auditoría públicas, no pruebas ocultas.

Alcance de la prueba: ZKML está prácticamente limitado a la inferencia — probar el entrenamiento es inviable con los costos computacionales actuales. Verde admite tanto la verificación de inferencia como la de entrenamiento (el protocolo más amplio de Gensyn verifica el entrenamiento distribuido).

Adopción en el mundo real: Los proyectos de ZKML como Modulus Labs han logrado avances (verificando modelos de 18 M - parámetros en cadena), pero siguen limitados a modelos más pequeños. El tiempo de ejecución determinante de Verde maneja modelos de más de 70 B + parámetros en producción.

ZKML destaca donde la privacidad es primordial — como al verificar la autenticación biométrica (Worldcoin) sin exponer los escaneos de iris. Verde destaca donde la transparencia es el objetivo — demostrar que un modelo público específico se ejecutó correctamente. Ambos enfoques son complementarios, no competitivos.

El ecosistema Gensyn: de Judge al entrenamiento descentralizado

Judge es un componente de la visión más amplia de Gensyn: una red descentralizada para el cómputo de aprendizaje automático. El protocolo incluye:

Capa de ejecución: Ejecución consistente de ML a través de hardware heterogéneo (GPUs de consumo, clústeres empresariales, dispositivos de borde). Gensyn estándariza las cargas de trabajo de inferencia y entrenamiento, asegurando la compatibilidad.

Capa de verificación (Verde): Verificación sin confianza utilizando delegación arbitrada. Los ejecutores deshonestos son detectados y penalizados.

Comunicación peer-to-peer: Distribución de la carga de trabajo entre dispositivos sin coordinación centralizada. Los mineros reciben tareas, las ejecutan y envían las pruebas directamente a la cadena de bloques.

Coordinación descentralizada: Los contratos inteligentes en un rollup de Ethereum identifican a los participantes, asignan tareas y procesan los pagos sin necesidad de permisos.

La red de prueba pública de Gensyn se lanzó en marzo de 2025, con la red principal planificada para 2026. La venta pública del token $ AI ocurrió en diciembre de 2025, estableciendo incentivos económicos para mineros y validadores.

Judge encaja en este ecosistema como la capa de evaluación: mientras el protocolo central de Gensyn maneja el entrenamiento y la inferencia, Judge asegura que esos resultados sean verificables. Esto crea un volante de inercia:

Los desarrolladores entrenan modelos en la red descentralizada de Gensyn (más barato que AWS debido a que las GPUs de consumo infrautilizadas aportan cómputo).

Los modelos se despliegan con Judge garantizando la integridad de la evaluación. Las aplicaciones consumen inferencia a través de las APIs de Gensyn, pero a diferencia de OpenAI, cada resultado incluye una prueba criptográfica.

Los validadores ganan tarifas al verificar las pruebas y detectar fraudes, alineando los incentivos económicos con la seguridad de la red.

La confianza escala a medida que más aplicaciones adoptan la IA verificable, reduciendo la dependencia de proveedores centralizados.

El objetivo final: entrenamiento e inferencia de IA que sea demostrablemente correcta, descentralizada y accesible para cualquiera — no solo para las grandes tecnológicas.

Desafíos y preguntas abiertas

El enfoque de Judge es innovador, pero persisten varios desafíos:

Sobrecarga de rendimiento: La ralentización del 30 % de RepOps es aceptable para la verificación, pero si cada inferencia debe ejecutarse de forma determinante, las aplicaciones sensibles a la latencia (trading en tiempo real, vehículos autónomos) podrían preferir alternativas más rápidas y no verificables. La hoja de ruta de Gensyn probablemente incluye optimizar RepOps aún más — pero existe una compensación fundamental entre velocidad y determinismo.

Fragmentación de versiones de controladores: Verde asume controladores con versiones fijas, pero los fabricantes de GPU lanzan actualizaciones constantemente. Si algunos mineros usan CUDA 12.4 y otros usan 12.5, la reproducibilidad bit a bit se rompe. Gensyn debe imponer una gestión de versiones estricta — complicando la incorporación de mineros.

Secreto de los pesos del modelo: La transparencia de Judge es una ventaja para los modelos públicos, pero un inconveniente para los propietarios. Si un fondo de cobertura entrena un modelo de trading valioso, desplegarlo en Judge expone los pesos a los competidores (a través del compromiso en cadena). Las alternativas basadas en ZKML podrían ser preferidas para modelos secretos — lo que sugiere que Judge se dirige a aplicaciones de IA abiertas o semiabiertas.

Latencia en la resolución de disputas: Si un desafiante alega fraude, resolver la disputa mediante búsqueda binaria requiere múltiples transacciones en cadena (cada ronda estrecha el espacio de búsqueda). Las aplicaciones de alta frecuencia no pueden esperar horas por la finalidad. Gensyn podría introducir la verificación optimista (asumir la corrección a menos que sea desafiada dentro de una ventana) para reducir la latencia.

Resistencia a Sybil en la delegación arbitrada: Si varios ejecutores deben estar de acuerdo, ¿qué impide que una sola entidad controle a todos los ejecutores a través de identidades Sybil? Gensyn probablemente utiliza una selección ponderada por participación (se eligen preferentemente validadores de alta reputación) además del slashing para disuadir la colusión — pero los umbrales económicos deben calibrarse cuidadosamente.

Estos no son obstáculos insuperables — son desafíos de ingeniería. La innovación principal (IA determinante + verificación criptográfica) es sólida. Los detalles de ejecución madurarán a medida que la red de prueba pase a la red principal.

El camino hacia la IA verificable: Vías de adopción y ajuste de mercado

El éxito de Judge depende de la adopción. ¿Qué aplicaciones implementarán primero la IA verificable?

Protocolos DeFi con agentes autónomos: Las DAO de Aave, Compound o Uniswap podrían integrar agentes verificados por Judge para la gestión de tesorería. La comunidad vota para aprobar el hash de un modelo, y todas las decisiones de los agentes incluyen pruebas. Esta transparencia genera confianza, algo crítico para la legitimidad de DeFi.

Mercados de predicción y oráculos: Plataformas como Polymarket o Chainlink podrían usar Judge para resolver apuestas o entregar feeds de precios. Los modelos de IA que analizan el sentimiento, las noticias o la actividad on-chain producirían resultados verificables, eliminando disputas sobre la manipulación de oráculos.

Identidad descentralizada y KYC: Los proyectos que requieren verificación de identidad basada en IA (estimación de edad a partir de selfies, verificaciones de autenticidad de documentos) se benefician de la pista de auditoría de Judge. Los reguladores aceptan pruebas criptográficas de cumplimiento sin tener que confiar en proveedores de identidad centralizados.

Moderación de contenido para redes sociales: Las redes sociales descentralizadas (Farcaster, Lens Protocol) podrían implementar moderadores de IA verificados por Judge. Los miembros de la comunidad verifican que el modelo de moderación no esté sesgado ni censurado, garantizando la neutralidad de la plataforma.

Plataformas de IA como servicio (AI-as-a-Service): Los desarrolladores que crean aplicaciones de IA pueden ofrecer "inferencia verificable" como una función premium. Los usuarios pagan un extra por las pruebas, diferenciando los servicios de las alternativas opacas.

El punto común: aplicaciones donde la confianza es costosa (debido a la regulación, la descentralización o los altos riesgos) y el costo de verificación es aceptable (en comparación con el valor de la certeza).

Judge no reemplazará a OpenAI para los chatbots de consumo; a los usuarios no les importa si GPT-4 es verificable cuando piden ideas de recetas. Pero para algoritmos financieros, herramientas médicas y sistemas de gobernanza, la IA verificable es el futuro.

La verificabilidad como el nuevo estándar

Judge de Gensyn representa un cambio de paradigma: la evaluación de la IA está pasando de "confiar en el proveedor" a "verificar la prueba". La base técnica —reproducibilidad exacta a nivel de bits a través de Verde, verificación eficiente mediante delegación arbitrada y pistas de auditoría on-chain— hace que esta transición sea práctica, no solo aspiracional.

Las implicaciones resuenan mucho más allá de Gensyn. Si la IA verificable se convierte en un estándar, los proveedores centralizados pierden sus fosos competitivos (moats). La propuesta de valor de OpenAI no son solo las capacidades de GPT-4, es la conveniencia de no gestionar la infraestructura. Pero si Gensyn demuestra que la IA descentralizada puede igualar el rendimiento centralizado con la verificabilidad añadida, los desarrolladores no tendrán motivos para quedar atrapados en APIs propietarias.

La carrera ha comenzado. Los proyectos de ZKML (Modulus Labs, el sistema biométrico de Worldcoin) apuestan por las pruebas de conocimiento cero. Los entornos de ejecución deterministas (Verde de Gensyn, EigenAI) apuestan por la reproducibilidad. Los enfoques optimistas (oráculos de IA en blockchain) apuestan por las pruebas de fraude. Cada camino tiene sus compensaciones, pero el destino es el mismo: sistemas de IA donde los resultados sean demostrables, no solo plausibles.

Para la toma de decisiones de alto riesgo, esto no es opcional. Los reguladores no aceptarán un "confíe en nosotros" de los proveedores de IA en aplicaciones financieras, de salud o legales. Las DAO no delegarán la gestión de tesorería a agentes de caja negra. Y a medida que los sistemas de IA autónomos se vuelvan más potoresos, el público exigirá transparencia.

Judge es el primer sistema listo para producción que cumple con esta promesa. La red de prueba (testnet) está activa. Los fundamentos criptográficos son sólidos. El mercado — $27 mil millones en criptoactivos de agentes de IA, miles de millones en activos DeFi gestionados por algoritmos y una presión regulatoria creciente — está listo.

La era de las APIs de IA opacas está terminando. La era de la inteligencia verificable está comenzando. Y Judge de Gensyn está iluminando el camino.


Fuentes:

Blacklight de Nillion entra en funcionamiento: Cómo ERC-8004 está construyendo la capa de confianza para agentes de IA autónomos

· 15 min de lectura
Dora Noda
Software Engineer

El 2 de febrero de 2026, la economía de agentes de IA dio un paso crítico hacia adelante. Nillion lanzó Blacklight, una capa de verificación que implementa el estándar ERC-8004 para resolver una de las preguntas más urgentes de la blockchain: ¿cómo confiar en un agente de IA que nunca has conocido?

La respuesta no es una simple puntuación de reputación ni un registro centralizado. Es un proceso de verificación de cinco pasos respaldado por pruebas criptográficas, auditorías programables y una red de nodos operados por la comunidad. A medida que los agentes autónomos ejecutan cada vez más operaciones, gestionan tesorerías y coordinan actividades cross-chain, Blacklight representa la infraestructura que permite la coordinación de IA trustless a escala.

El problema de confianza que los agentes de IA no pueden resolver solos

Las cifras cuentan la historia. Los agentes de IA ahora contribuyen con el 30 % del volumen de operaciones de Polymarket, gestionan estrategias de rendimiento DeFi en múltiples protocolos y ejecutan flujos de trabajo complejos de forma autónoma. Pero existe un cuello de botella fundamental: ¿cómo verifican los agentes la confiabilidad de los demás sin relaciones preexistentes?

Los sistemas tradicionales dependen de autoridades centralizadas que emiten credenciales. La promesa de la Web3 es diferente: verificación trustless a través de la criptografía y el consenso. Sin embargo, hasta el ERC-8004, no existía una forma estandarizada para que los agentes demostraran su autenticidad, rastrearan su comportamiento o validaran su lógica de toma de decisiones on-chain.

Esto no es solo un problema teórico. Como explica Davide Crapis, "ERC-8004 permite interacciones descentralizadas entre agentes de IA, establece el comercio trustless y mejora los sistemas de reputación en Ethereum". Sin él, el comercio entre agentes permanece confinado a ecosistemas cerrados o requiere supervisión manual, lo que anula el propósito de la autonomía.

ERC-8004: La infraestructura de confianza de tres registros

El estándar ERC-8004, que entró en funcionamiento en la mainnet de Ethereum el 29 de enero de 2026, establece una capa de confianza modular a través de tres registros on-chain:

Registro de Identidad (Identity Registry): Utiliza ERC-721 para proporcionar identificadores de agentes portátiles. Cada agente recibe un token no fungible que representa su identidad única on-chain, lo que permite el reconocimiento multiplataforma y evita la suplantación de identidad.

Registro de Reputación (Reputation Registry): Recopila comentarios y calificaciones estandarizados. A diferencia de los sistemas de revisión centralizados, los comentarios se registran on-chain con firmas criptográficas, creando un rastro de auditoría inmutable. Cualquiera puede rastrear este historial y crear algoritmos de reputación personalizados.

Registro de Validación (Validation Registry): Admite la verificación criptográfica y económica del trabajo de los agentes. Aquí es donde ocurren las auditorías programables: los validadores pueden volver a ejecutar cálculos, verificar pruebas de conocimiento cero o aprovechar Entornos de Ejecución Seguros (TEEs) para confirmar que un agente actuó correctamente.

La brillantez del ERC-8004 es su diseño agnóstico. Como señala la especificación técnica, el estándar admite varias técnicas de validación: "re-ejecución de tareas asegurada por participación (stake) (inspirada en sistemas como EigenLayer), verificación de pruebas de aprendizaje automático de conocimiento cero (zkML) y atestaciones de Entornos de Ejecución Seguros (TEEs)".

Esta flexibilidad es importante. Un agente de arbitraje DeFi podría usar pruebas zkML para verificar su lógica de trading sin revelar su alpha. Un agente de cadena de suministro podría usar atestaciones TEE para demostrar que accedió correctamente a datos del mundo real. Un agente de puente cross-chain podría confiar en la validación criptoeconómica con slashing para garantizar una ejecución honesta.

El proceso de verificación de cinco pasos de Blacklight

La implementación del ERC-8004 de Nillion en Blacklight añade una capa crucial: nodos de verificación operados por la comunidad. Así es como funciona el proceso:

1. Registro del Agente: Un agente registra su identidad en el Registro de Identidad, recibiendo un NFT ERC-721. Esto crea un identificador único on-chain vinculado a la clave pública del agente.

2. Inicio de la Solicitud de Verificación: Cuando un agente realiza una acción que requiere validación (por ejemplo, ejecutar una operación, transferir fondos o actualizar un estado), envía una solicitud de verificación a Blacklight.

3. Asignación de Comité: El protocolo de Blacklight asigna aleatoriamente un comité de nodos de verificación para auditar la solicitud. Estos nodos son operados por miembros de la comunidad que realizan un stake de 70,000 tokens NIL, alineando los incentivos para la integridad de la red.

4. Comprobaciones de los Nodos: Los miembros del comité vuelven a ejecutar el cálculo o validan las pruebas criptográficas. Si los validadores detectan un comportamiento incorrecto, pueden realizar un slashing del stake del agente (en sistemas que utilizan validación criptoeconómica) o marcar la identidad en el Registro de Reputación.

5. Informes On-Chain: Los resultados se publican on-chain. El Registro de Validación registra si el trabajo del agente fue verificado, creando una prueba permanente de ejecución. El Registro de Reputación se actualiza en consecuencia.

Este proceso ocurre de forma asíncrona y no bloqueante, lo que significa que los agentes no esperan a que se complete la verificación para realizar tareas rutinarias, pero las acciones de alto riesgo (grandes transferencias, operaciones cross-chain) pueden requerir una validación previa.

Auditorías programables: más allá de la confianza binaria

La característica más ambiciosa de Blacklight es la «verificación programable»: la capacidad de auditar cómo un agente toma decisiones, no solo qué hace.

Considere un agente DeFi que gestiona una tesorería. Las auditorías tradicionales verifican que los fondos se movieron correctamente. Las auditorías programables verifican:

  • Consistencia de la lógica de toma de decisiones: ¿Siguió el agente su estrategia de inversión declarada o se desvió de ella?
  • Ejecución de flujos de trabajo de varios pasos: Si se suponía que el agente debía reequilibrar carteras en tres cadenas, ¿completó todos los pasos?
  • Restricciones de seguridad: ¿Respetó el agente los límites de gas, las tolerancias de deslizamiento y los topes de exposición?

Esto es posible porque el Registro de Verificación de ERC-8004 admite sistemas de prueba arbitrarios. Un agente puede comprometerse con un algoritmo de toma de decisiones on-chain (por ejemplo, un hash de los pesos de su red neuronal o un circuito zk-SNARK que represente su lógica) y luego demostrar que cada acción se ajusta a ese algoritmo sin revelar detalles propietarios.

La hoja de ruta de Nillion apunta explícitamente a estos casos de uso: «Nillion planea expandir las capacidades de Blacklight hacia la "verificación programable", permitiendo auditorías descentralizadas de comportamientos complejos como la consistencia de la lógica de toma de decisiones de los agentes, la ejecución de flujos de trabajo de varios pasos y las restricciones de seguridad».

Esto cambia la verificación de reactiva (detectar errores después del hecho) a proactiva (imponer el comportamiento correcto por diseño).

Computación ciega: la privacidad se une a la verificación

La tecnología subyacente de Nillion, Nil Message Compute (NMC), añade una dimensión de privacidad a la verificación de agentes. A diferencia de las blockchains tradicionales donde todos los datos son públicos, la «computación ciega» de Nillion permite realizar operaciones con datos encriptados sin necesidad de desencriptarlos.

He aquí por qué esto es importante para los agentes: un agente de IA podría necesitar verificar su estrategia de trading sin revelar su «alpha» a los competidores. O demostrar que accedió correctamente a registros médicos confidenciales sin exponer los datos de los pacientes. O demostrar el cumplimiento de las restricciones regulatorias sin revelar la lógica de negocio propietaria.

El NMC de Nillion logra esto a través de la computación multipartita (MPC), donde los nodos generan colaborativamente «factores cegadores» (aleatoriedad correlacionada utilizada para encriptar datos). Como explica DAIC Capital: «Los nodos generan el recurso de red clave necesario para procesar datos —un tipo de aleatoriedad correlacionada denominada factor cegador—, y cada nodo almacena su parte del factor cegador de forma segura, distribuyendo la confianza a través de la red de una manera segura frente a la computación cuántica».

Esta arquitectura es resistente a la computación cuántica por diseño. Incluso si un ordenador cuántico rompe la criptografía de curva elíptica actual, los factores cegadores distribuidos permanecen seguros porque ningún nodo individual posee información suficiente para desencriptar los datos.

Para los agentes de IA, esto significa que la verificación no requiere sacrificar la confidencialidad. Un agente puede demostrar que ejecutó una tarea correctamente mientras mantiene privados sus métodos, fuentes de datos y lógica de toma de decisiones.

La apuesta por la infraestructura de la economía de agentes de $ 4300 millones

El lanzamiento de Blacklight se produce en un momento en que el sector de la IA y la blockchain entra en una fase de hipercrecimiento. Se proyecta que el mercado crezca de 680millones(2025)a680 millones (2025) a 4300 millones (2034) a una tasa de crecimiento anual compuesta (CAGR) del 22,9 %, mientras que el mercado más amplio de la computación confidencial alcanzará los $ 350 000 millones para 2032.

Pero Nillion no solo apuesta por la expansión del mercado; se está posicionando como una infraestructura crítica. El cuello de botella de la economía de agentes no es el cómputo ni el almacenamiento; es la confianza a escala. Como señala el informe de perspectivas de KuCoin para 2026, tres tendencias clave están remodelando la identidad de la IA y el flujo de valor:

Sistemas Agent-Wrapping-Agent (agente envuelve agente): Agentes que se coordinan con otros agentes para ejecutar tareas complejas de varios pasos. Esto requiere una identidad y verificación estandarizadas, exactamente lo que proporciona ERC-8004.

KYA (Know Your Agent - Conozca a su agente): Infraestructura financiera que exige credenciales de agentes. Los reguladores no aprobarán agentes autónomos que gestionen fondos sin pruebas de un comportamiento correcto. Las auditorías programables de Blacklight abordan esto directamente.

Nanopagos: Los agentes necesitan liquidar micropagos de manera eficiente. El protocolo de pago x402, que procesó más de 20 millones de transacciones en enero de 2026, complementa a ERC-8004 encargándose de la liquidación mientras Blacklight se encarga de la confianza.

Juntos, estos estándares alcanzaron su madurez para producción con semanas de diferencia, un avance de coordinación que señala la maduración de la infraestructura.

El futuro de Ethereum centrado en los agentes

La adopción de ERC-8004 se extiende mucho más allá de Nillion. A principios de 2026, múltiples proyectos ya han integrado el estándar:

  • Oasis Network: Implementando ERC-8004 para computación confidencial con validación basada en TEE.
  • The Graph: Soportando ERC-8004 y x402 para permitir interacciones de agentes verificables en la indexación descentralizada.
  • MetaMask: Explorando billeteras de agentes con identidad ERC-8004 integrada.
  • Coinbase: Integrando ERC-8004 para soluciones de custodia de agentes institucionales.

Esta rápida adopción refleja un cambio más amplio en la hoja de ruta de Ethereum. Vitalik Buterin ha enfatizado repetidamente que el papel de la blockchain se está convirtiendo en «simplemente la fontanería» para los agentes de IA, no la capa orientada al consumidor, sino la infraestructura de confianza que permite la coordinación autónoma.

Blacklight de Nillion acelera esta visión al hacer que la verificación sea programable, preserve la privacidad y sea descentralizada. En lugar de depender de oráculos centralizados o revisores humanos, los agentes pueden demostrar su corrección criptográficamente.

Lo que viene a continuación: Integración de la Mainnet y expansión del ecosistema

La hoja de ruta de 2026 de Nillion prioriza la compatibilidad con Ethereum y la descentralización sostenible. El puente de Ethereum se puso en marcha en febrero de 2026, seguido de contratos inteligentes nativos para staking y computación privada (blind computation).

Los miembros de la comunidad que realicen staking de 70,000 tokens NIL pueden operar nodos de verificación Blacklight, obteniendo recompensas mientras mantienen la integridad de la red. Este diseño refleja la economía de validadores de Ethereum, pero añade un rol específico de verificación.

Los próximos hitos incluyen:

  • Soporte ampliado para zkML: Integración con proyectos como Modulus Labs para verificar la inferencia de IA on-chain
  • Verificación cross-chain: Permitir que Blacklight verifique agentes que operan a través de Ethereum, Cosmos y Solana
  • Alianzas institucionales: Colaboraciones con Coinbase y Alibaba Cloud para el despliegue de agentes empresariales
  • Herramientas de cumplimiento regulatorio: Creación de marcos KYA (Know Your Agent) para la adopción de servicios financieros

Quizás lo más importante es que Nillion está desarrollando nilGPT, un chatbot de IA totalmente privado que demuestra cómo la computación ciega (blind computation) permite interacciones de agentes confidenciales. Esto no es solo una demostración; es un modelo para agentes que manejan datos sensibles en salud, finanzas y gobierno.

El objetivo final de la coordinación trustless

El lanzamiento de Blacklight marca un punto de inflexión para la economía de los agentes. Antes del ERC-8004, los agentes operaban en silos: se confiaba en ellos dentro de sus propios ecosistemas, pero no podían coordinarse a través de plataformas sin intermediarios humanos. Después del ERC-8004, los agentes pueden verificar la identidad de los demás, auditar el comportamiento mutuo y liquidar pagos de forma autónoma.

Esto desbloquea categorías de aplicaciones completamente nuevas:

  • Fondos de cobertura descentralizados: Agentes que gestionan carteras a través de múltiples cadenas, con estrategias de inversión verificables y auditorías de rendimiento transparentes
  • Cadenas de suministro autónomas: Agentes que coordinan la logística, los pagos y el cumplimiento sin supervisión centralizada
  • DAOs impulsadas por IA: Organizaciones gobernadas por agentes que votan, proponen y ejecutan basándose en una lógica de toma de decisiones verificada criptográficamente
  • Gestión de liquidez entre protocolos: Agentes que reequilibran activos a través de protocolos DeFi con restricciones de riesgo programables

¿El hilo conductor? Todos requieren una coordinación trustless: la capacidad de que los agentes trabajen juntos sin relaciones preexistentes o anclajes de confianza centralizados.

Blacklight de Nillion proporciona exactamente eso. Al combinar la infraestructura de identidad y reputación del ERC-8004 con la verificación programable y la computación ciega, crea una capa de confianza lo suficientemente escalable para la economía de billones de agentes que se vislumbra en el horizonte.

A medida que blockchain se convierte en la infraestructura básica (plumbing) para los agentes de IA y las finanzas globales, la pregunta no es si necesitamos una infraestructura de verificación, sino quién la construye y si es descentralizada o está controlada por unos pocos intermediarios. Los nodos operados por la comunidad de Blacklight y el estándar abierto defienden la primera opción.

La era de los actores autónomos on-chain ha llegado. La infraestructura está activa. La única pregunta que queda es qué se construirá sobre ella.


Fuentes:

Convergencia de IA × Web3: Cómo Blockchain se Convirtió en el Sistema Operativo para Agentes Autónomos

· 18 min de lectura
Dora Noda
Software Engineer

El 29 de enero de 2026, Ethereum lanzó el ERC-8004, un estándar que otorga a los agentes de software de IA identidades persistentes en cadena (on-chain). En pocos días, más de 24,549 agentes se registraron, y BNB Chain anunció el soporte para el protocolo. Esto no es un progreso incremental: es infraestructura para actores económicos autónomos que pueden transaccionar, coordinar y construir reputación sin intermediación humana.

Los agentes de IA no necesitan blockchain para existir. Pero necesitan blockchain para coordinarse. Para transaccionar sin necesidad de confianza a través de límites organizacionales. Para construir una reputación verificable. Para liquidar pagos de forma autónoma. Para demostrar la ejecución sin intermediarios centralizados.

La convergencia se acelera porque ambas tecnologías resuelven la debilidad crítica de la otra: la IA proporciona inteligencia y automatización, la blockchain proporciona confianza e infraestructura económica. Juntas, crean algo que ninguna de las dos logra por sí sola: sistemas autónomos que pueden participar en mercados abiertos sin requerir relaciones de confianza preexistentes.

Este artículo examina la infraestructura que hace inevitable la convergencia entre IA y Web3, desde los estándares de identidad hasta los protocolos económicos y la ejecución de modelos descentralizada. La pregunta no es si los agentes de IA operarán en blockchain, sino qué tan rápido escalará la infraestructura para soportar a millones de actores económicos autónomos.

ERC-8004: Infraestructura de Identidad para Agentes de IA

ERC-8004 se puso en marcha en la red principal de Ethereum el 29 de enero de 2026, estableciendo mecanismos estandarizados y sin permisos para la identidad, reputación y validación de agentes.

El protocolo resuelve un problema fundamental: cómo descubrir, elegir e interactuar con agentes a través de límites organizacionales sin confianza preexistente. Sin una infraestructura de identidad, cada interacción entre agentes requiere una intermediación centralizada: plataformas de mercado, servicios de verificación, capas de resolución de disputas. ERC-8004 hace que estos sean trustless y componibles.

Tres Registros Principales:

Registro de Identidad: Un identificador on-chain mínimo basado en ERC-721 con extensión URIStorage que resuelve al archivo de registro de un agente. Cada agente obtiene un identificador portátil y resistente a la censura. Ninguna autoridad central controla quién puede crear una identidad de agente o qué plataformas la reconocen.

Registro de Reputación: Interfaz estandarizada para publicar y obtener señales de retroalimentación. Los agentes construyen su reputación a través del historial de transacciones en cadena, tareas completadas y revisiones de contrapartes. La reputación se vuelve portátil entre plataformas en lugar de estar aislada dentro de mercados individuales.

Registro de Validación: Ganchos (hooks) genéricos para solicitar y registrar verificaciones de validadores independientes: stakers que vuelven a ejecutar trabajos, verificadores zkML que confirman la ejecución, oráculos TEE que prueban el cómputo, jueces de confianza que resuelven disputas. Los mecanismos de validación se conectan de forma modular en lugar de requerir implementaciones específicas de la plataforma.

La arquitectura crea las condiciones para mercados de agentes abiertos. En lugar de un Upwork para agentes de IA, se obtienen protocolos sin permisos donde los agentes se descubren entre sí, negocian términos, ejecutan tareas y liquidan pagos, todo sin el control de una plataforma centralizada.

El rápido anuncio de soporte de BNB Chain señala la trayectoria del estándar hacia la adopción cross-chain. La identidad de agente multicadena permite que los agentes operen a través de ecosistemas blockchain manteniendo sistemas unificados de reputación y verificación.

DeMCP: El Model Context Protocol se encuentra con la Descentralización

DeMCP se lanzó como la primera red descentralizada de Model Context Protocol, abordando la confianza y la seguridad con TEE (Entornos de Ejecución Segura) y blockchain.

El Model Context Protocol (MCP), desarrollado por Anthropic, estandariza cómo las aplicaciones proporcionan contexto a los modelos de lenguaje de gran tamaño. Piense en ello como el USB-C para aplicaciones de IA: en lugar de integraciones personalizadas para cada fuente de datos, el MCP proporciona estándares de interfaz universales.

DeMCP extiende esto a la Web3: ofreciendo acceso fluido y de pago por uso a los principales LLM como GPT-4 y Claude a través de instancias de MCP bajo demanda, todo pagado en stablecoins (USDT/USDC) y gobernado por modelos de participación en los ingresos.

La arquitectura resuelve tres problemas críticos:

Acceso: Las API de modelos de IA tradicionales requieren cuentas centralizadas, infraestructura de pagos y SDK específicos de la plataforma. DeMCP permite que los agentes autónomos accedan a los LLM a través de protocolos estandarizados, pagando en cripto sin claves de API gestionadas por humanos ni tarjetas de crédito.

Confianza: Los servicios MCP centralizados se convierten en puntos únicos de falla y vigilancia. Los nodos asegurados por TEE de DeMCP proporcionan una ejecución verificable: los agentes pueden confirmar que los modelos ejecutaron prompts específicos sin manipulación, algo crucial para decisiones financieras o cumplimiento normativo.

Composibilidad: Está surgiendo una nueva generación de infraestructura de agentes de IA basada en los protocolos MCP y A2A (Agente a Agente), diseñada específicamente para escenarios Web3, lo que permite a los agentes acceder a datos multicadena e interactuar de forma nativa con los protocolos DeFi.

El resultado: el MCP convierte a la IA en un ciudadano de primera clase de la Web3. Blockchain suministra la confianza, la coordinación y el sustrato económico. Juntos, forman un sistema operativo descentralizado donde los agentes razonan, coordinan y actúan a través de protocolos interoperables.

Los principales proyectos cripto de MCP a seguir en 2026 incluyen proveedores de infraestructura que construyen capas de coordinación de agentes, redes descentralizadas de ejecución de modelos e integraciones a nivel de protocolo que permiten a los agentes operar de forma autónoma a través de los ecosistemas Web3.

Más de 170 herramientas de agentes de Polymarket: Infraestructura en acción

El ecosistema de Polymarket creció a más de 170 herramientas de terceros en 19 categorías, convirtiéndose en una infraestructura esencial para cualquiera que se tome en serio el comercio en los mercados de predicción.

Las categorías de herramientas abarcan todo el flujo de trabajo de los agentes:

Trading Autónomo: Agentes impulsados por IA que descubren y optimizan estrategias automáticamente, integrando los mercados de predicción con el yield farming y los protocolos DeFi. Algunos agentes logran una precisión del 98% en los pronósticos a corto plazo.

Sistemas de Arbitraje: Bots automatizados que identifican discrepancias de precios entre Polymarket y otras plataformas de predicción o mercados de apuestas tradicionales, ejecutando operaciones más rápido que los operadores humanos.

Seguimiento de Ballenas (Whale Tracking): Herramientas que monitorean los movimientos de posiciones a gran escala, permitiendo a los agentes seguir o contrarrestar la actividad institucional basada en correlaciones de rendimiento histórico.

Infraestructura de Copy Trading: Plataformas que permiten a los agentes replicar estrategias de los mejores perfiles, con verificación on-chain de los historiales para evitar reclamos de rendimiento falsos.

Analítica y Feeds de Datos: Analítica de grado institucional que proporciona a los agentes profundidad de mercado, análisis de liquidez, distribuciones de probabilidad histórica y correlaciones de resultados de eventos.

Gestión de Riesgos: Dimensionamiento automático de posiciones, límites de exposición y mecanismos de stop-loss integrados directamente en la lógica de trading de los agentes.

El ecosistema valida la tesis de convergencia entre IA × Web3. Polymarket proporciona repositorios de GitHub y SDKs específicamente para el desarrollo de agentes, tratando a los actores autónomos como participantes de primera clase en la plataforma, en lugar de casos aislados o violaciones de los términos de servicio.

Las perspectivas para 2026 incluyen el posible lanzamiento del token $POLY, lo que creará nuevas dinámicas en torno a la gobernanza, las estructuras de tarifas y los incentivos del ecosistema. El CEO Shayne Coplan sugirió que podría convertirse en uno de los TGE (Eventos de Generación de Tokens) más grandes de 2026. Además, el posible lanzamiento de la propia blockchain de Polymarket (siguiendo el modelo de Hyperliquid) podría remodelar fundamentalmente la infraestructura, con miles de millones recaudados que hacen de una appchain una evolución natural.

El Stack de Infraestructura: Capas de IA × Web3

Los agentes autónomos que operan en blockchain requieren una infraestructura coordinada a través de múltiples capas:

Capa 1: Identidad y Reputación

  • Registros ERC-8004 para la identificación de agentes
  • Sistemas de reputación on-chain que rastrean el rendimiento
  • Prueba criptográfica de propiedad y autoridad de los agentes
  • Puentes de identidad cross-chain para operaciones en múltiples ecosistemas

Capa 2: Acceso y Ejecución

  • DeMCP para acceso descentralizado a LLM
  • Computación asegurada por TEE para lógica de agentes privada
  • zkML (Zero-Knowledge Machine Learning) para inferencia verificable
  • Redes de inferencia descentralizadas que distribuyen la ejecución de modelos

Capa 3: Coordinación y Comunicación

  • Protocolos A2A (Agente a Agente) para negociación directa
  • Formatos de mensajería estandarizados para la comunicación entre agentes
  • Mecanismos de descubrimiento para encontrar agentes con capacidades específicas
  • Escrow y resolución de disputas para contratos autónomos

Capa 4: Infraestructura Económica

  • Pasarelas de pago con stablecoins para liquidación transfronteriza
  • Creadores de mercado automatizados (AMM) para activos generados por agentes
  • Estructuras de tarifas programables y distribución de ingresos
  • Alineación de incentivos basada en tokens

Capa 5: Protocolos de Aplicación

  • Integraciones DeFi para la optimización autónoma del rendimiento (yield)
  • APIs de mercados de predicción para el comercio de información
  • Mercados de NFT para contenido creado por agentes
  • Marcos de participación en la gobernanza de DAOs

Este stack permite comportamientos de agentes progresivamente complejos: automatización simple (ejecución de contratos inteligentes), agentes reactivos (que responden a eventos on-chain), agentes proactivos (que inician estrategias basadas en inferencias) y agentes coordinadores (que negocian con otros actores autónomos).

La infraestructura no solo permite que los agentes de IA utilicen blockchain; convierte a blockchain en el entorno operativo natural para la actividad económica autónoma.

Por qué la IA necesita Blockchain: El problema de la confianza

Los agentes de IA enfrentan desafíos de confianza fundamentales que las arquitecturas centralizadas no pueden resolver:

Verificación: ¿Cómo se demuestra que un agente de IA ejecutó una lógica específica sin manipulación? Las APIs tradicionales no ofrecen garantías. Blockchain con atestaciones zkML o TEE crea computación verificable: prueba criptográfica de que modelos específicos procesaron entradas específicas y produjeron salidas específicas.

Reputación: ¿Cómo construyen credibilidad los agentes a través de fronteras organizacionales? Las plataformas centralizadas crean jardines cerrados: la reputación ganada en Upwork no se transfiere a Fiverr. La reputación on-chain se vuelve portátil, verificable y resistente a la manipulación mediante ataques Sybil.

Liquidación: ¿Cómo manejan los pagos los agentes autónomos sin intermediación humana? La banca tradicional requiere cuentas, KYC y autorización humana para cada transacción. Las stablecoins y los contratos inteligentes permiten una liquidación programable e instantánea con seguridad criptográfica en lugar de burocrática.

Coordinación: ¿Cómo negocian agentes de diferentes organizaciones sin intermediarios de confianza? Los negocios tradicionales requieren contratos, abogados y mecanismos de cumplimiento. Los contratos inteligentes permiten la ejecución de acuerdos sin necesidad de confianza (trustless): el código hace cumplir los términos automáticamente basándose en condiciones verificables.

Atribución: ¿Cómo se demuestra qué agente creó salidas específicas? La procedencia del contenido de IA se vuelve crítica para los derechos de autor, la responsabilidad y la distribución de ingresos. La atestación on-chain proporciona registros inalterables de creación, modificación y propiedad.

Blockchain no solo habilita estas capacidades; es la única arquitectura que las permite sin volver a introducir supuestos de confianza centralizados. La convergencia surge de una necesidad técnica, no de una narrativa especulativa.

Por qué la blockchain necesita IA: el problema de la inteligencia

La blockchain enfrenta limitaciones igualmente fundamentales que la IA aborda:

Abstracción de la complejidad: La experiencia de usuario (UX) de la blockchain sigue siendo deficiente: frases semilla, tarifas de gas, firma de transacciones. Los agentes de IA pueden abstraer la complejidad, actuando como intermediarios inteligentes que ejecutan la intención del usuario sin exponer los detalles técnicos de la implementación.

Procesamiento de información: Las blockchains proporcionan datos pero carecen de la inteligencia para interpretarlos. Los agentes de IA analizan los patrones de actividad on-chain, identifican oportunidades de arbitraje, predicen movimientos del mercado y optimizan estrategias a velocidades y escalas imposibles para los humanos.

Automatización: Los contratos inteligentes ejecutan lógica pero no pueden adaptarse a condiciones cambiantes sin una programación explícita. Los agentes de IA proporcionan una toma de decisiones dinámica, aprendiendo de los resultados y ajustando las estrategias sin requerir propuestas de gobernanza para cada cambio de parámetro.

Capacidad de descubrimiento: Los protocolos DeFi sufren de fragmentación: los usuarios deben descubrir manualmente oportunidades en cientos de plataformas. Los agentes de IA escanean, evalúan y enrutan continuamente la actividad hacia los protocolos óptimos basándose en una sofisticada optimización multivariable.

Gestión de riesgos: Los traders humanos luchan con la disciplina, la emoción y los límites de atención. Los agentes de IA imponen parámetros de riesgo predefinidos, ejecutan stop-losses sin dudarlo y monitorean posiciones las 24 horas del día, los 7 días de la semana, en múltiples cadenas simultáneamente.

La relación se vuelve simbiótica: la blockchain proporciona la infraestructura de confianza que permite la coordinación de la IA, mientras que la IA proporciona la inteligencia que hace que la infraestructura blockchain sea utilizable para una actividad económica compleja.

La economía emergente de los agentes

El stack de infraestructura permite nuevos modelos económicos:

Agente como servicio (Agent-as-a-Service): Los agentes autónomos alquilan sus capacidades bajo demanda, fijando precios dinámicamente según la oferta y la demanda. Sin plataformas, sin intermediarios: mercados directos de servicios de agente a agente.

Inteligencia colaborativa: Los agentes agrupan su experiencia para tareas complejas, coordinándose a través de contratos inteligentes que distribuyen automáticamente los ingresos según la contribución. Sistemas multi-agente que resuelven problemas más allá de la capacidad de cualquier agente individual.

Aumento de la predicción: Los agentes monitorean continuamente los flujos de información, actualizan las estimaciones de probabilidad y operan basándose en conocimientos antes de que las noticias sean legibles para los humanos. Las finanzas de la información (InfoFi) se vuelven algorítmicas, con agentes dominando el descubrimiento de precios.

Organizaciones autónomas: DAOs gobernadas enteramente por agentes de IA que ejecutan en nombre de los poseedores de tokens, tomando decisiones a través de inferencia verificable en lugar de votaciones humanas. Organizaciones que operan a velocidad de máquina con responsabilidad criptográfica.

Economía del contenido: Contenido generado por IA con procedencia on-chain que permite licencias automatizadas, distribución de regalías y derechos de creación de derivados. Agentes negociando términos de uso y haciendo cumplir la atribución a través de contratos inteligentes.

Estos no son hipotéticos: las primeras versiones ya están operando. La pregunta es: ¿qué tan rápido escalará la infraestructura para soportar a millones de actores económicos autónomos?

Desafíos técnicos pendientes

A pesar del rápido progreso, persisten obstáculos significativos:

Escalabilidad: Las blockchains actuales luchan con el rendimiento (throughput). Millones de agentes ejecutando microtransacciones continuas requieren soluciones de Capa 2, optimistic rollups o cadenas dedicadas específicas para agentes.

Privacidad: Muchas operaciones de agentes requieren lógica o datos confidenciales. Los TEE proporcionan soluciones parciales, pero el cifrado totalmente homomórfico (FHE) y la criptografía avanzada siguen siendo demasiado costosos para la escala de producción.

Regulación: Los actores económicos autónomos desafían los marcos legales existentes. ¿Quién es responsable cuando los agentes causan daños? ¿Cómo se aplican los requisitos KYC / AML? La claridad regulatoria va por detrás de la capacidad técnica.

Costes de los modelos: La inferencia de modelos de lenguaje extenso (LLM) sigue siendo costosa. Las redes descentralizadas deben igualar los precios de las API centralizadas mientras añaden la sobrecarga de verificación. La viabilidad económica requiere mejoras continuas en la eficiencia de los modelos.

Problemas de los oráculos: Los agentes necesitan datos confiables del mundo real. Las soluciones de oráculos existentes introducen supuestos de confianza y latencia. Mejores puentes entre la lógica on-chain y la información off-chain siguen siendo críticos.

Estos desafíos no son insuperables; son problemas de ingeniería con vías de solución claras. La trayectoria de la infraestructura apunta hacia una resolución dentro de 12 a 24 meses.

El punto de inflexión de 2026

Múltiples catalizadores convergen en 2026:

Maduración de los estándares: La adopción de ERC-8004 en las principales cadenas crea una infraestructura de identidad interoperable. Los agentes operan sin problemas en Ethereum, BNB Chain y ecosistemas emergentes.

Eficiencia de los modelos: Los modelos más pequeños y especializados reducen los costes de inferencia de 10 a 100 veces, manteniendo el rendimiento para tareas específicas. La viabilidad económica mejora drásticamente.

Claridad regulatoria: Las primeras jurisdicciones establecen marcos para agentes autónomos, proporcionando seguridad jurídica para la adopción institucional.

Avances en aplicaciones: Los mercados de predicción, la optimización de DeFi y la creación de contenido demuestran una clara superioridad de los agentes sobre los operadores humanos, impulsando la adopción más allá de los usuarios nativos de cripto.

Competencia en infraestructura: Múltiples equipos construyendo inferencia descentralizada, protocolos de coordinación de agentes y cadenas especializadas crean una presión competitiva que acelera el desarrollo.

La convergencia pasa de ser experimental a infraestructural. Los primeros adoptantes obtienen ventajas, las plataformas integran el soporte de agentes por defecto y la actividad económica fluye cada vez más a través de intermediarios autónomos.

Qué significa esto para el desarrollo de Web3

Los desarrolladores que construyen para la próxima fase de Web3 deben priorizar:

Diseño centrado en agentes: Tratar a los actores autónomos como usuarios principales, no como casos aislados. Diseñar APIs, estructuras de tarifas y mecanismos de gobernanza asumiendo que los agentes dominan la actividad.

Componibilidad: Construir protocolos que los agentes puedan integrar, coordinar y extender fácilmente. Las interfaces estandarizadas importan más que las implementaciones propietarias.

Verificación: Proporcionar pruebas criptográficas de ejecución, no solo los resultados de la ejecución. Los agentes necesitan computación verificable para construir cadenas de confianza.

Eficiencia económica: Optimizar para micro-transacciones, liquidación continua y mercados de tarifas dinámicos. El procesamiento por lotes tradicional y las intervenciones manuales no escalan para la actividad de los agentes.

Opciones de privacidad: Soportar operaciones de agentes tanto transparentes como confidenciales. Diferentes casos de uso requieren diferentes garantías de privacidad.

La infraestructura existe. Los estándares están emergiendo. Los incentivos económicos se alinean. La convergencia IA × Web3 no está por venir — ya está aquí. La pregunta es: ¿quién construye la infraestructura que se convertirá en la base para la próxima década de actividad económica autónoma?

BlockEden.xyz proporciona infraestructura de nivel empresarial para aplicaciones Web3, ofreciendo un acceso RPC fiable y de alto rendimiento a través de los principales ecosistemas de blockchain. Explore nuestros servicios para la infraestructura de agentes de IA y el soporte de sistemas autónomos.


Fuentes: