Saltar al contenido principal

217 publicaciones etiquetados con "Infraestructura"

Infraestructura blockchain y servicios de nodos

Ver Todas las Etiquetas

Gensyn Judge: La capa de verificación de calidad faltante para la IA descentralizada

· 16 min de lectura
Dora Noda
Software Engineer

La IA descentralizada ha pasado cinco años respondiendo a la pregunta equivocada. Todo el stack — las subnets de Bittensor, el mercado de entrenamiento de Gensyn, la red de inferencia de Ambient, cada sistema de pruebas ZKML — se ha obsesionado con demostrar que la computación ocurrió. Un minero ejecutó la inferencia. Un nodo entrenó durante N horas en el conjunto de datos correcto. Una GPU produjo los logits declarados. Verificado criptográficamente, de forma bella y costosa.

Nada de esto responde a la pregunta que realmente se hace un responsable de compras corporativo: ¿es bueno el modelo?

El lanzamiento de Judge por parte de Gensyn a finales de abril de 2026 es el primer intento serio de llenar ese vacío. No es otro mecanismo de consenso. No es otra prueba-de-algo. Es una capa de evaluación verificable que desacopla el "se produjo el entrenamiento" del "el entrenamiento se produjo correctamente" — y esa distinción puede ser la primitiva más importante que la DeAI ha lanzado en este ciclo.

El golpe silencioso de Circle: Cómo la adquisición de Interop Labs remodela el mapa de las stablecoins cross-chain

· 15 min de lectura
Dora Noda
Software Engineer

Circle no compró un token . Compró a las personas que construyeron uno de los protocolos cross - chain más influyentes en el mundo cripto — y dejó atrás el token . Esa frase resume por qué la adquisición de Interop Labs ha detonado una lucha sobre el futuro de la infraestructura de stablecoins , la legitimidad de los acuerdos " solo para el equipo " y si los holders de AXL acaban de aprender , en tiempo real , lo que sus tokens valían realmente para los insiders .

El acuerdo parece pequeño desde fuera : un emisor de stablecoins contrata a un equipo de desarrollo . Pero si quitamos el lenguaje de las notas de prensa , lo que emerge es una reestructuración deliberada de cómo la segunda stablecoin más grande del mundo se moverá entre cadenas en la próxima década . Circle ya no está alquilando raíles cross - chain a Chainlink , LayerZero o Wormhole . Está dotando de personal a los suyos propios — y los holders del token AXL que creían estar alineados con esa organización de ingeniería están descubriendo que estaban alineados con el protocolo , no con las personas .

Capa de Verificación ZK Unificada de ILITY: Un Verificador para Gobernar 200 Rollups

· 13 min de lectura
Dora Noda
Software Engineer

Actualmente hay más de 200 rollups de conocimiento cero (zero-knowledge rollups) en producción, cada uno con su propio contrato verificador. SP1 por aquí, Risc Zero por allá, Plonky3 en una cadena, Halo2 en otra, con Jolt y Powdr llegando cada pocas semanas. Cada aplicación de privacidad que desea leer el estado de más de una cadena paga un impuesto: integrar cada prover, auditar cada verificador, volver a desplegar cada vez que un circuito cambia. Esta es la pesadilla de integración N × N que se ha convertido silenciosamente en el mayor costo oculto en la infraestructura de privacidad de la Web3.

El 28 de abril de 2026, ILITY salió del modo sigiloso (stealth) con la apuesta de que la solución no es otra zkVM, sino una capa por encima de todas ellas. Su capa de verificación unificada de pruebas ZK multicadena — situada junto a la Mainnet Alpha que entró en funcionamiento el 30 de enero — se presenta como una "interfaz de privacidad cross-chain universal" que cualquier cadena puede adoptar como un bus de mensajes que preserva la privacidad. Web3Caff Research publicó el mismo día un Financing Decode enmarcando el lanzamiento como una apuesta generacional por la abstracción de verificadores. La tesis es provocadora: así como IBC abstrajo el estado de las zonas de Cosmos y la equivalencia con la EVM abstrajo la ejecución de L2, una única API de verificación de pruebas puede abstraer cada sistema SNARK que se encuentre debajo.

La fragmentación de la que nadie quiere hablar

Polygon Labs, Succinct, Risc Zero y una media docena de equipos más pequeños han pasado los últimos tres años compitiendo por lanzar zkVMs más rápidas, pequeñas y generales. La carrera ha producido resultados extraordinarios: Plonky3 en producción, SP1 fragmentando pruebas y agregándolas en una única prueba universal, y Risc Zero pivotando hacia su mercado de pruebas abierto Boundless.

Pero la carrera tiene un efecto secundario para el cual casi nadie optimiza: cada ganador lanza su propio verificador. Un protocolo de préstamos que preserva la privacidad y que desea aceptar atestaciones de colateral de un rollup de Optimism probado con SP1, una cadena Polygon CDK probada con Plonky3 y un despliegue de Scroll probado con Halo2 tiene que desplegar y mantener tres contratos verificadores completamente diferentes. Cada verificador tiene diferentes costos de gas, diferentes rutas de actualización y una superficie de errores distinta. Los presupuestos de auditoría se disparan. El TVL cross-chain permanece atrapado en cualquier cadena en la que se haya lanzado la aplicación de privacidad.

La industria reconoce esto como un problema. La prueba pesimista (pessimistic proof) de Polygon — que es en sí misma una prueba ZK generada con SP1 y Plonky3 — comercializa explícitamente la agregación como la "unificación de futuros multipila". Pero la unificación de AggLayer solo funciona para las cadenas que han optado por el stack de Polygon CDK. Solana, Cosmos, las L2 de Ethereum fuera del stack de Polygon y las L2 de Bitcoin permanecen fuera de su perímetro. La fragmentación se resuelve dentro de un jardín vallado y se reproduce en la frontera de dicho jardín.

Qué construye realmente ILITY

La propuesta de ILITY es estructuralmente diferente. En lugar de competir en la velocidad del prover, construye una blockchain soberana de Capa 1 cuya única función es verificar pruebas procedentes de cualquier cadena de origen y reemitir atestaciones en las que cualquier cadena de destino pueda confiar. La propiedad de los activos, el historial de tenencias, los patrones de transacciones y el comportamiento on-chain: todo se puede demostrar sin exponer las direcciones de las billeteras ni los datos subyacentes.

La apuesta arquitectónica tiene tres piezas. Primero, una API de verificación de pruebas uniforme: cualquier aplicación lee desde un único endpoint, independientemente de qué sistema SNARK subyacente generó la prueba. Segundo, el ILITY ZK Engine, el núcleo de verificación consciente de la privacidad de la cadena, que la Mainnet Alpha ha estado fortaleciendo desde enero a través de pruebas internas de recuperación de datos cross-chain. Tercero, el ILITY Hub: la próxima capa de productización que expone la abstracción de verificadores como un servicio para desarrolladores en lugar de un artefacto de investigación.

La mecánica se asemeja a cómo IBC permitió que las zonas de Cosmos hablaran entre sí sin que cada zona implementara el consenso de todas las demás. ILITY propone el mismo truco para las pruebas: las cadenas no necesitan saber cómo se prueban las cosas entre sí. Solo necesitan confiar en el resultado de la verificación que emite la capa unificada. Si la abstracción se mantiene, una aplicación DeFi que preserva la privacidad escrita una vez en ILITY puede consumir atestaciones de un programa de Solana, un contrato de una L2 de Ethereum, una zona de Cosmos y una L2 de Bitcoin; ninguna de las cuales necesita saber de las demás.

En qué se diferencia ILITY de las apuestas adyacentes

La capa de verificación unificada no es el único intento de solucionar este problema. El espacio se ha cristalizado en torno a tres enfoques competidores, los cuales ILITY afirma subsumir.

Brevis ha lanzado el coprocesador ZK más general: un coprocesador de datos ZK híbrido más una zkVM de propósito general con capacidad de prueba en tiempo real en L1. Brevis permite que los contratos inteligentes accedan al estado histórico de la EVM y prueben cosas sobre él. Pero Brevis es fundamentalmente un coprocesador: produce pruebas, no unifica verificadores. Una cadena consumidora todavía tiene que verificar una prueba de Brevis en el sistema de pruebas que Brevis utilice habitualmente.

Axiom es más limitado pero extremadamente rápido en lo que hace: consultas verificables contra el estado profundo de Ethereum, probando valores exactos de ranuras de almacenamiento (storage slots) o la existencia de transacciones en alturas de bloque específicas. La compensación es explícita: solo para Ethereum, de cadena única por diseño. Útil como primitiva, inútil como interfaz multicadena.

Lagrange eligió un compromiso diferente: un híbrido ZK-más-optimista que mejora la eficiencia del cómputo cross-chain al relajar las garantías de ZK para estados que es poco probable que sean desafiados. Lagrange prueba cosas a través de cadenas, pero la semántica de verificación no es la misma que una garantía de ZK pura, lo que limita dónde pueden desplegarlo las instituciones.

La afirmación de ILITY es que los tres son soluciones puntuales para una primitiva faltante. Brevis verifica, Axiom consulta, Lagrange agrega; pero ninguno de ellos ofrece una API única a la que cualquier cadena pueda llamar para verificar cualquier prueba de cualquier otra cadena. ILITY apuesta a que la primitiva que falta es la propia capa de verificación, no otro prover o coprocesador más.

El contraste más claro es con AggLayer de Polygon. El sistema de prueba pesimista de AggLayer es, técnicamente, una capa de verificación unificada, pero solo funciona para cadenas configuradas con la CDK Sovereign Config. AggLayer v0.3 expandió el stack a EVM multipila para el primer trimestre de 2026, pero Solana, Cosmos y las L2 de Bitcoin siguen quedando fuera. La elección de diseño de ILITY es la inversa: construir primero la capa de verificación, permitir que cualquier cadena se conecte y optimizar para la amplitud antes que para la profundidad.

La pila de privacidad que se está formando en torno a abril de 2026

El momento del lanzamiento no es accidental. Finales de abril de 2026 ha producido otras dos apuestas de infraestructura que encajan con ILITY en algo más grande que cualquiera de ellas por separado.

Mind Network's FHE Privacy Boost — construido sobre el OP Stack e integrado con Chainlink CCIP — proporciona computación confidencial. El cifrado totalmente homomórfico (FHE) permite que los contratos procesen entradas cifradas sin tener que descifrarlas, lo cual es de gran importancia para el sector DeFi institucional donde los datos de entrada son sensibles. Las auditorías de seguridad del segundo trimestre de 2026 de Mind Network y el despliegue en la mainnet en el tercer trimestre de 2026 de la solución de pago de Agente a Agente impulsada por FHE son el primer intento creíble de una capa de computación confidencial con hojas de ruta institucionales.

ILITY proporciona verificación: la capacidad de probar hechos sobre el estado entre cadenas sin revelar el estado en sí mismo.

Una tercera pata, cada vez más visible en las rondas de financiación de nivel medio, es el cómputo de prueba descentralizado — los mercados de pruebas abiertos como Boundless de Risc Zero y la red de probadores de Succinct, que permiten a los operadores de GPU pujar por trabajos de generación de pruebas y reducir el coste marginal hacia cero.

Al unirse, estas tres patas — computación confidencial (FHE), verificación unificada (ZK) y cómputo de prueba abierto — comienzan a parecerse a la pila de infraestructura que los usuarios institucionales realmente necesitarían para participar en DeFi sin filtrar datos de estrategia, posición o contraparte. Ninguna de las patas es suficiente por sí sola. La afirmación de ILITY es que la capa de verificación es el tejido conectivo que permite que las otras dos sean útiles, porque sin una verificación unificada, cada institución que realice DeFi privado entre cadenas tendría que mantener un "zoológico de verificadores" para cada probador que sus contrapartes pudieran usar.

La apuesta por la abstracción del verificador, examinada con honestidad

La abstracción del verificador es una tesis sólida. También es el tipo de tesis que, históricamente, ha sido difícil de implementar. Tres riesgos merecen ser mencionados.

El problema de la integración nativa. Una capa de verificación unificada solo importa si las cadenas la adoptan. La Alpha Mainnet de ILITY realiza la verificación internamente y expone los resultados — pero para que los contratos inteligentes de Solana consuman realmente esas atestaciones, el programa de Solana tiene que confiar en el resultado firmado por ILITY. Ese supuesto de confianza es similar a un puente de cliente ligero, lo que significa que ILITY termina compitiendo con LayerZero, Wormhole y Chainlink CCIP no solo por la verificación de pruebas ZK, sino por el trabajo más amplio de "bus de mensajes de confianza". La historia de la abstracción del verificador es más limpia que la de LayerZero, pero la estrategia de salida al mercado es la misma.

El riesgo de abstracción prematura. zkVerify — una L1 modular diseñada como la capa universal de verificación de pruebas ZK — ha estado persiguiendo una tesis similar desde 2024. Aún no ha alcanzado la velocidad de escape institucional. El riesgo es que la abstracción del verificador sea técnicamente elegante pero comercialmente prematura: si ninguna cadena integra la abstracción de forma nativa, cada verificación en la capa unificada es un salto adicional frente a simplemente desplegar el verificador directamente en la cadena de consumo.

La brecha de optimización. Los verificadores específicos de cada cadena pueden optimizarse agresivamente para el sistema SNARK concreto que verifican. Una capa unificada, casi por definición, sacrifica algunas de esas optimizaciones. AggLayer gana en las cadenas Polygon CDK en parte porque la prueba pesimista fue co-diseñada con SP1 + Plonky3 y el stack de la cadena. ILITY no tiene ese lujo al verificar una prueba Halo2 de una cadena y una prueba SP1 de otra. El techo de rendimiento en un verificador verdaderamente agnóstico de la cadena es genuinamente más bajo que en uno co-diseñado.

El caso optimista es que ninguno de estos riesgos es fatal — simplemente significan que la capa de verificación unificada tiene que ganar en ergonomía para los desarrolladores en lugar de en coste bruto de gas de verificación. Si integrar una nueva cadena en ILITY lleva una semana en lugar de seis meses de trabajo de verificador personalizado, la diferencia en el tiempo de comercialización dominará la diferencia en el coste de gas para todos, excepto para los protocolos DeFi hiper-optimizados. Ese es el mismo intercambio que hicieron y ganaron los primeros puentes multicadena.

Qué observar a continuación

Tres señales nos dirán si la tesis de la verificación unificada está funcionando.

Integraciones nativas. ¿Alguna cadena importante — una subvención de Solana, una asociación de L2 de Ethereum, una zona de Cosmos — conecta de forma nativa el resultado de la verificación de ILITY en su lógica on-chain? Sin al menos una integración de este tipo en 2026, la abstracción sigue siendo una isla.

Despliegues de aplicaciones de privacidad. La validación correcta no es teórica. Es un protocolo de préstamos que preserva la privacidad o una capa de liquidación confidencial que utiliza genuinamente a ILITY para leer atestaciones de colateral de tres o más ecosistemas de probadores diferentes en producción, con usuarios reales.

Composición del stack con FHE y mercados de pruebas. Si el stack de "FHE más ZK más mercado de pruebas" comienza a aparecer en pilotos de DeFi institucional — pools autorizados al estilo JPMorgan, liquidación de fondos tokenizados regulados — ese es el efecto de ecosistema para el que ILITY se está posicionando. Si no es así, la capa de verificación unificada seguirá siendo una pieza ingeniosa de infraestructura a la espera de una aplicación que la necesite.

El resumen honesto es que la apuesta de ILITY es enorme y el precedente de "ganar abstrayendo las primitivas de otras personas" en el ecosistema cripto es mixto. IBC ganó. La equivalencia con la EVM ganó. Pero también hay abstracciones que se lanzaron antes de que los sistemas subyacentes estuvieran listos y nunca recuperaron el liderazgo. El 28 de abril es el día en que la apuesta comienza a correr en el reloj público.

BlockEden.xyz opera infraestructura de RPC e indexación de grado empresarial en Sui, Aptos, Ethereum, Solana y otras cadenas principales — la misma cobertura multicadena que las aplicaciones que preservan la privacidad necesitan para consumir estados verificados entre cadenas. Explore nuestro mercado de APIs para construir sobre una infraestructura diseñada para la era multicadena.

Fuentes

Los Contratos Inteligentes se Volvieron Más Seguros, el Cripto Empeoró: Dentro de la Era de los Ataques a la Infraestructura del Q1 2026

· 13 min de lectura
Dora Noda
Software Engineer

En el primer trimestre (Q1) de 2026, los exploits de contratos inteligentes de DeFi colapsaron un 89 % interanual. Aun así, el sector cripto perdió aproximadamente quinientos millones de dólares. Si eso suena contradictorio, no lo es; es el cambio estructural más importante en la seguridad Web3 desde The DAO. Los errores que definieron una década de titulares sobre criptomonedas se están resolviendo. Los atacantes simplemente se han trasladado a un nivel superior.

El Informe de Seguridad Web3 del Q1 2026 de Sherlock presenta la cifra de forma cruda: los exploits específicos de DeFi cayeron aproximadamente un 89 % frente al Q1 2025, la evidencia más clara hasta ahora de que las auditorías, la verificación formal y el código probado en batalla están cumpliendo su función. El recuento paralelo de Hacken registra 482,6millonesenpeˊrdidastotalesdeWeb3paraelmismotrimestre,conelphishingylaingenierıˊasocialimpulsandoporsıˊsolos482,6 millones en pérdidas totales de Web3 para el mismo trimestre, con el phishing y la ingeniería social impulsando por sí solos 306 millones de esa cifra en tan solo 44 incidentes. El centro de gravedad se ha desplazado, y la mayor parte del manual de defensa de la industria apunta en la dirección equivocada.

La apuesta del 99 % de Solana: Por qué la Fundación cree que los humanos dejarán de tocar la blockchain para 2028

· 14 min de lectura
Dora Noda
Software Engineer

En dos años, el usuario humano podría convertirse en un error de redondeo en Solana.

Eso no es una metáfora. Es el pronóstico explícito de Vibhu Norby, director de producto de la Fundación Solana, quien dijo a las audiencias de la industria en marzo de 2026 que "el 99.99 % de todas las transacciones on-chain en 2 años serán impulsadas por agentes, bots y billeteras basadas en LLM y productos de trading". En una entrevista separada, amplió ligeramente el rango a "entre el 95 y el 99 % de todas las transacciones" originadas por modelos de lenguaje de gran tamaño que actúan en nombre de un usuario. De cualquier manera, el mensaje es el mismo: la era de los humanos haciendo clic en "Firmar transacción" en una ventana emergente de la billetera está terminando, y Solana está construyendo para la era que viene después.

Esta es la visión más agresiva del internet agéntico que cualquier Capa 1 importante haya registrado. La respuesta de Ethereum ha sido lanzar estándares — ERC-8004 para la identidad de agentes, ERC-8183 para el comercio de agentes sin confianza. La respuesta de Solana ha sido lanzar capacidad de procesamiento y publicar un skill.txt en la raíz de su sitio web para que los agentes de IA puedan leerlo y descubrir cómo crear una billetera por su cuenta. Los dos enfoques revelan algo más profundo que una rivalidad de marketing. Revelan una verdadera división filosófica sobre para qué debería optimizarse una blockchain "agéntica".

El punto de inflexión de $2.9M de Solana DePIN: Lyft y T-Mobile dejaron de tratar el hardware cripto como un pasatiempo

· 11 min de lectura
Dora Noda
Software Engineer

En marzo de 2026, un hito silencioso pasó desapercibido para la mayoría de los titulares de criptomonedas: el grupo de infraestructura física descentralizada (DePIN) de Solana — Helium, Hivemapper, Render, UpRock, NATIX, XNET y Geodnet — registró colectivamente 2,9 millones de dólares en ingresos mensuales, un máximo en lo que va del año. Esa cifra es pequeña en términos absolutos. Es enorme en lo que representa.

Por primera vez, los clientes que firman esos cheques no son especuladores nativos de las criptomonedas ni agricultores de rendimiento (yield farmers). Son Lyft, T-Mobile, AT&T, Telefónica y Volkswagen. Las redes de hardware incentivadas por tokens han comenzado a competir con los operadores tradicionales de telecomunicaciones y cartografía basándose en sus méritos — capacidad, frescura, precio — en lugar de meras expectativas.

Esa es la inflexión. Analicemos lo que significa realmente.

Conozca a su Agente: Cómo el KYA Reemplazó al KYC como el Campo de Batalla de Cumplimiento Definitorio de la Economía de los Agentes

· 15 min de lectura
Dora Noda
Software Engineer

Los agentes de IA ahora manejan aproximadamente el 19 % de toda la actividad DeFi on-chain. Solo BNB Chain alberga más de 150.000 agentes desplegados — frente a los menos de 400 a principios de año, un aumento del 43.750 % en menos de cuatro meses. Los bots generan más del 76 % del volumen de transferencia de stablecoins, y Gartner espera que el 40 % de las aplicaciones empresariales integren agentes de IA específicos para tareas para finales de 2026.

Solo hay un problema: nadie sabe quiénes son estos agentes. El KYC fue diseñado para verificar humanos. Los marcos de cumplimiento de la próxima década tienen que verificar software autónomo — y el estándar que gane esta batalla capturará silenciosamente uno de los verticales regulatorios más grandes en los servicios financieros. a16z lo llama KYA: Know Your Agent (Conozca a su Agente).

Los agentes de IA ya mueven el 19 % del volumen de DeFi — y aún pierden frente a los humanos por 5 veces en el trading

· 12 min de lectura
Dora Noda
Software Engineer

Los agentes de IA ahora originan aproximadamente una quinta parte de cada transacción de DeFi. También pierden frente a los traders discrecionales humanos por un factor de cinco en cualquier concurso que implique decisiones reales. Esa brecha incómoda — entre la participación del flujo que los agentes ya controlan y el alpha que consistentemente no logran generar — es el punto de datos más importante en el debate de la "economía agéntica" de las criptomonedas, y llegó este mes gracias a un informe de investigación de DWF Ventures que desinfla discretamente un año de marketing.

El CEO de Coinbase, Brian Armstrong, pasó el último trimestre diciendo a todo aquel que quisiera escuchar que la economía agéntica superará a la economía humana. Su empresa lanzó Agentic.market, una tienda de aplicaciones para agentes de IA que ya ha procesado 165 millones de transacciones y $ 50M en volumen a través de 480,000 agentes. La tesis es que las máquinas transaccionarán entre sí a través de stablecoins porque no pueden abrir cuentas bancarias. Las cifras, en la superficie, son irresistibles.

Pero los datos de DWF sugieren que estamos confundiendo el volumen del flujo con el rendimiento — y la distinción importa enormemente para cualquiera que decida dónde asignar el gasto en infraestructura, la atención de las auditorías o el capital en 2026.

El titular del 19 % oculta tres negocios diferentes

Cuando el titular de Decrypt dice "Los agentes de IA ya manejan una quinta parte de DeFi", ¿qué contiene realmente ese 19 %?

El propio desglose de DWF — corroborado por la cobertura de PANews sobre el mismo informe — agrupa la actividad de los agentes en tres categorías muy diferentes:

  1. Narrow extractive bots (Bots extractivos especializados) — buscadores de MEV, atacantes de sándwich, activadores de liquidación, arbitrajistas entre DEXes. Estos son programas deterministas con, en el mejor de los casos, un pegamento de LLM, y la mayoría de ellos preceden a la etiqueta de "agente" por varios años.
  2. Structured optimizers (Optimizadores estructurados) — enrutadores de rendimiento de stablecoins como ARMA de Giza, que ha gestionado de forma autónoma $ 32M en activos de usuarios a través de 102,000 transacciones, y rebalanceadores que mueven fondos entre Aave, Morpho y Pendle cuando las tasas divergen. Estos realmente utilizan el razonamiento de LLM, pero dentro de límites extremadamente estrechos.
  3. Open-ended trading agents (Agentes de trading de propósito general) — los agentes autónomos de trading que acaparan los titulares, que leen el sentimiento, evalúan las narrativas y realizan apuestas direccionales. Esta es la parte más pequeña del 19 %, y es la parte que pierde estrepitosamente.

La confusión importa porque cada categoría tiene un perfil de demanda diferente, un modo de falla diferente y una huella de infraestructura diferente. Contar los tres como "agentes de IA" es más o menos equivalente a contar trabajos cron, pipelines de ETL y gestores de carteras senior como "tomadores de decisiones automatizados". Técnicamente cierto. Operacionalmente sin sentido.

Donde ganan los agentes: Optimización de rendimientos, por goleada

Las victorias más claras de los agentes están ocurriendo exactamente donde el problema está bien definido y la superficie de optimización está delimitada.

El informe de DWF — según el resumen de KuCoin — encuentra que los agentes de optimización de rendimientos están entregando retornos anualizados superiores al 9 % en algunos grupos, con el ARMA de Giza alcanzando el 15 % en USDC (parcialmente impulsado por incentivos de tokens, pero aun así). ¿Por qué? Porque la tarea se reduce a: escanear N mercados de préstamos, calcular el APY neto después de gas y slippage, y rebalancear cuando el delta supera un umbral. No hay narrativa. No hay cambio de régimen. Hay un número, y el agente que optimiza el número gana.

La misma lógica se aplica a la captura de MEV, el enrutamiento de stablecoins y las operaciones de base (basis trades). Estos son problemas que recompensan la latencia de reacción de subsegundos, los cierres (stops) sin emociones y la ejecución 24/7 — tres cosas en las que los humanos son constitucionalmente malos y para las que las máquinas están optimizadas. La cuota de volumen del 19 % en estos nichos no es un artefacto del hype. Es una ganancia de eficiencia real que es poco probable que los humanos recuperen.

Los datos de Agentic.market de Coinbase refuerzan el mismo patrón: de los 165M de transacciones procesadas a través de x402, las categorías dominantes son inferencia, acceso a datos y llamadas a infraestructura — tareas delimitadas, repetibles y amigables para las máquinas. Los agentes son buenos siendo máquinas.

Donde pierden los agentes: Cualquier cosa que requiera juicio

La brecha de 5 a 1 aparece en el momento en que la tarea se amplía.

DWF cita un concurso de trading de acciones de tradexyz en el que el mejor trader discrecional humano superó al mejor agente autónomo por más de cinco veces en el retorno ajustado al riesgo. Los autores del informe son tajantes sobre el porqué: "Donde fallan es en el trading de propósito general, que requiere razonamiento contextual, conciencia narrativa y evaluación de información no estructurada".

Desglose el bajo rendimiento y surgirán tres patrones:

  • Sobre-operar con deslizamiento. Los agentes carecen de la paciencia que les resulta natural a los humanos cuando esperan configuraciones favorables. Realizan operaciones marginales que se acumulan en un lastre de costos de transacción.
  • Ceguera de régimen. Cuando la historia macro cambia — un giro de la Fed, las secuelas de un exploit, un titular regulatorio — los humanos se reposicionan en segundos basándose en un tuit. Los agentes entrenados en datos de regímenes anteriores siguen ejecutando la estrategia de ayer.
  • Fragilidad adversaria. Los agentes predecibles terminan siendo víctimas de ataques de sándwich. La cobertura de Cryptollia sobre el panorama de MEV en 2026 describe un "bosque oscuro" de IA contra IA donde los agentes extractivos cazan específicamente los patrones de los agentes optimizadores. La predictibilidad del optimizador se convierte en la ventaja del depredador.

El mismo informe de DWF concluye que "una línea de tiempo realista es de cinco a siete años antes de que el volumen agéntico rivalice significativamente con el volumen humano en cualquier vertical financiera importante". Esa es una predicción notable de un fondo cuya tesis de cartera completa depende de que la adopción de agentes tenga éxito. Cuando los creyentes dicen de cinco a siete años, la lectura honesta es "no en 2026, y posiblemente no en 2028".

La factura de la infraestructura llega de todos modos

Aquí está la parte que la mayoría de los comentarios sobre la economía agéntica pasan por alto: la brecha de rendimiento es irrelevante para la carga de la infraestructura.

Incluso si cada agente de trading autónomo pierde dinero, los agentes que ganan — optimizadores de rendimiento, buscadores de MEV, enrutadores de stablecoins — generan volúmenes de consulta que eclipsan el consumo de RPC de los humanos. Un solo agente de estilo ARMA que realiza reequilibrios en cinco protocolos de préstamo hace ping a la cadena cientos de veces al día por usuario. Si multiplicamos esto por los más de 17,000 agentes que DWF contabiliza como lanzados desde 2025, y luego nuevamente por los 480,000 agentes que ahora realizan transacciones en el x402 de Coinbase, la implicación es clara: el volumen de consultas de los agentes puede crecer 10 veces más rápido que el AUM (activos bajo gestión) de los mismos.

Este es el cambio silencioso dentro de la narrativa "agéntica". La economía unitaria interesante no es si el agente genera alfa — es si su huella de lectura y escritura escala linealmente con los usuarios o cuadráticamente con la complejidad de la estrategia. Cualquiera que gestione infraestructura para estos sistemas ya está viendo la respuesta, y es "cuadráticamente".

Eso tiene consecuencias para los precios de RPC, la carga de los indexadores, los costes de vigilancia de la mempool y los mercados de gas. Incluso un futuro en el que los agentes colectivamente tengan un rendimiento inferior al de los humanos en el trading es un futuro en el que los agentes dominan el tráfico de lectura, las solicitudes de firma y los saltos de los enrutadores de intención.

La apuesta de Brian Armstrong, recalibrada

La tesis de Armstrong sobre la economía de máquina a máquina no es incorrecta. Simplemente está operando en una escala de tiempo diferente a la que sugieren sus prioridades trimestrales.

El propio marco de Coinbase — "para que la economía agéntica supere a la economía humana, los agentes necesitan una forma de descubrir servicios" — es honesto sobre la brecha. El descubrimiento es un problema de 2026. El razonamiento es un problema de 2030. La capa intermedia, que capturan los datos de DWF, es donde se está ganando el dinero real hoy: optimizadores estructurados en dominios estrechos, pagados por usuarios que no quieren gestionar su propia estrategia de rendimiento.

La segmentación honesta para 2026 se ve así:

  • Nichos de agentes rentables y listos para producción: enrutamiento de rendimiento de stablecoins, reequilibrio entre cadenas (cross-chain), ejecución de intenciones resistente a MEV, bots de gestión de tesorería para DAOs.
  • Madurez media, resultados mixtos: agentes de trading basados en el sentimiento social, agentes de mercados de predicción (donde la IA alcanza una precisión un 27% mejor que los humanos en algunos estudios), estrategias de rotación de narrativa.
  • Hype pero aún sin alfa: traders discrecionales totalmente autónomos, agentes de razonamiento de múltiples pasos que gestionan carteras direccionales, capas de orquestación de agente de agentes.

Una empresa que despliega capital en la categoría uno en 2026 está comprando un producto real. Una empresa que despliega capital en la categoría tres está comprando un proyecto de investigación que puede o no producir retornos para 2030.

Qué significa esto para los constructores

Para los desarrolladores y operadores de infraestructura, la cifra del 19% crea dos oportunidades distintas y una trampa.

Las oportunidades: construir para los agentes de dominio acotado que ya funcionan (enrutadores de stablecoins, optimizadores de rendimiento, ejecución consciente de MEV) y estarás sirviendo a un mercado en crecimiento con una disposición probada a pagar. Construir para la huella de agentes pesada en lectura y estarás sirviendo a una curva de carga que está subiendo más rápido de lo que el presupuesto de cualquier persona anticipó.

La trampa: construir marcos de trading autónomos para su despliegue en 2026 cuando la brecha de capacidad subyacente está a cinco o siete años de cerrarse. Los agentes que prometen "superar a los traders discrecionales humanos" hoy en día son, en gran medida, un empaquetado de las mismas estrategias de MEV que han existido desde 2020 con un LLM frente al estimador de gas.

Para el resto del mercado — asignadores de capital, gestores de tesorería, usuarios minoristas que se preguntan si deben entregar su cartera a un chatbot — la respuesta para 2026 es la aburrida: usar agentes donde ganan de manera verificable (rendimiento, enrutamiento, ejecución), no donde el marketing promete que lo harán.

El número que realmente importa

Si eliminamos los bots de optimización, los buscadores de MEV y los enrutadores de stablecoins, la cuota del volumen de DeFi proveniente de agentes de razonamiento genuinamente autónomos probablemente esté más cerca del 2-3% que del 19%. Ese es el número a observar durante los próximos 24 meses.

Si sube del 2% hacia el 10% para mediados de 2027, la tesis de Armstrong va por buen camino. Si se mantiene plano mientras la cifra general del 19% sigue subiendo — lo que significa que los bots especializados se vuelven más eficientes pero los agentes de razonamiento no se vuelven más inteligentes — entonces la economía agéntica es real, pero es una historia de infraestructura de backend, no una revolución en la gestión de carteras.

De cualquier manera, los datos ya han separado el marketing de las matemáticas. El titular del 19% es cierto. La brecha de 5 a 1 también es cierta. Cualquiera que apueste por la economía de los agentes sin tener ambos números en la cabeza está apostando por una historia con la que la propia gente que escribe la investigación ya no está de acuerdo.

BlockEden.xyz impulsa los indexadores, los endpoints RPC y la infraestructura de enrutamiento de intenciones en la que se basa el DeFi impulsado por agentes — a través de Sui, Aptos, Ethereum, Solana y más de 27 cadenas adicionales. Explore nuestro marketplace de APIs para construir agentes en una infraestructura diseñada para las cargas de trabajo pesadas en lectura y densas en firmas que demandará la próxima ola de DeFi autónomo.

Qwen se une a la cadena: Cómo 0G × Alibaba Cloud reconfiguraron el stack de IA para agentes autónomos

· 12 min de lectura
Dora Noda
Software Engineer

Por primera vez en la corta historia de la IA, un hiperescalador ha entregado las llaves de su modelo de lenguaje de gran tamaño insignia a una blockchain. El 21 de abril de 2026, la Fundación 0G y Alibaba Cloud anunciaron una asociación que hace que Qwen — la familia de LLM de código abierto más descargada del mundo — sea directamente invocable por agentes autónomos on-chain, con inferencia tarifada en tokens en lugar de claves API.

Lea eso de nuevo. Sin registro de cuenta. Sin tarjeta de crédito. Sin formularios de límite de tasa. Un agente con una wallet puede simplemente llamar a Qwen3.6 y pagar por cada millón de tokens en $0G, de la misma manera que un contrato llama a un pool de Uniswap. Ese único cambio arquitectónico — tratar la inferencia de un modelo base como un recurso programable en lugar de un producto SaaS — puede ser la historia de cripto-IA más trascendental del año.