Saltar al contenido principal

io.net Agent Cloud: Cuando los agentes de IA comienzan a comprar sus propias GPU

· 13 min de lectura
Dora Noda
Software Engineer

El 25 de marzo de 2026, io.net activó un interruptor que redefinió silenciosamente lo que significa el "cómputo descentralizado". Su nuevo Agent Cloud ya no requiere a un humano frente al teclado. Los agentes de IA — no los ingenieros, ni los equipos de compras, ni DevOps — ahora pueden alquilar GPUs de forma autónoma, ejecutar cargas de trabajo, liquidar facturas en stablecoins y desmontarlo todo sin un solo ticket, formulario KYC o inicio de sesión.

Ese es el punto de inflexión al que la industria DePIN ha estado dando vueltas durante dos años. La era del estilo criptominería de "obtener recompensas pasivas conectando una 3090" está terminando. Lo que la reemplaza es un mercado donde los clientes son software, los proveedores son software y toda la negociación ocurre a través de llamadas de Model Context Protocol y pagos on-chain. io.net acaba de convertirse en la primera red en convertir plenamente ese futuro en un producto — y al hacerlo, obligó a todos los demás proyectos de GPU DePIN a responder a una nueva pregunta: ¿cómo se ve tu red cuando el comprador es una máquina?

De 30,000 GPUs a una revolución del lado del comprador

io.net no es la red de GPUs descentralizada más grande por conteo bruto de contenedores. Ese título pertenece a Aethir, que vincula a las empresas con más de 435,000 contenedores de GPU en 93 países. El mercado de io.net enumera aproximadamente 30,000 GPUs en 138 regiones de más de 130 países — una huella más pequeña pero más distribuida geográficamente, anclada en Solana para la liquidación.

Lo que cambió en marzo de 2026 no es el lado de la oferta. Es el lado de la demanda. Hasta ahora, todos los mercados de GPUs descentralizados — Akash, Render, Aethir, Fluence, el propio io.net — han asumido un usuario humano. Un desarrollador se registra, vincula una billetera, elige un SKU de GPU, acepta el EULA, configura Docker, observa un panel de control. Cada paso tiene un ritmo humano.

Agent Cloud elimina al humano por completo. La plataforma expone una biblioteca MCP que permite a un agente autónomo:

  • Descubrir clústeres de GPUs disponibles en más de 130 países
  • Desplegar entornos de cómputo persistentes con memoria y estado de agente integrados
  • Autenticarse sin flujos OAuth, KYC o procesos de incorporación corporativos
  • Pagar en USDC o fiat (convertido automáticamente a IO) con una tarifa de reserva del 0.25%, eliminando la tarifa de facilitación del 2% para la liquidación directa en IO
  • Escalar recursos hacia arriba o hacia abajo basándose en sus propias señales de carga de trabajo
  • Comunicarse de forma cruzada con otros agentes a través de una API de mensajería integrada

La brecha de costos es el gancho: io.net anuncia acceso a H100 y H200 a un precio hasta un 70% inferior al de los proveedores convencionales. Pero el cambio estructural es la ausencia de fricción. Un agente que necesita ocho A100s durante los próximos noventa minutos no presenta una solicitud de compra. Llama a una función.

Por qué el cómputo persistente importa más que el precio spot

El alquiler de GPU spot — el modelo que Akash perfeccionó con su mercado de subastas inversas que cobra entre $1.20 y $1.80 por hora por una H100 frente a los $4.50 - $5.50 de AWS — resolvió un problema de precios. No resolvió el problema de los agentes.

Los agentes de IA autónomos tienen un requisito arquitectónico brutal que las cargas de trabajo por lotes no comparten: la continuidad del estado. Un agente que investiga una operación, redacta código o ejecuta una tarea de investigación de varios pasos no puede tolerar arranques en frío cada pocos minutos. Necesita memoria persistente, identidad persistente y conexiones persistentes con sus herramientas y otros agentes.

Esto es lo que Agent Cloud está vendiendo realmente. No GPUs. Backends de agentes siempre activos. El modelo de precios — por hora de GPU para cargas de trabajo de agentes persistentes en lugar de por trabajo por lotes — es un alejamiento deliberado del mercado spot de Akash y del modelo de rendimiento de renderizado de fotogramas de Render. Se dirige a un cliente completamente diferente: el agente que se despierta, trabaja, duerme durante una hora y se despierta de nuevo, esperando que su memoria de trabajo todavía esté allí.

Ese requisito es la razón por la cual Anthropic lanzó Claude Managed Agents en abril de 2026 — una plataforma alojada que maneja el sandboxing, la gestión del estado, la ejecución de herramientas y la recuperación de errores. Es la razón por la cual existe el protocolo x402 de Coinbase, que permite a los agentes pagar por el acceso al servidor MCP con stablecoins. Todo el stack está convergiendo en una sola idea: los agentes necesitan una infraestructura con forma de agentes, no de aplicaciones web.

La apuesta de io.net es que la versión descentralizada de este stack no es un lujo. Es la única versión que escala a millones de agentes sin cuellos de botella por aprobaciones de cuentas de AWS, cuotas de cómputo regionales o ciclos de adquisiciones corporativas.

Las tres estrategias de salida al mercado que dividen el cómputo DePIN

El lanzamiento de Agent Cloud cristaliza tres estrategias distintas en el mercado de cómputo descentralizado — cada una persiguiendo a un cliente diferente con una historia de economía unitaria distinta:

1. io.net — Ecosistemas de desarrolladores cripto-nativos y agentes autónomos. La propuesta es el acceso a API sin permiso, integraciones nativas de MCP, liquidación en USDC y cero fricción de incorporación. El cliente es un equipo nativo de Web3 o, cada vez más, los propios agentes de IA. El despliegue en el segundo trimestre de 2026 del Incentive Dynamic Engine (IDE) — que estabiliza los pagos a los proveedores en términos de USD y ajusta dinámicamente el suministro de tokens frente a los ingresos en tiempo real — está diseñado explícitamente para mantener la oferta racional a medida que la demanda impulsada por agentes se vuelve más difícil de predecir. io.net procesó más de $20 millones en arrendamientos de cómputo a principios de 2026, con $217,000 en recompras de IO ejecutadas solo en enero — un aumento del 15% mes a mes.

2. Aethir — Presupuestos de adquisiciones corporativas. Aethir generó los ingresos mensuales DePIN más altos de cualquier protocolo en enero de 2026, superando a Render. Firmó un acuerdo de reserva de cómputo de $344 millones y reportó $166 millones de ARR de contratos B2B. El cliente es un CIO corporativo que quiere capacidad H100 con descuento pero necesita un proveedor que se vea y se sienta como una nube tradicional — facturación por factura, MSAs, SLAs y gerentes de cuenta dedicados. Los más de 435,000 contenedores de GPU de Aethir y el costo inicial cero están posicionados para compradores que valoran la previsibilidad sobre la falta de permisos.

3. Akash — Migración de cargas de trabajo impulsada por el costo. El modelo de subasta inversa de Akash — donde los proveedores compiten por los trabajos — mantiene los precios estructuralmente por debajo de los hiperescaladores. La red logró un crecimiento de uso del 428% interanual con tasas de utilización superiores al 80% al entrar en 2026. Su iniciativa Starcluster, que incluye una adquisición planificada de aproximadamente 7,200 GPUs NVIDIA GB200 a través de Starbonds, está empujando a Akash hacia la demanda de IA a hiperescala mientras mantiene intacto su mercado descentralizado.

Render se sitúa de forma adyacente a los tres, procesando 1.5 millones de fotogramas de renderizado mensualmente, mientras que la propuesta de gobernanza RNP-023 en abril de 2026 absorbió aproximadamente 60,000 GPUs de Salad Network — extendiendo a Render hacia la inferencia de IA mientras mantiene sus raíces de cómputo creativo.

Estos cuatro protocolos ya no luchan por el mismo dólar. Están luchando por dólares diferentes — corporativos, nativos de agentes, impulsados por el costo y creativos — que casualmente requieren GPUs.

Las matemáticas de la era de la inferencia que hacen plausible a Agent Cloud

Toda conversación sobre el cómputo descentralizado solía comenzar con una advertencia: el entrenamiento es demasiado sensible al ancho de banda, la latencia y los SLA para salir alguna vez de los centros de datos de los hiperescaladores. Esa objeción sigue vigente para el entrenamiento de modelos de frontera. Pero se ha vuelto irrelevante para el mercado real.

En 2026, aproximadamente el 70 % de la demanda de GPU es inferencia, no entrenamiento. Las cargas de trabajo de inferencia —ejecutar un modelo, servir a un agente, realizar una llamada a una herramienta— toleran las realidades arquitectónicas de las redes descentralizadas mucho mejor que el entrenamiento. La varianza en la latencia es aceptable cuando la carga de trabajo es intermitente. La distribución geográfica es una ventaja cuando los agentes sirven a usuarios de todo el mundo. La capacidad spot es adecuada cuando el trabajo es sin estado o se pueden crear puntos de control.

Ese cambio en la mezcla de cargas de trabajo es la razón estructural por la que el cómputo DePIN puede, de manera creíble, reducir los costos de AWS y Azure entre un 45–75 % en inferencia. También es la razón por la que el momento del lanzamiento de Agent Cloud es importante. Los agentes son intensivos en inferencia por diseño. Generan llamadas constantes y pequeñas, no trabajos de entrenamiento grandes y ocasionales. Necesitan muchas GPU, brevemente, en muchos lugares. Ese es exactamente el perfil de carga de trabajo para el que se construyeron las redes descentralizadas.

Si Anthropic, OpenAI y Google se estandarizan en MCP —y a principios de 2026 la Linux Foundation ya cuenta con más de 10,000 servidores MCP públicos activos y decenas de millones de descargas mensuales de SDK—, entonces cualquier red de cómputo que hable MCP se vuelve accesible para cada ecosistema de agentes. io.net apuesta a que ser el primero en ofrecer una capa de cómputo totalmente nativa de MCP y adquirible por agentes vale más que ser el más grande.

La brecha de confianza que io.net aún tiene que cerrar

La tensión honesta en esta historia es la confiabilidad. AWS y Azure venden SLA de tiempo de actividad del 99.9 % respaldados por miles de millones de dólares en indemnizaciones. io.net vende 30,000 GPU distribuidas en más de 130 países con una calidad que varía según el proveedor. Para un aficionado que realiza un experimento, el ahorro de costos eclipsa el riesgo. Para un agente de producción que maneja el dinero de un cliente, el cálculo es más difícil.

El Incentive Dynamic Engine es parte de la respuesta: al estabilizar los pagos a los proveedores en términos de USD, hace que el comportamiento de los proveedores sea más predecible, lo que se traduce en mayor confiabilidad. La arquitectura nativa de MCP es otra parte: los agentes que pueden detectar un proveedor degradado y redirigirse a un clúster diferente en segundos hacen que la volatilidad subyacente sea menos visible para el usuario final.

Pero la brecha de confianza fundamental no se cerrará hasta que (a ) las redes descentralizadas acumulen suficiente historial operativo para publicar cifras de tiempo de actividad creíbles, o (b ) los agentes de IA de producción se vuelvan lo suficientemente tolerantes a la volatilidad del cómputo para que el 99.9 % deje de ser la base de referencia. Ambos procesos están ocurriendo en paralelo y ninguno ha terminado.

El resultado realista para 2026 es un mercado dividido: las cargas de trabajo de agentes de grado empresarial se quedan en Aethir o en los hiperescaladores, mientras que la "larga cola" de desarrolladores independientes, agentes de trading autónomos y aplicaciones de IA nativas de Web3 migra a io.net Agent Cloud y sus eventuales competidores. Esa larga cola es enorme, y es la cola que crece más rápido.

Qué cambia esto para los desarrolladores

Si estás construyendo agentes de IA en 2026, tres cosas acaban de cambiar materialmente:

  1. La adquisición de cómputo deja de ser un cuello de botella humano. Tu agente puede tener su propia fuente de financiamiento, su propio proveedor de cómputo y su propia lógica de escalado. Diseñar arquitecturas para la adquisición de GPU con un humano en el bucle es un error, no una característica.

  2. Los precios de cómputo denominados en stablecoins se vuelven normales. La liquidación en USDC en la capa de infraestructura significa que los agentes pueden mantener tesorería, pagar por el cómputo, liquidar con otros agentes y nunca tocar los rieles fiduciarios. Esta es la pieza que faltaba para que las economías de agentes totalmente autónomas sean plausibles.

  3. MCP se convierte en la superficie de integración. Independientemente de si tu stack es descentralizado o no, el camino hacia una infraestructura direccionable por agentes pasa por MCP. io.net no es la única red que se dio cuenta de esto, pero es la primera en ponerlo en el centro de un mercado de GPU.

Los protocolos que ganen la próxima fase de DePIN no serán los que tengan más GPU. Serán aquellos cuyas GPU sean más fáciles de comprar para el software.


BlockEden.xyz proporciona infraestructura de RPC e indexación de grado empresarial para los ecosistemas Solana, Sui, Aptos y EVM, donde muchos de estos agentes de IA viven y transaccionan. Si estás construyendo aplicaciones nativas de agentes que necesitan acceso confiable on-chain junto con cómputo descentralizado, explora nuestro marketplace de API para conectar la capa de datos.

Fuentes