Saltar al contenido principal

El giro de DePIN hacia la IA: Cómo la infraestructura descentralizada se convirtió en la nube de GPU que las grandes tecnológicas no construyeron

· 12 min de lectura
Dora Noda
Software Engineer

Los tres proyectos DePIN con mayores ingresos en 2026 comparten una cosa en común: todos venden cómputo de GPU a empresas de IA. No almacenamiento. No ancho de banda inalámbrico. No datos de sensores. Cómputo — el recurso más limitado en la pila tecnológica global.

Ese solo hecho dice todo sobre dónde han aterrizado las Redes de Infraestructura Física Descentralizada (DePIN) tras años de búsqueda de un ajuste producto-mercado. El sector que alguna vez funcionó con incentivos de tokens y una economía especulativa de volante de inercia ahora genera ingresos reales de los compradores más exigentes de la tecnología: desarrolladores de modelos de IA que necesitan GPUs para ayer.

Del volante de inercia de tokens al motor de ingresos

La historia del origen de DePIN era elegantemente simple: usar recompensas en tokens para impulsar redes de infraestructura física que serían demasiado costosas para que cualquier empresa individual las construyera. Los colaboradores suministran hardware — GPUs, enrutadores, sensores, unidades de almacenamiento — y ganan tokens a cambio. A medida que la red crece, el token se aprecia, atrayendo a más colaboradores en un ciclo virtuoso.

El problema fue que la mayoría de los primeros proyectos DePIN nunca cerraron el lado de la demanda. Los colaboradores llegaban en masa persiguiendo recompensas de tokens, pero los clientes reales que pagaban seguían siendo escasos. El volante giraba, pero solo en una dirección.

El auge de la IA cambió esa ecuación por completo.

La demanda mundial de cómputo para IA está creciendo un 37 % interanual hasta 2026, y se proyecta que el gasto en infraestructura de GPU aumente de 83milmillonesen2025a83 mil millones en 2025 a 353 mil millones para 2030. Mientras tanto, las listas de espera de GPUs en la nube en AWS, Azure y Google Cloud se extienden de semanas a meses para el hardware de alta gama. Las empresas que entrenan modelos o ejecutan inferencias a escala se enfrentan a una restricción de suministro brutal — exactamente el tipo de falla del mercado que las redes descentralizadas están diseñadas para resolver.

Los números detrás del pívot

El sector DePIN abarca ahora más de 1,500 proyectos activos con una capitalización de mercado combinada de entre 30milmillonesy30 mil millones y 50 mil millones. Pero la concentración de ingresos cuenta una historia más clara: los proyectos DePIN relacionados con la IA representan el 48 % de la capitalización de mercado total del sector, y los tres proyectos que más ingresos generan — Aethir, Virtuals Protocol e IONET — están todos enfocados en el cómputo de IA descentralizado.

El capital de riesgo ha seguido la señal. Se invirtieron más de 744millonesenmaˊsde165startupsdeDePINentreenerode2024yjuliode2025,conunafinanciacioˊntotaldelsectoracercaˊndosealos744 millones en más de 165 startups de DePIN entre enero de 2024 y julio de 2025, con una financiación total del sector acercándose a los 1,000 millones solo en 2025. En enero de 2026, Escape Velocity recaudó un fondo de $ 62 millones específicamente para respaldar a fundadores de DePIN, una apuesta de que la capa de infraestructura está lista para cargas de trabajo de grado institucional.

El Foro Económico Mundial fue más allá, proyectando que la categoría DePIN crecerá hasta los $ 3.5 billones para 2028 — una expansión de 70 veces respecto a los niveles actuales. El informe del WEF acuñó un nuevo término para la convergencia: "DePAI" (IA física descentralizada), reconociendo que las cargas de trabajo de IA se han convertido en el principal motor comercial para la infraestructura descentralizada.

Akash Network: De mercado a hiperescalador

Akash Network ejemplifica el pívot de mercado descentralizado a proveedor de cómputo preparado para IA. La plataforma reportó un crecimiento del 428 % interanual en uso hasta finales de 2025, con una utilización de GPU consistentemente superior al 80 % — métricas que harían que cualquier proveedor de la nube sintiera envidia.

La creación de nuevos arrendamientos aumentó un 42 % intertrimestral en el tercer trimestre de 2025, pasando de 19,000 a 27,000 arrendamientos, lo que indica una demanda genuina en lugar de actividad especulativa. Estos son trabajos de cómputo pagados, no granjeros de airdrops.

El desarrollo más significativo llegó con Starcluster, un sistema de cómputo propiedad del protocolo que representa la apuesta más audaz de Akash hasta la fecha. Starcluster combina centros de datos gestionados centralmente con el mercado de GPUs descentralizado de Akash para formar lo que el equipo llama una "malla planetaria" optimizada para el entrenamiento e inferencia de IA. La iniciativa incluye la adquisición de aproximadamente 7,200 GPUs NVIDIA GB200 — el mismo hardware que alimenta la última generación de modelos de IA de frontera — operadas por "Nodekeepers" de centros de datos de grado empresarial verificados.

Esta arquitectura híbrida reconoce una realidad práctica: la descentralización pura tiene límites para las cargas de trabajo que exigen una latencia determinista y un rendimiento paralelo masivo. Starcluster cierra la brecha entre el idealismo cripto-nativo y los requisitos empresariales, posicionando a Akash para competir por contratos de IA a hiperescala que anteriormente recaían por defecto en AWS o CoreWeave.

Render Network: La jugada de la inferencia

Mientras que Akash se dirige a todo el espectro de cómputo, Render Network ha hecho una apuesta estratégica en la inferencia de IA — la categoría de carga de trabajo que se proyecta representará dos tercios del uso total de cómputo de IA para 2026.

El razonamiento es sólido. El entrenamiento de modelos grandes requiere clústeres concentrados de miles de GPUs funcionando durante semanas. La inferencia — ejecutar modelos entrenados para generar predicciones, texto o imágenes — está mucho más distribuida. Ocurre en todas partes, todo el tiempo, y cada vez más en el borde (edge). Este perfil de carga de trabajo se ajusta naturalmente a una red descentralizada de nodos de GPU dispersos geográficamente.

Render lanzó Dispersed en diciembre de 2025 como su subred de cómputo dedicada para la inferencia de IA y el aprendizaje automático en el borde. La plataforma ha escalado a más de 5,600 nodos de GPU activos en todo el mundo y está integrando hardware NVIDIA H200 de grado empresarial para ampliar la capacidad para cargas de trabajo exigentes.

La adopción en el mundo real está superando la prueba de concepto. Jember, una empresa de fideicomiso financiero de IA, utiliza la infraestructura de Render para flujos de trabajo de inferencia asíncrona, demostrando cómo el cómputo distribuido puede potenciar sistemas de IA verificables en industrias reguladas. THINK despliega nodos de Render para soportar el Think Agent Standard, un protocolo sin permisos para construir agentes de IA on-chain — un caso de uso que apenas existía hace un año.

En el CES 2026, Render presentó asociaciones dirigidas a la explosiva demanda de GPUs para cargas de trabajo de ML en el borde, marcando una expansión exitosa desde sus orígenes en renderizado creativo hacia el cómputo de IA de propósito general. La capacidad de doble uso de la red — sirviendo tanto para el renderizado 3D como para la inferencia de IA — proporciona una diversificación de ingresos de la que carecen las redes de cómputo de IA puras.

io.net: La capa de agregación

io.net adopta un enfoque arquitectónico diferente. En lugar de construir una red de cómputo integrada verticalmente, io.net se posiciona como una capa de agregación que obtiene y agrupa el suministro de GPU a escala, para luego presentar esa capacidad a través de una abstracción tipo nube para los compradores.

Este modelo centrado en la agregación aborda uno de los desafíos persistentes de DePIN: el suministro fragmentado. Los colaboradores individuales de GPU van desde propietarios de PC para juegos con RTX 4090 inactivas hasta pequeños operadores de centros de datos con racks de A100. Sin la agregación, este suministro es demasiado heterogéneo y poco confiable para las cargas de trabajo empresariales. La capa de abstracción de io.net estandariza la experiencia, haciendo que la capacidad de GPU descentralizada se sienta como una API de nube convencional.

Este enfoque sacrifica algo de pureza en la descentralización en favor de la usabilidad práctica, un intercambio que define cada vez más las estrategias ganadoras de DePIN.

La ventaja de costos que realmente importa

La propuesta de valor más convincente de DePIN es brutalmente simple: el cómputo descentralizado cuesta entre un 50 y un 85 % menos que sus equivalentes en la nube centralizada.

Esto no es un ahorro marginal. Para una startup de IA que gasta 500.000 mensualeseninstanciasdeGPUdeAWS,cambiaralcoˊmputodescentralizadopodrıˊareducirloscostosaunacifraentre75.000mensuales en instancias de GPU de AWS, cambiar al cómputo descentralizado podría reducir los costos a una cifra entre 75.000 y 250.000 $. A escala empresarial, los ahorros se convierten en una ventaja competitiva o, incluso, en una cuestión de supervivencia.

La estructura de costos funciona porque las redes DePIN monetizan la capacidad inactiva existente en lugar de construir centros de datos específicos. Los colaboradores asumen los gastos de capital. El protocolo se encarga de la orquestación. Los compradores pagan solo por el cómputo consumido. No hay construcciones iniciales masivas, ni costos inmobiliarios, ni infraestructura de refrigeración que amortizar en el precio.

Este modelo tiene límites: no todas las cargas de trabajo toleran la varianza de la latencia y los compromisos de confiabilidad del cómputo distribuido. Pero para la inferencia, el procesamiento por lotes, el ajuste fino y muchas configuraciones de entrenamiento, la economía es cada vez más decisiva.

De la especulación a la infraestructura

El giro hacia la IA del sector DePIN representa algo poco común en el mundo cripto: una transición genuina de una economía impulsada por la especulación a una impulsada por la utilidad. Cuando los ingresos de una red provienen de empresas de IA que pagan por horas de GPU en lugar de traders que especulan con el precio del token, el marco de valoración cambia fundamentalmente.

Varias tendencias estructurales refuerzan esta trayectoria:

  • Dominio de la inferencia: A medida que la IA pasa del entrenamiento al despliegue, crece la proporción de cómputo dedicado a la inferencia. La inferencia es intrínsecamente distribuida y tolerante a la latencia para muchas aplicaciones, lo que favorece las arquitecturas descentralizadas.

  • Presión de costos empresariales: Los costos de infraestructura de IA son insostenibles para la mayoría de las empresas con los precios actuales de la nube. La reducción de costos del 50 al 85 % que ofrecen las redes DePIN genera una demanda de tracción real, no solo experimentación nativa de cripto.

  • Vientos de cola regulatorios: Los requisitos de soberanía de datos en la UE, India y otras jurisdicciones favorecen el cómputo distribuido geográficamente que puede procesar datos localmente. La arquitectura de nodos distribuidos de DePIN encaja de manera natural.

  • Democratización del hardware: Cada generación de GPU hace que la anterior sea más barata pero aún capaz. Las redes DePIN extienden la vida útil productiva del hardware que los proveedores de la nube retirarían, creando un grupo de suministro en constante crecimiento.

Qué podría salir mal

El escenario optimista es convincente, pero persisten riesgos significativos.

La confiabilidad a escala no ha sido probada para cargas de trabajo de IA de misión crítica. Los SLA empresariales exigen un tiempo de actividad del 99,99 %, y las redes descentralizadas no han ofrecido ese nivel de confiabilidad de manera constante. El enfoque híbrido Starcluster de Akash reconoce tácitamente esta brecha.

La incertidumbre regulatoria en torno al cómputo descentralizado podría generar obstáculos. Si los gobiernos deciden que los mercados de GPU necesitan los mismos marcos de cumplimiento que los proveedores de la nube (residencia de datos, controles de exportación de cómputo), la ventaja de costos se reduce.

La presión de centralización es quizás la ironía más profunda. Las redes DePIN más exitosas se están volviendo más centralizadas con el tiempo: agregando hardware propiedad del protocolo, verificando a los operadores de nodos e implementando garantías de calidad de servicio. En algún momento, la distinción entre una "nube de GPU descentralizada" y "un proveedor de nube con incentivos de tokens" se vuelve filosófica.

El camino hacia los 3,5 billones de dólares

La proyección de 3,5 billones de dólares del Foro Económico Mundial para DePIN para 2028 requeriría que el sector crezca aproximadamente 70 veces respecto a los niveles actuales. Eso suena audaz hasta que se considera el mercado direccionable: el gasto global en infraestructura de nube por sí solo supera los 300.000 millones de dólares anuales, y la IA está añadiendo cientos de miles de millones más.

DePIN no necesita reemplazar la computación en la nube. Necesita capturar el excedente: las cargas de trabajo que no pueden obtener acceso a GPU a ningún precio, las startups que no pueden pagar los márgenes de la nube, las tareas de inferencia que se benefician de la proximidad al borde (edge). Incluso un porcentaje de un solo dígito del mercado global de cómputo validaría la tesis del FEM.

Los proyectos que ganen esta carrera serán aquellos que resuelvan el problema más difícil de DePIN: hacer que la infraestructura descentralizada sea aburrida. No revolucionaria, ni disruptiva, ni nativa de la Web3; simplemente más barata, más rápida y disponible cuando la alternativa no lo esté. En 2026, eso es exactamente hacia lo que Akash, Render e io.net están construyendo.

Para los desarrolladores y empresas que exploran la infraestructura de cómputo descentralizado, BlockEden.xyz ofrece servicios de API de blockchain de grado empresarial que complementan las redes DePIN, permitiendo que las aplicaciones interactúen con mercados de cómputo on-chain, monitoreen el rendimiento de la red y construyan sobre la capa de infraestructura que impulsa la economía de la IA.