Saltar al contenido principal

La era de Vera Rubin: Navegando la crisis de suministro y computación de IA

· 9 min de lectura
Dora Noda
Software Engineer

Cada chip que NVIDIA pueda fabricar durante los próximos dos años ya está reservado. En el GTC 2026 el 16 de marzo, Jensen Huang presentó Vera Rubin — una plataforma de IA de 336 mil millones de transistores construida sobre el proceso de 3 nm de TSMC — mientras confirmaba simultáneamente lo que la industria ya temía: la memoria HBM4 está completamente agotada hasta 2026 y los plazos de entrega de GPU ahora se extienden de 36 a 52 semanas. Para el sector DePIN de $ 19 mil millones, esta crisis de suministro no es un problema. Es la oportunidad de la década.

La arquitectura Vera Rubin: Una nueva escala de computación de IA

Nombrada en honor a la astrónoma que demostró la existencia de la materia oscura, Vera Rubin representa el salto de plataforma más ambicioso de NVIDIA desde Blackwell. Las cifras son asombrosas:

  • 336 mil millones de transistores en el nodo N3P de TSMC — casi el doble de la densidad de Blackwell
  • 22 TB / s de ancho de banda de memoria a través de la memoria HBM4 de próxima generación de SK Hynix y Samsung
  • Configuración NVL72: 72 GPU Rubin y 36 CPU Vera conectadas a través del tejido NVLink 6, ofreciendo 3.6 exaFLOPS de inferencia NVFP4 y 2.5 exaFLOPS de entrenamiento
  • Mejora de 5 veces en el rendimiento de inferencia utilizando el nuevo formato de punto flotante de 4 bits (NVFP4) de NVIDIA

Huang estructuró su presentación en torno a la "IA como un pastel de cinco capas": energía, chips, infraestructura, modelos y aplicaciones. La primera capa recibió un énfasis inusual. Los centros de datos ya consumen del 2 – 3 % de la electricidad mundial, y las proyecciones sugieren que esa proporción podría triplicarse para 2030 a medida que las cargas de trabajo de IA escalen. Huang destacó asociaciones de energía renovable, incluidos gemelos digitales para la generación de energía a partir de las olas del mar, señalando que el suministro de computación ya no es solo un problema de silicio: es un problema de energía.

Se espera que las muestras iniciales de Vera Rubin se envíen a los proveedores de la nube de primer nivel a finales de 2026, con una producción total a principios de 2027. La siguiente arquitectura, cuyo nombre en código es Feynman, ya está en la hoja de ruta para 2027.

La crisis de suministro que nadie puede esquivar

Si bien las especificaciones de Vera Rubin acapararon los titulares, la historia de suministro subyacente cuenta un relato más urgente. Los directores ejecutivos de TSMC, SK Hynix, Micron, Intel, NVIDIA y Samsung han entregado el mismo mensaje: la demanda de nodos avanzados, empaquetado avanzado y HBM está creciendo mucho más rápido de lo que se puede construir la capacidad.

El cuello de botella es integral:

  • Memoria HBM: SK Hynix confirmó que "todo nuestro suministro de HBM para 2026 está agotado". Micron solo puede satisfacer el 55 – 60 % de la demanda de sus clientes principales. Samsung y SK Hynix han aumentado los precios de HBM3E en casi un 20 % para los contratos de 2026.
  • Empaquetado avanzado: la capacidad CoWoS (Chip-on-Wafer-on-Substrate) de TSMC — crítica para ensamblar pilas de HBM en paquetes de GPU — permanece agotada hasta 2026.
  • Asignación de GPU: los hiperescaladores como Google, Microsoft, Amazon y Meta han bloqueado asignaciones plurianuales. Las empresas más pequeñas enfrentan plazos de entrega de 36 – 52 semanas, lo que efectivamente las deja fuera del hardware de IA de vanguardia hasta 2027 o más tarde.

El resultado es un mercado de computación de dos niveles. Un puñado de hiperescaladores comanda la gran mayoría de la capacidad de GPU de próxima generación, mientras que todos los demás — startups, empresas medianas, instituciones de investigación e iniciativas de IA soberana — luchan por lo que queda.

El momento de DePIN: De la periferia a la frontera

Aquí es donde entran en juego las redes de infraestructura física descentralizada (DePIN). Si bien ninguna red DePIN puede fabricar GPU NVIDIA de la nada, estas redes resuelven un problema diferente pero igualmente crítico: movilizar el enorme grupo de capacidad de GPU subutilizada que ya existe en todo el mundo.

El sector de computación DePIN ha crecido de 5.2milmillonesamaˊsde5.2 mil millones a más de 19 mil millones en capitalización de mercado en un solo año, y el crecimiento está respaldado por métricas de uso reales, no solo por especulación de tokens.

Render Network ha superado los $ 2 mil millones en capitalización de mercado tras expandirse del renderizado de GPU a las cargas de trabajo de inferencia de IA. Su lanzamiento de Dispersed — una subred dedicada para cargas de trabajo de IA — posiciona a la red en la intersección de la computación creativa y de IA. Render ofrece renderizado de GPU con ahorros de hasta un 85 % en comparación con AWS o Google Cloud.

Aethir reportó casi $ 40 millones en ingresos trimestrales y más de 1.4 mil millones de horas de computación entregadas en 2025, sirviendo a más de 150 clientes empresariales. Esto no es una demostración de red de prueba. Es infraestructura de producción que genera ingresos reales.

io.net y Nosana alcanzaron cada uno capitalizaciones de mercado superiores a los $ 400 millones durante sus ciclos de crecimiento, agregando capacidad de GPU inactiva de centros de datos, mineros de criptomonedas y hardware de consumo en grupos de computación bajo demanda.

La diferencia de precios es sorprendente. Una NVIDIA H100 en un mercado DePIN puede costar entre 18 – 30 veces menos que en AWS para cargas de trabajo comparables. Incluso teniendo en cuenta la variación de confiabilidad que obliga a un cierto exceso de provisión, las redes DePIN ofrecen ahorros de costos del 50 – 75 % para cargas de trabajo por lotes, tareas de inferencia y ejecuciones de entrenamiento de corta duración.

El cálculo empresarial cambia

La adopción empresarial de la computación DePIN está siguiendo un patrón predecible pero acelerado. Los mayores obstáculos han sido la complejidad de la orquestación, la depuración de fallos distribuidos, la falta de SLA exigibles y los flujos de trabajo de adquisición nativos de cripto que los departamentos de TI empresariales luchan por integrar.

Pero 2026 está cambiando el cálculo. Con el acceso centralizado a las GPU efectivamente racionado, las empresas están adoptando cada vez más arquitecturas híbridas:

  • Modelos sensibles y de baja latencia se ejecutan localmente en dispositivos de borde (edge)
  • Grandes trabajos de entrenamiento permanecen con los hiperescaladores que han asegurado asignaciones de GPU
  • Inferencia de capacidad flexible y de ráfaga se enruta a redes descentralizadas para el arbitraje de costos

Este modelo híbrido convierte a DePIN de un "experimento interesante" en una "válvula de rebose pragmática". Cuando se agota su cuota de GPU en AWS y la lista de espera de NVIDIA supera la fecha límite de su producto, un ahorro de costos del 50 % en una red descentralizada deja de ser una elección filosófica sobre la descentralización y se convierte en una necesidad empresarial.

La proyección del Foro Económico Mundial de un mercado DePIN de $ 3.5 billones para 2028 implica una tasa de crecimiento extraordinaria. Incluso a la mitad de ese ritmo, DePIN representaría uno de los sectores de infraestructura de más rápido crecimiento en cualquier industria.

Energía: El cuello de botella oculto detrás del cuello de botella de los chips

El énfasis de Huang en la energía en el GTC 2026 no fue accidental. El apetito eléctrico de la IA está creciendo más rápido de lo que la cadena de suministro de semiconductores puede abordar. El consumo actual de electricidad de los centros de datos se sitúa en el 2 – 3 % de la producción mundial, pero las proyecciones sugieren que solo las cargas de trabajo de IA podrían elevar esto al 6 – 9 % para 2030.

Este cuello de botella energético crea otra ventaja estructural para las redes DePIN. Los hiperescaladores centralizados deben construir centros de datos masivos en ubicaciones con energía abundante y asequible — un proceso que lleva de 2 – 4 años desde la planificación hasta la operación. Las redes DePIN, por el contrario, agregan hardware existente en ubicaciones existentes con conexiones de energía existentes. La infraestructura ya está conectada.

Los proyectos en la intersección de DePIN y energía, como las centrales eléctricas virtuales descentralizadas y los créditos de energía renovable tokenizados, se están posicionando para servir a ambos lados de la ecuación: proporcionar capacidad de computación y al mismo tiempo coordinar los recursos energéticos distribuidos necesarios para alimentarla.

Qué viene después

La era de Vera Rubin definirá la infraestructura de IA durante los próximos dos a tres años. Pero el hardware que más importa no es solo lo que NVIDIA envíe en 2027 — son los millones de GPU ya desplegadas en todo el mundo que permanecen inactivas durante partes significativas de cada día.

Tres dinámicas marcarán los próximos 12 meses:

  1. La escasez de GPU se intensifica antes de aliviarse. La producción de Vera Rubin no alcanzará volumen hasta principios de 2027. La generación actual de Blackwell sigue teniendo limitaciones de suministro. Las redes DePIN que capturen la demanda excedente durante esta brecha tienen una ventana para demostrar la confiabilidad empresarial a escala.

  2. Las arquitecturas de computación híbrida se convierten en el estándar. La elección binaria entre "hiperescalador o nada" se está disolviendo. Las empresas dividirán cada vez más las cargas de trabajo entre infraestructura centralizada, de borde y descentralizada en función de los requisitos de latencia, costo y disponibilidad.

  3. La energía se convierte en la limitación vinculante. Incluso cuando el suministro de chips finalmente se relaje, la disponibilidad de energía puede no hacerlo. El modelo distribuido de DePIN — inherentemente repartido en diversas fuentes de energía y geografías — proporciona una resiliencia estructural contra las limitaciones de energía localizadas que los centros de datos centralizados no pueden igualar.

La ironía del GTC 2026 de NVIDIA puede ser que su revelación más importante no fueron las impresionantes especificaciones de Vera Rubin. Fue la confirmación de que la infraestructura de IA centralizada, sin importar cuán poderosa sea, enfrenta límites físicos que ninguna cantidad de ingeniería puede resolver de inmediato. Para las redes de computación descentralizadas que agregan silenciosamente las GPU inactivas del mundo, esos límites son una puerta abierta.


BlockEden.xyz proporciona infraestructura RPC y API de alto rendimiento para redes blockchain que impulsan la próxima generación de aplicaciones descentralizadas — incluidos los protocolos DePIN que construyen la capa de computación del mañana. Explore nuestro mercado de API para comenzar a construir.