Saltar para o conteúdo principal

A Era Vera Rubin: Navegando pela Crise de Fornecimento e Computação de IA

· 9 min de leitura
Dora Noda
Software Engineer

Cada chip que a NVIDIA puder fabricar nos próximos dois anos já está reservado. Na GTC 2026, em 16 de março, Jensen Huang revelou a Vera Rubin — uma plataforma de IA com 336 bilhões de transistores construída no processo de 3 nm da TSMC — enquanto confirmava simultaneamente o que a indústria já temia: a memória HBM4 está completamente esgotada até 2026, e os prazos de entrega de GPUs agora se estendem de 36 a 52 semanas. Para o setor de DePIN de US$ 19 bilhões, esta crise de fornecimento não é um problema. É a oportunidade da década.

A Arquitetura Vera Rubin: Uma Nova Escala de Computação de IA

Nomeada em homenagem à astrônoma que provou a existência da matéria escura, a Vera Rubin representa o salto de plataforma mais ambicioso da NVIDIA desde a Blackwell. Os números são impressionantes:

  • 336 bilhões de transistores no nó N3P da TSMC — quase o dobro da densidade da Blackwell
  • 22 TB / s de largura de banda de memória via HBM4 de próxima geração da SK Hynix e Samsung
  • Configuração NVL72: 72 GPUs Rubin e 36 CPUs Vera conectadas através do fabric NVLink 6, entregando 3,6 exaFLOPS de inferência NVFP4 e 2,5 exaFLOPS de treinamento
  • Melhoria de 5x no throughput de inferência usando o novo formato de ponto flutuante de 4 bits (NVFP4) da NVIDIA

Huang estruturou a palestra em torno da "IA como um Bolo de Cinco Camadas" — energia, chips, infraestrutura, modelos e aplicações. A primeira camada recebeu uma ênfase incomum. Os centros de dados já consomem 2 – 3 % da eletricidade global, e as projeções sugerem que essa fatia pode triplicar até 2030 à medida que as cargas de trabalho de IA escalam. Huang destacou parcerias de energia renovável, incluindo gêmeos digitais para geração de energia a partir das ondas do mar, sinalizando que a oferta de computação não é mais apenas um problema de silício — é um problema de energia.

Espera-se que as amostras iniciais da Vera Rubin sejam enviadas para provedores de nuvem de primeira linha (tier-one) até o final de 2026, com produção total no início de 2027. A próxima arquitetura, codinome Feynman, já está no roteiro para 2027.

A Crise de Fornecimento que Ninguém Consegue Contornar com Engenharia

Enquanto as especificações da Vera Rubin ganharam as manchetes, a história subjacente do fornecimento conta um relato mais urgente. CEOs da TSMC, SK Hynix, Micron, Intel, NVIDIA e Samsung entregaram a mesma mensagem: a demanda por nós avançados, encapsulamento avançado e HBM está crescendo muito mais rápido do que a capacidade pode ser construída.

O gargalo é abrangente:

  • Memória HBM: A SK Hynix confirmou que "todo o nosso fornecimento de HBM para 2026 está esgotado". A Micron consegue atender apenas 55 – 60 % da demanda dos clientes principais. Samsung e SK Hynix aumentaram os preços da HBM3E em quase 20 % para os contratos de 2026.
  • Encapsulamento avançado: A capacidade CoWoS (Chip-on-Wafer-on-Substrate) da TSMC — crítica para montar pilhas de HBM em pacotes de GPU — permanece esgotada até 2026.
  • Alocação de GPU: Hyperscalers como Google, Microsoft, Amazon e Meta garantiram alocações plurianuais. Empresas menores enfrentam prazos de entrega de 36 – 52 semanas, efetivamente bloqueando seu acesso ao hardware de IA de ponta até 2027 ou depois.

O resultado é um mercado de computação de dois níveis. Um punhado de hyperscalers comanda a vasta maioria da capacidade de GPUs de próxima geração, enquanto todos os outros — startups, empresas de médio porte, instituições de pesquisa e iniciativas de IA soberanas — lutam pelo que resta.

O Momento das DePIN: Da Margem à Fronteira

É aqui que as redes de infraestrutura física descentralizada (DePIN) entram em cena. Embora nenhuma rede DePIN possa fabricar GPUs NVIDIA do nada, essas redes resolvem um problema diferente, mas igualmente crítico: mobilizar o enorme conjunto de capacidade de GPU subutilizada que já existe em todo o mundo.

O setor de computação DePIN cresceu de US5,2bilho~esparamaisdeUS 5,2 bilhões para mais de US 19 bilhões em capitalização de mercado em um único ano, e o crescimento é sustentado por métricas de uso real, não apenas especulação de tokens.

A Render Network ultrapassou US$ 2 bilhões em capitalização de mercado após expandir da renderização de GPU para cargas de trabalho de inferência de IA. Seu lançamento da Dispersed — uma sub-rede dedicada para cargas de trabalho de IA — posiciona a rede na interseção da computação criativa e de IA. A Render entrega renderização de GPU com economia de até 85 % em comparação com AWS ou Google Cloud.

A Aethir relatou quase US$ 40 milhões em receita trimestral e mais de 1,4 bilhão de horas de computação entregues em 2025, atendendo a mais de 150 clientes corporativos. Isso não é uma demonstração de rede de teste. É infraestrutura de produção gerando receita real.

A io.net e a Nosana alcançaram, cada uma, capitalizações de mercado superiores a US$ 400 milhões durante seus ciclos de crescimento, agregando capacidade ociosa de GPU de centros de dados, mineradores de cripto e hardware de consumo em pools de computação sob demanda.

O diferencial de preço é impressionante. Uma NVIDIA H100 em um marketplace DePIN pode custar 18 – 30x menos do que na AWS para cargas de trabalho comparáveis. Mesmo levando em conta a variação de confiabilidade que força algum superprovisionamento, as redes DePIN oferecem economia de custos de 50 – 75 % para cargas de trabalho em lote, tarefas de inferência e execuções de treinamento de curta duração.

O Cálculo Empresarial Muda

A adoção empresarial da computação DePIN está seguindo um padrão previsível, mas acelerado. Os maiores bloqueios têm sido a complexidade de orquestração, a depuração de falhas distribuídas, a falta de SLAs executáveis e fluxos de trabalho de aquisição nativos de cripto que os departamentos de TI corporativos têm dificuldade em integrar.

Mas 2026 está mudando o cálculo. Com o acesso centralizado a GPUs efetivamente racionado, as empresas estão adotando cada vez mais arquiteturas híbridas:

  • Modelos sensíveis e de baixa latência rodam localmente em dispositivos de borda (edge)
  • Grandes trabalhos de treinamento permanecem com hyperscalers que garantiram alocações de GPU
  • Inferência flexível de capacidade de surto é roteada para redes descentralizadas para arbitragem de custos

Este modelo híbrido transforma as DePIN de "experimento interessante" em uma "válvula de escape pragmática". Quando sua cota de GPU na AWS se esgota e a lista de espera da NVIDIA ultrapassa o prazo do seu produto, uma economia de custos de 50 % em uma rede descentralizada deixa de ser uma escolha filosófica sobre descentralização e se torna uma necessidade comercial.

A projeção do Fórum Econômico Mundial de um mercado de DePIN de US$ 3,5 trilhões até 2028 implica uma taxa de crescimento extraordinária. Mesmo que cresça pela metade desse ritmo, as DePIN representariam um dos setores de infraestrutura de crescimento mais rápido em qualquer setor.

Energia: O Gargalo Oculto Atrás do Gargalo dos Chips

A ênfase de Huang na energia na GTC 2026 não foi acidental. O apetite de IA por eletricidade está crescendo mais rápido do que a cadeia de suprimentos de semicondutores pode suportar. O consumo atual de eletricidade dos centros de dados está em 2 – 3 % da produção global, mas projeções sugerem que as cargas de trabalho de IA sozinhas podem elevar isso para 6 – 9 % até 2030.

Este gargalo de energia cria outra vantagem estrutural para as redes DePIN. Hyperscalers centralizados devem construir centros de dados massivos em locais com energia abundante e acessível — um processo que leva de 2 a 4 anos desde o planejamento até a operação. As redes DePIN, por outro lado, agregam hardware existente em locais existentes com conexões de energia existentes. A infraestrutura já está conectada.

Projetos na interseção de DePIN e energia, como usinas de energia virtuais descentralizadas e créditos de energia renovável tokenizados, estão se posicionando para atender a ambos os lados da equação: fornecendo capacidade de computação e coordenando os recursos de energia distribuída necessários para alimentá-la.

O Que Vem a Seguir

A era Vera Rubin definirá a infraestrutura de IA pelos próximos dois a três anos. Mas o hardware que mais importa não é apenas o que a NVIDIA enviará em 2027 — são os milhões de GPUs já implantadas em todo o mundo que ficam ociosas por partes significativas de cada dia.

Três dinâmicas moldarão os próximos 12 meses:

  1. A escassez de GPU se intensifica antes de suavizar. A produção da Vera Rubin não atingirá volume até o início de 2027. A atual geração Blackwell permanece com suprimento limitado. Redes DePIN que capturarem a demanda excedente durante essa lacuna têm uma janela para provar a confiabilidade empresarial em escala.

  2. Arquiteturas de computação híbrida tornam-se o padrão. A escolha binária entre "hyperscaler ou nada" está se dissolvendo. As empresas dividirão cada vez mais as cargas de trabalho entre infraestrutura centralizada, de borda e descentralizada com base nos requisitos de latência, custo e disponibilidade.

  3. A energia torna-se a restrição vinculativa. Mesmo quando o fornecimento de chips eventualmente se estabilizar, a disponibilidade de energia pode não se estabilizar. O modelo distribuído das DePIN — inerentemente espalhado por diversas fontes de energia e geografias — fornece resiliência estrutural contra restrições de energia localizadas que centros de dados centralizados não podem igualar.

A ironia da GTC 2026 da NVIDIA pode ser que sua revelação mais importante não foram as especificações de tirar o fôlego da Vera Rubin. Foi a confirmação de que a infraestrutura de IA centralizada, não importa quão poderosa, enfrenta limites físicos que nenhuma quantidade de engenharia pode resolver imediatamente. Para as redes de computação descentralizadas que agregam silenciosamente as GPUs ociosas do mundo, esses limites são uma porta aberta.


BlockEden.xyz fornece infraestrutura de RPC e API de alto desempenho para redes blockchain que alimentam a próxima geração de aplicações descentralizadas — incluindo os protocolos DePIN que constroem a camada de computação de amanhã. Explore nosso marketplace de APIs para começar a construir.