Saltar para o conteúdo principal

O Momento DeepSeek de 72 Bilhões do Bittensor: Quando a IA Descentralizada Finalmente Provou que os Céticos Estavam Errados

· 10 min de leitura
Dora Noda
Software Engineer

Em 20 de janeiro de 2026, a DeepSeek lançou silenciosamente um modelo que sacudiu toda a indústria de IA: um sistema de raciocínio de código aberto que igualava o melhor da OpenAI a aproximadamente 1/50 do custo de treinamento. A Nvidia perdeu 600 bilhões de dólares em capitalização de mercado em um único dia. A lição subjacente não era apenas sobre o progresso da IA da China — era que o pressuposto de que "apenas laboratórios centralizados massivos podem construir IA de fronteira" havia se partido.

Seis semanas depois, em 10 de março de 2026, uma rede de 70 colaboradores independentes — usando GPUs comuns e conexões regulares de internet doméstica — completou o treinamento de um modelo de linguagem de 72 bilhões de parâmetros sem um único data center. A subrede Templar do Bittensor teve seu próprio momento DeepSeek, e as implicações para a IA descentralizada são igualmente profundas.

O que Acabou de Acontecer no Ecossistema Bittensor

Covenant-72B não é apenas um marco técnico. É uma prova de conceito de que o treinamento descentralizado de IA em escala de fronteira é agora economicamente e tecnicamente viável.

O modelo foi treinado pela Subrede 3 do Bittensor, conhecida como Templar, usando um algoritmo revolucionário chamado SparseLoCo. Desenvolvido em colaboração com a Covenant AI e o Mila Lab, o SparseLoCo combina rarificação, quantização de 2 bits e retroalimentação de erros para comprimir a comunicação de gradientes entre nós em mais de 146 vezes. Essa única inovação resolveu o que havia sido o gargalo fundamental do treinamento descentralizado: a enorme largura de banda necessária para sincronizar atualizações de modelos em milhares de nós independentes.

Os resultados falam por si mesmos. O Covenant-72B marcou 67,1 no benchmark MMLU — colocando-o na mesma faixa de desempenho que o Llama 2 70B da Meta, um modelo construído por um dos laboratórios de IA mais bem financiados do planeta, usando centenas de milhões de dólares em infraestrutura centralizada. A versão do Bittensor foi treinada por mais de 70 colaboradores usando internet doméstica.

Jensen Huang, CEO da Nvidia, chamou isso de "uma versão moderna do folding@home" no podcast All-In.

Por que Isso É o "Momento DeepSeek" da IA Descentralizada

O paralelo com a DeepSeek vai mais fundo do que simplesmente "IA barata". Em ambos os casos, a história é sobre a economia da eficiência quebrando um piso de custo anteriormente assumido.

A visão da DeepSeek foi algorítmica: ao combinar arquiteturas de mistura de especialistas com otimização agressiva de inferência, eles mostraram que você não precisa de 100.000 H100 para igualar o desempenho de fronteira. A visão do Bittensor é infraestrutural: ao comprimir a comunicação de gradientes em 97% sem perda de precisão, eles mostraram que o treinamento coordenado não requer a largura de banda de um único data center.

Ambos os avanços atacam o mesmo pressuposto — que a IA de fronteira requer uma enorme concentração de capital centralizado.

A diferença está no que acontece a seguir. Os benefícios de eficiência da DeepSeek fluem para quem executa o modelo. Os benefícios de eficiência do Bittensor fluem para a rede — para os mais de 70 operadores de nós que coletivamente treinaram o Covenant-72B e para os detentores de TAO que são proprietários do protocolo que executam.

Esta é a inovação econômica central do modelo de subrede do Bittensor: transformar a qualidade do modelo de IA em um incentivo financeiro distribuído, não apenas em uma métrica de produto.

A Economia: Halving Encontra Avanço

O timing importa. O primeiro halving de TAO do Bittensor ocorreu em 14 de dezembro de 2025, cortando as emissões diárias de tokens de 7.200 para 3.600 TAO. Isso não foi apenas um evento de oferta — mudou fundamentalmente a economia da operação de subredes.

Antes do halving, as subredes podiam atrair mineradores oferecendo emissões generosas mesmo para resultados medíocres. O halving forçou uma seleção darwiniana: com menos tokens para distribuir, os validadores tornaram-se muito mais exigentes, e as subredes que não conseguiam demonstrar métricas de desempenho reais viram a atenção dos mineradores (e a taxa de hash) migrar para melhores oportunidades.

A Templar/SN3 prosperou neste ambiente precisamente porque construiu mecanismos rigorosos anti-trapaça — protocolos de apresentação de gradiente "commit-reveal" e carimbos de tempo precisos via armazenamento em bucket R2 — que garantiam a qualidade de cada atualização de gradiente enviada pelos mineradores. Quando o halving comprimiu as emissões, as subredes de alta qualidade receberam relativamente mais; as de baixa qualidade foram espremidas.

O lançamento do Covenant-72B em março de 2026 validou este modelo. O TAO disparou aproximadamente 90%, subindo de 180 dólares para acima de 332 dólares à medida que a notícia se espalhou de que a maior execução de pré-treinamento de LLM descentralizado da história havia produzido um modelo genuinamente competitivo. A avaliação da subrede do Templar cruzou os 550 milhões de dólares. A Grayscale aumentou a ponderação do TAO em seu fundo de IA para 43,06% e acelerou seu impulso para converter seu Bittensor Trust em um ETF à vista.

Os sinais institucionais se alinharam: a Polychain Capital comprometeu 200 milhões de dólares ao ecossistema, e entidades importantes haviam apostado quase 19% do suprimento total de TAO (691 milhões de dólares), criando dinâmicas de escassez genuínas.

A Arquitetura de Rede por Trás do Marco

Para entender por que o Covenant-72B importa, você precisa entender a arquitetura de subredes do Bittensor.

O Bittensor opera como uma blockchain de Camada 1 (construída no Polkadot Substrate) onde a inteligência é a mercadoria que está sendo produzida e precificada. A rede executa 128 subredes ativas — mercados especializados, cada um focado em uma tarefa de IA diferente. A Subrede 64 (Chutes) lida com inferência descentralizada de modelos. A Subrede 3 (Templar) foca em treinamento colaborativo de modelos. Outras subredes abordam texto para imagem, simulação de dobramento de proteínas, armazenamento e previsão financeira.

Cada subrede executa seu próprio mecanismo de incentivo. Os mineradores realizam o trabalho (executam modelos, produzem saídas, enviam gradientes). Os validadores pontuam esse trabalho em relação a métricas objetivas. O Yuma Consensus — o algoritmo central do Bittensor — converte essas pontuações em emissões de TAO. Quanto melhor o seu trabalho, mais TAO você ganha.

O que torna a execução de treinamento de 72B significativa é que ela exigiu sincronizar atualizações de gradiente em mais de 70 nós independentes, cada um rodando em hardware comum, conectado pela internet pública. Os sistemas de treinamento distribuído anteriores assumiam que você poderia rotear petabytes de dados de gradiente através de interconexões privadas de data center. O SparseLoCo mostrou que você pode alcançar o mesmo resultado com 146 vezes menos dados.

A rede agora planeja dobrar a capacidade de subredes de 128 para 256 até o final de 2026, incorporando novas melhorias de consenso (às vezes referenciadas como versão 1.4) que dão aos validadores melhores ferramentas para verificar o trabalho dos mineradores usando métricas como GraVal, tornando a avaliação de qualidade mais objetiva e difícil de manipular.

Os Desafios que Não Podem Ser Ignorados

Nenhuma avaliação honesta do momento do Bittensor pode pular as questões difíceis.

O gap de subsídio para receita é real. A firma de pesquisa Pine Analytics descobriu que a maior subrede do Bittensor, Chutes (SN64), recebe aproximadamente 52 milhões de dólares anualmente em emissões de TAO, mas gera apenas 1,3 a 2,4 milhões de dólares em receita externa real — uma relação subsídio-receita de 22:1 a 40:1. Sem as emissões de TAO sustentando os preços, a inferência do Chutes custaria 1,6 a 3,5 vezes mais do que alternativas centralizadas como DeepSeek e Together AI. A rede está atualmente funcionando com inflação de tokens, não com ajuste produto-mercado.

Os conflitos de governança estão escalando. Em um desenvolvimento perturbador em 10 de abril de 2026 — a mesma semana em que o TAO cruzou os 340 dólares — a Covenant AI saiu publicamente da rede Bittensor. A empresa acusou o cofundador Jacob Steeves de exercer controle centralizado sobre as operações de subredes e se envolver no que chamou de "teatro de descentralização". O anúncio desencadeou uma correção de preço de mais de 20% e mais de 10 milhões de dólares em liquidações longas, um lembrete de que o risco de governança permanece a maior questão não resolvida para qualquer projeto de infraestrutura descentralizada.

A comparação com o Llama 2, não com o Llama 4. O Covenant-72B igualar o modelo de 2023 da Meta é impressionante para um sistema descentralizado. É uma questão diferente se o treinamento descentralizado pode acompanhar o ritmo dos modelos treinados em clusters de 100.000 H100 na fronteira atual. A vantagem de eficiência do SparseLoCo precisa se acumular rapidamente para permanecer relevante.

O que Isso Significa para a IA Descentralizada em 2026

A objeção "a IA descentralizada sempre será mais cara que a centralizada" tem sido uma das maiores barreiras para a adoção institucional de redes como o Bittensor. O Covenant-72B ataca diretamente essa objeção na camada de treinamento.

O modelo econômico que emerge se o Bittensor funcionar em escala é genuinamente novo: modelos de IA treinados e servidos por milhares de operadores independentes, coordenados por incentivos de tokens, sem que nenhuma entidade única controle a pilha. A subrede Talisman AI já estava atendendo a mais de 100.000 clientes pagantes e gerando 43 milhões de dólares em receita de clientes de IA no primeiro trimestre de 2026 — prova de que pelo menos algumas subredes estão cruzando de subsidiadas por tokens para financiadas externamente.

Para o ecossistema Web3 mais amplo, o momento do Bittensor representa algo importante: a tese de que blockchains podem coordenar trabalho computacional complexo — não apenas transações financeiras — está passando do whitepaper para a produção.

As variáveis-chave a observar nos próximos 12 meses:

  • Se o filing de ETF à vista da Grayscale se converte em um produto aprovado
  • Se as relações receita-emissões das subredes melhoram materialmente à medida que a demanda externa cresce
  • Se a disputa de governança com a Covenant AI é resolvida ou acelera um fork da rede
  • Se a vantagem de compressão do SparseLoCo pode ser mantida à medida que os laboratórios centralizados também adotam algoritmos de treinamento mais eficientes

O paralelo com a DeepSeek se sustenta de uma maneira crucial: o avanço de eficiência cria pressão irreversível. Uma vez que você comprovou que pode treinar um modelo em escala de fronteira sem um data center, a questão deixa de ser "a IA descentralizada pode funcionar?" e se torna "qual é o teto?"


BlockEden.xyz fornece infraestrutura RPC e API de nível empresarial para Sui, Aptos, Ethereum e mais de 20 outras blockchains. Se você está construindo DApps com IA ou precisa de dados on-chain confiáveis para fluxos de trabalho de agentes de IA, explore nosso mercado de API para conectar seus modelos à infraestrutura blockchain de produção.