E se o próximo modelo de IA de fronteira não fosse treinado em um centro de dados de um bilhão de dólares de uma única corporação — mas sim por dezenas de colaboradores anônimos espalhados pelo mundo, coordenados por uma blockchain, comunicando-se através de conexões comuns de internet?

Foi exatamente isso que aconteceu. O Covenant-72B da Templar, um grande modelo de linguagem de 72,7 bilhões de parâmetros pré-treinado inteiramente na Subnet 3 da Bittensor, tornou-se o maior modelo de IA treinado colaborativamente na história cripto — e um dos primeiros a alcançar um desempenho competitivo em relação às referências centralizadas, permitindo ao mesmo tempo uma participação totalmente sem permissão (permissionless). Sem listas brancas. Sem guardiões corporativos. Apenas GPUs, gradientes comprimidos e um mecanismo de incentivo por tokens que manteve todos honestos.
O cofundador da Anthropic, Jack Clark, destacou a conquista em seu influente boletim informativo Import AI, observando que o processamento de treinamento descentralizado está crescendo 20 vezes por ano — quatro vezes mais rápido do que a taxa de crescimento anual de 5 vezes do treinamento centralizado de fronteira.
Aqui está o porquê disso ser importante muito além do ecossistema Bittensor.