Saltar para o conteúdo principal

Gensyn RL Swarm: O Primeiro Teste ao Vivo de Treinamento de IA Descentralizado e Verificável

· 14 min de leitura
Dora Noda
Software Engineer

Durante a maior parte de uma década, "treinar um modelo de fronteira" tem sido um sinônimo de "possuir um cluster de GPUs de classe hiperescalonadora". A Gensyn acaba de lançar uma testnet pública que aposta que a próxima geração de IA será treinada em um lugar muito diferente — em um enxame de nós conectados à internet coordenando-se por meio de um rollup Ethereum, com a ETHGlobal canalizando $ 50.000 em prêmios para desenvolvedores que puderem construir agentes sobre ela.

A questão não é mais se o treinamento de aprendizado de máquina descentralizado é tecnicamente possível. O RL Swarm está ativo, qualquer pessoa pode clonar o repositório e a arquitetura tem sido implementada silenciosamente desde novembro de 2025. A questão é se a economia, a verificação e a tração dos desenvolvedores são suficientes para arrancar as cargas de trabalho de treinamento dos data centers da AWS e Azure — e se a venda do token $ AI que terminou em dezembro de 2025 precificou corretamente esse futuro.

Por que o "RL Swarm" é o primeiro teste de produção de treinamento descentralizado

A maioria dos projetos de "IA descentralizada" dos quais você já ouviu falar — Bittensor, io.net, Akash, Render — resolvem problemas adjacentes. O Bittensor coordena o benchmarking competitivo de modelos em sub-redes. O io.net e o Akash são marketplaces de aluguel de GPU com faturamento nativo em cripto. O Render dispersa o trabalho de renderização de inferência. Nenhum deles, até agora, foi um sistema ativo onde nós não confiáveis treinam colaborativamente um modelo.

É isso que o RL Swarm da Gensyn faz. É a base da Fase 0 da Testnet da Gensyn: um ambiente descentralizado onde agentes de aprendizado por reforço cooperam pela internet pública, em vez de dentro de um único datacenter. Cada nó participante executa um modelo de linguagem local. Os nós participam de jogos de raciocínio de RL em várias etapas — respondendo, criticando e revisando soluções em conjunto com seus pares — e cada contribuição é registrada em uma identidade on-chain na Testnet da Gensyn.

A mudança arquitetônica é pequena na linguagem, mas grande na prática. O Bittensor incentiva os mineradores a competir pelo melhor resultado; a Gensyn incentiva os nós a cooperar no treinamento de um artefato compartilhado. Essa é a diferença entre um marketplace competitivo e uma verdadeira execução de treinamento distribuído, e é por isso que o RL Swarm é a primeira tentativa confiável de uma rede de treinamento de ML descentralizada de nível de produção, em vez de uma camada de aluguel de computação mais polida.

O lançamento de novembro de 2025 adicionou o CodeZero, um ambiente de codificação cooperativa construído sobre a mesma estrutura peer-to-peer. Lidos em conjunto, os dois lançamentos esboçam um roteiro: o RL Swarm prova que as primitivas de coordenação funcionam para o raciocínio, o CodeZero as estende para o uso de ferramentas estruturadas. No momento do encerramento do hackathon em 6 de maio de 2026, ambos os ambientes estarão ativos e acessíveis sem lista de espera.

A Arquitetura de Quatro Camadas: Execução, Verificação, Comunicação, Coordenação

Por baixo da testnet voltada para o usuário, a Gensyn é um rollup de Camada 2 do Ethereum customizado, construído sobre a OP Stack (Bedrock). O protocolo decompõe o problema do treinamento descentralizado em quatro camadas, cada uma resolvendo um motivo específico pelo qual "apenas alugar GPUs pela internet" falhou historicamente.

Execução. Modelos grandes não cabem em um único nó de consumo, então a Gensyn fragmenta os modelos em blocos de parâmetros distribuídos entre dispositivos, reduzindo a pressão de memória por nó. O problema mais difícil é o determinismo: operações de ponto flutuante em diferentes hardwares (uma Nvidia A100 versus uma H100) podem produzir resultados sutilmente diferentes, o que é fatal para um protocolo de verificação que precisa detectar trapaças. A biblioteca RepOps da Gensyn fixa a ordem das operações de ponto flutuante para que as mesmas entradas gerem saídas bit a bit idênticas em hardwares heterogêneos. O Reproducible Execution Environment (REE) envolve o RepOps em um compilador customizado baseado em MLIR que compila modelos para esses kernels reproduzíveis.

Verificação. Esta é a camada que impediu todas as tentativas anteriores de treinamento descentralizado. Se um nó afirma ter executado uma etapa de treinamento e envia um gradiente, como você sabe que ele fez o trabalho honestamente sem reexecutar toda a computação você mesmo? A resposta da Gensyn é o Protocolo de Verificação Verde — um sistema leve de resolução de disputas que realiza uma busca binária através do rastro de treinamento para isolar a etapa única onde o provador e o verificador discordam, e então recomputa apenas essa operação. Combinado com a prova de aprendizado probabilística, a rede obtém garantia criptográfica sem pagar o custo da reexecução total. Isso é conceitualmente semelhante ao modelo de verificação interativa do Truebit, portado de computação genérica para kernels específicos de ML.

Comunicação. Coordenar o treinamento em uma internet pública com largura de banda limitada exige descartar os manuais tradicionais. A primitiva padrão de datacenter — synchronous all-reduce — assume conexões InfiniBand robustas. A Gensyn substitui por três primitivas customizadas: NoLoCo substitui o all-reduce por um protocolo gossip de baixa comunicação, CheckFree fornece recuperação tolerante a falhas sem o checkpointing periódico caro, e SkipPipe introduz um algoritmo de compartilhamento de gradiente que minimiza os saltos de mensagens pelo enxame. Cada uma é uma contribuição de nível acadêmico; juntas, elas são o que transforma "um monte de laptops em internet doméstica" em um cluster de treinamento funcional.

Coordenação. O próprio L2 da Ethereum é o motor econômico. Ele identifica participantes, liquida recompensas tokenizadas e executa pagamentos em um rollup sem permissão. É também onde reside o token $ AI e onde cada contribuição para uma execução de treinamento é finalmente contabilizada.

A maneira mais clara de ler esta pilha é como uma inversão deliberada do modelo de GPU em nuvem. A AWS e a Azure gastam sua engenharia em throughput bruto e assumem a confiança por contrato. A Gensyn gasta sua engenharia em reprodutibilidade e resolução de disputas e não assume nada sobre o operador do outro lado da conexão.

Como a Gensyn se Diferencia da Bittensor, io.net e Render

Uma vez que a arquitetura está exposta, o cenário competitivo torna-se mais claro. Três projetos costumam ser mencionados juntamente com a Gensyn, mas eles resolvem problemas diferentes.

  • Bittensor (TAO, ~ $ 2,64 bilhões de market cap) é uma rede de benchmarking competitivo. As sub-redes definem uma tarefa, os mineradores produzem resultados, os validadores os classificam e o TAO flui para quem obtiver a pontuação mais alta. É excelente para incentivar a qualidade do modelo, mas não coordena uma única execução de treinamento compartilhada entre os nós. O treinamento baseado em enxame (swarm) da Gensyn é estruturalmente cooperativo; o modelo de sub-rede da Bittensor é estruturalmente adversarial.
  • io.net e Akash são marketplaces de GPU. Eles permitem que um operador com hardware ocioso venda tempo para quem estiver disposto a pagar. Crucialmente, nenhum dos protocolos verifica se a carga de trabalho do comprador foi executada corretamente — esse é um problema do comprador, normalmente resolvido ao executar sua própria stack de treinamento e confiar nos recibos. O par Verde + REE da Gensyn é exatamente a camada que falta a esses marketplaces.
  • Render Network dispersa o trabalho de renderização de inferência, principalmente para gráficos. O modelo econômico é mais próximo do io.net do que da Gensyn: alugue computação, obtenha o resultado, confie no operador. A sub-rede Dispersed da Render é um produto adjacente, não um concorrente.

A Gensyn lançou seu token na posição 368 com um market cap de aproximadamente $ 71,6 milhões — uma fração do valor da Bittensor. Essa diferença é a tese: se o treinamento cooperativo verificável for uma categoria real e não uma versão mais elaborada de aluguel de computação, o spread é um ponto de entrada. Se não for, o spread é o mercado precificando corretamente um projeto científico.

A Venda do Token $ AI: Um Leilão Inglês de 3 % na Faixa de $ 1M a $ 1B de FDV

A economia tornou-se real em 15 de dezembro de 2025, quando a Gensyn abriu a venda do seu token $ AI no Sonar. A estrutura foi excepcionalmente transparente: um leilão inglês de 300 milhões de tokens — 3 % do suprimento total fixo de 10 bilhões — limitado por um piso de $ 1 milhão de FDV e um teto de $ 1 bilhão de FDV. Os licitantes escolheram um preço máximo entre $ 0,0001 e $ 0,1 por token, com um lance mínimo de $ 100. Os lances foram liquidados em USDC ou USDT na mainnet do Ethereum; os tokens foram reivindicados na L2 da Gensyn Network.

A alocação total revela o tipo de projeto que a Gensyn deseja ser:

AlocaçãoPorcentagem
Tesouraria da Comunidade40,4 %
Investidores29,6 %
Equipe25,0 %
Venda Comunitária3,0 %
Outros2,0 %

Uma tesouraria comunitária de 40,4 % combinada com uma venda pública de 3 % está mais próxima de uma postura de governança no estilo Optimism do que de um lançamento típico de DePIN. A participação da equipe e dos investidores (54,6 % combinados, com a16z liderando a rodada privada mais recente no mesmo teto de $ 1 bilhão da venda pública) é alta, mas não extrema.

A escolha de design mais interessante da venda foi o incentivo da testnet: um pool de recompensa de bônus de 2 % foi distribuído como um multiplicador de tokens para participantes verificados da testnet, escalonado pelo seu nível de participação e pelo valor do seu lance. Este é um sinal suave, mas real, de que a Gensyn se preocupa mais com a distribuição para contribuidores reais do que com a maximização do preço da venda pública. Os compradores dos EUA aceitaram um lockup de 12 meses; os compradores fora dos EUA puderam optar por um lockup semelhante em troca de um multiplicador de bônus de 10 %.

O que este leilão precificou é uma aposta — de que a economia unitária do treinamento descentralizado é 60-80 % mais barata do que um cluster H100 comparável da AWS ou Azure (aproximadamente $ 3 / hora em taxas sob demanda), e que as GPUs de consumidores e prosumers ociosas são abundantes o suficiente para absorver uma demanda de treinamento significativa. Se essa aposta está correta, a resposta virá das cargas de trabalho reais que aparecerem na rede em 2026, não pelo preço do leilão.

ETHGlobal Open Agents: O Sinal de Produção

A notícia que transforma isso de um "projeto de infraestrutura interessante" para "algo que os construtores estão realmente entregando" é o ETHGlobal Open Agents, que ocorre de 24 de abril a 6 de maio de 2026. A Gensyn é patrocinadora com mais de $ 50.000 em prêmios, incluindo uma categoria de $ 5.000 para Melhor Aplicação da Agent eXchange Layer (AXL). Cada vencedor terá o caminho facilitado para o programa de subsídios (grants) da Gensyn Foundation.

Isso importa por dois motivos.

Primeiro, os hackathons são como novas infraestruturas são descobertas por desenvolvedores que ainda não sabem que precisam delas. O mesmo manual produziu os ecossistemas iniciais de Optimism, Base e Sui. Um pool de prêmios de $ 50 mil não é uma quantia que movimenta o mercado, mas é um gancho forte o suficiente para colocar algumas centenas de construtores do nível ETHGlobal em contato com o RL Swarm e as APIs AXL pela primeira vez. Um subconjunto não nulo continuará construindo após o término do hackathon.

Segundo, as categorias de prêmios mostram o que a Gensyn imagina ser a "killer app". O enquadramento é a Agent eXchange Layer — agentes autônomos descobrindo uns aos outros, trocando computação, treinando e fazendo o ajuste fino (fine-tuning) uns dos outros sob demanda. Se a Gensyn estivesse apostando que o futuro seria o treinamento de modelos de fundação monolíticos, os prêmios enfatizariam isso. Em vez disso, eles enfatizam a infraestrutura de agentes, o que se alinha com a narrativa mais ampla de 2026: agentes que podem pagar uns aos outros pelo trabalho precisam de um substrato para terceirizar o trabalho mais caro — treinamento e ajuste fino de modelos — para uma rede verificável.

As Ressalvas Honestas

Vale a pena dizer claramente o que o RL Swarm não é, em maio de 2026 .

Não há swarms oficiais operando na testnet ativa no momento . Os participantes podem se juntar a swarms de propriedade da comunidade , o que é exatamente o problema de bootstrap que sempre surge em redes sem permissão : o protocolo é aberto , mas as execuções de treinamento coordenadas de alto valor ainda não estão ocorrendo em escala . Até que um laboratório sério ou um coletivo de código aberto coloque uma execução de modelo real na rede , a testnet continuará sendo uma prova de conceito em vez de um sistema de produção .

O custo de verificação também ainda é uma questão em aberto . A resolução de disputas por busca binária da Verde é drasticamente mais barata do que executar novamente todo um trabalho de treinamento , mas não é gratuita , e seu overhead em escala de fronteira ( centenas de bilhões de parâmetros , semanas de treinamento ) ainda não foi demonstrado . A história do determinismo de hardware — RepOps produzindo saídas idênticas em nível de bit entre A100s e H100s — é elegante , mas adiciona um overhead de compilador que as pilhas centralizadas concorrentes não pagam .

E a tese de economia de custos ( 60 - 80 % mais barata que as instâncias spot H100 da AWS ) pressupõe que a cauda longa de GPUs ociosas de consumidores e prosumers seja densa o suficiente para substituir a capacidade dos hyperscalers . Isso é plausível para execuções de ajuste fino ( fine - tuning ) de 7B a 70B parâmetros . Ainda não é plausível para pré - treinamento genuinamente em escala de fronteira , e a Gensyn é honesta o suficiente para não alegar o contrário .

O Que Isso Significa para os Construtores de Infraestrutura

Para desenvolvedores que estão pensando em onde passar os próximos 12 meses , a estrutura mais útil é que a Gensyn abre uma nova categoria de área de superfície de API que não existia antes : acesso programático e verificável a uma rede de treinamento . Até agora , as escolhas para " fazer um modelo realizar algo específico " têm sido ( a ) chamar uma API hospedada como OpenAI ou Anthropic , ou ( b ) alugar GPUs e executar o treinamento você mesmo . A Gensyn propõe uma terceira opção — enviar um trabalho de treinamento para um swarm verificável e obter garantias criptográficas de volta — que se mapeia perfeitamente na economia de agentes que a ETHGlobal está incentivando .

Essa terceira opção , se funcionar , torna - se uma primitiva . Agentes que precisam ajustar ( fine - tune ) um modelo especialista pequeno para uma tarefa de nicho não vão querer alugar e operar GPUs . Eles vão querer emitir uma intenção de treinamento , pagar em stablecoins ou $ AI e consumir os pesos resultantes . A aposta da Gensyn é que a camada de protocolo que torna isso possível — o rollup L2 , o sistema de verificação , as primitivas de coordenação de swarm — acumule valor significativo à medida que esse padrão prolifera .

BlockEden.xyz impulsiona a infraestrutura de indexação , RPC e análise na qual os construtores da Web3 confiam em mais de 25 + cadeias . À medida que as redes de treinamento de IA verificáveis como a Gensyn amadurecem , a camada de dados e coordenação sob elas será ainda mais importante . Explore nosso marketplace de APIs para construir em uma infraestrutura projetada para a era agêntica e nativa de IA da Web3 .

Fontes