Saltar para o conteúdo principal

79 posts marcados com "IA"

Aplicações de inteligência artificial e aprendizado de máquina

Ver todas as tags

O Avanço de $ 19,2 Bilhões da DePIN : Do Hype da IoT à Realidade Corporativa

· 14 min de leitura
Dora Noda
Software Engineer

Durante anos, a promessa de infraestrutura física descentralizada parecia uma solução à procura de um problema. Entusiastas de blockchain falavam sobre a tokenização de tudo, desde hotspots WiFi até painéis solares, enquanto as empresas discretamente a descartavam como um hype cripto divorciado da realidade operacional. Esse descarte acabou de se tornar caro.

O setor de DePIN (Decentralized Physical Infrastructure Network) explodiu de US5,2bilho~esparaUS 5,2 bilhões para US 19,2 bilhões em capitalização de mercado em apenas um ano — um surto de 270 % que não tem nada a ver com mania especulativa e tudo a ver com empresas descobrindo que podem reduzir os custos de infraestrutura em 50 - 85 % enquanto mantêm a qualidade do serviço. Com 321 projetos ativos gerando agora US150milho~esemreceitamensaleoFoˊrumEcono^micoMundialprojetandoqueomercadoatingiraˊUS 150 milhões em receita mensal e o Fórum Econômico Mundial projetando que o mercado atingirá US 3,5 trilhões até 2028, a DePIN atravessou o abismo de tecnologia experimental para infraestrutura crítica para a missão.

Os Números que Mudaram a Narrativa

O CoinGecko rastreia quase 250 projetos de DePIN até setembro de 2025, um aumento em relação a uma fração desse número há apenas 24 meses. Mas a história real não é a contagem de projetos — é a receita. O setor gerou uma receita on-chain estimada em US$ 72 milhões em 2025, com projetos de primeira linha registrando agora receitas recorrentes anuais de oito dígitos.

Somente em janeiro de 2026, os projetos de DePIN geraram coletivamente US150milho~esemreceita.AAethir,provedoradeinfraestruturafocadaemGPU,lideroucomUS 150 milhões em receita. A Aethir, provedora de infraestrutura focada em GPU, liderou com US 55 milhões. A Render Network seguiu com US38milho~esdeservic\cosdescentralizadosderenderizac\ca~odeGPU.AHeliumcontribuiucomUS 38 milhões de serviços descentralizados de renderização de GPU. A Helium contribuiu com US 24 milhões de suas operações de rede sem fio. Essas não são métricas de vaidade de farmers de airdrop — elas representam empresas reais pagando por computação, conectividade e armazenamento.

A composição do mercado conta uma história ainda mais reveladora: 48 % dos projetos de DePIN por capitalização de mercado agora se concentram em infraestrutura de IA. À medida que as cargas de trabalho de IA explodem e os hyperscalers lutam para atender à demanda, as redes de computação descentralizadas estão se tornando a válvula de escape para um gargalo da indústria que os data centers tradicionais não conseguem resolver rápido o suficiente.

A Dominância da Solana em DePIN: Por que a Velocidade Importa

Se o Ethereum é o lar das DeFi e o Bitcoin é o ouro digital, a Solana tornou-se silenciosamente a blockchain de escolha para a coordenação de infraestrutura física. Com 63 projetos de DePIN em sua rede — incluindo Helium, Grass e Hivemapper — os baixos custos de transação e a alta vazão da Solana a tornam a única Layer 1 capaz de lidar com as cargas de trabalho em tempo real e intensivas em dados que a infraestrutura física exige.

A transformação da Helium é particularmente instrutiva. Após migrar para a Solana em abril de 2023, a rede sem fio escalou para mais de 115.000 hotspots atendendo a 1,9 milhão de usuários diários. O número de assinantes da Helium Mobile saltou de 115.000 em setembro de 2024 para quase 450.000 em setembro de 2025 — um aumento de 300 % ano a ano. Somente no segundo trimestre de 2025, a rede transferiu 2.721 terabytes de dados para parceiros de operadoras, um aumento de 138,5 % em relação ao trimestre anterior.

A economia é convincente: a Helium oferece conectividade móvel a uma fração dos custos das operadoras tradicionais ao incentivar indivíduos a implantar e manter hotspots. Os assinantes têm chamadas, mensagens e dados ilimitados por US$ 20 / mês. Os operadores de hotspots ganham tokens com base na cobertura da rede e transferência de dados. As operadoras tradicionais não conseguem competir com essa estrutura de custos.

Render Network demonstra o potencial da DePIN na IA e nas indústrias criativas. Com uma capitalização de mercado de US$ 770 milhões, a Render processou mais de 1,49 milhão de quadros de renderização apenas em julho de 2025, queimando 207.900 USDC em taxas. Artistas e pesquisadores de IA aproveitam a capacidade ociosa de GPUs de equipamentos de jogos e fazendas de mineração, pagando centavos por dólar em comparação com os serviços centralizados de renderização em nuvem.

Grass, a DePIN que mais cresce na Solana com mais de 3 milhões de usuários, monetiza a largura de banda não utilizada para conjuntos de dados de treinamento de IA. Os usuários contribuem com sua conectividade de internet ociosa, ganhando tokens enquanto empresas coletam dados da web para grandes modelos de linguagem. É uma arbitragem de infraestrutura em escala — pegando recursos abundantes e subutilizados (largura de banda residencial) e empacotando-os para empresas dispostas a pagar taxas premium por coleta de dados distribuídos.

Adoção Empresarial: A Redução de Custos de 50 - 85 % que Nenhum CFO Pode Ignorar

A mudança de programas piloto para implementações de produção acelerou bruscamente em 2025. Operadoras de telecomunicações, provedores de nuvem e empresas de energia não estão apenas experimentando com DePIN — eles estão integrando-a em suas operações principais.

A infraestrutura sem fio agora possui mais de 5 milhões de roteadores descentralizados registrados em todo o mundo. Uma empresa de telecomunicações Fortune 500 registrou um aumento de 23 % em clientes de conectividade alimentados por DePIN, provando que as empresas adotarão modelos descentralizados se a economia e a confiabilidade estiverem alinhadas. A parceria da T-Mobile com a Helium para descarregar a cobertura de rede em áreas rurais demonstra como os players estabelecidos estão usando a DePIN para resolver problemas de última milha que as despesas de capital tradicionais não conseguem justificar.

O setor de telecomunicações enfrenta uma pressão existencial: as despesas de capital para construção de torres e licenças de espectro estão esmagando as margens, enquanto os clientes exigem cobertura universal. O mercado de blockchain em telecomunicações está projetado para crescer de US1,07bilha~oem2024paraUS 1,07 bilhão em 2024 para US 7,25 bilhões até 2030, à medida que as operadoras percebem que incentivar indivíduos a implantar infraestrutura é mais barato do que fazer isso por conta própria.

A computação em nuvem apresenta uma oportunidade ainda maior. Provedores de computação DePIN apoiados pela Nvidia, como o brev.dev e outros, estão atendendo cargas de trabalho de IA empresarial que custariam 2 - 3 vezes mais na AWS, Google Cloud ou Azure. Como se espera que as cargas de trabalho de inferência representem dois terços de toda a computação de IA até 2026 (acima de um terço em 2023), a demanda por capacidade de GPU econômica só se intensificará. Redes descentralizadas podem obter GPUs de equipamentos de jogos, operações de mineração e data centers subutilizados — capacidade que as nuvens centralizadas não conseguem acessar.

As redes de energia são, talvez, o caso de uso mais transformador da DePIN. As redes de energia centralizadas lutam para equilibrar a oferta e a demanda em nível local, levando a ineficiências e interrupções. Redes de energia descentralizadas usam coordenação em blockchain para rastrear a produção de painéis solares, baterias e medidores de propriedade individual. Os participantes geram energia, compartilham a capacidade excedente com os vizinhos e ganham tokens com base na contribuição. O resultado: melhor resiliência da rede, redução do desperdício de energia e incentivos financeiros para a adoção de energias renováveis.

Infraestrutura de IA: Os 48 % que Estão Redefinindo a Stack

Quase metade do market cap de DePIN agora se concentra em infraestrutura de IA — uma convergência que está remodelando a forma como as cargas de trabalho intensivas em computação são processadas. Os gastos com armazenamento de infraestrutura de IA reportaram um crescimento de 20,5 % ano a ano no segundo trimestre de 2025, com 48 % dos gastos vindo de implementações em nuvem. No entanto, as nuvens centralizadas estão atingindo limites de capacidade exatamente quando a demanda explode.

O mercado global de GPUs para data centers foi de US14,48bilho~esem2024eprojetasequealcanceUS 14,48 bilhões em 2024 e projeta-se que alcance US 155,2 bilhões até 2032. Contudo, a Nvidia mal consegue acompanhar a demanda, resultando em prazos de entrega de 6 a 12 meses para os chips H100 e H200. As redes DePIN contornam esse gargalo agregando GPUs de consumidores e empresas que permanecem ociosas de 80 a 90 % do tempo.

As cargas de trabalho de inferência — a execução de modelos de IA em produção após a conclusão do treinamento — são o segmento de crescimento mais rápido. Enquanto a maior parte do investimento de 2025 focou em chips de treinamento, o mercado de chips otimizados para inferência deve exceder US$ 50 bilhões em 2026, à medida que as empresas mudam do desenvolvimento de modelos para a implementação em escala. As redes de computação DePIN se destacam na inferência porque as cargas de trabalho são altamente paralelizáveis e tolerantes à latência, tornando-as perfeitas para infraestrutura distribuída.

Projetos como Render, Akash e Aethir estão capturando essa demanda ao oferecer acesso fracionado a GPUs, preços spot e distribuição geográfica que as nuvens centralizadas não conseguem igualar. Uma startup de IA pode ativar 100 GPUs para uma tarefa em lote de fim de semana e pagar apenas pelo uso, sem compromissos mínimos ou contratos corporativos. Para os hyperscalers, isso é atrito. Para a DePIN, essa é toda a proposta de valor.

As Categorias que Impulsionam o Crescimento

A DePIN divide-se em duas categorias fundamentais: redes de recursos físicos (hardware como torres sem fio, redes de energia e sensores) e redes de recursos digitais (computação, largura de banda e armazenamento). Ambas estão vivenciando um crescimento explosivo, mas os recursos digitais estão escalando mais rápido devido às menores barreiras de implementação.

Redes de armazenamento como Filecoin permitem que os usuários aluguem espaço não utilizado em discos rígidos, criando alternativas distribuídas ao AWS S3 e Google Cloud Storage. A proposta de valor: custos mais baixos, redundância geográfica e resistência a pontos únicos de falha. Empresas estão testando o Filecoin para dados de arquivamento e backups, casos de uso onde as taxas de saída (egress fees) de nuvens centralizadas podem somar milhões anualmente.

Recursos de computação abrangem renderização de GPU (Render), computação de propósito geral (Akash) e inferência de IA (Aethir). O Akash opera um marketplace aberto para implementações de Kubernetes, permitindo que desenvolvedores ativem containers em servidores subutilizados em todo o mundo. A economia de custos varia de 30 % a 85 % em comparação com a AWS, dependendo do tipo de carga de trabalho e dos requisitos de disponibilidade.

Redes sem fio como Helium e World Mobile Token estão enfrentando a lacuna de conectividade em mercados subatendidos. A World Mobile implantou redes móveis descentralizadas em Zanzibar, transmitindo um jogo do Fulham FC enquanto fornecia internet para 500 pessoas em um raio de 600 metros. Estes não são provas de conceito — são redes de produção atendendo usuários reais em regiões onde os ISPs tradicionais se recusam a operar devido à economia desfavorável.

Redes de energia usam blockchain para coordenar a geração e o consumo distribuídos. Proprietários de painéis solares vendem o excesso de eletricidade aos vizinhos. Proprietários de veículos elétricos (EV) fornecem estabilização da rede ao cronometrar o carregamento para horários de menor demanda, ganhando tokens por sua flexibilidade. As concessionárias ganham visibilidade em tempo real sobre a oferta e demanda local sem implantar medidores inteligentes e sistemas de controle caros. É uma coordenação de infraestrutura que não poderia existir sem a camada de liquidação trustless da blockchain.

De US19,2biparaUS 19,2 bi para US 3,5 tri: O que é Necessário para Chegar Lá

A projeção de US3,5trilho~esdoFoˊrumEcono^micoMundialpara2028na~oeˊapenasespeculac\ca~ootimistaeˊumreflexodoqua~omassivoeˊomercadoenderec\caˊvelumavezqueaDePINseproveemescala.Osgastosglobaiscominfraestruturadetelecomunicac\co~esexcedemUS 3,5 trilhões do Fórum Econômico Mundial para 2028 não é apenas especulação otimista — é um reflexo do quão massivo é o mercado endereçável uma vez que a DePIN se prove em escala. Os gastos globais com infraestrutura de telecomunicações excedem US 1,5 trilhão anualmente. A computação em nuvem é um mercado de mais de US$ 600 bilhões. A infraestrutura de energia representa trilhões em despesas de capital.

A DePIN não precisa substituir essas indústrias — ela só precisa capturar 10 a 20 % de market share oferecendo uma economia superior. A matemática funciona porque a DePIN inverte o modelo tradicional de infraestrutura: em vez de empresas arrecadarem bilhões para construir redes e depois recuperar os custos ao longo de décadas, a DePIN incentiva indivíduos a implantarem a infraestrutura antecipadamente, ganhando tokens à medida que contribuem com capacidade. É uma despesa de capital via crowdsourcing, e escala muito mais rápido do que as construções centralizadas.

Mas chegar a US$ 3,5 trilhões requer resolver três desafios:

Clareza regulatória. Telecomunicações e energia são indústrias fortemente regulamentadas. Os projetos de DePIN devem navegar pelo licenciamento de espectro (sem fio), acordos de interconexão (energia) e requisitos de residência de dados (computação e armazenamento). Progressos estão sendo feitos — governos na África e na América Latina estão adotando DePIN para fechar lacunas de conectividade — mas mercados maduros como os EUA e a UE avançam mais lentamente.

Confiança empresarial. Empresas da Fortune 500 não migrarão cargas de trabalho críticas para DePIN até que a confiabilidade iguale ou exceda as alternativas centralizadas. Isso significa garantias de tempo de atividade, SLAs, seguro contra falhas e suporte 24 / 7 — requisitos básicos no setor de TI corporativa que muitos projetos de DePIN ainda carecem. Os vencedores serão os projetos que priorizarem a maturidade operacional em vez do preço do token.

Economia de tokens. Early DePIN projects sofreram com uma tokenomics insustentável: recompensas inflacionárias que inundavam os mercados, incentivos desalinhados que recompensavam ataques Sybil em vez de trabalho útil, e ações de preço movidas por especulação divorciadas dos fundamentos da rede. A próxima geração de projetos de DePIN está aprendendo com esses erros, implementando mecanismos de queima vinculados à receita, cronogramas de vesting para contribuidores e uma governança que prioriza a sustentabilidade a longo prazo.

Por que os Desenvolvedores da BlockEden.xyz Devem se Importar

Se você está construindo em blockchain, a DePIN representa um dos ajustes de produto-mercado (product-market fits) mais claros na história do setor cripto. Ao contrário da incerteza regulatória das DeFi ou dos ciclos especulativos dos NFTs, a DePIN resolve problemas reais com ROI mensurável. As empresas precisam de infraestrutura mais barata. Os indivíduos possuem ativos subutilizados. A blockchain fornece coordenação e liquidação trustless. As peças se encaixam.

Para os desenvolvedores, a oportunidade é construir o middleware que torna a DePIN pronta para o mercado corporativo: ferramentas de monitoramento e observabilidade, smart contracts para execução de SLAs, sistemas de reputação para operadores de nós, protocolos de seguro para garantias de uptime e trilhos de pagamento que liquidam instantaneamente através de fronteiras geográficas.

A infraestrutura que você constrói hoje pode impulsionar a internet descentralizada de 2028 — uma onde a Helium gerencia a conectividade móvel, a Render processa a inferência de IA, a Filecoin armazena os arquivos do mundo e a Akash executa os contêineres que orquestram tudo isso. Isso não é futurismo cripto — é o roteiro que empresas da Fortune 500 já estão pilotando.

Fontes

O Gambito de $ 7,2 M da Ambient: Como o Proof of Logits Poderia Substituir a Mineração Baseada em Hash por Inferência de IA

· 21 min de leitura
Dora Noda
Software Engineer

E se o mesmo trabalho computacional que protege uma blockchain também treinasse a próxima geração de modelos de IA ? Isso não é uma visão distante — é a tese central por trás da Ambient , um fork da Solana que acaba de levantar $ 7,2 milhões da a16z CSX para construir a primeira blockchain proof - of - work alimentada por IA do mundo.

A prova de trabalho ( proof - of - work ) tradicional consome eletricidade resolvendo enigmas criptográficos arbitrários. Os mineradores de Bitcoin competem para encontrar hashes com zeros iniciais suficientes — um trabalho computacional sem valor além da segurança da rede. A Ambient inverte totalmente esse cenário. Seu mecanismo de consenso Proof of Logits ( PoL ) substitui a moagem de hashes por inferência de IA , ajuste fino ( fine - tuning ) e treinamento de modelos. Os mineradores não resolvem quebra - cabeças ; eles geram saídas de IA verificáveis. Os validadores não recomputam cargas de trabalho inteiras ; eles verificam impressões digitais criptográficas chamadas logits.

O resultado ? Uma blockchain onde a segurança e o avanço da IA estão economicamente alinhados , onde uma sobrecarga de verificação de 0,1 % torna a verificação de consenso quase gratuita , e onde os custos de treinamento caem 10 vezes em comparação com as alternativas centralizadas. Se for bem - sucedida , a Ambient poderá responder a uma das críticas mais antigas das criptomoedas — a de que a prova de trabalho desperdiça recursos — transformando a mineração em trabalho produtivo de IA.

O Avanço da Proof of Logits : IA Verificável Sem Recomputação

Entender a PoL exige entender o que os logits realmente são. Quando grandes modelos de linguagem geram texto , eles não produzem palavras diretamente. Em vez disso , a cada passo , eles produzem uma distribuição de probabilidade sobre todo o vocabulário — pontuações numéricas que representam níveis de confiança para cada próximo token possível.

Essas pontuações são chamadas de logits. Para um modelo com um vocabulário de 50.000 tokens , gerar uma única palavra significa computar 50.000 logits. Esses números servem como uma impressão digital computacional única. Apenas um modelo específico , com pesos específicos , executando uma entrada específica , produz uma distribuição de logit específica.

A inovação da Ambient é usar logits como proof - of - work : os mineradores realizam inferência de IA ( gerando respostas para prompts ) , e os validadores verificam esse trabalho checando as impressões digitais dos logits em vez de refazer toda a computação.

Veja como funciona o processo de verificação :

Minerador gera a saída : Um minerador recebe um prompt ( por exemplo , "Resuma os princípios do consenso em blockchain" ) e usa um modelo de 600 bilhões de parâmetros para gerar uma resposta de 4.000 tokens. Isso produz 4.000 × 50.000 = 200 milhões de logits.

Validador realiza verificação por amostragem : Em vez de regenerar todos os 4.000 tokens , o validador amostra aleatoriamente uma posição — digamos , o token 2.847. O validador executa uma única etapa de inferência nessa posição e compara os logits relatados pelo minerador com a distribuição esperada.

Compromisso criptográfico : Se os logits coincidirem ( dentro de um limite aceitável que considera a precisão de ponto flutuante ) , o trabalho do minerador é verificado. Caso contrário , o bloco é rejeitado e o minerador perde as recompensas.

Isso reduz a sobrecarga de verificação para aproximadamente 0,1 % da computação original. Um validador verificando 200 milhões de logits só precisa verificar 50.000 logits ( uma posição de token ) , reduzindo o custo em 99,9 %. Compare isso com a PoW tradicional , onde a validação significa reexecutar toda a função hash — ou a abordagem do Bitcoin , onde verificar um único hash SHA - 256 é trivial porque o próprio enigma é arbitrário.

O sistema da Ambient é exponencialmente mais barato do que esquemas ingênuos de " prova de trabalho útil " que exigem recomputação total. É mais próximo da eficiência do Bitcoin ( validação barata ) , mas entrega utilidade real ( inferência de IA em vez de hashes sem sentido ).

A Redução de 10x nos Custos de Treinamento : IA Descentralizada Sem Monopólios de Datacenters

O treinamento centralizado de IA é caro — proibitivamente caro para a maioria das organizações. Treinar modelos na escala do GPT - 4 custa dezenas de milhões de dólares , requer milhares de GPUs empresariais e concentra o poder nas mãos de algumas gigantes da tecnologia. A arquitetura da Ambient visa democratizar isso , distribuindo o treinamento em uma rede de mineradores independentes.

A redução de 10x nos custos vem de duas inovações técnicas :

Fragmentação ( sharding ) ao estilo PETALS : A Ambient adapta técnicas do PETALS , um sistema de inferência descentralizado onde cada nó armazena apenas um fragmento ( shard ) de um grande modelo. Em vez de exigir que os mineradores mantenham um modelo inteiro de 600 bilhões de parâmetros ( o que exigiria terabytes de VRAM ) , cada minerador possui um subconjunto de camadas. Um prompt flui sequencialmente pela rede , com cada minerador processando seu fragmento e passando as ativações para o próximo.

Isso significa que um minerador com uma única GPU de nível de consumidor ( 24 GB de VRAM ) pode participar do treinamento de modelos que , de outra forma , exigiriam centenas de GPUs em um datacenter. Ao distribuir o grafo computacional por centenas ou milhares de nós , a Ambient elimina a necessidade de interconexões caras de alta largura de banda ( como InfiniBand ) usadas em clusters de ML tradicionais.

Esparsidade inspirada no SLIDE : A maioria das computações de redes neurais envolve a multiplicação de matrizes onde a maioria das entradas está próxima de zero. O SLIDE ( Sub - LInear Deep learning Engine ) explora isso usando hashing de ativações para identificar quais neurônios realmente importam para uma determinada entrada , ignorando completamente as computações irrelevantes.

A Ambient aplica essa esparsidade ao treinamento distribuído. Em vez de todos os mineradores processarem todos os dados , a rede roteia o trabalho dinamicamente para os nós cujos fragmentos são relevantes para o lote atual. Isso reduz a sobrecarga de comunicação ( um grande gargalo no ML distribuído ) e permite que mineradores com hardware mais fraco participem processando subgrafos esparsos.

A combinação resulta no que a Ambient afirma ser um rendimento ( throughput ) 10 vezes melhor do que os esforços de treinamento distribuído existentes , como DiLoCo ou Hivemind. Mais importante ainda , reduz a barreira de entrada : os mineradores não precisam de infraestrutura de nível de datacenter — um PC gamer com uma GPU decente é suficiente para contribuir.

Arquitetura de Fork da Solana: Alto TPS Encontra PoW Não Bloqueante

A Ambient não está a construir do zero. É um fork completo da Solana, herdando a Solana Virtual Machine (SVM), o carimbo de tempo Proof of History (PoH) e o encaminhamento de mempool Gulf Stream. Isto confere à Ambient o rendimento teórico de 65.000 TPS da Solana e uma finalidade de sub-segundo.

Mas a Ambient faz uma modificação crítica: adiciona uma camada de proof-of-work não bloqueante sobre o consenso da Solana.

Eis como funciona o consenso híbrido:

Proof of History ordena as transações: O PoH da Solana fornece um relógio criptográfico, ordenando as transações sem esperar pelo consenso global. Isto permite a execução paralela em múltiplos núcleos.

Proof of Logits protege a rede: Os mineradores competem para produzir resultados válidos de inferência de IA. A blockchain aceita blocos de mineradores que geram o trabalho de IA mais valioso (medido pela complexidade da inferência, tamanho do modelo ou reputação em stake).

Integração não bloqueante: Ao contrário do Bitcoin, onde a produção de blocos para até que um PoW válido seja encontrado, o PoW da Ambient opera de forma assíncrona. Os validadores continuam a processar transações enquanto os mineradores competem para submeter o trabalho de IA. Isto evita que o PoW se torne um gargalo.

O resultado é uma blockchain que mantém a velocidade da Solana (crítica para aplicações de IA que exigem inferência de baixa latência) enquanto garante a competição económica nas atividades principais da rede — inferência, fine-tuning e treino.

Este design também evita os erros anteriores da Ethereum com o consenso de "trabalho útil". Primecoin e Gridcoin tentaram usar computação científica como PoW, mas enfrentaram uma falha fatal: o trabalho útil não é uniformemente difícil. Alguns problemas são fáceis de resolver, mas difíceis de verificar; outros são fáceis de paralelizar injustamente. A Ambient contorna isto ao tornar a verificação de logits computacionalmente barata e padronizada. Cada tarefa de inferência, independentemente da complexidade, pode ser verificada com o mesmo algoritmo de verificação pontual.

A Corrida para Treinar IAG On-Chain: Quem Mais Está a Competir?

A Ambient não está sozinha no alvo da IA nativa de blockchain. O setor está repleto de projetos que afirmam descentralizar a aprendizagem automática, mas poucos entregam um treino verificável on-chain. Eis como a Ambient se compara aos principais concorrentes:

Artificial Superintelligence Alliance (ASI): Formada pela fusão da Fetch.AI, SingularityNET e Ocean Protocol, a ASI foca-se na infraestrutura de IAG descentralizada. A ASI Chain suporta a execução de agentes concorrentes e transações seguras de modelos. Ao contrário da abordagem PoW da Ambient, a ASI depende de um modelo de mercado onde os desenvolvedores pagam por créditos de computação. Isto funciona para inferência, mas não alinha os incentivos para o treino — os mineradores não têm razão para contribuir com horas caras de GPU a menos que sejam explicitamente compensados antecipadamente.

AIVM (ChainGPT): O roteiro da AIVM da ChainGPT visa o lançamento da mainnet em 2026, integrando recursos de GPU off-chain com verificação on-chain. No entanto, a verificação da AIVM depende de optimistic rollups (assume a correção a menos que seja contestada), introduzindo latência de prova de fraude. A verificação de logits da Ambient é determinística — os validadores sabem instantaneamente se o trabalho é válido.

Internet Computer (ICP): O Internet Computer da Dfinity pode hospedar grandes modelos nativamente on-chain sem infraestrutura de nuvem externa. Mas a arquitetura de canister do ICP não está otimizada para treino — foi concebida para inferência e execução de contratos inteligentes. O PoW da Ambient incentiva economicamente a melhoria contínua do modelo, enquanto o ICP exige que os desenvolvedores façam a gestão do treino externamente.

Bittensor: O Bittensor utiliza um modelo de sub-redes onde cadeias especializadas treinam diferentes tarefas de IA (geração de texto, classificação de imagens, etc.). Os mineradores competem submetendo pesos de modelos e os validadores classificam-nos pelo desempenho. O Bittensor destaca-se na inferência descentralizada, mas tem dificuldades com a coordenação do treino — não existe um modelo global unificado, apenas uma coleção de sub-redes independentes. A abordagem da Ambient unifica o treino sob um único mecanismo de PoW.

Lightchain Protocol AI: O whitepaper da Lightchain propõe o Proof of Intelligence (PoI), onde os nós executam tarefas de IA para validar transações. No entanto, o consenso da Lightchain permanece em grande parte teórico, sem lançamento de testnet anunciado. Em contraste, a Ambient planeia uma testnet para o Q2 / Q3 de 2025.

A vantagem da Ambient é combinar o trabalho de IA verificável com a arquitetura de alto rendimento comprovada da Solana. A maioria dos concorrentes sacrifica a descentralização (treino centralizado com verificação on-chain) ou sacrifica o desempenho (consenso lento à espera de provas de fraude). O PoW baseado em logits da Ambient oferece ambos: treino descentralizado com verificação quase instantânea.

Incentivos Económicos: Mineração de Modelos de IA Como Blocos de Bitcoin

O modelo económico da Ambient espelha o do Bitcoin: recompensas de bloco previsíveis + taxas de transação. Mas em vez de minerar blocos vazios, os mineradores produzem resultados de IA que as aplicações podem consumir.

Eis como funciona a estrutura de incentivos:

Recompensas baseadas em inflação: Os primeiros mineradores recebem subsídios de bloco (tokens recém-emitidos) por contribuírem com inferência de IA, fine-tuning ou treino. Tal como o cronograma de halving do Bitcoin, os subsídios diminuem ao longo do tempo, garantindo a escassez a longo prazo.

Taxas baseadas em transações: As aplicações pagam por serviços de IA — pedidos de inferência, fine-tuning de modelos ou acesso a pesos treinados. Estas taxas vão para os mineradores que realizaram o trabalho, criando um modelo de receita sustentável à medida que os subsídios diminuem.

Staking de reputação: Para evitar ataques Sybil (mineradores que submetem trabalho de baixa qualidade para reivindicar recompensas), a Ambient introduz a reputação em stake. Os mineradores bloqueiam tokens para participar; a produção de logits inválidos resulta em slashing. Isto alinha os incentivos: os mineradores maximizam os lucros gerando resultados de IA precisos e úteis, em vez de tentarem enganar o sistema.

Acessibilidade modesta de hardware: Ao contrário do Bitcoin, onde as explorações de ASIC dominam, o sharding PETALS da Ambient permite a participação com GPUs de consumo. Um minerador com uma única RTX 4090 (24 GB VRAM, ~ $ 1.600) pode contribuir para o treino de modelos de 600 B parâmetros ao possuir um shard. Isto democratiza o acesso — sem necessidade de centros de dados de milhões de dólares.

Este modelo resolve um problema crítico na IA descentralizada: o problema do "free-rider". Nas cadeias PoS tradicionais, os validadores fazem stake de capital, mas não contribuem com computação. Na Ambient, os mineradores contribuem com trabalho real de IA, garantindo que a utilidade da rede cresce proporcionalmente ao seu orçamento de segurança.

O Setor de Agentes de IA de $ 27 Bilhões: Por que 2026 é o Ponto de Inflexão

O timing da Ambient alinha-se com as tendências mais amplas do mercado. O setor de cripto de agentes de IA está avaliado em $ 27 bilhões, impulsionado por programas autónomos que gerem ativos on-chain, executam negociações e coordenam-se entre protocolos.

Mas os agentes de hoje enfrentam um problema de confiança: a maioria depende de APIs de IA centralizadas (OpenAI, Anthropic, Google). Se um agente que gere $ 10 milhões em posições DeFi utiliza o GPT-4 para tomar decisões, os utilizadores não têm garantia de que o modelo não foi adulterado, censurado ou enviesado. Não existe uma trilha de auditoria que prove que o agente agiu de forma autónoma.

A Ambient resolve isto com verificação on-chain. Cada inferência de IA é registada na blockchain, com logits que provam o modelo e a entrada exatos utilizados. As aplicações podem:

Auditar decisões de agentes: Uma DAO poderia verificar que o seu agente de gestão de tesouraria utilizou um modelo específico, aprovado pela comunidade — e não uma versão secretamente modificada.

Impor conformidade: Protocolos DeFi regulamentados poderiam exigir que os agentes utilizem modelos com salvaguardas de segurança verificadas, comprováveis on-chain.

Ativar marketplaces de IA: Os programadores poderiam vender modelos ajustados (fine-tuned) como NFTs, com a Ambient a fornecer prova criptográfica dos dados de treino e dos pesos.

Isto posiciona a Ambient como infraestrutura para a próxima vaga de agentes autónomos. À medida que 2026 emerge como o ponto de viragem onde a "IA, as blockchains e os pagamentos convergem numa única internet auto-coordenada", a camada de IA verificável da Ambient torna-se uma infraestrutura crítica.

Riscos Técnicos e Perguntas em Aberto

A visão da Ambient é ambiciosa, mas vários desafios técnicos permanecem por resolver:

Determinismo e deriva de ponto flutuante: Os modelos de IA utilizam aritmética de ponto flutuante, que não é perfeitamente determinística entre diferentes hardwares. Um modelo executado numa NVIDIA A100 pode produzir logits ligeiramente diferentes do mesmo modelo numa AMD MI250. Se os validadores rejeitarem blocos devido a pequenas derivas numéricas, a rede torna-se instável. A Ambient precisará de limites de tolerância rigorosos — mas, se forem demasiado apertados, os mineradores em hardware diferente serão penalizados injustamente.

Atualizações de modelos e versionamento: Se a Ambient treina um modelo global de forma colaborativa, como lida com as atualizações? No Bitcoin, todos os nós executam regras de consenso idênticas. Na Ambient, os mineradores ajustam os modelos continuamente. Se metade da rede atualizar para a versão 2.0 e a outra metade permanecer na 1.9, a verificação falha. O whitepaper não detalha como funcionam o versionamento do modelo e a compatibilidade retroativa.

Diversidade de prompts e padronização do trabalho: O PoW do Bitcoin é uniforme — cada minerador resolve o mesmo tipo de quebra-cabeça. O PoW da Ambient varia — alguns mineradores respondem a perguntas de matemática, outros escrevem código, outros resumem documentos. Como é que os validadores comparam o "valor" de diferentes tarefas? Se um minerador gera 10.000 tokens de conteúdo sem sentido (fácil) e outro ajusta um modelo num conjunto de dados complexo (caro), quem recebe a maior recompensa? A Ambient precisa de um algoritmo de ajuste de dificuldade para o trabalho de IA, análogo à dificuldade de hash do Bitcoin — mas medir a "dificuldade de inferência" não é trivial.

Latência no treino distribuído: O sharding ao estilo PETALS funciona bem para inferência (processamento sequencial de camadas), mas o treino requer retropropagação (backpropagation) — gradientes a fluir para trás através da rede. Se as camadas estiverem distribuídas por nós com latências de rede variadas, as atualizações de gradientes tornam-se gargalos. A Ambient afirma melhorias de 10× no throughput, mas o desempenho no mundo real depende da topologia da rede e da distribuição dos mineradores.

Riscos de centralização no alojamento de modelos: Se apenas alguns nós conseguirem suportar o alojamento dos fragmentos de modelos mais valiosos (por exemplo, as camadas finais de um modelo de 600B de parâmetros), estes ganharão uma influência desproporcional. Os validadores podem preferir encaminhar o trabalho para nós bem ligados, recriando a centralização de datacenters numa rede supostamente descentralizada.

Estes não são falhas fatais — são desafios de engenharia que todos os projetos de blockchain-IA enfrentam. Mas o lançamento da testnet da Ambient no T2 / T3 de 2025 revelará se a teoria se sustenta em condições reais.

O Que Vem a Seguir: Testnet, Mainnet e o Endgame da AGI

O roadmap da Ambient visa um lançamento da testnet no T2 / T3 de 2025, com a mainnet a seguir em 2026. A ronda de investimento semente de $ 7,2 milhões da a16z CSX, Delphi Digital e Amber Group fornece capital para o desenvolvimento central, mas o sucesso a longo prazo do projeto depende da adoção pelo ecossistema.

Marcos fundamentais a observar:

Participação na mineração da testnet: Quantos mineradores se juntam à rede? Se a Ambient atrair milhares de proprietários de GPUs (como na mineração inicial de Ethereum), isso prova que o modelo económico funciona. Se apenas um punhado de entidades minerar, isso sinaliza riscos de centralização.

Benchmarks de desempenho do modelo: Podem os modelos treinados pela Ambient competir com a OpenAI ou a Anthropic? Se um modelo descentralizado de 600B de parâmetros atingir uma qualidade de nível GPT-4, isso valida toda a abordagem. Se o desempenho ficar significativamente atrás, os programadores continuarão a utilizar APIs centralizadas.

Integrações de aplicações: Quais os protocolos DeFi, DAOs ou agentes de IA que constroem sobre a Ambient? A proposta de valor só se materializa se aplicações reais consumirem inferência de IA on-chain. Os primeiros casos de uso podem incluir:

  • Agentes de negociação autónomos com lógica de decisão comprovável
  • Moderação de conteúdo descentralizada (modelos de IA a filtrar posts, auditáveis on-chain)
  • Oráculos de IA verificáveis (previsões de preço ou análise de sentimento on-chain)

Interoperabilidade com Ethereum e Cosmos: A Ambient é um fork da Solana, mas a economia dos agentes de IA abrange múltiplas cadeias. Pontes para Ethereum (para DeFi) e Cosmos (para cadeias de IA ligadas por IBC, como a ASI) determinarão se a Ambient se torna um silo ou um hub.

O objetivo final é ambicioso: treinar uma AGI descentralizada onde nenhuma entidade isolada controla o modelo. Se milhares de mineradores independentes treinarem colaborativamente um sistema superinteligente, com prova criptográfica de cada etapa de treino, isso representaria o primeiro caminho verdadeiramente aberto e auditável para a AGI.

Se a Ambient alcançará isto ou se tornará mais um projeto cripto de promessas excessivas depende da execução. Mas a inovação principal — substituir quebra-cabeças criptográficos arbitrários por trabalho de IA verificável — é um avanço genuíno. Se a prova de trabalho pode ser produtiva em vez de um desperdício, a Ambient será a primeira a prová-lo.

A Mudança de Paradigma do Proof-of-Logits

A captação de $ 7,2 milhões da Ambient não é apenas mais uma rodada de financiamento cripto. É uma aposta de que o consenso de blockchain e o treinamento de IA podem se fundir em um único sistema economicamente alinhado. As implicações ecoam muito além da Ambient:

Se a verificação baseada em logit funcionar, outras chains a adotarão. O Ethereum poderia introduzir o PoL como uma alternativa ao PoS, recompensando validadores que contribuem com trabalho de IA em vez de apenas fazer o staking de ETH. O Bitcoin poderia sofrer um fork para usar computação útil em vez de hashes SHA-256 (embora os maximalistas do Bitcoin nunca aceitassem isso).

Se o treinamento descentralizado atingir um desempenho competitivo, a OpenAI e o Google perdem seus fossos competitivos. Um mundo onde qualquer pessoa com uma GPU pode contribuir para o desenvolvimento de AGI, ganhando tokens por seu trabalho, interrompe fundamentalmente o oligopólio centralizado de IA.

Se a verificação de IA on-chain se tornar padrão, os agentes autônomos ganham credibilidade. Em vez de confiar em APIs de caixa preta, os usuários verificam modelos e prompts exatos on-chain. Isso desbloqueia o DeFi regulamentado, a governança algorítmica e contratos jurídicos alimentados por IA.

A Ambient não tem vitória garantida. Mas é a tentativa tecnicamente mais credível até agora de tornar o proof-of-work produtivo, descentralizar o treinamento de IA e alinhar a segurança da blockchain com o progresso civilizacional. O lançamento da testnet mostrará se a teoria encontra a realidade — ou se o proof-of-logits se junta ao cemitério de experimentos ambiciosos de consenso.

De qualquer forma, a corrida para treinar AGI on-chain é agora inegavelmente real. E a Ambient acabou de colocar $ 7,2 milhões na linha de partida.


Fontes:

Gensyn's Judge: Como a Reprodutibilidade Exata bit a bit está Encerrando a Era das APIs de IA Opacas

· 22 min de leitura
Dora Noda
Software Engineer

Sempre que você consulta o ChatGPT, Claude ou Gemini, você está confiando em uma caixa preta invisível. A versão do modelo? Desconhecida. Os pesos exatos? Proprietários. Se a saída foi gerada pelo modelo que você acha que está usando, ou por uma variante atualizada silenciosamente? Impossível de verificar. Para usuários casuais que perguntam sobre receitas ou curiosidades, essa opacidade é meramente irritante. Para a tomada de decisões de IA de alto risco — algoritmos de negociação financeira, diagnósticos médicos, análise de contratos jurídicos — é uma crise fundamental de confiança.

O Judge da Gensyn, lançado no final de 2025 e entrando em produção em 2026, oferece uma alternativa radical: avaliação de IA criptograficamente verificável, onde cada inferência é reprodutível até o bit. Em vez de confiar na OpenAI ou Anthropic para servir o modelo correto, o Judge permite que qualquer pessoa verifique se um modelo de IA específico e previamente acordado foi executado de forma determinística contra entradas do mundo real — com provas criptográficas garantindo que os resultados não possam ser falsificados.

O avanço técnico é o Verde, o sistema de verificação da Gensyn que elimina o não-determinismo de ponto flutuante — o flagelo da reprodutibilidade da IA. Ao impor computação exata por bits entre dispositivos, o Verde garante que a execução do mesmo modelo em uma NVIDIA A100 em Londres e em uma AMD MI250 em Tóquio produza resultados idênticos, comprováveis on-chain. Isso desbloqueia a IA verificável para finanças descentralizadas, agentes autônomos e qualquer aplicação onde a transparência não é opcional — ela é existencial.

O Problema das APIs Opacas: Confiança Sem Verificação

A indústria de IA funciona com APIs. Desenvolvedores integram o GPT-4 da OpenAI, o Claude da Anthropic ou o Gemini do Google via endpoints REST, enviando prompts e recebendo respostas. Mas essas APIs são fundamentalmente opacas:

Incerteza de versão: Quando você chama o gpt-4, qual versão exata está recebendo? GPT-4-0314? GPT-4-0613? Uma variante atualizada silenciosamente? Os provedores frequentemente implementam correções sem anúncios públicos, alterando o comportamento do modelo da noite para o dia.

Sem trilha de auditoria: As respostas da API não incluem nenhuma prova criptográfica de qual modelo as gerou. Se a OpenAI servir uma variante censurada ou tendenciosa para geografias ou clientes específicos, os usuários não têm como detectá-la.

Degradação silenciosa: Os provedores podem "lobotomizar" modelos para reduzir custos — rebaixando a qualidade da inferência enquanto mantêm o mesmo contrato de API. Usuários relatam que o GPT-4 se tornou "mais burro" com o tempo, mas sem versionamento transparente, tais alegações permanecem anedóticas.

Saídas não-determinísticas: Mesmo consultando o mesmo modelo duas vezes com entradas idênticas, é possível obter resultados diferentes devido a configurações de temperatura, processamento em lote (batching) ou erros de arredondamento de ponto flutuante em nível de hardware. Isso torna a auditoria impossível — como verificar a exatidão quando as saídas não são reprodutíveis?

Para aplicações casuais, esses problemas são inconvenientes. Para tomadas de decisão de alto risco, eles são impedimentos. Considere:

Negociação algorítmica: Um fundo de hedge implanta um agente de IA gerenciando $ 50 milhões em posições DeFi. O agente depende do GPT-4 para analisar o sentimento do mercado a partir de postagens no X. Se o modelo for atualizado silenciosamente no meio da sessão de negociação, as pontuações de sentimento mudam de forma imprevisível — desencadeando liquidações não intencionais. O fundo não tem prova de que o modelo se comportou mal; os logs da OpenAI não são auditáveis publicamente.

Diagnósticos médicos: Um hospital usa um modelo de IA para recomendar tratamentos de câncer. As regulamentações exigem que os médicos documentem os processos de tomada de decisão. Mas se a versão do modelo de IA não puder ser verificada, a trilha de auditoria estará incompleta. Um processo de negligência médica poderia depender da prova de qual modelo gerou a recomendação — o que é impossível com APIs opacas.

Governança de DAO: Uma organização descentralizada usa um agente de IA para votar em propostas de tesouraria. Os membros da comunidade exigem prova de que o agente usou o modelo aprovado — e não uma variante adulterada que favoreça resultados específicos. Sem verificação criptográfica, o voto carece de legitimidade.

Esta é a lacuna de confiança que a Gensyn visa: à medida que a IA se torna incorporada em tomadas de decisão críticas, a incapacidade de verificar a autenticidade e o comportamento do modelo torna-se um "impedimento fundamental para a implantação de IA baseada em agentes em ambientes de alto risco".

Judge: O Protocolo de Avaliação de IA Verificável

O Judge resolve o problema da opacidade executando modelos de IA determinísticos e previamente acordados contra entradas do mundo real e registrando os resultados em uma blockchain onde qualquer pessoa pode contestá-los. Veja como o protocolo funciona:

1. Compromisso do modelo: Os participantes concordam com um modelo de IA — sua arquitetura, pesos e configuração de inferência. Este modelo é transformado em hash e registrado on-chain. O hash serve como uma impressão digital criptográfica: qualquer desvio do modelo acordado produz um hash diferente.

2. Execução determinística: O Judge executa o modelo usando o Runtime Reprodutível da Gensyn, que garante reprodutibilidade exata por bits entre dispositivos. Isso elimina o não-determinismo de ponto flutuante — uma inovação crítica que exploraremos em breve.

3. Compromisso público: Após a inferência, o Judge publica a saída (ou um hash dela) on-chain. Isso cria um registro permanente e auditável do que o modelo produziu para uma determinada entrada.

4. Período de contestação: Qualquer pessoa pode contestar o resultado executando o modelo de forma independente. Se a sua saída for diferente, eles enviam uma prova de fraude. O mecanismo de delegação arbitrada do Verde identifica o operador exato no grafo computacional onde os resultados divergem.

5. Slashing por fraude: Se um contestador provar que o Judge produziu resultados incorretos, o executor original é penalizado (slashing de tokens em stake). Isso alinha os incentivos econômicos: os executores maximizam o lucro executando os modelos corretamente.

O Judge transforma a avaliação de IA de "confie no provedor de API" para "verifique a prova criptográfica". O comportamento do modelo é público, auditável e executável — não mais escondido atrás de endpoints proprietários.

Verde: Eliminando o Não Determinismo de Ponto Flutuante

O principal desafio técnico na IA verificável é o determinismo. As redes neurais realizam bilhões de operações de ponto flutuante durante a inferência. Em GPUs modernas, essas operações não são perfeitamente reproduzíveis:

Não associatividade: A adição de ponto flutuante não é associativa. (a + b) + c pode resultar em um valor diferente de a + (b + c) devido a erros de arredondamento. As GPUs paralelizam somas em milhares de núcleos, e a ordem na qual as somas parciais se acumulam varia de acordo com o hardware e a versão do driver.

Variabilidade de agendamento de kernel: Os kernels de GPU (como multiplicação de matrizes ou atenção) podem ser executados em ordens diferentes dependendo da carga de trabalho, otimizações de driver ou arquitetura de hardware. Mesmo executar o mesmo modelo na mesma GPU duas vezes pode gerar resultados diferentes se o agendamento do kernel mudar.

Dependência do tamanho do lote (batch-size): Pesquisas descobriram que a inferência de LLM possui não determinismo em nível de sistema porque a saída depende do tamanho do lote. Muitos kernels (matmul, RMSNorm, atenção) alteram a saída numérica com base em quantas amostras são processadas juntas — uma inferência com tamanho de lote 1 produz valores diferentes da mesma entrada em um lote de 8.

Esses problemas tornam os modelos de IA padrão inadequados para a verificação em blockchain. Se dois validadores reexecutarem a mesma inferência e obtiverem saídas ligeiramente diferentes, quem está correto? Sem determinismo, o consenso é impossível.

O Verde resolve isso com RepOps (Reproducible Operators) — uma biblioteca que elimina o não determinismo de hardware controlando a ordem das operações de ponto flutuante em todos os dispositivos. Veja como funciona:

Ordens de redução canônicas: O RepOps impõe uma ordem determinística para somar resultados parciais em operações como multiplicação de matrizes. Em vez de deixar o agendador da GPU decidir, o RepOps especifica explicitamente: "some a coluna 0, depois a coluna 1, depois a coluna 2..." em todo o hardware. Isso garante que (a + b) + c seja sempre computado na mesma sequência.

Kernels CUDA personalizados: A Gensyn desenvolveu kernels otimizados que priorizam a reprodutibilidade em detrimento da velocidade bruta. As multiplicações de matrizes RepOps incorrem em menos de 30% de sobrecarga em comparação com o cuBLAS padrão — uma troca razoável pelo determinismo.

Fixação de drivers e versões (pinning): O Verde usa drivers de GPU com versões fixas e configurações canônicas, garantindo que o mesmo modelo executado em hardwares diferentes produza saídas idênticas bit a bit. Um modelo rodando em uma NVIDIA A100 em um datacenter corresponde à saída de uma AMD MI250 em outro, bit por bit.

Este é o avanço que permite a verificação do Judge: a reprodutibilidade exata bit a bit significa que os validadores podem confirmar resultados de forma independente sem confiar nos executores. Se o hash coincidir, a inferência está correta — matematicamente comprovável.

Delegação Referenciada: Verificação Eficiente Sem Recomputação Total

Mesmo com execução determinística, verificar a inferência de IA de forma ingênua é caro. Um modelo de 70 bilhões de parâmetros gerando 1.000 tokens pode exigir 10 horas de GPU. Se os validadores tiverem que reexecutar cada inferência para verificar a correção, o custo da verificação seria igual ao custo de execução — anulando o propósito da descentralização.

O mecanismo de delegação referenciada (refereed delegation) do Verde torna a verificação exponencialmente mais barata:

Múltiplos executores não confiáveis: Em vez de um executor, o Judge atribui tarefas a vários provedores independentes. Cada um executa a mesma inferência e envia os resultados.

Discordância aciona investigação: Se todos os executores concordarem, o resultado é aceito — nenhuma verificação adicional é necessária. Se as saídas divergirem, o Verde inicia um jogo de desafio (challenge game).

Busca binária sobre o gráfico de computação: O Verde não reexecuta toda a inferência. Em vez disso, ele realiza uma busca binária sobre o gráfico computacional do modelo para encontrar o primeiro operador onde os resultados divergem. Isso identifica a camada exata (por exemplo, "camada de atenção 47, cabeça 8") que causou a discrepância.

Computação mínima do árbitro: Um árbitro (que pode ser um contrato inteligente ou um validador com computação limitada) verifica apenas o operador em disputa — não todo o passe para frente (forward pass). Para um modelo de 70B parâmetros com 80 camadas, isso reduz a verificação para checar cerca de 7 camadas (log₂ 80) no pior caso.

Essa abordagem é mais de 1.350% mais eficiente do que a replicação ingênua (onde cada validador reexecuta tudo). A Gensyn combina provas criptográficas, teoria dos jogos e processos otimizados para garantir a execução correta sem computação redundante.

O resultado: O Judge pode verificar cargas de trabalho de IA em escala, permitindo redes de inferência descentralizadas onde milhares de nós não confiáveis contribuem com computação — e executores desonestos são detectados e penalizados.

Tomada de Decisão de IA de Alto Risco: Por que a Transparência Importa

O mercado-alvo do Judge não são chatbots casuais — são aplicações onde a verificabilidade não é apenas um diferencial, mas um requisito regulatório ou econômico. Aqui estão cenários onde APIs opacas falham catastroficamente:

Finanças descentralizadas (DeFi): Agentes de negociação autônomos gerenciam bilhões em ativos. Se um agente usa um modelo de IA para decidir quando rebalancear portfólios, os usuários precisam de provas de que o modelo não foi adulterado. O Judge permite a verificação on-chain: o agente se compromete com um hash de modelo específico, executa negociações com base em suas saídas e qualquer pessoa pode contestar a lógica de decisão. Essa transparência evita rug pulls onde agentes maliciosos alegam que "a IA me disse para liquidar" sem evidências.

Conformidade regulatória: Instituições financeiras que implantam IA para análise de crédito, detecção de fraude ou combate à lavagem de dinheiro (AML) enfrentam auditorias. Os reguladores exigem explicações: "Por que o modelo sinalizou esta transação?". APIs opacas não fornecem trilha de auditoria. O Judge cria um registro imutável da versão do modelo, entradas e saídas — satisfazendo os requisitos de conformidade.

Governança algorítmica: Organizações autônomas descentralizadas (DAOs) usam agentes de IA para propor ou votar em decisões de governança. Os membros da comunidade devem verificar se o agente usou o modelo aprovado — e não uma variante hackeada. Com o Judge, a DAO codifica o hash do modelo em seu contrato inteligente, e cada decisão inclui uma prova criptográfica de correção.

IA médica e jurídica: Os sistemas de saúde e jurídico exigem responsabilidade. Um médico diagnosticando câncer com auxílio de IA precisa documentar a versão exata do modelo utilizado. Um advogado redigindo contratos com IA deve provar que a saída veio de um modelo verificado e imparcial. A trilha de auditoria on-chain do Judge fornece essa evidência.

Mercados de previsão e oráculos: Projetos como o Polymarket usam IA para resolver resultados de apostas (por exemplo, "Este evento acontecerá?"). Se a resolução depende de um modelo de IA analisando artigos de notícias, os participantes precisam de prova de que o modelo não foi manipulado. O Judge verifica a inferência de IA do oráculo, evitando disputas.

Em cada caso, o ponto comum é que a confiança sem transparência é insuficiente. Como observa a VeritasChain, os sistemas de IA precisam de "gravadores de voo criptográficos" — registros imutáveis que provam o que aconteceu quando surgem disputas.

A Alternativa de Prova de Conhecimento Zero: Comparando Verde e ZKML

O Judge não é a única abordagem para IA verificável. O Zero-Knowledge Machine Learning (ZKML) alcança objetivos semelhantes usando zk-SNARKs: provas criptográficas de que uma computação foi executada corretamente sem revelar entradas ou pesos.

Como o Verde se compara ao ZKML?

Custo de verificação: O ZKML requer ~1.000× mais computação do que a inferência original para gerar provas (estimativas de pesquisa). Um modelo de 70B de parâmetros que necessita de 10 horas de GPU para inferência pode exigir 10.000 horas de GPU para ser provado. A delegação arbitrada do Verde é logarítmica: verificar ~7 camadas em vez de 80 é uma redução de 10×, não de 1.000×.

Complexidade do provador: O ZKML exige hardware especializado (como ASICs personalizados para circuitos zk-SNARK) para gerar provas de forma eficiente. O Verde funciona em GPUs comuns — qualquer minerador com um PC gamer pode participar.

Trade-offs de privacidade: A força do ZKML é a privacidade — as provas não revelam nada sobre as entradas ou os pesos do modelo. A execução determinística do Verde é transparente: as entradas e saídas são públicas (embora os pesos possam ser criptografados). Para tomadas de decisão de alto risco, a transparência é muitas vezes desejável. Uma DAO votando na alocação do tesouro deseja trilhas de auditoria públicas, não provas ocultas.

Escopo de prova: O ZKML está praticamente limitado à inferência — provar o treinamento é inviável com os custos computacionais atuais. O Verde suporta tanto a verificação de inferência quanto a de treinamento (o protocolo mais amplo da Gensyn verifica o treinamento distribuído).

Adoção no mundo real: Projetos de ZKML como o Modulus Labs alcançaram avanços (verificando modelos de 18M de parâmetros on-chain), mas permanecem limitados a modelos menores. O runtime determinístico do Verde lida com modelos de mais de 70B de parâmetros em produção.

O ZKML se destaca onde a privacidade é primordial — como na verificação de autenticação biométrica (Worldcoin) sem expor varreduras de íris. O Verde se destaca onde a transparência é o objetivo — provar que um modelo público específico foi executado corretamente. Ambas as abordagens são complementares, não concorrentes.

O Ecossistema Gensyn: Do Judge ao Treinamento Descentralizado

O Judge é um componente da visão mais ampla da Gensyn: uma rede descentralizada para computação de machine learning. O protocolo inclui:

Camada de execução: Execução consistente de ML em hardware heterogêneo (GPUs de consumo, clusters empresariais, dispositivos de borda). A Gensyn padroniza cargas de trabalho de inferência e treinamento, garantindo compatibilidade.

Camada de verificação (Verde): Verificação trustless usando delegação arbitrada. Executores desonestos são detectados e penalizados.

Comunicação peer-to-peer: Distribuição de carga de trabalho entre dispositivos sem coordenação centralizada. Mineradores recebem tarefas, as executam e enviam provas diretamente para a blockchain.

Coordenação descentralizada: Contratos inteligentes em um rollup de Ethereum identificam participantes, alocam tarefas e processam pagamentos sem permissão.

A Testnet Pública da Gensyn foi lançada em março de 2025, com a mainnet planejada para 2026. A venda pública do token $AI ocorreu em dezembro de 2025, estabelecendo incentivos econômicos para mineradores e validadores.

O Judge se encaixa nesse ecossistema como a camada de avaliação: enquanto o protocolo central da Gensyn lida com treinamento e inferência, o Judge garante que essas saídas sejam verificáveis. Isso cria um efeito de volante (flywheel):

Desenvolvedores treinam modelos na rede descentralizada da Gensyn (mais barato que AWS devido às GPUs de consumo subutilizadas que contribuem com computação).

Modelos são implantados com o Judge garantindo a integridade da avaliação. Os aplicativos consomem inferência via APIs da Gensyn, mas, ao contrário da OpenAI, cada saída inclui uma prova criptográfica.

Validadores ganham taxas verificando provas e detectando fraudes, alinhando os incentivos econômicos com a segurança da rede.

A confiança escala à medida que mais aplicativos adotam IA verificável, reduzindo a dependência de provedores centralizados.

O objetivo final: treinamento e inferência de IA que sejam comprovadamente corretos, descentralizados e acessíveis a qualquer pessoa — não apenas à Big Tech.

Desafios e Perguntas em Aberto

A abordagem do Judge é inovadora, mas vários desafios permanecem:

Sobrecarga de desempenho: A desaceleração de 30% do RepOps é aceitável para verificação, mas se cada inferência tiver que ser executada de forma determinística, aplicativos sensíveis à latência (negociação em tempo real, veículos autônomos) podem preferir alternativas mais rápidas e não verificáveis. O roteiro da Gensyn provavelmente inclui a otimização adicional do RepOps — mas há um trade-off fundamental entre velocidade e determinismo.

Fragmentação da versão do driver: O Verde assume drivers com versões fixas, mas os fabricantes de GPU lançam atualizações constantemente. Se alguns mineradores usarem CUDA 12.4 e outros usarem 12.5, a reprodutibilidade bit a bit quebra. A Gensyn deve impor um gerenciamento rigoroso de versões — complicando a integração de mineradores.

Sigilo dos pesos do modelo: A transparência do Judge é um recurso para modelos públicos, mas um problema para modelos proprietários. Se um fundo de hedge treina um modelo de negociação valioso, implantá-lo no Judge expõe os pesos aos concorrentes (via compromisso on-chain). Alternativas baseadas em ZKML podem ser preferidas para modelos secretos — sugerindo que o Judge foca em aplicações de IA abertas ou semiabertas.

Latência na resolução de disputas: Se um desafiante alegar fraude, resolver a disputa via busca binária requer múltiplas transações on-chain (cada rodada estreita o espaço de busca). Aplicativos de alta frequência não podem esperar horas pela finalidade. A Gensyn pode introduzir a verificação otimista (presumir correção, a menos que seja contestada dentro de uma janela) para reduzir a latência.

Resistência a ataques Sybil na delegação arbitrada: Se vários executores devem concordar, o que impede uma única entidade de controlar todos os executores via identidades Sybil? A Gensyn provavelmente usa seleção ponderada por participação (validadores de alta reputação são escolhidos preferencialmente) além de slashing para desencorajar o conluio — mas os limiares econômicos devem ser cuidadosamente calibrados.

Estes não são impeditivos — são desafios de engenharia. A inovação central (IA determinística + verificação criptográfica) é sólida. Os detalhes de execução amadurecerão à medida que a testnet transitar para a mainnet.

O Caminho para a IA Verificável: Caminhos de Adoção e Market Fit

O sucesso do Judge depende da adoção. Quais aplicações implementarão a IA verificável primeiro?

Protocolos DeFi com agentes autônomos: DAOs como Aave, Compound ou Uniswap poderiam integrar agentes verificados pelo Judge para a gestão de tesouraria. A comunidade vota para aprovar um hash de modelo, e todas as decisões do agente incluem provas. Essa transparência constrói confiança — algo crítico para a legitimidade do DeFi.

Mercados de previsão e oráculos: Plataformas como Polymarket ou Chainlink poderiam usar o Judge para resolver apostas ou entregar feeds de preços. Modelos de IA analisando sentimentos, notícias ou atividade on-chain produziriam resultados verificáveis — eliminando disputas sobre manipulação de oráculos.

Identidade descentralizada e KYC: Projetos que exigem verificação de identidade baseada em IA (estimativa de idade a partir de selfies, verificações de autenticidade de documentos) beneficiam-se da trilha de auditoria do Judge. Reguladores aceitam provas criptográficas de conformidade sem precisar confiar em provedores de identidade centralizados.

Moderação de conteúdo para redes sociais: Redes sociais descentralizadas (Farcaster, Lens Protocol) poderiam implementar moderadores de IA verificados pelo Judge. Membros da comunidade verificam se o modelo de moderação não é tendencioso ou censurado — garantindo a neutralidade da plataforma.

Plataformas de IA como Serviço (AI-as-a-Service): Desenvolvedores que constroem aplicações de IA podem oferecer "inferência verificável" como um recurso premium. Usuários pagam a mais por provas, diferenciando os serviços de alternativas opacas.

O ponto comum: aplicações onde a confiança é cara (devido à regulamentação, descentralização ou altos riscos) e o custo de verificação é aceitável (comparado ao valor da certeza).

O Judge não substituirá a OpenAI para chatbots de consumo — os usuários não se importam se o GPT-4 é verificável ao pedir ideias de receitas. Mas para algoritmos financeiros, ferramentas médicas e sistemas de governança, a IA verificável é o futuro.

Verificabilidade como o Novo Padrão

O Judge da Gensyn representa uma mudança de paradigma: a avaliação de IA está mudando de "confie no provedor" para "verifique a prova". A base técnica — reprodutibilidade bitwise-exact via Verde, verificação eficiente através de delegação referenciada (refereed delegation) e trilhas de auditoria on-chain — torna essa transição prática, não apenas aspiracional.

As implicações ecoam muito além da Gensyn. Se a IA verificável se tornar o padrão, provedores centralizados perdem seus fossos competitivos (moats). A proposta de valor da OpenAI não são apenas as capacidades do GPT-4 — é a conveniência de não gerenciar infraestrutura. Mas se a Gensyn provar que a IA descentralizada pode igualar o desempenho centralizado com o valor adicional da verificabilidade, os desenvolvedores não terão motivos para se prenderem a APIs proprietárias.

A corrida começou. Projetos de ZKML (Modulus Labs, sistema biométrico da Worldcoin) estão apostando em provas de conhecimento zero. Runtimes determinísticos (Verde da Gensyn, EigenAI) estão apostando na reprodutibilidade. Abordagens otimistas (oráculos de IA em blockchain) estão apostando em provas de fraude. Cada caminho tem suas compensações — mas o destino é o mesmo: sistemas de IA onde os resultados são comprováveis, não apenas plausíveis.

Para tomadas de decisão de alto risco, isso não é opcional. Reguladores não aceitarão um "confie em nós" de provedores de IA em aplicações financeiras, de saúde ou jurídicas. DAOs não delegarão a gestão de tesouraria a agentes de caixa-preta. E à medida que os sistemas de IA autônomos se tornam mais poderosos, o público exigirá transparência.

O Judge é o primeiro sistema pronto para produção que entrega essa promessa. A testnet está ativa. As bases criptográficas são sólidas. O mercado — $ 27 bilhões em cripto de agentes de IA, bilhões em ativos DeFi gerenciados por algoritmos e a pressão regulatória aumentando — está pronto.

A era das APIs de IA opacas está terminando. A era da inteligência verificável está começando. E o Judge da Gensyn está iluminando o caminho.


Fontes:

Blacklight da Nillion entra em operação: Como o ERC-8004 está construindo a camada de confiança para agentes de IA autônomos

· 14 min de leitura
Dora Noda
Software Engineer

Em 2 de fevereiro de 2026, a economia de agentes de IA deu um passo crítico à frente. A Nillion lançou a Blacklight, uma camada de verificação que implementa o padrão ERC-8004 para resolver uma das questões mais urgentes da blockchain: como confiar em um agente de IA que você nunca encontrou?

A resposta não é uma simples pontuação de reputação ou um registro centralizado. É um processo de verificação em cinco etapas apoiado por provas criptográficas, auditorias programáveis e uma rede de nós operados pela comunidade. À medida que agentes autônomos executam cada vez mais negociações, gerenciam tesourarias e coordenam atividades cross-chain, a Blacklight representa a infraestrutura que permite a coordenação de IA sem confiança (trustless) em escala.

O Problema de Confiança que os Agentes de IA Não Podem Resolver Sozinhos

Os números contam a história. Agentes de IA agora contribuem com 30% do volume de negociação da Polymarket, gerenciam estratégias de rendimento DeFi em múltiplos protocolos e executam fluxos de trabalho complexos de forma autônoma. Mas há um gargalo fundamental: como os agentes verificam a confiabilidade uns dos outros sem relacionamentos pré-existentes?

Os sistemas tradicionais dependem de autoridades centralizadas que emitem credenciais. A promessa da Web3 é diferente — verificação trustless por meio de criptografia e consenso. No entanto, até o ERC-8004, não havia uma maneira padronizada para os agentes provarem sua autenticidade, rastrearem seu comportamento ou validarem sua lógica de tomada de decisão on-chain.

Este não é apenas um problema teórico. Como Davide Crapis explica, "O ERC-8004 permite interações descentralizadas de agentes de IA, estabelece o comércio trustless e aprimora os sistemas de reputação no Ethereum". Sem isso, o comércio entre agentes permanece confinado a jardins murados ou requer supervisão manual — derrotando o propósito da autonomia.

ERC-8004: A Infraestrutura de Confiança de Três Registros

O padrão ERC-8004, que entrou em operação na mainnet do Ethereum em 29 de janeiro de 2026, estabelece uma camada de confiança modular por meio de três registros on-chain:

Registro de Identidade: Usa o ERC-721 para fornecer identificadores de agentes portáteis. Cada agente recebe um token não fungível representando sua identidade on-chain exclusiva, permitindo o reconhecimento em várias plataformas e evitando a falsificação de identidade.

Registro de Reputação: Coleta feedbacks e avaliações padronizadas. Ao contrário dos sistemas de avaliação centralizados, o feedback é registrado on-chain com assinaturas criptográficas, criando uma trilha de auditoria imutável. Qualquer pessoa pode rastrear esse histórico e construir algoritmos de reputação personalizados.

Registro de Verificação: Oferece suporte à verificação criptográfica e econômica do trabalho do agente. É aqui que as auditorias programáveis acontecem — os validadores podem reexecutar computações, verificar provas de conhecimento zero (zero-knowledge proofs) ou utilizar Ambientes de Execução Confiáveis (TEEs) para confirmar que um agente agiu corretamente.

O brilhantismo do ERC-8004 é seu design agnóstico. Como observa a especificação técnica, o padrão suporta várias técnicas de verificação: "reexecução de tarefas garantida por stake (inspirada em sistemas como EigenLayer), verificação de provas de aprendizado de máquina de conhecimento zero (zkML) e atestados de Ambientes de Execução Confiáveis".

Essa flexibilidade é importante. Um agente de arbitragem DeFi pode usar provas zkML para verificar sua lógica de negociação sem revelar o alpha. Um agente de cadeia de suprimentos pode usar atestados TEE para provar que acessou dados do mundo real corretamente. Um agente de ponte cross-chain pode contar com a validação criptoeconômica com slashing para garantir uma execução honesta.

Processo de Verificação em Cinco Etapas da Blacklight

A implementação do ERC-8004 pela Nillion na Blacklight adiciona uma camada crucial: nós de verificação operados pela comunidade. Veja como o processo funciona:

1. Registro do Agente: Um agente registra sua identidade no Registro de Identidade, recebendo um NFT ERC-721. Isso cria um identificador on-chain exclusivo vinculado à chave pública do agente.

2. Iniciação da Solicitação de Verificação: Quando um agente realiza uma ação que requer validação (por exemplo, executar uma negociação, transferir fundos ou atualizar o estado), ele envia uma solicitação de verificação para a Blacklight.

3. Atribuição de Comitê: O protocolo da Blacklight atribui aleatoriamente um comitê de nós de verificação para auditar a solicitação. Esses nós são operados por membros da comunidade que fazem stake de 70.000 tokens NIL, alinhando incentivos para a integridade da rede.

4. Verificações dos Nós: Os membros do comitê reexecutam a computação ou validam provas criptográficas. Se os validadores detectarem um comportamento incorreto, eles podem realizar o slashing do stake do agente (em sistemas que usam validação criptoeconômica) ou sinalizar a identidade no Registro de Reputação.

5. Relatórios On-Chain: Os resultados são postados on-chain. O Registro de Verificação registra se o trabalho do agente foi verificado, criando uma prova permanente de execução. O Registro de Reputação é atualizado de acordo.

Esse processo ocorre de forma assíncrona e não bloqueante, o que significa que os agentes não esperam que a verificação seja concluída para tarefas rotineiras — mas ações de alto risco (grandes transferências, operações cross-chain) podem exigir validação prévia.

Auditorias Programáveis: Além da Confiança Binária

O recurso mais ambicioso do Blacklight é a "verificação programável" — a capacidade de auditar como um agente toma decisões, não apenas o que ele faz.

Considere um agente DeFi gerenciando uma tesouraria. As auditorias tradicionais verificam se os fundos foram movidos corretamente. As auditorias programáveis verificam:

  • Consistência da lógica de tomada de decisão: O agente seguiu sua estratégia de investimento declarada ou se desviou dela?
  • Execução de workflow multietapa: Se o agente deveria rebalancear portfólios em três chains, ele concluiu todas as etapas?
  • Restrições de segurança: O agente respeitou os limites de gas, tolerâncias de slippage e limites de exposição?

Isso é possível porque o Registro de Validação do ERC-8004 suporta sistemas de prova arbitrários. Um agente pode se comprometer com um algoritmo de tomada de decisão on-chain ( por exemplo, um hash de seus pesos de rede neural ou um circuito zk-SNARK representando sua lógica ), e em seguida, provar que cada ação está em conformidade com esse algoritmo sem revelar detalhes proprietários.

O roadmap da Nillion visa explicitamente esses casos de uso: "A Nillion planeja expandir as capacidades do Blacklight para 'verificação programável', permitindo auditorias descentralizadas de comportamentos complexos, como a consistência da lógica de tomada de decisão do agente, a execução de workflow multietapa e restrições de segurança."

Isso muda a verificação de reativa ( detectar erros após o fato ) para proativa ( impor o comportamento correto por design ).

Computação Cega: Privacidade Encontra a Verificação

A tecnologia subjacente da Nillion — Nil Message Compute ( NMC ) — adiciona uma dimensão de privacidade à verificação do agente. Ao contrário das blockchains tradicionais onde todos os dados são públicos, a "computação cega" da Nillion permite operações em dados criptografados sem descriptografia.

Veja por que isso é importante para os agentes: um agente de IA pode precisar verificar sua estratégia de negociação sem revelar seu alpha aos concorrentes. Ou provar que acessou registros médicos confidenciais corretamente sem expor os dados do paciente. Ou demonstrar conformidade com restrições regulatórias sem divulgar a lógica de negócios proprietária.

O NMC da Nillion alcança isso por meio de computação multipartidária ( MPC ), onde os nós geram colaborativamente "fatores de ofuscamento" — aleatoriedade correlacionada usada para criptografar dados. Como explica a DAIC Capital, "Os nós geram o recurso de rede principal necessário para processar dados — um tipo de aleatoriedade correlacionada referido como um fator de ofuscamento — com cada nó armazenando sua parte do fator de ofuscamento de forma segura, distribuindo a confiança pela rede de uma forma segura contra computação quântica."

Essa arquitetura é resistente à computação quântica por design. Mesmo que um computador quântico quebre a criptografia de curva elíptica atual, os fatores de ofuscamento distribuídos permanecem seguros porque nenhum nó individual possui informações suficientes para descriptografar os dados.

Para agentes de IA, isso significa que a verificação não requer o sacrifício da confidencialidade. Um agente pode provar que executou uma tarefa corretamente enquanto mantém seus métodos, fontes de dados e lógica de tomada de decisão privados.

A Jogada de Infraestrutura da Economia de Agentes de $ 4,3 Bilhões

O lançamento do Blacklight ocorre no momento em que o setor de blockchain-IA entra em hipercrescimento. O mercado está projetado para crescer de 680milho~es(2025)para680 milhões ( 2025 ) para 4,3 bilhões ( 2034 ) a um CAGR de 22,9%, enquanto o mercado mais amplo de computação confidencial atinge $ 350 bilhões até 2032.

Mas a Nillion não está apenas apostando na expansão do mercado — ela está se posicionando como uma infraestrutura crítica. O gargalo da economia de agentes não é a computação ou o armazenamento; é a confiança em escala. Como observa a perspectiva para 2026 da KuCoin, três tendências principais estão remodelando a identidade da IA e o fluxo de valor:

Sistemas de Agente-Envolvendo-Agente ( Agent-Wrapping-Agent ): Agentes coordenando com outros agentes para executar tarefas multietapa complexas. Isso requer identidade e verificação padronizadas — exatamente o que o ERC-8004 fornece.

KYA ( Conheça Seu Agente ): Infraestrutura financeira que exige credenciais de agentes. Os reguladores não aprovarão agentes autônomos gerenciando fundos sem prova de comportamento correto. As auditorias programáveis do Blacklight abordam isso diretamente.

Nanopagamentos: Os agentes precisam liquidar micropagamentos de forma eficiente. O protocolo de pagamento x402, que processou mais de 20 milhões de transações em janeiro de 2026, complementa o ERC-8004 lidando com a liquidação, enquanto o Blacklight lida com a confiança.

Juntos, esses padrões atingiram a prontidão para produção com poucas semanas de diferença — um avanço de coordenação que sinaliza a maturação da infraestrutura.

O Futuro da Ethereum Focado em Agentes

A adoção do ERC-8004 estende-se muito além da Nillion. No início de 2026, vários projetos integraram o padrão:

  • Oasis Network: Implementando o ERC-8004 para computação confidencial com validação baseada em TEE
  • The Graph: Suportando ERC-8004 e x402 para permitir interações de agentes verificáveis em indexação descentralizada
  • MetaMask: Explorando carteiras de agentes com identidade ERC-8004 integrada
  • Coinbase: Integrando o ERC-8004 para soluções de custódia institucional de agentes

Essa adoção rápida reflete uma mudança mais ampla no roadmap da Ethereum. Vitalik Buterin enfatizou repetidamente que o papel da blockchain está se tornando "apenas o encanamento" para agentes de IA — não a camada voltada para o consumidor, mas a infraestrutura de confiança que permite a coordenação autônoma.

O Blacklight da Nillion acelera essa visão ao tornar a verificação programável, preservadora de privacidade e descentralizada. Em vez de depender de oráculos centralizados ou revisores humanos, os agentes podem provar sua correção criptograficamente.

O Que Vem a Seguir: Integração com a Mainnet e Expansão do Ecossistema

O roadmap de 2026 da Nillion prioriza a compatibilidade com a Ethereum e a descentralização sustentável. A bridge da Ethereum entrou em operação em fevereiro de 2026, seguida por contratos inteligentes nativos para staking e computação privada.

Membros da comunidade que realizam o staking de 70.000 tokens NIL podem operar nós de verificação Blacklight, ganhando recompensas enquanto mantêm a integridade da rede. Esse design espelha a economia de validadores da Ethereum, mas adiciona uma função específica de verificação.

Os próximos marcos incluem:

  • Suporte expandido a zkML: Integração com projetos como o Modulus Labs para verificar inferência de IA on-chain
  • Verificação cross-chain: Permitir que o Blacklight verifique agentes operando na Ethereum, Cosmos e Solana
  • Parcerias institucionais: Colaborações com a Coinbase e a Alibaba Cloud para implantação de agentes corporativos
  • Ferramentas de conformidade regulatória: Construção de frameworks KYA para adoção em serviços financeiros

Talvez o mais importante, a Nillion está desenvolvendo o nilGPT — um chatbot de IA totalmente privado que demonstra como a computação cega permite interações confidenciais entre agentes. Isso não é apenas uma demonstração; é um modelo para agentes que lidam com dados sensíveis na saúde, finanças e governo.

O Endgame da Coordenação Trustless

O lançamento do Blacklight marca um ponto de virada para a economia de agentes. Antes do ERC-8004, os agentes operavam em silos — confiáveis dentro de seus próprios ecossistemas, mas incapazes de se coordenar entre plataformas sem intermediários humanos. Após o ERC-8004, os agentes podem verificar a identidade uns dos outros, auditar o comportamento mútuo e liquidar pagamentos de forma autônoma.

Isso desbloqueia categorias inteiramente novas de aplicações:

  • Fundos de hedge descentralizados: Agentes gerindo portfólios em várias chains, com estratégias de investimento verificáveis e auditorias de desempenho transparentes
  • Cadeias de suprimentos autônomas: Agentes coordenando logística, pagamentos e conformidade sem supervisão centralizada
  • DAOs impulsionadas por IA: Organizações governadas por agentes que votam, propõem e executam com base em lógica de tomada de decisão criptograficamente verificada
  • Gestão de liquidez cross-protocol: Agentes rebalanceando ativos entre protocolos DeFi com restrições de risco programáveis

O fio condutor? Todos exigem coordenação trustless — a capacidade de os agentes trabalharem juntos sem relacionamentos pré-existentes ou âncoras de confiança centralizadas.

O Blacklight da Nillion fornece exatamente isso. Ao combinar a infraestrutura de identidade e reputação do ERC-8004 com verificação programável e computação cega, ele cria uma camada de confiança escalável o suficiente para a economia de trilhões de agentes no horizonte.

À medida que a blockchain se torna a infraestrutura básica para agentes de IA e finanças globais, a questão não é se precisamos de infraestrutura de verificação — é quem a constrói e se ela é descentralizada ou controlada por alguns guardiões. Os nós operados pela comunidade e o padrão aberto do Blacklight defendem o primeiro caso.

A era dos atores on-chain autônomos chegou. A infraestrutura está ativa. A única questão restante é o que será construído sobre ela.


Fontes:

Convergência IA × Web3: Como a Blockchain se Tornou o Sistema Operacional para Agentes Autônomos

· 17 min de leitura
Dora Noda
Software Engineer

Em 29 de janeiro de 2026, a Ethereum lançou o ERC-8004, um padrão que concede identidades on-chain persistentes a agentes de software de IA. Em poucos dias, mais de 24.549 agentes se registraram, e a BNB Chain anunciou suporte para o protocolo. Isto não é um progresso incremental — é a infraestrutura para atores econômicos autônomos que podem transacionar, coordenar e construir reputação sem intermediação humana.

Os agentes de IA não precisam da blockchain para existir. Mas eles precisam da blockchain para se coordenar. Para transacionar de forma trustless através de fronteiras organizacionais. Para construir uma reputação verificável. Para liquidar pagamentos de forma autônoma. Para provar a execução sem intermediários centralizados.

A convergência acelera porque ambas as tecnologias resolvem a fraqueza crítica da outra: a IA fornece inteligência e automação, a blockchain fornece confiança e infraestrutura econômica. Juntas, elas criam algo que nenhuma alcança sozinha: sistemas autônomos que podem participar em mercados abertos sem exigir relações de confiança pré-existentes.

Este artigo examina a infraestrutura que torna a convergência entre IA × Web3 inevitável — desde padrões de identidade até protocolos econômicos e execução de modelos descentralizados. A questão não é se os agentes de IA irão operar na blockchain, mas quão rápido a infraestrutura escala para suportar milhões de atores econômicos autônomos.

ERC-8004: Infraestrutura de Identidade para Agentes de IA

O ERC-8004 entrou em operação na mainnet da Ethereum em 29 de janeiro de 2026, estabelecendo mecanismos padronizados e permissionless para identidade, reputação e validação de agentes.

O protocolo resolve um problema fundamental: como descobrir, escolher e interagir com agentes através de fronteiras organizacionais sem confiança pré-existente. Sem infraestrutura de identidade, cada interação de agente requer intermediação centralizada — plataformas de marketplace, serviços de verificação, camadas de resolução de disputas. O ERC-8004 torna estas interações trustless e compostáveis.

Três Registros Principais:

Registro de Identidade: Um identificador (handle) on-chain minimalista baseado no ERC-721 com extensão URIStorage que resolve para o arquivo de registro de um agente. Cada agente recebe um identificador portátil e resistente à censura. Nenhuma autoridade central controla quem pode criar uma identidade de agente ou quais plataformas a reconhecem.

Registro de Reputação: Interface padronizada para publicar e buscar sinais de feedback. Os agentes constroem reputação através do histórico de transações on-chain, tarefas concluídas e avaliações de contrapartes. A reputação torna-se portátil entre plataformas, em vez de ficar isolada em marketplaces individuais.

Registro de Validação: Hooks genéricos para solicitar e registrar verificações de validadores independentes — stakers reexecutando tarefas, verificadores zkML confirmando a execução, oráculos TEE provando computação, juízes de confiança resolvendo disputas. Os mecanismos de validação conectam-se de forma modular, em vez de exigir implementações específicas da plataforma.

A arquitetura cria condições para mercados de agentes abertos. Em vez de um Upwork para agentes de IA, obtêm-se protocolos permissionless onde os agentes se descobrem, negociam termos, executam tarefas e liquidam pagamentos — tudo sem o controle de gatekeepers de plataformas centralizadas.

O anúncio de suporte rápido da BNB Chain sinaliza a trajetória do padrão rumo à adoção multi-chain. A identidade de agente multi-chain permite que os agentes operem em diversos ecossistemas de blockchain, mantendo sistemas unificados de reputação e verificação.

DeMCP: Model Context Protocol Encontra a Descentralização

O DeMCP foi lançado como a primeira rede descentralizada de Model Context Protocol, abordando confiança e segurança com TEE (Ambientes de Execução Confiável) e blockchain.

O Model Context Protocol (MCP), desenvolvido pela Anthropic, padroniza como as aplicações fornecem contexto para grandes modelos de linguagem (LLMs). Pense nisso como o USB-C para aplicações de IA — em vez de integrações personalizadas para cada fonte de dados, o MCP fornece padrões de interface universais.

O DeMCP estende isso para a Web3: oferecendo acesso contínuo e pay-as-you-go aos principais LLMs como GPT-4 e Claude via instâncias MCP sob demanda, todos pagos em stablecoins (USDT/USDC) e governados por modelos de compartilhamento de receita.

A arquitetura resolve três problemas críticos:

Acesso: As APIs de modelos de IA tradicionais exigem contas centralizadas, infraestrutura de pagamento e SDKs específicos da plataforma. O DeMCP permite que agentes autônomos acedam a LLMs através de protocolos padronizados, pagando em cripto sem a necessidade de chaves de API geridas por humanos ou cartões de crédito.

Confiança: Os serviços MCP centralizados tornam-se pontos únicos de falha e vigilância. Os nós protegidos por TEE do DeMCP fornecem execução verificável — os agentes podem confirmar que os modelos executaram prompts específicos sem adulteração, algo crucial para decisões financeiras ou conformidade regulatória.

Composibilidade: Uma nova geração de infraestrutura de Agentes de IA baseada em protocolos MCP e A2A (Agente-para-Agente) está a emergir, projetada especificamente para cenários Web3, permitindo que os agentes acedam a dados multi-chain e interajam nativamente com protocolos DeFi.

O resultado: o MCP transforma a IA num cidadão de primeira classe da Web3. A blockchain fornece a confiança, a coordenação e o substrato econômico. Juntos, formam um sistema operacional descentralizado onde os agentes raciocinam, coordenam e agem através de protocolos interoperáveis.

Os principais projetos cripto de MCP para acompanhar em 2026 incluem provedores de infraestrutura que constroem camadas de coordenação de agentes, redes de execução de modelos descentralizados e integrações ao nível do protocolo que permitem que os agentes operem de forma autônoma em todos os ecossistemas Web3.

170 + Ferramentas de Agentes da Polymarket: Infraestrutura em Ação

O ecossistema da Polymarket cresceu para mais de 170 ferramentas de terceiros em 19 categorias, tornando-se uma infraestrutura essencial para qualquer pessoa séria sobre a negociação em mercados de previsão.

As categorias de ferramentas abrangem todo o fluxo de trabalho do agente:

Negociação Autônoma: Agentes movidos por IA que descobrem e otimizam estratégias automaticamente, integrando mercados de previsão com yield farming e protocolos DeFi. Alguns agentes alcançam 98 % de precisão em previsões de curto prazo.

Sistemas de Arbitragem: Bots automatizados que identificam discrepâncias de preços entre a Polymarket e outras plataformas de previsão ou mercados de apostas tradicionais, executando negociações mais rápido do que operadores humanos.

Rastreamento de Baleias: Ferramentas que monitoram movimentos de posições de larga escala, permitindo que agentes sigam ou contraponham a atividade institucional com base em correlações de desempenho histórico.

Infraestrutura de Copy Trading: Plataformas que permitem aos agentes replicar estratégias dos melhores desempenhos, com verificação on-chain de históricos que impedem alegações de desempenho falsas.

Análises e Feeds de Dados: Análises de nível institucional fornecendo aos agentes profundidade de mercado, análise de liquidez, distribuições de probabilidade histórica e correlações de resultados de eventos.

Gestão de Risco: Dimensionamento automatizado de posições, limites de exposição e mecanismos de stop-loss integrados diretamente na lógica de negociação do agente.

O ecossistema valida a tese de convergência IA × Web3. A Polymarket fornece repositórios no GitHub e SDKs especificamente para o desenvolvimento de agentes, tratando atores autônomos como participantes de primeira classe da plataforma, em vez de casos isolados ou violações dos termos de serviço.

As perspectivas para 2026 incluem o lançamento potencial do token $ POLY criando novas dinâmicas em torno da governança, estruturas de taxas e incentivos do ecossistema. O CEO Shayne Coplan sugeriu que este poderia se tornar um dos maiores TGEs (Eventos de Geração de Tokens) de 2026. Além disso, o potencial lançamento da blockchain da Polymarket (seguindo o modelo Hyperliquid) poderia remodelar fundamentalmente a infraestrutura, com bilhões arrecadados tornando uma appchain uma evolução natural.

A Stack de Infraestrutura: Camadas de IA × Web3

Agentes autônomos operando em blockchain exigem infraestrutura coordenada em várias camadas:

Camada 1: Identidade e Reputação

  • Registros ERC-8004 para identificação de agentes
  • Sistemas de reputação on-chain rastreando o desempenho
  • Prova criptográfica de propriedade e autoridade do agente
  • Pontes de identidade cross-chain para operações multi-ecossistema

Camada 2: Acesso e Execução

  • DeMCP para acesso descentralizado a LLMs
  • Computação protegida por TEE para lógica privada do agente
  • zkML (Zero-Knowledge Machine Learning) para inferência verificável
  • Redes de inferência descentralizadas distribuindo a execução do modelo

Camada 3: Coordenação e Comunicação

  • Protocolos A2A (Agente para Agente) para negociação direta
  • Formatos de mensagens padronizados para comunicação entre agentes
  • Mecanismos de descoberta para encontrar agentes com capacidades específicas
  • Escrow e resolução de disputas para contratos autônomos

Camada 4: Infraestrutura Econômica

  • Trilhos de pagamento com stablecoins para liquidação transfronteiriça
  • Formadores de mercado automatizados para ativos gerados por agentes
  • Estruturas de taxas programáveis e compartilhamento de receita
  • Alinhamento de incentivos baseado em tokens

Camada 5: Protocolos de Aplicação

  • Integrações DeFi para otimização autônoma de rendimento
  • APIs de mercado de previsão para negociação de informações
  • Marketplaces de NFT para conteúdo criado por agentes
  • Estruturas de participação em governança de DAOs

Esta stack permite comportamentos de agentes progressivamente complexos: automação simples (execução de contratos inteligentes), agentes reativos (respondendo a eventos on-chain), agentes proativos (iniciando estratégias baseadas em inferência) e agentes coordenadores (negociando com outros atores autônomos).

A infraestrutura não permite apenas que os agentes de IA usem a blockchain — ela torna a blockchain o ambiente operacional natural para a atividade econômica autônoma.

Por que a IA Precisa da Blockchain: O Problema da Confiança

Os agentes de IA enfrentam desafios fundamentais de confiança que as arquiteturas centralizadas não podem resolver:

Verificação: Como provar que um agente de IA executou uma lógica específica sem adulteração? As APIs tradicionais não oferecem garantias. A blockchain com zkML ou atestados TEE cria computação verificável — prova criptográfica de que modelos específicos processaram entradas específicas e produziram saídas específicas.

Reputação: Como os agentes constroem credibilidade além das fronteiras organizacionais? As plataformas centralizadas criam jardins murados — a reputação ganha no Upwork não se transfere para o Fiverr. A reputação on-chain torna-se portátil, verificável e resistente à manipulação por meio de ataques Sybil.

Liquidação: Como os agentes autônomos lidam com pagamentos sem intermediação humana? O sistema bancário tradicional exige contas, KYC e autorização humana para cada transação. Stablecoins e contratos inteligentes permitem uma liquidação programável e instantânea com segurança criptográfica em vez de burocrática.

Coordenação: Como agentes de diferentes organizações negociam sem intermediários confiáveis? Os negócios tradicionais exigem contratos, advogados e mecanismos de execução. Os contratos inteligentes permitem a execução de acordos trustless — o código aplica os termos automaticamente com base em condições verificáveis.

Atribuição: Como provar qual agente criou saídas específicas? A proveniência do conteúdo de IA torna-se crítica para direitos autorais, responsabilidade e distribuição de receita. O atestado on-chain fornece registros à prova de violação de criação, modificação e propriedade.

A blockchain não apenas permite essas capacidades — ela é a única arquitetura que as permite sem reintroduzir suposições de confiança centralizadas. A convergência surge de uma necessidade técnica, não de uma narrativa especulativa.

Por que o Blockchain Precisa de IA : O Problema da Inteligência

O blockchain enfrenta limitações igualmente fundamentais que a IA aborda :

Abstração de Complexidade : A UX do blockchain continua terrível — seed phrases , taxas de gás , assinatura de transações . Agentes de IA podem abstrair a complexidade , agindo como intermediários inteligentes que executam a intenção do usuário sem expor detalhes técnicos de implementação .

Processamento de Informação : Blockchains fornecem dados , mas carecem de inteligência para interpretá - los . Agentes de IA analisam padrões de atividade on - chain , identificam oportunidades de arbitragem , preveem movimentos de mercado e otimizam estratégias em velocidades e escalas impossíveis para humanos .

Automação : Contratos inteligentes executam lógica , mas não podem se adaptar a condições em mudança sem programação explícita . Agentes de IA fornecem tomada de decisão dinâmica , aprendendo com os resultados e ajustando estratégias sem exigir propostas de governança para cada mudança de parâmetro .

Descoberta : Protocolos DeFi sofrem com a fragmentação — os usuários devem descobrir manualmente oportunidades em centenas de plataformas . Agentes de IA digitalizam , avaliam e roteiam continuamente a atividade para os protocolos ideais com base em otimização multivariável sofisticada .

Gestão de Risco : Traders humanos lutam com disciplina , emoção e limites de atenção . Agentes de IA aplicam parâmetros de risco predefinidos , executam stop - losses sem hesitação e monitoram posições 24 / 7 em várias redes simultaneamente .

A relação torna - se simbiótica : o blockchain fornece a infraestrutura de confiança que permite a coordenação de IA , a IA fornece a inteligência que torna a infraestrutura de blockchain utilizável para atividades econômicas complexas .

A Economia de Agentes Emergente

A pilha de infraestrutura permite novos modelos econômicos :

Agente como Serviço ( Agent - as - a - Service ) : Agentes autônomos alugam suas capacidades sob demanda , precificando dinamicamente com base na oferta e na procura . Sem plataformas , sem intermediários — mercados de serviços diretos de agente para agente .

Inteligência Colaborativa : Agentes reúnem conhecimentos para tarefas complexas , coordenando - se por meio de contratos inteligentes que distribuem automaticamente a receita com base na contribuição . Sistemas multiagentes resolvendo problemas além da capacidade de qualquer agente individual .

Aumento de Previsão : Agentes monitoram continuamente fluxos de informações , atualizam estimativas de probabilidade e negociam com base em insights antes de notícias legíveis por humanos . A Finança de Informação ( InfoFi ) torna - se algorítmica , com agentes dominando a descoberta de preços .

Organizações Autônomas : DAOs governadas inteiramente por agentes de IA que executam em nome dos detentores de tokens , tomando decisões por meio de inferência verificável em vez de votação humana . Organizações operando na velocidade da máquina com responsabilidade criptográfica .

Economia de Conteúdo : Conteúdo gerado por IA com proveniência on - chain permitindo licenciamento automatizado , distribuição de royalties e direitos de criação de derivativos . Agentes negociando termos de uso e reforçando a atribuição por meio de contratos inteligentes .

Estes não são hipotéticos — versões iniciais já operam . A questão é : quão rápido a infraestrutura escala para suportar milhões de atores econômicos autônomos ?

Desafios Técnicos Remanescentes

Apesar do progresso rápido , obstáculos significativos persistem :

Escalabilidade : Os blockchains atuais lutam com o rendimento ( throughput ) . Milhões de agentes executando microtransações contínuas exigem soluções de Camada 2 ( Layer 2 ) , optimistic rollups ou redes dedicadas específicas para agentes .

Privacidade : Muitas operações de agentes exigem lógica ou dados confidenciais . TEEs fornecem soluções parciais , mas a criptografia totalmente homomórfica ( FHE ) e a criptografia avançada continuam sendo muito caras para escala de produção .

Regulação : Atores econômicos autônomos desafiam as estruturas legais existentes . Quem é responsável quando os agentes causam danos ? Como os requisitos de KYC / AML se aplicam ? A clareza regulatória está atrás da capacidade técnica .

Custos de Modelo : A inferência de LLM continua cara . Redes descentralizadas devem igualar os preços de APIs centralizadas ao mesmo tempo em que adicionam sobrecarga de verificação . A viabilidade econômica exige melhorias contínuas na eficiência do modelo .

Problemas de Oráculo : Agentes precisam de dados confiáveis do mundo real . As soluções de oráculo existentes introduzem suposições de confiança e latência . Melhores pontes ( bridges ) entre a lógica on - chain e a informação off - chain continuam sendo críticas .

Estes desafios não são intransponíveis — são problemas de engenharia com caminhos de solução claros . A trajetória da infraestrutura aponta para a resolução dentro de 12 - 24 meses .

O Ponto de Inflexão de 2026

Múltiplos catalisadores convergem em 2026 :

Maturação de Padrões : A adoção do ERC - 8004 em todas as principais redes cria uma infraestrutura de identidade interoperável . Os agentes operam perfeitamente no Ethereum , BNB Chain e ecossistemas emergentes .

Eficiência do Modelo : Modelos menores e especializados reduzem os custos de inferência em 10 - 100x , mantendo o desempenho para tarefas específicas . A viabilidade econômica melhora drasticamente .

Clareza Regulatória : As primeiras jurisdições estabelecem estruturas para agentes autônomos , proporcionando segurança jurídica para a adoção institucional .

Avanços de Aplicativos : Mercados de previsão , otimização de DeFi e criação de conteúdo demonstram clara superioridade dos agentes sobre os operadores humanos , impulsionando a adoção além dos usuários nativos de cripto .

Competição de Infraestrutura : Múltiplas equipes construindo inferência descentralizada , protocolos de coordenação de agentes e redes especializadas criam pressão competitiva acelerando o desenvolvimento .

A convergência transita de experimental para infraestrutural . Os primeiros adotantes ganham vantagens , as plataformas integram o suporte a agentes como padrão e a atividade econômica flui cada vez mais através de intermediários autônomos .

O que Isso Significa para o Desenvolvimento Web3

Desenvolvedores que constroem para a próxima fase da Web3 devem priorizar:

Design Agent-First: Trate atores autônomos como usuários primários, não como casos marginais. Projete APIs, estruturas de taxas e mecanismos de governança assumindo que os agentes dominam a atividade.

Componibilidade: Construa protocolos que os agentes possam integrar, coordenar e estender facilmente. Interfaces padronizadas importam mais do que implementações proprietárias.

Verificação: Forneça provas criptográficas de execução, não apenas resultados de execução. Agentes precisam de computação verificável para construir cadeias de confiança.

Eficiência Econômica: Otimize para microtransações, liquidação contínua e mercados de taxas dinâmicos. O processamento em lote tradicional e as intervenções manuais não escalam para a atividade dos agentes.

Opções de Privacidade: Suporte operações de agentes tanto transparentes quanto confidenciais. Diferentes casos de uso exigem diferentes garantias de privacidade.

A infraestrutura existe. Os padrões estão surgindo. Os incentivos econômicos se alinham. A convergência IA × Web3 não está chegando — ela já está aqui. A questão é: quem constrói a infraestrutura que se tornará fundamental para a próxima década de atividade econômica autônoma?

BlockEden.xyz fornece infraestrutura de nível empresarial para aplicações Web3, oferecendo acesso RPC confiável e de alto desempenho em todos os principais ecossistemas de blockchain. Explore nossos serviços para infraestrutura de agentes de IA e suporte a sistemas autônomos.


Fontes:

Explosão do InfoFi: Como a Informação se Tornou o Ativo Mais Negociado de Wall Street

· 13 min de leitura
Dora Noda
Software Engineer

O setor financeiro acaba de atravessar um limiar que a maioria não previu. Em fevereiro de 2026, os mercados de previsão processaram $ 6,32 bilhões em volume semanal — não provenientes de apostas especulativas, mas de investidores institucionais precificando a própria informação como uma commodity negociável.

As Finanças da Informação, ou "InfoFi", representam o ápice de uma transformação de uma década: de $ 4,63 bilhões em 2025 para uma projeção de $ 176,32 bilhões até 2034, a infraestrutura Web3 evoluiu os mercados de previsão de plataformas de apostas para o que Vitalik Buterin chama de "Motores da Verdade" — mecanismos financeiros que agregam inteligência de forma mais rápida do que a mídia tradicional ou sistemas de pesquisa.

Isso não se trata apenas de especulação com cripto. A ICE (Intercontinental Exchange, proprietária da Bolsa de Valores de Nova York) injetou $ 2 bilhões na Polymarket, avaliando o mercado de previsão em $ 9 bilhões. Fundos de hedge e bancos centrais agora integram dados de mercados de previsão nos mesmos terminais usados para ações e derivativos. A InfoFi tornou-se infraestrutura financeira.

O Que a InfoFi Realmente Significa

A InfoFi trata a informação como uma classe de ativos. Em vez de consumir notícias passivamente, os participantes alocam capital na precisão das afirmações — transformando cada ponto de dados em um mercado com preço passível de descoberta.

A mecânica funciona da seguinte forma:

Fluxo de informação tradicional: O evento acontece → A mídia noticia → Analistas interpretam → Os mercados reagem (dias a semanas)

Fluxo de informação InfoFi: Os mercados preveem o evento → O capital flui para previsões precisas → O preço sinaliza a verdade instantaneamente (minutos a horas)

Os mercados de previsão atingiram $ 5,9 bilhões em volume semanal em janeiro de 2026, com a Kalshi capturando 66,4 % de participação de mercado e a Polymarket apoiada pela infraestrutura institucional da ICE. Agentes de IA agora contribuem com mais de 30 % da atividade de negociação, precificando continuamente eventos geopolíticos, indicadores econômicos e resultados corporativos.

O resultado: a informação é precificada antes de se tornar notícia. Os mercados de previsão identificaram a gravidade da COVID-19 semanas antes das declarações da OMS, precificaram o resultado das eleições dos EUA em 2024 com mais precisão do que as pesquisas tradicionais e previram mudanças na política dos bancos centrais antes dos anúncios oficiais.

A Batalha Polymarket vs Kalshi

Duas plataformas dominam o cenário da InfoFi, representando abordagens fundamentalmente diferentes para os mercados de informação.

Kalshi: A concorrente regulamentada federalmente. Processou $ 43,1 bilhões em volume em 2025, com a supervisão da CFTC proporcionando legitimidade institucional. Negocia em dólares, integra-se com contas de corretagem tradicionais e foca em mercados em conformidade com os EUA.

A estrutura regulatória limita o escopo do mercado, mas atrai capital institucional. As finanças tradicionais sentem-se confortáveis em rotear ordens através da Kalshi porque ela opera dentro da infraestrutura de conformidade existente. Em fevereiro de 2026, a Kalshi detém 34 % de probabilidade de liderar o volume de 2026, com 91,1 % das negociações concentradas em contratos esportivos.

Polymarket: A desafiante nativa de cripto. Construída em infraestrutura de blockchain, processou $ 33 bilhões em volume em 2025 com mercados significativamente mais diversificados — apenas 39,9 % de esportes, sendo o restante abrangendo geopolítica, economia, tecnologia e eventos culturais.

O investimento de $ 2 bilhões da ICE mudou tudo. A Polymarket ganhou acesso à infraestrutura de liquidação institucional, distribuição de dados de mercado e caminhos regulatórios anteriormente reservados para bolsas tradicionais. Os traders veem a parceria com a ICE como uma confirmação de que os dados do mercado de previsão aparecerão em breve ao lado dos terminais Bloomberg e feeds da Reuters.

A competição impulsiona a inovação. A clareza regulatória da Kalshi permite a adoção institucional. A infraestrutura cripto da Polymarket permite a participação global e a composibilidade. Ambas as abordagens impulsionam a InfoFi em direção à aceitação em massa — caminhos diferentes convergindo para o mesmo destino.

Agentes de IA como Negociadores de Informação

Os agentes de IA não apenas consomem informações — eles as negociam.

Mais de 30% do volume do mercado de previsões agora vem de agentes de IA, analisando continuamente fluxos de dados, executando negociações e atualizando previsões de probabilidade. Esses não são simples bots seguindo regras predefinidas. Os agentes de IA modernos integram múltiplas fontes de dados, identificam anomalias estatísticas e ajustam posições com base em cenários de informação em evolução.

A ascensão da negociação por IA cria loops de feedback:

  1. Os agentes de IA processam informações mais rápido do que os humanos
  2. A atividade de negociação produz sinais de preço
  3. Os sinais de preço tornam-se inputs de informação para outros agentes
  4. Mais agentes entram, aumentando a liquidez e a precisão

Essa dinâmica transformou os mercados de previsões de especulação humana em descoberta algorítmica de informações. Os mercados agora são atualizados em tempo real à medida que os agentes de IA precificam continuamente as probabilidades com base em fluxos de notícias, sentimento social, indicadores econômicos e correlações entre mercados.

As implicações estendem-se além da negociação. Os mercados de previsões tornam-se "oráculos da verdade" para contratos inteligentes, fornecendo feeds de dados verificáveis e economicamente respaldados. Os protocolos DeFi podem liquidar com base nos resultados do mercado de previsões. As DAOs podem usar o consenso InfoFi para decisões de governança. Toda a stack Web3 ganha acesso a uma infraestrutura de informações de alta qualidade e alinhada por incentivos.

O Colapso da Plataforma X: A Primeira Falha do InfoFi

Nem todos os experimentos de InfoFi são bem-sucedidos. Janeiro de 2026 viu os preços dos tokens InfoFi desabarem após o X (antigo Twitter) banir aplicativos de recompensa por engajamento.

Projetos como KAITO (queda de 18%) e COOKIE (queda de 20%) construíram modelos de "informação como um ativo" recompensando usuários por engajamento, contribuição de dados e qualidade de conteúdo. A tese: a atenção tem valor, os usuários devem capturar esse valor através da economia de tokens.

O colapso revelou uma falha fundamental: construir economias descentralizadas em plataformas centralizadas. Quando o X mudou os termos de serviço, ecossistemas inteiros de InfoFi evaporaram da noite para o dia. Os usuários perderam o valor dos tokens. Os projetos perderam a distribuição. A economia de informação "descentralizada" provou ser frágil contra o risco de plataformas centralizadas.

Os sobreviventes aprenderam a lição. A verdadeira infraestrutura InfoFi requer distribuição nativa em blockchain, não dependências de plataformas Web2. Os projetos migraram para protocolos sociais descentralizados (Farcaster, Lens) e mercados de dados on-chain. O colapso acelerou a migração de modelos híbridos Web2-Web3 para uma infraestrutura de informação totalmente descentralizada.

InfoFi Além dos Mercados de Previsões

A informação como ativo se estende além das previsões binárias.

DAOs de Dados: Organizações que possuem, fazem a curadoria e monetizam conjuntos de dados coletivamente. Os membros contribuem com dados, validam a qualidade e compartilham a receita do uso comercial. A tokenização de Ativos do Mundo Real atingiu US$ 23 bilhões em meados de 2025, demonstrando o apetite institucional pela representação de valor on-chain.

Redes de Infraestrutura Física Descentralizada (DePIN): Avaliada em aproximadamente US$ 30 bilhões no início de 2025 com mais de 1.500 projetos ativos. Indivíduos compartilham hardware sobressalente (poder de GPU, largura de banda, armazenamento) e ganham tokens. A informação torna-se recursos de computação negociáveis.

Marketplaces de Modelos de IA: A blockchain permite a propriedade verificável de modelos e o rastreamento de uso. Os criadores monetizam modelos de IA através de licenciamento on-chain, com contratos inteligentes automatizando a distribuição de receita. A informação (pesos de modelo, dados de treinamento) torna-se infraestrutura combinável e negociável.

Mercados de Credenciais: Provas de conhecimento zero permitem a verificação de credenciais preservando a privacidade. Os usuários comprovam qualificações sem revelar dados pessoais. Credenciais verificáveis tornam-se ativos negociáveis em contextos de contratação, empréstimo e governança.

O fio condutor: a informação transita de uma externalidade gratuita para um ativo precificado. Os mercados descobrem valor para dados anteriormente não monetizáveis — consultas de pesquisa, métricas de atenção, verificação de especialização, recursos computacionais.

Integração de Infraestrutura Institucional

A adoção do InfoFi por Wall Street não é teórica — é operacional.

O investimento de US$ 2 bilhões da ICE na Polymarket fornece a estrutura institucional: frameworks de conformidade, infraestrutura de liquidação, distribuição de dados de mercado e caminhos regulatórios. Os dados do mercado de previsões agora se integram aos terminais usados por gestores de fundos de hedge e bancos centrais.

Essa integração transforma os mercados de previsões de fontes de dados alternativas em infraestrutura primária de inteligência. Os gestores de portfólio consultam probabilidades InfoFi juntamente com indicadores técnicos. Os sistemas de gestão de risco incorporam sinais do mercado de previsões. Algoritmos de negociação consomem atualizações de probabilidade em tempo real.

A transição espelha como os terminais Bloomberg absorveram fontes de dados ao longo de décadas — começando com preços de títulos, expandindo para feeds de notícias, integrando o sentimento social. O InfoFi representa a próxima camada: estimativas de probabilidade economicamente respaldadas para eventos que os dados tradicionais não conseguem precificar.

As finanças tradicionais reconhecem a proposta de valor. Os custos de informação diminuem quando os mercados precificam continuamente a precisão. Fundos de hedge pagam milhões por pesquisas proprietárias que os mercados de previsões produzem organicamente através do alinhamento de incentivos. Os bancos centrais monitoram o sentimento público por meio de pesquisas que o InfoFi captura em distribuições de probabilidade em tempo real.

À medida que a indústria projeta um crescimento de US40bilho~esem2025paramaisdeUS 40 bilhões em 2025 para mais de US 100 bilhões até 2027, o capital institucional continuará fluindo para a infraestrutura InfoFi — não como apostas cripto especulativas, mas como componentes centrais do mercado financeiro.

O Desafio Regulatório

O crescimento explosivo da InfoFi atrai o escrutínio regulatório.

A Kalshi opera sob a supervisão da CFTC, tratando os mercados de previsão como derivativos. Esta estrutura oferece clareza, mas limita o escopo do mercado — sem eleições políticas, sem resultados "socialmente prejudiciais", sem eventos fora da jurisdição regulatória.

A abordagem nativa de cripto da Polymarket permite mercados globais, mas complica a conformidade. Os reguladores debatem se os mercados de previsão constituem jogos de azar, ofertas de valores mobiliários ou serviços de informação. A classificação determina quais agências regulam, quais atividades são permitidas e quem pode participar.

O debate centra-se em questões fundamentais:

  • Os mercados de previsão são jogos de azar ou descoberta de informações?
  • Os tokens que representam posições de mercado constituem valores mobiliários?
  • As plataformas devem restringir os participantes por geografia ou credenciamento?
  • Como as regulamentações financeiras existentes se aplicam aos mercados de informações descentralizados?

Os resultados regulatórios moldarão a trajetória da InfoFi. Estruturas restritivas poderiam empurrar a inovação para o exterior, limitando a participação institucional. Uma regulamentação equilibrada poderia acelerar a adoção em massa, protegendo a integridade do mercado.

Sinais precoces sugerem abordagens pragmáticas. Os reguladores reconhecem o valor dos mercados de previsão para a descoberta de preços e gestão de risco. O desafio: criar estruturas que permitam a inovação enquanto previnem a manipulação, protegem os consumidores e mantêm a estabilidade financeira.

O Que Vem a Seguir

A InfoFi representa mais do que mercados de previsão — é a infraestrutura para a economia da informação.

À medida que os agentes de IA medeiam cada vez mais a interação humano-computador, eles precisam de fontes de informação confiáveis. O blockchain fornece feeds de dados verificáveis e alinhados por incentivos. Os mercados de previsão oferecem distribuições de probabilidade em tempo real. A combinação cria uma "infraestrutura da verdade" para sistemas autônomos.

Protocolos DeFi já integram oráculos de InfoFi para liquidação. DAOs usam mercados de previsão para governança. Protocolos de seguro precificam o risco usando estimativas de probabilidade on-chain. A próxima fase: adoção corporativa para previsão de cadeia de suprimentos, pesquisa de mercado e planejamento estratégico.

A projeção de mercado de US$ 176 bilhões para 2034 assume um crescimento incremental. A disrupção poderia acelerar mais rapidamente. Se as principais instituições financeiras integrarem totalmente a infraestrutura de InfoFi, as indústrias tradicionais de pesquisas, investigação e previsão enfrentarão uma pressão existencial. Por que pagar analistas para adivinhar quando os mercados precificam probabilidades continuamente?

A transição não será tranquila. As batalhas regulatórias se intensificarão. A competição entre plataformas forçará a consolidação. As tentativas de manipulação de mercado testarão o alinhamento de incentivos. Mas a tese fundamental permanece: a informação tem valor, os mercados descobrem preços, o blockchain possibilita a infraestrutura.

A InfoFi não está substituindo as finanças tradicionais — ela está se tornando as finanças tradicionais. A questão não é se os mercados de informação alcançarão a adoção em massa, mas quão rápido o capital institucional reconhecerá o inevitável.

BlockEden.xyz fornece infraestrutura de nível empresarial para aplicações Web3, oferecendo acesso RPC confiável e de alto desempenho em todos os principais ecossistemas de blockchain. Explore nossos serviços para uma infraestrutura escalável de InfoFi e mercados de previsão.


Fontes:

Panorama do Mercado InfoFi: Além dos Mercados de Previsão para Dados como Infraestrutura

· 12 min de leitura
Dora Noda
Software Engineer

Mercados de previsão ultrapassaram $ 6,32 bilhões em volume semanal no início de fevereiro de 2026, com Kalshi detendo 51 % de participação de mercado e Polymarket com 47 %. Mas a Information Finance (InfoFi) estende-se muito além das apostas binárias. Mercados de tokenização de dados, Data DAOs e infraestrutura de informação como ativo criam um ecossistema emergente onde a informação se torna programável, negociável e verificável.

A tese da InfoFi: a informação tem valor, os mercados descobrem preços, o blockchain possibilita a infraestrutura. Este artigo mapeia o cenário — do mecanismo de previsão da Polymarket à tokenização de dados do Ocean Protocol, de Data DAOs a mercados de verdade restritos por IA.

A Fundação dos Mercados de Previsão

Mercados de previsão ancoram o ecossistema InfoFi, fornecendo sinais de preços para eventos futuros incertos.

O Duopólio Kalshi-Polymarket

O mercado dividiu-se quase 51 / 49 entre Kalshi e Polymarket, mas a composição difere fundamentalmente.

Kalshi: Liquidou mais de $ 43,1 bilhões em 2025, fortemente ponderado para apostas esportivas. Licenciado pela CFTC, denominado em dólares, integrado com corretoras de varejo dos EUA. O "Prediction Markets Hub" da Robinhood canaliza bilhões em contratos através da infraestrutura da Kalshi.

Polymarket: Processou 33,4bilho~esem2025](https://markets.financialcontent.com/stocks/article/predictstreet202622thegreatpredictionwarof2026polymarketandkalshibattleforthevolumecrown),focadaemeventosde"altosinal"geopolıˊtica,macroeconomia,avanc\coscientıˊficos.Nativadecripto,participac\ca~oglobal,composıˊvelcomDeFi.[Concluiuaaquisic\ca~ode33,4 bilhões em 2025](https://markets.financialcontent.com/stocks/article/predictstreet-2026-2-2-the-great-prediction-war-of-2026-polymarket-and-kalshi-battle-for-the-volume-crown), focada em eventos de "alto sinal" — geopolítica, macroeconomia, avanços científicos. Nativa de cripto, participação global, composível com DeFi. [Concluiu a aquisição de 112 milhões da QCEX no final de 2025 para reentrada no mercado dos EUA via licenciamento da CFTC.

A competição impulsiona inovação: Kalshi captura o varejo e a conformidade institucional, Polymarket lidera em composibilidade nativa de cripto e acesso internacional.

Além das Apostas: Oráculos de Informação

Mercados de previsão evoluíram de ferramentas de especulação para oráculos de informação para sistemas de IA. As probabilidades de mercado servem como "âncoras externas" que restringem as alucinações de IA — muitos sistemas de IA agora desconsideram alegações que não podem ser apostadas em mercados de previsão.

Isso cria ciclos de feedback: agentes de IA negociam em mercados de previsão, os preços de mercado informam os resultados da IA, as previsões geradas por IA influenciam a negociação humana. O resultado: os mercados de informação tornam-se infraestrutura para a descoberta de verdade algorítmica.

Tokenização de Dados: O Modelo do Ocean Protocol

Enquanto os mercados de previsão precificam eventos futuros, o Ocean Protocol tokeniza conjuntos de dados existentes, criando mercados para dados de treinamento de IA, conjuntos de dados de pesquisa e informações proprietárias.

A Arquitetura Datatoken

O modelo do Ocean: cada datatoken representa uma sublicença de proprietários de propriedade intelectual de base, permitindo que os usuários acessem e consumam conjuntos de dados associados. Datatokens são compatíveis com ERC20, tornando-os negociáveis, composíveis com DeFi e programáveis através de contratos inteligentes.

A Pilha de Três Camadas:

Data NFTs: Representam a propriedade de conjuntos de dados subjacentes. Os criadores cunham NFTs estabelecendo direitos de procedência e controle.

Datatokens: Tokens de controle de acesso. Deter datatokens concede direitos de uso temporário sem transferir a propriedade. Separa o acesso aos dados da propriedade dos dados.

Ocean Marketplace: Exchange descentralizada para datatokens. Provedores de dados monetizam ativos, consumidores compram acesso, especuladores negociam tokens.

Esta arquitetura resolve problemas críticos: provedores de dados monetizam sem perder o controle, consumidores acessam sem custos totais de compra, os mercados descobrem preços justos para o valor da informação.

Casos de Uso Além da Negociação

Mercados de Treinamento de IA: Desenvolvedores de modelos compram acesso a conjuntos de dados para treinamento. A economia de datatokens alinha incentivos — dados valiosos comandam preços mais altos, criadores obtêm receita contínua da atividade de treinamento de modelos.

Compartilhamento de Dados de Pesquisa: Conjuntos de dados acadêmicos e científicos tokenizados para distribuição controlada. Pesquisadores verificam a procedência, rastreiam o uso e compensam os geradores de dados por meio da distribuição automatizada de royalties.

Colaboração de Dados Empresariais: Empresas compartilham conjuntos de dados proprietários por meio de acesso tokenizado em vez de transferência total. Mantêm a confidencialidade enquanto permitem análises colaborativas e desenvolvimento de modelos.

Monetização de Dados Pessoais: Indivíduos tokenizam registros de saúde, dados comportamentais ou preferências do consumidor. Vendem o acesso diretamente em vez de plataformas extraírem valor sem compensação.

Ocean possibilita a composibilidade do Ethereum para DAOs de dados como cooperativas de dados, criando uma infraestrutura onde os dados se tornam ativos financeiros programáveis.

DAOs de Dados: Propriedade Coletiva da Informação

As DAOs de dados funcionam como organizações autônomas descentralizadas que gerenciam ativos de dados, permitindo a propriedade, governança e monetização coletiva.

O Modelo de União de Dados

Os membros contribuem com dados coletivamente, a DAO governa as políticas de acesso e preços, a receita é distribuída automaticamente por meio de contratos inteligentes e os direitos de governança escalam com a contribuição de dados.

Exemplos Emergentes:

Uniões de Dados de Saúde: Pacientes agrupam registros de saúde, mantendo a privacidade individual por meio de provas criptográficas. Pesquisadores compram acesso agregado e a receita flui para os contribuidores. Os dados permanecem controlados pelos pacientes, não por sistemas de saúde centralizados.

DAOs de Pesquisa em Neurociência: Instituições acadêmicas e pesquisadores contribuem com conjuntos de dados de imagens cerebrais, informações genéticas e resultados clínicos. O conjunto de dados coletivo torna-se mais valioso do que as contribuições individuais, acelerando a pesquisa enquanto compensa os provedores de dados.

Projetos Ecológicos / GIS: Sensores ambientais, imagens de satélite e dados geográficos agrupados por comunidades. DAOs gerenciam o acesso aos dados para modelagem climática, planejamento urbano e conservação enquanto garantem que as comunidades locais se beneficiem dos dados gerados em suas regiões.

As DAOs de dados resolvem problemas de coordenação: indivíduos carecem de poder de barganha, plataformas extraem rendas de monopólio e os dados permanecem isolados. A propriedade coletiva permite uma compensação justa e uma governança democrática.

Informação como Ativos Digitais

O conceito trata os ativos de dados como ativos digitais, usando a infraestrutura de blockchain inicialmente projetada para criptomoedas para gerenciar a propriedade, transferência e avaliação de informações.

Esta escolha arquitetônica cria uma composibilidade poderosa: os ativos de dados integram-se com protocolos DeFi, participam de formadores de mercado automatizados (AMMs), servem como colateral para empréstimos e permitem a partilha programável de receitas.

A Pilha de Infraestrutura

Camada de Identidade: Prova criptográfica de propriedade e contribuição de dados. Previne o plágio, estabelece a procedência e permite a atribuição.

Controle de Acesso: Contratos inteligentes que governam quem pode acessar os dados e sob quais condições. Licenciamento programável substituindo a negociação manual de contratos.

Mecanismos de Preçamento: Formadores de mercado automatizados descobrindo o valor justo para conjuntos de dados. Dinâmicas de oferta e demanda em vez de preços institucionais arbitrários.

Distribuição de Receita: Contratos inteligentes dividindo automaticamente os lucros entre contribuidores, curadores e operadores de plataforma. Elimina intermediários de pagamento e atrasos.

Composibilidade: Os ativos de dados integram-se com o ecossistema Web3 mais amplo. Use conjuntos de dados como colateral, crie derivativos ou agrupe-os em produtos compostos.

Até meados de 2025, os mercados de RWA on-chain (incluindo dados) atingiram US$ 23 bilhões, demonstrando o apetite institucional por ativos tokenizados além das criptomoedas especulativas.

IA Restringindo o InfoFi: O Ciclo de Verificação

Os sistemas de IA dependem cada vez mais da infraestrutura de InfoFi para verificação da verdade.

Os mercados de previsão restringem as alucinações da IA: os traders arriscam dinheiro real, as probabilidades de mercado servem como âncoras externas e os sistemas de IA desvalorizam afirmações nas quais não se pode apostar.

Isso cria filtros de qualidade: afirmações verificáveis são negociadas em mercados de previsão, afirmações não verificáveis recebem menor confiança da IA, os preços de mercado fornecem atualizações contínuas de probabilidade e os resultados da IA tornam-se mais fundamentados na realidade econômica.

O ciclo de feedback funciona em ambas as direções: agentes de IA geram previsões melhorando a eficiência do mercado, os preços de mercado informam a qualidade dos dados de treinamento da IA, previsões de alto valor impulsionam os esforços de coleta de dados e os mercados de informação otimizam o sinal em vez do ruído.

O Mapa do Ecossistema InfoFi 2026

O cenário inclui múltiplas camadas interconectadas :

Camada 1 : Descoberta da Verdade

  • Mercados de previsão ( Kalshi , Polymarket )
  • Plataformas de forecasting
  • Sistemas de reputação
  • Protocolos de verificação

Camada 2 : Monetização de Dados

  • Datatokens do Ocean Protocol
  • Marketplaces de conjuntos de dados
  • Tokens de acesso a API
  • Plataformas de licenciamento de informações

Camada 3 : Propriedade Coletiva

  • DAOs de Dados
  • Colaborações de pesquisa
  • Data unions
  • Pools de informações comunitárias

Camada 4 : Integração de IA

  • Mercados de treinamento de modelos
  • Verificação de inferência
  • Atestação de saída
  • Restrições de alucinação

Camada 5 : Infraestrutura Financeira

  • Derivativos de informação
  • Colateral de dados
  • Automated market makers
  • Protocolos de distribuição de receita

Cada camada se baseia nas outras : mercados de previsão estabelecem sinais de preço , mercados de dados monetizam informações , DAOs permitem ação coletiva , IA cria demanda e a infraestrutura financeira fornece liquidez .

O que 2026 Revela

A InfoFi transita do experimental para o infraestrutural .

Validação Institucional : Grandes plataformas integrando mercados de previsão . Wall Street consumindo sinais de InfoFi . Surgimento de marcos regulatórios para o tratamento de informação como ativo .

Maturação da Infraestrutura : Consolidação dos padrões de tokenização de dados . Padrões de governança de DAO comprovados em escala . Integração IA - blockchain tornando-se contínua .

Crescimento do Mercado : [ 6,32bilho~esdevolumesemanalemmercadosdeprevisa~o](https://markets.financialcontent.com/stocks/article/predictstreet202621thegreatpredictionwarpolymarketandkalshibattleforthesoulofinformationfinance),6,32 bilhões de volume semanal em mercados de previsão ]( https://markets.financialcontent.com/stocks/article/predictstreet-2026-2-1-the-great-prediction-war-polymarket-and-kalshi-battle-for-the-soul-of-information-finance ) , 23 bilhões em ativos de dados on-chain , acelerando a adoção em diversos setores .

Expansão de Casos de Uso : Além da especulação , para pesquisa , colaboração empresarial , desenvolvimento de IA e coordenação de bens públicos .

A questão não é se a informação se tornará uma classe de ativos — é quão rápido a infraestrutura escala e quais modelos dominam . Os mercados de previsão capturaram o mindshare primeiro , mas as DAOs de dados e os protocolos de tokenização podem , em última análise , impulsionar fluxos de valor maiores .

O cenário da InfoFi em 2026 : base estabelecida , casos de uso comprovados , início da adoção institucional , infraestrutura em maturação . A próxima fase : integração nos sistemas de informação tradicionais , substituindo os marketplaces de dados legados , tornando-se a infraestrutura padrão para a troca de informações .

  • BlockEden.xyz fornece infraestrutura de nível empresarial para aplicações Web3 , oferecendo acesso RPC confiável e de alta performance em todos os principais ecossistemas de blockchain . Explore nossos serviços para infraestrutura InfoFi e suporte a mercados de dados .*

Fontes :

Mercados de Previsão Atingem US$ 5,9 Bilhões: Quando Agentes de IA se Tornaram a Ferramenta de Previsão de Wall Street

· 15 min de leitura
Dora Noda
Software Engineer

Quando o volume diário de negociação da Kalshi atingiu US814milho~esnoinıˊciode2026,capturando66,4 814 milhões no início de 2026, capturando 66,4% da fatia de mercado de previsão, não foram os especuladores de varejo que impulsionaram a alta. Foram os agentes de IA. Algoritmos de negociação autônomos agora contribuem com mais de 30% do volume do mercado de previsão, transformando o que começou como uma curiosidade da internet na mais nova infraestrutura de previsão institucional de Wall Street. O volume semanal do setor — US 5,9 bilhões e subindo — rivaliza com muitos mercados de derivativos tradicionais, com uma diferença crítica: esses mercados negociam informações, não apenas ativos.

Isso é a "Finança da Informação" — a monetização da inteligência coletiva através de mercados de previsão baseados em blockchain. Quando os traders apostam US42milho~essobreseaOpenAIalcanc\caraˊaAGIantesde2030,ouUS 42 milhões sobre se a OpenAI alcançará a AGI antes de 2030, ou US 18 milhões sobre qual empresa abrirá o capital em seguida, eles não estão jogando. Eles estão criando previsões líquidas e negociáveis nas quais investidores institucionais, formuladores de políticas e estrategistas corporativos confiam cada vez mais do que em analistas tradicionais. A questão não é se os mercados de previsão irão interromper as previsões. É a rapidez com que as instituições adotarão mercados que superam as previsões de especialistas por margens mensuráveis.

O Marco de US$ 5,9 Bilhões: Da Margem à Infraestrutura Financeira

Os mercados de previsão terminaram 2025 com volumes recordes históricos aproximando-se de US5,3bilho~es,umatrajetoˊriaqueseacelerouem2026.OsvolumessemanaisagoraexcedemconsistentementeUS 5,3 bilhões, uma trajetória que se acelerou em 2026. Os volumes semanais agora excedem consistentemente US 5,9 bilhões, com picos diários atingindo US$ 814 milhões durante grandes eventos. Para contextualizar, isso excede o volume diário de negociação de muitas ações de média capitalização (mid-cap) e rivaliza com mercados de derivativos especializados.

O crescimento não é linear — é exponencial. Os volumes do mercado de previsão em 2024 eram medidos em centenas de milhões anualmente. Em 2025, os volumes mensais ultrapassaram US1bilha~o.Em2026,osvolumessemanaisrotineiramenteatingiramUS 1 bilhão. Em 2026, os volumes semanais rotineiramente atingiram US 5,9 bilhões, representando um crescimento anual superior a 10 vezes. Essa aceleração reflete mudanças fundamentais em como as instituições veem os mercados de previsão: da novidade à necessidade.

A Kalshi domina com 66,4% de participação de mercado, processando a maioria do volume institucional. O Polymarket, operando no espaço nativo de cripto, captura um fluxo significativo de varejo e internacional. Juntas, essas plataformas movimentam bilhões em volume semanal em milhares de mercados cobrindo eleições, economia, desenvolvimentos tecnológicos, esportes e entretenimento.

A legitimidade do setor recebeu a validação da ICE (Intercontinental Exchange) quando a empresa controladora da NYSE investiu US$ 2 bilhões em infraestrutura de mercado de previsão. Quando o operador da maior bolsa de valores do mundo aplica capital nessa escala, isso sinaliza que os mercados de previsão não são mais experimentais — eles são infraestrutura estratégica.

Agentes de IA: O Fator de Contribuição de 30%

O impulsionador mais subestimado do crescimento do mercado de previsão é a participação de agentes de IA. Algoritmos de negociação autônomos agora contribuem com mais de 30% do volume total, mudando fundamentalmente a dinâmica do mercado.

Por que os agentes de IA estão negociando previsões? Três razões:

Arbitragem de informações: Agentes de IA escaneiam milhares de fontes de dados — notícias, redes sociais, dados on-chain, mercados financeiros tradicionais — para identificar previsões com preços incorretos. Quando um mercado precifica um evento com 40% de probabilidade, mas a análise de IA sugere 55%, os agentes negociam o spread.

Provisão de liquidez: Assim como os formadores de mercado (market makers) fornecem liquidez em bolsas de valores, os agentes de IA oferecem mercados bilaterais em plataformas de previsão. Isso melhora a descoberta de preços e reduz os spreads, tornando os mercados mais eficientes para todos os participantes.

Diversificação de portfólio: Investidores institucionais utilizam agentes de IA para ganhar exposição a sinais de informação não tradicionais. Um fundo de hedge pode usar mercados de previsão para proteger-se de riscos políticos, cronogramas de desenvolvimento tecnológico ou resultados regulatórios — riscos difíceis de expressar em mercados tradicionais.

O surgimento da negociação por agentes de IA cria um ciclo de feedback positivo. Mais participação de IA significa melhor liquidez, o que atrai mais capital institucional, o que justifica mais desenvolvimento de IA. Os mercados de previsão estão se tornando um campo de treinamento para agentes autônomos que aprendem a navegar em desafios de previsão complexos e do mundo real.

Os traders na Kalshi estão precificando uma probabilidade de 42% de que a OpenAI alcance a AGI antes de 2030 — acima dos 32% de seis meses atrás. Este mercado, com mais de US$ 42 milhões em liquidez, reflete a "sabedoria das multidões" que inclui engenheiros, investidores de capital de risco, especialistas em políticas e, cada vez mais, agentes de IA processando sinais que humanos não conseguem acompanhar em escala.

O Domínio Institucional da Kalshi: A Vantagem da Bolsa Regulamentada

A participação de mercado de 66,4% da Kalshi não é acidental — é estrutural. Como a primeira bolsa de mercado de previsão regulamentada pela CFTC nos EUA, a Kalshi oferece aos investidores institucionais algo que os concorrentes não podem: certeza regulatória.

O capital institucional exige conformidade. Fundos de hedge, gestores de ativos e tesourarias corporativas não podem alocar bilhões em plataformas não regulamentadas sem desencadear riscos legais e de conformidade. O registro na CFTC da Kalshi elimina essa barreira, permitindo que as instituições negociem previsões juntamente com ações, títulos e derivativos em seus portfólios.

O status regulamentado cria efeitos de rede. Mais volume institucional atrai melhores provedores de liquidez, o que reduz os spreads, o que atrai mais traders. Os livros de ordens da Kalshi agora são profundos o suficiente para que negociações multimilionárias sejam executadas sem derrapagem (slippage) significativa — um limiar que separa mercados funcionais de experimentais.

A amplitude de produtos da Kalshi também importa. Os mercados abrangem eleições, indicadores econômicos, marcos tecnológicos, prazos de IPO, lucros corporativos e eventos macroeconômicos. Essa diversidade permite que investidores institucionais expressem visões detalhadas. Um fundo de hedge pessimista em relação às avaliações de tecnologia pode vender a descoberto (short) mercados de previsão sobre IPOs de unicórnios. Um analista de políticas que antecipa mudanças regulatórias pode negociar em mercados de resultados do congresso.

A alta liquidez garante que os preços não sejam facilmente manipulados. Com milhões em jogo e milhares de participantes, os preços de mercado refletem um consenso genuíno em vez de manipulação individual. Essa "sabedoria das multidões" supera as previsões de especialistas em testes cegos — os mercados de previsão superam consistentemente as pesquisas, as previsões de analistas e as opiniões de especialistas.

Alternativa Cripto-Nativa da Polymarket: O Desafiador Descentralizado

Enquanto a Kalshi domina os mercados regulamentados dos EUA, a Polymarket captura o fluxo cripto-nativo e internacional. Operando em trilhos de blockchain com liquidação em USDC, a Polymarket oferece acesso permissionless — sem KYC, sem restrições geográficas, sem controle regulatório.

A vantagem da Polymarket é o alcance global. Traders de jurisdições onde a Kalshi não está acessível podem participar livremente. Durante as eleições de 2024 nos EUA, a Polymarket processou mais de $ 3 bilhões em volume, demonstrando que a infraestrutura cripto-nativa pode lidar com escala institucional.

A integração cripto da plataforma permite mecanismos inovadores. Contratos inteligentes executam a liquidação automaticamente com base em dados de oráculos. Pools de liquidez operam continuamente sem intermediários. A liquidação ocorre em segundos, em vez de dias. Essas vantagens atraem traders cripto-nativos confortáveis com as primitivas DeFi.

No entanto, a incerteza regulatória continua sendo o desafio da Polymarket. Operar sem aprovação regulatória explícita nos EUA limita a adoção institucional domesticamente. Embora os usuários de varejo e internacionais adotem o acesso permissionless, as instituições dos EUA evitam amplamente plataformas que carecem de clareza regulatória.

A competição entre Kalshi (regulamentada, institucional) e Polymarket (cripto-nativa, permissionless) reflete debates mais amplos nas finanças digitais. Ambos os modelos funcionam. Ambos atendem a diferentes bases de usuários. O crescimento do setor sugere espaço para múltiplos vencedores, cada um otimizando para diferentes compensações regulatórias e tecnológicas.

Finanças de Informação: Monetizando a Inteligência Coletiva

O termo "Finanças de Informação" descreve a inovação central dos mercados de previsão: transformar previsões em instrumentos negociáveis e líquidos. A previsão tradicional depende de especialistas que fornecem estimativas pontuais com precisão incerta. Os mercados de previsão agregam conhecimento distribuído em probabilidades contínuas precificadas pelo mercado.

Por que os mercados superam os especialistas:

Skin in the game: Os participantes do mercado arriscam capital em suas previsões. Previsões ruins perdem dinheiro. Essa estrutura de incentivos filtra o ruído do sinal melhor do que pesquisas de opinião ou painéis de especialistas, onde os participantes não enfrentam penalidades por estarem errados.

Atualização contínua: Os preços de mercado se ajustam em tempo real à medida que novas informações surgem. As previsões de especialistas são estáticas até o próximo relatório. Os mercados são dinâmicos, incorporando notícias de última hora, vazamentos e tendências emergentes instantaneamente.

Conhecimento agregado: Os mercados reúnem informações de milhares de participantes com conhecimentos diversos. Nenhum especialista individual pode igualar o conhecimento coletivo de engenheiros, investidores, formuladores de políticas e operadores, cada um contribuindo com uma visão especializada.

Probabilidade transparente: Os mercados expressam previsões como probabilidades com intervalos de confiança claros. Um mercado que precifica um evento em 65% diz "aproximadamente dois terços de chance" — mais útil do que um especialista dizendo "provável" sem quantificação.

Pesquisas mostram consistentemente que os mercados de previsão superam painéis de especialistas, pesquisas e previsões de analistas em diversos domínios — eleições, economia, desenvolvimento tecnológico e resultados corporativos. O histórico não é perfeito, mas é comprovadamente melhor do que as alternativas.

As instituições financeiras estão prestando atenção. Em vez de contratar consultores caros para análise de cenários, as empresas podem consultar os mercados de previsão. Quer saber se o Congresso aprovará a regulamentação cripto este ano? Existe um mercado para isso. Quer saber se um concorrente fará um IPO antes do final do ano? Negocie essa previsão. Avaliando riscos geopolíticos? Aposte nisso.

O Caso de Uso Institucional: Previsão como Serviço

Os mercados de previsão estão em transição de entretenimento especulativo para infraestrutura institucional. Vários casos de uso impulsionam a adoção:

Gestão de risco: As empresas usam mercados de previsão para proteger riscos difíceis de expressar em derivativos tradicionais. Um gerente de cadeia de suprimentos preocupado com greves portuárias pode negociar em mercados de previsão sobre negociações trabalhistas. Um CFO preocupado com as taxas de juros pode cruzar os mercados de previsão do Fed com futuros de títulos.

Planejamento estratégico: As empresas tomam decisões de bilhões de dólares com base em previsões. A regulamentação de IA passará? Uma plataforma de tecnologia enfrentará ações antitruste? Um concorrente lançará um produto? Os mercados de previsão fornecem respostas probabilísticas com capital real em risco.

Pesquisa de investimento: Fundos de hedge e gestores de ativos usam mercados de previsão como fontes de dados alternativas. Os preços de mercado sobre marcos tecnológicos, resultados regulatórios ou eventos macro informam o posicionamento do portfólio. Alguns fundos negociam diretamente em mercados de previsão como fontes de alfa.

Análise de políticas: Governos e think tanks consultam mercados de previsão para opinião pública além das pesquisas. Os mercados filtram a crença genuína da sinalização de virtude — participantes que apostam seu dinheiro revelam expectativas reais, não respostas socialmente desejáveis.

O investimento de $ 2 bilhões da ICE sinaliza que as bolsas tradicionais veem os mercados de previsão como uma nova classe de ativos. Justamente como os mercados de derivativos surgiram na década de 1970 para monetizar a gestão de risco, os mercados de previsão estão surgindo na década de 2020 para monetizar a previsão.

O Ciclo de Feedback entre Agentes de IA e Mercados

Agentes de IA participando de mercados de previsão criam um ciclo de feedback que acelera ambas as tecnologias :

Melhor IA a partir de dados de mercado : Modelos de IA treinam em resultados de mercados de previsão para melhorar a antecipação. Um modelo que prevê o cronograma de IPOs de tecnologia melhora ao realizar backtesting contra os dados históricos da Kalshi. Isso cria incentivos para que laboratórios de IA construam modelos focados em previsões.

Melhores mercados a partir da participação de IA : Agentes de IA fornecem liquidez, arbitram erros de precificação e melhoram a descoberta de preços. Traders humanos se beneficiam de spreads mais estreitos e melhor agregação de informações. Os mercados tornam-se mais eficientes à medida que a participação da IA aumenta.

Adoção institucional de IA : Instituições que implementam agentes de IA em mercados de previsão ganham experiência com sistemas de negociação autônomos em ambientes de menor risco. As lições aprendidas são transferidas para a negociação de ações, forex e derivativos.

A contribuição de mais de 30 % da IA para o volume não é um teto — é um piso. À medida que as capacidades de IA melhoram e a adoção institucional aumenta, a participação de agentes pode atingir 50 - 70 % em poucos anos. Isso não substitui o julgamento humano — ele o aumenta. Humanos definem estratégias, agentes de IA executam em escala e velocidade impossíveis manualmente.

As stacks de tecnologia estão convergindo. Laboratórios de IA fazem parcerias com plataformas de mercados de previsão. Exchanges constroem APIs para negociação algorítmica. Instituições desenvolvem IA proprietária para estratégias de mercado de previsão. Essa convergência posiciona os mercados de previsão como um campo de testes para a próxima geração de agentes financeiros autônomos.

Desafios e Ceticismo

Apesar do crescimento, os mercados de previsão enfrentam desafios legítimos :

Risco de manipulação : Embora a alta liquidez reduza a manipulação, mercados de baixo volume permanecem vulneráveis. Um ator motivado com capital pode distorcer temporariamente os preços em mercados de nicho. As plataformas combatem isso com requisitos de liquidez e detecção de manipulação, mas o risco persiste.

Dependência de oráculos : Mercados de previsão exigem oráculos — entidades confiáveis que determinam os resultados. Erros ou corrupção de oráculos podem causar liquidações incorretas. Mercados baseados em blockchain minimizam isso com redes de oráculos descentralizadas, mas os mercados tradicionais dependem de resolução centralizada.

Incerteza regulatória : Embora a Kalshi seja regulamentada pela CFTC, os marcos regulatórios mais amplos permanecem obscuros. Mais mercados de previsão obterão aprovação ? Os mercados internacionais enfrentarão restrições ? A evolução regulatória pode restringir ou acelerar o crescimento de forma imprevisível.

Concentração de liquidez : A maior parte do volume se concentra em mercados de alto perfil ( eleições, grandes eventos tecnológicos ). Mercados de nicho carecem de liquidez, limitando a utilidade para previsões especializadas. Resolver isso requer incentivos de market - making ou provisão de liquidez por agentes de IA.

Preocupações éticas : Devem existir mercados sobre tópicos sensíveis — violência política, mortes, desastres ? Críticos argumentam que monetizar eventos trágicos é antiético. Proponentes contra - argumentam que a informação de tais mercados ajuda a prevenir danos. Este debate moldará quais mercados as plataformas permitirão.

A Trajetória 2026 - 2030

Se os volumes semanais atingirem $ 5,9 bilhões no início de 2026, para onde o setor irá ?

Assumindo um crescimento moderado ( 50 % ao ano — conservador, dada a aceleração recente ), os volumes dos mercados de previsão podem exceder 50bilho~esanualmenteateˊ2028e50 bilhões anualmente até 2028 e 150 bilhões até 2030. Isso posicionaria o setor de forma comparável a mercados de derivativos de médio porte.

Cenários mais agressivos — como a ICE lançando mercados de previsão na NYSE, grandes bancos oferecendo instrumentos de previsão, aprovação regulatória para mais tipos de mercado — poderiam elevar os volumes para mais de $ 500 bilhões + até 2030. Nessa escala, os mercados de previsão tornam - se uma classe de ativos distinta em portfólios institucionais.

Os habilitadores tecnológicos estão prontos : liquidação em blockchain, agentes de IA, marcos regulatórios, interesse institucional e históricos comprovados superando as previsões tradicionais. O que resta é a dinâmica da curva de adoção — quão rapidamente as instituições integrarão os mercados de previsão em seus processos de tomada de decisão.

A mudança de "especulação marginal" para "ferramenta de previsão institucional" está bem encaminhada. Quando a ICE investe 2bilho~es,quandoagentesdeIAcontribuemcom302 bilhões, quando agentes de IA contribuem com 30 % do volume, quando os volumes diários da Kalshi atingem 814 milhões, a narrativa mudou permanentemente. Mercados de previsão não são uma curiosidade. Eles são o futuro de como as instituições quantificam a incerteza e fazem o hedge do risco de informação.

Fontes

Redes de GPU Descentralizadas 2026: Como o DePIN está Desafiando a AWS pelo Mercado de Computação de IA de US$ 100 Bilhões

· 12 min de leitura
Dora Noda
Software Engineer

A revolução da IA criou uma fome sem precedentes por poder computacional. Enquanto hyperscalers como AWS, Azure e Google Cloud dominaram este espaço, uma nova classe de redes de GPU descentralizadas está surgindo para desafiar sua supremacia. Com o setor de DePIN (Redes de Infraestrutura Física Descentralizadas) explodindo de $ 5,2 bilhões para mais de $ 19 bilhões em valor de mercado em um ano, e projeções alcançando $ 3,5 trilhões até 2028, a questão não é mais se a computação descentralizada competirá com os provedores de nuvem tradicionais — mas quão rápido ela capturará a fatia de mercado.

A Crise de Escassez de GPUs: Uma Tempestade Perfeita para a Descentralização

A indústria de semicondutores está enfrentando um gargalo de suprimento que valida a tese da computação descentralizada.

A SK Hynix e a Micron, duas das maiores produtoras de Memória de Alta Largura de Banda (HBM) do mundo, anunciaram que toda a sua produção de 2026 já está esgotada. A Samsung alertou sobre aumentos de preços de dois dígitos, pois a demanda supera drasticamente a oferta.

Esta escassez está criando um mercado de dois níveis: aqueles com acesso direto à infraestrutura de hiperescala e todos os outros.

Para desenvolvedores de IA, startups e pesquisadores sem orçamentos de bilhões de dólares, o modelo de nuvem tradicional apresenta três barreiras críticas:

  • Custos proibitivos que podem consumir de 50 a 70 % dos orçamentos
  • Contratos de fidelidade de longo prazo com flexibilidade mínima
  • Disponibilidade limitada de GPUs de ponta, como a NVIDIA H100 ou H200

As redes de GPU descentralizadas estão posicionadas para resolver os três problemas.

Os Líderes de Mercado: Quatro Arquiteturas, Uma Visão

Render Network: De Artistas 3D para a Infraestrutura de IA

Originalmente construída para agregar GPUs ociosas para tarefas de renderização distribuída, a Render Network pivotou com sucesso para cargas de trabalho de computação de IA. A rede agora processa aproximadamente 1,5 milhão de frames mensalmente, e seu lançamento do Dispersed.com em dezembro de 2025 marcou uma expansão estratégica além das indústrias criativas.

Os principais marcos de 2026 incluem:

  • Escalabilidade de Sub-redes de Computação de IA: Recursos de GPU descentralizados expandidos especificamente para cargas de trabalho de aprendizado de máquina
  • Mais de 600 Modelos de IA Integrados: Modelos de pesos abertos para inferência e simulações de robótica
  • Otimização de Upload de 70 %: O recurso de Uploads Diferenciais para o Blender reduz drasticamente os tempos de transferência de arquivos

A migração da rede da Ethereum para a Solana (rebranding de RNDR para RENDER) a posicionou para as demandas de alto rendimento da computação de IA.

Na CES 2026, a Render apresentou parcerias destinadas a atender ao crescimento explosivo na demanda de GPUs para cargas de trabalho de ML de borda (edge ML). A transição da renderização criativa para a computação de IA de propósito geral representa uma das expansões de mercado mais bem-sucedidas no setor de DePIN.

Akash Network: O Desafiante Compatível com Kubernetes

A Akash adota uma abordagem fundamentalmente diferente com seu modelo de leilão reverso. Em vez de preços fixos, os provedores de GPU competem pelas cargas de trabalho, reduzindo os custos enquanto mantêm a qualidade por meio de um marketplace descentralizado.

Os resultados falam por si: crescimento de 428 % no uso em relação ao ano anterior, com utilização acima de 80 % ao entrar em 2026.

A iniciativa Starcluster da rede representa sua jogada mais ambiciosa até agora — combinando datacenters gerenciados centralmente com o marketplace descentralizado da Akash para criar o que eles chamam de uma "malha planetária" otimizada tanto para treinamento quanto para inferência. A aquisição planejada de aproximadamente 7.200 GPUs NVIDIA GB200 via Starbonds posicionaria a Akash para suportar a demanda de IA em hiperescala.

As métricas do terceiro trimestre de 2025 revelam um impulso acelerado:

  • A receita de taxas aumentou 11 % trimestre a trimestre, atingindo 715.000 AKT
  • Novos contratos (leases) cresceram 42 % QoQ para 27.000
  • O Aperfeiçoamento do Mecanismo de Queima (BME) do primeiro trimestre de 2026 vincula as queimas de tokens AKT aos gastos com computação — cada $ 1 gasto queima $ 0,85 de AKT

Com $ 3,36 milhões em volume mensal de computação, isso sugere que aproximadamente 2,1 milhões de AKT (cerca de $ 985.000) poderiam ser queimados mensalmente, criando uma pressão deflacionária sobre o suprimento do token.

Este vínculo direto entre o uso e a tokenomics diferencia a Akash de projetos onde a utilidade do token parece forçada ou desconectada da adoção real do produto.

Hyperbolic: O Disruptor de Custos

A proposta de valor da Hyperbolic é brutalmente simples: entregar as mesmas capacidades de inferência de IA que a AWS, Azure e Google Cloud com custos 75 % menores. Alimentando mais de 100.000 desenvolvedores, a plataforma utiliza o Hyper-dOS, um sistema operacional descentralizado que coordena recursos de GPU distribuídos globalmente por meio de uma camada de orquestração avançada.

A arquitetura consiste em quatro componentes principais:

  1. Hyper-dOS: Coordena recursos de GPU distribuídos globalmente
  2. Marketplace de GPUs: Conecta fornecedores com a demanda de computação
  3. Serviço de Inferência: Acesso a modelos de código aberto de última geração
  4. Framework de Agentes: Ferramentas que permitem inteligência autônoma

O que diferencia a Hyperbolic é seu próximo protocolo de Prova de Amostragem (PoSP) — desenvolvido com pesquisadores da UC Berkeley e da Columbia University — que fornecerá verificação criptográfica das saídas de IA.

Isso resolve um dos maiores desafios da computação descentralizada: a verificação sem confiança (trustless) sem depender de autoridades centralizadas. Assim que o PoSP estiver ativo, as empresas poderão verificar se os resultados da inferência foram computados corretamente sem precisar confiar no provedor de GPU.

Inferix: O Construtor de Pontes

A Inferix se posiciona como a camada de conexão entre desenvolvedores que precisam de poder computacional de GPU e provedores com capacidade excedente. Seu modelo pay-as-you-go elimina os compromissos de longo prazo que prendem os usuários aos provedores de nuvem tradicionais.

Embora seja mais nova no mercado, a Inferix representa a crescente classe de redes de GPU especializadas que visam segmentos específicos — neste caso, desenvolvedores que precisam de acesso flexível e de curta duração sem requisitos de escala empresarial.

A Revolução DePIN: Pelos Números

O setor mais amplo de DePIN fornece um contexto crucial para entender onde a computação descentralizada de GPU se encaixa no cenário da infraestrutura.

Em setembro de 2025, o CoinGecko rastreia quase 250 projetos DePIN com um valor de mercado combinado acima de $ 19 bilhões — um aumento em relação aos $ 5,2 bilhões de apenas 12 meses antes. Essa taxa de crescimento de 265 % supera drasticamente o mercado cripto em geral.

Dentro deste ecossistema, as DePINs relacionadas à IA dominam por valor de mercado, representando 48 % do tema. As redes descentralizadas de computação e armazenamento juntas representam aproximadamente $ 19,3 bilhões, ou mais da metade da capitalização total do mercado DePIN.

Os destaques demonstram o amadurecimento do setor:

  • Aethir: Entregou mais de 1,4 bilhão de horas de computação e relatou quase $ 40 milhões em receita trimestral em 2025
  • io.net e Nosana: Cada uma alcançou capitalizações de mercado superiores a $ 400 milhões durante seus ciclos de crescimento
  • Render Network: Ultrapassou $ 2 bilhões em capitalização de mercado à medida que se expandiu da renderização para cargas de trabalho de IA

O Contra-argumento dos Hyperscalers: Onde a Centralização Ainda Vence

Apesar da economia convincente e das métricas de crescimento impressionantes, as redes descentralizadas de GPU enfrentam desafios técnicos legítimos que os hyperscalers foram construídos para lidar.

Cargas de trabalho de longa duração: O treinamento de grandes modelos de linguagem pode levar semanas ou meses de computação contínua. As redes descentralizadas lutam para garantir que GPUs específicas permaneçam disponíveis por períodos prolongados, enquanto a AWS pode reservar capacidade pelo tempo que for necessário.

Sincronização rigorosa: O treinamento distribuído em várias GPUs exige coordenação em nível de microssegundo. Quando essas GPUs estão espalhadas por continentes com latências de rede variadas, manter a sincronização necessária para um treinamento eficiente torna-se exponencialmente mais difícil.

Previsibilidade: Para empresas que executam cargas de trabalho críticas, saber exatamente qual desempenho esperar é inegociável. Os hyperscalers podem fornecer SLAs detalhados; as redes descentralizadas ainda estão construindo a infraestrutura de verificação para oferecer garantias semelhantes.

O consenso entre os especialistas em infraestrutura é que as redes descentralizadas de GPU se destacam em cargas de trabalho em lote (batch), tarefas de inferência e ciclos de treinamento de curta duração.

Para esses casos de uso, a economia de custos de 50-75 % em comparação com os hyperscalers é transformadora. Mas para as cargas de trabalho mais exigentes, de longa duração e críticas, a infraestrutura centralizada ainda mantém a vantagem — pelo menos por enquanto.

Catalisador 2026: A Explosão da Inferência de IA

A partir de 2026, projeta-se que a demanda por inferência de IA e computação de treinamento acelere drasticamente, impulsionada por três tendências convergentes:

  1. Proliferação de IA Agêntica: Agentes autônomos exigem computação persistente para a tomada de decisões
  2. Adoção de modelos de código aberto: À medida que as empresas se afastam de APIs proprietárias, elas precisam de infraestrutura para hospedar modelos
  3. Implantação de IA empresarial: As empresas estão mudando da experimentação para a produção

Esse aumento na demanda atende diretamente aos pontos fortes das redes descentralizadas.

As cargas de trabalho de inferência são tipicamente de curta duração e massivamente paralelizáveis — exatamente o perfil onde as redes descentralizadas de GPU superam os hyperscalers em custo, entregando um desempenho comparável. Uma startup que executa inferência para um chatbot ou serviço de geração de imagens pode reduzir seus custos de infraestrutura em 75 % sem sacrificar a experiência do usuário.

Economia de Tokens: A Camada de Incentivo

O componente de criptomoeda dessas redes não é mera especulação — é o mecanismo que torna a agregação global de GPUs economicamente viável.

Render (RENDER): Originalmente emitido como RNDR na Ethereum, a rede migrou para a Solana entre 2023-2024, com os detentores de tokens trocando na proporção de 1 : 1. Os tokens de compartilhamento de GPU, incluindo o RENDER, subiram mais de 20 % no início de 2026, refletindo a crescente convicção no setor.

Akash (AKT): O mecanismo de queima (burn) BME cria uma ligação direta entre o uso da rede e o valor do token. Ao contrário de muitos projetos cripto onde a tokenomics parece desconectada do uso do produto, o modelo da Akash garante que cada dólar de computação impacte diretamente o suprimento de tokens.

A camada de token resolve o problema do "cold-start" que prejudicou as tentativas anteriores de computação descentralizada.

Ao incentivar os provedores de GPU com recompensas em tokens durante os primeiros dias da rede, essas projetos podem impulsionar a oferta antes que a demanda atinja a massa crítica. À medida que a rede amadurece, a receita real de computação substitui gradualmente a inflação de tokens.

Esta transição de incentivos de tokens para receita genuína é o teste de fogo que separa projetos de infraestrutura sustentáveis de modelos econômicos insustentáveis.

A Pergunta de US$ 100 Bilhões: O Descentralizado Pode Competir?

O mercado de computação descentralizada deve crescer de US9bilho~esem2024paraUS 9 bilhões em 2024 para US 100 bilhões até 2032. Se as redes de GPU descentralizadas capturarão uma fatia significativa depende da resolução de três desafios:

Verificação em escala: O protocolo PoSP da Hyperbolic representa um progresso, mas a indústria precisa de métodos padronizados para verificar criptograficamente se o trabalho de computação foi executado corretamente. Sem isso, as empresas permanecerão hesitantes.

Confiabilidade de nível empresarial: Alcançar 99,99 % de uptime ao coordenar GPUs distribuídas globalmente e operadas de forma independente requer uma orquestração sofisticada — o modelo Starcluster da Akash mostra um caminho a seguir.

Experiência do desenvolvedor: As redes descentralizadas precisam igualar a facilidade de uso do AWS, Azure ou GCP. A compatibilidade com Kubernetes (como oferecido pela Akash) é um começo, mas a integração perfeita com os fluxos de trabalho de ML existentes é essencial.

O Que Isso Significa para os Desenvolvedores

Para desenvolvedores de IA e construtores de Web3, as redes de GPU descentralizadas apresentam uma oportunidade estratégica:

Otimização de custos: As faturas de treinamento e inferência podem consumir facilmente 50-70 % do orçamento de uma startup de IA. Cortar esses custos pela metade ou mais muda fundamentalmente a economia da unidade.

Evitando o vendor lock-in: Os hyperscalers facilitam a entrada e tornam a saída cara. As redes descentralizadas que usam padrões abertos preservam a opcionalidade.

Resistência à censura: Para aplicações que podem enfrentar pressão de provedores centralizados, a infraestrutura descentralizada fornece uma camada crítica de resiliência.

A ressalva é adequar a carga de trabalho à infraestrutura. Para prototipagem rápida, processamento em lote, serviço de inferência e execuções de treinamento paralelo, as redes de GPU descentralizadas estão prontas hoje. Para treinamento de modelos de várias semanas que exigem confiabilidade absoluta, os hyperscalers continuam sendo a escolha mais segura — por enquanto.

O Caminho a Seguir

A convergência da escassez de GPUs, o crescimento da demanda por computação de IA e o amadurecimento da infraestrutura DePIN criam uma oportunidade de mercado rara. Os provedores de nuvem tradicionais dominaram a primeira geração de infraestrutura de IA oferecendo confiabilidade e conveniência. As redes de GPU descentralizadas estão competindo em custo, flexibilidade e resistência ao controle centralizado.

Os próximos 12 meses serão decisivos. À medida que a Render escala sua sub-rede de computação de IA, a Akash coloca as GPUs Starcluster online e a Hyperbolic lança a verificação criptográfica, veremos se a infraestrutura descentralizada pode cumprir sua promessa em hiperescala.

Para os desenvolvedores, pesquisadores e empresas que atualmente pagam preços premium por recursos escassos de GPU, o surgimento de alternativas confiáveis não poderia vir em melhor hora. A questão não é se as redes de GPU descentralizadas capturarão parte do mercado de computação de US$ 100 bilhões — é quanto.

BlockEden.xyz fornece infraestrutura de blockchain de nível empresarial para desenvolvedores que constroem sobre bases projetadas para durar. Explore nosso marketplace de APIs para acessar serviços de nós confiáveis em redes de blockchain líderes.