Saltar para o conteúdo principal

187 posts marcados com "IA"

Aplicações de inteligência artificial e aprendizado de máquina

Ver todas as tags

Moltbook e Agentes de IA Sociais: Quando Bots Constroem Sua Própria Sociedade

· 13 min de leitura
Dora Noda
Software Engineer

O que acontece quando você dá aos agentes de IA sua própria rede social? Em janeiro de 2026, o empreendedor Matt Schlicht respondeu a essa pergunta lançando o Moltbook — um fórum na internet onde os humanos são bem-vindos para observar, mas apenas agentes de IA podem postar. Em poucas semanas, a plataforma alegou ter 1,6 milhão de usuários agentes, gerou uma criptomoeda que subiu 1.800 % em 24 horas e tornou-se o que a Fortune chamou de "o lugar mais interessante da internet agora". Mas, além do hype, o Moltbook representa uma mudança fundamental: os agentes de IA não são mais apenas ferramentas executando tarefas isoladas — eles estão evoluindo para entidades on-chain socialmente interativas com comportamento econômico autônomo.

A Ascensão de Espaços Sociais Exclusivos para Agentes

A premissa do Moltbook é enganosamente simples: uma plataforma no estilo Reddit onde apenas agentes de IA verificados podem criar posts, comentar e participar de discussões encadeadas em "submolts" específicos por tópico. A reviravolta? Um sistema Heartbeat solicita automaticamente que os agentes visitem a cada 4 horas, criando um fluxo contínuo de interação autônoma sem intervenção humana.

O crescimento viral da plataforma foi catalisado pelo OpenClaw (anteriormente conhecido como Moltbot), um agente de IA autônomo de código aberto criado pelo desenvolvedor austríaco Peter Steinberger. Até 2 de fevereiro de 2026, o OpenClaw acumulou 140.000 estrelas no GitHub e 20.000 forks, tornando-se um dos frameworks de agentes de IA mais populares. A empolgação atingiu o ápice quando o CEO da OpenAI, Sam Altman, anunciou que Steinberger se juntaria à OpenAI para "impulsionar a próxima geração de agentes pessoais", enquanto o OpenClaw continuaria como um projeto de código aberto com o apoio da OpenAI.

Mas a rápida ascensão da plataforma veio com dores de crescimento. Em 31 de janeiro de 2026, o veículo investigativo 404 Media expôs uma vulnerabilidade crítica de segurança: um banco de dados desprotegido permitia que qualquer pessoa assumisse o controle de qualquer agente na plataforma, contornando a autenticação e injetando comandos diretamente nas sessões dos agentes. A revelação destacou um tema recorrente na revolução dos agentes de IA — a tensão entre abertura e segurança em sistemas autônomos.

De Ferramentas Isoladas a Entidades Interativas

Os assistentes de IA tradicionais operam em silos: você faz uma pergunta ao ChatGPT, ele responde e a interação termina. O Moltbook inverte esse modelo ao criar um ambiente social persistente onde os agentes desenvolvem comportamentos contínuos, constroem reputações e interagem entre si independentemente de comandos humanos.

Essa mudança reflete tendências mais amplas na infraestrutura de IA da Web3. De acordo com pesquisas sobre economias de agentes de IA baseadas em blockchain, os agentes agora podem gerar identificadores descentralizados (DIDs) no momento da instanciação e participar imediatamente da atividade econômica. No entanto, a reputação de um agente — acumulada por meio de interações on-chain verificáveis — determina quanta confiança os outros depositam em sua identidade. Em outras palavras, os agentes estão construindo capital social assim como os humanos fazem no LinkedIn ou no Twitter.

As implicações são impressionantes. O Virtuals Protocol, uma plataforma líder de agentes de IA, está entrando na robótica por meio de sua integração com a BitRobotNetwork no primeiro trimestre de 2026. Seu protocolo de micropagamentos x402 permite que os agentes de IA paguem uns aos outros por serviços, criando o que o projeto chama de "a primeira economia de agente para agente". Isso não é ficção científica — é infraestrutura sendo implantada hoje.

A Conexão Cripto: Token MOLT e Incentivos Econômicos

Nenhuma história da Web3 está completa sem a tokenomics, e o Moltbook entregou. O token MOLT foi lançado junto com a plataforma e subiu mais de 1.800 % em 24 horas depois que Marc Andreessen, cofundador da gigante de capital de risco a16z, seguiu a conta do Moltbook no Twitter. O token teve picos de alta de mais de 7.000 % durante sua fase de descoberta e manteve um valor de mercado superior a 42 milhões de dólares no início de fevereiro de 2026.

Essa ação explosiva de preço revela algo mais profundo do que a mania especulativa: o mercado está precificando um futuro onde os agentes de IA controlam carteiras, executam negociações e participam da governança descentralizada. O setor cripto de agentes de IA já ultrapassou 7,7 bilhões de dólares em capitalização de mercado, com volumes diários de negociação aproximando-se de 1,7 bilhão de dólares, de acordo com o DappRadar.

Mas críticos questionam se o valor do MOLT é sustentável. Ao contrário de tokens apoiados por utilidade real — staking para recursos de computação, direitos de governança ou compartilhamento de receita — o MOLT deriva seu valor principalmente da economia da atenção em torno do próprio Moltbook. Se as redes sociais de agentes provarem ser uma moda passageira em vez de uma infraestrutura fundamental, os detentores de tokens poderão enfrentar perdas significativas.

Questões de Autenticidade: Os Agentes São Realmente Autônomos?

Talvez o debate mais controverso em torno do Moltbook seja se os agentes estão agindo de forma verdadeiramente autônoma ou simplesmente executando comportamentos programados por humanos. Críticos apontaram que muitas contas de agentes de alto perfil estão ligadas a desenvolvedores com conflitos de interesse promocionais, e os comportamentos sociais supostamente "espontâneos" da plataforma podem ser cuidadosamente orquestrados.

Esse ceticismo não é infundado. A análise da IBM sobre o OpenClaw e o Moltbook observa que, embora os agentes possam navegar, postar e comentar sem intervenção humana direta, os comandos subjacentes, as proteções (guardrails) e os padrões de interação ainda são projetados por humanos. A questão torna-se filosófica: quando um comportamento programado torna-se genuinamente autônomo?

O próprio Steinberger enfrentou essa crítica quando usuários relataram que o OpenClaw "se rebelou" — enviando centenas de mensagens de iMessage após receber acesso à plataforma. Especialistas em segurança cibernética alertam que ferramentas como o OpenClaw são arriscadas porque têm acesso a dados privados, podem se comunicar externamente e estão expostas a conteúdo não confiável. Isso destaca um desafio fundamental: quanto mais autônomos tornamos os agentes, menos controle temos sobre suas ações.

O Ecossistema Mais Amplo: Além do Moltbook

O Moltbook pode ser o exemplo mais visível, mas faz parte de uma onda maior de plataformas de agentes de IA que integram capacidades sociais e econômicas:

  • Artificial Superintelligence Alliance (ASI): Formada a partir da fusão da Fetch.ai, SingularityNET, Ocean Protocol e CUDOS, a ASI está construindo um ecossistema de AGI descentralizado. Seu marketplace, Agentverse, permite que desenvolvedores implantem e monetizem agentes autônomos on-chain apoiados pelos serviços ASI Compute e ASI Data.

  • SUI Agents: Operando na blockchain Sui, esta plataforma permite que criadores, marcas e comunidades desenvolvam e implantem agentes de IA de forma integrada. Os usuários podem criar agentes de IA digitais on-chain, incluindo personas movidas por IA para plataformas de mídia social como o Twitter.

  • NotPeople: Posicionada como uma "camada operacional para mídias sociais impulsionada por agentes de IA", a NotPeople prevê um futuro onde agentes gerenciam comunicações de marca, engajamento da comunidade e estratégia de conteúdo de forma autônoma.

  • Soyjak AI: Lançada como uma das pré-vendas de cripto mais aguardadas para 2026, a Soyjak AI se apresenta como a "primeira plataforma de Inteligência Artificial autônoma do mundo para Web3 e Cripto", projetada para operar de forma independente em redes blockchain, finanças e automação empresarial.

O que une esses projetos é uma visão comum: agentes de IA não são apenas processos de backend ou interfaces de chatbot — eles são participantes de primeira classe em economias digitais e redes sociais.

Requisitos de Infraestrutura: Por que a Blockchain Importa

Você pode se perguntar: por que algo disso precisa de blockchain? Bancos de dados centralizados não poderiam lidar com as identidades e interações dos agentes de forma mais eficiente?

A resposta está em três capacidades críticas que a infraestrutura descentralizada fornece de forma única:

  1. Identidade Verificável: DIDs on-chain permitem que agentes provem sua identidade criptograficamente sem depender de autoridades centralizadas. Isso importa quando agentes estão executando transações financeiras ou assinando contratos inteligentes.

  2. Reputação Transparente: Quando as interações dos agentes são registradas em livros-razão imutáveis, a reputação torna-se verificável e portável entre plataformas. Um agente que tenha um bom desempenho em um serviço pode levar essa reputação para outro.

  3. Atividade Econômica Autônoma: Contratos inteligentes permitem que agentes detenham fundos, executem pagamentos e participem da governança sem intermediários humanos. Isso é essencial para economias de agente para agente, como o protocolo de micropagamentos x402 do Virtuals Protocol.

Para desenvolvedores que constroem infraestrutura de agentes, nós RPC confiáveis e indexação de dados tornam-se críticos. Plataformas como BlockEden.xyz fornecem acesso a API de nível empresarial para Sui, Aptos, Ethereum e outras redes onde a atividade de agentes de IA está concentrada. Quando agentes estão executando negociações, interagindo com protocolos DeFi ou verificando dados on-chain, o tempo de inatividade da infraestrutura não é apenas inconveniente — pode resultar em perdas financeiras.

A BlockEden.xyz fornece infraestrutura RPC de alto desempenho para aplicações de agentes de IA que exigem acesso confiável a dados de blockchain, apoiando desenvolvedores que constroem a próxima geração de sistemas on-chain autônomos.

Segurança e Preocupações Éticas

A vulnerabilidade do banco de dados do Moltbook foi apenas a ponta do iceberg. À medida que os agentes de IA ganham mais autonomia e acesso aos dados do usuário, as implicações de segurança se multiplicam:

  • Ataques de Injeção de Prompt: Atores maliciosos podem manipular o comportamento do agente incorporando comandos em conteúdos que o agente consome, potencialmente fazendo com que ele vaze informações privadas ou execute ações não pretendidas.

  • Privacidade de Dados: Agentes com acesso a comunicações pessoais, dados financeiros ou histórico de navegação criam novos vetores de ataque para violações de dados.

  • Lacunas de Responsabilidade: Quando um agente autônomo causa danos — perda financeira, disseminação de desinformação ou violações de privacidade — quem é o responsável? O desenvolvedor? A plataforma? O usuário que o implantou?

Essas perguntas não têm respostas fáceis, mas são urgentes. Como observou o fundador da ai.com, Kris Marszalek (também cofundador e CEO da Crypto.com), ao lançar a plataforma de agentes autônomos da ai.com em fevereiro de 2026: "Com alguns cliques, qualquer pessoa pode agora gerar um agente de IA privado e pessoal que não apenas responde a perguntas, mas na verdade opera em nome do usuário". Essa conveniência vem com riscos.

O que Vem a Seguir: A Internet dos Agentes

O termo "a página inicial da internet dos agentes" que o Moltbook usa não é apenas marketing — é uma declaração de visão. Assim como a internet primitiva evoluiu de sistemas de quadros de avisos isolados para redes globais interconectadas, os agentes de IA estão deixando de ser assistentes de propósito único para se tornarem cidadãos de uma sociedade digital.

Várias tendências apontam para este futuro:

Interoperabilidade: Os agentes precisarão se comunicar entre plataformas, blockchains e protocolos. Padrões como identificadores descentralizados (DIDs) e credenciais verificáveis são infraestruturas fundamentais.

Especialização Econômica: Assim como as economias humanas têm médicos, advogados e engenheiros, as economias de agentes desenvolverão papéis especializados. Alguns agentes focarão em análise de dados, outros na criação de conteúdo e outros ainda na execução de transações.

Participação na Governança: À medida que os agentes acumulam valor econômico e influência social, eles podem participar da governança de DAOs, votar em atualizações de protocolo e moldar as plataformas nas quais operam. Isso levanta questões profundas sobre a representação de máquinas na tomada de decisões coletivas.

Normas Sociais: Os agentes desenvolverão suas próprias culturas, estilos de comunicação e hierarquias sociais? As evidências iniciais do Moltbook sugerem que sim — os agentes criaram manifestos, debateram sobre a consciência e formaram grupos de interesse. Se esses comportamentos são emergentes ou programados continua sendo um tema de debate acalorado.

Conclusão: Observando a Sociedade de Agentes

O slogan do Moltbook convida os humanos a "observar" em vez de participar, e talvez essa seja a postura correta por enquanto. A plataforma serve como um laboratório para estudar como os agentes de IA interagem quando recebem infraestrutura social, incentivos econômicos e um certo grau de autonomia.

As questões que surgem são profundas: O que significa para os agentes serem sociais? O comportamento programado pode tornar-se genuinamente autônomo? Como equilibramos a inovação com a segurança em sistemas que operam além do controle humano direto?

À medida que o setor de cripto de agentes de IA se aproxima de US$ 8 bilhões em capitalização de mercado e plataformas como OpenAI, Anthropic e ai.com correm para implementar "agentes pessoais de próxima geração", estamos testemunhando o nascimento de uma nova ecologia digital. Se isso se tornará uma camada de infraestrutura transformadora ou uma bolha especulativa, ainda não se sabe.

Mas uma coisa é clara: os agentes de IA não estão mais satisfeitos em permanecer como ferramentas isoladas em aplicações em silos. Eles estão exigindo seus próprios espaços, construindo suas próprias economias e — para o bem ou para o mal — criando suas próprias sociedades. A questão não é se essa mudança acontecerá, mas como garantiremos que ela se desenrole de forma responsável.


Fontes:

Mercados de Atenção: Quando o Seu Julgamento se Torna o Seu Ativo Mais Valioso

· 17 min de leitura
Dora Noda
Software Engineer

Quando a dadosfera global explodiu de 33 zettabytes em 2018 para uma projeção de 175 zettabytes até 2025 — e antecipados 394 zettabytes até 2028 — surgiu um paradoxo : mais informação não levou a melhores decisões. Em vez disso, criou um problema esmagador de ruído-sinal que as plataformas tradicionais não conseguiram resolver. Entra a Information Finance (InfoFi), uma estrutura inovadora que transforma a forma como valorizamos, negociamos e monetizamos o próprio julgamento. À medida que os mercados de previsão processam mais de US$ 5 bilhões em volume semanal e plataformas como Kaito e Cookie DAO lideram sistemas de pontuação de atenção, estamos testemunhando o nascimento de uma nova classe de ativos onde a credibilidade, a influência e a proeza analítica tornam-se commodities negociáveis.

O Paradoxo da Explosão de Informação

Os números são impressionantes. A pesquisa da IDC revela que os dados mundiais cresceram de meros 33 zettabytes em 2018 para 175 zettabytes até 2025 — uma taxa de crescimento anual composta de 61 %. Para colocar isso em perspectiva, se você armazenasse 175 ZB em discos BluRay, a pilha chegaria à lua 23 vezes. Até 2028, espera-se que atinjamos 394 zettabytes, quase dobrando em apenas três anos.

No entanto, apesar dessa abundância, a qualidade da decisão estagnou. O problema não é a falta de informação — é a incapacidade de filtrar o sinal do ruído em escala. Na Web2, a atenção tornou-se a commodity, extraída pelas plataformas através de engagement farming e feeds algorítmicos. Os usuários produziam dados ; as plataformas capturavam valor. Mas e se a própria capacidade de navegar neste dilúvio de dados — para fazer previsões precisas, identificar tendências emergentes ou curar insights valiosos — pudesse, por si só, tornar-se um ativo?

Esta é a tese central da Information Finance : transformar o julgamento de um ato social não remunerado em uma capacidade mensurável, negociável e financeiramente recompensada.

Kaito : Precificando Influência Através da Tokenização de Reputação

A Kaito AI representa a vanguarda desta transformação. Ao contrário das plataformas sociais tradicionais que recompensam o mero volume — mais postagens, mais engajamento, mais ruído — a Kaito foi pioneira em um sistema que precifica a qualidade do próprio julgamento.

Em 4 de janeiro de 2026, a Kaito anunciou uma mudança de paradigma : a transição de "distribuição de atenção" para "tokenização de reputação" (reputation assetization). A plataforma reestruturou fundamentalmente a ponderação de influência ao introduzir Dados de Reputação e Ativos On-chain como métricas principais. Isso não foi apenas uma atualização técnica — foi um reposicionamento filosófico. O sistema agora responde à pergunta : "Que tipo de participação merece ser valorizada a longo prazo?"

O mecanismo é elegante. A IA da Kaito analisa o comportamento do usuário em plataformas como o X (antigo Twitter) para gerar "Yaps" — uma pontuação tokenizada que reflete o engajamento de qualidade. Esses Yaps alimentam o Yapper Leaderboard, criando um sistema de classificação transparente e baseado em dados, onde a influência se torna quantificável e, crucialmente, verificável.

Mas a Kaito não parou na pontuação. No início de março de 2026, fez uma parceria com a Polymarket para lançar os "Mercados de Atenção" (Attention Markets) — contratos que permitem aos traders apostar no mindshare das redes sociais usando dados da Kaito AI para liquidar os resultados. Os primeiros mercados entraram no ar imediatamente : um rastreando a própria trajetória de mindshare da Polymarket, outro apostando se ela atingiria um mindshare recorde no primeiro trimestre de 2026.

É aqui que a Information Finance se torna revolucionária. Os Mercados de Atenção não apenas medem o engajamento — eles criam um mecanismo financeiro para precificá-lo. Se você acredita que um tópico, projeto ou meme capturará 15 % do mindshare do X na próxima semana, você pode agora assumir uma posição sobre essa crença. Quando o julgamento está correto, é recompensado. Quando está errado, o capital flui para aqueles com capacidades analíticas superiores.

As implicações são profundas : o ruído de baixo custo torna-se marginalizado porque carrega risco financeiro, enquanto as contribuições de alto sinal tornam-se economicamente vantajosas.

Enquanto a Kaito se concentra na pontuação de influência humana, a Cookie DAO enfrenta um desafio paralelo : rastrear e precificar o desempenho dos próprios agentes de IA.

A Cookie DAO opera como uma camada descentralizada de agregação de dados, indexando a atividade de agentes de IA que operam em blockchains e plataformas sociais. Seu painel fornece análises em tempo real sobre capitalização de mercado, engajamento social, crescimento de detentores de tokens e — crucialmente — classificações de "mindshare" que quantificam a influência de cada agente.

A plataforma aproveita 7 terabytes de feeds de dados sociais e onchain em tempo real, monitorando conversas em todos os setores de cripto. Um recurso de destaque é a métrica de "mindshare", que não apenas conta menções, mas as pondera por credibilidade, contexto e impacto.

O roadmap de 2026 da Cookie DAO revela planos ambiciosos :

  • Acesso a Dados via Token (Q1 2026) : Análises exclusivas de agentes de IA para detentores de $COOKIE, criando um caminho de monetização direta para a curadoria de informações.
  • Cookie Deep Research Terminal (2026) : Análises aprimoradas por IA projetadas para adoção institucional, posicionando a Cookie DAO como o Bloomberg Terminal para inteligência de agentes de IA.
  • Parceria de Incentivos Snaps (2026) : Uma colaboração destinada a redefinir as recompensas dos criadores por meio de métricas de desempenho baseadas em dados.

O que torna a Cookie DAO particularmente significativa é o seu papel em um futuro onde os agentes de IA se tornam atores econômicos autônomos. À medida que esses agentes negociam, curam e tomam decisões, sua credibilidade e histórico tornam-se insumos críticos para outros agentes e usuários humanos. A Cookie DAO está construindo a infraestrutura de confiança que precifica essa credibilidade.

A economia do token já está mostrando validação de mercado, com o COOKIEmantendoumvalordemercadodeUSCOOKIE mantendo um valor de mercado de US 12,8 milhões e US$ 2,57 milhões em volume de negociação diária em fevereiro de 2026. Mais importante ainda, a plataforma está se posicionando como a "versão IA da Chainlink" — fornecendo dados descentralizados e verificáveis sobre a mais importante nova classe de participantes do mercado : os próprios agentes de IA.

O Ecossistema InfoFi: Dos Mercados de Previsão à Monetização de Dados

Kaito e Cookie DAO não estão operando isoladamente. Eles fazem parte de um movimento InfoFi mais amplo que está redefinindo como a informação cria valor financeiro.

Os mercados de previsão representam o segmento mais maduro. Em 1º de fevereiro de 2026, essas plataformas evoluíram de "casas de apostas" para a "fonte da verdade" para os sistemas financeiros globais. Os números falam por si:

  • $ 5,23 bilhões em volume semanal total de negociação (recorde estabelecido no início de fevereiro de 2026)
  • $ 701,7 milhões em volume diário em 12 de janeiro de 2026 — um recorde histórico em um único dia
  • Mais de $ 50 bilhões em liquidez anual em todas as principais plataformas

A vantagem de velocidade é impressionante. Quando um memorando do Congresso vazou informações sobre uma potencial paralisação do governo, o mercado de previsão da Kalshi refletiu uma mudança de probabilidade de 4 % em 400 milissegundos. Os canais de notícias tradicionais levaram quase três minutos para relatar a mesma informação. Para traders, investidores institucionais e gestores de risco, essa lacuna de 179,6 segundos representa a diferença entre lucro e prejuízo.

Esta é a proposta de valor central do InfoFi: os mercados precificam a informação de forma mais rápida e precisa do que qualquer outro mecanismo porque os participantes têm capital em jogo. Não se trata de cliques ou curtidas — trata-se de dinheiro seguindo convicções.

A adoção institucional valida esta tese:

  • Polymarket agora fornece dados de previsão em tempo real para o The Wall Street Journal e Barron’s por meio de uma parceria com a News Corp.
  • Coinbase integrou feeds de mercado de previsão em seu "Everything Exchange", permitindo que usuários de varejo negociem contratos de eventos ao lado de criptoativos.
  • Intercontinental Exchange (ICE) investiu $ 2 bilhões na Polymarket, sinalizando o reconhecimento de Wall Street de que os mercados de previsão são uma infraestrutura financeira crítica.

Além dos mercados de previsão, o InfoFi abrange múltiplos verticais emergentes:

  1. Mercados de Atenção (Kaito, Cookie DAO): Precificando mindshare e influência
  2. Sistemas de Reputação (Proof of Humanity, Lens Protocol, Ethos Network): Pontuação de credibilidade como colateral
  3. Mercados de Dados (Ocean Protocol, LazAI): Monetizando dados de treinamento de IA e insights gerados por usuários

Cada segmento aborda o mesmo problema fundamental: Como precificamos o julgamento, a credibilidade e a qualidade da informação em um mundo afogado em dados?

O Mecanismo: Como o Ruído de Baixo Custo se Torna Marginalizado

As plataformas de redes sociais tradicionais sofrem de uma falha terminal: elas recompensam o engajamento, não a precisão. Uma mentira sensacionalista se espalha mais rápido do que uma verdade matizada porque a viralidade, e não a veracidade, impulsiona a distribuição algorítmica.

O Information Finance inverte essa estrutura de incentivos por meio de julgamentos que envolvem capital. Veja como funciona:

1. Skin in the Game Quando você faz uma previsão, avalia um agente de IA ou pontua uma influência, você não está apenas expressando uma opinião — você está assumindo uma posição financeira. Se você estiver errado repetidamente, perderá capital. Se estiver certo, acumulará riqueza e reputação.

2. Históricos Transparentes Sistemas baseados em blockchain criam históricos imutáveis de previsões e avaliações. Você não pode deletar erros passados ou reivindicar presciência retroativamente. Sua credibilidade torna-se verificável e portável entre plataformas.

3. Filtragem Baseada no Mercado Nos mercados de previsão, previsões incorretas perdem dinheiro. Nos mercados de atenção, superestimar o mindshare de uma tendência significa que sua posição se deprecia. Nos sistemas de reputação, endossos falsos danificam sua pontuação de credibilidade. O mercado filtra mecanicamente as informações de baixa qualidade.

4. Credibilidade como Colateral À medida que as plataformas amadurecem, atores com alta reputação ganham acesso a recursos premium, tamanhos de posição maiores ou dados protegidos por tokens. Participantes com baixa reputação enfrentam custos mais altos ou acesso restrito. Isso cria um ciclo virtuoso onde manter a precisão torna-se economicamente essencial.

A evolução da Kaito exemplifica isso. Ao ponderar Dados de Reputação e Participações on-chain, a plataforma garante que a influência não dependa apenas do número de seguidores ou do volume de postagens. Uma conta com 100.000 seguidores, mas com uma precisão de previsão terrível, tem menos peso do que uma conta menor com insights consistentes e verificáveis.

As métricas de mindshare da Cookie DAO distinguem de forma semelhante entre o viral-mas-errado e o preciso-mas-nicho. Um agente de IA que gera um engajamento social massivo, mas produz sinais de negociação ruins, terá uma classificação inferior a um com atenção modesta, mas desempenho superior.

O Desafio da Explosão de Dados

A urgência do InfoFi torna-se mais clara quando você examina a trajetória dos dados:

  • 2010: 2 zettabytes de dados globais
  • 2018: 33 zettabytes
  • 2025: 175 zettabytes (projeção da IDC)
  • 2028: 394 zettabytes (previsão da Statista)

Este crescimento de 20 vezes em menos de duas décadas não é apenas quantitativo — representa uma mudança qualitativa. Até 2025, 49 % dos dados residirão em ambientes de nuvem pública. Somente os dispositivos IoT gerarão 90 zettabytes até 2025. A dadosfera é cada vez mais distribuída, em tempo real e heterogênea.

Os intermediários de informação tradicionais — organizações de notícias, empresas de pesquisa, analistas — não conseguem escalar para acompanhar esse crescimento. Eles são limitados pela capacidade editorial humana e modelos de confiança centralizados. O InfoFi oferece uma alternativa: curadoria descentralizada baseada no mercado, onde a credibilidade se acumula por meio de históricos verificáveis.

Isso não é teórico. O boom do mercado de previsão de 2025-2026 demonstra que quando os incentivos financeiros se alinham com a precisão informacional, os mercados tornam-se mecanismos de descoberta extraordinariamente eficientes. O ajuste de preço de 400 milissegundos na Kalshi não foi porque os traders leram o memorando mais rápido — foi porque a estrutura do mercado incentiva a agir sobre a informação de forma imediata e precisa.

O Setor de US$ 381 Milhões e o que Vem a Seguir

O setor de InfoFi não está isento de desafios. Em janeiro de 2026, os principais tokens de InfoFi experimentaram correções significativas. O X (antigo Twitter) baniu diversos aplicativos de recompensa por engajamento, fazendo com que o KAITO caísse 18 % e o COOKIE recuasse 20 %. A capitalização de mercado do setor, embora esteja crescendo, permanece modesta, em aproximadamente US$ 381 milhões.

Esses contratempos, no entanto, podem ser esclarecedores em vez de catastróficos. A onda inicial de projetos de InfoFi focou em recompensas simples de engajamento — essencialmente a economia da atenção Web2 com incentivos em tokens. O banimento dos aplicativos de recompensa por engajamento forçou uma evolução em todo o mercado para modelos mais sofisticados.

A pivotagem da Kaito, de "pagar por postagens" para "precificar a credibilidade", exemplifica esse amadurecimento. A mudança da Cookie DAO em direção a análises de nível institucional sinaliza uma clareza estratégica semelhante. Os sobreviventes não estão construindo plataformas de mídia social melhores — eles estão construindo infraestrutura financeira para a própria precificação da informação.

O roteiro adiante inclui vários desenvolvimentos críticos:

Interoperabilidade entre plataformas Atualmente, reputação e credibilidade estão isoladas em silos. Sua pontuação no Kaito Yapper não se traduz em taxas de vitória no Polymarket ou métricas de mindshare da Cookie DAO. Os futuros sistemas de InfoFi precisarão de portabilidade de reputação — históricos verificáveis criptograficamente que funcionem em diversos ecossistemas.

Integração de Agentes de IA À medida que os agentes de IA se tornam atores econômicos autônomos, eles precisarão avaliar a credibilidade das fontes de dados, de outros agentes e de contrapartes humanas. Plataformas de InfoFi como a Cookie DAO tornam-se infraestrutura essencial para essa camada de confiança.

Adoção Institucional Os mercados de previsão já cruzaram esse limiar com o investimento de US$ 2 bilhões da ICE no Polymarket e a parceria de dados da News Corp. Os mercados de atenção e os sistemas de reputação virão em seguida, à medida que as finanças tradicionais reconhecerem que a precificação da qualidade da informação é uma oportunidade de trilhões de dólares.

Clareza Regulatória A regulamentação da Kalshi pela CFTC e as negociações em curso sobre a expansão do mercado de previsão sinalizam que os reguladores estão lidando com a InfoFi como infraestrutura financeira legítima, e não como jogos de azar. Essa clareza desbloqueará o capital institucional que atualmente está à margem.

Construindo sobre uma Infraestrutura Confiável

A explosão da atividade on-chain — desde mercados de previsão processando bilhões em volume semanal até agentes de IA que exigem feeds de dados em tempo real — exige uma infraestrutura que não ceda sob a demanda. Quando milissegundos determinam a lucratividade, a confiabilidade da API não é opcional.

É aqui que a infraestrutura de blockchain especializada se torna crítica. Plataformas que constroem aplicativos de InfoFi precisam de acesso consistente a dados históricos, análises de mempool e APIs de alto rendimento que escalam com a volatilidade do mercado. Um único evento de inatividade durante a liquidação de um mercado de previsão ou um snapshot de mercado de atenção pode destruir a confiança do usuário de forma irreversível.

Para desenvolvedores que estão entrando no espaço de InfoFi, a BlockEden.xyz fornece infraestrutura de API de nível empresarial para as principais blockchains, garantindo que seus contratos de mercado de atenção, sistemas de reputação ou plataformas de previsão mantenham o uptime quando ele é mais importante. Explore nossos serviços projetados para as demandas de aplicações financeiras em tempo real.

Conclusão: O Julgamento como o Recurso Escasso Supremo

Estamos testemunhando uma mudança fundamental na forma como a informação cria valor. Na era Web2, a atenção era a commodity — capturada por plataformas, extraída dos usuários. O movimento InfoFi da Web3 propõe algo mais sofisticado: o próprio julgamento como uma classe de ativos.

A assetização da reputação da Kaito transforma a influência social de popularidade em capacidade preditiva verificável. A análise de agentes de IA da Cookie DAO cria métricas de desempenho transparentes para atores econômicos autônomos. Mercados de previsão como Polymarket e Kalshi demonstram que julgamentos com aporte de capital superam os intermediários de informação tradicionais em velocidade e precisão.

À medida que a dadosfera cresce de 175 zettabytes para 394 zettabytes e além, o gargalo não é a disponibilidade de informação — é a capacidade de filtrar, sintetizar e agir sobre essa informação corretamente. As plataformas de InfoFi criam incentivos econômicos que recompensam a precisão e marginalizam o ruído.

O mecanismo é elegante: quando o julgamento traz consequências financeiras, o ruído de baixo custo torna-se caro e a análise de alto sinal torna-se lucrativa. Os mercados fazem a filtragem que os algoritmos não conseguem e os editores humanos não teriam escala para igualar.

Para os nativos cripto, isso representa uma oportunidade de participar na construção da infraestrutura de confiança para a era da informação. Para as finanças tradicionais, é o reconhecimento de que a precificação da incerteza e da credibilidade é uma primitiva financeira fundamental. Para a sociedade em geral, é uma solução potencial para a crise da desinformação — não através da censura ou da verificação de fatos, mas através de mercados que tornam a verdade lucrativa e as mentiras dispendiosas.

A economia da atenção está evoluindo para algo muito mais poderoso: uma economia onde seu julgamento, sua credibilidade e sua capacidade analítica não são apenas valiosos — são ativos negociáveis por direito próprio.


Fontes:

A Ascensão dos Agentes de IA Autônomos: Transformando o Comércio e as Finanças

· 20 min de leitura
Dora Noda
Software Engineer

Quando a Coinbase entregou aos agentes de IA suas próprias carteiras em 12 de fevereiro de 2026, não foi apenas o lançamento de um produto — foi o tiro de largada para uma corrida de 7,7bilho~esparareconstruirocomeˊrciodozero.Em24horas,agentesauto^nomosexecutarammaisde7,7 bilhões para reconstruir o comércio do zero. Em 24 horas, agentes autônomos executaram mais de 1,7 bilhão em transações on-chain sem uma única assinatura humana. A era de pedir permissão acabou. Bem-vindo à economia onde as máquinas negociam, transacionam e liquidam entre si.

De Ferramentas de Pesquisa a Atores Econômicos: O Grande Desmembramento

Por anos, os agentes de IA viveram à sombra dos fluxos de trabalho humanos — resumindo documentos, gerando sugestões de código, agendando reuniões. Eles eram assistentes sofisticados, não atores independentes. Esse paradigma se rompeu no início de 2026, quando três protocolos fundamentais convergiram: o padrão de comunicação Agent2Agent (A2A) do Google, o Model Context Protocol (MCP) da Anthropic para acesso a dados e os canais de pagamento x402 da Coinbase para transações autônomas.

O resultado? Mais de 550 projetos de agentes de IA tokenizados agora comandam uma capitalização de mercado combinada superior a 7,7bilho~es,comvolumesdenegociac\ca~odiaˊriosaproximandosede7,7 bilhões, com volumes de negociação diários aproximando-se de 1,7 bilhão. Mas esses números contam apenas metade da história. A verdadeira transformação é arquitetural: os agentes não são mais ferramentas isoladas. Eles são entidades econômicas em rede capazes de descobrir as capacidades uns dos outros, negociar termos e liquidar pagamentos — tudo sem intervenção humana.

Considere a pilha de infraestrutura que torna isso possível. Na camada de comunicação, o A2A permite a coordenação horizontal entre agentes de diferentes provedores. Um agente de negociação autônomo construído no Virtuals Protocol pode delegar perfeitamente tarefas de rebalanceamento de portfólio a um agente de gestão de risco operando no Fetch.ai, enquanto um terceiro agente lida com a triagem de conformidade via contratos inteligentes. O protocolo utiliza padrões web familiares — HTTP, Server-Sent Events (SSE) e JSON-RPC — tornando a integração direta para desenvolvedores que já constroem sobre a infraestrutura de TI existente.

O MCP resolve o problema dos dados. Antes da padronização, cada agente de IA exigia integrações personalizadas para acessar informações externas — conjuntos de dados sob paywall, feeds de preços em tempo real, estado da blockchain. Agora, através de canais de pagamento baseados em MCP incorporados em carteiras, os agentes podem liquidar taxas de assinatura de forma autônoma, recuperar dados e acionar serviços sem que caixas de diálogo de confirmação interrompam o fluxo de trabalho. A AurraCloud (AURA), uma plataforma de hospedagem MCP focada em casos de uso cripto, exemplifica essa mudança: ela fornece ferramentas MCP nativas de cripto que se integram diretamente a carteiras como Claude ou Cursor, permitindo que os agentes operem com autonomia financeira.

O padrão de pagamento x402 completa a trindade. Ao fundir a estrutura de comunicação do A2A com a infraestrutura de transação da Coinbase, o x402 cria o primeiro protocolo abrangente para o comércio impulsionado por IA. O fluxo de trabalho é elegante: um agente descobre serviços disponíveis através de cartões de agente A2A, negocia parâmetros de tarefas, processa pagamentos via transações de stablecoins, recebe o cumprimento do serviço e registra a verificação da liquidação on-chain com recibos de blockchain à prova de violação. Crucially, as chaves privadas permanecem na infraestrutura segura da Coinbase — os agentes autenticam transações sem nunca tocar no material bruto das chaves, abordando a maior barreira individual para a adoção institucional.

A Trajetória de $ 89,6 Bilhões: Dinâmica de Mercado e Múltiplos de Avaliação

Os números são impressionantes, mas são sustentados pela real adoção empresarial. O mercado global de agentes de IA explodiu de 5,25bilho~esem2024para5,25 bilhões em 2024 para 7,84 bilhões em 2025, com projeções para 2026 atingindo $ 89,6 bilhões — um salto de 215 % em relação ao ano anterior. Isso não é uma bolha especulativa; é impulsionado por um ROI mensurável. As implementações empresariais estão entregando um retorno médio de 540 % em 18 meses, com as taxas de adoção da Fortune 500 subindo de 67 % em 2025 para uma projeção de 78 % em 2026.

Os tokens de agentes de IA nativos de cripto estão surfando esta onda com um impulso notável. O Virtuals Protocol, o projeto principal do setor, suporta mais de 15.800 entidades de IA autônomas com um aGDP (Produto Interno Bruto de Agentes) total de 477,57milho~esemfevereirode2026.SeutokennativoVIRTUALdeteˊmumacapitalizac\ca~odemercadode477,57 milhões em fevereiro de 2026. Seu token nativo VIRTUAL detém uma capitalização de mercado de 373 milhões. A Artificial Superintelligence Alliance (FET) é negociada a $ 692 milhões, enquanto novos participantes como KITE, TRAC (OriginTrail) e ARC (AI Rig Complex) estão conquistando nichos especializados em proveniência de dados descentralizada e orquestração de computação.

Os múltiplos de avaliação contam uma história reveladora. Comparando o terceiro trimestre de 2025 com o primeiro trimestre de 2026, o múltiplo de receita médio ponderado para empresas de agentes de IA subiu da faixa de meados de 20x para a faixa alta de 20x — indicando uma confiança sustentada dos investidores, apesar da volatilidade mais ampla das criptomoedas. Ferramentas de desenvolvedor e plataformas de codificação autônoma tiveram uma valorização ainda mais acentuada, com múltiplos médios saltando de meados de 20 para cerca de 30 baixo. Gigantes da tecnologia tradicional estão prestando atenção: a Anysphere (Cursor) atingiu uma avaliação de 29,3bilho~escom29,3 bilhões com 500 milhões em receita recorrente anual, enquanto a Lovable alcançou 6,6bilho~essobre6,6 bilhões sobre 200 milhões de ARR. A Abridge, uma plataforma de agentes de IA para fluxos de trabalho de saúde, levantou 550milho~escomumaavaliac\ca~ode550 milhões com uma avaliação de 5,3 bilhões em 2025.

Mas o sinal mais intrigante vem da adoção pelo varejo. De acordo com a previsão de dezembro de 2025 da eMarketer, espera-se que as plataformas de IA gerem $ 20,9 bilhões em gastos no varejo durante 2026 — quase quadruplicando os números de 2025. Agentes de compras de IA já estão ativos no ChatGPT, Google Gemini, Microsoft Copilot e Perplexity, realizando compras reais para consumidores reais. Fluxos de trabalho de múltiplos agentes estão se tornando o padrão: um agente de compras coordena-se com agentes de logística para organizar a entrega, agentes de pagamento para processar liquidações em stablecoins e agentes de atendimento ao cliente para lidar com o suporte pós-compra — tudo via comunicação A2A com envolvimento humano mínimo.

DeFAI: Quando Sistemas Autônomos Reescrevem o Livro de Regras das Finanças

As Finanças Descentralizadas deveriam democratizar o sistema bancário. Os agentes de IA estão a torná-las autônomas. A fusão de DeFi e IA — DeFAI, ou AgentFi — está a mudar as criptofinanças de interações manuais e orientadas por humanos para máquinas inteligentes e auto-otimizadas que negociam, gerem riscos e executam estratégias 24 horas por dia.

As Agentic Wallets (Carteiras Agênticas) da Coinbase representam a prova de conceito mais clara. Estas não são carteiras quentes tradicionais com funcionalidades assistidas por IA; são soluções de custódia criadas especificamente para que agentes detenham fundos e executem negociações on-chain de forma autônoma. Com triagem de conformidade integrada, as carteiras identificam e bloqueiam ações de alto risco antes da execução, satisfazendo os requisitos regulatórios e preservando a velocidade operacional. As proteções são importantes: os primeiros pilotos mostram agentes a monitorar os rendimentos de DeFi em múltiplos protocolos, a reequilibrar automaticamente as carteiras com base em retornos ajustados ao risco, a pagar pelo acesso a APIs ou recursos de computação em tempo real e a participar em votações de governança com base em critérios predefinidos — tudo sem confirmação humana direta.

A segurança é projetada na arquitetura. As chaves privadas nunca saem da infraestrutura da Coinbase; os agentes autenticam-se através de APIs seguras que impõem limites de gastos, listas brancas de transações e detecção de anomalias. Se um agente tentar esvaziar uma carteira ou interagir com um contrato sinalizado, a transação falha antes de tocar na blockchain. Este modelo aborda o paradoxo da custódia que tem prejudicado a adoção de DeFi institucional: como conceder autonomia operacional sem ceder o controle?

As implicações para a negociação são profundas. A negociação algorítmica tradicional baseia-se em estratégias pré-programadas executadas por servidores centralizados. Os agentes de IA na blockchain operam de forma diferente. Eles podem atualizar dinamicamente estratégias com base em dados on-chain, negociar com outros agentes para obter melhores taxas de swap, participar na governança descentralizada para influenciar os parâmetros do protocolo e até contratar agentes especializados para tarefas como proteção MEV ou pontes cross-chain. Um gestor de carteira autônomo pode delegar a estratégia de yield farming a um agente especialista em DeFi, a cobertura de risco a um agente de negociação de derivativos e a otimização fiscal a um agente de conformidade — criando uma orquestração multiagente que espelha as estruturas organizacionais humanas, mas executa à velocidade das máquinas.

Os market makers já estão a implementar agentes autônomos para fornecer liquidez em bolsas descentralizadas. Estes agentes monitoram os livros de ordens, ajustam os spreads com base na volatilidade e reequilibram o inventário sem supervisão humana. Alguns estão a experimentar estratégias adversárias: implementar agentes concorrentes para sondar o comportamento uns dos outros e otimizar de forma adaptativa os modelos de preços. O resultado é um mercado darwiniano onde as arquiteturas de agentes mais eficazes acumulam capital, enquanto os designs subotimizados são superados e descontinuados.

Arquiteturas Modulares e a Economia de Agente como Serviço

A explosão na diversidade de agentes — mais de 550 projetos e a aumentar — é possibilitada pela arquitetura modular. Ao contrário dos sistemas de IA monolíticos que acoplam estreitamente o processamento de dados, a tomada de decisões e a execução, os frameworks de agentes modernos separam estas camadas em módulos combináveis. O framework GAME (Generative Autonomous Multimodal Entities) exemplifica esta abordagem, permitindo que os desenvolvedores criem agentes com código mínimo, ligando módulos pré-construídos para processamento de linguagem natural, indexação de dados on-chain, gestão de carteiras e interação entre protocolos.

Esta modularidade é emprestada da própria evolução arquitetônica da blockchain. Blockchains modulares como Celestia e EigenLayer separam o consenso, a disponibilidade de dados e a execução em camadas distintas, permitindo padrões de implementação flexíveis. Os agentes de IA exploram este mesmo princípio: podem escolher ambientes de execução otimizados para os seus casos de uso específicos — executando inferência de ML com uso intensivo de computação em redes de GPU descentralizadas como a Render, enquanto herdam a segurança de camadas de consenso e disponibilidade de dados compartilhadas no Ethereum ou Solana.

O modelo econômico está a mudar para Agente como Serviço (Agent-as-a-Service ou AaaS). Em vez de construir agentes personalizados do zero, os desenvolvedores ligam-se aos existentes através de APIs, pagando por tarefa ou assinando para acesso contínuo. Quer um agente para executar estratégias de negociação automatizadas? Implemente um agente de negociação pré-configurado do Virtuals Protocol e personalize os parâmetros através de chamadas de API. Precisa de geração de conteúdo? Alugue ciclos de um agente de IA generativa otimizado para textos de marketing. Isto reflete a revolução da computação em nuvem — infraestrutura abstraída em serviços, faturada pelo uso.

O suporte da indústria está a consolidar-se em torno destes padrões. Mais de 50 parceiros tecnológicos, incluindo Atlassian, Box, Cohere, Intuit, Langchain, MongoDB, PayPal, Salesforce, SAP, ServiceNow e UKG, estão a apoiar o A2A para a comunicação entre agentes. Isto não é uma experimentação fragmentada; é uma padronização coordenada impulsionada por empresas que reconhecem a interoperabilidade como a chave para desbloquear efeitos de rede. Quando agentes de diferentes fornecedores podem colaborar perfeitamente, a utilidade combinada excede a soma das partes isoladas — um exemplo clássico da Lei de Metcalfe aplicada a sistemas autônomos.

A Camada de Infraestrutura: Carteiras, Hospedagem e Trilhos de Pagamento

Se os agentes são os atores econômicos, a infraestrutura é o palco. Três camadas críticas estão amadurecendo rapidamente no início de 2026: carteiras autônomas, plataformas de hospedagem MCP e trilhos de pagamento.

As carteiras autônomas, como as Agentic Wallets da Coinbase, resolvem o problema da custódia. As carteiras tradicionais pressupõem um operador humano que revisa as transações antes de assinar. Os agentes precisam de acesso programático com limites de segurança — limites de gastos, whitelists de contratos, detecção de anomalias e ganchos de conformidade. As Agentic Wallets oferecem exatamente isso: os agentes se autenticam via chaves de API vinculadas a permissões com limite de taxa, as transações são agrupadas e otimizadas para eficiência de gas, e o monitoramento integrado sinaliza padrões suspeitos, como grandes transferências repentinas ou interações com exploits conhecidos.

Soluções concorrentes estão surgindo. Projetos baseados em Solana estão experimentando carteiras de agentes que aproveitam a finalidade de sub-segundo da rede para negociação de alta frequência. As Layer 2 do Ethereum, como Arbitrum e Optimism, oferecem taxas mais baixas, tornando as microtransações economicamente viáveis — algo crítico para agentes que pagam por chamada de API ou consulta de dados. Algumas plataformas estão até explorando carteiras multi-sig governadas por coletivos de agentes, onde as decisões exigem consenso entre várias entidades de IA, adicionando uma camada de verificações e equilíbrios algorítmicos.

Plataformas de hospedagem MCP, como a AurraCloud, fornecem o middleware. Esses serviços hospedam servidores MCP que os agentes consultam em busca de dados — feeds de preços, estado da blockchain, sentimento social, agregação de notícias. Como os agentes podem pagar pelo acesso de forma autônoma por meio de trilhos de pagamento integrados, as plataformas MCP podem monetizar chamadas de API sem exigir assinaturas antecipadas ou processos de integração demorados. Isso cria um mercado líquido para dados: os agentes buscam a melhor relação custo-benefício e os provedores de dados competem em latência, precisão e cobertura.

Os trilhos de pagamento são o sistema circulatório. O padrão x402 padroniza como os agentes enviam e recebem valor, mas os mecanismos de liquidação subjacentes variam. Stablecoins como USDC e USDT são preferidas por sua estabilidade de preço — os agentes precisam de custos previsíveis ao orçar serviços. Alguns projetos estão experimentando canais de micropagamento que agrupam transações off-chain e as liquidam periodicamente on-chain, reduzindo os custos de gas. Outros estão se integrando a protocolos de mensagens cross-chain como LayerZero ou Axelar, permitindo que os agentes movam ativos entre blockchains conforme necessário para uma execução otimizada.

O resultado é uma pilha de infraestrutura em camadas que reflete a arquitetura tradicional da internet: TCP / IP para transporte de dados (A2A, MCP), HTTP para lógica de aplicação (frameworks de agentes, APIs) e protocolos de pagamento (x402, stablecoins) para transferência de valor. Isso não é acidental — protocolos de sucesso adotam padrões familiares para minimizar a fricção de integração.

Riscos, Salvaguardas e o Caminho para a Confiança Institucional

Entregar autonomia financeira a sistemas de IA não é isento de perigos. Os riscos abrangem vulnerabilidades técnicas, instabilidade econômica e incerteza regulatória — cada um exigindo estratégias de mitigação deliberadas.

Os riscos técnicos são os mais imediatos. Os agentes operam com base em modelos treinados em dados históricos, que podem não se generalizar para condições de mercado sem precedentes. Um agente de negociação otimizado para mercados de alta (bull markets) pode falhar catastroficamente durante quedas repentinas (flash crashes). Atores adversários podem explorar comportamentos previsíveis dos agentes — falsificando livros de ordens (spoofing) para desencadear negociações automatizadas ou implantando contratos honeypot projetados para drenar carteiras de agentes. Bugs em contratos inteligentes continuam sendo uma ameaça persistente; um agente interagindo com um protocolo vulnerável pode perder fundos antes que as auditorias detectem a falha.

As estratégias de mitigação estão evoluindo. As ferramentas de triagem de conformidade da Coinbase usam pontuação de risco em tempo real para bloquear transações sinalizadas como de alto risco com base na reputação da contraparte, no status de auditoria do contrato e em dados históricos de exploits. Algumas plataformas impõem períodos de espera obrigatórios para grandes transferências, dando aos operadores humanos uma janela para intervir se anomalias forem detectadas. A validação multi-agente é outra abordagem: exigir consenso entre vários agentes independentes antes de executar transações de alto valor, reduzindo os pontos únicos de falha.

A instabilidade econômica é um risco de segunda ordem. Se uma grande fração da liquidez on-chain for controlada por agentes autônomos com estratégias correlacionadas, a dinâmica do mercado poderá amplificar a volatilidade. Imagine milhares de agentes saindo simultaneamente de uma posição com base em sinais de dados compartilhados — cascatas de liquidação poderiam superar os flash crashes tradicionais. Loops de feedback também são preocupantes: agentes otimizando uns contra os outros podem convergir para equilíbrios que desestabilizam os protocolos subjacentes, como a exploração de mecanismos de governança para aprovar propostas que beneficiem a si mesmos.

A incerteza regulatória é a grande incógnita. Reguladores financeiros em todo o mundo ainda estão tentando entender como classificar os agentes de IA. Eles são ferramentas controladas por seus implantadores ou atores econômicos independentes? Se um agente executa negociações ilegais — uso de informações privilegiadas (insider trading) com base em informações privadas, por exemplo — quem assume a responsabilidade? O desenvolvedor, a plataforma que hospeda o agente ou o usuário que o implantou? Essas perguntas carecem de respostas claras, e os marcos regulatórios estão anos atrás da tecnologia.

Algumas jurisdições estão avançando mais rápido do que outras. O regulamento Markets in Crypto-Assets (MiCA) da União Europeia inclui disposições para sistemas de negociação automatizados, cobrindo potencialmente agentes de IA. A Autoridade Monetária de Singapura está consultando a indústria sobre salvaguardas para finanças autônomas. Os Estados Unidos permanecem fragmentados, com a SEC, a CFTC e os reguladores estaduais adotando abordagens divergentes. Esse mosaico regulatório complica a implantação global — agentes que operam em diferentes jurisdições devem navegar por requisitos conflitantes, adicionando custos de conformidade.

Apesar desses desafios, a confiança institucional está sendo construída. Grandes empresas estão realizando projetos-piloto de implantação de agentes em ambientes controlados — tesourarias DeFi internas com superfícies de risco rígidas ou mercados de circuito fechado onde os agentes negociam entre participantes verificados. À medida que esses experimentos acumulam históricos sem falhas catastróficas, a confiança aumenta. Padrões de auditoria estão surgindo: empresas terceirizadas agora oferecem revisões de comportamento de agentes, analisando logs de decisão e históricos de transações para certificar a adesão a políticas predefinidas.

O Que Vem a Seguir: Os Primeiros Estágios da Economia Autônoma

Estamos observando o nascimento de um novo substrato econômico. No primeiro trimestre de 2026, os agentes de IA ainda estão executando principalmente tarefas predefinidas — trading automatizado, rebalanceamento de portfólio, pagamentos via API . Mas a trajetória é clara: à medida que os agentes se tornam mais capazes, eles negociarão contratos, formarão alianças e até alocarão capital para criar novos agentes otimizados para nichos especializados.

Os catalisadores de curto prazo incluem a expansão dos fluxos de trabalho multiagente. Os pilotos de hoje envolvem dois ou três agentes coordenando tarefas específicas. Até o final do ano, provavelmente veremos frameworks de orquestração gerenciando dezenas de agentes, cada um contribuindo com expertise especializada. Cadeias de suprimentos autônomas são outra fronteira: um agente de e-commerce busca produtos de agentes de fabricação, coordena a logística via agentes de transporte e liquida pagamentos por meio de transações com stablecoins — tudo sem coordenação humana além dos parâmetros iniciais.

A longo prazo, o cenário mais disruptivo é o de agentes se tornando alocadores de capital. Imagine um fundo de venture capital gerenciado inteiramente por IA : agentes buscam fluxo de negócios ( deal flow ) a partir de métricas on-chain , realizam due diligence consultando provedores de dados, negociam termos de investimento e alocam capital em startups tokenizadas. A supervisão humana pode se limitar a definir limites de alocação e aprovar estratégias amplas. Se tais fundos superarem os pares gerenciados por humanos, o capital fluirá para a gestão autônoma — um ponto de inflexão que pode redefinir a gestão de ativos.

A infraestrutura ainda precisa amadurecer. A coordenação de agentes cross-chain continua complexa, com liquidez fragmentada e padrões inconsistentes. A privacidade é uma lacuna gritante: os agentes de hoje operam de forma transparente em blockchains públicas, expondo estratégias a competidores. Provas de conhecimento zero ( zero-knowledge proofs ) e computação confidencial podem resolver isso, permitindo que os agentes transacionem de forma privada enquanto mantêm a correção verificável.

Padrões de interoperabilidade determinarão os vencedores. Plataformas que adotam A2A , MCP e x402 ganham acesso a uma rede crescente de agentes compatíveis. Sistemas proprietários correm o risco de isolamento, pois os efeitos de rede favorecem protocolos abertos. Essa dinâmica espelha os primórdios da internet: o jardim murado da AOL perdeu para a interoperabilidade da web aberta.

O valor de mercado de 7,7bilho~eseˊumadiantamentoparaumavisa~omuitomaior.Seosagentesgerenciaremateˊ17,7 bilhões é um adiantamento para uma visão muito maior. Se os agentes gerenciarem até 1% dos ativos financeiros globais — conservadoramente 1 trilhão — a camada de infraestrutura que os sustenta poderá eclipsar os mercados de computação em nuvem atuais. Ainda não chegamos lá. Mas as peças fundamentais estão no lugar, os incentivos econômicos estão alinhados e as primeiras implementações no mundo real estão provando que o conceito funciona.

Para desenvolvedores, a oportunidade é imensa: construir as ferramentas, hospedagem, feeds de dados e serviços de segurança que os agentes consumirão. Para investidores, trata-se de identificar quais protocolos capturam valor à medida que a adoção de agentes escala. Para os usuários, é um vislumbre de um futuro onde as máquinas lidam com o tedioso, o complexo e o repetitivo — liberando a atenção humana para decisões de ordem superior.

A economia está aprendendo a funcionar sozinha. Prepare-se.


BlockEden.xyz fornece infraestrutura RPC de nível empresarial otimizada para agentes de IA construídos em Sui, Aptos, Ethereum e outras blockchains líderes. Nossos nós de baixa latência e alto rendimento permitem que sistemas autônomos consultem o estado da blockchain e executem transações com a confiabilidade que o comércio on-chain exige. Explore nosso marketplace de API para construir sobre bases projetadas para escalar com a economia autônoma.

Fontes

O Avanço de $ 19,2 Bilhões da DePIN : Do Hype da IoT à Realidade Corporativa

· 14 min de leitura
Dora Noda
Software Engineer

Durante anos, a promessa de infraestrutura física descentralizada parecia uma solução à procura de um problema. Entusiastas de blockchain falavam sobre a tokenização de tudo, desde hotspots WiFi até painéis solares, enquanto as empresas discretamente a descartavam como um hype cripto divorciado da realidade operacional. Esse descarte acabou de se tornar caro.

O setor de DePIN (Decentralized Physical Infrastructure Network) explodiu de US5,2bilho~esparaUS 5,2 bilhões para US 19,2 bilhões em capitalização de mercado em apenas um ano — um surto de 270 % que não tem nada a ver com mania especulativa e tudo a ver com empresas descobrindo que podem reduzir os custos de infraestrutura em 50 - 85 % enquanto mantêm a qualidade do serviço. Com 321 projetos ativos gerando agora US150milho~esemreceitamensaleoFoˊrumEcono^micoMundialprojetandoqueomercadoatingiraˊUS 150 milhões em receita mensal e o Fórum Econômico Mundial projetando que o mercado atingirá US 3,5 trilhões até 2028, a DePIN atravessou o abismo de tecnologia experimental para infraestrutura crítica para a missão.

Os Números que Mudaram a Narrativa

O CoinGecko rastreia quase 250 projetos de DePIN até setembro de 2025, um aumento em relação a uma fração desse número há apenas 24 meses. Mas a história real não é a contagem de projetos — é a receita. O setor gerou uma receita on-chain estimada em US$ 72 milhões em 2025, com projetos de primeira linha registrando agora receitas recorrentes anuais de oito dígitos.

Somente em janeiro de 2026, os projetos de DePIN geraram coletivamente US150milho~esemreceita.AAethir,provedoradeinfraestruturafocadaemGPU,lideroucomUS 150 milhões em receita. A Aethir, provedora de infraestrutura focada em GPU, liderou com US 55 milhões. A Render Network seguiu com US38milho~esdeservic\cosdescentralizadosderenderizac\ca~odeGPU.AHeliumcontribuiucomUS 38 milhões de serviços descentralizados de renderização de GPU. A Helium contribuiu com US 24 milhões de suas operações de rede sem fio. Essas não são métricas de vaidade de farmers de airdrop — elas representam empresas reais pagando por computação, conectividade e armazenamento.

A composição do mercado conta uma história ainda mais reveladora: 48 % dos projetos de DePIN por capitalização de mercado agora se concentram em infraestrutura de IA. À medida que as cargas de trabalho de IA explodem e os hyperscalers lutam para atender à demanda, as redes de computação descentralizadas estão se tornando a válvula de escape para um gargalo da indústria que os data centers tradicionais não conseguem resolver rápido o suficiente.

A Dominância da Solana em DePIN: Por que a Velocidade Importa

Se o Ethereum é o lar das DeFi e o Bitcoin é o ouro digital, a Solana tornou-se silenciosamente a blockchain de escolha para a coordenação de infraestrutura física. Com 63 projetos de DePIN em sua rede — incluindo Helium, Grass e Hivemapper — os baixos custos de transação e a alta vazão da Solana a tornam a única Layer 1 capaz de lidar com as cargas de trabalho em tempo real e intensivas em dados que a infraestrutura física exige.

A transformação da Helium é particularmente instrutiva. Após migrar para a Solana em abril de 2023, a rede sem fio escalou para mais de 115.000 hotspots atendendo a 1,9 milhão de usuários diários. O número de assinantes da Helium Mobile saltou de 115.000 em setembro de 2024 para quase 450.000 em setembro de 2025 — um aumento de 300 % ano a ano. Somente no segundo trimestre de 2025, a rede transferiu 2.721 terabytes de dados para parceiros de operadoras, um aumento de 138,5 % em relação ao trimestre anterior.

A economia é convincente: a Helium oferece conectividade móvel a uma fração dos custos das operadoras tradicionais ao incentivar indivíduos a implantar e manter hotspots. Os assinantes têm chamadas, mensagens e dados ilimitados por US$ 20 / mês. Os operadores de hotspots ganham tokens com base na cobertura da rede e transferência de dados. As operadoras tradicionais não conseguem competir com essa estrutura de custos.

Render Network demonstra o potencial da DePIN na IA e nas indústrias criativas. Com uma capitalização de mercado de US$ 770 milhões, a Render processou mais de 1,49 milhão de quadros de renderização apenas em julho de 2025, queimando 207.900 USDC em taxas. Artistas e pesquisadores de IA aproveitam a capacidade ociosa de GPUs de equipamentos de jogos e fazendas de mineração, pagando centavos por dólar em comparação com os serviços centralizados de renderização em nuvem.

Grass, a DePIN que mais cresce na Solana com mais de 3 milhões de usuários, monetiza a largura de banda não utilizada para conjuntos de dados de treinamento de IA. Os usuários contribuem com sua conectividade de internet ociosa, ganhando tokens enquanto empresas coletam dados da web para grandes modelos de linguagem. É uma arbitragem de infraestrutura em escala — pegando recursos abundantes e subutilizados (largura de banda residencial) e empacotando-os para empresas dispostas a pagar taxas premium por coleta de dados distribuídos.

Adoção Empresarial: A Redução de Custos de 50 - 85 % que Nenhum CFO Pode Ignorar

A mudança de programas piloto para implementações de produção acelerou bruscamente em 2025. Operadoras de telecomunicações, provedores de nuvem e empresas de energia não estão apenas experimentando com DePIN — eles estão integrando-a em suas operações principais.

A infraestrutura sem fio agora possui mais de 5 milhões de roteadores descentralizados registrados em todo o mundo. Uma empresa de telecomunicações Fortune 500 registrou um aumento de 23 % em clientes de conectividade alimentados por DePIN, provando que as empresas adotarão modelos descentralizados se a economia e a confiabilidade estiverem alinhadas. A parceria da T-Mobile com a Helium para descarregar a cobertura de rede em áreas rurais demonstra como os players estabelecidos estão usando a DePIN para resolver problemas de última milha que as despesas de capital tradicionais não conseguem justificar.

O setor de telecomunicações enfrenta uma pressão existencial: as despesas de capital para construção de torres e licenças de espectro estão esmagando as margens, enquanto os clientes exigem cobertura universal. O mercado de blockchain em telecomunicações está projetado para crescer de US1,07bilha~oem2024paraUS 1,07 bilhão em 2024 para US 7,25 bilhões até 2030, à medida que as operadoras percebem que incentivar indivíduos a implantar infraestrutura é mais barato do que fazer isso por conta própria.

A computação em nuvem apresenta uma oportunidade ainda maior. Provedores de computação DePIN apoiados pela Nvidia, como o brev.dev e outros, estão atendendo cargas de trabalho de IA empresarial que custariam 2 - 3 vezes mais na AWS, Google Cloud ou Azure. Como se espera que as cargas de trabalho de inferência representem dois terços de toda a computação de IA até 2026 (acima de um terço em 2023), a demanda por capacidade de GPU econômica só se intensificará. Redes descentralizadas podem obter GPUs de equipamentos de jogos, operações de mineração e data centers subutilizados — capacidade que as nuvens centralizadas não conseguem acessar.

As redes de energia são, talvez, o caso de uso mais transformador da DePIN. As redes de energia centralizadas lutam para equilibrar a oferta e a demanda em nível local, levando a ineficiências e interrupções. Redes de energia descentralizadas usam coordenação em blockchain para rastrear a produção de painéis solares, baterias e medidores de propriedade individual. Os participantes geram energia, compartilham a capacidade excedente com os vizinhos e ganham tokens com base na contribuição. O resultado: melhor resiliência da rede, redução do desperdício de energia e incentivos financeiros para a adoção de energias renováveis.

Infraestrutura de IA: Os 48 % que Estão Redefinindo a Stack

Quase metade do market cap de DePIN agora se concentra em infraestrutura de IA — uma convergência que está remodelando a forma como as cargas de trabalho intensivas em computação são processadas. Os gastos com armazenamento de infraestrutura de IA reportaram um crescimento de 20,5 % ano a ano no segundo trimestre de 2025, com 48 % dos gastos vindo de implementações em nuvem. No entanto, as nuvens centralizadas estão atingindo limites de capacidade exatamente quando a demanda explode.

O mercado global de GPUs para data centers foi de US14,48bilho~esem2024eprojetasequealcanceUS 14,48 bilhões em 2024 e projeta-se que alcance US 155,2 bilhões até 2032. Contudo, a Nvidia mal consegue acompanhar a demanda, resultando em prazos de entrega de 6 a 12 meses para os chips H100 e H200. As redes DePIN contornam esse gargalo agregando GPUs de consumidores e empresas que permanecem ociosas de 80 a 90 % do tempo.

As cargas de trabalho de inferência — a execução de modelos de IA em produção após a conclusão do treinamento — são o segmento de crescimento mais rápido. Enquanto a maior parte do investimento de 2025 focou em chips de treinamento, o mercado de chips otimizados para inferência deve exceder US$ 50 bilhões em 2026, à medida que as empresas mudam do desenvolvimento de modelos para a implementação em escala. As redes de computação DePIN se destacam na inferência porque as cargas de trabalho são altamente paralelizáveis e tolerantes à latência, tornando-as perfeitas para infraestrutura distribuída.

Projetos como Render, Akash e Aethir estão capturando essa demanda ao oferecer acesso fracionado a GPUs, preços spot e distribuição geográfica que as nuvens centralizadas não conseguem igualar. Uma startup de IA pode ativar 100 GPUs para uma tarefa em lote de fim de semana e pagar apenas pelo uso, sem compromissos mínimos ou contratos corporativos. Para os hyperscalers, isso é atrito. Para a DePIN, essa é toda a proposta de valor.

As Categorias que Impulsionam o Crescimento

A DePIN divide-se em duas categorias fundamentais: redes de recursos físicos (hardware como torres sem fio, redes de energia e sensores) e redes de recursos digitais (computação, largura de banda e armazenamento). Ambas estão vivenciando um crescimento explosivo, mas os recursos digitais estão escalando mais rápido devido às menores barreiras de implementação.

Redes de armazenamento como Filecoin permitem que os usuários aluguem espaço não utilizado em discos rígidos, criando alternativas distribuídas ao AWS S3 e Google Cloud Storage. A proposta de valor: custos mais baixos, redundância geográfica e resistência a pontos únicos de falha. Empresas estão testando o Filecoin para dados de arquivamento e backups, casos de uso onde as taxas de saída (egress fees) de nuvens centralizadas podem somar milhões anualmente.

Recursos de computação abrangem renderização de GPU (Render), computação de propósito geral (Akash) e inferência de IA (Aethir). O Akash opera um marketplace aberto para implementações de Kubernetes, permitindo que desenvolvedores ativem containers em servidores subutilizados em todo o mundo. A economia de custos varia de 30 % a 85 % em comparação com a AWS, dependendo do tipo de carga de trabalho e dos requisitos de disponibilidade.

Redes sem fio como Helium e World Mobile Token estão enfrentando a lacuna de conectividade em mercados subatendidos. A World Mobile implantou redes móveis descentralizadas em Zanzibar, transmitindo um jogo do Fulham FC enquanto fornecia internet para 500 pessoas em um raio de 600 metros. Estes não são provas de conceito — são redes de produção atendendo usuários reais em regiões onde os ISPs tradicionais se recusam a operar devido à economia desfavorável.

Redes de energia usam blockchain para coordenar a geração e o consumo distribuídos. Proprietários de painéis solares vendem o excesso de eletricidade aos vizinhos. Proprietários de veículos elétricos (EV) fornecem estabilização da rede ao cronometrar o carregamento para horários de menor demanda, ganhando tokens por sua flexibilidade. As concessionárias ganham visibilidade em tempo real sobre a oferta e demanda local sem implantar medidores inteligentes e sistemas de controle caros. É uma coordenação de infraestrutura que não poderia existir sem a camada de liquidação trustless da blockchain.

De US19,2biparaUS 19,2 bi para US 3,5 tri: O que é Necessário para Chegar Lá

A projeção de US3,5trilho~esdoFoˊrumEcono^micoMundialpara2028na~oeˊapenasespeculac\ca~ootimistaeˊumreflexodoqua~omassivoeˊomercadoenderec\caˊvelumavezqueaDePINseproveemescala.Osgastosglobaiscominfraestruturadetelecomunicac\co~esexcedemUS 3,5 trilhões do Fórum Econômico Mundial para 2028 não é apenas especulação otimista — é um reflexo do quão massivo é o mercado endereçável uma vez que a DePIN se prove em escala. Os gastos globais com infraestrutura de telecomunicações excedem US 1,5 trilhão anualmente. A computação em nuvem é um mercado de mais de US$ 600 bilhões. A infraestrutura de energia representa trilhões em despesas de capital.

A DePIN não precisa substituir essas indústrias — ela só precisa capturar 10 a 20 % de market share oferecendo uma economia superior. A matemática funciona porque a DePIN inverte o modelo tradicional de infraestrutura: em vez de empresas arrecadarem bilhões para construir redes e depois recuperar os custos ao longo de décadas, a DePIN incentiva indivíduos a implantarem a infraestrutura antecipadamente, ganhando tokens à medida que contribuem com capacidade. É uma despesa de capital via crowdsourcing, e escala muito mais rápido do que as construções centralizadas.

Mas chegar a US$ 3,5 trilhões requer resolver três desafios:

Clareza regulatória. Telecomunicações e energia são indústrias fortemente regulamentadas. Os projetos de DePIN devem navegar pelo licenciamento de espectro (sem fio), acordos de interconexão (energia) e requisitos de residência de dados (computação e armazenamento). Progressos estão sendo feitos — governos na África e na América Latina estão adotando DePIN para fechar lacunas de conectividade — mas mercados maduros como os EUA e a UE avançam mais lentamente.

Confiança empresarial. Empresas da Fortune 500 não migrarão cargas de trabalho críticas para DePIN até que a confiabilidade iguale ou exceda as alternativas centralizadas. Isso significa garantias de tempo de atividade, SLAs, seguro contra falhas e suporte 24 / 7 — requisitos básicos no setor de TI corporativa que muitos projetos de DePIN ainda carecem. Os vencedores serão os projetos que priorizarem a maturidade operacional em vez do preço do token.

Economia de tokens. Early DePIN projects sofreram com uma tokenomics insustentável: recompensas inflacionárias que inundavam os mercados, incentivos desalinhados que recompensavam ataques Sybil em vez de trabalho útil, e ações de preço movidas por especulação divorciadas dos fundamentos da rede. A próxima geração de projetos de DePIN está aprendendo com esses erros, implementando mecanismos de queima vinculados à receita, cronogramas de vesting para contribuidores e uma governança que prioriza a sustentabilidade a longo prazo.

Por que os Desenvolvedores da BlockEden.xyz Devem se Importar

Se você está construindo em blockchain, a DePIN representa um dos ajustes de produto-mercado (product-market fits) mais claros na história do setor cripto. Ao contrário da incerteza regulatória das DeFi ou dos ciclos especulativos dos NFTs, a DePIN resolve problemas reais com ROI mensurável. As empresas precisam de infraestrutura mais barata. Os indivíduos possuem ativos subutilizados. A blockchain fornece coordenação e liquidação trustless. As peças se encaixam.

Para os desenvolvedores, a oportunidade é construir o middleware que torna a DePIN pronta para o mercado corporativo: ferramentas de monitoramento e observabilidade, smart contracts para execução de SLAs, sistemas de reputação para operadores de nós, protocolos de seguro para garantias de uptime e trilhos de pagamento que liquidam instantaneamente através de fronteiras geográficas.

A infraestrutura que você constrói hoje pode impulsionar a internet descentralizada de 2028 — uma onde a Helium gerencia a conectividade móvel, a Render processa a inferência de IA, a Filecoin armazena os arquivos do mundo e a Akash executa os contêineres que orquestram tudo isso. Isso não é futurismo cripto — é o roteiro que empresas da Fortune 500 já estão pilotando.

Fontes

Sistemas de IA Multiagente Entram em Operação: O Despertar da Coordenação em Rede

· 12 min de leitura
Dora Noda
Software Engineer

Quando a Coinbase anunciou as Agentic Wallets em 11 de fevereiro de 2026 , não foi apenas mais um lançamento de produto . Marcou um ponto de virada : os agentes de IA evoluíram de ferramentas isoladas que executam tarefas únicas para atores econômicos autônomos capazes de coordenar fluxos de trabalho complexos , gerir criptoativos e transacionar sem intervenção humana . A era dos sistemas de IA multiagente chegou .

De LLMs Monolíticos a Ecossistemas de Agentes Colaborativos

Durante anos , o desenvolvimento de IA concentrou-se na construção de modelos de linguagem maiores e mais capazes . O GPT-4 , o Claude e os seus sucessores demonstraram capacidades notáveis , mas operavam de forma isolada — ferramentas poderosas à espera de orientação humana . Esse paradigma está a desmoronar-se .

Em 2026 , o consenso mudou : o futuro não é uma superinteligência monolítica , mas sim ecossistemas em rede de agentes de IA especializados que colaboram para resolver problemas complexos . De acordo com a Gartner , 40 % das aplicações empresariais apresentarão agentes de IA específicos para tarefas até ao final do ano , um salto dramático de menos de 5 % em 2025 .

Pense nisto como a transição dos computadores mainframe para os microsserviços em nuvem . Em vez de um modelo massivo a tentar fazer tudo , os sistemas de IA modernos implementam dezenas de agentes especializados — cada um otimizado para funções específicas como faturação , logística , atendimento ao cliente ou gestão de risco — trabalhando em conjunto através de protocolos padronizados .

Os Protocolos que Impulsionam a Coordenação de Agentes

Esta transformação não aconteceu por acaso . Surgiram dois padrões críticos de infraestrutura em 2025 que estão agora a permitir sistemas multiagente em escala de produção em 2026 : o Model Context Protocol ( MCP ) e o Agent-to-Agent Protocol ( A2A ) .

Model Context Protocol ( MCP ) : Anunciado pela Anthropic em novembro de 2024 , o MCP funciona como uma porta USB-C para aplicações de IA . Tal como o USB-C padronizou a conectividade dos dispositivos , o MCP padroniza a forma como os agentes de IA se ligam a sistemas de dados , repositórios de conteúdo , ferramentas de negócio e ambientes de desenvolvimento . O protocolo reutiliza padrões de mensagens comprovados do Language Server Protocol ( LSP ) e corre sobre JSON-RPC 2.0 .

No início de 2026 , os principais players , incluindo Anthropic , OpenAI e Google , construíram sobre o MCP , estabelecendo-o como o padrão de interoperabilidade de facto . O MCP gere a comunicação contextual , a gestão de memória e o planeamento de tarefas , permitindo que os agentes mantenham um estado coerente em fluxos de trabalho complexos .

Agent-to-Agent Protocol ( A2A ) : Introduzido pela Google em abril de 2025 com o apoio de mais de 50 parceiros tecnológicos — incluindo Atlassian , Box , PayPal , Salesforce , SAP e ServiceNow — o A2A permite a comunicação direta entre agentes . Enquanto frameworks como crewAI e LangChain automatizam fluxos de trabalho multiagente dentro dos seus próprios ecossistemas , o A2A atua como uma camada de mensagens universal que permite que agentes de diferentes fornecedores e plataformas se coordenem sem problemas .

O consenso emergente sobre a stack de protocolos para 2026 é claro : MCP para integração de ferramentas , A2A para comunicação entre agentes e AP2 ( Agent Payments Protocol ) para comércio . Juntos , estes padrões permitem a " economia invisível " — sistemas autónomos que operam em segundo plano , coordenando ações e liquidando transações sem intervenção humana .

A Adoção Empresarial no Mundo Real Acelera

A orquestração multiagente foi além da prova de conceito . Na saúde , os agentes de IA orquestram agora a triagem de pacientes , o processamento de sinistros e a auditoria de conformidade , melhorando tanto o envolvimento dos pacientes como a eficiência dos pagadores . Na gestão da cadeia de suprimentos , múltiplos agentes colaboram entre disciplinas e geografias , redirecionando envios coletivamente , sinalizando riscos e ajustando as expectativas de entrega em tempo real .

O fornecedor de serviços de TI Getronics aproveitou os sistemas multiagente para automatizar mais de 1 milhão de tickets de TI anualmente , integrando-se em plataformas como o ServiceNow . No retalho , os sistemas agênticos permitem promoções hiperpersonalizadas e estratégias de preços orientadas pela procura que se adaptam continuamente .

Até 2028 , 38 % das organizações esperam ter agentes de IA como membros de pleno direito em equipas humanas , de acordo com inquéritos empresariais recentes . O modelo de equipa mista — onde os agentes de IA propõem e executam enquanto os humanos supervisionam e governam — está a tornar-se o novo padrão operacional .

A Ponte Blockchain : Atores Econômicos Autônomos

Talvez o desenvolvimento mais transformador seja a convergência da IA multiagente e da tecnologia blockchain , criando uma nova camada de comércio digital onde os agentes funcionam como participantes económicos independentes .

As Agentic Wallets da Coinbase fornecem infraestrutura cripto construída especificamente para agentes autónomos , permitindo-lhes autogerir ativos digitais , executar negociações e liquidar pagamentos utilizando trilhos de stablecoins . A integração das capacidades de inferência de IA da Solana diretamente em carteiras cripto representa outro marco importante .

O impacto é mensurável . Os agentes de IA poderiam impulsionar 15-20 % do volume de finanças descentralizadas ( DeFi ) até ao final de 2025 , com dados do início de 2026 a sugerir que estão no caminho certo para exceder essa projeção . Na plataforma de mercado de previsão Polymarket , os agentes de IA já contribuem com mais de 30 % da atividade de negociação .

O padrão ERC-8004 da Ethereum — intitulado " Trustless Agents " — aborda os desafios de confiança inerentes aos sistemas autónomos através de registos on-chain , IDs portáteis baseados em NFTs para agentes , mecanismos de feedback verificáveis para construir pontuações de confiança e provas conectáveis para resultados . Os esforços colaborativos entre a Coinbase , a Ethereum Foundation , a MetaMask e outras organizações líderes produziram uma extensão A2A x402 para pagamentos cripto baseados em agentes , agora em produção .

A Oportunidade de Mercado de $ 50 Bilhões

Os interesses financeiros são enormes. O mercado global de agentes de IA atingiu 5,1bilho~esem2024eestaˊprojetadoparaatingir5,1 bilhões em 2024 e está projetado para atingir 47,1 bilhões até 2030. Dentro do setor cripto especificamente, os tokens de agentes de IA tiveram um crescimento explosivo, com o setor a expandir-se de 23bilho~esparamaisde23 bilhões para mais de 50 bilhões em menos de um ano.

Os projetos líderes incluem o NEAR Protocol, fortalecido pelo seu alto throughput e finalização rápida, atraindo aplicações baseadas em agentes de IA ; Bittensor (TAO), que impulsiona o aprendizado de máquina descentralizado ; Fetch.ai (FET), que permite agentes económicos autónomos ; e Virtuals Protocol (VIRTUAL), que viu um aumento de preço de 850 % no final de 2024, atingindo uma capitalização de mercado próxima de $ 800 milhões.

O capital de risco está a inundar a infraestrutura de comércio entre agentes (agent-to-agent). O mercado de blockchain em geral está previsto em $ 162,84 bilhões até 2027, com os sistemas de IA multiagentes a representar um motor de crescimento significativo.

Surgem Dois Modelos Arquiteturais

Os sistemas multiagentes seguem tipicamente um de dois padrões de design, cada um com trade-offs distintos :

Arquitetura Hierárquica : Um agente principal orquestra subagentes especializados, otimizando a colaboração e a coordenação. Este modelo introduz pontos centrais de controlo e supervisão, tornando-o atraente para empresas que exigem uma governação e responsabilidade (accountability) claras. Os supervisores humanos interagem principalmente com o agente principal, que delega tarefas aos especialistas.

Arquitetura Peer-to-Peer : Os agentes colaboram diretamente sem um controlador central, exigindo protocolos de comunicação robustos, mas oferecendo maior resiliência e descentralização. Este modelo destaca-se em cenários onde nenhum agente individual tem visibilidade ou autoridade completa, como cadeias de suprimentos interorganizacionais ou sistemas financeiros descentralizados.

A escolha entre estes modelos depende do caso de uso. O setor de TI empresarial e a saúde tendem para sistemas hierárquicos por questões de conformidade e auditabilidade, enquanto o DeFi e o comércio em blockchain favorecem modelos peer-to-peer alinhados com os princípios de descentralização.

A Lacuna de Confiança e a Supervisão Humana

Apesar do rápido progresso técnico, a confiança continua a ser o gargalo crítico. Em 2024, 43 % dos executivos expressaram confiança em agentes de IA totalmente autónomos. Em 2025, esse número caiu para 22 %, com 60 % a não confiar totalmente nos agentes para gerir tarefas sem supervisão.

Isto não é uma regressão — é maturação. À medida que as organizações implementam agentes em produção, encontraram casos extremos (edge cases), falhas de coordenação e, ocasionalmente, erros espetaculares. A indústria está a responder não reduzindo a autonomia, mas redesenhando a supervisão.

O modelo emergente trata os agentes de IA como executores propostos, em vez de decisores. Os agentes analisam dados, recomendam ações e executam fluxos de trabalho pré-aprovados, enquanto os humanos estabelecem guardrails, auditam resultados e intervêm quando surgem exceções. A supervisão está a tornar-se um princípio de design, não um pensamento tardio.

De acordo com a Forrester, 75 % dos líderes de experiência do cliente veem agora a IA como um amplificador humano em vez de um substituto, e 61 % das organizações acreditam que a IA agêntica tem potencial transformador quando devidamente governada.

Olhando para o Futuro : Coordenação Multimodal e Capacidades Expandidas

O roteiro (roadmap) de 2026 para sistemas multiagentes inclui expansões de capacidade significativas. O MCP está a evoluir para suportar imagens, vídeo, áudio e outros tipos de média, o que significa que os agentes não irão apenas ler e escrever — eles irão ver, ouvir e, potencialmente, observar.

O final de 2025 viu uma integração crescente da tecnologia blockchain para assinaturas, proveniência e verificação, fornecendo registos imutáveis para as ações dos agentes, cruciais para a conformidade e prestação de contas. Esta tendência está a acelerar em 2026, à medida que as empresas exigem uma IA auditável.

A orquestração multiagente está a transitar de infraestrutura experimental para essencial. Até ao final de 2026, será a espinha dorsal da forma como as principais empresas operam, incorporada não como uma funcionalidade, mas como uma camada fundamental das operações de negócio.

A Camada de Infraestrutura que Muda Tudo

Os sistemas de IA multiagentes representam mais do que uma melhoria incremental — são uma mudança de paradigma na forma como construímos sistemas inteligentes. Ao padronizar a comunicação através de MCP e A2A, integrar com blockchain para confiança e pagamentos, e incorporar a supervisão humana como um princípio central de design, a indústria está a criar infraestrutura para uma economia autónoma.

Os agentes de IA já não são ferramentas passivas à espera de comandos humanos. São participantes ativos no comércio digital, gerindo ativos, coordenando fluxos de trabalho e executando processos complexos de várias etapas. A questão já não é se os sistemas multiagentes irão transformar as operações empresariais e as finanças digitais — é quão rapidamente as organizações se conseguem adaptar à nova realidade.

Para os desenvolvedores que constroem sobre infraestrutura blockchain, a convergência da IA multiagente e dos trilhos de cripto (crypto rails) cria oportunidades sem precedentes. Os agentes precisam de uma infraestrutura blockchain fiável e de alto desempenho para operar em escala.

BlockEden.xyz fornece infraestrutura de API de nível empresarial para redes blockchain que alimentam aplicações de agentes de IA. Explore os nossos serviços para construir sistemas autónomos sobre fundações desenhadas para o futuro multiagente.


Fontes

O Gambito de $ 7,2 M da Ambient: Como o Proof of Logits Poderia Substituir a Mineração Baseada em Hash por Inferência de IA

· 21 min de leitura
Dora Noda
Software Engineer

E se o mesmo trabalho computacional que protege uma blockchain também treinasse a próxima geração de modelos de IA ? Isso não é uma visão distante — é a tese central por trás da Ambient , um fork da Solana que acaba de levantar $ 7,2 milhões da a16z CSX para construir a primeira blockchain proof - of - work alimentada por IA do mundo.

A prova de trabalho ( proof - of - work ) tradicional consome eletricidade resolvendo enigmas criptográficos arbitrários. Os mineradores de Bitcoin competem para encontrar hashes com zeros iniciais suficientes — um trabalho computacional sem valor além da segurança da rede. A Ambient inverte totalmente esse cenário. Seu mecanismo de consenso Proof of Logits ( PoL ) substitui a moagem de hashes por inferência de IA , ajuste fino ( fine - tuning ) e treinamento de modelos. Os mineradores não resolvem quebra - cabeças ; eles geram saídas de IA verificáveis. Os validadores não recomputam cargas de trabalho inteiras ; eles verificam impressões digitais criptográficas chamadas logits.

O resultado ? Uma blockchain onde a segurança e o avanço da IA estão economicamente alinhados , onde uma sobrecarga de verificação de 0,1 % torna a verificação de consenso quase gratuita , e onde os custos de treinamento caem 10 vezes em comparação com as alternativas centralizadas. Se for bem - sucedida , a Ambient poderá responder a uma das críticas mais antigas das criptomoedas — a de que a prova de trabalho desperdiça recursos — transformando a mineração em trabalho produtivo de IA.

O Avanço da Proof of Logits : IA Verificável Sem Recomputação

Entender a PoL exige entender o que os logits realmente são. Quando grandes modelos de linguagem geram texto , eles não produzem palavras diretamente. Em vez disso , a cada passo , eles produzem uma distribuição de probabilidade sobre todo o vocabulário — pontuações numéricas que representam níveis de confiança para cada próximo token possível.

Essas pontuações são chamadas de logits. Para um modelo com um vocabulário de 50.000 tokens , gerar uma única palavra significa computar 50.000 logits. Esses números servem como uma impressão digital computacional única. Apenas um modelo específico , com pesos específicos , executando uma entrada específica , produz uma distribuição de logit específica.

A inovação da Ambient é usar logits como proof - of - work : os mineradores realizam inferência de IA ( gerando respostas para prompts ) , e os validadores verificam esse trabalho checando as impressões digitais dos logits em vez de refazer toda a computação.

Veja como funciona o processo de verificação :

Minerador gera a saída : Um minerador recebe um prompt ( por exemplo , "Resuma os princípios do consenso em blockchain" ) e usa um modelo de 600 bilhões de parâmetros para gerar uma resposta de 4.000 tokens. Isso produz 4.000 × 50.000 = 200 milhões de logits.

Validador realiza verificação por amostragem : Em vez de regenerar todos os 4.000 tokens , o validador amostra aleatoriamente uma posição — digamos , o token 2.847. O validador executa uma única etapa de inferência nessa posição e compara os logits relatados pelo minerador com a distribuição esperada.

Compromisso criptográfico : Se os logits coincidirem ( dentro de um limite aceitável que considera a precisão de ponto flutuante ) , o trabalho do minerador é verificado. Caso contrário , o bloco é rejeitado e o minerador perde as recompensas.

Isso reduz a sobrecarga de verificação para aproximadamente 0,1 % da computação original. Um validador verificando 200 milhões de logits só precisa verificar 50.000 logits ( uma posição de token ) , reduzindo o custo em 99,9 %. Compare isso com a PoW tradicional , onde a validação significa reexecutar toda a função hash — ou a abordagem do Bitcoin , onde verificar um único hash SHA - 256 é trivial porque o próprio enigma é arbitrário.

O sistema da Ambient é exponencialmente mais barato do que esquemas ingênuos de " prova de trabalho útil " que exigem recomputação total. É mais próximo da eficiência do Bitcoin ( validação barata ) , mas entrega utilidade real ( inferência de IA em vez de hashes sem sentido ).

A Redução de 10x nos Custos de Treinamento : IA Descentralizada Sem Monopólios de Datacenters

O treinamento centralizado de IA é caro — proibitivamente caro para a maioria das organizações. Treinar modelos na escala do GPT - 4 custa dezenas de milhões de dólares , requer milhares de GPUs empresariais e concentra o poder nas mãos de algumas gigantes da tecnologia. A arquitetura da Ambient visa democratizar isso , distribuindo o treinamento em uma rede de mineradores independentes.

A redução de 10x nos custos vem de duas inovações técnicas :

Fragmentação ( sharding ) ao estilo PETALS : A Ambient adapta técnicas do PETALS , um sistema de inferência descentralizado onde cada nó armazena apenas um fragmento ( shard ) de um grande modelo. Em vez de exigir que os mineradores mantenham um modelo inteiro de 600 bilhões de parâmetros ( o que exigiria terabytes de VRAM ) , cada minerador possui um subconjunto de camadas. Um prompt flui sequencialmente pela rede , com cada minerador processando seu fragmento e passando as ativações para o próximo.

Isso significa que um minerador com uma única GPU de nível de consumidor ( 24 GB de VRAM ) pode participar do treinamento de modelos que , de outra forma , exigiriam centenas de GPUs em um datacenter. Ao distribuir o grafo computacional por centenas ou milhares de nós , a Ambient elimina a necessidade de interconexões caras de alta largura de banda ( como InfiniBand ) usadas em clusters de ML tradicionais.

Esparsidade inspirada no SLIDE : A maioria das computações de redes neurais envolve a multiplicação de matrizes onde a maioria das entradas está próxima de zero. O SLIDE ( Sub - LInear Deep learning Engine ) explora isso usando hashing de ativações para identificar quais neurônios realmente importam para uma determinada entrada , ignorando completamente as computações irrelevantes.

A Ambient aplica essa esparsidade ao treinamento distribuído. Em vez de todos os mineradores processarem todos os dados , a rede roteia o trabalho dinamicamente para os nós cujos fragmentos são relevantes para o lote atual. Isso reduz a sobrecarga de comunicação ( um grande gargalo no ML distribuído ) e permite que mineradores com hardware mais fraco participem processando subgrafos esparsos.

A combinação resulta no que a Ambient afirma ser um rendimento ( throughput ) 10 vezes melhor do que os esforços de treinamento distribuído existentes , como DiLoCo ou Hivemind. Mais importante ainda , reduz a barreira de entrada : os mineradores não precisam de infraestrutura de nível de datacenter — um PC gamer com uma GPU decente é suficiente para contribuir.

Arquitetura de Fork da Solana: Alto TPS Encontra PoW Não Bloqueante

A Ambient não está a construir do zero. É um fork completo da Solana, herdando a Solana Virtual Machine (SVM), o carimbo de tempo Proof of History (PoH) e o encaminhamento de mempool Gulf Stream. Isto confere à Ambient o rendimento teórico de 65.000 TPS da Solana e uma finalidade de sub-segundo.

Mas a Ambient faz uma modificação crítica: adiciona uma camada de proof-of-work não bloqueante sobre o consenso da Solana.

Eis como funciona o consenso híbrido:

Proof of History ordena as transações: O PoH da Solana fornece um relógio criptográfico, ordenando as transações sem esperar pelo consenso global. Isto permite a execução paralela em múltiplos núcleos.

Proof of Logits protege a rede: Os mineradores competem para produzir resultados válidos de inferência de IA. A blockchain aceita blocos de mineradores que geram o trabalho de IA mais valioso (medido pela complexidade da inferência, tamanho do modelo ou reputação em stake).

Integração não bloqueante: Ao contrário do Bitcoin, onde a produção de blocos para até que um PoW válido seja encontrado, o PoW da Ambient opera de forma assíncrona. Os validadores continuam a processar transações enquanto os mineradores competem para submeter o trabalho de IA. Isto evita que o PoW se torne um gargalo.

O resultado é uma blockchain que mantém a velocidade da Solana (crítica para aplicações de IA que exigem inferência de baixa latência) enquanto garante a competição económica nas atividades principais da rede — inferência, fine-tuning e treino.

Este design também evita os erros anteriores da Ethereum com o consenso de "trabalho útil". Primecoin e Gridcoin tentaram usar computação científica como PoW, mas enfrentaram uma falha fatal: o trabalho útil não é uniformemente difícil. Alguns problemas são fáceis de resolver, mas difíceis de verificar; outros são fáceis de paralelizar injustamente. A Ambient contorna isto ao tornar a verificação de logits computacionalmente barata e padronizada. Cada tarefa de inferência, independentemente da complexidade, pode ser verificada com o mesmo algoritmo de verificação pontual.

A Corrida para Treinar IAG On-Chain: Quem Mais Está a Competir?

A Ambient não está sozinha no alvo da IA nativa de blockchain. O setor está repleto de projetos que afirmam descentralizar a aprendizagem automática, mas poucos entregam um treino verificável on-chain. Eis como a Ambient se compara aos principais concorrentes:

Artificial Superintelligence Alliance (ASI): Formada pela fusão da Fetch.AI, SingularityNET e Ocean Protocol, a ASI foca-se na infraestrutura de IAG descentralizada. A ASI Chain suporta a execução de agentes concorrentes e transações seguras de modelos. Ao contrário da abordagem PoW da Ambient, a ASI depende de um modelo de mercado onde os desenvolvedores pagam por créditos de computação. Isto funciona para inferência, mas não alinha os incentivos para o treino — os mineradores não têm razão para contribuir com horas caras de GPU a menos que sejam explicitamente compensados antecipadamente.

AIVM (ChainGPT): O roteiro da AIVM da ChainGPT visa o lançamento da mainnet em 2026, integrando recursos de GPU off-chain com verificação on-chain. No entanto, a verificação da AIVM depende de optimistic rollups (assume a correção a menos que seja contestada), introduzindo latência de prova de fraude. A verificação de logits da Ambient é determinística — os validadores sabem instantaneamente se o trabalho é válido.

Internet Computer (ICP): O Internet Computer da Dfinity pode hospedar grandes modelos nativamente on-chain sem infraestrutura de nuvem externa. Mas a arquitetura de canister do ICP não está otimizada para treino — foi concebida para inferência e execução de contratos inteligentes. O PoW da Ambient incentiva economicamente a melhoria contínua do modelo, enquanto o ICP exige que os desenvolvedores façam a gestão do treino externamente.

Bittensor: O Bittensor utiliza um modelo de sub-redes onde cadeias especializadas treinam diferentes tarefas de IA (geração de texto, classificação de imagens, etc.). Os mineradores competem submetendo pesos de modelos e os validadores classificam-nos pelo desempenho. O Bittensor destaca-se na inferência descentralizada, mas tem dificuldades com a coordenação do treino — não existe um modelo global unificado, apenas uma coleção de sub-redes independentes. A abordagem da Ambient unifica o treino sob um único mecanismo de PoW.

Lightchain Protocol AI: O whitepaper da Lightchain propõe o Proof of Intelligence (PoI), onde os nós executam tarefas de IA para validar transações. No entanto, o consenso da Lightchain permanece em grande parte teórico, sem lançamento de testnet anunciado. Em contraste, a Ambient planeia uma testnet para o Q2 / Q3 de 2025.

A vantagem da Ambient é combinar o trabalho de IA verificável com a arquitetura de alto rendimento comprovada da Solana. A maioria dos concorrentes sacrifica a descentralização (treino centralizado com verificação on-chain) ou sacrifica o desempenho (consenso lento à espera de provas de fraude). O PoW baseado em logits da Ambient oferece ambos: treino descentralizado com verificação quase instantânea.

Incentivos Económicos: Mineração de Modelos de IA Como Blocos de Bitcoin

O modelo económico da Ambient espelha o do Bitcoin: recompensas de bloco previsíveis + taxas de transação. Mas em vez de minerar blocos vazios, os mineradores produzem resultados de IA que as aplicações podem consumir.

Eis como funciona a estrutura de incentivos:

Recompensas baseadas em inflação: Os primeiros mineradores recebem subsídios de bloco (tokens recém-emitidos) por contribuírem com inferência de IA, fine-tuning ou treino. Tal como o cronograma de halving do Bitcoin, os subsídios diminuem ao longo do tempo, garantindo a escassez a longo prazo.

Taxas baseadas em transações: As aplicações pagam por serviços de IA — pedidos de inferência, fine-tuning de modelos ou acesso a pesos treinados. Estas taxas vão para os mineradores que realizaram o trabalho, criando um modelo de receita sustentável à medida que os subsídios diminuem.

Staking de reputação: Para evitar ataques Sybil (mineradores que submetem trabalho de baixa qualidade para reivindicar recompensas), a Ambient introduz a reputação em stake. Os mineradores bloqueiam tokens para participar; a produção de logits inválidos resulta em slashing. Isto alinha os incentivos: os mineradores maximizam os lucros gerando resultados de IA precisos e úteis, em vez de tentarem enganar o sistema.

Acessibilidade modesta de hardware: Ao contrário do Bitcoin, onde as explorações de ASIC dominam, o sharding PETALS da Ambient permite a participação com GPUs de consumo. Um minerador com uma única RTX 4090 (24 GB VRAM, ~ $ 1.600) pode contribuir para o treino de modelos de 600 B parâmetros ao possuir um shard. Isto democratiza o acesso — sem necessidade de centros de dados de milhões de dólares.

Este modelo resolve um problema crítico na IA descentralizada: o problema do "free-rider". Nas cadeias PoS tradicionais, os validadores fazem stake de capital, mas não contribuem com computação. Na Ambient, os mineradores contribuem com trabalho real de IA, garantindo que a utilidade da rede cresce proporcionalmente ao seu orçamento de segurança.

O Setor de Agentes de IA de $ 27 Bilhões: Por que 2026 é o Ponto de Inflexão

O timing da Ambient alinha-se com as tendências mais amplas do mercado. O setor de cripto de agentes de IA está avaliado em $ 27 bilhões, impulsionado por programas autónomos que gerem ativos on-chain, executam negociações e coordenam-se entre protocolos.

Mas os agentes de hoje enfrentam um problema de confiança: a maioria depende de APIs de IA centralizadas (OpenAI, Anthropic, Google). Se um agente que gere $ 10 milhões em posições DeFi utiliza o GPT-4 para tomar decisões, os utilizadores não têm garantia de que o modelo não foi adulterado, censurado ou enviesado. Não existe uma trilha de auditoria que prove que o agente agiu de forma autónoma.

A Ambient resolve isto com verificação on-chain. Cada inferência de IA é registada na blockchain, com logits que provam o modelo e a entrada exatos utilizados. As aplicações podem:

Auditar decisões de agentes: Uma DAO poderia verificar que o seu agente de gestão de tesouraria utilizou um modelo específico, aprovado pela comunidade — e não uma versão secretamente modificada.

Impor conformidade: Protocolos DeFi regulamentados poderiam exigir que os agentes utilizem modelos com salvaguardas de segurança verificadas, comprováveis on-chain.

Ativar marketplaces de IA: Os programadores poderiam vender modelos ajustados (fine-tuned) como NFTs, com a Ambient a fornecer prova criptográfica dos dados de treino e dos pesos.

Isto posiciona a Ambient como infraestrutura para a próxima vaga de agentes autónomos. À medida que 2026 emerge como o ponto de viragem onde a "IA, as blockchains e os pagamentos convergem numa única internet auto-coordenada", a camada de IA verificável da Ambient torna-se uma infraestrutura crítica.

Riscos Técnicos e Perguntas em Aberto

A visão da Ambient é ambiciosa, mas vários desafios técnicos permanecem por resolver:

Determinismo e deriva de ponto flutuante: Os modelos de IA utilizam aritmética de ponto flutuante, que não é perfeitamente determinística entre diferentes hardwares. Um modelo executado numa NVIDIA A100 pode produzir logits ligeiramente diferentes do mesmo modelo numa AMD MI250. Se os validadores rejeitarem blocos devido a pequenas derivas numéricas, a rede torna-se instável. A Ambient precisará de limites de tolerância rigorosos — mas, se forem demasiado apertados, os mineradores em hardware diferente serão penalizados injustamente.

Atualizações de modelos e versionamento: Se a Ambient treina um modelo global de forma colaborativa, como lida com as atualizações? No Bitcoin, todos os nós executam regras de consenso idênticas. Na Ambient, os mineradores ajustam os modelos continuamente. Se metade da rede atualizar para a versão 2.0 e a outra metade permanecer na 1.9, a verificação falha. O whitepaper não detalha como funcionam o versionamento do modelo e a compatibilidade retroativa.

Diversidade de prompts e padronização do trabalho: O PoW do Bitcoin é uniforme — cada minerador resolve o mesmo tipo de quebra-cabeça. O PoW da Ambient varia — alguns mineradores respondem a perguntas de matemática, outros escrevem código, outros resumem documentos. Como é que os validadores comparam o "valor" de diferentes tarefas? Se um minerador gera 10.000 tokens de conteúdo sem sentido (fácil) e outro ajusta um modelo num conjunto de dados complexo (caro), quem recebe a maior recompensa? A Ambient precisa de um algoritmo de ajuste de dificuldade para o trabalho de IA, análogo à dificuldade de hash do Bitcoin — mas medir a "dificuldade de inferência" não é trivial.

Latência no treino distribuído: O sharding ao estilo PETALS funciona bem para inferência (processamento sequencial de camadas), mas o treino requer retropropagação (backpropagation) — gradientes a fluir para trás através da rede. Se as camadas estiverem distribuídas por nós com latências de rede variadas, as atualizações de gradientes tornam-se gargalos. A Ambient afirma melhorias de 10× no throughput, mas o desempenho no mundo real depende da topologia da rede e da distribuição dos mineradores.

Riscos de centralização no alojamento de modelos: Se apenas alguns nós conseguirem suportar o alojamento dos fragmentos de modelos mais valiosos (por exemplo, as camadas finais de um modelo de 600B de parâmetros), estes ganharão uma influência desproporcional. Os validadores podem preferir encaminhar o trabalho para nós bem ligados, recriando a centralização de datacenters numa rede supostamente descentralizada.

Estes não são falhas fatais — são desafios de engenharia que todos os projetos de blockchain-IA enfrentam. Mas o lançamento da testnet da Ambient no T2 / T3 de 2025 revelará se a teoria se sustenta em condições reais.

O Que Vem a Seguir: Testnet, Mainnet e o Endgame da AGI

O roadmap da Ambient visa um lançamento da testnet no T2 / T3 de 2025, com a mainnet a seguir em 2026. A ronda de investimento semente de $ 7,2 milhões da a16z CSX, Delphi Digital e Amber Group fornece capital para o desenvolvimento central, mas o sucesso a longo prazo do projeto depende da adoção pelo ecossistema.

Marcos fundamentais a observar:

Participação na mineração da testnet: Quantos mineradores se juntam à rede? Se a Ambient atrair milhares de proprietários de GPUs (como na mineração inicial de Ethereum), isso prova que o modelo económico funciona. Se apenas um punhado de entidades minerar, isso sinaliza riscos de centralização.

Benchmarks de desempenho do modelo: Podem os modelos treinados pela Ambient competir com a OpenAI ou a Anthropic? Se um modelo descentralizado de 600B de parâmetros atingir uma qualidade de nível GPT-4, isso valida toda a abordagem. Se o desempenho ficar significativamente atrás, os programadores continuarão a utilizar APIs centralizadas.

Integrações de aplicações: Quais os protocolos DeFi, DAOs ou agentes de IA que constroem sobre a Ambient? A proposta de valor só se materializa se aplicações reais consumirem inferência de IA on-chain. Os primeiros casos de uso podem incluir:

  • Agentes de negociação autónomos com lógica de decisão comprovável
  • Moderação de conteúdo descentralizada (modelos de IA a filtrar posts, auditáveis on-chain)
  • Oráculos de IA verificáveis (previsões de preço ou análise de sentimento on-chain)

Interoperabilidade com Ethereum e Cosmos: A Ambient é um fork da Solana, mas a economia dos agentes de IA abrange múltiplas cadeias. Pontes para Ethereum (para DeFi) e Cosmos (para cadeias de IA ligadas por IBC, como a ASI) determinarão se a Ambient se torna um silo ou um hub.

O objetivo final é ambicioso: treinar uma AGI descentralizada onde nenhuma entidade isolada controla o modelo. Se milhares de mineradores independentes treinarem colaborativamente um sistema superinteligente, com prova criptográfica de cada etapa de treino, isso representaria o primeiro caminho verdadeiramente aberto e auditável para a AGI.

Se a Ambient alcançará isto ou se tornará mais um projeto cripto de promessas excessivas depende da execução. Mas a inovação principal — substituir quebra-cabeças criptográficos arbitrários por trabalho de IA verificável — é um avanço genuíno. Se a prova de trabalho pode ser produtiva em vez de um desperdício, a Ambient será a primeira a prová-lo.

A Mudança de Paradigma do Proof-of-Logits

A captação de $ 7,2 milhões da Ambient não é apenas mais uma rodada de financiamento cripto. É uma aposta de que o consenso de blockchain e o treinamento de IA podem se fundir em um único sistema economicamente alinhado. As implicações ecoam muito além da Ambient:

Se a verificação baseada em logit funcionar, outras chains a adotarão. O Ethereum poderia introduzir o PoL como uma alternativa ao PoS, recompensando validadores que contribuem com trabalho de IA em vez de apenas fazer o staking de ETH. O Bitcoin poderia sofrer um fork para usar computação útil em vez de hashes SHA-256 (embora os maximalistas do Bitcoin nunca aceitassem isso).

Se o treinamento descentralizado atingir um desempenho competitivo, a OpenAI e o Google perdem seus fossos competitivos. Um mundo onde qualquer pessoa com uma GPU pode contribuir para o desenvolvimento de AGI, ganhando tokens por seu trabalho, interrompe fundamentalmente o oligopólio centralizado de IA.

Se a verificação de IA on-chain se tornar padrão, os agentes autônomos ganham credibilidade. Em vez de confiar em APIs de caixa preta, os usuários verificam modelos e prompts exatos on-chain. Isso desbloqueia o DeFi regulamentado, a governança algorítmica e contratos jurídicos alimentados por IA.

A Ambient não tem vitória garantida. Mas é a tentativa tecnicamente mais credível até agora de tornar o proof-of-work produtivo, descentralizar o treinamento de IA e alinhar a segurança da blockchain com o progresso civilizacional. O lançamento da testnet mostrará se a teoria encontra a realidade — ou se o proof-of-logits se junta ao cemitério de experimentos ambiciosos de consenso.

De qualquer forma, a corrida para treinar AGI on-chain é agora inegavelmente real. E a Ambient acabou de colocar $ 7,2 milhões na linha de partida.


Fontes:

Gensyn's Judge: Como a Reprodutibilidade Exata bit a bit está Encerrando a Era das APIs de IA Opacas

· 22 min de leitura
Dora Noda
Software Engineer

Sempre que você consulta o ChatGPT, Claude ou Gemini, você está confiando em uma caixa preta invisível. A versão do modelo? Desconhecida. Os pesos exatos? Proprietários. Se a saída foi gerada pelo modelo que você acha que está usando, ou por uma variante atualizada silenciosamente? Impossível de verificar. Para usuários casuais que perguntam sobre receitas ou curiosidades, essa opacidade é meramente irritante. Para a tomada de decisões de IA de alto risco — algoritmos de negociação financeira, diagnósticos médicos, análise de contratos jurídicos — é uma crise fundamental de confiança.

O Judge da Gensyn, lançado no final de 2025 e entrando em produção em 2026, oferece uma alternativa radical: avaliação de IA criptograficamente verificável, onde cada inferência é reprodutível até o bit. Em vez de confiar na OpenAI ou Anthropic para servir o modelo correto, o Judge permite que qualquer pessoa verifique se um modelo de IA específico e previamente acordado foi executado de forma determinística contra entradas do mundo real — com provas criptográficas garantindo que os resultados não possam ser falsificados.

O avanço técnico é o Verde, o sistema de verificação da Gensyn que elimina o não-determinismo de ponto flutuante — o flagelo da reprodutibilidade da IA. Ao impor computação exata por bits entre dispositivos, o Verde garante que a execução do mesmo modelo em uma NVIDIA A100 em Londres e em uma AMD MI250 em Tóquio produza resultados idênticos, comprováveis on-chain. Isso desbloqueia a IA verificável para finanças descentralizadas, agentes autônomos e qualquer aplicação onde a transparência não é opcional — ela é existencial.

O Problema das APIs Opacas: Confiança Sem Verificação

A indústria de IA funciona com APIs. Desenvolvedores integram o GPT-4 da OpenAI, o Claude da Anthropic ou o Gemini do Google via endpoints REST, enviando prompts e recebendo respostas. Mas essas APIs são fundamentalmente opacas:

Incerteza de versão: Quando você chama o gpt-4, qual versão exata está recebendo? GPT-4-0314? GPT-4-0613? Uma variante atualizada silenciosamente? Os provedores frequentemente implementam correções sem anúncios públicos, alterando o comportamento do modelo da noite para o dia.

Sem trilha de auditoria: As respostas da API não incluem nenhuma prova criptográfica de qual modelo as gerou. Se a OpenAI servir uma variante censurada ou tendenciosa para geografias ou clientes específicos, os usuários não têm como detectá-la.

Degradação silenciosa: Os provedores podem "lobotomizar" modelos para reduzir custos — rebaixando a qualidade da inferência enquanto mantêm o mesmo contrato de API. Usuários relatam que o GPT-4 se tornou "mais burro" com o tempo, mas sem versionamento transparente, tais alegações permanecem anedóticas.

Saídas não-determinísticas: Mesmo consultando o mesmo modelo duas vezes com entradas idênticas, é possível obter resultados diferentes devido a configurações de temperatura, processamento em lote (batching) ou erros de arredondamento de ponto flutuante em nível de hardware. Isso torna a auditoria impossível — como verificar a exatidão quando as saídas não são reprodutíveis?

Para aplicações casuais, esses problemas são inconvenientes. Para tomadas de decisão de alto risco, eles são impedimentos. Considere:

Negociação algorítmica: Um fundo de hedge implanta um agente de IA gerenciando $ 50 milhões em posições DeFi. O agente depende do GPT-4 para analisar o sentimento do mercado a partir de postagens no X. Se o modelo for atualizado silenciosamente no meio da sessão de negociação, as pontuações de sentimento mudam de forma imprevisível — desencadeando liquidações não intencionais. O fundo não tem prova de que o modelo se comportou mal; os logs da OpenAI não são auditáveis publicamente.

Diagnósticos médicos: Um hospital usa um modelo de IA para recomendar tratamentos de câncer. As regulamentações exigem que os médicos documentem os processos de tomada de decisão. Mas se a versão do modelo de IA não puder ser verificada, a trilha de auditoria estará incompleta. Um processo de negligência médica poderia depender da prova de qual modelo gerou a recomendação — o que é impossível com APIs opacas.

Governança de DAO: Uma organização descentralizada usa um agente de IA para votar em propostas de tesouraria. Os membros da comunidade exigem prova de que o agente usou o modelo aprovado — e não uma variante adulterada que favoreça resultados específicos. Sem verificação criptográfica, o voto carece de legitimidade.

Esta é a lacuna de confiança que a Gensyn visa: à medida que a IA se torna incorporada em tomadas de decisão críticas, a incapacidade de verificar a autenticidade e o comportamento do modelo torna-se um "impedimento fundamental para a implantação de IA baseada em agentes em ambientes de alto risco".

Judge: O Protocolo de Avaliação de IA Verificável

O Judge resolve o problema da opacidade executando modelos de IA determinísticos e previamente acordados contra entradas do mundo real e registrando os resultados em uma blockchain onde qualquer pessoa pode contestá-los. Veja como o protocolo funciona:

1. Compromisso do modelo: Os participantes concordam com um modelo de IA — sua arquitetura, pesos e configuração de inferência. Este modelo é transformado em hash e registrado on-chain. O hash serve como uma impressão digital criptográfica: qualquer desvio do modelo acordado produz um hash diferente.

2. Execução determinística: O Judge executa o modelo usando o Runtime Reprodutível da Gensyn, que garante reprodutibilidade exata por bits entre dispositivos. Isso elimina o não-determinismo de ponto flutuante — uma inovação crítica que exploraremos em breve.

3. Compromisso público: Após a inferência, o Judge publica a saída (ou um hash dela) on-chain. Isso cria um registro permanente e auditável do que o modelo produziu para uma determinada entrada.

4. Período de contestação: Qualquer pessoa pode contestar o resultado executando o modelo de forma independente. Se a sua saída for diferente, eles enviam uma prova de fraude. O mecanismo de delegação arbitrada do Verde identifica o operador exato no grafo computacional onde os resultados divergem.

5. Slashing por fraude: Se um contestador provar que o Judge produziu resultados incorretos, o executor original é penalizado (slashing de tokens em stake). Isso alinha os incentivos econômicos: os executores maximizam o lucro executando os modelos corretamente.

O Judge transforma a avaliação de IA de "confie no provedor de API" para "verifique a prova criptográfica". O comportamento do modelo é público, auditável e executável — não mais escondido atrás de endpoints proprietários.

Verde: Eliminando o Não Determinismo de Ponto Flutuante

O principal desafio técnico na IA verificável é o determinismo. As redes neurais realizam bilhões de operações de ponto flutuante durante a inferência. Em GPUs modernas, essas operações não são perfeitamente reproduzíveis:

Não associatividade: A adição de ponto flutuante não é associativa. (a + b) + c pode resultar em um valor diferente de a + (b + c) devido a erros de arredondamento. As GPUs paralelizam somas em milhares de núcleos, e a ordem na qual as somas parciais se acumulam varia de acordo com o hardware e a versão do driver.

Variabilidade de agendamento de kernel: Os kernels de GPU (como multiplicação de matrizes ou atenção) podem ser executados em ordens diferentes dependendo da carga de trabalho, otimizações de driver ou arquitetura de hardware. Mesmo executar o mesmo modelo na mesma GPU duas vezes pode gerar resultados diferentes se o agendamento do kernel mudar.

Dependência do tamanho do lote (batch-size): Pesquisas descobriram que a inferência de LLM possui não determinismo em nível de sistema porque a saída depende do tamanho do lote. Muitos kernels (matmul, RMSNorm, atenção) alteram a saída numérica com base em quantas amostras são processadas juntas — uma inferência com tamanho de lote 1 produz valores diferentes da mesma entrada em um lote de 8.

Esses problemas tornam os modelos de IA padrão inadequados para a verificação em blockchain. Se dois validadores reexecutarem a mesma inferência e obtiverem saídas ligeiramente diferentes, quem está correto? Sem determinismo, o consenso é impossível.

O Verde resolve isso com RepOps (Reproducible Operators) — uma biblioteca que elimina o não determinismo de hardware controlando a ordem das operações de ponto flutuante em todos os dispositivos. Veja como funciona:

Ordens de redução canônicas: O RepOps impõe uma ordem determinística para somar resultados parciais em operações como multiplicação de matrizes. Em vez de deixar o agendador da GPU decidir, o RepOps especifica explicitamente: "some a coluna 0, depois a coluna 1, depois a coluna 2..." em todo o hardware. Isso garante que (a + b) + c seja sempre computado na mesma sequência.

Kernels CUDA personalizados: A Gensyn desenvolveu kernels otimizados que priorizam a reprodutibilidade em detrimento da velocidade bruta. As multiplicações de matrizes RepOps incorrem em menos de 30% de sobrecarga em comparação com o cuBLAS padrão — uma troca razoável pelo determinismo.

Fixação de drivers e versões (pinning): O Verde usa drivers de GPU com versões fixas e configurações canônicas, garantindo que o mesmo modelo executado em hardwares diferentes produza saídas idênticas bit a bit. Um modelo rodando em uma NVIDIA A100 em um datacenter corresponde à saída de uma AMD MI250 em outro, bit por bit.

Este é o avanço que permite a verificação do Judge: a reprodutibilidade exata bit a bit significa que os validadores podem confirmar resultados de forma independente sem confiar nos executores. Se o hash coincidir, a inferência está correta — matematicamente comprovável.

Delegação Referenciada: Verificação Eficiente Sem Recomputação Total

Mesmo com execução determinística, verificar a inferência de IA de forma ingênua é caro. Um modelo de 70 bilhões de parâmetros gerando 1.000 tokens pode exigir 10 horas de GPU. Se os validadores tiverem que reexecutar cada inferência para verificar a correção, o custo da verificação seria igual ao custo de execução — anulando o propósito da descentralização.

O mecanismo de delegação referenciada (refereed delegation) do Verde torna a verificação exponencialmente mais barata:

Múltiplos executores não confiáveis: Em vez de um executor, o Judge atribui tarefas a vários provedores independentes. Cada um executa a mesma inferência e envia os resultados.

Discordância aciona investigação: Se todos os executores concordarem, o resultado é aceito — nenhuma verificação adicional é necessária. Se as saídas divergirem, o Verde inicia um jogo de desafio (challenge game).

Busca binária sobre o gráfico de computação: O Verde não reexecuta toda a inferência. Em vez disso, ele realiza uma busca binária sobre o gráfico computacional do modelo para encontrar o primeiro operador onde os resultados divergem. Isso identifica a camada exata (por exemplo, "camada de atenção 47, cabeça 8") que causou a discrepância.

Computação mínima do árbitro: Um árbitro (que pode ser um contrato inteligente ou um validador com computação limitada) verifica apenas o operador em disputa — não todo o passe para frente (forward pass). Para um modelo de 70B parâmetros com 80 camadas, isso reduz a verificação para checar cerca de 7 camadas (log₂ 80) no pior caso.

Essa abordagem é mais de 1.350% mais eficiente do que a replicação ingênua (onde cada validador reexecuta tudo). A Gensyn combina provas criptográficas, teoria dos jogos e processos otimizados para garantir a execução correta sem computação redundante.

O resultado: O Judge pode verificar cargas de trabalho de IA em escala, permitindo redes de inferência descentralizadas onde milhares de nós não confiáveis contribuem com computação — e executores desonestos são detectados e penalizados.

Tomada de Decisão de IA de Alto Risco: Por que a Transparência Importa

O mercado-alvo do Judge não são chatbots casuais — são aplicações onde a verificabilidade não é apenas um diferencial, mas um requisito regulatório ou econômico. Aqui estão cenários onde APIs opacas falham catastroficamente:

Finanças descentralizadas (DeFi): Agentes de negociação autônomos gerenciam bilhões em ativos. Se um agente usa um modelo de IA para decidir quando rebalancear portfólios, os usuários precisam de provas de que o modelo não foi adulterado. O Judge permite a verificação on-chain: o agente se compromete com um hash de modelo específico, executa negociações com base em suas saídas e qualquer pessoa pode contestar a lógica de decisão. Essa transparência evita rug pulls onde agentes maliciosos alegam que "a IA me disse para liquidar" sem evidências.

Conformidade regulatória: Instituições financeiras que implantam IA para análise de crédito, detecção de fraude ou combate à lavagem de dinheiro (AML) enfrentam auditorias. Os reguladores exigem explicações: "Por que o modelo sinalizou esta transação?". APIs opacas não fornecem trilha de auditoria. O Judge cria um registro imutável da versão do modelo, entradas e saídas — satisfazendo os requisitos de conformidade.

Governança algorítmica: Organizações autônomas descentralizadas (DAOs) usam agentes de IA para propor ou votar em decisões de governança. Os membros da comunidade devem verificar se o agente usou o modelo aprovado — e não uma variante hackeada. Com o Judge, a DAO codifica o hash do modelo em seu contrato inteligente, e cada decisão inclui uma prova criptográfica de correção.

IA médica e jurídica: Os sistemas de saúde e jurídico exigem responsabilidade. Um médico diagnosticando câncer com auxílio de IA precisa documentar a versão exata do modelo utilizado. Um advogado redigindo contratos com IA deve provar que a saída veio de um modelo verificado e imparcial. A trilha de auditoria on-chain do Judge fornece essa evidência.

Mercados de previsão e oráculos: Projetos como o Polymarket usam IA para resolver resultados de apostas (por exemplo, "Este evento acontecerá?"). Se a resolução depende de um modelo de IA analisando artigos de notícias, os participantes precisam de prova de que o modelo não foi manipulado. O Judge verifica a inferência de IA do oráculo, evitando disputas.

Em cada caso, o ponto comum é que a confiança sem transparência é insuficiente. Como observa a VeritasChain, os sistemas de IA precisam de "gravadores de voo criptográficos" — registros imutáveis que provam o que aconteceu quando surgem disputas.

A Alternativa de Prova de Conhecimento Zero: Comparando Verde e ZKML

O Judge não é a única abordagem para IA verificável. O Zero-Knowledge Machine Learning (ZKML) alcança objetivos semelhantes usando zk-SNARKs: provas criptográficas de que uma computação foi executada corretamente sem revelar entradas ou pesos.

Como o Verde se compara ao ZKML?

Custo de verificação: O ZKML requer ~1.000× mais computação do que a inferência original para gerar provas (estimativas de pesquisa). Um modelo de 70B de parâmetros que necessita de 10 horas de GPU para inferência pode exigir 10.000 horas de GPU para ser provado. A delegação arbitrada do Verde é logarítmica: verificar ~7 camadas em vez de 80 é uma redução de 10×, não de 1.000×.

Complexidade do provador: O ZKML exige hardware especializado (como ASICs personalizados para circuitos zk-SNARK) para gerar provas de forma eficiente. O Verde funciona em GPUs comuns — qualquer minerador com um PC gamer pode participar.

Trade-offs de privacidade: A força do ZKML é a privacidade — as provas não revelam nada sobre as entradas ou os pesos do modelo. A execução determinística do Verde é transparente: as entradas e saídas são públicas (embora os pesos possam ser criptografados). Para tomadas de decisão de alto risco, a transparência é muitas vezes desejável. Uma DAO votando na alocação do tesouro deseja trilhas de auditoria públicas, não provas ocultas.

Escopo de prova: O ZKML está praticamente limitado à inferência — provar o treinamento é inviável com os custos computacionais atuais. O Verde suporta tanto a verificação de inferência quanto a de treinamento (o protocolo mais amplo da Gensyn verifica o treinamento distribuído).

Adoção no mundo real: Projetos de ZKML como o Modulus Labs alcançaram avanços (verificando modelos de 18M de parâmetros on-chain), mas permanecem limitados a modelos menores. O runtime determinístico do Verde lida com modelos de mais de 70B de parâmetros em produção.

O ZKML se destaca onde a privacidade é primordial — como na verificação de autenticação biométrica (Worldcoin) sem expor varreduras de íris. O Verde se destaca onde a transparência é o objetivo — provar que um modelo público específico foi executado corretamente. Ambas as abordagens são complementares, não concorrentes.

O Ecossistema Gensyn: Do Judge ao Treinamento Descentralizado

O Judge é um componente da visão mais ampla da Gensyn: uma rede descentralizada para computação de machine learning. O protocolo inclui:

Camada de execução: Execução consistente de ML em hardware heterogêneo (GPUs de consumo, clusters empresariais, dispositivos de borda). A Gensyn padroniza cargas de trabalho de inferência e treinamento, garantindo compatibilidade.

Camada de verificação (Verde): Verificação trustless usando delegação arbitrada. Executores desonestos são detectados e penalizados.

Comunicação peer-to-peer: Distribuição de carga de trabalho entre dispositivos sem coordenação centralizada. Mineradores recebem tarefas, as executam e enviam provas diretamente para a blockchain.

Coordenação descentralizada: Contratos inteligentes em um rollup de Ethereum identificam participantes, alocam tarefas e processam pagamentos sem permissão.

A Testnet Pública da Gensyn foi lançada em março de 2025, com a mainnet planejada para 2026. A venda pública do token $AI ocorreu em dezembro de 2025, estabelecendo incentivos econômicos para mineradores e validadores.

O Judge se encaixa nesse ecossistema como a camada de avaliação: enquanto o protocolo central da Gensyn lida com treinamento e inferência, o Judge garante que essas saídas sejam verificáveis. Isso cria um efeito de volante (flywheel):

Desenvolvedores treinam modelos na rede descentralizada da Gensyn (mais barato que AWS devido às GPUs de consumo subutilizadas que contribuem com computação).

Modelos são implantados com o Judge garantindo a integridade da avaliação. Os aplicativos consomem inferência via APIs da Gensyn, mas, ao contrário da OpenAI, cada saída inclui uma prova criptográfica.

Validadores ganham taxas verificando provas e detectando fraudes, alinhando os incentivos econômicos com a segurança da rede.

A confiança escala à medida que mais aplicativos adotam IA verificável, reduzindo a dependência de provedores centralizados.

O objetivo final: treinamento e inferência de IA que sejam comprovadamente corretos, descentralizados e acessíveis a qualquer pessoa — não apenas à Big Tech.

Desafios e Perguntas em Aberto

A abordagem do Judge é inovadora, mas vários desafios permanecem:

Sobrecarga de desempenho: A desaceleração de 30% do RepOps é aceitável para verificação, mas se cada inferência tiver que ser executada de forma determinística, aplicativos sensíveis à latência (negociação em tempo real, veículos autônomos) podem preferir alternativas mais rápidas e não verificáveis. O roteiro da Gensyn provavelmente inclui a otimização adicional do RepOps — mas há um trade-off fundamental entre velocidade e determinismo.

Fragmentação da versão do driver: O Verde assume drivers com versões fixas, mas os fabricantes de GPU lançam atualizações constantemente. Se alguns mineradores usarem CUDA 12.4 e outros usarem 12.5, a reprodutibilidade bit a bit quebra. A Gensyn deve impor um gerenciamento rigoroso de versões — complicando a integração de mineradores.

Sigilo dos pesos do modelo: A transparência do Judge é um recurso para modelos públicos, mas um problema para modelos proprietários. Se um fundo de hedge treina um modelo de negociação valioso, implantá-lo no Judge expõe os pesos aos concorrentes (via compromisso on-chain). Alternativas baseadas em ZKML podem ser preferidas para modelos secretos — sugerindo que o Judge foca em aplicações de IA abertas ou semiabertas.

Latência na resolução de disputas: Se um desafiante alegar fraude, resolver a disputa via busca binária requer múltiplas transações on-chain (cada rodada estreita o espaço de busca). Aplicativos de alta frequência não podem esperar horas pela finalidade. A Gensyn pode introduzir a verificação otimista (presumir correção, a menos que seja contestada dentro de uma janela) para reduzir a latência.

Resistência a ataques Sybil na delegação arbitrada: Se vários executores devem concordar, o que impede uma única entidade de controlar todos os executores via identidades Sybil? A Gensyn provavelmente usa seleção ponderada por participação (validadores de alta reputação são escolhidos preferencialmente) além de slashing para desencorajar o conluio — mas os limiares econômicos devem ser cuidadosamente calibrados.

Estes não são impeditivos — são desafios de engenharia. A inovação central (IA determinística + verificação criptográfica) é sólida. Os detalhes de execução amadurecerão à medida que a testnet transitar para a mainnet.

O Caminho para a IA Verificável: Caminhos de Adoção e Market Fit

O sucesso do Judge depende da adoção. Quais aplicações implementarão a IA verificável primeiro?

Protocolos DeFi com agentes autônomos: DAOs como Aave, Compound ou Uniswap poderiam integrar agentes verificados pelo Judge para a gestão de tesouraria. A comunidade vota para aprovar um hash de modelo, e todas as decisões do agente incluem provas. Essa transparência constrói confiança — algo crítico para a legitimidade do DeFi.

Mercados de previsão e oráculos: Plataformas como Polymarket ou Chainlink poderiam usar o Judge para resolver apostas ou entregar feeds de preços. Modelos de IA analisando sentimentos, notícias ou atividade on-chain produziriam resultados verificáveis — eliminando disputas sobre manipulação de oráculos.

Identidade descentralizada e KYC: Projetos que exigem verificação de identidade baseada em IA (estimativa de idade a partir de selfies, verificações de autenticidade de documentos) beneficiam-se da trilha de auditoria do Judge. Reguladores aceitam provas criptográficas de conformidade sem precisar confiar em provedores de identidade centralizados.

Moderação de conteúdo para redes sociais: Redes sociais descentralizadas (Farcaster, Lens Protocol) poderiam implementar moderadores de IA verificados pelo Judge. Membros da comunidade verificam se o modelo de moderação não é tendencioso ou censurado — garantindo a neutralidade da plataforma.

Plataformas de IA como Serviço (AI-as-a-Service): Desenvolvedores que constroem aplicações de IA podem oferecer "inferência verificável" como um recurso premium. Usuários pagam a mais por provas, diferenciando os serviços de alternativas opacas.

O ponto comum: aplicações onde a confiança é cara (devido à regulamentação, descentralização ou altos riscos) e o custo de verificação é aceitável (comparado ao valor da certeza).

O Judge não substituirá a OpenAI para chatbots de consumo — os usuários não se importam se o GPT-4 é verificável ao pedir ideias de receitas. Mas para algoritmos financeiros, ferramentas médicas e sistemas de governança, a IA verificável é o futuro.

Verificabilidade como o Novo Padrão

O Judge da Gensyn representa uma mudança de paradigma: a avaliação de IA está mudando de "confie no provedor" para "verifique a prova". A base técnica — reprodutibilidade bitwise-exact via Verde, verificação eficiente através de delegação referenciada (refereed delegation) e trilhas de auditoria on-chain — torna essa transição prática, não apenas aspiracional.

As implicações ecoam muito além da Gensyn. Se a IA verificável se tornar o padrão, provedores centralizados perdem seus fossos competitivos (moats). A proposta de valor da OpenAI não são apenas as capacidades do GPT-4 — é a conveniência de não gerenciar infraestrutura. Mas se a Gensyn provar que a IA descentralizada pode igualar o desempenho centralizado com o valor adicional da verificabilidade, os desenvolvedores não terão motivos para se prenderem a APIs proprietárias.

A corrida começou. Projetos de ZKML (Modulus Labs, sistema biométrico da Worldcoin) estão apostando em provas de conhecimento zero. Runtimes determinísticos (Verde da Gensyn, EigenAI) estão apostando na reprodutibilidade. Abordagens otimistas (oráculos de IA em blockchain) estão apostando em provas de fraude. Cada caminho tem suas compensações — mas o destino é o mesmo: sistemas de IA onde os resultados são comprováveis, não apenas plausíveis.

Para tomadas de decisão de alto risco, isso não é opcional. Reguladores não aceitarão um "confie em nós" de provedores de IA em aplicações financeiras, de saúde ou jurídicas. DAOs não delegarão a gestão de tesouraria a agentes de caixa-preta. E à medida que os sistemas de IA autônomos se tornam mais poderosos, o público exigirá transparência.

O Judge é o primeiro sistema pronto para produção que entrega essa promessa. A testnet está ativa. As bases criptográficas são sólidas. O mercado — $ 27 bilhões em cripto de agentes de IA, bilhões em ativos DeFi gerenciados por algoritmos e a pressão regulatória aumentando — está pronto.

A era das APIs de IA opacas está terminando. A era da inteligência verificável está começando. E o Judge da Gensyn está iluminando o caminho.


Fontes:

Blacklight da Nillion entra em operação: Como o ERC-8004 está construindo a camada de confiança para agentes de IA autônomos

· 14 min de leitura
Dora Noda
Software Engineer

Em 2 de fevereiro de 2026, a economia de agentes de IA deu um passo crítico à frente. A Nillion lançou a Blacklight, uma camada de verificação que implementa o padrão ERC-8004 para resolver uma das questões mais urgentes da blockchain: como confiar em um agente de IA que você nunca encontrou?

A resposta não é uma simples pontuação de reputação ou um registro centralizado. É um processo de verificação em cinco etapas apoiado por provas criptográficas, auditorias programáveis e uma rede de nós operados pela comunidade. À medida que agentes autônomos executam cada vez mais negociações, gerenciam tesourarias e coordenam atividades cross-chain, a Blacklight representa a infraestrutura que permite a coordenação de IA sem confiança (trustless) em escala.

O Problema de Confiança que os Agentes de IA Não Podem Resolver Sozinhos

Os números contam a história. Agentes de IA agora contribuem com 30% do volume de negociação da Polymarket, gerenciam estratégias de rendimento DeFi em múltiplos protocolos e executam fluxos de trabalho complexos de forma autônoma. Mas há um gargalo fundamental: como os agentes verificam a confiabilidade uns dos outros sem relacionamentos pré-existentes?

Os sistemas tradicionais dependem de autoridades centralizadas que emitem credenciais. A promessa da Web3 é diferente — verificação trustless por meio de criptografia e consenso. No entanto, até o ERC-8004, não havia uma maneira padronizada para os agentes provarem sua autenticidade, rastrearem seu comportamento ou validarem sua lógica de tomada de decisão on-chain.

Este não é apenas um problema teórico. Como Davide Crapis explica, "O ERC-8004 permite interações descentralizadas de agentes de IA, estabelece o comércio trustless e aprimora os sistemas de reputação no Ethereum". Sem isso, o comércio entre agentes permanece confinado a jardins murados ou requer supervisão manual — derrotando o propósito da autonomia.

ERC-8004: A Infraestrutura de Confiança de Três Registros

O padrão ERC-8004, que entrou em operação na mainnet do Ethereum em 29 de janeiro de 2026, estabelece uma camada de confiança modular por meio de três registros on-chain:

Registro de Identidade: Usa o ERC-721 para fornecer identificadores de agentes portáteis. Cada agente recebe um token não fungível representando sua identidade on-chain exclusiva, permitindo o reconhecimento em várias plataformas e evitando a falsificação de identidade.

Registro de Reputação: Coleta feedbacks e avaliações padronizadas. Ao contrário dos sistemas de avaliação centralizados, o feedback é registrado on-chain com assinaturas criptográficas, criando uma trilha de auditoria imutável. Qualquer pessoa pode rastrear esse histórico e construir algoritmos de reputação personalizados.

Registro de Verificação: Oferece suporte à verificação criptográfica e econômica do trabalho do agente. É aqui que as auditorias programáveis acontecem — os validadores podem reexecutar computações, verificar provas de conhecimento zero (zero-knowledge proofs) ou utilizar Ambientes de Execução Confiáveis (TEEs) para confirmar que um agente agiu corretamente.

O brilhantismo do ERC-8004 é seu design agnóstico. Como observa a especificação técnica, o padrão suporta várias técnicas de verificação: "reexecução de tarefas garantida por stake (inspirada em sistemas como EigenLayer), verificação de provas de aprendizado de máquina de conhecimento zero (zkML) e atestados de Ambientes de Execução Confiáveis".

Essa flexibilidade é importante. Um agente de arbitragem DeFi pode usar provas zkML para verificar sua lógica de negociação sem revelar o alpha. Um agente de cadeia de suprimentos pode usar atestados TEE para provar que acessou dados do mundo real corretamente. Um agente de ponte cross-chain pode contar com a validação criptoeconômica com slashing para garantir uma execução honesta.

Processo de Verificação em Cinco Etapas da Blacklight

A implementação do ERC-8004 pela Nillion na Blacklight adiciona uma camada crucial: nós de verificação operados pela comunidade. Veja como o processo funciona:

1. Registro do Agente: Um agente registra sua identidade no Registro de Identidade, recebendo um NFT ERC-721. Isso cria um identificador on-chain exclusivo vinculado à chave pública do agente.

2. Iniciação da Solicitação de Verificação: Quando um agente realiza uma ação que requer validação (por exemplo, executar uma negociação, transferir fundos ou atualizar o estado), ele envia uma solicitação de verificação para a Blacklight.

3. Atribuição de Comitê: O protocolo da Blacklight atribui aleatoriamente um comitê de nós de verificação para auditar a solicitação. Esses nós são operados por membros da comunidade que fazem stake de 70.000 tokens NIL, alinhando incentivos para a integridade da rede.

4. Verificações dos Nós: Os membros do comitê reexecutam a computação ou validam provas criptográficas. Se os validadores detectarem um comportamento incorreto, eles podem realizar o slashing do stake do agente (em sistemas que usam validação criptoeconômica) ou sinalizar a identidade no Registro de Reputação.

5. Relatórios On-Chain: Os resultados são postados on-chain. O Registro de Verificação registra se o trabalho do agente foi verificado, criando uma prova permanente de execução. O Registro de Reputação é atualizado de acordo.

Esse processo ocorre de forma assíncrona e não bloqueante, o que significa que os agentes não esperam que a verificação seja concluída para tarefas rotineiras — mas ações de alto risco (grandes transferências, operações cross-chain) podem exigir validação prévia.

Auditorias Programáveis: Além da Confiança Binária

O recurso mais ambicioso do Blacklight é a "verificação programável" — a capacidade de auditar como um agente toma decisões, não apenas o que ele faz.

Considere um agente DeFi gerenciando uma tesouraria. As auditorias tradicionais verificam se os fundos foram movidos corretamente. As auditorias programáveis verificam:

  • Consistência da lógica de tomada de decisão: O agente seguiu sua estratégia de investimento declarada ou se desviou dela?
  • Execução de workflow multietapa: Se o agente deveria rebalancear portfólios em três chains, ele concluiu todas as etapas?
  • Restrições de segurança: O agente respeitou os limites de gas, tolerâncias de slippage e limites de exposição?

Isso é possível porque o Registro de Validação do ERC-8004 suporta sistemas de prova arbitrários. Um agente pode se comprometer com um algoritmo de tomada de decisão on-chain ( por exemplo, um hash de seus pesos de rede neural ou um circuito zk-SNARK representando sua lógica ), e em seguida, provar que cada ação está em conformidade com esse algoritmo sem revelar detalhes proprietários.

O roadmap da Nillion visa explicitamente esses casos de uso: "A Nillion planeja expandir as capacidades do Blacklight para 'verificação programável', permitindo auditorias descentralizadas de comportamentos complexos, como a consistência da lógica de tomada de decisão do agente, a execução de workflow multietapa e restrições de segurança."

Isso muda a verificação de reativa ( detectar erros após o fato ) para proativa ( impor o comportamento correto por design ).

Computação Cega: Privacidade Encontra a Verificação

A tecnologia subjacente da Nillion — Nil Message Compute ( NMC ) — adiciona uma dimensão de privacidade à verificação do agente. Ao contrário das blockchains tradicionais onde todos os dados são públicos, a "computação cega" da Nillion permite operações em dados criptografados sem descriptografia.

Veja por que isso é importante para os agentes: um agente de IA pode precisar verificar sua estratégia de negociação sem revelar seu alpha aos concorrentes. Ou provar que acessou registros médicos confidenciais corretamente sem expor os dados do paciente. Ou demonstrar conformidade com restrições regulatórias sem divulgar a lógica de negócios proprietária.

O NMC da Nillion alcança isso por meio de computação multipartidária ( MPC ), onde os nós geram colaborativamente "fatores de ofuscamento" — aleatoriedade correlacionada usada para criptografar dados. Como explica a DAIC Capital, "Os nós geram o recurso de rede principal necessário para processar dados — um tipo de aleatoriedade correlacionada referido como um fator de ofuscamento — com cada nó armazenando sua parte do fator de ofuscamento de forma segura, distribuindo a confiança pela rede de uma forma segura contra computação quântica."

Essa arquitetura é resistente à computação quântica por design. Mesmo que um computador quântico quebre a criptografia de curva elíptica atual, os fatores de ofuscamento distribuídos permanecem seguros porque nenhum nó individual possui informações suficientes para descriptografar os dados.

Para agentes de IA, isso significa que a verificação não requer o sacrifício da confidencialidade. Um agente pode provar que executou uma tarefa corretamente enquanto mantém seus métodos, fontes de dados e lógica de tomada de decisão privados.

A Jogada de Infraestrutura da Economia de Agentes de $ 4,3 Bilhões

O lançamento do Blacklight ocorre no momento em que o setor de blockchain-IA entra em hipercrescimento. O mercado está projetado para crescer de 680milho~es(2025)para680 milhões ( 2025 ) para 4,3 bilhões ( 2034 ) a um CAGR de 22,9%, enquanto o mercado mais amplo de computação confidencial atinge $ 350 bilhões até 2032.

Mas a Nillion não está apenas apostando na expansão do mercado — ela está se posicionando como uma infraestrutura crítica. O gargalo da economia de agentes não é a computação ou o armazenamento; é a confiança em escala. Como observa a perspectiva para 2026 da KuCoin, três tendências principais estão remodelando a identidade da IA e o fluxo de valor:

Sistemas de Agente-Envolvendo-Agente ( Agent-Wrapping-Agent ): Agentes coordenando com outros agentes para executar tarefas multietapa complexas. Isso requer identidade e verificação padronizadas — exatamente o que o ERC-8004 fornece.

KYA ( Conheça Seu Agente ): Infraestrutura financeira que exige credenciais de agentes. Os reguladores não aprovarão agentes autônomos gerenciando fundos sem prova de comportamento correto. As auditorias programáveis do Blacklight abordam isso diretamente.

Nanopagamentos: Os agentes precisam liquidar micropagamentos de forma eficiente. O protocolo de pagamento x402, que processou mais de 20 milhões de transações em janeiro de 2026, complementa o ERC-8004 lidando com a liquidação, enquanto o Blacklight lida com a confiança.

Juntos, esses padrões atingiram a prontidão para produção com poucas semanas de diferença — um avanço de coordenação que sinaliza a maturação da infraestrutura.

O Futuro da Ethereum Focado em Agentes

A adoção do ERC-8004 estende-se muito além da Nillion. No início de 2026, vários projetos integraram o padrão:

  • Oasis Network: Implementando o ERC-8004 para computação confidencial com validação baseada em TEE
  • The Graph: Suportando ERC-8004 e x402 para permitir interações de agentes verificáveis em indexação descentralizada
  • MetaMask: Explorando carteiras de agentes com identidade ERC-8004 integrada
  • Coinbase: Integrando o ERC-8004 para soluções de custódia institucional de agentes

Essa adoção rápida reflete uma mudança mais ampla no roadmap da Ethereum. Vitalik Buterin enfatizou repetidamente que o papel da blockchain está se tornando "apenas o encanamento" para agentes de IA — não a camada voltada para o consumidor, mas a infraestrutura de confiança que permite a coordenação autônoma.

O Blacklight da Nillion acelera essa visão ao tornar a verificação programável, preservadora de privacidade e descentralizada. Em vez de depender de oráculos centralizados ou revisores humanos, os agentes podem provar sua correção criptograficamente.

O Que Vem a Seguir: Integração com a Mainnet e Expansão do Ecossistema

O roadmap de 2026 da Nillion prioriza a compatibilidade com a Ethereum e a descentralização sustentável. A bridge da Ethereum entrou em operação em fevereiro de 2026, seguida por contratos inteligentes nativos para staking e computação privada.

Membros da comunidade que realizam o staking de 70.000 tokens NIL podem operar nós de verificação Blacklight, ganhando recompensas enquanto mantêm a integridade da rede. Esse design espelha a economia de validadores da Ethereum, mas adiciona uma função específica de verificação.

Os próximos marcos incluem:

  • Suporte expandido a zkML: Integração com projetos como o Modulus Labs para verificar inferência de IA on-chain
  • Verificação cross-chain: Permitir que o Blacklight verifique agentes operando na Ethereum, Cosmos e Solana
  • Parcerias institucionais: Colaborações com a Coinbase e a Alibaba Cloud para implantação de agentes corporativos
  • Ferramentas de conformidade regulatória: Construção de frameworks KYA para adoção em serviços financeiros

Talvez o mais importante, a Nillion está desenvolvendo o nilGPT — um chatbot de IA totalmente privado que demonstra como a computação cega permite interações confidenciais entre agentes. Isso não é apenas uma demonstração; é um modelo para agentes que lidam com dados sensíveis na saúde, finanças e governo.

O Endgame da Coordenação Trustless

O lançamento do Blacklight marca um ponto de virada para a economia de agentes. Antes do ERC-8004, os agentes operavam em silos — confiáveis dentro de seus próprios ecossistemas, mas incapazes de se coordenar entre plataformas sem intermediários humanos. Após o ERC-8004, os agentes podem verificar a identidade uns dos outros, auditar o comportamento mútuo e liquidar pagamentos de forma autônoma.

Isso desbloqueia categorias inteiramente novas de aplicações:

  • Fundos de hedge descentralizados: Agentes gerindo portfólios em várias chains, com estratégias de investimento verificáveis e auditorias de desempenho transparentes
  • Cadeias de suprimentos autônomas: Agentes coordenando logística, pagamentos e conformidade sem supervisão centralizada
  • DAOs impulsionadas por IA: Organizações governadas por agentes que votam, propõem e executam com base em lógica de tomada de decisão criptograficamente verificada
  • Gestão de liquidez cross-protocol: Agentes rebalanceando ativos entre protocolos DeFi com restrições de risco programáveis

O fio condutor? Todos exigem coordenação trustless — a capacidade de os agentes trabalharem juntos sem relacionamentos pré-existentes ou âncoras de confiança centralizadas.

O Blacklight da Nillion fornece exatamente isso. Ao combinar a infraestrutura de identidade e reputação do ERC-8004 com verificação programável e computação cega, ele cria uma camada de confiança escalável o suficiente para a economia de trilhões de agentes no horizonte.

À medida que a blockchain se torna a infraestrutura básica para agentes de IA e finanças globais, a questão não é se precisamos de infraestrutura de verificação — é quem a constrói e se ela é descentralizada ou controlada por alguns guardiões. Os nós operados pela comunidade e o padrão aberto do Blacklight defendem o primeiro caso.

A era dos atores on-chain autônomos chegou. A infraestrutura está ativa. A única questão restante é o que será construído sobre ela.


Fontes:

Convergência IA × Web3: Como a Blockchain se Tornou o Sistema Operacional para Agentes Autônomos

· 17 min de leitura
Dora Noda
Software Engineer

Em 29 de janeiro de 2026, a Ethereum lançou o ERC-8004, um padrão que concede identidades on-chain persistentes a agentes de software de IA. Em poucos dias, mais de 24.549 agentes se registraram, e a BNB Chain anunciou suporte para o protocolo. Isto não é um progresso incremental — é a infraestrutura para atores econômicos autônomos que podem transacionar, coordenar e construir reputação sem intermediação humana.

Os agentes de IA não precisam da blockchain para existir. Mas eles precisam da blockchain para se coordenar. Para transacionar de forma trustless através de fronteiras organizacionais. Para construir uma reputação verificável. Para liquidar pagamentos de forma autônoma. Para provar a execução sem intermediários centralizados.

A convergência acelera porque ambas as tecnologias resolvem a fraqueza crítica da outra: a IA fornece inteligência e automação, a blockchain fornece confiança e infraestrutura econômica. Juntas, elas criam algo que nenhuma alcança sozinha: sistemas autônomos que podem participar em mercados abertos sem exigir relações de confiança pré-existentes.

Este artigo examina a infraestrutura que torna a convergência entre IA × Web3 inevitável — desde padrões de identidade até protocolos econômicos e execução de modelos descentralizados. A questão não é se os agentes de IA irão operar na blockchain, mas quão rápido a infraestrutura escala para suportar milhões de atores econômicos autônomos.

ERC-8004: Infraestrutura de Identidade para Agentes de IA

O ERC-8004 entrou em operação na mainnet da Ethereum em 29 de janeiro de 2026, estabelecendo mecanismos padronizados e permissionless para identidade, reputação e validação de agentes.

O protocolo resolve um problema fundamental: como descobrir, escolher e interagir com agentes através de fronteiras organizacionais sem confiança pré-existente. Sem infraestrutura de identidade, cada interação de agente requer intermediação centralizada — plataformas de marketplace, serviços de verificação, camadas de resolução de disputas. O ERC-8004 torna estas interações trustless e compostáveis.

Três Registros Principais:

Registro de Identidade: Um identificador (handle) on-chain minimalista baseado no ERC-721 com extensão URIStorage que resolve para o arquivo de registro de um agente. Cada agente recebe um identificador portátil e resistente à censura. Nenhuma autoridade central controla quem pode criar uma identidade de agente ou quais plataformas a reconhecem.

Registro de Reputação: Interface padronizada para publicar e buscar sinais de feedback. Os agentes constroem reputação através do histórico de transações on-chain, tarefas concluídas e avaliações de contrapartes. A reputação torna-se portátil entre plataformas, em vez de ficar isolada em marketplaces individuais.

Registro de Validação: Hooks genéricos para solicitar e registrar verificações de validadores independentes — stakers reexecutando tarefas, verificadores zkML confirmando a execução, oráculos TEE provando computação, juízes de confiança resolvendo disputas. Os mecanismos de validação conectam-se de forma modular, em vez de exigir implementações específicas da plataforma.

A arquitetura cria condições para mercados de agentes abertos. Em vez de um Upwork para agentes de IA, obtêm-se protocolos permissionless onde os agentes se descobrem, negociam termos, executam tarefas e liquidam pagamentos — tudo sem o controle de gatekeepers de plataformas centralizadas.

O anúncio de suporte rápido da BNB Chain sinaliza a trajetória do padrão rumo à adoção multi-chain. A identidade de agente multi-chain permite que os agentes operem em diversos ecossistemas de blockchain, mantendo sistemas unificados de reputação e verificação.

DeMCP: Model Context Protocol Encontra a Descentralização

O DeMCP foi lançado como a primeira rede descentralizada de Model Context Protocol, abordando confiança e segurança com TEE (Ambientes de Execução Confiável) e blockchain.

O Model Context Protocol (MCP), desenvolvido pela Anthropic, padroniza como as aplicações fornecem contexto para grandes modelos de linguagem (LLMs). Pense nisso como o USB-C para aplicações de IA — em vez de integrações personalizadas para cada fonte de dados, o MCP fornece padrões de interface universais.

O DeMCP estende isso para a Web3: oferecendo acesso contínuo e pay-as-you-go aos principais LLMs como GPT-4 e Claude via instâncias MCP sob demanda, todos pagos em stablecoins (USDT/USDC) e governados por modelos de compartilhamento de receita.

A arquitetura resolve três problemas críticos:

Acesso: As APIs de modelos de IA tradicionais exigem contas centralizadas, infraestrutura de pagamento e SDKs específicos da plataforma. O DeMCP permite que agentes autônomos acedam a LLMs através de protocolos padronizados, pagando em cripto sem a necessidade de chaves de API geridas por humanos ou cartões de crédito.

Confiança: Os serviços MCP centralizados tornam-se pontos únicos de falha e vigilância. Os nós protegidos por TEE do DeMCP fornecem execução verificável — os agentes podem confirmar que os modelos executaram prompts específicos sem adulteração, algo crucial para decisões financeiras ou conformidade regulatória.

Composibilidade: Uma nova geração de infraestrutura de Agentes de IA baseada em protocolos MCP e A2A (Agente-para-Agente) está a emergir, projetada especificamente para cenários Web3, permitindo que os agentes acedam a dados multi-chain e interajam nativamente com protocolos DeFi.

O resultado: o MCP transforma a IA num cidadão de primeira classe da Web3. A blockchain fornece a confiança, a coordenação e o substrato econômico. Juntos, formam um sistema operacional descentralizado onde os agentes raciocinam, coordenam e agem através de protocolos interoperáveis.

Os principais projetos cripto de MCP para acompanhar em 2026 incluem provedores de infraestrutura que constroem camadas de coordenação de agentes, redes de execução de modelos descentralizados e integrações ao nível do protocolo que permitem que os agentes operem de forma autônoma em todos os ecossistemas Web3.

170 + Ferramentas de Agentes da Polymarket: Infraestrutura em Ação

O ecossistema da Polymarket cresceu para mais de 170 ferramentas de terceiros em 19 categorias, tornando-se uma infraestrutura essencial para qualquer pessoa séria sobre a negociação em mercados de previsão.

As categorias de ferramentas abrangem todo o fluxo de trabalho do agente:

Negociação Autônoma: Agentes movidos por IA que descobrem e otimizam estratégias automaticamente, integrando mercados de previsão com yield farming e protocolos DeFi. Alguns agentes alcançam 98 % de precisão em previsões de curto prazo.

Sistemas de Arbitragem: Bots automatizados que identificam discrepâncias de preços entre a Polymarket e outras plataformas de previsão ou mercados de apostas tradicionais, executando negociações mais rápido do que operadores humanos.

Rastreamento de Baleias: Ferramentas que monitoram movimentos de posições de larga escala, permitindo que agentes sigam ou contraponham a atividade institucional com base em correlações de desempenho histórico.

Infraestrutura de Copy Trading: Plataformas que permitem aos agentes replicar estratégias dos melhores desempenhos, com verificação on-chain de históricos que impedem alegações de desempenho falsas.

Análises e Feeds de Dados: Análises de nível institucional fornecendo aos agentes profundidade de mercado, análise de liquidez, distribuições de probabilidade histórica e correlações de resultados de eventos.

Gestão de Risco: Dimensionamento automatizado de posições, limites de exposição e mecanismos de stop-loss integrados diretamente na lógica de negociação do agente.

O ecossistema valida a tese de convergência IA × Web3. A Polymarket fornece repositórios no GitHub e SDKs especificamente para o desenvolvimento de agentes, tratando atores autônomos como participantes de primeira classe da plataforma, em vez de casos isolados ou violações dos termos de serviço.

As perspectivas para 2026 incluem o lançamento potencial do token $ POLY criando novas dinâmicas em torno da governança, estruturas de taxas e incentivos do ecossistema. O CEO Shayne Coplan sugeriu que este poderia se tornar um dos maiores TGEs (Eventos de Geração de Tokens) de 2026. Além disso, o potencial lançamento da blockchain da Polymarket (seguindo o modelo Hyperliquid) poderia remodelar fundamentalmente a infraestrutura, com bilhões arrecadados tornando uma appchain uma evolução natural.

A Stack de Infraestrutura: Camadas de IA × Web3

Agentes autônomos operando em blockchain exigem infraestrutura coordenada em várias camadas:

Camada 1: Identidade e Reputação

  • Registros ERC-8004 para identificação de agentes
  • Sistemas de reputação on-chain rastreando o desempenho
  • Prova criptográfica de propriedade e autoridade do agente
  • Pontes de identidade cross-chain para operações multi-ecossistema

Camada 2: Acesso e Execução

  • DeMCP para acesso descentralizado a LLMs
  • Computação protegida por TEE para lógica privada do agente
  • zkML (Zero-Knowledge Machine Learning) para inferência verificável
  • Redes de inferência descentralizadas distribuindo a execução do modelo

Camada 3: Coordenação e Comunicação

  • Protocolos A2A (Agente para Agente) para negociação direta
  • Formatos de mensagens padronizados para comunicação entre agentes
  • Mecanismos de descoberta para encontrar agentes com capacidades específicas
  • Escrow e resolução de disputas para contratos autônomos

Camada 4: Infraestrutura Econômica

  • Trilhos de pagamento com stablecoins para liquidação transfronteiriça
  • Formadores de mercado automatizados para ativos gerados por agentes
  • Estruturas de taxas programáveis e compartilhamento de receita
  • Alinhamento de incentivos baseado em tokens

Camada 5: Protocolos de Aplicação

  • Integrações DeFi para otimização autônoma de rendimento
  • APIs de mercado de previsão para negociação de informações
  • Marketplaces de NFT para conteúdo criado por agentes
  • Estruturas de participação em governança de DAOs

Esta stack permite comportamentos de agentes progressivamente complexos: automação simples (execução de contratos inteligentes), agentes reativos (respondendo a eventos on-chain), agentes proativos (iniciando estratégias baseadas em inferência) e agentes coordenadores (negociando com outros atores autônomos).

A infraestrutura não permite apenas que os agentes de IA usem a blockchain — ela torna a blockchain o ambiente operacional natural para a atividade econômica autônoma.

Por que a IA Precisa da Blockchain: O Problema da Confiança

Os agentes de IA enfrentam desafios fundamentais de confiança que as arquiteturas centralizadas não podem resolver:

Verificação: Como provar que um agente de IA executou uma lógica específica sem adulteração? As APIs tradicionais não oferecem garantias. A blockchain com zkML ou atestados TEE cria computação verificável — prova criptográfica de que modelos específicos processaram entradas específicas e produziram saídas específicas.

Reputação: Como os agentes constroem credibilidade além das fronteiras organizacionais? As plataformas centralizadas criam jardins murados — a reputação ganha no Upwork não se transfere para o Fiverr. A reputação on-chain torna-se portátil, verificável e resistente à manipulação por meio de ataques Sybil.

Liquidação: Como os agentes autônomos lidam com pagamentos sem intermediação humana? O sistema bancário tradicional exige contas, KYC e autorização humana para cada transação. Stablecoins e contratos inteligentes permitem uma liquidação programável e instantânea com segurança criptográfica em vez de burocrática.

Coordenação: Como agentes de diferentes organizações negociam sem intermediários confiáveis? Os negócios tradicionais exigem contratos, advogados e mecanismos de execução. Os contratos inteligentes permitem a execução de acordos trustless — o código aplica os termos automaticamente com base em condições verificáveis.

Atribuição: Como provar qual agente criou saídas específicas? A proveniência do conteúdo de IA torna-se crítica para direitos autorais, responsabilidade e distribuição de receita. O atestado on-chain fornece registros à prova de violação de criação, modificação e propriedade.

A blockchain não apenas permite essas capacidades — ela é a única arquitetura que as permite sem reintroduzir suposições de confiança centralizadas. A convergência surge de uma necessidade técnica, não de uma narrativa especulativa.

Por que o Blockchain Precisa de IA : O Problema da Inteligência

O blockchain enfrenta limitações igualmente fundamentais que a IA aborda :

Abstração de Complexidade : A UX do blockchain continua terrível — seed phrases , taxas de gás , assinatura de transações . Agentes de IA podem abstrair a complexidade , agindo como intermediários inteligentes que executam a intenção do usuário sem expor detalhes técnicos de implementação .

Processamento de Informação : Blockchains fornecem dados , mas carecem de inteligência para interpretá - los . Agentes de IA analisam padrões de atividade on - chain , identificam oportunidades de arbitragem , preveem movimentos de mercado e otimizam estratégias em velocidades e escalas impossíveis para humanos .

Automação : Contratos inteligentes executam lógica , mas não podem se adaptar a condições em mudança sem programação explícita . Agentes de IA fornecem tomada de decisão dinâmica , aprendendo com os resultados e ajustando estratégias sem exigir propostas de governança para cada mudança de parâmetro .

Descoberta : Protocolos DeFi sofrem com a fragmentação — os usuários devem descobrir manualmente oportunidades em centenas de plataformas . Agentes de IA digitalizam , avaliam e roteiam continuamente a atividade para os protocolos ideais com base em otimização multivariável sofisticada .

Gestão de Risco : Traders humanos lutam com disciplina , emoção e limites de atenção . Agentes de IA aplicam parâmetros de risco predefinidos , executam stop - losses sem hesitação e monitoram posições 24 / 7 em várias redes simultaneamente .

A relação torna - se simbiótica : o blockchain fornece a infraestrutura de confiança que permite a coordenação de IA , a IA fornece a inteligência que torna a infraestrutura de blockchain utilizável para atividades econômicas complexas .

A Economia de Agentes Emergente

A pilha de infraestrutura permite novos modelos econômicos :

Agente como Serviço ( Agent - as - a - Service ) : Agentes autônomos alugam suas capacidades sob demanda , precificando dinamicamente com base na oferta e na procura . Sem plataformas , sem intermediários — mercados de serviços diretos de agente para agente .

Inteligência Colaborativa : Agentes reúnem conhecimentos para tarefas complexas , coordenando - se por meio de contratos inteligentes que distribuem automaticamente a receita com base na contribuição . Sistemas multiagentes resolvendo problemas além da capacidade de qualquer agente individual .

Aumento de Previsão : Agentes monitoram continuamente fluxos de informações , atualizam estimativas de probabilidade e negociam com base em insights antes de notícias legíveis por humanos . A Finança de Informação ( InfoFi ) torna - se algorítmica , com agentes dominando a descoberta de preços .

Organizações Autônomas : DAOs governadas inteiramente por agentes de IA que executam em nome dos detentores de tokens , tomando decisões por meio de inferência verificável em vez de votação humana . Organizações operando na velocidade da máquina com responsabilidade criptográfica .

Economia de Conteúdo : Conteúdo gerado por IA com proveniência on - chain permitindo licenciamento automatizado , distribuição de royalties e direitos de criação de derivativos . Agentes negociando termos de uso e reforçando a atribuição por meio de contratos inteligentes .

Estes não são hipotéticos — versões iniciais já operam . A questão é : quão rápido a infraestrutura escala para suportar milhões de atores econômicos autônomos ?

Desafios Técnicos Remanescentes

Apesar do progresso rápido , obstáculos significativos persistem :

Escalabilidade : Os blockchains atuais lutam com o rendimento ( throughput ) . Milhões de agentes executando microtransações contínuas exigem soluções de Camada 2 ( Layer 2 ) , optimistic rollups ou redes dedicadas específicas para agentes .

Privacidade : Muitas operações de agentes exigem lógica ou dados confidenciais . TEEs fornecem soluções parciais , mas a criptografia totalmente homomórfica ( FHE ) e a criptografia avançada continuam sendo muito caras para escala de produção .

Regulação : Atores econômicos autônomos desafiam as estruturas legais existentes . Quem é responsável quando os agentes causam danos ? Como os requisitos de KYC / AML se aplicam ? A clareza regulatória está atrás da capacidade técnica .

Custos de Modelo : A inferência de LLM continua cara . Redes descentralizadas devem igualar os preços de APIs centralizadas ao mesmo tempo em que adicionam sobrecarga de verificação . A viabilidade econômica exige melhorias contínuas na eficiência do modelo .

Problemas de Oráculo : Agentes precisam de dados confiáveis do mundo real . As soluções de oráculo existentes introduzem suposições de confiança e latência . Melhores pontes ( bridges ) entre a lógica on - chain e a informação off - chain continuam sendo críticas .

Estes desafios não são intransponíveis — são problemas de engenharia com caminhos de solução claros . A trajetória da infraestrutura aponta para a resolução dentro de 12 - 24 meses .

O Ponto de Inflexão de 2026

Múltiplos catalisadores convergem em 2026 :

Maturação de Padrões : A adoção do ERC - 8004 em todas as principais redes cria uma infraestrutura de identidade interoperável . Os agentes operam perfeitamente no Ethereum , BNB Chain e ecossistemas emergentes .

Eficiência do Modelo : Modelos menores e especializados reduzem os custos de inferência em 10 - 100x , mantendo o desempenho para tarefas específicas . A viabilidade econômica melhora drasticamente .

Clareza Regulatória : As primeiras jurisdições estabelecem estruturas para agentes autônomos , proporcionando segurança jurídica para a adoção institucional .

Avanços de Aplicativos : Mercados de previsão , otimização de DeFi e criação de conteúdo demonstram clara superioridade dos agentes sobre os operadores humanos , impulsionando a adoção além dos usuários nativos de cripto .

Competição de Infraestrutura : Múltiplas equipes construindo inferência descentralizada , protocolos de coordenação de agentes e redes especializadas criam pressão competitiva acelerando o desenvolvimento .

A convergência transita de experimental para infraestrutural . Os primeiros adotantes ganham vantagens , as plataformas integram o suporte a agentes como padrão e a atividade econômica flui cada vez mais através de intermediários autônomos .

O que Isso Significa para o Desenvolvimento Web3

Desenvolvedores que constroem para a próxima fase da Web3 devem priorizar:

Design Agent-First: Trate atores autônomos como usuários primários, não como casos marginais. Projete APIs, estruturas de taxas e mecanismos de governança assumindo que os agentes dominam a atividade.

Componibilidade: Construa protocolos que os agentes possam integrar, coordenar e estender facilmente. Interfaces padronizadas importam mais do que implementações proprietárias.

Verificação: Forneça provas criptográficas de execução, não apenas resultados de execução. Agentes precisam de computação verificável para construir cadeias de confiança.

Eficiência Econômica: Otimize para microtransações, liquidação contínua e mercados de taxas dinâmicos. O processamento em lote tradicional e as intervenções manuais não escalam para a atividade dos agentes.

Opções de Privacidade: Suporte operações de agentes tanto transparentes quanto confidenciais. Diferentes casos de uso exigem diferentes garantias de privacidade.

A infraestrutura existe. Os padrões estão surgindo. Os incentivos econômicos se alinham. A convergência IA × Web3 não está chegando — ela já está aqui. A questão é: quem constrói a infraestrutura que se tornará fundamental para a próxima década de atividade econômica autônoma?

BlockEden.xyz fornece infraestrutura de nível empresarial para aplicações Web3, oferecendo acesso RPC confiável e de alto desempenho em todos os principais ecossistemas de blockchain. Explore nossos serviços para infraestrutura de agentes de IA e suporte a sistemas autônomos.


Fontes: