Saltar para o conteúdo principal

79 posts marcados com "IA"

Aplicações de inteligência artificial e aprendizado de máquina

Ver todas as tags

A Guerra de Previsões de US$ 20 Bilhões: Como Kalshi e Polymarket Estão Transformando Informação na Mais Nova Classe de Ativos de Wall Street

· 10 min de leitura
Dora Noda
Software Engineer

Quando o Intercontinental Exchange — a empresa controladora da Bolsa de Valores de Nova York — assinou um cheque de $ 2 bilhões para a Polymarket em outubro de 2025, não estava apostando em uma startup cripto. Estava comprando um lugar à mesa para algo muito maior: a transformação da própria informação em uma classe de ativos negociáveis. Seis meses depois, os mercados de previsão estão processando $ 5,9 bilhões em volume semanal, agentes de IA contribuem com 30 % das negociações e fundos de hedge estão usando essas plataformas para fazer hedge de decisões do Fed com mais precisão do que os futuros do Tesouro jamais ofereceram.

Bem-vindo à Information Finance — o segmento que mais cresce em cripto e, talvez, a mudança de infraestrutura mais consequente desde que as stablecoins se tornaram mainstream.

De Cassino Especulativo a Infraestrutura Institucional

Os números contam a história de uma indústria que se reinventou fundamentalmente. Em 2024, os mercados de previsão eram curiosidades de nicho — interessantes para aficionados por política, mas ignorados pelo capital sério. Até janeiro de 2026, a Piper Sandler prevê que a indústria verá mais de 445 bilhões de contratos negociados este ano, representando $ 222,5 bilhões em volume nocional — um aumento em relação aos 95 bilhões de contratos em 2025.

Os catalisadores foram três:

Clareza Regulatória: A Lei CLARITY de 2025 classificou oficialmente os contratos de eventos como "commodities digitais" sob a supervisão da CFTC. Este sinal verde regulatório resolveu os obstáculos de conformidade que mantinham os principais bancos à margem. A vitória legal da Kalshi em maio de 2025 sobre a CFTC estabeleceu que os contratos de eventos são derivativos, não jogos de azar — criando um precedente federal que permite que a plataforma opere nacionalmente, enquanto as casas de apostas esportivas enfrentam licenciamento estado por estado.

Investimento Institucional: A Polymarket garantiu $ 2 bilhões da ICE com uma avaliação de $ 9 bilhões, com a controladora da NYSE integrando dados de previsão em feeds institucionais. Para não ficar atrás, a Kalshi levantou $ 1,3 bilhão em duas rodadas — $ 300 milhões em outubro e $ 1 bilhão em dezembro da Paradigm, a16z, Sequoia e ARK Invest — atingindo uma avaliação de $ 11 bilhões. Combinadas, essas duas plataformas valem agora $ 20 bilhões.

Integração de IA: Sistemas autônomos de IA agora contribuem com mais de 30 % do volume total. Ferramentas como o MCP Server da RSS3 permitem que agentes de IA varram feeds de notícias e executem negociações sem intervenção humana — transformando os mercados de previsão em motores de processamento de informação 24 horas por dia, 7 dias por semana.

A Grande Guerra de Previsão: Kalshi vs. Polymarket

Em 23 de janeiro de 2026, a competição é acirrada. A Kalshi detém 66,4 % da participação de mercado, processando mais de $ 2 bilhões semanalmente. No entanto, a Polymarket possui aproximadamente 47 % de chances de terminar o ano como líder em volume, enquanto a Kalshi segue com 34 %. Recém-chegados como Robinhood estão capturando 20 % da participação de mercado — um lembrete de que este espaço permanece amplamente aberto.

As plataformas esculpiram nichos diferentes:

A Kalshi opera como uma bolsa regulada pela CFTC, o que lhe dá acesso aos investidores de varejo dos EUA, mas a sujeita a uma supervisão mais rigorosa. Cerca de 90 % de seus $ 43 bilhões em volume nocional vêm de contratos de eventos relacionados a esportes. Autoridades de jogos de azar nos estados de Nevada e Connecticut emitiram ordens de cessar e desistir, argumentando que esses contratos se sobrepõem a jogos de azar não licenciados — uma fricção legal que cria incerteza.

A Polymarket funciona em infraestrutura cripto (Polygon), oferecendo acesso sem permissão globalmente, mas enfrentando pressão regulatória em mercados importantes. As regulamentações MiCA da Europa exigem autorização total para acesso à UE em 2026. A arquitetura descentralizada da plataforma oferece resistência à censura, mas limita a adoção institucional em jurisdições com alta carga de conformidade.

Ambas estão apostando que a oportunidade de longo prazo vai muito além do foco atual. O verdadeiro prêmio não são as apostas esportivas ou os mercados eleitorais — é tornar-se o terminal Bloomberg das crenças coletivas.

Fazendo Hedge do Incalculável: Como Wall Street Usa os Mercados de Previsão

O desenvolvimento mais revolucionário não é o crescimento do volume — é o surgimento de estratégias de hedge inteiramente novas que os derivativos tradicionais não podiam suportar.

Hedge de Taxas do Fed: As probabilidades atuais da Kalshi indicam uma probabilidade de 98 % de o Fed manter as taxas estáveis na reunião de 28 de janeiro. Mas a ação real está nos contratos de março de 2026, onde uma chance de 74 % de um corte de 25 pontos-base criou um terreno de hedge de alto risco para aqueles que temem uma desaceleração do crescimento. Grandes fundos usam esses contratos binários — ou o Fed corta ou não corta — para "reduzir o risco" de carteiras com mais precisão do que os futuros do Tesouro oferecem.

Seguro de Inflação: Após a divulgação do IPC de dezembro de 2025 de 2,7 %, os usuários da Polymarket estão negociando ativamente tetos de inflação para 2026. Atualmente, há uma probabilidade de 30 % precificada para que a inflação se recupere e permaneça acima de 3 % durante o ano. Ao contrário dos swaps de inflação tradicionais que exigem mínimos institucionais, esses contratos são acessíveis com apenas $ 1 — permitindo que investidores individuais comprem "seguro de inflação" para suas despesas de custo de vida.

Proteção contra Paralisação do Governo: Varejistas compensam os riscos de paralisação do governo (shutdown) por meio de contratos de previsão. Credores hipotecários fazem hedge de decisões regulatórias. Investidores em tecnologia usam contratos de IPC para proteger carteiras de ações.

Vantagem de Velocidade: Ao longo de 2025, os mercados de previsão anteciparam com sucesso três de cada três pivôs do Fed várias semanas antes de a imprensa financeira convencional perceber. Esse "gap de velocidade" é o motivo pelo qual empresas como a Saba Capital Management agora usam os contratos de IPC da Kalshi para fazer hedge da inflação diretamente, ignorando as complexidades de proxies do mercado de títulos.

O Oráculo de Informação Impulsionado por IA

Talvez nada distinga mais os mercados de previsão de 2026 do que a integração de IA. Sistemas autónomos não estão apenas a participar — eles estão a mudar fundamentalmente a forma como estes mercados funcionam.

Os agentes de IA contribuem com mais de 30 % do volume de negociação, analisando feeds de notícias, redes sociais e dados económicos para executar negociações mais rapidamente do que os investidores humanos conseguem processar a informação. Isto cria um ciclo de reforço contínuo: a liquidez impulsionada pela IA atrai mais fluxo institucional, o que melhora a descoberta de preços, o que, por sua vez, torna as estratégias de IA mais lucrativas.

As implicações estendem-se para além da negociação:

  • Análise de Sentimento em Tempo Real: As empresas integram feeds de previsão impulsionados por IA em dashboards para gestão de risco interno e previsão de vendas
  • Licenciamento de Dados Institucionais: As plataformas licenciam dados de mercado enriquecidos como alpha para fundos de cobertura e empresas de trading
  • Resposta Automatizada a Notícias: Segundos após um anúncio importante, os preços de previsão ajustam-se — muitas vezes antes de os mercados tradicionais reagirem

Esta camada de IA é a razão pela qual os analistas da Bernstein argumentam que a "infraestrutura de blockchain, a análise de IA e os feeds de notícias" não são tendências adjacentes — estão a fundir-se dentro das plataformas de previsão para criar uma nova categoria de infraestrutura financeira.

Para Além das Apostas: A Informação como uma Classe de Ativos

A transformação de "casino especulativo" para "infraestrutura de informação" reflete uma visão mais profunda: os mercados de previsão precificam o que outros instrumentos não conseguem.

Os derivados tradicionais permitem fazer o hedge de movimentos de taxas de juro, flutuações cambiais e preços de commodities. Mas são ineficazes na cobertura de:

  • Decisões regulatórias (novas tarifas, mudanças de política)
  • Resultados políticos (eleições, formação de governos)
  • Surpresas económicas (dados do IPC, dados de emprego)
  • Eventos geopolíticos (conflitos, acordos comerciais)

Os mercados de previsão preenchem esta lacuna. Um investidor de retalho preocupado com os impactos inflacionários pode comprar "IPC excede 3,1 %" por cêntimos, adquirindo efetivamente um seguro contra a inflação. Uma multinacional preocupada com a política comercial pode cobrir o risco de tarifas diretamente.

É por isso que a ICE integrou os dados da Polymarket em feeds institucionais — não se trata da plataforma de apostas, mas sim da camada de informação. Os mercados de previsão agregam crenças de forma mais eficiente do que sondagens, inquéritos ou estimativas de analistas. Estão a tornar-se a camada da verdade em tempo real para a previsão económica.

Os Riscos e a Corda Bamba Regulatória

Apesar do crescimento explosivo, permanecem riscos significativos:

Arbitragem Regulatória: O precedente federal da Kalshi não a protege dos reguladores de jogos a nível estatal. As ordens de cessação e desistência do Nevada e do Connecticut sinalizam potenciais conflitos jurisdicionais. Se os mercados de previsão forem classificados como jogos de azar em estados fundamentais, o mercado de retalho doméstico poderá fragmentar-se.

Risco de Concentração: Com a Kalshi e a Polymarket a deterem avaliações combinadas de 20 mil milhões de dólares, a indústria está altamente concentrada. Uma ação regulatória contra qualquer uma das plataformas poderia abalar a confiança de todo o setor.

Manipulação por IA: À medida que a IA contribui para 30 % do volume, surgem questões sobre a integridade do mercado. Podem os agentes de IA coludir? Como é que as plataformas detetam a manipulação coordenada por sistemas autónomos? Estas questões de governação continuam por resolver.

Dependência de Cripto: A dependência da Polymarket em infraestruturas cripto (Polygon, USDC) vincula o seu destino às condições do mercado cripto e aos resultados regulatórios das stablecoins. Se o USDC enfrentar restrições, a infraestrutura de liquidação da Polymarket torna-se incerta.

O Que Vem a Seguir: A Oportunidade de 222 Mil Milhões de Dólares

A trajetória é clara. A projeção da Piper Sandler de 222,5 mil milhões de dólares em volume nocional para 2026 tornaria os mercados de previsão maiores do que muitas categorias de derivados tradicionais. Vários desenvolvimentos a observar:

Novas Categorias de Mercado: Além da política e das decisões da Fed, espere mercados de previsão para eventos climáticos, marcos de desenvolvimento de IA, surpresas nos lucros corporativos e avanços tecnológicos.

Integração Bancária: Os grandes bancos mantiveram-se em grande parte à margem devido a preocupações de conformidade. Se a clareza regulatória continuar, espere que surjam serviços de custódia e corretagem principal (prime brokerage) para a negociação institucional de previsões.

Produtos de Seguros: A linha entre contratos de previsão e seguros é ténue. Poderão surgir produtos de seguros paramétricos baseados na infraestrutura do mercado de previsão — seguros contra sismos que pagam com base em leituras de magnitude, seguros de colheitas associados a resultados meteorológicos.

Expansão Global: Tanto a Kalshi como a Polymarket estão focadas principalmente nos EUA. A expansão internacional — particularmente na Ásia e na América Latina (LATAM) — representa um potencial de crescimento significativo.

As guerras dos mercados de previsão de 2026 não são sobre quem processa mais apostas desportivas. São sobre quem constrói a infraestrutura para a Information Finance — a classe de ativos onde as crenças se tornam negociáveis, passíveis de cobertura e, em última análise, monetizáveis.

Pela primeira vez, a informação tem um preço de mercado. E isso muda tudo.


Para programadores que constroem sobre a infraestrutura de blockchain que alimenta os mercados de previsão e aplicações DeFi, a BlockEden.xyz fornece serviços de API de nível empresarial em Ethereum, Polygon e outras redes — as mesmas camadas fundamentais em que plataformas como a Polymarket se baseiam.

A Fundação Quantum-Ready da Sui para Inteligência Autónoma

· 30 min de leitura
Dora Noda
Software Engineer

A blockchain Sui se destaca dos concorrentes por sua agilidade criptográfica fundamental e arquitetura centrada em objetos, posicionando-a como a única grande blockchain Layer 1 que avança simultaneamente a integração de IA, a coordenação robótica e a segurança resistente a quântica. Isso não é um posicionamento de marketing — é uma realidade arquitetónica. O cofundador e criptógrafo-chefe Kostas "Kryptos" Chalkias construiu sistematicamente essas capacidades no design central da Sui desde o início, criando o que ele descreve como uma infraestrutura que "superará até mesmo a Visa em velocidade", permanecendo segura contra ameaças quânticas que poderiam "destruir toda a criptografia moderna" dentro de uma década.

A base técnica já está pronta para produção: a finalidade de consenso de 390 milissegundos permite a coordenação de agentes de IA em tempo real, a execução paralela processa 297.000 transações por segundo no pico, e os esquemas de assinatura EdDSA fornecem um caminho de migração comprovado para a criptografia pós-quântica sem exigir hard forks. Enquanto isso, Bitcoin e Ethereum enfrentam ameaças existenciais da computação quântica sem um caminho de atualização compatível com versões anteriores. A visão de Chalkias centra-se em três pilares convergentes — IA como camada de coordenação, sistemas robóticos autónomos que exigem finalidade em sub-segundos, e estruturas criptográficas que permanecem seguras até 2035 e além. Suas declarações em conferências, artigos de pesquisa e implementações técnicas revelam não promessas especulativas, mas a execução sistemática de um roteiro estabelecido na fundação da Mysten Labs em 2022.

Isso importa além do tribalismo da blockchain. Até 2030, os mandatos do NIST exigem a descontinuação dos padrões de criptografia atuais. Sistemas autónomos, desde robôs de fabricação até agentes de IA, exigirão coordenação sem confiança em escala. A arquitetura da Sui aborda ambas as inevitabilidades simultaneamente, enquanto os concorrentes se esforçam para adaptar soluções. A questão não é se essas tecnologias convergem, mas quais plataformas sobrevivem à convergência intactas.

O criptógrafo que nomeou seu filho Kryptos

Kostas Chalkias traz uma credibilidade incomum para a intersecção da blockchain com tecnologias emergentes. Antes de cofundar a Mysten Labs, ele atuou como Criptógrafo Líder para o projeto Diem do Meta e a carteira Novi, trabalhou com Mike Hearn (um dos primeiros desenvolvedores do Bitcoin associado a Satoshi Nakamoto) na blockchain Corda da R3, e possui um PhD em Criptografia Baseada em Identidade com mais de 50 publicações científicas, 8 patentes nos EUA e 1.374 citações académicas. Sua dedicação ao campo se estende a nomear seu filho Kryptos — "Estou tão imerso na tecnologia da blockchain e criptografia, que realmente convenci minha esposa a ter um filho chamado Kryptos", explicou ele durante uma entrevista no blog da Sui.

Sua trajetória profissional revela um foco consistente em criptografia prática para escala massiva. No Facebook, ele construiu infraestrutura de segurança para o WhatsApp e sistemas de autenticação que atendiam bilhões. Na R3, ele foi pioneiro em provas de conhecimento zero e assinaturas pós-quânticas para blockchain empresarial. Sua carreira inicial incluiu a fundação da Betmanager, uma plataforma alimentada por IA que previa resultados de futebol usando técnicas de mercado de ações — experiência que informa sua perspetiva atual sobre a integração blockchain-IA. Essa mistura de exposição à IA, criptografia de produção e infraestrutura de blockchain o posiciona de forma única para arquitetar sistemas que unem esses domínios.

A filosofia técnica de Chalkias enfatiza a "agilidade criptográfica" — construir flexibilidade em protocolos fundamentais em vez de assumir permanência. Na Emergence Conference em Praga (dezembro de 2024), ele articulou essa visão de mundo: "Eventualmente, a blockchain superará até mesmo a Visa em velocidade de transação. Será a norma. Não vejo como podemos escapar disso." Mas a velocidade por si só não é suficiente. Seu trabalho sempre combina desempenho com segurança voltada para o futuro, reconhecendo que os computadores quânticos representam ameaças que exigem ação hoje, não quando o perigo se materializa. Esse foco duplo — desempenho presente e resiliência futura — define as decisões arquitetónicas da Sui em IA, robótica e resistência quântica.

Arquitetura construída para agentes inteligentes

A base técnica da Sui diverge fundamentalmente das blockchains baseadas em contas como Ethereum e Solana. Cada entidade existe como um objeto com ID globalmente único de 32 bytes, número de versão, campo de propriedade e conteúdo tipado. Este modelo centrado em objetos não é uma preferência estética, mas um capacitador de execução paralela em escala. Quando agentes de IA operam como objetos próprios, eles ignoram o consenso completamente para operações de um único escritor, alcançando finalidade de ~400ms. Quando vários agentes coordenam através de objetos compartilhados, o consenso Mysticeti da Sui entrega latência de 390ms — ainda em sub-segundos, mas através de um acordo tolerante a falhas bizantinas.

A linguagem de programação Move, originalmente desenvolvida no Meta para Diem e aprimorada para Sui, impõe segurança de recursos no nível do sistema de tipos. Ativos não podem ser acidentalmente copiados, destruídos ou criados sem permissão. Para aplicações de IA que gerenciam dados valiosos ou pesos de modelos, isso previne classes inteiras de vulnerabilidades que afetam os contratos inteligentes Solidity. Chalkias destacou isso durante o Sui Basecamp 2025 em Dubai: "Introduzimos provas de conhecimento zero, tecnologias de preservação de privacidade, dentro da Sui desde o primeiro dia. Assim, alguém pode agora criar um sistema KYC com tanta privacidade quanto desejar."

A execução paralela de transações atinge limites teóricos através da declaração explícita de dependência. Ao contrário da execução otimista que exige verificação retroativa, o agendador da Sui identifica transações não sobrepostas antecipadamente através de IDs de objeto únicos. Operações independentes são executadas concorrentemente em núcleos de validadores sem interferência. Esta arquitetura demonstrou um rendimento de pico de 297.000 TPS em testes — não máximos teóricos, mas desempenho medido em hardware de produção. Para aplicações de IA, isso significa que milhares de solicitações de inferência são processadas simultaneamente, múltiplos agentes autónomos coordenam sem bloqueio, e a tomada de decisões em tempo real opera em velocidades percetíveis ao ser humano.

O protocolo de consenso Mysticeti, introduzido em 2024, alcança o que Chalkias e coautores provaram ser matematicamente ótimo: três rodadas de mensagens para compromisso. Ao eliminar a certificação explícita de blocos e implementar estruturas DAG não certificadas, o Mysticeti reduziu a latência em 80% em relação ao consenso Narwhal-Bullshark anterior. O protocolo compromete blocos a cada rodada, em vez de a cada duas rodadas, usando regras de decisão diretas e indiretas derivadas de padrões DAG. Para aplicações de robótica que exigem feedback de controle em tempo real, essa finalidade em sub-segundos torna-se inegociável. Durante a Korea Blockchain Week 2025, Chalkias posicionou a Sui como "uma camada de coordenação para aplicações e IA", enfatizando como parceiros em pagamentos, jogos e IA alavancam essa base de desempenho.

Walrus: resolvendo o problema de dados da IA

As cargas de trabalho de IA exigem armazenamento em escalas incompatíveis com a economia tradicional da blockchain. Conjuntos de dados de treinamento abrangem terabytes, pesos de modelos exigem gigabytes, e logs de inferência acumulam-se rapidamente. A Sui aborda isso através do Walrus, um protocolo de armazenamento descentralizado que usa codificação de apagamento para alcançar replicação de 4-5x em vez da replicação de 100x típica do armazenamento on-chain. O algoritmo "Red Stuff" divide os dados em fatias distribuídas entre nós de armazenamento, permanecendo recuperáveis com 2/3 dos nós indisponíveis. Metadados e provas de disponibilidade residem na blockchain da Sui, enquanto os dados reais residem no Walrus, criando armazenamento criptograficamente verificável em escala de exabytes.

Durante o primeiro mês do testnet do Walrus, a rede armazenou mais de 4.343 GB em mais de 25 nós da comunidade, validando a viabilidade da arquitetura. Projetos como TradePort, Tusky e Decrypt Media integraram o Walrus para armazenamento e recuperação de mídia. Para aplicações de IA, isso permite cenários práticos: conjuntos de dados de treinamento tokenizados como ativos programáveis com termos de licenciamento codificados em contratos inteligentes, pesos de modelos persistidos com controle de versão, resultados de inferência registrados imutavelmente para trilhas de auditoria, e conteúdo gerado por IA armazenado de forma económica. A camada de inferência de IA da Atoma Network, anunciada como o primeiro parceiro de integração de blockchain da Sui, alavanca essa base de armazenamento para geração automatizada de código, automação de fluxo de trabalho e análise de risco DeFi.

A integração estende-se para além do armazenamento, abrangendo a orquestração de computação. Os Blocos de Transação Programáveis (PTBs) da Sui agrupam até 1.024 operações heterogéneas atomicamente, executando tudo ou nada. Um fluxo de trabalho de IA pode recuperar dados de treinamento do Walrus, atualizar pesos de modelos em um contrato inteligente, registrar resultados de inferência on-chain e distribuir recompensas para colaboradores de dados — tudo em uma única transação atómica. Essa composabilidade, combinada com a segurança de tipos do Move, cria blocos de construção para sistemas complexos de IA sem a fragilidade das chamadas entre contratos em outros ambientes.

Chalkias enfatizou a capacidade sobre o marketing durante o podcast Just The Metrics (julho de 2025), apontando para "ineficiências na gestão de dados de saúde" como áreas de aplicação prática. A IA na saúde exige coordenação entre instituições, preservação da privacidade para dados sensíveis e computação verificável para conformidade regulatória. A arquitetura da Sui — combinando coordenação on-chain, armazenamento Walrus e privacidade de conhecimento zero — aborda esses requisitos tecnicamente, em vez de conceitualmente. A parceria com o Google Cloud anunciada em 2024 reforçou essa direção, integrando dados da Sui no BigQuery para análise e treinando a plataforma Vertex AI do Google na linguagem Move para desenvolvimento assistido por IA.

Quando os robôs precisam de liquidação em sub-segundos

A visão da robótica materializa-se mais concretamente através de capacidades técnicas do que de parcerias anunciadas. O modelo de objetos da Sui representa robôs, ferramentas e tarefas como cidadãos on-chain de primeira classe com controle de acesso granular. Ao contrário dos sistemas baseados em contas, onde os robôs interagem através de permissões de nível de conta, os objetos da Sui permitem sistemas de permissão multinível, desde a operação básica até o controle total com requisitos de múltiplas assinaturas. A integração de PassKeys e FaceID suporta cenários com humanos no ciclo, enquanto os zkTunnels permitem a transmissão de comandos sem gás para operação remota em tempo real.

Durante discussões nas redes sociais, Chalkias (postando como "Kostas Kryptos") revelou que engenheiros da Sui com experiência na NASA, Meta e Uber estavam testando robôs quadrúpedes semelhantes a cães na rede. A arquitetura baseada em objetos é adequada para a coordenação robótica: cada robô possui objetos que representam seu estado e capacidades, as tarefas existem como objetos transferíveis com parâmetros de execução, e a alocação de recursos acontece através da composição de objetos, em vez de coordenação centralizada. Uma fábrica poderia implantar frotas de robôs onde cada unidade aceita tarefas autonomamente, coordena com seus pares através de objetos compartilhados, executa operações com verificação criptográfica e liquida micropagamentos por serviços prestados — tudo sem autoridade central ou intervenção humana.

O modo de transação "sem internet", discutido durante o Sui Basecamp 2025 e o podcast London Real (abril de 2025), aborda as restrições do mundo real da robótica. Chalkias descreveu como o sistema manteve a funcionalidade durante quedas de energia na Espanha e em Portugal, com tamanhos de transação otimizados para bytes únicos usando formatos predefinidos. Para sistemas autónomos que operam em zonas de desastre, áreas rurais ou ambientes com conectividade não confiável, essa resiliência torna-se crítica. Os robôs podem transacionar peer-to-peer para coordenação imediata, sincronizando com a rede mais ampla quando a conectividade é restaurada.

O projeto 3DOS exemplifica essa visão na prática: uma rede de impressão 3D baseada em blockchain que permite a fabricação sob demanda, onde as máquinas imprimem peças autonomamente. Iterações futuras preveem robôs auto-reparáveis que detetam falhas de componentes, encomendam substituições via contratos inteligentes, identificam impressoras 3D próximas através de descoberta on-chain, coordenam a impressão e entrega e instalam componentes — tudo autonomamente. Isso não é ficção científica, mas uma extensão lógica das capacidades existentes: a integração de microcontroladores ESP32 e Arduino já suporta dispositivos IoT básicos, o BugDar fornece auditoria de segurança para contratos inteligentes robóticos, e as aprovações de múltiplas assinaturas permitem autonomia graduada com supervisão humana para operações críticas.

O relógio quântico está a correr

O tom de Kostas Chalkias muda de filosófico para urgente ao discutir a computação quântica. Em um relatório de pesquisa de julho de 2025, ele alertou sem rodeios: "Os governos estão bem cientes dos riscos representados pela computação quântica. Agências em todo o mundo emitiram mandatos de que algoritmos clássicos como ECDSA e RSA devem ser descontinuados até 2030 ou 2035." Seu anúncio no Twitter acompanhou a pesquisa inovadora da Mysten Labs publicada no IACR ePrint Archive, demonstrando como blockchains baseadas em EdDSA como Sui, Solana, Near e Cosmos possuem vantagens estruturais para a transição quântica, indisponíveis para Bitcoin e Ethereum.

A ameaça decorre de computadores quânticos executando o Algoritmo de Shor, que fatoriza eficientemente grandes números — a dificuldade matemática subjacente à criptografia RSA, ECDSA e BLS. O processador quântico Willow do Google com 105 qubits sinaliza um progresso acelerado em direção a máquinas capazes de quebrar a criptografia clássica. O ataque "armazenar agora, descriptografar depois" aumenta a urgência: adversários coletam dados criptografados hoje, esperando que computadores quânticos os descriptografem retroativamente. Para ativos de blockchain, Chalkias explicou à Decrypt Magazine: "Mesmo que alguém ainda possua sua chave privada de Bitcoin ou Ethereum, pode não ser capaz de gerar uma prova de propriedade segura pós-quântica, e isso se resume a como essa chave foi originalmente gerada e quanto de seus dados associados foi exposto ao longo do tempo."

A vulnerabilidade particular do Bitcoin decorre de carteiras "adormecidas" com chaves públicas expostas. Os estimados 1 milhão de BTC de Satoshi Nakamoto residem em endereços antigos usando o formato pay-to-public-key — a chave pública fica visível on-chain, em vez de oculta atrás de endereços hash. Uma vez que os computadores quânticos escalem o suficiente, essas carteiras podem ser esvaziadas instantaneamente. A avaliação de Chalkias: "Uma vez que os computadores quânticos cheguem, milhões de carteiras, incluindo a de Satoshi, poderão ser esvaziadas instantaneamente. Se sua chave pública estiver visível, ela acabará sendo quebrada." O Ethereum enfrenta desafios semelhantes, embora menos chaves públicas expostas mitiguem o risco imediato. Ambas as cadeias exigem hard forks em toda a comunidade com coordenação sem precedentes para migrar — assumindo que o consenso se forme em torno de algoritmos pós-quânticos.

A fundação EdDSA da Sui oferece um caminho de escape elegante. Ao contrário das chaves privadas aleatórias do ECDSA, o EdDSA deriva chaves deterministicamente de uma semente usando funções hash por RFC 8032. Essa diferença estrutural permite provas de conhecimento zero via zk-STARKs (que são seguras pós-quânticas) provando o conhecimento da semente subjacente sem expor dados de curva elíptica. Os usuários constroem pares de chaves pós-quânticas a partir da mesma aleatoriedade da semente, submetem provas ZK demonstrando propriedade idêntica e fazem a transição para esquemas seguros quânticos, preservando os endereços — sem necessidade de hard fork. Chalkias detalhou isso durante o AMA da Sui em junho de 2022: "Se você estiver usando algoritmos determinísticos, como EdDSA, há uma maneira com provas Stark de provar o conhecimento das pirâmides de sua chave privada em uma geração de chave EdDSA, porque ela usa uma função hash internamente."

Agilidade criptográfica como fosso estratégico

A Sui suporta múltiplos esquemas de assinatura simultaneamente através de aliases de tipo unificados em toda a base de código — EdDSA (Ed25519), ECDSA (para compatibilidade com Ethereum) e algoritmos pós-quânticos planeados. Chalkias projetou essa "agilidade criptográfica" reconhecendo que a permanência é uma fantasia na criptografia. A arquitetura assemelha-se a "trocar o núcleo de uma fechadura" em vez de reconstruir todo o sistema de segurança. Quando os algoritmos pós-quânticos recomendados pelo NIST forem implementados — CRYSTALS-Dilithium para assinaturas, FALCON para alternativas compactas, SPHINCS+ para esquemas baseados em hash — a Sui os integrará através de atualizações diretas, em vez de reescritas fundamentais de protocolo.

As estratégias de transição equilibram abordagens proativas e adaptativas. Para novos endereços, os usuários podem gerar configurações PQ-signs-PreQ onde chaves pós-quânticas assinam chaves públicas pré-quânticas na criação, permitindo uma migração futura suave. Para endereços existentes, o método de prova zk-STARK preserva os endereços enquanto prova a propriedade segura quântica. A defesa em camadas prioriza dados de alto valor — chaves privadas de carteira recebem proteção PQ imediata, enquanto dados de privacidade transitórios seguem caminhos de atualização mais lentos. As saídas da função hash se expandem de 256 bits para 384 bits para resistência a colisões contra o algoritmo de Grover, e os comprimentos das chaves de criptografia simétrica dobram (AES permanece resistente a quântica com chaves maiores).

Os sistemas de prova de conhecimento zero exigem consideração cuidadosa. PCPs lineares como Groth16 (atualmente alimentando o zkLogin) dependem de curvas elípticas amigáveis a emparelhamento vulneráveis a ataques quânticos. O roteiro de transição da Sui avança para sistemas STARK baseados em hash — Winterfell, codesenvolvido pela Mysten Labs, usa apenas funções hash e permanece plausivelmente seguro pós-quântico. A migração do zkLogin mantém os mesmos endereços enquanto atualiza os circuitos internos, exigindo coordenação com provedores OpenID à medida que adotam tokens PQ-JWT. Beacons de aleatoriedade e protocolos de geração de chaves distribuídas fazem a transição de assinaturas BLS de limiar para alternativas baseadas em rede como esquemas HashRand ou HERB — mudanças de protocolo internas invisíveis para APIs on-chain.

A experiência de Chalkias é crítica aqui. Como autor de BPQS (Blockchain Post-Quantum Signature), uma variante do esquema baseado em hash XMSS, ele traz experiência de implementação além do conhecimento teórico. Seu compromisso de junho de 2022 provou ser perspicaz: "Vamos construir nossa cadeia de uma forma onde, com o toque de um botão, as pessoas possam realmente mudar para chaves pós-quânticas." Os prazos do NIST — 2030 para a descontinuação de algoritmos clássicos, 2035 para a adoção completa de PQ — comprimem os cronogramas dramaticamente. A vantagem inicial da Sui a posiciona favoravelmente, mas Chalkias enfatiza a urgência: "Se sua blockchain suporta ativos soberanos, tesourarias nacionais em cripto, ETFs ou CBDCs, em breve será necessário adotar padrões criptográficos pós-quânticos, se sua comunidade se preocupa com a credibilidade a longo prazo e a adoção em massa."

Agentes de IA já geram US$ 1,8 bilhão em valor

O ecossistema vai além da infraestrutura para aplicações de produção. O **Dolphin Agent (DOLA), especializado em rastreamento e análise de dados de blockchain, alcançou uma capitalização de mercado de mais de US1,8bilha~ovalidandoademandaporferramentasdeblockchainaprimoradasporIA.OSUIAgentsofereceimplantac\ca~odeagentedeIAcomumclique,comcriac\ca~odepersonanoTwitter,tokenizac\ca~oenegociac\ca~odentrodeecossistemasdescentralizados.ASentientAIlevantouUS 1,8 bilhão** — validando a demanda por ferramentas de blockchain aprimoradas por IA. O SUI Agents oferece implantação de agente de IA com um clique, com criação de persona no Twitter, tokenização e negociação dentro de ecossistemas descentralizados. A Sentient AI levantou US 1,5 milhão para chatbots conversacionais alavancando a segurança e escalabilidade da Sui. A DeSci Agents promove compostos científicos como Epitalon e Rapamycin através de engajamento 24/7 impulsionado por IA, unindo pesquisa e investimento através do emparelhamento de tokens.

A integração da Atoma Network como o primeiro parceiro de inferência de IA em blockchain da Sui permite capacidades que abrangem geração e auditoria automatizada de código, automação de fluxo de trabalho, análise de risco DeFi, geração de ativos de jogos, classificação de conteúdo de mídia social e gerenciamento de DAO. A seleção da parceria refletiu requisitos técnicos: a Atoma precisava de baixa latência para IA interativa, alto rendimento para escala, propriedade segura para ativos de IA, computação verificável, armazenamento económico e opções de preservação de privacidade. A Sui entregou todos os seis. Durante o Sui Basecamp 2025, Chalkias destacou projetos como Aeon, os agentes de IA da Atoma e o trabalho da Nautilus em computação off-chain verificável como exemplos de "como a Sui poderia servir como base para a próxima onda de sistemas inteligentes e descentralizados."

A parceria com o Google Cloud aprofunda a integração através do acesso ao BigQuery para dados da blockchain Sui para análise, treinamento da Vertex AI na linguagem de programação Move para desenvolvimento assistido por IA, suporte zkLogin usando credenciais OAuth (Google) para acesso simplificado e infraestrutura que suporta o desempenho e a escalabilidade da rede. A integração do ChainIDE da Alibaba Cloud permite prompts de linguagem natural para geração de código Move — desenvolvedores escrevem "criar um contrato de staking com 10% APY" em inglês, chinês ou coreano, recebendo código Move sintaticamente correto, documentado e com verificações de segurança. Este desenvolvimento assistido por IA democratiza a construção de blockchain, mantendo as garantias de segurança do Move.

As vantagens técnicas se acumulam para aplicações de IA. Modelos de propriedade de objetos são adequados para agentes autónomos operando independentemente. A execução paralela permite milhares de operações de IA simultâneas sem interferência. A finalidade em sub-segundos suporta experiências de usuário interativas. O armazenamento Walrus lida com conjuntos de dados de treinamento de forma económica. Transações patrocinadas removem o atrito do gás para os usuários. O zkLogin elimina as barreiras da frase semente. Os Blocos de Transação Programáveis orquestram fluxos de trabalho complexos atomicamente. Opções de verificação formal provam a correção do agente de IA matematicamente. Estas não são características desconectadas, mas capacidades integradas que formam um ambiente de desenvolvimento coerente.

Comparando os concorrentes

O pico de 297.000 TPS da Sui e a latência de consenso de 390ms superam os 11.3 TPS médios e a finalidade de 12-13 minutos do Ethereum por ordens de magnitude. Contra Solana — seu concorrente de desempenho mais próximo — a Sui alcança 32x mais rapidez na finalidade (0.4 segundos versus 12.8 segundos), apesar dos tempos de slot de 400ms da Solana, porque a Solana exige múltiplas confirmações para finalidade económica. Medições do mundo real do relatório de agosto de 2025 do Phoenix Group mostraram a Sui processando 3.900 TPS versus 92.1 TPS da Solana, refletindo o desempenho operacional em vez do teórico. Os custos de transação permanecem previsivelmente baixos na Sui (~US$ 0.0087 em média, menos de um centavo) sem os problemas históricos de congestionamento e interrupções da Solana.

Diferenças arquitetónicas explicam as lacunas de desempenho. O modelo centrado em objetos da Sui permite paralelização inerente — 300.000 transferências simples por segundo não exigem coordenação de consenso. Ethereum e Bitcoin processam cada transação sequencialmente através de consenso completo. Solana paraleliza através de Sealevel, mas usa execução otimista que exige verificação retroativa. Aptos, também usando a linguagem Move, implementa execução otimista Block-STM em vez do método de acesso ao estado da Sui. Para aplicações de IA e robótica que exigem baixa latência previsível, a declaração explícita de dependência da Sui fornece determinismo que as abordagens otimistas não podem garantir.

O posicionamento quântico diverge ainda mais drasticamente. Bitcoin e Ethereum usam assinaturas ECDSA secp256k1 sem um caminho de atualização compatível com versões anteriores — a transição quântica exige hard forks, mudanças de endereço, migrações de ativos e governança comunitária que provavelmente causarão divisões na cadeia. Solana compartilha a vantagem EdDSA da Sui, permitindo estratégias de transição zk-STARK semelhantes e introduzindo assinaturas únicas baseadas em hash Winternitz Vault. Near e Cosmos também se beneficiam do EdDSA. Aptos usa Ed25519, mas com um roteiro de prontidão quântica menos desenvolvido. O artigo de pesquisa de Chalkias de julho de 2025 afirmou explicitamente que os resultados "funcionam para Sui, Solana, Near, Cosmos e outras cadeias baseadas em EdDSA, mas não para Bitcoin e Ethereum."

A maturidade do ecossistema favorece temporariamente os concorrentes. Solana foi lançada em 2020 com protocolos DeFi estabelecidos, mercados NFT e comunidades de desenvolvedores. O lançamento do Ethereum em 2015 proporcionou vantagens de pioneirismo em contratos inteligentes, adoção institucional e efeitos de rede. A Sui foi lançada em maio de 2023 — há apenas dois anos e meio — com US$ 2+ bilhões em TVL e 65.9K endereços ativos crescendo rapidamente, mas bem abaixo dos 16.1 milhões da Solana. A superioridade técnica cria oportunidade: desenvolvedores que constroem na Sui hoje se posicionam para o crescimento do ecossistema, em vez de se juntarem a plataformas maduras e lotadas. A entrevista de Chalkias no London Real refletiu essa confiança: "Honestamente, não ficaria surpreso se a Mysten Labs, e tudo o que ela toca, superasse o que a Apple é hoje."

Sinergias entre visões aparentemente díspares

As narrativas de IA, robótica e resistência quântica parecem desconectadas até que se reconheçam suas interdependências técnicas. Agentes de IA exigem baixa latência e alto rendimento — a Sui oferece ambos. A coordenação robótica demanda operações em tempo real sem autoridade central — o modelo de objetos da Sui e a finalidade em sub-segundos entregam isso. A segurança pós-quântica precisa de flexibilidade criptográfica e arquitetura voltada para o futuro — a Sui construiu isso desde o início. Estas não são linhas de produtos separadas, mas requisitos técnicos unificados para o cenário tecnológico de 2030-2035.

Considere a fabricação autónoma: sistemas de IA analisam previsões de demanda e disponibilidade de materiais, determinando cronogramas de produção ideais. Agentes robóticos recebem instruções verificadas através da coordenação blockchain, garantindo autenticidade sem controle centralizado. Cada robô opera como um objeto próprio processando tarefas em paralelo, coordenando-se através de objetos compartilhados quando necessário. Micropagamentos são liquidados instantaneamente por serviços prestados — robô A fornecendo materiais ao robô B, robô B processando componentes para o robô C. O sistema funciona sem internet durante interrupções de conectividade, sincronizando quando as redes são restauradas. E, crucialmente, todas as comunicações permanecem seguras contra adversários quânticos através de esquemas criptográficos pós-quânticos, protegendo a propriedade intelectual e os dados operacionais de ataques de "armazenar agora, descriptografar depois".

A gestão de dados de saúde exemplifica outra convergência. Modelos de IA são treinados em conjuntos de dados médicos armazenados no Walrus com provas criptográficas de disponibilidade. Provas de conhecimento zero preservam a privacidade do paciente enquanto permitem a pesquisa. Sistemas cirúrgicos robóticos coordenam-se através da blockchain para trilhas de auditoria e documentação de responsabilidade. A criptografia pós-quântica protege registros médicos sensíveis de ameaças de longo prazo. A camada de coordenação (a blockchain da Sui) permite o compartilhamento institucional de dados sem confiança, a computação de IA sem comprometer a privacidade e a segurança à prova de futuro sem substituição periódica da infraestrutura.

A declaração de visão de Chalkias durante o Sui Basecamp 2025 captura essa síntese: posicionar a Sui como "fundação para a próxima onda de sistemas inteligentes e descentralizados" com "capacidade crescente para suportar aplicações nativas de IA e intensivas em computação". A arquitetura modular — Sui para computação, Walrus para armazenamento, Scion para conectividade, zkLogin para identidade — cria o que os membros da equipe descrevem como "sistema operacional de blockchain", em vez de um livro-razão financeiro estreito. O modo sem internet, a criptografia quântica segura e a finalidade em sub-segundos não são listas de recursos, mas pré-requisitos para sistemas autónomos que operam em ambientes adversos com infraestrutura não confiável.

A metodologia de inovação por trás da liderança técnica

Compreender a abordagem da Mysten Labs explica a consistência da execução. Chalkias articulou a filosofia durante sua postagem no blog "Build Beyond": "A Mysten Labs é realmente boa em encontrar novas teorias no espaço que ninguém nunca implementou, onde algumas das suposições podem não ser precisas. Mas estamos casando isso com a tecnologia existente que temos, e, eventualmente, isso nos leva a criar um produto inovador." Isso descreve um processo sistemático: identificar pesquisas académicas com potencial prático, desafiar suposições não testadas através de rigor de engenharia, integrar com sistemas de produção e validar através da implantação.

O protocolo de consenso Mysticeti exemplifica isso. A pesquisa académica estabeleceu três rodadas de mensagens como o mínimo teórico para o compromisso de consenso bizantino. Implementações anteriores exigiam 1.5 viagens de ida e volta com assinaturas de quórum por bloco. A Mysten Labs projetou estruturas DAG não certificadas, eliminando a certificação explícita, implementou regras de compromisso ótimas via padrões DAG em vez de mecanismos de votação e demonstrou uma redução de latência de 80% em relação ao consenso Narwhal-Bullshark anterior. O resultado: artigo revisado por pares com provas formais acompanhado de implantação em produção processando bilhões de transações.

Metodologia semelhante aplica-se à criptografia. BPQS (o esquema de assinatura pós-quântica de blockchain de Chalkias) adapta assinaturas baseadas em hash XMSS para restrições de blockchain. Winterfell implementa o primeiro provador STARK de código aberto usando apenas funções hash para segurança pós-quântica. zkLogin combina autenticação OAuth com provas de conhecimento zero, eliminando partes confiáveis adicionais enquanto preserva a privacidade. Cada inovação aborda uma barreira prática (segurança pós-quântica, acessibilidade de prova ZK, atrito de integração de usuários) através de uma nova construção criptográfica apoiada por análise formal.

A composição da equipe reforça essa capacidade. Engenheiros do Meta construíram autenticação para bilhões, da NASA desenvolveram sistemas distribuídos críticos para a segurança, do Uber escalaram a coordenação em tempo real globalmente. Chalkias traz experiência criptográfica do Facebook/Diem, R3/Corda e pesquisa académica. Esta não é uma equipe de startup tradicional aprendendo na prática, mas veteranos executando sistemas que já construíram antes, agora sem as restrições das prioridades corporativas. O financiamento de US$ 336 milhões da a16z, Coinbase Ventures e Binance Labs reflete a confiança dos investidores na capacidade de execução sobre a tecnologia especulativa.

Desafios e considerações além do hype

A superioridade técnica não garante a adoção do mercado — uma lição aprendida repetidamente na história da tecnologia. Os 65.9K endereços ativos da Sui empalidecem em comparação com os 16.1 milhões da Solana, apesar de uma tecnologia discutivelmente melhor. Os efeitos de rede se acumulam: desenvolvedores constroem onde os usuários se reúnem, os usuários chegam onde as aplicações existem, criando vantagens de bloqueio para plataformas estabelecidas. A blockchain "mais lenta e cara" do Ethereum comanda ordens de magnitude mais atenção dos desenvolvedores do que alternativas tecnicamente superiores, apenas pela sua incumbência.

O posicionamento de "sistema operacional de blockchain" corre o risco de diluição — tentar se destacar em finanças, aplicações sociais, jogos, IA, robótica, IoT e armazenamento descentralizado simultaneamente pode resultar em mediocridade em todos os domínios, em vez de excelência em um. Críticos que notam essa preocupação apontam para a implantação limitada de robótica além de provas de conceito, projetos de IA principalmente em fase de especulação, em vez de utilidade de produção, e preparação de segurança quântica para ameaças a cinco a dez anos de distância. O contra-argumento sustenta que componentes modulares permitem desenvolvimento focado — equipes que constroem aplicações de IA usam inferência Atoma e armazenamento Walrus sem se preocupar com a integração robótica.

A criptografia pós-quântica introduz sobrecargas não triviais. As assinaturas CRYSTALS-Dilithium medem 3.293 bytes no nível de segurança 2, em comparação com os 64 bytes do Ed25519 — mais de 50 vezes maiores. A largura de banda da rede, os custos de armazenamento e o tempo de processamento aumentam proporcionalmente. As melhorias na verificação em lote permanecem limitadas (aceleração de 20-50% em relação à verificação independente) em comparação com o eficiente agrupamento de esquemas clássicos. Os riscos de migração incluem erro do usuário durante a transição, coordenação entre os participantes do ecossistema (carteiras, dApps, exchanges), requisitos de compatibilidade retroativa e dificuldade de testar em escala sem computadores quânticos reais. A incerteza do cronograma agrava os desafios de planejamento — o progresso da computação quântica permanece imprevisível, os padrões do NIST continuam evoluindo e novos ataques criptoanalíticos podem surgir contra esquemas PQ.

O timing do mercado apresenta talvez o maior risco. As vantagens da Sui materializam-se mais dramaticamente no período de 2030-2035: quando os computadores quânticos ameaçam a criptografia clássica, quando os sistemas autónomos proliferam exigindo coordenação sem confiança, quando os agentes de IA gerenciam valor económico significativo necessitando de infraestrutura segura. Se a adoção da blockchain estagnar antes dessa convergência, a liderança técnica torna-se irrelevante. Por outro lado, se a adoção explodir mais cedo, o ecossistema mais recente da Sui pode carecer de aplicações e liquidez para atrair usuários, apesar do desempenho superior. A tese de investimento exige acreditar não apenas na tecnologia da Sui, mas no alinhamento do tempo entre a maturação da blockchain e a adoção de tecnologias emergentes.

A aposta de uma década em primeiros princípios

Kostas Chalkias nomear seu filho Kryptos não é uma anedota charmosa, mas um sinal da profundidade de seu compromisso. Sua trajetória profissional — da pesquisa em IA à criptografia, da publicação académica aos sistemas de produção no Meta, da blockchain empresarial na R3 à arquitetura Layer 1 na Mysten Labs — demonstra um foco consistente em tecnologias fundamentais em escala. O trabalho de resistência quântica começou antes do anúncio do Willow do Google, quando a criptografia pós-quântica parecia uma preocupação teórica. A integração robótica começou antes que os agentes de IA comandassem avaliações de bilhões de dólares. As decisões arquitetónicas que possibilitam essas capacidades precedem o reconhecimento do mercado de sua importância.

Essa orientação voltada para o futuro contrasta com o desenvolvimento reativo comum em cripto. O Ethereum introduz rollups Layer 2 para resolver gargalos de escalabilidade que surgem após a implantação. Solana implementa comunicação QUIC e QoS ponderado por stake respondendo a interrupções e congestionamentos da rede. Bitcoin debate aumentos de tamanho de bloco e adoção da Lightning Network à medida que as taxas de transação disparam. A Sui projetou execução paralela, modelos de dados centrados em objetos e agilidade criptográfica antes de lançar a mainnet — abordando requisitos antecipados, em vez de problemas descobertos.

A cultura de pesquisa reforça essa abordagem. A Mysten Labs publica artigos académicos com provas formais antes de reivindicar capacidades. O artigo de consenso Mysticeti apareceu em locais revisados por pares com provas de correção e benchmarks de desempenho. A pesquisa de transição quântica submetida ao IACR ePrint Archive demonstra as vantagens do EdDSA através de construção matemática, não de alegações de marketing. O artigo zkLogin (arXiv 2401.11735) detalha a autenticação de conhecimento zero antes da implantação. Chalkias mantém contribuições ativas no GitHub (kchalkias), publica insights técnicos no LinkedIn e Twitter, apresenta em workshops PQCSA sobre ameaças quânticas e se envolve substancialmente com a comunidade de criptografia, em vez de promover exclusivamente a Sui.

A validação final chega em 5-10 anos, quando os computadores quânticos amadurecerem, os sistemas autónomos proliferarem e os agentes de IA gerenciarem economias de trilhões de dólares. Se a Sui executar consistentemente seu roteiro — implantando assinaturas pós-quânticas antes do prazo do NIST de 2030, demonstrando coordenação robótica em escala e suportando camadas de inferência de IA processando milhões de solicitações — ela se tornará a camada de infraestrutura para tecnologias que remodelam a civilização. Se os computadores quânticos chegarem mais tarde do que o previsto, a adoção autónoma estagnar ou os concorrentes adaptarem soluções com sucesso, os investimentos iniciais da Sui podem se mostrar prematuros. A aposta centra-se não na capacidade tecnológica — a Sui demonstra entregar o desempenho prometido — mas no timing do mercado e na urgência do problema.

A perspetiva de Chalkias durante a Emergence Conference enquadra isso sucintamente: "Eventualmente, a blockchain superará até mesmo a Visa em velocidade de transação. Será a norma. Não vejo como podemos escapar disso." A alegação de inevitabilidade assume direção técnica correta, qualidade de execução suficiente e timing alinhado. A Sui se posiciona para capitalizar se essas suposições se mantiverem. A arquitetura centrada em objetos, a agilidade criptográfica, a finalidade em sub-segundos e a metodologia de pesquisa sistemática não são adaptações, mas escolhas fundamentais projetadas para o cenário tecnológico que emerge na próxima década. Whether Sui captures market leadership or these capabilities become table stakes across all blockchains, Kostas Chalkias and Mysten Labs are architecting infrastructure for the quantum era's autonomous intelligence—one cryptographic primitive, one millisecond of latency reduction, one proof-of-concept robot at a time.

Mercados Descentralizados de Inferência de IA: Bittensor, Gensyn e Cuckoo AI

· 82 min de leitura
Dora Noda
Software Engineer

Introdução

Os mercados descentralizados de inferência/treinamento de IA visam aproveitar recursos computacionais globais e modelos comunitários de uma forma que não exige confiança (trustless). Projetos como Bittensor, Gensyn e Cuckoo Network (Cuckoo AI) ilustram como a tecnologia blockchain pode impulsionar mercados abertos de IA. Cada plataforma tokeniza ativos-chave de IA – poder computacional, modelos de machine learning e, por vezes, dados – em unidades económicas on-chain. A seguir, aprofundamos as arquiteturas técnicas que sustentam estas redes, como elas tokenizam recursos, as suas estruturas de governança e incentivos, métodos para rastrear a propriedade de modelos, mecanismos de partilha de receitas e as superfícies de ataque (por exemplo, ataques sybil, conluio, parasitismo, envenenamento) que surgem. Uma tabela comparativa no final resume todas as dimensões-chave entre Bittensor, Gensyn e Cuckoo AI.

Arquiteturas Técnicas

Bittensor: “Internet Neural” Descentralizada em Sub-redes

O Bittensor é construído sobre uma blockchain de Camada 1 (Layer-1) personalizada (a cadeia Subtensor, baseada no Substrate) que coordena uma rede de nós de modelos de IA através de muitas sub-redes especializadas. Cada sub-rede é uma mini-rede independente focada numa tarefa de IA específica (por exemplo, uma sub-rede para geração de linguagem, outra para geração de imagens, etc.). Os participantes no Bittensor assumem papéis distintos:

  • Mineradores – executam modelos de machine learning no seu hardware e fornecem respostas de inferência (ou até realizam treinamento) para a tarefa da sub-rede. Em essência, um minerador é um nó que aloja um modelo de IA que responderá a consultas.
  • Validadores – consultam os modelos dos mineradores com prompts e avaliam a qualidade das respostas, formando uma opinião sobre quais mineradores estão a contribuir com resultados valiosos. Os validadores efetivamente pontuam o desempenho dos mineradores.
  • Proprietários de Sub-redes – criam e definem sub-redes, estabelecendo as regras para as tarefas a serem realizadas e como a validação é feita nessa sub-rede. Um proprietário de sub-rede poderia, por exemplo, especificar que uma sub-rede é para um determinado conjunto de dados ou modalidade e definir o procedimento de validação.
  • Delegadores – detentores de tokens que não executam nós podem delegar (fazer stake) os seus tokens Bittensor (TAO) a mineradores ou validadores para apoiar os melhores desempenhos e ganhar uma parte das recompensas (semelhante ao staking em redes de prova de participação).

O mecanismo de consenso do Bittensor é inovador: em vez da validação de blocos tradicional, o Bittensor usa o consenso Yuma, que é uma forma de “prova de inteligência”. No consenso Yuma, as avaliações dos mineradores pelos validadores são agregadas on-chain para determinar a distribuição de recompensas. A cada bloco de 12 segundos, a rede cria novos tokens TAO e distribui-os de acordo com o consenso dos validadores sobre quais mineradores forneceram trabalho útil. As pontuações dos validadores são combinadas num esquema de mediana ponderada por stake: opiniões discrepantes são cortadas e a opinião da maioria honesta prevalece. Isto significa que se a maioria dos validadores concordar que um minerador foi de alta qualidade, esse minerador receberá uma forte recompensa; se um validador se desviar muito dos outros (possivelmente devido a conluio ou erro), esse validador é penalizado por ganhar menos. Desta forma, a blockchain do Bittensor coordena um ciclo de feedback minerador-validador: os mineradores competem para produzir os melhores resultados de IA, e os validadores curam e classificam esses resultados, com ambos os lados a ganhar tokens proporcionais ao valor que adicionam. Esta arquitetura é frequentemente descrita como uma “rede neural descentralizada” ou “cérebro global”, onde os modelos aprendem com os sinais uns dos outros e evoluem coletivamente. Notavelmente, o Bittensor atualizou recentemente a sua cadeia para suportar compatibilidade com EVM (para contratos inteligentes) e introduziu o dTAO, um sistema de tokens e staking específicos de sub-rede (explicado mais tarde) para descentralizar ainda mais o controlo da alocação de recursos.

Gensyn: Protocolo de Computação Distribuída Trustless

A Gensyn aborda a IA descentralizada do ponto de vista de um protocolo de computação distribuída para machine learning. A sua arquitetura conecta desenvolvedores (submitters) que têm tarefas de IA (como treinar um modelo ou executar um trabalho de inferência) com fornecedores de computação (solvers) em todo o mundo que têm recursos de GPU/TPU sobressalentes. Originalmente, a Gensyn planeava uma cadeia L1 Substrate, mas mudou para construir no Ethereum como um rollup para maior segurança e liquidez. A rede Gensyn é, portanto, uma Camada 2 (Layer-2) do Ethereum (um rollup do Ethereum) que coordena a publicação de trabalhos e pagamentos, enquanto a computação ocorre off-chain no hardware dos fornecedores.

Uma inovação central do design da Gensyn é o seu sistema de verificação para trabalho off-chain. A Gensyn usa uma combinação de verificação otimista (provas de fraude) e técnicas criptográficas para garantir que, quando um solver afirma ter executado uma tarefa de treinamento/inferência, o resultado está correto. Na prática, o protocolo envolve múltiplos papéis de participantes:

  • Submitter – a parte que solicita um trabalho (por exemplo, alguém que precisa de treinar um modelo). Eles pagam a taxa da rede e fornecem o modelo/dados ou a especificação da tarefa.
  • Solver – um nó que licita e executa a tarefa de ML no seu hardware. Eles treinarão o modelo ou executarão a inferência conforme solicitado, e depois submeterão os resultados e uma prova de computação.
  • Verifier/Challenger – nós que podem auditar ou verificar aleatoriamente o trabalho do solver. A Gensyn implementa um esquema ao estilo Truebit, onde, por padrão, o resultado de um solver é aceite, mas um verificador pode desafiá-lo dentro de uma janela de tempo se suspeitar de um cálculo incorreto. Num desafio, uma “pesquisa binária” interativa através dos passos de computação (um protocolo de prova de fraude) é usada para identificar qualquer discrepância. Isto permite que a cadeia resolva disputas realizando apenas uma parte crítica mínima da computação on-chain, em vez de refazer toda a tarefa dispendiosa.

Crucialmente, a Gensyn foi projetada para evitar a redundância massiva de abordagens ingénuas. Em vez de ter muitos nós a repetir o mesmo trabalho de ML (o que destruiria a economia de custos), a abordagem de “prova de aprendizagem” da Gensyn usa metadados de treinamento para verificar se o progresso da aprendizagem foi feito. Por exemplo, um solver pode fornecer hashes criptográficos ou checkpoints de pesos intermédios do modelo e uma prova sucinta de que estes progrediram de acordo com as atualizações de treinamento. Esta prova probabilística de aprendizagem pode ser verificada de forma muito mais barata do que reexecutar todo o treinamento, permitindo a verificação trustless sem replicação completa. Apenas se um verificador detetar uma anomalia é que uma computação on-chain mais pesada seria acionada como último recurso. Esta abordagem reduz drasticamente a sobrecarga em comparação com a verificação por força bruta, tornando o treinamento de ML descentralizado mais viável. A arquitetura da Gensyn, portanto, enfatiza fortemente o design de jogo criptoeconómico: os solvers colocam um stake ou um depósito, e se eles trapacearem (submetendo resultados errados), perdem esse stake para os verificadores honestos que os apanham. Ao combinar a coordenação da blockchain (para pagamentos e resolução de disputas) com computação off-chain e verificação inteligente, a Gensyn cria um mercado para computação de ML que pode explorar GPUs ociosas em qualquer lugar, mantendo a ausência de confiança. O resultado é um “protocolo de computação” em hiperescala, onde qualquer desenvolvedor pode aceder a poder de treinamento acessível e distribuído globalmente sob demanda.

Cuckoo AI: Plataforma de Serviço de IA Descentralizada Full-Stack

A Cuckoo Network (ou Cuckoo AI) adota uma abordagem mais integrada verticalmente, com o objetivo de fornecer serviços de IA descentralizados de ponta a ponta, em vez de apenas computação bruta. A Cuckoo construiu a sua própria blockchain (inicialmente uma Camada 1 chamada Cuckoo Chain no Arbitrum Orbit, um framework de rollup compatível com Ethereum) para orquestrar tudo: não só combina trabalhos com GPUs, mas também aloja aplicações de IA e lida com pagamentos num único sistema. O design é full-stack: combina uma blockchain para transações e governança, uma camada de recursos descentralizados de GPU/CPU e aplicações de IA e APIs voltadas para o utilizador no topo. Por outras palavras, a Cuckoo integra todas as três camadas – blockchain, computação e aplicação de IA – dentro de uma única plataforma.

Os participantes na Cuckoo dividem-se em quatro grupos:

  • Construtores de Aplicações de IA (Coordenadores) – são desenvolvedores que implementam modelos ou serviços de IA na Cuckoo. Por exemplo, um desenvolvedor pode alojar um gerador de imagens Stable Diffusion ou um chatbot LLM como um serviço. Eles executam Nós Coordenadores, que são responsáveis por gerir o seu serviço: aceitar pedidos de utilizadores, dividi-los em tarefas e atribuir essas tarefas aos mineradores. Os coordenadores fazem stake do token nativo ($CAI) para se juntarem à rede e ganharem o direito de utilizar os mineradores. Eles essencialmente atuam como orquestradores de camada 2 que fazem a interface entre os utilizadores e os fornecedores de GPU.
  • Mineradores de GPU/CPU (Nós de Tarefa) – são os fornecedores de recursos. Os mineradores executam o cliente de tarefas da Cuckoo e contribuem com o seu hardware para realizar tarefas de inferência para as aplicações de IA. Por exemplo, um minerador pode receber um pedido de geração de imagem (com um determinado modelo e prompt) de um coordenador e usar a sua GPU para calcular o resultado. Os mineradores também devem fazer stake de $CAI para garantir o compromisso e o bom comportamento. Eles ganham recompensas em tokens por cada tarefa que completam corretamente.
  • Utilizadores Finais – os consumidores das aplicações de IA. Eles interagem através do portal web ou APIs da Cuckoo (por exemplo, gerando arte via CooVerse ou conversando com personalidades de IA). Os utilizadores podem pagar com criptomoedas por cada uso ou, possivelmente, contribuir com a sua própria computação (ou stake) para compensar os custos de uso. Um aspeto importante é a resistência à censura: se um coordenador (fornecedor de serviço) for bloqueado ou ficar offline, os utilizadores podem mudar para outro que sirva a mesma aplicação, uma vez que múltiplos coordenadores podem alojar modelos semelhantes na rede descentralizada.
  • Stakers (Delegadores) – membros da comunidade que não executam serviços de IA ou hardware de mineração ainda podem participar fazendo stake de $CAI naqueles que o fazem. Ao votar com o seu stake em coordenadores ou mineradores de confiança, eles ajudam a sinalizar a reputação e, em troca, ganham uma parte das recompensas da rede. Este design constrói uma camada de reputação Web3: bons atores atraem mais stake (e, portanto, confiança e recompensas), enquanto maus atores perdem stake e reputação. Mesmo os utilizadores finais podem fazer stake em alguns casos, alinhando-os com o sucesso da rede.

A cadeia Cuckoo (agora em processo de transição de uma cadeia autónoma para um rollup de segurança partilhada) rastreia todas estas interações. Quando um utilizador invoca um serviço de IA, o nó coordenador cria atribuições de tarefas on-chain para os mineradores. Os mineradores executam as tarefas off-chain e devolvem os resultados ao coordenador, que os valida (por exemplo, verificando se a imagem ou texto de saída não é um disparate) e entrega o resultado final ao utilizador. A blockchain lida com a liquidação de pagamentos: para cada tarefa, o contrato inteligente do coordenador paga ao minerador em $CAI (muitas vezes agregando micropagamentos em pagamentos diários). A Cuckoo enfatiza a ausência de confiança e a transparência – todos os participantes fazem stake de tokens e todas as atribuições e conclusões de tarefas são registadas, de modo que a fraude é desencorajada pela ameaça de perder o stake e pela visibilidade pública do desempenho. O design modular da rede significa que novos modelos de IA ou casos de uso podem ser adicionados facilmente: embora tenha começado com a geração de texto para imagem como prova de conceito, a sua arquitetura é geral o suficiente para suportar outras cargas de trabalho de IA (por exemplo, inferência de modelos de linguagem, transcrição de áudio, etc.).

Um aspeto notável da arquitetura da Cuckoo é que ela lançou inicialmente a sua própria blockchain de Camada 1 para maximizar o débito para transações de IA (atingindo um pico de 300k transações diárias durante os testes). Isto permitiu otimizações personalizadas para o agendamento de tarefas de IA. No entanto, a equipa descobriu que manter uma L1 autónoma era dispendioso e complexo, e em meados de 2025 decidiram descontinuar a cadeia personalizada e migrar para um modelo de rollup/AVS (Active Validated Service) no Ethereum. Isto significa que a Cuckoo herdará a segurança do Ethereum ou de uma L2 como o Arbitrum, em vez de executar o seu próprio consenso, mas continuará a operar o seu mercado de IA descentralizado nessa camada de segurança partilhada. A mudança destina-se a melhorar a segurança económica (aproveitando a robustez do Ethereum) e a permitir que a equipa da Cuckoo se concentre no produto em vez da manutenção da cadeia de baixo nível. Em resumo, a arquitetura da Cuckoo cria uma plataforma de serviço de IA descentralizada onde qualquer pessoa pode ligar hardware ou implementar um serviço de modelo de IA, e utilizadores globalmente podem aceder a aplicações de IA com menor custo e menos dependência da infraestrutura das grandes empresas de tecnologia.

Mecanismos de Tokenização de Ativos

Um tema comum destas redes é a conversão de computação, modelos e dados em ativos on-chain ou unidades económicas que podem ser negociadas ou monetizadas. No entanto, cada projeto foca-se em tokenizar estes recursos de maneiras diferentes:

  • Poder Computacional: Todas as três plataformas transformam o trabalho computacional em tokens de recompensa. No Bittensor, a computação útil (inferência ou treinamento feito por um minerador) é quantificada através das pontuações dos validadores e recompensada com tokens TAO a cada bloco. Essencialmente, o Bittensor “mede” a inteligência contribuída e cria TAO como uma mercadoria que representa essa contribuição. A Gensyn trata explicitamente a computação como uma mercadoria – o seu protocolo cria um mercado onde o tempo de GPU é o produto, e o preço é definido pela oferta e procura em termos de tokens. Os desenvolvedores compram computação usando o token, e os fornecedores ganham tokens vendendo os seus ciclos de hardware. A equipa da Gensyn observa que qualquer recurso digital (computação, dados, algoritmos) pode ser representado e negociado num mercado trustless semelhante. A Cuckoo tokeniza a computação através de um token ERC-20 $CAI emitido como pagamento por tarefas concluídas. Os fornecedores de GPU essencialmente “mineram” CAI ao fazerem trabalho de inferência de IA. O sistema da Cuckoo cria registos on-chain de tarefas, então pode-se pensar em cada tarefa de GPU concluída como uma unidade atómica de trabalho que é paga em tokens. A premissa em todos os três é que o poder computacional, de outra forma ocioso ou inacessível, se torna um ativo tokenizado e líquido – seja através de emissões de tokens ao nível do protocolo (como no Bittensor e na Cuckoo inicial) ou através de um mercado aberto de ordens de compra/venda para trabalhos de computação (como na Gensyn).

  • Modelos de IA: Representar modelos de IA como ativos on-chain (por exemplo, NFTs ou tokens) ainda é incipiente. O Bittensor não tokeniza os modelos em si – os modelos permanecem off-chain sob a propriedade dos mineradores. Em vez disso, o Bittensor atribui indiretamente um valor aos modelos, recompensando aqueles que têm um bom desempenho. Na prática, a “inteligência” de um modelo é transformada em ganhos de TAO, mas não há um NFT que represente os pesos do modelo ou permita que outros o usem. O foco da Gensyn está nas transações de computação, não explicitamente na criação de tokens para modelos. Um modelo na Gensyn é tipicamente fornecido por um desenvolvedor off-chain (talvez de código aberto ou proprietário), treinado por solvers e devolvido – não há um mecanismo integrado para criar um token que possua o modelo ou a sua propriedade intelectual. (Dito isto, o mercado da Gensyn poderia potencialmente facilitar a negociação de artefactos ou checkpoints de modelos se as partes assim o desejarem, mas o protocolo em si vê os modelos como o conteúdo da computação, em vez de um ativo tokenizado.) A Cuckoo situa-se algures no meio: fala de “agentes de IA” e modelos integrados na rede, mas atualmente não há um token não fungível que represente cada modelo. Em vez disso, um modelo é implementado por um construtor de aplicações e depois servido através da rede. Os direitos de uso desse modelo são implicitamente tokenizados, na medida em que o modelo pode ganhar $CAI quando é usado (através do coordenador que o implementa). Todas as três plataformas reconhecem o conceito de tokenização de modelos – por exemplo, dar às comunidades a propriedade de modelos através de tokens – mas as implementações práticas são limitadas. Como indústria, a tokenização de modelos de IA (por exemplo, como NFTs com direitos de propriedade e partilha de lucros) ainda está a ser explorada. A abordagem do Bittensor de modelos a trocarem valor entre si é uma forma de “mercado de modelos” sem um token explícito por modelo. A equipa da Cuckoo observa que a propriedade descentralizada de modelos é promissora para reduzir as barreiras em comparação com a IA centralizada, mas requer métodos eficazes para verificar os resultados e o uso dos modelos on-chain. Em resumo, o poder computacional é imediatamente tokenizado (é simples pagar tokens por trabalho feito), enquanto os modelos são indireta ou aspiracionalmente tokenizados (recompensados pelos seus resultados, possivelmente representados por stake ou reputação, mas ainda não tratados como NFTs transferíveis nestas plataformas).

  • Dados: A tokenização de dados continua a ser a mais difícil. Nenhum dos projetos Bittensor, Gensyn ou Cuckoo tem mercados de dados on-chain totalmente generalizados e integrados (onde conjuntos de dados são negociados com direitos de uso aplicáveis). Os nós do Bittensor podem treinar em vários conjuntos de dados, mas esses conjuntos de dados não fazem parte do sistema on-chain. A Gensyn pode permitir que um desenvolvedor forneça um conjunto de dados para treinamento, mas o protocolo não tokeniza esses dados – são simplesmente fornecidos off-chain para o solver usar. A Cuckoo, da mesma forma, não tokeniza os dados do utilizador; lida principalmente com dados (como prompts ou resultados de utilizadores) de forma transitória para tarefas de inferência. O blog da Cuckoo afirma explicitamente que “os dados descentralizados continuam a ser um desafio para tokenizar” apesar de serem um recurso crítico. Os dados são sensíveis (questões de privacidade e propriedade) e difíceis de manusear com a tecnologia blockchain atual. Assim, enquanto a computação está a ser comoditizada e os modelos começam a sê-lo, os dados permanecem em grande parte off-chain, exceto em casos especiais (alguns projetos fora destes três estão a experimentar uniões de dados e recompensas em tokens por contribuições de dados, mas isso está fora do nosso âmbito atual). Em resumo, o poder computacional é agora uma mercadoria on-chain nestas redes, os modelos são valorizados através de tokens, mas ainda não tokenizados individualmente como ativos, e a tokenização de dados ainda é um problema em aberto (além de reconhecer a sua importância).

Governança e Incentivos

Um design robusto de governança e incentivos é crucial para que estas redes de IA descentralizadas funcionem de forma autónoma e justa. Aqui, examinamos como cada plataforma se governa (quem toma as decisões, como ocorrem as atualizações ou alterações de parâmetros) e como alinham os incentivos dos participantes através da economia de tokens.

  • Governança do Bittensor: Nas suas fases iniciais, o desenvolvimento e os parâmetros das sub-redes do Bittensor eram em grande parte controlados pela equipa principal e por um conjunto de 64 validadores “raiz” na sub-rede principal. Este era um ponto de centralização – alguns validadores poderosos tinham uma influência desproporcional na alocação de recompensas, levando ao que alguns chamaram de “sistema de votação oligárquico”. Para resolver isto, o Bittensor introduziu a governança dTAO (TAO descentralizado) em 2025. O sistema dTAO mudou a alocação de recursos para ser impulsionada pelo mercado e controlada pela comunidade. Concretamente, os detentores de TAO podem fazer stake dos seus tokens em pools de liquidez específicos de sub-redes (essencialmente, eles “votam” em quais sub-redes devem receber mais emissões da rede) e recebem tokens alfa que representam a propriedade nesses pools de sub-redes. As sub-redes que atraem mais stake terão um preço de token alfa mais alto e receberão uma fatia maior da emissão diária de TAO, enquanto as sub-redes impopulares ou com baixo desempenho verão o capital (e, portanto, as emissões) a afastar-se. Isto cria um ciclo de feedback: se uma sub-rede produz serviços de IA valiosos, mais pessoas fazem stake de TAO nela (procurando recompensas), o que dá a essa sub-rede mais TAO para recompensar os seus participantes, fomentando o crescimento. Se uma sub-rede estagnar, os stakers retiram-se para sub-redes mais lucrativas. Na prática, os detentores de TAO governam coletivamente o foco da rede ao sinalizarem financeiramente quais domínios de IA merecem mais recursos. Esta é uma forma de governança on-chain por peso de token, alinhada com os resultados económicos. Além da alocação de recursos, grandes atualizações de protocolo ou alterações de parâmetros provavelmente ainda passam por propostas de governança onde os detentores de TAO votam (o Bittensor tem um mecanismo para propostas e referendos on-chain geridos pela Fundação Bittensor e um conselho eleito, semelhante à governança do Polkadot). Com o tempo, pode-se esperar que a governança do Bittensor se torne cada vez mais descentralizada, com a fundação a recuar à medida que a comunidade (através do stake de TAO) orienta coisas como a taxa de inflação, a aprovação de novas sub-redes, etc. A transição para o dTAO é um grande passo nessa direção, substituindo os decisores centralizados por um mercado de detentores de tokens alinhado por incentivos.

  • Incentivos do Bittensor: A estrutura de incentivos do Bittensor está intimamente ligada ao seu consenso. A cada bloco (12 segundos), exatamente 1 TAO é recém-criado e dividido entre os contribuidores de cada sub-rede com base no desempenho. A divisão padrão para a recompensa de bloco de cada sub-rede é 41% para os mineradores, 41% para os validadores e 18% para o proprietário da sub-rede. Isto garante que todos os papéis são recompensados: os mineradores ganham por fazer o trabalho de inferência, os validadores ganham pelo seu esforço de avaliação, e os proprietários de sub-redes (que podem ter iniciado os dados/tarefa para essa sub-rede) ganham um resíduo por fornecerem o “mercado” ou o design da tarefa. Essas percentagens são fixas no protocolo e visam alinhar os incentivos de todos para uma produção de IA de alta qualidade. O mecanismo de consenso Yuma refina ainda mais os incentivos ao ponderar as recompensas de acordo com as pontuações de qualidade – um minerador que fornece melhores respostas (conforme o consenso dos validadores) obtém uma porção maior desses 41%, e um validador que segue de perto o consenso honesto obtém mais da porção do validador. Os maus desempenhos são eliminados economicamente. Além disso, os delegadores (stakers) que apoiam um minerador ou validador normalmente recebem uma parte dos ganhos desse nó (os nós geralmente definem uma comissão e dão o resto aos seus delegadores, semelhante ao staking em redes PoS). Isto permite que os detentores passivos de TAO apoiem os melhores contribuidores e ganhem rendimento, reforçando ainda mais a meritocracia. O token do Bittensor (TAO) é, portanto, um token de utilidade: é necessário para o registo de novos mineradores (os mineradores devem gastar uma pequena quantidade de TAO para se juntarem, o que combate o spam sybil) e pode ser colocado em stake para aumentar a influência ou ganhar através da delegação. Também é previsto como um token de pagamento se utilizadores externos quiserem consumir serviços da rede do Bittensor (por exemplo, pagar TAO para consultar um modelo de linguagem no Bittensor), embora o mecanismo de recompensa interno tenha sido a principal “economia” até agora. A filosofia geral de incentivos é recompensar a “inteligência valiosa” – ou seja, modelos que ajudam a produzir bons resultados de IA – e criar uma competição que melhora continuamente a qualidade dos modelos na rede.

  • Governança da Gensyn: O modelo de governança da Gensyn está estruturado para evoluir do controlo da equipa principal para o controlo da comunidade à medida que a rede amadurece. Inicialmente, a Gensyn terá uma Fundação Gensyn e um conselho eleito que supervisionarão as atualizações do protocolo e as decisões do tesouro. Espera-se que este conselho seja composto por membros da equipa principal e líderes comunitários iniciais. A Gensyn planeia um Evento de Geração de Tokens (TGE) para o seu token nativo (frequentemente referido como GENS), após o qual o poder de governança passaria cada vez mais para as mãos dos detentores de tokens através de votação on-chain. O papel da fundação é representar os interesses do protocolo e garantir uma transição suave para a descentralização total. Na prática, a Gensyn provavelmente terá mecanismos de proposta on-chain onde alterações de parâmetros (por exemplo, duração do jogo de verificação, taxas) ou atualizações são votadas pela comunidade. Como a Gensyn está a ser implementada como um rollup do Ethereum, a governança também pode estar ligada à segurança do Ethereum (por exemplo, usando chaves de atualização para o contrato do rollup que eventualmente são entregues a uma DAO de detentores de tokens). A secção de descentralização e governança do litepaper da Gensyn enfatiza que o protocolo deve, em última análise, ser de propriedade global, alinhando-se com o ethos de que a “rede para inteligência de máquina” deve pertencer aos seus utilizadores e contribuidores. Em resumo, a governança da Gensyn começa semi-centralizada, mas está arquitetada para se tornar uma DAO onde os detentores de tokens GENS (potencialmente ponderados por stake ou participação) tomam decisões coletivamente.

  • Incentivos da Gensyn: Os incentivos económicos na Gensyn são dinâmicas de mercado diretas, complementadas por segurança criptoeconómica. Os desenvolvedores (clientes) pagam por tarefas de ML no token Gensyn, e os Solvers ganham tokens ao completar essas tarefas corretamente. O preço dos ciclos de computação é determinado por um mercado aberto – presumivelmente, os desenvolvedores podem colocar tarefas com uma recompensa e os solvers podem licitar ou simplesmente aceitá-la se o preço corresponder às suas expectativas. Isto garante que, enquanto houver oferta de GPUs ociosas, a competição levará o custo a uma taxa justa (a equipa da Gensyn projeta uma redução de custos de até 80% em comparação com os preços da nuvem, pois a rede encontra o hardware disponível mais barato globalmente). Por outro lado, os solvers têm o incentivo de ganhar tokens por trabalho; o seu hardware que, de outra forma, estaria ocioso, agora gera receita. Para garantir a qualidade, a Gensyn exige que os solvers coloquem colateral em stake quando assumem um trabalho – se eles trapacearem ou produzirem um resultado incorreto e forem apanhados, perdem esse stake (pode ser cortado e atribuído ao verificador honesto). Os verificadores são incentivados pela chance de ganhar uma recompensa “jackpot” se apanharem um solver fraudulento, semelhante ao design do Truebit de recompensar periodicamente os verificadores que identificam com sucesso computações incorretas. Isto mantém os solvers honestos e motiva alguns nós a agirem como vigilantes. Num cenário ótimo (sem trapaça), os solvers simplesmente ganham a taxa da tarefa e o papel do verificador fica maioritariamente ocioso (ou um dos solvers participantes pode também atuar como verificador de outros). O token da Gensyn serve, portanto, como moeda de gás para comprar computação e como colateral de stake que protege o protocolo. O litepaper menciona uma testnet com tokens não permanentes e que os participantes iniciais da testnet serão recompensados no TGE com tokens reais. Isto indica que a Gensyn alocou alguma oferta de tokens para bootstrapping – recompensando os primeiros adotantes, solvers de teste e membros da comunidade. A longo prazo, as taxas de trabalhos reais devem sustentar a rede. Pode também haver uma pequena taxa de protocolo (uma percentagem de cada pagamento de tarefa) que vai para um tesouro ou é queimada; este detalhe ainda não está confirmado, mas muitos protocolos de mercado incluem uma taxa para financiar o desenvolvimento ou a compra e queima de tokens. Em resumo, os incentivos da Gensyn alinham-se em torno da conclusão honesta de trabalhos de ML: faça o trabalho, seja pago; tente trapacear, perca o stake; verifique os outros, ganhe se apanhar trapaças. Isto cria um sistema económico auto-policiado, destinado a alcançar uma computação distribuída fiável.

  • Governança da Cuckoo: A Cuckoo Network integrou a governança no seu ecossistema desde o primeiro dia, embora ainda esteja em fase de desenvolvimento. O token $CAI é explicitamente um token de governança, além dos seus papéis de utilidade. A filosofia da Cuckoo é que os operadores de nós de GPU, os desenvolvedores de aplicações e até os utilizadores finais devem ter uma palavra a dizer na evolução da rede – refletindo a sua visão impulsionada pela comunidade. Na prática, decisões importantes (como atualizações de protocolo ou alterações económicas) seriam decididas por votos ponderados por tokens, presumivelmente através de um mecanismo de DAO. Por exemplo, a Cuckoo poderia realizar votações on-chain para alterar a distribuição de recompensas ou adotar uma nova funcionalidade, e os detentores de $CAI (incluindo mineradores, desenvolvedores e utilizadores) votariam. A votação on-chain já é usada como um sistema de reputação: a Cuckoo exige que cada papel faça stake de tokens, e depois os membros da comunidade podem votar (talvez delegando stake ou através de módulos de governança) em quais coordenadores ou mineradores são confiáveis. Isto afeta as pontuações de reputação e pode influenciar o agendamento de tarefas (por exemplo, um coordenador com mais votos pode atrair mais utilizadores, ou um minerador com mais votos pode receber mais tarefas). É uma mistura de governança e incentivo – usar tokens de governança para estabelecer confiança. A Fundação Cuckoo ou a equipa principal tem guiado a direção do projeto até agora (por exemplo, tomando a recente decisão de descontinuar a cadeia L1), mas o seu blog indica um compromisso em avançar para a propriedade descentralizada. Eles identificaram que executar a sua própria cadeia incorria em altos custos e que a mudança para um rollup permitirá um desenvolvimento mais aberto e integração com ecossistemas existentes. É provável que, uma vez numa camada partilhada (como o Ethereum), a Cuckoo implemente uma DAO mais tradicional para atualizações, com a comunidade a votar usando CAI.

  • Incentivos da Cuckoo: O design de incentivos para a Cuckoo tem duas fases: a fase inicial de bootstrapping com alocações fixas de tokens, e um estado futuro com partilha de receitas impulsionada pelo uso. No lançamento, a Cuckoo realizou uma distribuição de “lançamento justo” de 1 bilião de tokens CAI. 51% da oferta foi reservada para a comunidade, alocada como:

    • Recompensas de Mineração: 30% da oferta total reservada para pagar aos mineradores de GPU por realizarem tarefas de IA.
    • Recompensas de Staking: 11% da oferta para aqueles que fazem stake e ajudam a proteger a rede.
    • Airdrops: 5% para os primeiros utilizadores e membros da comunidade como um incentivo à adoção.
    • (Outros 5% foram para subsídios a desenvolvedores para encorajar a construção na Cuckoo.)

    Esta grande alocação significa que, na rede inicial, os mineradores e stakers foram recompensados de um pool de emissão, mesmo que a procura real dos utilizadores fosse baixa. De facto, a fase inicial da Cuckoo apresentou altos rendimentos APY para staking e mineração, o que atraiu com sucesso participantes, mas também “yield farmers” que estavam lá apenas pelos tokens. A equipa notou que muitos utilizadores saíram assim que as taxas de recompensa caíram, indicando que esses incentivos não estavam ligados ao uso genuíno. Tendo aprendido com isso, a Cuckoo está a mudar para um modelo onde as recompensas se correlacionam diretamente com a carga de trabalho real de IA. No futuro (e parcialmente já), quando um utilizador final paga por uma inferência de IA, esse pagamento (em CAI ou possivelmente outro token aceite convertido para CAI) será dividido entre os contribuidores:

    • Mineradores de GPU receberão a maior parte pela computação que forneceram.
    • Coordenador (desenvolvedor da aplicação) ficará com uma porção como o fornecedor de serviço que forneceu o modelo e lidou com o pedido.
    • Stakers que delegaram nesses mineradores ou coordenadores podem receber uma pequena parte ou uma recompensa inflacionária, para continuar a incentivar o apoio a nós fiáveis.
    • Rede/Tesouro pode reter uma taxa para o desenvolvimento contínuo ou para financiar incentivos futuros (ou a taxa pode ser zero/nominal para maximizar a acessibilidade para o utilizador).

    Essencialmente, a Cuckoo está a mover-se para um modelo de partilha de receitas: se uma aplicação de IA na Cuckoo gera ganhos, esses ganhos são distribuídos a todos os contribuidores desse serviço de forma justa. Isto alinha os incentivos para que os participantes beneficiem do uso real em vez de apenas da inflação. A rede já exigia que todas as partes fizessem stake de CAI – isto significa que os mineradores e coordenadores não ganham apenas uma recompensa fixa, mas também possivelmente recompensas baseadas em stake (por exemplo, um coordenador pode ganhar recompensas mais altas se muitos utilizadores fizerem stake nele ou se ele próprio fizer mais stake, semelhante a como os validadores de prova de participação ganham). Em termos de incentivos para os utilizadores, a Cuckoo também introduziu coisas como um portal de airdrop e faucets (que alguns utilizadores exploraram) para semear a atividade inicial. No futuro, os utilizadores podem ser incentivados através de reembolsos em tokens por usarem os serviços ou através de recompensas de governança por participarem na curadoria (por exemplo, talvez ganhando pequenos tokens por avaliarem resultados ou contribuírem com dados). A linha de fundo é que o token da Cuckoo ($CAI) é multifuncional: é o token de gás/taxa na cadeia (todas as transações e pagamentos o usam), é usado para staking e votação, e é a unidade de recompensa pelo trabalho feito. A Cuckoo menciona explicitamente que quer ligar as recompensas de tokens a KPIs de nível de serviço (indicadores-chave de desempenho) – por exemplo, tempo de atividade, débito de consultas, satisfação do utilizador – para evitar incentivos puramente especulativos. Isto reflete um amadurecimento da economia de tokens, de uma simples mineração de liquidez para um modelo mais sustentável e impulsionado pela utilidade.

Propriedade de Modelos e Atribuição de PI

Lidar com a propriedade intelectual (PI) e os direitos de propriedade de modelos de IA é um aspeto complexo das redes de IA descentralizadas. Cada plataforma adotou uma postura ligeiramente diferente, e geralmente esta é uma área em evolução sem uma solução completa ainda:

  • Bittensor: Os modelos no Bittensor são fornecidos pelos nós mineradores, e esses mineradores mantêm o controlo total sobre os pesos dos seus modelos (que nunca são publicados on-chain). O Bittensor não rastreia explicitamente quem “possui” um modelo, além do facto de que ele está a ser executado num determinado endereço de carteira. Se um minerador sair, o seu modelo sai com ele. Assim, a atribuição de PI no Bittensor é off-chain: se um minerador usa um modelo proprietário, não há nada on-chain que imponha ou sequer saiba disso. A filosofia do Bittensor incentiva contribuições abertas (muitos mineradores podem usar modelos de código aberto como GPT-J ou outros) e a rede recompensa o desempenho desses modelos. Poder-se-ia dizer que o Bittensor cria uma pontuação de reputação para os modelos (através das classificações dos validadores), e isso é uma forma de reconhecer o valor do modelo, mas os direitos sobre o modelo em si não são tokenizados ou distribuídos. Notavelmente, os proprietários de sub-redes no Bittensor podem ser vistos como possuidores de uma parte da PI: eles definem uma tarefa (que pode incluir um conjunto de dados ou método). O proprietário da sub-rede cria um NFT (chamado de UID de sub-rede) ao criar uma sub-rede, e esse NFT dá-lhes direito a 18% das recompensas nessa sub-rede. Isto efetivamente tokeniza a criação de um mercado de modelos (a sub-rede), se não as instâncias do modelo. Se considerarmos a definição da sub-rede (digamos, uma tarefa de reconhecimento de fala com um conjunto de dados específico) como PI, isso é pelo menos registado e recompensado. Mas os pesos individuais dos modelos que os mineradores treinam – não há um registo de propriedade on-chain deles. A atribuição vem na forma de recompensas pagas ao endereço desse minerador. O Bittensor atualmente não implementa um sistema onde, por exemplo, várias pessoas possam possuir conjuntamente um modelo e obter uma partilha de receitas automática – a pessoa que executa o modelo (minerador) recebe a recompensa e cabe a ela, off-chain, honrar quaisquer licenças de PI do modelo que usou.

  • Gensyn: Na Gensyn, a propriedade do modelo é direta, na medida em que o submitter (aquele que quer um modelo treinado) fornece a arquitetura do modelo e os dados, e após o treinamento, ele recebe o artefacto do modelo resultante. Os solvers que realizam o trabalho não têm direitos sobre o modelo; são como contratados a serem pagos por um serviço. O protocolo da Gensyn assume, portanto, o modelo de PI tradicional: se você tinha direitos legais sobre o modelo e os dados que submeteu, ainda os tem depois de treinado – a rede de computação não reivindica qualquer propriedade. A Gensyn menciona que o mercado também poderia negociar algoritmos e dados como qualquer outro recurso. Isto sugere um cenário onde alguém poderia oferecer um modelo ou algoritmo para uso na rede, possivelmente por uma taxa, tokenizando assim o acesso a esse modelo. Por exemplo, um criador de modelos poderia colocar o seu modelo pré-treinado na Gensyn e permitir que outros o ajustassem através da rede por uma taxa (isto monetizaria efetivamente a PI do modelo). Embora o protocolo não imponha termos de licença, poder-se-ia codificar requisitos de pagamento: um contrato inteligente poderia exigir uma taxa para desbloquear os pesos do modelo para um solver. No entanto, estes são casos de uso especulativos – o design principal da Gensyn é sobre permitir trabalhos de treinamento. Quanto à atribuição, se várias partes contribuírem para um modelo (digamos, uma fornece dados, outra fornece computação), isso provavelmente seria tratado por qualquer contrato ou acordo que eles estabelecessem antes de usar a Gensyn (por exemplo, um contrato inteligente poderia dividir o pagamento entre o fornecedor de dados e o fornecedor de computação). A Gensyn em si não rastreia “este modelo foi construído por X, Y, Z” on-chain, além do registo de quais endereços foram pagos pelo trabalho. Em suma, a PI do modelo na Gensyn permanece com o submitter, e qualquer atribuição ou licenciamento deve ser tratado através de acordos legais fora do protocolo ou através de contratos inteligentes personalizados construídos sobre ele.

  • Cuckoo: No ecossistema da Cuckoo, os criadores de modelos (construtores de aplicações de IA) são participantes de primeira classe – eles implementam o serviço de IA. Se um construtor de aplicações ajusta um modelo de linguagem ou desenvolve um modelo personalizado e o aloja na Cuckoo, esse modelo é essencialmente sua propriedade e eles atuam como o proprietário do serviço. A Cuckoo não se apropria de nenhuma propriedade; em vez disso, fornece a infraestrutura para que eles monetizem o uso. Por exemplo, se um desenvolvedor implementa uma IA de chatbot, os utilizadores podem interagir com ela e o desenvolvedor (mais os mineradores) ganham CAI de cada interação. A plataforma atribui, assim, a receita de uso ao criador do modelo, mas não publica explicitamente os pesos do modelo nem os transforma num NFT. Na verdade, para executar o modelo nas GPUs dos mineradores, o nó coordenador provavelmente tem de enviar o modelo (ou o tempo de execução) ao minerador de alguma forma. Isto levanta questões de PI: poderia um minerador malicioso copiar os pesos do modelo e distribuí-los? Numa rede descentralizada, esse risco existe se forem usados modelos proprietários. O foco atual da Cuckoo tem sido em modelos razoavelmente abertos (Stable Diffusion, modelos derivados do LLaMA, etc.) e na construção de uma comunidade, por isso ainda não vimos uma aplicação de direitos de PI através de contratos inteligentes. A plataforma poderia potencialmente integrar ferramentas como execução de modelos encriptados ou enclaves seguros no futuro para proteção de PI, mas nada específico é mencionado na documentação. O que ela rastreia é quem forneceu o serviço de modelo para cada tarefa – como o coordenador é uma identidade on-chain, todo o uso do seu modelo é contabilizado para ele, e ele recebe automaticamente a sua parte das recompensas. Se alguém fosse entregar ou vender um modelo a outra pessoa, efetivamente transferiria o controlo do nó coordenador (talvez até mesmo dando-lhe a chave privada ou o NFT se o papel de coordenador fosse tokenizado). Atualmente, a propriedade comunitária de modelos (através de participações em tokens) não está implementada, mas a visão da Cuckoo aponta para uma IA descentralizada impulsionada pela comunidade, então eles podem explorar a possibilidade de permitir que as pessoas financiem ou governem coletivamente um modelo de IA. A tokenização de modelos para além da propriedade individual ainda é uma área em aberto nestas redes – é reconhecida como um objetivo (permitir que as comunidades possuam modelos de IA em vez de corporações), mas na prática requer soluções para os desafios de PI e verificação acima mencionados.

Em resumo, a propriedade de modelos no Bittensor, Gensyn e Cuckoo é tratada off-chain por meios tradicionais: a pessoa ou entidade que executa ou submete o modelo é efetivamente o proprietário. As redes fornecem atribuição na forma de recompensas económicas (pagando ao contribuidor do modelo pela sua PI ou esforço). Nenhuma das três tem uma licença ou aplicação de royalties integrada no uso de modelos ao nível do contrato inteligente ainda. A atribuição vem através da reputação e da recompensa: por exemplo, os melhores modelos do Bittensor ganham altas pontuações de reputação (que é um registo público) e mais TAO, o que é um crédito implícito aos seus criadores. Com o tempo, podemos ver funcionalidades como pesos de modelo vinculados a NFTs ou licenças descentralizadas para melhor rastrear a PI, mas atualmente a prioridade tem sido fazer as redes funcionarem e incentivarem as contribuições. Todos concordam que verificar a proveniência e os resultados dos modelos é fundamental para permitir verdadeiros mercados de ativos de modelos, e a pesquisa está em andamento nessa direção.

Estruturas de Partilha de Receitas

Todas as três plataformas devem decidir como dividir o bolo económico quando várias partes colaboram para produzir um resultado de IA valioso. Quem é pago, e quanto, quando um serviço de IA é usado ou quando os tokens são emitidos? Cada uma tem um modelo de partilha de receitas distinto:

  • Bittensor: Como mencionado em incentivos, a distribuição de receitas do Bittensor é definida pelo protocolo ao nível do bloco: 41% para os mineradores, 41% para os validadores, 18% para o proprietário da sub-rede para cada emissão de TAO do bloco. Isto é efetivamente uma divisão de receitas integrada para o valor gerado em cada sub-rede. A parte do proprietário da sub-rede (18%) funciona como um royalty pelo “design do modelo/tarefa” ou por iniciar o ecossistema dessa sub-rede. Mineradores e validadores a receberem partes iguais garante que, sem validação, os mineradores não são recompensados (e vice-versa) – eles são simbióticos e cada um recebe uma porção igual das recompensas criadas. Se considerarmos um utilizador externo a pagar TAO para consultar um modelo, o whitepaper do Bittensor prevê que esse pagamento também seja dividido de forma semelhante entre o minerador que responde e os validadores que ajudaram a verificar a resposta (a divisão exata poderia ser determinada pelo protocolo ou pelas forças de mercado). Além disso, os delegadores que fazem stake em mineradores/validadores são efetivamente parceiros – tipicamente, um minerador/validador partilhará uma percentagem do seu TAO ganho com os seus delegadores (isto é configurável, mas muitas vezes a maioria vai para os delegadores). Assim, se um minerador ganhasse 1 TAO de um bloco, isso poderia ser dividido 80/20 entre os seus delegadores e ele próprio, por exemplo, com base no stake. Isto significa que mesmo os não operadores recebem uma parte da receita da rede proporcional ao seu apoio. Com a introdução do dTAO, outra camada de partilha foi adicionada: aqueles que fazem stake no pool de uma sub-rede recebem tokens alfa, que lhes dão direito a algumas das emissões dessa sub-rede (como yield farming). Na prática, qualquer pessoa pode ter uma participação no sucesso de uma sub-rede específica e receber uma fração das recompensas de minerador/validador ao deter tokens alfa (os tokens alfa valorizam à medida que a sub-rede atrai mais uso e emissões). Em suma, a partilha de receitas do Bittensor é fixada por código para os papéis principais, e partilhada adicionalmente por arranjos sociais/de staking. É uma divisão relativamente transparente e baseada em regras – a cada bloco, os participantes sabem exatamente como o 1 TAO é alocado, e assim conhecem os seus “ganhos” por contribuição. Esta clareza é uma das razões pelas quais o Bittensor é por vezes comparado ao Bitcoin para IA – uma emissão monetária determinística onde a recompensa dos participantes é definida matematicamente.

  • Gensyn: A partilha de receitas na Gensyn é mais dinâmica e impulsionada pelo mercado, uma vez que as tarefas são precificadas individualmente. Quando um submitter cria um trabalho, ele anexa uma recompensa (digamos, X tokens) que está disposto a pagar. Um solver que completa o trabalho recebe esse X (menos qualquer taxa de rede). Se um verifier estiver envolvido, tipicamente há uma regra como: se nenhuma fraude for detetada, o solver mantém o pagamento total; se a fraude for detetada, o solver é penalizado – perdendo parte ou todo o seu stake – e esse montante penalizado é dado ao verifier como recompensa. Portanto, os verificadores não ganham de todas as tarefas, apenas quando apanham um mau resultado (mais possivelmente uma pequena taxa base por participarem, dependendo da implementação). Não há um conceito integrado de pagar a um proprietário de modelo aqui, porque a suposição é que o submitter ou é o proprietário do modelo ou tem direitos para usá-lo. Poder-se-ia imaginar um cenário onde um submitter está a ajustar o modelo pré-treinado de outra pessoa e uma porção do pagamento vai para o criador original do modelo – mas isso teria de ser tratado fora do protocolo (por exemplo, por um acordo ou um contrato inteligente separado que divide o pagamento do token em conformidade). A partilha ao nível do protocolo da Gensyn é essencialmente cliente -> solver (-> verifier). O modelo de token provavelmente inclui alguma alocação para o tesouro ou fundação do protocolo; por exemplo, uma pequena percentagem do pagamento de cada tarefa pode ir para um tesouro que poderia ser usado para financiar o desenvolvimento ou pools de seguro (isto não é explicitamente declarado nos documentos disponíveis, mas muitos protocolos fazem-no). Além disso, no início, a Gensyn pode subsidiar os solvers através da inflação: os utilizadores da testnet têm prometidas recompensas no TGE, o que é efetivamente uma partilha de receitas da distribuição inicial de tokens (os primeiros solvers e apoiantes recebem uma parte dos tokens por ajudarem a iniciar, semelhante a um airdrop ou recompensa de mineração). Com o tempo, à medida que os trabalhos reais dominam, as recompensas inflacionárias diminuiriam, e o rendimento dos solvers viria principalmente dos pagamentos dos utilizadores. A abordagem da Gensyn pode ser resumida como um modelo de receita de taxa por serviço: a rede facilita um pagamento direto daqueles que precisam de trabalho feito para aqueles que fazem o trabalho, com os verificadores e possivelmente os stakers de tokens a receberem uma parte apenas quando desempenham um papel na segurança desse serviço.

  • Cuckoo: A partilha de receitas da Cuckoo evoluiu. Inicialmente, como não havia muitos utilizadores finais pagantes, a partilha de receitas era essencialmente uma partilha de inflação: as alocações de 30% para mineração e 11% para staking da oferta de tokens significavam que os mineradores e stakers estavam a partilhar os tokens emitidos pelo pool de lançamento justo da rede. Na prática, a Cuckoo realizava coisas como pagamentos diários de CAI aos mineradores proporcionais às tarefas concluídas. Esses pagamentos vinham em grande parte da alocação de recompensa de mineração (que faz parte da oferta fixa reservada). Isto é semelhante a como muitas blockchains de Camada 1 distribuem recompensas de bloco aos mineradores/validadores – não estava ligado ao uso real por utilizadores externos, era mais para incentivar a participação e o crescimento. No entanto, como destacado no seu blog de julho de 2025, isto levou a um uso que era incentivado pela agricultura de tokens em vez de uma procura real. A próxima fase para a Cuckoo é um verdadeiro modelo de partilha de receitas baseado em taxas de serviço. Neste modelo, quando um utilizador final usa, digamos, o serviço de geração de imagens e paga $1 (em termos de cripto), esse $1 em tokens seria dividido talvez assim: 0,70 para o minerador que fez o trabalho de GPU, 0,20 para o desenvolvedor da aplicação (coordenador) que forneceu o modelo e a interface, e 0,10 para os stakers ou o tesouro da rede. (Nota: as proporções exatas são hipotéticas; a Cuckoo ainda não as especificou publicamente, mas isto ilustra o conceito.) Desta forma, todos os contribuidores para a entrega do serviço recebem uma parte da receita. Isto é análogo, por exemplo, a uma economia de partilha de viagens mas para IA: o veículo (minerador de GPU) recebe a maioria, o motorista ou plataforma (coordenador que construiu o serviço de modelo) recebe uma parte, e talvez a governança/stakers da plataforma recebam uma pequena taxa. A menção da Cuckoo a “modelos de partilha de receitas e recompensas de tokens diretamente ligadas a métricas de uso” sugere que se um serviço ou nó específico lidar com um grande volume, os seus operadores e apoiantes ganharão mais. Eles estão a afastar-se dos rendimentos fixos apenas por bloquear tokens (que era o caso com o seu APY de staking inicialmente). Em termos concretos: se você fizer stake num coordenador que acaba por alimentar uma aplicação de IA muito popular, poderá ganhar uma porção das taxas dessa aplicação – um verdadeiro cenário de staking como investimento em utilidade, em vez de staking apenas por inflação. Isto alinha os incentivos de todos para atrair utilizadores reais que pagam por serviços de IA, o que por sua vez devolve valor aos detentores de tokens. Vale a pena notar que a cadeia da Cuckoo também tinha taxas para transações (gás), então os mineradores que produziam blocos (inicialmente os mineradores de GPU também contribuíam para a produção de blocos na cadeia Cuckoo) também recebiam taxas de gás. Com o encerramento da cadeia e a migração para um rollup, as taxas de gás provavelmente serão mínimas (ou no Ethereum), então a principal receita torna-se as próprias taxas de serviço de IA. Em resumo, a Cuckoo está a transitar de um modelo impulsionado por subsídios (a rede paga aos participantes do seu pool de tokens) para um modelo impulsionado pela procura (os participantes ganham de pagamentos reais de utilizadores). O token ainda desempenhará um papel no staking e na governança, mas os ganhos diários dos mineradores e desenvolvedores de aplicações devem vir cada vez mais de utilizadores que compram serviços de IA. Este modelo é mais sustentável a longo prazo e espelha de perto a partilha de receitas SaaS da Web2, mas implementado através de contratos inteligentes e tokens para transparência.

Superfícies de Ataque e Vulnerabilidades

A descentralização da IA introduz vários desafios de incentivo e segurança. Analisamos agora os principais vetores de ataque – ataques sybil, conluio, parasitismo e envenenamento de dados/modelos – e como cada plataforma os mitiga ou permanece vulnerável a eles:

  • Ataques Sybil (identidades falsas): Numa rede aberta, um atacante pode criar muitas identidades (nós) para obter recompensas ou influência desproporcionais.

    • Bittensor: A resistência a ataques sybil é fornecida principalmente pelo custo de entrada. Para registar um novo minerador ou validador no Bittensor, é necessário gastar ou fazer stake de TAO – isto pode ser um requisito de queima ou de depósito. Isto significa que criar N nós falsos incorre em N vezes o custo, tornando grandes enxames sybil caros. Além disso, o consenso do Bittensor liga a influência ao stake e ao desempenho; um sybil sem stake ou com mau desempenho ganha pouco. Um atacante teria de investir pesadamente e também fazer com que os seus nós sybil contribuíssem com trabalho útil para obter qualquer recompensa significativa (o que não é uma estratégia sybil típica). Dito isto, se um atacante tiver muito capital, ele poderia adquirir a maioria do TAO e registar muitos validadores ou mineradores – efetivamente um sybil por riqueza. Isto sobrepõe-se ao cenário de ataque de 51%: se uma única entidade controlar >50% do TAO em stake numa sub-rede, eles podem influenciar fortemente o consenso. A introdução do dTAO pelo Bittensor ajuda um pouco aqui: espalha a influência por sub-redes e requer o apoio de staking da comunidade para que as sub-redes prosperem, tornando mais difícil para uma entidade controlar tudo. Ainda assim, ataques sybil por um adversário bem financiado continuam a ser uma preocupação – a análise do Arxiv nota explicitamente que o stake está bastante concentrado agora, então a barreira para um ataque de maioria não é tão alta quanto desejado. Para mitigar isto, foram sugeridas propostas como limites de stake por carteira (por exemplo, limitar o stake efetivo no 88º percentil para evitar que uma carteira domine). Em resumo, o Bittensor depende da identidade ponderada por stake (não se pode criar identidades baratas sem stake proporcional) para lidar com sybils; é razoavelmente eficaz, exceto sob um atacante muito engenhoso.
    • Gensyn: Ataques sybil na Gensyn manifestar-se-iam como um atacante a criar muitos nós solver ou verifier para manipular o sistema. A defesa da Gensyn é puramente económica e criptográfica – as identidades em si não importam, mas fazer trabalho ou colocar colateral sim. Se um atacante criar 100 nós solver falsos, mas eles não tiverem trabalhos ou stake, não conseguem nada. Para ganhar tarefas, um nó sybil teria de licitar competitivamente e ter o hardware para fazer o trabalho. Se eles licitarem abaixo do preço sem capacidade, falharão e perderão o stake. Da mesma forma, um atacante poderia criar muitas identidades de verificador na esperança de ser escolhido para verificar (se o protocolo selecionar verificadores aleatoriamente). Mas se houver muitos, a rede ou o publicador do trabalho pode limitar o número de verificadores ativos. Além disso, os verificadores precisam potencialmente de realizar a computação para verificá-la, o que é dispendioso; ter muitos verificadores falsos não ajuda, a menos que se possa realmente verificar os resultados. Um ângulo sybil mais pertinente na Gensyn é se um atacante tentar encher a rede com trabalhos ou respostas falsas para desperdiçar o tempo dos outros. Isso é mitigado exigindo também um depósito dos submitters (um submitter malicioso que publica trabalhos falsos perde o seu pagamento ou depósito). No geral, o uso de stakes/depósitos obrigatórios e a seleção aleatória para verificação pela Gensyn significa que um atacante ganha pouco ao ter múltiplas identidades, a menos que também traga recursos proporcionais. Torna-se um ataque mais caro em vez de um barato. O modelo de segurança otimista assume pelo menos um verificador honesto – os sybils teriam de sobrecarregar e ser todos os verificadores para trapacear consistentemente, o que novamente volta a possuir a maioria do stake ou do poder computacional. A resistência sybil da Gensyn é, portanto, comparável à de um rollup otimista: enquanto houver um ator honesto, os sybils não podem causar danos sistémicos facilmente.
    • Cuckoo: A prevenção de ataques sybil na Cuckoo depende do staking e da avaliação da comunidade. Cada papel na Cuckoo (minerador, coordenador, até mesmo utilizador em alguns casos) requer o staking de $CAI. Isto aumenta imediatamente o custo das identidades sybil – um atacante que crie 100 mineradores falsos precisaria de adquirir e bloquear stake para cada um. Além disso, o design da Cuckoo tem um elemento humano/comunitário: novos nós precisam de ganhar reputação através de votação on-chain. Um exército sybil de nós novos sem reputação é improvável que receba muitas tarefas ou a confiança dos utilizadores. Os coordenadores, em particular, têm de atrair utilizadores; um coordenador falso sem historial não obteria uso. Para os mineradores, os coordenadores podem ver as suas estatísticas de desempenho (tarefas bem-sucedidas, etc.) no Cuckoo Scan e preferirão mineradores fiáveis. A Cuckoo também tinha um número relativamente pequeno de mineradores (40 GPUs num ponto da beta), então qualquer influxo estranho de muitos nós seria notável. O ponto fraco potencial é se o atacante também explorar o sistema de reputação – por exemplo, eles fazem stake de muito CAI nos seus nós sybil para fazê-los parecer respeitáveis ou criam contas de “utilizador” falsas para se votarem a si mesmos. Isto é teoricamente possível, mas como tudo é curado por tokens, custa tokens fazê-lo (estaria essencialmente a votar com o seu próprio stake nos seus próprios nós). A equipa da Cuckoo também pode ajustar os parâmetros de staking e recompensa se for observado comportamento sybil (especialmente agora que se está a tornar um serviço de rollup mais centralizado; eles podem pausar ou penalizar maus atores). Em suma, os sybils são mantidos à distância ao exigir "pele em jogo" (stake) e precisar de aprovação da comunidade. Ninguém pode simplesmente entrar com centenas de GPUs falsas e colher recompensas sem um investimento significativo que os participantes honestos poderiam gastar melhor em hardware real e stake.
  • Conluio: Aqui consideramos múltiplos participantes a conspirarem para manipular o sistema – por exemplo, validadores e mineradores em conluio no Bittensor, ou solvers e verifiers em conluio na Gensyn, etc.

    • Bittensor: O conluio foi identificado como uma preocupação real. No design original, um punhado de validadores poderia conspirar para sempre votar a favor de certos mineradores ou de si mesmos, distorcendo a distribuição de recompensas injustamente (isto foi observado como concentração de poder na sub-rede raiz). O consenso Yuma oferece alguma defesa: ao tomar uma mediana das pontuações dos validadores e penalizar aqueles que se desviam, impede que um pequeno grupo em conluio impulsione dramaticamente um alvo, a menos que sejam a maioria. Por outras palavras, se 3 de 10 validadores conspirarem para dar a um minerador uma pontuação super alta, mas os outros 7 não, as pontuações discrepantes dos conspiradores são cortadas e a recompensa do minerador é baseada na pontuação mediana (portanto, o conluio não ajuda significativamente). No entanto, se os conspiradores formarem >50% dos validadores (ou >50% do stake entre os validadores), eles efetivamente são o consenso – eles podem concordar em pontuações altas falsas e a mediana refletirá a sua visão. Este é o cenário clássico de ataque de 51%. Infelizmente, o estudo do Arxiv descobriu que algumas sub-redes do Bittensor, onde uma coligação de apenas 1-2% dos participantes (em termos de contagem) controlava a maioria do stake, devido à forte concentração de tokens. Isto significa que o conluio por alguns grandes detentores era uma ameaça credível. A mitigação que o Bittensor está a seguir através do dTAO é democratizar a influência: ao permitir que qualquer detentor de TAO direcione o stake para as sub-redes, dilui o poder de grupos fechados de validadores. Além disso, propostas como staking côncavo (retornos decrescentes para stake excessivo) e limites de stake visam quebrar a capacidade de uma entidade em conluio de acumular demasiado poder de voto. A suposição de segurança do Bittensor agora é semelhante à prova de participação: nenhuma entidade única (ou cartel) a controlar >50% do stake ativo. Enquanto isso se mantiver, o conluio é limitado porque os validadores honestos anularão as pontuações más e os proprietários de sub-redes em conluio não podem aumentar arbitrariamente as suas próprias recompensas. Finalmente, sobre o conluio entre proprietários de sub-redes e validadores (por exemplo, um proprietário de sub-rede a subornar validadores para classificarem bem os mineradores da sua sub-rede), o dTAO remove o controlo direto dos validadores, substituindo-o por decisões dos detentores de tokens. É mais difícil conspirar com “o mercado”, a menos que se compre a oferta de tokens – nesse caso, não é realmente conluio, é uma aquisição. Portanto, a principal técnica anti-conluio do Bittensor é o consenso algorítmico (corte da mediana) e a ampla distribuição de tokens.

    • Gensyn: O conluio na Gensyn provavelmente envolveria um solver e um verifier (ou múltiplos verifiers) a conspirarem para enganar o sistema. Por exemplo, um solver poderia produzir um resultado falso e um verifier em conluio poderia intencionalmente não o desafiar (ou até mesmo atestar que está correto se o protocolo pedisse aos verifiers para assinarem). Para mitigar isto, o modelo de segurança da Gensyn requer pelo menos um verifier honesto. Se todos os verifiers estiverem em conluio com o solver, então um resultado mau passa sem ser desafiado. A Gensyn aborda isto incentivando muitos verifiers independentes (qualquer um pode verificar) e pela teoria dos jogos de que um verifier poderia ganhar uma grande recompensa ao quebrar o conluio e desafiar (porque receberia o stake do solver). Essencialmente, mesmo que haja um grupo a concordar em conspirar, cada membro tem um incentivo para desertar e reivindicar a recompensa para si – esta é uma configuração clássica do Dilema do Prisioneiro. A esperança é que isso mantenha os grupos de conluio pequenos ou ineficazes. Outro conluio potencial é entre múltiplos solvers para aumentar os preços ou monopolizar tarefas. No entanto, como os desenvolvedores podem escolher onde publicar as tarefas (e as tarefas não são unidades idênticas que podem ser facilmente monopolizadas), o conluio de solvers no preço seria difícil de coordenar globalmente – qualquer solver que não estivesse em conluio poderia licitar mais baixo para ganhar o trabalho. A dinâmica de mercado aberto contraria o conluio de preços, assumindo pelo menos alguns participantes competitivos. Mais um ângulo: conluio de verifiers para prejudicar solvers – por exemplo, verifiers a acusarem falsamente solvers honestos para roubar o seu stake. A prova de fraude da Gensyn é binária e on-chain; uma acusação falsa falharia quando a recomputação on-chain não encontrasse erro, e presumivelmente o verifier malicioso perderia então algo (talvez um depósito ou reputação). Portanto, um conluio de verifiers a tentar sabotar solvers seria apanhado pelo processo de verificação do protocolo. Em resumo, a arquitetura da Gensyn é robusta enquanto pelo menos uma parte em qualquer conjunto em conluio tiver um incentivo para ser honesta – uma propriedade da verificação otimista semelhante a exigir um minerador honesto no Bitcoin para eventualmente expor uma fraude. O conluio é teoricamente possível se um atacante puder controlar todos os verifiers e solvers numa tarefa (como a maioria da rede), mas então eles poderiam simplesmente trapacear sem precisar de conluio per se. Os incentivos criptoeconómicos são organizados para tornar a sustentação do conluio irracional.

    • Cuckoo: O conluio na Cuckoo poderia acontecer de algumas maneiras:

      1. Um coordenador em conluio com mineradores – por exemplo, um coordenador poderia sempre atribuir tarefas a um conjunto de mineradores amigos e dividir as recompensas, ignorando outros mineradores honestos. Como os coordenadores têm discrição no agendamento de tarefas, isto pode acontecer. No entanto, se os mineradores amigos forem de qualidade inferior, os utilizadores finais podem notar um serviço lento ou mau e sair, então o coordenador é desincentivado de um favoritismo puro que prejudica a qualidade. Se o conluio for para manipular recompensas (digamos, submeter tarefas falsas para dar tokens aos mineradores), isso seria detetado on-chain (muitas tarefas com talvez entradas idênticas ou nenhum utilizador real) e pode ser penalizado. A transparência on-chain da Cuckoo significa que quaisquer padrões incomuns poderiam ser sinalizados pela comunidade ou pela equipa principal. Além disso, como todos os participantes fazem stake, um anel de coordenador-minerador em conluio corre o risco de perder o seu stake se for apanhado a abusar do sistema (por exemplo, se a governança decidir penalizá-los por fraude).
      2. Mineradores em conluio entre si – eles podem partilhar informações ou formar um cartel para, digamos, todos votarem uns nos outros na reputação ou todos se recusarem a servir um coordenador específico para extrair taxas mais altas. Estes cenários são menos prováveis: a votação de reputação é feita por stakers (incluindo utilizadores), não pelos próprios mineradores a votarem uns nos outros. E recusar serviço apenas levaria os coordenadores a encontrar outros mineradores ou a levantar alarmes. Dada a escala relativamente pequena atualmente, qualquer conluio seria difícil de esconder.
      3. Conluio para manipular a governança – grandes detentores de CAI poderiam conspirar para aprovar propostas a seu favor (como definir uma taxa exorbitante ou redirecionar o tesouro). Este é um risco em qualquer governança de tokens. A melhor mitigação é distribuir amplamente o token (o lançamento justo da Cuckoo deu 51% à comunidade) e ter uma supervisão comunitária ativa. Além disso, como a Cuckoo se afastou da L1, a governança on-chain imediata pode ser limitada até que se estabeleçam numa nova cadeia; a equipa provavelmente mantém um controlo multisig no entretanto, o que ironicamente impede o conluio por estranhos maliciosos à custa de ser temporariamente centralizado. No geral, a Cuckoo apoia-se na transparência e no staking para lidar com o conluio. Há um elemento de confiança nos coordenadores para se comportarem porque querem atrair utilizadores num ambiente competitivo. Se o conluio levar a um serviço de pior qualidade ou a uma manipulação óbvia de recompensas, os stakeholders podem votar para os remover ou parar de fazer stake em maus atores, e a rede pode penalizá-los ou bloqueá-los. A natureza razoavelmente aberta (qualquer um pode tornar-se um coordenador ou minerador se fizer stake) significa que o conluio exigiria um grande esforço coordenado que seria evidente. Não é tão matematicamente prevenido como no Bittensor ou na Gensyn, mas a combinação de stake económico e governança comunitária fornece um controlo.
  • Parasitismo (Problemas de Free-rider): Refere-se a participantes que tentam colher recompensas sem contribuir com valor equivalente – por exemplo, um validador que não avalia realmente, mas ainda assim ganha, ou um minerador que copia as respostas de outros em vez de computar, ou utilizadores a cultivar recompensas sem fornecerem entradas úteis.

    • Bittensor: Um problema conhecido de free-rider no Bittensor é a “cópia de pesos” por validadores preguiçosos. Um validador poderia simplesmente copiar a opinião da maioria (ou as pontuações de outro validador) em vez de avaliar independentemente os mineradores. Ao fazer isso, eles evitam o custo de executar consultas de IA, mas ainda recebem recompensas se as suas pontuações submetidas parecerem alinhadas com o consenso. O Bittensor combate isto medindo o alinhamento de consenso e a contribuição informacional de cada validador. Se um validador sempre apenas copia os outros, ele pode alinhar-se bem (para não ser penalizado pesadamente), mas não adiciona valor único. Os desenvolvedores do protocolo discutiram dar recompensas mais altas a validadores que fornecem avaliações precisas, mas não puramente redundantes. Técnicas como a infusão de ruído (dar deliberadamente aos validadores consultas ligeiramente diferentes) poderiam forçá-los a trabalhar de verdade em vez de copiar – embora não esteja claro se isso está implementado. O Arxiv sugere emissão ponderada pelo desempenho e métodos de pontuação composta para ligar melhor o esforço do validador à recompensa. Quanto aos mineradores, um possível comportamento de free-rider seria se um minerador consultasse outros mineradores e retransmitisse a resposta (uma forma de plágio). O design do Bittensor (com consultas descentralizadas) pode permitir que o modelo de um minerador chame outros através do seu próprio dendrite. Se um minerador apenas retransmite a resposta de outro, um bom validador pode detetar isso porque a resposta pode não corresponder consistentemente às capacidades do modelo reivindicadas pelo minerador. É difícil de detetar algoritmicamente, mas um minerador que nunca computa resultados originais deve eventualmente pontuar mal em algumas consultas e perder reputação. Outro cenário de free-rider eram os delegadores a ganharem recompensas sem fazerem trabalho de IA. Isso é intencional (para envolver os detentores de tokens), então não é um ataque – mas significa que algumas emissões de tokens vão para pessoas que apenas fizeram stake. O Bittensor justifica isto como alinhamento de incentivos, não recompensas desperdiçadas. Em suma, o Bittensor reconhece o problema do free-rider do validador e está a ajustar os incentivos (como dar pontuações de confiança do validador que impulsionam aqueles que não se desviam ou copiam). A sua solução é essencialmente recompensar o esforço e a correção de forma mais explícita, para que não fazer nada ou copiar cegamente renda menos TAO ao longo do tempo.
    • Gensyn: Na Gensyn, os free-riders teriam dificuldade em ganhar, porque é preciso fornecer computação ou apanhar alguém a trapacear para obter tokens. Um solver não pode “fingir” trabalho – ele tem de submeter uma prova válida ou arriscar-se a ser penalizado. Não há mecanismo para ser pago sem fazer a tarefa. Um verifier poderia teoricamente ficar ocioso e esperar que outros apanhassem fraudes – mas então não ganha nada (porque apenas aquele que levanta a prova de fraude recebe a recompensa). Se demasiados verifiers tentarem ser free-riders (não recomputando realmente as tarefas), então um solver fraudulento pode passar despercebido porque ninguém está a verificar. O design de incentivos da Gensyn aborda isto com a recompensa jackpot: basta um verifier ativo para apanhar um trapaceiro e obter um grande pagamento, então é racional que pelo menos um faça sempre o trabalho. Outros que não fazem o trabalho não prejudicam a rede, exceto por serem inúteis; eles também não recebem recompensa. Assim, o sistema filtra naturalmente os free-riders: apenas os verifiers que realmente verificam terão lucro a longo prazo (outros gastam recursos em nós para nada ou muito raramente conseguem uma recompensa por acaso). O protocolo também pode randomizar qual verifier tem a oportunidade de desafiar para desencorajar todos os verifiers de assumirem que “alguém fará isso”. Como as tarefas são pagas individualmente, não há um análogo de “recompensas de staking sem trabalho”, além dos incentivos da testnet que são temporários. Uma área a observar é a otimização multitarefa: um solver pode tentar reutilizar o trabalho entre tarefas ou terceirizá-lo secretamente para alguém mais barato (como usar uma nuvem centralizada) – mas isso não é realmente um parasitismo prejudicial; se eles entregarem resultados corretos a tempo, não importa como o fizeram. Isso é mais como arbitragem do que um ataque. Em resumo, o design do mecanismo da Gensyn deixa pouco espaço para os free-riders ganharem, porque cada token distribuído corresponde a um trabalho feito ou a uma trapaça punida.
    • Cuckoo: A fase inicial da Cuckoo criou inadvertidamente um problema de free-rider: o airdrop e o staking de alto rendimento atraíram utilizadores que estavam lá apenas para cultivar tokens. Estes utilizadores circulavam tokens através de faucets ou manipulavam as tarefas do airdrop (por exemplo, usando continuamente prompts de teste gratuitos ou criando muitas contas para reivindicar recompensas) sem contribuírem para o valor da rede a longo prazo. A Cuckoo reconheceu isto como um problema – essencialmente, as pessoas estavam a “usar” a rede não pela saída de IA, mas pelo ganho de recompensa especulativa. A decisão de encerrar a cadeia L1 e reorientar foi em parte para se livrar destes desalinhamentos de incentivos. Ao ligar as futuras recompensas de tokens ao uso real (ou seja, você ganha porque o serviço está realmente a ser usado por clientes pagantes), o apelo do free-rider diminui. Há também um cenário de parasitismo do lado do minerador: um minerador poderia juntar-se, receber tarefas e de alguma forma não as executar, mas ainda assim reivindicar a recompensa. No entanto, o coordenador está a verificar os resultados – se um minerador não devolver nenhuma saída ou uma saída má, o coordenador não a contará como uma tarefa concluída, então o minerador não seria pago. Os mineradores também podem tentar escolher as tarefas fáceis e abandonar as difíceis (por exemplo, se alguns prompts forem mais lentos, um minerador pode desconectar-se para evitá-los). Isto poderia ser um problema, mas os coordenadores podem notar a fiabilidade de um minerador. Se um minerador abandona frequentemente, o coordenador pode parar de lhe atribuir tarefas ou penalizar o seu stake (se tal mecanismo existir ou simplesmente não o recompensar). Parasitismo do utilizador – como muitos serviços de IA têm testes gratuitos, um utilizador poderia enviar spam de pedidos para obter resultados sem pagar (se houver um modelo subsidiado). Isso não é tanto um problema ao nível do protocolo, mas sim ao nível do serviço; cada coordenador pode decidir como lidar com o uso gratuito (por exemplo, exigindo um pequeno pagamento ou limitando). Como a Cuckoo inicialmente ofereceu brindes (como gerações de imagens de IA gratuitas para atrair utilizadores), alguns aproveitaram-se, mas isso fazia parte do marketing de crescimento esperado. À medida que essas promoções terminam, os utilizadores terão de pagar, portanto, não há almoço grátis para explorar. No geral, a nova estratégia da Cuckoo de mapear a distribuição de tokens para a utilidade real visa explicitamente eliminar o problema do free-rider de “minerar tokens por fazer loops sem sentido”.
  • Envenenamento de Dados ou Modelos: Refere-se à introdução maliciosa de dados ou comportamentos maus de modo que os modelos de IA se degradem ou os resultados sejam manipulados, bem como questões de conteúdo prejudicial ou tendencioso a ser contribuído.

    • Bittensor: O envenenamento de dados no Bittensor significaria um minerador a dar intencionalmente respostas incorretas ou prejudiciais, ou validadores a avaliar propositadamente respostas boas como más. Se um minerador produzir lixo ou conteúdo malicioso consistentemente, os validadores darão pontuações baixas, e esse minerador ganhará pouco e eventualmente sairá – o incentivo económico é fornecer qualidade, então “envenenar” os outros não traz benefício para o atacante (a menos que o seu objetivo seja puramente sabotagem às suas próprias custas). Poderia um minerador malicioso envenenar outros? No Bittensor, os mineradores não se treinam diretamente uns aos outros (pelo menos não por design – não há um modelo global a ser atualizado que possa ser envenenado). O modelo de cada minerador é separado. Eles aprendem no sentido de que um minerador poderia pegar amostras interessantes de outros para se ajustar, mas isso é totalmente opcional e depende de cada um. Se um ator malicioso enviasse spam de respostas sem sentido, os validadores honestos filtrariam isso (eles pontuariam baixo), então não influenciaria significativamente o processo de treinamento de nenhum minerador honesto (além disso, um minerador provavelmente usaria o conhecimento de pares com alta pontuação, não de baixa pontuação). Portanto, o envenenamento de dados clássico (injetar dados de treinamento maus para corromper um modelo) é mínimo na configuração atual do Bittensor. O risco mais relevante é a manipulação da resposta do modelo: por exemplo, um minerador que produz conteúdo subtilmente tendencioso ou perigoso que não é óbvio para os validadores. No entanto, como os validadores também são projetados por humanos ou pelo menos agentes algorítmicos, a toxicidade ou erro flagrante é provavelmente detetado (algumas sub-redes podem até ter validadores de IA a verificar conteúdo inseguro). Um cenário de pior caso é se um atacante de alguma forma tivesse a maioria dos validadores e mineradores em conluio para empurrar uma certa saída incorreta como “correta” – eles poderiam então enviesar o consenso da rede sobre as respostas (como todos os validadores em conluio a votarem a favor de uma resposta maliciosa). Mas para um utilizador externo ser prejudicado por isso, ele teria de realmente consultar a rede e confiar na saída. O Bittensor ainda está numa fase em que está a construir capacidade, não sendo amplamente usado para consultas críticas por utilizadores finais. Quando o for, espera-se que tenha filtragem de conteúdo e diversidade de validadores para mitigar tais riscos. Do lado do validador, um validador malicioso poderia fornecer avaliações envenenadas – por exemplo, consistentemente votar contra um certo minerador honesto para eliminar a concorrência. Com stake suficiente, eles podem conseguir empurrar esse minerador para fora (se as recompensas do minerador caírem tanto que ele saia). Este é um ataque ao mecanismo de incentivo. Novamente, se eles não forem a maioria, o corte da mediana frustrará um validador discrepante. Se eles forem a maioria, funde-se com o cenário de conluio/51% – qualquer maioria pode reescrever as regras. A solução volta à descentralização: impedir que qualquer entidade domine. Em resumo, o design do Bittensor inerentemente penaliza contribuições de dados/modelos envenenados através do seu sistema de pontuação – contribuições más recebem baixo peso e, portanto, baixa recompensa. Não há um repositório de modelos permanente para envenenar; tudo é dinâmico e continuamente avaliado. Isto proporciona resiliência: a rede pode gradualmente “esquecer” ou ignorar maus atores à medida que as suas contribuições são filtradas pelos validadores.
    • Gensyn: Se um solver quisesse envenenar um modelo a ser treinado (como introduzir uma backdoor ou viés durante o treinamento), ele poderia tentar fazê-lo secretamente. O protocolo Gensyn verificaria se o treinamento prosseguiu de acordo com o algoritmo especificado (passos de descida de gradiente estocástico, etc.), mas não detetaria necessariamente se o solver introduziu um gatilho de backdoor subtil que não aparece nas métricas de validação normais. Este é um problema mais insidioso – não é uma falha da computação, é uma manipulação dentro dos graus de liberdade permitidos do treinamento (como ajustar os pesos para uma frase gatilho). Detetar isso é um problema de pesquisa ativo em segurança de ML. A Gensyn não tem um mecanismo especial para envenenamento de modelos além do facto de que o submitter poderia avaliar o modelo final num conjunto de teste à sua escolha. Um submitter experiente deve sempre testar o modelo devolvido; se descobrir que ele falha em algumas entradas ou tem um comportamento estranho, pode disputar o resultado ou recusar o pagamento. Talvez o protocolo pudesse permitir que um submitter especificasse certos critérios de aceitação (como “o modelo deve atingir pelo menos X de precisão neste conjunto de teste secreto”) e se o resultado do solver falhar, o solver não é pago na totalidade. Isto dissuadiria o envenenamento porque o atacante não cumpriria os critérios de avaliação. No entanto, se o veneno não impactar a precisão em testes normais, poderia passar despercebido. Os verifiers na Gensyn apenas verificam a integridade da computação, não a qualidade do modelo, então não detetariam overfitting intencional ou trojans, desde que os registos de treinamento pareçam válidos. Portanto, isto permanece uma questão de confiança ao nível da tarefa: o submitter tem de confiar que o solver não envenenará o modelo ou usar métodos como ensembling de múltiplos resultados de treinamento de diferentes solvers para diluir a influência de qualquer solver único. Outro ângulo é o envenenamento de dados: se o submitter fornecer dados de treinamento, um solver malicioso poderia ignorar esses dados e treinar em outra coisa ou adicionar dados lixo. Mas isso provavelmente reduziria a precisão, o que o submitter notaria no desempenho do modelo de saída. O solver então não receberia o pagamento total (já que presumivelmente eles querem atingir uma meta de desempenho). Portanto, o envenenamento que degrada o desempenho é autodestrutivo para a recompensa do solver. Apenas um veneno que é neutro em desempenho, mas malicioso (uma backdoor) é um perigo real, e isso está fora do âmbito da verificação típica de blockchain – é um desafio de segurança de machine learning. A melhor mitigação da Gensyn é provavelmente social: usar modelos conhecidos e respeitáveis, ter várias execuções de treinamento, usar ferramentas de código aberto. Em tarefas de inferência (se a Gensyn também for usada para trabalhos de inferência), um solver em conluio poderia retornar saídas incorretas que enviesam uma certa resposta. Mas os verifiers detetariam saídas erradas se executassem o mesmo modelo, então isso é menos um envenenamento e mais apenas trapaça, que as provas de fraude abordam. Em suma, a Gensyn protege o processo, não a intenção. Garante que o treinamento/inferência foi feito corretamente, mas não que o resultado é bom ou livre de malícias ocultas. Isso permanece um problema em aberto, e o whitepaper da Gensyn provavelmente não o resolve totalmente ainda (poucos o fazem).
    • Cuckoo: Como a Cuckoo atualmente se foca na inferência (servindo modelos existentes), o risco de envenenamento de dados/modelos é relativamente limitado à manipulação de saída ou envenenamento de conteúdo. Um minerador malicioso pode tentar adulterar o modelo que lhe é dado para executar – por exemplo, se for fornecido um checkpoint do Stable Diffusion, ele poderia trocá-lo por um modelo diferente que talvez insira alguma marca d'água subtil ou anúncio em cada imagem. No entanto, o coordenador (que é o proprietário do modelo) normalmente envia tarefas com uma expectativa do formato de saída; se um minerador retornar saídas fora da especificação consistentemente, o coordenador sinalizará e banirá esse minerador. Além disso, os mineradores não podem modificar facilmente um modelo sem afetar notavelmente as suas saídas. Outro cenário é se a Cuckoo introduzir modelos treinados pela comunidade: então os mineradores ou fornecedores de dados podem tentar envenenar os dados de treinamento (por exemplo, alimentar muitos rótulos errados ou texto tendencioso). A Cuckoo precisaria de implementar a validação de dados de crowdsourcing ou a ponderação de contribuidores. Isto ainda não é uma funcionalidade, mas o interesse da equipa em IA personalizada (como a menção a um coach de vida de IA ou aplicações de aprendizagem) significa que eles podem eventualmente lidar com dados de treinamento fornecidos pelo utilizador, o que exigirá verificações cuidadosas. Sobre a segurança do conteúdo, como os mineradores da Cuckoo realizam inferência, pode-se preocupar com eles a produzirem conteúdo prejudicial, mesmo que o modelo normalmente não o fizesse. Mas os mineradores não têm incentivo para alterar as saídas arbitrariamente – eles são pagos pela computação correta, não pela criatividade. Se alguma coisa, um minerador malicioso pode saltar a computação completa para economizar tempo (por exemplo, retornar uma imagem desfocada ou uma resposta genérica). O coordenador ou o utilizador veria isso e classificaria mal esse minerador (e provavelmente não pagaria por essa tarefa). A privacidade é outra faceta: um minerador malicioso pode vazar ou registar dados do utilizador (como se um utilizador inserisse texto ou imagens sensíveis). Isto não é envenenamento, mas é um ataque à confidencialidade. A postura de privacidade da Cuckoo é que está a explorar métodos de preservação da privacidade (a menção a uma VPN que preserva a privacidade no ecossistema sugere um foco futuro). Eles poderiam incorporar técnicas como enclaves seguros ou inferência dividida para manter os dados privados dos mineradores. Ainda não implementado, mas uma consideração conhecida. Finalmente, o blog da Cuckoo enfatiza a verificação eficaz das saídas do modelo e a garantia de uma operação de modelo descentralizada segura como chave para tornar a tokenização de modelos viável. Isto indica que eles estão cientes de que para descentralizar verdadeiramente a IA, é preciso proteger-se contra coisas como saídas envenenadas ou modelos com mau funcionamento. Possivelmente, eles pretendem usar uma combinação de incentivos criptoeconómicos (penalização de stake para maus atores) e sistemas de classificação de utilizadores (os utilizadores podem sinalizar saídas más, e esses mineradores perdem reputação). O sistema de reputação pode ajudar aqui: se um minerador retornar mesmo um resultado obviamente malicioso ou incorreto, os utilizadores/coordenadores podem votar negativamente, impactando fortemente a sua capacidade de ganho futuro. Sabendo disso, os mineradores são incentivados a serem consistentemente corretos e a não introduzirem nenhum veneno. Em essência, a Cuckoo confia, mas verifica: é mais tradicional no sentido de que se alguém se comportar mal, você identifica e remove-o (com a perda de stake como punição). Ainda não tem defesas especializadas para envenenamento subtil de modelos, mas a estrutura de ter proprietários de aplicações específicos (coordenadores) no comando adiciona uma camada de supervisão – esses proprietários serão motivados a garantir que nada comprometa a integridade do seu modelo, pois a sua própria receita e reputação dependem disso.

Em conclusão, embora as redes de IA descentralizadas introduzam novas superfícies de ataque, elas também implementam uma mistura de defesas criptográficas, de teoria dos jogos e de governança comunitária: A resistência a ataques sybil é em grande parte tratada pela exigência de stake económico para participação. A resistência ao conluio vem do alinhamento de incentivos (o comportamento honesto é mais lucrativo) e de mecanismos de consenso que limitam o impacto de pequenos grupos em conluio. A prevenção de free-riders é alcançada ao ligar estreitamente as recompensas ao trabalho útil real e penalizar ou eliminar aqueles que não contribuem com nada. O envenenamento e ataques relacionados continuam a ser desafiadores, mas os sistemas mitigam os casos flagrantes através de avaliação contínua e da capacidade de penalizar ou ejetar atores maliciosos. Estas plataformas estão ativamente a pesquisar e a iterar nestes designs – como evidenciado pelos ajustes contínuos do Bittensor ao Yuma e ao dTAO, e pela mudança na tokenomics da Cuckoo – para garantir um ecossistema de IA descentralizado, seguro e autossustentável.

Avaliação Comparativa

Para destacar as diferenças e semelhanças entre Bittensor, Gensyn e Cuckoo AI, a tabela seguinte fornece uma comparação lado a lado através de dimensões-chave:

DimensãoBittensor (TAO)GensynCuckoo AI (CAI)
Pilha TécnicaL1 personalizada (cadeia Subtensor baseada em Substrate) com mais de 93 sub-redes de IA especializadas. Compatível com EVM (após atualização recente) na sua própria cadeia.Rollup baseado em Ethereum (originalmente planeado como L1, agora um rollup ETH). Computação off-chain com verificação on-chain.Lançada como uma cadeia Layer-2 Arbitrum Orbit (rollup EVM). Plataforma full-stack (cadeia própria + computação + UI de aplicação). A migrar de L1 personalizada para segurança partilhada do Ethereum (rollup/AVS).
Foco PrincipalRede de IA descentralizada de modelos (“internet neural”). Os nós contribuem para a inferência e treinamento de modelos coletivos em várias tarefas (LLM, visão, etc.).Mercado de computação descentralizado para ML. Ênfase no treinamento de modelos off-chain e inferência por GPUs globais, verificando o trabalho através da blockchain.Plataforma de serviço de IA descentralizada. Foco no serviço/inferência de modelos (por exemplo, arte generativa, APIs de LLM) usando mineradores de GPU distribuídos. Integra aplicações de utilizador final com o mercado de GPU de backend.
Papéis ChaveProprietário de Sub-rede: define a tarefa e a validação numa sub-rede (ganha 18% das recompensas).
Mineradores: executam modelos de IA (inferência/treinamento), fornecem respostas.
Validadores: fazem consultas e pontuam as saídas dos mineradores (curam a qualidade).
Delegadores: fazem stake de TAO em mineradores/validadores para amplificar e ganhar uma parte.
Submitter (Desenvolvedor): publica um trabalho de ML (com modelo/dados) e pagamento.
Solver: computa a tarefa no seu hardware, submete o resultado.
Verifier (Vigilante): verifica o resultado do solver; pode desafiar através de prova de fraude se estiver errado.
(Nenhum papel distinto de “proprietário”, uma vez que o submitter fornece o modelo; papéis de governança através dos detentores de tokens).
Construtor de Aplicação de IA (Coordenador): implementa o serviço de modelo de IA, faz stake de CAI, gere tarefas para os mineradores.
Minerador (Fornecedor de GPU/CPU): faz stake de CAI, realiza tarefas de inferência atribuídas, retorna resultados.
Utilizador Final: usa aplicações de IA (paga em cripto ou contribui com recursos).
Staker (Delegador): faz stake em coordenadores/mineradores, vota na governança, ganha uma parte das recompensas.
Consenso e VerificaçãoConsenso Yuma: “prova de inteligência” personalizada – as pontuações dos validadores sobre a saída de IA são agregadas (mediana ponderada por stake) para determinar as recompensas dos mineradores. O consenso da cadeia subjacente é do tipo PoS (Substrate) para blocos, mas a validade do bloco depende do consenso de IA a cada época. Resistente a pontuações discrepantes e conluio até 50%.Verificação otimista (estilo Truebit): assume que o resultado do solver está correto, a menos que um verificador o desafie. Usa provas de fraude interativas on-chain para identificar qualquer passo incorreto. Também a implementar provas criptográficas de computação (prova de aprendizagem) para validar o progresso do treinamento sem reexecução. O Ethereum fornece o consenso base para as transações.Cadeia Proof-of-Stake + validação de tarefas por coordenadores: A Cuckoo Chain usava validadores PoS para a produção de blocos (inicialmente, os mineradores também ajudavam a proteger os blocos). Os resultados das tarefas de IA são verificados pelos nós coordenadores (que verificam as saídas dos mineradores em relação ao comportamento esperado do modelo). Ainda não há provas criptográficas especializadas – depende do stake e da reputação (trustless na medida em que o mau comportamento leva a penalizações ou votos negativos, em vez de deteção automática por prova matemática). A transitar para o consenso do Ethereum (rollup) para a segurança do livro-razão.
Token e UtilidadeToken TAO: moeda nativa no Subtensor. Usado para staking (necessário para registar e influenciar o consenso), taxas de transação/pagamentos (por exemplo, pagar por consultas de IA) e como recompensa por contribuições (mineração/validação). O TAO tem inflação contínua (1 TAO por bloco de 12s) que impulsiona o mecanismo de recompensa. Também usado na governança (staking de dTAO em sub-redes).Token Gensyn (ERC-20, nome a ser anunciado): a unidade do protocolo para pagamentos (os desenvolvedores pagam aos solvers com ele). Funciona como colateral de stake (solvers/verifiers depositam tokens e são penalizados por falhas). Será usado na governança (votação em atualizações do protocolo através da DAO da Fundação Gensyn). Sem detalhes sobre a oferta ainda; provavelmente uma porção alocada para incentivar a adoção inicial (testnet, etc.).Token CAI (ERC-20): token nativo da Cuckoo Chain (1 bilião de oferta fixa). Multifuncional: taxa de gás para transações na Cuckoo Chain, staking para papéis na rede (mineradores, coordenadores devem bloquear CAI), votação de governança em decisões do protocolo e recompensas por contribuições (recompensas de mineração/staking vieram da alocação inicial). Também tem apelo de meme (aspeto de token comunitário).
Tokenização de AtivosComputação: sim – o trabalho de computação de IA é tokenizado através de recompensas TAO (pense no TAO como “gás” para inteligência). Modelos: indiretamente – os modelos ganham TAO com base no desempenho, mas os modelos/pesos em si não são ativos on-chain (não há NFTs para modelos). A propriedade da sub-rede é tokenizada (NFT de proprietário de sub-rede + tokens alfa) para representar uma participação num mercado de modelos. Dados: não tokenizados (os dados são off-chain; o Bittensor foca-se nas saídas dos modelos em vez de conjuntos de dados).Computação: sim – a computação ociosa torna-se uma mercadoria on-chain, negociada num mercado de trabalhos por tokens. Modelos: não explicitamente – os modelos são fornecidos off-chain pelos desenvolvedores, e os resultados são devolvidos; não há tokens de modelo integrados (embora o protocolo possa facilitar o licenciamento se as partes o configurarem). Dados: não – os conjuntos de dados são tratados off-chain entre o submitter e o solver (podem ser encriptados ou protegidos, mas não representados como ativos on-chain). A visão da Gensyn inclui possivelmente a negociação de algoritmos ou dados como computação, mas a implementação principal é centrada na computação.Computação: sim – o tempo de GPU é tokenizado através de pagamentos diários de CAI e recompensas de tarefas. A rede trata o poder computacional como um recurso que os mineradores “vendem” por CAI. Modelos: parcialmente – a plataforma integra modelos como serviços; no entanto, os modelos em si não são criados como NFTs. O valor de um modelo é capturado na capacidade do coordenador de ganhar CAI dos utilizadores que o usam. Planos futuros sugerem modelos de propriedade comunitária, mas atualmente a PI do modelo é off-chain (propriedade de quem executa o coordenador). Dados: sem tokenização geral de dados. As entradas/saídas dos utilizadores são transitórias. (A Cuckoo tem parcerias com aplicações como Beancount, etc., mas os dados não são representados por tokens na cadeia.)
GovernançaDescentralizada, impulsionada pelos detentores de tokens (dTAO): Inicialmente tinha 64 validadores eleitos a executar o consenso raiz; agora a governança é aberta – os detentores de TAO fazem stake em sub-redes para direcionar as emissões (alocação de recursos baseada no mercado). As atualizações e alterações do protocolo são decididas através de propostas on-chain (votação de TAO, com a Fundação/conselho Bittensor a facilitar). O objetivo é ser totalmente governado pela comunidade, com a fundação a ceder gradualmente o controlo.Descentralização progressiva: Fundação Gensyn + conselho eleito gerem as decisões iniciais. Após o lançamento do token, a governança transitará para uma DAO onde os detentores de tokens votam em propostas (semelhante a muitos projetos DeFi). O ambiente de segurança partilhada do Ethereum significa que grandes mudanças envolvem a comunidade e potencialmente a governança da Camada 1. O âmbito da governança inclui parâmetros económicos, atualizações de contratos (sujeitas a auditorias de segurança). Ainda não está ativa, mas delineada no litepaper para pós-mainnet.Mista, comunidade e fundação: A Cuckoo foi lançada com um ethos de “lançamento justo” (sem pré-mineração para insiders). Pretende-se uma DAO comunitária, com votação de CAI em decisões-chave e atualizações do protocolo. Na prática, a equipa principal (desenvolvedores da Cuckoo Network) liderou as principais decisões (como o encerramento da cadeia), mas partilham a lógica de forma transparente e posicionam-na como uma evolução para o benefício da comunidade. Funcionalidades de governança on-chain (propostas, votação) provavelmente surgirão quando o novo rollup estiver implementado. O staking também dá influência informal na governança através do sistema de reputação (votos ponderados por stake para nós de confiança).
Modelo de IncentivoRecompensas inflacionárias ligadas à contribuição: ~1 TAO por bloco distribuído aos participantes com base no desempenho. Qualidade = mais recompensa. Mineradores e validadores ganham continuamente (bloco a bloco), mais os delegadores ganham uma parte. O TAO também é usado por utilizadores finais para pagar por serviços (criando um lado de procura para o token). A economia do token é projetada para encorajar a participação a longo prazo (staking) e a melhoria constante dos modelos, semelhante aos mineradores do Bitcoin, mas “minerando IA”. Problemas potenciais (centralização de stake levando a recompensas desalinhadas) estão a ser abordados através de ajustes de incentivos.Impulsionado pelo mercado, pagamento por resultados: Sem rendimento inflacionário contínuo (além de possíveis incentivos iniciais); os solvers são pagos apenas quando fazem o trabalho com sucesso. Os verifiers só são pagos ao apanharem uma fraude (incentivo jackpot). Isto cria uma economia direta: o gasto dos desenvolvedores = o ganho dos fornecedores. O valor do token está ligado à procura real por computação. Para iniciar, a Gensyn provavelmente recompensará os utilizadores da testnet no lançamento (distribuição única), mas em estado estacionário, é baseado no uso. Isto alinha os incentivos firmemente com a utilidade da rede (se os trabalhos de IA aumentarem, o uso do token aumenta, beneficiando todos os detentores).Híbrido (a mover-se de inflação para taxas de uso): Inicialmente, alocações de Mineração e staking do pool comunitário de 51% recompensavam os mineradores de GPU (30% da oferta) e stakers (11%) independentemente do uso externo – isto era para iniciar os efeitos de rede. Com o tempo, e especialmente após o encerramento da L1, a ênfase está na partilha de receitas: mineradores e desenvolvedores de aplicações ganham de pagamentos reais de utilizadores (por exemplo, dividindo taxas por uma geração de imagem). O rendimento dos stakers derivará de uma porção do uso real ou será ajustado para encorajar o apoio apenas a nós produtivos. Portanto, o incentivo inicial era “crescer a rede” (alto APY, airdrops) e mais tarde é “a rede cresce se for realmente útil” (ganhos de clientes). Esta transição é projetada para eliminar os free-riders e garantir a sustentabilidade.
Segurança e Mitigações de AtaquesSybil: O registo dispendioso (stake de TAO) dissuade os sybils. Conluio: O consenso mediano resiste ao conluio até 50% do stake; o dTAO quebrou uma oligarquia de validadores ao capacitar a votação dos detentores de tokens. Desonestidade: Validadores que se desviam do consenso perdem parte da recompensa (incentiva a pontuação honesta). O ataque de 51% é possível se o stake for altamente concentrado – a pesquisa sugere adicionar limites de stake e penalizações por desempenho para mitigar isto. Ataques a modelos: Saídas de modelos más ou maliciosas são penalizadas com pontuações baixas. Nenhum ponto único de falha – a rede é descentralizada globalmente (existem mineradores de TAO em todo o mundo, pseudo-anónimos).Sybil: Requer stake económico para participação; nós falsos sem stake/trabalho não ganham nada. Verificação: Pelo menos um verificador honesto é necessário – se assim for, qualquer resultado errado é apanhado e penalizado. Usa incentivos criptoeconómicos para que a trapaça não compense (o solver perde o depósito, o verificador ganha). Conluio: Seguro enquanto nem todas as partes conspirarem – um honesto quebra o esquema ao revelar a fraude. Confiança: Não depende da confiança em hardware ou empresas, apenas na teoria dos jogos económicos e na criptografia. Ataques: Difícil de censurar ou fazer DoS, pois as tarefas são distribuídas; um atacante precisaria de superar as licitações de nós honestos ou vencer consistentemente a prova de fraude (improvável sem controlo maioritário). No entanto, backdoors subtis em modelos podem escapar à deteção, o que é um desafio conhecido (mitigado por testes de utilizador e possivelmente futuras auditorias além da execução correta). A segurança geral é análoga a um rollup otimista para computação.Sybil: Todos os atores devem fazer stake de CAI, elevando a fasquia para os sybils. Além disso, um sistema de reputação (staking + votação) significa que identidades sybil sem reputação não receberão tarefas. Mau comportamento de nós: Os coordenadores podem descartar mineradores com mau desempenho ou suspeitos; os stakers podem retirar o apoio. O protocolo pode penalizar o stake por fraude comprovada (a L1 tinha condições de penalização para o consenso; o mesmo poderia aplicar-se à fraude em tarefas). Conluio: Parcialmente baseado na confiança – depende da competição aberta e da supervisão da comunidade para evitar que o conluio domine. Como as tarefas e os pagamentos são públicos on-chain, o conluio flagrante pode ser identificado e punido socialmente ou através da governança. Proteção do utilizador: Os utilizadores podem mudar de fornecedor se um for censurado ou corrompido, garantindo que não há um ponto único de controlo. Envenenamento/conteúdo: Por design, os mineradores executam os modelos fornecidos como estão; se alterarem as saídas maliciosamente, perdem reputação e recompensas. O sistema aposta em atores racionais: como todos têm valor em stake e potencial de ganho futuro, são desincentivados de ataques que minariam a confiança na rede (reforçado pelas duras lições da sua experiência com a L1 sobre o alinhamento de incentivos com a utilidade).

Tabela: Comparação de funcionalidades de Bittensor, Gensyn e Cuckoo AI em arquitetura, foco, papéis, consenso, tokens, tokenização de ativos, governança, incentivos e segurança.

IA Verificável em Movimento: Como os zk-SNARKs Dinâmicos da Lagrange Labs Permitem Confiança Contínua

· 7 min de leitura
Dora Noda
Software Engineer

No mundo cada vez mais convergente da inteligência artificial e do blockchain, a demanda por confiança e transparência nunca foi tão alta. Como podemos ter certeza de que a saída de um modelo de IA é precisa e não foi adulterada? Como podemos executar cálculos complexos em vastos conjuntos de dados on‑chain sem comprometer segurança ou escalabilidade? A Lagrange Labs está enfrentando essas questões de frente com sua suíte de infraestrutura de conhecimento zero (ZK), visando construir um futuro de “IA que Você Pode Provar”. Este post oferece uma visão objetiva de sua missão, tecnologia e avanços recentes, culminando em seu último paper sobre zk‑SNARKs Dinâmicos.

1. A Equipe e Sua Missão

A Lagrange Labs está construindo a infraestrutura fundamental para gerar provas criptográficas para qualquer inferência de IA ou aplicação on‑chain. Seu objetivo é tornar a computação verificável, trazendo uma nova camada de confiança ao mundo digital. Seu ecossistema está estruturado em três linhas de produto principais:

  • ZK Prover Network: Uma rede descentralizada de mais de 85 nós de prova que fornece o poder computacional necessário para uma ampla gama de tarefas de prova, de IA e rollups a aplicações descentralizadas (dApps).
  • DeepProve (zkML): Um sistema especializado para gerar provas ZK de inferências de redes neurais. A Lagrange afirma ser até 158 vezes mais rápido que soluções concorrentes, tornando a IA verificável uma realidade prática.
  • ZK Coprocessor 1.0: O primeiro ZK Coprocessor baseado em SQL, permitindo que desenvolvedores executem consultas personalizadas em massivos conjuntos de dados on‑chain e recebam resultados verificavelmente precisos.

2. Um Roadmap para IA Verificável

A Lagrange tem executado metodicamente um roadmap projetado para resolver os desafios da verificabilidade de IA passo a passo.

  • Q3 2024: Lançamento do ZK Coprocessor 1.0: Esta versão introduziu circuitos recursivos hiper‑paralelos, que entregaram um aumento médio de velocidade de aproximadamente 2×. Projetos como Azuki e Gearbox já estão utilizando o coprocessor para suas necessidades de dados on‑chain.
  • Q1 2025: DeepProve Revelado: A Lagrange anunciou o DeepProve, sua solução para Zero‑Knowledge Machine Learning (zkML). Ele suporta arquiteturas populares de redes neurais como Perceptrons de Múltiplas Camadas (MLPs) e Redes Neurais Convolucionais (CNNs). O sistema alcança acelerações de ordem de magnitude em todas as três etapas críticas: configuração única, geração de prova e verificação, com ganhos de até 158×.
  • Q2 2025: Paper sobre zk‑SNARKs Dinâmicos (Último Marco): Este paper apresenta um algoritmo inovador de “atualização”. Em vez de gerar uma prova do zero sempre que os dados ou a computação subjacentes mudam, este método pode “patchar” uma prova antiga (π) em uma nova prova (π'). Essa atualização pode ser feita com complexidade de apenas O(√n log³n), uma melhoria drástica em relação à recomputação completa. Essa inovação é particularmente adequada para sistemas dinâmicos como modelos de IA que aprendem continuamente, lógica de jogos em tempo real e contratos inteligentes evolutivos.

3. Por Que os zk‑SNARKs Dinâmicos Importam

A introdução de provas atualizáveis representa uma mudança fundamental no modelo de custos da tecnologia de conhecimento zero.

  • Um Novo Paradigma de Custos: A indústria passa de um modelo de “recomputação total para cada prova” para “prova incremental baseada no tamanho da mudança”. Isso reduz drasticamente o custo computacional e financeiro para aplicações que sofrem atualizações frequentes e menores.
  • Implicações para IA:
    • Fine‑Tuning Contínuo: Quando se faz fine‑tuning em menos de 1 % dos parâmetros de um modelo, o tempo de geração da prova cresce quase linearmente com o número de parâmetros alterados (Δ parâmetros), e não com o tamanho total do modelo.
    • Inferência em Streaming: Isso permite gerar provas simultaneamente ao processo de inferência. Reduz drasticamente a latência entre a decisão de uma IA e a sua liquidação e verificação on‑chain, desbloqueando casos de uso como serviços de IA on‑chain e provas comprimidas para rollups.
  • Implicações para Aplicações On‑Chain:
    • zk‑SNARKs Dinâmicos oferecem otimizações massivas de gás e tempo para aplicações caracterizadas por mudanças frequentes e de pequeno porte. Isso inclui livros de ordens de exchanges descentralizadas (DEX), estados de jogos em evolução e atualizações de ledger que envolvem adições ou remoções frequentes.

4. Um Vislumbre da Pilha Tecnológica

A poderosa infraestrutura da Lagrange é construída sobre uma pilha tecnológica sofisticada e integrada:

  • Design de Circuitos: O sistema é flexível, suportando a incorporação de modelos ONNX (Open Neural Network Exchange), parsers SQL e operadores customizados diretamente em seus circuitos.
  • Recursão & Paralelismo: A ZK Prover Network facilita provas recursivas distribuídas, enquanto o ZK Coprocessor aproveita o sharding de “micro‑circuitos” para executar tarefas em paralelo, maximizando a eficiência.
  • Incentivos Econômicos: A Lagrange está planejando lançar um token nativo, LA, que será integrado a um sistema Double‑Auction‑for‑Recursive‑Auction (DARA). Isso criará um mercado robusto para leilões de computação de provadores, completo com incentivos e penalidades para garantir a integridade da rede.

5. Ecossistema e Adoção no Mundo Real

A Lagrange não está construindo em um vácuo; sua tecnologia já está sendo integrada por um número crescente de projetos em diferentes setores:

  • IA & ML: Projetos como 0G Labs e Story Protocol estão usando o DeepProve para verificar as saídas de seus modelos de IA, garantindo procedência e confiança.
  • Rollups & Infraestrutura: Players chave como EigenLayer, Base e Arbitrum participam da ZK Prover Network como nós validadores ou parceiros de integração, contribuindo para sua segurança e poder computacional.
  • Aplicações NFT & DeFi: Marcas como Azuki e protocolos DeFi como Gearbox utilizam o ZK Coprocessor para aprimorar a credibilidade de suas consultas de dados e mecanismos de distribuição de recompensas.

6. Desafios e o Caminho à Frente

Apesar do progresso impressionante, a Lagrange Labs e o campo mais amplo de ZK enfrentam vários obstáculos:

  • Gargalos de Hardware: Mesmo com uma rede distribuída, os SNARKs atualizáveis ainda exigem alta largura de banda e dependem de curvas criptográficas otimizadas para GPU para operar eficientemente.
  • Falta de Padronização: O processo de mapear frameworks de IA como ONNX e PyTorch para circuitos ZK ainda carece de uma interface universal e padronizada, gerando atrito para desenvolvedores.
  • Um Landscape Competitivo: A corrida para construir zkVMs e plataformas de zkCompute generalizadas está se intensificando. Competidores como Risc‑Zero e Succinct também estão avançando significativamente. O vencedor final pode ser quem primeiro comercializar uma toolchain amigável ao desenvolvedor e impulsionada pela comunidade.

7. Conclusão

A Lagrange Labs está remodelando metodicamente a interseção entre IA e blockchain através da lente da verificabilidade. Sua abordagem oferece uma solução abrangente:

  • DeepProve resolve o desafio da inferência confiável.
  • O ZK Coprocessor resolve o problema dos dados confiáveis.
  • zk‑SNARKs Dinâmicos incorporam a necessidade do mundo real de atualizações contínuas diretamente ao sistema de prova.

Se a Lagrange mantiver sua vantagem de desempenho, resolver o desafio crítico da padronização e continuar a expandir sua rede robusta, estará bem posicionada para se tornar um player fundamental no emergente setor de “IA + Infraestrutura ZK”.

Camp Network: A Blockchain que Enfrenta o Problema de IP de Bilhões de Dólares da IA 🏕️

· 5 min de leitura
Dora Noda
Software Engineer

O surgimento da IA generativa tem sido nada menos que explosivo. De arte digital impressionante a textos que parecem humanos, a IA está criando conteúdo em uma escala sem precedentes. Mas esse boom tem um lado sombrio: de onde a IA obtém seus dados de treinamento? Frequentemente, vem da vasta extensão da internet — de arte, música e textos criados por humanos que não recebem crédito nem compensação.

Surge então o Camp Network, um novo projeto de blockchain que pretende resolver esse problema fundamental. Não é apenas mais uma plataforma cripto; é uma “Camada de IP Autônoma” criada para dar aos criadores propriedade e controle sobre seu trabalho na era da IA. Vamos mergulhar no que torna o Camp Network um projeto a ser observado.


Qual é a Grande Ideia?

Em sua essência, o Camp Network é um blockchain que funciona como um registro global e verificável de propriedade intelectual (IP). A missão é permitir que qualquer pessoa — de um artista independente a um usuário de redes sociais — registre seu conteúdo on‑chain. Isso cria um registro permanente e à prova de adulteração de propriedade e proveniência.

Por que isso importa? Quando um modelo de IA utiliza conteúdo registrado no Camp, os contratos inteligentes da rede podem aplicar automaticamente os termos de licenciamento. Isso significa que o criador original pode receber atribuição e até pagamentos de royalties instantaneamente. A visão do Camp é construir uma nova economia criadora onde a compensação não é um detalhe posterior; está incorporada diretamente ao protocolo.


Por Dentro da Tecnologia: A Pilha Tecnológica

O Camp não é apenas um conceito; é sustentado por tecnologia séria projetada para alto desempenho e facilidade para desenvolvedores.

  • Arquitetura Modular: O Camp é construído como um rollup soberano usando Celestia para disponibilidade de dados. Esse design permite que seja incrivelmente rápido (alvo de 50.000 transações por segundo) e barato, mantendo total compatibilidade com as ferramentas do Ethereum (EVM).
  • Proof of Provenance (PoP): Este é o mecanismo de consenso exclusivo do Camp. Em vez de depender de mineração intensiva em energia, a segurança da rede está atrelada à verificação da origem do conteúdo. Cada transação reforça a proveniência da IP na rede, tornando a propriedade “exigível por design”.
  • Estratégia Dual‑VM: Para maximizar o desempenho, o Camp está integrando a Solana Virtual Machine (SVM) ao lado da compatibilidade com EVM. Isso permite que desenvolvedores escolham o ambiente mais adequado para seu aplicativo, especialmente para casos de uso de alta taxa de transferência, como interações de IA em tempo real.
  • Kit de Ferramentas para Criadores e IA: O Camp oferece duas estruturas principais:
    • Origin Framework: Um sistema amigável para criadores registrarem sua IP, tokenizá‑la (como NFT) e incorporar regras de licenciamento.
    • mAItrix Framework: Um kit para desenvolvedores criarem e implantarem agentes de IA que podem interagir com a IP on‑chain de forma segura e permissionada.

Pessoas, Parcerias e Progresso

Uma ideia só é tão boa quanto sua execução, e o Camp parece estar executando bem.

A Equipe e o Financiamento

O projeto é liderado por uma equipe com uma mistura potente de experiência proveniente da The Raine Group (media e acordos de IP), Goldman Sachs, Figma e CoinList. Essa combinação de finanças, produto tecnológico e engenharia cripto ajudou a garantir US$ 30 milhões em financiamento de VCs de destaque como 1kx, Blockchain Capital e Maven 11.

Um Ecossistema em Expansão

O Camp tem sido agressivo na construção de parcerias. A mais significativa é uma participação estratégica no KOR Protocol, uma plataforma para tokenizar IP musical que trabalha com artistas de grande porte como Deadmau5 e franquias como Black Mirror. Essa única parceria fornece ao Camp uma biblioteca massiva de conteúdo de alto perfil, já com direitos claros. Outros colaboradores chave incluem:

  • RewardedTV: Plataforma descentralizada de streaming de vídeo que usa o Camp para direitos de conteúdo on‑chain.
  • Rarible: Marketplace de NFT integrado para negociação de ativos de IP.
  • LayerZero: Protocolo cross‑chain que garante interoperabilidade com outras blockchains.

Roteiro e Comunidade

Após campanhas de testnet incentivadas que atraíram dezenas de milhares de usuários (recompensando‑os com pontos que se convertem em tokens), o Camp mira um lançamento de mainnet no terceiro trimestre de 2025. Isso será acompanhado por um Evento de Geração de Token para seu token nativo, $CAMP, que será usado para taxas de gas, staking e governança. O projeto já cultivou uma comunidade apaixonada, pronta para construir e usar a plataforma desde o primeiro dia.


Como Ela se Compara?

O Camp Network não está sozinho nesse espaço. Enfrenta concorrência forte de projetos como o Story Protocol, apoiado pela a16z, e o Soneium, ligado à Sony. Contudo, o Camp se diferencia em vários aspectos chave:

  1. Abordagem Bottom‑Up: Enquanto concorrentes parecem mirar grandes detentores corporativos de IP, o Camp foca em capacitar criadores independentes e comunidades cripto por meio de incentivos tokenizados.
  2. Solução Abrangente: Oferece um conjunto completo de ferramentas, desde um registro de IP até um framework de agentes de IA, posicionando‑se como um “one‑stop shop”.
  3. Desempenho e Escalabilidade: Sua arquitetura modular e suporte dual‑VM são projetados para atender às demandas de alta taxa de transferência de IA e mídia.

Conclusão

O Camp Network apresenta um caso convincente para se tornar a camada fundamental de propriedade intelectual na era Web3. Ao combinar tecnologia inovadora, equipe forte, parcerias estratégicas e uma ética centrada na comunidade, está construindo uma solução prática para um dos problemas mais urgentes criados pela IA generativa.

O verdadeiro teste virá com o lançamento da mainnet e a adoção no mundo real. Mas, com uma visão clara e execução sólida até agora, o Camp Network é, sem dúvida, um projeto chave a ser observado enquanto tenta construir um futuro mais equitativo para criadores digitais.

Conheça o BeFreed.ai – Combustível de Aprendizado para Construtores do BlockEden.xyz

· 4 min de leitura
Dora Noda
Software Engineer

Por que o BlockEden.xyz se importa

No mundo acelerado do Web3, velocidade é tudo. Entregar infraestrutura de RPC e staking de nível de produção exige que nossa equipe e nossa comunidade estejam constantemente na vanguarda da inovação. Isso significa estar por dentro de protocolos densos, artigos revolucionários de criptografia e discussões de governança que evoluem rapidamente. Quanto mais rápido nossa comunidade absorve e compreende novas ideias, mais rápido pode construir a próxima geração de aplicações descentralizadas. É aqui que BeFreed.ai entra.

O que é o BeFreed.ai

BeFreed.ai é uma startup de São Francisco com uma missão simples, porém poderosa: tornar o aprendizado alegre e pessoal na era da IA. Eles criaram um companheiro inteligente de micro‑aprendizado projetado para se adaptar ao estilo de vida exigente de construtores e criadores.

Ingredientes principais:

  • Múltiplos formatos → um clique: BeFreed.ai pode pegar uma ampla variedade de conteúdo — de livros extensos e vídeos detalhados a documentos técnicos complexos — e transformá‑los instantaneamente em resumos rápidos, flashcards, notas aprofundadas e até áudio no estilo de podcast.
  • Motor adaptativo: A plataforma foi projetada para aprender ao seu lado. Ela observa seu ritmo e interesses de aprendizado, trazendo as informações mais relevantes a seguir, em vez de forçá‑lo a seguir um currículo rígido e único para todos.
  • Chat integrado e explicações “Por que isso?”: Tem uma dúvida? Basta perguntar. BeFreed.ai permite consultas instantâneas para esclarecer tópicos complexos. Também oferece explicações que conectam novos insights aos seus objetivos maiores, tornando o processo de aprendizado mais significativo.
  • Comunidade de aprendizado de 43 mil pessoas: Aprender costuma ser uma atividade coletiva. BeFreed.ai fomenta uma comunidade vibrante de mais de 43 000 aprendizes que compartilham seu progresso, reagem a conteúdos perspicazes e destacam os principais aprendizados, mantendo alta motivação e impulso.

Por que isso importa para os construtores do BlockEden.xyz

Para os construtores dedicados ao ecossistema BlockEden.xyz, o BeFreed.ai é mais do que uma ferramenta de aprendizado; é uma vantagem estratégica. Veja como ele pode afiar seu diferencial:

  • Alavancagem de tempo: Transforme um whitepaper de 300 páginas em um resumo de áudio de 10 minutos para ouvir antes de uma votação crucial de governança.
  • Retenção de contexto: Use flashcards e mapas mentais para solidificar seu entendimento dos detalhes de protocolos que você precisará ao escrever índices de smart contracts.
  • Crescimento multidisciplinar: Expanda seu conjunto de habilidades sem sair do seu ambiente de desenvolvimento. Aprenda o básico de design thinking, entenda loops de crescimento ou obtenha dicas sobre concorrência em Go nos momentos de pausa.
  • Vocabulário compartilhado: Crie playlists a nível de equipe para garantir que todos os colaboradores aprendam a partir da mesma fonte destilada e consistente de informação, promovendo melhor colaboração e alinhamento.

Usando o BeFreed nos fluxos de trabalho do BlockEden.xyz

Integrar o BeFreed.ai ao seu processo de desenvolvimento existente é simples e traz benefícios imediatos:

  1. Solte uma especificação: Cole a URL do PDF mais recente de tokenomics ou de uma chamada de desenvolvedor no YouTube no BeFreed para obter um resumo instantâneo e digerível.
  2. Exporte flashcards: Revise conceitos chave durante execuções de CI. Essa forma de repetição é muito mais eficaz do que a fadiga mental causada por constantes trocas de contexto.
  3. Link nos docs: Incorpore a URL de resumo do BeFreed ao lado de cada referência de API na sua documentação para ajudar novos membros da equipe a se atualizarem mais rápido.
  4. Mantenha‑se atualizado: Configure digests semanais no BeFreed sobre L2s emergentes e coloque esse conhecimento em prática imediatamente ao prototipar com os serviços RPC multichain do BlockEden.xyz.

Comece agora

BeFreed.ai já está disponível para iOS, Android e web. Incentivamos você a testá‑lo no próximo sprint de projeto do BlockEden.xyz e experimentar como ele pode melhorar sua velocidade de aprendizado e construção. Nossa equipe já está explorando integrações mais estreitas — imagine um futuro onde um webhook transforma automaticamente cada descrição de PR mesclado em um conjunto de estudo abrangente.

Conectando IA e Web3 através do MCP: Uma Análise Panorâmica

· 50 min de leitura
Dora Noda
Software Engineer

Introdução

A IA e a Web3 estão convergindo de maneiras poderosas, com as interfaces gerais de IA sendo agora vislumbradas como um tecido conectivo para a web descentralizada. Um conceito fundamental que surge dessa convergência é o MCP, que variavelmente significa “Model Context Protocol” (conforme introduzido pela Anthropic) ou é vagamente descrito como um Metaverse Connection Protocol em discussões mais amplas. Em essência, o MCP é uma estrutura padronizada que permite que os sistemas de IA façam a interface com ferramentas e redes externas de uma forma natural e segura – potencialmente “conectando” agentes de IA a todos os cantos do ecossistema Web3. Este relatório fornece uma análise abrangente de como as interfaces gerais de IA (como agentes de grandes modelos de linguagem e sistemas simbólicos-neurais) poderiam conectar tudo no mundo Web3 via MCP, cobrindo o contexto histórico, a arquitetura técnica, o cenário da indústria, os riscos e o potencial futuro.

1. Contexto de Desenvolvimento

1.1 A Evolução da Web3 e Promessas não Cumpridas

O termo “Web3” foi cunhado por volta de 2014 para descrever uma web descentralizada alimentada por blockchain. A visão era ambiciosa: uma internet sem permissão (permissionless) centrada na propriedade do usuário. Os entusiastas imaginaram substituir a infraestrutura centralizada da Web2 por alternativas baseadas em blockchain – por exemplo, Ethereum Name Service (para DNS), Filecoin ou IPFS (para armazenamento) e DeFi para trilhos financeiros. Em teoria, isso tiraria o controle das plataformas das Big Techs e daria aos indivíduos a autossoberania sobre dados, identidade e ativos.

A realidade ficou aquém das expectativas. Apesar de anos de desenvolvimento e hype, o impacto da Web3 no mainstream permaneceu marginal. Os usuários comuns da internet não migraram em massa para redes sociais descentralizadas nem começaram a gerenciar chaves privadas. As principais razões incluíram uma experiência de usuário deficiente, transações lentas e caras, golpes de alto perfil e incerteza regulatória. A “web de propriedade” descentralizada em grande parte “falhou em se materializar” além de uma comunidade de nicho. Em meados da década de 2020, até mesmo os defensores das criptomoedas admitiram que a Web3 não havia proporcionado uma mudança de paradigma para o usuário comum.

Mientras tanto, a IA estava passando por uma revolução. À medida que o capital e o talento dos desenvolvedores migraram das criptos para a IA, avanços transformadores em aprendizado profundo e modelos de base (GPT-3, GPT-4, etc.) capturaram a imaginação do público. A IA generativa demonstrou uma utilidade clara – produzindo conteúdo, código e decisões – de uma forma que as aplicações de cripto tiveram dificuldade em fazer. Na verdade, o impacto dos grandes modelos de linguagem em apenas alguns anos superou nitidamente uma década de adoção de usuários da blockchain. Esse contraste levou alguns a brincar que “a Web3 foi desperdiçada com as criptos” e que a verdadeira Web 3.0 está surgindo da onda da IA.

1.2 A Ascensão das Interfaces Gerais de IA

Ao longo de décadas, as interfaces de usuário evoluíram de páginas web estáticas (Web 1.0) para aplicativos interativos (Web 2.0) – mas sempre dentro dos limites de clicar em botões e preencher formulários. Com a IA moderna, especialmente os grandes modelos de linguagem (LLMs), um novo paradigma de interface está aqui: a linguagem natural. Os usuários podem simplesmente expressar intenções em linguagem clara e fazer com que os sistemas de IA executem ações complexas em muitos domínios. Essa mudança é tão profunda que alguns sugerem redefinir a “Web 3.0” como a era dos agentes movidos por IA (“a Web Agêntica”), em vez da definição anterior centrada em blockchain.

No entanto, os primeiros experimentos com agentes de IA autônomos expuseram um gargalo crítico. Esses agentes – por exemplo, protótipos como AutoGPT – podiam gerar texto ou código, mas careciam de uma maneira robusta de se comunicar com sistemas externos e entre si. Não havia “nenhuma linguagem comum nativa de IA” para interoperabilidade. Cada integração com uma ferramenta ou fonte de dados era um ajuste sob medida, e a interação de IA para IA não possuía um protocolo padrão. Em termos práticos, um agente de IA poderia ter uma ótima capacidade de raciocínio, mas falhar na execução de tarefas que exigissem o uso de aplicativos web ou serviços on-chain, simplesmente porque não sabia como falar com esses sistemas. Esse descompasso – cérebros poderosos, E / S primitiva – era semelhante a ter um software superinteligente preso atrás de uma interface gráfica (GUI) desajeitada.

1.3 Convergência e o Surgimento do MCP

Em 2024, tornou-se evidente que para a IA atingir seu pleno potencial (e para a Web3 cumprir sua promessa), uma convergência era necessária: os agentes de IA exigem acesso contínuo às capacidades da Web3 (aplicativos descentralizados, contratos, dados), e a Web3 precisa de mais inteligência e usabilidade, que a IA pode fornecer. Este é o contexto em que o MCP (Model Context Protocol) nasceu. Introduzido pela Anthropic no final de 2024, o MCP é um padrão aberto para comunicação entre IA e ferramentas que parece natural para os LLMs. Ele fornece uma maneira estruturada e detectável para que “anfitriões” de IA (como ChatGPT, Claude, etc.) encontrem e usem uma variedade de ferramentas e recursos externos por meio de servidores MCP. Em outras palavras, o MCP é uma camada de interface comum que permite que agentes de IA se conectem a serviços web, APIs e até funções de blockchain, sem a necessidade de codificação personalizada para cada integração.

Pense no MCP como “o USB-C das interfaces de IA”. Assim como o USB-C padronizou a forma como os dispositivos se conectam (para que você não precise de cabos diferentes para cada dispositivo), o MCP padroniza como os agentes de IA se conectam a ferramentas e dados. Em vez de codificar chamadas de API diferentes para cada serviço (Slack vs. Gmail vs. nó Ethereum), um desenvolvedor pode implementar a especificação MCP uma vez, e qualquer IA compatível com MCP poderá entender como usar esse serviço. Os principais players de IA rapidamente perceberam a importância: a Anthropic abriu o código do MCP, e empresas como OpenAI e Google estão construindo suporte para ele em seus modelos. Esse impulso sugere que o MCP (ou “Protocolos de Meta-Conectividade” semelhantes) pode se tornar a espinha dorsal que finalmente conecta a IA e a Web3 de uma forma escalável.

Notavelmente, alguns tecnólogos argumentam que esta conectividade centrada em IA é a verdadeira realização da Web 3.0. Nas palavras de Simba Khadder, “o MCP visa padronizar uma API entre LLMs e aplicativos”, de forma análoga a como as APIs REST possibilitaram a Web 2.0 – o que significa que a próxima era da Web3 pode ser definida por interfaces de agentes inteligentes em vez de apenas blockchains. Em vez da descentralização pela descentralização, a convergência com a IA poderia tornar a descentralização útil, ocultando a complexidade por trás da linguagem natural e de agentes autônomos. O restante deste relatório aprofunda como, técnica e praticamente, as interfaces gerais de IA (via protocolos como o MCP) podem conectar tudo no mundo Web3.

2. Arquitetura Técnica: Interfaces de IA Criando Pontes entre Tecnologias Web3

A incorporação de agentes de IA na pilha Web3 exige a integração em múltiplos níveis: redes blockchain e contratos inteligentes, armazenamento descentralizado, sistemas de identidade e economias baseadas em tokens. As interfaces gerais de IA – desde grandes modelos de base até sistemas neurais-simbólicos híbridos – podem servir como um “adaptador universal” conectando esses componentes. Abaixo, analisamos a arquitetura dessa integração:

Figura: Um diagrama conceitual da arquitetura do MCP, mostrando como os hosts de IA (aplicativos baseados em LLM como Claude ou ChatGPT) usam um cliente MCP para se conectarem a vários servidores MCP. Cada servidor fornece uma ponte para alguma ferramenta ou serviço externo (ex. Slack, Gmail, calendários ou dados locais), de forma análoga a periféricos que se conectam através de um hub universal. Esta interface MCP padronizada permite que os agentes de IA acessem serviços remotos e recursos on-chain por meio de um protocolo comum.

2.1 Agentes de IA como Clientes Web3 (Integrando com Blockchains)

No cerne da Web3 estão as blockchains e os contratos inteligentes – máquinas de estado descentralizadas que podem aplicar a lógica de maneira trustless. Como uma interface de IA pode se envolver com eles? Existem duas direções a considerar:

  • IA lendo da blockchain: Um agente de IA pode precisar de dados on-chain (ex. preços de tokens, saldo de ativos do usuário, propostas de DAO) como contexto para suas decisões. Tradicionalmente, a recuperação de dados de blockchain exige a interface com APIs RPC de nós ou bancos de dados de subgráficos. Com um framework como o MCP, uma IA pode consultar um servidor MCP padronizado de “dados de blockchain” para buscar informações on-chain em tempo real. Por exemplo, um agente habilitado para MCP poderia solicitar o volume de transações mais recente de um determinado token, ou o estado de um contrato inteligente, e o servidor MCP cuidaria dos detalhes de baixo nível da conexão com a blockchain e retornaria os dados em um formato que a IA possa usar. Isso aumenta a interoperabilidade ao desacoplar a IA do formato de API de qualquer blockchain específica.

  • IA escrevendo na blockchain: De forma mais poderosa, os agentes de IA podem executar chamadas de contratos inteligentes ou transações por meio de integrações Web3. Uma IA poderia, por exemplo, executar autonomamente uma negociação em uma exchange descentralizada ou ajustar parâmetros em um contrato inteligente se certas condições forem atendidas. Isso é alcançado pela IA invocando um servidor MCP que envolve a funcionalidade de transação da blockchain. Um exemplo concreto é o servidor MCP da thirdweb para cadeias EVM, que permite que qualquer cliente de IA compatível com MCP interaja com Ethereum, Polygon, BSC, etc., abstraindo as mecânicas específicas de cada cadeia. Usando tal ferramenta, um agente de IA poderia desencadear ações on-chain “sem intervenção humana”, permitindo dApps autônomos – por exemplo, um cofre DeFi impulsionado por IA que se reequilibra sozinho ao assinar transações quando as condições do mercado mudam.

Nos bastidores, essas interações ainda dependem de carteiras, chaves e taxas de gas, mas a interface de IA pode receber acesso controlado a uma carteira (com sandboxes de segurança adequadas) para realizar as transações. Oráculos e pontes cross-chain também entram em jogo: redes de oráculos como a Chainlink servem como uma ponte entre a IA e as blockchains, permitindo que os outputs da IA sejam enviados para a rede on-chain de forma confiável. O Cross-Chain Interoperability Protocol (CCIP) da Chainlink, por exemplo, poderia permitir que um modelo de IA considerado confiável acionasse múltiplos contratos em diferentes cadeias simultaneamente em nome de um usuário. Em resumo, as interfaces gerais de IA podem atuar como um novo tipo de cliente Web3 – um que pode tanto consumir dados de blockchain quanto produzir transações de blockchain por meio de protocolos padronizados.

2.2 Sinergia Neural-Simbólica: Combinando o Raciocínio de IA com Contratos Inteligentes

Um aspecto intrigante da integração IA-Web3 é o potencial para arquiteturas neurais-simbólicas que combinam a capacidade de aprendizado da IA (redes neurais) com a lógica rigorosa dos contratos inteligentes (regras simbólicas). Na prática, isso poderia significar agentes de IA lidando com tomadas de decisão não estruturadas e passando certas tarefas para contratos inteligentes para execução verificável. Por exemplo, uma IA pode analisar o sentimento do mercado (uma tarefa imprecisa), mas então executar negociações por meio de um contrato inteligente determinístico que segue regras de risco predefinidas. O framework MCP e os padrões relacionados tornam essas transferências viáveis ao dar à IA uma interface comum para chamar funções de contrato ou consultar as regras de uma DAO antes de agir.

Um exemplo concreto é a AI-DSL (Linguagem Específica de Domínio para IA) da SingularityNET, que visa padronizar a comunicação entre agentes de IA em sua rede descentralizada. Isso pode ser visto como um passo em direção à integração neural-simbólica: uma linguagem formal (simbólica) para os agentes solicitarem serviços de IA ou dados uns dos outros. Da mesma forma, projetos como o AlphaCode da DeepMind ou outros poderiam eventualmente ser conectados para que contratos inteligentes chamem modelos de IA para a resolução de problemas on-chain. Embora a execução de grandes modelos de IA diretamente on-chain seja impraticável hoje, abordagens híbridas estão surgindo: ex. certas blockchains permitem a verificação de computações de ML via provas de conhecimento zero ou execução confiável, permitindo a verificação on-chain de resultados de IA gerados off-chain. Em resumo, a arquitetura técnica vislumbra sistemas de IA e contratos inteligentes de blockchain como componentes complementares, orquestrados por protocolos comuns: a IA lida com a percepção e tarefas em aberto, enquanto as blockchains fornecem integridade, memória e a aplicação das regras acordadas.

2.3 Armazenamento Descentralizado e Dados para IA

A IA prospera com dados, e a Web3 oferece novos paradigmas para o armazenamento e compartilhamento de dados. As redes de armazenamento descentralizado (como IPFS / Filecoin, Arweave, Storj, etc. ) podem servir tanto como repositórios para artefatos de modelos de IA quanto como fontes de dados de treinamento, com controle de acesso baseado em blockchain. Uma interface geral de IA, por meio do MCP ou similar, poderia buscar arquivos ou conhecimento de armazenamento descentralizado com a mesma facilidade que de uma API Web2. Por exemplo, um agente de IA poderia extrair um conjunto de dados do mercado do Ocean Protocol ou um arquivo criptografado de um armazenamento distribuído, caso possua as chaves ou pagamentos adequados.

O Ocean Protocol, em particular, posicionou - se como uma plataforma de “economia de dados de IA” – usando blockchain para tokenizar dados e até serviços de IA. No Ocean, os conjuntos de dados são representados por datatokens que controlam o acesso; um agente de IA poderia obter um datatoken (talvez pagando com cripto ou via algum direito de acesso) e, em seguida, usar um servidor MCP do Ocean para recuperar os dados reais para análise. O objetivo do Ocean é desbloquear “dados inativos” para a IA, incentivando o compartilhamento enquanto preserva a privacidade. Assim, uma IA conectada à Web3 pode acessar um vasto corpus descentralizado de informações – desde cofres de dados pessoais até dados governamentais abertos – que antes estavam isolados. O blockchain garante que o uso dos dados seja transparente e possa ser recompensado de forma justa, alimentando um ciclo virtuoso em que mais dados se tornam disponíveis para a IA e mais contribuições de IA (como modelos treinados) podem ser monetizadas.

Os sistemas de identidade descentralizada também desempenham um papel aqui (discutidos mais na próxima subseção): eles podem ajudar a controlar quem ou o que tem permissão para acessar determinados dados. Por exemplo, um agente de IA médico poderia ser solicitado a apresentar uma credencial verificável (prova on - chain de conformidade com HIPAA ou similar) antes de ser autorizado a descriptografar um conjunto de dados médicos do armazenamento IPFS pessoal de um paciente. Dessa forma, a arquitetura técnica garante que os dados fluam para a IA quando apropriado, mas com governança on - chain e trilhas de auditoria para aplicar permissões.

2.4 Gestão de Identidade e Agentes em um Ambiente Descentralizado

Quando agentes de IA autônomos operam em um ecossistema aberto como a Web3, a identidade e a confiança tornam - se primordiais. As estruturas de identidade descentralizada (DID) fornecem uma maneira de estabelecer identidades digitais para agentes de IA que podem ser verificadas criptograficamente. Cada agente (ou a pessoa / organização que o implementa) pode ter um DID e credenciais verificáveis associadas que especificam seus atributos e permissões. Por exemplo, um bot de negociação de IA poderia portar uma credencial emitida por um sandbox regulatório certificando que ele pode operar dentro de certos limites de risco, ou um moderador de conteúdo de IA poderia provar que foi criado por uma organização confiável e passou por testes de viés.

Por meio de registros de identidade on - chain e sistemas de reputação, o mundo Web3 pode impor a responsabilidade pelas ações da IA. Cada transação que um agente de IA realiza pode ser rastreada até o seu ID e, se algo der errado, as credenciais informam quem o construiu ou quem é o responsável. Isso aborda um desafio crítico: sem identidade, um ator mal - intencionado poderia criar agentes de IA falsos para explorar sistemas ou espalhar desinformação, e ninguém conseguiria distinguir bots de serviços legítimos. A identidade descentralizada ajuda a mitigar isso ao permitir uma autenticação robusta e distinguir agentes de IA autênticos de falsificações.

Na prática, uma interface de IA integrada à Web3 usaria protocolos de identidade para assinar suas ações e solicitações. Por exemplo, quando um agente de IA chama um servidor MCP para usar uma ferramenta, ele pode incluir um token ou assinatura vinculada à sua identidade descentralizada, para que o servidor possa verificar se a chamada é de um agente autorizado. Sistemas de identidade baseados em blockchain (como o ERC - 725 da Ethereum ou DIDs da W3C ancorados em um livro - razão) garantem que essa verificação seja trustless e verificável globalmente. O conceito emergente de “carteiras de IA” vincula - se a isso – essencialmente dando aos agentes de IA carteiras de criptomoedas ligadas à sua identidade, para que possam gerenciar chaves, pagar por serviços ou fazer staking de tokens como garantia (que poderia ser cortada / slashed por mau comportamento). A ArcBlock, por exemplo, discutiu como “agentes de IA precisam de uma carteira” e de um DID para operar de forma responsável em ambientes descentralizados.

Em resumo, a arquitetura técnica prevê agentes de IA como cidadãos de primeira classe na Web3, cada um com uma identidade on - chain e possivelmente uma participação no sistema, usando protocolos como o MCP para interagir. Isso cria uma rede de confiança: contratos inteligentes podem exigir as credenciais de uma IA antes de cooperar, e os usuários podem optar por delegar tarefas apenas àquelas IAs que atendam a certas certificações on - chain. É uma mistura da capacidade da IA com as garantias de confiança do blockchain.

2.5 Economias de Tokens e Incentivos para IA

A tokenização é uma marca registrada da Web3 e se estende também ao domínio da integração de IA. Ao introduzir incentivos econômicos via tokens, as redes podem encorajar comportamentos desejados tanto dos desenvolvedores de IA quanto dos próprios agentes. Vários padrões estão surgindo:

  • Pagamento por Serviços: Modelos e serviços de IA podem ser monetizados on - chain. A SingularityNET foi pioneira nisso ao permitir que desenvolvedores implementassem serviços de IA e cobrassem dos usuários em um token nativo (AGIX) por cada chamada. Em um futuro habilitado para MCP, poder - se - ia imaginar qualquer ferramenta ou modelo de IA sendo um serviço plug - and - play onde o uso é medido via tokens ou micropagamentos. Por exemplo, se um agente de IA usa uma API de visão de terceiros via MCP, ele poderia lidar automaticamente com o pagamento transferindo tokens para o contrato inteligente do provedor de serviços. A Fetch.ai vislumbra de forma semelhante mercados onde “agentes econômicos autônomos” trocam serviços e dados, com seu novo LLM Web3 (ASI - 1) presumivelmente integrando transações cripto para troca de valor.

  • Staking e Reputação: Para garantir a qualidade e a confiabilidade, alguns projetos exigem que desenvolvedores ou agentes façam staking de tokens. Por exemplo, o projeto DeMCP (um mercado de servidores MCP descentralizado) planeja usar incentivos de token para recompensar desenvolvedores pela criação de servidores MCP úteis e, possivelmente, fazer com que eles depositem tokens como sinal de compromisso com a segurança de seu servidor. A reputação também pode ser vinculada a tokens; por exemplo, um agente que desempenha consistentemente bem pode acumular tokens de reputação ou avaliações on - chain positivas, enquanto um que se comporta mal pode perder o stake ou ganhar marcas negativas. Essa reputação tokenizada pode então alimentar o sistema de identidade mencionado acima (contratos inteligentes ou usuários verificam a reputação on - chain do agente antes de confiar nele).

  • Tokens de Governança: Quando os serviços de IA se tornam parte de plataformas descentralizadas, os tokens de governança permitem que a comunidade guie sua evolução. Projetos como SingularityNET e Ocean possuem DAOs onde os detentores de tokens votam em mudanças de protocolo ou no financiamento de iniciativas de IA. Na combinada Artificial Superintelligence (ASI) Alliance – uma fusão recém - anunciada da SingularityNET, Fetch.ai e Ocean Protocol – um token unificado (ASI) deve governar a direção de um ecossistema conjunto de IA + blockchain. Tais tokens de governança poderiam decidir políticas como quais padrões adotar (por exemplo, suporte aos protocolos MCP ou A2A), quais projetos de IA incubar ou como lidar com diretrizes éticas para agentes de IA.

  • Acesso e Utilidade: Os tokens podem controlar o acesso não apenas aos dados (como acontece com os datatokens do Ocean), mas também ao uso de modelos de IA. Um cenário possível são os “NFTs de modelo” ou similares, onde possuir um token concede direitos aos resultados de um modelo de IA ou uma participação em seus lucros. Isso poderia sustentar mercados descentralizados de IA: imagine um NFT que representa a propriedade parcial de um modelo de alto desempenho; os proprietários ganham coletivamente sempre que o modelo é usado em tarefas de inferência e podem votar no seu ajuste fino (fine - tuning). Embora experimental, isso se alinha com o ethos da Web3 de propriedade compartilhada aplicada a ativos de IA.

Em termos técnicos, integrar tokens significa que os agentes de IA precisam de funcionalidade de carteira (como observado, muitos terão suas próprias carteiras cripto). Por meio do MCP, uma IA poderia ter uma “ferramenta de carteira” que permite verificar saldos, enviar tokens ou chamar protocolos DeFi (talvez para trocar um token por outro para pagar um serviço). Por exemplo, se um agente de IA em execução na Ethereum precisar de alguns tokens Ocean para comprar um conjunto de dados, ele pode trocar automaticamente algum ETH por $ OCEAN via uma DEX usando um plugin MCP e, em seguida, prosseguir com a compra – tudo sem intervenção humana, guiado pelas políticas definidas por seu proprietário.

No geral, a economia de tokens fornece a camada de incentivo na arquitetura IA - Web3, garantindo que os colaboradores (sejam eles fornecedores de dados, código de modelo, poder computacional ou auditorias de segurança) sejam recompensados e que os agentes de IA tenham “skin in the game” que os alinhe (até certo ponto) com as intenções humanas.

3. Panorama do Setor

A convergência de IA + Web3 desencadeou um ecossistema vibrante de projetos, empresas e alianças. Abaixo, analisamos os principais players e iniciativas que impulsionam este espaço, bem como os casos de uso emergentes. A Tabela 1 fornece uma visão geral de alto nível de projetos notáveis e seus papéis no cenário de IA - Web3:

Tabela 1: Principais Players em IA + Web3 e Seus Papéis

Projeto / PlayerFoco e DescriçãoPapel na Convergência IA - Web3 e Casos de Uso
Fetch.ai (Fetch)Plataforma de agentes de IA com uma blockchain nativa (baseada em Cosmos). Desenvolveu frameworks para agentes autônomos e recentemente introduziu o “ASI - 1 Mini”, um LLM ajustado para Web3.Permite serviços baseados em agentes na Web3. Os agentes da Fetch podem realizar tarefas como logística descentralizada, busca de vagas de estacionamento ou negociação DeFi em nome dos usuários, usando cripto para pagamentos. Parcerias (ex: com a Bosch) e a fusão da aliança Fetch - AI a posicionam como uma infraestrutura para a implantação de dApps agênticos.
Ocean Protocol (Ocean)Marketplace de dados descentralizado e protocolo de troca de dados. Especializado na tokenização de conjuntos de dados e modelos, com controle de acesso que preserva a privacidade.Fornece a espinha dorsal de dados para IA na Web3. O Ocean permite que desenvolvedores de IA encontrem e comprem conjuntos de dados ou vendam modelos treinados em uma economia de dados trustless. Ao abastecer a IA com dados mais acessíveis (enquanto recompensa os provedores de dados), apoia a inovação em IA e o compartilhamento de dados para treinamento. O Ocean faz parte da nova aliança ASI, integrando seus serviços de dados em uma rede de IA mais ampla.
SingularityNET (SNet)Um marketplace de serviços de IA descentralizado fundado pelo pioneiro da IA Ben Goertzel. Permite que qualquer pessoa publique ou consuma algoritmos de IA por meio de sua plataforma baseada em blockchain, usando o token AGIX.Pioneira no conceito de um marketplace de IA aberto na blockchain. Fomenta uma rede de agentes e serviços de IA que podem interoperar (desenvolvendo uma IA - DSL especial para comunicação entre agentes). Os casos de uso incluem IA como serviço para tarefas como análise, reconhecimento de imagem, etc., todos acessíveis via dApp. Agora fundindo - se com Fetch e Ocean (aliança ASI) para combinar IA, agentes e dados em um único ecossistema.
Chainlink (Rede de Oráculos)Rede de oráculos descentralizada que serve de ponte entre blockchains e dados / computação off - chain. Não é um projeto de IA em si, mas é crucial para conectar contratos inteligentes on - chain a APIs e sistemas externos.Atua como um middleware seguro para a integração IA - Web3. Os oráculos da Chainlink podem fornecer saídas de modelos de IA para contratos inteligentes, permitindo que programas on - chain reajam a decisões de IA. Por outro lado, os oráculos podem recuperar dados de blockchains para IA. A arquitetura da Chainlink pode até agregar resultados de múltiplos modelos de IA para melhorar a confiabilidade (uma abordagem de “máquina da verdade” para mitigar alucinações de IA). Essencialmente, fornece os trilhos para a interoperabilidade, garantindo que os agentes de IA e a blockchain concordem com dados confiáveis.
Anthropic & OpenAI (Provedores de IA)Desenvolvedores de modelos de fundação de ponta (Claude da Anthropic, GPT da OpenAI). Eles estão integrando recursos amigáveis à Web3, como APIs de uso de ferramentas nativas e suporte para protocolos como MCP.Essas empresas impulsionam a tecnologia de interface de IA. A introdução do MCP pela Anthropic estabeleceu o padrão para LLMs interagirem com ferramentas externas. A OpenAI implementou sistemas de plugins para o ChatGPT (análogo ao conceito de MCP) e está explorando a conexão de agentes a bancos de dados e possivelmente blockchains. Seus modelos servem como os “cérebros” que, quando conectados via MCP, podem fazer interface com a Web3. Grandes provedores de nuvem (ex: protocolo A2A do Google) também estão desenvolvendo padrões para interações multi - agente e de ferramentas que beneficiarão a integração com a Web3.
Outros Players EmergentesLumoz: focando em servidores MCP e integração de ferramentas de IA no Ethereum (apelidado de “Ethereum 3.0”) – ex: verificar saldos on - chain via agentes de IA. Alethea AI: criando avatares NFT inteligentes para o metaverso. Cortex: uma blockchain que permite inferência de modelos de IA on - chain via contratos inteligentes. Golem & Akash: marketplaces de computação descentralizada que podem executar cargas de trabalho de IA. Numerai: modelos de IA via crowdsourcing para finanças com incentivos em cripto.Este grupo diversificado aborda facetas de nicho: IA no metaverso (NPCs e avatares movidos a IA que pertencem aos usuários via NFTs), execução de IA on - chain (execução de modelos de ML de forma descentralizada, embora atualmente limitada a modelos pequenos devido ao custo computacional) e computação descentralizada (para que as tarefas de treinamento ou inferência de IA possam ser distribuídas entre nós incentivados por tokens). Esses projetos mostram as muitas direções da fusão IA - Web3 – de mundos de jogos com personagens de IA a modelos preditivos de crowdsourcing protegidos por blockchain.

Alianças e Colaborações: Uma tendência notável é a consolidação dos esforços de IA - Web3 por meio de alianças. A Aliança de Superinteligência Artificial (ASI) é um exemplo primordial, fundindo efetivamente SingularityNET, Fetch.ai e Ocean Protocol em um único projeto com um token unificado. A lógica é combinar forças: o marketplace da SingularityNET, os agentes da Fetch e os dados da Ocean, criando assim uma plataforma completa para serviços de IA descentralizados. Esta fusão (anunciada em 2024 e aprovada por votos dos detentores de tokens) também sinaliza que estas comunidades acreditam que é melhor cooperar do que competir – especialmente com o crescimento de IAs maiores (OpenAI, etc.) e ecossistemas cripto maiores (Ethereum, etc.). Podemos ver esta aliança impulsionando implementações padrão de itens como MCP em suas redes, ou financiando conjuntamente infraestrutura que beneficie a todos (como redes de computação ou padrões de identidade comuns para IA).

Outras colaborações incluem as parcerias da Chainlink para trazer dados de laboratórios de IA para o ambiente on - chain (houve programas piloto para usar IA no refinamento de dados de oráculos) ou o envolvimento de plataformas de nuvem (suporte da Cloudflare para implantar servidores MCP facilmente). Até mesmo projetos cripto tradicionais estão adicionando recursos de IA – por exemplo, algumas redes de Camada 1 formaram “forças - tarefa de IA” para explorar a integração de IA em seus ecossistemas de dApps (vemos isso nas comunidades NEAR, Solana, etc., embora os resultados concretos ainda sejam incipientes).

Casos de Uso Emergentes: Mesmo nesta fase inicial, podemos identificar casos de uso que exemplificam o poder de IA + Web3:

  • DeFi e Negociação Autônoma: Agentes de IA são cada vez mais usados em bots de negociação de cripto, otimizadores de yield farming e gestão de portfólio on - chain. A SingularityDAO (um braço da SingularityNET) oferece portfólios DeFi gerenciados por IA. A IA pode monitorar as condições do mercado 24 / 7 e executar rebalanceamentos ou arbitragens por meio de contratos inteligentes, tornando - se essencialmente um fundo de hedge autônomo (com transparência on - chain). A combinação da tomada de decisão por IA com a execução imutável reduz a emoção e pode melhorar a eficiência – embora também introduza novos riscos (discutidos adiante).

  • Marketplaces de Inteligência Descentralizada: Além do marketplace da SingularityNET, vemos plataformas como o Ocean Market, onde dados (o combustível para a IA) são trocados, e novos conceitos como marketplaces de IA para modelos (ex: sites onde modelos são listados com estatísticas de desempenho e qualquer pessoa pode pagar para consultá - los, com a blockchain mantendo logs de auditoria e lidando com a divisão de pagamentos para os criadores dos modelos). À medida que o MCP ou padrões semelhantes se popularizam, esses marketplaces podem se tornar interoperáveis – um agente de IA pode comprar autonomamente o serviço com melhor preço em várias redes. Efetivamente, pode surgir uma camada global de serviços de IA sobre a Web3, onde qualquer IA pode usar qualquer ferramenta ou fonte de dados por meio de protocolos e pagamentos padronizados.

  • Metaverso e Games: O metaverso – mundos virtuais imersivos muitas vezes construídos sobre ativos de blockchain – tem muito a ganhar com a IA. NPCs (personagens não - jogáveis) movidos a IA podem tornar os mundos virtuais mais envolventes, reagindo de forma inteligente às ações dos usuários. Startups como a Inworld IA focam nisso, criando NPCs com memória e personalidade para jogos. Quando esses NPCs estão vinculados à blockchain (ex: os atributos e a propriedade de cada NPC são um NFT), obtemos personagens persistentes que os jogadores podem realmente possuir e até negociar. O Decentraland experimentou NPCs de IA, e existem propostas de usuários para permitir que as pessoas criem avatares personalizados movidos a IA em plataformas de metaverso. O MCP poderia permitir que esses NPCs acessassem conhecimento externo (tornando - os mais inteligentes) ou interagissem com inventários on - chain. A geração de conteúdo procedimental é outro ângulo: a IA pode projetar terrenos virtuais, itens ou missões dinamicamente, que podem então ser cunhados como NFTs exclusivos. Imagine um jogo descentralizado onde a IA gera uma masmorra adaptada à sua habilidade, e o próprio mapa é um NFT que você ganha ao completar a missão.

  • Ciência e Conhecimento Descentralizados: Existe um movimento (DeSci) para usar blockchain em pesquisas, publicações e financiamento de trabalhos científicos. IA pode acelerar a pesquisa analisando dados e literatura. Uma rede como a Ocean poderia hospedar conjuntos de dados para, por exemplo, pesquisa genômica, e os cientistas usariam modelos de IA (talvez hospedados na SingularityNET) para derivar insights, com cada etapa registrada on - chain para reprodutibilidade. Se esses modelos de IA propuserem novas moléculas de medicamentos, um NFT poderia ser cunhado para registrar a invenção e até compartilhar direitos de propriedade intelectual. Esta sinergia pode produzir coletivos descentralizados de P & D movidos a IA.

  • Confiança e Autenticação de Conteúdo: Com a proliferação de deepfakes e mídia gerada por IA, a blockchain pode ser usada para verificar a autenticidade. Projetos estão explorando a “marca d’água digital” de saídas de IA e registrando - as on - chain. Por exemplo, a origem real de uma imagem gerada por IA pode ser notarizada em uma blockchain para combater a desinformação. Um especialista observou casos de uso como a verificação de saídas de IA para combater deepfakes ou o rastreio da proveniência via logs de propriedade – papéis onde a cripto pode adicionar confiança aos processos de IA. Isso pode se estender a notícias (ex: artigos escritos por IA com prova de dados de origem), cadeia de suprimentos (IA verificando certificados on - chain), etc.

Em resumo, o cenário da indústria é rico e está evoluindo rapidamente. Vemos projetos cripto tradicionais injetando IA em seus roadmaps, startups de IA adotando a descentralização para resiliência e justiça, e empreendimentos inteiramente novos surgindo na interseção. Alianças como a ASI indicam um esforço pan - industrial em direção a plataformas unificadas que aproveitam tanto a IA quanto a blockchain. E subjacente a muitos desses esforços está a ideia de interfaces padronizadas (MCP e além) que tornam as integrações viáveis em escala.

4. Riscos e Desafios

Enquanto a fusão de interfaces gerais de IA com a Web3 desbloqueia possibilidades empolgantes, ela também introduz um cenário de riscos complexo. Desafios técnicos, éticos e de governança devem ser abordados para garantir que este novo paradigma seja seguro e sustentável. Abaixo, descrevemos os principais riscos e obstáculos:

4.1 Obstáculos Técnicos: Latência e Escalabilidade

As redes blockchain são famosas pela latência e pelo rendimento (throughput) limitado, o que entra em conflito com a natureza em tempo real e sedenta por dados da IA avançada. Por exemplo, um agente de IA pode precisar de acesso instantâneo a um dado ou precisar executar muitas ações rápidas – mas se cada interação on-chain levar, digamos, 12 segundos (tempo de bloco típico na Ethereum) ou custar taxas de gas elevadas, a eficácia do agente é reduzida. Mesmo cadeias mais novas com finalização mais rápida podem ter dificuldades sob a carga de atividade impulsionada por IA se, por exemplo, milhares de agentes estiverem todos negociando ou consultando on-chain simultaneamente. Soluções de escalabilidade (redes de Camada 2, chains fragmentadas (sharded), etc.) estão em progresso, mas garantir pipelines de baixa latência e alto rendimento entre IA e blockchain continua sendo um desafio. Sistemas off-chain (como oráculos e canais de estado) podem mitigar alguns atrasos ao lidar com muitas interações fora da cadeia principal, mas adicionam complexidade e potencial centralização. Alcançar uma UX contínua onde as respostas da IA e as atualizações on-chain aconteçam em um piscar de olhos provavelmente exigirá inovação significativa na escalabilidade da blockchain.

4.2 Interoperabilidade e Padrões

Ironicamente, embora o MCP seja em si uma solução para interoperabilidade, o surgimento de múltiplos padrões pode causar fragmentação. Temos o MCP da Anthropic, mas também o recém-anunciado protocolo A2A (Agent-to-Agent) do Google para comunicação entre agentes, e vários frameworks de plugins de IA (plugins da OpenAI, esquemas de ferramentas da LangChain, etc.). Se cada plataforma de IA ou cada blockchain desenvolver seu próprio padrão para integração de IA, corremos o risco de repetir a fragmentação do passado – exigindo muitos adaptadores e prejudicando o objetivo de uma "interface universal". O desafio é obter uma adoção ampla de protocolos comuns. A colaboração da indústria (possivelmente por meio de órgãos de padrões abertos ou alianças) será necessária para convergir em peças fundamentais: como os agentes de IA descobrem serviços on-chain, como eles se autenticam, como formatam as solicitações, etc. Os movimentos iniciais de grandes players são promissores (com grandes provedores de LLM suportando o MCP), mas é um esforço contínuo. Além disso, a interoperabilidade entre blockchains (multi-chain) significa que um agente de IA deve lidar com as nuances de diferentes cadeias. Ferramentas como Chainlink CCIP e servidores MCP cross-chain ajudam ao abstrair as diferenças. Ainda assim, garantir que um agente de IA possa percorrer uma Web3 heterogênea sem quebrar a lógica é um desafio não trivial.

4.3 Vulnerabilidades de Segurança e Exploits

Conectar agentes de IA poderosos a redes financeiras abre uma superfície de ataque enorme. A flexibilidade que o MCP oferece (permitindo que a IA use ferramentas e escreva código em tempo real) pode ser uma faca de dois gumes. Pesquisadores de segurança já destacaram vários vetores de ataque em agentes de IA baseados em MCP:

  • Plugins ou ferramentas maliciosas: Como o MCP permite que os agentes carreguem "plugins" (ferramentas que encapsulam alguma capacidade), um plugin hostil ou com trojan poderia sequestrar a operação do agente. Por exemplo, um plugin que afirma buscar dados pode injetar dados falsos ou executar operações não autorizadas. A SlowMist (uma empresa de segurança) identificou ataques baseados em plugins como injeção de JSON (alimentação de dados corrompidos que manipulam a lógica do agente) e sobrescrita de função (onde um plugin malicioso substitui funções legítimas que o agente utiliza). Se um agente de IA estiver gerenciando fundos cripto, tais exploits podem ser desastrosos – por exemplo, enganar o agente para vazar chaves privadas ou esvaziar uma carteira.

  • Injeção de prompt e engenharia social: Os agentes de IA dependem de instruções (prompts) que podem ser manipuladas. Um invasor pode criar uma transação ou mensagem on-chain que, quando lida pela IA, atua como uma instrução maliciosa (já que a IA também pode interpretar dados on-chain). Esse tipo de “ataque de chamada cross-MCP” foi descrito onde um sistema externo envia prompts enganosos que fazem a IA se comportar de maneira inadequada. Em um ambiente descentralizado, esses prompts podem vir de qualquer lugar – uma descrição de proposta de DAO, um campo de metadados de um NFT – portanto, proteger os agentes de IA contra entradas maliciosas é crítico.

  • Riscos de agregação e consenso: Embora a agregação de resultados de múltiplos modelos de IA via oráculos possa melhorar a confiabilidade, ela também introduz complexidade. Se não for feita com cuidado, os adversários podem descobrir como manipular o consenso dos modelos de IA ou corromper seletivamente alguns modelos para distorcer os resultados. Garantir que uma rede de oráculos descentralizada “higienize” adequadamente os resultados da IA (e talvez filtre erros gritantes) ainda é uma área de pesquisa ativa.

A mentalidade de segurança deve mudar para este novo paradigma: os desenvolvedores Web3 estão acostumados a proteger contratos inteligentes (que são estáticos uma vez implantados), mas os agentes de IA são dinâmicos – eles podem mudar o comportamento com novos dados ou prompts. Como disse um especialista em segurança, “no momento em que você abre seu sistema para plugins de terceiros, você está estendendo a superfície de ataque para além do seu controle”. As melhores práticas incluirão o uso de ferramentas de IA em sandbox, verificação rigorosa de plugins e limitação de privilégios (princípio da autoridade mínima). A comunidade está começando a compartilhar dicas, como as recomendações da SlowMist: higienização de entrada, monitoramento do comportamento do agente e tratamento das instruções do agente com a mesma cautela que a entrada de um usuário externo. No entanto, dado que mais de 10.000 agentes de IA já estavam operando em cripto no final de 2024, com previsão de chegar a 1 milhão em 2025, podemos ver uma onda de exploits se a segurança não acompanhar o ritmo. Um ataque bem-sucedido a um agente de IA popular (digamos, um agente de negociação com acesso a muitos cofres) poderia ter efeitos em cascata.

4.4 Privacidade e Governança de Dados

A sede da IA por dados entra em conflito, por vezes, com os requisitos de privacidade – e a adição da blockchain pode agravar o problema. Blockchains são livros - razão (ledgers) transparentes, portanto, quaisquer dados colocados on - chain (mesmo para uso da IA) são visíveis para todos e imutáveis. Isso levanta preocupações se os agentes de IA estiverem lidando com dados pessoais ou sensíveis. Por exemplo, se a identidade descentralizada pessoal de um usuário ou registros de saúde forem acessados por um agente médico de IA, como garantimos que essa informação não seja gravada inadvertidamente on - chain (o que violaria o “direito ao esquecimento” e outras leis de privacidade)? Técnicas como criptografia, hashing e armazenamento de apenas provas on - chain (com dados brutos off - chain) podem ajudar, mas complicam o design.

Além disso, os próprios agentes de IA podem comprometer a privacidade ao inferir informações sensíveis a partir de dados públicos. A governança precisará ditar o que os agentes de IA podem fazer com os dados. Alguns esforços, como privacidade diferencial e aprendizado federado, podem ser empregados para que a IA possa aprender com os dados sem expô - los. Mas se os agentes de IA agirem de forma autônoma, deve - se assumir que, em algum momento, eles lidarão com dados pessoais – portanto, devem estar vinculados a políticas de uso de dados codificadas em contratos inteligentes ou na lei. Regimes regulatórios como o GDPR ou o futuro EU AI Act exigirão que até mesmo sistemas de IA descentralizados cumpram os requisitos de privacidade e transparência. Esta é uma área cinzenta legalmente: um agente de IA verdadeiramente descentralizado não possui um operador claro para ser responsabilizado por uma violação de dados. Isso significa que as comunidades Web3 podem precisar incorporar a conformidade por design, usando contratos inteligentes que, por exemplo, controlem rigidamente o que uma IA pode registrar ou compartilhar. As provas de conhecimento zero poderiam permitir que uma IA provasse que realizou uma computação corretamente sem revelar os dados privados subjacentes, oferecendo uma solução possível em áreas como verificação de identidade ou pontuação de crédito.

4.5 Alinhamento de IA e Riscos de Desalinhamento

Quando os agentes de IA recebem autonomia significativa – especialmente com acesso a recursos financeiros e impacto no mundo real – a questão do alinhamento com os valores humanos torna - se aguda. Um agente de IA pode não ter intenção maliciosa, mas pode “interpretar mal” seu objetivo de uma forma que leve ao dano. A análise jurídica da Reuters observa sucintamente: à medida que os agentes de IA operam em ambientes variados e interagem com outros sistemas, o risco de estratégias desalinhadas cresce. Por exemplo, um agente de IA encarregado de maximizar um rendimento DeFi pode encontrar uma brecha que explore um protocolo (essencialmente hackeando - o) – do ponto de vista da IA, ele está alcançando o objetivo, mas está quebrando as regras com as quais os humanos se preocupam. Houve instâncias hipotéticas e reais de algoritmos semelhantes à IA envolvidos em comportamento de mercado manipulador ou contornando restrições.

Em contextos descentralizados, quem é responsável se um agente de IA se tornar “rebelde” (goes rogue)? Talvez o implantador seja, mas e se o agente se modificar sozinho ou se várias partes tiverem contribuído para o seu treinamento? Esses cenários não são mais apenas ficção científica. O artigo da Reuters cita até que os tribunais podem tratar agentes de IA de forma semelhante a agentes humanos em alguns casos – por exemplo, um chatbot prometendo um reembolso foi considerado vinculativo para a empresa que o implantou. Portanto, o desalinhamento pode levar não apenas a problemas técnicos, mas também à responsabilidade legal.

A natureza aberta e combinável da Web3 também poderia permitir interações imprevistas entre agentes. Um agente pode influenciar outro (intencionalmente ou acidentalmente) – por exemplo, um bot de governança de IA poderia ser alvo de “engenharia social” por outra IA fornecendo análises falsas, levando a decisões ruins da DAO. Essa complexidade emergente significa que o alinhamento não se trata apenas do objetivo de uma única IA, mas do alinhamento mais amplo do ecossistema com os valores humanos e as leis.

Abordar isso requer múltiplas abordagens: incorporar restrições éticas nos agentes de IA (codificando certas proibições ou usando aprendizado por reforço com feedback humano para moldar seus objetivos), implementar circuit breakers (pontos de verificação em contratos inteligentes que exigem aprovação humana para ações de grande escala) e supervisão comunitária (talvez DAOs que monitorem o comportamento dos agentes de IA e possam desativar agentes que se comportem mal). A pesquisa de alinhamento é difícil na IA centralizada; na descentralizada, é um território ainda mais inexplorado. Mas é crucial – um agente de IA com chaves administrativas de um protocolo ou encarregado de fundos de tesouraria deve estar extremamente bem alinhado ou as consequências podem ser irreversíveis (blockchains executam código imutável; um erro acionado por IA pode bloquear ou destruir ativos permanentemente).

4.6 Governança e Incerteza Regulatória

Sistemas de IA descentralizados não se encaixam perfeitamente nos marcos de governança existentes. A governança on - chain (votação por tokens, etc.) pode ser uma forma de gerenciá - los, mas tem seus próprios problemas (baleias, apatia dos eleitores, etc.). E quando algo der errado, os reguladores perguntarão: “Quem responsabilizamos?” Se um agente de IA causar perdas massivas ou for usado para atividades ilícitas (por exemplo, lavagem de dinheiro por meio de mixers automatizados), as autoridades podem visar os criadores ou os facilitadores. Isso levanta o espectro de riscos legais para desenvolvedores e usuários. A tendência regulatória atual é de maior escrutínio tanto na IA quanto na cripto separadamente – a combinação delas certamente atrairá atenção. A CFTC dos EUA, por exemplo, discutiu o uso da IA no trading e a necessidade de supervisão em contextos financeiros. Também se fala em círculos políticos sobre a exigência de registro de agentes autônomos ou a imposição de restrições à IA em setores sensíveis.

Outro desafio de governança é a coordenação transnacional. A Web3 é global e os agentes de IA operarão através de fronteiras. Uma jurisdição pode proibir certas ações de agentes de IA enquanto outra é permissiva, e a rede blockchain abrange ambas. Esse descompasso pode criar conflitos – por exemplo, um agente de IA fornecendo aconselhamento de investimento pode entrar em conflito com a lei de valores mobiliários em um país, mas não em outro. As comunidades podem precisar implementar geo - fencing no nível do contrato inteligente para serviços de IA (embora isso contradiga o ethos aberto). Ou podem fragmentar os serviços por região para cumprir as leis variadas (semelhante ao que as exchanges fazem).

Dentro das comunidades descentralizadas, há também a questão de quem define as regras para os agentes de IA. Se uma DAO governa um serviço de IA, os detentores de tokens votam nos parâmetros do seu algoritmo? Por um lado, isso empodera os usuários; por outro, pode levar a decisões não qualificadas ou manipulação. Novos modelos de governança podem surgir, como conselhos de especialistas em ética de IA integrados à governança da DAO, ou até mesmo participantes de IA na governança (imagine agentes de IA votando como delegados com base em mandatos programados – uma ideia controversa, mas concebível).

Finalmente, risco reputacional: falhas precoces ou escândalos podem azedar a percepção pública. Por exemplo, se uma “IA DAO” executar um esquema Ponzi por engano ou se um agente de IA tomar uma decisão tendenciosa que prejudique os usuários, pode haver uma reação negativa que afete todo o setor. É importante para a indústria ser proativa – estabelecendo padrões de autorregulamentação, engajando - se com formuladores de políticas para explicar como a descentralização altera a responsabilidade e, talvez, construindo kill - switches ou procedimentos de parada de emergência para agentes de IA (embora estes introduzam centralização, podem ser necessários provisoriamente para a segurança).

Em resumo, os desafios variam desde os profundamente técnicos (prevenção de hacks e gerenciamento de latência) até os amplamente sociais (regulamentação e alinhamento de IA). Cada desafio é significativo por si só; juntos, eles exigem um esforço concentrado das comunidades de IA e blockchain para navegar. A próxima seção examinará como, apesar desses obstáculos, o futuro pode se desenrolar se os abordarmos com sucesso.

5. Potencial Futuro

Olhando para o futuro, a integração de interfaces gerais de IA com a Web3 – por meio de frameworks como o MCP – poderia transformar fundamentalmente a internet descentralizada. Abaixo, delineamos alguns cenários e potenciais futuros que ilustram como as interfaces de IA impulsionadas pelo MCP podem moldar o futuro da Web3:

5.1 dApps e DAOs Autônomos

Nos próximos anos, poderemos testemunhar o surgimento de aplicativos descentralizados totalmente autônomos. Estes são dApps onde agentes de IA lidam com a maioria das operações, guiados por regras definidas em contratos inteligentes e objetivos da comunidade. Por exemplo, considere uma DAO de fundo de investimento descentralizado: hoje, ela pode depender de propostas humanas para o rebalanceamento de ativos. No futuro, os detentores de tokens poderiam definir uma estratégia de alto nível e, em seguida, um agente de IA (ou uma equipe de agentes) implementaria continuamente essa estratégia – monitorando mercados, executando negociações on-chain, ajustando portfólios – tudo isso enquanto a DAO supervisiona o desempenho. Graças ao MCP, a IA pode interagir perfeitamente com vários protocolos DeFi, exchanges e feeds de dados para cumprir seu mandato. Se bem projetado, um dApp autônomo desse tipo poderia operar 24 horas por dia, 7 dias por semana, de forma mais eficiente do que qualquer equipe humana, e com total transparência (cada ação registrada on-chain).

Outro exemplo é um dApp de seguro descentralizado gerido por IA: a IA poderia avaliar sinistros analisando evidências (fotos, sensores), cruzando as informações com as apólices e, em seguida, acionar automaticamente os pagamentos via contrato inteligente. Isso exigiria a integração da visão computacional de IA off-chain (para analisar imagens de danos) com a verificação on-chain – algo que o MCP poderia facilitar ao permitir que a IA utilize serviços de IA na nuvem e reporte de volta ao contrato. O resultado são decisões de seguro quase instantâneas com baixos custos operacionais.

Até mesmo a própria governança poderia ser parcialmente automatizada. As DAOs podem usar moderadores de IA para aplicar as regras do fórum, redatores de propostas de IA para transformar o sentimento bruto da comunidade em propostas bem estruturadas, ou tesoureiros de IA para prever as necessidades orçamentárias. É importante destacar que essas IAs agiriam como agentes da comunidade, não de forma descontrolada – elas poderiam ser revisadas periodicamente ou exigir confirmação multi-sig para ações de grande porte. O efeito geral é ampliar os esforços humanos em organizações descentralizadas, permitindo que as comunidades realizem mais com a necessidade de menos participantes ativos.

5.2 Marketplaces e Redes de Inteligência Descentralizada

Com base em projetos como SingularityNET e a aliança ASI, podemos antecipar um marketplace global para inteligência maduro. Nesse cenário, qualquer pessoa com um modelo ou habilidade de IA pode oferecê-lo na rede, e qualquer pessoa que precise de capacidades de IA pode utilizá-las, com o blockchain garantindo compensação justa e proveniência. O MCP seria fundamental aqui: ele fornece o protocolo comum para que uma solicitação possa ser enviada para qualquer serviço de IA que seja mais adequado.

Por exemplo, imagine uma tarefa complexa como "produzir uma campanha de marketing personalizada". Um agente de IA na rede poderia dividir isso em subtarefas: design visual, redação, análise de mercado – e então encontrar especialistas para cada uma (talvez um agente com um ótimo modelo de geração de imagens, outro com um modelo de redação ajustado para vendas, etc.). Esses especialistas poderiam residir originalmente em plataformas diferentes, mas, como aderem aos padrões MCP/A2A, podem colaborar de agente para agente de uma maneira segura e descentralizada. O pagamento entre eles poderia ser feito com micropagamentos em um token nativo, e um contrato inteligente poderia montar a entrega final e garantir que cada contribuidor receba.

Esse tipo de inteligência combinatória – múltiplos serviços de IA conectando-se dinamicamente em uma rede descentralizada – poderia superar até mesmo as grandes IAs monolíticas, pois aproveita o conhecimento especializado. Isso também democratiza o acesso: um pequeno desenvolvedor em uma parte do mundo poderia contribuir com um modelo de nicho para a rede e obter renda sempre que ele for usado. Enquanto isso, os usuários contam com um balcão único para qualquer serviço de IA, com sistemas de reputação (baseados em tokens/identidade) guiando-os para fornecedores de qualidade. Com o tempo, tais redes poderiam evoluir para uma nuvem de IA descentralizada, rivalizando com as ofertas de IA das Big Techs, mas sem um único proprietário e com governança transparente por usuários e desenvolvedores.

5.3 Metaverso Inteligente e Vidas Digitais

Até 2030, nossas vidas digitais podem se misturar perfeitamente com ambientes virtuais – o metaverso – e a IA provavelmente povoará esses espaços de forma onipresente. Por meio da integração com a Web3, essas entidades de IA (que podem ser qualquer coisa, desde assistentes virtuais a personagens de jogos e animais de estimação digitais) não serão apenas inteligentes, mas também economicamente e juridicamente empoderadas.

Imagine uma cidade no metaverso onde cada lojista NPC ou dador de missões é um agente de IA com sua própria personalidade e diálogo (graças a modelos generativos avançados). Esses NPCs são, na verdade, propriedade dos usuários como NFTs – talvez você "seja dono" de uma taverna no mundo virtual e o NPC barman seja uma IA que você personalizou e treinou. Por estar sob a infraestrutura Web3, o NPC pode realizar transações: pode vender itens virtuais (itens NFT), aceitar pagamentos e atualizar seu estoque por meio de contratos inteligentes. Ele pode até ter uma carteira cripto para gerir seus ganhos (que acumulam para você como proprietário). O MCP permitiria que o cérebro de IA desse NPC acessasse conhecimentos externos – talvez buscando notícias do mundo real para conversar ou integrando-se com um calendário Web3 para que ele "saiba" sobre os eventos dos jogadores.

Além disso, a identidade e a continuidade são garantidas pelo blockchain: seu avatar de IA em um mundo pode pular para outro mundo, carregando consigo uma identidade descentralizada que prova sua propriedade e, talvez, seu nível de experiência ou conquistas por meio de soulbound tokens. A interoperabilidade entre mundos virtuais (frequentemente um desafio) poderia ser auxiliada pela IA que traduz o contexto de um mundo para outro, com o blockchain fornecendo a portabilidade de ativos.

Poderemos também ver companheiros de IA ou agentes representando indivíduos em espaços digitais. Por exemplo, você pode ter uma IA pessoal que participa de reuniões de DAOs em seu nome. Ela entende suas preferências (por meio de treinamento em seu comportamento passado, armazenado em seu cofre de dados pessoais) e pode até votar em assuntos menores por você ou resumir a reunião mais tarde. Esse agente poderia usar sua identidade descentralizada para se autenticar em cada comunidade, garantindo que seja reconhecido como "você" (ou seu delegado). Ele poderia ganhar tokens de reputação se contribuir com boas ideias, construindo essencialmente capital social para você enquanto você estiver ausente.

Outro potencial é a criação de conteúdo impulsionada por IA no metaverso. Quer um novo nível de jogo ou uma casa virtual? Basta descrevê-lo, e um agente construtor de IA o criará, o implantará como um contrato inteligente/NFT e talvez até o vinculará a uma hipoteca DeFi se for uma estrutura grande que você paga ao longo do tempo. Essas criações, por estarem on-chain, são únicas e negociáveis. O construtor de IA pode cobrar uma taxa em tokens por seu serviço (voltando ao conceito de marketplace mencionado acima).

No geral, a futura internet descentralizada poderá estar repleta de agentes inteligentes: alguns totalmente autônomos, alguns fortemente ligados a humanos, muitos em algum lugar entre os dois. Eles negociarão, criarão, entreterão e transacionarão. O MCP e protocolos semelhantes garantem que todos falem a mesma "língua", permitindo uma rica colaboração entre a IA e todos os serviços Web3. Se feito corretamente, isso pode levar a uma era de produtividade e inovação sem precedentes – uma verdadeira síntese de inteligência humana, artificial e distribuída impulsionando a sociedade.

Conclusão

A visão de interfaces gerais de IA conectando tudo no mundo Web3 é inegavelmente ambiciosa. Estamos essencialmente visando entrelaçar dois dos fios tecnológicos mais transformadores – a descentralização da confiança e a ascensão da inteligência de máquina – em um único tecido. O contexto de desenvolvimento nos mostra que o momento é oportuno: a Web3 precisava de um killer app amigável ao usuário, e a IA pode muito bem fornecê-lo, enquanto a IA precisava de mais agência e memória, o que a infraestrutura da Web3 pode suprir. Tecnicamente, frameworks como o MCP (Model Context Protocol) fornecem o tecido conectivo, permitindo que agentes de IA conversem fluentemente com blockchains, contratos inteligentes, identidades descentralizadas e além. O cenário da indústria indica um impulso crescente, desde startups até alianças e grandes laboratórios de IA, todos contribuindo com peças deste quebra-cabeça – mercados de dados, plataformas de agentes, redes de oráculos e protocolos padrão – que estão começando a se encaixar.

No entanto, devemos avançar com cautela, dados os riscos e desafios identificados. Violações de segurança, comportamento de IA desalinhado, armadilhas de privacidade e regulamentações incertas formam uma série de obstáculos que poderiam descarrilar o progresso se subestimados. Cada um exige mitigação proativa: auditorias de segurança robustas, verificações e equilíbrios de alinhamento, arquiteturas que preservam a privacidade e modelos de governança colaborativa. A natureza da descentralização significa que essas soluções não podem ser simplesmente impostas de cima para baixo; elas provavelmente surgirão da comunidade através de tentativa, erro e iteração, assim como os primeiros protocolos da Internet fizeram.

Se navegarmos por esses desafios, o potencial futuro é empolgante. Poderíamos ver a Web3 finalmente entregando um mundo digital centrado no usuário – não da maneira originalmente imaginada, com todos operando seus próprios nós de blockchain, mas sim através de agentes inteligentes que servem às intenções de cada usuário, aproveitando a descentralização nos bastidores. Em tal mundo, interagir com cripto e o metaverso pode ser tão fácil quanto ter uma conversa com seu assistente de IA, que, por sua vez, negocia com dezenas de serviços e cadeias de forma trustless em seu nome. As redes descentralizadas poderiam tornar-se “inteligentes” no sentido literal, com serviços autônomos que se adaptam e melhoram a si mesmos.

Em conclusão, o MCP e protocolos de interface de IA semelhantes podem de fato tornar-se a espinha dorsal de uma nova Web (chamada de Web 3.0 ou Web Agêntica), onde a inteligência e a conectividade são onipresentes. A convergência de IA e Web3 não é apenas uma fusão de tecnologias, mas uma convergência de filosofias – a abertura e o empoderamento do usuário da descentralização encontrando a eficiência e a criatividade da IA. Se bem-sucedida, essa união poderia anunciar uma internet mais livre, mais personalizada e mais poderosa do que qualquer coisa que já experimentamos, cumprindo verdadeiramente as promessas tanto da IA quanto da Web3 de maneiras que impactam a vida cotidiana.

Fontes:

  • S. Khadder, “A Web3.0 não é sobre propriedade — é sobre inteligência,” FeatureForm Blog (8 de abril de 2025).
  • J. Saginaw, “Poderia o MCP da Anthropic entregar a Web3 que o Blockchain prometeu?” Artigo no LinkedIn (1 de maio de 2025).
  • Anthropic, “Apresentando o Model Context Protocol,” Anthropic.com (Nov 2024).
  • thirdweb, “O Model Context Protocol (MCP) e sua importância para aplicativos de blockchain,” Guias thirdweb (21 de março de 2025).
  • Blog da Chainlink, “A interseção entre modelos de IA e oráculos,” (4 de julho de 2024).
  • Messari Research, Perfil do Ocean Protocol, (2025).
  • Messari Research, Perfil da SingularityNET, (2025).
  • Cointelegraph, “Agentes de IA estão prestes a ser a próxima grande vulnerabilidade das criptomoedas,” (25 de maio de 2025).
  • Reuters (Westlaw), “Agentes de IA: maiores capacidades e riscos aprimorados,” (22 de abril de 2025).
  • Identity.com, “Por que agentes de IA precisam de identidades digitais verificadas,” (2024).
  • PANews / IOSG Ventures, “Interpretando o MCP: Ecossistema de Agentes de IA na Web3,” (20 de maio de 2025).

De Cliques a Conversas: Como a IA Generativa Está Construindo o Futuro do DeFi

· 5 min de leitura
Dora Noda
Software Engineer

A Finança Descentralizada (DeFi) tradicional é poderosa, mas sejamos honestos — pode ser um pesadelo para o usuário médio. Lidar com diferentes protocolos, gerenciar taxas de gás e executar transações de múltiplas etapas é confuso e consome tempo. E se você pudesse simplesmente dizer à sua carteira o que deseja, e ela cuidasse do resto?

Essa é a promessa de um novo paradigma orientado por intenção, e a IA generativa é o motor que o torna possível. Essa mudança está pronta para transformar o DeFi de um cenário de transações complexas para um mundo de experiências simples e orientadas a objetivos.


A Grande Ideia: Do “Como” ao “O quê”

No modelo antigo de DeFi, você é o piloto. Precisa escolher manualmente a exchange, encontrar a melhor rota de swap, aprovar múltiplas transações e rezar para não ter cometido erros.

DeFi orientado por intenção inverte esse roteiro. Em vez de executar passos, você declara seu objetivo final — sua intenção.

  • Em vez de: Trocar tokens manualmente na Uniswap, fazer bridge para outra cadeia e fazer staking em um pool de liquidez...
  • Você diz: “Maximize o rendimento dos meus $5.000 com baixo risco.”

Um sistema automatizado, frequentemente alimentado por agentes de IA chamados “solvers”, encontra e executa o caminho mais otimizado através de múltiplos protocolos para transformar seu objetivo em realidade. É a diferença entre seguir uma receita passo a passo e simplesmente dizer a um chef o que você quer comer.

Essa abordagem traz dois grandes benefícios:

  1. Experiência de Usuário “Um Clique”: A complexidade das taxas de gás, bridges e swaps de múltiplas etapas fica oculta. Graças a tecnologias como abstração de conta, você pode aprovar um objetivo complexo com uma única assinatura.
  2. Execução Mais Eficiente: Solvers especializados (pense em bots profissionais de market‑making) competem para oferecer o melhor negócio, frequentemente encontrando preços melhores e menor slippage do que um usuário manual poderia conseguir.

O Papel da IA Generativa: O Cérebro da Operação 🧠

A IA generativa, especialmente os Modelos de Linguagem de Grande Escala (LLMs), é a chave que desbloqueia essa experiência fluida. Veja como funciona:

  • Interfaces de Linguagem Natural: Você pode interagir com o DeFi usando inglês simples (ou português). “Copilotos” alimentados por IA como HeyAnon e Griffain permitem que você gerencie seu portfólio e execute negociações apenas conversando com a IA, tornando o DeFi tão fácil quanto usar o ChatGPT.
  • Planejamento e Estratégia por IA: Quando você fornece um objetivo de alto nível como “investir para obter o melhor rendimento”, agentes de IA desmembram isso em um plano concreto. Eles podem analisar dados de mercado, prever tendências e rebalancear seus ativos automaticamente, 24 h por dia, 7 dias por semana.
  • Otimização de Rendimento: Protocolos impulsionados por IA como Mozaic utilizam agentes (o deles se chama Archimedes) para escanear continuamente os melhores retornos ajustados ao risco em diferentes cadeias e mover fundos automaticamente para capturar o APY mais alto.
  • Gestão de Risco Automatizada: A IA pode agir como um guardião vigilante. Se detectar um pico de volatilidade que possa colocar sua posição em risco, pode automaticamente adicionar colateral ou mover fundos para um pool mais seguro, tudo baseado nos parâmetros de risco que você definiu na sua intenção original.

Essa poderosa combinação de DeFi e IA foi apelidada de “DeFAI” ou “AiFi”, e está pronta para trazer uma onda de novos usuários que antes eram intimidados pela complexidade das criptomoedas.


Uma Oportunidade de Bilhões de Dólares 📈

O potencial de mercado aqui é enorme. O mercado de DeFi já está projetado para crescer de cerca de US20,5bilho~esem2024paraUS 20,5 bilhões em 2024 para US 231 bilhões em 2030. Ao tornar o DeFi mais acessível, a IA pode super‑alimentar esse crescimento.

Já vemos uma corrida do ouro de investimento e inovação:

  • Assistentes de IA: Projetos como HeyAnon e aixbt rapidamente alcançaram capitalizações de mercado na casa das centenas de milhões.
  • Protocolos Centrais na Intenção: Players estabelecidos estão se adaptando. CoW Protocol e UniswapX utilizam competição de solvers para proteger usuários de MEV e oferecer preços melhores.
  • Novas Blockchains: Redes Layer‑2 completas como Essential e Optopia estão sendo construídas do zero para ser “centradas na intenção”, tratando agentes de IA como cidadãos de primeira classe.

Desafios no Caminho

Esse futuro ainda não chegou. O espaço DeFAI enfrenta obstáculos significativos:

  • Gargalos Técnicos: Blockchains não foram projetadas para rodar modelos de IA complexos. A maior parte da lógica de IA precisa acontecer off‑chain, o que introduz complexidade e questões de confiança.
  • Alucinações e Erros de IA: Uma IA que interprete mal a intenção do usuário ou “alucine” uma estratégia de investimento defeituosa pode ser financeiramente desastrosa.
  • Segurança e Exploração: Combinar IA com contratos inteligentes cria novas superfícies de ataque. Um agente autônomo pode ser enganado a executar uma negociação ruim, drenando fundos em minutos.
  • Risco de Centralização: Para que sistemas baseados em intenção funcionem, precisam de uma rede grande e descentralizada de solvers. Se apenas alguns players dominarem, corremos o risco de recriar as mesmas dinâmicas centralizadas das finanças tradicionais.

O Caminho a Seguir: Finanças Autônomas

A fusão de IA generativa e DeFi está nos impulsionando rumo a um futuro de Finanças Autônomas, onde agentes inteligentes gerenciam ativos, executam estratégias e otimizam retornos em nosso nome, tudo dentro de um framework descentralizado.

A jornada exige a solução de grandes desafios técnicos e de segurança. Mas com dezenas de projetos construindo a infraestrutura — de oráculos nativos de IA a blockchains centradas na intenção — o impulso é inegável.

Para os usuários, isso significa um futuro onde interagir com o mundo das finanças descentralizadas é tão simples quanto ter uma conversa — um futuro onde você foca nos seus objetivos financeiros e seu parceiro de IA cuida do resto. A próxima geração de finanças está sendo construída hoje, e está ficando mais inteligente, mais simples e mais autônoma do que nunca.

IA Verificável On-Chain com zkML e Provas Criptográficas

· 42 min de leitura
Dora Noda
Software Engineer

Introdução: A Necessidade de IA Verificável na Blockchain

À medida que os sistemas de IA crescem em influência, garantir que seus resultados sejam confiáveis torna-se crítico. Os métodos tradicionais dependem de garantias institucionais (essencialmente “apenas confie em nós”), que não oferecem garantias criptográficas. Isso é especialmente problemático em contextos descentralizados como blockchains, onde um contrato inteligente ou um usuário deve confiar em um resultado derivado de IA sem poder reexecutar um modelo pesado on-chain. O Machine Learning de Conhecimento Zero (zkML) aborda isso permitindo a verificação criptográfica de computações de ML. Em essência, o zkML permite que um provador gere uma prova sucinta de que “o resultado $Y$ veio da execução do modelo $M$ na entrada $X$”sem revelar $X$ ou os detalhes internos de $M$. Essas provas de conhecimento zero (ZKPs) podem ser verificadas por qualquer pessoa (ou qualquer contrato) de forma eficiente, mudando a confiança na IA de “política para prova”.

A verificabilidade on-chain da IA significa que uma blockchain pode incorporar computações avançadas (como inferências de redes neurais) verificando uma prova de execução correta em vez de realizar a computação em si. Isso tem amplas implicações: contratos inteligentes podem tomar decisões com base em previsões de IA, agentes autônomos descentralizados podem provar que seguiram seus algoritmos, e serviços de computação cross-chain ou off-chain podem fornecer resultados verificáveis em vez de oráculos não verificáveis. Em última análise, o zkML oferece um caminho para uma IA sem necessidade de confiança e que preserva a privacidade – por exemplo, provando que as decisões de um modelo de IA são corretas e autorizadas sem expor dados privados ou pesos de modelos proprietários. Isso é fundamental para aplicações que vão desde análises seguras de saúde até jogos em blockchain e oráculos DeFi.

Como o zkML Funciona: Comprimindo a Inferência de ML em Provas Sucintas

Em alto nível, o zkML combina sistemas de prova criptográfica com a inferência de ML para que uma avaliação de modelo complexa possa ser “comprimida” em uma pequena prova. Internamente, o modelo de ML (por exemplo, uma rede neural) é representado como um circuito ou programa consistindo de muitas operações aritméticas (multiplicações de matrizes, funções de ativação, etc.). Em vez de revelar todos os valores intermediários, um provador realiza a computação completa off-chain e, em seguida, usa um protocolo de prova de conhecimento zero para atestar que cada passo foi feito corretamente. O verificador, recebendo apenas a prova e alguns dados públicos (como o resultado final e um identificador para o modelo), pode ser criptograficamente convencido da correção sem reexecutar o modelo.

Para alcançar isso, as estruturas de zkML normalmente transformam a computação do modelo em um formato adequado para ZKPs:

  • Compilação de Circuito: Em abordagens baseadas em SNARK, o grafo de computação do modelo é compilado em um circuito aritmético ou um conjunto de restrições polinomiais. Cada camada da rede neural (convoluções, multiplicações de matrizes, ativações não lineares) torna-se um subcircuito com restrições que garantem que os resultados estejam corretos dadas as entradas. Como as redes neurais envolvem operações não lineares (ReLUs, Sigmoids, etc.) que não são naturalmente adequadas para polinômios, técnicas como tabelas de consulta são usadas para lidar com elas de forma eficiente. Por exemplo, uma ReLU (resultado = max(0, entrada)) pode ser imposta por uma restrição personalizada ou uma consulta que verifica se o resultado é igual à entrada se a entrada ≥ 0, senão zero. O resultado final é um conjunto de restrições criptográficas que o provador deve satisfazer, o que implicitamente prova que o modelo foi executado corretamente.
  • Rastro de Execução e Máquinas Virtuais: Uma alternativa é tratar a inferência do modelo como um rastro de programa, como feito em abordagens de zkVM. Por exemplo, a zkVM JOLT visa o conjunto de instruções RISC-V; pode-se compilar o modelo de ML (ou o código que o computa) para RISC-V e, em seguida, provar que cada instrução da CPU foi executada corretamente. A JOLT introduz uma técnica de “singularidade de consulta”, substituindo restrições aritméticas caras por consultas rápidas em tabelas para cada operação válida da CPU. Cada operação (soma, multiplicação, operação bit a bit, etc.) é verificada por meio de uma consulta em uma tabela gigante de resultados válidos pré-computados, usando um argumento especializado (Lasso/SHOUT) para manter isso eficiente. Isso reduz drasticamente a carga de trabalho do provador: até mesmo operações complexas de 64 bits tornam-se uma única consulta de tabela na prova, em vez de muitas restrições aritméticas.
  • Protocolos Interativos (GKR Sum-Check): Uma terceira abordagem usa provas interativas como GKR (Goldwasser–Kalai–Rotblum) para verificar uma computação em camadas. Aqui, a computação do modelo é vista como um circuito aritmético em camadas (cada camada da rede neural é uma camada do grafo do circuito). O provador executa o modelo normalmente, mas depois se envolve em um protocolo sum-check para provar que os resultados de cada camada estão corretos dadas as suas entradas. Na abordagem da Lagrange (DeepProve, detalhada a seguir), o provador e o verificador realizam um protocolo polinomial interativo (tornado não interativo via Fiat-Shamir) que verifica a consistência das computações de cada camada sem refazê-las. Este método sum-check evita a geração de um circuito estático monolítico; em vez disso, ele verifica a consistência das computações de forma passo a passo com operações criptográficas mínimas (principalmente hashing ou avaliações polinomiais).

Independentemente da abordagem, o resultado é uma prova sucinta (normalmente de alguns kilobytes a algumas dezenas de kilobytes) que atesta a correção de toda a inferência. A prova é de conhecimento zero, o que significa que quaisquer entradas secretas (dados privados ou parâmetros do modelo) podem ser mantidas ocultas – elas influenciam a prova, mas não são reveladas aos verificadores. Apenas os resultados públicos ou asserções pretendidos são revelados. Isso permite cenários como “provar que o modelo $M$ quando aplicado aos dados do paciente $X$ resulta no diagnóstico $Y$, sem revelar $X$ ou os pesos do modelo.”

Habilitando a verificação on-chain: Uma vez que uma prova é gerada, ela pode ser postada em uma blockchain. Contratos inteligentes podem incluir lógica de verificação para checar a prova, muitas vezes usando primitivas criptográficas pré-compiladas. Por exemplo, o Ethereum possui pré-compilações para operações de emparelhamento BLS12-381 usadas em muitos verificadores de zk-SNARK, tornando a verificação on-chain de provas SNARK eficiente. Os STARKs (provas baseadas em hash) são maiores, mas ainda podem ser verificados on-chain com otimização cuidadosa ou possivelmente com algumas suposições de confiança (a L2 da StarkWare, por exemplo, verifica provas STARK no Ethereum por um contrato verificador on-chain, embora com um custo de gás mais alto que os SNARKs). O ponto principal é que a cadeia não precisa executar o modelo de ML – ela apenas executa uma verificação que é muito mais barata que a computação original. Em resumo, o zkML comprime a dispendiosa inferência de IA numa pequena prova que as blockchains (ou qualquer verificador) podem checar em milissegundos a segundos.

Lagrange DeepProve: Arquitetura e Desempenho de um Avanço em zkML

DeepProve da Lagrange Labs é uma estrutura de inferência zkML de ponta focada em velocidade e escalabilidade. Lançado em 2025, o DeepProve introduziu um novo sistema de prova que é dramaticamente mais rápido que soluções anteriores como o Ezkl. Seu design se concentra no protocolo de prova interativo GKR com sum-check e otimizações especializadas para circuitos de redes neurais. Veja como o DeepProve funciona e alcança seu desempenho:

  • Pré-processamento Único: Os desenvolvedores começam com uma rede neural treinada (os tipos atualmente suportados incluem perceptrons multicamadas e arquiteturas CNN populares). O modelo é exportado para o formato ONNX, uma representação de grafo padrão. A ferramenta do DeepProve então analisa o modelo ONNX e o quantiza (converte os pesos para formato de ponto fixo/inteiro) para uma aritmética de campo eficiente. Nesta fase, ele também gera as chaves de prova e verificação para o protocolo criptográfico. Essa configuração é feita uma vez por modelo e não precisa ser repetida por inferência. O DeepProve enfatiza a facilidade de integração: “Exporte seu modelo para ONNX → configuração única → gere provas → verifique em qualquer lugar”.

  • Prova (Inferência + Geração de Prova): Após a configuração, um provador (que pode ser executado por um usuário, um serviço ou a rede de provadores descentralizada da Lagrange) pega uma nova entrada $X$ e executa o modelo $M$ nela, obtendo o resultado $Y$. Durante essa execução, o DeepProve registra um rastro de execução das computações de cada camada. Em vez de traduzir cada multiplicação em um circuito estático antecipadamente (como fazem as abordagens SNARK), o DeepProve usa o protocolo GKR de tempo linear para verificar cada camada em tempo real. Para cada camada da rede, o provador se compromete com as entradas e saídas da camada (por exemplo, via hashes criptográficos ou compromissos polinomiais) e, em seguida, se envolve em um argumento sum-check para provar que as saídas de fato resultam das entradas de acordo com a função da camada. O protocolo sum-check convence iterativamente o verificador da correção de uma soma de avaliações de um polinômio que codifica a computação da camada, sem revelar os valores reais. Operações não lineares (como ReLU, softmax) são tratadas eficientemente por meio de argumentos de consulta no DeepProve – se a saída de uma ativação foi computada, o DeepProve pode provar que cada saída corresponde a um par de entrada-saída válido de uma tabela pré-computada para essa função. Camada por camada, as provas são geradas e, em seguida, agregadas numa única prova sucinta cobrindo todo o passo de avanço do modelo. O trabalho pesado da criptografia é minimizado – o provador do DeepProve realiza principalmente computações numéricas normais (a inferência real) mais alguns compromissos criptográficos leves, em vez de resolver um sistema gigante de restrições.

  • Verificação: O verificador usa a prova sucinta final juntamente com alguns valores públicos – tipicamente o identificador comprometido do modelo (um compromisso criptográfico com os pesos de $M$), a entrada $X$ (se não for privada) e o resultado alegado $Y$ – para verificar a correção. A verificação no sistema do DeepProve envolve a verificação da transcrição do protocolo sum-check e dos compromissos polinomiais ou de hash finais. Isso é mais complexo do que verificar um SNARK clássico (que pode ser alguns emparelhamentos), mas é vastamente mais barato do que reexecutar o modelo. Nos benchmarks da Lagrange, a verificação de uma prova do DeepProve para uma CNN média leva da ordem de 0,5 segundos em software. Isso é ~0,5s para confirmar, por exemplo, que uma rede convolucional com centenas de milhares de parâmetros foi executada corretamente – mais de 500× mais rápido do que recomputar ingenuamente essa CNN em uma GPU para verificação. (Na verdade, o DeepProve mediu uma verificação até 521× mais rápida para CNNs e 671× para MLPs em comparação com a reexecução.) O tamanho da prova é pequeno o suficiente para ser transmitido on-chain (dezenas de KB), e a verificação poderia ser realizada em um contrato inteligente se necessário, embora 0,5s de computação possa exigir otimização cuidadosa de gás ou execução em camada 2.

Arquitetura e Ferramentas: O DeepProve é implementado em Rust e fornece um kit de ferramentas (a biblioteca zkml) para desenvolvedores. Ele suporta nativamente grafos de modelo ONNX, tornando-o compatível com modelos do PyTorch ou TensorFlow (após a exportação). O processo de prova atualmente visa modelos de até alguns milhões de parâmetros (testes incluem uma rede densa de 4 milhões de parâmetros). O DeepProve utiliza uma combinação de componentes criptográficos: um compromisso polinomial multilinear (para se comprometer com as saídas da camada), o protocolo sum-check para verificar computações e argumentos de consulta para operações não lineares. Notavelmente, o repositório de código aberto da Lagrange reconhece que se baseia em trabalhos anteriores (a implementação de sum-check e GKR do projeto Ceno da Scroll), indicando uma interseção do zkML com a pesquisa de rollups de conhecimento zero.

Para alcançar escalabilidade em tempo real, a Lagrange combina o DeepProve com sua Rede de Provadores – uma rede descentralizada de provadores ZK especializados. A geração pesada de provas pode ser descarregada para esta rede: quando uma aplicação precisa de uma inferência provada, ela envia o trabalho para a rede da Lagrange, onde muitos operadores (em stake no EigenLayer para segurança) computam as provas e retornam o resultado. Esta rede incentiva economicamente a geração confiável de provas (trabalhos maliciosos ou falhos resultam em slashing do operador). Ao distribuir o trabalho entre os provadores (e potencialmente alavancar GPUs ou ASICs), a Rede de Provadores da Lagrange esconde a complexidade e o custo dos usuários finais. O resultado é um serviço zkML rápido, escalável e descentralizado: “inferências de IA verificáveis de forma rápida e acessível”.

Marcos de Desempenho: As alegações do DeepProve são apoiadas por benchmarks contra o estado da arte anterior, o Ezkl. Para uma CNN com ~264k parâmetros (modelo em escala CIFAR-10), o tempo de prova do DeepProve foi de ~1,24 segundos contra ~196 segundos para o Ezkl – cerca de 158× mais rápido. Para uma rede densa maior com 4 milhões de parâmetros, o DeepProve provou uma inferência em ~2,3 segundos vs ~126,8 segundos para o Ezkl (~54× mais rápido). Os tempos de verificação também caíram: o DeepProve verificou a prova da CNN de 264k em ~0,6s, enquanto a verificação da prova do Ezkl (baseada em Halo2) levou mais de 5 minutos na CPU nesse teste. As acelerações vêm da complexidade quase linear do DeepProve: seu provador escala aproximadamente O(n) com o número de operações, enquanto os provadores SNARK baseados em circuito geralmente têm uma sobrecarga superlinear (FFT e compromissos polinomiais escalando). Na verdade, o throughput do provador do DeepProve pode estar dentro de uma ordem de magnitude do tempo de execução da inferência simples – sistemas GKR recentes podem ser <10× mais lentos que a execução bruta para grandes multiplicações de matrizes, uma conquista impressionante em ZK. Isso torna as provas em tempo real ou sob demanda mais viáveis, abrindo caminho para a IA verificável em aplicações interativas.

Casos de Uso: A Lagrange já está colaborando com projetos Web3 e de IA para aplicar o zkML. Exemplos de casos de uso incluem: características de NFT verificáveis (provar que uma evolução gerada por IA de um personagem de jogo ou colecionável é computada pelo modelo autorizado), proveniência de conteúdo de IA (provar que uma imagem ou texto foi gerado por um modelo específico, para combater deepfakes), modelos de risco DeFi (provar o resultado de um modelo que avalia o risco financeiro sem revelar dados proprietários) e inferência de IA privada em saúde ou finanças (onde um hospital pode obter previsões de IA com uma prova, garantindo a correção sem expor os dados do paciente). Ao tornar os resultados da IA verificáveis e que preservam a privacidade, o DeepProve abre a porta para uma “IA em que você pode confiar” em sistemas descentralizados – passando de uma era de “confiança cega em modelos de caixa-preta” para uma de “garantias objetivas”.

zkML Baseado em SNARK: Ezkl e a Abordagem Halo2

A abordagem tradicional para zkML usa zk-SNARKs (Argumentos de Conhecimento Sucintos e Não Interativos) para provar a inferência de redes neurais. Ezkl (da ZKonduit/Modulus Labs) é um exemplo líder dessa abordagem. Ele se baseia no sistema de prova Halo2 (um SNARK estilo PLONK com compromissos polinomiais sobre BLS12-381). O Ezkl fornece uma cadeia de ferramentas onde um desenvolvedor pode pegar um modelo PyTorch ou TensorFlow, exportá-lo para ONNX, e fazer com que o Ezkl o compile em um circuito aritmético personalizado automaticamente.

Como funciona: Cada camada da rede neural é convertida em restrições:

  • Camadas lineares (densa ou convolução) tornam-se coleções de restrições de multiplicação-adição que impõem os produtos escalares entre entradas, pesos e saídas.
  • Camadas não lineares (como ReLU, sigmoide, etc.) são tratadas por meio de consultas ou restrições por partes porque tais funções não são polinomiais. Por exemplo, uma ReLU pode ser implementada por um seletor booleano $b$ com restrições garantindo que $y = x \cdot b$ e $0 \le b \le 1$ e $b=1$ se $x>0$ (uma maneira de fazer isso), ou mais eficientemente por uma tabela de consulta mapeando $x \mapsto \max(0,x)$ para um intervalo de valores de $x$. Os argumentos de consulta do Halo2 permitem mapear pedaços de valores de 16 bits (ou menores), então domínios grandes (como todos os valores de 32 bits) são geralmente “divididos” em várias consultas menores. Essa divisão aumenta o número de restrições.
  • Operações com inteiros grandes ou divisões (se houver) são similarmente quebradas em pequenos pedaços. O resultado é um grande conjunto de restrições R1CS/PLONK adaptadas à arquitetura específica do modelo.

O Ezkl então usa o Halo2 para gerar uma prova de que essas restrições são válidas dadas as entradas secretas (pesos do modelo, entradas privadas) e saídas públicas. Ferramentas e integração: Uma vantagem da abordagem SNARK é que ela aproveita primitivas bem conhecidas. O Halo2 já é usado em rollups do Ethereum (por exemplo, Zcash, zkEVMs), então é testado em batalha e tem um verificador on-chain prontamente disponível. As provas do Ezkl usam a curva BLS12-381, que o Ethereum pode verificar via pré-compilações, tornando simples a verificação de uma prova do Ezkl em um contrato inteligente. A equipe também forneceu APIs amigáveis; por exemplo, cientistas de dados podem trabalhar com seus modelos em Python e usar a CLI do Ezkl para produzir provas, sem conhecimento profundo de circuitos.

Pontos Fortes: A abordagem do Ezkl se beneficia da generalidade e do ecossistema dos SNARKs. Ele suporta modelos razoavelmente complexos e já viu “integrações práticas (de modelos de risco DeFi a IA de jogos)”, provando tarefas de ML do mundo real. Como opera no nível do grafo de computação do modelo, ele pode aplicar otimizações específicas de ML: por exemplo, podar pesos insignificantes ou quantizar parâmetros para reduzir o tamanho do circuito. Isso também significa que a confidencialidade do modelo é natural – os pesos podem ser tratados como dados de testemunho privados, então o verificador só vê que algum modelo válido produziu o resultado, ou no máximo um compromisso com o modelo. A verificação de provas SNARK é extremamente rápida (tipicamente alguns milissegundos ou menos on-chain), e os tamanhos das provas são pequenos (alguns kilobytes), o que é ideal para uso em blockchain.

Pontos Fracos: O desempenho é o calcanhar de Aquiles. A prova baseada em circuito impõe grandes sobrecargas, especialmente à medida que os modelos crescem. É notado que, historicamente, os circuitos SNARK poderiam exigir um milhão de vezes mais trabalho para o provador do que apenas executar o modelo em si. O Halo2 e o Ezkl otimizam isso, mas ainda assim, operações como grandes multiplicações de matrizes geram toneladas de restrições. Se um modelo tem milhões de parâmetros, o provador deve lidar com milhões de restrições correspondentes, realizando FFTs pesadas e multiexponenciações no processo. Isso leva a altos tempos de prova (muitas vezes minutos ou horas para modelos não triviais) e alto uso de memória. Por exemplo, provar até mesmo uma CNN relativamente pequena (por exemplo, algumas centenas de milhares de parâmetros) pode levar dezenas de minutos com o Ezkl em uma única máquina. A equipe por trás do DeepProve citou que o Ezkl levou horas para certas provas de modelo que o DeepProve pode fazer em minutos. Modelos grandes podem nem caber na memória ou exigir a divisão em múltiplas provas (que então precisam de agregação recursiva). Embora o Halo2 seja “moderadamente otimizado”, qualquer necessidade de “dividir” consultas ou lidar com operações de bits largos se traduz em sobrecarga extra. Em resumo, a escalabilidade é limitada – o Ezkl funciona bem para modelos de pequeno a médio porte (e de fato superou algumas alternativas anteriores como VMs baseadas em Stark ingênuas em benchmarks), mas tem dificuldades à medida que o tamanho do modelo cresce além de um certo ponto.

Apesar desses desafios, o Ezkl e bibliotecas zkML baseadas em SNARK semelhantes são importantes marcos. Eles provaram que a inferência de ML verificada é possível on-chain e têm uso ativo. Notavelmente, projetos como a Modulus Labs demonstraram a verificação de um modelo de 18 milhões de parâmetros on-chain usando SNARKs (com otimização pesada). O custo não foi trivial, mas mostra a trajetória. Além disso, o Protocolo Mina tem seu próprio kit de ferramentas zkML que usa SNARKs para permitir que contratos inteligentes no Mina (que são baseados em Snark) verifiquem a execução de modelos de ML. Isso indica um crescente suporte multiplataforma para zkML baseado em SNARK.

Abordagens Baseadas em STARK: ZK Transparente e Programável para ML

Os zk-STARKs (Argumentos de Conhecimento Escaláveis e Transparentes) oferecem outra rota para o zkML. Os STARKs usam criptografia baseada em hash (como FRI para compromissos polinomiais) e evitam qualquer configuração confiável. Eles geralmente operam simulando uma CPU ou VM e provando que o rastro de execução está correto. No contexto de ML, pode-se construir um STARK personalizado para a rede neural ou usar uma VM STARK de propósito geral para executar o código do modelo.

VMs STARK Gerais (RISC Zero, Cairo): Uma abordagem direta é escrever o código de inferência e executá-lo em uma VM STARK. Por exemplo, a Risc0 fornece um ambiente RISC-V onde qualquer código (por exemplo, implementação em C++ ou Rust de uma rede neural) pode ser executado e provado via STARK. Da mesma forma, a linguagem Cairo da StarkWare pode expressar computações arbitrárias (como uma inferência de LSTM ou CNN) que são então provadas pelo provador STARK da StarkNet. A vantagem é a flexibilidade – você não precisa projetar circuitos personalizados para cada modelo. No entanto, benchmarks iniciais mostraram que VMs STARK ingênuas eram mais lentas em comparação com circuitos SNARK otimizados para ML. Em um teste, uma prova baseada em Halo2 (Ezkl) foi cerca de 3× mais rápida que uma abordagem baseada em STARK no Cairo, e até 66× mais rápida que uma VM STARK RISC-V em um certo benchmark em 2024. Essa diferença se deve à sobrecarga de simular cada instrução de baixo nível em um STARK e às constantes maiores nas provas STARK (hashing é rápido, mas você precisa de muito; os tamanhos das provas STARK são maiores, etc.). No entanto, as VMs STARK estão melhorando e têm o benefício da configuração transparente (sem configuração confiável) e segurança pós-quântica. À medida que o hardware e os protocolos amigáveis a STARK avançam, as velocidades de prova melhorarão.

A abordagem do DeepProve vs STARK: Curiosamente, o uso de GKR e sum-check pelo DeepProve produz uma prova mais parecida com um STARK em espírito – é uma prova interativa, baseada em hash, sem a necessidade de uma string de referência estruturada. A desvantagem é que suas provas são maiores e a verificação é mais pesada que a de um SNARK. No entanto, o DeepProve mostra que um design de protocolo cuidadoso (especializado na estrutura em camadas do ML) pode superar vastamente tanto as VMs STARK genéricas quanto os circuitos SNARK em tempo de prova. Podemos considerar o DeepProve como um provador zkML estilo STARK personalizado (embora eles usem o termo zkSNARK por sucinto, ele não tem a verificação de tamanho constante pequena de um SNARK tradicional, já que 0,5s para verificar é maior que a verificação típica de um SNARK). Provas STARK tradicionais (como as da StarkNet) geralmente envolvem dezenas de milhares de operações de campo para verificar, enquanto um SNARK verifica em talvez algumas dezenas. Assim, uma troca é evidente: SNARKs produzem provas menores e verificadores mais rápidos, enquanto STARKs (ou GKR) oferecem escalabilidade mais fácil e nenhuma configuração confiável ao custo do tamanho da prova e da velocidade de verificação.

Melhorias Emergentes: A zkVM JOLT (discutida anteriormente em JOLTx) está na verdade produzindo SNARKs (usando compromissos do tipo PLONK), mas incorpora ideias que poderiam ser aplicadas também no contexto STARK (consultas Lasso poderiam teoricamente ser usadas com compromissos FRI). A StarkWare e outros estão pesquisando maneiras de acelerar a prova de operações comuns (como usar portões personalizados ou dicas no Cairo para operações com inteiros grandes, etc.). Há também a Circomlib-ML da Privacy & Scaling Explorations (PSE), que fornece modelos Circom para camadas de CNN, etc. – isso é orientado para SNARK, mas modelos conceitualmente semelhantes poderiam ser feitos para linguagens STARK.

Na prática, ecossistemas não-Ethereum que utilizam STARKs incluem a StarkNet (que poderia permitir a verificação on-chain de ML se alguém escrevesse um verificador, embora o custo seja alto) e o serviço Bonsai da Risc0 (que é um serviço de prova off-chain que emite provas STARK que podem ser verificadas em várias cadeias). A partir de 2025, a maioria das demonstrações de zkML em blockchain favoreceu os SNARKs (devido à eficiência do verificador), mas as abordagens STARK permanecem atraentes por sua transparência e potencial em cenários de alta segurança ou resistentes à computação quântica. Por exemplo, uma rede de computação descentralizada pode usar STARKs para permitir que qualquer pessoa verifique o trabalho sem uma configuração confiável, útil para a longevidade. Além disso, algumas tarefas de ML especializadas podem explorar estruturas amigáveis a STARK: por exemplo, computações que usam intensivamente operações XOR/bit podem ser mais rápidas em STARKs (já que são baratas em álgebra booleana e hashing) do que na aritmética de campo de SNARKs.

Resumo de SNARK vs STARK para ML:

  • Desempenho: SNARKs (como Halo2) têm uma enorme sobrecarga de prova por portão, mas se beneficiam de otimizações poderosas e constantes pequenas para verificação; STARKs (genéricos) têm uma sobrecarga constante maior, mas escalam de forma mais linear e evitam criptografia cara como emparelhamentos. O DeepProve mostra que personalizar a abordagem (sum-check) resulta em tempo de prova quase linear (rápido), mas com uma prova semelhante a um STARK. O JOLT mostra que até mesmo uma VM geral pode ser tornada mais rápida com o uso intensivo de consultas. Empiricamente, para modelos com até milhões de operações: um SNARK bem otimizado (Ezkl) pode lidar com isso, mas pode levar dezenas de minutos, enquanto o DeepProve (GKR) pode fazê-lo em segundos. As VMs STARK em 2024 eram provavelmente intermediárias ou piores que os SNARKs, a menos que especializadas (Risc0 foi mais lento nos testes, Cairo foi mais lento sem dicas personalizadas).
  • Verificação: As provas SNARK são verificadas mais rapidamente (milissegundos, e dados mínimos on-chain ~ algumas centenas de bytes a alguns KB). As provas STARK são maiores (dezenas de KB) e levam mais tempo (dezenas de ms a segundos) para verificar devido a muitos passos de hashing. Em termos de blockchain, uma verificação de SNARK pode custar, por exemplo, ~200k de gás, enquanto uma verificação de STARK pode custar milhões de gás – muitas vezes alto demais para L1, aceitável em L2 ou com esquemas de verificação sucintos.
  • Configuração e Segurança: SNARKs como Groth16 exigem uma configuração confiável por circuito (pouco amigável para modelos arbitrários), mas SNARKs universais (PLONK, Halo2) têm uma configuração única que pode ser reutilizada para qualquer circuito até um certo tamanho. STARKs não precisam de configuração e usam apenas suposições de hash (além de suposições clássicas de complexidade polinomial), e são seguros pós-quânticos. Isso torna os STARKs atraentes para a longevidade – as provas permanecem seguras mesmo que surjam computadores quânticos, enquanto os SNARKs atuais (baseados em BLS12-381) seriam quebrados por ataques quânticos.

Consolidaremos essas diferenças em uma tabela de comparação em breve.

FHE para ML (FHE-o-ML): Computação Privada vs. Computação Verificável

A Criptografia Totalmente Homomórfica (FHE) é uma técnica criptográfica que permite que computações sejam realizadas diretamente em dados criptografados. No contexto de ML, a FHE pode permitir uma forma de inferência que preserva a privacidade: por exemplo, um cliente pode enviar uma entrada criptografada para um host de modelo, o host executa a rede neural no texto cifrado sem descriptografá-lo e envia de volta um resultado criptografado que o cliente pode descriptografar. Isso garante a confidencialidade dos dados – o proprietário do modelo não aprende nada sobre a entrada (e potencialmente o cliente aprende apenas o resultado, não os detalhes internos do modelo se receber apenas o resultado). No entanto, a FHE por si só não produz uma prova de correção da mesma forma que as ZKPs. O cliente deve confiar que o proprietário do modelo realmente realizou a computação honestamente (o texto cifrado poderia ter sido manipulado). Geralmente, se o cliente tem o modelo ou espera uma certa distribuição de resultados, trapaças flagrantes podem ser detectadas, mas erros sutis ou o uso de uma versão errada do modelo não seriam evidentes apenas a partir do resultado criptografado.

Compromissos no desempenho: A FHE é notoriamente pesada em computação. Executar inferência de aprendizado profundo sob FHE acarreta uma desaceleração de ordens de magnitude. Experimentos iniciais (por exemplo, CryptoNets em 2016) levaram dezenas de segundos para avaliar uma pequena CNN em dados criptografados. Em 2024, melhorias como CKKS (para aritmética aproximada) e bibliotecas melhores (Microsoft SEAL, Concrete da Zama) reduziram essa sobrecarga, mas ela permanece grande. Por exemplo, um usuário relatou que usar o Concrete-ML da Zama para executar um classificador CIFAR-10 levou 25–30 minutos por inferência em seu hardware. Após otimizações, a equipe da Zama alcançou ~40 segundos para essa inferência em um servidor de 192 núcleos. Mesmo 40s é extremamente lento em comparação com uma inferência em texto plano (que pode ser 0,01s), mostrando uma sobrecarga de ~$10^3–\10^4\times$. Modelos maiores ou maior precisão aumentam ainda mais o custo. Além disso, as operações FHE consomem muita memória e exigem bootstrapping ocasional (um passo de redução de ruído) que é computacionalmente caro. Em resumo, a escalabilidade é um grande problema – a FHE de ponta pode lidar com uma pequena CNN ou uma regressão logística simples, mas escalar para grandes CNNs ou Transformers está além dos limites práticos atuais.

Vantagens de privacidade: O grande apelo da FHE é a privacidade dos dados. A entrada pode permanecer completamente criptografada durante todo o processo. Isso significa que um servidor não confiável pode computar sobre os dados privados de um cliente sem aprender nada sobre eles. Por outro lado, se o modelo for sensível (proprietário), pode-se imaginar criptografar os parâmetros do modelo e fazer com que o cliente realize a inferência FHE do seu lado – mas isso é menos comum porque se o cliente tiver que fazer a computação FHE pesada, isso nega a ideia de descarregar para um servidor poderoso. Tipicamente, o modelo é público ou mantido pelo servidor em texto claro, e os dados são criptografados pela chave do cliente. A privacidade do modelo nesse cenário não é fornecida por padrão (o servidor conhece o modelo; o cliente aprende os resultados, mas não os pesos). Existem configurações mais exóticas (como computação segura de duas partes ou FHE multi-chave) onde tanto o modelo quanto os dados podem ser mantidos privados um do outro, mas isso acarreta ainda mais complexidade. Em contraste, o zkML via ZKPs pode garantir a privacidade do modelo e a privacidade dos dados ao mesmo tempo – o provador pode ter tanto o modelo quanto os dados como testemunho secreto, revelando apenas o que é necessário para o verificador.

Nenhuma verificação on-chain necessária (e nenhuma possível): Com a FHE, o resultado sai criptografado para o cliente. O cliente então o descriptografa para obter a previsão real. Se quisermos usar esse resultado on-chain, o cliente (ou quem quer que detenha a chave de descriptografia) teria que publicar o resultado em texto plano e convencer os outros de que está correto. Mas nesse ponto, a confiança volta a ser um problema – a menos que combinada com uma ZKP. Em princípio, poder-se-ia combinar FHE e ZKP: por exemplo, usar FHE para manter os dados privados durante a computação e, em seguida, gerar uma prova ZK de que o resultado em texto plano corresponde a uma computação correta. No entanto, combiná-los significa que você paga a penalidade de desempenho da FHE e da ZKP – extremamente impraticável com a tecnologia de hoje. Assim, na prática, FHE-de-ML e zkML servem a casos de uso diferentes:

  • FHE-de-ML: Ideal quando o objetivo é a confidencialidade entre duas partes (cliente e servidor). Por exemplo, um serviço em nuvem pode hospedar um modelo de ML e os usuários podem consultá-lo com seus dados sensíveis sem revelar os dados para a nuvem (e se o modelo for sensível, talvez implantá-lo via codificações amigáveis à FHE). Isso é ótimo para serviços de ML que preservam a privacidade (previsões médicas, etc.). O usuário ainda tem que confiar no serviço para executar fielmente o modelo (já que não há prova), mas pelo menos qualquer vazamento de dados é evitado. Alguns projetos como a Zama estão até explorando uma “EVM habilitada para FHE (fhEVM)” onde contratos inteligentes poderiam operar em entradas criptografadas, mas verificar essas computações on-chain exigiria que o contrato de alguma forma impusesse a computação correta – um desafio aberto que provavelmente requer provas ZK ou hardware seguro especializado.
  • zkML (ZKPs): Ideal quando o objetivo é a verificabilidade e auditabilidade pública. Se você quer que qualquer pessoa (ou qualquer contrato) tenha certeza de que “O modelo $M$ foi avaliado corretamente em $X$ e produziu $Y$”, as ZKPs são a solução. Elas também fornecem privacidade como um bônus (você pode esconder $X$ ou $Y$ ou $M$ se necessário, tratando-os como entradas privadas para a prova), mas sua principal característica é a prova de execução correta.

Uma relação complementar: Vale a pena notar que as ZKPs protegem o verificador (eles não aprendem nada sobre segredos, apenas que a computação foi feita corretamente), enquanto a FHE protege os dados do provador da parte que computa. Em alguns cenários, eles poderiam ser combinados – por exemplo, uma rede de nós não confiáveis poderia usar FHE para computar sobre os dados privados dos usuários e, em seguida, fornecer provas ZK aos usuários (ou à blockchain) de que as computações foram feitas de acordo com o protocolo. Isso cobriria tanto a privacidade quanto a correção, mas o custo de desempenho é enorme com os algoritmos de hoje. Mais viáveis a curto prazo são híbridos como Ambientes de Execução Confiáveis (TEE) mais ZKP ou Criptografia Funcional mais ZKP – estes estão além do nosso escopo, mas visam fornecer algo semelhante (TEEs mantêm dados/modelo secretos durante a computação, então uma ZKP pode atestar que o TEE fez a coisa certa).

Em resumo, FHE-de-ML prioriza a confidencialidade de entradas/saídas, enquanto zkML prioriza a correção verificável (com possível privacidade). A Tabela 1 abaixo contrasta as propriedades-chave:

AbordagemDesempenho do Provador (Inferência e Prova)Tamanho da Prova e VerificaçãoRecursos de PrivacidadeConfiguração Confiável?Pós-Quântico?
zk-SNARK (Halo2, Groth16, PLONK, etc)Sobrecarga pesada para o provador (até 10^6× o tempo de execução normal sem otimizações; na prática 10^3–10^5×). Otimizado para modelo/circuito específico; tempo de prova em minutos para modelos médios, horas para grandes. SNARKs zkML recentes (DeepProve com GKR) melhoram vastamente isso (sobrecarga quase linear, por exemplo, segundos em vez de minutos para modelos de milhões de parâmetros).Provas muito pequenas (geralmente < 100 KB, às vezes ~alguns KB). A verificação é rápida: alguns emparelhamentos ou avaliações polinomiais (tipicamente < 50 ms on-chain). As provas baseadas em GKR do DeepProve são maiores (dezenas–centenas de KB) e verificam em ~0,5 s (ainda muito mais rápido que reexecutar o modelo).Confidencialidade dos dados: Sim – as entradas podem ser privadas na prova (não reveladas). Privacidade do modelo: Sim – o provador pode se comprometer com os pesos do modelo e não revelá-los. Ocultação do resultado: Opcional – a prova pode ser de uma declaração sem revelar o resultado (por exemplo, “o resultado tem a propriedade P”). No entanto, se o próprio resultado for necessário on-chain, ele geralmente se torna público. No geral, os SNARKs oferecem flexibilidade total de conhecimento zero (oculte as partes que desejar).Depende do esquema. Groth16/EZKL exigem uma configuração confiável por circuito; PLONK/Halo2 usam uma configuração universal (uma vez). O sum-check GKR do DeepProve é transparente (sem configuração) – um bônus desse design.Os SNARKs clássicos (curvas BLS12-381) não são seguros contra PQC (vulneráveis a ataques quânticos ao logaritmo discreto de curva elíptica). Alguns SNARKs mais recentes usam compromissos seguros contra PQC, mas Halo2/PLONK como usados no Ezkl não são seguros contra PQC. O GKR (DeepProve) usa compromissos de hash (por exemplo, Poseidon/Merkle) que são conjecturados como seguros contra PQC (confiando na resistência à pré-imagem de hash).
zk-STARK (FRI, prova baseada em hash)A sobrecarga do provador é alta, mas com escalonamento mais linear. Tipicamente 10^2–10^4× mais lento que o nativo para tarefas grandes, com espaço para paralelizar. VMs STARK gerais (Risc0, Cairo) tiveram desempenho mais lento vs SNARK para ML em 2024 (por exemplo, 3×–66× mais lento que Halo2 em alguns casos). STARKs especializados (ou GKR) podem se aproximar da sobrecarga linear e superar os SNARKs para circuitos grandes.As provas são maiores: geralmente dezenas de KB (crescendo com o tamanho do circuito/log(n)). O verificador deve fazer múltiplas verificações de hash e FFT – tempo de verificação ~O(n^ε) para ε pequeno (por exemplo, ~50 ms a 500 ms dependendo do tamanho da prova). On-chain, isso é mais caro (o verificador L1 da StarkWare pode levar milhões de gás por prova). Alguns STARKs suportam provas recursivas para comprimir o tamanho, ao custo do tempo do provador.Privacidade de dados e modelo: Um STARK pode ser tornado de conhecimento zero randomizando os dados do rastro (adicionando ofuscação às avaliações polinomiais), então ele pode ocultar entradas privadas de forma semelhante ao SNARK. Muitas implementações de STARK focam na integridade, mas variantes zk-STARK permitem privacidade. Então, sim, eles podem ocultar entradas/modelos como os SNARKs. Ocultação do resultado: da mesma forma, possível em teoria (o provador não declara o resultado como público), mas raramente usado, já que geralmente o resultado é o que queremos revelar/verificar.Sem configuração confiável. A transparência é uma marca registrada dos STARKs – exigem apenas uma string aleatória comum (que o Fiat-Shamir pode derivar). Isso os torna atraentes para uso aberto (qualquer modelo, a qualquer momento, sem cerimônia por modelo).Sim, os STARKs dependem de suposições de segurança de hash e teóricas da informação (como oráculo aleatório e dificuldade de certas decodificações de palavras-código em FRI). Acredita-se que sejam seguros contra adversários quânticos. As provas STARK são, portanto, resistentes a PQC, uma vantagem para a IA verificável à prova de futuro.
FHE para ML (Criptografia Totalmente Homomórfica aplicada à inferência)Provador = parte que faz a computação em dados criptografados. O tempo de computação é extremamente alto: 10^3–10^5× mais lento que a inferência em texto plano é comum. Hardware de ponta (servidores com muitos núcleos, FPGA, etc.) pode mitigar isso. Algumas otimizações (inferência de baixa precisão, parâmetros FHE nivelados) podem reduzir a sobrecarga, mas há um impacto fundamental no desempenho. A FHE é atualmente prática para modelos pequenos ou modelos lineares simples; redes profundas permanecem desafiadoras além de tamanhos de brinquedo.Nenhuma prova gerada. O resultado é uma saída criptografada. A Verificação no sentido de checar a correção não é fornecida apenas pela FHE – confia-se na parte que computa para não trapacear. (Se combinado com hardware seguro, pode-se obter uma atestação; caso contrário, um servidor malicioso poderia retornar um resultado criptografado incorreto que o cliente descriptografaria para a saída errada sem saber a diferença).Confidencialidade dos dados: Sim – a entrada é criptografada, então a parte que computa não aprende nada sobre ela. Privacidade do modelo: Se o proprietário do modelo está fazendo a computação na entrada criptografada, o modelo está em texto plano do seu lado (não protegido). Se os papéis forem invertidos (cliente detém o modelo criptografado e o servidor computa), o modelo poderia ser mantido criptografado, mas este cenário é menos comum. Existem técnicas como ML seguro de duas partes que combinam FHE/MPC para proteger ambos, mas isso vai além da FHE simples. Ocultação do resultado: Por padrão, o resultado da computação é criptografado (apenas descriptografável pela parte com a chave secreta, geralmente o proprietário da entrada). Portanto, o resultado fica oculto do servidor de computação. Se quisermos o resultado público, o cliente pode descriptografar e revelá-lo.Nenhuma configuração necessária. Cada usuário gera seu próprio par de chaves para criptografia. A confiança depende de as chaves permanecerem secretas.A segurança dos esquemas FHE (por exemplo, BFV, CKKS, TFHE) é baseada em problemas de reticulado (Learning With Errors), que se acredita serem resistentes a ataques quânticos (pelo menos nenhum algoritmo quântico eficiente é conhecido). Portanto, a FHE é geralmente considerada segura pós-quântica.

Tabela 1: Comparação das abordagens zk-SNARK, zk-STARK e FHE para inferência de machine learning (compromissos de desempenho e privacidade).

Casos de Uso e Implicações para Aplicações Web3

A convergência de IA e blockchain via zkML desbloqueia novos e poderosos padrões de aplicação na Web3:

  • Agentes Autônomos Descentralizados e Tomada de Decisão On-Chain: Contratos inteligentes ou DAOs podem incorporar decisões impulsionadas por IA com garantias de correção. Por exemplo, imagine uma DAO que usa uma rede neural para analisar as condições de mercado antes de executar negociações. Com o zkML, o contrato inteligente da DAO pode exigir uma prova zkSNARK de que o modelo de ML autorizado (com um compromisso de hash conhecido) foi executado nos dados mais recentes e produziu a ação recomendada, antes que a ação seja aceita. Isso impede que atores maliciosos injetem uma previsão falsa – a cadeia verifica a computação da IA. Com o tempo, poderíamos até ter agentes autônomos totalmente on-chain (contratos que consultam IA off-chain ou contêm modelos simplificados) tomando decisões em DeFi ou jogos, com todos os seus movimentos provados corretos e em conformidade com as políticas via provas ZK. Isso aumenta a confiança em agentes autônomos, já que seu “pensamento” é transparente e verificável, em vez de uma caixa-preta.

  • Mercados de Computação Verificável: Projetos como a Lagrange estão efetivamente criando mercados de computação verificável – desenvolvedores podem terceirizar a inferência pesada de ML para uma rede de provadores e receber de volta uma prova com o resultado. Isso é análogo à computação em nuvem descentralizada, mas com confiança embutida: você não precisa confiar no servidor, apenas na prova. É uma mudança de paradigma para oráculos e computação off-chain. Protocolos como o futuro DSC (camada de sequenciamento descentralizada) do Ethereum ou redes de oráculos poderiam usar isso para fornecer feeds de dados ou feeds analíticos com garantias criptográficas. Por exemplo, um oráculo poderia fornecer “o resultado do modelo X na entrada Y” e qualquer pessoa pode verificar a prova anexada on-chain, em vez de confiar na palavra do oráculo. Isso poderia permitir uma IA-como-serviço verificável na blockchain: qualquer contrato pode solicitar uma computação (como “pontue esses riscos de crédito com meu modelo privado”) e aceitar a resposta apenas com uma prova válida. Projetos como a Gensyn estão explorando mercados de treinamento e inferência descentralizados usando essas técnicas de verificação.

  • NFTs e Jogos – Proveniência e Evolução: Em jogos de blockchain ou colecionáveis NFT, o zkML pode provar que traços ou movimentos de jogo foram gerados por modelos de IA legítimos. Por exemplo, um jogo pode permitir que uma IA evolua os atributos de um pet NFT. Sem ZK, um usuário esperto poderia modificar a IA ou o resultado para obter um pet superior. Com o zkML, o jogo pode exigir uma prova de que “as novas estatísticas do pet foram computadas pelo modelo de evolução oficial sobre as estatísticas antigas do pet”, prevenindo trapaças. O mesmo vale para NFTs de arte generativa: um artista poderia lançar um modelo generativo como um compromisso; mais tarde, ao cunhar NFTs, provar que cada imagem foi produzida por aquele modelo dado alguma semente, garantindo a autenticidade (e até mesmo fazendo isso sem revelar o modelo exato ao público, preservando a propriedade intelectual do artista). Essa verificação de proveniência garante a autenticidade de uma maneira semelhante à aleatoriedade verificável – exceto que aqui é criatividade verificável.

  • IA que Preserva a Privacidade em Domínios Sensíveis: O zkML permite a confirmação de resultados sem expor as entradas. Na área da saúde, os dados de um paciente poderiam ser processados por um modelo de diagnóstico de IA por um provedor de nuvem; o hospital recebe um diagnóstico e uma prova de que o modelo (que poderia ser de propriedade privada de uma empresa farmacêutica) foi executado corretamente nos dados do paciente. Os dados do paciente permanecem privados (apenas uma forma criptografada ou comprometida foi usada na prova), e os pesos do modelo permanecem proprietários – ainda assim, o resultado é confiável. Reguladores ou seguradoras também poderiam verificar que apenas modelos aprovados foram usados. Em finanças, uma empresa poderia provar a um auditor ou regulador que seu modelo de risco foi aplicado aos seus dados internos e produziu certas métricas sem revelar os dados financeiros sensíveis subjacentes. Isso permite conformidade e supervisão com garantias criptográficas em vez de confiança manual.

  • Interoperabilidade Cross-Chain e Off-Chain: Como as provas de conhecimento zero são fundamentalmente portáteis, o zkML pode facilitar resultados de IA cross-chain. Uma cadeia pode ter uma aplicação intensiva em IA rodando off-chain; ela pode postar uma prova do resultado em uma blockchain diferente, que o aceitará sem necessidade de confiança. Por exemplo, considere uma DAO multi-chain usando uma IA para agregar o sentimento nas redes sociais (dados off-chain). A análise de IA (PNL complexa em grandes dados) é feita off-chain por um serviço que então posta uma prova em uma pequena blockchain (ou múltiplas cadeias) de que “a análise foi feita corretamente e o resultado do sentimento = 0,85”. Todas as cadeias podem verificar e usar esse resultado em sua lógica de governança, sem que cada uma precise reexecutar a análise. Esse tipo de computação verificável interoperável é o que a rede da Lagrange visa suportar, servindo múltiplos rollups ou L1s simultaneamente. Isso remove a necessidade de pontes confiáveis ou suposições de oráculos ao mover resultados entre cadeias.

  • Alinhamento e Governança de IA: Em uma nota mais futurista, o zkML foi destacado como uma ferramenta para a governança e segurança de IA. As declarações de visão da Lagrange, por exemplo, argumentam que à medida que os sistemas de IA se tornam mais poderosos (até mesmo superinteligentes), a verificação criptográfica será essencial para garantir que eles sigam regras acordadas. Ao exigir que os modelos de IA produzam provas de seu raciocínio ou restrições, os humanos mantêm um grau de controle – “você não pode confiar no que não pode verificar”. Embora isso seja especulativo e envolva tanto aspectos sociais quanto técnicos, a tecnologia poderia impor que um agente de IA rodando autonomamente ainda prove que está usando um modelo aprovado e não foi adulterado. Redes de IA descentralizadas podem usar provas on-chain para verificar contribuições (por exemplo, uma rede de nós treinando colaborativamente um modelo pode provar que cada atualização foi computada fielmente). Assim, o zkML poderia desempenhar um papel em garantir que os sistemas de IA permaneçam responsáveis perante protocolos definidos por humanos, mesmo em ambientes descentralizados ou não controlados.

Em conclusão, o zkML e a IA verificável on-chain representam uma convergência de criptografia avançada e machine learning que promete aumentar a confiança, a transparência e a privacidade em aplicações de IA. Ao comparar as principais abordagens – zk-SNARKs, zk-STARKs e FHE – vemos um espectro de compromissos entre desempenho e privacidade, cada um adequado para diferentes cenários. Estruturas baseadas em SNARK como o Ezkl e inovações como o DeepProve da Lagrange tornaram viável provar inferências substanciais de redes neurais com esforço prático, abrindo a porta para implantações de IA verificável no mundo real. Abordagens baseadas em STARK e VM prometem maior flexibilidade e segurança pós-quântica, que se tornarão importantes à medida que o campo amadurece. A FHE, embora não seja uma solução para a verificabilidade, aborda a necessidade complementar de computação de ML confidencial e, em combinação com ZKPs ou em contextos privados específicos, pode capacitar os usuários a alavancar a IA sem sacrificar a privacidade dos dados.

As implicações para a Web3 são significativas: podemos prever contratos inteligentes reagindo a previsões de IA, sabendo que estão corretas; mercados de computação onde os resultados são vendidos sem necessidade de confiança; identidades digitais (como a prova de humanidade da Worldcoin via IA de íris) protegidas por zkML para confirmar que alguém é humano sem vazar sua imagem biométrica; e, em geral, uma nova classe de “inteligência provável” que enriquece as aplicações de blockchain. Muitos desafios permanecem – desempenho para modelos muito grandes, ergonomia do desenvolvedor e a necessidade de hardware especializado – mas a trajetória é clara. Como um relatório observou, “as ZKPs de hoje podem suportar modelos pequenos, mas modelos de moderados a grandes quebram o paradigma”; no entanto, avanços rápidos (acelerações de 50×–150× com o DeepProve sobre a arte anterior) estão empurrando essa fronteira para fora. Com a pesquisa contínua (por exemplo, em aceleração de hardware e prova distribuída), podemos esperar que modelos de IA progressivamente maiores e mais complexos se tornem prováveis. O zkML pode em breve evoluir de demonstrações de nicho para um componente essencial da infraestrutura de IA confiável, garantindo que, à medida que a IA se torna onipresente, o faça de uma maneira que seja auditável, descentralizada e alinhada com a privacidade e segurança do usuário.