Pular para o conteúdo principal

21 postagens marcadas com "IA"

Ver todas os Marcadores

Identidade Tokenizada e Companheiros de IA Convergem como a Próxima Fronteira da Web3

· Leitura de 35 minutos
Dora Noda
Software Engineer

O verdadeiro gargalo não é a velocidade de computação — é a identidade. Essa percepção de Matthew Graham, Managing Partner da Ryze Labs, captura a mudança fundamental que está acontecendo na interseção de companheiros de IA e sistemas de identidade blockchain. À medida que o mercado de companheiros de IA explode para US140,75bilho~esateˊ2030eaidentidadedescentralizadaescaladeUS 140,75 bilhões até 2030 e a identidade descentralizada escala de US 4,89 bilhões hoje para US41,73bilho~esateˊofinaldadeˊcada,essastecnologiasesta~oconvergindoparapermitirumnovoparadigma:relacionamentosdeIAverdadeiramenteproˊprios,portaˊteisequepreservamaprivacidade.AempresadeGrahamimplantoucapitalconcretoincubandoaplataformadeIApessoaldaAmiko,apoiandoorobo^humanoideElizadeUS 41,73 bilhões até o final da década, essas tecnologias estão convergindo para permitir um novo paradigma: relacionamentos de IA verdadeiramente próprios, portáteis e que preservam a privacidade. A empresa de Graham implantou capital concreto — incubando a plataforma de IA pessoal da Amiko, apoiando o robô humanoide Eliza de US 420.000, investindo na infraestrutura TEE de mais de 30.000 da EdgeX Labs e lançando um fundo AI Combinator de US$ 5 milhões — posicionando a Ryze na vanguarda do que Graham chama de "a onda de inovação mais importante desde o verão DeFi".

Essa convergência é importante porque os companheiros de IA atualmente existem em jardins murados, incapazes de se mover entre plataformas, com os usuários não possuindo verdadeira propriedade de seus relacionamentos ou dados de IA. Simultaneamente, os sistemas de identidade baseados em blockchain amadureceram de estruturas teóricas para infraestrutura de produção gerenciando mais de US$ 2 bilhões em capitalização de mercado de agentes de IA. Quando combinados, a identidade tokenizada fornece a camada de propriedade que os companheiros de IA não têm, enquanto os agentes de IA resolvem o problema de experiência do usuário do blockchain. O resultado: companheiros digitais que você realmente possui, pode levar para qualquer lugar e interagir privadamente através de provas criptográficas, em vez de vigilância corporativa.

A visão de Matthew Graham: infraestrutura de identidade como a camada fundamental

A jornada intelectual de Graham acompanha a evolução da indústria, de entusiasta do Bitcoin em 2013 a VC de cripto gerenciando 51 empresas de portfólio, a defensor de companheiros de IA, experimentando um "momento de parar tudo" com Terminal of Truths em 2024. Sua progressão espelha o amadurecimento do setor, mas sua recente mudança representa algo mais fundamental: o reconhecimento de que a infraestrutura de identidade, não o poder computacional ou a sofisticação do modelo, determina se os agentes de IA autônomos podem operar em escala.

Em janeiro de 2025, Graham comentou "camada de infraestrutura waifu" sobre a declaração da Amiko de que "o verdadeiro desafio não é a velocidade. É a identidade." Isso marcou o culminar de seu pensamento — uma mudança de foco nas capacidades da IA para o reconhecimento de que, sem sistemas de identidade padronizados e descentralizados, os agentes de IA não podem se verificar, transacionar com segurança ou persistir entre plataformas. Através da estratégia de portfólio da Ryze Labs, Graham está construindo sistematicamente essa pilha de infraestrutura: privacidade em nível de hardware através da computação distribuída da EdgeX Labs, plataformas de IA cientes da identidade através da Amiko, manifestação física através da Eliza Wakes Up e desenvolvimento de ecossistema através dos 10-12 investimentos da AI Combinator.

Sua tese de investimento centra-se em três crenças convergentes. Primeiro, os agentes de IA exigem trilhos de blockchain para operação autônoma — "eles terão que fazer transações, microtransações, o que quer que seja... esta é uma situação muito naturalmente de trilho cripto." Segundo, o futuro da IA vive localmente em dispositivos de propriedade do usuário, em vez de em nuvens corporativas, necessitando de infraestrutura descentralizada que seja "não apenas descentralizada, mas também fisicamente distribuída e capaz de rodar localmente." Terceiro, o companheirismo representa "uma das necessidades psicológicas mais inexploradas do mundo hoje", posicionando os companheiros de IA como infraestrutura social, em vez de mero entretenimento. Graham nomeou seu gêmeo digital planejado de "Marty" e vislumbra um mundo onde todos têm uma IA profundamente pessoal que os conhece intimamente: "Marty, você sabe tudo sobre mim... Marty, do que a mamãe gosta? Vá pedir alguns presentes de Natal para a mamãe."

A estratégia geográfica de Graham adiciona outra dimensão — focando em mercados emergentes como Lagos e Bangalore, onde "a próxima onda de usuários e construtores virá". Isso posiciona a Ryze para capturar a adoção de companheiros de IA em regiões que potencialmente ultrapassam mercados desenvolvidos, semelhante aos pagamentos móveis na África. Sua ênfase em "lore" e fenômenos culturais sugere a compreensão de que a adoção de companheiros de IA segue dinâmicas sociais, em vez de puro mérito tecnológico: traçando "paralelos com fenômenos culturais como memes e lore da internet... lore e cultura da internet podem sinergizar movimentos através do tempo e do espaço."

Em aparições na Token 2049, abrangendo Cingapura 2023 e além, Graham articulou essa visão para audiências globais. Sua entrevista à Bloomberg posicionou a IA como "o terceiro ato da cripto" após as stablecoins, enquanto sua participação no podcast The Scoop explorou "como cripto, IA e robótica estão convergindo para a economia futura." O fio condutor: agentes de IA precisam de sistemas de identidade para interações confiáveis, mecanismos de propriedade para operação autônoma e trilhos de transação para atividade econômica — precisamente o que a tecnologia blockchain oferece.

Identidade descentralizada atinge escala de produção com grandes protocolos operacionais

A identidade tokenizada evoluiu de conceito de whitepaper para infraestrutura de produção gerenciando bilhões em valor. A pilha tecnológica compreende três camadas fundamentais: Identificadores Descentralizados (DIDs) como identificadores globalmente únicos padronizados pelo W3C, que não exigem autoridade centralizada; Credenciais Verificáveis (VCs) como credenciais criptograficamente seguras e instantaneamente verificáveis, formando um triângulo de confiança entre emissor, detentor e verificador; e Tokens Soulbound (SBTs) como NFTs não transferíveis que representam reputação, conquistas e afiliações — propostos por Vitalik Buterin em maio de 2022 e agora implantados em sistemas como o token Account Bound da Binance e a governança Citizens' House da Optimism.

Grandes protocolos alcançaram escala significativa até outubro de 2025. O Ethereum Name Service (ENS) lidera com mais de 2 milhões de domínios .eth registrados, US667885milho~esdecapitalizac\ca~odemercadoemigrac\ca~oiminenteparaaL2"Namechain"esperandoumareduc\ca~ode8090 667-885 milhões de capitalização de mercado e migração iminente para a L2 "Namechain" esperando uma redução de 80-90% nas taxas de gás. O Lens Protocol construiu mais de 650.000 perfis de usuário com 28 milhões de conexões sociais em seu grafo social descentralizado, garantindo recentemente US 46 milhões em financiamento e transicionando para o Lens v3 na Rede Lens baseada em zkSync. O Worldcoin (rebatizado como "World") verificou 12-16 milhões de usuários em mais de 25 países através de Orbs de escaneamento de íris, embora enfrente desafios regulatórios, incluindo proibições na Espanha, Portugal e ordens de cessar e desistir nas Filipinas. O Polygon ID implantou a primeira solução de identidade alimentada por ZK em meados de 2022, com o Lançamento 6 de outubro de 2025 introduzindo credenciais dinâmicas e prova privada de unicidade. O Civic fornece verificação de identidade blockchain focada em conformidade, gerando US$ 4,8 milhões de receita anual através de seu sistema Civic Pass, que permite verificações de KYC/vivacidade para dApps.

A arquitetura técnica permite a verificação que preserva a privacidade através de múltiplas abordagens criptográficas. Provas de conhecimento zero permitem provar atributos (idade, nacionalidade, limites de saldo da conta) sem revelar os dados subjacentes. A divulgação seletiva permite que os usuários compartilhem apenas as informações necessárias para cada interação, em vez de credenciais completas. O armazenamento off-chain mantém dados pessoais sensíveis fora das blockchains públicas, registrando apenas hashes e atestados on-chain. Esse design aborda a aparente contradição entre a transparência do blockchain e a privacidade da identidade — um desafio crítico que as empresas do portfólio de Graham, como a Amiko, abordam explicitamente através do processamento local, em vez da dependência da nuvem.

As implementações atuais abrangem diversos setores, demonstrando utilidade no mundo real. Serviços financeiros usam credenciais KYC reutilizáveis, cortando os custos de integração em 60%, com Uniswap v4 e Aave integrando Polygon ID para provedores de liquidez verificados e empréstimos subcolateralizados baseados no histórico de crédito SBT. Aplicações de saúde permitem registros médicos portáteis e verificação de prescrições compatíveis com HIPAA. Credenciais educacionais como diplomas verificáveis permitem verificação instantânea pelo empregador. Serviços governamentais incluem carteiras de motorista móveis (mDLs) aceitas para viagens aéreas domésticas da TSA e o lançamento obrigatório da Carteira EUDI da UE até 2026 para todos os estados membros. A governança DAO usa SBTs para mecanismos de um-pessoa-um-voto e resistência Sybil — a Citizens' House da Optimism foi pioneira nessa abordagem.

O cenário regulatório está se cristalizando mais rápido do que o esperado. O eIDAS 2.0 da Europa (Regulamento UE 2024/1183) foi aprovado em 11 de abril de 2024, obrigando todos os estados membros da UE a oferecer Carteiras EUDI até 2026, com aceitação intersetorial exigida até 2027, criando a primeira estrutura legal abrangente que reconhece a identidade descentralizada. O padrão ISO 18013 alinha as carteiras de motorista móveis dos EUA com os sistemas da UE, permitindo interoperabilidade transcontinental. As preocupações com o GDPR sobre a imutabilidade do blockchain são abordadas através do armazenamento off-chain e da minimização de dados controlada pelo usuário. Os Estados Unidos viram a Ordem Executiva de Cibersegurança de Biden financiar a adoção de mDLs, a aprovação da TSA para viagens aéreas domésticas e implementações em nível estadual se espalhando a partir da implantação pioneira da Louisiana.

Modelos econômicos em torno da identidade tokenizada revelam múltiplos mecanismos de captura de valor. Os tokens de governança ENS concedem direitos de voto sobre as mudanças de protocolo. Os tokens de utilidade CVC da Civic compram serviços de verificação de identidade. O WLD da Worldcoin visa a distribuição de renda básica universal para humanos verificados. O mercado de identidade Web3 mais amplo está em US21bilho~es(2023),projetandoparaUS 21 bilhões (2023), projetando para US 77 bilhões até 2032 — um CAGR de 14-16% — enquanto os mercados Web3 em geral cresceram de US2,18bilho~es(2023)paraUS 2,18 bilhões (2023) para US 49,18 bilhões (2025), representando um crescimento anual composto explosivo de 44,9%. Os destaques de investimento incluem a arrecadação de US46milho~esdoLensProtocol,osUS 46 milhões do Lens Protocol, os US 250 milhões da Worldcoin da Andreessen Horowitz e US$ 814 milhões fluindo para 108 empresas Web3 somente no Q1 de 2023.

Companheiros de IA atingem 220 milhões de downloads à medida que a dinâmica do mercado muda para a monetização

O setor de companheiros de IA alcançou escala de consumo mainstream com 337 aplicativos ativos geradores de receita, gerando US221milho~esemgastoscumulativosdoconsumidorateˊjulhode2025.OmercadoatingiuUS 221 milhões em gastos cumulativos do consumidor até julho de 2025. O mercado atingiu US 28,19 bilhões em 2024 e projeta para US$ 140,75 bilhões até 2030 — um CAGR de 30,8% impulsionado pela demanda por suporte emocional, aplicações de saúde mental e casos de uso de entretenimento. Essa trajetória de crescimento posiciona os companheiros de IA como um dos segmentos de IA de crescimento mais rápido, com downloads aumentando 88% ano a ano para 60 milhões somente no H1 de 2025.

Líderes de plataforma estabeleceram posições dominantes através de abordagens diferenciadas. Character.AI comanda 20-28 milhões de usuários ativos mensais com mais de 18 milhões de chatbots criados por usuários, atingindo uma média de uso diário de 2 horas e 10 bilhões de mensagens mensais — 48% maior retenção do que as mídias sociais tradicionais. A força da plataforma reside no role-playing e na interação com personagens, atraindo uma demografia jovem (53% com idade entre 18 e 24 anos) com uma divisão de gênero quase igual. Após o investimento de US2,7bilho~esdoGoogle,Character.AIatingiuumaavaliac\ca~odeUS 2,7 bilhões do Google, Character.AI atingiu uma avaliação de US 10 bilhões, apesar de gerar apenas US32,2milho~esdereceitaem2024,refletindoaconfianc\cadoinvestidornopotencialdemonetizac\ca~odelongoprazo.Replikafocaemsuporteemocionalpersonalizadocommaisde10milho~esdeusuaˊrios,oferecendopersonalizac\ca~odeavatar3D,interac\co~esdevoz/ARemodosderelacionamento(amigo/roma^ntico/mentor)comprec\codeUS 32,2 milhões de receita em 2024, refletindo a confiança do investidor no potencial de monetização de longo prazo. Replika foca em suporte emocional personalizado com mais de 10 milhões de usuários, oferecendo personalização de avatar 3D, interações de voz/AR e modos de relacionamento (amigo/romântico/mentor) com preço de US 19,99 mensais ou US69,99anuais.PidaInflectionAIenfatizaaconversac\ca~oempaˊticaemmuˊltiplasplataformas(iOS,web,aplicativosdemensagens)semrepresentac\ca~ovisualdepersonagem,permanecendogratuitoenquantoconstroˊivaˊriosmilho~esdeusuaˊrios.FriendrepresentaafronteiradohardwareumcolardeIAvestıˊveldeUS 69,99 anuais. Pi da Inflection AI enfatiza a conversação empática em múltiplas plataformas (iOS, web, aplicativos de mensagens) sem representação visual de personagem, permanecendo gratuito enquanto constrói vários milhões de usuários. Friend representa a fronteira do hardware — um colar de IA vestível de US 99-129 que oferece companhia sempre atenta, alimentado por Claude 3.5, gerando controvérsia sobre o monitoramento constante de áudio, mas sendo pioneiro em dispositivos físicos de companheiros de IA.

As capacidades técnicas avançaram significativamente, mas permanecem limitadas por restrições fundamentais. Os sistemas atuais se destacam em processamento de linguagem natural com retenção de contexto em conversas, personalização através do aprendizado das preferências do usuário ao longo do tempo, integração multimodal combinando texto/voz/imagem/vídeo e conectividade de plataforma com dispositivos IoT e ferramentas de produtividade. A inteligência emocional avançada permite análise de sentimento e respostas empáticas, enquanto os sistemas de memória criam continuidade entre as interações. No entanto, limitações críticas persistem: nenhuma consciência verdadeira ou compreensão emocional genuína (empatia simulada em vez de sentida), tendência a alucinações e informações fabricadas, dependência da conectividade com a internet para recursos avançados, dificuldade com raciocínio complexo e situações sociais matizadas, e vieses herdados dos dados de treinamento.

Os casos de uso abrangem aplicações pessoais, profissionais, de saúde e educacionais com proposições de valor distintas. Aplicações pessoais/consumidor dominam com 43,4% de participação de mercado, abordando a epidemia de solidão (61% dos jovens adultos dos EUA relatam solidão séria) através de suporte emocional 24/7, entretenimento de role-playing (51% das interações em fantasia/ficção científica) e relacionamentos românticos virtuais (17% dos aplicativos explicitamente comercializam como "namorada de IA"). Mais de 65% dos usuários da Geração Z relatam conexão emocional com personagens de IA. Aplicações profissionais incluem produtividade no local de trabalho (Zoom AI Companion 2.0), automação de atendimento ao cliente (80% das interações tratáveis por IA) e personalização de vendas/marketing como o companheiro de compras Rufus da Amazon. Implementações de saúde fornecem lembretes de medicação, verificação de sintomas, companhia para idosos, reduzindo a depressão em idosos isolados, e suporte de saúde mental acessível entre sessões de terapia. Aplicações educacionais oferecem tutoria personalizada, prática de aprendizado de idiomas e o companheiro de aprendizado de IA "Learn About" do Google.

A evolução do modelo de negócios reflete o amadurecimento da experimentação em direção à monetização sustentável. Modelos freemium/assinatura atualmente dominam, com Character.AI Plus a US9,99mensaiseReplikaProaUS 9,99 mensais e Replika Pro a US 19,99 mensais, oferecendo acesso prioritário, respostas mais rápidas, chamadas de voz e personalização avançada. A receita por download aumentou 127% de US0,52(2024)paraUS 0,52 (2024) para US 1,18 (2025), sinalizando melhoria na conversão. A precificação baseada no consumo está emergindo como o modelo sustentável — pagar por interação, token ou mensagem, em vez de assinaturas fixas — alinhando melhor os custos com o uso. A integração de publicidade representa o futuro projetado à medida que os custos de inferência de IA diminuem; a ARK Invest prevê que a receita por hora aumentará dos atuais US0,03paraUS 0,03 para US 0,16 (semelhante às mídias sociais), potencialmente gerando US$ 70-150 bilhões até 2030 em seus casos base e de alta. Bens virtuais e microtransações para personalização de avatar, acesso a personagens premium e experiências especiais devem atingir a paridade de monetização com os serviços de jogos.

Preocupações éticas desencadearam ações regulatórias após danos documentados. Character.AI enfrenta um processo em 2024 após o suicídio de um adolescente ligado a interações com chatbot, enquanto a Disney emitiu ordens de cessar e desistir pelo uso de personagens protegidos por direitos autorais. A FTC lançou um inquérito em setembro de 2025, ordenando que sete empresas relatassem medidas de segurança infantil. O Senador da Califórnia Steve Padilla introduziu legislação exigindo salvaguardas, enquanto a Deputada Rebecca Bauer-Kahan propôs proibir companheiros de IA para menores de 16 anos. As principais questões éticas incluem riscos de dependência emocional, particularmente preocupantes para populações vulneráveis (adolescentes, idosos, indivíduos isolados), autenticidade e engano, pois a IA simula, mas não sente emoções genuinamente, privacidade e vigilância através da coleta extensiva de dados pessoais com políticas de retenção pouco claras, segurança e conselhos prejudiciais dada a tendência da IA a alucinar, e "desqualificação social", onde a dependência excessiva erode as capacidades sociais humanas.

As previsões de especialistas convergem para um avanço rápido contínuo com visões divergentes sobre o impacto social. Sam Altman projeta IAG em 5 anos, com o GPT-5 atingindo raciocínio "nível de PhD" (lançado em agosto de 2025). Elon Musk espera IA mais inteligente que o humano mais inteligente até 2026, com robôs Optimus em produção comercial a preços de US$ 20.000-30.000. Dario Amodei sugere a singularidade até 2026. A trajetória de curto prazo (2025-2027) enfatiza sistemas de IA agentivos mudando de chatbots para agentes autônomos que completam tarefas, raciocínio e memória aprimorados com janelas de contexto mais longas, evolução multimodal com geração de vídeo mainstream e integração de hardware através de wearables e robótica física. O consenso: os companheiros de IA vieram para ficar com um crescimento massivo à frente, embora o impacto social permaneça muito debatido entre proponentes que enfatizam o suporte de saúde mental acessível e críticos que alertam sobre a tecnologia não estar pronta para papéis de suporte emocional com salvaguardas inadequadas.

A convergência técnica permite companheiros de IA próprios, portáteis e privados através da infraestrutura blockchain

A interseção da identidade tokenizada e dos companheiros de IA resolve problemas fundamentais que afligem ambas as tecnologias — os companheiros de IA carecem de verdadeira propriedade e portabilidade, enquanto o blockchain sofre de má experiência do usuário e utilidade limitada. Quando combinados através de sistemas de identidade criptográficos, os usuários podem realmente possuir seus relacionamentos de IA como ativos digitais, portar memórias e personalidades de companheiros entre plataformas e interagir privadamente através de provas de conhecimento zero, em vez de vigilância corporativa.

A arquitetura técnica repousa sobre várias inovações revolucionárias implementadas em 2024-2025. O ERC-7857, proposto pela 0G Labs, fornece o primeiro padrão NFT especificamente para agentes de IA com metadados privados. Isso permite que redes neurais, memória e traços de caráter sejam armazenados criptografados on-chain, com protocolos de transferência seguros usando oráculos e sistemas criptográficos que recriptografam durante as mudanças de propriedade. O processo de transferência gera hashes de metadados como provas de autenticidade, descriptografa em Ambiente de Execução Confiável (TEE), recriptografa com a chave do novo proprietário e requer verificação de assinatura antes da execução do contrato inteligente. Os padrões NFT tradicionais (ERC-721/1155) falharam para IA porque possuem metadados estáticos e públicos, sem mecanismos de transferência seguros ou suporte para aprendizado dinâmico — o ERC-7857 resolve essas limitações.

A Phala Network implantou a maior infraestrutura TEE globalmente, com mais de 30.000 dispositivos fornecendo segurança em nível de hardware para computações de IA. Os TEEs permitem isolamento seguro onde as computações são protegidas contra ameaças externas, com atestado remoto fornecendo prova criptográfica de não interferência. Isso representa a única maneira de alcançar verdadeira propriedade exclusiva para ativos digitais que executam operações sensíveis. A Phala processou 849.000 consultas off-chain em 2023 (contra 1,1 milhão on-chain do Ethereum), demonstrando escala de produção. Seus Contratos de Agente de IA permitem a execução de TypeScript/JavaScript em TEEs para aplicações como Agent Wars — um jogo ao vivo com agentes tokenizados usando governança DAO baseada em staking, onde "chaves" funcionam como ações concedendo direitos de uso e poder de voto.

A arquitetura que preserva a privacidade utiliza múltiplas abordagens criptográficas para proteção abrangente. A Criptografia Totalmente Homomórfica (FHE) permite processar dados mantendo-os totalmente criptografados — os agentes de IA nunca acessam texto simples, fornecendo segurança pós-quântica através de criptografia de rede aprovada pelo NIST (2024). Os casos de uso incluem aconselhamento de portfólio DeFi privado sem expor participações, análise de saúde de registros médicos criptografados sem revelar dados e mercados de previsão agregando entradas criptografadas. MindNetwork e Fhenix estão construindo plataformas nativas de FHE para Web3 criptografada e soberania digital. As provas de conhecimento zero complementam TEEs e FHE, permitindo autenticação privada (provando idade sem revelar data de nascimento), contratos inteligentes confidenciais executando lógica sem expor dados, operações de IA verificáveis provando a conclusão da tarefa sem revelar as entradas e privacidade cross-chain para interoperabilidade segura. ZK Zyra + Ispolink demonstram provas de conhecimento zero em produção para jogos Web3 alimentados por IA.

Modelos de propriedade usando tokens blockchain atingiram escala de mercado significativa. O Virtuals Protocol lidera com mais de US700milho~esdecapitalizac\ca~odemercado,gerenciandomaisdeUS 700 milhões de capitalização de mercado, gerenciando mais de US 2 bilhões em capitalização de mercado de agentes de IA, representando 85% da atividade do marketplace e gerando US60milho~esdereceitadeprotocoloateˊdezembrode2024.Osusuaˊrioscompramtokensrepresentandoparticipac\co~esdeagentes,permitindocopropriedadecomdireitostotaisdenegociac\ca~o,transfere^nciaecompartilhamentodereceita.OSentrAIfocaempersonasdeIAnegociaˊveiscomoativosonchainprogramaˊveis,emparceriacomaStabilityWorldAIparacapacidadesvisuais,criandoumaeconomiasocialparaIAcomexperie^nciasmonetizaˊveiscrossplatform.OGrokAniCompaniondemonstraadoc\ca~omainstreamcomotokenANIaUS 60 milhões de receita de protocolo até dezembro de 2024. Os usuários compram tokens representando participações de agentes, permitindo copropriedade com direitos totais de negociação, transferência e compartilhamento de receita. O SentrAI foca em personas de IA negociáveis como ativos on-chain programáveis, em parceria com a Stability World AI para capacidades visuais, criando uma economia social-para-IA com experiências monetizáveis cross-platform. O Grok Ani Companion demonstra adoção mainstream com o token ANI a US 0,03 (US30milho~esdecapitalizac\ca~odemercado),gerandoUS 30 milhões de capitalização de mercado), gerando US 27-36 milhões de volume de negociação diário através de contratos inteligentes que garantem interações e armazenamento de metadados on-chain.

A propriedade baseada em NFT oferece modelos alternativos, enfatizando a unicidade sobre a fungibilidade. FURO no Ethereum oferece companheiros de IA 3D que aprendem, lembram e evoluem por US10(NFT)maistokens10 (NFT) mais tokensFURO, com personalização adaptando-se ao estilo do usuário e refletindo emoções — planejando integração com brinquedos físicos. AXYC (AxyCoin) integra IA com GameFi e EdTech usando coleta de tokens AR, marketplace de NFT e módulos educacionais onde pets de IA funcionam como tutores para idiomas, STEM e treinamento cognitivo com recompensas por marcos incentivando o desenvolvimento de longo prazo.

A portabilidade de dados e a interoperabilidade permanecem em andamento com importantes advertências. Implementações em funcionamento incluem a identidade cross-platform do Gitcoin Passport com "selos" de múltiplos autenticadores, o gerenciamento de identidade on-chain do Civic Pass em dApps/DeFi/NFTs e o T3id (Trident3) agregando mais de 1.000 tecnologias de identidade. Metadados on-chain armazenam preferências, memórias e marcos imutavelmente, enquanto atestados de blockchain através do Ceramic e KILT Protocol vinculam estados de modelos de IA a identidades. No entanto, limitações atuais incluem a ausência de um acordo SSI universal ainda, portabilidade limitada a ecossistemas específicos, estruturas regulatórias em evolução (GDPR, DMA, Data Act) e a exigência de adoção em todo o ecossistema antes que a migração cross-platform sem interrupções se torne realidade. Os mais de 103 métodos DID experimentais criam fragmentação, com o Gartner prevendo que 70% da adoção de SSI depende de alcançar compatibilidade cross-platform até 2027.

Oportunidades de monetização na interseção permitem modelos econômicos inteiramente novos. A precificação baseada no uso cobra por chamada de API, token, tarefa ou tempo de computação — os Hugging Face Inference Endpoints atingiram uma avaliação de US4,5bilho~es(2023)combasenessemodelo.Modelosdeassinaturafornecemreceitaprevisıˊvel,comaCognigyderivando60 4,5 bilhões (2023) com base nesse modelo. **Modelos de assinatura** fornecem receita previsível, com a Cognigy derivando 60% de US 28 milhões de ARR de assinaturas. A precificação baseada em resultados alinha o pagamento com os resultados (leads gerados, tickets resolvidos, horas economizadas), como demonstrado por Zendesk, Intercom e Chargeflow. Agente-como-Serviço posiciona a IA como "funcionários digitais" com taxas mensais — Harvey, 11x e Vivun são pioneiros na força de trabalho de IA de nível empresarial. Taxas de transação pegam uma porcentagem do comércio facilitado por agentes, emergindo em plataformas agentivas que exigem alto volume para viabilidade.

Modelos de receita específicos de blockchain criam economias de token onde o valor se valoriza com o crescimento do ecossistema, recompensas de staking compensam provedores de serviço, direitos de governança fornecem recursos premium para detentores e royalties de NFT geram ganhos no mercado secundário. A economia agente-para-agente permite pagamentos autônomos onde os agentes de IA se compensam usando USDC através das Carteiras Programáveis da Circle, plataformas de marketplace pegando uma porcentagem de transações inter-agentes e contratos inteligentes automatizando pagamentos com base em trabalho concluído verificado. O mercado de agentes de IA projeta de US5,3bilho~es(2024)paraUS 5,3 bilhões (2024) para US 47,1 bilhões (2030) com um CAGR de 44,8%, potencialmente atingindo US216bilho~esateˊ2035,comaIAWeb3atraindoUS 216 bilhões até 2035, com a IA Web3 atraindo US 213 milhões de VCs de cripto somente no Q3 de 2024.

O cenário de investimento mostra a tese de convergência ganhando validação institucional

A implantação de capital em identidade tokenizada e companheiros de IA acelerou dramaticamente em 2024-2025, à medida que investidores institucionais reconheceram a oportunidade de convergência. A IA capturou mais de US100bilho~esemfinanciamentoderiscodurante2024representando33 100 bilhões em financiamento de risco durante 2024 — representando 33% de todo o VC global — com um aumento de 80% em relação aos US 55,6 bilhões de 2023. A IA Generativa especificamente atraiu US45bilho~es,quasedobrandoemrelac\ca~oaosUS 45 bilhões, quase dobrando em relação aos US 24 bilhões de 2023, enquanto os negócios de GenAI em estágio avançado tiveram uma média de US327milho~es,emcomparac\ca~ocomUS 327 milhões, em comparação com US 48 milhões em 2023. Essa concentração de capital reflete a convicção do investidor de que a IA representa uma mudança tecnológica secular, em vez de um hype cíclico.

O financiamento de Web3 e identidade descentralizada seguiu uma trajetória paralela. O mercado Web3 cresceu de US2,18bilho~es(2023)paraUS 2,18 bilhões (2023) para US 49,18 bilhões (2025) — uma taxa de crescimento anual composta de 44,9% — com 85% dos negócios em estágios seed ou Série A, sinalizando uma fase de construção de infraestrutura. Ativos do Mundo Real Tokenizados atingiram US24bilho~es(2025),umaumentode308 24 bilhões (2025), um aumento de 308% em três anos, com projeções para US 412 bilhões globalmente. A identidade descentralizada especificamente escalou de US156,8milho~es(2021)paraprojetadosUS 156,8 milhões (2021) para projetados US 77,8 bilhões até 2031 — um CAGR de 87,9%. A tokenização de crédito privado impulsionou 58% dos fluxos de RWA tokenizados no H1 de 2025, enquanto os fundos de tesouraria e mercado monetário tokenizados atingiram US$ 7,4 bilhões, com um aumento de 80% ano a ano.

A Ryze Labs de Matthew Graham exemplifica a tese de investimento de convergência através da construção sistemática de portfólio. A empresa incubou a Amiko, uma plataforma de IA pessoal que combina hardware portátil (dispositivo Kick), hub doméstico (Brain), inferência local, memória estruturada, agentes coordenados e IA emocionalmente consciente, incluindo o personagem Eliza. O posicionamento da Amiko enfatiza "gêmeos digitais de alta fidelidade que capturam comportamento, não apenas palavras" com processamento local focado em privacidade — abordando diretamente a tese de infraestrutura de identidade de Graham. A Ryze também incubou a Eliza Wakes Up, dando vida a agentes de IA através da robótica humanoide, alimentada por ElizaOS, com US$ 420.000 em pré-vendas para um humanoide de 1,78m com rosto animatrônico de silicone, inteligência emocional e capacidade de realizar tarefas físicas e transações blockchain. Graham assessora o projeto, chamando-o de "o robô humanoide mais avançado já visto fora de um laboratório" e "o mais ambicioso desde Sophia, a Robô".

O investimento estratégico em infraestrutura veio através do apoio à EdgeX Labs em abril de 2025 — computação de borda descentralizada com mais de 10.000 nós ativos implantados globalmente, fornecendo o substrato para coordenação multi-agente e inferência local. O programa AI Combinator foi lançado em 2024/2025 com US$ 5 milhões financiando 10-12 projetos na interseção de IA/cripto em parceria com Shaw (Eliza Labs) e a16z. Graham o descreveu como visando "a explosão cambriana da inovação de agentes de IA" como "o desenvolvimento mais importante na indústria desde o DeFi". Parceiros técnicos incluem Polyhedra Network (computação verificável) e Phala Network (computação sem confiança), com parceiros do ecossistema como TON Ventures trazendo agentes de IA para múltiplos blockchains de Camada 1.

Grandes VCs publicaram teses de investimento explícitas em cripto+IA. A Coinbase Ventures articulou que "sistemas cripto e baseados em blockchain são um complemento natural para a IA generativa", com essas "duas tecnologias seculares que se entrelaçarão como uma dupla hélice de DNA para construir o andaime de nossas vidas digitais". As empresas do portfólio incluem Skyfire e Payman. a16z, Paradigm, Delphi Ventures e Dragonfly Capital (levantando um fundo de US500milho~esem2025)investemativamenteeminfraestruturadeagentes.Novosfundosdedicadossurgiram:GateVentures+MovementLabs(fundoWeb3deUS 500 milhões em 2025) investem ativamente em infraestrutura de agentes. Novos fundos dedicados surgiram: Gate Ventures + Movement Labs (fundo Web3 de US 20 milhões), Gate Ventures + EAU (fundo de US100milho~es),Avalanche+Aethir(US 100 milhões), Avalanche + Aethir (US 100 milhões com foco em agentes de IA) e aelf Ventures (fundo dedicado de US$ 50 milhões).

A adoção institucional valida a narrativa da tokenização com gigantes das finanças tradicionais implantando sistemas de produção. O BUIDL da BlackRock se tornou o maior fundo privado tokenizado com US2,5bilho~esemAUM,enquantooCEOLarryFinkdeclarou"todoativopodesertokenizado...issorevolucionaraˊoinvestimento".OFOBXXdaFranklinTempletonatingiuUS 2,5 bilhões em AUM, enquanto o CEO Larry Fink declarou "todo ativo pode ser tokenizado... isso revolucionará o investimento". O FOBXX da Franklin Templeton atingiu US 708 milhões em AUM, o USYC da Circle/Hashnote US488milho~es.OGoldmanSachsoperasuainfraestruturaDAPdeativostokenizadosdepontaapontahaˊmaisdeumano.AplataformaKinexysdoJ.P.MorganintegraidentidadedigitalnaWeb3comverificac\ca~odeidentidadeblockchain.OHSBClanc\couaplataformaOriondeemissa~odetıˊtulostokenizados.OBankofAmericaplanejaaentradanomercadodestablecoinsaguardandoaprovac\ca~o,comUS 488 milhões. O Goldman Sachs opera sua infraestrutura DAP de ativos tokenizados de ponta a ponta há mais de um ano. A plataforma Kinexys do J.P. Morgan integra identidade digital na Web3 com verificação de identidade blockchain. O HSBC lançou a plataforma Orion de emissão de títulos tokenizados. O Bank of America planeja a entrada no mercado de stablecoins aguardando aprovação, com US 3,26 trilhões em ativos posicionados para inovação em pagamentos digitais.

As dinâmicas regionais mostram o Oriente Médio emergindo como um hub de capital Web3. A Gate Ventures lançou um fundo de US100milho~esnosEAU,enquantoAbuDhabiinvestiuUS 100 milhões nos EAU, enquanto Abu Dhabi investiu US 2 bilhões na Binance. As conferências refletem a maturação da indústria — a TOKEN2049 Cingapura atraiu 25.000 participantes de mais de 160 países (70% C-level), enquanto a ETHDenver 2025 atraiu 25.000 sob o tema "Do Hype ao Impacto: Web3 Focada em Valor". A estratégia de investimento mudou de "financiamento agressivo e escalonamento rápido" para "abordagens disciplinadas e estratégicas", enfatizando a lucratividade e o crescimento sustentável, sinalizando a transição da especulação para o foco operacional.

Desafios persistem, mas soluções técnicas surgem em privacidade, escalabilidade e interoperabilidade

Apesar do progresso impressionante, desafios técnicos e de adoção significativos devem ser resolvidos antes que a identidade tokenizada e os companheiros de IA alcancem a integração mainstream. Esses obstáculos moldam os cronogramas de desenvolvimento e determinam quais projetos terão sucesso na construção de bases de usuários sustentáveis.

O conflito entre privacidade e transparência representa a tensão fundamental — a transparência do blockchain conflita com as necessidades de privacidade da IA para processar dados pessoais sensíveis e conversas íntimas. Soluções surgiram através de abordagens criptográficas multicamadas: o isolamento TEE fornece privacidade em nível de hardware (mais de 30.000 dispositivos da Phala operacionais), a computação FHE permite processamento criptografado, eliminando a exposição de texto simples com segurança pós-quântica, a verificação ZKP prova a correção sem revelar dados e arquiteturas híbridas combinam governança on-chain com computação privada off-chain. Essas tecnologias estão prontas para produção, mas exigem adoção em todo o ecossistema.

Desafios de escalabilidade computacional surgem da despesa de inferência de IA combinada com a capacidade limitada do blockchain. Soluções de escalonamento de Camada 2 abordam isso através de zkSync, StarkNet e Arbitrum, lidando com computação off-chain com verificação on-chain. A arquitetura modular usando o XCM da Polkadot permite a coordenação cross-chain sem congestionamento da mainnet. A computação off-chain, pioneira da Phala, permite que os agentes executem off-chain enquanto liquidam on-chain. Cadeias construídas para fins específicos otimizam especificamente para operações de IA, em vez de computação geral. A taxa de transferência média atual de cadeias públicas de 17.000 TPS cria gargalos, tornando a migração para L2 essencial para aplicações em escala de consumidor.

A complexidade de propriedade e licenciamento de dados decorre de direitos de propriedade intelectual pouco claros entre modelos base, dados de ajuste fino e saídas de IA. O licenciamento de contrato inteligente incorpora condições de uso diretamente nos tokens com execução automatizada. O rastreamento de proveniência através do Ceramic e KILT Protocol vincula estados de modelos a identidades, criando trilhas de auditoria. A propriedade de NFT via ERC-7857 fornece mecanismos claros de transferência e regras de custódia. A distribuição automatizada de royalties através de contratos inteligentes garante a captura de valor adequada. No entanto, as estruturas legais atrasam a tecnologia, com a incerteza regulatória dissuadindo a adoção institucional — quem assume a responsabilidade quando as credenciais descentralizadas falham? Padrões globais de interoperabilidade podem surgir ou a regionalização prevalecerá?

A fragmentação da interoperabilidade com mais de 103 métodos DID e diferentes ecossistemas/padrões de identidade/estruturas de IA cria jardins murados. Protocolos de mensagens cross-chain como Polkadot XCM e Cosmos IBC estão em desenvolvimento. Padrões universais através de DIDs do W3C e especificações DIF progridem lentamente, exigindo construção de consenso. Carteiras multi-chain como contas inteligentes Safe com permissões programáveis permitem alguma portabilidade. Camadas de abstração, como o projeto NANDA do MIT, que constrói índices web agentivos, tentam fazer a ponte entre ecossistemas. O Gartner prevê que 70% da adoção de SSI depende de alcançar compatibilidade cross-platform até 2027, tornando a interoperabilidade a dependência de caminho crítico.

A complexidade da experiência do usuário permanece a principal barreira à adoção. A configuração de carteira vê 68% de abandono do usuário durante a geração da frase semente. O gerenciamento de chaves cria risco existencial — chaves privadas perdidas significam identidade permanentemente perdida, sem mecanismo de recuperação. O equilíbrio entre segurança e recuperabilidade se mostra elusivo; sistemas de recuperação social adicionam complexidade, mantendo os princípios de autocustódia. A carga cognitiva de entender conceitos de blockchain, carteiras, taxas de gás e DIDs sobrecarrega usuários não técnicos. Isso explica por que a adoção B2B institucional progride mais rápido que a B2C de consumidor — as empresas podem absorver os custos de complexidade, enquanto os consumidores exigem experiências sem interrupções.

Desafios de sustentabilidade econômica surgem de altos custos de infraestrutura (GPUs, armazenamento, computação) necessários para operações de IA. Redes de computação descentralizadas distribuem custos entre múltiplos provedores competindo por preço. DePIN (Redes de Infraestrutura Física Descentralizada) com mais de 1.170 projetos distribuem o ônus do provisionamento de recursos. Modelos baseados no uso alinham custos com o valor entregue. A economia de staking fornece incentivos de token para provisionamento de recursos. No entanto, estratégias de crescimento apoiadas por VC frequentemente subsidiam a aquisição de usuários com economia unitária insustentável — a mudança para a lucratividade na estratégia de investimento de 2025 reflete o reconhecimento de que a validação do modelo de negócios importa mais do que o crescimento bruto de usuários.

Questões de confiança e verificação centram-se em garantir que os agentes de IA ajam como pretendido, sem manipulação ou desvio. O atestado remoto de TEEs emite provas criptográficas de integridade de execução. Trilhas de auditoria on-chain criam registros transparentes de todas as ações. Provas criptográficas via ZKPs verificam a correção da computação. A governança DAO permite a supervisão da comunidade através de votação ponderada por token. No entanto, a verificação dos processos de tomada de decisão da IA permanece desafiadora, dada a opacidade do LLM — mesmo com provas criptográficas de execução correta, entender por que um agente de IA fez escolhas específicas se mostra difícil.

O cenário regulatório apresenta oportunidades e riscos. As carteiras digitais obrigatórias eIDAS 2.0 da Europa até 2026 criam um canal de distribuição massivo, enquanto a mudança de política pró-cripto dos EUA em 2025 remove atrito. No entanto, as proibições da Worldcoin em múltiplas jurisdições demonstram preocupações governamentais sobre a coleta de dados biométricos e riscos de centralização. O "direito ao apagamento" do GDPR conflita com a imutabilidade do blockchain, apesar das soluções alternativas de armazenamento off-chain. A personalidade jurídica e as estruturas de responsabilidade de agentes de IA permanecem indefinidas — agentes de IA podem possuir propriedade, assinar contratos ou ser responsabilizados por danos? Essas perguntas carecem de respostas claras a partir de outubro de 2025.

Olhando para o futuro: a construção de infraestrutura de curto prazo permite a adoção do consumidor a médio prazo

As projeções de cronograma de especialistas da indústria, analistas de mercado e avaliação técnica convergem em torno de um lançamento multifásico. O curto prazo (2025-2026) traz clareza regulatória de políticas pró-cripto dos EUA, grandes instituições entrando na tokenização de RWA em escala, padrões de identidade universais emergindo através da convergência W3C e DIF, e múltiplos projetos passando de testnet para mainnet. A mainnet da Sahara AI lança no Q2-Q3 de 2025, a migração do ENS Namechain completa no Q4 de 2025 com redução de 80-90% de gás, o Lens v3 no zkSync é implantado e o SDK de agente de IA Ronin atinge lançamento público. A atividade de investimento permanece focada 85% em projetos de infraestrutura em estágio inicial (seed/Série A), com US$ 213 milhões fluindo de VCs de cripto para projetos de IA somente no Q3 de 2024, sinalizando compromisso de capital sustentado.

O médio prazo (2027-2030) espera que o mercado de agentes de IA atinja US47,1bilho~esateˊ2030,deUS 47,1 bilhões até 2030, de US 5,3 bilhões (2024) — um CAGR de 44,8%. Agentes de IA cross-chain se tornam padrão à medida que os protocolos de interoperabilidade amadurecem. A economia agente-para-agente gera contribuição mensurável para o PIB à medida que as transações autônomas escalam. Regulamentações globais abrangentes estabelecem estruturas legais para operações e responsabilidade de agentes de IA. A identidade descentralizada atinge US41,73bilho~es(2030),deUS 41,73 bilhões (2030), de US 4,89 bilhões (2025) — um CAGR de 53,48% — com adoção mainstream em finanças, saúde e serviços governamentais. Melhorias na experiência do usuário através de camadas de abstração tornam a complexidade do blockchain invisível para os usuários finais.

O longo prazo (2030-2035) pode ver o mercado atingindo US216bilho~esateˊ2035paraagentesdeIA,comverdadeiramigrac\ca~ocrossplatformdecompanheirosdeIA,permitindoqueosusuaˊrioslevemseusrelacionamentosdeIAparaqualquerlugar.Apotencialintegrac\ca~odeIAGtransformaascapacidadesaleˊmdasaplicac\co~esatuaisdeIAestreita.AgentesdeIApodemsetornarainterfaceprimaˊriadaeconomiadigital,substituindoaplicativosesitescomocamadadeinterac\ca~o.OmercadodeidentidadedescentralizadaatingeUS 216 bilhões até 2035 para agentes de IA, com verdadeira migração cross-platform de companheiros de IA, permitindo que os usuários levem seus relacionamentos de IA para qualquer lugar. A potencial integração de IAG transforma as capacidades além das aplicações atuais de IA estreita. Agentes de IA podem se tornar a interface primária da economia digital, substituindo aplicativos e sites como camada de interação. O mercado de identidade descentralizada atinge US 77,8 bilhões (2031), tornando-se o padrão para interações digitais. No entanto, essas projeções carregam incerteza substancial — elas assumem progresso tecnológico contínuo, evolução regulatória favorável e resolução bem-sucedida de desafios de UX.

O que separa visões realistas de especulativas? Atualmente operacionais e prontas para produção: mais de 30.000 dispositivos TEE da Phala processando cargas de trabalho reais, o padrão ERC-7857 formalmente proposto com implementações em andamento, o Virtuals Protocol gerenciando mais de US2bilho~esemcapitalizac\ca~odemercadodeagentesdeIA,muˊltiplosmarketplacesdeagentesdeIAoperacionais(Virtuals,Holoworld),agentesdeIADeFinegociandoativamente(Fetch.ai,AIXBT),produtosemfuncionamentocomoojogoAgentWars,companheirosNFTFURO/AXYC,GrokAnicomUS 2 bilhões em capitalização de mercado de agentes de IA, múltiplos marketplaces de agentes de IA operacionais (Virtuals, Holoworld), agentes de IA DeFi negociando ativamente (Fetch.ai, AIXBT), produtos em funcionamento como o jogo Agent Wars, companheiros NFT FURO/AXYC, Grok Ani com US 27-36 milhões de volume de negociação diário e tecnologias comprovadas (TEE, ZKP, FHE, automação de contrato inteligente).

Ainda especulativo e não realizado: portabilidade universal de companheiros de IA em TODAS as plataformas, agentes totalmente autônomos gerenciando riqueza significativa sem supervisão, economia agente-para-agente como grande porcentagem do PIB global, estrutura regulatória completa para direitos de agentes de IA, integração de IAG com identidade descentralizada, ponte de identidade Web2-Web3 sem interrupções em escala, implementações resistentes a quântica amplamente implantadas e agentes de IA como interface primária da internet para as massas. As projeções de mercado (US47bilho~esateˊ2030,US 47 bilhões até 2030, US 216 bilhões até 2035) extrapolam tendências atuais, mas dependem de suposições sobre clareza regulatória, avanços tecnológicos e taxas de adoção mainstream que permanecem incertas.

O posicionamento de Matthew Graham reflete essa visão matizada — implantando capital em infraestrutura de produção hoje (parcerias EdgeX Labs, Phala Network) enquanto incuba aplicações de consumo (Amiko, Eliza Wakes Up) que amadurecerão à medida que a infraestrutura subjacente escalar. Sua ênfase em mercados emergentes (Lagos, Bangalore) sugere paciência para a clareza regulatória em mercados desenvolvidos, enquanto captura crescimento em regiões com cargas regulatórias mais leves. O comentário "camada de infraestrutura waifu" posiciona a identidade como requisito fundamental, em vez de um recurso "bom de ter", implicando uma construção de vários anos antes que a portabilidade de companheiros de IA em escala de consumidor se torne realidade.

O consenso da indústria centra-se na alta viabilidade técnica (7-8/10) — tecnologias TEE, FHE, ZKP comprovadas e implantadas, múltiplas implementações em funcionamento existem, escalabilidade abordada através de Camadas 2 e padrões progredindo ativamente. A viabilidade econômica avalia média-alta (6-7/10) com modelos de monetização claros emergindo, fluxo consistente de financiamento VC, custos de infraestrutura decrescentes e demanda de mercado validada. A viabilidade regulatória permanece média (5-6/10), pois os EUA mudam para pró-cripto, mas a UE desenvolve estruturas lentamente, as regulamentações de privacidade precisam de adaptação e os direitos de PI de agentes de IA permanecem incertos. A viabilidade de adoção está em média (5/10) — adotantes iniciais engajados, mas desafios de UX persistem, interoperabilidade atual limitada e educação/construção de confiança significativa necessária.

A convergência da identidade tokenizada e dos companheiros de IA não representa ficção especulativa, mas um setor em desenvolvimento ativo com infraestrutura real, marketplaces operacionais, tecnologias comprovadas e investimento de capital significativo. A realidade da produção mostra mais de US2bilho~esemativosgerenciados,maisde30.000dispositivosTEEimplantados,US 2 bilhões em ativos gerenciados, mais de 30.000 dispositivos TEE implantados, US 60 milhões de receita de protocolo somente da Virtuals e volumes de negociação diários na casa das dezenas de milhões. O status de desenvolvimento inclui padrões propostos (ERC-7857), tecnologias implantadas (TEE/FHE/ZKP) e estruturas operacionais (Virtuals, Phala, Fetch.ai).

A convergência funciona porque o blockchain resolve o problema de propriedade da IA — quem possui o agente, suas memórias, seu valor econômico? — enquanto a IA resolve o problema de UX do blockchain de como os usuários interagem com sistemas criptográficos complexos. A tecnologia de privacidade (TEE/FHE/ZKP) permite essa convergência sem sacrificar a soberania do usuário. Este é um mercado emergente, mas real, com caminhos técnicos claros, modelos econômicos comprovados e crescente adoção do ecossistema. O sucesso depende de melhorias de UX, clareza regulatória, padrões de interoperabilidade e desenvolvimento contínuo de infraestrutura — tudo progredindo ativamente em 2025 e além. Os investimentos sistemáticos em infraestrutura de Matthew Graham posicionam a Ryze Labs para capturar valor à medida que a "onda de inovação mais importante desde o verão DeFi" passa da construção técnica para a adoção em escala pelo consumidor.

A Singularidade da Stablecoin da Frax: A Visão de Sam Kazemian Além da GENIUS

· Leitura de 25 minutos
Dora Noda
Software Engineer

A "Singularidade da Stablecoin" representa o plano audacioso de Sam Kazemian para transformar a Frax Finance de um protocolo de stablecoin em um "banco central descentralizado das criptomoedas". A GENIUS não é um sistema técnico da Frax, mas sim uma legislação federal histórica dos EUA (Guiding and Establishing National Innovation for U.S. Stablecoins Act) sancionada em 18 de julho de 2025, exigindo 100% de lastro de reserva e proteções abrangentes ao consumidor para stablecoins. O envolvimento de Kazemian na elaboração desta legislação posiciona a Frax como a principal beneficiária, com o FXS subindo mais de 100% após a aprovação do projeto de lei. O que vem "depois da GENIUS" é a transformação da Frax em uma infraestrutura financeira verticalmente integrada, combinando frxUSD (stablecoin em conformidade), FraxNet (interface bancária), Fraxtal (evoluindo para L1) e a revolucionária tecnologia AIVM usando consenso de Prova de Inferência — o primeiro mecanismo de validação de blockchain impulsionado por IA do mundo. Esta visão visa $100 bilhões em TVL até 2026, posicionando a Frax como a emissora dos "ativos mais importantes do século XXI" através de um roteiro ambicioso que mescla conformidade regulatória, parcerias institucionais (BlackRock, Securitize) e a convergência de IA e blockchain de ponta.

Compreendendo o conceito de Singularidade da Stablecoin

A "Singularidade da Stablecoin" surgiu em março de 2024 como o roteiro estratégico abrangente da Frax Finance, unificando todos os aspectos do protocolo em uma visão singular. Anunciado através da FIP-341 e aprovado por votação da comunidade em abril de 2024, isso representa um ponto de convergência onde a Frax transita de um protocolo experimental de stablecoin para um provedor abrangente de infraestrutura DeFi.

A Singularidade engloba cinco componentes principais trabalhando em conjunto. Primeiro, atingir 100% de colateralização para o FRAX marcou a "era pós-Singularidade", onde a Frax gerou $45 milhões para alcançar o lastro total após anos de experimentação fracionário-algorítmica. Segundo, a blockchain Fraxtal L2 foi lançada como "o substrato que permite o ecossistema Frax" — descrita como o "sistema operacional da Frax", fornecendo infraestrutura soberana. Terceiro, a Tokenomics da Singularidade FXS unificou toda a captura de valor, com Sam Kazemian declarando que "todos os caminhos levam ao FXS e ele é o beneficiário final do ecossistema Frax", implementando 50% da receita para os detentores de veFXS e 50% para o Motor de Liquidez FXS para recompras. Quarto, a fusão do token FPIS no FXS simplificou a estrutura de governança, garantindo que "toda a comunidade Frax esteja singularmente alinhada com o FXS". Quinto, o roteiro de escalonamento fractal visando 23 cadeias de Camada 3 dentro de um ano, criando subcomunidades "como fractais" dentro do Estado de Rede Frax mais amplo.

O objetivo estratégico é impressionante: $100 bilhões em TVL na Fraxtal até o final de 2026, um aumento em relação aos $13,2 milhões no lançamento. Como Kazemian afirmou: "Em vez de ponderar sobre novos mercados teóricos e escrever whitepapers, a Frax sempre esteve e sempre estará lançando produtos ao vivo e conquistando mercados antes que outros saibam que eles sequer existem. Essa velocidade e segurança serão possibilitadas pela base que construímos até hoje. A fase de Singularidade da Frax começa agora."

Essa visão se estende além do mero crescimento do protocolo. A Fraxtal representa "o lar da Nação Frax e do Estado de Rede Fraxtal" — conceitualizando a blockchain como fornecendo "lar soberano, cultura e espaço digital" para a comunidade. As cadeias L3 funcionam como "subcomunidades que têm sua própria identidade e cultura distintas, mas fazem parte do Estado de Rede Frax geral", introduzindo a filosofia de estado de rede na infraestrutura DeFi.

Contexto da Lei GENIUS e posicionamento estratégico da Frax

A GENIUS não é um recurso do protocolo Frax, mas uma legislação federal de stablecoin que se tornou lei em 18 de julho de 2025. A Lei Guiding and Establishing National Innovation for U.S. Stablecoins Act estabelece a primeira estrutura regulatória federal abrangente para stablecoins de pagamento, sendo aprovada no Senado por 68-30 em 20 de maio e na Câmara por 308-122 em 17 de julho.

A legislação exige 100% de lastro de reserva usando ativos permitidos (dólares americanos, títulos do Tesouro, acordos de recompra, fundos do mercado monetário, reservas de bancos centrais). Ela exige divulgações públicas mensais de reservas e demonstrações anuais auditadas para emissores que excedam $50 bilhões. Uma estrutura regulatória dual federal/estadual confere à OCC supervisão de emissores não bancários acima de $10 bilhões, enquanto os reguladores estaduais lidam com emissores menores. As proteções ao consumidor priorizam os detentores de stablecoins sobre todos os outros credores em caso de insolvência. Criticamente, os emissores devem possuir capacidades técnicas para apreender, congelar ou queimar stablecoins de pagamento quando legalmente exigido, e não podem pagar juros aos detentores ou fazer alegações enganosas sobre o apoio governamental.

O envolvimento de Sam Kazemian se mostra estrategicamente significativo. Múltiplas fontes indicam que ele estava "profundamente envolvido na discussão e elaboração da Lei GENIUS como um insider da indústria", frequentemente fotografado com legisladores pró-cripto, incluindo a Senadora Cynthia Lummis em Washington D.C. Essa posição privilegiada forneceu conhecimento antecipado dos requisitos regulatórios, permitindo à Frax construir infraestrutura de conformidade antes da promulgação da lei. O reconhecimento do mercado veio rapidamente — o FXS subiu brevemente acima de 4,4 USDT após a aprovação do Senado, com ganhos de mais de 100% naquele mês. Como uma análise observou: "Como redator e participante do projeto de lei, Sam naturalmente tem uma compreensão mais profunda da 'Lei GENIUS' e pode alinhar mais facilmente seu projeto com os requisitos."

O posicionamento estratégico da Frax para a conformidade com a Lei GENIUS começou bem antes da aprovação da legislação. O protocolo transformou-se da stablecoin algorítmica híbrida FRAX para a frxUSD totalmente colateralizada usando moeda fiduciária como garantia, abandonando a "estabilidade algorítmica" após o colapso da Luna UST demonstrar riscos sistêmicos. Em fevereiro de 2025 — cinco meses antes de a GENIUS se tornar lei — a Frax lançou a frxUSD como uma stablecoin resgatável em fiat, totalmente colateralizada, projetada desde o início para cumprir os requisitos regulatórios antecipados.

Essa previsão regulatória cria vantagens competitivas significativas. Como a análise de mercado concluiu: "Todo o roteiro visava se tornar a primeira stablecoin licenciada com lastro fiduciário." A Frax construiu um ecossistema verticalmente integrado que a posiciona de forma única: frxUSD como a stablecoin em conformidade, atrelada 1:1 ao USD, FraxNet como a interface bancária conectando TradFi com DeFi, e Fraxtal como a camada de execução L2, potencialmente em transição para L1. Essa abordagem full-stack permite a conformidade regulatória, mantendo a governança descentralizada e a inovação técnica — uma combinação que os concorrentes lutam para replicar.

O arcabouço filosófico de Sam Kazemian: maximalismo de stablecoin

Sam Kazemian articulou sua tese central na ETHDenver 2024 em uma apresentação intitulada "Por Que São Stablecoins Até o Fim", declarando: "Tudo em DeFi, quer saibam ou não, se tornará uma stablecoin ou se tornará semelhante a uma stablecoin em estrutura." Esse "maximalismo de stablecoin" representa a visão de mundo fundamental da equipe central da Frax — que a maioria dos protocolos cripto convergirá para se tornar emissores de stablecoins a longo prazo, ou as stablecoins se tornarão centrais para sua existência.

O arcabouço baseia-se na identificação de uma estrutura universal subjacente a todas as stablecoins de sucesso. Kazemian argumenta que, em escala, todas as stablecoins convergem para dois componentes essenciais: um mecanismo de Rendimento Livre de Risco (RLR) gerando receita a partir de ativos de lastro no local de menor risco dentro do sistema, e uma Facilidade de Swap onde as stablecoins podem ser resgatadas por sua paridade de referência com alta liquidez. Ele demonstrou isso em diversos exemplos: o USDC combina títulos do Tesouro (RLR) com dinheiro (facilidade de swap); o stETH usa validadores PoS (RLR) com o pool Curve stETH-ETH via incentivos LDO (facilidade de swap); o frxETH da Frax implementa um sistema de dois tokens onde o frxETH serve como a stablecoin atrelada ao ETH, enquanto o sfrxETH gera rendimentos de staking nativos, com 9,5% da circulação usada em vários protocolos sem gerar rendimento — criando um "prêmio monetário" crucial.

Esse conceito de prêmio monetário representa o que Kazemian considera "a medida tangível mais forte" do sucesso de uma stablecoin — superando até mesmo o nome da marca e a reputação. O prêmio monetário mede "a demanda pela stablecoin de um emissor a ser mantida puramente por sua utilidade, sem expectativa de qualquer taxa de juros, pagamento de incentivos ou outra utilidade do emissor". Kazemian prevê ousadamente que as stablecoins que não adotarem essa estrutura de duas vertentes "serão incapazes de escalar para trilhões" e perderão participação de mercado ao longo do tempo.

A filosofia se estende além das stablecoins tradicionais. Kazemian argumenta provocativamente que "todas as pontes são emissores de stablecoins" — se um prêmio monetário sustentado existe para ativos em ponte como Wrapped DAI em redes não-Ethereum, os operadores de ponte naturalmente buscarão depositar ativos subjacentes em mecanismos de geração de rendimento, como o módulo de Taxa de Poupança DAI. Mesmo o WBTC funciona essencialmente como uma "stablecoin com lastro em BTC". Essa definição expansiva revela as stablecoins não como uma categoria de produto, mas como o ponto de convergência fundamental para todo o DeFi.

A convicção de longo prazo de Kazemian data de 2019, bem antes do verão DeFi: "Tenho falado às pessoas sobre stablecoins algorítmicas desde o início de 2019... Há anos venho dizendo a amigos e colegas que as stablecoins algorítmicas poderiam se tornar uma das maiores coisas em cripto e agora todos parecem acreditar nisso." Sua afirmação mais ambiciosa posiciona a Frax contra o próprio Ethereum: "Acho que a melhor chance que qualquer protocolo tem de se tornar maior do que o ativo nativo de uma blockchain é um protocolo de stablecoin algorítmica. Então, acredito que se há algo no ETH que tem chance de se tornar mais valioso do que o próprio ETH, são as capitalizações de mercado combinadas de FRAX+FXS."

Filosoficamente, isso representa uma evolução pragmática em vez de pureza ideológica. Como uma análise observou: "A disposição de evoluir de colateralização fracionária para total provou que a ideologia nunca deve se sobrepor à praticidade na construção de infraestrutura financeira." No entanto, Kazemian mantém os princípios de descentralização: "Toda a ideia com essas stablecoins algorítmicas — sendo a Frax a maior delas — é que podemos construir algo tão descentralizado e útil quanto o Bitcoin, mas com a estabilidade do dólar americano."

O que vem depois da GENIUS: A visão da Frax para 2025 e além

O que vem "depois da GENIUS" representa a transformação da Frax de um protocolo de stablecoin para uma infraestrutura financeira abrangente, posicionada para a adoção mainstream. O roteiro "Futuro do DeFi" de dezembro de 2024 descreve essa visão do cenário pós-regulatório, com Sam Kazemian declarando: "A Frax não está apenas acompanhando o futuro das finanças — ela o está moldando."

A inovação central é a AIVM (Máquina Virtual de Inteligência Artificial) — uma blockchain paralela revolucionária dentro da Fraxtal usando consenso de Prova de Inferência, descrita como um mecanismo "pioneiro no mundo". Desenvolvida com a Plataforma de Tokenização de Agentes da IQ, a AIVM usa modelos de IA e aprendizado de máquina para validar transações de blockchain, em vez de mecanismos de consenso tradicionais. Isso permite agentes de IA totalmente autônomos, sem um único ponto de controle, de propriedade de detentores de tokens e capazes de operação independente. Como o CTO da IQ afirmou: "O lançamento de agentes de IA tokenizados com a IQ ATP na AIVM da Fraxtal será diferente de qualquer outra plataforma de lançamento... Agentes soberanos e on-chain que são de propriedade de detentores de tokens é um momento de 0 para 1 para cripto e IA." Isso posiciona a Frax na intersecção das "duas indústrias mais atraentes globalmente no momento" — inteligência artificial e stablecoins.

O Hard Fork North Star reestrutura fundamentalmente a tokenomics da Frax. O FXS se torna FRAX — o token de gás para a Fraxtal à medida que ela evolui para o status de L1, enquanto a stablecoin FRAX original se torna frxUSD. O token de governança transita de veFXS para veFRAX, preservando a participação na receita e os direitos de voto, ao mesmo tempo em que esclarece a captura de valor do ecossistema. Essa reformulação implementa um cronograma de emissão de cauda começando com 8% de inflação anual, diminuindo 1% anualmente para um piso de 3%, alocado para iniciativas comunitárias, crescimento do ecossistema, equipe e tesouraria da DAO. Simultaneamente, o Motor de Queima da Frax (FBE) destrói permanentemente o FRAX através do Registro FNS e das taxas base EIP1559 da Fraxtal, criando pressão deflacionária que equilibra as emissões inflacionárias.

A FraxUSD foi lançada em janeiro de 2025 com lastro de nível institucional, representando o amadurecimento da estratégia regulatória da Frax. Ao fazer parceria com a Securitize para acessar o Fundo de Liquidez Digital Institucional em USD da BlackRock (BUIDL), Kazemian afirmou que estão "estabelecendo um novo padrão para stablecoins". A stablecoin usa um modelo híbrido com custodiantes aprovados pela governança, incluindo BlackRock, Superstate (USTB, USCC), FinresPBC e WisdomTree (WTGXX). A composição da reserva inclui dinheiro, títulos do Tesouro dos EUA, acordos de recompra e fundos do mercado monetário — correspondendo precisamente aos requisitos da Lei GENIUS. Criticamente, a frxUSD oferece capacidades de resgate fiduciário direto através desses custodiantes em paridade de 1:1, conectando TradFi e DeFi sem problemas.

A FraxNet fornece a camada de interface bancária conectando sistemas financeiros tradicionais com infraestrutura descentralizada. Os usuários podem cunhar e resgatar frxUSD, obter rendimentos estáveis e acessar contas programáveis com funcionalidade de streaming de rendimento. Isso posiciona a Frax como provedora de infraestrutura financeira completa: frxUSD (camada monetária), FraxNet (interface bancária) e Fraxtal (camada de execução) — o que Kazemian chama de "sistema operacional de stablecoin".

A evolução da Fraxtal estende o roteiro L2 em direção a uma potencial transição para L1. A plataforma implementa blocos em tempo real para processamento ultrarrápido comparável a Sei e Monad, posicionando-a para aplicações de alto rendimento. A estratégia de escalonamento fractal visa 23 cadeias de Camada 3 dentro de um ano, criando app-chains personalizáveis por meio de parcerias com Ankr e Asphere. Cada L3 funciona como uma subcomunidade distinta dentro do Estado de Rede Fraxtal — ecoando a visão de soberania digital de Kazemian.

A Reserva Estratégica de Cripto (CSR) posiciona a Frax como a "MicroStrategy do DeFi" — construindo uma reserva on-chain denominada em BTC e ETH que se tornará "um dos maiores balanços em DeFi". Essa reserva reside na Fraxtal, contribuindo para o crescimento do TVL, enquanto é governada por stakers de veFRAX, criando alinhamento entre a gestão da tesouraria do protocolo e os interesses dos detentores de tokens.

A Interface Universal Frax (FUI) redesenhada simplifica o acesso ao DeFi para adoção mainstream. O onramping fiduciário global via Halliday reduz o atrito para novos usuários, enquanto o roteamento otimizado através da integração Odos permite o movimento eficiente de ativos entre cadeias. O desenvolvimento de carteiras móveis e aprimoramentos impulsionados por IA preparam a plataforma para os "próximos bilhões de usuários entrando em cripto".

Olhando além de 2025, Kazemian prevê a Frax expandindo para emitir versões com prefixo frx de grandes ativos de blockchain — frxBTC, frxNEAR, frxTIA, frxPOL, frxMETIS — tornando-se "o maior emissor dos ativos mais importantes do século XXI". Cada ativo aplica o modelo comprovado de derivativos de staking líquido da Frax a novos ecossistemas, gerando receita e fornecendo utilidade aprimorada. A ambição do frxBTC se destaca particularmente: criar "o maior emissor" de Bitcoin em DeFi, completamente descentralizado, ao contrário do WBTC, usando sistemas de resgate de limiar multi-computacional.

A geração de receita escala proporcionalmente. Em março de 2024, a Frax gerou mais de $40 milhões em receita anual de acordo com o DeFiLlama, excluindo taxas de cadeia Fraxtal e AMO Fraxlend. A ativação do switch de taxas aumentou o rendimento do veFXS em 15 vezes (de 0,20-0,80% para 3-12% APR), com 50% do rendimento do protocolo distribuído aos detentores de veFXS e 50% para o Motor de Liquidez FXS para recompras. Isso cria acumulação de valor sustentável, independente das emissões de tokens.

A visão final posiciona a Frax como "o dólar digital dos EUA" — a infraestrutura de stablecoin descentralizada mais inovadora do mundo. A aspiração de Kazemian se estende às Contas Mestre do Federal Reserve, permitindo à Frax implantar títulos do Tesouro e acordos de recompra reversa como o componente de rendimento livre de risco que corresponde à sua estrutura de maximalismo de stablecoin. Isso completaria a convergência: um protocolo descentralizado com colateral de nível institucional, conformidade regulatória e acesso à infraestrutura financeira de nível Fed.

Inovações técnicas impulsionando a visão

O roteiro técnico da Frax demonstra uma notável velocidade de inovação, implementando mecanismos novos que influenciam padrões de design DeFi mais amplos. O sistema FLOX (Incentivos de Espaço de Bloco Fraxtal) representa o primeiro mecanismo onde usuários que gastam gás e desenvolvedores que implantam contratos ganham recompensas simultaneamente. Ao contrário dos airdrops tradicionais com tempos de snapshot definidos, o FLOX usa amostragem aleatória de disponibilidade de dados para evitar comportamentos negativos de farming. A cada época (inicialmente sete dias), o Algoritmo Flox distribui pontos FXTL com base no uso de gás e interações de contrato, rastreando rastros completos de transações para recompensar todos os contratos envolvidos — roteadores, pools, contratos de token. Os usuários podem ganhar mais do que o gás gasto, enquanto os desenvolvedores ganham com o uso de seus dApps, alinhando incentivos em todo o ecossistema.

A arquitetura AIVM marca uma mudança de paradigma no consenso de blockchain. Usando Prova de Inferência, modelos de IA e aprendizado de máquina validam transações em vez de mecanismos tradicionais de PoW/PoS. Isso permite que agentes de IA autônomos operem como validadores de blockchain e processadores de transações — criando a infraestrutura para uma economia impulsionada por IA onde os agentes detêm propriedade tokenizada e executam estratégias independentemente. A parceria com a Plataforma de Tokenização de Agentes da IQ fornece as ferramentas para implantar agentes de IA soberanos e on-chain, posicionando a Fraxtal como a principal plataforma para a convergência de IA e blockchain.

A FrxETH v2 transforma derivativos de staking líquido em mercados de empréstimo dinâmicos para validadores. Em vez da equipe principal executar todos os nós, o sistema implementa um mercado de empréstimo estilo Fraxlend onde os usuários depositam ETH em contratos de empréstimo e os validadores o tomam emprestado para seus validadores. Isso remove a centralização operacional, ao mesmo tempo em que potencialmente alcança APRs mais altos, aproximando ou superando os tokens de restaking líquido (LRTs). A integração com o EigenLayer permite pods de restaking direto e depósitos EigenLayer, fazendo com que o sfrxETH funcione como um LSD e um LRT. O AVS Fraxtal (Serviço Ativamente Validado) usa restaking de FXS e sfrxETH, criando camadas de segurança adicionais e oportunidades de rendimento.

O BAMM (Criador de Mercado Automatizado de Títulos) combina funcionalidade de AMM e empréstimo em um protocolo inovador sem concorrentes diretos. Sam o descreveu entusiasticamente: "Todos simplesmente lançarão pares BAMM para seu projeto ou para sua memecoin ou o que quiserem fazer, em vez de pares Uniswap e depois tentar construir liquidez em exchanges centralizadas, tentar obter um oráculo Chainlink, tentar passar uma votação de governança Aave ou Compound." Os pares BAMM eliminam os requisitos de oráculo externo e mantêm proteção automática de solvência durante alta volatilidade. A integração nativa na Fraxtal a posiciona para ter "o maior impacto na liquidez e uso do FRAX".

As Operações de Mercado Algorítmicas (AMOs) representam a inovação mais influente da Frax, copiada em protocolos DeFi. AMOs são contratos inteligentes que gerenciam colateral e geram receita através de operações autônomas de política monetária. Exemplos incluem o AMO Curve gerenciando mais de $1,3 bilhão em pools FRAX3CRV (99,9% de propriedade do protocolo), gerando mais de $75 milhões em lucros desde outubro de 2021, e o AMO de Investidor de Colateral implantando USDC ocioso em Aave, Compound e Yearn, gerando $63,4 milhões em lucros. Isso cria o que a Messari descreveu como "teoria de stablecoin DeFi 2.0" — visando taxas de câmbio em mercados abertos, em vez de modelos passivos de depósito/cunhagem de colateral. Essa mudança de alugar liquidez via emissões para possuir liquidez via AMOs transformou fundamentalmente os modelos de sustentabilidade DeFi, influenciando Olympus DAO, Tokemak e inúmeros outros protocolos.

A arquitetura modular L2 da Fraxtal usa a pilha Optimism para o ambiente de execução, enquanto incorpora flexibilidade para escolhas de disponibilidade de dados, liquidação e camada de consenso. A incorporação estratégica da tecnologia de conhecimento zero permite agregar provas de validade em várias cadeias, com Kazemian imaginando a Fraxtal como um "ponto central de referência para o estado das cadeias conectadas, permitindo que aplicações construídas em qualquer cadeia participante funcionem atomicamente em todo o universo". Essa visão de interoperabilidade se estende além do Ethereum para Cosmos, Solana, Celestia e Near — posicionando a Fraxtal como uma camada de liquidação universal, em vez de uma app-chain isolada.

A FrxGov (Governança Frax 2.0), implantada em 2024, implementa um sistema de contrato de governança dupla: Governador Alpha (GovAlpha) com alto quórum para controle primário, e Governador Omega (GovOmega) com quórum menor para decisões mais rápidas. Isso aumentou a descentralização, fazendo a transição das decisões de governança totalmente on-chain, enquanto mantinha a flexibilidade para ajustes urgentes do protocolo. Todas as decisões importantes fluem através dos detentores de veFRAX (anteriormente veFXS) que controlam Gnosis Safes através de contratos de Governador Compound/OpenZeppelin.

Essas inovações técnicas resolvem problemas distintos: a AIVM permite agentes de IA autônomos; a frxETH v2 remove a centralização do validador, maximizando os rendimentos; o BAMM elimina a dependência de oráculos e fornece gerenciamento automático de riscos; os AMOs alcançam eficiência de capital sem sacrificar a estabilidade; a Fraxtal fornece infraestrutura soberana; a FrxGov garante controle descentralizado. Coletivamente, elas demonstram a filosofia da Frax: "Em vez de ponderar sobre novos mercados teóricos e escrever whitepapers, a Frax sempre esteve e sempre estará lançando produtos ao vivo e conquistando mercados antes que outros saibam que eles sequer existem."

Ajuste ao ecossistema e implicações mais amplas para o DeFi

A Frax ocupa uma posição única no cenário de stablecoins de $252 bilhões, representando o terceiro paradigma, ao lado das stablecoins centralizadas com lastro fiduciário (USDC, USDT com ~80% de dominância) e das stablecoins descentralizadas com lastro cripto (DAI com 71% da participação de mercado descentralizada). A abordagem híbrida fracionário-algorítmica — agora evoluída para 100% de colateralização com infraestrutura AMO retida — demonstra que as stablecoins não precisam escolher entre extremos, mas podem criar sistemas dinâmicos que se adaptam às condições de mercado.

Análises de terceiros validam a inovação da Frax. O relatório da Messari de fevereiro de 2022 afirmou: "A Frax é o primeiro protocolo de stablecoin a implementar princípios de design de stablecoins totalmente colateralizadas e totalmente algorítmicas para criar dinheiro on-chain novo, escalável, sem confiança e estável." A Coinmonks observou em setembro de 2025: "Através de seu revolucionário sistema AMO, a Frax criou ferramentas de política monetária autônomas que realizam operações de mercado complexas, mantendo a paridade... O protocolo demonstrou que, às vezes, a melhor solução não é escolher entre extremos, mas criar sistemas dinâmicos que podem se adaptar." A Bankless descreveu a abordagem da Frax como atraindo rapidamente "atenção significativa no espaço DeFi e inspirando muitos projetos relacionados."

O conceito da Trindade DeFi posiciona a Frax como o único protocolo com integração vertical completa em primitivos financeiros essenciais. Kazemian argumenta que ecossistemas DeFi bem-sucedidos exigem três componentes: stablecoins (unidade de conta líquida), AMMs/exchanges (provisão de liquidez) e mercados de empréstimo (originação de dívida). A MakerDAO tem empréstimo mais stablecoin, mas carece de um AMM nativo; a Aave lançou a stablecoin GHO e eventualmente precisará de um AMM; a Curve lançou o crvUSD e requer infraestrutura de empréstimo. A Frax sozinha possui todas as três peças através de FRAX/frxUSD (stablecoin), Fraxswap (AMM com Criador de Mercado Médio Ponderado pelo Tempo) e Fraxlend (empréstimo sem permissão), além de camadas adicionais com frxETH (staking líquido), Fraxtal (blockchain L2) e FXB (títulos). Essa completude levou à descrição: "A Frax está adicionando estrategicamente novos subprotocolos e ativos Frax, mas todos os blocos de construção necessários já estão no lugar."

O posicionamento da Frax em relação às tendências da indústria revela tanto alinhamento quanto divergência estratégica. As principais tendências incluem clareza regulatória (estrutura da Lei GENIUS), adoção institucional (90% das instituições financeiras tomando medidas em stablecoins), integração de ativos do mundo real (oportunidade de tokenização de mais de $16 trilhões), stablecoins com rendimento (PYUSD, sFRAX oferecendo renda passiva), futuro multi-chain e convergência AI-cripto. A Frax se alinha fortemente na preparação regulatória (100% de colateralização pré-GENIUS), construção de infraestrutura institucional (parceria BlackRock), estratégia multi-chain (Fraxtal mais implantações cross-chain) e integração de IA (AIVM). No entanto, diverge nas tendências de complexidade versus simplicidade, mantendo sistemas AMO e mecanismos de governança sofisticados que criam barreiras para usuários comuns.

Perspectivas críticas identificam desafios genuínos. A dependência do USDC continua problemática — 92% de lastro cria risco de ponto único de falha, como demonstrado durante a crise do SVB em março de 2023, quando os $3,3 bilhões da Circle presos no Silicon Valley Bank causaram a desancoragem do USDC, levando o FRAX a cair para $0,885. A concentração de governança mostra uma carteira detendo mais de 33% do fornecimento de FXS no final de 2024, criando preocupações de centralização, apesar da estrutura DAO. As barreiras de complexidade limitam a acessibilidade — entender AMOs, taxas de colateralização dinâmicas e sistemas multi-token se mostra difícil para usuários comuns em comparação com o USDC direto ou mesmo o DAI. A pressão competitiva se intensifica à medida que Aave, Curve e players de finanças tradicionais entram nos mercados de stablecoins com recursos significativos e bases de usuários estabelecidas.

A meta de $100 bilhões em TVL para a Fraxtal até o final de 2026 exige um crescimento de aproximadamente 7.500x em relação ao TVL de lançamento de $13,2 milhões — uma meta extraordinariamente ambiciosa, mesmo no ambiente de alto crescimento das criptomoedas. Alcançar isso exige tração sustentada em múltiplas dimensões: a Fraxtal deve atrair uma implantação significativa de dApps além dos próprios produtos da Frax, o ecossistema L3 deve se materializar com uso genuíno, em vez de métricas de vaidade, a frxUSD deve ganhar uma participação de mercado substancial contra a dominância de USDT/USDC, e as parcerias institucionais devem passar de pilotos para implantação em escala. Embora a infraestrutura técnica e o posicionamento regulatório apoiem essa trajetória, os riscos de execução permanecem altos.

A integração de IA através da AIVM representa um território genuinamente novo. O consenso de Prova de Inferência usando validação de transações de blockchain por modelo de IA não tem precedente em escala. Se bem-sucedido, isso posiciona a Frax na convergência de IA e cripto antes que os concorrentes reconheçam a oportunidade — consistente com a filosofia de Kazemian de "conquistar mercados antes que outros saibam que eles sequer existem". No entanto, desafios técnicos em torno do determinismo da IA, viés do modelo no consenso e vulnerabilidades de segurança na validação impulsionada por IA exigem resolução antes da implantação em produção. A parceria com a Plataforma de Tokenização de Agentes da IQ fornece expertise, mas o conceito permanece não comprovado.

A contribuição filosófica se estende além do sucesso ou fracasso da Frax. A demonstração de que abordagens algorítmicas e colateralizadas podem se hibridizar com sucesso influenciou os padrões de design da indústria — AMOs aparecem em protocolos DeFi, estratégias de liquidez de propriedade do protocolo dominam sobre a mineração de liquidez mercenária, e o reconhecimento de que as stablecoins convergem para rendimento livre de risco mais estruturas de facilidade de swap molda novos designs de protocolo. A disposição de evoluir de colateralização fracionária para total quando as condições de mercado exigiram estabeleceu o pragmatismo sobre a ideologia como necessário para a infraestrutura financeira — uma lição que o ecossistema Terra falhou catastroficamente em aprender.

Resultado mais provável: A Frax se torna o principal provedor de infraestrutura de stablecoin DeFi sofisticada, atendendo a um segmento de mercado valioso, mas de nicho, de usuários avançados que priorizam eficiência de capital, descentralização e inovação em detrimento da simplicidade. Os volumes totais provavelmente não desafiarão a dominância de USDT/USDC (que se beneficia de efeitos de rede, clareza regulatória e apoio institucional), mas a Frax mantém a liderança tecnológica e a influência nos padrões de design da indústria. O valor do protocolo deriva menos da participação de mercado do que da provisão de infraestrutura — tornando-se os trilhos sobre os quais outros protocolos constroem, semelhante a como a Chainlink fornece infraestrutura de oráculo em ecossistemas, independentemente da adoção nativa de LINK.

A visão da "Singularidade da Stablecoin" — unificando stablecoin, infraestrutura, IA e governança em um sistema operacional financeiro abrangente — traça um caminho ambicioso, mas coerente. O sucesso depende da execução em múltiplas dimensões complexas: navegação regulatória, entrega técnica (especialmente AIVM), conversão de parcerias institucionais, simplificação da experiência do usuário e velocidade de inovação sustentada. A Frax possui a base técnica, o posicionamento regulatório e a clareza filosófica para alcançar porções significativas dessa visão. Se ela escalará para $100 bilhões em TVL e se tornará o "banco central descentralizado das criptomoedas" ou, em vez disso, estabelecerá um ecossistema sustentável de $10-20 bilhões atendendo a usuários DeFi sofisticados, ainda está para ser visto. Qualquer resultado representa uma conquista significativa em uma indústria onde a maioria dos experimentos com stablecoins falhou catastroficamente.

A percepção final: A visão de Sam Kazemian demonstra que o futuro das finanças descentralizadas não reside em substituir as finanças tradicionais, mas em conectar inteligentemente ambos os mundos — combinando colateral de nível institucional e conformidade regulatória com transparência on-chain, governança descentralizada e mecanismos inovadores como política monetária autônoma através de AMOs e consenso impulsionado por IA através da AIVM. Essa síntese, em vez de oposição binária, representa o caminho pragmático para uma infraestrutura financeira descentralizada sustentável para adoção mainstream.

Protocolo de Pagamentos por Agente (AP2) do Google

· Leitura de 39 minutos
Dora Noda
Software Engineer

O Protocolo de Pagamentos por Agente (AP2) do Google é um padrão aberto recém-anunciado, projetado para permitir transações seguras e confiáveis iniciadas por agentes de IA em nome dos usuários. Desenvolvido em colaboração com mais de 60 organizações de pagamentos e tecnologia (incluindo grandes redes de pagamento, bancos, fintechs e empresas Web3), o AP2 estabelece uma linguagem comum para pagamentos “agênticos” – ou seja, compras e transações financeiras que um agente autônomo (como um assistente de IA ou um agente baseado em LLM) pode realizar para um usuário. A criação do AP2 é impulsionada por uma mudança fundamental: tradicionalmente, os sistemas de pagamento online assumiam que um humano estava clicando diretamente em “comprar”, mas o surgimento de agentes de IA agindo sob as instruções do usuário quebra essa suposição. O AP2 aborda os desafios resultantes de autorização, autenticidade e responsabilidade no comércio impulsionado por IA, mantendo-se compatível com a infraestrutura de pagamento existente. Este relatório examina a arquitetura técnica do AP2, seu propósito e casos de uso, integrações com agentes de IA e provedores de pagamento, considerações de segurança e conformidade, comparações com protocolos existentes, implicações para sistemas Web3/descentralizados e a adoção/roteiro da indústria.

Arquitetura Técnica: Como o AP2 Funciona

Em sua essência, o AP2 introduz uma estrutura de transação criptograficamente segura construída sobre credenciais digitais verificáveis (VDCs) – essencialmente objetos de dados assinados e à prova de adulteração que servem como “contratos” digitais do que o usuário autorizou. Na terminologia do AP2, esses contratos são chamados de Mandatos, e eles formam uma cadeia de evidências auditável para cada transação. Existem três tipos principais de mandatos na arquitetura do AP2:

  • Mandato de Intenção: Captura as instruções ou condições iniciais do usuário para uma compra, especialmente para cenários “humano-ausente” (onde o agente agirá mais tarde sem o usuário online). Ele define o escopo de autoridade que o usuário concede ao agente – por exemplo, “Comprar ingressos para o show se o preço cair abaixo de $200, até 2 ingressos”. Este mandato é assinado criptograficamente antecipadamente pelo usuário e serve como prova verificável de consentimento dentro de limites específicos.
  • Mandato de Carrinho: Representa os detalhes finais da transação que o usuário aprovou, usado em cenários “humano-presente” ou no momento do checkout. Inclui os itens ou serviços exatos, seu preço e outras particularidades da compra. Quando o agente está pronto para concluir a transação (por exemplo, após preencher um carrinho de compras), o comerciante primeiro assina criptograficamente o conteúdo do carrinho (garantindo os detalhes do pedido e o preço), e então o usuário (através de seu dispositivo ou interface do agente) assina para criar um Mandato de Carrinho. Isso garante o que você vê é o que você paga, fixando o pedido final exatamente como apresentado ao usuário.
  • Mandato de Pagamento: Uma credencial separada que é enviada à rede de pagamento (por exemplo, rede de cartão ou banco) para sinalizar que um agente de IA está envolvido na transação. O Mandato de Pagamento inclui metadados como se o usuário estava presente ou não durante a autorização e serve como um sinalizador para sistemas de gerenciamento de risco. Ao fornecer aos bancos adquirentes e emissores evidências criptograficamente verificáveis da intenção do usuário, este mandato os ajuda a avaliar o contexto (por exemplo, distinguindo uma compra iniciada por agente de uma fraude típica) e a gerenciar a conformidade ou responsabilidade de acordo.

Todos os mandatos são implementados como credenciais verificáveis assinadas pelas chaves da parte relevante (usuário, comerciante, etc.), gerando uma trilha de auditoria não-repudiável para cada transação liderada por agente. Na prática, o AP2 usa uma arquitetura baseada em funções para proteger informações sensíveis – por exemplo, um agente pode lidar com um Mandato de Intenção sem nunca ver os detalhes brutos de pagamento, que são revelados de forma controlada apenas quando necessário, preservando a privacidade. A cadeia criptográfica de intenção do usuário → compromisso do comerciante → autorização de pagamento estabelece confiança entre todas as partes de que a transação reflete as verdadeiras instruções do usuário e que tanto o agente quanto o comerciante aderiram a essas instruções.

Fluxo de Transação: Para ilustrar como o AP2 funciona de ponta a ponta, considere um cenário de compra simples com um humano no circuito:

  1. Solicitação do Usuário: O usuário pede ao seu agente de IA para comprar um item ou serviço específico (por exemplo, “Pedir este par de sapatos no meu tamanho”).
  2. Construção do Carrinho: O agente se comunica com os sistemas do comerciante (usando APIs padrão ou através de uma interação agente-para-agente) para montar um carrinho de compras para o item especificado a um determinado preço.
  3. Garantia do Comerciante: Antes de apresentar o carrinho ao usuário, o lado do comerciante assina criptograficamente os detalhes do carrinho (item, quantidade, preço, etc.). Esta etapa cria uma oferta assinada pelo comerciante que garante os termos exatos (evitando quaisquer alterações ocultas ou manipulação de preços).
  4. Aprovação do Usuário: O agente mostra ao usuário o carrinho finalizado. O usuário confirma a compra, e esta aprovação aciona duas assinaturas criptográficas do lado do usuário: uma no Mandato de Carrinho (para aceitar o carrinho do comerciante como está) e uma no Mandato de Pagamento (para autorizar o pagamento através do provedor de pagamento escolhido). Esses mandatos assinados são então compartilhados com o comerciante e a rede de pagamento, respectivamente.
  5. Execução: Munidos do Mandato de Carrinho e do Mandato de Pagamento, o comerciante e o provedor de pagamento prosseguem para executar a transação com segurança. Por exemplo, o comerciante envia a solicitação de pagamento juntamente com a prova de aprovação do usuário para a rede de pagamento (rede de cartão, banco, etc.), que pode verificar o Mandato de Pagamento. O resultado é uma transação de compra concluída com uma trilha de auditoria criptográfica que vincula a intenção do usuário ao pagamento final.

Este fluxo demonstra como o AP2 constrói confiança em cada etapa de uma compra impulsionada por IA. O comerciante tem prova criptográfica do que exatamente o usuário concordou em comprar e a que preço, e o emissor/banco tem prova de que o usuário autorizou esse pagamento, mesmo que um agente de IA tenha facilitado o processo. Em caso de disputas ou erros, os mandatos assinados atuam como evidência clara, ajudando a determinar a responsabilidade (por exemplo, se o agente se desviou das instruções ou se uma cobrança não foi o que o usuário aprovou). Em essência, a arquitetura do AP2 garante que a intenção verificável do usuário – em vez da confiança no comportamento do agente – seja a base da transação, reduzindo grandemente a ambiguidade.

Propósito e Casos de Uso para o AP2

Por que o AP2 é Necessário: O propósito principal do AP2 é resolver problemas emergentes de confiança e segurança que surgem quando agentes de IA podem gastar dinheiro em nome dos usuários. O Google e seus parceiros identificaram várias questões-chave que a infraestrutura de pagamento atual não consegue responder adequadamente quando um agente autônomo está no circuito:

  • Autorização: Como provar que um usuário realmente deu permissão ao agente para fazer uma compra específica? (Em outras palavras, garantir que o agente não está comprando coisas sem o consentimento informado do usuário.)
  • Autenticidade: Como um comerciante pode saber que uma solicitação de compra de um agente é genuína e reflete a verdadeira intenção do usuário, em vez de um erro ou alucinação da IA?
  • Responsabilidade: Se uma transação fraudulenta ou incorreta ocorrer via um agente, quem é o responsável – o usuário, o comerciante, o provedor de pagamento ou o criador do agente de IA?

Sem uma solução, essas incertezas criam uma “crise de confiança” em torno do comércio liderado por agentes. A missão do AP2 é fornecer essa solução, estabelecendo um protocolo uniforme para transações seguras de agentes. Ao introduzir mandatos padronizados e provas de intenção, o AP2 previne um ecossistema fragmentado, onde cada empresa inventa seus próprios métodos ad-hoc de pagamento por agente. Em vez disso, qualquer agente de IA compatível pode interagir com qualquer comerciante/provedor de pagamento compatível sob um conjunto comum de regras e verificações. Essa consistência não apenas evita a confusão do usuário e do comerciante, mas também oferece às instituições financeiras uma maneira clara de gerenciar o risco para pagamentos iniciados por agentes, em vez de lidar com uma colcha de retalhos de abordagens proprietárias. Em suma, o propósito do AP2 é ser uma camada fundamental de confiança que permite que a “economia de agentes” cresça sem quebrar o ecossistema de pagamentos.

Casos de Uso Pretendidos: Ao resolver os problemas acima, o AP2 abre as portas para novas experiências de comércio e casos de uso que vão além do que é possível com um humano clicando manualmente nas compras. Alguns exemplos de comércio habilitado por agente que o AP2 suporta incluem:

  • Compras Mais Inteligentes: Um cliente pode instruir seu agente: “Quero esta jaqueta de inverno em verde, e estou disposto a pagar até 20% acima do preço atual por ela”. Munido de um Mandato de Intenção que codifica essas condições, o agente monitorará continuamente sites de varejistas ou bancos de dados. No momento em que a jaqueta estiver disponível em verde (e dentro do limite de preço), o agente executa automaticamente uma compra com uma transação segura e assinada – capturando uma venda que de outra forma teria sido perdida. Toda a interação, desde a solicitação inicial do usuário até o checkout automatizado, é governada pelos mandatos do AP2, garantindo que o agente compre exatamente o que foi autorizado.
  • Ofertas Personalizadas: Um usuário diz ao seu agente que está procurando um produto específico (digamos, uma nova bicicleta) de um determinado comerciante para uma próxima viagem. O agente pode compartilhar esse interesse (dentro dos limites de um Mandato de Intenção) com o agente de IA do próprio comerciante, incluindo contexto relevante como a data da viagem. O agente do comerciante, conhecendo a intenção e o contexto do usuário, poderia responder com um pacote personalizado ou desconto – por exemplo, “bicicleta + capacete + bagageiro com 15% de desconto, disponível pelas próximas 48 horas”. Usando o AP2, o agente do usuário pode aceitar e concluir esta oferta personalizada com segurança, transformando uma simples consulta em uma venda mais valiosa para o comerciante.
  • Tarefas Coordenadas: Um usuário planejando uma tarefa complexa (por exemplo, uma viagem de fim de semana) a delega inteiramente: “Reserve-me um voo e hotel para estas datas com um orçamento total de $700”. O agente pode interagir com agentes de vários provedores de serviços – companhias aéreas, hotéis, plataformas de viagem – para encontrar uma combinação que se ajuste ao orçamento. Uma vez identificado um pacote de voo-hotel adequado, o agente usa o AP2 para executar múltiplas reservas de uma só vez, cada uma criptograficamente assinada (por exemplo, emitindo Mandatos de Carrinho separados para a companhia aérea e o hotel, ambos autorizados sob o Mandato de Intenção do usuário). O AP2 garante que todas as partes desta transação coordenada ocorram conforme aprovado, e até permite a execução simultânea para que passagens e reservas sejam feitas juntas sem risco de uma parte falhar no meio do caminho.

Esses cenários ilustram apenas alguns dos casos de uso pretendidos do AP2. De forma mais ampla, o design flexível do AP2 suporta tanto fluxos de e-commerce convencionais quanto modelos de comércio totalmente novos. Por exemplo, o AP2 pode facilitar serviços semelhantes a assinaturas (um agente mantém você abastecido com itens essenciais comprando quando as condições são atendidas), compras orientadas por eventos (comprar ingressos ou itens no instante em que um evento acionador ocorre), negociações de agentes em grupo (agentes de múltiplos usuários agrupando mandatos para negociar um acordo em grupo) e muitos outros padrões emergentes. Em todos os casos, o fio condutor é que o AP2 fornece a estrutura de confiança – autorização clara do usuário e auditabilidade criptográfica – que permite que essas transações impulsionadas por agentes ocorram com segurança. Ao lidar com a camada de confiança e verificação, o AP2 permite que desenvolvedores e empresas se concentrem em inovar novas experiências de comércio de IA sem reinventar a segurança de pagamentos do zero.

Integração com Agentes, LLMs e Provedores de Pagamento

O AP2 é explicitamente projetado para se integrar perfeitamente com frameworks de agentes de IA e com sistemas de pagamento existentes, atuando como uma ponte entre os dois. O Google posicionou o AP2 como uma extensão de seus padrões de protocolo Agent2Agent (A2A) e Model Context Protocol (MCP). Em outras palavras, se o A2A fornece uma linguagem genérica para agentes se comunicarem tarefas e o MCP padroniza como os modelos de IA incorporam contexto/ferramentas, então o AP2 adiciona uma camada de transações por cima para o comércio. Os protocolos são complementares: o A2A lida com a comunicação agente-para-agente (permitindo, por exemplo, que um agente de compras converse com o agente de um comerciante), enquanto o AP2 lida com a autorização de pagamento agente-para-comerciante dentro dessas interações. Como o AP2 é aberto e não proprietário, ele é destinado a ser agnóstico em relação a frameworks: os desenvolvedores podem usá-lo com o próprio Agent Development Kit (ADK) do Google ou qualquer biblioteca de agentes de IA, e da mesma forma, pode funcionar com vários modelos de IA, incluindo LLMs. Um agente baseado em LLM, por exemplo, poderia usar o AP2 gerando e trocando os payloads de mandato necessários (guiado pela especificação AP2) em vez de apenas texto livre. Ao impor um protocolo estruturado, o AP2 ajuda a transformar a intenção de alto nível de um agente de IA (que pode vir do raciocínio de um LLM) em transações concretas e seguras.

No lado dos pagamentos, o AP2 foi construído em conjunto com provedores de pagamento e padrões tradicionais, em vez de ser um sistema de substituição total. O protocolo é agnóstico em relação ao método de pagamento, o que significa que pode suportar uma variedade de trilhos de pagamento – desde redes de cartão de crédito/débito até transferências bancárias e carteiras digitais – como o método subjacente para movimentar fundos. Em sua versão inicial, o AP2 enfatiza a compatibilidade com pagamentos por cartão, já que são os mais comuns no comércio online. O Mandato de Pagamento do AP2 é projetado para se encaixar no fluxo de processamento de cartão existente: ele fornece dados adicionais à rede de pagamento (por exemplo, Visa, Mastercard, Amex) e ao banco emissor de que um agente de IA está envolvido e se o usuário estava presente, complementando assim as verificações existentes de detecção de fraude e autorização. Essencialmente, o AP2 não processa o pagamento em si; ele aumenta a solicitação de pagamento com prova criptográfica da intenção do usuário. Isso permite que os provedores de pagamento tratem as transações iniciadas por agentes com a cautela ou velocidade apropriadas (por exemplo, um emissor pode aprovar uma compra de aparência incomum se vir um mandato AP2 válido provando que o usuário a pré-aprovou). Notavelmente, o Google e seus parceiros planejam evoluir o AP2 para suportar também métodos de pagamento “push” – como transferências bancárias em tempo real (como os sistemas UPI da Índia ou PIX do Brasil) – e outros tipos emergentes de pagamento digital. Isso indica que a integração do AP2 se expandirá além dos cartões, alinhando-se às tendências de pagamento modernas em todo o mundo.

Para comerciantes e processadores de pagamento, integrar o AP2 significaria suportar as mensagens de protocolo adicionais (mandatos) e verificar assinaturas. Muitas grandes plataformas de pagamento já estão envolvidas na formação do AP2, então podemos esperar que elas construam suporte para ele. Por exemplo, empresas como Adyen, Worldpay, Paypal, Stripe (não explicitamente nomeadas no blog, mas provavelmente interessadas) e outras poderiam incorporar o AP2 em suas APIs de checkout ou SDKs, permitindo que um agente inicie um pagamento de forma padronizada. Como o AP2 é uma especificação aberta no GitHub com implementações de referência, provedores de pagamento e plataformas de tecnologia podem começar a experimentá-lo imediatamente. O Google também mencionou um AI Agent Marketplace onde agentes de terceiros podem ser listados – espera-se que esses agentes suportem o AP2 para quaisquer capacidades transacionais. Na prática, uma empresa que constrói um assistente de vendas de IA ou um agente de compras pode listá-lo neste marketplace, e graças ao AP2, esse agente pode realizar compras ou pedidos de forma confiável.

Finalmente, a história de integração do AP2 se beneficia de seu amplo apoio da indústria. Ao co-desenvolver o protocolo com grandes instituições financeiras e empresas de tecnologia, o Google garantiu que o AP2 se alinha com as regras e requisitos de conformidade existentes na indústria. A colaboração com redes de pagamento (por exemplo, Mastercard, UnionPay), emissores (por exemplo, American Express), fintechs (por exemplo, Revolut, Paypal), players de e-commerce (por exemplo, Etsy) e até provedores de identidade/segurança (por exemplo, Okta, Cloudflare) sugere que o AP2 está sendo projetado para se encaixar em sistemas do mundo real com atrito mínimo. Esses stakeholders trazem experiência em áreas como KYC (regulamentações Conheça Seu Cliente), prevenção de fraude e privacidade de dados, ajudando o AP2 a atender a essas necessidades desde o início. Em resumo, o AP2 é construído para ser amigo do agente e amigo do provedor de pagamento: ele estende os protocolos existentes de agentes de IA para lidar com transações, e se sobrepõe às redes de pagamento existentes para utilizar sua infraestrutura, adicionando as garantias de confiança necessárias.

Considerações de Segurança, Conformidade e Interoperabilidade

Segurança e confiança estão no cerne do design do AP2. O uso de criptografia pelo protocolo (assinaturas digitais em mandatos) garante que cada ação crítica em uma transação agêntica seja verificável e rastreável. Essa não-repudiação é crucial: nem o usuário nem o comerciante podem negar posteriormente o que foi autorizado e acordado, já que os mandatos servem como registros seguros. Um benefício direto é na prevenção de fraudes e resolução de disputas – com o AP2, se um agente malicioso ou com bugs tentar uma compra não autorizada, a falta de um mandato válido assinado pelo usuário seria evidente, e a transação pode ser recusada ou revertida. Inversamente, se um usuário alegar “Eu nunca aprovei esta compra”, mas um Mandato de Carrinho existir com sua assinatura criptográfica, o comerciante e o emissor têm fortes evidências para apoiar a cobrança. Essa clareza de responsabilidade responde a uma grande preocupação de conformidade para a indústria de pagamentos.

Autorização e Privacidade: O AP2 impõe uma etapa (ou etapas) de autorização explícita do usuário para transações lideradas por agentes, o que se alinha às tendências regulatórias como a autenticação forte do cliente. O princípio de Controle do Usuário incorporado ao AP2 significa que um agente não pode gastar fundos a menos que o usuário (ou alguém delegado pelo usuário) tenha fornecido uma instrução verificável para fazê-lo. Mesmo em cenários totalmente autônomos, o usuário predefine as regras por meio de um Mandato de Intenção. Essa abordagem pode ser vista como análoga a conceder uma procuração ao agente para transações específicas, mas de forma digitalmente assinada e granular. Do ponto de vista da privacidade, o AP2 é cuidadoso com o compartilhamento de dados: o protocolo usa uma arquitetura de dados baseada em funções para garantir que informações sensíveis (como credenciais de pagamento ou detalhes pessoais) sejam compartilhadas apenas com as partes que absolutamente precisam delas. Por exemplo, um agente pode enviar um Mandato de Carrinho a um comerciante contendo informações de item e preço, mas o número real do cartão do usuário pode ser compartilhado apenas através do Mandato de Pagamento com o processador de pagamento, não com o agente ou comerciante. Isso minimiza a exposição desnecessária de dados, auxiliando na conformidade com as leis de privacidade e as regras PCI-DSS para o tratamento de dados de pagamento.

Conformidade e Padrões: Como o AP2 foi desenvolvido com a contribuição de entidades financeiras estabelecidas, ele foi projetado para atender ou complementar os padrões de conformidade existentes em pagamentos. O protocolo não ignora os fluxos usuais de autorização de pagamento – em vez disso, ele os aumenta com evidências e sinalizadores adicionais. Isso significa que as transações AP2 ainda podem aproveitar sistemas de detecção de fraude, verificações 3-D Secure ou quaisquer verificações regulatórias exigidas, com os mandatos do AP2 atuando como fatores de autenticação extras ou pistas de contexto. Por exemplo, um banco poderia tratar um Mandato de Pagamento como a assinatura digital de um cliente em uma transação, potencialmente simplificando a conformidade com os requisitos de consentimento do usuário. Além disso, os designers do AP2 mencionam explicitamente o trabalho “em conjunto com as regras e padrões da indústria”. Podemos inferir que, à medida que o AP2 evolui, ele pode ser levado a órgãos de padronização formais (como W3C, EMVCo ou ISO) para garantir que se alinhe aos padrões financeiros globais. O Google declarou compromisso com uma evolução aberta e colaborativa do AP2, possivelmente através de organizações de padronização. Esse processo aberto ajudará a resolver quaisquer preocupações regulatórias e a alcançar ampla aceitação, semelhante a como os padrões de pagamento anteriores (cartões com chip EMV, 3-D Secure, etc.) passaram por colaboração em toda a indústria.

Interoperabilidade: Evitar a fragmentação é um objetivo chave do AP2. Para isso, o protocolo é publicado abertamente e disponibilizado para qualquer pessoa implementar ou integrar. Não está vinculado aos serviços do Google Cloud – na verdade, o AP2 é código aberto (licença Apache-2) e a especificação, além do código de referência, está em um repositório público do GitHub. Isso incentiva a interoperabilidade porque vários fornecedores podem adotar o AP2 e ainda ter seus sistemas funcionando juntos. Já, o princípio da interoperabilidade é destacado: o AP2 é uma extensão de protocolos abertos existentes (A2A, MCP) e não é proprietário, o que significa que ele promove um ecossistema competitivo de implementações, em vez de uma solução de um único fornecedor. Em termos práticos, um agente de IA construído pela Empresa A poderia iniciar uma transação com um sistema de comerciante da Empresa B se ambos seguirem o AP2 – nenhum dos lados está preso a uma única plataforma.

Uma possível preocupação é garantir a adoção consistente: se alguns grandes players escolhessem um protocolo diferente ou uma abordagem fechada, a fragmentação ainda poderia ocorrer. No entanto, dada a ampla coalizão por trás do AP2, ele parece pronto para se tornar um padrão de fato. A inclusão de muitas empresas focadas em identidade e segurança (por exemplo, Okta, Cloudflare, Ping Identity) no ecossistema do AP2 Figura: Mais de 60 empresas de finanças, tecnologia e cripto estão colaborando no AP2 (lista parcial de parceiros). sugere que a interoperabilidade e a segurança estão sendo abordadas em conjunto. Esses parceiros podem ajudar a integrar o AP2 em fluxos de trabalho de verificação de identidade e ferramentas de prevenção de fraude, garantindo que uma transação AP2 possa ser confiável em todos os sistemas.

Do ponto de vista tecnológico, o uso de técnicas criptográficas amplamente aceitas pelo AP2 (provavelmente credenciais verificáveis baseadas em JSON-LD ou JWT, assinaturas de chave pública, etc.) o torna compatível com a infraestrutura de segurança existente. As organizações podem usar sua PKI (Infraestrutura de Chave Pública) existente para gerenciar chaves para assinar mandatos. O AP2 também parece antecipar a integração com sistemas de identidade descentralizada: o Google menciona que o AP2 cria oportunidades para inovar em áreas como identidade descentralizada para autorização de agentes. Isso significa que, no futuro, o AP2 poderia alavancar padrões DID (Identificador Descentralizado) ou verificação de identificador descentralizado para identificar agentes e usuários de forma confiável. Tal abordagem aprimoraria ainda mais a interoperabilidade, não dependendo de nenhum provedor de identidade único. Em resumo, o AP2 enfatiza a segurança através da criptografia e da responsabilidade clara, visa estar pronto para a conformidade por design e promove a interoperabilidade através de sua natureza de padrão aberto e amplo suporte da indústria.

Comparação com Protocolos Existentes

O AP2 é um protocolo inovador que aborda uma lacuna que os frameworks de pagamento e agentes existentes não cobriram: permitir que agentes autônomos realizem pagamentos de maneira segura e padronizada. Em termos de protocolos de comunicação de agentes, o AP2 se baseia em trabalhos anteriores como o protocolo Agent2Agent (A2A). O A2A (código aberto no início de 2025) permite que diferentes agentes de IA conversem entre si, independentemente de seus frameworks subjacentes. No entanto, o A2A por si só não define como os agentes devem conduzir transações ou pagamentos – é mais sobre negociação de tarefas e troca de dados. O AP2 estende esse cenário adicionando uma camada de transação que qualquer agente pode usar quando uma conversa leva a uma compra. Em essência, o AP2 pode ser visto como complementar ao A2A e ao MCP, em vez de sobreposto: o A2A cobre os aspectos de comunicação e colaboração, o MCP cobre o uso de ferramentas/APIs externas, e o AP2 cobre pagamentos e comércio. Juntos, eles formam uma pilha de padrões para uma futura “economia de agentes”. Essa abordagem modular é um tanto análoga aos protocolos de internet: por exemplo, HTTP para comunicação de dados e SSL/TLS para segurança – aqui o A2A pode ser como o HTTP dos agentes, e o AP2 a camada transacional segura por cima para o comércio.

Ao comparar o AP2 com protocolos e padrões de pagamento tradicionais, existem paralelos e diferenças. Pagamentos online tradicionais (checkouts de cartão de crédito, transações PayPal, etc.) tipicamente envolvem protocolos como HTTPS para transmissão segura, e padrões como PCI DSS para lidar com dados de cartão, além de possivelmente 3-D Secure para autenticação adicional do usuário. Estes assumem um fluxo impulsionado pelo usuário (o usuário clica e talvez insere um código único). O AP2, por outro lado, introduz uma maneira para um terceiro (o agente) participar do fluxo sem comprometer a segurança. Poderíamos comparar o conceito de mandato do AP2 a uma extensão da autoridade delegada no estilo OAuth, mas aplicada a pagamentos. No OAuth, um usuário pode conceder a um aplicativo acesso limitado a uma conta via tokens; similarmente no AP2, um usuário concede a um agente autoridade para gastar sob certas condições via mandatos. A principal diferença é que os “tokens” do AP2 (mandatos) são instruções específicas e assinadas para transações financeiras, o que é mais granular do que as autorizações de pagamento existentes.

Outro ponto de comparação é como o AP2 se relaciona com os fluxos de checkout de e-commerce existentes. Por exemplo, muitos sites de e-commerce usam protocolos como a API Payment Request do W3C ou SDKs específicos de plataforma para agilizar pagamentos. Estes padronizam principalmente como navegadores ou aplicativos coletam informações de pagamento de um usuário, enquanto o AP2 padroniza como um agente provaria a intenção do usuário a um comerciante e processador de pagamento. O foco do AP2 na intenção verificável e na não-repudiação o diferencia de APIs de pagamento mais simples. Ele está adicionando uma camada adicional de confiança sobre as redes de pagamento. Poderíamos dizer que o AP2 não está substituindo as redes de pagamento (Visa, ACH, blockchain, etc.), mas sim as aumentando. O protocolo suporta explicitamente todos os tipos de métodos de pagamento (até cripto), então trata-se mais de padronizar a interação do agente com esses sistemas, não de criar um novo trilho de pagamento do zero.

No domínio dos protocolos de segurança e autenticação, o AP2 compartilha algum espírito com coisas como assinaturas digitais em cartões com chip EMV ou a notarização em contratos digitais. Por exemplo, transações com cartão com chip EMV geram criptogramas para provar que o cartão estava presente; o AP2 gera prova criptográfica de que o agente do usuário foi autorizado. Ambos visam prevenir fraudes, mas o escopo do AP2 é o relacionamento agente-usuário e a comunicação agente-comerciante, o que nenhum padrão de pagamento existente aborda. Outra comparação emergente é com a abstração de contas em cripto (por exemplo, ERC-4337) onde os usuários podem autorizar ações de carteira pré-programadas. Carteiras de cripto podem ser configuradas para permitir certas transações automatizadas (como pagar automaticamente uma assinatura via um contrato inteligente), mas essas são tipicamente confinadas a um ambiente de blockchain. O AP2, por outro lado, visa ser multiplataforma – ele pode alavancar blockchain para alguns pagamentos (através de suas extensões), mas também funciona com bancos tradicionais.

Não há um protocolo “concorrente” direto ao AP2 na indústria de pagamentos mainstream ainda – parece ser o primeiro esforço concertado em um padrão aberto para pagamentos por agentes de IA. Tentativas proprietárias podem surgir (ou já podem estar em andamento dentro de empresas individuais), mas o amplo suporte do AP2 lhe dá uma vantagem para se tornar o padrão. Vale a pena notar que a IBM e outros têm um Protocolo de Comunicação de Agentes (ACP) e iniciativas semelhantes para interoperabilidade de agentes, mas estas não abrangem o aspecto de pagamento de forma tão abrangente quanto o AP2. Se houver, o AP2 pode se integrar ou alavancar esses esforços (por exemplo, os frameworks de agentes da IBM poderiam implementar o AP2 para quaisquer tarefas de comércio).

Em resumo, o AP2 se distingue por visar a intersecção única de IA e pagamentos: onde protocolos de pagamento mais antigos assumiam um usuário humano, o AP2 assume um intermediário de IA e preenche a lacuna de confiança resultante. Ele estende, em vez de conflitar, os processos de pagamento existentes e complementa os protocolos de agentes existentes como o A2A. No futuro, pode-se ver o AP2 sendo usado juntamente com padrões estabelecidos – por exemplo, um Mandato de Carrinho AP2 pode funcionar em conjunto com uma chamada de API de gateway de pagamento tradicional, ou um Mandato de Pagamento AP2 pode ser anexado a uma mensagem ISO 8583 em bancos. A natureza aberta do AP2 também significa que, se surgirem abordagens alternativas, o AP2 poderia potencialmente absorvê-las ou se alinhar a elas através da colaboração da comunidade. Nesta fase, o AP2 está estabelecendo uma base que não existia antes, efetivamente pioneirando uma nova camada de protocolo na pilha de IA e pagamentos.

Implicações para Web3 e Sistemas Descentralizados

Desde o início, o AP2 foi projetado para ser inclusivo de pagamentos baseados em Web3 e criptomoedas. O protocolo reconhece que o comércio futuro abrangerá tanto os canais fiduciários tradicionais quanto as redes blockchain descentralizadas. Como observado anteriormente, o AP2 suporta tipos de pagamento que vão desde cartões de crédito e transferências bancárias até stablecoins e criptomoedas. Na verdade, juntamente com o lançamento do AP2, o Google anunciou uma extensão específica para pagamentos cripto chamada A2A x402. Esta extensão, desenvolvida em colaboração com players da indústria cripto como Coinbase, Ethereum Foundation e MetaMask, é uma “solução pronta para produção para pagamentos cripto baseados em agentes”. O nome “x402” é uma homenagem ao código de status HTTP 402 “Payment Required”, que nunca foi amplamente utilizado na Web – a extensão cripto do AP2 efetivamente revive o espírito do HTTP 402 para agentes descentralizados que desejam cobrar ou pagar uns aos outros on-chain. Em termos práticos, a extensão x402 adapta o conceito de mandato do AP2 para transações blockchain. Por exemplo, um agente poderia manter um Mandato de Intenção assinado de um usuário e então executar um pagamento on-chain (digamos, enviar uma stablecoin) uma vez que as condições sejam atendidas, anexando a prova do mandato a essa transação on-chain. Isso une a estrutura de confiança off-chain do AP2 com a natureza sem confiança da blockchain, oferecendo o melhor dos dois mundos: um pagamento on-chain que partes off-chain (usuários, comerciantes) podem confiar que foi autorizado pelo usuário.

A sinergia entre AP2 e Web3 é evidente na lista de colaboradores. Exchanges de cripto (Coinbase), fundações blockchain (Ethereum Foundation), carteiras cripto (MetaMask) e startups Web3 (por exemplo, Mysten Labs da Sui, Lightspark para Lightning Network) estão envolvidas no desenvolvimento do AP2. Sua participação sugere que o AP2 é visto como complementar às finanças descentralizadas, em vez de competitivo. Ao criar uma maneira padrão para agentes de IA interagirem com pagamentos cripto, o AP2 pode impulsionar mais o uso de cripto em aplicações impulsionadas por IA. Por exemplo, um agente de IA pode usar o AP2 para alternar perfeitamente entre pagar com cartão de crédito ou pagar com uma stablecoin, dependendo da preferência do usuário ou da aceitação do comerciante. A extensão A2A x402 permite especificamente que os agentes monetizem ou paguem por serviços por meios on-chain, o que pode ser crucial em mercados descentralizados do futuro. Isso sugere que agentes possivelmente operando como atores econômicos autônomos em blockchain (um conceito que alguns se referem como DACs ou DAOs) serão capazes de lidar com pagamentos necessários para serviços (como pagar uma pequena taxa a outro agente por informações). O AP2 poderia fornecer a língua franca para tais transações, garantindo que, mesmo em uma rede descentralizada, o agente tenha um mandato comprovável para o que está fazendo.

Em termos de concorrência, poderíamos perguntar: soluções puramente descentralizadas tornam o AP2 desnecessário, ou vice-versa? É provável que o AP2 coexistirá com soluções Web3 em uma abordagem em camadas. As finanças descentralizadas oferecem execução sem confiança (contratos inteligentes, etc.), mas não resolvem inerentemente o problema de “Um IA teve permissão de um humano para fazer isso?”. O AP2 aborda exatamente esse elo de confiança humano-para-IA, que continua sendo importante mesmo que o pagamento em si seja on-chain. Em vez de competir com protocolos blockchain, o AP2 pode ser visto como uma ponte entre eles e o mundo off-chain. Por exemplo, um contrato inteligente pode aceitar uma determinada transação apenas se ela incluir uma referência a uma assinatura de mandato AP2 válida – algo que poderia ser implementado para combinar a prova de intenção off-chain com a execução on-chain. Inversamente, se houver frameworks de agentes cripto-nativos (alguns projetos blockchain exploram agentes autônomos que operam com fundos cripto), eles podem desenvolver seus próprios métodos de autorização. O amplo suporte da indústria ao AP2, no entanto, pode levar até mesmo esses projetos a adotar ou integrar-se ao AP2 para consistência.

Outro ângulo é a identidade e credenciais descentralizadas. O uso de credenciais verificáveis pelo AP2 está muito alinhado com a abordagem da Web3 para a identidade (por exemplo, DIDs e VCs padronizados pelo W3C). Isso significa que o AP2 poderia se conectar a sistemas de identidade descentralizada – por exemplo, o DID de um usuário poderia ser usado para assinar um mandato AP2, que um comerciante poderia verificar contra uma blockchain ou um hub de identidade. A menção de explorar a identidade descentralizada para autorização de agentes reforça que o AP2 pode alavancar inovações de identidade Web3 para verificar identidades de agentes e usuários de forma descentralizada, em vez de depender apenas de autoridades centralizadas. Este é um ponto de sinergia, pois tanto o AP2 quanto a Web3 visam dar aos usuários mais controle e prova criptográfica de suas ações.

Potenciais conflitos podem surgir apenas se alguém imaginar um ecossistema de comércio totalmente descentralizado sem papel para grandes intermediários – nesse cenário, o AP2 (inicialmente impulsionado pelo Google e parceiros) poderia ser muito centralizado ou governado por players tradicionais? É importante notar que o AP2 é de código aberto e destinado a ser padronizável, portanto, não é proprietário do Google. Isso o torna mais palatável para a comunidade Web3, que valoriza protocolos abertos. Se o AP2 for amplamente adotado, ele pode reduzir a necessidade de protocolos de pagamento específicos da Web3 separados para agentes, unificando assim os esforços. Por outro lado, alguns projetos blockchain podem preferir mecanismos de autorização puramente on-chain (como carteiras multi-assinatura ou lógica de custódia on-chain) para transações de agentes, especialmente em ambientes sem confiança e sem autoridades centralizadas. Essas poderiam ser vistas como abordagens alternativas, mas provavelmente permaneceriam nichadas, a menos que possam interagir com sistemas off-chain. O AP2, ao cobrir ambos os mundos, pode realmente acelerar a adoção da Web3 ao tornar a cripto apenas mais um método de pagamento que um agente de IA pode usar perfeitamente. De fato, um parceiro observou que “stablecoins fornecem uma solução óbvia para desafios de escalabilidade [para] sistemas agênticos com infraestrutura legada”, destacando que a cripto pode complementar o AP2 no tratamento de escala ou cenários transfronteiriços. Enquanto isso, o líder de engenharia da Coinbase observou que trazer a extensão cripto x402 para o AP2 “fez sentido – é um playground natural para agentes... emocionante ver agentes pagando uns aos outros ressoar com a comunidade de IA”. Isso implica uma visão onde agentes de IA transacionando via redes cripto não é apenas uma ideia teórica, mas um resultado esperado, com o AP2 atuando como um catalisador.

Em resumo, o AP2 é altamente relevante para a Web3: ele incorpora pagamentos cripto como um cidadão de primeira classe e está se alinhando com padrões de identidade e credenciais descentralizadas. Em vez de competir diretamente com protocolos de pagamento descentralizados, o AP2 provavelmente interoperará com eles – fornecendo a camada de autorização enquanto os sistemas descentralizados lidam com a transferência de valor. À medida que a linha entre finanças tradicionais e cripto se confunde (com stablecoins, CBDCs, etc.), um protocolo unificado como o AP2 poderia servir como um adaptador universal entre agentes de IA e qualquer forma de dinheiro, centralizada ou descentralizada.

Adoção da Indústria, Parcerias e Roteiro

Uma das maiores forças do AP2 é o extenso apoio da indústria por trás dele, mesmo nesta fase inicial. O Google Cloud anunciou que está “colaborando com um grupo diversificado de mais de 60 organizações” no AP2. Isso inclui grandes redes de cartão de crédito (por exemplo, Mastercard, American Express, JCB, UnionPay), líderes em fintech e processadores de pagamento (PayPal, Worldpay, Adyen, Checkout.com, concorrentes da Stripe), e-commerce e mercados online (Etsy, Shopify (via parceiros como Stripe ou outros), Lazada, Zalora), empresas de tecnologia empresarial (Salesforce, ServiceNow, Oracle possivelmente via parceiros, Dell, Red Hat), empresas de identidade e segurança (Okta, Ping Identity, Cloudflare), empresas de consultoria (Deloitte, Accenture), e organizações de cripto/Web3 (Coinbase, Ethereum Foundation, MetaMask, Mysten Labs, Lightspark), entre outras. Uma gama tão ampla de participantes é um forte indicador do interesse da indústria e da provável adoção. Muitos desses parceiros expressaram publicamente seu apoio. Por exemplo, o Co-CEO da Adyen destacou a necessidade de um “livro de regras comum” para o comércio agêntico e vê o AP2 como uma extensão natural de sua missão de apoiar os comerciantes com novos blocos de construção de pagamento. O EVP da American Express afirmou que o AP2 é importante para “a próxima geração de pagamentos digitais” onde a confiança e a responsabilidade são primordiais. A equipe da Coinbase, como observado, está animada com a integração de pagamentos cripto no AP2. Esse coro de apoio mostra que muitos na indústria veem o AP2 como o provável padrão para pagamentos impulsionados por IA, e estão ansiosos para moldá-lo para garantir que atenda aos seus requisitos.

Do ponto de vista da adoção, o AP2 está atualmente na fase de especificação e implementação inicial (anunciado em setembro de 2025). A especificação técnica completa, a documentação e algumas implementações de referência (em linguagens como Python) estão disponíveis no GitHub do projeto para os desenvolvedores experimentarem. O Google também indicou que o AP2 será incorporado em seus produtos e serviços para agentes. Um exemplo notável é o AI Agent Marketplace mencionado anteriormente: esta é uma plataforma onde agentes de IA de terceiros podem ser oferecidos aos usuários (provavelmente parte do ecossistema de IA generativa do Google). O Google diz que muitos parceiros que constroem agentes os disponibilizarão no marketplace com “novas experiências transacionáveis habilitadas pelo AP2”. Isso implica que, à medida que o marketplace for lançado ou crescer, o AP2 será a espinha dorsal para qualquer agente que precise realizar uma transação, seja comprando software do Google Cloud Marketplace autonomamente ou um agente comprando bens/serviços para um usuário. Casos de uso empresariais como aquisição autônoma (um agente comprando de outro em nome de uma empresa) e escalonamento automático de licenças foram especificamente mencionados como áreas que o AP2 poderia facilitar em breve.

Em termos de roteiro, a documentação do AP2 e o anúncio do Google fornecem algumas indicações claras:

  • Curto prazo: Continuar o desenvolvimento aberto do protocolo com a contribuição da comunidade. O repositório do GitHub será atualizado com implementações de referência adicionais e melhorias à medida que os testes no mundo real ocorrerem. Podemos esperar o surgimento de bibliotecas/SDKs, tornando mais fácil integrar o AP2 em aplicações de agentes. Além disso, programas piloto iniciais ou provas de conceito podem ser conduzidos pelas empresas parceiras. Dado que muitas grandes empresas de pagamento estão envolvidas, elas podem testar o AP2 em ambientes controlados (por exemplo, uma opção de checkout habilitada para AP2 em uma pequena versão beta para usuários).
  • Padrões e Governança: O Google expressou o compromisso de mover o AP2 para um modelo de governança aberta, possivelmente através de órgãos de padronização. Isso pode significar submeter o AP2 a organizações como a Linux Foundation (como foi feito com o protocolo A2A) ou formar um consórcio para mantê-lo. A Linux Foundation, W3C ou até mesmo órgãos como ISO/TC68 (serviços financeiros) podem estar nos planos para formalizar o AP2. Uma governança aberta tranquilizaria a indústria de que o AP2 não está sob o controle de uma única empresa e permanecerá neutro e inclusivo.
  • Expansão de Recursos: Tecnicamente, o roteiro inclui a expansão do suporte para mais tipos de pagamento e casos de uso. Como observado na especificação, após os cartões, o foco mudará para pagamentos “push” como transferências bancárias e esquemas de pagamento locais em tempo real, e moedas digitais. Isso significa que o AP2 delineará como um Mandato de Intenção/Carrinho/Pagamento funciona para, digamos, uma transferência bancária direta ou uma transferência de carteira cripto, onde o fluxo é um pouco diferente das retiradas de cartão. A extensão A2A x402 é uma dessas expansões para cripto; da mesma forma, podemos ver uma extensão para APIs de open banking ou uma para cenários de faturamento B2B.
  • Aprimoramentos de Segurança e Conformidade: À medida que as transações reais começarem a fluir através do AP2, haverá escrutínio de reguladores e pesquisadores de segurança. O processo aberto provavelmente iterará para tornar os mandatos ainda mais robustos (por exemplo, garantindo que os formatos de mandato sejam padronizados, possivelmente usando o formato W3C Verifiable Credentials, etc.). A integração com soluções de identidade (talvez alavancando biometria para a assinatura de mandatos pelo usuário, ou vinculando mandatos a carteiras de identidade digital) pode fazer parte do roteiro para aumentar a confiança.
  • Ferramentas do Ecossistema: Um ecossistema emergente é provável. Já, startups estão percebendo lacunas – por exemplo, a análise da Vellum.ai menciona uma startup chamada Autumn construindo “infraestrutura de faturamento para IA”, essencialmente ferramentas sobre o Stripe para lidar com preços complexos para serviços de IA. À medida que o AP2 ganhar tração, podemos esperar mais ferramentas como gateways de pagamento focados em agentes, painéis de gerenciamento de mandatos, serviços de verificação de identidade de agentes, etc., aparecerem. O envolvimento do Google significa que o AP2 também pode ser integrado em seus produtos Cloud – imagine o suporte AP2 em ferramentas Dialogflow ou Vertex AI Agents, tornando-o um clique para permitir que um agente lide com transações (com todas as chaves e certificados necessários gerenciados no Google Cloud).

No geral, a trajetória do AP2 lembra outros grandes padrões da indústria: um lançamento inicial com um forte patrocinador (Google), ampla coalizão da indústria, código de referência de código aberto, seguido por melhorias iterativas e adoção gradual em produtos reais. O fato de o AP2 convidar todos os players “a construir este futuro conosco” ressalta que o roteiro é sobre colaboração. Se o impulso continuar, o AP2 poderá se tornar tão comum em alguns anos quanto protocolos como OAuth ou OpenID Connect são hoje em seus domínios – uma camada invisível, mas crítica, que permite a funcionalidade entre serviços.

Conclusão

O AP2 (Protocolo de Pagamentos por Agente) representa um passo significativo em direção a um futuro onde agentes de IA podem transacionar de forma tão confiável e segura quanto os humanos. Tecnicamente, ele introduz um mecanismo inteligente de mandatos e credenciais verificáveis que instilam confiança em transações lideradas por agentes, garantindo que a intenção do usuário seja explícita e aplicável. Sua arquitetura aberta e extensível permite que ele se integre tanto aos crescentes frameworks de agentes de IA quanto à infraestrutura financeira estabelecida. Ao abordar as principais preocupações de autorização, autenticidade e responsabilidade, o AP2 estabelece as bases para que o comércio impulsionado por IA floresça sem sacrificar a segurança ou o controle do usuário.

A introdução do AP2 pode ser vista como o estabelecimento de uma nova fundação – muito parecido com os primeiros protocolos da internet que habilitaram a web – para o que alguns chamam de “economia de agentes”. Ele abre caminho para inúmeras inovações: agentes de compras pessoais, bots de busca automática de ofertas, agentes autônomos de cadeia de suprimentos e muito mais, todos operando sob uma estrutura de confiança comum. Importante, o design inclusivo do AP2 (abrangendo tudo, desde cartões de crédito até cripto) o posiciona na interseção das finanças tradicionais e da Web3, potencialmente unindo esses mundos através de um protocolo comum mediado por agentes.

A resposta da indústria até agora tem sido muito positiva, com uma ampla coalizão sinalizando que o AP2 provavelmente se tornará um padrão amplamente adotado. O sucesso do AP2 dependerá da colaboração contínua e de testes no mundo real, mas suas perspectivas são fortes dada a clara necessidade que ele aborda. Em um sentido mais amplo, o AP2 exemplifica como a tecnologia evolui: uma nova capacidade (agentes de IA) surgiu que quebrou velhas suposições, e a solução foi desenvolver um novo padrão aberto para acomodar essa capacidade. Ao investir em um protocolo aberto e com segurança em primeiro lugar agora, o Google e seus parceiros estão efetivamente construindo a arquitetura de confiança necessária para a próxima era do comércio. Como diz o ditado, “a melhor maneira de prever o futuro é construí-lo” – o AP2 é uma aposta em um futuro onde agentes de IA lidam perfeitamente com transações para nós, e está ativamente construindo a confiança e as regras necessárias para tornar esse futuro viável.

Fontes:

  • Blog do Google Cloud – “Impulsionando o comércio de IA com o novo Protocolo de Pagamentos por Agente (AP2)” (16 de setembro de 2025)
  • Documentação do AP2 no GitHub – “Especificação e Visão Geral do Protocolo de Pagamentos por Agente”
  • Blog da Vellum AI – “AP2 do Google: Um novo protocolo para pagamentos de agentes de IA” (Análise)
  • Artigo do Medium – “Protocolo de Pagamentos por Agente (AP2) do Google” (Resumo por Tahir, setembro de 2025)
  • Citações de Parceiros sobre o AP2 (Blog do Google Cloud)
  • Extensão A2A x402 (extensão de pagamentos cripto do AP2) – README do GitHub

O Fim de Jogo da Cripto: Perspectivas de Visionários da Indústria

· Leitura de 14 minutos
Dora Noda
Software Engineer

Visões de Mert Mumtaz (Helius), Udi Wertheimer (Taproot Wizards), Jordi Alexander (Selini Capital) e Alexander Good (Post Fiat)

Visão Geral

A Token2049 sediou um painel chamado “O Fim de Jogo da Cripto” com a participação de Mert Mumtaz (CEO da Helius), Udi Wertheimer (Taproot Wizards), Jordi Alexander (Fundador da Selini Capital) e Alexander Good (criador da Post Fiat). Embora não haja uma transcrição publicamente disponível do painel, cada orador expressou visões distintas para a trajetória de longo prazo da indústria cripto. Este relatório sintetiza suas declarações e escritos públicos — abrangendo posts de blog, artigos, entrevistas de notícias e whitepapers — para explorar como cada pessoa vislumbra o “fim de jogo” para a cripto.

Mert Mumtaz – Cripto como “Capitalismo 2.0”

Visão central

Mert Mumtaz rejeita a ideia de que as criptomoedas simplesmente representam a “Web 3.0”. Em vez disso, ele argumenta que o fim de jogo para a cripto é atualizar o próprio capitalismo. Em sua visão:

  • A cripto sobrecarrega os ingredientes do capitalismo: Mumtaz observa que o capitalismo depende do fluxo livre de informações, direitos de propriedade seguros, incentivos alinhados, transparência e fluxos de capital sem atrito. Ele argumenta que redes descentralizadas, blockchains públicas e tokenização tornam essas características mais eficientes, transformando a cripto em “Capitalismo 2.0”.
  • Mercados sempre ativos e ativos tokenizados: Ele aponta para propostas regulatórias para mercados financeiros 24 horas por dia, 7 dias por semana e a tokenização de ações, títulos e outros ativos do mundo real. Permitir que os mercados funcionem continuamente e liquidem via trilhos de blockchain modernizará o sistema financeiro tradicional. A tokenização cria liquidez sempre ativa e negociação sem atrito de ativos que anteriormente exigiam câmaras de compensação e intermediários.
  • Descentralização e transparência: Ao usar registros abertos, a cripto remove parte do controle de acesso e das assimetrias de informação encontradas nas finanças tradicionais. Mumtaz vê isso como uma oportunidade para democratizar as finanças, alinhar incentivos e reduzir intermediários.

Implicações

A tese de “Capitalismo 2.0” de Mumtaz sugere que o fim de jogo da indústria não se limita a colecionáveis digitais ou “aplicativos Web3”. Em vez disso, ele vislumbra um futuro onde reguladores de estados-nação abraçam mercados 24 horas por dia, 7 dias por semana, tokenização de ativos e transparência. Nesse mundo, a infraestrutura blockchain se torna um componente central da economia global, misturando cripto com finanças regulamentadas. Ele também alerta que a transição enfrentará desafios — como ataques Sybil, concentração de governança e incerteza regulatória — mas acredita que esses obstáculos podem ser abordados por meio de um melhor design de protocolo e colaboração com os reguladores.

Udi Wertheimer – Bitcoin como uma “rotação geracional” e o acerto de contas das altcoins

Rotação geracional e a tese do Bitcoin “aposente sua linhagem”

Udi Wertheimer, cofundador da Taproot Wizards, é conhecido por defender provocativamente o Bitcoin e zombar das altcoins. Em meados de 2025, ele publicou uma tese viral chamada “Esta Tese de Bitcoin Aposentará Sua Linhagem.” De acordo com seu argumento:

  • Rotação geracional: Wertheimer argumenta que as primeiras “baleias” de Bitcoin que acumularam a preços baixos venderam ou transferiram a maior parte de suas moedas. Compradores institucionais — ETFs, tesourarias e fundos soberanos — os substituíram. Ele chama esse processo de “rotação de propriedade em grande escala”, semelhante ao rali do Dogecoin de 2019-21, onde uma mudança de baleias para demanda de varejo impulsionou retornos explosivos.
  • Demanda insensível ao preço: As instituições alocam capital sem se importar com o preço unitário. Usando o ETF IBIT da BlackRock como exemplo, ele observa que novos investidores veem um aumento de US$ 40 como trivial e estão dispostos a comprar a qualquer preço. Esse choque de oferta combinado com float limitado significa que o Bitcoin pode acelerar muito além das expectativas de consenso.
  • Meta de US400mil+ecolapsodasaltcoins:EleprojetaqueoBitcoinpodeexcederUS 400 mil+ e colapso das altcoins:** Ele projeta que o Bitcoin pode exceder **US 400.000 por BTC até o final de 2025 e alerta que as altcoins terão um desempenho inferior ou até mesmo entrarão em colapso, com o Ethereum sendo apontado como o “maior perdedor”. Segundo Wertheimer, uma vez que o FOMO institucional se instalar, as altcoins serão “eliminadas” e o Bitcoin absorverá a maior parte do capital.

Implicações

A tese de fim de jogo de Wertheimer retrata o Bitcoin como entrando em sua fase parabólica final. A “rotação geracional” significa que a oferta está se movendo para mãos fortes (ETFs e tesourarias) enquanto o interesse do varejo está apenas começando. Se correto, isso criaria um choque de oferta severo, empurrando o preço do BTC muito além das avaliações atuais. Enquanto isso, ele acredita que as altcoins oferecem desvantagem assimétrica porque carecem de suporte de lances institucionais e enfrentam escrutínio regulatório. Sua mensagem aos investidores é clara: acumule Bitcoin agora antes que Wall Street compre tudo.

Jordi Alexander – Pragmatismo macro, IA e cripto como revoluções gêmeas

Investir em IA e cripto – duas indústrias chave

Jordi Alexander, fundador da Selini Capital e um conhecido teórico de jogos, argumenta que IA e blockchain são as duas indústrias mais importantes deste século. Em uma entrevista resumida pela Bitget, ele faz vários pontos:

  • As revoluções gêmeas: Alexander acredita que as únicas maneiras de alcançar um crescimento real da riqueza são investir em inovação tecnológica (particularmente IA) ou participar cedo em mercados emergentes como a criptomoeda. Ele observa que o desenvolvimento da IA e a infraestrutura cripto serão os módulos fundamentais para a inteligência e coordenação neste século.
  • Fim do ciclo de quatro anos: Ele afirma que o ciclo cripto tradicional de quatro anos impulsionado pelos halvings do Bitcoin acabou; em vez disso, o mercado agora experimenta “miniconjuntos” impulsionados pela liquidez. Futuros movimentos de alta ocorrerão quando o “capital real” entrar totalmente no espaço. Ele encoraja os traders a verem as ineficiências como oportunidade e a desenvolverem habilidades técnicas e psicológicas para prosperar neste ambiente.
  • Assunção de riscos e desenvolvimento de habilidades: Alexander aconselha os investidores a manter a maioria dos fundos em ativos seguros, mas alocar uma pequena porção para assumir riscos. Ele enfatiza a construção de julgamento e a permanência adaptável, pois “não existe aposentadoria” em um campo em rápida evolução.

Crítica às estratégias centralizadas e visões macro

  • O jogo de soma zero da MicroStrategy: Em uma nota rápida, ele adverte que a estratégia da MicroStrategy de comprar BTC pode ser um jogo de soma zero. Embora os participantes possam sentir que estão ganhando, a dinâmica pode esconder riscos e levar à volatilidade. Isso ressalta sua crença de que os mercados cripto são frequentemente impulsionados por dinâmicas de soma negativa ou soma zero, então os traders devem entender as motivações dos grandes players.
  • Fim de jogo da política monetária dos EUA: A análise de Alexander da política macro dos EUA destaca que o controle do Federal Reserve sobre o mercado de títulos pode estar diminuindo. Ele observa que os títulos de longo prazo caíram acentuadamente desde 2020 e acredita que o Fed pode em breve voltar ao quantitative easing. Ele alerta que tais mudanças de política podem causar movimentos de mercado “gradualmente no início… depois tudo de uma vez” e chama isso de um catalisador chave para Bitcoin e cripto.

Implicações

A visão de fim de jogo de Jordi Alexander é matizada e macro-orientada. Em vez de prever um único preço-alvo, ele destaca mudanças estruturais: a mudança para ciclos impulsionados pela liquidez, a importância da coordenação impulsionada pela IA e a interação entre a política governamental e os mercados cripto. Ele encoraja os investidores a desenvolverem compreensão profunda e adaptabilidade em vez de seguir narrativas cegamente.

Alexander Good – Web 4, agentes de IA e a L1 Post Fiat

O fracasso da Web 3 e a ascensão dos agentes de IA

Alexander Good (também conhecido por seu pseudônimo “goodalexander”) argumenta que a Web 3 falhou em grande parte porque os usuários se preocupam mais com a conveniência e a negociação do que com a posse de seus dados. Em seu ensaio “Web 4”, ele observa que a adoção de aplicativos de consumo depende de uma UX perfeita; exigir que os usuários façam bridge de ativos ou gerenciem carteiras mata o crescimento. No entanto, ele vê uma ameaça existencial emergindo: agentes de IA que podem gerar vídeo realista, controlar computadores via protocolos (como o framework “Computer Control” da Anthropic) e se conectar a grandes plataformas como Instagram ou YouTube. Como os modelos de IA estão melhorando rapidamente e o custo de geração de conteúdo está caindo, ele prevê que os agentes de IA criarão a maioria do conteúdo online.

Web 4: Agentes de IA negociando na blockchain

Good propõe a Web 4 como uma solução. Suas ideias chave são:

  • Sistema econômico com agentes de IA: A Web 4 vislumbra agentes de IA representando usuários como “agentes de Hollywood” negociando em seu nome. Esses agentes usarão blockchains para compartilhamento de dados, resolução de disputas e governança. Os usuários fornecem conteúdo ou expertise aos agentes, e os agentes extraem valor — muitas vezes interagindo com outros agentes de IA em todo o mundo — e então distribuem pagamentos de volta ao usuário em cripto.
  • Agentes de IA lidam com a complexidade: Good argumenta que os humanos não começarão de repente a fazer bridge de ativos para blockchains, então os agentes de IA devem lidar com essas interações. Os usuários simplesmente conversarão com chatbots (via Telegram, Discord, etc.), e os agentes de IA gerenciarão carteiras, acordos de licenciamento e trocas de tokens nos bastidores. Ele prevê um futuro próximo onde haverá inúmeros protocolos, tokens e configurações de computador para computador que serão ininteligíveis para humanos, tornando a assistência de IA essencial.
  • Tendências inevitáveis: Good lista várias tendências que apoiam a Web 4: as crises fiscais dos governos incentivam alternativas; os agentes de IA canibalizarão os lucros de conteúdo; as pessoas estão ficando “mais burras” ao depender de máquinas; e as maiores empresas apostam em conteúdo gerado pelo usuário. Ele conclui que é inevitável que os usuários conversem com sistemas de IA, esses sistemas negociem em seu nome, e os usuários recebam pagamentos cripto enquanto interagem principalmente por meio de aplicativos de chat.

Mapeando o ecossistema e introduzindo a Post Fiat

Good categoriza os projetos existentes em infraestrutura Web 4 ou plays de composabilidade. Ele observa que protocolos como Story, que criam governança on-chain para reivindicações de IP, se tornarão marketplaces de dois lados entre agentes de IA. Enquanto isso, Akash e Render vendem serviços de computação e poderiam se adaptar para licenciar para agentes de IA. Ele argumenta que exchanges como a Hyperliquid se beneficiarão porque trocas de tokens infinitas serão necessárias para tornar esses sistemas amigáveis ao usuário.

Seu próprio projeto, Post Fiat, está posicionado como um “criador de reis na Web 4.” A Post Fiat é uma blockchain Layer-1 construída na tecnologia central do XRP, mas com descentralização e tokenomics aprimoradas. As principais características incluem:

  • Seleção de validadores impulsionada por IA: Em vez de confiar em staking operado por humanos, a Post Fiat usa grandes modelos de linguagem (LLMs) para pontuar validadores em credibilidade e qualidade de transação. A rede distribui 55% dos tokens para validadores através de um processo gerenciado por um agente de IA, com o objetivo de “objetividade, justiça e sem envolvimento humano”. O ciclo mensal do sistema — publicar, pontuar, enviar, verificar e selecionar e recompensar — garante seleção transparente.
  • Foco em investimentos e redes de especialistas: Ao contrário do foco transacional-bancário do XRP, a Post Fiat visa os mercados financeiros, usando blockchains para conformidade, indexação e operação de uma rede de especialistas composta por membros da comunidade e agentes de IA. A AGTI (braço de desenvolvimento da Post Fiat) vende produtos para instituições financeiras e pode lançar um ETF, com as receitas financiando o desenvolvimento da rede.
  • Novos casos de uso: O projeto visa perturbar a indústria de indexação criando ETFs descentralizados, fornecer memorandos criptografados compatíveis e suportar redes de especialistas onde os membros ganham tokens por insights. O whitepaper detalha medidas técnicas — como impressão digital estatística e criptografia — para prevenir ataques Sybil e manipulação.

Web 4 como mecanismo de sobrevivência

Good conclui que a Web 4 é um mecanismo de sobrevivência, não apenas uma ideologia legal. Ele argumenta que uma “bomba de complexidade” está chegando em seis meses à medida que os agentes de IA proliferam. Os usuários terão que ceder parte do potencial de valorização aos sistemas de IA porque participar de economias agenticas será a única maneira de prosperar. Em sua visão, o sonho da Web 3 de propriedade descentralizada e privacidade do usuário é insuficiente; a Web 4 combinará agentes de IA, incentivos cripto e governança para navegar em uma economia cada vez mais automatizada.

Análise comparativa

Temas convergentes

  1. Mudanças institucionais e tecnológicas impulsionam o fim de jogo.
    • Mumtaz prevê que os reguladores permitirão mercados 24 horas por dia, 7 dias por semana e tokenização, o que tornará a cripto mainstream.
    • Wertheimer destaca a adoção institucional via ETFs como o catalisador para a fase parabólica do Bitcoin.
    • Alexander observa que o próximo boom da cripto será impulsionado pela liquidez, em vez de impulsionado por ciclos, e que as políticas macro (como a mudança do Fed) fornecerão ventos favoráveis poderosos.
  2. A IA se torna central.
    • Alexander enfatiza o investimento em IA ao lado da cripto como pilares gêmeos da riqueza futura.
    • Good constrói a Web 4 em torno de agentes de IA que transacionam em blockchains, gerenciam conteúdo e negociam acordos.
    • A seleção e governança de validadores da Post Fiat dependem de LLMs para garantir a objetividade. Juntas, essas visões implicam que o fim de jogo para a cripto envolverá sinergia entre IA e blockchain, onde a IA lida com a complexidade e as blockchains fornecem liquidação transparente.
  3. Necessidade de melhor governança e justiça.
    • Mumtaz alerta que a centralização da governança continua sendo um desafio.
    • Alexander incentiva a compreensão dos incentivos da teoria dos jogos, apontando que estratégias como a da MicroStrategy podem ser de soma zero.
    • Good propõe a pontuação de validadores impulsionada por IA para remover vieses humanos e criar distribuição justa de tokens, abordando questões de governança em redes existentes como o XRP.

Visões divergentes

  1. Papel das altcoins. Wertheimer vê as altcoins como condenadas e acredita que o Bitcoin capturará a maior parte do capital. Mumtaz se concentra no mercado cripto geral, incluindo ativos tokenizados e DeFi, enquanto Alexander investe em várias cadeias e acredita que as ineficiências criam oportunidades. Good está construindo uma alt-L1 (Post Fiat) especializada para finanças de IA, implicando que ele vê espaço para redes especializadas.
  2. Agência humana vs agência de IA. Mumtaz e Alexander enfatizam investidores e reguladores humanos, enquanto Good vislumbra um futuro onde agentes de IA se tornam os principais atores econômicos e os humanos interagem por meio de chatbots. Essa mudança implica experiências de usuário fundamentalmente diferentes e levanta questões sobre autonomia, justiça e controle.
  3. Otimismo vs cautela. A tese de Wertheimer é agressivamente otimista em relação ao Bitcoin, com pouca preocupação com a desvantagem. Mumtaz é otimista sobre a cripto melhorando o capitalismo, mas reconhece desafios regulatórios e de governança. Alexander é cauteloso — destacando ineficiências, dinâmicas de soma zero e a necessidade de desenvolvimento de habilidades — enquanto ainda acredita na promessa de longo prazo da cripto. Good alerta sobre a bomba de complexidade da Web 4, instando à preparação em vez de otimismo cego.

Conclusão

O painel “Fim de Jogo da Cripto” da Token2049 reuniu pensadores com perspectivas muito diferentes. Mert Mumtaz vê a cripto como uma atualização do capitalismo, enfatizando a descentralização, a transparência e os mercados 24 horas por dia, 7 dias por semana. Udi Wertheimer vê o Bitcoin entrando em um rali geracional com choque de oferta que deixará as altcoins para trás. Jordi Alexander adota uma postura mais macro-pragmática, instando ao investimento em IA e cripto, enquanto compreende os ciclos de liquidez e as dinâmicas da teoria dos jogos. Alexander Good vislumbra uma era Web 4 onde agentes de IA negociam em blockchains e a Post Fiat se torna a infraestrutura para finanças impulsionadas por IA.

Embora suas visões difiram, um tema comum é a evolução da coordenação econômica. Seja por meio de ativos tokenizados, rotação institucional, governança impulsionada por IA ou agentes autônomos, cada orador acredita que a cripto remodelará fundamentalmente como o valor é criado e trocado. O fim de jogo parece, portanto, menos um ponto final e mais uma transição para um novo sistema onde capital, computação e coordenação convergem.

BASS 2025: Traçando o Futuro das Aplicações de Blockchain, do Espaço à Wall Street

· Leitura de 9 minutos
Dora Noda
Software Engineer

O Blockchain Application Stanford Summit (BASS) iniciou a semana da Science of Blockchain Conference (SBC), reunindo inovadores, pesquisadores e construtores para explorar o que há de mais avançado no ecossistema. Os organizadores Gil, Kung e Stephen receberam os participantes, destacando o foco do evento em empreendedorismo e aplicações reais, um espírito nascido da estreita colaboração com a SBC. Com apoio de organizações como Blockchain Builders e o Alumni de Criptografia e Blockchain de Stanford, o dia foi repleto de imersões em blockchains celestiais, o futuro da Ethereum, DeFi institucional e a crescente interseção entre IA e cripto.

Dalia Maliki: Construindo uma Raiz Orbital de Confiança com Space Computer

Dalia Maliki, professora da UC Santa Barbara e conselheira da Space Computer, começou com uma visão de uma aplicação verdadeiramente fora deste mundo: construir uma plataforma de computação segura em órbita.

O que é Space Computer? Em poucas palavras, Space Computer é uma “raiz orbital de confiança”, oferecendo uma plataforma para executar cálculos seguros e confidenciais em satélites. O valor central está nas garantias de segurança únicas do espaço. “Uma vez que uma caixa é lançada de forma segura e implantada no espaço, ninguém pode chegar depois e hackeá‑la”, explicou Maliki. “É puramente, perfeitamente à prova de violação neste ponto.” Esse ambiente a torna à prova de vazamentos, garante que as comunicações não sejam facilmente bloqueadas e fornece geolocalização verificável, oferecendo poderosas propriedades de descentralização.

Arquitetura e Casos de Uso O sistema foi projetado com uma arquitetura de duas camadas:

  • Camada 1 (Celestial): A raiz autoritária de confiança roda em uma rede de satélites em órbita, otimizada para comunicação limitada e intermitente.
  • Camada 2 (Terrestre): Soluções de escalabilidade padrão, como rollups e state channels, rodam na Terra, ancorando na Camada 1 celestial para finalização e segurança.

Os primeiros casos de uso incluem execução de validadores de blockchain altamente seguros e um gerador verdadeiro de números aleatórios que captura radiação cósmica. Contudo, Maliki enfatizou o potencial da plataforma para inovações inesperadas. “A coisa mais legal de construir uma plataforma é que você cria a base e outras pessoas vêm construir casos de uso que você nunca imaginou.”

Traçando um paralelo ao ambicioso Projeto Corona dos anos 1950, que literalmente deixava baldes de filme cair de satélites espiões para serem capturados no ar por aeronaves, Maliki incentivou a plateia a pensar grande. “Em comparação, o que trabalhamos hoje com computação espacial é um luxo, e estamos muito empolgados com o futuro.”

Tomasz Stanczak: O Roteiro da Ethereum – Escalabilidade, Privacidade e IA

Tomasz Stanczak, Diretor Executivo da Ethereum Foundation, apresentou uma visão abrangente do roteiro evolutivo da Ethereum, fortemente focado em escalabilidade, aprimoramento da privacidade e integração com o mundo da IA.

Foco de Curto Prazo: Suporte a L2s A prioridade imediata da Ethereum é consolidar seu papel como a melhor plataforma para que as Layer 2s sejam construídas. Forks futuros, Fusaka e Glumpsterdom, giram em torno desse objetivo. “Queremos fazer declarações muito mais fortes de que sim, as L2s inovam, elas estendem a Ethereum e terão um compromisso dos construtores de protocolo de que a Layer 1 apoiará as L2s da melhor forma possível”, afirmou Stanczak.

Visão de Longo Prazo: Lean Ethereum e Provas em Tempo Real Olhando mais adiante, a visão “Lean Ethereum” almeja escalabilidade massiva e reforço de segurança. Um componente chave é o roteiro do ZK‑EVM, que visa provas em tempo real com latências abaixo de 10 segundos para 99 % dos blocos, alcançáveis por stakers solo. Isso, combinado com melhorias de disponibilidade de dados, poderia levar as L2s a um “10 milhões de TPS” teórico. O plano de longo prazo também inclui foco em criptografia pós‑quântica por meio de assinaturas baseadas em hash e ZK‑EVMs.

Privacidade e a Interseção com IA Privacidade é outro pilar crítico. A Ethereum Foundation criou a equipe Privacy and Scaling Explorations (PSC) para coordenar esforços, apoiar ferramentas e explorar integrações de privacidade ao nível de protocolo. Stanczak vê isso como essencial para a interação da Ethereum com IA, possibilitando casos de uso como mercados financeiros resistentes à censura, IA que preserva privacidade e sistemas agentes de código aberto. Ele enfatizou que a cultura da Ethereum de conectar múltiplas disciplinas — de finanças e arte a robótica e IA — é fundamental para navegar os desafios e oportunidades da próxima década.

Sreeram Kannan: O Framework de Confiança para Apps Cripto Ambiciosos com EigenCloud

Sreeram Kannan, fundador da Eigen Labs, desafiou a plateia a pensar além do escopo atual das aplicações cripto, apresentando um framework para entender o valor central do cripto e introduzindo o EigenCloud como plataforma para materializar essa visão.

Tese Central do Cripto: Uma Camada de Verificabilidade “Por trás de tudo isso há uma tese central de que o cripto é a camada de confiança ou verificabilidade sobre a qual você pode construir aplicações muito poderosas”, explicou Kannan. Ele apresentou um framework “TAM vs. Trust”, ilustrando que o mercado endereçável total (TAM) de uma aplicação cripto cresce exponencialmente à medida que a confiança que ela oferece aumenta. O mercado do Bitcoin cresce à medida que ele se torna mais confiável que moedas fiduciárias; o mercado de uma plataforma de empréstimos cresce à medida que sua garantia de solvência do tomador se torna mais credível.

EigenCloud: Liberando a Programabilidade Kannan argumentou que o gargalo principal para construir apps mais ambiciosos — como um Uber descentralizado ou plataformas de IA confiáveis — não é desempenho, mas programabilidade. Para resolver isso, o EigenCloud introduz uma nova arquitetura que separa a lógica da aplicação da lógica do token.

“Vamos manter a lógica do token on‑chain na Ethereum”, propôs, “mas a lógica da aplicação é movida para fora. Você pode agora escrever sua lógica central em contêineres arbitrários… executá‑los em qualquer dispositivo de sua escolha, seja CPU ou GPU… e então trazer esses resultados de volta on‑chain de forma verificável.”

Essa abordagem, segundo ele, expande o cripto de “escala de laptop ou servidor para escala de nuvem”, permitindo que desenvolvedores criem as aplicações verdadeiramente disruptivas que foram imaginadas nos primeiros dias do cripto.

Painel: Um Mergulho Profundo na Arquitetura de Blockchain

Um painel com Leiyang da MegaETH, Adi da Realo e Solomon da Solana Foundation explorou as compensações entre arquiteturas monolíticas, modulares e “super modulares”.

  • MegaETH (L2 Modular): Leiyang descreveu a abordagem da MegaETH de usar um sequenciador centralizado para velocidade extrema enquanto delega a segurança à Ethereum. Esse design visa entregar uma experiência em tempo real ao nível do Web2 para aplicações, revivendo as ambiciosas ideias da era ICO que antes eram limitadas por desempenho.
  • Solana (L1 Monolítica): Solomon explicou que a arquitetura da Solana, com seus altos requisitos de nós, foi deliberadamente projetada para máxima taxa de transferência a fim de apoiar sua visão de colocar toda a atividade financeira global on‑chain. O foco atual está em emissão de ativos e pagamentos. Sobre interoperabilidade, Solomon foi franco: “De modo geral, não nos importamos muito com interoperabilidade… É sobre colocar o máximo de liquidez e uso de ativos on‑chain possível.”
  • Realo (L1 “Super Modular”): Adi apresentou o conceito “super modular” da Realo, que consolida serviços essenciais como oráculos diretamente na camada base para reduzir atritos para desenvolvedores. Esse design visa conectar nativamente a blockchain ao mundo real, com foco de go‑to‑market em RWAs e tornar a blockchain invisível para os usuários finais.

Painel: A Interseção Real entre IA e Blockchain

Moderado por Ed Roman da HackVC, este painel mostrou três abordagens distintas para fundir IA e cripto.

  • Ping AI (Bill): Ping AI está construindo uma “IA pessoal” onde os usuários mantêm a autocustódia de seus dados. A visão é substituir o modelo tradicional de ad‑exchange. Em vez de empresas monetizarem os dados dos usuários, o sistema da Ping AI recompensará diretamente os usuários quando seus dados gerarem uma conversão, permitindo que capturem o valor econômico de sua pegada digital.
  • Public AI (Jordan): Descrita como a “camada humana da IA”, Public AI é um marketplace para obtenção de dados de alta qualidade, sob demanda, que não podem ser raspados ou gerados sinteticamente. Usa um sistema de reputação on‑chain e mecanismos de staking para garantir que os contribuidores forneçam sinal, não ruído, recompensando‑os por seu trabalho na construção de modelos de IA melhores.
  • Gradient (Eric): Gradient está criando um runtime descentralizado para IA, permitindo inferência e treinamento distribuídos em uma rede de hardware de consumo subutilizado. O objetivo é oferecer um contrapeso ao poder centralizador das grandes empresas de IA, permitindo que uma comunidade global treine e sirva modelos colaborativamente, mantendo a “soberania inteligente”.

Mais Destaques da Cúpula

  • Orin Katz (Starkware) apresentou blocos de construção para “privacidade on‑chain compatível”, detalhando como provas ZK podem ser usadas para criar pools de privacidade e tokens privados (ZRC20s) que incluem mecanismos como “chaves de visualização” para supervisão regulatória.
  • Sam Green (Cambrian) deu uma visão geral do panorama “Finanças Agentes”, categorizando agentes cripto em trading, provisionamento de liquidez, empréstimos, previsão e informação, e destacou a necessidade de dados rápidos, abrangentes e verificáveis para alimentá‑los.
  • Max Siegel (Privy) compartilhou lições de onboarding de mais de 75 milhões de usuários, enfatizando a necessidade de encontrar os usuários onde eles estão, simplificar experiências de produto e deixar as necessidades de produto guiarem as escolhas de infraestrutura, não o contrário.
  • Nil Dalal (Coinbase) introduziu o “Onchain Agentic Commerce Stack” e o padrão aberto X42, um protocolo nativo cripto projetado para criar uma “web pagável por máquinas” onde agentes de IA podem transacionar suavemente usando stablecoins para dados, APIs e serviços.
  • Gordon Liao & Austin Adams (Circle) revelaram Circle Gateway, um novo primitivo para criar um saldo USDC unificado que é abstraído por cadeia. Isso permite implantação quase instantânea (< 500 ms) de liquidez em múltiplas cadeias, melhorando drasticamente a eficiência de capital para empresas e solucionadores.

O dia terminou com uma mensagem clara: as camadas fundamentais do cripto estão amadurecendo, e o foco está mudando decisivamente para a construção de aplicações robustas, amigáveis ao usuário e economicamente sustentáveis que possam fechar a lacuna entre o mundo on‑chain e a economia global.

A Ascensão do Capital Autônomo

· Leitura de 56 minutos
Dora Noda
Software Engineer

Agentes impulsionados por IA controlando suas próprias carteiras de criptomoeda já estão gerenciando bilhões em ativos, tomando decisões financeiras independentes e remodelando como o capital flui através de sistemas descentralizados. Essa convergência de inteligência artificial e tecnologia blockchain — o que os principais pensadores chamam de "capital autônomo" — representa uma transformação fundamental na organização econômica, onde softwares inteligentes podem operar como atores econômicos autônomos sem intermediação humana. O mercado de IA DeFi (DeFAI) atingiu US1bilha~onoinıˊciode2025,enquantoomercadomaisamplodeagentesdeIAatingiuopicodeUS 1 bilhão no início de 2025, enquanto o mercado mais amplo de agentes de IA atingiu o pico de US 17 bilhões, demonstrando rápida adoção comercial apesar de desafios técnicos, regulatórios e filosóficos significativos. Cinco líderes de pensamento — Tarun Chitra (Gauntlet), Amjad Masad (Replit), Jordi Alexander (Selini Capital), Alexander Pack (Hack VC) e Irene Wu (Bain Capital Crypto) — estão sendo pioneiros em diferentes abordagens para este espaço, desde gerenciamento automatizado de riscos e infraestrutura de desenvolvimento até estruturas de investimento e interoperabilidade entre cadeias. O trabalho deles está criando a base para um futuro onde os agentes de IA podem superar os humanos como principais usuários de blockchain, gerenciando portfólios autonomamente e coordenando em redes descentralizadas — embora essa visão enfrente questões críticas sobre responsabilidade, segurança e se a infraestrutura sem confiança pode suportar a tomada de decisões confiáveis por IA.

O que significa capital autônomo e por que ele importa agora

Capital autônomo refere-se a capital (ativos financeiros, recursos, poder de tomada de decisão) controlado e implantado por agentes de IA autônomos operando em infraestrutura blockchain. Diferente do trading algorítmico tradicional ou sistemas automatizados que exigem supervisão humana, esses agentes possuem suas próprias carteiras de criptomoeda com chaves privadas, tomam decisões estratégicas independentes e participam de protocolos de finanças descentralizadas sem intervenção humana contínua. A tecnologia converge três inovações críticas: as capacidades de tomada de decisão da IA, o dinheiro programável e a execução sem confiança da cripto, e a capacidade dos contratos inteligentes de fazer cumprir acordos sem intermediários.

A tecnologia já chegou. Em outubro de 2025, mais de 17.000 agentes de IA operam apenas no Virtuals Protocol, com agentes notáveis como o AIXBT comandando avaliações de US500milho~eseoTruthTerminalgerandoamemecoin500 milhões e o Truth Terminal gerando a memecoinGOAT que brevemente atingiu US$ 1 bilhão. A plataforma de gerenciamento de riscos da Gauntlet analisa mais de 400 milhões de pontos de dados diariamente em protocolos DeFi gerenciando bilhões em valor total bloqueado. O Agent 3 da Replit permite mais de 200 minutos de desenvolvimento autônomo de software, enquanto os portfólios gerenciados por IA da SingularityDAO entregaram 25% de ROI em dois meses através de estratégias adaptativas de market-making.

Por que isso importa: As finanças tradicionais excluem sistemas de IA, independentemente da sofisticação — os bancos exigem identidade humana e verificações KYC. As carteiras de criptomoeda, por outro lado, são geradas através de pares de chaves criptográficas acessíveis a qualquer agente de software. Isso cria a primeira infraestrutura financeira onde a IA pode operar como atores econômicos independentes, abrindo possibilidades para economias máquina a máquina, gerenciamento autônomo de tesouraria e alocação de capital coordenada por IA em escalas e velocidades impossíveis para humanos. No entanto, também levanta questões profundas sobre quem é responsável quando agentes autônomos causam danos, se a governança descentralizada pode gerenciar os riscos da IA e se a tecnologia concentrará ou democratizará o poder econômico.

Os líderes de pensamento que moldam o capital autônomo

Tarun Chitra: Da simulação à governança automatizada

Tarun Chitra, CEO e cofundador da Gauntlet (avaliada em US$ 1 bilhão), foi pioneiro na aplicação de simulação baseada em agentes de trading algorítmico e veículos autônomos para protocolos DeFi. Sua visão de "governança automatizada" usa simulações impulsionadas por IA para permitir que os protocolos tomem decisões cientificamente, em vez de apenas por votação subjetiva. Em seu artigo marcante de 2020, "Automated Governance: DeFi's Scientific Evolution", Chitra articulou como a simulação adversária contínua poderia criar "um ecossistema DeFi mais seguro e eficiente, resiliente a ataques e que recompensa os participantes honestos de forma justa".

A implementação técnica da Gauntlet prova o conceito em escala. A plataforma executa milhares de simulações diariamente contra o código real de contratos inteligentes, modela agentes que maximizam o lucro interagindo dentro das regras do protocolo e fornece recomendações de parâmetros baseadas em dados para mais de US$ 1 bilhão em ativos de protocolo. Sua estrutura envolve a codificação de regras de protocolo, a definição de recompensas para agentes, a simulação de interações de agentes e a otimização de parâmetros para equilibrar a saúde macroscópica do protocolo com os incentivos microscópicos do usuário. Essa metodologia influenciou os principais protocolos DeFi, incluindo Aave (engajamento de 4 anos), Compound, Uniswap e Morpho, com a Gauntlet publicando 27 artigos de pesquisa sobre formadores de mercado de função constante, análise de MEV, mecanismos de liquidação e economia de protocolo.

A fundação do protocolo Aera por Chitra em 2023 avançou o gerenciamento autônomo de tesouraria, permitindo que as DAOs respondessem rapidamente às mudanças do mercado através de "gerenciamento de portfólio de investimento crowdsourced". Seu foco recente em agentes de IA reflete previsões de que eles "dominarão a atividade financeira on-chain" e que "a IA mudará o curso da história em cripto" até 2025. Desde aparições na Token2049 em Londres (2021), Singapura (2024, 2025) e hospedagem regular de podcasts no The Chopping Block, Chitra enfatiza consistentemente a transição da governança humana subjetiva para a tomada de decisões baseada em dados e testada por simulação.

Insight chave: "As finanças em si são fundamentalmente uma prática legal — é dinheiro mais lei. As finanças se tornam mais elegantes com contratos inteligentes." Seu trabalho demonstra que o capital autônomo não se trata de substituir os humanos inteiramente, mas de usar a IA para tornar os sistemas financeiros mais cientificamente rigorosos através de simulação e otimização contínuas.

Amjad Masad: Construindo infraestrutura para a economia de rede

Amjad Masad, CEO da Replit (avaliada em US$ 3 bilhões em outubro de 2025), vislumbra uma transformação econômica radical onde agentes de IA autônomos com carteiras de cripto substituem o desenvolvimento de software hierárquico tradicional por economias de rede descentralizadas. Sua viral thread no Twitter de 2022 previu "mudanças monumentais chegando ao software nesta década", argumentando que a IA representa o próximo aumento de produtividade de 100x, permitindo que programadores "comandem exércitos" de agentes de IA, enquanto não programadores também poderiam comandar agentes para tarefas de software.

A visão da economia de rede centra-se em agentes autônomos como atores econômicos. Em sua entrevista ao podcast da Sequoia Capital, Masad descreveu um futuro onde "agentes de software e eu vou dizer, 'Ok. Bem, eu preciso criar este produto.' E o agente vai dizer, 'Ah. Bem, eu vou pegar este banco de dados desta área, esta coisa que envia SMS ou e-mail desta área. E, a propósito, eles vão custar tanto.' E como agente eu realmente tenho uma carteira, serei capaz de pagar por eles." Isso substitui o modelo de pipeline de fábrica por uma composição baseada em rede onde os agentes montam serviços autonomamente e o valor flui automaticamente pela rede.

O Agent 3 da Replit, lançado em setembro de 2025, demonstra essa visão tecnicamente com 10x mais autonomia do que seus predecessores — operando por mais de 200 minutos independentemente, auto-testando e depurando através de "loops de reflexão", e construindo outros agentes e automações. Usuários reais relatam a construção de sistemas ERP de US400versusorc\camentosdefornecedoresdeUS 400 versus orçamentos de fornecedores de US 150.000 e aumentos de produtividade de 85%. Masad prevê que o "valor de todo o software aplicativo eventualmente 'irá a zero'" à medida que a IA permite que qualquer pessoa gere software complexo sob demanda, transformando a natureza das empresas de papéis especializados para "solucionadores de problemas generalistas" aumentados por agentes de IA.

Sobre o papel da cripto, Masad defende fortemente a integração da Rede Bitcoin Lightning, vendo o dinheiro programável como um primitivo essencial da plataforma. Ele afirmou: "Bitcoin Lightning, por exemplo, incorpora valor diretamente na cadeia de suprimentos de software e facilita as transações tanto de humano para humano quanto de máquina para máquina. Reduzir o custo de transação e a sobrecarga no software significa que será muito mais fácil trazer desenvolvedores para sua base de código para tarefas pontuais." Sua visão da Web3 como "ler-escrever-possuir-remixar" e planos de considerar a moeda nativa da Replit como um primitivo da plataforma demonstram profunda integração entre a infraestrutura de agentes de IA e a coordenação criptoeconômica.

Masad falou na Network State Conference (3 de outubro de 2025) em Singapura imediatamente após a Token2049, ao lado de Vitalik Buterin, Brian Armstrong e Balaji Srinivasan, posicionando-o como uma ponte entre as comunidades cripto e IA. Sua previsão: "Unicórnios de uma única pessoa" se tornarão comuns quando "todos forem desenvolvedores" através do aumento da IA, mudando fundamentalmente a macroeconomia e possibilitando o futuro de "um bilhão de desenvolvedores" onde 1 bilhão de pessoas globalmente criam software.

Jordi Alexander: Julgamento como moeda na era da IA

Jordi Alexander, Fundador/CIO da Selini Capital (mais de US$ 1 bilhão em AUM) e Alquimista Chefe da Mantle Network, traz sua expertise em teoria dos jogos do poker profissional (ganhou um bracelete WSOP derrotando Phil Ivey em 2024) para a análise de mercado e o investimento em capital autônomo. Sua tese centra-se no "julgamento como moeda" — a capacidade unicamente humana de integrar informações complexas e tomar decisões ótimas que as máquinas não conseguem replicar, mesmo que a IA lide com a execução e a análise.

A estrutura de capital autônomo de Alexander enfatiza a convergência de "duas indústrias chave deste século: a construção de módulos fundamentais inteligentes (como a IA) e a construção da camada fundamental para a coordenação social (como a tecnologia cripto)." Ele argumenta que o planejamento de aposentadoria tradicional está obsoleto devido à inflação real (~15% anualmente versus taxas oficiais), à redistribuição de riqueza iminente e à necessidade de permanecer economicamente produtivo: "Não existe aposentadoria" para aqueles com menos de 50 anos. Sua tese provocadora: "Nos próximos 10 anos, a diferença entre ter US100.000eUS 100.000 e US 10 milhões pode não ser tão significativa. O que é fundamental é como passar os próximos anos" posicionando-se efetivamente para o "momento 100x" quando a criação de riqueza acelera dramaticamente.

Seu portfólio de investimentos demonstra convicção na convergência IA-cripto. A Selini apoiou a TrueNorth (seed de US$ 1 milhão, junho de 2025), descrita como "o primeiro motor de descoberta autônomo e impulsionado por IA da cripto" usando "fluxos de trabalho agenticos" e aprendizado por reforço para investimentos personalizados. O maior cheque da empresa foi para a Worldcoin (maio de 2024), reconhecendo "a necessidade óbvia de infraestrutura e soluções tecnológicas completamente novas no mundo vindouro da IA." Os 46-60 investimentos totais da Selini incluem Ether.fi (liquid staking), RedStone (oráculos) e market-making em corretoras centralizadas e descentralizadas, demonstrando expertise em trading sistemático aplicada a sistemas autônomos.

A participação na Token2049 inclui Londres (novembro de 2022) discutindo "Reflexões sobre as Experiências Selvagens do Último Ciclo", Dubai (maio de 2025) sobre investimento de risco líquido e memecoins, e aparições em Singapura analisando a interação macro-cripto. Seu podcast Steady Lads (mais de 92 episódios até 2025) apresentou Vitalik Buterin discutindo as interseções cripto-IA, risco quântico e a evolução do Ethereum. Alexander enfatiza a necessidade de escapar do "modo de sobrevivência" para acessar o pensamento de nível superior, aprimorar-se constantemente e construir julgamento através da experiência como essencial para manter a relevância econômica quando os agentes de IA proliferam.

Perspectiva chave: "Julgamento é a capacidade de integrar informações complexas e tomar decisões ótimas — é precisamente onde as máquinas falham." Sua visão vê o capital autônomo como sistemas onde a IA executa em velocidade de máquina enquanto os humanos fornecem julgamento estratégico, com a cripto permitindo a camada de coordenação. Sobre o Bitcoin especificamente: "o único ativo digital com verdadeira significância macro" projetado para um crescimento de 5-10x em cinco anos à medida que o capital institucional entra, vendo-o como proteção superior de direitos de propriedade versus ativos físicos vulneráveis.

Alexander Pack: Infraestrutura para economias de IA descentralizadas

Alexander Pack, cofundador e sócio-gerente da Hack VC (gerenciando cerca de US$ 590 milhões em AUM), descreve a IA Web3 como "a maior fonte de alfa em investimentos hoje", alocando 41% do último fundo da empresa para a convergência IA-cripto — a maior concentração entre os principais VCs de cripto. Sua tese: "A rápida evolução da IA está criando eficiências massivas, mas também aumentando a centralização. A interseção de cripto e IA é de longe a maior oportunidade de investimento no espaço, oferecendo uma alternativa aberta e descentralizada."

A estrutura de investimento de Pack trata o capital autônomo como exigindo quatro camadas de infraestrutura: dados (investimento Grass — US2,5bilho~esFDV),computac\ca~o(io.netUS 2,5 bilhões FDV), computação (io.net — US 2,2 bilhões FDV), execução (Movement Labs — US7,9bilho~esFDV,EigenLayerUS 7,9 bilhões FDV, EigenLayer — US 4,9 bilhões FDV) e segurança (segurança compartilhada através de restaking). O investimento na Grass demonstra a tese: uma rede descentralizada de mais de 2,5 milhões de dispositivos realiza web scraping para dados de treinamento de IA, já coletando 45 TB diariamente (equivalente ao conjunto de dados de treinamento do ChatGPT 3.5). Pack articulou: "Algoritmos + Dados + Computação = Inteligência. Isso significa que Dados e Computação provavelmente se tornarão dois dos ativos mais importantes do mundo, e o acesso a eles será incrivelmente importante. Cripto é tudo sobre dar acesso a novos recursos digitais em todo o mundo e transformar em ativos coisas que não eram ativos antes via tokens."

O desempenho da Hack VC em 2024 valida a abordagem: Segundo VC de cripto mais ativo, implantando US128milho~esemdezenasdenegoˊcios,com12investimentosemcriptoxIAproduzindo4unicoˊrniosapenasem2024.Osprincipaislanc\camentosdetokensincluemMovementLabs(US 128 milhões em dezenas de negócios, com 12 investimentos em cripto x IA produzindo 4 unicórnios apenas em 2024. Os principais lançamentos de tokens incluem Movement Labs (US 7,9 bilhões), EigenLayer (US4,9bilho~es),Grass(US 4,9 bilhões), Grass (US 2,5 bilhões), io.net (US2,2bilho~es),Morpho(US 2,2 bilhões), Morpho (US 2,4 bilhões), Kamino (US1,0bilha~o)eAltLayer(US 1,0 bilhão) e AltLayer (US 0,9 bilhão). A empresa opera a Hack.Labs, uma plataforma interna para participação em rede de nível institucional, staking, pesquisa quantitativa e contribuições de código aberto, empregando ex-traders seniores da Jane Street.

Desde sua aparição no podcast Unchained em março de 2024, Pack identificou agentes de IA como alocadores de capital que "podem gerenciar portfólios autonomamente, executar trades e otimizar o rendimento", com a integração DeFi permitindo que "agentes de IA com carteiras de cripto participem de mercados financeiros descentralizados." Ele enfatizou que "ainda estamos muito no início" da infraestrutura cripto, exigindo melhorias significativas em escalabilidade, segurança e experiência do usuário antes da adoção mainstream. Token2049 Singapura 2025 confirmou Pack como palestrante (1-2 de outubro), participando de painéis de discussão de especialistas sobre tópicos de cripto e IA no principal evento de cripto da Ásia com mais de 25.000 participantes.

A estrutura de capital autônomo (sintetizada a partir dos investimentos e publicações da Hack VC) prevê cinco camadas: Inteligência (modelos de IA), Infraestrutura de Dados e Computação (Grass, io.net), Execução e Verificação (Movement, EigenLayer), Primitivos Financeiros (Morpho, Kamino) e Agentes Autônomos (gerenciamento de portfólio, trading, market-making). O principal insight de Pack: Sistemas descentralizados e transparentes provaram ser mais resilientes do que as finanças centralizadas durante os mercados de baixa de 2022 (protocolos DeFi sobreviveram enquanto Celsius, BlockFi, FTX colapsaram), sugerindo que o blockchain é mais adequado para a alocação de capital impulsionada por IA do que alternativas centralizadas opacas.

Irene Wu: Infraestrutura omnichain para sistemas autônomos

Irene Wu, Venture Partner na Bain Capital Crypto e ex-Chefe de Estratégia na LayerZero Labs, traz uma expertise técnica única para a infraestrutura de capital autônomo, tendo cunhado o termo "omnichain" para descrever a interoperabilidade entre cadeias via mensagens. Seu portfólio de investimentos se posiciona estrategicamente na convergência IA-cripto: Cursor (editor de código focado em IA), Chaos Labs (Inteligência Financeira Artificial), Ostium (plataforma de trading alavancado) e Econia (infraestrutura DeFi), demonstrando foco em aplicações de IA verticalizadas e sistemas financeiros autônomos.

As contribuições de Wu para a LayerZero estabeleceram uma infraestrutura fundamental entre cadeias, permitindo que agentes autônomos operassem perfeitamente em diferentes blockchains. Ela defendeu três princípios de design centrais — Imutabilidade, Ausência de Permissão e Resistência à Censura — e desenvolveu os padrões OFT (Omnichain Fungible Token) e ONFT (Omnichain Non-Fungible Token). A parceria com a Magic Eden que ela liderou criou a "Gas Station", permitindo a conversão perfeita de tokens de gás para compras de NFT entre cadeias, demonstrando a redução prática do atrito em sistemas descentralizados. Seu posicionamento da LayerZero como "TCP/IP para blockchains" captura a visão de protocolos de interoperabilidade universal subjacentes às economias de agentes.

A ênfase consistente de Wu na remoção de atritos das experiências Web3 apoia diretamente a infraestrutura de capital autônomo. Ela defende a abstração de cadeia — os usuários não deveriam precisar entender qual blockchain estão usando — e pressiona por "experiências 10X melhores para justificar a complexidade do blockchain". Sua crítica aos métodos de pesquisa da cripto ("ver no Twitter quem está reclamando mais") versus entrevistas de pesquisa de usuário no estilo Web2 reflete o compromisso com princípios de design centrados no usuário essenciais para a adoção mainstream.

Indicadores da tese de investimento de seu portfólio revelam foco em desenvolvimento aumentado por IA (Cursor permite codificação nativa de IA), inteligência financeira autônoma (Chaos Labs aplica IA ao gerenciamento de riscos DeFi), infraestrutura de trading (Ostium fornece trading alavancado) e primitivos DeFi (Econia constrói protocolos fundamentais). Esse padrão se alinha fortemente com os requisitos de capital autônomo: agentes de IA precisam de ferramentas de desenvolvimento, capacidades de inteligência financeira, infraestrutura de execução de trading e protocolos DeFi fundamentais para operar efetivamente.

Embora a participação específica na Token2049 não tenha sido confirmada nas fontes disponíveis (acesso a mídias sociais restrito), os compromissos de Wu como palestrante na Consensus 2023 e no Proof of Talk Summit demonstram liderança de pensamento em infraestrutura blockchain e ferramentas de desenvolvedor. Sua formação técnica (Ciência da Computação em Harvard, engenharia de software no J.P. Morgan, cofundadora do Harvard Blockchain Club) combinada com papéis estratégicos na LayerZero e Bain Capital Crypto a posiciona como uma voz crítica sobre os requisitos de infraestrutura para agentes de IA operando em ambientes descentralizados.

Fundamentos teóricos: Por que IA e cripto possibilitam o capital autônomo

A convergência que permite o capital autônomo repousa em três pilares técnicos que resolvem problemas fundamentais de coordenação. Primeiro, a criptomoeda oferece autonomia financeira impossível em sistemas bancários tradicionais. Agentes de IA podem gerar pares de chaves criptográficas para "abrir sua própria conta bancária" com zero aprovação humana, acessando liquidação global sem permissão 24/7 e dinheiro programável para operações automatizadas complexas. As finanças tradicionais excluem categoricamente entidades não-humanas, independentemente da capacidade; a cripto é a primeira infraestrutura financeira a tratar o software como atores econômicos legítimos.

Segundo, substratos computacionais sem confiança permitem execução autônoma verificável. Contratos inteligentes de blockchain fornecem computadores globais Turing-completos com validação descentralizada, garantindo execução à prova de adulteração, onde nenhum operador único controla os resultados. Ambientes de Execução Confiáveis (TEEs) como o Intel SGX fornecem enclaves seguros baseados em hardware, isolando o código dos sistemas host, permitindo computação confidencial com proteção de chave privada — crítica para agentes, pois "nem administradores de nuvem nem operadores de nós maliciosos podem 'alcançar o pote'". Redes de Infraestrutura Física Descentralizada (DePIN) como io.net e Phala Network combinam TEEs com hardware crowdsourced para criar computação de IA distribuída e sem permissão.

Terceiro, sistemas de identidade e reputação baseados em blockchain dão aos agentes personas persistentes. Identidade Auto-Soberana (SSI) e Identificadores Descentralizados (DIDs) permitem que os agentes possuam seus próprios "passaportes digitais", com credenciais verificáveis provando habilidades e rastreamento de reputação on-chain criando registros imutáveis. Protocolos "Know Your Agent" (KYA) propostos adaptam as estruturas KYC para identidades de máquina, enquanto padrões emergentes como Model Context Protocol (MCP), Agent Communication Protocol (ACP), Agent-to-Agent Protocol (A2A) e Agent Network Protocol (ANP) permitem a interoperabilidade entre agentes.

As implicações econômicas são profundas. Estruturas acadêmicas como o artigo "Virtual Agent Economies" de pesquisadores como Nenad Tomasev propõem analisar sistemas econômicos emergentes de agentes de IA ao longo de suas origens (emergentes vs. intencionais) e separação (permeáveis vs. impermeáveis da economia humana). Trajetória atual: surgimento espontâneo de vastas economias de agentes de IA altamente permeáveis com oportunidades para coordenação sem precedentes, mas riscos significativos, incluindo instabilidade econômica sistêmica e desigualdade exacerbada. Considerações de teoria dos jogos — equilíbrios de Nash em negociações agente-agente, design de mecanismos para alocação justa de recursos, mecanismos de leilão para recursos — tornam-se críticas à medida que os agentes operam como atores econômicos racionais com funções de utilidade, tomando decisões estratégicas em ambientes multiagentes.

O mercado demonstra adoção explosiva. Tokens de agentes de IA atingiram mais de US10bilho~esemcapitalizac\ca~odemercadoemdezembrode2024,comumaumentode322 10 bilhões em capitalização de mercado em dezembro de 2024, com um aumento de 322% no final de 2024. O Virtuals Protocol lançou mais de 17.000 agentes de IA tokenizados na Base (Ethereum L2), enquanto o ai16z opera um fundo de risco autônomo de US 2,3 bilhões em capitalização de mercado na Solana. Cada agente emite tokens permitindo propriedade fracionada, compartilhamento de receita através de staking e governança comunitária — criando mercados líquidos para o desempenho de agentes de IA. Esse modelo de tokenização permite a "copropriedade" de agentes autônomos, onde os detentores de tokens obtêm exposição econômica às atividades dos agentes, enquanto os agentes obtêm capital para implantar autonomamente.

Filosoficamente, o capital autônomo desafia suposições fundamentais sobre agência, propriedade e controle. A agência tradicional exige condições de controle/liberdade (sem coerção), condições epistêmicas (compreensão das ações), capacidade de raciocínio moral e identidade pessoal estável. Agentes baseados em LLM levantam questões: Eles realmente "pretendem" ou apenas correspondem a padrões? Sistemas probabilísticos podem ser responsabilizados? Participantes da pesquisa observam que os agentes "são modelos probabilísticos incapazes de responsabilidade ou intenção; eles não podem ser 'punidos' ou 'recompensados' como jogadores humanos" e "não têm um corpo para sentir dor", o que significa que os mecanismos de dissuasão convencionais falham. O "paradoxo da falta de confiança" surge: implantar agentes em infraestrutura sem confiança evita confiar em humanos falíveis, mas os próprios agentes de IA permanecem potencialmente não confiáveis (alucinações, vieses, manipulação), e substratos sem confiança impedem a intervenção quando a IA se comporta mal.

Vitalik Buterin identificou essa tensão, observando que "Código é lei" (contratos inteligentes determinísticos) entra em conflito com as alucinações de LLM (saídas probabilísticas). Quatro "invalidades" governam os agentes descentralizados, de acordo com a pesquisa: invalidade jurisdicional territorial (operação sem fronteiras derrota leis de uma única nação), invalidade técnica (arquitetura resiste ao controle externo), invalidade de execução (não é possível parar agentes após sancionar implantadores) e invalidade de responsabilidade (agentes não possuem personalidade jurídica, não podem ser processados ou acusados). Abordagens experimentais atuais, como o trust de caridade do Truth Terminal com trustees humanos, tentam separar a propriedade da autonomia do agente, mantendo a responsabilidade do desenvolvedor ligada ao controle operacional.

As previsões dos principais pensadores convergem para cenários transformadores. Balaji Srinivasan argumenta que "IA é abundância digital, cripto é escassez digital" — forças complementares onde a IA cria conteúdo enquanto a cripto coordena e prova valor, com a cripto permitindo "prova de autenticidade humana em um mundo de deepfakes de IA". A observação de Sam Altman de que IA e cripto representam "abundância indefinida e escassez definida" captura sua relação simbiótica. Ali Yahya (a16z) sintetiza a tensão: "IA centraliza, cripto descentraliza", sugerindo a necessidade de governança robusta gerenciando os riscos de agentes autônomos, preservando os benefícios da descentralização. A visão da a16z de uma "entidade autônoma de um bilhão de dólares" — um chatbot descentralizado rodando em nós sem permissão via TEEs, construindo seguidores, gerando renda, gerenciando ativos sem controle humano — representa o ponto final lógico onde nenhum ponto único de controle existe e os protocolos de consenso coordenam o sistema.

Arquitetura técnica: Como o capital autônomo realmente funciona

A implementação do capital autônomo requer uma integração sofisticada de modelos de IA com protocolos blockchain através de arquiteturas híbridas que equilibram o poder computacional com a verificabilidade. A abordagem padrão utiliza uma arquitetura de três camadas: camada de percepção que coleta dados de blockchain e externos via redes de oráculos (Chainlink lida com mais de 5 bilhões de pontos de dados diariamente), camada de raciocínio que realiza inferência de modelos de IA off-chain com provas de conhecimento zero de computação, e camada de ação que executa transações on-chain através de contratos inteligentes. Este design híbrido aborda as restrições fundamentais do blockchain — limites de gás que impedem computação pesada de IA on-chain — enquanto mantém as garantias de execução sem confiança.

A implementação da Gauntlet demonstra capital autônomo pronto para produção em escala. A arquitetura técnica da plataforma inclui motores de simulação criptoeconômica que executam milhares de modelos baseados em agentes diariamente contra o código real de contratos inteligentes, modelagem quantitativa de risco usando modelos de ML treinados em mais de 400 milhões de pontos de dados atualizados 6 vezes ao dia em mais de 12 blockchains de Camada 1 e Camada 2, e otimização automatizada de parâmetros ajustando dinamicamente as taxas de colateral, taxas de juros, limites de liquidação e estruturas de taxas. Seu sistema de vault MetaMorpho no Morpho Blue fornece uma infraestrutura elegante para criação de vaults sem permissão com gerenciamento de risco externalizado, permitindo que os vaults WETH Prime e USDC Prime da Gauntlet otimizem o rendimento ajustado ao risco em mercados de rendimento recursivo de staking líquido. Os vaults de trading de base combinam ativos spot LST com taxas de financiamento perpétuas em até 2x de alavancagem dinâmica quando as condições de mercado criam spreads favoráveis, demonstrando estratégias autônomas sofisticadas gerenciando capital real.

O aprendizado de máquina de conhecimento zero (zkML) permite a verificação de IA sem confiança. A tecnologia prova a execução de modelos de ML sem revelar os pesos do modelo ou os dados de entrada usando sistemas de prova ZK-SNARKs e ZK-STARKs. A Modulus Labs comparou sistemas de prova em diferentes tamanhos de modelo, demonstrando que modelos com até 18 milhões de parâmetros são prováveis em cerca de 50 segundos usando plonky2. O EZKL fornece estruturas de código aberto que convertem modelos ONNX em circuitos ZK, usados pelo OpenGradient para inferência de ML descentralizada. O RiscZero oferece VMs de conhecimento zero de propósito geral, permitindo computação de ML verificável integrada com protocolos DeFi. O fluxo da arquitetura: dados de entrada → modelo de ML (off-chain) → saída → gerador de prova ZK → prova → verificador de contrato inteligente → aceitar/rejeitar. Os casos de uso incluem estratégias de rendimento verificáveis (colaboração Giza + Yearn), pontuação de crédito on-chain, inferência de modelo privada em dados sensíveis e prova de autenticidade de modelo.

As estruturas de contratos inteligentes que permitem o capital autônomo incluem o sistema de implantação de vault sem permissão da Morpho com parâmetros de risco personalizáveis, o protocolo V3 da Aera para regras de vault programáveis e a integração com oráculos da Pyth Network que fornecem feeds de preços em menos de um segundo. A implementação técnica usa interfaces Web3 (ethers.js, web3.py) conectando agentes de IA ao blockchain via provedores RPC, com assinatura automatizada de transações usando carteiras de computação multipartidária (MPC) criptograficamente seguras que dividem as chaves privadas entre os participantes. A abstração de conta (ERC-4337) permite lógica de conta programável, permitindo sistemas de permissão sofisticados onde agentes de IA podem executar ações específicas sem controle total da carteira.

A estrutura uAgents da Fetch.ai demonstra o desenvolvimento prático de agentes com bibliotecas Python, permitindo que agentes econômicos autônomos sejam registrados em contratos inteligentes Almanac. Os agentes operam com mensagens criptograficamente seguras, registro automatizado em blockchain e execução baseada em intervalos, lidando com análise de mercado, geração de sinais e execução de trades. Implementações de exemplo mostram agentes de análise de mercado buscando preços de oráculos, realizando inferência de modelos de ML e executando trades on-chain quando os limites de confiança são atingidos, com comunicação inter-agente permitindo a coordenação multiagente para estratégias complexas.

As considerações de segurança são críticas. Vulnerabilidades de contratos inteligentes, incluindo ataques de reentrada, overflow/underflow aritmético, problemas de controle de acesso e manipulação de oráculos, causaram mais de US11,74bilho~esemperdasdesde2017,comUS 11,74 bilhões em perdas desde 2017, com US 1,5 bilhão perdidos apenas em 2024. Ameaças específicas a agentes de IA incluem injeção de prompt (entradas maliciosas manipulando o comportamento do agente), manipulação de oráculos (feeds de dados comprometidos enganando decisões), manipulação de contexto (ataques adversários explorando entradas externas) e vazamento de credenciais (chaves de API ou chaves privadas expostas). Pesquisas da University College London e da University of Sydney demonstraram o sistema A1 — um agente de IA que descobre e explora autonomamente vulnerabilidades de contratos inteligentes com 63% de taxa de sucesso em 36 contratos vulneráveis do mundo real, extraindo até US8,59milho~esporexplorac\ca~oaumcustodeUS 8,59 milhões por exploração a um custo de US 0,01-US$ 3,59, provando que agentes de IA favorecem a exploração em detrimento da defesa economicamente.

As melhores práticas de segurança incluem verificação formal de contratos inteligentes, testes extensivos em testnet, auditorias de terceiros (Cantina, Trail of Bits), programas de recompensa por bugs, monitoramento em tempo real com disjuntores, bloqueios de tempo em operações críticas, requisitos de múltiplas assinaturas para grandes transações, Ambientes de Execução Confiáveis (Phala Network), execução de código em sandbox com filtragem de syscall, restrições de rede e limitação de taxa. A postura defensiva deve ser rigorosa ao nível da paranoia, pois os atacantes obtêm lucratividade com valores de exploração de US6.000,enquantoosdefensoresexigemUS 6.000, enquanto os defensores exigem US 60.000 para empatar, criando uma assimetria econômica fundamental que favorece os ataques.

Os requisitos de escalabilidade e infraestrutura criam gargalos. Os ~30 milhões de gás por bloco do Ethereum, tempos de bloco de 12-15 segundos, altas taxas durante o congestionamento e taxa de transferência de 15-30 TPS não podem suportar a inferência de modelos de ML diretamente. As soluções incluem redes de Camada 2 (rollups Arbitrum/Optimism reduzindo custos em 10-100x, Base com suporte nativo a agentes, sidechains Polygon), computação off-chain com verificação on-chain e arquiteturas híbridas. Os requisitos de infraestrutura incluem nós RPC (Alchemy, Infura, NOWNodes), redes de oráculos (Chainlink, Pyth, API3), armazenamento descentralizado (IPFS para pesos de modelo), clusters de GPU para inferência de ML e monitoramento 24 horas por dia, 7 dias por semana, com baixa latência e alta confiabilidade. Os custos operacionais variam de chamadas RPC (US0US 0-US 500+/mês), computação (US100US 100-US 10.000+/mês para instâncias de GPU) a taxas de gás altamente variáveis (US1US 1-US 1.000+ por transação complexa).

Os benchmarks de desempenho atuais mostram o zkML provando modelos de 18 milhões de parâmetros em 50 segundos em instâncias AWS poderosas, o Internet Computer Protocol alcançando melhorias de mais de 10X com otimização Cyclotron para classificação de imagens on-chain, e o Bittensor operando mais de 80 sub-redes ativas com validadores avaliando modelos de ML. Desenvolvimentos futuros incluem aceleração de hardware através de chips ASIC especializados para geração de prova ZK, sub-redes de GPU no ICP para ML on-chain, abstração de conta aprimorada, protocolos de mensagens entre cadeias (LayerZero, Wormhole) e padrões emergentes como o Model Context Protocol para interoperabilidade de agentes. A maturidade técnica está avançando rapidamente, com sistemas de produção como o Gauntlet provando a viabilidade de bilhões de dólares em TVL, embora as limitações permaneçam em torno do tamanho de grandes modelos de linguagem, latência do zkML e custos de gás para operações frequentes.

Implementações no mundo real: O que realmente funciona hoje

A SingularityDAO demonstra o desempenho de portfólios gerenciados por IA com resultados quantificáveis. Os DynaSets da plataforma — cestas de ativos gerenciadas dinamicamente e reequilibradas automaticamente por IA — alcançaram 25% de ROI em dois meses (outubro-novembro de 2022) através de market-making multiestratégia adaptativo, e 20% de ROI para avaliação semanal e quinzenal de estratégias de portfólios BTC+ETH, com alocação ponderada de fundos entregando retornos mais altos do que a alocação fixa. A arquitetura técnica inclui backtesting em 7 dias de dados históricos de mercado, estratégias preditivas baseadas no sentimento das mídias sociais, agentes de trading algorítmico para provisão de liquidez e gerenciamento ativo de portfólio, incluindo planejamento, balanceamento e trading de portfólio. O Risk Engine avalia inúmeros riscos para uma tomada de decisão ótima, com o Dynamic Asset Manager realizando reequilíbrio automatizado baseado em IA. Atualmente, três DynaSets ativos operam (dynBTC, dynETH, dynDYDX) gerenciando capital real com desempenho transparente on-chain.

O Virtuals Protocol (capitalização de mercado de US1,8bilha~o)lideraatokenizac\ca~odeagentesdeIAcommaisde17.000agenteslanc\cadosnaplataformanoinıˊciode2025.Cadaagenterecebe1bilha~odetokenscunhados,gerareceitaatraveˊsde"taxasdeinfere^ncia"deinterac\co~esdechateconcededireitosdegovernanc\caaosdetentoresdetokens.AgentesnotaˊveisincluemLuna(LUNA)comcapitalizac\ca~odemercadodeUS 1,8 bilhão) lidera a tokenização de agentes de IA com mais de 17.000 agentes lançados na plataforma no início de 2025. Cada agente recebe 1 bilhão de tokens cunhados, gera receita através de "taxas de inferência" de interações de chat e concede direitos de governança aos detentores de tokens. Agentes notáveis incluem Luna (LUNA) com capitalização de mercado de US 69 milhões — uma estrela de K-pop virtual e streamer ao vivo com 1 milhão de seguidores no TikTok gerando receita através de entretenimento; AIXBT a US0,21fornecendoinsightsdemercadoimpulsionadosporIAcommaisde240.000seguidoresnoTwitteremecanismosdestaking;eVaderAI(VADER)aUS 0,21 — fornecendo insights de mercado impulsionados por IA com mais de 240.000 seguidores no Twitter e mecanismos de staking; e VaderAI (VADER) a US 0,05 — oferecendo ferramentas de monetização de IA e governança DAO. A Estrutura GAME (Generative Autonomous Multimodal Entities) fornece a base técnica, enquanto o Agent Commerce Protocol cria padrões abertos para comércio agente-a-agente com o Immutable Contribution Vault (ICV) mantendo registros históricos de contribuições aprovadas. Parcerias com a Illuvium integram agentes de IA em ecossistemas de jogos, e auditorias de segurança abordaram 7 problemas (3 de média, 4 de baixa gravidade).

O ai16z opera como um fundo de risco autônomo com US2,3bilho~esdecapitalizac\ca~odemercadonaSolana,construindoaestruturaELIZAaarquiteturamodulardecoˊdigoabertomaisamplamenteadotadaparaagentesdeIAcommilharesdeimplantac\co~es.Aplataformapermiteodesenvolvimentodescentralizadoecolaborativocomecossistemasdepluginsimpulsionandoefeitosderede:maisdesenvolvedorescriammaisplugins,atraindomaisdesenvolvedores.Umsistemademercadodeconfianc\caabordaaresponsabilidadedeagentesauto^nomos,enquantoplanosparaumblockchaindedicadoespecificamenteparaagentesdeIAdemonstramumavisa~odeinfraestruturadelongoprazo.Ofundooperacomexpirac\ca~odefinida(outubrode2025)emaisdeUS 2,3 bilhões de capitalização de mercado na Solana, construindo a estrutura ELIZA — a arquitetura modular de código aberto mais amplamente adotada para agentes de IA com milhares de implantações. A plataforma permite o desenvolvimento descentralizado e colaborativo com ecossistemas de plugins impulsionando efeitos de rede: mais desenvolvedores criam mais plugins, atraindo mais desenvolvedores. Um sistema de mercado de confiança aborda a responsabilidade de agentes autônomos, enquanto planos para um blockchain dedicado especificamente para agentes de IA demonstram uma visão de infraestrutura de longo prazo. O fundo opera com expiração definida (outubro de 2025) e mais de US 22 milhões bloqueados, demonstrando gerenciamento de capital autônomo com prazo.

A infraestrutura de produção da Gauntlet gerencia mais de US$ 1 bilhão em TVL de protocolo DeFi através de simulação e otimização contínuas. A plataforma monitora mais de 100 protocolos DeFi com avaliação de risco em tempo real, realiza simulações baseadas em agentes para o comportamento do protocolo sob estresse e fornece ajustes dinâmicos de parâmetros para taxas de colateral, limites de liquidação, curvas de taxa de juros, estruturas de taxas e programas de incentivo. As principais parcerias de protocolo incluem Aave (engajamento de 4 anos encerrado em 2024 devido a divergências de governança), Compound (implementação pioneira de governança automatizada), Uniswap (otimização de liquidez e incentivos), Morpho (parceria atual de curadoria de vault) e Seamless Protocol (monitoramento ativo de risco). A estrutura de curadoria de vault inclui análise de mercado monitorando oportunidades de rendimento emergentes, avaliação de risco avaliando liquidez e risco de contrato inteligente, design de estratégia criando alocações ótimas, execução automatizada para vaults MetaMorpho e otimização contínua através de reequilíbrio em tempo real. As métricas de desempenho demonstram a frequência de atualização da plataforma (6 vezes ao dia), volume de dados (mais de 400 milhões de pontos em mais de 12 blockchains) e sofisticação da metodologia (Value-at-Risk capturando quedas amplas do mercado, riscos de correlação quebrada como divergência de LST e desvinculação de stablecoin, e quantificação de risco de cauda).

Bots de trading autônomos mostram resultados mistos, mas em melhoria. Usuários do Gunbot relatam ter começado com US496em26defevereiroecrescidoparaUS 496 em 26 de fevereiro e crescido para US 1.358 (+174%) operando em 20 pares no dYdX com execução auto-hospedada, eliminando o risco de terceiros. Usuários do Cryptohopper alcançaram 35% de retornos anuais em mercados voláteis através de trading automatizado baseado em nuvem 24 horas por dia, 7 dias por semana, com otimização de estratégia impulsionada por IA e recursos de trading social. No entanto, estatísticas gerais revelam que 75-89% dos clientes de bots perdem fundos, com apenas 11-25% obtendo lucros, destacando riscos de otimização excessiva (ajuste de curva a dados históricos), volatilidade do mercado e eventos de cisne negro, falhas técnicas (falhas de API, problemas de conectividade) e configuração inadequada do usuário. Grandes falhas incluem o exploit do Banana Gun (setembro de 2024, perda de 563 ETH/US1,9milha~oviavulnerabilidadedeoraˊculo),ataquedeengenhariasocialdecredoresdaGenesis(agostode2024,perdadeUS 1,9 milhão via vulnerabilidade de oráculo), ataque de engenharia social de credores da Genesis (agosto de 2024, perda de US 243 milhões) e incidente de slippage do Dogwifhat (janeiro de 2024, perda de US$ 5,7 milhões em livros de ordens finos).

A Fetch.ai permite agentes econômicos autônomos com mais de 30.000 agentes ativos em 2024 usando a estrutura uAgents. As aplicações incluem automação de reservas de transporte, trading inteligente de energia (compra de eletricidade fora do pico, revenda de excesso), otimização da cadeia de suprimentos através de negociações baseadas em agentes e parcerias com a Bosch (casos de uso de mobilidade Web3) e a Yoti (verificação de identidade para agentes). A plataforma levantou US40milho~esem2023,posicionandosenomercadodeIAauto^nomaprojetadoparaatingirUS 40 milhões em 2023, posicionando-se no mercado de IA autônoma projetado para atingir US 70,53 bilhões até 2030 (CAGR de 42,8%). Aplicações DeFi anunciadas em 2023 incluem ferramentas de trading baseadas em agentes para DEXs, eliminando pools de liquidez em favor de matchmaking baseado em agentes, permitindo trading direto peer-to-peer, removendo riscos de honeypot e rugpull.

Implementações de DAO com componentes de IA demonstram a evolução da governança. A AI DAO opera o gerenciamento de DAO baseado em EVM Nexus na sidechain XRP EVM com detecção de irregularidades de votação por IA garantindo tomada de decisão justa, assistência de governança onde a IA ajuda nas decisões enquanto os humanos mantêm a supervisão, e um AI Agent Launchpad com redes de nós MCP descentralizadas permitindo que os agentes gerenciem carteiras e transacionem em blockchains Axelar. A estrutura da Aragon prevê uma integração de seis níveis de IA x DAO: bots e assistentes de IA (atual), IA na borda votando em propostas (curto prazo), IA no centro gerenciando a tesouraria (médio prazo), conectores de IA criando inteligência de enxame entre DAOs (médio prazo), DAOs governando a IA como bem público (longo prazo) e IA se tornando a DAO com propriedade de tesouraria on-chain (futuro). A implementação técnica usa o sistema de plugin modular Aragon OSx com gerenciamento de permissões permitindo que a IA negocie abaixo de limites de dólar enquanto aciona votos acima, e a capacidade de alternar estratégias de trading de IA revogando/concedendo permissões de plugin.

Dados de mercado confirmam rápida adoção e escala. O mercado DeFAI atingiu aproximadamente US1bilha~odecapitalizac\ca~odemercadoemjaneirode2025,comosmercadosdeagentesdeIAatingindoopicodeUS 1 bilhão de capitalização de mercado em janeiro de 2025, com os mercados de agentes de IA atingindo o pico de US 17 bilhões. O valor total bloqueado em DeFi é de US52bilho~es(TVLinstitucional:US 52 bilhões (TVL institucional: US 42 bilhões), enquanto o MetaMask atende 30 milhões de usuários com 21 milhões de usuários ativos mensais. Os gastos com blockchain atingiram US19bilho~esem2024,comprojec\co~esparaUS 19 bilhões em 2024, com projeções para US 1.076 bilhões até 2026. O mercado global de DeFi de US20,4832,36bilho~es(20242025)projetacrescimentoparaUS 20,48-32,36 bilhões (2024-2025) projeta crescimento para US 231-441 bilhões até 2030 e US$ 1.558 bilhões até 2034, representando um CAGR de 40-54%. Métricas específicas da plataforma incluem o Virtuals Protocol com mais de 17.000 agentes de IA lançados, a integração Fetch.ai Burrito onboardando mais de 400.000 usuários e bots de trading autônomos como o SMARD superando o Bitcoin em >200% e o Ethereum em >300% em lucratividade desde o início de 2022.

Lições de sucessos e fracassos esclarecem o que funciona. Implementações bem-sucedidas compartilham padrões comuns: agentes especializados superam generalistas (a colaboração multiagente de Griffain é mais confiável do que uma única IA), a supervisão humana no loop é crítica para eventos inesperados, designs de autocustódia eliminam o risco de contraparte, backtesting abrangente em múltiplos regimes de mercado previne a otimização excessiva e o gerenciamento robusto de riscos com regras de dimensionamento de posição e mecanismos de stop-loss previne perdas catastróficas. Os fracassos demonstram que a IA de caixa preta que carece de transparência não consegue construir confiança, a autonomia pura atualmente não consegue lidar com a complexidade do mercado e eventos de cisne negro, ignorar a segurança leva a exploits e promessas irrealistas de "retornos garantidos" indicam esquemas fraudulentos. A tecnologia funciona melhor como simbiose humano-IA, onde a IA lida com velocidade e execução, enquanto os humanos fornecem estratégia e julgamento.

O ecossistema mais amplo: Atores, concorrência e desafios

O ecossistema de capital autônomo expandiu-se rapidamente para além dos cinco líderes de pensamento perfilados, abrangendo grandes plataformas, atores institucionais, abordagens filosóficas concorrentes e desafios regulatórios sofisticados. Virtuals Protocol e ai16z representam a divisão filosófica "Catedral vs. Bazar". Virtuals (capitalização de mercado de US1,8bilha~o)adotaumaabordagemcentralizadaemetoˊdicacomgovernanc\caestruturadaemercadosprofissionaiscomcontroledequalidade,cofundadaporEtherMageeutilizandoImmutableContributionVaultsparaatribuic\ca~otransparente.ai16z(capitalizac\ca~odemercadodeUS 1,8 bilhão) adota uma abordagem centralizada e metódica com governança estruturada e mercados profissionais com controle de qualidade, cofundada por EtherMage e utilizando Immutable Contribution Vaults para atribuição transparente. ai16z (capitalização de mercado de US 2,3 bilhões) abraça o desenvolvimento descentralizado e colaborativo através da estrutura de código aberto ELIZA, permitindo experimentação rápida, liderada por Shaw (programador autodidata) construindo blockchain dedicado para agentes de IA com mercados de confiança para responsabilização. Essa tensão filosófica — precisão versus inovação, controle versus experimentação — espelha debates históricos de desenvolvimento de software e provavelmente persistirá à medida que o ecossistema amadurece.

Grandes protocolos e provedores de infraestrutura incluem SingularityNET operando mercados de IA descentralizados, permitindo que desenvolvedores monetizem modelos de IA com tomada de decisão de investimento crowdsourced (modelo de fundo de hedge Numerai), Fetch.ai implantando agentes autônomos para automação de transporte e serviços com um acelerador de US$ 10 milhões para startups de agentes de IA, Autonolas conectando agentes de IA offchain a protocolos onchain, criando mercados de aplicativos sem permissão, ChainGPT desenvolvendo AI Virtual Machine (AIVM) para Web3 com gerenciamento automatizado de liquidez e execução de trading, e Warden Protocol construindo blockchain de Camada 1 para aplicativos integrados a IA, onde contratos inteligentes acessam e verificam saídas de modelos de IA onchain com parcerias incluindo Messari, Venice e Hyperlane.

A adoção institucional acelera apesar da cautela. A Galaxy Digital passa da mineração de cripto para a infraestrutura de IA com um fundo de risco de US175milho~eseUS 175 milhões e US 4,5 bilhões em receita esperada do acordo de 15 anos com a CoreWeave, fornecendo 200MW de capacidade de data center. Grandes instituições financeiras experimentam IA agentica: LAW (Legal Agentic Workflows) do JPMorgan Chase atinge 92,9% de precisão, BNY implementa codificação autônoma e validação de pagamentos, enquanto Mastercard, PayPal e Visa buscam iniciativas de comércio agentico. Empresas de pesquisa e análise, incluindo Messari, CB Insights (rastreando mais de 1.400 mercados de tecnologia), Deloitte, McKinsey e S&P Global Ratings, fornecem inteligência crítica do ecossistema sobre agentes autônomos, interseção IA-cripto, adoção empresarial e avaliação de riscos.

Visões concorrentes se manifestam em múltiplas dimensões. As variações do modelo de negócios incluem DAOs baseadas em tokens com votação comunitária transparente (MakerDAO, MolochDAO) enfrentando desafios de concentração de tokens onde menos de 1% dos detentores controlam 90% do poder de voto, DAOs baseadas em ações que se assemelham a estruturas corporativas com transparência blockchain e modelos híbridos combinando liquidez de tokens com participações de propriedade, equilibrando o engajamento da comunidade com os retornos dos investidores. As abordagens de conformidade regulatória variam de conformidade proativa buscando clareza antecipadamente, arbitragem regulatória operando em jurisdições com menos regulamentação, a estratégias de esperar para ver, construindo primeiro e abordando a regulamentação depois. Essas escolhas estratégicas criam fragmentação e dinâmicas competitivas à medida que os projetos otimizam para diferentes restrições.

O cenário regulatório torna-se cada vez mais complexo e restritivo. Os desenvolvimentos nos Estados Unidos incluem a Força-Tarefa de Cripto da SEC liderada pela Comissária Hester Pierce, regulamentação de IA e cripto como prioridade de exame para 2025, Grupo de Trabalho do Presidente sobre Ativos Digitais (revisão de 60 dias, recomendações de 180 dias), David Sacks nomeado Conselheiro Especial para IA e Cripto, e SAB 121 revogado, facilitando os requisitos de custódia para bancos. As principais preocupações da SEC incluem a classificação de títulos sob o Teste de Howey, a aplicabilidade da Lei de Consultores de Investimento a agentes de IA, custódia e responsabilidade fiduciária, e requisitos de AML/KYC. A Presidente Interina da CFTC, Pham, apoia a inovação responsável, concentrando-se nos mercados de commodities e derivativos. As regulamentações estaduais mostram inovação com Wyoming sendo o primeiro a reconhecer DAOs como entidades legais (julho de 2021) e New Hampshire considerando legislação para DAOs, enquanto o DFS de Nova York emitiu orientações de segurança cibernética para riscos de IA (outubro de 2024).

A regulamentação MiCA da União Europeia cria um quadro abrangente com cronograma de implementação: junho de 2023 entrou em vigor, 30 de junho de 2024 disposições de stablecoin aplicadas, 30 de dezembro de 2024 aplicação total para Provedores de Serviços de Ativos Cripto com transição de 18 meses para provedores existentes. Os requisitos chave incluem whitepapers obrigatórios para emissores de tokens, adequação de capital e estruturas de governança, conformidade AML/KYC, requisitos de custódia e reserva para stablecoins, rastreabilidade de transações da Travel Rule e direitos de passaporte em toda a UE para provedores licenciados. Os desafios atuais incluem França, Áustria e Itália pedindo maior fiscalização (setembro de 2025), implementação desigual entre os estados membros, preocupações com arbitragem regulatória, sobreposição com as regulamentações de pagamento PSD2/PSD3 e restrições a stablecoins não compatíveis com MiCA. O DORA (Digital Operational Resilience Act) aplicável a partir de 17 de janeiro de 2025 adiciona estruturas abrangentes de resiliência operacional e medidas obrigatórias de segurança cibernética.

A dinâmica do mercado demonstra tanto euforia quanto cautela. A atividade de capital de risco em 2024 viu US8bilho~esinvestidosemcriptonosprimeirostre^strimestres(estaˊvelemrelac\ca~oa2023),comoterceirotrimestrede2024mostrandoUS 8 bilhões investidos em cripto nos primeiros três trimestres (estável em relação a 2023), com o terceiro trimestre de 2024 mostrando US 2,4 bilhões em 478 negócios (-20% QoQ), mas projetos de IA x Cripto recebendo US270milho~esnoterceirotrimestre(aumentode5xemrelac\ca~oaosegundotrimestre).Agentesauto^nomosdeIAemestaˊgioinicialatraıˊramUS 270 milhões no terceiro trimestre (aumento de 5x em relação ao segundo trimestre). Agentes autônomos de IA em estágio inicial atraíram US 700 milhões em 2024-2025, com avaliações pré-money medianas atingindo um recorde de US25milho~esetamanhosmeˊdiosdenegoˊciosdeUS 25 milhões e tamanhos médios de negócios de US 3,5 milhões. O primeiro trimestre de 2025 viu US80,1bilho~eslevantados(aumentode28 80,1 bilhões levantados (aumento de 28% QoQ impulsionado por um negócio de US 40 bilhões da OpenAI), com a IA representando 74% do investimento no setor de TI, apesar da diminuição dos volumes de negócios. A distribuição geográfica mostra os EUA dominando com 56% do capital e 44% dos negócios, crescimento na Ásia no Japão (+2%), Índia (+1%), Coreia do Sul (+1%) e China em declínio de -33% ano a ano.

As avaliações revelam desconexões dos fundamentos. Os principais tokens de agentes de IA, incluindo Virtuals Protocol (alta de 35.000% ano a ano para US1,8bilha~o),ai16z(+176 1,8 bilhão), ai16z (+176% em uma semana para US 2,3 bilhões), AIXBT (cerca de US500milho~es)elistagensdefuturosdaBinanceparaZerebroeGriffain,demonstramfervorespeculativo.AaltavolatilidadecomquedasrepentinaseliminandoUS 500 milhões) e listagens de futuros da Binance para Zerebro e Griffain, demonstram fervor especulativo. A alta volatilidade com quedas repentinas eliminando US 500 milhões em posições alavancadas em semanas únicas, lançamentos rápidos de tokens via plataformas como pump.fun e "memecoins de agentes de IA" como categoria distinta sugerem características de bolha. As preocupações tradicionais de VC se concentram no trading de cripto a cerca de 250x preço-para-vendas versus Nasdaq 6,25x e S&P 3,36x, alocadores institucionais permanecendo cautelosos após os colapsos de 2022 e a "meta de receita" emergindo, exigindo modelos de negócios comprovados.

As críticas se agrupam em cinco áreas principais. As preocupações técnicas e de segurança incluem vulnerabilidades na infraestrutura de carteiras, com a maioria das plataformas DeFi exigindo aprovações manuais, criando riscos catastróficos, falhas algorítmicas como a liquidação de US$ 2 bilhões da Terra/Luna, loops de feedback infinitos entre agentes, falhas em cascata de sistemas multiagentes, problemas de qualidade e viés de dados perpetuando a discriminação e vulnerabilidades de manipulação através de dados de treinamento corrompidos. Questões de governança e responsabilidade se manifestam através da concentração de tokens que derrota a descentralização (menos de 1% controlando 90% do poder de voto), acionistas inativos interrompendo a funcionalidade, suscetibilidade a aquisições hostis (Build Finance DAO drenada em 2022), lacunas de responsabilidade sobre danos causados por agentes, desafios de explicabilidade e "agentes desonestos" explorando brechas de programação.

As críticas de mercado e econômicas se concentram na desconexão de avaliação com o P/V de 250x da cripto versus 6-7x tradicional, preocupações com bolhas que se assemelham aos ciclos de boom/bust de ICO, muitos agentes como "chatbots glorificados", adoção impulsionada pela especulação em vez da utilidade, utilidade prática limitada com a maioria dos agentes atualmente sendo simples influenciadores do Twitter, interoperabilidade entre cadeias deficiente e estruturas agenticas fragmentadas impedindo a adoção. Os riscos sistêmicos e sociais incluem a concentração de Big Tech com forte dependência de Microsoft/OpenAI/serviços de nuvem (a interrupção da CrowdStrike em julho de 2024 destacou as interdependências), 63% dos modelos de IA usando nuvem pública para treinamento, reduzindo a concorrência, consumo significativo de energia para treinamento de modelos, 92 milhões de empregos deslocados até 2030, apesar de 170 milhões de novos empregos projetados, e riscos de crimes financeiros de desafios AML/KYC com agentes autônomos permitindo lavagem de dinheiro automatizada.

O "paradoxo da IA Generativa" captura os desafios de implantação: 79% de adoção empresarial, mas 78% relatam nenhum impacto significativo no resultado final. O MIT relata que 95% dos pilotos de IA falham devido à má preparação de dados e falta de loops de feedback. A integração com sistemas legados é o principal desafio para 60% das organizações, exigindo estruturas de segurança desde o primeiro dia, gerenciamento de mudanças e treinamento em alfabetização em IA, e mudanças culturais de modelos centrados no ser humano para modelos colaborativos com IA. Essas barreiras práticas explicam por que o entusiasmo institucional não se traduziu em retornos financeiros correspondentes, sugerindo que o ecossistema permanece em estágios iniciais experimentais, apesar do rápido crescimento da capitalização de mercado.

Implicações práticas para finanças, investimento e negócios

O capital autônomo transforma as finanças tradicionais através de ganhos imediatos de produtividade e reposicionamento estratégico. Os serviços financeiros veem agentes de IA executando trades 126% mais rápido com otimização de portfólio em tempo real, detecção de fraudes através de detecção de anomalias em tempo real e avaliação proativa de riscos, 68% das interações com clientes esperadas para serem tratadas por IA até 2028, avaliação de crédito usando avaliação contínua com dados de transações em tempo real e tendências comportamentais, e automação de conformidade realizando avaliações dinâmicas de riscos e relatórios regulatórios. As métricas de transformação mostram que 70% dos executivos de serviços financeiros antecipam a IA agentica para experiências personalizadas, aumentos de receita de 3-15% para implementadores de IA, um aumento de 10-20% no ROI de vendas, 90% observando fluxos de trabalho mais eficientes e 38% dos funcionários relatando criatividade facilitada.

O capital de risco passa por uma evolução da tese de plays de infraestrutura pura para infraestrutura específica de aplicação, focando em demanda, distribuição e receita, em vez de tokens pré-lançamento. Grandes oportunidades surgem em stablecoins pós-clareza regulatória, energia x DePIN alimentando a infraestrutura de IA e mercados de GPU para recursos de computação. Os requisitos de due diligence se expandem dramaticamente: avaliação da arquitetura técnica (autonomia de Nível 1-5), estruturas de governança e ética, postura de segurança e trilhas de auditoria, roteiro de conformidade regulatória, economia de tokens e análise de distribuição, e capacidade da equipe de navegar pela incerteza regulatória. Os fatores de risco incluem 95% dos pilotos de IA falhando (relatório do MIT), má preparação de dados e falta de loops de feedback como principais causas, dependência de fornecedores para empresas sem expertise interna e múltiplos de avaliação desconectados dos fundamentos.

Os modelos de negócios se multiplicam à medida que o capital autônomo permite inovações anteriormente impossíveis. Veículos de investimento autônomos agrupam capital através de DAOs para implantação algorítmica com participação nos lucros proporcional às contribuições (modelo de fundo de hedge ai16z). IA-como-Serviço (AIaaS) vende capacidades de agentes tokenizados como serviços com taxas de inferência para interações de chat e propriedade fracionada de agentes de alto valor. A monetização de dados cria mercados de dados descentralizados com tokenização permitindo compartilhamento seguro usando técnicas de preservação de privacidade como provas de conhecimento zero. O market making automatizado fornece provisão e otimização de liquidez com taxas de juros dinâmicas baseadas em oferta/demanda e arbitragem entre cadeias. Conformidade-como-Serviço oferece verificações automatizadas de AML/KYC, relatórios regulatórios em tempo real e auditoria de contratos inteligentes.

Os riscos do modelo de negócios incluem incerteza na classificação regulatória, responsabilidade pela proteção do consumidor, dependências de plataforma, efeitos de rede favorecendo os primeiros a agir e problemas de velocidade do token. No entanto, implementações bem-sucedidas demonstram viabilidade: Gauntlet gerenciando mais de US$ 1 bilhão em TVL através de gerenciamento de risco impulsionado por simulação, SingularityDAO entregando 25% de ROI através de portfólios gerenciados por IA e Virtuals Protocol lançando mais de 17.000 agentes com produtos de entretenimento e análise geradores de receita.

As indústrias tradicionais passam por automação em todos os setores. A saúde implanta agentes de IA para diagnósticos (FDA aprovou 223 dispositivos médicos habilitados para IA em 2023, um aumento de 6 em 2015), otimização do tratamento de pacientes e automação administrativa. O transporte vê a Waymo realizando mais de 150.000 viagens autônomas semanalmente e a Baidu Apollo Go atendendo várias cidades chinesas com sistemas de direção autônoma melhorando 67,3% ano a ano. A cadeia de suprimentos e a logística se beneficiam da otimização de rotas em tempo real, automação do gerenciamento de estoque e coordenação de fornecedores. Serviços jurídicos e profissionais adotam processamento de documentos e análise de contratos, monitoramento de conformidade regulatória e automação de due diligence.

A transformação da força de trabalho cria deslocamento junto com oportunidades. Embora 92 milhões de empregos enfrentem deslocamento até 2030, as projeções mostram 170 milhões de novos empregos criados, exigindo diferentes conjuntos de habilidades. O desafio reside na transição — programas de requalificação, redes de segurança e reformas educacionais devem acelerar para evitar desemprego em massa e disrupção social. Evidências iniciais mostram que os empregos de IA nos EUA no primeiro trimestre de 2025 atingiram 35.445 posições (+25,2% ano a ano) com salários medianos de US$ 156.998 e menções a anúncios de empregos de IA aumentando 114,8% (2023) e depois 120,6% (2024). No entanto, esse crescimento se concentra em funções técnicas, deixando questões sobre a inclusão econômica mais ampla sem resposta.

Os riscos exigem estratégias abrangentes de mitigação em cinco categorias. Riscos técnicos (vulnerabilidades de contratos inteligentes, falhas de oráculos, erros em cascata) exigem testes contínuos de equipes vermelhas, verificação formal, disjuntores, protocolos de seguro como Nexus Mutual e implantação gradual com autonomia limitada inicialmente. Riscos regulatórios (status legal incerto, fiscalização retroativa, conflitos jurisdicionais) exigem engajamento proativo com reguladores, divulgação clara e whitepapers, estruturas robustas de KYC/AML, planejamento de entidades legais (Wyoming DAO LLC) e diversificação geográfica. Riscos operacionais (envenenamento de dados, deriva de modelo, falhas de integração) necessitam de supervisão humana no loop para decisões críticas, monitoramento e retreinamento contínuos, integração faseada, sistemas de fallback e redundância, e registros abrangentes de agentes rastreando propriedade e exposição.

Os riscos de mercado (dinâmica de bolha, crises de liquidez, concentração de tokens, colapso de avaliação) precisam de foco na criação de valor fundamental versus especulação, distribuição diversificada de tokens, períodos de bloqueio e cronogramas de aquisição, melhores práticas de gerenciamento de tesouraria e comunicação transparente sobre limitações. Os riscos sistêmicos (concentração de Big Tech, falhas de rede, contágio financeiro) exigem estratégias multi-nuvem, infraestrutura descentralizada (IA de borda, modelos locais), testes de estresse e planejamento de cenários, coordenação regulatória entre jurisdições e consórcios da indústria para desenvolvimento de padrões.

Os cronogramas de adoção sugerem otimismo moderado para o curto prazo, potencial transformador para o longo prazo. O curto prazo (2025-2027) vê autonomia de Nível 1-2 com automação baseada em regras e otimização de fluxo de trabalho mantendo supervisão humana, 25% das empresas usando IA generativa lançando pilotos agenticos em 2025 (Deloitte) crescendo para 50% até 2027, o mercado de agentes de IA autônomos atingindo US6,8bilho~es(2024)expandindoparamaisdeUS 6,8 bilhões (2024) expandindo para mais de US 20 bilhões (2027), e 15% das decisões de trabalho tomadas autonomamente até 2028 (Gartner). As barreiras à adoção incluem casos de uso e ROI pouco claros (60% citam isso), desafios de integração de sistemas legados, preocupações com risco e conformidade, e escassez de talentos.

O médio prazo (2028-2030) traz autonomia de Nível 3-4 com agentes operando em domínios estreitos sem supervisão contínua, sistemas de colaboração multiagente, tomada de decisão adaptativa em tempo real e crescente confiança nas recomendações de agentes. As projeções de mercado mostram a IA generativa contribuindo com US2,64,4trilho~esanualmenteparaoPIBglobal,omercadodeagentesauto^nomosatingindoUS 2,6-4,4 trilhões anualmente para o PIB global, o mercado de agentes autônomos atingindo US 52,6 bilhões até 2030 (CAGR de 45%), 3 horas por dia de atividades automatizadas (acima de 1 hora em 2024) e 68% das interações cliente-fornecedor tratadas por IA. Os desenvolvimentos de infraestrutura incluem blockchains específicos para agentes (ai16z), padrões de interoperabilidade entre cadeias, protocolos unificados de armazenamento de chaves para permissões e infraestrutura de carteira programável mainstream.

O longo prazo (2030+) prevê autonomia de Nível 5 com agentes totalmente autônomos e intervenção humana mínima, sistemas autoaperfeiçoáveis se aproximando das capacidades de IAG, agentes contratando outros agentes e humanos, e alocação de capital autônoma em escala. A transformação sistêmica apresenta agentes de IA como colegas de trabalho, em vez de ferramentas, economia tokenizada com transações agente-a-agente, modelo "Hollywood" descentralizado para coordenação de projetos e 170 milhões de novos empregos exigindo novos conjuntos de habilidades. Permanecem incertezas chave: maturidade da estrutura regulatória, confiança e aceitação pública, avanços ou limitações técnicas em IA, gerenciamento de disrupção econômica e problemas de alinhamento ético e controle.

Fatores críticos de sucesso para o desenvolvimento do ecossistema incluem clareza regulatória que permite a inovação enquanto protege os consumidores, padrões de interoperabilidade para comunicação entre cadeias e plataformas, infraestrutura de segurança como base com testes e auditorias robustos, desenvolvimento de talentos através de programas de alfabetização em IA e suporte à transição da força de trabalho, e economia sustentável criando valor além da especulação. Projetos individuais exigem utilidade real resolvendo problemas genuínos, governança forte com representação equilibrada das partes interessadas, excelência técnica com design focado em segurança, estratégia regulatória com conformidade proativa e alinhamento da comunidade através de comunicação transparente e valor compartilhado. A adoção institucional exige prova de ROI além dos ganhos de eficiência, estruturas abrangentes de gerenciamento de riscos, gerenciamento de mudanças com transformação cultural e treinamento, estratégia de fornecedores equilibrando construir versus comprar, evitando o aprisionamento, e diretrizes éticas para autoridade de decisão autônoma.

O ecossistema de capital autônomo representa uma genuína inovação tecnológica e financeira com potencial transformador, mas enfrenta desafios significativos em torno de segurança, governança, regulamentação e utilidade prática. O mercado experimenta um rápido crescimento impulsionado por especulação e desenvolvimento legítimo em igual medida, exigindo compreensão sofisticada, navegação cuidadosa e expectativas realistas de todos os participantes à medida que este campo emergente amadurece em direção à adoção mainstream.

Conclusão: A trajetória do capital autônomo

A revolução do capital autônomo não é nem uma utopia inevitável nem uma certeza distópica, mas sim um campo emergente onde a inovação tecnológica genuína se cruza com riscos significativos, exigindo uma compreensão matizada das capacidades, limitações e desafios de governança. Cinco líderes de pensamento chave aqui perfilados — Tarun Chitra, Amjad Masad, Jordi Alexander, Alexander Pack e Irene Wu — demonstram abordagens distintas, mas complementares, para construir este futuro: a governança automatizada de Chitra através de simulação e gerenciamento de riscos, as economias de rede e infraestrutura de desenvolvimento impulsionadas por agentes de Masad, a tese de investimento informada pela teoria dos jogos de Alexander enfatizando o julgamento humano, a estratégia de capital de risco focada em infraestrutura de Pack e os fundamentos de interoperabilidade omnichain de Wu.

O trabalho coletivo deles estabelece que o capital autônomo é tecnicamente viável hoje — demonstrado pela Gauntlet gerenciando mais de US$ 1 bilhão em TVL, os 25% de ROI da SingularityDAO através de portfólios de IA, os mais de 17.000 agentes lançados pelo Virtuals Protocol e sistemas de trading de produção entregando resultados verificados. No entanto, o "paradoxo da falta de confiança" identificado por pesquisadores permanece sem solução: implantar IA em infraestrutura blockchain sem confiança evita confiar em humanos falíveis, mas cria sistemas de IA potencialmente não confiáveis operando além da intervenção. Essa tensão fundamental entre autonomia e responsabilidade definirá se o capital autônomo se tornará uma ferramenta para o florescimento humano ou uma força ingovernável.

A perspectiva de curto prazo (2025-2027) sugere experimentação cautelosa com 25-50% dos usuários de IA generativa lançando pilotos agenticos, autonomia de Nível 1-2 mantendo supervisão humana, crescimento do mercado de US6,8bilho~esparamaisdeUS 6,8 bilhões para mais de US 20 bilhões, mas barreiras persistentes à adoção em torno de ROI incerto, desafios de integração legada e incerteza regulatória. O médio prazo (2028-2030) pode ver autonomia de Nível 3-4 operando em domínios estreitos, sistemas multiagentes coordenando autonomamente e IA generativa contribuindo com US$ 2,6-4,4 trilhões para o PIB global se os desafios técnicos e de governança forem resolvidos com sucesso. As visões de longo prazo (2030+) de autonomia de Nível 5 com sistemas totalmente autoaperfeiçoáveis gerenciando capital em escala permanecem especulativas, dependendo de avanços nas capacidades de IA, estruturas regulatórias, infraestrutura de segurança e capacidade da sociedade de gerenciar transições da força de trabalho.

Questões abertas críticas determinam os resultados: A clareza regulatória permitirá ou restringirá a inovação? A infraestrutura de segurança pode amadurecer rápido o suficiente para evitar falhas catastróficas? Os objetivos de descentralização se materializarão ou a concentração de Big Tech aumentará? Modelos de negócios sustentáveis podem surgir além da especulação? Como a sociedade gerenciará 92 milhões de empregos deslocados, mesmo com o surgimento de 170 milhões de novas posições? Essas perguntas carecem de respostas definitivas hoje, tornando o ecossistema de capital autônomo de alto risco e alta oportunidade simultaneamente.

As perspectivas dos cinco líderes de pensamento convergem em princípios chave: a simbiose humano-IA supera a autonomia pura, com a IA lidando com a velocidade de execução e análise de dados, enquanto os humanos fornecem julgamento estratégico e alinhamento de valores; segurança e gerenciamento de riscos exigem rigor em nível de paranoia, pois os atacantes detêm vantagens econômicas fundamentais sobre os defensores; interoperabilidade e padronização determinarão quais plataformas alcançam efeitos de rede e domínio de longo prazo; o engajamento regulatório deve ser proativo, em vez de reativo, à medida que os quadros legais evoluem globalmente; e o foco na criação de valor fundamental, em vez da especulação, separa projetos sustentáveis das vítimas de bolhas.

Para os participantes em todo o ecossistema, as recomendações estratégicas diferem por função. Os investidores devem diversificar a exposição entre as camadas de plataforma, aplicação e infraestrutura, enquanto se concentram em modelos geradores de receita e postura regulatória, planejando para volatilidade extrema e dimensionando as posições de acordo. Os desenvolvedores devem escolher filosofias arquitetônicas (Catedral versus Bazar), investir pesadamente em auditorias de segurança e verificação formal, construir para interoperabilidade entre cadeias, engajar os reguladores precocemente e resolver problemas reais, em vez de criar "chatbots glorificados". As empresas devem começar com pilotos de baixo risco em atendimento ao cliente e análise, investir em infraestrutura e dados prontos para agentes, estabelecer governança clara para autoridade de decisão autônoma, treinar a força de trabalho em alfabetização em IA e equilibrar inovação com controle.

Os formuladores de políticas enfrentam talvez o desafio mais complexo: harmonizar a regulamentação internacionalmente, permitindo a inovação, usando abordagens de sandbox e portos seguros para experimentação, protegendo os consumidores através de divulgações obrigatórias e prevenção de fraudes, abordando riscos sistêmicos de concentração de Big Tech e dependências de rede, e preparando a força de trabalho através de programas de educação e suporte à transição para trabalhadores deslocados. A regulamentação MiCA da UE fornece um modelo que equilibra inovação com proteção, embora os desafios de fiscalização e as preocupações com a arbitragem jurisdicional permaneçam.

A avaliação mais realista sugere que o capital autônomo evoluirá gradualmente, em vez de revolucionariamente da noite para o dia, com sucessos em domínios estreitos (trading, atendimento ao cliente, análise) precedendo a autonomia de propósito geral, sistemas híbridos humano-IA superando a automação pura no futuro previsível, e estruturas regulatórias levando anos para se cristalizar, criando incerteza contínua. As reestruturações e falhas do mercado são inevitáveis, dada a dinâmica especulativa, as limitações tecnológicas e as vulnerabilidades de segurança, mas as tendências tecnológicas subjacentes — melhorias na capacidade da IA, amadurecimento do blockchain e adoção institucional de ambos — apontam para crescimento e sofisticação contínuos.

O capital autônomo representa uma legítima mudança de paradigma tecnológico com potencial para democratizar o acesso a ferramentas financeiras sofisticadas, aumentar a eficiência do mercado através de otimização autônoma 24 horas por dia, 7 dias por semana, permitir novos modelos de negócios impossíveis nas finanças tradicionais e criar economias máquina a máquina operando em velocidades super-humanas. No entanto, também corre o risco de concentrar o poder nas mãos de elites técnicas que controlam a infraestrutura crítica, criar instabilidades sistêmicas através de sistemas autônomos interconectados, deslocar trabalhadores humanos mais rapidamente do que os programas de requalificação podem se adaptar e permitir crimes financeiros em escala de máquina através de lavagem de dinheiro e fraude automatizadas.

O resultado depende das escolhas feitas hoje por construtores, investidores, formuladores de políticas e usuários. Os cinco líderes de pensamento perfilados demonstram que abordagens ponderadas e rigorosas que priorizam segurança, transparência, supervisão humana e governança ética podem criar valor genuíno enquanto gerenciam riscos. O trabalho deles fornece projetos para desenvolvimento responsável: o rigor científico de Chitra através de simulação, a infraestrutura centrada no usuário de Masad, a avaliação de risco baseada na teoria dos jogos de Alexander, o investimento focado em infraestrutura de Pack e os fundamentos de interoperabilidade de Wu.

Como Jordi Alexander enfatizou: "Julgamento é a capacidade de integrar informações complexas e tomar decisões ótimas — é precisamente onde as máquinas falham." O futuro do capital autônomo provavelmente será definido não pela autonomia total da IA, mas por uma colaboração sofisticada onde a IA lida com execução, processamento de dados e otimização, enquanto os humanos fornecem julgamento, estratégia, ética e responsabilidade. Essa parceria humano-IA, possibilitada pela infraestrutura sem confiança e pelo dinheiro programável da cripto, representa o caminho mais promissor — equilibrando inovação com responsabilidade, eficiência com segurança e autonomia com alinhamento aos valores humanos.

Sui Blockchain: Engenharia do Futuro da IA, Robótica e Computação Quântica

· Leitura de 28 minutos
Dora Noda
Software Engineer

A blockchain Sui emergiu como a plataforma tecnicamente mais avançada para cargas de trabalho computacionais de próxima geração, alcançando 297.000 transações por segundo com 480ms de finalidade, enquanto integra criptografia resistente a quântica e infraestrutura robótica construída para esse fim. Liderada pelo Criptógrafo Chefe Kostas Chalkias — que possui mais de 50 publicações acadêmicas e foi pioneiro em inovações criptográficas no projeto Diem da Meta — a Sui representa uma ruptura arquitetônica fundamental das blockchains legadas, projetada especificamente para habilitar agentes de IA autônomos, coordenação multi-robô e segurança pós-quântica.

Ao contrário de concorrentes que adaptam blockchains para computação avançada, o modelo de dados centrado em objetos da Sui, a linguagem de programação Move e o protocolo de consenso Mysticeti foram projetados desde o início para operações de IA paralelas, controle robótico em tempo real e agilidade criptográfica — capacidades validadas através de implantações ao vivo, incluindo mais de 50 projetos de IA, demonstrações de colaboração multi-robô e o primeiro caminho de atualização retrocompatível e seguro contra quântica para carteiras blockchain do mundo.

A revolucionária base técnica da Sui torna o impossível possível

A arquitetura da Sui rompe com os modelos tradicionais de blockchain baseados em contas através de três inovações sinérgicas que a posicionam de forma única para aplicações de IA, robótica e quântica.

O protocolo de consenso Mysticeti alcança um desempenho sem precedentes através de uma arquitetura DAG não certificada, reduzindo a latência do consenso para 390-650ms (80% mais rápido que seu predecessor), enquanto suporta um throughput sustentado de mais de 200.000 TPS. Isso representa um avanço fundamental: blockchains tradicionais como Ethereum exigem 12-15 segundos para finalidade, enquanto o caminho rápido da Sui para transações de um único proprietário é concluído em apenas 250ms. Os múltiplos líderes por rodada do protocolo e o mecanismo de compromisso implícito permitem loops de decisão de IA em tempo real e sistemas de controle robótico que exigem feedback em sub-segundos — aplicações fisicamente impossíveis em cadeias de execução sequenciais.

O modelo de dados centrado em objetos trata cada ativo como um objeto endereçável independentemente, com propriedade e versionamento explícitos, permitindo a análise estática de dependência antes da execução. Essa escolha arquitetônica elimina a sobrecarga de detecção de conflitos retroativos que assola os modelos de execução otimista, permitindo que milhares de agentes de IA transacionem simultaneamente sem contenção. Objetos ignoram completamente o consenso quando pertencem a partes únicas, economizando 70% do tempo de processamento para operações comuns. Para a robótica, isso significa que robôs individuais mantêm objetos próprios para dados de sensores, enquanto coordenam através de objetos compartilhados apenas quando necessário — espelhando precisamente as arquiteturas de sistemas autônomos do mundo real.

A linguagem de programação Move oferece segurança orientada a recursos impossível em linguagens baseadas em contas como Solidity. Ativos existem como tipos de primeira classe que não podem ser copiados ou destruídos — apenas movidos entre contextos — prevenindo classes inteiras de vulnerabilidades, incluindo ataques de reentrância, gasto duplo e manipulação não autorizada de ativos. O sistema de tipos linear do Move e o suporte à verificação formal o tornam particularmente adequado para agentes de IA que gerenciam ativos valiosos autonomamente. Os Blocos de Transação Programáveis compõem até 1.024 chamadas de função atomicamente, permitindo fluxos de trabalho complexos de IA em várias etapas com consistência garantida.

Kostas Chalkias arquitetura a resistência quântica como vantagem competitiva

Kostas "Kryptos" Chalkias traz uma expertise criptográfica incomparável para a estratégia de computação quântica da Sui, tendo sido o autor do algoritmo Blockchained Post-Quantum Signature (BPQS), liderado a criptografia para a blockchain Diem da Meta e publicado mais de 50 artigos revisados por pares, citados mais de 1.374 vezes. Sua pesquisa inovadora de julho de 2025 demonstrou o primeiro caminho de atualização retrocompatível e seguro contra quântica para carteiras blockchain, aplicável a cadeias baseadas em EdDSA, incluindo Sui, Solana, Near e Cosmos.

A visão de Chalkias posiciona a resistência quântica não como uma preocupação distante, mas como um diferenciador competitivo imediato. Ele alertou em janeiro de 2025 que "os governos estão bem cientes dos riscos representados pela computação quântica. Agências em todo o mundo emitiram mandatos de que algoritmos clássicos como ECDSA e RSA devem ser depreciados até 2030 ou 2035." Sua percepção técnica: mesmo que os usuários retenham chaves privadas, eles podem ser incapazes de gerar provas de propriedade pós-quânticas sem expor as chaves a ataques quânticos. A solução da Sui aproveita provas STARK de conhecimento zero para provar o conhecimento de sementes de geração de chaves sem revelar dados sensíveis — uma inovação criptográfica impossível em blockchains que carecem de agilidade embutida.

A estrutura de agilidade criptográfica representa a filosofia de design de Chalkias. A Sui usa flags de 1 byte para distinguir esquemas de assinatura (Ed25519, ECDSA Secp256k1/r1, BLS12-381, multisig, zkLogin), permitindo suporte em nível de protocolo para novos algoritmos sem sobrecarga de contrato inteligente ou hard forks. Essa arquitetura permite transições "com o apertar de um botão" para algoritmos pós-quânticos padronizados pelo NIST, incluindo CRYSTALS-Dilithium (assinaturas de 2.420 bytes) e FALCON (assinaturas de 666 bytes) quando as ameaças quânticas se materializarem. Chalkias arquitetou múltiplos caminhos de migração: proativo (novas contas geram chaves PQ na criação), adaptativo (provas STARK permitem migração PQ de sementes existentes) e híbrido (multisig com limite de tempo combinando chaves clássicas e resistentes a quântica).

Sua inovação zkLogin demonstra criatividade criptográfica aplicada à usabilidade. O sistema permite que os usuários se autentiquem via credenciais Google, Facebook ou Twitch usando provas de conhecimento zero Groth16 sobre curvas BN254, com salt controlado pelo usuário prevenindo a correlação de identidade Web2-Web3. Os endereços zkLogin abordam considerações quânticas desde o design — as provas de conhecimento de semente baseadas em STARK fornecem segurança pós-quântica mesmo quando as assinaturas JWT subjacentes transitam de RSA para alternativas baseadas em rede.

No Sui Basecamp 2025, Chalkias revelou aleatoriedade verificável nativa, túneis zk para lógica off-chain, transações relâmpago (zero-gas, zero-latência) e cápsulas do tempo para acesso futuro a dados criptografados. Esses recursos alimentam simulações privadas de agentes de IA, aplicações de jogos de azar que exigem aleatoriedade confiável e jogos de pôquer de conhecimento zero — tudo impossível sem primitivas criptográficas em nível de protocolo. Sua visão: "Um objetivo para a Sui era se tornar a primeira blockchain a adotar tecnologias pós-quânticas, melhorando assim a segurança e preparando-se para futuros padrões regulatórios."

A infraestrutura de agentes de IA atinge maturidade de produção na Sui

A Sui hospeda o ecossistema de agentes de IA mais abrangente da indústria blockchain, com mais de 50 projetos abrangendo infraestrutura, frameworks e aplicações — todos aproveitando a execução paralela da Sui e a finalidade em sub-segundos para operações autônomas em tempo real.

A Atoma Network foi lançada na mainnet da Sui em dezembro de 2024 como a primeira camada de inferência de IA totalmente descentralizada, posicionando-se como o "hiperescalador descentralizado para IA de código aberto". Todo o processamento ocorre em Ambientes de Execução Confiáveis (TEEs), garantindo privacidade completa e resistência à censura, enquanto mantém a compatibilidade de API com endpoints OpenAI. A aplicação de chat Utopia demonstra IA de preservação de privacidade pronta para produção com desempenho que se iguala ao ChatGPT, liquidando pagamentos e validação através da finalidade em sub-segundos da Sui. A Atoma permite gerenciamento de portfólio DeFi, moderação de conteúdo de mídia social e aplicações de assistente pessoal — casos de uso que exigem inteligência de IA e liquidação em blockchain impossíveis de alcançar em cadeias mais lentas.

A OpenGraph Labs alcançou um avanço técnico como o primeiro sistema de inferência de IA totalmente on-chain projetado especificamente para agentes de IA. Seu SDK TensorflowSui automatiza a implantação de modelos de ML Web2 (TensorFlow, PyTorch) na blockchain Sui, armazenando dados de treinamento no armazenamento descentralizado Walrus enquanto executa inferências usando Blocos de Transação Programáveis. A OpenGraph oferece três abordagens flexíveis de inferência: inferência PTB para computações críticas que exigem atomicidade, transações divididas para otimização de custos e combinações híbridas personalizadas por caso de uso. Essa arquitetura elimina os riscos de IA de "caixa preta" através de processos de inferência totalmente verificáveis e auditáveis com propriedade algorítmica claramente definida — crítico para indústrias regulamentadas que exigem IA explicável.

A Talus Network foi lançada na Sui em fevereiro de 2025 com a estrutura Nexus, permitindo que desenvolvedores construam agentes de IA composáveis que executam fluxos de trabalho diretamente on-chain. A plataforma Idol.fun da Talus demonstra agentes de IA voltados para o consumidor como entidades tokenizadas operando autonomamente 24 horas por dia, 7 dias por semana, tomando decisões em tempo real aproveitando conjuntos de dados armazenados no Walrus para sentimento de mercado, estatísticas DeFi e tendências sociais. Exemplos de aplicações incluem gerenciamento dinâmico de perfil NFT, agentes de estratégia de liquidez DeFi carregando modelos em tempo real e agentes de detecção de fraude analisando padrões de transação históricos de pontos de verificação imutáveis da Sui.

A parceria com Alibaba Cloud, anunciada em agosto de 2025, integrou assistentes de codificação de IA na plataforma de desenvolvimento ChainIDE com suporte a vários idiomas (inglês, chinês, coreano). Os recursos incluem geração de código Move a partir de linguagem natural, autocompletar inteligente, detecção de vulnerabilidades de segurança em tempo real e geração automatizada de documentação — reduzindo barreiras para 60% do público-alvo de desenvolvedores da Sui que não falam inglês. Essa parceria valida o posicionamento da Sui como a plataforma de desenvolvimento de IA, não apenas uma plataforma de implantação de IA.

As transações patrocinadas da Sui eliminam a fricção de pagamento de gas para agentes de IA — os construtores podem cobrir as taxas de transação, permitindo que os agentes operem sem possuir tokens SUI. A denominação MIST (1 SUI = 1 bilhão de MIST) permite micropagamentos tão pequenos quanto frações de um centavo, perfeitos para serviços de IA de pagamento por inferência. Com custos médios de transação em torno de US$ 0,0023, os agentes de IA podem executar milhares de operações diariamente por centavos, tornando as economias de agentes autônomos economicamente viáveis.

A colaboração multi-robô prova a vantagem de coordenação em tempo real da Sui

A Sui demonstrou o primeiro sistema de colaboração multi-robô da indústria blockchain usando o consenso Mysticeti, validado pela análise abrangente da Tiger Research em 2025. O sistema permite que robôs compartilhem um estado consistente em ambientes distribuídos, mantendo a Tolerância a Falhas Bizantinas — garantindo consenso mesmo quando robôs funcionam mal ou são comprometidos por adversários.

A arquitetura técnica aproveita o modelo de objeto da Sui, onde os robôs existem como objetos programáveis com metadados, propriedade e capacidades. As tarefas são atribuídas a objetos robóticos específicos com contratos inteligentes automatizando regras de sequenciamento e alocação de recursos. O sistema mantém a confiabilidade sem servidores centrais, com propostas de bloco paralelas de múltiplos validadores prevenindo pontos únicos de falha. A finalidade de transação em sub-segundos permite loops de ajuste em tempo real — robôs recebem confirmações de tarefas e atualizações de estado em menos de 400ms, correspondendo aos requisitos do sistema de controle para operação autônoma responsiva.

Testes físicos com robôs semelhantes a cães já demonstraram a viabilidade, com equipes da NASA, Meta e Uber desenvolvendo aplicações robóticas baseadas na Sui. A capacidade única de "modo sem internet" da Sui — operando via ondas de rádio sem conectividade estável à internet — oferece vantagens revolucionárias para implantações rurais na África, Ásia rural e cenários de emergência. Essa capacidade offline existe exclusivamente na Sui entre as principais blockchains, validada por testes durante quedas de energia na Espanha/Portugal.

A parceria 3DOS, anunciada em setembro de 2024, valida as capacidades de robótica de fabricação da Sui em escala. A 3DOS integrou mais de 79.909 impressoras 3D em mais de 120 países como parceira exclusiva de blockchain da Sui, criando uma rede de "Uber para impressão 3D" que permite a fabricação peer-to-peer. Clientes notáveis incluem John Deere, Google, MIT, Harvard, Bosch, Exército Britânico, Marinha dos EUA, Força Aérea dos EUA e NASA — demonstrando confiança de nível empresarial na infraestrutura da Sui. O sistema permite que robôs encomendem e imprimam autonomamente peças de reposição através da automação de contratos inteligentes, facilitando a autorreparação de robôs com intervenção humana quase nula. Isso aborda o mercado global de fabricação de US$ 15,6 trilhões através da produção sob demanda, eliminando estoque, desperdício e envio internacional.

A Tolerância a Falhas Bizantinas da Sui prova ser crítica para aplicações robóticas críticas para a segurança. O mecanismo de consenso tolera até f robôs defeituosos/maliciosos em um sistema 3f+1, garantindo que frotas de veículos autônomos, robôs de armazém e sistemas de fabricação mantenham a coordenação apesar de falhas individuais. Contratos inteligentes impõem restrições de segurança e limites operacionais, com trilhas de auditoria imutáveis fornecendo responsabilidade por decisões autônomas — requisitos impossíveis de atender com servidores de coordenação centralizados vulneráveis a pontos únicos de falha.

O roteiro de resistência quântica oferece superioridade criptográfica

A estratégia de computação quântica da Sui representa a única abordagem abrangente e proativa da indústria blockchain, alinhada com os mandatos do NIST que exigem a depreciação de algoritmos clássicos até 2030 e a padronização completa resistente a quântica até 2035.

A pesquisa inovadora de Chalkias de julho de 2025 demonstrou que cadeias baseadas em EdDSA, incluindo a Sui, podem implementar atualizações de carteira seguras contra quântica sem hard forks, mudanças de endereço ou congelamento de contas, através de provas de conhecimento zero que comprovam o conhecimento da semente. Isso permite uma migração segura mesmo para contas dormentes — resolvendo a ameaça existencial que as blockchains enfrentam, onde milhões de carteiras "poderiam ser esvaziadas instantaneamente" assim que os computadores quânticos chegarem. A inovação técnica usa provas STARK (segurança baseada em hash resistente a quântica) para provar o conhecimento de sementes de geração de chaves EdDSA sem expor dados sensíveis, permitindo que os usuários estabeleçam a propriedade de chaves PQ vinculadas a endereços existentes.

A arquitetura de agilidade criptográfica da Sui permite múltiplas estratégias de transição: proativa (chaves PQ assinam chaves públicas PreQ na criação), adaptativa (provas STARK migram endereços existentes) e híbrida (multisig com limite de tempo com chaves clássicas e PQ). O protocolo suporta a implantação imediata de algoritmos padronizados pelo NIST, incluindo CRYSTALS-Dilithium (ML-DSA), FALCON (FN-DSA) e SPHINCS+ (SLH-DSA) para segurança pós-quântica baseada em rede e baseada em hash. As assinaturas BLS do validador transitam para alternativas baseadas em rede, as funções hash atualizam de saídas de 256 bits para 384 bits para resistência a colisões resistente a quântica, e os circuitos zkLogin migram de Groth16 para provas de conhecimento zero baseadas em STARK.

A estrutura Nautilus, lançada em junho de 2025, fornece computação off-chain segura usando TEEs (Trusted Execution Environments) autogerenciados, atualmente suportando AWS Nitro Enclaves com futura compatibilidade com Intel TDX e AMD SEV. Para aplicações de IA, o Nautilus permite inferência de IA privada com atestações criptográficas verificadas on-chain, resolvendo a tensão entre eficiência computacional e verificabilidade. Parceiros de lançamento, incluindo Bluefin (correspondência de ordens baseada em TEE em <1ms), TensorBlock (infraestrutura de agente de IA) e OpenGradient, demonstram prontidão para produção de computação resistente a quântica que preserva a privacidade.

A análise comparativa revela a vantagem quântica da Sui: Ethereum permanece em fase de planejamento, com Vitalik Buterin afirmando que a resistência quântica está "a pelo menos uma década de distância", exigindo hard forks e consenso da comunidade. Solana lançou o Winternitz Vault em janeiro de 2025 como um recurso opcional de assinatura baseada em hash que requer opt-in do usuário, não uma implementação em todo o protocolo. Outras blockchains importantes (Aptos, Avalanche, Polkadot) permanecem em fase de pesquisa sem cronogramas de implementação concretos. Apenas a Sui projetou a agilidade criptográfica como um princípio fundamental, permitindo transições rápidas de algoritmos sem batalhas de governança ou divisões de rede.

A síntese da arquitetura técnica cria capacidades emergentes

Os componentes arquitetônicos da Sui interagem sinergicamente para criar capacidades que excedem a soma das características individuais — uma característica que distingue plataformas verdadeiramente inovadoras de melhorias incrementais.

O modelo de recurso da linguagem Move combinado com a execução paralela de objetos permite um throughput sem precedentes para enxames de agentes de IA. Blockchains tradicionais que usam modelos baseados em contas exigem execução sequencial para prevenir condições de corrida, limitando a coordenação de agentes de IA a gargalos de thread único. A declaração explícita de dependência da Sui através de referências de objeto permite que os validadores identifiquem operações independentes antes da execução, agendando milhares de transações de agentes de IA simultaneamente em núcleos de CPU. Essa paralelização de acesso ao estado (versus execução otimista que exige detecção de conflitos) oferece desempenho previsível sem falhas de transação retroativas — crítico para sistemas de IA que exigem garantias de confiabilidade.

Os Blocos de Transação Programáveis amplificam a composabilidade do Move, permitindo até 1.024 chamadas de função heterogêneas em transações atômicas. Agentes de IA podem executar fluxos de trabalho complexos — trocar tokens, atualizar dados de oráculos, acionar inferência de aprendizado de máquina, cunhar NFTs, enviar notificações — tudo garantido para ter sucesso ou falhar em conjunto. Essa composição heterogênea move a lógica de contratos inteligentes para o nível da transação, reduzindo drasticamente os custos de gas enquanto aumenta a flexibilidade. Para a robótica, os PTBs permitem operações atômicas em várias etapas, como "verificar inventário, encomendar peças, autorizar pagamento, atualizar status" com garantias criptográficas de consistência.

O caminho rápido de bypass de consenso para objetos de proprietário único cria um modelo de desempenho de dois níveis que corresponde perfeitamente aos padrões de acesso de IA/robótica. Robôs individuais mantêm o estado privado (leituras de sensores, parâmetros operacionais) como objetos próprios processados em 250ms sem consenso de validador. Pontos de coordenação (filas de tarefas, pools de recursos) existem como objetos compartilhados que exigem consenso de 390ms. Essa arquitetura espelha sistemas autônomos do mundo real, onde os agentes mantêm o estado local, mas coordenam através de recursos compartilhados — o modelo de objeto da Sui fornece primitivas nativas da blockchain que correspondem a esses padrões naturalmente.

O zkLogin resolve a fricção de integração que impede a adoção generalizada de agentes de IA. A blockchain tradicional exige que os usuários gerenciem frases semente e chaves privadas — cognitivamente exigente e propenso a erros. O zkLogin permite a autenticação via credenciais OAuth familiares (Google, Facebook, Twitch) com salt controlado pelo usuário, prevenindo a correlação de identidade Web2-Web3. Agentes de IA podem operar sob autenticação Web2, mantendo a segurança da blockchain, reduzindo drasticamente as barreiras para aplicações de consumo. Os mais de 10 dApps que já integram o zkLogin demonstram a viabilidade prática para públicos não nativos de cripto.

O posicionamento competitivo revela liderança técnica e crescimento do ecossistema

A análise comparativa entre as principais blockchains (Solana, Ethereum, Aptos, Avalanche, Polkadot) revela a superioridade técnica da Sui para cargas de trabalho de computação avançada, equilibrada com a maturidade do ecossistema da Ethereum e a atual adoção de DePIN da Solana.

As métricas de desempenho estabelecem a Sui como líder em throughput com 297.000 TPS testados em 100 validadores, mantendo 480ms de finalidade, versus os 65.000-107.000 TPS teóricos da Solana (3.000-4.000 sustentados) e a camada base de 15-30 TPS da Ethereum. A Aptos atinge 160.000 TPS teóricos com arquitetura semelhante baseada em Move, mas diferentes modelos de execução. Para cargas de trabalho de IA que exigem decisões em tempo real, a finalidade de 480ms da Sui permite loops de resposta imediata impossíveis na finalidade de 12-15 minutos da Ethereum ou mesmo no congestionamento ocasional da rede Solana (75% de falhas de transação em abril de 2024 durante o pico de carga).

A análise de resistência quântica mostra a Sui como a única blockchain com criptografia resistente a quântica projetada na arquitetura central desde o início. A Ethereum aborda a questão quântica na fase do roteiro "The Splurge", mas Vitalik Buterin estima 20% de probabilidade de que a computação quântica quebre a cripto até 2030, contando com planos de "fork de recuperação" de emergência reativos em vez de proativos. O Winternitz Vault da Solana oferece proteção quântica opcional que exige opt-in do usuário, não uma implementação automática em toda a rede. Aptos, Avalanche e Polkadot permanecem em fase de pesquisa sem cronogramas concretos. A agilidade criptográfica da Sui com múltiplos caminhos de migração, zkLogin baseado em STARK e roteiro alinhado ao NIST a posiciona como a única blockchain pronta para as transições pós-quânticas obrigatórias de 2030/2035.

Os ecossistemas de agentes de IA mostram a Solana atualmente liderando a adoção com ferramentas maduras (SendAI Agent Kit, ElizaOS) e a maior comunidade de desenvolvedores, mas a Sui demonstra capacidade técnica superior através de capacidade de 300.000 TPS, latência de sub-segundos e mais de 50 projetos, incluindo plataformas de produção (mainnet Atoma, Talus Nexus, inferência on-chain OpenGraph). A Ethereum foca em padrões institucionais de IA (ERC-8004 para identidade/confiança de IA), mas a camada base de 15-30 TPS limita as aplicações de IA em tempo real a soluções de Camada 2. A parceria com Alibaba Cloud, posicionando a Sui como a plataforma de desenvolvimento de IA (não apenas plataforma de implantação), sinaliza diferenciação estratégica de blockchains puramente financeiras.

As capacidades robóticas existem exclusivamente na Sui entre as principais blockchains. Nenhum concorrente demonstra infraestrutura de colaboração multi-robô, coordenação com Tolerância a Falhas Bizantinas ou operação offline em "modo sem internet". A análise da Tiger Research conclui que "a blockchain pode ser uma infraestrutura mais adequada para robôs do que para humanos", dada a capacidade dos robôs de aproveitar a coordenação descentralizada sem confiança centralizada. Com a Morgan Stanley projetando 1 bilhão de robôs humanoides até 2050, a infraestrutura robótica construída para esse fim da Sui cria uma vantagem de pioneirismo na emergente economia de robôs, onde sistemas autônomos exigem identidade, pagamentos, contratos e coordenação — primitivas que a Sui fornece nativamente.

As vantagens da linguagem de programação Move posicionam tanto a Sui quanto a Aptos acima das cadeias baseadas em Solidity para aplicações complexas que exigem segurança. O modelo orientado a recursos do Move previne classes de vulnerabilidade impossíveis de corrigir em Solidity, evidenciado pelos mais de US$ 1,1 bilhão perdidos em exploits em 2024 na Ethereum. O suporte à verificação formal, o sistema de tipos linear e as abstrações de ativos de primeira classe tornam o Move particularmente adequado para agentes de IA que gerenciam ativos valiosos autonomamente. A variante centrada em objetos do Sui Move (versus o Diem Move baseado em contas) permite vantagens de execução paralela indisponíveis na Aptos, apesar da herança de linguagem compartilhada.

Implementações no mundo real validam as capacidades técnicas

As implantações de produção da Sui demonstram a transição da plataforma de potencial técnico para utilidade prática em domínios de IA, robótica e quântica.

A maturidade da infraestrutura de IA mostra clara tração com o lançamento da mainnet da Atoma Network em dezembro de 2024, servindo inferência de IA em produção, a implantação da estrutura Nexus da Talus em fevereiro de 2025, permitindo fluxos de trabalho de agentes composáveis, e a rodada de financiamento de US$ 13 milhões da Swarm Network, apoiada por Kostas Chalkias, vendendo mais de 10.000 licenças de Agente de IA na Sui. A parceria com Alibaba Cloud fornece validação de nível empresarial com assistentes de codificação de IA integrados às ferramentas de desenvolvedor, demonstrando compromisso estratégico além de aplicações especulativas. A OpenGraph Labs, ganhando o primeiro lugar no Sui AI Typhoon Hackathon com inferência de ML on-chain, sinaliza inovação técnica reconhecida por juízes especialistas.

A robótica de fabricação atingiu escala comercial através da rede de 79.909 impressoras da 3DOS em mais de 120 países, atendendo NASA, Marinha dos EUA, Força Aérea dos EUA, John Deere e Google. Isso representa a maior rede de fabricação integrada à blockchain globalmente, processando mais de 4,2 milhões de peças com mais de 500.000 usuários. O modelo peer-to-peer que permite que robôs encomendem autonomamente peças de reposição demonstra a automação de contratos inteligentes, eliminando a sobrecarga de coordenação em escala industrial — prova de conceito validada por clientes governamentais e aeroespaciais exigentes que requerem confiabilidade e segurança.

As métricas financeiras mostram crescente adoção com US538milho~esemTVL,17,6milho~esdecarteirasativasmensais(picoemfevereirode2025)ecapitalizac\ca~odemercadodotokenSUIexcedendoUS 538 milhões em TVL, 17,6 milhões de carteiras ativas mensais (pico em fevereiro de 2025) e capitalização de mercado do token SUI excedendo US 16 bilhões. A Mysten Labs alcançou uma avaliação de mais de US$ 3 bilhões, apoiada por a16z, Binance Labs, Coinbase Ventures e Jump Crypto — validação institucional do potencial técnico. Bancos suíços (Sygnum, Amina Bank) oferecendo custódia e negociação de Sui fornecem rampas de acesso financeiras tradicionais, enquanto produtos institucionais da Grayscale, Franklin Templeton e VanEck sinalizam reconhecimento mainstream.

O crescimento do ecossistema de desenvolvedores demonstra sustentabilidade com ferramentas abrangentes (SDKs TypeScript, Rust, Python, Swift, Dart, Golang), assistentes de codificação de IA no ChainIDE e programas de hackathon ativos onde 50% dos vencedores se concentraram em aplicações de IA. Os 122 validadores ativos na mainnet fornecem descentralização adequada, mantendo o desempenho, equilibrando segurança com throughput melhor do que alternativas altamente centralizadas.

A visão estratégica posiciona a Sui para a era da convergência

A liderança de Kostas Chalkias e Mysten Labs articula uma visão de longo prazo coerente, distinguindo a Sui de concorrentes focados em casos de uso restritos ou melhorias iterativas.

A ousada previsão de Chalkias de que "eventualmente, a blockchain superará até mesmo a Visa em velocidade de transação. Será a norma. Não vejo como podemos escapar disso" sinaliza confiança na trajetória técnica apoiada por decisões arquitetônicas que possibilitam esse futuro. Sua afirmação de que a Mysten Labs "poderia superar o que a Apple é hoje" reflete ambição fundamentada na construção de infraestrutura fundamental para a computação de próxima geração, em vez de aplicações DeFi incrementais. A decisão de nomear seu filho "Kryptos" (grego para "secreto/oculto") simboliza o compromisso pessoal com a inovação criptográfica como infraestrutura civilizacional.

A estratégia de três pilares que integra IA, robótica e computação quântica cria vantagens que se reforçam mutuamente. A criptografia resistente a quântica permite a segurança de ativos de longo prazo para agentes de IA operando autonomamente. A finalidade em sub-segundos suporta loops de controle robótico em tempo real. A execução paralela permite que milhares de agentes de IA coordenem simultaneamente. O modelo de objeto fornece abstração natural tanto para o estado do agente de IA quanto para a representação do dispositivo robótico. Essa coerência arquitetônica distingue o design de plataforma proposital de recursos adicionados.

As revelações tecnológicas do Sui Basecamp 2025 demonstram inovação contínua com aleatoriedade verificável nativa (elimina dependências de oráculos para inferência de IA), túneis zk permitindo chamadas de vídeo privadas diretamente na Sui, transações relâmpago para operações sem gas durante emergências e cápsulas do tempo para acesso futuro a dados criptografados. Esses recursos abordam problemas reais do usuário (privacidade, confiabilidade, acessibilidade), em vez de exercícios acadêmicos, com aplicações claras para agentes de IA que exigem aleatoriedade confiável, sistemas robóticos que precisam de operação offline e criptografia resistente a quântica para dados sensíveis.

O posicionamento como "camada de coordenação para uma ampla gama de aplicações", desde gerenciamento de dados de saúde até propriedade de dados pessoais e robótica, reflete as ambições da plataforma além da especulação financeira. A identificação de Chalkias da ineficiência de dados de saúde como um problema que requer um banco de dados comum demonstra um pensamento sobre infraestrutura social, em vez de nichos estreitos de entusiastas de blockchain. Essa visão atrai laboratórios de pesquisa, startups de hardware e governos — públicos que buscam infraestrutura confiável para projetos de longo prazo, não yield farming especulativo.

O roteiro técnico entrega cronograma de execução acionável

O roteiro de desenvolvimento da Sui fornece marcos concretos que demonstram a progressão da visão para a implementação em todos os três domínios de foco.

O cronograma de resistência quântica alinha-se com os mandatos do NIST: 2025-2027 completa a infraestrutura e os testes de agilidade criptográfica, 2028-2030 introduz atualizações de protocolo para assinaturas Dilithium/FALCON com operação híbrida PreQ-PQ, 2030-2035 alcança a transição pós-quântica completa, depreciando algoritmos clássicos. Os múltiplos caminhos de migração (proativo, adaptativo, híbrido) fornecem flexibilidade para diferentes segmentos de usuários sem forçar uma única estratégia de adoção. As atualizações de função hash para saídas de 384 bits e a pesquisa zkLogin PQ-zkSNARK prosseguem em paralelo, garantindo prontidão quântica abrangente, em vez de patches fragmentados.

A expansão da infraestrutura de IA mostra marcos claros com o lançamento da mainnet Walrus (Q1 2025), fornecendo armazenamento descentralizado para modelos de IA, a estrutura Talus Nexus permitindo fluxos de trabalho de agentes composáveis (implantação em fevereiro de 2025), e a estrutura TEE Nautilus expandindo para Intel TDX e AMD SEV além do suporte atual a AWS Nitro Enclaves. O roteiro da parceria com Alibaba Cloud inclui suporte a idiomas expandido, integração mais profunda do ChainIDE e dias de demonstração em Hong Kong, Singapura e Dubai, visando comunidades de desenvolvedores. O explorador de inferência on-chain da OpenGraph e a maturação do SDK TensorflowSui fornecem ferramentas práticas para desenvolvedores de IA além de estruturas teóricas.

O avanço das capacidades robóticas progride de demonstrações de colaboração multi-robô para implantações de produção com expansão da rede 3DOS, capacidades de transação por ondas de rádio em "modo sem internet" e zkTunnels permitindo comandos de robô sem gas. A arquitetura técnica que suporta Tolerância a Falhas Bizantinas, loops de coordenação em sub-segundos e pagamentos M2M autônomos existe hoje — as barreiras de adoção são educacionais e de construção de ecossistema, em vez de limitações técnicas. O envolvimento de ex-alunos da NASA, Meta e Uber sinaliza talento de engenharia sério abordando desafios robóticos do mundo real versus projetos de pesquisa acadêmica.

As melhorias de protocolo incluem refinamentos de consenso Mysticeti mantendo 80% de vantagem na redução de latência, escalabilidade horizontal através da execução multi-máquina Pilotfish e otimização de armazenamento para estado crescente. O sistema de checkpoint (a cada ~3 segundos) fornece snapshots verificáveis para dados de treinamento de IA e trilhas de auditoria robóticas. O tamanho da transação diminuindo para formatos predefinidos de um único byte reduz os requisitos de largura de banda para dispositivos IoT. A expansão de transações patrocinadas elimina a fricção de gas para aplicações de consumo que exigem UX semelhante ao Web2.

A excelência técnica posiciona a Sui para o domínio da computação avançada

A análise abrangente da arquitetura técnica, visão de liderança, implementações no mundo real e posicionamento competitivo revela a Sui como a plataforma blockchain unicamente preparada para a convergência de IA, robótica e computação quântica.

A Sui alcança superioridade técnica através de métricas de desempenho medidas: 297.000 TPS com 480ms de finalidade supera todos os principais concorrentes, permitindo coordenação de agentes de IA em tempo real e controle robótico impossíveis em cadeias mais lentas. O modelo de dados centrado em objetos combinado com a segurança da linguagem Move oferece vantagens de modelo de programação, prevenindo classes de vulnerabilidade que afligem arquiteturas baseadas em contas. A agilidade criptográfica projetada desde o início — não adaptada — permite transições resistentes a quântica sem hard forks ou batalhas de governança. Essas capacidades existem em produção hoje na mainnet com 122 validadores, não como whitepapers teóricos ou roteiros distantes.

A liderança visionária através das mais de 50 publicações de Kostas Chalkias, 8 patentes nos EUA e inovações criptográficas (zkLogin, BPQS, Winterfell STARK, HashWires) fornece uma base intelectual que distingue a Sui de concorrentes tecnicamente competentes, mas pouco imaginativos. Sua pesquisa inovadora em computação quântica (julho de 2025), suporte à infraestrutura de IA (apoio da Swarm Network) e comunicação pública (Token 2049, Korea Blockchain Week, London Real) estabelecem liderança de pensamento, atraindo desenvolvedores de alto nível e parceiros institucionais. A disposição de arquitetar para prazos de 2030+ em vez de métricas trimestrais demonstra o pensamento estratégico de longo prazo necessário para a infraestrutura da plataforma.

A validação do ecossistema através de implantações de produção (inferência de IA na mainnet Atoma, rede de 79.909 impressoras 3DOS, estruturas de agentes Talus) prova que as capacidades técnicas se traduzem em utilidade no mundo real. Parcerias institucionais (Alibaba Cloud, custódia de bancos suíços, produtos Grayscale/Franklin Templeton) sinalizam reconhecimento mainstream além dos entusiastas nativos de blockchain. Métricas de crescimento de desenvolvedores (50% dos vencedores de hackathons em IA, cobertura abrangente de SDK, assistentes de codificação de IA) demonstram expansão sustentável do ecossistema, apoiando a adoção de longo prazo.

O posicionamento estratégico como infraestrutura blockchain para a economia de robôs, sistemas financeiros resistentes a quântica e coordenação autônoma de agentes de IA cria uma proposta de valor diferenciada em relação a concorrentes focados em melhorias incrementais para casos de uso existentes de blockchain. Com a Morgan Stanley projetando 1 bilhão de robôs humanoides até 2050, o NIST exigindo algoritmos resistentes a quântica até 2030 e a McKinsey prevendo ganhos de produtividade de 40% com IA agentica — as capacidades técnicas da Sui se alinham precisamente com as macrotendências tecnológicas que exigem infraestrutura descentralizada.

Para organizações que constroem aplicações de computação avançada em blockchain, a Sui oferece capacidades técnicas inigualáveis (297K TPS, 480ms de finalidade), arquitetura resistente a quântica à prova de futuro (única blockchain projetada para quântica desde o início), infraestrutura robótica comprovada (única a demonstrar colaboração multi-robô), modelo de programação superior (segurança e expressividade da linguagem Move) e desempenho em tempo real que permite aplicações de IA/robótica fisicamente impossíveis em cadeias de execução sequenciais. A plataforma representa não uma melhoria incremental, mas uma reformulação arquitetônica fundamental para a próxima década da blockchain.

A Fundação Quantum-Ready da Sui para Inteligência Autónoma

· Leitura de 30 minutos
Dora Noda
Software Engineer

A blockchain Sui se destaca dos concorrentes por sua agilidade criptográfica fundamental e arquitetura centrada em objetos, posicionando-a como a única grande blockchain Layer 1 que avança simultaneamente a integração de IA, a coordenação robótica e a segurança resistente a quântica. Isso não é um posicionamento de marketing — é uma realidade arquitetónica. O cofundador e criptógrafo-chefe Kostas "Kryptos" Chalkias construiu sistematicamente essas capacidades no design central da Sui desde o início, criando o que ele descreve como uma infraestrutura que "superará até mesmo a Visa em velocidade", permanecendo segura contra ameaças quânticas que poderiam "destruir toda a criptografia moderna" dentro de uma década.

A base técnica já está pronta para produção: a finalidade de consenso de 390 milissegundos permite a coordenação de agentes de IA em tempo real, a execução paralela processa 297.000 transações por segundo no pico, e os esquemas de assinatura EdDSA fornecem um caminho de migração comprovado para a criptografia pós-quântica sem exigir hard forks. Enquanto isso, Bitcoin e Ethereum enfrentam ameaças existenciais da computação quântica sem um caminho de atualização compatível com versões anteriores. A visão de Chalkias centra-se em três pilares convergentes — IA como camada de coordenação, sistemas robóticos autónomos que exigem finalidade em sub-segundos, e estruturas criptográficas que permanecem seguras até 2035 e além. Suas declarações em conferências, artigos de pesquisa e implementações técnicas revelam não promessas especulativas, mas a execução sistemática de um roteiro estabelecido na fundação da Mysten Labs em 2022.

Isso importa além do tribalismo da blockchain. Até 2030, os mandatos do NIST exigem a descontinuação dos padrões de criptografia atuais. Sistemas autónomos, desde robôs de fabricação até agentes de IA, exigirão coordenação sem confiança em escala. A arquitetura da Sui aborda ambas as inevitabilidades simultaneamente, enquanto os concorrentes se esforçam para adaptar soluções. A questão não é se essas tecnologias convergem, mas quais plataformas sobrevivem à convergência intactas.

O criptógrafo que nomeou seu filho Kryptos

Kostas Chalkias traz uma credibilidade incomum para a intersecção da blockchain com tecnologias emergentes. Antes de cofundar a Mysten Labs, ele atuou como Criptógrafo Líder para o projeto Diem do Meta e a carteira Novi, trabalhou com Mike Hearn (um dos primeiros desenvolvedores do Bitcoin associado a Satoshi Nakamoto) na blockchain Corda da R3, e possui um PhD em Criptografia Baseada em Identidade com mais de 50 publicações científicas, 8 patentes nos EUA e 1.374 citações académicas. Sua dedicação ao campo se estende a nomear seu filho Kryptos — "Estou tão imerso na tecnologia da blockchain e criptografia, que realmente convenci minha esposa a ter um filho chamado Kryptos", explicou ele durante uma entrevista no blog da Sui.

Sua trajetória profissional revela um foco consistente em criptografia prática para escala massiva. No Facebook, ele construiu infraestrutura de segurança para o WhatsApp e sistemas de autenticação que atendiam bilhões. Na R3, ele foi pioneiro em provas de conhecimento zero e assinaturas pós-quânticas para blockchain empresarial. Sua carreira inicial incluiu a fundação da Betmanager, uma plataforma alimentada por IA que previa resultados de futebol usando técnicas de mercado de ações — experiência que informa sua perspetiva atual sobre a integração blockchain-IA. Essa mistura de exposição à IA, criptografia de produção e infraestrutura de blockchain o posiciona de forma única para arquitetar sistemas que unem esses domínios.

A filosofia técnica de Chalkias enfatiza a "agilidade criptográfica" — construir flexibilidade em protocolos fundamentais em vez de assumir permanência. Na Emergence Conference em Praga (dezembro de 2024), ele articulou essa visão de mundo: "Eventualmente, a blockchain superará até mesmo a Visa em velocidade de transação. Será a norma. Não vejo como podemos escapar disso." Mas a velocidade por si só não é suficiente. Seu trabalho sempre combina desempenho com segurança voltada para o futuro, reconhecendo que os computadores quânticos representam ameaças que exigem ação hoje, não quando o perigo se materializa. Esse foco duplo — desempenho presente e resiliência futura — define as decisões arquitetónicas da Sui em IA, robótica e resistência quântica.

Arquitetura construída para agentes inteligentes

A base técnica da Sui diverge fundamentalmente das blockchains baseadas em contas como Ethereum e Solana. Cada entidade existe como um objeto com ID globalmente único de 32 bytes, número de versão, campo de propriedade e conteúdo tipado. Este modelo centrado em objetos não é uma preferência estética, mas um capacitador de execução paralela em escala. Quando agentes de IA operam como objetos próprios, eles ignoram o consenso completamente para operações de um único escritor, alcançando finalidade de ~400ms. Quando vários agentes coordenam através de objetos compartilhados, o consenso Mysticeti da Sui entrega latência de 390ms — ainda em sub-segundos, mas através de um acordo tolerante a falhas bizantinas.

A linguagem de programação Move, originalmente desenvolvida no Meta para Diem e aprimorada para Sui, impõe segurança de recursos no nível do sistema de tipos. Ativos não podem ser acidentalmente copiados, destruídos ou criados sem permissão. Para aplicações de IA que gerenciam dados valiosos ou pesos de modelos, isso previne classes inteiras de vulnerabilidades que afetam os contratos inteligentes Solidity. Chalkias destacou isso durante o Sui Basecamp 2025 em Dubai: "Introduzimos provas de conhecimento zero, tecnologias de preservação de privacidade, dentro da Sui desde o primeiro dia. Assim, alguém pode agora criar um sistema KYC com tanta privacidade quanto desejar."

A execução paralela de transações atinge limites teóricos através da declaração explícita de dependência. Ao contrário da execução otimista que exige verificação retroativa, o agendador da Sui identifica transações não sobrepostas antecipadamente através de IDs de objeto únicos. Operações independentes são executadas concorrentemente em núcleos de validadores sem interferência. Esta arquitetura demonstrou um rendimento de pico de 297.000 TPS em testes — não máximos teóricos, mas desempenho medido em hardware de produção. Para aplicações de IA, isso significa que milhares de solicitações de inferência são processadas simultaneamente, múltiplos agentes autónomos coordenam sem bloqueio, e a tomada de decisões em tempo real opera em velocidades percetíveis ao ser humano.

O protocolo de consenso Mysticeti, introduzido em 2024, alcança o que Chalkias e coautores provaram ser matematicamente ótimo: três rodadas de mensagens para compromisso. Ao eliminar a certificação explícita de blocos e implementar estruturas DAG não certificadas, o Mysticeti reduziu a latência em 80% em relação ao consenso Narwhal-Bullshark anterior. O protocolo compromete blocos a cada rodada, em vez de a cada duas rodadas, usando regras de decisão diretas e indiretas derivadas de padrões DAG. Para aplicações de robótica que exigem feedback de controle em tempo real, essa finalidade em sub-segundos torna-se inegociável. Durante a Korea Blockchain Week 2025, Chalkias posicionou a Sui como "uma camada de coordenação para aplicações e IA", enfatizando como parceiros em pagamentos, jogos e IA alavancam essa base de desempenho.

Walrus: resolvendo o problema de dados da IA

As cargas de trabalho de IA exigem armazenamento em escalas incompatíveis com a economia tradicional da blockchain. Conjuntos de dados de treinamento abrangem terabytes, pesos de modelos exigem gigabytes, e logs de inferência acumulam-se rapidamente. A Sui aborda isso através do Walrus, um protocolo de armazenamento descentralizado que usa codificação de apagamento para alcançar replicação de 4-5x em vez da replicação de 100x típica do armazenamento on-chain. O algoritmo "Red Stuff" divide os dados em fatias distribuídas entre nós de armazenamento, permanecendo recuperáveis com 2/3 dos nós indisponíveis. Metadados e provas de disponibilidade residem na blockchain da Sui, enquanto os dados reais residem no Walrus, criando armazenamento criptograficamente verificável em escala de exabytes.

Durante o primeiro mês do testnet do Walrus, a rede armazenou mais de 4.343 GB em mais de 25 nós da comunidade, validando a viabilidade da arquitetura. Projetos como TradePort, Tusky e Decrypt Media integraram o Walrus para armazenamento e recuperação de mídia. Para aplicações de IA, isso permite cenários práticos: conjuntos de dados de treinamento tokenizados como ativos programáveis com termos de licenciamento codificados em contratos inteligentes, pesos de modelos persistidos com controle de versão, resultados de inferência registrados imutavelmente para trilhas de auditoria, e conteúdo gerado por IA armazenado de forma económica. A camada de inferência de IA da Atoma Network, anunciada como o primeiro parceiro de integração de blockchain da Sui, alavanca essa base de armazenamento para geração automatizada de código, automação de fluxo de trabalho e análise de risco DeFi.

A integração estende-se para além do armazenamento, abrangendo a orquestração de computação. Os Blocos de Transação Programáveis (PTBs) da Sui agrupam até 1.024 operações heterogéneas atomicamente, executando tudo ou nada. Um fluxo de trabalho de IA pode recuperar dados de treinamento do Walrus, atualizar pesos de modelos em um contrato inteligente, registrar resultados de inferência on-chain e distribuir recompensas para colaboradores de dados — tudo em uma única transação atómica. Essa composabilidade, combinada com a segurança de tipos do Move, cria blocos de construção para sistemas complexos de IA sem a fragilidade das chamadas entre contratos em outros ambientes.

Chalkias enfatizou a capacidade sobre o marketing durante o podcast Just The Metrics (julho de 2025), apontando para "ineficiências na gestão de dados de saúde" como áreas de aplicação prática. A IA na saúde exige coordenação entre instituições, preservação da privacidade para dados sensíveis e computação verificável para conformidade regulatória. A arquitetura da Sui — combinando coordenação on-chain, armazenamento Walrus e privacidade de conhecimento zero — aborda esses requisitos tecnicamente, em vez de conceitualmente. A parceria com o Google Cloud anunciada em 2024 reforçou essa direção, integrando dados da Sui no BigQuery para análise e treinando a plataforma Vertex AI do Google na linguagem Move para desenvolvimento assistido por IA.

Quando os robôs precisam de liquidação em sub-segundos

A visão da robótica materializa-se mais concretamente através de capacidades técnicas do que de parcerias anunciadas. O modelo de objetos da Sui representa robôs, ferramentas e tarefas como cidadãos on-chain de primeira classe com controle de acesso granular. Ao contrário dos sistemas baseados em contas, onde os robôs interagem através de permissões de nível de conta, os objetos da Sui permitem sistemas de permissão multinível, desde a operação básica até o controle total com requisitos de múltiplas assinaturas. A integração de PassKeys e FaceID suporta cenários com humanos no ciclo, enquanto os zkTunnels permitem a transmissão de comandos sem gás para operação remota em tempo real.

Durante discussões nas redes sociais, Chalkias (postando como "Kostas Kryptos") revelou que engenheiros da Sui com experiência na NASA, Meta e Uber estavam testando robôs quadrúpedes semelhantes a cães na rede. A arquitetura baseada em objetos é adequada para a coordenação robótica: cada robô possui objetos que representam seu estado e capacidades, as tarefas existem como objetos transferíveis com parâmetros de execução, e a alocação de recursos acontece através da composição de objetos, em vez de coordenação centralizada. Uma fábrica poderia implantar frotas de robôs onde cada unidade aceita tarefas autonomamente, coordena com seus pares através de objetos compartilhados, executa operações com verificação criptográfica e liquida micropagamentos por serviços prestados — tudo sem autoridade central ou intervenção humana.

O modo de transação "sem internet", discutido durante o Sui Basecamp 2025 e o podcast London Real (abril de 2025), aborda as restrições do mundo real da robótica. Chalkias descreveu como o sistema manteve a funcionalidade durante quedas de energia na Espanha e em Portugal, com tamanhos de transação otimizados para bytes únicos usando formatos predefinidos. Para sistemas autónomos que operam em zonas de desastre, áreas rurais ou ambientes com conectividade não confiável, essa resiliência torna-se crítica. Os robôs podem transacionar peer-to-peer para coordenação imediata, sincronizando com a rede mais ampla quando a conectividade é restaurada.

O projeto 3DOS exemplifica essa visão na prática: uma rede de impressão 3D baseada em blockchain que permite a fabricação sob demanda, onde as máquinas imprimem peças autonomamente. Iterações futuras preveem robôs auto-reparáveis que detetam falhas de componentes, encomendam substituições via contratos inteligentes, identificam impressoras 3D próximas através de descoberta on-chain, coordenam a impressão e entrega e instalam componentes — tudo autonomamente. Isso não é ficção científica, mas uma extensão lógica das capacidades existentes: a integração de microcontroladores ESP32 e Arduino já suporta dispositivos IoT básicos, o BugDar fornece auditoria de segurança para contratos inteligentes robóticos, e as aprovações de múltiplas assinaturas permitem autonomia graduada com supervisão humana para operações críticas.

O relógio quântico está a correr

O tom de Kostas Chalkias muda de filosófico para urgente ao discutir a computação quântica. Em um relatório de pesquisa de julho de 2025, ele alertou sem rodeios: "Os governos estão bem cientes dos riscos representados pela computação quântica. Agências em todo o mundo emitiram mandatos de que algoritmos clássicos como ECDSA e RSA devem ser descontinuados até 2030 ou 2035." Seu anúncio no Twitter acompanhou a pesquisa inovadora da Mysten Labs publicada no IACR ePrint Archive, demonstrando como blockchains baseadas em EdDSA como Sui, Solana, Near e Cosmos possuem vantagens estruturais para a transição quântica, indisponíveis para Bitcoin e Ethereum.

A ameaça decorre de computadores quânticos executando o Algoritmo de Shor, que fatoriza eficientemente grandes números — a dificuldade matemática subjacente à criptografia RSA, ECDSA e BLS. O processador quântico Willow do Google com 105 qubits sinaliza um progresso acelerado em direção a máquinas capazes de quebrar a criptografia clássica. O ataque "armazenar agora, descriptografar depois" aumenta a urgência: adversários coletam dados criptografados hoje, esperando que computadores quânticos os descriptografem retroativamente. Para ativos de blockchain, Chalkias explicou à Decrypt Magazine: "Mesmo que alguém ainda possua sua chave privada de Bitcoin ou Ethereum, pode não ser capaz de gerar uma prova de propriedade segura pós-quântica, e isso se resume a como essa chave foi originalmente gerada e quanto de seus dados associados foi exposto ao longo do tempo."

A vulnerabilidade particular do Bitcoin decorre de carteiras "adormecidas" com chaves públicas expostas. Os estimados 1 milhão de BTC de Satoshi Nakamoto residem em endereços antigos usando o formato pay-to-public-key — a chave pública fica visível on-chain, em vez de oculta atrás de endereços hash. Uma vez que os computadores quânticos escalem o suficiente, essas carteiras podem ser esvaziadas instantaneamente. A avaliação de Chalkias: "Uma vez que os computadores quânticos cheguem, milhões de carteiras, incluindo a de Satoshi, poderão ser esvaziadas instantaneamente. Se sua chave pública estiver visível, ela acabará sendo quebrada." O Ethereum enfrenta desafios semelhantes, embora menos chaves públicas expostas mitiguem o risco imediato. Ambas as cadeias exigem hard forks em toda a comunidade com coordenação sem precedentes para migrar — assumindo que o consenso se forme em torno de algoritmos pós-quânticos.

A fundação EdDSA da Sui oferece um caminho de escape elegante. Ao contrário das chaves privadas aleatórias do ECDSA, o EdDSA deriva chaves deterministicamente de uma semente usando funções hash por RFC 8032. Essa diferença estrutural permite provas de conhecimento zero via zk-STARKs (que são seguras pós-quânticas) provando o conhecimento da semente subjacente sem expor dados de curva elíptica. Os usuários constroem pares de chaves pós-quânticas a partir da mesma aleatoriedade da semente, submetem provas ZK demonstrando propriedade idêntica e fazem a transição para esquemas seguros quânticos, preservando os endereços — sem necessidade de hard fork. Chalkias detalhou isso durante o AMA da Sui em junho de 2022: "Se você estiver usando algoritmos determinísticos, como EdDSA, há uma maneira com provas Stark de provar o conhecimento das pirâmides de sua chave privada em uma geração de chave EdDSA, porque ela usa uma função hash internamente."

Agilidade criptográfica como fosso estratégico

A Sui suporta múltiplos esquemas de assinatura simultaneamente através de aliases de tipo unificados em toda a base de código — EdDSA (Ed25519), ECDSA (para compatibilidade com Ethereum) e algoritmos pós-quânticos planeados. Chalkias projetou essa "agilidade criptográfica" reconhecendo que a permanência é uma fantasia na criptografia. A arquitetura assemelha-se a "trocar o núcleo de uma fechadura" em vez de reconstruir todo o sistema de segurança. Quando os algoritmos pós-quânticos recomendados pelo NIST forem implementados — CRYSTALS-Dilithium para assinaturas, FALCON para alternativas compactas, SPHINCS+ para esquemas baseados em hash — a Sui os integrará através de atualizações diretas, em vez de reescritas fundamentais de protocolo.

As estratégias de transição equilibram abordagens proativas e adaptativas. Para novos endereços, os usuários podem gerar configurações PQ-signs-PreQ onde chaves pós-quânticas assinam chaves públicas pré-quânticas na criação, permitindo uma migração futura suave. Para endereços existentes, o método de prova zk-STARK preserva os endereços enquanto prova a propriedade segura quântica. A defesa em camadas prioriza dados de alto valor — chaves privadas de carteira recebem proteção PQ imediata, enquanto dados de privacidade transitórios seguem caminhos de atualização mais lentos. As saídas da função hash se expandem de 256 bits para 384 bits para resistência a colisões contra o algoritmo de Grover, e os comprimentos das chaves de criptografia simétrica dobram (AES permanece resistente a quântica com chaves maiores).

Os sistemas de prova de conhecimento zero exigem consideração cuidadosa. PCPs lineares como Groth16 (atualmente alimentando o zkLogin) dependem de curvas elípticas amigáveis a emparelhamento vulneráveis a ataques quânticos. O roteiro de transição da Sui avança para sistemas STARK baseados em hash — Winterfell, codesenvolvido pela Mysten Labs, usa apenas funções hash e permanece plausivelmente seguro pós-quântico. A migração do zkLogin mantém os mesmos endereços enquanto atualiza os circuitos internos, exigindo coordenação com provedores OpenID à medida que adotam tokens PQ-JWT. Beacons de aleatoriedade e protocolos de geração de chaves distribuídas fazem a transição de assinaturas BLS de limiar para alternativas baseadas em rede como esquemas HashRand ou HERB — mudanças de protocolo internas invisíveis para APIs on-chain.

A experiência de Chalkias é crítica aqui. Como autor de BPQS (Blockchain Post-Quantum Signature), uma variante do esquema baseado em hash XMSS, ele traz experiência de implementação além do conhecimento teórico. Seu compromisso de junho de 2022 provou ser perspicaz: "Vamos construir nossa cadeia de uma forma onde, com o toque de um botão, as pessoas possam realmente mudar para chaves pós-quânticas." Os prazos do NIST — 2030 para a descontinuação de algoritmos clássicos, 2035 para a adoção completa de PQ — comprimem os cronogramas dramaticamente. A vantagem inicial da Sui a posiciona favoravelmente, mas Chalkias enfatiza a urgência: "Se sua blockchain suporta ativos soberanos, tesourarias nacionais em cripto, ETFs ou CBDCs, em breve será necessário adotar padrões criptográficos pós-quânticos, se sua comunidade se preocupa com a credibilidade a longo prazo e a adoção em massa."

Agentes de IA já geram US$ 1,8 bilhão em valor

O ecossistema vai além da infraestrutura para aplicações de produção. O **Dolphin Agent (DOLA), especializado em rastreamento e análise de dados de blockchain, alcançou uma capitalização de mercado de mais de US1,8bilha~ovalidandoademandaporferramentasdeblockchainaprimoradasporIA.OSUIAgentsofereceimplantac\ca~odeagentedeIAcomumclique,comcriac\ca~odepersonanoTwitter,tokenizac\ca~oenegociac\ca~odentrodeecossistemasdescentralizados.ASentientAIlevantouUS 1,8 bilhão** — validando a demanda por ferramentas de blockchain aprimoradas por IA. O SUI Agents oferece implantação de agente de IA com um clique, com criação de persona no Twitter, tokenização e negociação dentro de ecossistemas descentralizados. A Sentient AI levantou US 1,5 milhão para chatbots conversacionais alavancando a segurança e escalabilidade da Sui. A DeSci Agents promove compostos científicos como Epitalon e Rapamycin através de engajamento 24/7 impulsionado por IA, unindo pesquisa e investimento através do emparelhamento de tokens.

A integração da Atoma Network como o primeiro parceiro de inferência de IA em blockchain da Sui permite capacidades que abrangem geração e auditoria automatizada de código, automação de fluxo de trabalho, análise de risco DeFi, geração de ativos de jogos, classificação de conteúdo de mídia social e gerenciamento de DAO. A seleção da parceria refletiu requisitos técnicos: a Atoma precisava de baixa latência para IA interativa, alto rendimento para escala, propriedade segura para ativos de IA, computação verificável, armazenamento económico e opções de preservação de privacidade. A Sui entregou todos os seis. Durante o Sui Basecamp 2025, Chalkias destacou projetos como Aeon, os agentes de IA da Atoma e o trabalho da Nautilus em computação off-chain verificável como exemplos de "como a Sui poderia servir como base para a próxima onda de sistemas inteligentes e descentralizados."

A parceria com o Google Cloud aprofunda a integração através do acesso ao BigQuery para dados da blockchain Sui para análise, treinamento da Vertex AI na linguagem de programação Move para desenvolvimento assistido por IA, suporte zkLogin usando credenciais OAuth (Google) para acesso simplificado e infraestrutura que suporta o desempenho e a escalabilidade da rede. A integração do ChainIDE da Alibaba Cloud permite prompts de linguagem natural para geração de código Move — desenvolvedores escrevem "criar um contrato de staking com 10% APY" em inglês, chinês ou coreano, recebendo código Move sintaticamente correto, documentado e com verificações de segurança. Este desenvolvimento assistido por IA democratiza a construção de blockchain, mantendo as garantias de segurança do Move.

As vantagens técnicas se acumulam para aplicações de IA. Modelos de propriedade de objetos são adequados para agentes autónomos operando independentemente. A execução paralela permite milhares de operações de IA simultâneas sem interferência. A finalidade em sub-segundos suporta experiências de usuário interativas. O armazenamento Walrus lida com conjuntos de dados de treinamento de forma económica. Transações patrocinadas removem o atrito do gás para os usuários. O zkLogin elimina as barreiras da frase semente. Os Blocos de Transação Programáveis orquestram fluxos de trabalho complexos atomicamente. Opções de verificação formal provam a correção do agente de IA matematicamente. Estas não são características desconectadas, mas capacidades integradas que formam um ambiente de desenvolvimento coerente.

Comparando os concorrentes

O pico de 297.000 TPS da Sui e a latência de consenso de 390ms superam os 11.3 TPS médios e a finalidade de 12-13 minutos do Ethereum por ordens de magnitude. Contra Solana — seu concorrente de desempenho mais próximo — a Sui alcança 32x mais rapidez na finalidade (0.4 segundos versus 12.8 segundos), apesar dos tempos de slot de 400ms da Solana, porque a Solana exige múltiplas confirmações para finalidade económica. Medições do mundo real do relatório de agosto de 2025 do Phoenix Group mostraram a Sui processando 3.900 TPS versus 92.1 TPS da Solana, refletindo o desempenho operacional em vez do teórico. Os custos de transação permanecem previsivelmente baixos na Sui (~US$ 0.0087 em média, menos de um centavo) sem os problemas históricos de congestionamento e interrupções da Solana.

Diferenças arquitetónicas explicam as lacunas de desempenho. O modelo centrado em objetos da Sui permite paralelização inerente — 300.000 transferências simples por segundo não exigem coordenação de consenso. Ethereum e Bitcoin processam cada transação sequencialmente através de consenso completo. Solana paraleliza através de Sealevel, mas usa execução otimista que exige verificação retroativa. Aptos, também usando a linguagem Move, implementa execução otimista Block-STM em vez do método de acesso ao estado da Sui. Para aplicações de IA e robótica que exigem baixa latência previsível, a declaração explícita de dependência da Sui fornece determinismo que as abordagens otimistas não podem garantir.

O posicionamento quântico diverge ainda mais drasticamente. Bitcoin e Ethereum usam assinaturas ECDSA secp256k1 sem um caminho de atualização compatível com versões anteriores — a transição quântica exige hard forks, mudanças de endereço, migrações de ativos e governança comunitária que provavelmente causarão divisões na cadeia. Solana compartilha a vantagem EdDSA da Sui, permitindo estratégias de transição zk-STARK semelhantes e introduzindo assinaturas únicas baseadas em hash Winternitz Vault. Near e Cosmos também se beneficiam do EdDSA. Aptos usa Ed25519, mas com um roteiro de prontidão quântica menos desenvolvido. O artigo de pesquisa de Chalkias de julho de 2025 afirmou explicitamente que os resultados "funcionam para Sui, Solana, Near, Cosmos e outras cadeias baseadas em EdDSA, mas não para Bitcoin e Ethereum."

A maturidade do ecossistema favorece temporariamente os concorrentes. Solana foi lançada em 2020 com protocolos DeFi estabelecidos, mercados NFT e comunidades de desenvolvedores. O lançamento do Ethereum em 2015 proporcionou vantagens de pioneirismo em contratos inteligentes, adoção institucional e efeitos de rede. A Sui foi lançada em maio de 2023 — há apenas dois anos e meio — com US$ 2+ bilhões em TVL e 65.9K endereços ativos crescendo rapidamente, mas bem abaixo dos 16.1 milhões da Solana. A superioridade técnica cria oportunidade: desenvolvedores que constroem na Sui hoje se posicionam para o crescimento do ecossistema, em vez de se juntarem a plataformas maduras e lotadas. A entrevista de Chalkias no London Real refletiu essa confiança: "Honestamente, não ficaria surpreso se a Mysten Labs, e tudo o que ela toca, superasse o que a Apple é hoje."

Sinergias entre visões aparentemente díspares

As narrativas de IA, robótica e resistência quântica parecem desconectadas até que se reconheçam suas interdependências técnicas. Agentes de IA exigem baixa latência e alto rendimento — a Sui oferece ambos. A coordenação robótica demanda operações em tempo real sem autoridade central — o modelo de objetos da Sui e a finalidade em sub-segundos entregam isso. A segurança pós-quântica precisa de flexibilidade criptográfica e arquitetura voltada para o futuro — a Sui construiu isso desde o início. Estas não são linhas de produtos separadas, mas requisitos técnicos unificados para o cenário tecnológico de 2030-2035.

Considere a fabricação autónoma: sistemas de IA analisam previsões de demanda e disponibilidade de materiais, determinando cronogramas de produção ideais. Agentes robóticos recebem instruções verificadas através da coordenação blockchain, garantindo autenticidade sem controle centralizado. Cada robô opera como um objeto próprio processando tarefas em paralelo, coordenando-se através de objetos compartilhados quando necessário. Micropagamentos são liquidados instantaneamente por serviços prestados — robô A fornecendo materiais ao robô B, robô B processando componentes para o robô C. O sistema funciona sem internet durante interrupções de conectividade, sincronizando quando as redes são restauradas. E, crucialmente, todas as comunicações permanecem seguras contra adversários quânticos através de esquemas criptográficos pós-quânticos, protegendo a propriedade intelectual e os dados operacionais de ataques de "armazenar agora, descriptografar depois".

A gestão de dados de saúde exemplifica outra convergência. Modelos de IA são treinados em conjuntos de dados médicos armazenados no Walrus com provas criptográficas de disponibilidade. Provas de conhecimento zero preservam a privacidade do paciente enquanto permitem a pesquisa. Sistemas cirúrgicos robóticos coordenam-se através da blockchain para trilhas de auditoria e documentação de responsabilidade. A criptografia pós-quântica protege registros médicos sensíveis de ameaças de longo prazo. A camada de coordenação (a blockchain da Sui) permite o compartilhamento institucional de dados sem confiança, a computação de IA sem comprometer a privacidade e a segurança à prova de futuro sem substituição periódica da infraestrutura.

A declaração de visão de Chalkias durante o Sui Basecamp 2025 captura essa síntese: posicionar a Sui como "fundação para a próxima onda de sistemas inteligentes e descentralizados" com "capacidade crescente para suportar aplicações nativas de IA e intensivas em computação". A arquitetura modular — Sui para computação, Walrus para armazenamento, Scion para conectividade, zkLogin para identidade — cria o que os membros da equipe descrevem como "sistema operacional de blockchain", em vez de um livro-razão financeiro estreito. O modo sem internet, a criptografia quântica segura e a finalidade em sub-segundos não são listas de recursos, mas pré-requisitos para sistemas autónomos que operam em ambientes adversos com infraestrutura não confiável.

A metodologia de inovação por trás da liderança técnica

Compreender a abordagem da Mysten Labs explica a consistência da execução. Chalkias articulou a filosofia durante sua postagem no blog "Build Beyond": "A Mysten Labs é realmente boa em encontrar novas teorias no espaço que ninguém nunca implementou, onde algumas das suposições podem não ser precisas. Mas estamos casando isso com a tecnologia existente que temos, e, eventualmente, isso nos leva a criar um produto inovador." Isso descreve um processo sistemático: identificar pesquisas académicas com potencial prático, desafiar suposições não testadas através de rigor de engenharia, integrar com sistemas de produção e validar através da implantação.

O protocolo de consenso Mysticeti exemplifica isso. A pesquisa académica estabeleceu três rodadas de mensagens como o mínimo teórico para o compromisso de consenso bizantino. Implementações anteriores exigiam 1.5 viagens de ida e volta com assinaturas de quórum por bloco. A Mysten Labs projetou estruturas DAG não certificadas, eliminando a certificação explícita, implementou regras de compromisso ótimas via padrões DAG em vez de mecanismos de votação e demonstrou uma redução de latência de 80% em relação ao consenso Narwhal-Bullshark anterior. O resultado: artigo revisado por pares com provas formais acompanhado de implantação em produção processando bilhões de transações.

Metodologia semelhante aplica-se à criptografia. BPQS (o esquema de assinatura pós-quântica de blockchain de Chalkias) adapta assinaturas baseadas em hash XMSS para restrições de blockchain. Winterfell implementa o primeiro provador STARK de código aberto usando apenas funções hash para segurança pós-quântica. zkLogin combina autenticação OAuth com provas de conhecimento zero, eliminando partes confiáveis adicionais enquanto preserva a privacidade. Cada inovação aborda uma barreira prática (segurança pós-quântica, acessibilidade de prova ZK, atrito de integração de usuários) através de uma nova construção criptográfica apoiada por análise formal.

A composição da equipe reforça essa capacidade. Engenheiros do Meta construíram autenticação para bilhões, da NASA desenvolveram sistemas distribuídos críticos para a segurança, do Uber escalaram a coordenação em tempo real globalmente. Chalkias traz experiência criptográfica do Facebook/Diem, R3/Corda e pesquisa académica. Esta não é uma equipe de startup tradicional aprendendo na prática, mas veteranos executando sistemas que já construíram antes, agora sem as restrições das prioridades corporativas. O financiamento de US$ 336 milhões da a16z, Coinbase Ventures e Binance Labs reflete a confiança dos investidores na capacidade de execução sobre a tecnologia especulativa.

Desafios e considerações além do hype

A superioridade técnica não garante a adoção do mercado — uma lição aprendida repetidamente na história da tecnologia. Os 65.9K endereços ativos da Sui empalidecem em comparação com os 16.1 milhões da Solana, apesar de uma tecnologia discutivelmente melhor. Os efeitos de rede se acumulam: desenvolvedores constroem onde os usuários se reúnem, os usuários chegam onde as aplicações existem, criando vantagens de bloqueio para plataformas estabelecidas. A blockchain "mais lenta e cara" do Ethereum comanda ordens de magnitude mais atenção dos desenvolvedores do que alternativas tecnicamente superiores, apenas pela sua incumbência.

O posicionamento de "sistema operacional de blockchain" corre o risco de diluição — tentar se destacar em finanças, aplicações sociais, jogos, IA, robótica, IoT e armazenamento descentralizado simultaneamente pode resultar em mediocridade em todos os domínios, em vez de excelência em um. Críticos que notam essa preocupação apontam para a implantação limitada de robótica além de provas de conceito, projetos de IA principalmente em fase de especulação, em vez de utilidade de produção, e preparação de segurança quântica para ameaças a cinco a dez anos de distância. O contra-argumento sustenta que componentes modulares permitem desenvolvimento focado — equipes que constroem aplicações de IA usam inferência Atoma e armazenamento Walrus sem se preocupar com a integração robótica.

A criptografia pós-quântica introduz sobrecargas não triviais. As assinaturas CRYSTALS-Dilithium medem 3.293 bytes no nível de segurança 2, em comparação com os 64 bytes do Ed25519 — mais de 50 vezes maiores. A largura de banda da rede, os custos de armazenamento e o tempo de processamento aumentam proporcionalmente. As melhorias na verificação em lote permanecem limitadas (aceleração de 20-50% em relação à verificação independente) em comparação com o eficiente agrupamento de esquemas clássicos. Os riscos de migração incluem erro do usuário durante a transição, coordenação entre os participantes do ecossistema (carteiras, dApps, exchanges), requisitos de compatibilidade retroativa e dificuldade de testar em escala sem computadores quânticos reais. A incerteza do cronograma agrava os desafios de planejamento — o progresso da computação quântica permanece imprevisível, os padrões do NIST continuam evoluindo e novos ataques criptoanalíticos podem surgir contra esquemas PQ.

O timing do mercado apresenta talvez o maior risco. As vantagens da Sui materializam-se mais dramaticamente no período de 2030-2035: quando os computadores quânticos ameaçam a criptografia clássica, quando os sistemas autónomos proliferam exigindo coordenação sem confiança, quando os agentes de IA gerenciam valor económico significativo necessitando de infraestrutura segura. Se a adoção da blockchain estagnar antes dessa convergência, a liderança técnica torna-se irrelevante. Por outro lado, se a adoção explodir mais cedo, o ecossistema mais recente da Sui pode carecer de aplicações e liquidez para atrair usuários, apesar do desempenho superior. A tese de investimento exige acreditar não apenas na tecnologia da Sui, mas no alinhamento do tempo entre a maturação da blockchain e a adoção de tecnologias emergentes.

A aposta de uma década em primeiros princípios

Kostas Chalkias nomear seu filho Kryptos não é uma anedota charmosa, mas um sinal da profundidade de seu compromisso. Sua trajetória profissional — da pesquisa em IA à criptografia, da publicação académica aos sistemas de produção no Meta, da blockchain empresarial na R3 à arquitetura Layer 1 na Mysten Labs — demonstra um foco consistente em tecnologias fundamentais em escala. O trabalho de resistência quântica começou antes do anúncio do Willow do Google, quando a criptografia pós-quântica parecia uma preocupação teórica. A integração robótica começou antes que os agentes de IA comandassem avaliações de bilhões de dólares. As decisões arquitetónicas que possibilitam essas capacidades precedem o reconhecimento do mercado de sua importância.

Essa orientação voltada para o futuro contrasta com o desenvolvimento reativo comum em cripto. O Ethereum introduz rollups Layer 2 para resolver gargalos de escalabilidade que surgem após a implantação. Solana implementa comunicação QUIC e QoS ponderado por stake respondendo a interrupções e congestionamentos da rede. Bitcoin debate aumentos de tamanho de bloco e adoção da Lightning Network à medida que as taxas de transação disparam. A Sui projetou execução paralela, modelos de dados centrados em objetos e agilidade criptográfica antes de lançar a mainnet — abordando requisitos antecipados, em vez de problemas descobertos.

A cultura de pesquisa reforça essa abordagem. A Mysten Labs publica artigos académicos com provas formais antes de reivindicar capacidades. O artigo de consenso Mysticeti apareceu em locais revisados por pares com provas de correção e benchmarks de desempenho. A pesquisa de transição quântica submetida ao IACR ePrint Archive demonstra as vantagens do EdDSA através de construção matemática, não de alegações de marketing. O artigo zkLogin (arXiv 2401.11735) detalha a autenticação de conhecimento zero antes da implantação. Chalkias mantém contribuições ativas no GitHub (kchalkias), publica insights técnicos no LinkedIn e Twitter, apresenta em workshops PQCSA sobre ameaças quânticas e se envolve substancialmente com a comunidade de criptografia, em vez de promover exclusivamente a Sui.

A validação final chega em 5-10 anos, quando os computadores quânticos amadurecerem, os sistemas autónomos proliferarem e os agentes de IA gerenciarem economias de trilhões de dólares. Se a Sui executar consistentemente seu roteiro — implantando assinaturas pós-quânticas antes do prazo do NIST de 2030, demonstrando coordenação robótica em escala e suportando camadas de inferência de IA processando milhões de solicitações — ela se tornará a camada de infraestrutura para tecnologias que remodelam a civilização. Se os computadores quânticos chegarem mais tarde do que o previsto, a adoção autónoma estagnar ou os concorrentes adaptarem soluções com sucesso, os investimentos iniciais da Sui podem se mostrar prematuros. A aposta centra-se não na capacidade tecnológica — a Sui demonstra entregar o desempenho prometido — mas no timing do mercado e na urgência do problema.

A perspetiva de Chalkias durante a Emergence Conference enquadra isso sucintamente: "Eventualmente, a blockchain superará até mesmo a Visa em velocidade de transação. Será a norma. Não vejo como podemos escapar disso." A alegação de inevitabilidade assume direção técnica correta, qualidade de execução suficiente e timing alinhado. A Sui se posiciona para capitalizar se essas suposições se mantiverem. A arquitetura centrada em objetos, a agilidade criptográfica, a finalidade em sub-segundos e a metodologia de pesquisa sistemática não são adaptações, mas escolhas fundamentais projetadas para o cenário tecnológico que emerge na próxima década. Whether Sui captures market leadership or these capabilities become table stakes across all blockchains, Kostas Chalkias and Mysten Labs are architecting infrastructure for the quantum era's autonomous intelligence—one cryptographic primitive, one millisecond of latency reduction, one proof-of-concept robot at a time.

Mercados Descentralizados de Inferência de IA: Bittensor, Gensyn e Cuckoo AI

· Leitura de 82 minutos
Dora Noda
Software Engineer

Introdução

Os mercados descentralizados de inferência/treinamento de IA visam aproveitar recursos computacionais globais e modelos comunitários de uma forma que não exige confiança (trustless). Projetos como Bittensor, Gensyn e Cuckoo Network (Cuckoo AI) ilustram como a tecnologia blockchain pode impulsionar mercados abertos de IA. Cada plataforma tokeniza ativos-chave de IA – poder computacional, modelos de machine learning e, por vezes, dados – em unidades económicas on-chain. A seguir, aprofundamos as arquiteturas técnicas que sustentam estas redes, como elas tokenizam recursos, as suas estruturas de governança e incentivos, métodos para rastrear a propriedade de modelos, mecanismos de partilha de receitas e as superfícies de ataque (por exemplo, ataques sybil, conluio, parasitismo, envenenamento) que surgem. Uma tabela comparativa no final resume todas as dimensões-chave entre Bittensor, Gensyn e Cuckoo AI.

Arquiteturas Técnicas

Bittensor: “Internet Neural” Descentralizada em Sub-redes

O Bittensor é construído sobre uma blockchain de Camada 1 (Layer-1) personalizada (a cadeia Subtensor, baseada no Substrate) que coordena uma rede de nós de modelos de IA através de muitas sub-redes especializadas. Cada sub-rede é uma mini-rede independente focada numa tarefa de IA específica (por exemplo, uma sub-rede para geração de linguagem, outra para geração de imagens, etc.). Os participantes no Bittensor assumem papéis distintos:

  • Mineradores – executam modelos de machine learning no seu hardware e fornecem respostas de inferência (ou até realizam treinamento) para a tarefa da sub-rede. Em essência, um minerador é um nó que aloja um modelo de IA que responderá a consultas.
  • Validadores – consultam os modelos dos mineradores com prompts e avaliam a qualidade das respostas, formando uma opinião sobre quais mineradores estão a contribuir com resultados valiosos. Os validadores efetivamente pontuam o desempenho dos mineradores.
  • Proprietários de Sub-redes – criam e definem sub-redes, estabelecendo as regras para as tarefas a serem realizadas e como a validação é feita nessa sub-rede. Um proprietário de sub-rede poderia, por exemplo, especificar que uma sub-rede é para um determinado conjunto de dados ou modalidade e definir o procedimento de validação.
  • Delegadores – detentores de tokens que não executam nós podem delegar (fazer stake) os seus tokens Bittensor (TAO) a mineradores ou validadores para apoiar os melhores desempenhos e ganhar uma parte das recompensas (semelhante ao staking em redes de prova de participação).

O mecanismo de consenso do Bittensor é inovador: em vez da validação de blocos tradicional, o Bittensor usa o consenso Yuma, que é uma forma de “prova de inteligência”. No consenso Yuma, as avaliações dos mineradores pelos validadores são agregadas on-chain para determinar a distribuição de recompensas. A cada bloco de 12 segundos, a rede cria novos tokens TAO e distribui-os de acordo com o consenso dos validadores sobre quais mineradores forneceram trabalho útil. As pontuações dos validadores são combinadas num esquema de mediana ponderada por stake: opiniões discrepantes são cortadas e a opinião da maioria honesta prevalece. Isto significa que se a maioria dos validadores concordar que um minerador foi de alta qualidade, esse minerador receberá uma forte recompensa; se um validador se desviar muito dos outros (possivelmente devido a conluio ou erro), esse validador é penalizado por ganhar menos. Desta forma, a blockchain do Bittensor coordena um ciclo de feedback minerador-validador: os mineradores competem para produzir os melhores resultados de IA, e os validadores curam e classificam esses resultados, com ambos os lados a ganhar tokens proporcionais ao valor que adicionam. Esta arquitetura é frequentemente descrita como uma “rede neural descentralizada” ou “cérebro global”, onde os modelos aprendem com os sinais uns dos outros e evoluem coletivamente. Notavelmente, o Bittensor atualizou recentemente a sua cadeia para suportar compatibilidade com EVM (para contratos inteligentes) e introduziu o dTAO, um sistema de tokens e staking específicos de sub-rede (explicado mais tarde) para descentralizar ainda mais o controlo da alocação de recursos.

Gensyn: Protocolo de Computação Distribuída Trustless

A Gensyn aborda a IA descentralizada do ponto de vista de um protocolo de computação distribuída para machine learning. A sua arquitetura conecta desenvolvedores (submitters) que têm tarefas de IA (como treinar um modelo ou executar um trabalho de inferência) com fornecedores de computação (solvers) em todo o mundo que têm recursos de GPU/TPU sobressalentes. Originalmente, a Gensyn planeava uma cadeia L1 Substrate, mas mudou para construir no Ethereum como um rollup para maior segurança e liquidez. A rede Gensyn é, portanto, uma Camada 2 (Layer-2) do Ethereum (um rollup do Ethereum) que coordena a publicação de trabalhos e pagamentos, enquanto a computação ocorre off-chain no hardware dos fornecedores.

Uma inovação central do design da Gensyn é o seu sistema de verificação para trabalho off-chain. A Gensyn usa uma combinação de verificação otimista (provas de fraude) e técnicas criptográficas para garantir que, quando um solver afirma ter executado uma tarefa de treinamento/inferência, o resultado está correto. Na prática, o protocolo envolve múltiplos papéis de participantes:

  • Submitter – a parte que solicita um trabalho (por exemplo, alguém que precisa de treinar um modelo). Eles pagam a taxa da rede e fornecem o modelo/dados ou a especificação da tarefa.
  • Solver – um nó que licita e executa a tarefa de ML no seu hardware. Eles treinarão o modelo ou executarão a inferência conforme solicitado, e depois submeterão os resultados e uma prova de computação.
  • Verifier/Challenger – nós que podem auditar ou verificar aleatoriamente o trabalho do solver. A Gensyn implementa um esquema ao estilo Truebit, onde, por padrão, o resultado de um solver é aceite, mas um verificador pode desafiá-lo dentro de uma janela de tempo se suspeitar de um cálculo incorreto. Num desafio, uma “pesquisa binária” interativa através dos passos de computação (um protocolo de prova de fraude) é usada para identificar qualquer discrepância. Isto permite que a cadeia resolva disputas realizando apenas uma parte crítica mínima da computação on-chain, em vez de refazer toda a tarefa dispendiosa.

Crucialmente, a Gensyn foi projetada para evitar a redundância massiva de abordagens ingénuas. Em vez de ter muitos nós a repetir o mesmo trabalho de ML (o que destruiria a economia de custos), a abordagem de “prova de aprendizagem” da Gensyn usa metadados de treinamento para verificar se o progresso da aprendizagem foi feito. Por exemplo, um solver pode fornecer hashes criptográficos ou checkpoints de pesos intermédios do modelo e uma prova sucinta de que estes progrediram de acordo com as atualizações de treinamento. Esta prova probabilística de aprendizagem pode ser verificada de forma muito mais barata do que reexecutar todo o treinamento, permitindo a verificação trustless sem replicação completa. Apenas se um verificador detetar uma anomalia é que uma computação on-chain mais pesada seria acionada como último recurso. Esta abordagem reduz drasticamente a sobrecarga em comparação com a verificação por força bruta, tornando o treinamento de ML descentralizado mais viável. A arquitetura da Gensyn, portanto, enfatiza fortemente o design de jogo criptoeconómico: os solvers colocam um stake ou um depósito, e se eles trapacearem (submetendo resultados errados), perdem esse stake para os verificadores honestos que os apanham. Ao combinar a coordenação da blockchain (para pagamentos e resolução de disputas) com computação off-chain e verificação inteligente, a Gensyn cria um mercado para computação de ML que pode explorar GPUs ociosas em qualquer lugar, mantendo a ausência de confiança. O resultado é um “protocolo de computação” em hiperescala, onde qualquer desenvolvedor pode aceder a poder de treinamento acessível e distribuído globalmente sob demanda.

Cuckoo AI: Plataforma de Serviço de IA Descentralizada Full-Stack

A Cuckoo Network (ou Cuckoo AI) adota uma abordagem mais integrada verticalmente, com o objetivo de fornecer serviços de IA descentralizados de ponta a ponta, em vez de apenas computação bruta. A Cuckoo construiu a sua própria blockchain (inicialmente uma Camada 1 chamada Cuckoo Chain no Arbitrum Orbit, um framework de rollup compatível com Ethereum) para orquestrar tudo: não só combina trabalhos com GPUs, mas também aloja aplicações de IA e lida com pagamentos num único sistema. O design é full-stack: combina uma blockchain para transações e governança, uma camada de recursos descentralizados de GPU/CPU e aplicações de IA e APIs voltadas para o utilizador no topo. Por outras palavras, a Cuckoo integra todas as três camadas – blockchain, computação e aplicação de IA – dentro de uma única plataforma.

Os participantes na Cuckoo dividem-se em quatro grupos:

  • Construtores de Aplicações de IA (Coordenadores) – são desenvolvedores que implementam modelos ou serviços de IA na Cuckoo. Por exemplo, um desenvolvedor pode alojar um gerador de imagens Stable Diffusion ou um chatbot LLM como um serviço. Eles executam Nós Coordenadores, que são responsáveis por gerir o seu serviço: aceitar pedidos de utilizadores, dividi-los em tarefas e atribuir essas tarefas aos mineradores. Os coordenadores fazem stake do token nativo ($CAI) para se juntarem à rede e ganharem o direito de utilizar os mineradores. Eles essencialmente atuam como orquestradores de camada 2 que fazem a interface entre os utilizadores e os fornecedores de GPU.
  • Mineradores de GPU/CPU (Nós de Tarefa) – são os fornecedores de recursos. Os mineradores executam o cliente de tarefas da Cuckoo e contribuem com o seu hardware para realizar tarefas de inferência para as aplicações de IA. Por exemplo, um minerador pode receber um pedido de geração de imagem (com um determinado modelo e prompt) de um coordenador e usar a sua GPU para calcular o resultado. Os mineradores também devem fazer stake de $CAI para garantir o compromisso e o bom comportamento. Eles ganham recompensas em tokens por cada tarefa que completam corretamente.
  • Utilizadores Finais – os consumidores das aplicações de IA. Eles interagem através do portal web ou APIs da Cuckoo (por exemplo, gerando arte via CooVerse ou conversando com personalidades de IA). Os utilizadores podem pagar com criptomoedas por cada uso ou, possivelmente, contribuir com a sua própria computação (ou stake) para compensar os custos de uso. Um aspeto importante é a resistência à censura: se um coordenador (fornecedor de serviço) for bloqueado ou ficar offline, os utilizadores podem mudar para outro que sirva a mesma aplicação, uma vez que múltiplos coordenadores podem alojar modelos semelhantes na rede descentralizada.
  • Stakers (Delegadores) – membros da comunidade que não executam serviços de IA ou hardware de mineração ainda podem participar fazendo stake de $CAI naqueles que o fazem. Ao votar com o seu stake em coordenadores ou mineradores de confiança, eles ajudam a sinalizar a reputação e, em troca, ganham uma parte das recompensas da rede. Este design constrói uma camada de reputação Web3: bons atores atraem mais stake (e, portanto, confiança e recompensas), enquanto maus atores perdem stake e reputação. Mesmo os utilizadores finais podem fazer stake em alguns casos, alinhando-os com o sucesso da rede.

A cadeia Cuckoo (agora em processo de transição de uma cadeia autónoma para um rollup de segurança partilhada) rastreia todas estas interações. Quando um utilizador invoca um serviço de IA, o nó coordenador cria atribuições de tarefas on-chain para os mineradores. Os mineradores executam as tarefas off-chain e devolvem os resultados ao coordenador, que os valida (por exemplo, verificando se a imagem ou texto de saída não é um disparate) e entrega o resultado final ao utilizador. A blockchain lida com a liquidação de pagamentos: para cada tarefa, o contrato inteligente do coordenador paga ao minerador em $CAI (muitas vezes agregando micropagamentos em pagamentos diários). A Cuckoo enfatiza a ausência de confiança e a transparência – todos os participantes fazem stake de tokens e todas as atribuições e conclusões de tarefas são registadas, de modo que a fraude é desencorajada pela ameaça de perder o stake e pela visibilidade pública do desempenho. O design modular da rede significa que novos modelos de IA ou casos de uso podem ser adicionados facilmente: embora tenha começado com a geração de texto para imagem como prova de conceito, a sua arquitetura é geral o suficiente para suportar outras cargas de trabalho de IA (por exemplo, inferência de modelos de linguagem, transcrição de áudio, etc.).

Um aspeto notável da arquitetura da Cuckoo é que ela lançou inicialmente a sua própria blockchain de Camada 1 para maximizar o débito para transações de IA (atingindo um pico de 300k transações diárias durante os testes). Isto permitiu otimizações personalizadas para o agendamento de tarefas de IA. No entanto, a equipa descobriu que manter uma L1 autónoma era dispendioso e complexo, e em meados de 2025 decidiram descontinuar a cadeia personalizada e migrar para um modelo de rollup/AVS (Active Validated Service) no Ethereum. Isto significa que a Cuckoo herdará a segurança do Ethereum ou de uma L2 como o Arbitrum, em vez de executar o seu próprio consenso, mas continuará a operar o seu mercado de IA descentralizado nessa camada de segurança partilhada. A mudança destina-se a melhorar a segurança económica (aproveitando a robustez do Ethereum) e a permitir que a equipa da Cuckoo se concentre no produto em vez da manutenção da cadeia de baixo nível. Em resumo, a arquitetura da Cuckoo cria uma plataforma de serviço de IA descentralizada onde qualquer pessoa pode ligar hardware ou implementar um serviço de modelo de IA, e utilizadores globalmente podem aceder a aplicações de IA com menor custo e menos dependência da infraestrutura das grandes empresas de tecnologia.

Mecanismos de Tokenização de Ativos

Um tema comum destas redes é a conversão de computação, modelos e dados em ativos on-chain ou unidades económicas que podem ser negociadas ou monetizadas. No entanto, cada projeto foca-se em tokenizar estes recursos de maneiras diferentes:

  • Poder Computacional: Todas as três plataformas transformam o trabalho computacional em tokens de recompensa. No Bittensor, a computação útil (inferência ou treinamento feito por um minerador) é quantificada através das pontuações dos validadores e recompensada com tokens TAO a cada bloco. Essencialmente, o Bittensor “mede” a inteligência contribuída e cria TAO como uma mercadoria que representa essa contribuição. A Gensyn trata explicitamente a computação como uma mercadoria – o seu protocolo cria um mercado onde o tempo de GPU é o produto, e o preço é definido pela oferta e procura em termos de tokens. Os desenvolvedores compram computação usando o token, e os fornecedores ganham tokens vendendo os seus ciclos de hardware. A equipa da Gensyn observa que qualquer recurso digital (computação, dados, algoritmos) pode ser representado e negociado num mercado trustless semelhante. A Cuckoo tokeniza a computação através de um token ERC-20 $CAI emitido como pagamento por tarefas concluídas. Os fornecedores de GPU essencialmente “mineram” CAI ao fazerem trabalho de inferência de IA. O sistema da Cuckoo cria registos on-chain de tarefas, então pode-se pensar em cada tarefa de GPU concluída como uma unidade atómica de trabalho que é paga em tokens. A premissa em todos os três é que o poder computacional, de outra forma ocioso ou inacessível, se torna um ativo tokenizado e líquido – seja através de emissões de tokens ao nível do protocolo (como no Bittensor e na Cuckoo inicial) ou através de um mercado aberto de ordens de compra/venda para trabalhos de computação (como na Gensyn).

  • Modelos de IA: Representar modelos de IA como ativos on-chain (por exemplo, NFTs ou tokens) ainda é incipiente. O Bittensor não tokeniza os modelos em si – os modelos permanecem off-chain sob a propriedade dos mineradores. Em vez disso, o Bittensor atribui indiretamente um valor aos modelos, recompensando aqueles que têm um bom desempenho. Na prática, a “inteligência” de um modelo é transformada em ganhos de TAO, mas não há um NFT que represente os pesos do modelo ou permita que outros o usem. O foco da Gensyn está nas transações de computação, não explicitamente na criação de tokens para modelos. Um modelo na Gensyn é tipicamente fornecido por um desenvolvedor off-chain (talvez de código aberto ou proprietário), treinado por solvers e devolvido – não há um mecanismo integrado para criar um token que possua o modelo ou a sua propriedade intelectual. (Dito isto, o mercado da Gensyn poderia potencialmente facilitar a negociação de artefactos ou checkpoints de modelos se as partes assim o desejarem, mas o protocolo em si vê os modelos como o conteúdo da computação, em vez de um ativo tokenizado.) A Cuckoo situa-se algures no meio: fala de “agentes de IA” e modelos integrados na rede, mas atualmente não há um token não fungível que represente cada modelo. Em vez disso, um modelo é implementado por um construtor de aplicações e depois servido através da rede. Os direitos de uso desse modelo são implicitamente tokenizados, na medida em que o modelo pode ganhar $CAI quando é usado (através do coordenador que o implementa). Todas as três plataformas reconhecem o conceito de tokenização de modelos – por exemplo, dar às comunidades a propriedade de modelos através de tokens – mas as implementações práticas são limitadas. Como indústria, a tokenização de modelos de IA (por exemplo, como NFTs com direitos de propriedade e partilha de lucros) ainda está a ser explorada. A abordagem do Bittensor de modelos a trocarem valor entre si é uma forma de “mercado de modelos” sem um token explícito por modelo. A equipa da Cuckoo observa que a propriedade descentralizada de modelos é promissora para reduzir as barreiras em comparação com a IA centralizada, mas requer métodos eficazes para verificar os resultados e o uso dos modelos on-chain. Em resumo, o poder computacional é imediatamente tokenizado (é simples pagar tokens por trabalho feito), enquanto os modelos são indireta ou aspiracionalmente tokenizados (recompensados pelos seus resultados, possivelmente representados por stake ou reputação, mas ainda não tratados como NFTs transferíveis nestas plataformas).

  • Dados: A tokenização de dados continua a ser a mais difícil. Nenhum dos projetos Bittensor, Gensyn ou Cuckoo tem mercados de dados on-chain totalmente generalizados e integrados (onde conjuntos de dados são negociados com direitos de uso aplicáveis). Os nós do Bittensor podem treinar em vários conjuntos de dados, mas esses conjuntos de dados não fazem parte do sistema on-chain. A Gensyn pode permitir que um desenvolvedor forneça um conjunto de dados para treinamento, mas o protocolo não tokeniza esses dados – são simplesmente fornecidos off-chain para o solver usar. A Cuckoo, da mesma forma, não tokeniza os dados do utilizador; lida principalmente com dados (como prompts ou resultados de utilizadores) de forma transitória para tarefas de inferência. O blog da Cuckoo afirma explicitamente que “os dados descentralizados continuam a ser um desafio para tokenizar” apesar de serem um recurso crítico. Os dados são sensíveis (questões de privacidade e propriedade) e difíceis de manusear com a tecnologia blockchain atual. Assim, enquanto a computação está a ser comoditizada e os modelos começam a sê-lo, os dados permanecem em grande parte off-chain, exceto em casos especiais (alguns projetos fora destes três estão a experimentar uniões de dados e recompensas em tokens por contribuições de dados, mas isso está fora do nosso âmbito atual). Em resumo, o poder computacional é agora uma mercadoria on-chain nestas redes, os modelos são valorizados através de tokens, mas ainda não tokenizados individualmente como ativos, e a tokenização de dados ainda é um problema em aberto (além de reconhecer a sua importância).

Governança e Incentivos

Um design robusto de governança e incentivos é crucial para que estas redes de IA descentralizadas funcionem de forma autónoma e justa. Aqui, examinamos como cada plataforma se governa (quem toma as decisões, como ocorrem as atualizações ou alterações de parâmetros) e como alinham os incentivos dos participantes através da economia de tokens.

  • Governança do Bittensor: Nas suas fases iniciais, o desenvolvimento e os parâmetros das sub-redes do Bittensor eram em grande parte controlados pela equipa principal e por um conjunto de 64 validadores “raiz” na sub-rede principal. Este era um ponto de centralização – alguns validadores poderosos tinham uma influência desproporcional na alocação de recompensas, levando ao que alguns chamaram de “sistema de votação oligárquico”. Para resolver isto, o Bittensor introduziu a governança dTAO (TAO descentralizado) em 2025. O sistema dTAO mudou a alocação de recursos para ser impulsionada pelo mercado e controlada pela comunidade. Concretamente, os detentores de TAO podem fazer stake dos seus tokens em pools de liquidez específicos de sub-redes (essencialmente, eles “votam” em quais sub-redes devem receber mais emissões da rede) e recebem tokens alfa que representam a propriedade nesses pools de sub-redes. As sub-redes que atraem mais stake terão um preço de token alfa mais alto e receberão uma fatia maior da emissão diária de TAO, enquanto as sub-redes impopulares ou com baixo desempenho verão o capital (e, portanto, as emissões) a afastar-se. Isto cria um ciclo de feedback: se uma sub-rede produz serviços de IA valiosos, mais pessoas fazem stake de TAO nela (procurando recompensas), o que dá a essa sub-rede mais TAO para recompensar os seus participantes, fomentando o crescimento. Se uma sub-rede estagnar, os stakers retiram-se para sub-redes mais lucrativas. Na prática, os detentores de TAO governam coletivamente o foco da rede ao sinalizarem financeiramente quais domínios de IA merecem mais recursos. Esta é uma forma de governança on-chain por peso de token, alinhada com os resultados económicos. Além da alocação de recursos, grandes atualizações de protocolo ou alterações de parâmetros provavelmente ainda passam por propostas de governança onde os detentores de TAO votam (o Bittensor tem um mecanismo para propostas e referendos on-chain geridos pela Fundação Bittensor e um conselho eleito, semelhante à governança do Polkadot). Com o tempo, pode-se esperar que a governança do Bittensor se torne cada vez mais descentralizada, com a fundação a recuar à medida que a comunidade (através do stake de TAO) orienta coisas como a taxa de inflação, a aprovação de novas sub-redes, etc. A transição para o dTAO é um grande passo nessa direção, substituindo os decisores centralizados por um mercado de detentores de tokens alinhado por incentivos.

  • Incentivos do Bittensor: A estrutura de incentivos do Bittensor está intimamente ligada ao seu consenso. A cada bloco (12 segundos), exatamente 1 TAO é recém-criado e dividido entre os contribuidores de cada sub-rede com base no desempenho. A divisão padrão para a recompensa de bloco de cada sub-rede é 41% para os mineradores, 41% para os validadores e 18% para o proprietário da sub-rede. Isto garante que todos os papéis são recompensados: os mineradores ganham por fazer o trabalho de inferência, os validadores ganham pelo seu esforço de avaliação, e os proprietários de sub-redes (que podem ter iniciado os dados/tarefa para essa sub-rede) ganham um resíduo por fornecerem o “mercado” ou o design da tarefa. Essas percentagens são fixas no protocolo e visam alinhar os incentivos de todos para uma produção de IA de alta qualidade. O mecanismo de consenso Yuma refina ainda mais os incentivos ao ponderar as recompensas de acordo com as pontuações de qualidade – um minerador que fornece melhores respostas (conforme o consenso dos validadores) obtém uma porção maior desses 41%, e um validador que segue de perto o consenso honesto obtém mais da porção do validador. Os maus desempenhos são eliminados economicamente. Além disso, os delegadores (stakers) que apoiam um minerador ou validador normalmente recebem uma parte dos ganhos desse nó (os nós geralmente definem uma comissão e dão o resto aos seus delegadores, semelhante ao staking em redes PoS). Isto permite que os detentores passivos de TAO apoiem os melhores contribuidores e ganhem rendimento, reforçando ainda mais a meritocracia. O token do Bittensor (TAO) é, portanto, um token de utilidade: é necessário para o registo de novos mineradores (os mineradores devem gastar uma pequena quantidade de TAO para se juntarem, o que combate o spam sybil) e pode ser colocado em stake para aumentar a influência ou ganhar através da delegação. Também é previsto como um token de pagamento se utilizadores externos quiserem consumir serviços da rede do Bittensor (por exemplo, pagar TAO para consultar um modelo de linguagem no Bittensor), embora o mecanismo de recompensa interno tenha sido a principal “economia” até agora. A filosofia geral de incentivos é recompensar a “inteligência valiosa” – ou seja, modelos que ajudam a produzir bons resultados de IA – e criar uma competição que melhora continuamente a qualidade dos modelos na rede.

  • Governança da Gensyn: O modelo de governança da Gensyn está estruturado para evoluir do controlo da equipa principal para o controlo da comunidade à medida que a rede amadurece. Inicialmente, a Gensyn terá uma Fundação Gensyn e um conselho eleito que supervisionarão as atualizações do protocolo e as decisões do tesouro. Espera-se que este conselho seja composto por membros da equipa principal e líderes comunitários iniciais. A Gensyn planeia um Evento de Geração de Tokens (TGE) para o seu token nativo (frequentemente referido como GENS), após o qual o poder de governança passaria cada vez mais para as mãos dos detentores de tokens através de votação on-chain. O papel da fundação é representar os interesses do protocolo e garantir uma transição suave para a descentralização total. Na prática, a Gensyn provavelmente terá mecanismos de proposta on-chain onde alterações de parâmetros (por exemplo, duração do jogo de verificação, taxas) ou atualizações são votadas pela comunidade. Como a Gensyn está a ser implementada como um rollup do Ethereum, a governança também pode estar ligada à segurança do Ethereum (por exemplo, usando chaves de atualização para o contrato do rollup que eventualmente são entregues a uma DAO de detentores de tokens). A secção de descentralização e governança do litepaper da Gensyn enfatiza que o protocolo deve, em última análise, ser de propriedade global, alinhando-se com o ethos de que a “rede para inteligência de máquina” deve pertencer aos seus utilizadores e contribuidores. Em resumo, a governança da Gensyn começa semi-centralizada, mas está arquitetada para se tornar uma DAO onde os detentores de tokens GENS (potencialmente ponderados por stake ou participação) tomam decisões coletivamente.

  • Incentivos da Gensyn: Os incentivos económicos na Gensyn são dinâmicas de mercado diretas, complementadas por segurança criptoeconómica. Os desenvolvedores (clientes) pagam por tarefas de ML no token Gensyn, e os Solvers ganham tokens ao completar essas tarefas corretamente. O preço dos ciclos de computação é determinado por um mercado aberto – presumivelmente, os desenvolvedores podem colocar tarefas com uma recompensa e os solvers podem licitar ou simplesmente aceitá-la se o preço corresponder às suas expectativas. Isto garante que, enquanto houver oferta de GPUs ociosas, a competição levará o custo a uma taxa justa (a equipa da Gensyn projeta uma redução de custos de até 80% em comparação com os preços da nuvem, pois a rede encontra o hardware disponível mais barato globalmente). Por outro lado, os solvers têm o incentivo de ganhar tokens por trabalho; o seu hardware que, de outra forma, estaria ocioso, agora gera receita. Para garantir a qualidade, a Gensyn exige que os solvers coloquem colateral em stake quando assumem um trabalho – se eles trapacearem ou produzirem um resultado incorreto e forem apanhados, perdem esse stake (pode ser cortado e atribuído ao verificador honesto). Os verificadores são incentivados pela chance de ganhar uma recompensa “jackpot” se apanharem um solver fraudulento, semelhante ao design do Truebit de recompensar periodicamente os verificadores que identificam com sucesso computações incorretas. Isto mantém os solvers honestos e motiva alguns nós a agirem como vigilantes. Num cenário ótimo (sem trapaça), os solvers simplesmente ganham a taxa da tarefa e o papel do verificador fica maioritariamente ocioso (ou um dos solvers participantes pode também atuar como verificador de outros). O token da Gensyn serve, portanto, como moeda de gás para comprar computação e como colateral de stake que protege o protocolo. O litepaper menciona uma testnet com tokens não permanentes e que os participantes iniciais da testnet serão recompensados no TGE com tokens reais. Isto indica que a Gensyn alocou alguma oferta de tokens para bootstrapping – recompensando os primeiros adotantes, solvers de teste e membros da comunidade. A longo prazo, as taxas de trabalhos reais devem sustentar a rede. Pode também haver uma pequena taxa de protocolo (uma percentagem de cada pagamento de tarefa) que vai para um tesouro ou é queimada; este detalhe ainda não está confirmado, mas muitos protocolos de mercado incluem uma taxa para financiar o desenvolvimento ou a compra e queima de tokens. Em resumo, os incentivos da Gensyn alinham-se em torno da conclusão honesta de trabalhos de ML: faça o trabalho, seja pago; tente trapacear, perca o stake; verifique os outros, ganhe se apanhar trapaças. Isto cria um sistema económico auto-policiado, destinado a alcançar uma computação distribuída fiável.

  • Governança da Cuckoo: A Cuckoo Network integrou a governança no seu ecossistema desde o primeiro dia, embora ainda esteja em fase de desenvolvimento. O token $CAI é explicitamente um token de governança, além dos seus papéis de utilidade. A filosofia da Cuckoo é que os operadores de nós de GPU, os desenvolvedores de aplicações e até os utilizadores finais devem ter uma palavra a dizer na evolução da rede – refletindo a sua visão impulsionada pela comunidade. Na prática, decisões importantes (como atualizações de protocolo ou alterações económicas) seriam decididas por votos ponderados por tokens, presumivelmente através de um mecanismo de DAO. Por exemplo, a Cuckoo poderia realizar votações on-chain para alterar a distribuição de recompensas ou adotar uma nova funcionalidade, e os detentores de $CAI (incluindo mineradores, desenvolvedores e utilizadores) votariam. A votação on-chain já é usada como um sistema de reputação: a Cuckoo exige que cada papel faça stake de tokens, e depois os membros da comunidade podem votar (talvez delegando stake ou através de módulos de governança) em quais coordenadores ou mineradores são confiáveis. Isto afeta as pontuações de reputação e pode influenciar o agendamento de tarefas (por exemplo, um coordenador com mais votos pode atrair mais utilizadores, ou um minerador com mais votos pode receber mais tarefas). É uma mistura de governança e incentivo – usar tokens de governança para estabelecer confiança. A Fundação Cuckoo ou a equipa principal tem guiado a direção do projeto até agora (por exemplo, tomando a recente decisão de descontinuar a cadeia L1), mas o seu blog indica um compromisso em avançar para a propriedade descentralizada. Eles identificaram que executar a sua própria cadeia incorria em altos custos e que a mudança para um rollup permitirá um desenvolvimento mais aberto e integração com ecossistemas existentes. É provável que, uma vez numa camada partilhada (como o Ethereum), a Cuckoo implemente uma DAO mais tradicional para atualizações, com a comunidade a votar usando CAI.

  • Incentivos da Cuckoo: O design de incentivos para a Cuckoo tem duas fases: a fase inicial de bootstrapping com alocações fixas de tokens, e um estado futuro com partilha de receitas impulsionada pelo uso. No lançamento, a Cuckoo realizou uma distribuição de “lançamento justo” de 1 bilião de tokens CAI. 51% da oferta foi reservada para a comunidade, alocada como:

    • Recompensas de Mineração: 30% da oferta total reservada para pagar aos mineradores de GPU por realizarem tarefas de IA.
    • Recompensas de Staking: 11% da oferta para aqueles que fazem stake e ajudam a proteger a rede.
    • Airdrops: 5% para os primeiros utilizadores e membros da comunidade como um incentivo à adoção.
    • (Outros 5% foram para subsídios a desenvolvedores para encorajar a construção na Cuckoo.)

    Esta grande alocação significa que, na rede inicial, os mineradores e stakers foram recompensados de um pool de emissão, mesmo que a procura real dos utilizadores fosse baixa. De facto, a fase inicial da Cuckoo apresentou altos rendimentos APY para staking e mineração, o que atraiu com sucesso participantes, mas também “yield farmers” que estavam lá apenas pelos tokens. A equipa notou que muitos utilizadores saíram assim que as taxas de recompensa caíram, indicando que esses incentivos não estavam ligados ao uso genuíno. Tendo aprendido com isso, a Cuckoo está a mudar para um modelo onde as recompensas se correlacionam diretamente com a carga de trabalho real de IA. No futuro (e parcialmente já), quando um utilizador final paga por uma inferência de IA, esse pagamento (em CAI ou possivelmente outro token aceite convertido para CAI) será dividido entre os contribuidores:

    • Mineradores de GPU receberão a maior parte pela computação que forneceram.
    • Coordenador (desenvolvedor da aplicação) ficará com uma porção como o fornecedor de serviço que forneceu o modelo e lidou com o pedido.
    • Stakers que delegaram nesses mineradores ou coordenadores podem receber uma pequena parte ou uma recompensa inflacionária, para continuar a incentivar o apoio a nós fiáveis.
    • Rede/Tesouro pode reter uma taxa para o desenvolvimento contínuo ou para financiar incentivos futuros (ou a taxa pode ser zero/nominal para maximizar a acessibilidade para o utilizador).

    Essencialmente, a Cuckoo está a mover-se para um modelo de partilha de receitas: se uma aplicação de IA na Cuckoo gera ganhos, esses ganhos são distribuídos a todos os contribuidores desse serviço de forma justa. Isto alinha os incentivos para que os participantes beneficiem do uso real em vez de apenas da inflação. A rede já exigia que todas as partes fizessem stake de CAI – isto significa que os mineradores e coordenadores não ganham apenas uma recompensa fixa, mas também possivelmente recompensas baseadas em stake (por exemplo, um coordenador pode ganhar recompensas mais altas se muitos utilizadores fizerem stake nele ou se ele próprio fizer mais stake, semelhante a como os validadores de prova de participação ganham). Em termos de incentivos para os utilizadores, a Cuckoo também introduziu coisas como um portal de airdrop e faucets (que alguns utilizadores exploraram) para semear a atividade inicial. No futuro, os utilizadores podem ser incentivados através de reembolsos em tokens por usarem os serviços ou através de recompensas de governança por participarem na curadoria (por exemplo, talvez ganhando pequenos tokens por avaliarem resultados ou contribuírem com dados). A linha de fundo é que o token da Cuckoo ($CAI) é multifuncional: é o token de gás/taxa na cadeia (todas as transações e pagamentos o usam), é usado para staking e votação, e é a unidade de recompensa pelo trabalho feito. A Cuckoo menciona explicitamente que quer ligar as recompensas de tokens a KPIs de nível de serviço (indicadores-chave de desempenho) – por exemplo, tempo de atividade, débito de consultas, satisfação do utilizador – para evitar incentivos puramente especulativos. Isto reflete um amadurecimento da economia de tokens, de uma simples mineração de liquidez para um modelo mais sustentável e impulsionado pela utilidade.

Propriedade de Modelos e Atribuição de PI

Lidar com a propriedade intelectual (PI) e os direitos de propriedade de modelos de IA é um aspeto complexo das redes de IA descentralizadas. Cada plataforma adotou uma postura ligeiramente diferente, e geralmente esta é uma área em evolução sem uma solução completa ainda:

  • Bittensor: Os modelos no Bittensor são fornecidos pelos nós mineradores, e esses mineradores mantêm o controlo total sobre os pesos dos seus modelos (que nunca são publicados on-chain). O Bittensor não rastreia explicitamente quem “possui” um modelo, além do facto de que ele está a ser executado num determinado endereço de carteira. Se um minerador sair, o seu modelo sai com ele. Assim, a atribuição de PI no Bittensor é off-chain: se um minerador usa um modelo proprietário, não há nada on-chain que imponha ou sequer saiba disso. A filosofia do Bittensor incentiva contribuições abertas (muitos mineradores podem usar modelos de código aberto como GPT-J ou outros) e a rede recompensa o desempenho desses modelos. Poder-se-ia dizer que o Bittensor cria uma pontuação de reputação para os modelos (através das classificações dos validadores), e isso é uma forma de reconhecer o valor do modelo, mas os direitos sobre o modelo em si não são tokenizados ou distribuídos. Notavelmente, os proprietários de sub-redes no Bittensor podem ser vistos como possuidores de uma parte da PI: eles definem uma tarefa (que pode incluir um conjunto de dados ou método). O proprietário da sub-rede cria um NFT (chamado de UID de sub-rede) ao criar uma sub-rede, e esse NFT dá-lhes direito a 18% das recompensas nessa sub-rede. Isto efetivamente tokeniza a criação de um mercado de modelos (a sub-rede), se não as instâncias do modelo. Se considerarmos a definição da sub-rede (digamos, uma tarefa de reconhecimento de fala com um conjunto de dados específico) como PI, isso é pelo menos registado e recompensado. Mas os pesos individuais dos modelos que os mineradores treinam – não há um registo de propriedade on-chain deles. A atribuição vem na forma de recompensas pagas ao endereço desse minerador. O Bittensor atualmente não implementa um sistema onde, por exemplo, várias pessoas possam possuir conjuntamente um modelo e obter uma partilha de receitas automática – a pessoa que executa o modelo (minerador) recebe a recompensa e cabe a ela, off-chain, honrar quaisquer licenças de PI do modelo que usou.

  • Gensyn: Na Gensyn, a propriedade do modelo é direta, na medida em que o submitter (aquele que quer um modelo treinado) fornece a arquitetura do modelo e os dados, e após o treinamento, ele recebe o artefacto do modelo resultante. Os solvers que realizam o trabalho não têm direitos sobre o modelo; são como contratados a serem pagos por um serviço. O protocolo da Gensyn assume, portanto, o modelo de PI tradicional: se você tinha direitos legais sobre o modelo e os dados que submeteu, ainda os tem depois de treinado – a rede de computação não reivindica qualquer propriedade. A Gensyn menciona que o mercado também poderia negociar algoritmos e dados como qualquer outro recurso. Isto sugere um cenário onde alguém poderia oferecer um modelo ou algoritmo para uso na rede, possivelmente por uma taxa, tokenizando assim o acesso a esse modelo. Por exemplo, um criador de modelos poderia colocar o seu modelo pré-treinado na Gensyn e permitir que outros o ajustassem através da rede por uma taxa (isto monetizaria efetivamente a PI do modelo). Embora o protocolo não imponha termos de licença, poder-se-ia codificar requisitos de pagamento: um contrato inteligente poderia exigir uma taxa para desbloquear os pesos do modelo para um solver. No entanto, estes são casos de uso especulativos – o design principal da Gensyn é sobre permitir trabalhos de treinamento. Quanto à atribuição, se várias partes contribuírem para um modelo (digamos, uma fornece dados, outra fornece computação), isso provavelmente seria tratado por qualquer contrato ou acordo que eles estabelecessem antes de usar a Gensyn (por exemplo, um contrato inteligente poderia dividir o pagamento entre o fornecedor de dados e o fornecedor de computação). A Gensyn em si não rastreia “este modelo foi construído por X, Y, Z” on-chain, além do registo de quais endereços foram pagos pelo trabalho. Em suma, a PI do modelo na Gensyn permanece com o submitter, e qualquer atribuição ou licenciamento deve ser tratado através de acordos legais fora do protocolo ou através de contratos inteligentes personalizados construídos sobre ele.

  • Cuckoo: No ecossistema da Cuckoo, os criadores de modelos (construtores de aplicações de IA) são participantes de primeira classe – eles implementam o serviço de IA. Se um construtor de aplicações ajusta um modelo de linguagem ou desenvolve um modelo personalizado e o aloja na Cuckoo, esse modelo é essencialmente sua propriedade e eles atuam como o proprietário do serviço. A Cuckoo não se apropria de nenhuma propriedade; em vez disso, fornece a infraestrutura para que eles monetizem o uso. Por exemplo, se um desenvolvedor implementa uma IA de chatbot, os utilizadores podem interagir com ela e o desenvolvedor (mais os mineradores) ganham CAI de cada interação. A plataforma atribui, assim, a receita de uso ao criador do modelo, mas não publica explicitamente os pesos do modelo nem os transforma num NFT. Na verdade, para executar o modelo nas GPUs dos mineradores, o nó coordenador provavelmente tem de enviar o modelo (ou o tempo de execução) ao minerador de alguma forma. Isto levanta questões de PI: poderia um minerador malicioso copiar os pesos do modelo e distribuí-los? Numa rede descentralizada, esse risco existe se forem usados modelos proprietários. O foco atual da Cuckoo tem sido em modelos razoavelmente abertos (Stable Diffusion, modelos derivados do LLaMA, etc.) e na construção de uma comunidade, por isso ainda não vimos uma aplicação de direitos de PI através de contratos inteligentes. A plataforma poderia potencialmente integrar ferramentas como execução de modelos encriptados ou enclaves seguros no futuro para proteção de PI, mas nada específico é mencionado na documentação. O que ela rastreia é quem forneceu o serviço de modelo para cada tarefa – como o coordenador é uma identidade on-chain, todo o uso do seu modelo é contabilizado para ele, e ele recebe automaticamente a sua parte das recompensas. Se alguém fosse entregar ou vender um modelo a outra pessoa, efetivamente transferiria o controlo do nó coordenador (talvez até mesmo dando-lhe a chave privada ou o NFT se o papel de coordenador fosse tokenizado). Atualmente, a propriedade comunitária de modelos (através de participações em tokens) não está implementada, mas a visão da Cuckoo aponta para uma IA descentralizada impulsionada pela comunidade, então eles podem explorar a possibilidade de permitir que as pessoas financiem ou governem coletivamente um modelo de IA. A tokenização de modelos para além da propriedade individual ainda é uma área em aberto nestas redes – é reconhecida como um objetivo (permitir que as comunidades possuam modelos de IA em vez de corporações), mas na prática requer soluções para os desafios de PI e verificação acima mencionados.

Em resumo, a propriedade de modelos no Bittensor, Gensyn e Cuckoo é tratada off-chain por meios tradicionais: a pessoa ou entidade que executa ou submete o modelo é efetivamente o proprietário. As redes fornecem atribuição na forma de recompensas económicas (pagando ao contribuidor do modelo pela sua PI ou esforço). Nenhuma das três tem uma licença ou aplicação de royalties integrada no uso de modelos ao nível do contrato inteligente ainda. A atribuição vem através da reputação e da recompensa: por exemplo, os melhores modelos do Bittensor ganham altas pontuações de reputação (que é um registo público) e mais TAO, o que é um crédito implícito aos seus criadores. Com o tempo, podemos ver funcionalidades como pesos de modelo vinculados a NFTs ou licenças descentralizadas para melhor rastrear a PI, mas atualmente a prioridade tem sido fazer as redes funcionarem e incentivarem as contribuições. Todos concordam que verificar a proveniência e os resultados dos modelos é fundamental para permitir verdadeiros mercados de ativos de modelos, e a pesquisa está em andamento nessa direção.

Estruturas de Partilha de Receitas

Todas as três plataformas devem decidir como dividir o bolo económico quando várias partes colaboram para produzir um resultado de IA valioso. Quem é pago, e quanto, quando um serviço de IA é usado ou quando os tokens são emitidos? Cada uma tem um modelo de partilha de receitas distinto:

  • Bittensor: Como mencionado em incentivos, a distribuição de receitas do Bittensor é definida pelo protocolo ao nível do bloco: 41% para os mineradores, 41% para os validadores, 18% para o proprietário da sub-rede para cada emissão de TAO do bloco. Isto é efetivamente uma divisão de receitas integrada para o valor gerado em cada sub-rede. A parte do proprietário da sub-rede (18%) funciona como um royalty pelo “design do modelo/tarefa” ou por iniciar o ecossistema dessa sub-rede. Mineradores e validadores a receberem partes iguais garante que, sem validação, os mineradores não são recompensados (e vice-versa) – eles são simbióticos e cada um recebe uma porção igual das recompensas criadas. Se considerarmos um utilizador externo a pagar TAO para consultar um modelo, o whitepaper do Bittensor prevê que esse pagamento também seja dividido de forma semelhante entre o minerador que responde e os validadores que ajudaram a verificar a resposta (a divisão exata poderia ser determinada pelo protocolo ou pelas forças de mercado). Além disso, os delegadores que fazem stake em mineradores/validadores são efetivamente parceiros – tipicamente, um minerador/validador partilhará uma percentagem do seu TAO ganho com os seus delegadores (isto é configurável, mas muitas vezes a maioria vai para os delegadores). Assim, se um minerador ganhasse 1 TAO de um bloco, isso poderia ser dividido 80/20 entre os seus delegadores e ele próprio, por exemplo, com base no stake. Isto significa que mesmo os não operadores recebem uma parte da receita da rede proporcional ao seu apoio. Com a introdução do dTAO, outra camada de partilha foi adicionada: aqueles que fazem stake no pool de uma sub-rede recebem tokens alfa, que lhes dão direito a algumas das emissões dessa sub-rede (como yield farming). Na prática, qualquer pessoa pode ter uma participação no sucesso de uma sub-rede específica e receber uma fração das recompensas de minerador/validador ao deter tokens alfa (os tokens alfa valorizam à medida que a sub-rede atrai mais uso e emissões). Em suma, a partilha de receitas do Bittensor é fixada por código para os papéis principais, e partilhada adicionalmente por arranjos sociais/de staking. É uma divisão relativamente transparente e baseada em regras – a cada bloco, os participantes sabem exatamente como o 1 TAO é alocado, e assim conhecem os seus “ganhos” por contribuição. Esta clareza é uma das razões pelas quais o Bittensor é por vezes comparado ao Bitcoin para IA – uma emissão monetária determinística onde a recompensa dos participantes é definida matematicamente.

  • Gensyn: A partilha de receitas na Gensyn é mais dinâmica e impulsionada pelo mercado, uma vez que as tarefas são precificadas individualmente. Quando um submitter cria um trabalho, ele anexa uma recompensa (digamos, X tokens) que está disposto a pagar. Um solver que completa o trabalho recebe esse X (menos qualquer taxa de rede). Se um verifier estiver envolvido, tipicamente há uma regra como: se nenhuma fraude for detetada, o solver mantém o pagamento total; se a fraude for detetada, o solver é penalizado – perdendo parte ou todo o seu stake – e esse montante penalizado é dado ao verifier como recompensa. Portanto, os verificadores não ganham de todas as tarefas, apenas quando apanham um mau resultado (mais possivelmente uma pequena taxa base por participarem, dependendo da implementação). Não há um conceito integrado de pagar a um proprietário de modelo aqui, porque a suposição é que o submitter ou é o proprietário do modelo ou tem direitos para usá-lo. Poder-se-ia imaginar um cenário onde um submitter está a ajustar o modelo pré-treinado de outra pessoa e uma porção do pagamento vai para o criador original do modelo – mas isso teria de ser tratado fora do protocolo (por exemplo, por um acordo ou um contrato inteligente separado que divide o pagamento do token em conformidade). A partilha ao nível do protocolo da Gensyn é essencialmente cliente -> solver (-> verifier). O modelo de token provavelmente inclui alguma alocação para o tesouro ou fundação do protocolo; por exemplo, uma pequena percentagem do pagamento de cada tarefa pode ir para um tesouro que poderia ser usado para financiar o desenvolvimento ou pools de seguro (isto não é explicitamente declarado nos documentos disponíveis, mas muitos protocolos fazem-no). Além disso, no início, a Gensyn pode subsidiar os solvers através da inflação: os utilizadores da testnet têm prometidas recompensas no TGE, o que é efetivamente uma partilha de receitas da distribuição inicial de tokens (os primeiros solvers e apoiantes recebem uma parte dos tokens por ajudarem a iniciar, semelhante a um airdrop ou recompensa de mineração). Com o tempo, à medida que os trabalhos reais dominam, as recompensas inflacionárias diminuiriam, e o rendimento dos solvers viria principalmente dos pagamentos dos utilizadores. A abordagem da Gensyn pode ser resumida como um modelo de receita de taxa por serviço: a rede facilita um pagamento direto daqueles que precisam de trabalho feito para aqueles que fazem o trabalho, com os verificadores e possivelmente os stakers de tokens a receberem uma parte apenas quando desempenham um papel na segurança desse serviço.

  • Cuckoo: A partilha de receitas da Cuckoo evoluiu. Inicialmente, como não havia muitos utilizadores finais pagantes, a partilha de receitas era essencialmente uma partilha de inflação: as alocações de 30% para mineração e 11% para staking da oferta de tokens significavam que os mineradores e stakers estavam a partilhar os tokens emitidos pelo pool de lançamento justo da rede. Na prática, a Cuckoo realizava coisas como pagamentos diários de CAI aos mineradores proporcionais às tarefas concluídas. Esses pagamentos vinham em grande parte da alocação de recompensa de mineração (que faz parte da oferta fixa reservada). Isto é semelhante a como muitas blockchains de Camada 1 distribuem recompensas de bloco aos mineradores/validadores – não estava ligado ao uso real por utilizadores externos, era mais para incentivar a participação e o crescimento. No entanto, como destacado no seu blog de julho de 2025, isto levou a um uso que era incentivado pela agricultura de tokens em vez de uma procura real. A próxima fase para a Cuckoo é um verdadeiro modelo de partilha de receitas baseado em taxas de serviço. Neste modelo, quando um utilizador final usa, digamos, o serviço de geração de imagens e paga $1 (em termos de cripto), esse $1 em tokens seria dividido talvez assim: 0,70 para o minerador que fez o trabalho de GPU, 0,20 para o desenvolvedor da aplicação (coordenador) que forneceu o modelo e a interface, e 0,10 para os stakers ou o tesouro da rede. (Nota: as proporções exatas são hipotéticas; a Cuckoo ainda não as especificou publicamente, mas isto ilustra o conceito.) Desta forma, todos os contribuidores para a entrega do serviço recebem uma parte da receita. Isto é análogo, por exemplo, a uma economia de partilha de viagens mas para IA: o veículo (minerador de GPU) recebe a maioria, o motorista ou plataforma (coordenador que construiu o serviço de modelo) recebe uma parte, e talvez a governança/stakers da plataforma recebam uma pequena taxa. A menção da Cuckoo a “modelos de partilha de receitas e recompensas de tokens diretamente ligadas a métricas de uso” sugere que se um serviço ou nó específico lidar com um grande volume, os seus operadores e apoiantes ganharão mais. Eles estão a afastar-se dos rendimentos fixos apenas por bloquear tokens (que era o caso com o seu APY de staking inicialmente). Em termos concretos: se você fizer stake num coordenador que acaba por alimentar uma aplicação de IA muito popular, poderá ganhar uma porção das taxas dessa aplicação – um verdadeiro cenário de staking como investimento em utilidade, em vez de staking apenas por inflação. Isto alinha os incentivos de todos para atrair utilizadores reais que pagam por serviços de IA, o que por sua vez devolve valor aos detentores de tokens. Vale a pena notar que a cadeia da Cuckoo também tinha taxas para transações (gás), então os mineradores que produziam blocos (inicialmente os mineradores de GPU também contribuíam para a produção de blocos na cadeia Cuckoo) também recebiam taxas de gás. Com o encerramento da cadeia e a migração para um rollup, as taxas de gás provavelmente serão mínimas (ou no Ethereum), então a principal receita torna-se as próprias taxas de serviço de IA. Em resumo, a Cuckoo está a transitar de um modelo impulsionado por subsídios (a rede paga aos participantes do seu pool de tokens) para um modelo impulsionado pela procura (os participantes ganham de pagamentos reais de utilizadores). O token ainda desempenhará um papel no staking e na governança, mas os ganhos diários dos mineradores e desenvolvedores de aplicações devem vir cada vez mais de utilizadores que compram serviços de IA. Este modelo é mais sustentável a longo prazo e espelha de perto a partilha de receitas SaaS da Web2, mas implementado através de contratos inteligentes e tokens para transparência.

Superfícies de Ataque e Vulnerabilidades

A descentralização da IA introduz vários desafios de incentivo e segurança. Analisamos agora os principais vetores de ataque – ataques sybil, conluio, parasitismo e envenenamento de dados/modelos – e como cada plataforma os mitiga ou permanece vulnerável a eles:

  • Ataques Sybil (identidades falsas): Numa rede aberta, um atacante pode criar muitas identidades (nós) para obter recompensas ou influência desproporcionais.

    • Bittensor: A resistência a ataques sybil é fornecida principalmente pelo custo de entrada. Para registar um novo minerador ou validador no Bittensor, é necessário gastar ou fazer stake de TAO – isto pode ser um requisito de queima ou de depósito. Isto significa que criar N nós falsos incorre em N vezes o custo, tornando grandes enxames sybil caros. Além disso, o consenso do Bittensor liga a influência ao stake e ao desempenho; um sybil sem stake ou com mau desempenho ganha pouco. Um atacante teria de investir pesadamente e também fazer com que os seus nós sybil contribuíssem com trabalho útil para obter qualquer recompensa significativa (o que não é uma estratégia sybil típica). Dito isto, se um atacante tiver muito capital, ele poderia adquirir a maioria do TAO e registar muitos validadores ou mineradores – efetivamente um sybil por riqueza. Isto sobrepõe-se ao cenário de ataque de 51%: se uma única entidade controlar >50% do TAO em stake numa sub-rede, eles podem influenciar fortemente o consenso. A introdução do dTAO pelo Bittensor ajuda um pouco aqui: espalha a influência por sub-redes e requer o apoio de staking da comunidade para que as sub-redes prosperem, tornando mais difícil para uma entidade controlar tudo. Ainda assim, ataques sybil por um adversário bem financiado continuam a ser uma preocupação – a análise do Arxiv nota explicitamente que o stake está bastante concentrado agora, então a barreira para um ataque de maioria não é tão alta quanto desejado. Para mitigar isto, foram sugeridas propostas como limites de stake por carteira (por exemplo, limitar o stake efetivo no 88º percentil para evitar que uma carteira domine). Em resumo, o Bittensor depende da identidade ponderada por stake (não se pode criar identidades baratas sem stake proporcional) para lidar com sybils; é razoavelmente eficaz, exceto sob um atacante muito engenhoso.
    • Gensyn: Ataques sybil na Gensyn manifestar-se-iam como um atacante a criar muitos nós solver ou verifier para manipular o sistema. A defesa da Gensyn é puramente económica e criptográfica – as identidades em si não importam, mas fazer trabalho ou colocar colateral sim. Se um atacante criar 100 nós solver falsos, mas eles não tiverem trabalhos ou stake, não conseguem nada. Para ganhar tarefas, um nó sybil teria de licitar competitivamente e ter o hardware para fazer o trabalho. Se eles licitarem abaixo do preço sem capacidade, falharão e perderão o stake. Da mesma forma, um atacante poderia criar muitas identidades de verificador na esperança de ser escolhido para verificar (se o protocolo selecionar verificadores aleatoriamente). Mas se houver muitos, a rede ou o publicador do trabalho pode limitar o número de verificadores ativos. Além disso, os verificadores precisam potencialmente de realizar a computação para verificá-la, o que é dispendioso; ter muitos verificadores falsos não ajuda, a menos que se possa realmente verificar os resultados. Um ângulo sybil mais pertinente na Gensyn é se um atacante tentar encher a rede com trabalhos ou respostas falsas para desperdiçar o tempo dos outros. Isso é mitigado exigindo também um depósito dos submitters (um submitter malicioso que publica trabalhos falsos perde o seu pagamento ou depósito). No geral, o uso de stakes/depósitos obrigatórios e a seleção aleatória para verificação pela Gensyn significa que um atacante ganha pouco ao ter múltiplas identidades, a menos que também traga recursos proporcionais. Torna-se um ataque mais caro em vez de um barato. O modelo de segurança otimista assume pelo menos um verificador honesto – os sybils teriam de sobrecarregar e ser todos os verificadores para trapacear consistentemente, o que novamente volta a possuir a maioria do stake ou do poder computacional. A resistência sybil da Gensyn é, portanto, comparável à de um rollup otimista: enquanto houver um ator honesto, os sybils não podem causar danos sistémicos facilmente.
    • Cuckoo: A prevenção de ataques sybil na Cuckoo depende do staking e da avaliação da comunidade. Cada papel na Cuckoo (minerador, coordenador, até mesmo utilizador em alguns casos) requer o staking de $CAI. Isto aumenta imediatamente o custo das identidades sybil – um atacante que crie 100 mineradores falsos precisaria de adquirir e bloquear stake para cada um. Além disso, o design da Cuckoo tem um elemento humano/comunitário: novos nós precisam de ganhar reputação através de votação on-chain. Um exército sybil de nós novos sem reputação é improvável que receba muitas tarefas ou a confiança dos utilizadores. Os coordenadores, em particular, têm de atrair utilizadores; um coordenador falso sem historial não obteria uso. Para os mineradores, os coordenadores podem ver as suas estatísticas de desempenho (tarefas bem-sucedidas, etc.) no Cuckoo Scan e preferirão mineradores fiáveis. A Cuckoo também tinha um número relativamente pequeno de mineradores (40 GPUs num ponto da beta), então qualquer influxo estranho de muitos nós seria notável. O ponto fraco potencial é se o atacante também explorar o sistema de reputação – por exemplo, eles fazem stake de muito CAI nos seus nós sybil para fazê-los parecer respeitáveis ou criam contas de “utilizador” falsas para se votarem a si mesmos. Isto é teoricamente possível, mas como tudo é curado por tokens, custa tokens fazê-lo (estaria essencialmente a votar com o seu próprio stake nos seus próprios nós). A equipa da Cuckoo também pode ajustar os parâmetros de staking e recompensa se for observado comportamento sybil (especialmente agora que se está a tornar um serviço de rollup mais centralizado; eles podem pausar ou penalizar maus atores). Em suma, os sybils são mantidos à distância ao exigir "pele em jogo" (stake) e precisar de aprovação da comunidade. Ninguém pode simplesmente entrar com centenas de GPUs falsas e colher recompensas sem um investimento significativo que os participantes honestos poderiam gastar melhor em hardware real e stake.
  • Conluio: Aqui consideramos múltiplos participantes a conspirarem para manipular o sistema – por exemplo, validadores e mineradores em conluio no Bittensor, ou solvers e verifiers em conluio na Gensyn, etc.

    • Bittensor: O conluio foi identificado como uma preocupação real. No design original, um punhado de validadores poderia conspirar para sempre votar a favor de certos mineradores ou de si mesmos, distorcendo a distribuição de recompensas injustamente (isto foi observado como concentração de poder na sub-rede raiz). O consenso Yuma oferece alguma defesa: ao tomar uma mediana das pontuações dos validadores e penalizar aqueles que se desviam, impede que um pequeno grupo em conluio impulsione dramaticamente um alvo, a menos que sejam a maioria. Por outras palavras, se 3 de 10 validadores conspirarem para dar a um minerador uma pontuação super alta, mas os outros 7 não, as pontuações discrepantes dos conspiradores são cortadas e a recompensa do minerador é baseada na pontuação mediana (portanto, o conluio não ajuda significativamente). No entanto, se os conspiradores formarem >50% dos validadores (ou >50% do stake entre os validadores), eles efetivamente são o consenso – eles podem concordar em pontuações altas falsas e a mediana refletirá a sua visão. Este é o cenário clássico de ataque de 51%. Infelizmente, o estudo do Arxiv descobriu que algumas sub-redes do Bittensor, onde uma coligação de apenas 1-2% dos participantes (em termos de contagem) controlava a maioria do stake, devido à forte concentração de tokens. Isto significa que o conluio por alguns grandes detentores era uma ameaça credível. A mitigação que o Bittensor está a seguir através do dTAO é democratizar a influência: ao permitir que qualquer detentor de TAO direcione o stake para as sub-redes, dilui o poder de grupos fechados de validadores. Além disso, propostas como staking côncavo (retornos decrescentes para stake excessivo) e limites de stake visam quebrar a capacidade de uma entidade em conluio de acumular demasiado poder de voto. A suposição de segurança do Bittensor agora é semelhante à prova de participação: nenhuma entidade única (ou cartel) a controlar >50% do stake ativo. Enquanto isso se mantiver, o conluio é limitado porque os validadores honestos anularão as pontuações más e os proprietários de sub-redes em conluio não podem aumentar arbitrariamente as suas próprias recompensas. Finalmente, sobre o conluio entre proprietários de sub-redes e validadores (por exemplo, um proprietário de sub-rede a subornar validadores para classificarem bem os mineradores da sua sub-rede), o dTAO remove o controlo direto dos validadores, substituindo-o por decisões dos detentores de tokens. É mais difícil conspirar com “o mercado”, a menos que se compre a oferta de tokens – nesse caso, não é realmente conluio, é uma aquisição. Portanto, a principal técnica anti-conluio do Bittensor é o consenso algorítmico (corte da mediana) e a ampla distribuição de tokens.

    • Gensyn: O conluio na Gensyn provavelmente envolveria um solver e um verifier (ou múltiplos verifiers) a conspirarem para enganar o sistema. Por exemplo, um solver poderia produzir um resultado falso e um verifier em conluio poderia intencionalmente não o desafiar (ou até mesmo atestar que está correto se o protocolo pedisse aos verifiers para assinarem). Para mitigar isto, o modelo de segurança da Gensyn requer pelo menos um verifier honesto. Se todos os verifiers estiverem em conluio com o solver, então um resultado mau passa sem ser desafiado. A Gensyn aborda isto incentivando muitos verifiers independentes (qualquer um pode verificar) e pela teoria dos jogos de que um verifier poderia ganhar uma grande recompensa ao quebrar o conluio e desafiar (porque receberia o stake do solver). Essencialmente, mesmo que haja um grupo a concordar em conspirar, cada membro tem um incentivo para desertar e reivindicar a recompensa para si – esta é uma configuração clássica do Dilema do Prisioneiro. A esperança é que isso mantenha os grupos de conluio pequenos ou ineficazes. Outro conluio potencial é entre múltiplos solvers para aumentar os preços ou monopolizar tarefas. No entanto, como os desenvolvedores podem escolher onde publicar as tarefas (e as tarefas não são unidades idênticas que podem ser facilmente monopolizadas), o conluio de solvers no preço seria difícil de coordenar globalmente – qualquer solver que não estivesse em conluio poderia licitar mais baixo para ganhar o trabalho. A dinâmica de mercado aberto contraria o conluio de preços, assumindo pelo menos alguns participantes competitivos. Mais um ângulo: conluio de verifiers para prejudicar solvers – por exemplo, verifiers a acusarem falsamente solvers honestos para roubar o seu stake. A prova de fraude da Gensyn é binária e on-chain; uma acusação falsa falharia quando a recomputação on-chain não encontrasse erro, e presumivelmente o verifier malicioso perderia então algo (talvez um depósito ou reputação). Portanto, um conluio de verifiers a tentar sabotar solvers seria apanhado pelo processo de verificação do protocolo. Em resumo, a arquitetura da Gensyn é robusta enquanto pelo menos uma parte em qualquer conjunto em conluio tiver um incentivo para ser honesta – uma propriedade da verificação otimista semelhante a exigir um minerador honesto no Bitcoin para eventualmente expor uma fraude. O conluio é teoricamente possível se um atacante puder controlar todos os verifiers e solvers numa tarefa (como a maioria da rede), mas então eles poderiam simplesmente trapacear sem precisar de conluio per se. Os incentivos criptoeconómicos são organizados para tornar a sustentação do conluio irracional.

    • Cuckoo: O conluio na Cuckoo poderia acontecer de algumas maneiras:

      1. Um coordenador em conluio com mineradores – por exemplo, um coordenador poderia sempre atribuir tarefas a um conjunto de mineradores amigos e dividir as recompensas, ignorando outros mineradores honestos. Como os coordenadores têm discrição no agendamento de tarefas, isto pode acontecer. No entanto, se os mineradores amigos forem de qualidade inferior, os utilizadores finais podem notar um serviço lento ou mau e sair, então o coordenador é desincentivado de um favoritismo puro que prejudica a qualidade. Se o conluio for para manipular recompensas (digamos, submeter tarefas falsas para dar tokens aos mineradores), isso seria detetado on-chain (muitas tarefas com talvez entradas idênticas ou nenhum utilizador real) e pode ser penalizado. A transparência on-chain da Cuckoo significa que quaisquer padrões incomuns poderiam ser sinalizados pela comunidade ou pela equipa principal. Além disso, como todos os participantes fazem stake, um anel de coordenador-minerador em conluio corre o risco de perder o seu stake se for apanhado a abusar do sistema (por exemplo, se a governança decidir penalizá-los por fraude).
      2. Mineradores em conluio entre si – eles podem partilhar informações ou formar um cartel para, digamos, todos votarem uns nos outros na reputação ou todos se recusarem a servir um coordenador específico para extrair taxas mais altas. Estes cenários são menos prováveis: a votação de reputação é feita por stakers (incluindo utilizadores), não pelos próprios mineradores a votarem uns nos outros. E recusar serviço apenas levaria os coordenadores a encontrar outros mineradores ou a levantar alarmes. Dada a escala relativamente pequena atualmente, qualquer conluio seria difícil de esconder.
      3. Conluio para manipular a governança – grandes detentores de CAI poderiam conspirar para aprovar propostas a seu favor (como definir uma taxa exorbitante ou redirecionar o tesouro). Este é um risco em qualquer governança de tokens. A melhor mitigação é distribuir amplamente o token (o lançamento justo da Cuckoo deu 51% à comunidade) e ter uma supervisão comunitária ativa. Além disso, como a Cuckoo se afastou da L1, a governança on-chain imediata pode ser limitada até que se estabeleçam numa nova cadeia; a equipa provavelmente mantém um controlo multisig no entretanto, o que ironicamente impede o conluio por estranhos maliciosos à custa de ser temporariamente centralizado. No geral, a Cuckoo apoia-se na transparência e no staking para lidar com o conluio. Há um elemento de confiança nos coordenadores para se comportarem porque querem atrair utilizadores num ambiente competitivo. Se o conluio levar a um serviço de pior qualidade ou a uma manipulação óbvia de recompensas, os stakeholders podem votar para os remover ou parar de fazer stake em maus atores, e a rede pode penalizá-los ou bloqueá-los. A natureza razoavelmente aberta (qualquer um pode tornar-se um coordenador ou minerador se fizer stake) significa que o conluio exigiria um grande esforço coordenado que seria evidente. Não é tão matematicamente prevenido como no Bittensor ou na Gensyn, mas a combinação de stake económico e governança comunitária fornece um controlo.
  • Parasitismo (Problemas de Free-rider): Refere-se a participantes que tentam colher recompensas sem contribuir com valor equivalente – por exemplo, um validador que não avalia realmente, mas ainda assim ganha, ou um minerador que copia as respostas de outros em vez de computar, ou utilizadores a cultivar recompensas sem fornecerem entradas úteis.

    • Bittensor: Um problema conhecido de free-rider no Bittensor é a “cópia de pesos” por validadores preguiçosos. Um validador poderia simplesmente copiar a opinião da maioria (ou as pontuações de outro validador) em vez de avaliar independentemente os mineradores. Ao fazer isso, eles evitam o custo de executar consultas de IA, mas ainda recebem recompensas se as suas pontuações submetidas parecerem alinhadas com o consenso. O Bittensor combate isto medindo o alinhamento de consenso e a contribuição informacional de cada validador. Se um validador sempre apenas copia os outros, ele pode alinhar-se bem (para não ser penalizado pesadamente), mas não adiciona valor único. Os desenvolvedores do protocolo discutiram dar recompensas mais altas a validadores que fornecem avaliações precisas, mas não puramente redundantes. Técnicas como a infusão de ruído (dar deliberadamente aos validadores consultas ligeiramente diferentes) poderiam forçá-los a trabalhar de verdade em vez de copiar – embora não esteja claro se isso está implementado. O Arxiv sugere emissão ponderada pelo desempenho e métodos de pontuação composta para ligar melhor o esforço do validador à recompensa. Quanto aos mineradores, um possível comportamento de free-rider seria se um minerador consultasse outros mineradores e retransmitisse a resposta (uma forma de plágio). O design do Bittensor (com consultas descentralizadas) pode permitir que o modelo de um minerador chame outros através do seu próprio dendrite. Se um minerador apenas retransmite a resposta de outro, um bom validador pode detetar isso porque a resposta pode não corresponder consistentemente às capacidades do modelo reivindicadas pelo minerador. É difícil de detetar algoritmicamente, mas um minerador que nunca computa resultados originais deve eventualmente pontuar mal em algumas consultas e perder reputação. Outro cenário de free-rider eram os delegadores a ganharem recompensas sem fazerem trabalho de IA. Isso é intencional (para envolver os detentores de tokens), então não é um ataque – mas significa que algumas emissões de tokens vão para pessoas que apenas fizeram stake. O Bittensor justifica isto como alinhamento de incentivos, não recompensas desperdiçadas. Em suma, o Bittensor reconhece o problema do free-rider do validador e está a ajustar os incentivos (como dar pontuações de confiança do validador que impulsionam aqueles que não se desviam ou copiam). A sua solução é essencialmente recompensar o esforço e a correção de forma mais explícita, para que não fazer nada ou copiar cegamente renda menos TAO ao longo do tempo.
    • Gensyn: Na Gensyn, os free-riders teriam dificuldade em ganhar, porque é preciso fornecer computação ou apanhar alguém a trapacear para obter tokens. Um solver não pode “fingir” trabalho – ele tem de submeter uma prova válida ou arriscar-se a ser penalizado. Não há mecanismo para ser pago sem fazer a tarefa. Um verifier poderia teoricamente ficar ocioso e esperar que outros apanhassem fraudes – mas então não ganha nada (porque apenas aquele que levanta a prova de fraude recebe a recompensa). Se demasiados verifiers tentarem ser free-riders (não recomputando realmente as tarefas), então um solver fraudulento pode passar despercebido porque ninguém está a verificar. O design de incentivos da Gensyn aborda isto com a recompensa jackpot: basta um verifier ativo para apanhar um trapaceiro e obter um grande pagamento, então é racional que pelo menos um faça sempre o trabalho. Outros que não fazem o trabalho não prejudicam a rede, exceto por serem inúteis; eles também não recebem recompensa. Assim, o sistema filtra naturalmente os free-riders: apenas os verifiers que realmente verificam terão lucro a longo prazo (outros gastam recursos em nós para nada ou muito raramente conseguem uma recompensa por acaso). O protocolo também pode randomizar qual verifier tem a oportunidade de desafiar para desencorajar todos os verifiers de assumirem que “alguém fará isso”. Como as tarefas são pagas individualmente, não há um análogo de “recompensas de staking sem trabalho”, além dos incentivos da testnet que são temporários. Uma área a observar é a otimização multitarefa: um solver pode tentar reutilizar o trabalho entre tarefas ou terceirizá-lo secretamente para alguém mais barato (como usar uma nuvem centralizada) – mas isso não é realmente um parasitismo prejudicial; se eles entregarem resultados corretos a tempo, não importa como o fizeram. Isso é mais como arbitragem do que um ataque. Em resumo, o design do mecanismo da Gensyn deixa pouco espaço para os free-riders ganharem, porque cada token distribuído corresponde a um trabalho feito ou a uma trapaça punida.
    • Cuckoo: A fase inicial da Cuckoo criou inadvertidamente um problema de free-rider: o airdrop e o staking de alto rendimento atraíram utilizadores que estavam lá apenas para cultivar tokens. Estes utilizadores circulavam tokens através de faucets ou manipulavam as tarefas do airdrop (por exemplo, usando continuamente prompts de teste gratuitos ou criando muitas contas para reivindicar recompensas) sem contribuírem para o valor da rede a longo prazo. A Cuckoo reconheceu isto como um problema – essencialmente, as pessoas estavam a “usar” a rede não pela saída de IA, mas pelo ganho de recompensa especulativa. A decisão de encerrar a cadeia L1 e reorientar foi em parte para se livrar destes desalinhamentos de incentivos. Ao ligar as futuras recompensas de tokens ao uso real (ou seja, você ganha porque o serviço está realmente a ser usado por clientes pagantes), o apelo do free-rider diminui. Há também um cenário de parasitismo do lado do minerador: um minerador poderia juntar-se, receber tarefas e de alguma forma não as executar, mas ainda assim reivindicar a recompensa. No entanto, o coordenador está a verificar os resultados – se um minerador não devolver nenhuma saída ou uma saída má, o coordenador não a contará como uma tarefa concluída, então o minerador não seria pago. Os mineradores também podem tentar escolher as tarefas fáceis e abandonar as difíceis (por exemplo, se alguns prompts forem mais lentos, um minerador pode desconectar-se para evitá-los). Isto poderia ser um problema, mas os coordenadores podem notar a fiabilidade de um minerador. Se um minerador abandona frequentemente, o coordenador pode parar de lhe atribuir tarefas ou penalizar o seu stake (se tal mecanismo existir ou simplesmente não o recompensar). Parasitismo do utilizador – como muitos serviços de IA têm testes gratuitos, um utilizador poderia enviar spam de pedidos para obter resultados sem pagar (se houver um modelo subsidiado). Isso não é tanto um problema ao nível do protocolo, mas sim ao nível do serviço; cada coordenador pode decidir como lidar com o uso gratuito (por exemplo, exigindo um pequeno pagamento ou limitando). Como a Cuckoo inicialmente ofereceu brindes (como gerações de imagens de IA gratuitas para atrair utilizadores), alguns aproveitaram-se, mas isso fazia parte do marketing de crescimento esperado. À medida que essas promoções terminam, os utilizadores terão de pagar, portanto, não há almoço grátis para explorar. No geral, a nova estratégia da Cuckoo de mapear a distribuição de tokens para a utilidade real visa explicitamente eliminar o problema do free-rider de “minerar tokens por fazer loops sem sentido”.
  • Envenenamento de Dados ou Modelos: Refere-se à introdução maliciosa de dados ou comportamentos maus de modo que os modelos de IA se degradem ou os resultados sejam manipulados, bem como questões de conteúdo prejudicial ou tendencioso a ser contribuído.

    • Bittensor: O envenenamento de dados no Bittensor significaria um minerador a dar intencionalmente respostas incorretas ou prejudiciais, ou validadores a avaliar propositadamente respostas boas como más. Se um minerador produzir lixo ou conteúdo malicioso consistentemente, os validadores darão pontuações baixas, e esse minerador ganhará pouco e eventualmente sairá – o incentivo económico é fornecer qualidade, então “envenenar” os outros não traz benefício para o atacante (a menos que o seu objetivo seja puramente sabotagem às suas próprias custas). Poderia um minerador malicioso envenenar outros? No Bittensor, os mineradores não se treinam diretamente uns aos outros (pelo menos não por design – não há um modelo global a ser atualizado que possa ser envenenado). O modelo de cada minerador é separado. Eles aprendem no sentido de que um minerador poderia pegar amostras interessantes de outros para se ajustar, mas isso é totalmente opcional e depende de cada um. Se um ator malicioso enviasse spam de respostas sem sentido, os validadores honestos filtrariam isso (eles pontuariam baixo), então não influenciaria significativamente o processo de treinamento de nenhum minerador honesto (além disso, um minerador provavelmente usaria o conhecimento de pares com alta pontuação, não de baixa pontuação). Portanto, o envenenamento de dados clássico (injetar dados de treinamento maus para corromper um modelo) é mínimo na configuração atual do Bittensor. O risco mais relevante é a manipulação da resposta do modelo: por exemplo, um minerador que produz conteúdo subtilmente tendencioso ou perigoso que não é óbvio para os validadores. No entanto, como os validadores também são projetados por humanos ou pelo menos agentes algorítmicos, a toxicidade ou erro flagrante é provavelmente detetado (algumas sub-redes podem até ter validadores de IA a verificar conteúdo inseguro). Um cenário de pior caso é se um atacante de alguma forma tivesse a maioria dos validadores e mineradores em conluio para empurrar uma certa saída incorreta como “correta” – eles poderiam então enviesar o consenso da rede sobre as respostas (como todos os validadores em conluio a votarem a favor de uma resposta maliciosa). Mas para um utilizador externo ser prejudicado por isso, ele teria de realmente consultar a rede e confiar na saída. O Bittensor ainda está numa fase em que está a construir capacidade, não sendo amplamente usado para consultas críticas por utilizadores finais. Quando o for, espera-se que tenha filtragem de conteúdo e diversidade de validadores para mitigar tais riscos. Do lado do validador, um validador malicioso poderia fornecer avaliações envenenadas – por exemplo, consistentemente votar contra um certo minerador honesto para eliminar a concorrência. Com stake suficiente, eles podem conseguir empurrar esse minerador para fora (se as recompensas do minerador caírem tanto que ele saia). Este é um ataque ao mecanismo de incentivo. Novamente, se eles não forem a maioria, o corte da mediana frustrará um validador discrepante. Se eles forem a maioria, funde-se com o cenário de conluio/51% – qualquer maioria pode reescrever as regras. A solução volta à descentralização: impedir que qualquer entidade domine. Em resumo, o design do Bittensor inerentemente penaliza contribuições de dados/modelos envenenados através do seu sistema de pontuação – contribuições más recebem baixo peso e, portanto, baixa recompensa. Não há um repositório de modelos permanente para envenenar; tudo é dinâmico e continuamente avaliado. Isto proporciona resiliência: a rede pode gradualmente “esquecer” ou ignorar maus atores à medida que as suas contribuições são filtradas pelos validadores.
    • Gensyn: Se um solver quisesse envenenar um modelo a ser treinado (como introduzir uma backdoor ou viés durante o treinamento), ele poderia tentar fazê-lo secretamente. O protocolo Gensyn verificaria se o treinamento prosseguiu de acordo com o algoritmo especificado (passos de descida de gradiente estocástico, etc.), mas não detetaria necessariamente se o solver introduziu um gatilho de backdoor subtil que não aparece nas métricas de validação normais. Este é um problema mais insidioso – não é uma falha da computação, é uma manipulação dentro dos graus de liberdade permitidos do treinamento (como ajustar os pesos para uma frase gatilho). Detetar isso é um problema de pesquisa ativo em segurança de ML. A Gensyn não tem um mecanismo especial para envenenamento de modelos além do facto de que o submitter poderia avaliar o modelo final num conjunto de teste à sua escolha. Um submitter experiente deve sempre testar o modelo devolvido; se descobrir que ele falha em algumas entradas ou tem um comportamento estranho, pode disputar o resultado ou recusar o pagamento. Talvez o protocolo pudesse permitir que um submitter especificasse certos critérios de aceitação (como “o modelo deve atingir pelo menos X de precisão neste conjunto de teste secreto”) e se o resultado do solver falhar, o solver não é pago na totalidade. Isto dissuadiria o envenenamento porque o atacante não cumpriria os critérios de avaliação. No entanto, se o veneno não impactar a precisão em testes normais, poderia passar despercebido. Os verifiers na Gensyn apenas verificam a integridade da computação, não a qualidade do modelo, então não detetariam overfitting intencional ou trojans, desde que os registos de treinamento pareçam válidos. Portanto, isto permanece uma questão de confiança ao nível da tarefa: o submitter tem de confiar que o solver não envenenará o modelo ou usar métodos como ensembling de múltiplos resultados de treinamento de diferentes solvers para diluir a influência de qualquer solver único. Outro ângulo é o envenenamento de dados: se o submitter fornecer dados de treinamento, um solver malicioso poderia ignorar esses dados e treinar em outra coisa ou adicionar dados lixo. Mas isso provavelmente reduziria a precisão, o que o submitter notaria no desempenho do modelo de saída. O solver então não receberia o pagamento total (já que presumivelmente eles querem atingir uma meta de desempenho). Portanto, o envenenamento que degrada o desempenho é autodestrutivo para a recompensa do solver. Apenas um veneno que é neutro em desempenho, mas malicioso (uma backdoor) é um perigo real, e isso está fora do âmbito da verificação típica de blockchain – é um desafio de segurança de machine learning. A melhor mitigação da Gensyn é provavelmente social: usar modelos conhecidos e respeitáveis, ter várias execuções de treinamento, usar ferramentas de código aberto. Em tarefas de inferência (se a Gensyn também for usada para trabalhos de inferência), um solver em conluio poderia retornar saídas incorretas que enviesam uma certa resposta. Mas os verifiers detetariam saídas erradas se executassem o mesmo modelo, então isso é menos um envenenamento e mais apenas trapaça, que as provas de fraude abordam. Em suma, a Gensyn protege o processo, não a intenção. Garante que o treinamento/inferência foi feito corretamente, mas não que o resultado é bom ou livre de malícias ocultas. Isso permanece um problema em aberto, e o whitepaper da Gensyn provavelmente não o resolve totalmente ainda (poucos o fazem).
    • Cuckoo: Como a Cuckoo atualmente se foca na inferência (servindo modelos existentes), o risco de envenenamento de dados/modelos é relativamente limitado à manipulação de saída ou envenenamento de conteúdo. Um minerador malicioso pode tentar adulterar o modelo que lhe é dado para executar – por exemplo, se for fornecido um checkpoint do Stable Diffusion, ele poderia trocá-lo por um modelo diferente que talvez insira alguma marca d'água subtil ou anúncio em cada imagem. No entanto, o coordenador (que é o proprietário do modelo) normalmente envia tarefas com uma expectativa do formato de saída; se um minerador retornar saídas fora da especificação consistentemente, o coordenador sinalizará e banirá esse minerador. Além disso, os mineradores não podem modificar facilmente um modelo sem afetar notavelmente as suas saídas. Outro cenário é se a Cuckoo introduzir modelos treinados pela comunidade: então os mineradores ou fornecedores de dados podem tentar envenenar os dados de treinamento (por exemplo, alimentar muitos rótulos errados ou texto tendencioso). A Cuckoo precisaria de implementar a validação de dados de crowdsourcing ou a ponderação de contribuidores. Isto ainda não é uma funcionalidade, mas o interesse da equipa em IA personalizada (como a menção a um coach de vida de IA ou aplicações de aprendizagem) significa que eles podem eventualmente lidar com dados de treinamento fornecidos pelo utilizador, o que exigirá verificações cuidadosas. Sobre a segurança do conteúdo, como os mineradores da Cuckoo realizam inferência, pode-se preocupar com eles a produzirem conteúdo prejudicial, mesmo que o modelo normalmente não o fizesse. Mas os mineradores não têm incentivo para alterar as saídas arbitrariamente – eles são pagos pela computação correta, não pela criatividade. Se alguma coisa, um minerador malicioso pode saltar a computação completa para economizar tempo (por exemplo, retornar uma imagem desfocada ou uma resposta genérica). O coordenador ou o utilizador veria isso e classificaria mal esse minerador (e provavelmente não pagaria por essa tarefa). A privacidade é outra faceta: um minerador malicioso pode vazar ou registar dados do utilizador (como se um utilizador inserisse texto ou imagens sensíveis). Isto não é envenenamento, mas é um ataque à confidencialidade. A postura de privacidade da Cuckoo é que está a explorar métodos de preservação da privacidade (a menção a uma VPN que preserva a privacidade no ecossistema sugere um foco futuro). Eles poderiam incorporar técnicas como enclaves seguros ou inferência dividida para manter os dados privados dos mineradores. Ainda não implementado, mas uma consideração conhecida. Finalmente, o blog da Cuckoo enfatiza a verificação eficaz das saídas do modelo e a garantia de uma operação de modelo descentralizada segura como chave para tornar a tokenização de modelos viável. Isto indica que eles estão cientes de que para descentralizar verdadeiramente a IA, é preciso proteger-se contra coisas como saídas envenenadas ou modelos com mau funcionamento. Possivelmente, eles pretendem usar uma combinação de incentivos criptoeconómicos (penalização de stake para maus atores) e sistemas de classificação de utilizadores (os utilizadores podem sinalizar saídas más, e esses mineradores perdem reputação). O sistema de reputação pode ajudar aqui: se um minerador retornar mesmo um resultado obviamente malicioso ou incorreto, os utilizadores/coordenadores podem votar negativamente, impactando fortemente a sua capacidade de ganho futuro. Sabendo disso, os mineradores são incentivados a serem consistentemente corretos e a não introduzirem nenhum veneno. Em essência, a Cuckoo confia, mas verifica: é mais tradicional no sentido de que se alguém se comportar mal, você identifica e remove-o (com a perda de stake como punição). Ainda não tem defesas especializadas para envenenamento subtil de modelos, mas a estrutura de ter proprietários de aplicações específicos (coordenadores) no comando adiciona uma camada de supervisão – esses proprietários serão motivados a garantir que nada comprometa a integridade do seu modelo, pois a sua própria receita e reputação dependem disso.

Em conclusão, embora as redes de IA descentralizadas introduzam novas superfícies de ataque, elas também implementam uma mistura de defesas criptográficas, de teoria dos jogos e de governança comunitária: A resistência a ataques sybil é em grande parte tratada pela exigência de stake económico para participação. A resistência ao conluio vem do alinhamento de incentivos (o comportamento honesto é mais lucrativo) e de mecanismos de consenso que limitam o impacto de pequenos grupos em conluio. A prevenção de free-riders é alcançada ao ligar estreitamente as recompensas ao trabalho útil real e penalizar ou eliminar aqueles que não contribuem com nada. O envenenamento e ataques relacionados continuam a ser desafiadores, mas os sistemas mitigam os casos flagrantes através de avaliação contínua e da capacidade de penalizar ou ejetar atores maliciosos. Estas plataformas estão ativamente a pesquisar e a iterar nestes designs – como evidenciado pelos ajustes contínuos do Bittensor ao Yuma e ao dTAO, e pela mudança na tokenomics da Cuckoo – para garantir um ecossistema de IA descentralizado, seguro e autossustentável.

Avaliação Comparativa

Para destacar as diferenças e semelhanças entre Bittensor, Gensyn e Cuckoo AI, a tabela seguinte fornece uma comparação lado a lado através de dimensões-chave:

DimensãoBittensor (TAO)GensynCuckoo AI (CAI)
Pilha TécnicaL1 personalizada (cadeia Subtensor baseada em Substrate) com mais de 93 sub-redes de IA especializadas. Compatível com EVM (após atualização recente) na sua própria cadeia.Rollup baseado em Ethereum (originalmente planeado como L1, agora um rollup ETH). Computação off-chain com verificação on-chain.Lançada como uma cadeia Layer-2 Arbitrum Orbit (rollup EVM). Plataforma full-stack (cadeia própria + computação + UI de aplicação). A migrar de L1 personalizada para segurança partilhada do Ethereum (rollup/AVS).
Foco PrincipalRede de IA descentralizada de modelos (“internet neural”). Os nós contribuem para a inferência e treinamento de modelos coletivos em várias tarefas (LLM, visão, etc.).Mercado de computação descentralizado para ML. Ênfase no treinamento de modelos off-chain e inferência por GPUs globais, verificando o trabalho através da blockchain.Plataforma de serviço de IA descentralizada. Foco no serviço/inferência de modelos (por exemplo, arte generativa, APIs de LLM) usando mineradores de GPU distribuídos. Integra aplicações de utilizador final com o mercado de GPU de backend.
Papéis ChaveProprietário de Sub-rede: define a tarefa e a validação numa sub-rede (ganha 18% das recompensas).
Mineradores: executam modelos de IA (inferência/treinamento), fornecem respostas.
Validadores: fazem consultas e pontuam as saídas dos mineradores (curam a qualidade).
Delegadores: fazem stake de TAO em mineradores/validadores para amplificar e ganhar uma parte.
Submitter (Desenvolvedor): publica um trabalho de ML (com modelo/dados) e pagamento.
Solver: computa a tarefa no seu hardware, submete o resultado.
Verifier (Vigilante): verifica o resultado do solver; pode desafiar através de prova de fraude se estiver errado.
(Nenhum papel distinto de “proprietário”, uma vez que o submitter fornece o modelo; papéis de governança através dos detentores de tokens).
Construtor de Aplicação de IA (Coordenador): implementa o serviço de modelo de IA, faz stake de CAI, gere tarefas para os mineradores.
Minerador (Fornecedor de GPU/CPU): faz stake de CAI, realiza tarefas de inferência atribuídas, retorna resultados.
Utilizador Final: usa aplicações de IA (paga em cripto ou contribui com recursos).
Staker (Delegador): faz stake em coordenadores/mineradores, vota na governança, ganha uma parte das recompensas.
Consenso e VerificaçãoConsenso Yuma: “prova de inteligência” personalizada – as pontuações dos validadores sobre a saída de IA são agregadas (mediana ponderada por stake) para determinar as recompensas dos mineradores. O consenso da cadeia subjacente é do tipo PoS (Substrate) para blocos, mas a validade do bloco depende do consenso de IA a cada época. Resistente a pontuações discrepantes e conluio até 50%.Verificação otimista (estilo Truebit): assume que o resultado do solver está correto, a menos que um verificador o desafie. Usa provas de fraude interativas on-chain para identificar qualquer passo incorreto. Também a implementar provas criptográficas de computação (prova de aprendizagem) para validar o progresso do treinamento sem reexecução. O Ethereum fornece o consenso base para as transações.Cadeia Proof-of-Stake + validação de tarefas por coordenadores: A Cuckoo Chain usava validadores PoS para a produção de blocos (inicialmente, os mineradores também ajudavam a proteger os blocos). Os resultados das tarefas de IA são verificados pelos nós coordenadores (que verificam as saídas dos mineradores em relação ao comportamento esperado do modelo). Ainda não há provas criptográficas especializadas – depende do stake e da reputação (trustless na medida em que o mau comportamento leva a penalizações ou votos negativos, em vez de deteção automática por prova matemática). A transitar para o consenso do Ethereum (rollup) para a segurança do livro-razão.
Token e UtilidadeToken TAO: moeda nativa no Subtensor. Usado para staking (necessário para registar e influenciar o consenso), taxas de transação/pagamentos (por exemplo, pagar por consultas de IA) e como recompensa por contribuições (mineração/validação). O TAO tem inflação contínua (1 TAO por bloco de 12s) que impulsiona o mecanismo de recompensa. Também usado na governança (staking de dTAO em sub-redes).Token Gensyn (ERC-20, nome a ser anunciado): a unidade do protocolo para pagamentos (os desenvolvedores pagam aos solvers com ele). Funciona como colateral de stake (solvers/verifiers depositam tokens e são penalizados por falhas). Será usado na governança (votação em atualizações do protocolo através da DAO da Fundação Gensyn). Sem detalhes sobre a oferta ainda; provavelmente uma porção alocada para incentivar a adoção inicial (testnet, etc.).Token CAI (ERC-20): token nativo da Cuckoo Chain (1 bilião de oferta fixa). Multifuncional: taxa de gás para transações na Cuckoo Chain, staking para papéis na rede (mineradores, coordenadores devem bloquear CAI), votação de governança em decisões do protocolo e recompensas por contribuições (recompensas de mineração/staking vieram da alocação inicial). Também tem apelo de meme (aspeto de token comunitário).
Tokenização de AtivosComputação: sim – o trabalho de computação de IA é tokenizado através de recompensas TAO (pense no TAO como “gás” para inteligência). Modelos: indiretamente – os modelos ganham TAO com base no desempenho, mas os modelos/pesos em si não são ativos on-chain (não há NFTs para modelos). A propriedade da sub-rede é tokenizada (NFT de proprietário de sub-rede + tokens alfa) para representar uma participação num mercado de modelos. Dados: não tokenizados (os dados são off-chain; o Bittensor foca-se nas saídas dos modelos em vez de conjuntos de dados).Computação: sim – a computação ociosa torna-se uma mercadoria on-chain, negociada num mercado de trabalhos por tokens. Modelos: não explicitamente – os modelos são fornecidos off-chain pelos desenvolvedores, e os resultados são devolvidos; não há tokens de modelo integrados (embora o protocolo possa facilitar o licenciamento se as partes o configurarem). Dados: não – os conjuntos de dados são tratados off-chain entre o submitter e o solver (podem ser encriptados ou protegidos, mas não representados como ativos on-chain). A visão da Gensyn inclui possivelmente a negociação de algoritmos ou dados como computação, mas a implementação principal é centrada na computação.Computação: sim – o tempo de GPU é tokenizado através de pagamentos diários de CAI e recompensas de tarefas. A rede trata o poder computacional como um recurso que os mineradores “vendem” por CAI. Modelos: parcialmente – a plataforma integra modelos como serviços; no entanto, os modelos em si não são criados como NFTs. O valor de um modelo é capturado na capacidade do coordenador de ganhar CAI dos utilizadores que o usam. Planos futuros sugerem modelos de propriedade comunitária, mas atualmente a PI do modelo é off-chain (propriedade de quem executa o coordenador). Dados: sem tokenização geral de dados. As entradas/saídas dos utilizadores são transitórias. (A Cuckoo tem parcerias com aplicações como Beancount, etc., mas os dados não são representados por tokens na cadeia.)
GovernançaDescentralizada, impulsionada pelos detentores de tokens (dTAO): Inicialmente tinha 64 validadores eleitos a executar o consenso raiz; agora a governança é aberta – os detentores de TAO fazem stake em sub-redes para direcionar as emissões (alocação de recursos baseada no mercado). As atualizações e alterações do protocolo são decididas através de propostas on-chain (votação de TAO, com a Fundação/conselho Bittensor a facilitar). O objetivo é ser totalmente governado pela comunidade, com a fundação a ceder gradualmente o controlo.Descentralização progressiva: Fundação Gensyn + conselho eleito gerem as decisões iniciais. Após o lançamento do token, a governança transitará para uma DAO onde os detentores de tokens votam em propostas (semelhante a muitos projetos DeFi). O ambiente de segurança partilhada do Ethereum significa que grandes mudanças envolvem a comunidade e potencialmente a governança da Camada 1. O âmbito da governança inclui parâmetros económicos, atualizações de contratos (sujeitas a auditorias de segurança). Ainda não está ativa, mas delineada no litepaper para pós-mainnet.Mista, comunidade e fundação: A Cuckoo foi lançada com um ethos de “lançamento justo” (sem pré-mineração para insiders). Pretende-se uma DAO comunitária, com votação de CAI em decisões-chave e atualizações do protocolo. Na prática, a equipa principal (desenvolvedores da Cuckoo Network) liderou as principais decisões (como o encerramento da cadeia), mas partilham a lógica de forma transparente e posicionam-na como uma evolução para o benefício da comunidade. Funcionalidades de governança on-chain (propostas, votação) provavelmente surgirão quando o novo rollup estiver implementado. O staking também dá influência informal na governança através do sistema de reputação (votos ponderados por stake para nós de confiança).
Modelo de IncentivoRecompensas inflacionárias ligadas à contribuição: ~1 TAO por bloco distribuído aos participantes com base no desempenho. Qualidade = mais recompensa. Mineradores e validadores ganham continuamente (bloco a bloco), mais os delegadores ganham uma parte. O TAO também é usado por utilizadores finais para pagar por serviços (criando um lado de procura para o token). A economia do token é projetada para encorajar a participação a longo prazo (staking) e a melhoria constante dos modelos, semelhante aos mineradores do Bitcoin, mas “minerando IA”. Problemas potenciais (centralização de stake levando a recompensas desalinhadas) estão a ser abordados através de ajustes de incentivos.Impulsionado pelo mercado, pagamento por resultados: Sem rendimento inflacionário contínuo (além de possíveis incentivos iniciais); os solvers são pagos apenas quando fazem o trabalho com sucesso. Os verifiers só são pagos ao apanharem uma fraude (incentivo jackpot). Isto cria uma economia direta: o gasto dos desenvolvedores = o ganho dos fornecedores. O valor do token está ligado à procura real por computação. Para iniciar, a Gensyn provavelmente recompensará os utilizadores da testnet no lançamento (distribuição única), mas em estado estacionário, é baseado no uso. Isto alinha os incentivos firmemente com a utilidade da rede (se os trabalhos de IA aumentarem, o uso do token aumenta, beneficiando todos os detentores).Híbrido (a mover-se de inflação para taxas de uso): Inicialmente, alocações de Mineração e staking do pool comunitário de 51% recompensavam os mineradores de GPU (30% da oferta) e stakers (11%) independentemente do uso externo – isto era para iniciar os efeitos de rede. Com o tempo, e especialmente após o encerramento da L1, a ênfase está na partilha de receitas: mineradores e desenvolvedores de aplicações ganham de pagamentos reais de utilizadores (por exemplo, dividindo taxas por uma geração de imagem). O rendimento dos stakers derivará de uma porção do uso real ou será ajustado para encorajar o apoio apenas a nós produtivos. Portanto, o incentivo inicial era “crescer a rede” (alto APY, airdrops) e mais tarde é “a rede cresce se for realmente útil” (ganhos de clientes). Esta transição é projetada para eliminar os free-riders e garantir a sustentabilidade.
Segurança e Mitigações de AtaquesSybil: O registo dispendioso (stake de TAO) dissuade os sybils. Conluio: O consenso mediano resiste ao conluio até 50% do stake; o dTAO quebrou uma oligarquia de validadores ao capacitar a votação dos detentores de tokens. Desonestidade: Validadores que se desviam do consenso perdem parte da recompensa (incentiva a pontuação honesta). O ataque de 51% é possível se o stake for altamente concentrado – a pesquisa sugere adicionar limites de stake e penalizações por desempenho para mitigar isto. Ataques a modelos: Saídas de modelos más ou maliciosas são penalizadas com pontuações baixas. Nenhum ponto único de falha – a rede é descentralizada globalmente (existem mineradores de TAO em todo o mundo, pseudo-anónimos).Sybil: Requer stake económico para participação; nós falsos sem stake/trabalho não ganham nada. Verificação: Pelo menos um verificador honesto é necessário – se assim for, qualquer resultado errado é apanhado e penalizado. Usa incentivos criptoeconómicos para que a trapaça não compense (o solver perde o depósito, o verificador ganha). Conluio: Seguro enquanto nem todas as partes conspirarem – um honesto quebra o esquema ao revelar a fraude. Confiança: Não depende da confiança em hardware ou empresas, apenas na teoria dos jogos económicos e na criptografia. Ataques: Difícil de censurar ou fazer DoS, pois as tarefas são distribuídas; um atacante precisaria de superar as licitações de nós honestos ou vencer consistentemente a prova de fraude (improvável sem controlo maioritário). No entanto, backdoors subtis em modelos podem escapar à deteção, o que é um desafio conhecido (mitigado por testes de utilizador e possivelmente futuras auditorias além da execução correta). A segurança geral é análoga a um rollup otimista para computação.Sybil: Todos os atores devem fazer stake de CAI, elevando a fasquia para os sybils. Além disso, um sistema de reputação (staking + votação) significa que identidades sybil sem reputação não receberão tarefas. Mau comportamento de nós: Os coordenadores podem descartar mineradores com mau desempenho ou suspeitos; os stakers podem retirar o apoio. O protocolo pode penalizar o stake por fraude comprovada (a L1 tinha condições de penalização para o consenso; o mesmo poderia aplicar-se à fraude em tarefas). Conluio: Parcialmente baseado na confiança – depende da competição aberta e da supervisão da comunidade para evitar que o conluio domine. Como as tarefas e os pagamentos são públicos on-chain, o conluio flagrante pode ser identificado e punido socialmente ou através da governança. Proteção do utilizador: Os utilizadores podem mudar de fornecedor se um for censurado ou corrompido, garantindo que não há um ponto único de controlo. Envenenamento/conteúdo: Por design, os mineradores executam os modelos fornecidos como estão; se alterarem as saídas maliciosamente, perdem reputação e recompensas. O sistema aposta em atores racionais: como todos têm valor em stake e potencial de ganho futuro, são desincentivados de ataques que minariam a confiança na rede (reforçado pelas duras lições da sua experiência com a L1 sobre o alinhamento de incentivos com a utilidade).

Tabela: Comparação de funcionalidades de Bittensor, Gensyn e Cuckoo AI em arquitetura, foco, papéis, consenso, tokens, tokenização de ativos, governança, incentivos e segurança.