Pular para o conteúdo principal

21 postagens marcadas com "IA"

Ver todas os Marcadores

IA Verificável em Movimento: Como os zk-SNARKs Dinâmicos da Lagrange Labs Permitem Confiança Contínua

· Leitura de 7 minutos
Dora Noda
Software Engineer

No mundo cada vez mais convergente da inteligência artificial e do blockchain, a demanda por confiança e transparência nunca foi tão alta. Como podemos ter certeza de que a saída de um modelo de IA é precisa e não foi adulterada? Como podemos executar cálculos complexos em vastos conjuntos de dados on‑chain sem comprometer segurança ou escalabilidade? A Lagrange Labs está enfrentando essas questões de frente com sua suíte de infraestrutura de conhecimento zero (ZK), visando construir um futuro de “IA que Você Pode Provar”. Este post oferece uma visão objetiva de sua missão, tecnologia e avanços recentes, culminando em seu último paper sobre zk‑SNARKs Dinâmicos.

1. A Equipe e Sua Missão

A Lagrange Labs está construindo a infraestrutura fundamental para gerar provas criptográficas para qualquer inferência de IA ou aplicação on‑chain. Seu objetivo é tornar a computação verificável, trazendo uma nova camada de confiança ao mundo digital. Seu ecossistema está estruturado em três linhas de produto principais:

  • ZK Prover Network: Uma rede descentralizada de mais de 85 nós de prova que fornece o poder computacional necessário para uma ampla gama de tarefas de prova, de IA e rollups a aplicações descentralizadas (dApps).
  • DeepProve (zkML): Um sistema especializado para gerar provas ZK de inferências de redes neurais. A Lagrange afirma ser até 158 vezes mais rápido que soluções concorrentes, tornando a IA verificável uma realidade prática.
  • ZK Coprocessor 1.0: O primeiro ZK Coprocessor baseado em SQL, permitindo que desenvolvedores executem consultas personalizadas em massivos conjuntos de dados on‑chain e recebam resultados verificavelmente precisos.

2. Um Roadmap para IA Verificável

A Lagrange tem executado metodicamente um roadmap projetado para resolver os desafios da verificabilidade de IA passo a passo.

  • Q3 2024: Lançamento do ZK Coprocessor 1.0: Esta versão introduziu circuitos recursivos hiper‑paralelos, que entregaram um aumento médio de velocidade de aproximadamente 2×. Projetos como Azuki e Gearbox já estão utilizando o coprocessor para suas necessidades de dados on‑chain.
  • Q1 2025: DeepProve Revelado: A Lagrange anunciou o DeepProve, sua solução para Zero‑Knowledge Machine Learning (zkML). Ele suporta arquiteturas populares de redes neurais como Perceptrons de Múltiplas Camadas (MLPs) e Redes Neurais Convolucionais (CNNs). O sistema alcança acelerações de ordem de magnitude em todas as três etapas críticas: configuração única, geração de prova e verificação, com ganhos de até 158×.
  • Q2 2025: Paper sobre zk‑SNARKs Dinâmicos (Último Marco): Este paper apresenta um algoritmo inovador de “atualização”. Em vez de gerar uma prova do zero sempre que os dados ou a computação subjacentes mudam, este método pode “patchar” uma prova antiga (π) em uma nova prova (π'). Essa atualização pode ser feita com complexidade de apenas O(√n log³n), uma melhoria drástica em relação à recomputação completa. Essa inovação é particularmente adequada para sistemas dinâmicos como modelos de IA que aprendem continuamente, lógica de jogos em tempo real e contratos inteligentes evolutivos.

3. Por Que os zk‑SNARKs Dinâmicos Importam

A introdução de provas atualizáveis representa uma mudança fundamental no modelo de custos da tecnologia de conhecimento zero.

  • Um Novo Paradigma de Custos: A indústria passa de um modelo de “recomputação total para cada prova” para “prova incremental baseada no tamanho da mudança”. Isso reduz drasticamente o custo computacional e financeiro para aplicações que sofrem atualizações frequentes e menores.
  • Implicações para IA:
    • Fine‑Tuning Contínuo: Quando se faz fine‑tuning em menos de 1 % dos parâmetros de um modelo, o tempo de geração da prova cresce quase linearmente com o número de parâmetros alterados (Δ parâmetros), e não com o tamanho total do modelo.
    • Inferência em Streaming: Isso permite gerar provas simultaneamente ao processo de inferência. Reduz drasticamente a latência entre a decisão de uma IA e a sua liquidação e verificação on‑chain, desbloqueando casos de uso como serviços de IA on‑chain e provas comprimidas para rollups.
  • Implicações para Aplicações On‑Chain:
    • zk‑SNARKs Dinâmicos oferecem otimizações massivas de gás e tempo para aplicações caracterizadas por mudanças frequentes e de pequeno porte. Isso inclui livros de ordens de exchanges descentralizadas (DEX), estados de jogos em evolução e atualizações de ledger que envolvem adições ou remoções frequentes.

4. Um Vislumbre da Pilha Tecnológica

A poderosa infraestrutura da Lagrange é construída sobre uma pilha tecnológica sofisticada e integrada:

  • Design de Circuitos: O sistema é flexível, suportando a incorporação de modelos ONNX (Open Neural Network Exchange), parsers SQL e operadores customizados diretamente em seus circuitos.
  • Recursão & Paralelismo: A ZK Prover Network facilita provas recursivas distribuídas, enquanto o ZK Coprocessor aproveita o sharding de “micro‑circuitos” para executar tarefas em paralelo, maximizando a eficiência.
  • Incentivos Econômicos: A Lagrange está planejando lançar um token nativo, LA, que será integrado a um sistema Double‑Auction‑for‑Recursive‑Auction (DARA). Isso criará um mercado robusto para leilões de computação de provadores, completo com incentivos e penalidades para garantir a integridade da rede.

5. Ecossistema e Adoção no Mundo Real

A Lagrange não está construindo em um vácuo; sua tecnologia já está sendo integrada por um número crescente de projetos em diferentes setores:

  • IA & ML: Projetos como 0G Labs e Story Protocol estão usando o DeepProve para verificar as saídas de seus modelos de IA, garantindo procedência e confiança.
  • Rollups & Infraestrutura: Players chave como EigenLayer, Base e Arbitrum participam da ZK Prover Network como nós validadores ou parceiros de integração, contribuindo para sua segurança e poder computacional.
  • Aplicações NFT & DeFi: Marcas como Azuki e protocolos DeFi como Gearbox utilizam o ZK Coprocessor para aprimorar a credibilidade de suas consultas de dados e mecanismos de distribuição de recompensas.

6. Desafios e o Caminho à Frente

Apesar do progresso impressionante, a Lagrange Labs e o campo mais amplo de ZK enfrentam vários obstáculos:

  • Gargalos de Hardware: Mesmo com uma rede distribuída, os SNARKs atualizáveis ainda exigem alta largura de banda e dependem de curvas criptográficas otimizadas para GPU para operar eficientemente.
  • Falta de Padronização: O processo de mapear frameworks de IA como ONNX e PyTorch para circuitos ZK ainda carece de uma interface universal e padronizada, gerando atrito para desenvolvedores.
  • Um Landscape Competitivo: A corrida para construir zkVMs e plataformas de zkCompute generalizadas está se intensificando. Competidores como Risc‑Zero e Succinct também estão avançando significativamente. O vencedor final pode ser quem primeiro comercializar uma toolchain amigável ao desenvolvedor e impulsionada pela comunidade.

7. Conclusão

A Lagrange Labs está remodelando metodicamente a interseção entre IA e blockchain através da lente da verificabilidade. Sua abordagem oferece uma solução abrangente:

  • DeepProve resolve o desafio da inferência confiável.
  • O ZK Coprocessor resolve o problema dos dados confiáveis.
  • zk‑SNARKs Dinâmicos incorporam a necessidade do mundo real de atualizações contínuas diretamente ao sistema de prova.

Se a Lagrange mantiver sua vantagem de desempenho, resolver o desafio crítico da padronização e continuar a expandir sua rede robusta, estará bem posicionada para se tornar um player fundamental no emergente setor de “IA + Infraestrutura ZK”.

Camp Network: A Blockchain que Enfrenta o Problema de IP de Bilhões de Dólares da IA 🏕️

· Leitura de 5 minutos
Dora Noda
Software Engineer

O surgimento da IA generativa tem sido nada menos que explosivo. De arte digital impressionante a textos que parecem humanos, a IA está criando conteúdo em uma escala sem precedentes. Mas esse boom tem um lado sombrio: de onde a IA obtém seus dados de treinamento? Frequentemente, vem da vasta extensão da internet — de arte, música e textos criados por humanos que não recebem crédito nem compensação.

Surge então o Camp Network, um novo projeto de blockchain que pretende resolver esse problema fundamental. Não é apenas mais uma plataforma cripto; é uma “Camada de IP Autônoma” criada para dar aos criadores propriedade e controle sobre seu trabalho na era da IA. Vamos mergulhar no que torna o Camp Network um projeto a ser observado.


Qual é a Grande Ideia?

Em sua essência, o Camp Network é um blockchain que funciona como um registro global e verificável de propriedade intelectual (IP). A missão é permitir que qualquer pessoa — de um artista independente a um usuário de redes sociais — registre seu conteúdo on‑chain. Isso cria um registro permanente e à prova de adulteração de propriedade e proveniência.

Por que isso importa? Quando um modelo de IA utiliza conteúdo registrado no Camp, os contratos inteligentes da rede podem aplicar automaticamente os termos de licenciamento. Isso significa que o criador original pode receber atribuição e até pagamentos de royalties instantaneamente. A visão do Camp é construir uma nova economia criadora onde a compensação não é um detalhe posterior; está incorporada diretamente ao protocolo.


Por Dentro da Tecnologia: A Pilha Tecnológica

O Camp não é apenas um conceito; é sustentado por tecnologia séria projetada para alto desempenho e facilidade para desenvolvedores.

  • Arquitetura Modular: O Camp é construído como um rollup soberano usando Celestia para disponibilidade de dados. Esse design permite que seja incrivelmente rápido (alvo de 50.000 transações por segundo) e barato, mantendo total compatibilidade com as ferramentas do Ethereum (EVM).
  • Proof of Provenance (PoP): Este é o mecanismo de consenso exclusivo do Camp. Em vez de depender de mineração intensiva em energia, a segurança da rede está atrelada à verificação da origem do conteúdo. Cada transação reforça a proveniência da IP na rede, tornando a propriedade “exigível por design”.
  • Estratégia Dual‑VM: Para maximizar o desempenho, o Camp está integrando a Solana Virtual Machine (SVM) ao lado da compatibilidade com EVM. Isso permite que desenvolvedores escolham o ambiente mais adequado para seu aplicativo, especialmente para casos de uso de alta taxa de transferência, como interações de IA em tempo real.
  • Kit de Ferramentas para Criadores e IA: O Camp oferece duas estruturas principais:
    • Origin Framework: Um sistema amigável para criadores registrarem sua IP, tokenizá‑la (como NFT) e incorporar regras de licenciamento.
    • mAItrix Framework: Um kit para desenvolvedores criarem e implantarem agentes de IA que podem interagir com a IP on‑chain de forma segura e permissionada.

Pessoas, Parcerias e Progresso

Uma ideia só é tão boa quanto sua execução, e o Camp parece estar executando bem.

A Equipe e o Financiamento

O projeto é liderado por uma equipe com uma mistura potente de experiência proveniente da The Raine Group (media e acordos de IP), Goldman Sachs, Figma e CoinList. Essa combinação de finanças, produto tecnológico e engenharia cripto ajudou a garantir US$ 30 milhões em financiamento de VCs de destaque como 1kx, Blockchain Capital e Maven 11.

Um Ecossistema em Expansão

O Camp tem sido agressivo na construção de parcerias. A mais significativa é uma participação estratégica no KOR Protocol, uma plataforma para tokenizar IP musical que trabalha com artistas de grande porte como Deadmau5 e franquias como Black Mirror. Essa única parceria fornece ao Camp uma biblioteca massiva de conteúdo de alto perfil, já com direitos claros. Outros colaboradores chave incluem:

  • RewardedTV: Plataforma descentralizada de streaming de vídeo que usa o Camp para direitos de conteúdo on‑chain.
  • Rarible: Marketplace de NFT integrado para negociação de ativos de IP.
  • LayerZero: Protocolo cross‑chain que garante interoperabilidade com outras blockchains.

Roteiro e Comunidade

Após campanhas de testnet incentivadas que atraíram dezenas de milhares de usuários (recompensando‑os com pontos que se convertem em tokens), o Camp mira um lançamento de mainnet no terceiro trimestre de 2025. Isso será acompanhado por um Evento de Geração de Token para seu token nativo, $CAMP, que será usado para taxas de gas, staking e governança. O projeto já cultivou uma comunidade apaixonada, pronta para construir e usar a plataforma desde o primeiro dia.


Como Ela se Compara?

O Camp Network não está sozinho nesse espaço. Enfrenta concorrência forte de projetos como o Story Protocol, apoiado pela a16z, e o Soneium, ligado à Sony. Contudo, o Camp se diferencia em vários aspectos chave:

  1. Abordagem Bottom‑Up: Enquanto concorrentes parecem mirar grandes detentores corporativos de IP, o Camp foca em capacitar criadores independentes e comunidades cripto por meio de incentivos tokenizados.
  2. Solução Abrangente: Oferece um conjunto completo de ferramentas, desde um registro de IP até um framework de agentes de IA, posicionando‑se como um “one‑stop shop”.
  3. Desempenho e Escalabilidade: Sua arquitetura modular e suporte dual‑VM são projetados para atender às demandas de alta taxa de transferência de IA e mídia.

Conclusão

O Camp Network apresenta um caso convincente para se tornar a camada fundamental de propriedade intelectual na era Web3. Ao combinar tecnologia inovadora, equipe forte, parcerias estratégicas e uma ética centrada na comunidade, está construindo uma solução prática para um dos problemas mais urgentes criados pela IA generativa.

O verdadeiro teste virá com o lançamento da mainnet e a adoção no mundo real. Mas, com uma visão clara e execução sólida até agora, o Camp Network é, sem dúvida, um projeto chave a ser observado enquanto tenta construir um futuro mais equitativo para criadores digitais.

Conheça o BeFreed.ai – Combustível de Aprendizado para Construtores do BlockEden.xyz

· Leitura de 4 minutos
Dora Noda
Software Engineer

Por que o BlockEden.xyz se importa

No mundo acelerado do Web3, velocidade é tudo. Entregar infraestrutura de RPC e staking de nível de produção exige que nossa equipe e nossa comunidade estejam constantemente na vanguarda da inovação. Isso significa estar por dentro de protocolos densos, artigos revolucionários de criptografia e discussões de governança que evoluem rapidamente. Quanto mais rápido nossa comunidade absorve e compreende novas ideias, mais rápido pode construir a próxima geração de aplicações descentralizadas. É aqui que BeFreed.ai entra.

O que é o BeFreed.ai

BeFreed.ai é uma startup de São Francisco com uma missão simples, porém poderosa: tornar o aprendizado alegre e pessoal na era da IA. Eles criaram um companheiro inteligente de micro‑aprendizado projetado para se adaptar ao estilo de vida exigente de construtores e criadores.

Ingredientes principais:

  • Múltiplos formatos → um clique: BeFreed.ai pode pegar uma ampla variedade de conteúdo — de livros extensos e vídeos detalhados a documentos técnicos complexos — e transformá‑los instantaneamente em resumos rápidos, flashcards, notas aprofundadas e até áudio no estilo de podcast.
  • Motor adaptativo: A plataforma foi projetada para aprender ao seu lado. Ela observa seu ritmo e interesses de aprendizado, trazendo as informações mais relevantes a seguir, em vez de forçá‑lo a seguir um currículo rígido e único para todos.
  • Chat integrado e explicações “Por que isso?”: Tem uma dúvida? Basta perguntar. BeFreed.ai permite consultas instantâneas para esclarecer tópicos complexos. Também oferece explicações que conectam novos insights aos seus objetivos maiores, tornando o processo de aprendizado mais significativo.
  • Comunidade de aprendizado de 43 mil pessoas: Aprender costuma ser uma atividade coletiva. BeFreed.ai fomenta uma comunidade vibrante de mais de 43 000 aprendizes que compartilham seu progresso, reagem a conteúdos perspicazes e destacam os principais aprendizados, mantendo alta motivação e impulso.

Por que isso importa para os construtores do BlockEden.xyz

Para os construtores dedicados ao ecossistema BlockEden.xyz, o BeFreed.ai é mais do que uma ferramenta de aprendizado; é uma vantagem estratégica. Veja como ele pode afiar seu diferencial:

  • Alavancagem de tempo: Transforme um whitepaper de 300 páginas em um resumo de áudio de 10 minutos para ouvir antes de uma votação crucial de governança.
  • Retenção de contexto: Use flashcards e mapas mentais para solidificar seu entendimento dos detalhes de protocolos que você precisará ao escrever índices de smart contracts.
  • Crescimento multidisciplinar: Expanda seu conjunto de habilidades sem sair do seu ambiente de desenvolvimento. Aprenda o básico de design thinking, entenda loops de crescimento ou obtenha dicas sobre concorrência em Go nos momentos de pausa.
  • Vocabulário compartilhado: Crie playlists a nível de equipe para garantir que todos os colaboradores aprendam a partir da mesma fonte destilada e consistente de informação, promovendo melhor colaboração e alinhamento.

Usando o BeFreed nos fluxos de trabalho do BlockEden.xyz

Integrar o BeFreed.ai ao seu processo de desenvolvimento existente é simples e traz benefícios imediatos:

  1. Solte uma especificação: Cole a URL do PDF mais recente de tokenomics ou de uma chamada de desenvolvedor no YouTube no BeFreed para obter um resumo instantâneo e digerível.
  2. Exporte flashcards: Revise conceitos chave durante execuções de CI. Essa forma de repetição é muito mais eficaz do que a fadiga mental causada por constantes trocas de contexto.
  3. Link nos docs: Incorpore a URL de resumo do BeFreed ao lado de cada referência de API na sua documentação para ajudar novos membros da equipe a se atualizarem mais rápido.
  4. Mantenha‑se atualizado: Configure digests semanais no BeFreed sobre L2s emergentes e coloque esse conhecimento em prática imediatamente ao prototipar com os serviços RPC multichain do BlockEden.xyz.

Comece agora

BeFreed.ai já está disponível para iOS, Android e web. Incentivamos você a testá‑lo no próximo sprint de projeto do BlockEden.xyz e experimentar como ele pode melhorar sua velocidade de aprendizado e construção. Nossa equipe já está explorando integrações mais estreitas — imagine um futuro onde um webhook transforma automaticamente cada descrição de PR mesclado em um conjunto de estudo abrangente.

Conectando IA e Web3 através do MCP: Uma Análise Panorâmica

· Leitura de 11 minutos
Dora Noda
Software Engineer

Introdução

A IA e a Web3 estão a convergir de formas poderosas, com as interfaces gerais de IA a serem agora vistas como um tecido conjuntivo para a web descentralizada. Um conceito-chave que emerge desta convergência é o MCP, que tanto pode significar “Model Context Protocol” (conforme introduzido pela Anthropic) como ser vagamente descrito como um Metaverse Connection Protocol em discussões mais amplas. Em essência, o MCP é uma estrutura padronizada que permite que sistemas de IA interajam com ferramentas e redes externas de uma forma natural e segura – potencialmente “ligando” agentes de IA a todos os cantos do ecossistema Web3. Este relatório fornece uma análise abrangente de como as interfaces gerais de IA (como agentes de grandes modelos de linguagem e sistemas neuro-simbólicos) poderiam conectar tudo no mundo Web3 através do MCP, cobrindo o contexto histórico, a arquitetura técnica, o cenário da indústria, os riscos e o potencial futuro.

1. Contexto de Desenvolvimento

1.1 A Evolução da Web3 e as Promessas Não Cumpridas

O termo “Web3” foi cunhado por volta de 2014 para descrever uma web descentralizada alimentada por blockchain. A visão era ambiciosa: uma internet sem permissões centrada na propriedade do utilizador. Os entusiastas imaginaram substituir a infraestrutura centralizada da Web2 por alternativas baseadas em blockchain – por exemplo, o Ethereum Name Service (para DNS), Filecoin ou IPFS (para armazenamento) e DeFi para os trilhos financeiros. Em teoria, isto retiraria o controlo das plataformas das Big Tech e daria aos indivíduos auto-soberania sobre dados, identidade e ativos.

A realidade ficou aquém. Apesar de anos de desenvolvimento e hype, o impacto mainstream da Web3 permaneceu marginal. Os utilizadores médios da internet não migraram em massa para as redes sociais descentralizadas nem começaram a gerir chaves privadas. As principais razões incluíram uma má experiência do utilizador, transações lentas e caras, fraudes de alto perfil e incerteza regulatória. A “web da propriedade” descentralizada, em grande parte, “não se materializou” para além de uma comunidade de nicho. Em meados da década de 2020, até os proponentes de cripto admitiram que a Web3 não tinha proporcionado uma mudança de paradigma para o utilizador médio.

Entretanto, a IA estava a passar por uma revolução. À medida que o capital e o talento dos programadores se deslocavam de cripto para IA, avanços transformadores em deep learning e modelos de fundação (GPT-3, GPT-4, etc.) capturaram a imaginação do público. A IA Generativa demonstrou uma utilidade clara – produzindo conteúdo, código e decisões – de uma forma que as aplicações de cripto tinham tido dificuldade em fazer. De facto, o impacto dos grandes modelos de linguagem em apenas alguns anos superou drasticamente uma década de adoção de blockchain por parte dos utilizadores. Este contraste levou alguns a gracejar que “a Web3 foi desperdiçada em cripto” e que a verdadeira Web 3.0 está a emergir da onda da IA.

1.2 A Ascensão das Interfaces Gerais de IA

Ao longo de décadas, as interfaces de utilizador evoluíram de páginas web estáticas (Web1.0) para aplicações interativas (Web2.0) – mas sempre dentro dos limites de clicar em botões e preencher formulários. Com a IA moderna, especialmente os grandes modelos de linguagem (LLMs), um novo paradigma de interface está aqui: a linguagem natural. Os utilizadores podem simplesmente expressar a sua intenção em linguagem simples e ter sistemas de IA a executar ações complexas em muitos domínios. Esta mudança é tão profunda que alguns sugerem redefinir a “Web 3.0” como a era dos agentes impulsionados por IA (“a Web Agêntica”) em vez da definição anterior centrada em blockchain.

No entanto, as primeiras experiências com agentes de IA autónomos expuseram um estrangulamento crítico. Estes agentes – por exemplo, protótipos como o AutoGPT – podiam gerar texto ou código, mas faltava-lhes uma forma robusta de comunicar com sistemas externos e entre si. Não havia “nenhuma linguagem comum nativa de IA” para a interoperabilidade. Cada integração com uma ferramenta ou fonte de dados era um hack personalizado, e a interação de IA para IA não tinha um protocolo padrão. Em termos práticos, um agente de IA podia ter uma grande capacidade de raciocínio, mas falhar na execução de tarefas que exigiam o uso de aplicações web ou serviços on-chain, simplesmente porque não sabia como falar com esses sistemas. Este desajuste – cérebros poderosos, E/S primitivas – era semelhante a ter um software super-inteligente preso atrás de uma GUI desajeitada.

1.3 Convergência e o Surgimento do MCP

Em 2024, tornou-se evidente que, para a IA atingir o seu pleno potencial (e para a Web3 cumprir a sua promessa), era necessária uma convergência: os agentes de IA requerem acesso contínuo às capacidades da Web3 (aplicações descentralizadas, contratos, dados), e a Web3 precisa de mais inteligência e usabilidade, que a IA pode fornecer. É neste contexto que nasceu o MCP (Model Context Protocol). Introduzido pela Anthropic no final de 2024, o MCP é um padrão aberto para comunicação entre IA e ferramentas que parece natural para os LLMs. Ele fornece uma forma estruturada e detetável para os “hospedeiros de IA” (como o ChatGPT, Claude, etc.) encontrarem e usarem uma variedade de ferramentas e recursos externos através de servidores MCP. Por outras palavras, o MCP é uma camada de interface comum que permite que agentes de IA se liguem a serviços web, APIs e até funções de blockchain, sem codificar cada integração de forma personalizada.

Pense no MCP como “o USB-C das interfaces de IA”. Assim como o USB-C padronizou a forma como os dispositivos se conectam (para que não precise de cabos diferentes para cada dispositivo), o MCP padroniza a forma como os agentes de IA se conectam a ferramentas e dados. Em vez de codificar diferentes chamadas de API para cada serviço (Slack vs. Gmail vs. nó Ethereum), um programador pode implementar a especificação MCP uma vez, e qualquer IA compatível com MCP pode entender como usar esse serviço. Os principais players de IA rapidamente viram a importância: a Anthropic tornou o MCP open-source, e empresas como a OpenAI e a Google estão a construir suporte para ele nos seus modelos. Este impulso sugere que o MCP (ou “Meta Connectivity Protocols” semelhantes) poderia tornar-se a espinha dorsal que finalmente conecta a IA e a Web3 de uma forma escalável.

Notavelmente, alguns tecnólogos argumentam que esta conectividade centrada em IA é a verdadeira realização da Web3.0. Nas palavras de Simba Khadder, “o MCP visa padronizar uma API entre LLMs e aplicações,” semelhante a como as APIs REST permitiram a Web 2.0 – o que significa que a próxima era da Web3 pode ser definida por interfaces de agentes inteligentes em vez de apenas blockchains. Em vez da descentralização por si só, a convergência com a IA poderia tornar a descentralização útil, escondendo a complexidade por trás da linguagem natural e dos agentes autónomos. O restante deste relatório aprofunda como, técnica e praticamente, as interfaces gerais de IA (através de protocolos como o MCP) podem conectar tudo no mundo Web3.

2. Arquitetura Técnica: Interfaces de IA a Fazer a Ponte com as Tecnologias Web3

Incorporar agentes de IA na stack Web3 requer integração em múltiplos níveis: redes de blockchain e contratos inteligentes, armazenamento descentralizado, sistemas de identidade e economias baseadas em tokens. As interfaces gerais de IA – desde grandes modelos de fundação a sistemas neuro-simbólicos híbridos – podem servir como um “adaptador universal” que conecta estes componentes. Abaixo, analisamos a arquitetura de tal integração:

Figura: Um diagrama conceptual da arquitetura do MCP, mostrando como os hospedeiros de IA (aplicações baseadas em LLM como Claude ou ChatGPT) usam um cliente MCP para se conectarem a vários servidores MCP. Cada servidor fornece uma ponte para alguma ferramenta ou serviço externo (por exemplo, Slack, Gmail, calendários ou dados locais), análogo a periféricos que se conectam através de um hub universal. Esta interface MCP padronizada permite que agentes de IA acedam a serviços remotos e recursos on-chain através de um protocolo comum.

2.1 Agentes de IA como Clientes Web3 (Integrando com Blockchains)

No cerne da Web3 estão as blockchains e os contratos inteligentes – máquinas de estado descentralizadas que podem impor lógica de uma maneira sem confiança. Como pode uma interface de IA interagir com estes? Existem duas direções a considerar:

  • IA a ler da blockchain: Um agente de IA pode precisar de dados on-chain (por exemplo, preços de tokens, saldo de ativos do utilizador, propostas de DAO) como contexto para as suas decisões. Tradicionalmente, a recuperação de dados de blockchain requer a interação com APIs RPC de nós ou bases de dados de subgrafos. Com uma estrutura como o MCP, uma IA pode consultar um servidor MCP padronizado de “dados de blockchain” para obter informações on-chain em tempo real. Por exemplo, um agente habilitado para MCP poderia pedir o volume de transações mais recente de um determinado token, ou o estado de um contrato inteligente, e o servidor MCP lidaria com os detalhes de baixo nível de conexão à blockchain e devolveria os dados num formato que a IA pode usar. Isto aumenta a interoperabilidade ao desacoplar a IA do formato de API de qualquer blockchain específica.

  • IA a escrever na blockchain: De forma mais poderosa, os agentes de IA podem executar chamadas de contratos inteligentes ou transações através de integrações Web3. Uma IA poderia, por exemplo, executar autonomamente uma troca numa exchange descentralizada ou ajustar parâmetros num contrato inteligente se certas condições forem cumpridas. Isto é alcançado pela IA a invocar um servidor MCP que encapsula a funcionalidade de transação de blockchain. Um exemplo concreto é o servidor MCP da thirdweb para cadeias EVM, que permite que qualquer cliente de IA compatível com MCP interaja com Ethereum, Polygon, BSC, etc., abstraindo a mecânica específica da cadeia. Usando tal ferramenta, um agente de IA poderia desencadear ações on-chain “sem intervenção humana”, permitindo dApps autónomas – por exemplo, um cofre DeFi gerido por IA que se reequilibra ao assinar transações quando as condições de mercado mudam.

Nos bastidores, estas interações ainda dependem de carteiras, chaves e taxas de gás, mas a interface de IA pode receber acesso controlado a uma carteira (com sandboxes de segurança adequadas) para realizar as transações. Oráculos e pontes cross-chain também entram em jogo: Redes de oráculos como a Chainlink servem como uma ponte entre a IA e as blockchains, permitindo que os outputs da IA sejam alimentados on-chain de uma forma confiável. O Cross-Chain Interoperability Protocol (CCIP) da Chainlink, por exemplo, poderia permitir que um modelo de IA considerado fiável desencadeasse múltiplos contratos em diferentes cadeias simultaneamente em nome de um utilizador. Em resumo, as interfaces gerais de IA podem atuar como um novo tipo de cliente Web3 – um que pode tanto consumir dados de blockchain como produzir transações de blockchain através de protocolos padronizados.

2.2 Sinergia Neuro-Simbólica: Combinando o Raciocínio da IA com Contratos Inteligentes

Um aspeto intrigante da integração IA-Web3 é o potencial para arquiteturas neuro-simbólicas que combinam a capacidade de aprendizagem da IA (redes neuronais) com a lógica rigorosa dos contratos inteligentes (regras simbólicas). Na prática, isto poderia significar que os agentes de IA lidam com a tomada de decisões não estruturadas e passam certas tarefas para contratos inteligentes para execução verificável. Por exemplo, uma IA pode analisar o sentimento do mercado (uma tarefa imprecisa), mas depois executar trocas através de um contrato inteligente determinístico que segue regras de risco pré-estabelecidas. A estrutura MCP e padrões relacionados tornam tais transferências viáveis, dando à IA uma interface comum para chamar funções de contrato ou para consultar as regras de uma DAO antes de agir.

Um exemplo concreto é a AI-DSL (Linguagem Específica de Domínio de IA) da SingularityNET, que visa padronizar a comunicação entre agentes de IA na sua rede descentralizada. Isto pode ser visto como um passo em direção à integração neuro-simbólica: uma linguagem formal (simbólica) para os agentes solicitarem serviços de IA ou dados uns dos outros. Da mesma forma, projetos como o AlphaCode da DeepMind ou outros poderiam eventualmente ser conectados para que os contratos inteligentes chamassem modelos de IA para a resolução de problemas on-chain. Embora executar grandes modelos de IA diretamente on-chain seja impraticável hoje, abordagens híbridas estão a surgir: por exemplo, certas blockchains permitem a verificação de computações de ML através de provas de conhecimento zero ou execução confiável, permitindo a verificação on-chain de resultados de IA off-chain. Em resumo, a arquitetura técnica prevê os sistemas de IA e os contratos inteligentes de blockchain como componentes complementares, orquestrados através de protocolos comuns: a IA lida com a

IA Verificável On-Chain com zkML e Provas Criptográficas

· Leitura de 42 minutos
Dora Noda
Software Engineer

Introdução: A Necessidade de IA Verificável na Blockchain

À medida que os sistemas de IA crescem em influência, garantir que seus resultados sejam confiáveis torna-se crítico. Os métodos tradicionais dependem de garantias institucionais (essencialmente “apenas confie em nós”), que não oferecem garantias criptográficas. Isso é especialmente problemático em contextos descentralizados como blockchains, onde um contrato inteligente ou um usuário deve confiar em um resultado derivado de IA sem poder reexecutar um modelo pesado on-chain. O Machine Learning de Conhecimento Zero (zkML) aborda isso permitindo a verificação criptográfica de computações de ML. Em essência, o zkML permite que um provador gere uma prova sucinta de que “o resultado $Y$ veio da execução do modelo $M$ na entrada $X$”sem revelar $X$ ou os detalhes internos de $M$. Essas provas de conhecimento zero (ZKPs) podem ser verificadas por qualquer pessoa (ou qualquer contrato) de forma eficiente, mudando a confiança na IA de “política para prova”.

A verificabilidade on-chain da IA significa que uma blockchain pode incorporar computações avançadas (como inferências de redes neurais) verificando uma prova de execução correta em vez de realizar a computação em si. Isso tem amplas implicações: contratos inteligentes podem tomar decisões com base em previsões de IA, agentes autônomos descentralizados podem provar que seguiram seus algoritmos, e serviços de computação cross-chain ou off-chain podem fornecer resultados verificáveis em vez de oráculos não verificáveis. Em última análise, o zkML oferece um caminho para uma IA sem necessidade de confiança e que preserva a privacidade – por exemplo, provando que as decisões de um modelo de IA são corretas e autorizadas sem expor dados privados ou pesos de modelos proprietários. Isso é fundamental para aplicações que vão desde análises seguras de saúde até jogos em blockchain e oráculos DeFi.

Como o zkML Funciona: Comprimindo a Inferência de ML em Provas Sucintas

Em alto nível, o zkML combina sistemas de prova criptográfica com a inferência de ML para que uma avaliação de modelo complexa possa ser “comprimida” em uma pequena prova. Internamente, o modelo de ML (por exemplo, uma rede neural) é representado como um circuito ou programa consistindo de muitas operações aritméticas (multiplicações de matrizes, funções de ativação, etc.). Em vez de revelar todos os valores intermediários, um provador realiza a computação completa off-chain e, em seguida, usa um protocolo de prova de conhecimento zero para atestar que cada passo foi feito corretamente. O verificador, recebendo apenas a prova e alguns dados públicos (como o resultado final e um identificador para o modelo), pode ser criptograficamente convencido da correção sem reexecutar o modelo.

Para alcançar isso, as estruturas de zkML normalmente transformam a computação do modelo em um formato adequado para ZKPs:

  • Compilação de Circuito: Em abordagens baseadas em SNARK, o grafo de computação do modelo é compilado em um circuito aritmético ou um conjunto de restrições polinomiais. Cada camada da rede neural (convoluções, multiplicações de matrizes, ativações não lineares) torna-se um subcircuito com restrições que garantem que os resultados estejam corretos dadas as entradas. Como as redes neurais envolvem operações não lineares (ReLUs, Sigmoids, etc.) que não são naturalmente adequadas para polinômios, técnicas como tabelas de consulta são usadas para lidar com elas de forma eficiente. Por exemplo, uma ReLU (resultado = max(0, entrada)) pode ser imposta por uma restrição personalizada ou uma consulta que verifica se o resultado é igual à entrada se a entrada ≥ 0, senão zero. O resultado final é um conjunto de restrições criptográficas que o provador deve satisfazer, o que implicitamente prova que o modelo foi executado corretamente.
  • Rastro de Execução e Máquinas Virtuais: Uma alternativa é tratar a inferência do modelo como um rastro de programa, como feito em abordagens de zkVM. Por exemplo, a zkVM JOLT visa o conjunto de instruções RISC-V; pode-se compilar o modelo de ML (ou o código que o computa) para RISC-V e, em seguida, provar que cada instrução da CPU foi executada corretamente. A JOLT introduz uma técnica de “singularidade de consulta”, substituindo restrições aritméticas caras por consultas rápidas em tabelas para cada operação válida da CPU. Cada operação (soma, multiplicação, operação bit a bit, etc.) é verificada por meio de uma consulta em uma tabela gigante de resultados válidos pré-computados, usando um argumento especializado (Lasso/SHOUT) para manter isso eficiente. Isso reduz drasticamente a carga de trabalho do provador: até mesmo operações complexas de 64 bits tornam-se uma única consulta de tabela na prova, em vez de muitas restrições aritméticas.
  • Protocolos Interativos (GKR Sum-Check): Uma terceira abordagem usa provas interativas como GKR (Goldwasser–Kalai–Rotblum) para verificar uma computação em camadas. Aqui, a computação do modelo é vista como um circuito aritmético em camadas (cada camada da rede neural é uma camada do grafo do circuito). O provador executa o modelo normalmente, mas depois se envolve em um protocolo sum-check para provar que os resultados de cada camada estão corretos dadas as suas entradas. Na abordagem da Lagrange (DeepProve, detalhada a seguir), o provador e o verificador realizam um protocolo polinomial interativo (tornado não interativo via Fiat-Shamir) que verifica a consistência das computações de cada camada sem refazê-las. Este método sum-check evita a geração de um circuito estático monolítico; em vez disso, ele verifica a consistência das computações de forma passo a passo com operações criptográficas mínimas (principalmente hashing ou avaliações polinomiais).

Independentemente da abordagem, o resultado é uma prova sucinta (normalmente de alguns kilobytes a algumas dezenas de kilobytes) que atesta a correção de toda a inferência. A prova é de conhecimento zero, o que significa que quaisquer entradas secretas (dados privados ou parâmetros do modelo) podem ser mantidas ocultas – elas influenciam a prova, mas não são reveladas aos verificadores. Apenas os resultados públicos ou asserções pretendidos são revelados. Isso permite cenários como “provar que o modelo $M$ quando aplicado aos dados do paciente $X$ resulta no diagnóstico $Y$, sem revelar $X$ ou os pesos do modelo.”

Habilitando a verificação on-chain: Uma vez que uma prova é gerada, ela pode ser postada em uma blockchain. Contratos inteligentes podem incluir lógica de verificação para checar a prova, muitas vezes usando primitivas criptográficas pré-compiladas. Por exemplo, o Ethereum possui pré-compilações para operações de emparelhamento BLS12-381 usadas em muitos verificadores de zk-SNARK, tornando a verificação on-chain de provas SNARK eficiente. Os STARKs (provas baseadas em hash) são maiores, mas ainda podem ser verificados on-chain com otimização cuidadosa ou possivelmente com algumas suposições de confiança (a L2 da StarkWare, por exemplo, verifica provas STARK no Ethereum por um contrato verificador on-chain, embora com um custo de gás mais alto que os SNARKs). O ponto principal é que a cadeia não precisa executar o modelo de ML – ela apenas executa uma verificação que é muito mais barata que a computação original. Em resumo, o zkML comprime a dispendiosa inferência de IA numa pequena prova que as blockchains (ou qualquer verificador) podem checar em milissegundos a segundos.

Lagrange DeepProve: Arquitetura e Desempenho de um Avanço em zkML

DeepProve da Lagrange Labs é uma estrutura de inferência zkML de ponta focada em velocidade e escalabilidade. Lançado em 2025, o DeepProve introduziu um novo sistema de prova que é dramaticamente mais rápido que soluções anteriores como o Ezkl. Seu design se concentra no protocolo de prova interativo GKR com sum-check e otimizações especializadas para circuitos de redes neurais. Veja como o DeepProve funciona e alcança seu desempenho:

  • Pré-processamento Único: Os desenvolvedores começam com uma rede neural treinada (os tipos atualmente suportados incluem perceptrons multicamadas e arquiteturas CNN populares). O modelo é exportado para o formato ONNX, uma representação de grafo padrão. A ferramenta do DeepProve então analisa o modelo ONNX e o quantiza (converte os pesos para formato de ponto fixo/inteiro) para uma aritmética de campo eficiente. Nesta fase, ele também gera as chaves de prova e verificação para o protocolo criptográfico. Essa configuração é feita uma vez por modelo e não precisa ser repetida por inferência. O DeepProve enfatiza a facilidade de integração: “Exporte seu modelo para ONNX → configuração única → gere provas → verifique em qualquer lugar”.

  • Prova (Inferência + Geração de Prova): Após a configuração, um provador (que pode ser executado por um usuário, um serviço ou a rede de provadores descentralizada da Lagrange) pega uma nova entrada $X$ e executa o modelo $M$ nela, obtendo o resultado $Y$. Durante essa execução, o DeepProve registra um rastro de execução das computações de cada camada. Em vez de traduzir cada multiplicação em um circuito estático antecipadamente (como fazem as abordagens SNARK), o DeepProve usa o protocolo GKR de tempo linear para verificar cada camada em tempo real. Para cada camada da rede, o provador se compromete com as entradas e saídas da camada (por exemplo, via hashes criptográficos ou compromissos polinomiais) e, em seguida, se envolve em um argumento sum-check para provar que as saídas de fato resultam das entradas de acordo com a função da camada. O protocolo sum-check convence iterativamente o verificador da correção de uma soma de avaliações de um polinômio que codifica a computação da camada, sem revelar os valores reais. Operações não lineares (como ReLU, softmax) são tratadas eficientemente por meio de argumentos de consulta no DeepProve – se a saída de uma ativação foi computada, o DeepProve pode provar que cada saída corresponde a um par de entrada-saída válido de uma tabela pré-computada para essa função. Camada por camada, as provas são geradas e, em seguida, agregadas numa única prova sucinta cobrindo todo o passo de avanço do modelo. O trabalho pesado da criptografia é minimizado – o provador do DeepProve realiza principalmente computações numéricas normais (a inferência real) mais alguns compromissos criptográficos leves, em vez de resolver um sistema gigante de restrições.

  • Verificação: O verificador usa a prova sucinta final juntamente com alguns valores públicos – tipicamente o identificador comprometido do modelo (um compromisso criptográfico com os pesos de $M$), a entrada $X$ (se não for privada) e o resultado alegado $Y$ – para verificar a correção. A verificação no sistema do DeepProve envolve a verificação da transcrição do protocolo sum-check e dos compromissos polinomiais ou de hash finais. Isso é mais complexo do que verificar um SNARK clássico (que pode ser alguns emparelhamentos), mas é vastamente mais barato do que reexecutar o modelo. Nos benchmarks da Lagrange, a verificação de uma prova do DeepProve para uma CNN média leva da ordem de 0,5 segundos em software. Isso é ~0,5s para confirmar, por exemplo, que uma rede convolucional com centenas de milhares de parâmetros foi executada corretamente – mais de 500× mais rápido do que recomputar ingenuamente essa CNN em uma GPU para verificação. (Na verdade, o DeepProve mediu uma verificação até 521× mais rápida para CNNs e 671× para MLPs em comparação com a reexecução.) O tamanho da prova é pequeno o suficiente para ser transmitido on-chain (dezenas de KB), e a verificação poderia ser realizada em um contrato inteligente se necessário, embora 0,5s de computação possa exigir otimização cuidadosa de gás ou execução em camada 2.

Arquitetura e Ferramentas: O DeepProve é implementado em Rust e fornece um kit de ferramentas (a biblioteca zkml) para desenvolvedores. Ele suporta nativamente grafos de modelo ONNX, tornando-o compatível com modelos do PyTorch ou TensorFlow (após a exportação). O processo de prova atualmente visa modelos de até alguns milhões de parâmetros (testes incluem uma rede densa de 4 milhões de parâmetros). O DeepProve utiliza uma combinação de componentes criptográficos: um compromisso polinomial multilinear (para se comprometer com as saídas da camada), o protocolo sum-check para verificar computações e argumentos de consulta para operações não lineares. Notavelmente, o repositório de código aberto da Lagrange reconhece que se baseia em trabalhos anteriores (a implementação de sum-check e GKR do projeto Ceno da Scroll), indicando uma interseção do zkML com a pesquisa de rollups de conhecimento zero.

Para alcançar escalabilidade em tempo real, a Lagrange combina o DeepProve com sua Rede de Provadores – uma rede descentralizada de provadores ZK especializados. A geração pesada de provas pode ser descarregada para esta rede: quando uma aplicação precisa de uma inferência provada, ela envia o trabalho para a rede da Lagrange, onde muitos operadores (em stake no EigenLayer para segurança) computam as provas e retornam o resultado. Esta rede incentiva economicamente a geração confiável de provas (trabalhos maliciosos ou falhos resultam em slashing do operador). Ao distribuir o trabalho entre os provadores (e potencialmente alavancar GPUs ou ASICs), a Rede de Provadores da Lagrange esconde a complexidade e o custo dos usuários finais. O resultado é um serviço zkML rápido, escalável e descentralizado: “inferências de IA verificáveis de forma rápida e acessível”.

Marcos de Desempenho: As alegações do DeepProve são apoiadas por benchmarks contra o estado da arte anterior, o Ezkl. Para uma CNN com ~264k parâmetros (modelo em escala CIFAR-10), o tempo de prova do DeepProve foi de ~1,24 segundos contra ~196 segundos para o Ezkl – cerca de 158× mais rápido. Para uma rede densa maior com 4 milhões de parâmetros, o DeepProve provou uma inferência em ~2,3 segundos vs ~126,8 segundos para o Ezkl (~54× mais rápido). Os tempos de verificação também caíram: o DeepProve verificou a prova da CNN de 264k em ~0,6s, enquanto a verificação da prova do Ezkl (baseada em Halo2) levou mais de 5 minutos na CPU nesse teste. As acelerações vêm da complexidade quase linear do DeepProve: seu provador escala aproximadamente O(n) com o número de operações, enquanto os provadores SNARK baseados em circuito geralmente têm uma sobrecarga superlinear (FFT e compromissos polinomiais escalando). Na verdade, o throughput do provador do DeepProve pode estar dentro de uma ordem de magnitude do tempo de execução da inferência simples – sistemas GKR recentes podem ser <10× mais lentos que a execução bruta para grandes multiplicações de matrizes, uma conquista impressionante em ZK. Isso torna as provas em tempo real ou sob demanda mais viáveis, abrindo caminho para a IA verificável em aplicações interativas.

Casos de Uso: A Lagrange já está colaborando com projetos Web3 e de IA para aplicar o zkML. Exemplos de casos de uso incluem: características de NFT verificáveis (provar que uma evolução gerada por IA de um personagem de jogo ou colecionável é computada pelo modelo autorizado), proveniência de conteúdo de IA (provar que uma imagem ou texto foi gerado por um modelo específico, para combater deepfakes), modelos de risco DeFi (provar o resultado de um modelo que avalia o risco financeiro sem revelar dados proprietários) e inferência de IA privada em saúde ou finanças (onde um hospital pode obter previsões de IA com uma prova, garantindo a correção sem expor os dados do paciente). Ao tornar os resultados da IA verificáveis e que preservam a privacidade, o DeepProve abre a porta para uma “IA em que você pode confiar” em sistemas descentralizados – passando de uma era de “confiança cega em modelos de caixa-preta” para uma de “garantias objetivas”.

zkML Baseado em SNARK: Ezkl e a Abordagem Halo2

A abordagem tradicional para zkML usa zk-SNARKs (Argumentos de Conhecimento Sucintos e Não Interativos) para provar a inferência de redes neurais. Ezkl (da ZKonduit/Modulus Labs) é um exemplo líder dessa abordagem. Ele se baseia no sistema de prova Halo2 (um SNARK estilo PLONK com compromissos polinomiais sobre BLS12-381). O Ezkl fornece uma cadeia de ferramentas onde um desenvolvedor pode pegar um modelo PyTorch ou TensorFlow, exportá-lo para ONNX, e fazer com que o Ezkl o compile em um circuito aritmético personalizado automaticamente.

Como funciona: Cada camada da rede neural é convertida em restrições:

  • Camadas lineares (densa ou convolução) tornam-se coleções de restrições de multiplicação-adição que impõem os produtos escalares entre entradas, pesos e saídas.
  • Camadas não lineares (como ReLU, sigmoide, etc.) são tratadas por meio de consultas ou restrições por partes porque tais funções não são polinomiais. Por exemplo, uma ReLU pode ser implementada por um seletor booleano $b$ com restrições garantindo que $y = x \cdot b$ e $0 \le b \le 1$ e $b=1$ se $x>0$ (uma maneira de fazer isso), ou mais eficientemente por uma tabela de consulta mapeando $x \mapsto \max(0,x)$ para um intervalo de valores de $x$. Os argumentos de consulta do Halo2 permitem mapear pedaços de valores de 16 bits (ou menores), então domínios grandes (como todos os valores de 32 bits) são geralmente “divididos” em várias consultas menores. Essa divisão aumenta o número de restrições.
  • Operações com inteiros grandes ou divisões (se houver) são similarmente quebradas em pequenos pedaços. O resultado é um grande conjunto de restrições R1CS/PLONK adaptadas à arquitetura específica do modelo.

O Ezkl então usa o Halo2 para gerar uma prova de que essas restrições são válidas dadas as entradas secretas (pesos do modelo, entradas privadas) e saídas públicas. Ferramentas e integração: Uma vantagem da abordagem SNARK é que ela aproveita primitivas bem conhecidas. O Halo2 já é usado em rollups do Ethereum (por exemplo, Zcash, zkEVMs), então é testado em batalha e tem um verificador on-chain prontamente disponível. As provas do Ezkl usam a curva BLS12-381, que o Ethereum pode verificar via pré-compilações, tornando simples a verificação de uma prova do Ezkl em um contrato inteligente. A equipe também forneceu APIs amigáveis; por exemplo, cientistas de dados podem trabalhar com seus modelos em Python e usar a CLI do Ezkl para produzir provas, sem conhecimento profundo de circuitos.

Pontos Fortes: A abordagem do Ezkl se beneficia da generalidade e do ecossistema dos SNARKs. Ele suporta modelos razoavelmente complexos e já viu “integrações práticas (de modelos de risco DeFi a IA de jogos)”, provando tarefas de ML do mundo real. Como opera no nível do grafo de computação do modelo, ele pode aplicar otimizações específicas de ML: por exemplo, podar pesos insignificantes ou quantizar parâmetros para reduzir o tamanho do circuito. Isso também significa que a confidencialidade do modelo é natural – os pesos podem ser tratados como dados de testemunho privados, então o verificador só vê que algum modelo válido produziu o resultado, ou no máximo um compromisso com o modelo. A verificação de provas SNARK é extremamente rápida (tipicamente alguns milissegundos ou menos on-chain), e os tamanhos das provas são pequenos (alguns kilobytes), o que é ideal para uso em blockchain.

Pontos Fracos: O desempenho é o calcanhar de Aquiles. A prova baseada em circuito impõe grandes sobrecargas, especialmente à medida que os modelos crescem. É notado que, historicamente, os circuitos SNARK poderiam exigir um milhão de vezes mais trabalho para o provador do que apenas executar o modelo em si. O Halo2 e o Ezkl otimizam isso, mas ainda assim, operações como grandes multiplicações de matrizes geram toneladas de restrições. Se um modelo tem milhões de parâmetros, o provador deve lidar com milhões de restrições correspondentes, realizando FFTs pesadas e multiexponenciações no processo. Isso leva a altos tempos de prova (muitas vezes minutos ou horas para modelos não triviais) e alto uso de memória. Por exemplo, provar até mesmo uma CNN relativamente pequena (por exemplo, algumas centenas de milhares de parâmetros) pode levar dezenas de minutos com o Ezkl em uma única máquina. A equipe por trás do DeepProve citou que o Ezkl levou horas para certas provas de modelo que o DeepProve pode fazer em minutos. Modelos grandes podem nem caber na memória ou exigir a divisão em múltiplas provas (que então precisam de agregação recursiva). Embora o Halo2 seja “moderadamente otimizado”, qualquer necessidade de “dividir” consultas ou lidar com operações de bits largos se traduz em sobrecarga extra. Em resumo, a escalabilidade é limitada – o Ezkl funciona bem para modelos de pequeno a médio porte (e de fato superou algumas alternativas anteriores como VMs baseadas em Stark ingênuas em benchmarks), mas tem dificuldades à medida que o tamanho do modelo cresce além de um certo ponto.

Apesar desses desafios, o Ezkl e bibliotecas zkML baseadas em SNARK semelhantes são importantes marcos. Eles provaram que a inferência de ML verificada é possível on-chain e têm uso ativo. Notavelmente, projetos como a Modulus Labs demonstraram a verificação de um modelo de 18 milhões de parâmetros on-chain usando SNARKs (com otimização pesada). O custo não foi trivial, mas mostra a trajetória. Além disso, o Protocolo Mina tem seu próprio kit de ferramentas zkML que usa SNARKs para permitir que contratos inteligentes no Mina (que são baseados em Snark) verifiquem a execução de modelos de ML. Isso indica um crescente suporte multiplataforma para zkML baseado em SNARK.

Abordagens Baseadas em STARK: ZK Transparente e Programável para ML

Os zk-STARKs (Argumentos de Conhecimento Escaláveis e Transparentes) oferecem outra rota para o zkML. Os STARKs usam criptografia baseada em hash (como FRI para compromissos polinomiais) e evitam qualquer configuração confiável. Eles geralmente operam simulando uma CPU ou VM e provando que o rastro de execução está correto. No contexto de ML, pode-se construir um STARK personalizado para a rede neural ou usar uma VM STARK de propósito geral para executar o código do modelo.

VMs STARK Gerais (RISC Zero, Cairo): Uma abordagem direta é escrever o código de inferência e executá-lo em uma VM STARK. Por exemplo, a Risc0 fornece um ambiente RISC-V onde qualquer código (por exemplo, implementação em C++ ou Rust de uma rede neural) pode ser executado e provado via STARK. Da mesma forma, a linguagem Cairo da StarkWare pode expressar computações arbitrárias (como uma inferência de LSTM ou CNN) que são então provadas pelo provador STARK da StarkNet. A vantagem é a flexibilidade – você não precisa projetar circuitos personalizados para cada modelo. No entanto, benchmarks iniciais mostraram que VMs STARK ingênuas eram mais lentas em comparação com circuitos SNARK otimizados para ML. Em um teste, uma prova baseada em Halo2 (Ezkl) foi cerca de 3× mais rápida que uma abordagem baseada em STARK no Cairo, e até 66× mais rápida que uma VM STARK RISC-V em um certo benchmark em 2024. Essa diferença se deve à sobrecarga de simular cada instrução de baixo nível em um STARK e às constantes maiores nas provas STARK (hashing é rápido, mas você precisa de muito; os tamanhos das provas STARK são maiores, etc.). No entanto, as VMs STARK estão melhorando e têm o benefício da configuração transparente (sem configuração confiável) e segurança pós-quântica. À medida que o hardware e os protocolos amigáveis a STARK avançam, as velocidades de prova melhorarão.

A abordagem do DeepProve vs STARK: Curiosamente, o uso de GKR e sum-check pelo DeepProve produz uma prova mais parecida com um STARK em espírito – é uma prova interativa, baseada em hash, sem a necessidade de uma string de referência estruturada. A desvantagem é que suas provas são maiores e a verificação é mais pesada que a de um SNARK. No entanto, o DeepProve mostra que um design de protocolo cuidadoso (especializado na estrutura em camadas do ML) pode superar vastamente tanto as VMs STARK genéricas quanto os circuitos SNARK em tempo de prova. Podemos considerar o DeepProve como um provador zkML estilo STARK personalizado (embora eles usem o termo zkSNARK por sucinto, ele não tem a verificação de tamanho constante pequena de um SNARK tradicional, já que 0,5s para verificar é maior que a verificação típica de um SNARK). Provas STARK tradicionais (como as da StarkNet) geralmente envolvem dezenas de milhares de operações de campo para verificar, enquanto um SNARK verifica em talvez algumas dezenas. Assim, uma troca é evidente: SNARKs produzem provas menores e verificadores mais rápidos, enquanto STARKs (ou GKR) oferecem escalabilidade mais fácil e nenhuma configuração confiável ao custo do tamanho da prova e da velocidade de verificação.

Melhorias Emergentes: A zkVM JOLT (discutida anteriormente em JOLTx) está na verdade produzindo SNARKs (usando compromissos do tipo PLONK), mas incorpora ideias que poderiam ser aplicadas também no contexto STARK (consultas Lasso poderiam teoricamente ser usadas com compromissos FRI). A StarkWare e outros estão pesquisando maneiras de acelerar a prova de operações comuns (como usar portões personalizados ou dicas no Cairo para operações com inteiros grandes, etc.). Há também a Circomlib-ML da Privacy & Scaling Explorations (PSE), que fornece modelos Circom para camadas de CNN, etc. – isso é orientado para SNARK, mas modelos conceitualmente semelhantes poderiam ser feitos para linguagens STARK.

Na prática, ecossistemas não-Ethereum que utilizam STARKs incluem a StarkNet (que poderia permitir a verificação on-chain de ML se alguém escrevesse um verificador, embora o custo seja alto) e o serviço Bonsai da Risc0 (que é um serviço de prova off-chain que emite provas STARK que podem ser verificadas em várias cadeias). A partir de 2025, a maioria das demonstrações de zkML em blockchain favoreceu os SNARKs (devido à eficiência do verificador), mas as abordagens STARK permanecem atraentes por sua transparência e potencial em cenários de alta segurança ou resistentes à computação quântica. Por exemplo, uma rede de computação descentralizada pode usar STARKs para permitir que qualquer pessoa verifique o trabalho sem uma configuração confiável, útil para a longevidade. Além disso, algumas tarefas de ML especializadas podem explorar estruturas amigáveis a STARK: por exemplo, computações que usam intensivamente operações XOR/bit podem ser mais rápidas em STARKs (já que são baratas em álgebra booleana e hashing) do que na aritmética de campo de SNARKs.

Resumo de SNARK vs STARK para ML:

  • Desempenho: SNARKs (como Halo2) têm uma enorme sobrecarga de prova por portão, mas se beneficiam de otimizações poderosas e constantes pequenas para verificação; STARKs (genéricos) têm uma sobrecarga constante maior, mas escalam de forma mais linear e evitam criptografia cara como emparelhamentos. O DeepProve mostra que personalizar a abordagem (sum-check) resulta em tempo de prova quase linear (rápido), mas com uma prova semelhante a um STARK. O JOLT mostra que até mesmo uma VM geral pode ser tornada mais rápida com o uso intensivo de consultas. Empiricamente, para modelos com até milhões de operações: um SNARK bem otimizado (Ezkl) pode lidar com isso, mas pode levar dezenas de minutos, enquanto o DeepProve (GKR) pode fazê-lo em segundos. As VMs STARK em 2024 eram provavelmente intermediárias ou piores que os SNARKs, a menos que especializadas (Risc0 foi mais lento nos testes, Cairo foi mais lento sem dicas personalizadas).
  • Verificação: As provas SNARK são verificadas mais rapidamente (milissegundos, e dados mínimos on-chain ~ algumas centenas de bytes a alguns KB). As provas STARK são maiores (dezenas de KB) e levam mais tempo (dezenas de ms a segundos) para verificar devido a muitos passos de hashing. Em termos de blockchain, uma verificação de SNARK pode custar, por exemplo, ~200k de gás, enquanto uma verificação de STARK pode custar milhões de gás – muitas vezes alto demais para L1, aceitável em L2 ou com esquemas de verificação sucintos.
  • Configuração e Segurança: SNARKs como Groth16 exigem uma configuração confiável por circuito (pouco amigável para modelos arbitrários), mas SNARKs universais (PLONK, Halo2) têm uma configuração única que pode ser reutilizada para qualquer circuito até um certo tamanho. STARKs não precisam de configuração e usam apenas suposições de hash (além de suposições clássicas de complexidade polinomial), e são seguros pós-quânticos. Isso torna os STARKs atraentes para a longevidade – as provas permanecem seguras mesmo que surjam computadores quânticos, enquanto os SNARKs atuais (baseados em BLS12-381) seriam quebrados por ataques quânticos.

Consolidaremos essas diferenças em uma tabela de comparação em breve.

FHE para ML (FHE-o-ML): Computação Privada vs. Computação Verificável

A Criptografia Totalmente Homomórfica (FHE) é uma técnica criptográfica que permite que computações sejam realizadas diretamente em dados criptografados. No contexto de ML, a FHE pode permitir uma forma de inferência que preserva a privacidade: por exemplo, um cliente pode enviar uma entrada criptografada para um host de modelo, o host executa a rede neural no texto cifrado sem descriptografá-lo e envia de volta um resultado criptografado que o cliente pode descriptografar. Isso garante a confidencialidade dos dados – o proprietário do modelo não aprende nada sobre a entrada (e potencialmente o cliente aprende apenas o resultado, não os detalhes internos do modelo se receber apenas o resultado). No entanto, a FHE por si só não produz uma prova de correção da mesma forma que as ZKPs. O cliente deve confiar que o proprietário do modelo realmente realizou a computação honestamente (o texto cifrado poderia ter sido manipulado). Geralmente, se o cliente tem o modelo ou espera uma certa distribuição de resultados, trapaças flagrantes podem ser detectadas, mas erros sutis ou o uso de uma versão errada do modelo não seriam evidentes apenas a partir do resultado criptografado.

Compromissos no desempenho: A FHE é notoriamente pesada em computação. Executar inferência de aprendizado profundo sob FHE acarreta uma desaceleração de ordens de magnitude. Experimentos iniciais (por exemplo, CryptoNets em 2016) levaram dezenas de segundos para avaliar uma pequena CNN em dados criptografados. Em 2024, melhorias como CKKS (para aritmética aproximada) e bibliotecas melhores (Microsoft SEAL, Concrete da Zama) reduziram essa sobrecarga, mas ela permanece grande. Por exemplo, um usuário relatou que usar o Concrete-ML da Zama para executar um classificador CIFAR-10 levou 25–30 minutos por inferência em seu hardware. Após otimizações, a equipe da Zama alcançou ~40 segundos para essa inferência em um servidor de 192 núcleos. Mesmo 40s é extremamente lento em comparação com uma inferência em texto plano (que pode ser 0,01s), mostrando uma sobrecarga de ~$10^3–\10^4\times$. Modelos maiores ou maior precisão aumentam ainda mais o custo. Além disso, as operações FHE consomem muita memória e exigem bootstrapping ocasional (um passo de redução de ruído) que é computacionalmente caro. Em resumo, a escalabilidade é um grande problema – a FHE de ponta pode lidar com uma pequena CNN ou uma regressão logística simples, mas escalar para grandes CNNs ou Transformers está além dos limites práticos atuais.

Vantagens de privacidade: O grande apelo da FHE é a privacidade dos dados. A entrada pode permanecer completamente criptografada durante todo o processo. Isso significa que um servidor não confiável pode computar sobre os dados privados de um cliente sem aprender nada sobre eles. Por outro lado, se o modelo for sensível (proprietário), pode-se imaginar criptografar os parâmetros do modelo e fazer com que o cliente realize a inferência FHE do seu lado – mas isso é menos comum porque se o cliente tiver que fazer a computação FHE pesada, isso nega a ideia de descarregar para um servidor poderoso. Tipicamente, o modelo é público ou mantido pelo servidor em texto claro, e os dados são criptografados pela chave do cliente. A privacidade do modelo nesse cenário não é fornecida por padrão (o servidor conhece o modelo; o cliente aprende os resultados, mas não os pesos). Existem configurações mais exóticas (como computação segura de duas partes ou FHE multi-chave) onde tanto o modelo quanto os dados podem ser mantidos privados um do outro, mas isso acarreta ainda mais complexidade. Em contraste, o zkML via ZKPs pode garantir a privacidade do modelo e a privacidade dos dados ao mesmo tempo – o provador pode ter tanto o modelo quanto os dados como testemunho secreto, revelando apenas o que é necessário para o verificador.

Nenhuma verificação on-chain necessária (e nenhuma possível): Com a FHE, o resultado sai criptografado para o cliente. O cliente então o descriptografa para obter a previsão real. Se quisermos usar esse resultado on-chain, o cliente (ou quem quer que detenha a chave de descriptografia) teria que publicar o resultado em texto plano e convencer os outros de que está correto. Mas nesse ponto, a confiança volta a ser um problema – a menos que combinada com uma ZKP. Em princípio, poder-se-ia combinar FHE e ZKP: por exemplo, usar FHE para manter os dados privados durante a computação e, em seguida, gerar uma prova ZK de que o resultado em texto plano corresponde a uma computação correta. No entanto, combiná-los significa que você paga a penalidade de desempenho da FHE e da ZKP – extremamente impraticável com a tecnologia de hoje. Assim, na prática, FHE-de-ML e zkML servem a casos de uso diferentes:

  • FHE-de-ML: Ideal quando o objetivo é a confidencialidade entre duas partes (cliente e servidor). Por exemplo, um serviço em nuvem pode hospedar um modelo de ML e os usuários podem consultá-lo com seus dados sensíveis sem revelar os dados para a nuvem (e se o modelo for sensível, talvez implantá-lo via codificações amigáveis à FHE). Isso é ótimo para serviços de ML que preservam a privacidade (previsões médicas, etc.). O usuário ainda tem que confiar no serviço para executar fielmente o modelo (já que não há prova), mas pelo menos qualquer vazamento de dados é evitado. Alguns projetos como a Zama estão até explorando uma “EVM habilitada para FHE (fhEVM)” onde contratos inteligentes poderiam operar em entradas criptografadas, mas verificar essas computações on-chain exigiria que o contrato de alguma forma impusesse a computação correta – um desafio aberto que provavelmente requer provas ZK ou hardware seguro especializado.
  • zkML (ZKPs): Ideal quando o objetivo é a verificabilidade e auditabilidade pública. Se você quer que qualquer pessoa (ou qualquer contrato) tenha certeza de que “O modelo $M$ foi avaliado corretamente em $X$ e produziu $Y$”, as ZKPs são a solução. Elas também fornecem privacidade como um bônus (você pode esconder $X$ ou $Y$ ou $M$ se necessário, tratando-os como entradas privadas para a prova), mas sua principal característica é a prova de execução correta.

Uma relação complementar: Vale a pena notar que as ZKPs protegem o verificador (eles não aprendem nada sobre segredos, apenas que a computação foi feita corretamente), enquanto a FHE protege os dados do provador da parte que computa. Em alguns cenários, eles poderiam ser combinados – por exemplo, uma rede de nós não confiáveis poderia usar FHE para computar sobre os dados privados dos usuários e, em seguida, fornecer provas ZK aos usuários (ou à blockchain) de que as computações foram feitas de acordo com o protocolo. Isso cobriria tanto a privacidade quanto a correção, mas o custo de desempenho é enorme com os algoritmos de hoje. Mais viáveis a curto prazo são híbridos como Ambientes de Execução Confiáveis (TEE) mais ZKP ou Criptografia Funcional mais ZKP – estes estão além do nosso escopo, mas visam fornecer algo semelhante (TEEs mantêm dados/modelo secretos durante a computação, então uma ZKP pode atestar que o TEE fez a coisa certa).

Em resumo, FHE-de-ML prioriza a confidencialidade de entradas/saídas, enquanto zkML prioriza a correção verificável (com possível privacidade). A Tabela 1 abaixo contrasta as propriedades-chave:

AbordagemDesempenho do Provador (Inferência e Prova)Tamanho da Prova e VerificaçãoRecursos de PrivacidadeConfiguração Confiável?Pós-Quântico?
zk-SNARK (Halo2, Groth16, PLONK, etc)Sobrecarga pesada para o provador (até 10^6× o tempo de execução normal sem otimizações; na prática 10^3–10^5×). Otimizado para modelo/circuito específico; tempo de prova em minutos para modelos médios, horas para grandes. SNARKs zkML recentes (DeepProve com GKR) melhoram vastamente isso (sobrecarga quase linear, por exemplo, segundos em vez de minutos para modelos de milhões de parâmetros).Provas muito pequenas (geralmente < 100 KB, às vezes ~alguns KB). A verificação é rápida: alguns emparelhamentos ou avaliações polinomiais (tipicamente < 50 ms on-chain). As provas baseadas em GKR do DeepProve são maiores (dezenas–centenas de KB) e verificam em ~0,5 s (ainda muito mais rápido que reexecutar o modelo).Confidencialidade dos dados: Sim – as entradas podem ser privadas na prova (não reveladas). Privacidade do modelo: Sim – o provador pode se comprometer com os pesos do modelo e não revelá-los. Ocultação do resultado: Opcional – a prova pode ser de uma declaração sem revelar o resultado (por exemplo, “o resultado tem a propriedade P”). No entanto, se o próprio resultado for necessário on-chain, ele geralmente se torna público. No geral, os SNARKs oferecem flexibilidade total de conhecimento zero (oculte as partes que desejar).Depende do esquema. Groth16/EZKL exigem uma configuração confiável por circuito; PLONK/Halo2 usam uma configuração universal (uma vez). O sum-check GKR do DeepProve é transparente (sem configuração) – um bônus desse design.Os SNARKs clássicos (curvas BLS12-381) não são seguros contra PQC (vulneráveis a ataques quânticos ao logaritmo discreto de curva elíptica). Alguns SNARKs mais recentes usam compromissos seguros contra PQC, mas Halo2/PLONK como usados no Ezkl não são seguros contra PQC. O GKR (DeepProve) usa compromissos de hash (por exemplo, Poseidon/Merkle) que são conjecturados como seguros contra PQC (confiando na resistência à pré-imagem de hash).
zk-STARK (FRI, prova baseada em hash)A sobrecarga do provador é alta, mas com escalonamento mais linear. Tipicamente 10^2–10^4× mais lento que o nativo para tarefas grandes, com espaço para paralelizar. VMs STARK gerais (Risc0, Cairo) tiveram desempenho mais lento vs SNARK para ML em 2024 (por exemplo, 3×–66× mais lento que Halo2 em alguns casos). STARKs especializados (ou GKR) podem se aproximar da sobrecarga linear e superar os SNARKs para circuitos grandes.As provas são maiores: geralmente dezenas de KB (crescendo com o tamanho do circuito/log(n)). O verificador deve fazer múltiplas verificações de hash e FFT – tempo de verificação ~O(n^ε) para ε pequeno (por exemplo, ~50 ms a 500 ms dependendo do tamanho da prova). On-chain, isso é mais caro (o verificador L1 da StarkWare pode levar milhões de gás por prova). Alguns STARKs suportam provas recursivas para comprimir o tamanho, ao custo do tempo do provador.Privacidade de dados e modelo: Um STARK pode ser tornado de conhecimento zero randomizando os dados do rastro (adicionando ofuscação às avaliações polinomiais), então ele pode ocultar entradas privadas de forma semelhante ao SNARK. Muitas implementações de STARK focam na integridade, mas variantes zk-STARK permitem privacidade. Então, sim, eles podem ocultar entradas/modelos como os SNARKs. Ocultação do resultado: da mesma forma, possível em teoria (o provador não declara o resultado como público), mas raramente usado, já que geralmente o resultado é o que queremos revelar/verificar.Sem configuração confiável. A transparência é uma marca registrada dos STARKs – exigem apenas uma string aleatória comum (que o Fiat-Shamir pode derivar). Isso os torna atraentes para uso aberto (qualquer modelo, a qualquer momento, sem cerimônia por modelo).Sim, os STARKs dependem de suposições de segurança de hash e teóricas da informação (como oráculo aleatório e dificuldade de certas decodificações de palavras-código em FRI). Acredita-se que sejam seguros contra adversários quânticos. As provas STARK são, portanto, resistentes a PQC, uma vantagem para a IA verificável à prova de futuro.
FHE para ML (Criptografia Totalmente Homomórfica aplicada à inferência)Provador = parte que faz a computação em dados criptografados. O tempo de computação é extremamente alto: 10^3–10^5× mais lento que a inferência em texto plano é comum. Hardware de ponta (servidores com muitos núcleos, FPGA, etc.) pode mitigar isso. Algumas otimizações (inferência de baixa precisão, parâmetros FHE nivelados) podem reduzir a sobrecarga, mas há um impacto fundamental no desempenho. A FHE é atualmente prática para modelos pequenos ou modelos lineares simples; redes profundas permanecem desafiadoras além de tamanhos de brinquedo.Nenhuma prova gerada. O resultado é uma saída criptografada. A Verificação no sentido de checar a correção não é fornecida apenas pela FHE – confia-se na parte que computa para não trapacear. (Se combinado com hardware seguro, pode-se obter uma atestação; caso contrário, um servidor malicioso poderia retornar um resultado criptografado incorreto que o cliente descriptografaria para a saída errada sem saber a diferença).Confidencialidade dos dados: Sim – a entrada é criptografada, então a parte que computa não aprende nada sobre ela. Privacidade do modelo: Se o proprietário do modelo está fazendo a computação na entrada criptografada, o modelo está em texto plano do seu lado (não protegido). Se os papéis forem invertidos (cliente detém o modelo criptografado e o servidor computa), o modelo poderia ser mantido criptografado, mas este cenário é menos comum. Existem técnicas como ML seguro de duas partes que combinam FHE/MPC para proteger ambos, mas isso vai além da FHE simples. Ocultação do resultado: Por padrão, o resultado da computação é criptografado (apenas descriptografável pela parte com a chave secreta, geralmente o proprietário da entrada). Portanto, o resultado fica oculto do servidor de computação. Se quisermos o resultado público, o cliente pode descriptografar e revelá-lo.Nenhuma configuração necessária. Cada usuário gera seu próprio par de chaves para criptografia. A confiança depende de as chaves permanecerem secretas.A segurança dos esquemas FHE (por exemplo, BFV, CKKS, TFHE) é baseada em problemas de reticulado (Learning With Errors), que se acredita serem resistentes a ataques quânticos (pelo menos nenhum algoritmo quântico eficiente é conhecido). Portanto, a FHE é geralmente considerada segura pós-quântica.

Tabela 1: Comparação das abordagens zk-SNARK, zk-STARK e FHE para inferência de machine learning (compromissos de desempenho e privacidade).

Casos de Uso e Implicações para Aplicações Web3

A convergência de IA e blockchain via zkML desbloqueia novos e poderosos padrões de aplicação na Web3:

  • Agentes Autônomos Descentralizados e Tomada de Decisão On-Chain: Contratos inteligentes ou DAOs podem incorporar decisões impulsionadas por IA com garantias de correção. Por exemplo, imagine uma DAO que usa uma rede neural para analisar as condições de mercado antes de executar negociações. Com o zkML, o contrato inteligente da DAO pode exigir uma prova zkSNARK de que o modelo de ML autorizado (com um compromisso de hash conhecido) foi executado nos dados mais recentes e produziu a ação recomendada, antes que a ação seja aceita. Isso impede que atores maliciosos injetem uma previsão falsa – a cadeia verifica a computação da IA. Com o tempo, poderíamos até ter agentes autônomos totalmente on-chain (contratos que consultam IA off-chain ou contêm modelos simplificados) tomando decisões em DeFi ou jogos, com todos os seus movimentos provados corretos e em conformidade com as políticas via provas ZK. Isso aumenta a confiança em agentes autônomos, já que seu “pensamento” é transparente e verificável, em vez de uma caixa-preta.

  • Mercados de Computação Verificável: Projetos como a Lagrange estão efetivamente criando mercados de computação verificável – desenvolvedores podem terceirizar a inferência pesada de ML para uma rede de provadores e receber de volta uma prova com o resultado. Isso é análogo à computação em nuvem descentralizada, mas com confiança embutida: você não precisa confiar no servidor, apenas na prova. É uma mudança de paradigma para oráculos e computação off-chain. Protocolos como o futuro DSC (camada de sequenciamento descentralizada) do Ethereum ou redes de oráculos poderiam usar isso para fornecer feeds de dados ou feeds analíticos com garantias criptográficas. Por exemplo, um oráculo poderia fornecer “o resultado do modelo X na entrada Y” e qualquer pessoa pode verificar a prova anexada on-chain, em vez de confiar na palavra do oráculo. Isso poderia permitir uma IA-como-serviço verificável na blockchain: qualquer contrato pode solicitar uma computação (como “pontue esses riscos de crédito com meu modelo privado”) e aceitar a resposta apenas com uma prova válida. Projetos como a Gensyn estão explorando mercados de treinamento e inferência descentralizados usando essas técnicas de verificação.

  • NFTs e Jogos – Proveniência e Evolução: Em jogos de blockchain ou colecionáveis NFT, o zkML pode provar que traços ou movimentos de jogo foram gerados por modelos de IA legítimos. Por exemplo, um jogo pode permitir que uma IA evolua os atributos de um pet NFT. Sem ZK, um usuário esperto poderia modificar a IA ou o resultado para obter um pet superior. Com o zkML, o jogo pode exigir uma prova de que “as novas estatísticas do pet foram computadas pelo modelo de evolução oficial sobre as estatísticas antigas do pet”, prevenindo trapaças. O mesmo vale para NFTs de arte generativa: um artista poderia lançar um modelo generativo como um compromisso; mais tarde, ao cunhar NFTs, provar que cada imagem foi produzida por aquele modelo dado alguma semente, garantindo a autenticidade (e até mesmo fazendo isso sem revelar o modelo exato ao público, preservando a propriedade intelectual do artista). Essa verificação de proveniência garante a autenticidade de uma maneira semelhante à aleatoriedade verificável – exceto que aqui é criatividade verificável.

  • IA que Preserva a Privacidade em Domínios Sensíveis: O zkML permite a confirmação de resultados sem expor as entradas. Na área da saúde, os dados de um paciente poderiam ser processados por um modelo de diagnóstico de IA por um provedor de nuvem; o hospital recebe um diagnóstico e uma prova de que o modelo (que poderia ser de propriedade privada de uma empresa farmacêutica) foi executado corretamente nos dados do paciente. Os dados do paciente permanecem privados (apenas uma forma criptografada ou comprometida foi usada na prova), e os pesos do modelo permanecem proprietários – ainda assim, o resultado é confiável. Reguladores ou seguradoras também poderiam verificar que apenas modelos aprovados foram usados. Em finanças, uma empresa poderia provar a um auditor ou regulador que seu modelo de risco foi aplicado aos seus dados internos e produziu certas métricas sem revelar os dados financeiros sensíveis subjacentes. Isso permite conformidade e supervisão com garantias criptográficas em vez de confiança manual.

  • Interoperabilidade Cross-Chain e Off-Chain: Como as provas de conhecimento zero são fundamentalmente portáteis, o zkML pode facilitar resultados de IA cross-chain. Uma cadeia pode ter uma aplicação intensiva em IA rodando off-chain; ela pode postar uma prova do resultado em uma blockchain diferente, que o aceitará sem necessidade de confiança. Por exemplo, considere uma DAO multi-chain usando uma IA para agregar o sentimento nas redes sociais (dados off-chain). A análise de IA (PNL complexa em grandes dados) é feita off-chain por um serviço que então posta uma prova em uma pequena blockchain (ou múltiplas cadeias) de que “a análise foi feita corretamente e o resultado do sentimento = 0,85”. Todas as cadeias podem verificar e usar esse resultado em sua lógica de governança, sem que cada uma precise reexecutar a análise. Esse tipo de computação verificável interoperável é o que a rede da Lagrange visa suportar, servindo múltiplos rollups ou L1s simultaneamente. Isso remove a necessidade de pontes confiáveis ou suposições de oráculos ao mover resultados entre cadeias.

  • Alinhamento e Governança de IA: Em uma nota mais futurista, o zkML foi destacado como uma ferramenta para a governança e segurança de IA. As declarações de visão da Lagrange, por exemplo, argumentam que à medida que os sistemas de IA se tornam mais poderosos (até mesmo superinteligentes), a verificação criptográfica será essencial para garantir que eles sigam regras acordadas. Ao exigir que os modelos de IA produzam provas de seu raciocínio ou restrições, os humanos mantêm um grau de controle – “você não pode confiar no que não pode verificar”. Embora isso seja especulativo e envolva tanto aspectos sociais quanto técnicos, a tecnologia poderia impor que um agente de IA rodando autonomamente ainda prove que está usando um modelo aprovado e não foi adulterado. Redes de IA descentralizadas podem usar provas on-chain para verificar contribuições (por exemplo, uma rede de nós treinando colaborativamente um modelo pode provar que cada atualização foi computada fielmente). Assim, o zkML poderia desempenhar um papel em garantir que os sistemas de IA permaneçam responsáveis perante protocolos definidos por humanos, mesmo em ambientes descentralizados ou não controlados.

Em conclusão, o zkML e a IA verificável on-chain representam uma convergência de criptografia avançada e machine learning que promete aumentar a confiança, a transparência e a privacidade em aplicações de IA. Ao comparar as principais abordagens – zk-SNARKs, zk-STARKs e FHE – vemos um espectro de compromissos entre desempenho e privacidade, cada um adequado para diferentes cenários. Estruturas baseadas em SNARK como o Ezkl e inovações como o DeepProve da Lagrange tornaram viável provar inferências substanciais de redes neurais com esforço prático, abrindo a porta para implantações de IA verificável no mundo real. Abordagens baseadas em STARK e VM prometem maior flexibilidade e segurança pós-quântica, que se tornarão importantes à medida que o campo amadurece. A FHE, embora não seja uma solução para a verificabilidade, aborda a necessidade complementar de computação de ML confidencial e, em combinação com ZKPs ou em contextos privados específicos, pode capacitar os usuários a alavancar a IA sem sacrificar a privacidade dos dados.

As implicações para a Web3 são significativas: podemos prever contratos inteligentes reagindo a previsões de IA, sabendo que estão corretas; mercados de computação onde os resultados são vendidos sem necessidade de confiança; identidades digitais (como a prova de humanidade da Worldcoin via IA de íris) protegidas por zkML para confirmar que alguém é humano sem vazar sua imagem biométrica; e, em geral, uma nova classe de “inteligência provável” que enriquece as aplicações de blockchain. Muitos desafios permanecem – desempenho para modelos muito grandes, ergonomia do desenvolvedor e a necessidade de hardware especializado – mas a trajetória é clara. Como um relatório observou, “as ZKPs de hoje podem suportar modelos pequenos, mas modelos de moderados a grandes quebram o paradigma”; no entanto, avanços rápidos (acelerações de 50×–150× com o DeepProve sobre a arte anterior) estão empurrando essa fronteira para fora. Com a pesquisa contínua (por exemplo, em aceleração de hardware e prova distribuída), podemos esperar que modelos de IA progressivamente maiores e mais complexos se tornem prováveis. O zkML pode em breve evoluir de demonstrações de nicho para um componente essencial da infraestrutura de IA confiável, garantindo que, à medida que a IA se torna onipresente, o faça de uma maneira que seja auditável, descentralizada e alinhada com a privacidade e segurança do usuário.

ETHDenver 2025: Principais Tendências e Insights da Web3 do Festival

· Leitura de 27 minutos

A ETHDenver 2025, com a marca do “Ano dos Regenerados”, consolidou seu status como uma das maiores reuniões Web3 do mundo. Abrangendo a BUIDLWeek (23 a 26 de fevereiro), o Evento Principal (27 de fevereiro a 2 de março) e um Retiro na Montanha pós-conferência, o festival atraiu uma expectativa de mais de 25.000 participantes. Construtores, desenvolvedores, investidores e criativos de mais de 125 países convergiram em Denver para celebrar o ethos de descentralização e inovação do Ethereum. Fiel às suas raízes comunitárias, a ETHDenver permaneceu gratuita, financiada pela comunidade e repleta de conteúdo – de hackathons e workshops a painéis, eventos de pitch e festas. A tradição do evento dos “Regenerados” defendendo a descentralização estabeleceu um tom que enfatizou os bens públicos e a construção colaborativa, mesmo em meio a um cenário tecnológico competitivo. O resultado foi uma semana de atividade de construtores de alta energia e discussões voltadas para o futuro, oferecendo um panorama das tendências emergentes da Web3 e insights acionáveis para profissionais da indústria.

ETHDenver 2025

Tendências Emergentes da Web3 Destacadas pelos Palestrantes

Nenhuma narrativa única dominou a ETHDenver 2025 – em vez disso, um amplo espectro de tendências da Web3 tomou o centro do palco. Ao contrário do ano passado (quando o restaking via EigenLayer roubou a cena), a agenda de 2025 foi uma mistura de tudo: desde redes de infraestrutura física descentralizada (DePIN) a agentes de IA, da conformidade regulatória à tokenização de ativos do mundo real (RWA), além de privacidade, interoperabilidade e muito mais. De fato, o fundador da ETHDenver, John Paller, abordou as preocupações sobre o conteúdo multi-chain, observando que “95%+ dos nossos patrocinadores e 90% do conteúdo é alinhado com ETH/EVM” – ainda assim, a presença de ecossistemas não-Ethereum ressaltou a interoperabilidade como um tema chave. Palestrantes importantes refletiram essas áreas de tendência: por exemplo, zk-rollup e escalabilidade de Camada 2 foi destacado por Alex Gluchowski (CEO da Matter Labs/zkSync), enquanto a inovação multi-chain veio de Adeniyi Abiodun da Mysten Labs (Sui) e Albert Chon da Injective.

A convergência de IA e Web3 emergiu como uma forte corrente subjacente. Inúmeras palestras e eventos paralelos focaram em agentes de IA descentralizados e cruzamentos “DeFi+IA”. Um AI Agent Day dedicado exibiu demos de IA on-chain, e um coletivo de 14 equipes (incluindo o kit de desenvolvedor da Coinbase e a unidade de IA da NEAR) anunciou a Open Agents Alliance (OAA) – uma iniciativa para fornecer acesso a IA livre e sem permissão, agrupando a infraestrutura Web3. Isso indica um interesse crescente em agentes autônomos e dApps impulsionados por IA como uma fronteira para os construtores. De mãos dadas com a IA, DePIN (infraestrutura física descentralizada) foi outro termo em voga: múltiplos painéis (por exemplo, Day of DePIN, DePIN Summit) exploraram projetos que conectam a blockchain com redes físicas (de telecomunicações a mobilidade).

A Cuckoo AI Network fez sucesso na ETHDenver 2025, apresentando seu inovador marketplace descentralizado de modelos de IA projetado para criadores e desenvolvedores. Com uma presença marcante tanto no hackathon quanto nos eventos paralelos liderados pela comunidade, a Cuckoo AI atraiu atenção significativa de desenvolvedores intrigados por sua capacidade de monetizar recursos de GPU/CPU e integrar facilmente APIs de IA on-chain. Durante seu workshop dedicado e sessão de networking, a Cuckoo AI destacou como a infraestrutura descentralizada poderia democratizar eficientemente o acesso a serviços avançados de IA. Isso se alinha diretamente com as tendências mais amplas do evento — particularmente a interseção da blockchain com IA, DePIN e financiamento de bens públicos. Para investidores e desenvolvedores na ETHDenver, a Cuckoo AI emergiu como um exemplo claro de como abordagens descentralizadas podem impulsionar a próxima geração de dApps e infraestrutura movidos a IA, posicionando-se como uma oportunidade de investimento atraente dentro do ecossistema Web3.

Privacidade, identidade e segurança permaneceram como prioridades. Palestrantes e workshops abordaram tópicos como provas de conhecimento zero (presença da zkSync), gerenciamento de identidade e credenciais verificáveis (uma trilha dedicada de Privacidade & Segurança estava no hackathon), e questões legais/regulatórias (uma cúpula jurídica on-chain fez parte das trilhas do festival). Outra discussão notável foi o futuro do levantamento de fundos e a descentralização do financiamento: um debate no Palco Principal entre Haseeb Qureshi da Dragonfly Capital e Matt O’Connor da Legion (uma plataforma “semelhante a ICO”) sobre ICOs vs. financiamento de VC cativou os participantes. Este debate destacou modelos emergentes, como vendas de tokens comunitários, desafiando as rotas tradicionais de VC – uma tendência importante para startups Web3 que navegam na captação de capital. A lição para os profissionais é clara: a Web3 em 2025 é multidisciplinar – abrangendo finanças, IA, ativos reais e cultura – e manter-se informado significa olhar além de qualquer ciclo de hype para o espectro completo da inovação.

Patrocinadores e Suas Áreas de Foco Estratégico

A lista de patrocinadores da ETHDenver em 2025 parece um quem é quem das camadas-1, camadas-2 e projetos de infraestrutura Web3 – cada um aproveitando o evento para avançar em seus objetivos estratégicos. Protocolos cross-chain e multi-chain tiveram uma forte presença. Por exemplo, a Polkadot foi um dos principais patrocinadores com um robusto pool de recompensas de US80mil,incentivandoconstrutoresacriarDAppseappchainscrosschain.Damesmaforma,BNBChain,Flow,HederaeBase(aL2daCoinbase)ofereceramcadaumateˊUS 80 mil, incentivando construtores a criar DApps e appchains cross-chain. Da mesma forma, **BNB Chain, Flow, Hedera e Base (a L2 da Coinbase)** ofereceram cada um até US 50 mil para projetos que se integrassem com seus ecossistemas, sinalizando seu esforço para atrair desenvolvedores Ethereum. Até mesmo ecossistemas tradicionalmente separados como Solana e Internet Computer participaram com desafios patrocinados (por exemplo, Solana co-organizou um evento DePIN, e a Internet Computer ofereceu uma recompensa “Só é possível na ICP”). Essa presença entre ecossistemas gerou algum escrutínio da comunidade, mas a equipe da ETHDenver observou que a grande maioria do conteúdo permaneceu alinhada ao Ethereum. O efeito líquido foi que a interoperabilidade se tornou um tema central – os patrocinadores visavam posicionar suas plataformas como extensões complementares do universo Ethereum.

Soluções de escalabilidade e provedores de infraestrutura também estiveram em destaque. As principais L2s do Ethereum, como Optimism e Arbitrum, tinham grandes estandes e desafios patrocinados (as recompensas da Optimism chegavam a US40mil),reforc\candoseufocoemintegrardesenvolvedoresaosrollups.NovosparticipantescomoZkSynceZircuit(umprojetoqueexibeumaabordagemderollupL2)enfatizaramatecnologiadeconhecimentozeroeateˊcontribuıˊramcomSDKs(aZkSyncpromoveuseuSmartSignOnSDKparaloginamigaˊvel,queasequipesdohackathonusaramcomentusiasmo).RestakingeinfraestruturadeblockchainmodularfoioutrointeressedospatrocinadoresaEigenLayer(pioneiraemrestaking)tevesuaproˊpriatrilhadeUS 40 mil), reforçando seu foco em integrar desenvolvedores aos rollups. Novos participantes como **ZkSync e Zircuit** (um projeto que exibe uma abordagem de rollup L2) enfatizaram a tecnologia de conhecimento zero e até contribuíram com SDKs (a ZkSync promoveu seu Smart Sign-On SDK para login amigável, que as equipes do hackathon usaram com entusiasmo). **Restaking e infraestrutura de blockchain modular** foi outro interesse dos patrocinadores – a **EigenLayer** (pioneira em restaking) teve sua própria trilha de US 50 mil e até co-organizou um evento sobre “Restaking & DeFAI (IA Descentralizada)”, unindo seu modelo de segurança com tópicos de IA. Oráculos e middleware de interoperabilidade foram representados por nomes como Chainlink e Wormhole, cada um emitindo recompensas pelo uso de seus protocolos.

Notavelmente, aplicações de consumo e ferramentas Web3 tiveram apoio de patrocinadores para melhorar a experiência do usuário. A presença da Uniswap – completa com um dos maiores estandes – não foi apenas para exibição: a gigante de DeFi usou o evento para anunciar novos recursos de carteira, como rampas de saída de fiat integradas, alinhando-se com seu foco de patrocínio na usabilidade de DeFi. Plataformas focadas em identidade e comunidade como Galxe (Gravity) e Lens Protocol patrocinaram desafios em torno de credenciais e redes sociais on-chain. Até mesmo empresas de tecnologia tradicionais sinalizaram interesse: PayPal e Google Cloud organizaram um happy hour sobre stablecoins/pagamentos para discutir o futuro dos pagamentos em cripto. Essa mistura de patrocinadores mostra que os interesses estratégicos variaram da infraestrutura principal às aplicações para o usuário final – todos convergindo na ETHDenver para fornecer recursos (APIs, SDKs, subsídios) aos desenvolvedores. Para os profissionais da Web3, o forte patrocínio de camadas-1, camadas-2 e até mesmo de fintechs da Web2 destaca onde a indústria está investindo: interoperabilidade, escalabilidade, segurança e em tornar a cripto útil para a próxima onda de usuários.

Destaques do Hackathon: Projetos Inovadores e Vencedores

No coração da ETHDenver está seu lendário #BUIDLathon – um hackathon que se tornou o maior hackfest de blockchain do mundo, com milhares de desenvolvedores. Em 2025, o hackathon ofereceu um prêmio recorde de mais de US$ 1.043.333 para estimular a inovação. Recompensas de mais de 60 patrocinadores visaram domínios chave da Web3, dividindo a competição em trilhas como: DeFi & IA, NFTs & Jogos, Infraestrutura & Escalabilidade, Privacidade & Segurança e DAOs & Bens Públicos. O próprio design dessas trilhas é revelador – por exemplo, parear DeFi com IA sugere o surgimento de aplicações financeiras impulsionadas por IA, enquanto uma trilha dedicada de Bens Públicos reafirma o foco da comunidade em finanças regenerativas e desenvolvimento de código aberto. Cada trilha foi apoiada por patrocinadores que ofereciam prêmios pelo melhor uso de sua tecnologia (por exemplo, Polkadot e Uniswap para DeFi, Chainlink para interoperabilidade, Optimism para soluções de escalabilidade). Os organizadores até implementaram a votação quadrática para o julgamento, permitindo que a comunidade ajudasse a destacar os melhores projetos, com os vencedores finais escolhidos por juízes especialistas.

O resultado foi uma enxurrada de projetos de ponta, muitos dos quais oferecem um vislumbre do futuro da Web3. Vencedores notáveis incluíram um jogo multiplayer on-chain chamado “0xCaliber”, um jogo de tiro em primeira pessoa que executa interações de blockchain em tempo real dentro de um jogo FPS clássico. O 0xCaliber impressionou os juízes ao demonstrar jogos verdadeiramente on-chain – os jogadores compram a entrada com cripto, “atiram” balas on-chain e usam truques cross-chain para coletar e sacar saques, tudo em tempo real. Esse tipo de projeto mostra a crescente maturidade dos jogos Web3 (integrando motores de jogo Unity com contratos inteligentes) e a criatividade na fusão de entretenimento com economia cripto. Outra categoria de hacks de destaque foram aqueles que uniram IA com Ethereum: equipes construíram plataformas de “agentes” que usam contratos inteligentes para coordenar serviços de IA, inspirados pelo anúncio da Open Agents Alliance. Por exemplo, um projeto do hackathon integrou auditores de contratos inteligentes impulsionados por IA (gerando automaticamente casos de teste de segurança para contratos) – alinhando-se com a tendência de IA descentralizada observada na conferência.

Projetos de infraestrutura e ferramentas também foram proeminentes. Algumas equipes abordaram a abstração de contas e a experiência do usuário, usando kits de ferramentas de patrocinadores como o Smart Sign-On da zkSync para criar fluxos de login sem carteira para dApps. Outros trabalharam em pontes cross-chain e integrações de Camada 2, refletindo o contínuo interesse dos desenvolvedores em interoperabilidade. Na trilha de Bens Públicos & DAO, alguns projetos abordaram o impacto social no mundo real, como um dApp para identidade descentralizada e ajuda a pessoas em situação de rua (aproveitando NFTs e fundos comunitários, uma ideia que lembra hacks de ReFi anteriores). Conceitos de finanças regenerativas (ReFi) – como financiar bens públicos por meio de mecanismos inovadores – continuaram a aparecer, ecoando o tema regenerativo da ETHDenver.

Enquanto os vencedores finais eram celebrados ao final do evento principal, o verdadeiro valor estava no pipeline de inovação: mais de 400 submissões de projetos foram recebidas, muitas das quais continuarão a existir além do evento. O hackathon da ETHDenver tem um histórico de semear futuras startups (de fato, alguns projetos passados do BUIDLathon se tornaram patrocinadores). Para investidores e tecnólogos, o hackathon forneceu uma janela para ideias de vanguarda – sinalizando que a próxima onda de startups Web3 pode surgir em áreas como jogos on-chain, dApps com infusão de IA, infraestrutura cross-chain e soluções voltadas para o impacto social. Com quase US$ 1 milhão em recompensas distribuídas aos desenvolvedores, os patrocinadores efetivamente colocaram seu dinheiro onde sua boca está para cultivar essas inovações.

Eventos de Networking e Interações com Investidores

A ETHDenver não é apenas sobre escrever código – é igualmente sobre fazer conexões. Em 2025, o festival potencializou o networking com eventos formais e informais adaptados para startups, investidores e construtores de comunidades. Um evento de destaque foi o Bufficorn Ventures (BV) Startup Rodeo, uma vitrine de alta energia onde 20 startups selecionadas a dedo demonstraram seus projetos para investidores em um estilo de feira de ciências. Realizado em 1º de março no salão principal, o Startup Rodeo foi descrito mais como um “speed dating” do que um concurso de pitches: os fundadores ficavam em mesas para apresentar seus projetos individualmente enquanto todos os investidores presentes circulavam pela arena. Esse formato garantiu que até mesmo equipes em estágio inicial pudessem ter um tempo de qualidade com VCs, parceiros estratégicos ou outros. Muitas startups usaram isso como uma plataforma de lançamento para encontrar clientes e financiamento, aproveitando a presença concentrada de fundos Web3 na ETHDenver.

No último dia da conferência, o BV BuffiTank Pitchfest tomou o centro das atenções no palco principal – uma competição de pitches mais tradicional com 10 das startups em estágio inicial “mais inovadoras” da comunidade ETHDenver. Essas equipes (separadas dos vencedores do hackathon) apresentaram seus modelos de negócios a um painel de VCs de ponta e líderes da indústria, competindo por reconhecimento e potenciais ofertas de investimento. O Pitchfest ilustrou o papel da ETHDenver como um gerador de fluxo de negócios: era explicitamente voltado para equipes “já organizadas... em busca de investimento, clientes e exposição”, especialmente aquelas conectadas à comunidade SporkDAO. A recompensa para os vencedores não era um simples prêmio em dinheiro, mas sim a promessa de se juntar ao portfólio da Bufficorn Ventures ou a outras turmas de aceleradoras. Em essência, a ETHDenver criou seu próprio mini “Shark Tank” para a Web3, catalisando a atenção dos investidores para os melhores projetos da comunidade.

Além dessas vitrines oficiais, a semana foi repleta de encontros entre investidores e fundadores. De acordo com um guia curado pela Belong, eventos paralelos notáveis incluíram um “Meet the VCs” Happy Hour organizado pela CertiK Ventures em 27 de fevereiro, um StarkNet VC & Founders Lounge em 1º de março, e até mesmo eventos casuais como um evento de pitch com tema de golfe “Pitch & Putt”. Esses encontros proporcionaram ambientes descontraídos para os fundadores interagirem com capitalistas de risco, muitas vezes levando a reuniões de acompanhamento após a conferência. A presença de muitas firmas de VC emergentes também foi sentida nos painéis – por exemplo, uma sessão no EtherKnight Stage destacou novos fundos como Reflexive Capital, Reforge VC, Topology, Metalayer e Hash3 e quais tendências eles estão mais animados. As primeiras indicações sugerem que esses VCs estavam interessados em áreas como mídias sociais descentralizadas, IA e infraestrutura inovadora de Camada 1 (cada fundo criando um nicho para se diferenciar em um cenário de VC competitivo).

Para profissionais que buscam capitalizar o networking da ETHDenver: a principal lição é o valor dos eventos paralelos e encontros direcionados. Negócios e parcerias muitas vezes germinam durante um café ou coquetéis, em vez de no palco. A miríade de eventos para investidores da ETHDenver 2025 demonstra que a comunidade de financiamento da Web3 está ativamente em busca de talentos e ideias, mesmo em um mercado enxuto. Startups que vieram preparadas com demos polidas e uma proposta de valor clara (muitas vezes aproveitando o ímpeto do hackathon do evento) encontraram audiências receptivas. Enquanto isso, os investidores usaram essas interações para medir o pulso da comunidade de desenvolvedores – quais problemas os construtores mais brilhantes estão resolvendo este ano? Em resumo, a ETHDenver reforçou que o networking é tão importante quanto o BUIDLing: é um lugar onde um encontro casual pode levar a um investimento semente ou onde uma conversa perspicaz pode desencadear a próxima grande colaboração.

Tendências de Capital de Risco e Oportunidades de Investimento na Web3

Uma narrativa sutil, mas importante, ao longo da ETHDenver 2025 foi a evolução do próprio cenário de capital de risco da Web3. Apesar dos altos e baixos do mercado de cripto em geral, os investidores na ETHDenver sinalizaram um forte apetite por projetos promissores da Web3. Repórteres da Blockworks no local notaram “o quanto de capital privado ainda está fluindo para a cripto, sem se abalar com os ventos contrários macroeconômicos”, com as avaliações em estágio inicial muitas vezes altíssimas para as ideias mais quentes. De fato, o grande número de VCs presentes – de fundos nativos de cripto a investidores de tecnologia tradicional se aventurando na Web3 – deixou claro que a ETHDenver continua sendo um centro de negociações.

Focos temáticos emergentes puderam ser discernidos a partir do que os VCs estavam discutindo e patrocinando. A prevalência de conteúdo IA x Cripto (trilhas de hackathon, painéis, etc.) não foi apenas uma tendência de desenvolvedores; reflete o interesse de risco no nexo “DeFi encontra IA”. Muitos investidores estão de olho em startups que utilizam aprendizado de máquina ou agentes autônomos na blockchain, como evidenciado por hackhouses e cúpulas de IA patrocinadas por capital de risco. Da mesma forma, o forte foco em DePIN e tokenização de ativos do mundo real (RWA) indica que os fundos veem oportunidades em projetos que conectam a blockchain a ativos da economia real e dispositivos físicos. O RWA Day dedicado (26 de fevereiro) – um evento B2B sobre o futuro dos ativos tokenizados – sugere que os caçadores de talentos de risco estão ativamente procurando nessa arena pela próxima Goldfinch ou Centrifuge (ou seja, plataformas que trazem finanças do mundo real para a on-chain).

Outra tendência observável foi uma crescente experimentação com modelos de financiamento. O debate mencionado sobre ICOs vs. VCs não foi apenas teatro de conferência; reflete um movimento real de risco em direção a um financiamento mais centrado na comunidade. Alguns VCs na ETHDenver indicaram abertura a modelos híbridos (por exemplo, lançamentos de tokens apoiados por capital de risco que envolvem a comunidade nas rodadas iniciais). Além disso, o financiamento de bens públicos e o investimento de impacto tiveram um lugar à mesa. Com o ethos de regeneração da ETHDenver, até mesmo os investidores discutiram como apoiar a infraestrutura de código aberto e os desenvolvedores a longo prazo, além de apenas perseguir o próximo boom de DeFi ou NFT. Painéis como “Financiando o Futuro: Modelos em Evolução para Startups Onchain” exploraram alternativas como subsídios, investimentos de tesouraria de DAO e financiamento quadrático para complementar o dinheiro de VC tradicional. Isso aponta para uma indústria amadurecendo na forma como os projetos são capitalizados – uma mistura de capital de risco, fundos de ecossistema e financiamento comunitário trabalhando em conjunto.

Do ponto de vista de oportunidade, profissionais e investidores da Web3 podem extrair alguns insights acionáveis da dinâmica de risco da ETHDenver: (1) A infraestrutura ainda é rei – muitos VCs expressaram que as “pás e picaretas” (escalabilidade L2, segurança, ferramentas de desenvolvimento) continuam sendo investimentos de alto valor como a espinha dorsal da indústria. (2) Novas verticais como a convergência IA/blockchain e DePIN são fronteiras de investimento emergentes – atualizar-se nessas áreas ou encontrar startups lá pode ser recompensador. (3) Projetos impulsionados pela comunidade e bens públicos podem ver financiamentos inovadores – investidores experientes estão descobrindo como apoiar esses projetos de forma sustentável (por exemplo, investindo em protocolos que permitem governança descentralizada ou propriedade compartilhada). No geral, a ETHDenver 2025 mostrou que, embora o cenário de risco da Web3 seja competitivo, ele está repleto de convicção: o capital está disponível para aqueles que estão construindo o futuro de DeFi, NFTs, jogos e além, e até mesmo ideias nascidas em mercado de baixa podem encontrar apoio se mirarem na tendência certa.

Recursos para Desenvolvedores, Kits de Ferramentas e Sistemas de Suporte

A ETHDenver sempre foi focada nos construtores, e 2025 não foi exceção – ela funcionou como uma conferência de desenvolvedores de código aberto com uma infinidade de recursos e suporte para desenvolvedores Web3. Durante a BUIDLWeek, os participantes tiveram acesso a workshops ao vivo, bootcamps técnicos e mini-cúpulas abrangendo vários domínios. Por exemplo, os desenvolvedores podiam participar de uma Bleeding Edge Tech Summit para experimentar os protocolos mais recentes, ou participar de uma On-Chain Legal Summit para aprender sobre o desenvolvimento de contratos inteligentes em conformidade. Grandes patrocinadores e equipes de blockchain realizaram sessões práticas: a equipe da Polkadot organizou hack houses e workshops sobre como lançar parachains; a EigenLayer liderou um “bootcamp de restaking” para ensinar os desenvolvedores a aproveitar sua camada de segurança; Polygon e zkSync deram tutoriais sobre a construção de dApps escaláveis com tecnologia de conhecimento zero. Essas sessões forneceram um tempo valioso com engenheiros principais, permitindo que os desenvolvedores obtivessem ajuda com a integração e aprendessem novos kits de ferramentas em primeira mão.

Durante todo o evento principal, o local contou com um #BUIDLHub e Makerspace dedicados, onde os construtores podiam codificar em um ambiente colaborativo e ter acesso a mentores. Os organizadores da ETHDenver publicaram um Guia do BUIDLer detalhado e facilitaram um programa de mentoria no local (especialistas dos patrocinadores estavam disponíveis para desbloquear equipes em questões técnicas). Empresas de ferramentas para desenvolvedores também estiveram presentes em massa – desde Alchemy e Infura (para APIs de blockchain) até Hardhat e Foundry (para desenvolvimento de contratos inteligentes). Muitas revelaram novos lançamentos ou ferramentas beta no evento. Por exemplo, a equipe do MetaMask pré-visualizou uma grande atualização de carteira com abstração de gás e um SDK aprimorado para desenvolvedores de dApps, visando simplificar como os aplicativos cobrem as taxas de gás para os usuários. Vários projetos lançaram SDKs ou bibliotecas de código aberto: o “Agent Kit” da Coinbase para agentes de IA e o kit de ferramentas colaborativo da Open Agents Alliance foram introduzidos, e a Story.xyz promoveu seu Story SDK para licenciamento de propriedade intelectual on-chain durante seu próprio evento de hackathon.

Recompensas e suporte a hackers aumentaram ainda mais a experiência do desenvolvedor. Com mais de 180 recompensas oferecidas por 62 patrocinadores, os hackers tinham efetivamente um menu de desafios específicos para escolher, cada um vindo com documentação, horários de atendimento e, às vezes, sandboxes personalizadas. Por exemplo, a recompensa da Optimism desafiou os desenvolvedores a usar os mais recentes opcodes da Bedrock (com seus engenheiros de prontidão para ajudar), e o desafio da Uniswap forneceu acesso à sua nova API para integração de rampas de saída. Ferramentas para coordenação e aprendizado – como o aplicativo móvel oficial da ETHDenver e os canais do Discord – mantiveram os desenvolvedores informados sobre mudanças de horário, missões secundárias e até oportunidades de emprego através do quadro de empregos da ETHDenver.

Um recurso notável foi a ênfase em experimentos de financiamento quadrático e votação on-chain. A ETHDenver integrou um sistema de votação quadrática para o julgamento do hackathon, expondo muitos desenvolvedores ao conceito. Além disso, a presença da Gitcoin e de outros grupos de bens públicos significava que os desenvolvedores poderiam aprender sobre o financiamento de subsídios para seus projetos após o evento. Em suma, a ETHDenver 2025 equipou os desenvolvedores com ferramentas de ponta (SDKs, APIs), orientação especializada e suporte contínuo para continuar seus projetos. Para os profissionais da indústria, é um lembrete de que nutrir a comunidade de desenvolvedores – através da educação, ferramentas e financiamento – é fundamental. Muitos dos recursos destacados (como novos SDKs ou ambientes de desenvolvimento aprimorados) estão agora disponíveis publicamente, oferecendo a equipes de todos os lugares a chance de construir sobre os ombros do que foi compartilhado na ETHDenver.

Eventos Paralelos e Encontros Comunitários Enriquecendo a Experiência da ETHDenver

O que realmente diferencia a ETHDenver é sua atmosfera de festival – dezenas de eventos paralelos, tanto oficiais quanto não oficiais, criaram uma rica tapeçaria de experiências em torno da conferência principal. Em 2025, além do National Western Complex, onde o conteúdo oficial acontecia, a cidade inteira fervilhava com encontros, festas, hackathons e reuniões comunitárias. Esses eventos paralelos, muitas vezes organizados por patrocinadores ou grupos locais de Web3, contribuíram significativamente para a experiência mais ampla da ETHDenver.

No front oficial, a própria programação da ETHDenver incluía mini-eventos temáticos: o local tinha zonas como uma Galeria de Arte NFT, um Arcade de Blockchain, uma Cúpula de DJ para Relaxar e até uma Zona Zen para descomprimir. Os organizadores também realizaram eventos noturnos, como festas de abertura e encerramento – por exemplo, a festa de abertura não oficial “Crack’d House” em 26 de fevereiro pela Story Protocol, que misturou uma performance artística com anúncios de prêmios do hackathon. Mas foram os eventos paralelos liderados pela comunidade que realmente proliferaram: de acordo com um guia de eventos, mais de 100 acontecimentos paralelos foram rastreados no calendário Luma da ETHDenver.

Alguns exemplos ilustram a diversidade desses encontros:

  • Cúpulas Técnicas & Hacker Houses: A ElizaOS e a EigenLayer realizaram uma residência de 9 dias, a Vault AI Agent Hacker House, para entusiastas de IA+Web3. A equipe da StarkNet organizou uma hacker house de vários dias que culminou em uma noite de demonstração para projetos em seu ZK-rollup. Isso proporcionou ambientes focados para os desenvolvedores colaborarem em pilhas de tecnologia específicas fora do hackathon principal.
  • Encontros de Networking & Festas: Todas as noites ofereciam uma série de opções. A Builder Nights Denver em 27 de fevereiro, patrocinada por MetaMask, Linea, EigenLayer, Wormhole e outros, reuniu inovadores para conversas casuais com comida e bebida. O 3VO’s Mischief Minded Club Takeover, apoiado pela Belong, foi uma festa de networking de alto nível para líderes de tokenização comunitária. Para aqueles que gostam de pura diversão, a BEMO Rave (com Berachain e outros) e a rAIve the Night (uma rave com tema de IA) mantiveram a multidão cripto dançando até tarde da noite – misturando música, arte e cultura cripto.
  • Encontros de Interesses Específicos: Comunidades de nicho também encontraram seu espaço. O Meme Combat foi um evento puramente para entusiastas de memes celebrarem o papel dos memes na cripto. A House of Ink atendeu a artistas e colecionadores de NFT, transformando um local de arte imersiva (Meow Wolf Denver) em uma vitrine para arte digital. A SheFi Summit em 26 de fevereiro reuniu mulheres na Web3 para palestras e networking, apoiada por grupos como World of Women e Celo – destacando um compromisso com a diversidade e inclusão.
  • Encontros de Investidores & Criadores de Conteúdo: Já mencionamos os eventos de VC; adicionalmente, um Encontro de KOL (Líderes de Opinião Chave) em 28 de fevereiro permitiu que influenciadores de cripto e criadores de conteúdo discutissem estratégias de engajamento, mostrando a interseção das mídias sociais e das comunidades cripto.

Crucialmente, esses eventos paralelos não eram apenas entretenimento – eles muitas vezes serviam como incubadoras de ideias e relacionamentos por si só. Por exemplo, a Tokenized Capital Summit 2025 aprofundou-se no futuro dos mercados de capitais on-chain, provavelmente gerando colaborações entre empreendedores de fintech e desenvolvedores de blockchain presentes. A On-Chain Gaming Hacker House proporcionou um espaço para desenvolvedores de jogos compartilharem as melhores práticas, o que pode levar à polinização cruzada entre projetos de jogos em blockchain.

Para profissionais que participam de grandes conferências, o modelo da ETHDenver ressalta que o valor é encontrado tanto fora do palco principal quanto nele. A amplitude da programação não oficial permitiu que os participantes personalizassem sua experiência – se o objetivo de alguém era conhecer investidores, aprender uma nova habilidade, encontrar um cofundador ou apenas relaxar e construir camaradagem, havia um evento para isso. Muitos veteranos aconselham os novatos: “Não assista apenas às palestras – vá aos encontros e diga oi.” Em um espaço tão impulsionado pela comunidade como a Web3, essas conexões humanas muitas vezes se traduzem em colaborações de DAO, acordos de investimento ou, no mínimo, amizades duradouras que atravessam continentes. A vibrante cena paralela da ETHDenver 2025 amplificou a conferência principal, transformando uma semana em Denver em um festival multidimensional de inovação.

Principais Lições e Insights Acionáveis

A ETHDenver 2025 demonstrou uma indústria Web3 em pleno florescimento de inovação e colaboração. Para os profissionais do setor, várias lições claras e itens de ação emergem desta análise aprofundada:

  • Diversificação de Tendências: O evento deixou evidente que a Web3 não é mais monolítica. Domínios emergentes como integração de IA, DePIN e tokenização de RWA são tão proeminentes quanto DeFi e NFTs. Insight acionável: Mantenha-se informado e adaptável. Os líderes devem alocar P&D ou investimento nessas verticais em ascensão (por exemplo, explorando como a IA poderia aprimorar seu dApp, ou como ativos do mundo real poderiam ser integrados em plataformas DeFi) para surfar na próxima onda de crescimento.
  • Cross-Chain é o Futuro: Com grandes protocolos não-Ethereum participando ativamente, as barreiras entre os ecossistemas estão diminuindo. Interoperabilidade e experiências de usuário multi-chain ganharam enorme atenção, desde o MetaMask adicionando suporte a Bitcoin/Solana até cadeias baseadas em Polkadot e Cosmos cortejando desenvolvedores Ethereum. Insight acionável: Projete para um mundo multi-chain. Os projetos devem considerar integrações ou pontes que acessem liquidez e usuários em outras cadeias, e os profissionais podem buscar parcerias entre comunidades em vez de permanecerem isolados.
  • Comunidade & Bens Públicos Importam: O tema “Ano dos Regenerados” não foi apenas retórica – ele permeou o conteúdo através de discussões sobre financiamento de bens públicos, votação quadrática para hacks e eventos como a SheFi Summit. Desenvolvimento ético e sustentável e propriedade comunitária são valores-chave no ethos do Ethereum. Insight acionável: Incorpore princípios regenerativos. Seja apoiando iniciativas de código aberto, usando mecanismos de lançamento justo ou alinhando modelos de negócios com o crescimento da comunidade, as empresas Web3 podem ganhar boa vontade e longevidade ao não serem puramente extrativistas.
  • Sentimento do Investidor – Cauteloso, mas Ousado: Apesar dos rumores de mercado de baixa, a ETHDenver mostrou que os VCs estão ativamente procurando e dispostos a apostar alto nos próximos capítulos da Web3. No entanto, eles também estão repensando como investir (por exemplo, de forma mais estratégica, talvez com mais supervisão sobre o ajuste produto-mercado e abertura para financiamento comunitário). Insight acionável: Se você é uma startup, foque nos fundamentos e na narrativa. Os projetos que se destacaram tinham casos de uso claros e, muitas vezes, protótipos funcionais (alguns construídos em um fim de semana!). Se você é um investidor, a conferência afirmou que a infraestrutura (L2s, segurança, ferramentas de desenvolvimento) continua sendo de alta prioridade, mas diferenciar-se por meio de teses em IA, jogos ou social pode posicionar um fundo na vanguarda.
  • A Experiência do Desenvolvedor está Melhorando: A ETHDenver destacou muitos novos kits de ferramentas, SDKs e frameworks que diminuem a barreira para o desenvolvimento Web3 – desde ferramentas de abstração de contas até bibliotecas de IA on-chain. Insight acionável: Aproveite esses recursos. As equipes devem experimentar as ferramentas de desenvolvimento mais recentes reveladas (por exemplo, experimentar o zkSync Smart SSO para logins mais fáceis, ou usar os recursos da Open Agents Alliance para um projeto de IA) para acelerar seu desenvolvimento e se manter à frente da concorrência. Além disso, as empresas devem continuar a se envolver com hackathons e fóruns de desenvolvedores abertos como uma forma de encontrar talentos e ideias; o sucesso da ETHDenver em transformar hackers em fundadores é a prova desse modelo.
  • O Poder dos Eventos Paralelos: Por fim, a explosão de eventos paralelos ensinou uma lição importante sobre networking – as oportunidades muitas vezes aparecem em ambientes casuais. Um encontro casual em um happy hour ou um interesse compartilhado em um pequeno encontro pode criar conexões que definem carreiras. Insight acionável: Para aqueles que participam de conferências da indústria, planeje além da agenda oficial. Identifique eventos paralelos alinhados com seus objetivos (seja conhecer investidores, aprender uma habilidade de nicho ou recrutar talentos) e seja proativo no engajamento. Como visto em Denver, aqueles que se imergiram totalmente no ecossistema da semana saíram não apenas com conhecimento, mas com novos parceiros, contratações e amigos.

Em conclusão, a ETHDenver 2025 foi um microcosmo do ímpeto da indústria Web3 – uma mistura de discurso tecnológico de ponta, energia comunitária apaixonada, movimentos de investimento estratégico e uma cultura que mistura inovação séria com diversão. Os profissionais devem ver as tendências e insights do evento como um roteiro para onde a Web3 está se dirigindo. O próximo passo acionável é pegar esses aprendizados – seja um novo foco em IA, uma conexão feita com uma equipe de L2 ou a inspiração de um projeto de hackathon – e traduzi-los em estratégia. No espírito do lema favorito da ETHDenver, é hora de #BUIDL com base nesses insights e ajudar a moldar o futuro descentralizado que tantos em Denver se reuniram para imaginar.

Altera.al está contratando: junte-se aos pioneiros do desenvolvimento de humanos digitais ($600K-1M compensação)

· Leitura de 3 minutos

Estamos entusiasmados em compartilhar uma oportunidade transformadora na Altera.al, uma startup de IA inovadora que recentemente ganhou destaque com seu trabalho pioneiro no desenvolvimento de humanos digitais. Recentemente destacada na MIT Technology Review, a Altera.al demonstrou progresso notável na criação de agentes de IA que podem desenvolver comportamentos semelhantes aos humanos, formar comunidades e interagir de forma significativa em espaços digitais.

Altera.al: Junte-se à fronteira do desenvolvimento de humanos digitais com compensação de $600K-1M

Sobre a Altera.al

Fundada por Robert Yang, que deixou sua posição como professor assistente em neurociência computacional no MIT para perseguir essa visão, a Altera.al já garantiu mais de US$ 11 milhões em financiamento de investidores de prestígio, incluindo A16Z e a firma de VC de tecnologia emergente de Eric Schmidt. A recente demonstração do Projeto Sid mostrou agentes de IA desenvolvendo espontaneamente papéis especializados, formando conexões sociais e até criando sistemas culturais dentro do Minecraft – um passo significativo em direção ao objetivo de criar agentes de IA verdadeiramente autônomos que possam colaborar em escala.

Por que agora é um momento empolgante para se juntar

A Altera.al alcançou um avanço técnico significativo em sua missão de desenvolver máquinas com qualidades humanas fundamentais. Seu trabalho vai além do desenvolvimento tradicional de IA – eles estão criando seres digitais que podem:

  • Formar comunidades e hierarquias sociais
  • Desenvolver papéis e responsabilidades especializadas
  • Criar e disseminar padrões culturais
  • Interagir de forma significativa com humanos em espaços digitais

Quem eles estão procurando

Após o recente avanço, a Altera.al está ampliando sua equipe e oferecendo pacotes de compensação excepcionais que variam de US600.000aUS 600.000 a US 1.000.000 para:

  • Especialistas em pesquisa de agentes de IA
  • Contribuintes individuais fortes em:
    • Sistemas distribuídos
    • Segurança
    • Sistemas operacionais

Como se candidatar

Pronto para fazer parte desta jornada inovadora? Candidate‑se diretamente através da página de carreiras: https://jobs.ashbyhq.com/altera.al

Junte‑se ao futuro do desenvolvimento de humanos digitais

Esta é uma oportunidade única de trabalhar na interseção entre inteligência artificial e modelagem de comportamento humano, com uma equipe que já demonstra resultados notáveis. Se você é apaixonado por expandir os limites do que é possível em IA e interação homem‑máquina, a Altera.al pode ser sua próxima aventura.


Para mais atualizações sobre oportunidades inovadoras em tecnologia e blockchain, siga‑nos no Twitter ou junte‑se à nossa comunidade no Discord.

Este post faz parte do nosso compromisso contínuo de apoiar a inovação e conectar talentos com oportunidades transformadoras na indústria tecnológica.

Perspectiva Crypto 2025 da A16Z: Doze Ideias que Podem Redefinir a Próxima Internet

· Leitura de 8 minutos

Todo ano, a16z publica previsões abrangentes sobre as tecnologias que definirão nosso futuro. Desta vez, sua equipe de cripto pintou um quadro vívido de 2025, onde blockchains, IA e experimentos avançados de governança colidem.

Resumi e comentei seus principais insights abaixo, focando no que vejo como os grandes alavancas para a mudança — e possíveis obstáculos. Se você é um desenvolvedor de tecnologia, investidor ou simplesmente curioso sobre a próxima onda da internet, este artigo é para você.

1. IA Encontra Carteiras Cripto

Insight Principal: Os modelos de IA estão passando de “NPCs” em segundo plano para “personagens principais”, atuando de forma independente em economias online (e potencialmente físicas). Isso significa que precisarão de suas próprias carteiras cripto.

  • O Que Significa: Em vez de uma IA apenas gerar respostas, ela pode manter, gastar ou investir ativos digitais — transacionando em nome de seu proprietário humano ou puramente por conta própria.
  • Potencial Retorno: “IAs agentes” de alta eficiência podem ajudar empresas na coordenação de cadeias de suprimentos, gerenciamento de dados ou negociação automatizada.
  • Atenção Para: Como garantir que uma IA seja realmente autônoma, e não secretamente manipulada por humanos? Ambientes de execução confiáveis (TEEs) podem fornecer garantias técnicas, mas estabelecer confiança em um “robô com carteira” não acontecerá da noite para o dia.

2. Ascensão do DAC (Chatbot Autônomo Descentralizado)

Insight Principal: Um chatbot operando autonomamente em um TEE pode gerenciar suas próprias chaves, publicar conteúdo nas redes sociais, ganhar seguidores e até gerar receita — tudo sem controle humano direto.

  • O Que Significa: Pense em um influenciador de IA que não pode ser silenciado por nenhuma pessoa porque literalmente controla a si mesmo.
  • Potencial Retorno: Um vislumbre de um mundo onde criadores de conteúdo não são indivíduos, mas algoritmos autogovernados com avaliações de milhões (ou bilhões) de dólares.
  • Atenção Para: Se uma IA violar leis, quem será responsável? As salvaguardas regulatórias serão complicadas quando a “entidade” for um conjunto de código hospedado em servidores distribuídos.

3. Prova de Personagem Torna‑se Essencial

Insight Principal: Com a IA reduzindo o custo de gerar falsificações hiper‑realistas, precisamos de melhores maneiras de verificar que estamos interagindo com humanos reais online. Entra IDs únicos que preservam a privacidade.

  • O Que Significa: Todo usuário pode acabar tendo um “selo humano” certificado — idealmente sem sacrificar dados pessoais.
  • Potencial Retorno: Isso pode reduzir drasticamente spam, golpes e exércitos de bots. Também cria a base para redes sociais e plataformas comunitárias mais confiáveis.
  • Atenção Para: A adoção é a principal barreira. Mesmo as melhores soluções de prova de pessoa precisam de aceitação ampla antes que agentes maliciosos as superem.

4. De Mercados de Previsão à Agregação de Informação Mais Ampla

Insight Principal: Os mercados de previsão impulsionados por eleições em 2024 ganharam manchetes, mas a a16z vê uma tendência maior: usar blockchain para criar novas formas de revelar e agregar verdades — seja em governança, finanças ou decisões comunitárias.

  • O Que Significa: Mecanismos de incentivo distribuídos podem recompensar pessoas por entradas ou dados honestos. Poderemos ver “mercados de verdade” especializados para tudo, desde redes de sensores locais até cadeias de suprimentos globais.
  • Potencial Retorno: Uma camada de dados mais transparente e menos manipulável para a sociedade.
  • Atenção Para: Liquidez suficiente e participação de usuários continuam desafiadoras. Para questões de nicho, “pools de previsão” podem ser pequenos demais para gerar sinais significativos.

5. Stablecoins Chegam às Empresas

Insight Principal: Stablecoins já são a forma mais barata de mover dólares digitais, mas grandes empresas ainda não as adotaram — ainda.

  • O Que Significa: PMEs e comerciantes de alto volume podem perceber que podem economizar altas taxas de cartão de crédito adotando stablecoins. Empresas que processam bilhões em receita anual poderiam fazer o mesmo, potencialmente adicionando 2 % ao seu resultado.
  • Potencial Retorno: Pagamentos globais mais rápidos e baratos, além de uma nova onda de produtos financeiros baseados em stablecoins.
  • Atenção Para: As empresas precisarão de novas formas de gerenciar proteção contra fraudes, verificação de identidade e reembolsos — antes tratados por provedores de cartões de crédito.

6. Títulos Governamentais na Blockchain

Insight Principal: Governos que exploram títulos on‑chain podem criar ativos digitais que pagam juros sem os problemas de privacidade de uma moeda digital de banco central.

  • O Que Significa: Títulos on‑chain poderiam servir como colateral de alta qualidade em DeFi, permitindo que dívida soberana se integre perfeitamente a protocolos de empréstimo descentralizados.
  • Potencial Retorno: Maior transparência, custos de emissão potencialmente menores e um mercado de títulos mais democratizado.
  • Atenção Para: Reguladores céticos e possível inércia em grandes instituições. Sistemas legados de compensação não desaparecerão facilmente.

Insight Principal: Wyoming introduziu uma nova categoria chamada “associação sem fins lucrativos descentralizada não incorporada” (DUNA), destinada a dar status legal às DAOs nos EUA.

  • O Que Significa: DAOs agora podem possuir propriedades, assinar contratos e limitar a responsabilidade dos detentores de tokens. Isso abre caminho para uso mais mainstream e atividade comercial real.
  • Potencial Retorno: Se outros estados seguirem o exemplo de Wyoming (como fizeram com LLCs), as DAOs se tornarão entidades empresariais normais.
  • Atenção Para: A percepção pública ainda é vaga sobre o que as DAOs fazem. Elas precisarão de um histórico de projetos bem‑sucedidos que se traduzam em benefícios reais.

8. Democracia Líquida no Mundo Físico

Insight Principal: Experimentos de governança baseados em blockchain podem se estender de comunidades DAO online para eleições em nível local. Eleitores poderiam delegar seus votos ou votar diretamente — “democracia líquida”.

  • O Que Significa: Representação mais flexível. Você pode escolher votar em questões específicas ou delegar essa responsabilidade a alguém de confiança.
  • Potencial Retorno: Possivelmente cidadãos mais engajados e formulação de políticas mais dinâmica.
  • Atenção Para: Preocupações de segurança, alfabetização técnica e ceticismo geral sobre misturar blockchain com eleições oficiais.

9. Construir sobre Infraestrutura Existente (Em vez de Reinventar)

Insight Principal: Startups costumam gastar tempo reinventando tecnologia de camada base (protocolos de consenso, linguagens de programação) ao invés de focar no ajuste produto‑mercado. Em 2025, elas escolherão componentes prontos com mais frequência.

  • O Que Significa: Velocidade maior ao mercado, sistemas mais confiáveis e maior composibilidade.
  • Potencial Retorno: Menos tempo desperdiçado construindo uma nova blockchain do zero; mais tempo dedicado ao problema do usuário que você está resolvendo.
  • Atenção Para: É tentador especializar demais para ganhos de performance. Mas linguagens ou camadas de consenso especializadas podem criar maior sobrecarga para desenvolvedores.

10. Experiência do Usuário Primeiro, Infraestrutura Segundo

Insight Principal: Crypto precisa “esconder os fios”. Não fazemos consumidores aprender SMTP para enviar e‑mail — então por que forçá‑los a aprender “EIPs” ou “rollups”?

  • O Que Significa: Times de produto escolherão a base técnica que sirva a uma ótima experiência do usuário, não o contrário.
  • Potencial Retorno: Um grande salto na adoção de usuários, reduzindo atrito e jargão.
  • Atenção Para: “Construa e eles virão” só funciona se você realmente acertar a experiência. Jargões de marketing sobre “UX de cripto fácil” não significam nada se as pessoas ainda forem obrigadas a lidar com chaves privadas ou memorizar siglas arcanas.

11. Emergem Lojas de Apps Próprias do Crypto

Insight Principal: Do marketplace World App da Worldcoin ao dApp Store da Solana, plataformas amigáveis ao crypto fornecem distribuição e descoberta livres da gatekeeping da Apple ou Google.

  • O Que Significa: Se você está construindo uma aplicação descentralizada, pode alcançar usuários sem medo de remoção repentina.
  • Potencial Retorno: Dezenas (ou centenas) de milhares de novos usuários descobrindo seu dApp em dias, em vez de se perder no mar de lojas de apps centralizadas.
  • Atenção Para: Essas lojas precisam de base de usuários e impulso suficientes para competir com Apple e Google. Esse é um grande obstáculo. Integrações de hardware (como smartphones especializados em crypto) podem ajudar.

12. Tokenização de Ativos ‘Não Convencionais’

Insight Principal: À medida que a infraestrutura de blockchain amadurece e as taxas caem, tokenizar tudo, desde dados biométricos até curiosidades do mundo real, torna‑se mais viável.

  • O Que Significa: Uma “cauda longa” de ativos únicos pode ser fracionada e negociada globalmente. As pessoas poderiam até monetizar dados pessoais de forma controlada e consentida.
  • Potencial Retorno: Mercados massivos para ativos antes “presos”, além de novos pools de dados interessantes para IA consumir.
  • Atenção Para: Armadilhas de privacidade e minas éticas. Só porque você pode tokenizar algo não significa que deve.

A perspectiva de 2025 da A16Z mostra um setor cripto que busca adoção mais ampla, governança mais responsável e integração mais profunda com IA. Enquanto ciclos anteriores se concentraram em especulação ou hype, essa visão gira em torno da utilidade: stablecoins que economizam 2 % aos comerciantes em cada latte, chatbots de IA operando seus próprios negócios, governos locais experimentando democracia líquida.

No entanto, o risco de execução paira. Reguladores em todo o mundo permanecem receosos, e a experiência do usuário ainda é muito confusa para o grande público. 2025 pode ser o ano em que cripto e IA finalmente “crescem”, ou pode ser um passo intermediário — tudo depende de as equipes conseguirem lançar produtos reais que as pessoas amem, não apenas protocolos para os conhecedores.

O Sistema Operacional de IA Descentralizada da 0G Pode Realmente Impulsionar a IA On-Chain em Escala?

· Leitura de 14 minutos

Em 13 de novembro de 2024, a 0G Labs anunciou uma rodada de financiamento de US$ 40 milhões liderada por Hack VC, Delphi Digital, OKX Ventures, Samsung Next e Animoca Brands, colocando a equipe por trás deste sistema operacional de IA descentralizada em destaque. Sua abordagem modular combina armazenamento descentralizado, verificação de disponibilidade de dados e liquidação descentralizada para habilitar aplicações de IA on-chain. Mas eles podem realmente alcançar um throughput de nível GB/s para impulsionar a próxima era de adoção de IA na Web3? Este relatório aprofundado avalia a arquitetura da 0G, a mecânica de incentivos, a tração do ecossistema e as possíveis armadilhas, com o objetivo de ajudar você a avaliar se a 0G pode cumprir sua promessa.

Contexto

O setor de IA tem experimentado uma ascensão meteórica, catalisada por grandes modelos de linguagem como ChatGPT e ERNIE Bot. No entanto, a IA é mais do que apenas chatbots e texto generativo; ela também inclui tudo, desde as vitórias do AlphaGo no Go até ferramentas de geração de imagens como MidJourney. O Santo Graal que muitos desenvolvedores buscam é uma IA de propósito geral, ou AGI (Inteligência Artificial Geral) — coloquialmente descrita como um "Agente" de IA capaz de aprender, perceber, tomar decisões e executar tarefas complexas de forma semelhante à inteligência humana.

No entanto, tanto as aplicações de IA quanto as de Agentes de IA são extremamente intensivas em dados. Elas dependem de enormes conjuntos de dados para treinamento e inferência. Tradicionalmente, esses dados são armazenados e processados em infraestruturas centralizadas. Com o advento da blockchain, surgiu uma nova abordagem conhecida como DeAI (IA Descentralizada). A DeAI tenta alavancar redes descentralizadas para armazenamento, compartilhamento e verificação de dados, a fim de superar as armadilhas das soluções de IA tradicionais e centralizadas.

A 0G Labs se destaca neste cenário de infraestrutura DeAI, com o objetivo de construir um sistema operacional de IA descentralizada conhecido simplesmente como 0G.

O Que É a 0G Labs?

Na computação tradicional, um Sistema Operacional (SO) gerencia recursos de hardware e software — pense em Microsoft Windows, Linux, macOS, iOS ou Android. Um SO abstrai a complexidade do hardware subjacente, tornando mais fácil para usuários finais e desenvolvedores interagirem com o computador.

Por analogia, o SO 0G aspira a desempenhar um papel semelhante na Web3:

  • Gerenciar armazenamento descentralizado, computação e disponibilidade de dados.
  • Simplificar a implantação de aplicações de IA on-chain.

Por que a descentralização? Sistemas de IA convencionais armazenam e processam dados em silos centralizados, levantando preocupações sobre a transparência dos dados, a privacidade do usuário e a compensação justa para os provedores de dados. A abordagem da 0G utiliza armazenamento descentralizado, provas criptográficas e modelos de incentivo abertos para mitigar esses riscos.

O nome "0G" significa "Gravidade Zero". A equipe vislumbra um ambiente onde a troca de dados e a computação parecem "sem peso" — tudo, desde o treinamento de IA até a inferência e a disponibilidade de dados, acontece de forma contínua on-chain.

A 0G Foundation, formalmente estabelecida em outubro de 2024, impulsiona esta iniciativa. Sua missão declarada é tornar a IA um bem público — acessível, verificável e aberto a todos.

Componentes Chave do Sistema Operacional 0G

Fundamentalmente, a 0G é uma arquitetura modular projetada especificamente para suportar aplicações de IA on-chain. Seus três pilares principais são:

  1. 0G Storage – Uma rede de armazenamento descentralizada.
  2. 0G DA (Disponibilidade de Dados) – Uma camada especializada de disponibilidade de dados que garante a integridade dos dados.
  3. 0G Compute Network – Gerenciamento de recursos de computação descentralizada e liquidação para inferência de IA (e, eventualmente, treinamento).

Esses pilares funcionam em conjunto sob o guarda-chuva de uma rede Layer1 chamada 0G Chain, que é responsável pelo consenso e liquidação.

De acordo com o Whitepaper da 0G ("0G: Towards Data Availability 2.0"), tanto as camadas 0G Storage quanto 0G DA são construídas sobre a 0G Chain. Desenvolvedores podem lançar múltiplas redes de consenso PoS personalizadas, cada uma funcionando como parte da estrutura 0G DA e 0G Storage. Essa abordagem modular significa que, à medida que a carga do sistema cresce, a 0G pode adicionar dinamicamente novos conjuntos de validadores ou nós especializados para escalar.

0G Storage

0G Storage é um sistema de armazenamento descentralizado projetado para dados em larga escala. Ele utiliza nós distribuídos com incentivos integrados para armazenar dados do usuário. Crucialmente, ele divide os dados em "chunks" menores e redundantes usando Erasure Coding (EC), distribuindo esses chunks por diferentes nós de armazenamento. Se um nó falhar, os dados ainda podem ser reconstruídos a partir dos chunks redundantes.

Tipos de Dados Suportados

O 0G Storage acomoda dados estruturados e não estruturados.

  1. Dados Estruturados são armazenados em uma camada Key-Value (KV), adequada para informações dinâmicas e frequentemente atualizadas (pense em bancos de dados, documentos colaborativos, etc.).
  2. Dados Não Estruturados são armazenados em uma camada de Log que anexa entradas de dados cronologicamente. Esta camada é semelhante a um sistema de arquivos otimizado para cargas de trabalho de larga escala e somente de adição.

Ao empilhar uma camada KV sobre a camada de Log, o 0G Storage pode atender a diversas necessidades de aplicações de IA — desde o armazenamento de grandes pesos de modelos (não estruturados) até dados dinâmicos baseados no usuário ou métricas em tempo real (estruturados).

Consenso PoRA

PoRA (Proof of Random Access) garante que os nós de armazenamento realmente detêm os chunks que afirmam armazenar. Veja como funciona:

  • Os mineradores de armazenamento são periodicamente desafiados a produzir hashes criptográficos de chunks de dados aleatórios específicos que eles armazenam.
  • Eles devem responder gerando um hash válido (semelhante à resolução de quebra-cabeças tipo PoW) derivado de sua cópia local dos dados.

Para nivelar o campo de jogo, o sistema limita as competições de mineração a segmentos de 8 TB. Um minerador grande pode subdividir seu hardware em múltiplas partições de 8 TB, enquanto mineradores menores competem dentro de um único limite de 8 TB.

Design de Incentivo

Os dados no 0G Storage são divididos em "Segmentos de Precificação" de 8 GB. Cada segmento possui um pool de doação e um pool de recompensa. Usuários que desejam armazenar dados pagam uma taxa em 0G Token (ZG), que financia parcialmente as recompensas dos nós.

  • Recompensa Base: Quando um nó de armazenamento envia provas PoRA válidas, ele recebe recompensas de bloco imediatas para aquele segmento.
  • Recompensa Contínua: Com o tempo, o pool de doação libera uma parte (atualmente ~4% ao ano) para o pool de recompensa, incentivando os nós a armazenar dados permanentemente. Quanto menos nós armazenarem um determinado segmento, maior a parcela que cada nó pode ganhar.

Os usuários pagam apenas uma vez pelo armazenamento permanente, mas devem definir uma taxa de doação acima de um mínimo do sistema. Quanto maior a doação, maior a probabilidade de os mineradores replicarem os dados do usuário.

Mecanismo de Royalties: O 0G Storage também inclui um mecanismo de "royalties" ou "compartilhamento de dados". Provedores de armazenamento iniciais criam "registros de royalties" para cada chunk de dados. Se novos nós quiserem armazenar o mesmo chunk, o nó original pode compartilhá-lo. Quando o novo nó posteriormente prova o armazenamento (via PoRA), o provedor de dados original recebe um royalty contínuo. Quanto mais amplamente replicados os dados, maior a recompensa agregada para os provedores iniciais.

Comparações com Filecoin e Arweave

Similaridades:

  • Todos os três incentivam o armazenamento de dados descentralizado.
  • Tanto o 0G Storage quanto o Arweave visam o armazenamento permanente.
  • A fragmentação de dados (data chunking) e a redundância são abordagens padrão.

Principais Diferenças:

  • Integração Nativa: O 0G Storage não é uma blockchain independente; ele é integrado diretamente com a 0G Chain e suporta principalmente casos de uso centrados em IA.
  • Dados Estruturados: A 0G suporta dados estruturados baseados em KV juntamente com dados não estruturados, o que é crítico para muitas cargas de trabalho de IA que exigem acesso frequente de leitura e escrita.
  • Custo: A 0G afirma US$ 10–11/TB para armazenamento permanente, supostamente mais barato que o Arweave.
  • Foco no Desempenho: Projetado especificamente para atender às demandas de throughput de IA, enquanto Filecoin ou Arweave são redes de armazenamento descentralizadas de propósito mais geral.

0G DA (Camada de Disponibilidade de Dados)

A disponibilidade de dados garante que cada participante da rede possa verificar e recuperar totalmente os dados da transação. Se os dados estiverem incompletos ou retidos, as premissas de confiança da blockchain são quebradas.

No sistema 0G, os dados são fragmentados (chunked) e armazenados off-chain. O sistema registra raízes Merkle para esses chunks de dados, e os nós DA devem amostrar esses chunks para garantir que eles correspondam à raiz Merkle e aos compromissos de erasure-coding. Somente então os dados são considerados "disponíveis" e anexados ao estado de consenso da cadeia.

Seleção e Incentivos de Nós DA

  • Nós DA devem fazer staking de ZG para participar.
  • Eles são agrupados em quóruns aleatoriamente via Funções Aleatórias Verificáveis (VRFs).
  • Cada nó valida apenas um subconjunto de dados. Se 2/3 de um quórum confirmarem os dados como disponíveis e corretos, eles assinam uma prova que é agregada e submetida à rede de consenso da 0G.
  • A distribuição de recompensas também ocorre por meio de amostragem periódica. Apenas os nós que armazenam chunks amostrados aleatoriamente são elegíveis para as recompensas daquela rodada.

Comparação com Celestia e EigenLayer

A 0G DA se baseia em ideias da Celestia (amostragem de disponibilidade de dados) e da EigenLayer (restaking), mas visa fornecer um throughput mais alto. O throughput da Celestia atualmente gira em torno de 10 MB/s com tempos de bloco de ~12 segundos. Enquanto isso, o EigenDA atende principalmente a soluções Layer2 e pode ser complexo de implementar. A 0G prevê um throughput de GB/s, o que se adequa melhor a cargas de trabalho de IA em larga escala que podem exceder 50–100 GB/s de ingestão de dados.

0G Compute Network

A 0G Compute Network serve como a camada de computação descentralizada. Ela está evoluindo em fases:

  • Fase 1: Foco na liquidação para inferência de IA.
  • A rede conecta "compradores de modelos de IA" (usuários) com provedores de computação (vendedores) em um marketplace descentralizado. Os provedores registram seus serviços e preços em um smart contract. Os usuários pré-financiam o contrato, consomem o serviço, e o contrato intermedia o pagamento.
  • Com o tempo, a equipe espera expandir para o treinamento completo de IA on-chain, embora isso seja mais complexo.

Processamento em Lote: Os provedores podem agrupar solicitações de usuários para reduzir a sobrecarga on-chain, melhorando a eficiência e diminuindo os custos.

0G Chain

A 0G Chain é uma rede Layer1 que serve como base para a arquitetura modular da 0G. Ela sustenta:

  • 0G Storage (via smart contracts)
  • 0G DA (provas de disponibilidade de dados)
  • 0G Compute (mecanismos de liquidação)

De acordo com a documentação oficial, a 0G Chain é compatível com EVM, permitindo fácil integração para dApps que exigem armazenamento de dados avançado, disponibilidade ou computação.

Rede de Consenso 0G

O mecanismo de consenso da 0G é um tanto único. Em vez de uma única camada de consenso monolítica, múltiplas redes de consenso independentes podem ser lançadas sob a 0G para lidar com diferentes cargas de trabalho. Essas redes compartilham a mesma base de staking:

  • Staking Compartilhado: Validadores fazem staking de ZG no Ethereum. Se um validador se comportar mal, seu ZG em staking no Ethereum pode ser "slashed".
  • Escalabilidade: Novas redes de consenso podem ser iniciadas para escalar horizontalmente.

Mecanismo de Recompensa: Quando os validadores finalizam blocos no ambiente 0G, eles recebem tokens. No entanto, os tokens que eles ganham na 0G Chain são queimados no ambiente local, e a conta do validador baseada em Ethereum é cunhada com uma quantia equivalente, garantindo um único ponto de liquidez e segurança.

Token 0G (ZG)

ZG é um token ERC-20 que representa a espinha dorsal da economia da 0G. Ele é cunhado, queimado e circulado via smart contracts no Ethereum. Em termos práticos:

  • Usuários pagam por armazenamento, disponibilidade de dados e recursos de computação em ZG.
  • Mineradores e validadores ganham ZG por provar armazenamento ou validar dados.
  • O staking compartilhado vincula o modelo de segurança de volta ao Ethereum.

Resumo dos Módulos Chave

O SO 0G mescla quatro componentes — Armazenamento, DA, Computação e Chain — em uma pilha modular e interconectada. O objetivo de design do sistema é a escalabilidade, com cada camada extensível horizontalmente. A equipe destaca o potencial para um throughput "infinito", especialmente crucial para tarefas de IA em larga escala.

Ecossistema 0G

Embora relativamente novo, o ecossistema 0G já inclui parceiros de integração chave:

  1. Infraestrutura e Ferramentas:

    • Soluções ZK como Union, Brevis, Gevulot
    • Soluções Cross-chain como Axelar
    • Protocolos de Restaking como EigenLayer, Babylon, PingPong
    • Provedores de GPU Descentralizada IoNet, exaBits
    • Soluções de Oracle Hemera, Redstone
    • Ferramentas de Indexação para dados de blob do Ethereum
  2. Projetos Usando 0G para Armazenamento de Dados e DA:

    • Polygon, Optimism (OP), Arbitrum, Manta para integração L2 / L3
    • Nodekit, AltLayer para infraestrutura Web3
    • Blade Games, Shrapnel para jogos on-chain

Lado da Oferta

Frameworks ZK e Cross-chain conectam a 0G a redes externas. Soluções de restaking (por exemplo, EigenLayer, Babylon) fortalecem a segurança e possivelmente atraem liquidez. Redes de GPU aceleram o erasure coding. Soluções de oracle alimentam dados off-chain ou referenciam preços de modelos de IA.

Lado da Demanda

Agentes de IA podem usar a 0G tanto para armazenamento de dados quanto para inferência. L2s e L3s podem integrar a DA da 0G para melhorar o throughput. Jogos e outros dApps que exigem soluções de dados robustas podem armazenar ativos, logs ou sistemas de pontuação na 0G. Alguns já fizeram parceria com o projeto, indicando uma tração inicial do ecossistema.

Roteiro e Fatores de Risco

A 0G visa tornar a IA uma utilidade pública, acessível e verificável por qualquer pessoa. A equipe aspira a um throughput de DA de nível GB/s — crucial para o treinamento de IA em tempo real que pode exigir 50–100 GB/s de transferência de dados.

O co-fundador e CEO Michael Heinrich afirmou que o crescimento explosivo da IA torna a iteração oportuna crítica. O ritmo da inovação em IA é rápido; o próprio progresso de desenvolvimento da 0G deve acompanhar.

Compromissos Potenciais:

  • A dependência atual do staking compartilhado pode ser uma solução intermediária. Eventualmente, a 0G planeja introduzir uma camada de consenso escalável horizontalmente que pode ser aumentada incrementalmente (semelhante a iniciar novos nós AWS).
  • Concorrência de Mercado: Muitas soluções especializadas existem para armazenamento descentralizado, disponibilidade de dados e computação. A abordagem "tudo em um" da 0G deve permanecer atraente.
  • Adoção e Crescimento do Ecossistema: Sem uma tração robusta de desenvolvedores, o "throughput ilimitado" prometido permanece teórico.
  • Sustentabilidade dos Incentivos: A motivação contínua para os nós depende da demanda real do usuário e de uma economia de token em equilíbrio.

Conclusão

A 0G tenta unificar armazenamento descentralizado, disponibilidade de dados e computação em um único "sistema operacional" que suporta IA on-chain. Ao visar um throughput de GB/s, a equipe busca quebrar a barreira de desempenho que atualmente impede a migração de IA em larga escala para on-chain. Se bem-sucedida, a 0G poderia acelerar significativamente a onda de IA na Web3, fornecendo uma infraestrutura escalável, integrada e amigável para desenvolvedores.

Ainda assim, muitas questões permanecem em aberto. A viabilidade do "throughput infinito" depende de se as estruturas modulares de consenso e incentivo da 0G podem escalar de forma contínua. Fatores externos — demanda de mercado, tempo de atividade dos nós, adoção por desenvolvedores — também determinarão a longevidade da 0G. No entanto, a abordagem da 0G para resolver os gargalos de dados da IA é inovadora e ambiciosa, sugerindo um novo paradigma promissor para a IA on-chain.