Saltar para o conteúdo principal

434 posts marcados com "Blockchain"

Tecnologia blockchain geral e inovação

Ver todas as tags

O Próximo Capítulo do DeFi: Perspectivas de Construtores e Investidores Líderes (2024 – 2025)

· 13 min de leitura
Dora Noda
Software Engineer

As Finanças Descentralizadas (DeFi) amadureceram consideravelmente, desde o boom especulativo do verão de 2020 até o ciclo de 2024‑2025. Taxas de juros mais altas desaceleraram o crescimento do DeFi em 2022‑2023, mas o surgimento de cadeias de alto rendimento, incentivos impulsionados por tokens e um ambiente regulatório mais claro estão criando condições para uma nova fase das finanças on‑chain. Líderes de Hyperliquid, Aave, Ethena e Dragonfly compartilham a expectativa comum de que o próximo capítulo será impulsionado pela utilidade genuína: infraestrutura de mercado eficiente, stablecoins que geram rendimento, tokenização de ativos do mundo real e experiências de usuário assistidas por IA. As seções a seguir analisam o futuro do DeFi através das vozes de Jeff Yan (Hyperliquid Labs), Stani Kulechov (Aave Labs), Guy Young (Ethena Labs) e Haseeb Qureshi (Dragonfly).

Jeff Yan – Hyperliquid Labs

Contexto

Jeff Yan é co‑fundador e CEO da Hyperliquid, uma exchange descentralizada (DEX) que opera um livro de ordens de alto rendimento para negociação de perpétuos e spot. A Hyperliquid ganhou destaque em 2024 por seu airdrop impulsionado pela comunidade e pela recusa em vender capital para capitalistas de risco; Yan manteve a equipe pequena e autofinanciada para manter o foco no produto. A visão da Hyperliquid é se tornar uma camada base descentralizada para outros produtos financeiros, como ativos tokenizados e stablecoins.

Visão para o Próximo Capítulo do DeFi

  • Eficiência acima do hype. Em um painel da Token 2049, Yan comparou o DeFi a um problema de matemática; ele argumentou que os mercados deveriam ser eficientes, onde os usuários obtêm os melhores preços sem spreads ocultos. O livro de ordens de alto rendimento da Hyperliquid visa entregar essa eficiência.
  • Propriedade da comunidade e postura anti‑VC. Yan acredita que o sucesso do DeFi deve ser medido pelo valor entregue aos usuários, e não pelas saídas de investidores. A Hyperliquid rejeitou parcerias com formadores de mercado privados e listagens em exchanges centralizadas para evitar comprometer a descentralização. Essa abordagem ressoa com o ethos do DeFi: os protocolos devem ser de propriedade de suas comunidades e construídos para utilidade a longo prazo.
  • Foco na infraestrutura, não no preço do token. Yan enfatiza que o propósito da Hyperliquid é construir tecnologia robusta; melhorias de produto, como o HIP‑3, visam mitigar riscos de dApps através de auditorias automatizadas e melhores integrações. Ele evita estabelecer roteiros rígidos, preferindo se adaptar ao feedback dos usuários e às mudanças tecnológicas. Essa adaptabilidade reflete uma mudança mais ampla da especulação para uma infraestrutura madura.
  • Visão para uma pilha financeira sem permissão. Yan vê a Hyperliquid evoluindo para uma camada fundamental sobre a qual outros podem construir stablecoins, RWAs e novos instrumentos financeiros. Ao permanecer descentralizada e eficiente em capital, ele espera estabelecer uma camada neutra semelhante a uma Nasdaq descentralizada.

Principais Conclusões

A perspectiva de Jeff Yan enfatiza a eficiência do mercado, a propriedade impulsionada pela comunidade e a infraestrutura modular. Ele vê o próximo capítulo do DeFi como uma fase de consolidação em que DEXs de alto desempenho se tornam a espinha dorsal para ativos tokenizados e produtos de rendimento. Sua recusa em aceitar financiamento de risco sinaliza um retrocesso contra a especulação excessiva; no próximo capítulo, os protocolos podem priorizar a sustentabilidade em vez de avaliações que chamam a atenção.

Stani Kulechov – Aave Labs

Contexto

Stani Kulechov fundou a Aave, um dos primeiros protocolos de mercado monetário e líder em empréstimos descentralizados. Os mercados de liquidez da Aave permitem que os usuários obtenham rendimento ou tomem ativos emprestados sem intermediários. Até 2025, o TVL e o conjunto de produtos da Aave se expandiram para incluir stablecoins e uma recém‑lançada Family Wallet — uma rampa de acesso fiat–cripto que estreou no Blockchain Ireland Summit.

Visão para o Próximo Capítulo do DeFi

  • Corte de taxas como catalisador para o "verão DeFi 2.0". Na Token 2049, Kulechov argumentou que a queda das taxas de juros acenderia um novo boom do DeFi semelhante ao de 2020. Taxas mais baixas criam oportunidades de arbitragem, pois os rendimentos on‑chain permanecem atraentes em relação ao TradFi, atraindo capital para os protocolos DeFi. Ele lembra que o TVL do DeFi saltou de menos de $1 bilhão para $10 bilhões durante os cortes de taxas de 2020 e espera uma dinâmica semelhante quando a política monetária se afrouxar.
  • Integração com fintech. Kulechov vislumbra o DeFi se incorporando à infraestrutura fintech mainstream. Ele planeja distribuir rendimentos on‑chain através de aplicativos amigáveis ao consumidor e canais institucionais, transformando o DeFi em um back‑end para produtos de poupança. A Family Wallet exemplifica isso, oferecendo conversões fiat–stablecoin e pagamentos diários sem atrito.
  • Ativos do mundo real (RWAs) e stablecoins. Ele considera os ativos do mundo real tokenizados e as stablecoins como pilares do futuro do blockchain. As iniciativas da stablecoin GHO e RWA da Aave visam conectar os rendimentos do DeFi a garantias da economia real, preenchendo a lacuna entre cripto e finanças tradicionais.
  • Inovação impulsionada pela comunidade. Kulechov credita o sucesso da Aave à sua comunidade e espera que a inovação governada pelos usuários impulsione a próxima fase. Ele sugere que o DeFi se concentrará em aplicativos de consumo que abstraem a complexidade, preservando a descentralização.

Principais Conclusões

Stani Kulechov prevê um retorno do ciclo de alta do DeFi impulsionado por taxas mais baixas e melhor experiência do usuário. Ele enfatiza a integração com fintech e ativos do mundo real, prevendo que stablecoins e títulos tokenizados incorporarão os rendimentos do DeFi em produtos financeiros diários. Isso reflete um amadurecimento da agricultura de rendimento especulativa para uma infraestrutura que coexiste com as finanças tradicionais.

Guy Young – Ethena Labs

Contexto

Guy Young é o CEO da Ethena Labs, criadora da sUSDe, uma stablecoin de dólar sintético que usa estratégias delta‑neutras para oferecer um dólar que gera rendimento. A Ethena ganhou atenção por fornecer rendimentos atraentes usando colateral USDT e posições perpétuas curtas para proteger o risco de preço. Em 2025, a Ethena anunciou iniciativas como a iUSDe, uma versão embrulhada compatível para instituições tradicionais.

Visão para o Próximo Capítulo do DeFi

  • Stablecoins para poupança e colateral de negociação. Young categoriza os casos de uso de stablecoins em colateral de negociação, poupança para países em desenvolvimento, pagamentos e especulação. A Ethena foca em poupança e negociação porque o rendimento torna o dólar atraente e a integração com exchanges impulsiona a adoção. Ele acredita que um dólar que gera rendimento se tornará o ativo de poupança mais importante do mundo.
  • Stablecoins neutras e agnósticas à plataforma. Young argumenta que as stablecoins devem ser neutras e amplamente aceitas em vários locais; tentativas de exchanges de impulsionar stablecoins proprietárias prejudicam a experiência do usuário. O uso de USDT pela Ethena aumenta a demanda por Tether em vez de competir com ele, ilustrando a sinergia entre stablecoins DeFi e incumbentes.
  • Integração com TradFi e aplicativos de mensagens. A Ethena planeja emitir a iUSDe com restrições de transferência para satisfazer os requisitos regulatórios e integrar a sUSDe ao Telegram e Apple Pay, permitindo que os usuários economizem e gastem dólares que geram rendimento como se estivessem enviando mensagens. Young imagina entregar uma experiência semelhante a um neobanco para um bilhão de usuários através de aplicativos móveis.
  • Mudança para fundamentos e RWAs. Ele observa que a especulação cripto parece saturada — as capitalizações de mercado de altcoins atingiram o pico de $1,2 trilhão em 2021 e 2024 — então os investidores se concentrarão em projetos com receita real e ativos do mundo real tokenizados. A estratégia da Ethena de fornecer rendimento de ativos off‑chain a posiciona para essa transição.

Principais Conclusões

A perspectiva de Guy Young centra‑se nas stablecoins que geram rendimento como o aplicativo matador do DeFi. Ele argumenta que o próximo capítulo do DeFi envolve tornar os dólares produtivos e incorporá‑los em pagamentos e mensagens mainstream, atraindo bilhões de usuários. A abordagem agnóstica à plataforma da Ethena reflete a crença de que as stablecoins DeFi devem complementar, e não competir, com os sistemas existentes. Ele também antecipa uma rotação de altcoins especulativas para tokens geradores de receita e RWAs.

Haseeb Qureshi – Dragonfly

Contexto

Haseeb Qureshi é sócio‑gerente da Dragonfly, uma empresa de capital de risco focada em cripto e DeFi. Qureshi é conhecido por sua escrita analítica e participação no podcast Chopping Block. No final de 2024 e início de 2025, ele lançou uma série de previsões descrevendo como a IA, as stablecoins e as mudanças regulatórias moldarão as criptomoedas.

Visão para o Próximo Capítulo do DeFi

  • Carteiras e agentes impulsionados por IA. Qureshi prevê que os agentes de IA revolucionarão as criptomoedas, automatizando a ponte, otimizando rotas de negociação, minimizando taxas e afastando os usuários de golpes. Ele espera que as carteiras impulsionadas por IA lidem com operações cross‑chain de forma contínua, reduzindo a complexidade que atualmente afasta os usuários mainstream. Ferramentas de desenvolvimento assistidas por IA também facilitarão a construção de smart contracts, solidificando o domínio do EVM.
  • Tokens de agente de IA vs. meme coins. Qureshi acredita que os tokens associados a agentes de IA superarão as meme coins em 2025, mas alerta que a novidade desaparecerá e o valor real virá do impacto da IA na engenharia de software e negociação. Ele vê a empolgação atual como uma mudança do “niilismo financeiro para o otimismo financeiro excessivo”, alertando contra o exagero das moedas de chat‑bot.
  • Convergência de stablecoins e IA. Em suas previsões para 2025, Qureshi descreve seis temas principais: (1) a distinção entre cadeias de camada 1 e camada 2 se tornará tênue à medida que as ferramentas de IA expandirem a participação do EVM; (2) as distribuições de tokens mudarão de grandes airdrops para modelos baseados em métricas ou crowdfunding; (3) a adoção de stablecoins aumentará, com bancos emitindo suas próprias stablecoins enquanto a Tether mantém o domínio; (4) os agentes de IA dominarão as interações cripto, mas sua novidade pode desaparecer até 2026; (5) as ferramentas de IA reduzirão drasticamente os custos de desenvolvimento, permitindo uma onda de inovação de dApps e maior segurança; e (6) a clareza regulatória, particularmente nos EUA, acelerará a adoção mainstream.
  • Adoção institucional e mudanças regulatórias. Qureshi espera que as empresas da Fortune 100 ofereçam cripto aos consumidores sob uma administração Trump e acredita que a legislação de stablecoins nos EUA será aprovada, desbloqueando a participação institucional. O resumo da pesquisa da Gate.io ecoa isso, observando que os agentes de IA adotarão stablecoins para transações peer‑to‑peer e que o treinamento descentralizado de IA acelerará.
  • DeFi como infraestrutura para finanças assistidas por IA. No The Chopping Block, Qureshi nomeou a Hyperliquid como a “maior vencedora” do ciclo de 2024 e previu que os tokens DeFi teriam um crescimento explosivo em 2025. Ele atribui isso a inovações como pools de orientação de liquidez que tornam a negociação perpétua descentralizada competitiva. Seu otimismo em relação ao DeFi decorre da crença de que a UX impulsionada por IA e a clareza regulatória impulsionarão o capital para os protocolos on‑chain.

Principais Conclusões

Haseeb Qureshi vê o próximo capítulo do DeFi como a convergência de IA e finanças on‑chain. Ele antecipa um aumento nas carteiras impulsionadas por IA e agentes autônomos, que simplificarão as interações do usuário e atrairão novos participantes. No entanto, ele adverte que o hype da IA pode desaparecer; o valor sustentável virá das ferramentas de IA que reduzem os custos de desenvolvimento e melhoram a segurança. Ele espera que a legislação de stablecoins, a adoção institucional e as distribuições de tokens baseadas em métricas profissionalizem a indústria. No geral, ele vê o DeFi evoluindo para a fundação de serviços financeiros assistidos por IA e em conformidade regulatória.

Análise Comparativa

DimensãoJeff Yan (Hyperliquid)Stani Kulechov (Aave)Guy Young (Ethena)Haseeb Qureshi (Dragonfly)
Foco PrincipalInfraestrutura DEX de alto desempenho; propriedade da comunidade; eficiênciaEmpréstimos descentralizados; integração fintech; ativos do mundo realStablecoins que geram rendimento; colateral de negociação; integração de pagamentosPerspectiva de investimento; agentes de IA; adoção institucional
Principais Impulsionadores para o Próximo CapítuloMercados de livro de ordens eficientes; camada de protocolo modular para RWAs e stablecoinsCortes nas taxas impulsionando o fluxo de capital e o “verão DeFi 2.0”; integração com fintech e RWAsStablecoins neutras que geram rendimento; integração com aplicativos de mensagens e TradFiCarteiras e agentes impulsionados por IA; clareza regulatória; distribuições de tokens baseadas em métricas
Papel das StablecoinsSustenta futuras camadas DeFi; incentiva emissores descentralizadosStablecoin GHO e títulos tokenizados integram rendimentos DeFi em produtos financeiros convencionaissUSDe transforma dólares em poupanças que geram rendimento; iUSDe visa instituiçõesBancos emitirão stablecoins até o final de 2025; agentes de IA usarão stablecoins para transações
Visão sobre Incentivos de TokensRejeita financiamento de risco e acordos com formadores de mercado privados para priorizar a comunidadeEnfatiza a inovação impulsionada pela comunidade; vê os tokens DeFi como infraestrutura para fintechDefende stablecoins agnósticas à plataforma que complementam ecossistemas existentesPrevê mudança de grandes airdrops para distribuições baseadas em KPIs ou crowdfunding
Perspectivas sobre Regulação e InstituiçõesFoco mínimo na regulação; enfatiza a descentralização e o autofinanciamentoVê a clareza regulatória permitindo a tokenização de RWA e o uso institucionalTrabalhando em iUSDe com restrição de transferência para atender aos requisitos regulatóriosAntecipa legislação de stablecoins nos EUA e administração pró‑cripto acelerando a adoção
Sobre IA e AutomaçãoN/AN/ANão é central (embora Ethena possa usar sistemas de risco de IA)Agentes de IA dominarão a experiência do usuário; a novidade diminuirá até 2026

Conclusão

O próximo capítulo do DeFi provavelmente será moldado por infraestrutura eficiente, ativos que geram rendimento, integração com finanças tradicionais e experiências de usuário impulsionadas por IA. Jeff Yan foca na construção de uma infraestrutura DEX de alto rendimento e de propriedade da comunidade que pode servir como uma camada base neutra para ativos tokenizados. Stani Kulechov espera que taxas de juros mais baixas, integração fintech e ativos do mundo real catalisem um novo boom do DeFi. Guy Young prioriza stablecoins que geram rendimento e pagamentos sem atrito, impulsionando o DeFi para aplicativos de mensagens e bancos tradicionais. Haseeb Qureshi antecipa que agentes de IA transformarão as carteiras e que a clareza regulatória desbloqueará o capital institucional, ao mesmo tempo em que adverte contra narrativas de tokens de IA superestimadas.

Coletivamente, essas perspectivas sugerem que o futuro do DeFi irá além da agricultura especulativa em direção a produtos financeiros maduros e centrados no usuário. Os protocolos devem entregar valor econômico real, integrar‑se com os trilhos financeiros existentes e aproveitar os avanços tecnológicos como IA e blockchains de alto desempenho. À medida que essas tendências convergem, o DeFi pode evoluir de um ecossistema de nicho para uma infraestrutura financeira global e sem permissão.

MCP no ecossistema Web3: uma revisão abrangente

· 56 min de leitura
Dora Noda
Software Engineer

1. Definição e origem do MCP no contexto Web3

O ** Model Context Protocol (MCP) ** é um padrão aberto que conecta assistentes de IA (como modelos de idiomas grandes) a fontes, ferramentas e ambientes externos de dados. Freqüentemente descrito como uma "porta USB-C para a IA" devido à sua natureza plug-and-play universal, o MCP foi desenvolvido por antropia e introduzido pela primeira vez no final de novembro de 2024. Emergiu como uma solução para quebrar os modelos de IA de isolamento, com preenchimento com segurança com os bloqueios com segurança.

Originalmente, um projeto lateral experimental na Antrópico, o MCP ganhou tração rapidamente. Em meados de 2024, as implementações de referência de código aberto apareceram e, no início de 2025, tornou-se o padrão ** de fato para a integração da IA ​​Agentic **, com os principais laboratórios de IA (Openai, Google DeepMind, Meta AI) adotando-o nativamente. Essa rápida captação foi especialmente notável na comunidade ** Web3 **. Os desenvolvedores de blockchain consideraram o MCP como uma maneira de infundir recursos de IA em aplicações descentralizadas, levando a uma proliferação de conectores MCP construídos na comunidade para dados e serviços na cadeia. De fato, alguns analistas argumentam que o MCP pode cumprir a visão original do Web3 de uma Internet descentralizada e centrada no usuário de uma maneira mais prática do que apenas a blockchain, usando interfaces de linguagem natural para capacitar os usuários.

Em resumo, o MCP não é ** uma blockchain ou token **, mas um protocolo aberto nascido no mundo da IA ​​que foi rapidamente adotado no ecossistema Web3 como uma ponte entre agentes de IA e fontes de dados descentralizadas. Antrópica de origem aberta O padrão (com uma especificação inicial do GitHub e SDKs) e cultivou uma comunidade aberta em torno dela. Essa abordagem orientada à comunidade preparou o terreno para a integração do MCP no Web3, onde agora é visto como infraestrutura fundamental para aplicativos descentralizados com AI-I-iabled.

2. Arquitetura técnica e protocolos principais

MCP opera em uma arquitetura leve ** cliente -server ** com três funções principais:

  • ** Host MCP: ** O aplicativo ou agente da AI, que orquestra solicitações. Pode ser um chatbot (Claude, ChatGPT) ou um aplicativo movido a IA que precisa de dados externos. O host inicia interações, solicitando ferramentas ou informações via MCP.
  • ** Cliente MCP: ** Um componente do conector que o host usa para se comunicar com os servidores. O cliente mantém a conexão, gerencia mensagens de solicitação/resposta e pode lidar com vários servidores em paralelo. Por exemplo, uma ferramenta de desenvolvedor como o Cursor ou o VS Code do modo do Code pode atuar como um cliente MCP que preenche o ambiente local de IA com vários servidores MCP.
  • ** Servidor MCP: ** Um serviço que expõe alguns dados ou funcionalidades contextuais à IA. Os servidores fornecem ** ferramentas **, ** Recursos ** ou ** Slots ** que a IA pode usar. Na prática, um servidor MCP pode interagir com um banco de dados, um aplicativo em nuvem ou um nó blockchain e apresentar um conjunto padronizado de operações na IA. Cada par cliente-servidor se comunica em seu próprio canal, para que um agente de IA possa tocar em vários servidores simultaneamente para necessidades diferentes.

** Primitivos principais: ** MCP define um conjunto de tipos de mensagens e primitivos padrão que estruturam a interação da ferramenta da AI. Os três primitivos fundamentais são:

  • ** Ferramentas: ** Operações ou funções discretas A IA pode invocar em um servidor. Por exemplo, uma ferramenta "SearchDocuments" ou uma ferramenta "eth_call". As ferramentas encapsulam ações como a consulta de uma API, a execução de um cálculo ou chamando uma função de contrato inteligente. O cliente MCP pode solicitar uma lista de ferramentas disponíveis de um servidor e ligue para as necessárias.
  • ** RECURSOS: ** De extremidades de dados que a IA pode ler (ou às vezes gravar para) através do servidor. Estes podem ser arquivos, entradas de banco de dados, estado de blockchain (blocos, transações) ou quaisquer dados contextuais. A IA pode listar os recursos e recuperar seu conteúdo por meio de mensagens MCP padrão (por exemplo, Listresources e` ReadResource ', solicitações).
  • ** Prompts: ** Modelos de prompt estruturados ou instruções que os servidores podem fornecer para orientar o raciocínio da IA. Por exemplo, um servidor pode fornecer um modelo de formatação ou um prompt de consulta predefinido. A IA pode solicitar uma lista de modelos de prompt e usá -los para manter a consistência na forma como interage com esse servidor.

Sob o capô, as comunicações do MCP são tipicamente baseadas em JSON e seguem um padrão de resposta-resposta semelhante ao RPC (chamada de procedimento remoto). A especificação do protocolo define mensagens como inicializerequest, listTools, calltool, listresources etc., que garantem que qualquer cliente compatível com MCP possa conversar com qualquer servidor MCP de uma maneira uniforme. Essa padronização é o que permite que um agente de IA * descubra * o que pode fazer: Ao se conectar a um novo servidor, ele pode perguntar "Quais ferramentas e dados você oferece?" E então decida dinamicamente como usá -los.

** Modelo de segurança e execução: ** MCP foi projetado com interações seguras e controladas em mente. O modelo de IA em si não executa o código arbitrário; Ele envia intenções de alto nível (através do cliente) para o servidor, que executa a operação real (por exemplo, buscando dados ou chamando uma API) e retorna resultados. Essa separação significa ações sensíveis (como transações de blockchain ou gravações de banco de dados) podem ser sandboxed ou exigir aprovação explícita do usuário. Por exemplo, existem mensagens como ping (para manter as conexões vivas) e até mesmo um` createMessagerequest ', que permite que um servidor MCP solicite à IA do cliente que gere uma sub-resposta, normalmente bloqueada pela confirmação do usuário. Recursos como autenticação, controle de acesso e registro de auditoria estão sendo desenvolvidos ativamente para garantir que o MCP possa ser usado com segurança em ambientes corporativos e descentralizados (mais sobre isso na seção de roteiro).

Em resumo, a arquitetura do MCP depende de um protocolo de mensagem ** padronizado ** (com chamadas de estilo JSON-RPC) que conecta agentes de IA (hosts) a uma matriz flexível de servidores que fornecem ferramentas, dados e ações. Essa arquitetura aberta é ** modelo-agnóstico ** e ** plataforma-agnóstico **-Qualquer agente de IA pode usar o MCP para conversar com qualquer recurso, e qualquer desenvolvedor pode criar um novo servidor MCP para uma fonte de dados sem precisar modificar o código principal da IA. Essa extensibilidade plug-and-play é o que torna o MCP poderoso no Web3: pode-se criar servidores para nós de blockchain, contratos inteligentes, carteiras ou oráculos e que os agentes de IA integrem perfeitamente esses recursos ao lado das APIs do Web2.

3. Use casos e aplicações do MCP no Web3

O MCP desbloqueia uma ampla gama de casos de uso **, permitindo que aplicativos acionados por IA acessem dados de blockchain e executem ações na cadeia ou fora da cadeia de uma maneira segura e de alto nível. Aqui estão alguns aplicativos e problemas importantes que isso ajuda a resolver no domínio Web3:

-** Análise e consulta de dados na cadeia: ** Os agentes da IA ​​podem consultar o estado de blockchain ao vivo em tempo real para fornecer informações ou acionar ações. Por exemplo, um servidor MCP conectado a um nó Ethereum permite que um IA busque saldos de conta, leia o armazenamento de contratos inteligentes, rastreia transações ou recupere registros de eventos sob demanda. Isso transforma um chatbot ou assistente de codificação em um explorador de blockchain. Os desenvolvedores podem fazer perguntas de assistente de IA como "Qual é a liquidez atual no Pool X Uniswap X?" ou "simular o custo do gás da transação Ethereum" e a IA usará as ferramentas MCP para chamar um nó RPC e obter a resposta da cadeia ao vivo. Isso é muito mais poderoso do que depender dos dados de treinamento da IA ​​ou dos instantâneos estáticos.

  • ** Gerenciamento automatizado de portfólio DEFI: ** Combinando ferramentas de acesso e ação de dados, os agentes da IA ​​podem gerenciar portfólios de criptografia ou posições defi. Por exemplo, um ** "AI Vault Optimizer" ** poderia monitorar as posições de um usuário nas fazendas de rendimento e sugerir ou executar automaticamente estratégias de reequilíbrio com base em condições de mercado em tempo real. Da mesma forma, uma IA poderia atuar como um gerente de portfólio ** **, ajustando as alocações entre protocolos quando o risco ou as taxas mudam. O MCP fornece a interface padrão para a IA ler métricas na cadeia (preços, liquidez, índices colaterais) e, em seguida, invocar ferramentas para executar transações (como mover fundos ou trocar ativos), se permitido. Isso pode ajudar os usuários a maximizar o rendimento ou gerenciar riscos 24 horas por dia, 7 dias por semana, de uma maneira que seria difícil de fazer manualmente.
  • ** Agentes de usuários movidos a IA para transações: ** Pense em um assistente pessoal de IA que possa lidar com interações blockchain para um usuário. Com o MCP, esse agente pode se integrar às carteiras e DAPPs para executar tarefas por meio de comandos de linguagem natural. Por exemplo, um usuário poderia dizer: "Ai, enviar 0,5 ETH da minha carteira para Alice" ou "Apoie meus tokens no pool de maior tostura". A IA, através do MCP, usaria um servidor de carteira ** ** (segurando a chave privada do usuário) para criar e assinar a transação e um servidor MCP de blockchain para transmiti -lo. Esse cenário transforma interações complexas de linha de comando ou metamask em uma experiência de conversação. É crucial que os servidores Secure Wallet MCP sejam usados ​​aqui, aplicando permissões e confirmações, mas o resultado final está simplificando as transações na cadeia por meio da assistência da IA. -** Assistentes de desenvolvedores e depuração de contratos inteligentes: ** Os desenvolvedores da Web3 podem aproveitar os assistentes de AI baseados em MCP com muito conhecimento de infraestrutura de blockchain. Por exemplo, ** Servidores MCP do ChainStack para EVM e Solana ** Dê uma visibilidade profunda da codificação da AI no ambiente de blockchain do desenvolvedor. Um engenheiro de contrato inteligente usando um assistente de IA (no código VS ou um IDE) pode fazer com que a IA busque o estado atual de um contrato em um Testnet, execute uma simulação de uma transação ou verifique os logs - tudo via MCP chamadas para nós de blockchain local. Isso ajuda a depurar e testar contratos. A IA não está mais codificando "cegamente"; Na verdade, pode verificar como o código se comporta na cadeia em tempo real. Este caso de uso resolve um importante ponto de dor, permitindo que a IA ingerisse continuamente os documentos atualizados (através de um servidor MCP de documentação) e consulte a blockchain diretamente, reduzindo alucinações e tornando as sugestões muito mais precisas.
  • ** Coordenação cruzada de protocolo: ** Como o MCP é uma interface unificada, um único agente de IA pode coordenar em vários protocolos e serviços simultaneamente- algo extremamente poderoso na paisagem interconectada do Web3. Imagine um agente comercial autônomo ** que monitora várias plataformas defi de arbitragem. Através do MCP, um agente poderia fazer interface simultaneamente com os mercados de empréstimos da AAVE, uma ponte de cadeia transversal de camada e um serviço de análise MEV (Miner Extrable Value), em toda a interface coerente. A IA poderia, em um "processo de pensamento", reunir dados de liquidez do Ethereum (por meio de um servidor MCP em um nó Ethereum), obter informações sobre preços ou dados do Oracle (através de outro servidor) e até chamar operações de ponte ou troca. Anteriormente, essa coordenação de várias plataformas exigiria bots complexos com código personalizado, mas o MCP fornece uma maneira generalizável de uma IA navegar em todo o ecossistema Web3 como se fosse um big data/pool de recursos. Isso pode permitir casos de uso avançado, como otimização de rendimento de cadeia cruzada ou proteção de liquidação automatizada, onde uma IA move ativos ou garantias entre as cadeias proativamente.
  • ** BOTS ADVISORES E APOIO AI: ** Outra categoria são os consultores voltados para o usuário em aplicativos de criptografia. Por exemplo, um ** defi ajuda chatbot ** integrado a uma plataforma como o Uniswap ou o composto poderia usar o MCP para obter informações em tempo real para o usuário. Se um usuário perguntar: "Qual é a melhor maneira de proteger minha posição?", A IA pode buscar taxas atuais, dados de volatilidade e detalhes do portfólio do usuário via MCP e, em seguida, dê uma resposta com reconhecimento de contexto. As plataformas estão explorando ** Assistentes movidos a IA ** embutidos em carteiras ou DAPPs que podem orientar os usuários por meio de transações complexas, explicar riscos e até executar sequências de etapas com aprovação. Esses agentes de IA estão efetivamente sentados no topo de vários serviços da Web3 (Dexes, Pools de Empréstimos, Protocolos de Seguros), usando o MCP para consultar e comandá -los conforme necessário, simplificando assim a experiência do usuário.
  • ** Além do Web3- Fluxos de trabalho com vários domínios: ** Embora nosso foco seja Web3, vale a pena observar os casos de uso do MCP se estendem a qualquer domínio em que a IA precise de dados externos. Ele já está sendo usado para conectar IA a coisas como Google Drive, Slack, Github, Figma e muito mais. Na prática, um único agente de IA pode atravessar o Web3 e o Web2: por exemplo, analisar um modelo financeiro do Excel do Google Drive, sugerindo negociações na cadeia com base nessa análise, tudo em um fluxo de trabalho. A flexibilidade do MCP permite a automação de domínios cruzados (por exemplo, "Programe minha reunião se meu voto da DAO for aprovado e envie um e-mail para os resultados") que combina ações blockchain com as ferramentas do dia a dia.

** Problemas resolvidos: ** O problema abrangente do MCP é a ** falta de uma interface unificada para a IA interagir com dados e serviços ao vivo **. Antes do MCP, se você quisesse uma IA para usar um novo serviço, precisava codificar manualmente um plug-in ou integração para a API desse serviço específico, geralmente de maneira ad-hoc. No Web3, isso era especialmente pesado - todo blockchain ou protocolo possui suas próprias interfaces, e nenhuma IA poderia esperar apoiar todos eles. O MCP resolve isso padronizando como a IA descreve o que deseja (o idioma natural mapeado para as chamadas de ferramentas) e como os serviços descrevem o que eles oferecem. Isso reduz drasticamente o trabalho de integração. Por exemplo, em vez de escrever um plug -in personalizado para cada protocolo DEFI, um desenvolvedor pode escrever um servidor MCP para esse protocolo (anotando essencialmente suas funções no idioma natural). Qualquer IA habilitada para MCP (modelos Claude, ChatGPT ou de código aberto) pode utilizá-lo imediatamente. Isso torna a AI ** extensível ** de maneira plug-and-play, como adicionar um novo dispositivo por meio de uma porta universal é mais fácil do que instalar uma nova placa de interface.

Em suma, o MCP no Web3 permite que ** agentes da IA ​​se tornem cidadãos de primeira classe do mundo da blockchain **-consultando, analisando e até transacionando em sistemas descentralizados, todos através de canais seguros e padronizados. Isso abre a porta para Dapps mais autônomos, agentes de usuários mais inteligentes e integração perfeita da inteligência na cadeia e fora da cadeia.

4. Modelo de tokenômica e governança

Ao contrário dos protocolos típicos do Web3, ** MCP não possui um token ou criptomoeda nativo. Assim, não há tokenômica interna-não é um modelo de emissão de token, staking ou taxa inerente ao uso do MCP. Aplicativos e servidores de IA se comunicam via MCP sem qualquer criptomoeda envolvida; Por exemplo, uma IA chamando uma blockchain via MCP pode pagar taxas de gás pela transação de blockchain, mas o próprio MCP não adiciona taxa de token extra. Esse design reflete a origem do MCP na comunidade de IA: foi introduzido como um padrão técnico para melhorar as interações da AI-Tool, não como um projeto tokenizado.

** Governança ** do MCP é realizado de maneira aberta e orientada pela comunidade. Depois de liberar o MCP como padrão aberto, o antropia sinalizou um compromisso com o desenvolvimento colaborativo. Um amplo comitê de direção ** e grupos de trabalho se formaram para pastorear a evolução do protocolo. Notavelmente, em meados de 2025, grandes partes interessadas como a Microsoft e o Github ingressaram no comitê de direção do MCP ao lado do Antrópico. Isso foi anunciado na Microsoft Build 2025, indicando uma coalizão de players do setor que orientam as decisões de roteiro e padrões do MCP. O comitê e os mantenedores trabalham por meio de um processo de governança aberta: as propostas para alterar ou estender o MCP são normalmente discutidas publicamente (por exemplo, por meio de questões do GitHub e "Sep" - proposta de aprimoramento padrão - diretrizes). Há também um Grupo de Trabalho de Registro MCP ** (com mantenedores de empresas como Block, PulseMCP, Github e Antrópico) que exemplifica a governança multipartidária. No início de 2025, os colaboradores de pelo menos 9 organizações diferentes colaboraram para criar um registro unificado de servidor MCP para descoberta, demonstrando como o desenvolvimento é descentralizado entre os membros da comunidade, em vez de controlado por uma entidade.

Como não há token, ** Incentivos de governança ** confiam nos interesses comuns das partes interessadas (empresas de IA, fornecedores de nuvem, desenvolvedores de blockchain etc.) para melhorar o protocolo para todos. Isso é um tanto análogo à forma como os padrões W3C ou IETF são governados, mas com um processo mais rápido do Github Centric. Por exemplo, a Microsoft e a Antrópica trabalharam juntos para projetar uma especificação de autorização aprimorada para MCP (integrando coisas como OAuth e Single Sign-On), e o GitHub colaborou no Serviço Oficial de Registro MCP para listar servidores disponíveis. Esses aprimoramentos foram contribuídos de volta para a especificação do MCP para benefício de todos.

Vale a pena notar que, embora o próprio MCP não esteja em Alguns pesquisadores e líderes de pensamento no Web3 prevêem o surgimento de ** “MCP Networks” **-Redes essencialmente descentralizadas de servidores e agentes MCP que usam mecanismos de blockchain para descoberta, confiança e recompensas. Nesse cenário, pode-se imaginar um token sendo usado para recompensar aqueles que executam servidores MCP de alta qualidade (semelhantes aos mineiros ou operadores de nó são incentivados). Recursos como ** Classificações de reputação, computação verificável e descoberta de nós ** podem ser facilitados por contratos inteligentes ou uma blockchain, com um comportamento honesto ao token. Isso ainda é conceitual, mas projetos como o NAMDA do MIT (discutidos mais adiante) estão experimentando mecanismos de incentivo baseados em token para redes de agentes de IA usando MCP. Se essas idéias amadurecem, o MCP poderá se cruzar com a tokenômica na cadeia mais diretamente, mas a partir de 2025 ** o padrão MCP do núcleo permanece sem token **.

Em resumo, o "modelo de governança" do MCP é o de um padrão de tecnologia aberta: mantida colaborativamente por uma comunidade e um comitê diretor de especialistas, sem token de governança na cadeia. As decisões são guiadas por mérito técnico e amplo consenso, em vez de votação ponderada por moedas. Isso distingue o MCP de muitos protocolos Web3 - pretende cumprir os ideais da Web3 (descentralização, interoperabilidade, empoderamento do usuário) por meio de software e padrões abertos, ** não através de uma blockchain ou token proprietário **. Nas palavras de uma análise, *“A promessa do Web3 ... pode finalmente ser realizada não através de blockchain e criptomoeda, mas através da linguagem natural e dos agentes da IA” *, posicionando o MCP como um facilitador chave dessa visão. Dito isto, à medida que as redes do MCP crescem, podemos ver modelos híbridos em que os mecanismos de governança ou incentivo baseados em blockchain aumentam o ecossistema-um espaço para observar atentamente.

5. Comunidade e ecossistema

O ecossistema MCP cresceu explosivamente em pouco tempo, abrangendo desenvolvedores de IA, colaboradores de código aberto, engenheiros da Web3 e grandes empresas de tecnologia. É um esforço vibrante da comunidade, com os principais colaboradores e parcerias **, incluindo:

  • ** Antrópico: ** Como criador, o antropal semeou o ecossistema, de origem aberta da especificação MCP e vários servidores de referência (para o Google Drive, Slack, Github, etc.). O Antrópico continua a liderar o desenvolvimento (por exemplo, funcionários como Theodora Chu servem como gerentes de produto do MCP, e a equipe da Anthropic contribui fortemente para especificar atualizações e suporte da comunidade). A abertura da Anthrópica atraiu outros para construir o MCP, em vez de vê-lo como uma ferramenta única.

  • ** Os primeiros adotantes (bloco, Apollo, Zed, Replit, Codeium, SourceGraph): ** Nos primeiros meses após a liberação, uma onda de adotantes iniciais implementou o MCP em seus produtos. ** Bloco (anteriormente Square) ** MCP integrado para explorar os sistemas Agentic AI em Fintech-o CTO do Block elogiou o MCP como uma ponte aberta que conecta a IA a aplicativos do mundo real. ** Apollo ** (provavelmente Apollo GraphQL) também integrou o MCP para permitir o acesso da IA ​​aos dados internos. Empresas de ferramentas de desenvolvedor como ** Zed (editor de código) **, ** Replit (nuvem IDE) **, ** Codeium (AI Coding Assistant) ** e ** SourceGraph (pesquisa de código) ** Cada um trabalhou para adicionar suporte ao MCP. Por exemplo, o SourceGraph usa o MCP para que um assistente de codificação de IA possa recuperar o código relevante de um repositório em resposta a uma pergunta, e os agentes do IDE da Replit podem atrair o contexto específico do projeto. Esses primeiros adotantes deram credibilidade e visibilidade do MCP.

  • ** Big Tech endosso - OpenAI, Microsoft, Google: ** Em uma virada notável, empresas que, de outra forma, são concorrentes alinhados no MCP. ** O CEO da Openai, Sam Altman, anunciou publicamente ** em março de 2025, que o OpenAI adicionaria o suporte ao MCP em seus produtos (incluindo o aplicativo de desktop da ChatGPT), dizendo*"As pessoas adoram o MCP e estamos entusiasmados em adicionar suporte em nossos produtos"*. Isso significava que os plug -ins de agente do OpenAI e ChatGPT falavam MCP, garantindo a interoperabilidade. Apenas algumas semanas depois, ** CEO do Google Deepmind, Demis Hassabis **, revelou que os próximos modelos e ferramentas de Gemini do Google suportariam o MCP, chamando -o de um bom protocolo e um padrão aberto para a "Era Agentic AI". ** Microsoft ** Não apenas se juntou ao comitê de direção, mas fez uma parceria com a Anthropic para construir um C# SDK oficial para o MCP servir a comunidade de desenvolvedores corporativos. A Unidade Github da Microsoft integrou o MCP no modo ** Github COOPILOT (modo de "copilot laboratórios/agentes" do vs Código) **, permitindo que o Copilot use servidores MCP para coisas como pesquisas de repositório e execução de casos de teste. Além disso, a Microsoft anunciou que o Windows 11 exporia determinadas funções do sistema operacional (como o acesso ao sistema de arquivos) como servidores MCP para que os agentes da IA ​​possam interagir com o sistema operacional com segurança. A colaboração entre o OpenAi, Microsoft, Google e Antrópica-todos reunidos em torno do MCP-é extraordinária e ressalta o ethos da Comunidade-Over-Competition deste padrão.

  • ** Comunidade de desenvolvedores da Web3: ** Vários desenvolvedores e startups blockchain adotaram o MCP. Vários servidores MCP orientados pela comunidade ** foram criados para servir casos de uso de blockchain:

  • A equipe da ** Alchemy ** (um provedor de infraestrutura de blockchain líder) construiu um servidor ** de alquimia MCP ** que oferece ferramentas de análise de blockchain sob demanda via MCP. Provavelmente, isso permite que uma IA obtenha estatísticas de blockchain (como transações históricas, atividade de endereçamento) através das APIs da Alquimia usando a linguagem natural.

    • Os colaboradores desenvolveram um servidor MCP ** Bitcoin & Lightning Network ** para interagir com os nós do Bitcoin e a rede de pagamento de raios, permitindo que os agentes da IA ​​leiam dados do Bitcoin Block ou até criem faturas de raios por meio de ferramentas padrão.
    • O grupo de mídia e educação criptográfico ** Bankless ** criou um servidor ** Onchain MCP ** focado nas interações financeiras do Web3, possivelmente fornecendo uma interface aos protocolos de defi (enviando transações, consultando posições de defi, etc.) para assistentes de IA.
    • Projetos como ** rollup.codes ** (uma base de conhecimento para a camada Ethereum 2s) fizeram um servidor ** MCP para informações do ecossistema de rollup **, para que uma IA possa responder a perguntas técnicas sobre rollups, consultando este servidor.
    • ** ChainStack **, um provedor de nós blockchain, lançou um conjunto de servidores MCP (cobertos anteriormente) para documentação, dados da cadeia EVM e Solana, comercializando explicitamente como "colocando sua IA em esteróides de blockchain" para construtores Web3.

Além disso, as comunidades focadas no Web3 surgiram em torno do MCP. Por exemplo, ** PulseMCP ** e ** Goose ** são iniciativas comunitárias referenciadas como ajudando a construir o registro do MCP. Também estamos vendo polinização cruzada com estruturas de agentes de IA: os adaptadores integrados da comunidade de Langchain, para que todos os servidores MCP possam ser usados ​​como ferramentas em agentes movidos a Langchain, e as plataformas de IA de código aberto, como abraçar o TGI FACE (Inferência de Geração de Texto), estão explorando a compatibilidade do MCP. O resultado é um rico ecossistema, onde novos servidores MCP são anunciados quase diariamente, servindo de tudo, desde bancos de dados a dispositivos IoT.

  • ** Escala de adoção: ** A tração pode ser quantificada até certo ponto. Até fevereiro de 2025 - apenas três meses após o lançamento - mais de 1.000 servidores/conectores MCP ** haviam sido construídos pela comunidade. Esse número só cresceu, indicando milhares de integrações entre os setores. Mike Krieger (diretor de produtos do Antrópico) observou na primavera de 2025 que o MCP havia se tornado um "padrão aberto prosperando com milhares de integrações e crescimento" **. O registro oficial do MCP (lançado em pré -visualização em setembro de 2025) está catalogando servidores disponíveis ao público, facilitando a descoberta de ferramentas; A API aberta do registro permite que qualquer pessoa pesquise, digamos, "Ethereum" ou "noção" e encontre conectores MCP relevantes. Isso reduz a barreira para novos participantes e ainda mais o crescimento de combustíveis.

  • ** Parcerias: ** Tocamos em muitas parcerias implícitas (antropia com a Microsoft, etc.). Para destacar mais alguns:

  • ** Anthropic & Slack **: Anthropic fez parceria com o Slack para integrar Claude aos dados do Slack via MCP (o Slack possui um servidor MCP oficial, permitindo que a IA recupere mensagens Slack ou Post Alerts).

    • ** Provedores de nuvem **: Amazon (AWS) e Google Cloud trabalharam com antropia para hospedar Claude, e é provável que eles suportem o MCP nesses ambientes (por exemplo, a AWS Bedrock pode permitir que os conectores MCP para dados corporativos). Embora não estejam explicitamente nas citações, essas parcerias em nuvem são importantes para a adoção da empresa.
    • ** Colaborações acadêmicas **: O projeto de pesquisa do MIT e IBM Namda (discutido a seguir) representa uma parceria entre a academia e a indústria para impulsionar os limites do MCP em ambientes descentralizados.
    • ** Github & vs Code **: Parceria para aprimorar a experiência do desenvolvedor - por exemplo, a equipe do VS Code contribuiu ativamente para o MCP (um dos mantenedores do registro é da equipe do Code).
    • ** Inúmeras startups **: Muitas startups de IA (startups de agentes, startups de automação de fluxo de trabalho) estão construindo no MCP em vez de reinventar a roda. Isso inclui as startups emergentes da AI da Web3 que procuram oferecer "IA como DAO" ou agentes econômicos autônomos.

No geral, a comunidade ** MCP está diversificada e em rápida expansão **. Inclui empresas principais de tecnologia (para padrões e ferramentas básicas), especialistas em Web3 (trazendo conhecimentos de blockchain e casos de uso) e desenvolvedores independentes (que frequentemente contribuem com conectores para seus aplicativos ou protocolos favoritos). O ethos é colaborativo. Por exemplo, as preocupações de segurança sobre os servidores MCP de terceiros levaram a discussões e contribuições da comunidade das melhores práticas (por exemplo, contribuintes do StackLok que trabalham em ferramentas de segurança para servidores MCP). A capacidade da comunidade de iterar rapidamente (o MCP viu várias atualizações de especificações em meses, adicionando recursos como respostas de streaming e melhor autenticação) é um testemunho de amplo envolvimento.

No ecossistema Web3 especificamente, o MCP promoveu um mini-ecossistema de projetos ** "AI + Web3" **. Não é apenas um protocolo para usar; Está catalisando novas idéias, como DAOs orientados a IA, governança na cadeia auxiliada pela análise da IA ​​e automação de domínio cruzado (como vincular eventos na cadeia a ações fora da cadeia através da IA). A presença das principais figuras da Web3 - por exemplo, ** Zhivko Todorov, da Limechain , declarando“MCP representa a inevitável integração de IA e blockchain” - mostra que os veteranos da blockchain estão defendendo ativamente. Parcerias entre as empresas de IA e blockchain (como as entre antropia e bloco, ou o Azure Cloud da Microsoft, tornando o MCP fácil de implantar ao lado de seus serviços de blockchain) sugerem um futuro onde ** agentes da IA ​​e contratos inteligentes trabalham de mãos dadas **.

Pode -se dizer que o MCP acendeu a primeira convergência genuína da comunidade de desenvolvedores de IA com a comunidade de desenvolvedores da Web3. Hackathons e Meetups agora apresentam faixas do MCP. Como uma medida concreta da adoção do ecossistema: em meados de 2025, ** OpenAI, Google e antropia-representando coletivamente a maioria dos modelos avançados de IA-todos suportam MCP ** e, por outro lado, as empresas de bloqueio líder*Blockchain. Esse efeito de rede em dois lados é um bom presságio para o MCP se tornar um padrão duradouro.

6. Roteiro e marcos de desenvolvimento

O desenvolvimento do MCP tem sido acelerado. Aqui, descrevemos os principais marcos principais até agora e o roteiro à frente ** como obtido de fontes oficiais e atualizações da comunidade:

  • ** Tarde de 2024- Lançamento inicial: ** ON ** 25 de novembro de 2024 **, Antrópico anunciou oficialmente o MCP e de origem aberta das especificações e SDKs iniciais. Juntamente com a especificação, eles lançaram um punhado de implementações do MCP Server para ferramentas comuns (Google Drive, Slack, Github etc.) e adicionaram suporte no assistente de Claude AI (Claude Desktop App) para se conectar aos servidores MCP locais. Isso marcou o lançamento 1.0 do MCP. As integrações antecipadas de prova de conceito na Anthropic mostraram como Claude poderia usar o MCP para ler arquivos ou consultar um banco de dados SQL na linguagem natural, validando o conceito.
  • ** Q1 2025 - Adoção rápida e iteração: ** Nos primeiros meses de 2025, o MCP viu ** adoção generalizada da indústria **. Em ** março de 2025 **, o OpenAI e outros provedores de IA anunciaram suporte (conforme descrito acima). Esse período também viu ** Evolução de especificações **: MCP atualizado antrópico para incluir ** recursos de streaming ** (permitindo que grandes resultados ou fluxos de dados contínuos sejam enviados de forma incremental). Esta atualização foi observada em abril de 2025 com o C# SDK News, indicando que o MCP agora suportava recursos como respostas em tempo real ou integração de feeds em tempo real. A comunidade também criou implementações de referência ** em vários idiomas (Python, JavaScript, etc.) além do SDK do Anthrópico, garantindo suporte à poliglota.
  • ** Q2 2025 - Tooling e governança do ecossistema: ** Em ** maio de 2025 **, com a Microsoft e o Github se unindo ao esforço, houve um esforço para formalizar a governança e aumentar a segurança. Na Build 2025, a Microsoft revelou planos para ** Integração do Windows 11 MCP ** e detalhou uma colaboração para melhorar os fluxos de autorização ** no MCP **. Na mesma época, a idéia de um registro ** MCP ** foi apresentada aos servidores Index Disponível (o brainstorming inicial começou em março de 2025, de acordo com o blog de registro). O processo ** "Standards Track" ** (SEP - propostas de aprimoramento padrão) foi estabelecido no GitHub, semelhante ao EIPS do Ethereum ou ao Python's Peps, para gerenciar contribuições de uma maneira ordenada. As chamadas da comunidade e os grupos de trabalho (para segurança, registro, SDKs) começaram a se reunir.
  • ** Mid 2025- Expansão de recursos: ** Até meados de 2025, o roteiro priorizou várias melhorias importantes:
    • ** Suporte de tarefas assíncronas e de longa duração: ** Planeja permitir que o MCP lide com operações longas sem bloquear a conexão. Por exemplo, se uma IA acionar um trabalho em nuvem que leva minutos, o protocolo MCP suportaria respostas assíncronas ou reconexão para obter resultados. -** Autenticação e segurança fina: ** Desenvolvendo ** Autorização de grãos finos ** Mecanismos para ações sensíveis. Isso inclui os fluxos OAuth possivelmente integrando, as chaves da API e o Enterprise SSO nos servidores MCP para que o acesso da IA ​​possa ser gerenciado com segurança. Em meados de 2025, os guias e as melhores práticas para a segurança do MCP estavam em andamento, dados os riscos de segurança de permitir que a IA invocasse ferramentas poderosas. O objetivo é que, por exemplo, se uma IA for acessar o banco de dados privado de um usuário via MCP, ele deve seguir um fluxo de autorização seguro (com consentimento do usuário) em vez de apenas um terminal aberto.
  • ** Teste de validação e conformidade: ** Reconhecendo a necessidade de confiabilidade, a comunidade priorizou o edifício ** Suites de teste de conformidade ** e ** implementações de referência **. Ao garantir que todos os clientes/servidores do MCP aderem às especificações (através de testes automatizados), eles visavam impedir a fragmentação. Um servidor de referência (provavelmente um exemplo com as melhores práticas para implantação remota e auth) estava no roteiro, assim como um aplicativo de cliente de referência demonstrando o uso completo do MCP com uma IA.
    • ** Suporte de multimodalidade: ** Estendendo o MCP além do texto para suportar modalidades como ** imagem, áudio, dados de vídeo ** no contexto. Por exemplo, uma IA pode solicitar uma imagem de um servidor MCP (digamos, um ativo de design ou um diagrama) ou produzir uma imagem. A discussão da especificação incluiu a adição de suporte para * transmissão e mensagens fundidas * para lidar com grande conteúdo multimídia interativamente. O trabalho inicial no “MCP Streaming” já estava em andamento (para apoiar coisas como feeds de áudio ao vivo ou dados de sensores contínuos para a IA).
    • ** Registro e descoberta central: ** O plano de implementar um serviço central ** MCP ** para a descoberta do servidor foi executado em meados de 2025. Em ** setembro de 2025 **, o registro oficial do MCP foi lançado em pré -visualização. Este registro fornece uma única fonte de verdade ** para servidores MCP disponíveis ao público, permitindo que os clientes encontrem servidores por nome, categoria ou recursos. É essencialmente como uma loja de aplicativos (mas aberta) para ferramentas de IA. O design permite registros públicos (um índice global) e os privados (específicos da empresa), todos interoperáveis ​​por meio de uma API compartilhada. O registro também introduziu um mecanismo de moderação ** para sinalizar ou excluir servidores maliciosos, com um modelo de moderação da comunidade para manter a qualidade.
  • ** Tarde de 2025 e além - em direção a redes MCP descentralizadas: ** Embora ainda não sejam itens de roteiro "oficiais", a trajetória aponta para mais ** descentralização e sinergia Web3 **:
  • Os pesquisadores estão explorando ativamente como adicionar ** Descoberta descentralizada, reputação e camadas de incentivo ** ao MCP. O conceito de uma rede ** MCP ** (ou "Marketplace of MCP Endpoints") está sendo incubada. Isso pode envolver registros baseados em contratos inteligentes (portanto, nenhum ponto de falha único para listagens de servidores), sistemas de reputação em que servidores/clientes têm identidades na cadeia e participam de bom comportamento e, possivelmente, ** recompensas de token por executar nós MCP confiáveis ​​**.
    • ** Projeto Namda ** no MIT, iniciado em 2024, é uma etapa concreta nessa direção. Até 2025, a NAMDA havia construído uma estrutura de agente distribuída protótipo nas fundações do MCP, incluindo recursos como descoberta dinâmica de nós, balanceamento de carga entre agrupamentos de agentes e um registro descentralizado usando técnicas de blockchain. Eles até têm incentivos experimentais baseados em token e rastreamento de proveniência para colaborações multi-agentes. Os marcos da NAMDA mostram que é viável ter uma rede de agentes MCP atravessando muitas máquinas com coordenação sem confiança. Se os conceitos da NAMDA forem adotados, podemos ver o MCP evoluir para incorporar algumas dessas idéias (possivelmente por meio de extensões opcionais ou protocolos separados em camadas no topo).
    • ** Enterprise Hardening: ** No lado da empresa, no final de 2025, esperamos que o MCP seja integrado às principais ofertas de software corporativo (a inclusão da Microsoft no Windows e o Azure é um exemplo). O roteiro inclui recursos para empresas, como ** Integração SSO para servidores MCP ** e controles de acesso robustos. A disponibilidade geral do registro e dos kits de ferramentas do MCP para implantar o MCP em escala (por exemplo, dentro de uma rede corporativa) é provável até o final de 2025.

Para recapitular alguns teclas ** Marcos de desenvolvimento até agora ** (formato da linha do tempo para maior clareza):

  • ** NOV 2024: ** MCP 1.0 Lançado (antropic).
  • ** De dezembro de 2024 - janeiro de 2025: ** Comunidade constrói a primeira onda de servidores MCP; Antrópicos libera o Claude Desktop com suporte ao MCP; Pilotos de pequena escala por bloco, Apollo, etc.
  • ** Fev 2025: ** mais de 1000 conectores da comunidade MCP alcançados; Workshops antropia de hosts (por exemplo, em uma cúpula de IA, Educação para dirigir).
  • ** Mar 2025: ** OpenAI anuncia suporte (ChatGPT Agents SDK).
  • ** abril de 2025: ** Google Deepmind anuncia suporte (Gemini apoiará o MCP); A Microsoft libera visualização do C# SDK.
  • ** Maio de 2025: ** Comitê de direção expandido (Microsoft/Github); Construa 2025 demos (integração do Windows MCP).
  • ** Jun 2025: ** O ChainStack lança servidores Web3 MCP (EVM/Solana) para uso público.
  • ** JUL 2025: ** Atualizações da versão do MCP Spec (streaming, melhorias de autenticação); Roteiro oficial publicado no site do MCP.
  • ** Set 2025: ** Registro MCP (visualização) lançado; Provavelmente o MCP atinge a disponibilidade geral em mais produtos (Claude para o trabalho, etc.).
  • ** final de 2025 (projetado): ** Registry v1.0 Live; guias de melhor prática de segurança liberados; Possivelmente experimentos iniciais com descoberta descentralizada (resultados da NAMDA).

A visão ** adiante ** é que o MCP se torna tão onipresente e invisível quanto HTTP ou JSON - uma camada comum que muitos aplicativos usam sob o capô. Para o Web3, o roteiro sugere uma fusão mais profunda: onde os agentes de IA não apenas usarão o Web3 (blockchains) como fontes ou sumidouros de informação, mas a infraestrutura do Web3 em si pode começar a incorporar agentes de IA (via MCP) como parte de sua operação (por exemplo, um DAO pode executar um MCP-Compatível AI para gerenciar determinados. A ênfase do roteiro em coisas como verificabilidade e autenticação sugere que as interações MCP minimizadas na linha ** ** podem ser uma realidade-imagine os resultados da IA ​​que acompanham provas criptográficas ou um registro na cadeia de quais ferramentas uma IA invocou para propósitos de auditoria. Essas possibilidades embaçam a linha entre as redes de IA e blockchain, e o MCP está no coração dessa convergência.

Em conclusão, o desenvolvimento do MCP é altamente dinâmico. Ele atingiu grandes marcos iniciais (ampla adoção e padronização dentro de um ano de lançamento) e continua a evoluir rapidamente com um roteiro claro enfatizando ** Segurança, Escalabilidade e Descoberta **. Os marcos alcançados e planejados garantem que o MCP permaneça robusto à medida que escala: abordar desafios como tarefas de longa duração, permissões seguras e a pura descoberta de milhares de ferramentas. Esse momento a termo indica que o MCP não é uma especificação estática, mas um padrão em crescimento, provavelmente incorporar mais recursos com sabor Web3 (governança descentralizada de servidores, alinhamento de incentivo) à medida que essas necessidades surgem. A comunidade está pronta para adaptar o MCP a novos casos de uso (IA multimodal, IoT, etc.), enquanto mantém um olho na promessa central: tornar a AI ** mais conectada, com reconhecimento de contexto e capacitação de usuário ** na era da Web3.

7. Comparação com projetos ou protocolos similares Web3

A mistura exclusiva de IA e conectividade do MCP significa que não há muitos equivalentes diretos de maçãs para maçãs, mas é esclarecedor compará-lo com outros projetos no cruzamento de Web3 e IA ou com objetivos análogos:

  • ** SingularityNet (AGI/X) **-*Marketplace de IA descentralizado:*Singularitynet, lançado em 2017 pelo Dr. Ben Goertzel e outros, é um mercado baseado em blockchain para serviços de IA. Ele permite que os desenvolvedores monetizem os algoritmos de IA como serviços e usuários para consumir esses serviços, todos facilitados por um token (Agix) que é usado para pagamentos e governança. Em essência, a SingularityNet está tentando descentralizar o abastecimento de modelos de IA **, hospedando -os em uma rede onde qualquer pessoa pode chamar um serviço de IA em troca de tokens. Isso difere do MCP fundamentalmente. O MCP não hospeda ou monetiza os modelos de IA; Em vez disso, ele fornece uma interface padrão ** para AI (onde quer que esteja em execução) para acessar dados/ferramentas **. Pode -se imaginar usar o MCP para conectar uma IA aos serviços listados no Singularitynet, mas a própria singularitynet se concentra na camada econômica (que fornece um serviço de IA e como eles são pagos). Outra diferença-chave: ** Governança **-SingularityNet tem governança na cadeia (via ** propostas de aprimoramento de singularitynet (SNEPS) ** e votação do Agix Token) para evoluir sua plataforma. A governança do MCP, por outro lado, é fora da cadeia e colaborativa sem um token. Em resumo, o SingularityNet e o MCP se esforçam para um ecossistema de IA mais aberto, mas o SingularityNet é sobre uma rede tokenizada de algoritmos de AI **, enquanto o MCP é sobre um padrão de protocolo ** para a interoperabilidade da AI-tool **. Eles poderiam complementar: por exemplo, uma IA no Singularitynet poderia usar o MCP para buscar dados externos de que precisa. Mas o SingularityNet não tenta padronizar o uso da ferramenta; Ele usa o Blockchain para coordenar os serviços de IA, enquanto o MCP usa padrões de software para permitir que a IA trabalhe com qualquer serviço.
  • ** Fetch.ai (FET) **-Plataforma descentralizada baseada em agente:fetch.ai é outro projeto que mistura a IA e o blockchain. Ele lançou seu próprio blockchain de prova de participação e estrutura para a criação de agentes autônomos ** que executam tarefas e interagem em uma rede descentralizada. Na visão de Fetch, milhões de "agentes de software" (representando pessoas, dispositivos ou organizações) podem negociar e trocar valor, usando tokens FET para transações. O Fetch.ai fornece uma estrutura de agente (UAGENTs) e infraestrutura para descoberta e comunicação entre agentes em seu livro. Por exemplo, um agente de busca pode ajudar a otimizar o tráfego em uma cidade interagindo com outros agentes para estacionamento e transporte ou gerenciar um fluxo de trabalho da cadeia de suprimentos autonomamente. Como isso se compara ao MCP? Ambos lidam com o conceito de agentes, mas os agentes da busca. Os agentes do MCP (hosts de IA) são orientados para o modelo (como um LLM) e não estão vinculados a nenhuma rede única; O MCP está contente em operar pela Internet ou dentro de uma configuração de nuvem, sem exigir uma blockchain. O Fetch.ai tenta construir uma nova economia descentralizada de IA desde o início ** (com seu próprio livro para confiança e transações), enquanto o MCP é ** camada-agnóstico **-ele se levanta em redes existentes (pode ser usado sobre interações HTTPs ou até em cima de um blockchin), se necessário), para inabilizar as interações. Pode-se dizer que buscar mais sobre ** agentes econômicos autônomos ** e MCP sobre ** agentes de uso inteligente de ferramentas **. Curiosamente, eles podem se cruzar: um agente autônomo no busca.ai pode usar o MCP para interagir com recursos fora da cadeia ou outras blockchains. Por outro lado, pode-se usar o MCP para criar sistemas multi-agentes que aproveitam diferentes blockchains (não apenas um). Na prática, o MCP teve uma adoção mais rápida porque não exigia sua própria rede - funciona com o Ethereum, Solana, Web2 APIs etc., fora da caixa. A abordagem do Fetch.ai é mais pesada, criando um ecossistema inteiro que os participantes devem ingressar (e adquirir tokens) para usar. Em suma, ** Fetch.ai vs MCP **: Fetch é uma plataformacom seu próprio token/blockchain para agentes de IA, concentrando -se em interoperabilidade e trocas econômicas entre agentes, enquanto o MCP é um protocoloque os agentes da IA ​​(em qualquer ambiente) podem usar para conectar e ferramentas. Seus objetivos se sobrepõem a permitir a automação orientada pela IA, mas lidam com diferentes camadas da pilha e têm filosofias arquitetônicas muito diferentes (ecossistema fechado vs aberto).
  • ** ChainLink e oráculos descentralizados **-Conectando blockchains a dados fora da cadeia:ChainLink não é um projeto de IA, mas é altamente relevante como um protocolo Web3 resolvendo um problema complementar: como conectar ** Blockchains ** com dados e computação externos. O ChainLink é uma rede descentralizada de nós (oráculos) que buscam, verificam e fornecem dados fora da cadeia para contratos inteligentes de maneira minimizada. Por exemplo, o ChainLink Oracles fornece feeds de preços aos protocolos de define ou chamam APIs externas em nome de contratos inteligentes por meio de funções do ChainLink. Comparativamente, o MCP conecta os modelos ** AI ** a dados/ferramentas externas (alguns dos quais podem ser blockchains). Pode -se dizer que ** ChainLink traz dados para blockchains, enquanto o MCP traz dados para ai **. Existe um paralelo conceitual: ambos estabelecem uma ponte entre sistemas isolados. O ChainLink se concentra na confiabilidade, descentralização e segurança dos dados alimentados na cadeia (resolvendo o "problema do Oracle" do ponto único de falha). O MCP se concentra na flexibilidade e padronização de como a IA pode acessar dados (resolvendo o "problema de integração" para os agentes da IA). Eles operam em diferentes domínios (contratos inteligentes versus assistentes de IA), mas pode -se comparar servidores MCP com oracles: um servidor MCP para dados de preços pode chamar a mesma APIs de um nó ChainLink. A diferença é o ** consumidor **-No caso do MCP, o consumidor é um assistente de IA ou usuário, não um contrato inteligente determinístico. Além disso, o MCP não fornece inerentemente a confiança que o ChainLink (MCP Servers pode ser centralizado ou administrado pela comunidade, com a confiança gerenciada no nível do aplicativo). No entanto, como mencionado anteriormente, as idéias para descentralizar redes MCP podem emprestar da Oracle Networks-por exemplo, vários servidores MCP podem ser consultados e os resultados foram verificados para garantir que uma IA não seja alimentada com dados ruins, semelhante a como vários nós do ChainLink agregam um preço. Em resumo, ** ChainLink vs MCP **: ChainLink éMiddleware Web3 para blockchains consumirem dados externos, o MCP éMiddleware AI para os modelos consumirem dados externos (que podem incluir dados de blockchain). Eles atendem às necessidades análogas em diferentes reinos e podem até complementar: uma IA usando o MCP pode buscar um feed de dados fornecido pelo ChainLink como um recurso confiável e, inversamente, uma IA poderia servir como fonte de análise que um Oracle do ChainLink traz na cadeia (embora esse último cenário levantasse questões de verificação).
  • ** Funções plugins / openiAI chatgpt vs MCP ** -*ABRIGENÇÕES DE INTEGRAÇÃO DE FERRAMENTAS AI:*Embora não sejam projetos Web3, uma comparação rápida é garantida porque os plugins chatGPT e o recurso de chamada de função do OpenAI também conectam a IA a ferramentas externas. Os plug -ins ChatGPT usam uma especificação OpenAPI fornecida por um serviço, e o modelo pode chamar essas APIs seguindo a especificação. As limitações são que é um ecossistema fechado (plugins aprovados pelo OpenAI, executando os servidores do OpenAI) e cada plug-in é uma integração silenciada. O mais recente * "Agents" * do Openai está mais próximo do MCP no conceito, permitindo que os desenvolvedores defina ferramentas/funções que uma IA pode usar, mas inicialmente era específico para o ecossistema do OpenAI. ** Langchain ** também forneceu uma estrutura para fornecer ferramentas LLMS no código. O MCP difere oferecendo um padrão ** aberto, modelo-agnóstico ** para isso. Como uma análise colocou, Langchain criou um padrão voltado para o desenvolvedor (uma interface Python) para ferramentas, enquanto o MCP cria um * padrão * voltado para o modelo *-um agente de IA pode descobrir e usar qualquer ferramenta definida pelo MCP no tempo de execução sem código personalizado. Em termos práticos, o ecossistema de servidores da MCP se tornou maior e mais diversificado do que a loja de plug -in do ChatGPT dentro de meses. E, em vez de cada modelo ter seu próprio formato de plug -in (o OpenAi tinha o deles, outros tinham diferentes), muitos estão coalescendo em torno do MCP. O próprio OpenAI sinalizou o suporte ao MCP, alinhando essencialmente sua abordagem de função com o padrão mais amplo. Portanto, comparando ** plugins OpenAI com MCP **: Os plugins são uma abordagem centralizada e com curadoria, enquanto o MCP é uma abordagem descentralizada e orientada pela comunidade. Em uma mentalidade do Web3, o MCP é mais "código aberto e sem permissão", enquanto os ecossistemas proprietários de plug -in estão mais fechados. Isso torna o MCP análogo ao ethos do Web3, embora não seja um blockchain - ele permite a interoperabilidade e o controle do usuário (você pode executar seu próprio servidor MCP para obter seus dados, em vez de fornecer tudo a um provedor de IA). Essa comparação mostra por que muitos consideram o MCP como tendo mais potencial de longo prazo: não está bloqueado em um fornecedor ou um modelo.
  • ** Projeto NAMDA e estruturas de agentes descentralizadas: ** Namda merece uma nota separada porque combina explicitamente o MCP com os conceitos da Web3. Conforme descrito anteriormente, a NAMDA (arquitetura distribuída modular do agente em rede) é uma iniciativa MIT/IBM iniciada em 2024 para criar uma rede escalável e distribuída de agentes de IA ** usando o MCP como camada de comunicação. Ele trata o MCP como o backbone das mensagens (como o MCP usa mensagens do tipo JSON-RPC padrão, se encaixa bem para comunicações inter-agentes) e, em seguida, adiciona camadas para ** descoberta dinâmica, tolerância a falhas e identidades verificáveis ​​** usando técnicas de bloqueio-inspiração. Os agentes da NAMDA podem estar em qualquer lugar (nuvem, dispositivos de borda, etc.), mas um registro descentralizado (um pouco como um DHT ou blockchain) mantém o controle deles e suas capacidades de uma maneira à prova de adulteração. Eles até exploram os agentes para incentivar a cooperação ou o compartilhamento de recursos. Em essência, o NAMDA é um experimento na aparência de um ** "Web3 do MCP" **. Ainda não é um projeto amplamente implantado, mas é um dos "protocolos semelhantes" mais próximos em espírito. Se visualizarmos Namda vs MCP: Namda usa o MCP (por isso não é padrões concorrentes), mas o estende com um protocolo para redes e coordenar vários agentes de maneira minimizada. Pode-se comparar o NAMDA com estruturas como ** Autonolas ou sistemas multi-agentes (MAS) ** que a comunidade criptográfica viu, mas aqueles geralmente não possuíam um componente de IA poderoso ou um protocolo comum. NAMDA + MCP Juntos mostrar como uma rede de agente descentralizada pode funcionar, com o blockchain fornecendo ** Identidade, reputação e possivelmente incentivos de token ** e MCP fornecendo a comunicação e o uso de ferramentas ** **.

Em resumo, ** MCP se destaca ** da maioria dos projetos anteriores do Web3: ele não começou como um projeto de criptografia, mas rapidamente se cruza com o Web3 porque resolve problemas complementares. Projetos como SingularityNet e Fetch.ai pretendiam * descentralizar a computação ou serviços de IA * usando o blockchain; O MCP *padroniza a integração da IA ​​com os Serviços *, que pode melhorar a descentralização, evitando o bloqueio da plataforma. Redes Oracle como o ChainLink resolveu a entrega de dados no blockchain; O MCP resolve a entrega de dados à IA (incluindo dados de blockchain). Se os principais ideais do Web3 forem descentralização, interoperabilidade e empoderamento do usuário, o MCP está atacando a peça de interoperabilidade no reino da IA. Ele está até influenciando esses projetos mais antigos - por exemplo, não há nada que impeça a SingularityNet de disponibilizar seus serviços de IA via servidores MCP ou buscar agentes de usar o MCP para conversar com sistemas externos. Podemos muito bem ver uma convergência em que as redes de IA controladas por token usam o MCP como sua língua franca *, casando-se com a estrutura de incentivo do Web3 com a flexibilidade do MCP.

Finalmente, se considerarmos ** Percepção do mercado **: O MCP é frequentemente apontado como para a IA, o que o Web3 esperava fazer pela Internet - quebre os silos e capacite os usuários. Isso levou alguns ao apelido do MCP informalmente como "Web3 para IA" (mesmo quando nenhum blockchain está envolvido). No entanto, é importante reconhecer que o MCP é um padrão de protocolo, enquanto a maioria dos projetos da Web3 são plataformas de pilha completa com camadas econômicas. Em comparações, o MCP geralmente é uma solução universal mais leve, enquanto os projetos de blockchain são soluções mais pesadas e especializadas. Dependendo do caso de uso, eles podem complementar, em vez de competir estritamente. À medida que o ecossistema amadurece, podemos ver o MCP integrado a muitos projetos da Web3 como um módulo (como o HTTP ou o JSON são onipresentes), e não como um projeto rival.

8. Percepção pública, tração do mercado e cobertura da mídia

O sentimento público em relação ao MCP tem sido extremamente positivo nas comunidades de IA e Web3, muitas vezes na fronteira com entusiasmado. Muitos vêem isso como um ** divisor de águas ** que chegou em silêncio, mas depois levou a indústria pela tempestade. Vamos quebrar a percepção, tração e narrativas notáveis ​​da mídia:

** Métricas de tração e adoção do mercado: ** Em meados de 2025, o MCP alcançou um nível de adoção raro para um novo protocolo. É apoiado em praticamente todos os principais provedores de modelos de IA (Antrópico, Openai, Google, Meta) e suportado pela Big Tech Infrastructure (Microsoft, Github, AWS etc.), conforme detalhado anteriormente. Somente isso sinaliza para o mercado que o MCP provavelmente está aqui para ficar (semelhante a como o apoio amplo impulsionou o TCP/IP ou HTTP nos primeiros dias da Internet). No lado Web3, a tração *é evidente no comportamento do desenvolvedor *: Hackathons começou a apresentar projetos MCP, e muitas ferramentas de dev blockchain agora mencionam a integração do MCP como um ponto de venda. A estatística de "mais de 1000 conectores em alguns meses" e a citação de "milhares de integrações" de Mike Krieger são frequentemente citadas para ilustrar a rapidez com que o MCP foi pego. Isso sugere fortes efeitos de rede - quanto mais ferramentas disponíveis via MCP, mais útil é, provocando mais adoção (um ciclo de feedback positivo). VCs e analistas observaram que o MCP alcançou em menos de um ano o que as tentativas anteriores de "interoperabilidade da IA" não fizeram ao longo de vários anos, em grande parte devido ao tempo (montando a onda de interesse em agentes da IA) e de código aberto. Na mídia Web3, a tração às vezes é medida em termos de desenvolvedor Mindshare e integração em projetos, e o MCP pontua agora em ambos.

** Percepção pública nas comunidades de IA e Web3: ** Inicialmente, o MCP voou sob o radar quando anunciado pela primeira vez (final de 2024). Mas no início de 2025, à medida que surgiram histórias de sucesso, a percepção mudou para a emoção. Os profissionais da IA ​​viam o MCP como a "peça de quebra -cabeça ausente" para tornar os agentes de IA verdadeiramente úteis além dos exemplos de brinquedos. Os construtores do Web3, por outro lado, o viram como uma ponte para finalmente incorporar a IA em Dapps sem jogar fora a descentralização-uma IA pode usar dados na cadeia sem precisar de um oráculo centralizado, por exemplo. ** Líderes de pensamento ** estão cantando louvores: por exemplo, Jesus Rodriguez (um importante escritor da AI da Web3) escreveu em Coindesk que o MCP pode ser*“Um dos protocolos mais transformadores da era da IA ​​e um ótimo ajuste para as arquiteturas Web3”*. Rares Crisan em um notável blog de capital argumentou que o MCP poderia cumprir a promessa da Web3, onde apenas o blockchain lutou, tornando a Internet mais centrada no usuário e natural para interagir. Essas narrativas enquadram o MCP como revolucionário, mas prático - não apenas hype.

Para ser justo, ** Nem todos os comentários não são críticos **. Alguns desenvolvedores de IA em fóruns como o Reddit apontaram que o MCP "não faz tudo"-é um protocolo de comunicação, não um agente pronta para uso ou um mecanismo de raciocínio. Por exemplo, uma discussão do Reddit intitulada "MCP é uma armadilha sem saída" argumentou que o MCP por si só não gerencia a cognição do agente ou garante a qualidade; Ainda requer um bom design de agentes e controles de segurança. Essa visão sugere que o MCP pode ser exagerado como uma bala de prata. No entanto, essas críticas são mais sobre as expectativas de temperamento do que rejeitar a utilidade do MCP. Eles enfatizam que o MCP resolve a conectividade da ferramenta, mas ainda é necessário criar lógica robusta do agente (ou seja, o MCP não cria magicamente um agente inteligente, ele equipa um com ferramentas). O consenso **, porém, é que o MCP é um grande passo à frente **, mesmo entre vozes cautelosas. Abraçar o blog da comunidade do rosto observou que, embora o MCP não seja um resolver, é um grande facilitador para a IA integrada e com reconhecimento de contexto, e os desenvolvedores estão se unindo por esse motivo.

** Cobertura da mídia: ** MCP recebeu cobertura significativa em toda a mídia tecnológica e mídia de nicho Blockchain:

  • ** TechCrunch ** Runou várias histórias. Eles cobriram o conceito inicial ("Antrópico propõe uma nova maneira de conectar dados aos chatbots da IA") em torno do lançamento em 2024. Em 2025, o TechCrunch destacou cada grande momento de adoção: o suporte do OpenAI, o envolvimento do Google, do Microsoft/Github. Esses artigos geralmente enfatizam a unidade da indústria em torno do MCP. Por exemplo, o TechCrunch citou o endosso de Sam Altman e observou a rápida mudança dos padrões rivais para o MCP. Ao fazer isso, eles retrataram o MCP como o padrão emergente semelhante ao que ninguém queria ficar de fora dos protocolos da Internet nos anos 90. Essa cobertura em uma saída de destaque sinalizou para o mundo da tecnologia mais amplo que o MCP é importante e real, não apenas um projeto de código aberto.
  • ** Condesk ** e outras publicações criptográficas agarraram -se ao ângulo ** da Web3 **. O artigo de opinião de Coindesk, de Rodriguez (julho de 2025), é frequentemente citado; Ele pintou uma imagem futurista, onde cada blockchain poderia ser um servidor MCP e novas redes MCP podem ser executadas em blockchains. Ele conectou o MCP a conceitos como identidade descentralizada, autenticação e verificabilidade - falando o idioma do público da blockchain e sugerindo que o MCP poderia ser o protocolo que realmente combina com estruturas descentralizadas. O CointeleGraph, Bankless e outros também discutiram o MCP no contexto de “Agentes e Defi da IA” e tópicos semelhantes, geralmente otimistas sobre as possibilidades (por exemplo, Bankless tinham um artigo sobre o uso do MCP para permitir que uma IA gerencie negociações na cadeia e incluiu um instruções para o seu próprio servidor MCP).
  • ** Relatórios notáveis ​​de blogs / analistas de VC: ** A notável postagem no blog de capital (julho de 2025) é um exemplo de análise de risco que atrai paralelos entre o MCP e a evolução dos protocolos da Web. Ele essencialmente argumenta que o MCP poderia fazer pelo Web3 o que o HTTP fez pelo Web1 - fornecendo uma nova camada de interface (interface de linguagem natural) que não substitui a infraestrutura subjacente, mas a torna utilizável. Esse tipo de narrativa é atraente e ecoado em painéis e podcasts. Ele posiciona o MCP não como competindo com o Blockchain, mas como a próxima camada de abstração que finalmente permite que os usuários normais (via IA) aproveitem facilmente o blockchain e os serviços da Web.
  • ** Comunidade de desenvolvedores Buzz: ** fora dos artigos formais, a ascensão do MCP pode ser avaliada por sua presença no discurso do desenvolvedor - negociações de conferência, canais do YouTube, boletins informativos. Por exemplo, houve posts populares como "MCP: o link que falta para a AI Agentic?" Em sites como Runtime.News e Newsletters (por exemplo, um do pesquisador da IA ​​Nathan Lambert) discutindo experimentos práticos com o MCP e como ele se compara a outras estruturas de uso de ferramentas. O tom geral é a curiosidade e a emoção: os desenvolvedores compartilham demos de conectar a IA à sua automação residencial ou carteira de criptografia com apenas algumas linhas usando servidores MCP, algo que parecia ficção científica há pouco tempo. Essa emoção de base é importante porque mostra que o MCP tem Mindshare além de apenas endossos corporativos.
  • ** Perspectiva corporativa: ** Mídia e analistas focados na IA corporativa também observam o MCP como um desenvolvimento importante. Por exemplo, * a nova pilha * cobriu como o suporte antrópico adicionado para servidores MCP remotos em Claude para uso corporativo. O ângulo aqui é que as empresas podem usar o MCP para conectar suas bases e sistemas de conhecimento interno à IA com segurança. Isso também importa para o Web3, pois muitas empresas de blockchain são as próprias empresas e podem aproveitar o MCP internamente (por exemplo, uma troca de criptografia pode usar o MCP para permitir que um IA analise os registros de transações internas para detecção de fraude).

** Citações e reações notáveis: ** Alguns valem a pena destacar como encapsulando a percepção pública:

    • “Assim como o HTTP revolucionou as comunicações da Web, o MCP fornece uma estrutura universal ... substituindo integrações fragmentadas por um único protocolo.” * - CoinCoindesk. Essa comparação com HTTP é poderosa; Ele enquadra o MCP como inovação em nível de infraestrutura.
    • “O MCP se tornou um padrão aberto próspero, com milhares de integrações e crescimento. Os LLMs são mais úteis ao se conectar aos dados que você já tem ...” * - Mike Krieger (Antrópico). Esta é uma confirmação oficial da tração e da proposta de valor central, que tem sido amplamente compartilhada nas mídias sociais.
    • “A promessa do Web3 ... pode finalmente ser realizada ... através da linguagem natural e dos agentes da IA. ... MCP é a coisa mais próxima que vimos de um Web3 real para as massas.” * - Capital notável. Esta declaração ousada ressoa com aqueles frustrados com as lentas melhorias de UX em criptografia; Ele sugere que a IA pode quebrar o código de adoção convencional, abstraindo a complexidade.

** Desafios e ceticismo: ** Embora o entusiasmo seja alto, a mídia também discutiu desafios:

  • ** Preocupações de segurança: ** As tomadas como a nova pilha ou os blogs de segurança levantaram que permitir que a IA execute ferramentas pode ser perigosa se não for uma caixa de areia. E se um servidor MCP malicioso tentasse obter uma IA para executar uma ação prejudicial? O blog Limechain alerta explicitamente de * riscos significativos de segurança " * com servidores MCP desenvolvidos pela comunidade (por exemplo, um servidor que lida com as chaves privados deve ser extremamente seguro). Essas preocupações foram ecoadas nas discussões: essencialmente, o MCP expande as capacidades da IA, mas com o poder vem o risco. A resposta da comunidade (guias, mecanismos de autenticação) também foi abordada, geralmente tranquilizando que as mitigações estão sendo construídas. Ainda assim, qualquer uso indevido de destaque do MCP (digamos que uma IA desencadeou uma transferência de criptografia não intencional) afetaria a percepção, então a mídia está atento a essa frente. -** Desempenho e custo: ** Alguns analistas observam que o uso de agentes de IA com ferramentas pode ser mais lento ou mais caro do que chamar uma API diretamente (porque a IA pode precisar de várias etapas de entrada e saída para obter o que precisa). Em contextos de negociação de alta frequência ou execução na cadeia, essa latência pode ser problemática. Por enquanto, eles são vistos como obstáculos técnicos para otimizar (através de um melhor design ou streaming de agentes), em vez de quebradores de negócios.
  • ** Gerenciamento de hype: ** Como em qualquer tecnologia de tendência, há um pouco de hype. Algumas vozes alertam para não declarar MCP a solução para tudo. Por exemplo, o artigo do Hugging Face pergunta: "O MCP é uma bala de prata?" e respostas Não - os desenvolvedores ainda precisam lidar com o gerenciamento de contexto, e o MCP funciona melhor em combinação com boas estratégias de solicitação e memória. Tais tomadas equilibradas são saudáveis ​​no discurso.

** Sentimento geral da mídia: ** A narrativa que emerge é em grande parte esperançosa e prospectiva:

  • O MCP é visto como uma ferramenta prática que oferece melhorias reais agora (portanto, não vaporware), qual a mídia ressalta citando exemplos de trabalho: Claude Reading Arquivos, copilot usando o MCP no VSCode, uma IA completando uma transação de solana em uma demonstração, etc ..
  • Também é retratado como um ponto de partida estratégico para o futuro da IA ​​e da Web3. A mídia geralmente conclui que o MCP ou coisas como será essencial para "IA descentralizada" ou "Web4" ou qualquer termo que se use para a Web da próxima geração. Há uma sensação de que o MCP abriu uma porta e agora a inovação está fluindo - seja os agentes descentralizados ou empresas descentralizados da NAMDA que conectam sistemas herdados à IA, muitas histórias futuras remontam à introdução do MCP.

No mercado, pode -se avaliar a tração pela formação de startups e financiamento em torno do ecossistema MCP. De fato, existem rumores/relatórios de startups com foco em "mercados MCP" ou plataformas MCP gerenciadas recebendo financiamento (escrita notável de capital sobre isso sugere juros de VC). Podemos esperar que a mídia comece a cobri -las tangencialmente - por exemplo, “O startup X usa o MCP para permitir que sua IA gerencie seu portfólio de criptografia - eleva US $ y milhões”.

** Conclusão da percepção: ** No final de 2025, o MCP desfruta de uma reputação como uma tecnologia que habilita a tecnologia. Tem forte defesa de figuras influentes na IA e na criptografia. A narrativa pública evoluiu de *"Aqui está uma ferramenta interessante" *para *"Isso pode ser fundamental para a próxima web" *. Enquanto isso, a cobertura prática confirma que está funcionando e sendo adotada, emprestando credibilidade. Desde que a comunidade continue enfrentando desafios (segurança, governança em escala) e nenhum desastre importante ocorre, é provável que a imagem pública do MCP permaneça positiva ou até se torne icônica como "o protocolo que fez a IA e a Web3 serem agradáveis ​​juntos".

A mídia provavelmente ficará de olho em:

  • Histórias de sucesso (por exemplo, se um grande DAO implementa um tesoureiro de IA via MCP ou um governo usa o MCP para sistemas de IA de dados abertos).
  • Quaisquer incidentes de segurança (para avaliar o risco).
  • A evolução das redes MCP e se algum componente de token ou blockchain entra oficialmente em cena (que seria uma grande notícia em ponte a IA e a criptografia com mais força).

A partir de agora, no entanto, a cobertura pode ser resumida por uma linha de Coindesk: * “A combinação de Web3 e MCP pode ser apenas uma nova base para a IA descentralizada”.

** Referências: **

  • Notícias antrópicas: * "Introdução ao protocolo de contexto do modelo", * novembro de 2024
  • Blog Limechain: * "O que é MCP e como ele se aplica a blockchains?" * Maio de 2025
  • Blog do ChainStack: * "MCP for Web3 Builders: Solana, EVM e Documentação" * Junho de 2025
  • Condesk Op-ed: * "O Protocolo dos Agentes: Potencial do MCP da Web3", * Jul 2025
  • Capital notável: * "Por que o MCP representa a oportunidade real da Web3", * julho de 2025
  • TechCrunch: * "OpenAI adota o padrão de Anthropic ...", * 26 de março de 2025
  • TechCrunch: * "Google para abraçar o padrão de Anthropic ...", * 9 de abril de 2025
  • TechCrunch: * "Github, Microsoft abraça… (Comitê de Direção MCP)", * 19 de maio de 2025
  • Microsoft Dev Blog: * "Official C# SDK for MCP", * abril de 2025
  • Blog de rosto abraçando: * "#14: O que é MCP e por que todo mundo está falando sobre isso?" * Mar 2025
  • Pesquisa Mescari: * "Fetch.ai Perfil", * 2023
  • Média (Nu Fintimes): * "Unveing ​​SingularityNet", * março de 2024

World Liberty Financial: O Futuro do Dinheiro, Apoiado por USD1

· 12 min de leitura
Dora Noda
Software Engineer

Visão Geral da World Liberty Financial

World Liberty Financial (WLFI) é uma plataforma de finanças descentralizadas (DeFi) criada por membros da família Trump e seus parceiros. De acordo com o site da Trump Organization, a plataforma visa unir o sistema bancário tradicional e a tecnologia blockchain, combinando a estabilidade das finanças legadas com a transparência e acessibilidade dos sistemas descentralizados. Sua missão é fornecer serviços modernos para movimentação de dinheiro, empréstimos e gestão de ativos digitais, ao mesmo tempo em que apoia a estabilidade lastreada em dólar, tornando o capital acessível a indivíduos e instituições e simplificando o DeFi para usuários comuns.

A WLFI lançou seu token de governança ($WLFI) em setembro de 2025 e introduziu uma stablecoin atrelada ao dólar chamada USD1 em março de 2025. A plataforma descreve o USD1 como uma stablecoin "futuro do dinheiro" projetada para servir como par base para ativos tokenizados e para promover o domínio do dólar americano na economia digital. O cofundador Donald Trump Jr. enquadrou a WLFI como um empreendimento não político destinado a capacitar as pessoas comuns e fortalecer o papel global do dólar americano.

História e Fundação

  • Origens (2024–2025). A WLFI foi anunciada em setembro de 2024 como um empreendimento cripto liderado por membros da família Trump. A empresa lançou seu token de governança WLFIaindanaqueleano.DeacordocomaReuters,avendainicialdetokensWLFI ainda naquele ano. De acordo com a Reuters, a venda inicial de tokens WLFI da empresa arrecadou apenas cerca de US$ 2,7 milhões, mas as vendas dispararam após a vitória de Donald Trump nas eleições de 2024 (informações referenciadas em relatórios amplamente citados, embora não diretamente disponíveis em nossas fontes). A WLFI é majoritariamente propriedade de uma entidade comercial de Trump e tem nove cofundadores, incluindo Donald Trump Jr., Eric Trump e Barron Trump.
  • Gestão. A Trump Organization descreve os cargos de liderança da WLFI como: Donald Trump (Defensor Chefe de Cripto), Eric Trump e Donald Trump Jr. (Embaixadores Web3), Barron Trump (visionário DeFi) e Zach Witkoff (CEO e cofundador). As operações diárias da empresa são gerenciadas por Zach Witkoff e parceiros como Zachary Folkman e Chase Herro.
  • Iniciativa de Stablecoin. A WLFI anunciou a stablecoin USD1 em março de 2025. O USD1 foi descrito como uma stablecoin atrelada ao dólar, lastreada em títulos do Tesouro dos EUA, depósitos em dólar americano e outros equivalentes de caixa. As reservas da moeda são custodiadas pela BitGo Trust Company, uma custodiante regulamentada de ativos digitais. O USD1 foi lançado na BNB Chain da Binance e posteriormente expandido para Ethereum, Solana e Tron.

Stablecoin USD1: Design e Recursos

Modelo de reserva e mecanismo de estabilidade

O USD1 é projetado como uma stablecoin lastreada em moeda fiduciária com um mecanismo de resgate 1:1. Cada token USD1 é resgatável por um dólar americano, e as reservas da stablecoin são mantidas em títulos do Tesouro dos EUA de curto prazo, depósitos em dólar e equivalentes de caixa. Esses ativos são custodiados pela BitGo Trust, uma entidade regulamentada conhecida pela custódia institucional de ativos digitais. A WLFI anuncia que o USD1 oferece:

  1. Colateralização total e auditorias. As reservas são totalmente colateralizadas e sujeitas a atestações mensais de terceiros, proporcionando transparência sobre os ativos de lastro. Em maio de 2025, a Binance Academy observou que as discriminações regulares das reservas ainda não estavam publicamente disponíveis e que a WLFI havia prometido auditorias de terceiros.
  2. Orientação institucional. A WLFI posiciona o USD1 como uma stablecoin "pronta para instituições" destinada a bancos, fundos e grandes empresas, embora também seja acessível a usuários de varejo.
  3. Taxas zero de cunhagem/resgate. O USD1 supostamente não cobra taxas para cunhagem ou resgate, reduzindo o atrito para usuários que lidam com grandes volumes.
  4. Interoperabilidade cross-chain. A stablecoin usa o Protocolo de Interoperabilidade Cross-Chain (CCIP) da Chainlink para permitir transferências seguras entre Ethereum, BNB Chain e Tron. Planos para expandir para blockchains adicionais foram confirmados por meio de parcerias com redes como Aptos e Tron.

Desempenho de mercado

  • Crescimento rápido. Dentro de um mês após o lançamento, a capitalização de mercado do USD1 atingiu cerca de **US2,1bilho~es,impulsionadapornegoˊciosinstitucionaisdealtoperfil,comouminvestimentodeUS 2,1 bilhões**, impulsionada por negócios institucionais de alto perfil, como um investimento de US 2 bilhões do fundo MGX de Abu Dhabi na Binance usando USD1. No início de outubro de 2025, a oferta havia crescido para aproximadamente US$ 2,68 bilhões, com a maioria dos tokens emitidos na BNB Chain (79%), seguidos por Ethereum, Solana e Tron.
  • Listagem e adoção. A Binance listou o USD1 em seu mercado à vista em maio de 2025. A WLFI divulga ampla integração em protocolos DeFi e exchanges centralizadas. Plataformas DeFi como ListaDAO, Venus Protocol e Aster suportam empréstimos, tomadas de empréstimos e pools de liquidez usando USD1. A WLFI enfatiza que os usuários podem resgatar USD1 por dólares americanos através da BitGo em um a dois dias úteis.

Usos institucionais e planos de ativos tokenizados

A WLFI prevê o USD1 como o ativo de liquidação padrão para ativos do mundo real (RWAs) tokenizados. O CEO Zach Witkoff disse que commodities como petróleo, gás, algodão e madeira devem ser negociadas on-chain e que a WLFI está trabalhando ativamente para tokenizar esses ativos e emparelhá-los com USD1 porque eles exigem uma stablecoin confiável e transparente. Ele descreveu o USD1 como "a stablecoin mais confiável e transparente da Terra".

Produtos e Serviços

Cartão de débito e aplicativos de varejo

Na conferência TOKEN2049 em Singapura, Zach Witkoff anunciou que a WLFI lançará um cartão de débito cripto que permitirá aos usuários gastar ativos digitais em transações diárias. A empresa planejava lançar um programa piloto no próximo trimestre, com um lançamento completo esperado no Q4 de 2025 ou Q1 de 2026. A CoinLaw resumiu os principais detalhes:

  • O cartão vinculará saldos cripto a compras de consumidores e deverá se integrar a serviços como o Apple Pay.
  • A WLFI também está desenvolvendo um aplicativo de varejo voltado para o consumidor para complementar o cartão.

Tokenização e produtos de investimento

Além dos pagamentos, a WLFI visa tokenizar commodities do mundo real. Witkoff disse que eles estão explorando a tokenização de petróleo, gás, madeira e imóveis para criar instrumentos de negociação baseados em blockchain. O token de governança da WLFI (WLFI),lanc\cadoemsetembrode2025,concedeaosdetentoresacapacidadedevotaremcertasdeciso~escorporativas.Oprojetotambeˊmformouparceriasestrateˊgicas,incluindooacordodaALT5SigmaparacomprarUSWLFI), lançado em setembro de 2025, concede aos detentores a capacidade de votar em certas decisões corporativas. O projeto também formou parcerias estratégicas, incluindo o acordo da ALT5 Sigma para comprar US 750 milhões em tokens WLFI como parte de sua estratégia de tesouraria.

Perspectiva de Donald Trump Jr.

O cofundador Donald Trump Jr. é um rosto público proeminente da WLFI. Suas declarações em eventos da indústria e entrevistas revelam as motivações por trás do projeto e suas opiniões sobre finanças tradicionais, regulamentação e o papel do dólar americano.

Crítica às finanças tradicionais

  • Sistema "quebrado" e antidemocrático. Durante um painel intitulado World Liberty Financial: O Futuro do Dinheiro, Apoiado por USD1 na conferência Token2049, Trump Jr. argumentou que as finanças tradicionais são antidemocráticas e "quebradas". Ele relatou que, quando sua família entrou na política, 300 de suas contas bancárias foram eliminadas da noite para o dia, ilustrando como as instituições financeiras podem punir indivíduos por razões políticas. Ele disse que a família passou de estar no topo da "pirâmide" financeira para a base, revelando que o sistema favorece os insiders e funciona como um esquema Ponzi.
  • Ineficiência e falta de valor. Ele criticou a indústria financeira tradicional por estar atolada em ineficiências, onde pessoas "ganhando sete dígitos por ano" apenas empurram papelada sem adicionar valor real.

Defendendo stablecoins e o dólar

  • Preservando a hegemonia do dólar. Trump Jr. afirma que stablecoins como o USD1 preencherão o papel anteriormente desempenhado por países que compravam títulos do Tesouro dos EUA. Ele disse ao Business Times que as stablecoins poderiam criar uma "hegemonia do dólar", permitindo que os EUA liderassem globalmente e mantivessem muitos lugares seguros e estáveis. Falando à Cryptopolitan, ele argumentou que as stablecoins realmente preservam o domínio do dólar americano porque a demanda por tokens lastreados em dólar apoia os títulos do Tesouro em um momento em que compradores convencionais (por exemplo, China e Japão) estão reduzindo a exposição.
  • Futuro das finanças e DeFi. Trump Jr. descreveu a WLFI como o futuro das finanças e enfatizou que as tecnologias blockchain e DeFi podem democratizar o acesso ao capital. Em um evento ETH Denver coberto pela Panews, ele argumentou que são necessários arcabouços regulatórios claros para evitar que as empresas se mudem para o exterior e para proteger os investidores. Ele instou os EUA a liderar a inovação cripto global e criticou a regulamentação excessiva por sufocar o crescimento.
  • Democratização financeira. Ele acredita que a combinação de finanças tradicionais e descentralizadas através da WLFI proporcionará liquidez, transparência e estabilidade a populações carentes. Ele também destaca o potencial do blockchain para eliminar a corrupção, tornando as transações transparentes e on-chain.
  • Conselhos para recém-chegados. Trump Jr. aconselha novos investidores a começar com pequenas quantias, evitar alavancagem excessiva e se engajar em aprendizado contínuo sobre DeFi.

Neutralidade política e crítica da mídia

Trump Jr. enfatiza que a WLFI é "100% uma organização não política", apesar do profundo envolvimento da família Trump. Ele enquadra o empreendimento como uma plataforma para beneficiar americanos e o mundo, em vez de um veículo político. Durante o painel da Token2049, ele criticou os principais veículos de mídia, dizendo que eles se desacreditaram, e Zach Witkoff perguntou à plateia se eles consideravam o The New York Times confiável.

Parcerias e Integração do Ecossistema

Investimento MGX–Binance

Em maio de 2025, a WLFI anunciou que o USD1 facilitaria um **investimento de US2bilho~esdaMGX,comsedeemAbuDhabi,naexchangedecriptoBinance.Oanuˊnciodestacouacrescenteinflue^nciadaWLFIefoiapresentadocomoevide^nciadoapeloinstitucionaldoUSD1.Noentanto,asenadoradosEUAElizabethWarrencriticouoacordo,chamandoode"corrupc\ca~o"porquealegislac\ca~opendentesobrestablecoins(aLeiGENIUS)poderiabeneficiarafamıˊliadopresidente.DadosdaCoinMarketCapcitadospelaReutersmostraramqueovalorcirculantedoUSD1atingiucercadeUS 2 bilhões** da MGX, com sede em Abu Dhabi, na exchange de cripto **Binance**. O anúncio destacou a crescente influência da WLFI e foi apresentado como evidência do apelo institucional do USD1. No entanto, a senadora dos EUA Elizabeth Warren criticou o acordo, chamando-o de "corrupção" porque a legislação pendente sobre stablecoins (a Lei GENIUS) poderia beneficiar a família do presidente. Dados da CoinMarketCap citados pela Reuters mostraram que o valor circulante do USD1 atingiu cerca de US 2,1 bilhões na época.

Parceria Aptos

Na conferência TOKEN2049 em outubro de 2025, a WLFI e a blockchain de camada 1 Aptos anunciaram uma parceria para implantar o USD1 na rede Aptos. A Brave New Coin relata que a WLFI selecionou a Aptos devido ao seu alto rendimento (transações são liquidadas em menos de meio segundo) e taxas abaixo de um centésimo de centavo. A colaboração visa desafiar as redes de stablecoins dominantes, fornecendo canais mais baratos e rápidos para transações institucionais. A CryptoSlate observa que a integração do USD1 fará da Aptos a quinta rede a cunhar a stablecoin, com suporte desde o primeiro dia de protocolos DeFi como Echelon Market e Hyperion, bem como carteiras e exchanges como Petra, Backpack e OKX. Os executivos da WLFI veem a expansão como parte de uma estratégia mais ampla para aumentar a adoção do DeFi e posicionar o USD1 como uma camada de liquidação para ativos tokenizados.

Integração de cartão de débito e Apple Pay

Reuters e CoinLaw relatam que a WLFI lançará um cartão de débito cripto que conectará ativos cripto com gastos diários. Witkoff disse à Reuters que a empresa espera lançar um programa piloto no próximo trimestre, com um lançamento completo até o final de 2025 ou início de 2026. O cartão se integrará ao Apple Pay, e a WLFI lançará um aplicativo de varejo para simplificar os pagamentos cripto.

Controvérsias e Críticas

Transparência das reservas. A Binance Academy destacou que, em maio de 2025, o USD1 não tinha discriminações de reservas publicamente disponíveis. A WLFI prometeu auditorias de terceiros, mas a ausência de divulgações detalhadas levantou preocupações dos investidores.

Conflitos de interesse políticos. Os profundos laços da WLFI com a família Trump atraíram escrutínio. Uma investigação da Reuters relatou que uma carteira anônima contendo US$ 2 bilhões em USD1 recebeu fundos pouco antes do investimento da MGX, e os proprietários da carteira não puderam ser identificados. Críticos argumentam que o empreendimento poderia permitir que a família Trump se beneficiasse financeiramente de decisões regulatórias. A senadora Elizabeth Warren alertou que a legislação de stablecoins sendo considerada pelo Congresso tornaria mais fácil para o presidente e sua família "encherem seus próprios bolsos". Veículos de mídia como The New York Times e The New Yorker descreveram a WLFI como erodindo a fronteira entre a empresa privada e a política pública.

Concentração de mercado e preocupações com a liquidez. A CoinLaw relatou que mais da metade da liquidez do USD1 vinha de apenas três carteiras em junho de 2025. Tal concentração levanta questões sobre a demanda orgânica pelo USD1 e sua resiliência em mercados estressados.

Incerteza regulatória. O próprio Trump Jr. reconhece que a regulamentação cripto dos EUA permanece incerta e pede regras abrangentes para evitar que as empresas se mudem para o exterior. Críticos argumentam que a WLFI se beneficia de movimentos desregulatórios da administração Trump enquanto molda políticas que poderiam favorecer seus próprios interesses financeiros.

Conclusão

A World Liberty Financial posiciona-se como pioneira na interseção das finanças tradicionais e da tecnologia descentralizada, usando a stablecoin USD1 como espinha dorsal para pagamentos, tokenização e produtos DeFi. A ênfase da plataforma no apoio institucional, interoperabilidade cross-chain e cunhagem com taxa zero distingue o USD1 de outras stablecoins. Parcerias com redes como Aptos e grandes negócios como o investimento MGX-Binance sublinham a ambição da WLFI de se tornar uma camada de liquidação global para ativos tokenizados.

Da perspectiva de Donald Trump Jr., a WLFI não é meramente um empreendimento comercial, mas uma missão para democratizar as finanças, preservar a hegemonia do dólar americano e desafiar o que ele vê como um sistema financeiro tradicional quebrado e elitista. Ele defende a clareza regulatória enquanto critica a supervisão excessiva, refletindo debates mais amplos dentro da indústria cripto. No entanto, as associações políticas da WLFI, as divulgações opacas de reservas e a concentração de liquidez convidam ao ceticismo. O sucesso da empresa dependerá do equilíbrio entre inovação e transparência e da navegação na complexa interação entre interesses privados e políticas públicas.

Grafo Acíclico Dirigido (DAG) em Blockchain

· 28 min de leitura
Dora Noda
Software Engineer

O que é um DAG e como ele difere de uma blockchain?

Um Grafo Acíclico Dirigido (Directed Acyclic Graph, DAG) é uma estrutura de dados na qual vértices (nodos) são conectados por arestas direcionadas que nunca formam um ciclo. No contexto de livros-razão distribuídos, um ledger baseado em DAG organiza transações ou eventos em um grafo semelhante a uma teia, em vez de uma única cadeia sequencial. Isso significa que, diferentemente de uma blockchain tradicional em que cada novo bloco referencia apenas um predecessor (formando uma cadeia linear), um nodo em um DAG pode referenciar múltiplas transações ou blocos anteriores. Como resultado, muitas transações podem ser confirmadas em paralelo, em vez de uma a uma em blocos cronológicos.

Se uma blockchain se parece com uma longa cadeia de blocos (cada bloco contendo diversas transações), um ledger baseado em DAG lembra mais uma árvore ou teia de transações individuais. Cada nova transação em um DAG pode se conectar (e, portanto, validar) uma ou mais transações anteriores, em vez de esperar para ser incluída no próximo bloco único. Essa diferença estrutural gera algumas distinções fundamentais:

  • Validação paralela: Em blockchains, mineradores/validadores adicionam um bloco de cada vez, portanto as transações são confirmadas em lotes a cada novo bloco. Em DAGs, múltiplas transações (ou pequenos “blocos”) podem ser adicionados simultaneamente, pois cada uma pode se conectar a partes distintas do grafo. Essa paralelização evita que a rede dependa de um único encadeamento linear crescendo bloco a bloco.
  • Ausência de ordem sequencial global: Uma blockchain cria uma ordem total de transações (cada bloco ocupa uma posição específica em uma única sequência). Um ledger baseado em DAG, por outro lado, produz uma ordem parcial. Não existe um “último bloco” único; diversos “tips” do grafo coexistem e podem ser estendidos simultaneamente. Protocolos de consenso são necessários para determinar posteriormente a ordem ou validade final das transações no DAG.
  • Confirmação de transações: Em blockchains, as transações são confirmadas quando incluídas em um bloco minerado/validado que passa a integrar a cadeia aceita (geralmente após novos blocos serem adicionados). Em DAGs, uma nova transação pode ajudar a confirmar transações anteriores referenciando-as. Na Tangle da IOTA, por exemplo, cada transação deve aprovar duas transações anteriores, fazendo com que os usuários validem as transações uns dos outros. Isso reduz a divisão entre “criadores” e “validadores” vista em blockchains tradicionais – quem envia transações também executa parte da validação.

Importante: uma blockchain é um caso especial de DAG – um DAG restrito a uma única cadeia linear. Ambos são formas de tecnologia de registro distribuído (DLT) e compartilham metas como imutabilidade e descentralização. Entretanto, os ledgers baseados em DAG são estruturalmente “sem blocos” ou com múltiplos pais, conferindo-lhes propriedades distintas na prática. Blockchains como Bitcoin e Ethereum usam blocos sequenciais e frequentemente descartam blocos concorrentes (forks), enquanto os ledgers DAG buscam incorporar e organizar todas as transações não conflitantes. Essa diferença fundamental sustenta as variações de desempenho e design descritas a seguir.

Comparação técnica: arquitetura de DAG vs blockchain

Para entender melhor as diferenças, comparemos suas arquiteturas e processos de validação:

  • Estrutura de dados: Blockchains armazenam dados em blocos ligados em sequência linear (cada bloco contém muitas transações e aponta para um único bloco anterior). Ledgers baseados em DAG usam uma estrutura de grafo: cada nodo representa uma transação ou bloco de eventos e pode apontar para múltiplos nodos anteriores. O grafo é acíclico: ao seguir as arestas “para trás”, nunca retornamos ao ponto de partida. Isso permite definir uma ordenação topológica das transações (garantindo que cada referência apareça após a transação referenciada). Em suma: blockchains = cadeia unidimensional; DAGs = grafo multidimensional.
  • Taxa de transferência e concorrência: Por causa da estrutura, blockchains e DAGs lidam com throughput de forma distinta. Em uma blockchain, mesmo em condições ideais, os blocos são adicionados um a um (frequentemente aguardando validação e propagação na rede antes do próximo bloco). Isso limita o throughput. Bitcoin, por exemplo, processa ~5–7 transações por segundo (TPS), e Ethereum ~15–30 TPS no modelo PoW clássico. DAGs permitem a entrada simultânea de múltiplas transações/blocos, com ramificações crescendo em paralelo e se juntando depois, o que pode elevar o throughput a milhares de TPS, comparáveis ou superiores a redes de pagamento tradicionais.
  • Processo de validação de transações: Em blockchains, as transações aguardam no mempool e são validadas quando um minerador/validador as inclui em um novo bloco, que então é verificado pelos demais nodos. Em DAGs, a validação é mais contínua e distribuída: cada nova transação valida transações anteriores ao referenciá-las. Na Tangle da IOTA, cada transação executa uma pequena prova de trabalho e confirma duas anteriores, “votando” nelas. Na Nano, cada conta possui sua própria cadeia e as transações são validadas por votos de representantes. O efeito líquido é que os DAGs distribuem o trabalho de validação: em vez de um único produtor de bloco validar um lote, participantes ou validadores validam diferentes transações em paralelo.
  • Mecanismo de consenso: Blockchains e DAGs precisam de um método para concordar sobre o estado do ledger (quais transações são confirmadas e em que ordem). Em blockchains, o consenso costuma resultar de PoW ou PoS produzindo o próximo bloco, seguindo a regra da “cadeia mais longa/pesada”. Em DAGs, o consenso pode ser mais complexo por não haver uma cadeia única. Algumas implementações usam gossip e votação virtual (Hedera Hashgraph), outras seleção de pontas via Monte Carlo (IOTA) ou esquemas de votação para definir quais ramos do grafo têm preferência. Abordaremos detalhes na seção de mecanismos de consenso. Geralmente, DAGs podem alcançar throughput elevado, mas precisam de um desenho cuidadoso para lidar com conflitos (p. ex., tentativas de gasto duplo) antes que a ordem final seja definida.
  • Tratamento de forks: Em blockchains, quando dois blocos são minerados quase simultaneamente, ocorre um “fork”. Eventualmente, um ramo vence (cadeia mais longa) e o outro é órfão, desperdiçando trabalho. Em DAGs, a filosofia é aceitar forks como ramos adicionais do grafo. O DAG incorpora ambos; o algoritmo de consenso então decide quais transações são confirmadas (ou como resolver conflitos) sem descartar todo um ramo. Isso evita desperdício de recursos. O Tree-Graph do Conflux (DAG PoW), por exemplo, busca incluir todos os blocos no ledger e ordená-los, em vez de descartá-los.

Em resumo, blockchains oferecem uma estrutura sequencial simples com validação bloco a bloco, enquanto DAGs oferecem uma estrutura de grafo mais complexa que possibilita processamento assíncrono e paralelo de transações. Ledgers DAG requerem lógica adicional de consenso para gerir essa complexidade, mas prometem throughput superior e maior eficiência por aproveitar toda a capacidade da rede, sem restringi-la a uma fila única de blocos.

Benefícios dos sistemas blockchain baseados em DAG

DAGs surgiram para superar limitações das blockchains em escalabilidade, velocidade e custo. Entre os principais benefícios:

  • Alta escalabilidade e throughput: Redes DAG podem alcançar alto volume de transações porque as processam em paralelo. Não havendo gargalo de uma cadeia única, o TPS (transações por segundo) escala com a atividade da rede. Alguns protocolos DAG atingem milhares de TPS. O Hedera Hashgraph, por exemplo, suporta 10.000+ TPS na camada base e finaliza transações em 3–5 segundos (contra minutos ou mais nas blockchains PoW). Plataformas de contratos inteligentes baseadas em DAG, como Fantom, obtêm finalização quase instantânea (~1–2 s) sob cargas normais, tornando-as atraentes para casos que exigem alto volume (micropagamentos IoT, fluxos de dados em tempo real, etc.).
  • Baixo custo (muitas vezes sem taxas): Muitos ledgers DAG apresentam taxas insignificantes ou transações sem custo. Eles não dependem de mineradores com recompensas ou taxas elevadas; em IOTA e Nano, por exemplo, não há taxas obrigatórias – o que é vital para micropagamentos. Onde há taxa (p. ex., Hedera, Fantom), ela costuma ser muito baixa e previsível, já que o sistema consegue lidar com a demanda sem guerra por espaço em bloco. Transações em Hedera custam cerca de US$0,0001. Ao incluir todas as transações válidas, sem desperdiçar trabalho com forks órfãos, o DAG também utiliza recursos de forma eficiente.
  • Confirmação rápida e baixa latência: Em DAGs, as transações não precisam esperar para entrar em um bloco global, resultando em confirmação mais veloz. Muitos alcançam finalidade rápida – ponto em que a transação é definitiva. O consenso do Hedera Hashgraph finaliza transações em poucos segundos com certeza total (ABFT). Na Nano, as transações geralmente se confirmam em menos de 1 segundo, graças ao processo de votação leve. Isso proporciona experiências de usuário ágeis, ideal para pagamentos ou aplicativos interativos.
  • Eficiência energética: DAGs não exigem mineração intensiva em PoW, tornando-os muito eficientes energeticamente. Alguns consomem menos energia por transação que blockchains PoS. Uma transação no Hedera consome cerca de 0,0001 kWh, muito abaixo de blockchains como Bitcoin (centenas de kWh) ou mesmo muitas redes PoS. A eliminação de cálculos desperdiçados (sem competição de mineração) e o aproveitamento de todas as transações contribuem para essa eficiência. Redes como Hedera têm pegada de carbono muito baixa, algumas inclusive compensam emissões e se tornam carbono-negativas.
  • Sem mineração e validação democratizada: Em muitos modelos DAG, não há distinção clara entre mineradores e usuários. Na IOTA, cada transação aprova outras duas, descentralizando o trabalho de validação. Isso dispensa hardware potente ou grandes quantidades de tokens em staking para participar do consenso, tornando a rede mais acessível (embora alguns projetos DAG ainda usem validadores ou coordenadores).
  • Melhor resposta a tráfego intenso: Blockchains sofrem com filas de mempool e aumento de taxas em momentos de grande uso. Como os DAGs permitem múltiplas ramificações paralelas, eles absorvem picos de tráfego com mais suavidade. À medida que o volume cresce, mais ramos são criados e processados simultaneamente, sem um limite rígido de throughput. Assim, a escalabilidade sob carga é mais “horizontal”: o sistema degrada menos em cenários de uso intenso (IoT massivo, eventos virais de DApps, etc.).

Em suma, ledgers DAG oferecem transações mais rápidas, baratas e escaláveis do que blockchains clássicas, mirando cenários de adoção em massa (micropagamentos, IoT, trading de alta frequência, etc.) que as blockchains convencionais lidam com dificuldade devido a limitações de throughput e custo. Entretanto, esses benefícios vêm acompanhados de trade-offs e desafios, discutidos adiante.

Mecanismos de consenso em plataformas DAG

Como ledgers DAG não produzem naturalmente uma cadeia única, eles precisam de mecanismos de consenso inovadores para validar transações e garantir a concordância global do estado. Alguns exemplos:

  • Tangle da IOTA – seleção de pontas e votação ponderada: A Tangle é um DAG de transações voltado ao IoT. Não há mineradores; cada transação executa uma pequena prova de trabalho e aprova duas transações anteriores (as “pontas” do grafo). A seleção de pontas usa um algoritmo Markov Chain Monte Carlo (MCMC) que escolhe probabilisticamente quais pontas aprovar, favorecendo o subtangle mais pesado. Inicialmente, a segurança dependia da quantidade de aprovações acumuladas – quanto mais aprovações indiretas, maior a confiança. Para proteger a rede nascente, havia um Coordenador central que emitia marcos finalizadores. Esse componente é eliminado na atualização “Coordicide” (IOTA 2.0), que implementa um consenso líderless ao estilo Nakamoto sobre um DAG. Nessa abordagem, os nodos votam na validade das transações referenciadas ao anexar novos blocos, e validadores (escolhidos via staking) emitem validation blocks. Uma transação é confirmada quando acumula peso de aprovação suficiente.
  • Hedera Hashgraph – gossip e votação virtual (aBFT): O Hedera usa um DAG de eventos combinado a um algoritmo assíncrono tolerante a falhas bizantinas (aBFT). A ideia central é “gossip sobre gossip”: cada nodo transmite informações sobre transações e sobre sua história de gossip para outros. Isso forma um Hashgraph (DAG de eventos) no qual cada nodo sabe o que os demais ouviram e quando. A partir desse grafo, o Hedera executa votação virtual: em vez de enviar mensagens de voto, os nodos simulam localmente um algoritmo de votação analisando a estrutura do grafo. Isso produz uma ordem total e um timestamp de consenso justo (as transações são ordenadas pelo instante mediano em que a rede as recebeu). O consenso é sem líderes, tolerando até 1/3 de nodos maliciosos. Na prática, a rede é governada por um conselho de até 39 organizações (Hedera Council), então é permisionada, mas distribuída geograficamente. O resultado é um consenso extremamente rápido, com finalização em segundos.
  • Lachesis da Fantom – PoS aBFT sem líderes: A Fantom é uma plataforma de smart contracts que usa um consenso DAG chamado Lachesis. Inspirado no Hashgraph, é um protocolo aBFT Proof-of-Stake. Cada validador cria um bloco de eventos e o adiciona ao seu DAG local, contendo transações e referências a eventos passados. Os validadores propagam esses blocos de forma assíncrona (sem uma sequência rígida). Quando uma supermaioria observou determinado evento, ele é marcado como “raiz”. Lachesis ordena os eventos finalizados e os registra na Opera Chain, um blockchain tradicional que mantém o histórico final. Assim, a DAG garante consenso rápido e assíncrono, e o resultado final é uma cadeia linear compatível com a EVM. A Fantom oferece finalidade de ~1–2 s e pode atingir milhares de TPS. Não há mineradores ou líderes fixos; todos os validadores participam na mesma medida, com peso baseado no stake de FTM.
  • Open Representative Voting (ORV) da Nano: A Nano utiliza uma estrutura DAG específica chamada block-lattice. Cada conta possui sua própria blockchain, atualizada apenas pelo dono. Essas cadeias individuais formam um DAG, pois transações entre contas se conectam de forma assíncrona (um envio em uma cadeia faz referência ao recebimento em outra). O consenso é obtido pelo ORV: usuários escolhem um representante delegando peso (sem bloquear fundos). Representantes votam na validade das transações; quando uma supermaioria do peso (p. ex., >67%) concorda, a transação é cementada (irreversível). Não há recompensas de staking nem taxas; representantes atuam voluntariamente. A finalização típica é inferior a 1 s, e a rede é extremamente eficiente em energia (há apenas uma pequena PoW anti-spam realizada pelos emissores). O uso principal é como dinheiro digital instantâneo e sem tarifas.
  • Outras abordagens:
    • Consenso Avalanche (X-Chain): O Avalanche usa um consenso DAG probabilístico em que validadores fazem amostragens aleatórias uns dos outros para determinar preferências. A X-Chain é um DAG de UTXOs que obtém consenso por esse método de amostragem repetida. As transações finalizam em ~1 s, e cada sub-rede pode alcançar cerca de 4.500 TPS. O protocolo é PoS e qualquer um com stake pode ser validador.
    • Conflux Tree-Graph: O Conflux expande o PoW de Bitcoin para um DAG de blocos, onde cada bloco referencia não apenas um pai, mas todos os blocos anteriores conhecidos. Isso evita o descarte de forks e eleva o throughput teórico para 3–6 mil TPS, utilizando PoW. O consenso ordena os blocos por uma regra de subárvore mais pesada.
    • Protocolos acadêmicos: Existem vários: SPECTRE e PHANTOM (blockDAGs da DAGlabs focados em alto throughput e confirmação rápida), Aleph Zero (consenso DAG aBFT na blockchain homônima), Parallel Chains/Prism, Narwhal & Bullshark da Sui (mempool DAG + consenso separado de finalização), entre outros.

Cada plataforma adapta o consenso às suas necessidades – sejam microtransações sem taxa, execução de smart contracts ou interoperabilidade. Em comum, visam evitar um gargalo sequencial. Os DAGs permitem muita atividade em paralelo e depois recorrem a algoritmos (gossip, votação, amostragem, etc.) para ordenar tudo, em vez de restringir a rede a um produtor de bloco por vez.

Estudos de caso: projetos blockchain baseados em DAG

Alguns projetos notáveis:

  • IOTA (The Tangle): A IOTA foi uma das primeiras criptomoedas DAG, voltada ao IoT. Sua Tangle é um DAG de transações em que cada nova transação confirma duas anteriores. A meta é viabilizar microtransações sem taxas entre dispositivos IoT. Lançada em 2016, utilizou inicialmente um Coordenador para proteger a rede nascente, mas está removendo-o com a atualização Coordicide, adotando um consenso totalmente descentralizado (votação em DAG). Em testes, alcançou centenas de TPS e espera-se que o IOTA 2.0 escale bem para demandas IoT. Casos de uso incluem streaming de dados com prova de integridade, pagamentos entre veículos, rastreamento de cadeia de suprimentos e identidade descentralizada (IOTA Identity). Não há smart contracts na camada base; há camadas adicionais para isso. A ausência de taxas é viabilizada por uma pequena PoW feita por quem envia a transação.
  • Hedera Hashgraph (HBAR): O Hedera usa o consenso Hashgraph, desenvolvido por Leemon Baird, com governança de um conselho de até 39 organizações. É uma rede pública, porém permisionada quanto aos validadores. O DAG Hashgraph permite mais de 10 mil TPS com finalização em 3–5 segundos e baixíssimo consumo de energia (~0,0001 kWh por transação). Oferece serviços de tokenização (HTS), Consensus Service para registro imutável e smart contracts compatíveis com a EVM. Aplicações incluem rastreabilidade de cadeia de suprimentos, emissão em massa de NFTs, micropagamentos (publicidade, por exemplo) e soluções de identidade descentralizada. Seu diferencial é o desempenho e a estabilidade, com garantias matemáticas de ordem justa.
  • Fantom (FTM): A Fantom é uma L1 de smart contracts que emprega o consenso DAG Lachesis. Lançada em 2019, se destacou no boom DeFi por ser rápida, barata e compatível com a EVM. Seu Opera Network usa Lachesis (aBFT PoS), onde validadores mantêm um DAG local de eventos e depois consolidam as transações em uma cadeia final. Oferece ~1 s para finalização e pode atingir milhares de TPS. DeFi, NFTs e jogos prosperaram na plataforma devido à velocidade e taxas baixas. A rede conta com dezenas de validadores independentes (qualquer um pode rodar um validador com o stake mínimo), demonstrando que DAGs podem atingir boa descentralização.
  • Nano (XNO): A Nano (ex-RaiBlocks) é uma criptomoeda leve com estrutura de block-lattice. O foco é dinheiro digital P2P: transações instantâneas, sem taxas, com consumo mínimo de recursos. Cada conta tem sua própria cadeia, e transferências são feitas por blocos de envio e recebimento. O consenso via ORV (voto de representantes abertos) delega peso de voto a representantes, que validam conflitos. Não há recompensas ou taxas; os nós representantes operam voluntariamente. A confirmação é normalmente inferior a 1 s e o consumo de energia por transação é ínfimo. Adequado para micropagamentos, gorjetas, remessas e comércio.
Projeto (Ano)Estrutura de dados & consensoPerformance (Throughput & Finalidade)Destaques / Casos de uso
IOTA (2016)DAG de transações (“Tangle”); cada tx aprova 2 outras. Antes, coordenada; migrando para consenso sem líder (voto no DAG mais pesado).Alto TPS teórico (escala com atividade); ~10 s de confirmação em rede ativa (mais rápido com maior tráfego). Sem taxas.Micropagamentos IoT, integridade de dados, cadeia de suprimentos, dados de sensores, automotivo, identidade descentralizada (IOTA Identity). Sem smart contracts na camada base (camadas separadas).
Hedera Hashgraph (2018)DAG de eventos (Hashgraph); gossip + votação virtual (aBFT) com ~29–39 nodos do conselho (PoS ponderado). Sem mineradores; timestamps de consenso.~10.000 TPS; finalidade em 3–5 s. Energia por tx ~0,0001 kWh. Tarifas fixas baixas (~US$0,0001).Aplicações empresariais e Web3: tokenização (HTS), NFTs, pagamentos, rastreamento de cadeia de suprimentos, dados de saúde, games etc. Governança corporativa; rede compatível com EVM.
Fantom (FTM) (2019)DAG de blocos de eventos; consenso Lachesis aBFT PoS (sem líder). Cada validador constrói o DAG e consolida numa blockchain final (Opera).Centenas de TPS em DeFi; 1–2 s de finalidade típica. Potencial para milhares de TPS em testes. Taxas baixas (centavos).DeFi e smart contracts numa L1 rápida. EVM-compatível. Suporta DEXs, lending, marketplaces NFT. O consenso DAG fica “escondido” atrás de uma interface blockchain. Qualquer um pode fazer staking.
Nano (XNO) (2015)DAG de cadeias de conta (block-lattice); cada tx é um bloco. Open Representative Voting (votação estilo dPoS). Sem mineração/taxas.Centenas de TPS possíveis (limitado por I/O de rede). <1 s de confirmação. Sem taxas. Consumo baixíssimo (ideal para IoT/mobile).Moeda digital para pagamentos instantâneos. Micropagamentos, gorjetas, varejo. Não oferece smart contracts – foca em transferências simples. Energia mínima (criptomoeda "verde").

(Tabela: comparação de projetos DAG selecionados. TPS = transações por segundo.)

Outros projetos incluem Obyte (Byteball) (pagamentos condicionais e armazenamento de dados), IoT Chain (ITC) (voltado ao IoT), Avalanche (usa DAG no consenso e tem adoção em DeFi/NFT), Conflux (DAG PoW de alto throughput na China) e protótipos acadêmicos como SPECTRE/PHANTOM. Os quatro exemplos destacados mostram a variedade de aplicações – de micropagamentos IoT a redes corporativas e smart contracts DeFi – todas tirando proveito da estrutura DAG.

Casos de uso da tecnologia DAG no ecossistema Web3

DAGs se destacam em cenários que demandam alto desempenho e propriedades específicas:

  • Internet das Coisas (IoT): Envolve milhões de dispositivos enviando dados e realizando pagamentos máquina a máquina. DAGs como IOTA foram criados para isso. Com micropagamentos sem taxas e suporte a altas frequências, dispositivos podem pagar por serviços e largura de banda em tempo real. Há pilotos de cidades inteligentes, rastreamento de cadeia de suprimentos (temperatura, localização), marketplaces de dados e aplicações de identidade descentralizada. A escalabilidade e o custo baixo dos DAGs se alinham à economia de micropagamentos no IoT.
  • Finanças Descentralizadas (DeFi): Exchanges descentralizadas (DEXs), plataformas de empréstimo e pagamentos se beneficiam de alta vazão e baixa latência. DAGs (Fantom, Avalanche X-Chain, etc.) oferecem transações rápidas e taxas baixas mesmo em pico de demanda, reduzindo riscos de slippage e congestionamento. Em 2021, a Fantom viu grande atividade DeFi e manteve a rede operando suavemente. DAGs também podem servir como trilhas de pagamento (Nano) ou suportar trading de alta frequência e transações complexas de forma mais fluida.
  • NFTs e jogos: O boom dos NFTs escancarou a necessidade de custos de minting reduzidos. Em blockchains saturadas, o gas tornou-se proibitivo. DAGs como Hedera e Fantom permitem mintar NFTs por frações de centavo, viabilizando ativos de jogos, colecionáveis e drops em larga escala. Em jogos, onde microtransações são comuns, a baixa latência e custo quase nulo melhoram a experiência (recompensas instantâneas, trocas rápidas sem “quebrar” o jogador em taxas). A alta capacidade também evita congestionamentos durante eventos populares.
  • Identidade descentralizada (DID) e credenciais: Sistemas de identidade exigem registros imutáveis para IDs, credenciais e atestados. DAGs oferecem escala (potencialmente bilhões de transações de identidade) e baixo custo, essencial quando cada atualização precisa ser economicamente viável. O IOTA Identity fornece o método DID did:iota, permitindo identidade autossoberana, enquanto o Hedera possui iniciativas de registros de diplomas, certificados de vacinação e documentos de compliance. A rapidez e os custos baixos tornam viáveis as frequentes atualizações de identidade (rotação de chaves, novos atributos, etc.).
  • Cadeia de suprimentos e integridade de dados: Qualquer caso que exija registrar grande volume de eventos se beneficia de DAGs. Rastreamento de produtos (fabricado, enviado, inspecionado) e logs de IoT (dados de energia, telecom) já usam redes como Hedera e IOTA. A capacidade elevada evita gargalos e o baixo custo viabiliza registrar até eventos de baixo valor. Projetos como Constellation Network focam em validar grandes volumes de dados, inclusive no setor governamental.
  • Pagamentos e remessas: Transações rápidas e sem taxas tornam DAGs como Nano e IOTA adequados para pagamentos, gorjetas online e remessas internacionais (evitando taxas altas e longos tempos de espera). DAGs podem servir como rails de pagamento integrados a pontos de venda ou apps móveis, oferecendo experiência equivalente a cartões contactless. Hedera também participa de pilotos de pagamentos graças à finalização rápida e custos mínimos. Com alta capacidade, os DAGs mantêm desempenho mesmo em eventos de grande volume (Black Friday, por exemplo).
  • Oráculos e feeds em tempo real: Oráculos precisam registrar dados externos (preços, clima, sensores) no ledger. DAGs podem atuar como redes de oráculos de alto throughput, garantindo ordenação e timestamp. O Hedera Consensus Service, por exemplo, é usado para registrar dados antes de enviá-los a outras blockchains. Em aplicações como publicidade descentralizada (registro de cliques/impressões), DAGs conseguem lidar com o volume elevado de eventos em tempo real.

O fio condutor é que DAGs oferecem escalabilidade, velocidade e baixo custo em cenários com transações de alta frequência ou em que a experiência de usuário precisa ser fluida (jogos, pagamentos). Embora nem todo caso migre para DAG (alguns preferem a maturidade, segurança ou efeitos de rede das blockchains tradicionais), eles preenchem nichos onde as blockchains convencionais esbarram em limitações.

Limitações e desafios dos DAGs

Apesar das vantagens, os DAGs apresentam trade-offs:

  • Maturidade e segurança: Muitos algoritmos de consenso DAG são relativamente novos e menos testados do que protocolos de blockchains estabelecidas. Isso pode significar vulnerabilidades desconhecidas. A complexidade adicional abre novas superfícies de ataque (spams de subtangles conflitantes, double spend antes da convergência, etc.). Alguns DAGs já tiveram incidentes (p. ex., a rede da IOTA precisou ser pausada após ataques/irregularidades). Em certos casos, a finalidade era apenas probabilística (sem uma garantia “final” determinística), o que é mais complexo para certas aplicações. Projetos recentes, como Hashgraph e Fantom, visam garantir finalidade instantânea via ABFT, mas o histórico ainda é curto se comparado a blockchains tradicionais.
  • Complexidade do consenso: Algoritmos baseados em gossip, votação virtual, amostragem aleatória, etc., tornam as implementações maiores e mais complexas, aumentando a chance de bugs e dificultando o entendimento por parte dos desenvolvedores. A regra da cadeia mais longa é intuitiva, enquanto mecanismos como o Hashgraph ou o Avalanche exigem conhecimento mais profundo. Isso pode frear a adoção: empresas e desenvolvedores podem hesitar em confiar num sistema que parecem não dominar totalmente. Ferramentas e bibliotecas para DAGs ainda não alcançaram a maturidade do ecossistema Ethereum ou Bitcoin.
  • Descentralização vs desempenho: Alguns DAGs sacrificam parte da descentralização para garantir desempenho. O Hedera, por exemplo, opera com um conjunto fixo de 39 nodos do conselho (embora planeje abrir gradualmente). A IOTA, por muito tempo, dependeu de um Coordenador central. A Nano confia nos representantes indicados pelos usuários, que podem concentrar grande parte do peso de voto. Em geral, blockchains costumam ser vistas como mais descentralizadas (milhares de nodos), enquanto alguns DAGs ainda não alcançaram números semelhantes. Isso não é inevitável, mas reflete estágios atuais de desenvolvimento.
  • Dependência de volume: Certas redes DAG funcionam melhor com alto volume de transações. Na IOTA, a segurança melhora quando muitas transações honestas aprovam umas às outras. Se o tráfego é baixo, pontas podem demorar a ser aprovadas, e ataques podem ficar mais viáveis. Já blockchains mantêm segurança mesmo com poucas transações, desde que mineradores/validadores continuem produzindo blocos. Assim, alguns DAGs podem apresentar desempenho inconsistente: ótimos sob carga, mas lentos em períodos de baixo uso, a menos que haja mecanismos auxiliares.
  • Ordenação e compatibilidade: Como os DAGs produzem apenas uma ordem parcial, protocolos complexos (smart contracts, por exemplo) demandam ordens determinísticas e resolução de conflitos. Plataformas como Fantom resolvem isso gerando uma cadeia final ordenada (Opera Chain), mas muitos DAGs puros preferem evitar estado global e contratos complexos inicialmente. Integrar DAGs com ecossistemas existentes (EVM, por exemplo) requer soluções específicas, elevando a complexidade.
  • Armazenamento e sincronização: Alta capacidade de transações paralelas pode gerar crescimento rápido do ledger. São necessários algoritmos eficientes de pruning (para remover transações antigas que não impactam a segurança) e soluções para clientes leves (que não armazenam o DAG completo). Há também desafios de alcance (garantir que novas transações encontrem e referenciem as anteriores eficientemente) e de truncar o histórico com segurança. Embora blockchains também enfrentem crescimento de dados, a estrutura em DAG pode complicar cálculos de saldos ou provas parciais.
  • Percepção e efeitos de rede: Além de aspectos técnicos, DAGs enfrentam o desafio de provar seu valor em um ecossistema dominado por blockchains. Muitos desenvolvedores e usuários estão mais confortáveis com blockchains, e os efeitos de rede (mais usuários, dApps, ferramentas) são fortes. DAGs às vezes são promovidos com promessas ousadas (“blockchain killer”), gerando ceticismo. Até que surjam “killer apps” ou uma base de usuários significativa, podem ser vistos como experimentais. Construir infraestrutura (listagens em exchanges, custódia, carteiras) também demanda tempo.

Resumindo, DAGs trocam simplicidade por desempenho, enfrentando desafios de complexidade do consenso, centralização parcial em certas implementações e necessidade de estabelecer confiança comparável às blockchains. A comunidade acadêmica e os desenvolvedores vêm estudando esses temas; uma publicação de 2024 (SoK) sobre protocolos DAG destaca o crescimento da diversidade de designs e a necessidade de compreender seus trade-offs. Conforme os projetos evoluem, muitos obstáculos (remoção de coordenadores, participação aberta, melhorias de ferramentas) devem ser superados, mas esses aspectos devem ser considerados ao avaliar DAG vs blockchain para um caso específico.

Tendências de adoção e perspectivas futuras

Os DAGs ainda são minoritários em comparação com blockchains lineares, mas o interesse está aumentando:

  • Mais projetos e pesquisas: Há crescimento no número de projetos explorando DAGs ou modelos híbridos. Plataformas como Aleph Zero (focada em privacidade) usam consenso DAG para ordenação rápida; Sui e Aptos integram mempools em DAG ou motores de execução paralela. Academicamente, há protocolos como SPECTRE, PHANTOM, GhostDAG e análises abrangentes (SoK) que classificam e avaliam abordagens. Pesquisas buscam resolver desafios como justiça, pruning, segurança em ambientes dinâmicos, etc.
  • Modelos híbridos: Mesmo blockchains tradicionais incorporam conceitos DAG internamente para melhorar desempenho. Avalanche é um exemplo claro: apresenta-se como blockchain, mas o consenso é DAG. Ele ganhou adoção significativa em DeFi e NFTs, mostrando que usuários podem aderir a um sistema DAG sem sequer perceber, desde que suas necessidades sejam atendidas. Fantom expõe uma interface blockchain amigável enquanto usa DAG internamente, e outras redes podem seguir caminho semelhante.
  • Adoção empresarial e de nicho: Empresas que exigem alto throughput, custos previsíveis e aceitam redes permisionadas têm explorado DAGs. O conselho do Hedera atraiu grandes corporações; isso impulsiona casos como tokenização de ativos, rastreamento de licenças de software, pagamentos corporativos etc. Consórcios também consideram DAGs para liquidações em telecom, registro de impressões publicitárias, transferências interbancárias e outros usos de alto volume. A IOTA participa de projetos financiados pela União Europeia (infraestrutura, identidade digital, IoT industrial). Se esses pilotos tiverem sucesso, poderemos ver adoção setorial.
  • Avanços em descentralização comunitária: Críticas iniciais aos DAGs (coordenadores centrais, validadores restritos) estão sendo endereçadas. O Coordicide busca eliminar o coordenador da IOTA; o Hedera abriu seu código e discute planos para descentralizar ainda mais. Na Nano, a comunidade se mobiliza para distribuir o peso dos representantes. Esses passos são essenciais para ganhar credibilidade e aproximar os DAGs dos valores de descentralização do ecossistema Web3.
  • Interoperabilidade e uso como layer 2: DAGs podem servir como camadas de escalabilidade ou redes interoperáveis, conectando-se a blockchains existentes via pontes. Um ledger DAG pode funcionar como layer 2 rápida para Ethereum, ancorando resultados em intervalos periódicos. Se a experiência for transparente, usuários podem desfrutar da velocidade do DAG mantendo a segurança ou liquidação na blockchain base.
  • Perspectiva futura – complemento em vez de substituição (por enquanto): Muitos entusiastas reconhecem que DAGs complementam, não substituem totalmente as blockchains. No curto prazo, veremos uma paisagem heterogênea com blockchains e DAGs, cada qual otimizado para cenários específicos. DAGs podem ser a espinha dorsal de alta frequência do Web3, enquanto blockchains cuidam da liquidação de alto valor ou casos que exigem simplicidade e robustez. No longo prazo, se os DAGs provarem segurança e descentralização comparáveis, é possível que se tornem o paradigma dominante. A eficiência energética também se alinha a preocupações ambientais, favorecendo a adoção em um contexto de sustentabilidade.
  • Sentimento comunitário: Há uma parte da comunidade cripto muito empolgada com DAGs, considerando-os o próximo passo evolutivo dos registros distribuídos. Ao mesmo tempo, existem céticos que destacam que segurança e descentralização não podem ser sacrificadas. Os projetos DAG precisam demonstrar que conseguem oferecer o melhor de ambos os mundos.

Em conclusão, o futuro dos DAGs é cautelosamente otimista. Blockchains ainda dominam, mas plataformas DAG estão ganhando espaço em domínios específicos e provando seu valor. À medida que as pesquisas solucionem desafios remanescentes, veremos mais convergência de ideias – blockchains incorporando melhorias inspiradas em DAG, e DAGs assimilando lições das blockchains em governança e segurança. Pesquisadores e desenvolvedores Web3 devem acompanhar os avanços dos DAGs, pois eles representam uma ramificação significativa na evolução das DLTs. É plausível que num futuro próximo tenhamos um ecossistema diversificado e interoperável, no qual os DAGs desempenhem papel vital em escalabilidade e aplicações especializadas, aproximando-nos de uma web verdadeiramente descentralizada e escalável.

Nas palavras de uma publicação do Hedera: ledgers baseados em DAG são “um passo promissor” na evolução das moedas digitais e da tecnologia descentralizada – não uma substituição total das blockchains, mas uma inovação importante que trabalhará lado a lado e inspirará melhorias em todo o panorama dos livros-razão distribuídos.

Fontes: As informações deste relatório foram extraídas de pesquisas acadêmicas sobre consenso DAG, documentação oficial e whitepapers de projetos como IOTA, Hedera Hashgraph, Fantom e Nano, além de blogs técnicos e artigos comparando DAGs e blockchains. Esses materiais respaldam as análises, benefícios e estudos de caso apresentados. O debate contínuo na comunidade de pesquisa Web3 indica que os DAGs continuarão em evidência na busca por soluções para o tripé escalabilidade–segurança–descentralização.

A Onda de 100 + ETFs de Cripto: Como 2026 Reformula o Acesso Institucional Além do Bitcoin

· 10 min de leitura
Dora Noda
Software Engineer

Quando os ETFs de Bitcoin foram lançados em janeiro de 2024, eles quebraram recordes com US$ 4,6 bilhões em fluxos de entrada na primeira semana. Avançando para o final de 2025, o cenário dos ETFs de cripto explodiu além das expectativas de qualquer pessoa. Não estamos mais falando apenas de Bitcoin e Ethereum — projeta-se o lançamento de mais de 100 novos ETFs de cripto em 2026, com mais de 50 produtos de altcoins à vista prontos para chegar ao mercado. A questão não é mais se o acesso institucional às criptos irá se expandir, mas sim o quão rápido e o que isso significa para a estrutura do mercado.

De Dois a Cem: A Explosão dos ETFs de Altcoins

A transformação ocorreu mais rápido do que a maioria dos analistas previu. Em outubro de 2025, a Solana tornou-se a terceira criptomoeda aprovada para ETPs à vista, seguindo o Bitcoin e o Ethereum.

Os ETFs de XRP foram lançados em novembro de 2025, atraindo US$ 1,37 bilhão em ativos sob gestão nos seus primeiros meses. Litecoin, Hedera e até o Dogecoin — a memecoin que começou como uma piada — agora possuem produtos negociados em bolsa aprovados pela SEC.

No início de 2026, 92 ETFs de cripto aguardam a aprovação da SEC, com a Solana liderando com oito pedidos pendentes e o XRP logo atrás com sete.

A Bitwise, sozinha, entrou com o pedido de 11 novos ETFs de altcoins programados para serem lançados em 16 de março de 2026, incluindo Uniswap (UNI), Aave (AAVE), Tron (TRX), Sui (SUI), Zcash (ZEC) e NEAR Protocol.

O que mudou? A SEC aprovou novos padrões genéricos de listagem em bolsa para produtos de cripto negociados em bolsa, reduzindo os prazos de aprovação de até 240 dias para apenas 75 dias.

Este framework padronizado essencialmente removeu os prazos individuais, permitindo que a agência atue mais rápido assim que os emissores concluam seus registros S-1. O analista de ETFs da Bloomberg, Eric Balchunas, vê agora uma probabilidade de 100 % de aprovação para todos os 16 pedidos pendentes.

A Mudança do Dinheiro Institucional: Do FOMO do Varejo para a Alocação de Fundos de Pensão

O primeiro ano do Bitcoin foi dominado por investidores de varejo e tesourarias corporativas. Mas 2026 marca uma mudança fundamental em quem está comprando ETFs de cripto — e o porquê.

A análise mais recente do JPMorgan prevê que os fluxos de entrada de ETFs de nível institucional vindos de fundos de pensão e gestores de ativos podem atingir US15bilho~esemumcenaˊrioconservador,ouateˊUS 15 bilhões em um cenário conservador, ou até US 40 bilhões sob condições favoráveis.

Isso representa um afastamento das compras lideradas pelo varejo que definiram os US$ 130 bilhões em fluxos totais do mercado de cripto em 2025.

Os números contam a história:

  • Os ativos sob gestão dos ETFs de Bitcoin devem atingir **US180220bilho~esateˊofinalde2026,acimadosaproximadamenteUS 180 - 220 bilhões** até o final de 2026, acima dos aproximadamente US 120 bilhões atuais
  • O AUM total de produtos de cripto negociados em bolsa está projetado para ultrapassar **US400bilho~esodobrodoscercadeUS 400 bilhões** — o dobro dos cerca de US 200 bilhões detidos no final de 2025

O que está impulsionando esse surto institucional? Três fatores se destacam:

  1. Clareza regulatória: A aprovação do Digital Asset Market Clarity Act removeu obrigações de divulgação pesadas para tokens listados em ETFs negociados em bolsas de valores nacionais em ou antes de 1 de janeiro de 2026. Isso criou um nível "First Eight" de ativos regulados principais: BTC, ETH, XRP, SOL, LTC, HBAR, DOGE e LINK.

  2. Expansão dos canais de distribuição: Grandes bancos como Wells Fargo, Bank of America e Vanguard agora distribuem ETFs de cripto para clientes de varejo. Morgan Stanley, Merrill Lynch e tradicional wealth management platforms abriram o acesso, multiplicando a base de investidores potenciais.

  3. Necessidades de diversificação de portfólio: Com os portfólios tradicionais 60 / 40 enfrentando dificuldades em ambientes de taxas altas, os alocadores institucionais estão explorando ativos alternativos. Mesmo uma alocação de 1 - 2 % em cripto em toda a indústria de fundos de pensão de mais de US$ 30 trilhões representa fluxos de capital massivos.

Maturação de Mercado ou Fragmentação? A Moeda de Dois Lados

A onda de ETFs de altcoins apresenta um paradoxo: é ao mesmo tempo um sinal de maturação do mercado e um risco potencial de fragmentação.

Sinais de Maturação

A própria variedade de produtos de ETF indica a integração das criptos nas finanças convencionais. Os investidores agora podem escolher entre:

  • ETFs à vista de ativo único (Bitcoin, Ethereum, Solana, XRP)
  • ETFs de cripto de múltiplos ativos
  • Produtos de cripto alavancados
  • Estruturas geradoras de rendimento (produtos com staking habilitado entrando no mainstream)
  • Fundos focados em setores (DeFi, Layer 1, moedas de privacidade)

Essa diversidade espelha os mercados de ações tradicionais, onde os investidores podem escolher fundos de índice amplos ou exposição específica a um setor.

Isso sinaliza que as criptos não são mais um ativo monolítico de "alto risco" (risk-on), mas uma classe de ativos diferenciada com casos de uso e perfis de risco distintos.

O volume de negociação cumulativo dos ETFs de criptomoedas à vista dos EUA ultrapassou US$ 2 trilhões menos de dois anos após o lançamento dos ETFs de Bitcoin — um marco que os ETFs de ouro levaram mais de uma década para alcançar. A velocidade de adoção é sem precedentes.

Preocupações com a Fragmentação

Mas a rápida expansão traz desafios. Como observa uma análise de mercado, "uma das mudanças mais subestimadas na era pós-ETF é o surgimento da fragmentação de liquidez."

Antes do ETF, a liquidez concentrava-se em grandes exchanges de cripto como Coinbase e Binance. Pós-ETF, a liquidez agora se dispersa por múltiplas plataformas: mercados de criação / resgate de ETFs, bolsas tradicionais, balcões de venda direta (over-the-counter) e protocolos descentralizados.

Spreads amplos entre diferentes locais indicam um posicionamento fragmentado — a convergência sinalizaria a formação de um consenso entre os participantes, mas ainda não chegamos lá.

A proliferação de produtos também aumenta os riscos de confusão dos investidores:

  • Os investidores de varejo entendem a diferença entre um ETF de Dogecoin à vista e um produto de cripto de múltiplos ativos alavancado?
  • Centenas de ETFs de cripto canibalizarão os fluxos uns dos outros ou expandirão o mercado total endereçável?

Early data sugere que ambas as dinâmicas estão em jogo. Os US$ 1,25 bilhão em fluxos de entrada líquidos do XRP desde novembro de 2025 demonstram uma forte demanda por exposição específica a altcoins.

Mas isso também representa capital que, de outra forma, poderia ter fluído para os ETFs de Bitcoin ou Ethereum, destacando o aspecto de soma zero das batalhas por participação de mercado.

A Peça que Falta: Onde Estão as Jogadas de Infraestrutura Institucional?

Apesar de todo o entusiasmo em torno das aprovações de ETFs, resta uma questão crítica: como as instituições realmente usarão esses ativos digitais em escala?

É aqui que os provedores de infraestrutura blockchain tornam-se essenciais. Investidores institucionais não precisam apenas de wrappers de ETF — eles precisam de acesso robusto a APIs de nível empresarial para interagir com dados on-chain, verificar custódia e integrar cripto em sistemas de gestão de portfólio existentes.

Seja consultando o estado da blockchain em tempo real para rendimentos de staking na Solana ou verificando a liquidação cross-chain para portfólios multiativos, a camada de infraestrutura que sustenta a adoção institucional de cripto deve ser tão confiável quanto as próprias estruturas de ETF.

O Que 2026 Reserva: Previsões e Curingas

Várias tendências parecem consolidadas para o restante de 2026:

Quase certezas:

  • O AUM total de ETPs de cripto excederá US$ 400 bilhões
  • Solana, XRP e Litecoin dominarão os fluxos de ETFs de altcoins (já possuem mais de 95% de chances de aprovação)
  • ETFs com staking habilitado entrarão no mainstream, mudando fundamentalmente as expectativas de rendimento
  • Mais instituições financeiras tradicionais lançarão produtos de cripto (a corrida armamentista está acelerando)

Desenvolvimentos prováveis:

  • ETFs de Cardano, Polkadot e tokens DeFi adicionais ganham aprovação
  • BlackRock solicita um ETF de XRP (insiders preveem o final de 2026 ou início de 2027)
  • Lançamento da primeira onda de ETFs de índice de cripto multiativos, espelhando estratégias de diversificação no estilo S&P 500
  • Mercados europeus e asiáticos lançam produtos ETP de cripto concorrentes, criando uma corrida regulatória global

Curingas:

  • A SEC aprovará ETFs de stablecoins que geram rendimento? O quadro regulatório permanece incerto.
  • Poderia um grande incidente de segurança ou colapso do mercado descarrilar a adoção institucional? A indústria cripto superou os colapsos da FTX e da Luna, mas os riscos sistêmicos persistem.
  • As exchanges descentralizadas acabarão desafiando a dominância dos ETFs para o acesso institucional? A tecnologia DEX está melhorando rapidamente.

O Veredito: Evolução, Não Revolução

A onda de mais de 100 ETFs de cripto não é uma revolução — é uma evolução. Estamos observando as finanças tradicionais absorverem a cripto através de sua infraestrutura existente, em vez da cripto desestabilizar os mercados financeiros vindo de fora.

Isso não é necessariamente algo ruim. Os wrappers de ETF fornecem:

  • Conformidade regulatória e clareza jurídica
  • Soluções de custódia de nível institucional
  • Eficiência tributária e relatórios simplificados
  • Veículos de investimento familiares para instituições avessas ao risco
  • Acesso democratizado para investidores de varejo que não desejam gerenciar chaves privadas

Mas isso também significa que a cripto está se tornando mais parecida com as finanças tradicionais: intermediada, regulamentada e concentrada em grandes instituições financeiras.

A visão original da cripto de transferência de valor descentralizada e peer-to-peer abre caminho para BlackRock e Fidelity gerindo ativos digitais em nome de fundos de pensão.

Se você vê isso como legitimação ou cooptação, depende da sua perspectiva.

O que é inegável é que os portões institucionais se abriram, e 2026 verá uma inundação de capital que fará o lançamento do ETF de Bitcoin de 2024 parecer apenas um aquecimento.

A onda de ETFs de altcoins está aqui.

A questão agora é se a infraestrutura descentralizada da cripto pode escalar para atender às demandas institucionais — ou se as finanças tradicionais simplesmente construirão seus próprios jardins murados no topo das blockchains públicas.

Para instituições que constroem em infraestrutura blockchain, o acesso confiável a APIs para múltiplas redes não é opcional — é fundamental. Explore as APIs multi-chain de nível empresarial da BlockEden.xyz projetadas para a era institucional.

Fontes

Como a Amostragem de Disponibilidade de Dados da Celestia Atinge 1 Terabit Por Segundo: O Mergulho Técnico Profundo

· 16 min de leitura
Dora Noda
Software Engineer

Em 13 de janeiro de 2026, a Celestia superou as expectativas com um único benchmark: 1 terabit por segundo de taxa de transferência de dados em 498 nós distribuídos. Para contexto, isso é largura de banda suficiente para processar todo o volume diário de transações dos maiores rollups de Camada 2 do Ethereum — em menos de um segundo.

Mas a verdadeira história não é o número da manchete. É a infraestrutura criptográfica que torna isso possível: Amostragem de Disponibilidade de Dados (Data Availability Sampling - DAS), um avanço que permite que nós leves com recursos limitados verifiquem a disponibilidade de dados da blockchain sem baixar blocos inteiros. À medida que os rollups correm para escalar além do armazenamento nativo de blobs do Ethereum, entender como a Celestia alcança essa taxa de transferência — e por que isso importa para a economia dos rollups — nunca foi tão crítico.

O Gargalo da Disponibilidade de Dados: Por que os Rollups Precisam de uma Solução Melhor

A escalabilidade da blockchain tem sido restringida por um dilema fundamental: como você verifica se os dados das transações estão realmente disponíveis sem exigir que cada nó baixe e armazene tudo? Este é o problema da disponibilidade de dados, e é o principal gargalo para a escalabilidade de rollups.

A abordagem do Ethereum — exigir que cada nó completo baixe blocos inteiros — cria uma barreira de acessibilidade. À medida que o tamanho dos blocos aumenta, menos participantes podem arcar com a largura de banda e o armazenamento para executar nós completos, ameaçando a descentralização. Os rollups que postam dados na L1 do Ethereum enfrentam custos proibitivos: no pico da demanda, um único lote pode custar milhares de dólares em taxas de gas.

Surgem as camadas modulares de disponibilidade de dados. Ao separar a disponibilidade de dados da execução e do consenso, protocolos como Celestia, EigenDA e Avail prometem reduzir drasticamente os custos dos rollups, mantendo as garantias de segurança. A inovação da Celestia? Uma técnica de amostragem que inverte o modelo de verificação: em vez de baixar tudo para verificar a disponibilidade, os nós leves amostram aleatoriamente fragmentos minúsculos e alcançam confiança estatística de que o conjunto de dados completo existe.

Amostragem de Disponibilidade de Dados Explicada: Como os Nós Leves Verificam sem Baixar

Em sua essência, o DAS é um mecanismo de verificação probabilístico. Veja como ele funciona:

Amostragem Aleatória e Construção de Confiança

Os nós leves não baixam blocos inteiros. Em vez disso, eles realizam múltiplas rodadas de amostragem aleatória para pequenas porções de dados do bloco. Cada amostra bem-sucedida aumenta a confiança de que o bloco completo está disponível.

A matemática é elegante: se um validador malicioso retiver até mesmo uma pequena porcentagem dos dados do bloco, nós leves honestos detectarão a indisponibilidade com alta probabilidade após apenas algumas rodadas de amostragem. Isso cria um modelo de segurança onde até mesmo dispositivos com recursos limitados podem participar da verificação de disponibilidade de dados.

Especificamente, cada nó leve escolhe aleatoriamente um conjunto de coordenadas únicas em uma matriz de dados estendida e consulta os nós de ponte (bridge nodes) pelas fatias de dados correspondentes, além das provas de Merkle. Se o nó leve receber respostas válidas para cada consulta, a probabilidade estatística garante que os dados de todo o bloco estão disponíveis.

Codificação Reed-Solomon 2D: A Fundação Matemática

A Celestia utiliza um esquema de codificação Reed-Solomon bidimensional para tornar a amostragem eficiente e resistente a fraudes. Aqui está o fluxo técnico:

  1. Os dados do bloco são divididos em k × k pedaços, formando um quadrado de dados
  2. A codificação de eliminação Reed-Solomon estende isso para uma matriz 2k × 2k (adicionando redundância)
  3. As raízes de Merkle são computadas para cada linha e coluna da matriz estendida
  4. A raiz de Merkle dessas raízes torna-se o compromisso de dados do bloco no cabeçalho do bloco

Essa abordagem possui uma propriedade crítica: se qualquer porção da matriz estendida estiver faltando, a codificação falha e os nós leves detectarão inconsistências ao verificar as provas de Merkle. Um invasor não pode reter dados seletivamente sem ser pego.

Árvores de Merkle com Espaço de Nomes (NMTs): Isolamento de Dados Específico para Rollups

É aqui que a arquitetura da Celestia brilha para ambientes multi-rollup: Árvores de Merkle com Espaço de Nomes (Namespaced Merkle Trees - NMTs).

Uma árvore de Merkle padrão agrupa dados arbitrariamente. Uma NMT, no entanto, etiqueta cada nó com os identificadores de espaço de nomes (namespace) mínimos e máximos de seus filhos e ordena as folhas por espaço de nomes. Isso permite que os rollups:

  • Baixem apenas seus próprios dados da camada de DA
  • Provem a integridade dos dados de seu espaço de nomes com uma prova de Merkle
  • Ignorem completamente dados irrelevantes de outros rollups

Para um operador de rollup, isso significa que você não está pagando custos de largura de banda para baixar dados de redes concorrentes. Você busca exatamente o que precisa, verifica com provas criptográficas e prossegue. Este é um ganho de eficiência massivo em comparação com cadeias monolíticas, onde todos os participantes devem processar todos os dados.

A Atualização Matcha: Escalando para Blocos de 128 MB

Em 2025, a Celestia ativou a atualização Matcha, um momento divisor de águas para a disponibilidade de dados modular. Aqui está o que mudou:

Expansão do Tamanho do Bloco

O Matcha aumenta o tamanho máximo do bloco de 8 MB para 128 MB — um aumento de 16x na capacidade. Isso se traduz em:

  • Tamanho do quadrado de dados: 128 → 512
  • Tamanho máximo da transação: 2 MB → 8 MB
  • Throughput sustentado: 21,33 MB/s na testnet (abril de 2025)

Para colocar isso em perspectiva, a meta de contagem de blobs do Ethereum é de 6 por bloco (aproximadamente 0,75 MB), expansível para 9 blobs. Os blocos de 128 MB da Celestia superam essa capacidade em mais de 100x.

Propagação de Blocos de Alta Taxa de Transferência

A restrição não era apenas o tamanho do bloco — era a velocidade de propagação do bloco. O Matcha introduz um novo mecanismo de propagação (CIP-38) que dissemina com segurança blocos de 128 MB pela rede sem causar a dessincronização dos validadores.

Na testnet, a rede manteve tempos de bloco de 6 segundos com blocos de 128 MB, alcançando um throughput de 21,33 MB/s. Isso representa 16x a capacidade atual da mainnet.

Redução de Custos de Armazenamento

Uma das mudanças econômicas mais negligenciadas: o Matcha reduziu a janela mínima de poda (pruning) de dados de 30 dias para 7 dias + 1 hora (CIP-34).

Para nós de ponte (bridge nodes), isso reduz os requisitos de armazenamento de 30 TB para 7 TB nos níveis de throughput projetados. Custos operacionais mais baixos para provedores de infraestrutura traduzem-se em disponibilidade de dados mais barata para rollups.

Reformulação da Economia de Tokens

O Matcha também melhorou a economia do token TIA:

  • Corte na inflação: De 5 % para 2,5 % anualmente
  • Aumento da comissão do validador: O máximo foi elevado de 10 % para 20 %
  • Propriedades de colateral aprimoradas: Tornando o TIA mais adequado para casos de uso em DeFi

Combinadas, essas mudanças posicionam a Celestia para a próxima fase: escalando para um throughput de 1 GB/s e além.

Economia de Rollups: Por que 50 % de Market Share de DA Importa

No início de 2026, a Celestia detém aproximadamente 50 % do mercado de disponibilidade de dados, tendo processado mais de 160 GB de dados de rollups. Esse domínio reflete a adoção no mundo real por desenvolvedores de rollups que priorizam custo e escalabilidade.

Comparação de Custos: Celestia vs Blobs do Ethereum

O modelo de taxas da Celestia é direto: os rollups pagam por blob com base no tamanho e nos preços atuais do gás. Ao contrário das camadas de execução onde a computação domina, a disponibilidade de dados é fundamentalmente sobre largura de banda e armazenamento — recursos que escalam de forma mais previsível com melhorias de hardware.

Para operadores de rollups, a matemática é convincente:

  • Publicação na L1 do Ethereum: No pico da demanda, o envio de lotes (batches) pode custar de $ 1.000 a $ 10.000 + em gás
  • Celestia DA: Custos inferiores a um dólar por lote para dados equivalentes

Essa redução de custos de mais de 100x é o motivo pelo qual os rollups estão migrando para soluções de DA modular. A disponibilidade de dados mais barata traduz-se diretamente em taxas de transação mais baixas para os usuários finais.

A Estrutura de Incentivos de Rollups

O modelo econômico da Celestia alinha os incentivos:

  1. Rollups pagam pelo armazenamento de blobs proporcionalmente ao tamanho dos dados
  2. Validadores ganham taxas por proteger a camada de DA
  3. Nós de ponte (bridge nodes) servem dados para nós leves (light nodes) e ganham taxas de serviço
  4. Nós leves realizam amostragem de dados gratuitamente, contribuindo para a segurança

Isso cria um efeito volante (flywheel): à medida que mais rollups adotam a Celestia, a receita dos validadores aumenta, atraindo mais stakers, o que fortalece a segurança, o que, por sua vez, atrai mais rollups.

A Competição: EigenDA, Avail e Blobs do Ethereum

A participação de mercado de 50 % da Celestia está sob ataque. Três grandes competidores estão escalando agressivamente:

EigenDA: Ethereum-Native Restaking

A EigenDA utiliza a infraestrutura de restaking da EigenLayer para oferecer disponibilidade de dados de alta taxa de transferência para rollups do Ethereum. Principais vantagens:

  • Segurança econômica: Protegida por ETH re-staked (atualmente 93,9 % do mercado de restaking)
  • Integração estreita com o Ethereum: Compatibilidade nativa com o mercado de blobs do Ethereum
  • Maiores reivindicações de throughput: Embora as versões anteriores carecessem de segurança econômica ativa

Críticos apontam que a dependência da EigenDA no restaking introduz um risco de cascata: se um AVS sofrer slashing, isso poderá se propagar para os detentores de stETH da Lido e desestabilizar o mercado de LST mais amplo.

Avail: DA Universal para Todas as Chains

Diferente do foco da Celestia na Cosmos e da orientação da EigenDA para o Ethereum, a Avail posiciona-se como uma camada de DA universal compatível com qualquer arquitetura de blockchain:

  • Suporte aos modelos UTXO, Conta e Objeto: Funciona com L2s de Bitcoin, redes EVM e sistemas baseados em Move
  • Design modular: Separa totalmente a DA do consenso
  • Visão cross-ecosystem: Visa servir como a camada de DA neutra para todas as blockchains

O desafio da Avail? É a entrada mais recente, ficando atrás em integrações de rollups ativos em comparação com a Celestia e a EigenDA.

Blobs Nativos do Ethereum: EIP-4844 e Além

O EIP-4844 (atualização Dencun) do Ethereum introduziu transações que carregam blobs, oferecendo aos rollups uma alternativa de publicação de dados mais barata do que o calldata. Capacidade atual:

  • Meta: 6 blobs por bloco (~ 0,75 MB)
  • Máximo: 9 blobs por bloco (~ 1,125 MB)
  • Expansão futura: Atualizações de PeerDAS e zkEVM visando mais de 10.000 TPS

No entanto, os blobs do Ethereum vêm com compensações (trade-offs):

  • Janela de retenção curta: Os dados são removidos após ~ 18 dias
  • Contenda de recursos compartilhados: Todos os rollups competem pelo mesmo espaço de blob
  • Escalabilidade limitada: Mesmo com o PeerDAS, a capacidade de blobs atinge o máximo muito abaixo do roteiro da Celestia

Para rollups que priorizam o alinhamento com o Ethereum, os blobs são atraentes. Para aqueles que precisam de um throughput massivo e retenção de dados a longo prazo, a Celestia continua sendo a melhor opção.

Fibre Blockspace: A Visão de 1 Terabit

Em 14 de janeiro de 2026, o cofundador da Celestia, Mustafa Al-Bassam, revelou o Fibre Blockspace — um novo protocolo que visa um throughput de 1 terabit por segundo com latência de milissegundos. Isso representa uma melhoria de 1.500 x em relação às metas originais do roadmap de apenas um ano atrás.

Detalhes do Benchmark

A equipe alcançou o benchmark de 1 Tbps usando:

  • 498 nós distribuídos pela América do Norte
  • Instâncias GCP com 48 - 64 vCPUs e 90 - 128 GB de RAM cada
  • Links de rede de 34 - 45 Gbps por instância

Sob essas condições controladas, o protocolo sustentou uma taxa de transferência de dados de 1 terabit por segundo — um salto impressionante no desempenho de blockchain.

Codificação ZODA: 881 x Mais Rápida que KZG

No núcleo do Fibre está o ZODA, um novo protocolo de codificação que a Celestia afirma processar dados 881 x mais rápido do que as alternativas baseadas em compromissos KZG usadas pela EigenDA e pelos blobs da Ethereum.

Compromissos KZG (compromissos polinomiais Kate-Zaverucha-Goldberg) são criptograficamente elegantes, mas computacionalmente caros. O ZODA troca algumas propriedades criptográficas por ganhos massivos de velocidade, tornando o throughput em escala de terabit alcançável em hardware comum.

A Visão: Todo Mercado se Torna Onchain

A declaração do roadmap de Al-Bassam captura a ambição da Celestia:

"Se 10 KB / s permitiram AMMs, e 10 MB / s permitiram orderbooks onchain, então 1 Tbps é o salto que permite que todo mercado venha para o onchain."

A implicação: com largura de banda de disponibilidade de dados suficiente, os mercados financeiros atualmente dominados por exchanges centralizadas — spot, derivativos, opções, mercados de previsão — poderiam migrar para uma infraestrutura de blockchain transparente e permissionless.

Choque de Realidade: Benchmarks vs. Produção

As condições de benchmark raramente correspondem ao caos do mundo real. O resultado de 1 Tbps foi alcançado em um ambiente de testnet controlado com instâncias de nuvem de alto desempenho. O verdadeiro teste virá quando:

  • Rollups reais enviarem cargas de trabalho de produção
  • As condições da rede variarem (picos de latência, perda de pacotes, largura de banda assimétrica)
  • Validadores adversários tentarem ataques de retenção de dados

A equipe da Celestia reconhece isso: o Fibre funciona de forma paralela à camada DA L1 existente, oferecendo aos usuários uma escolha entre uma infraestrutura testada em batalha e um throughput experimental de ponta.

O Que Isso Significa para Desenvolvedores de Rollup

Se você está construindo um rollup, a arquitetura DAS da Celestia oferece vantagens convincentes:

Quando Escolher a Celestia

  • Aplicações de alto throughput: Jogos, redes sociais, micropagamentos
  • Casos de uso sensíveis ao custo: Rollups que visam taxas de transação abaixo de um centavo
  • Fluxos de trabalho intensivos em dados: Inferência de IA, integrações de armazenamento descentralizado
  • Ecossistemas de múltiplos rollups: Projetos que lançam vários rollups especializados

Quando Continuar com os Blobs da Ethereum

  • Alinhamento com a Ethereum: Se o seu rollup valoriza o consenso social e a segurança da Ethereum
  • Arquitetura simplificada: Os blobs oferecem uma integração mais estreita com as ferramentas da Ethereum
  • Menor complexidade: Menos infraestrutura para gerenciar (sem camada DA separada)

Considerações de Integração

A camada DA da Celestia integra-se com os principais frameworks de rollup:

  • Polygon CDK: Componente DA facilmente plugável
  • OP Stack: Adaptadores DA personalizados disponíveis
  • Arbitrum Orbit: Integrações construídas pela comunidade
  • Rollkit: Suporte nativo à Celestia

Para desenvolvedores, adotar a Celestia geralmente significa substituir o módulo de disponibilidade de dados em sua stack de rollup — mudanças mínimas na lógica de execução ou liquidação.

As Guerras de Disponibilidade de Dados: O Que Vem a Seguir

A tese da blockchain modular está sendo testada sob estresse em tempo real. A participação de mercado de 50 % da Celestia, o momentum de restaking da EigenDA e o posicionamento universal da Avail estabelecem uma competição de três frentes pela mente dos desenvolvedores de rollups.

Principais Tendências para Acompanhar

  1. Escala de throughput: A Celestia visa 1 GB / s → 1 Tbps; EigenDA e Avail responderão
  2. Modelos de segurança econômica: Os riscos de restaking afetarão a EigenDA? O conjunto de validadores da Celestia conseguirá escalar?
  3. Expansão de blobs da Ethereum: As atualizações PeerDAS e zkEVM podem mudar a dinâmica de custos
  4. DA Cross-chain: A visão universal da Avail vs. soluções específicas de ecossistema

O Ângulo da BlockEden.xyz

Para provedores de infraestrutura, o suporte a múltiplas camadas DA está se tornando o padrão. Os desenvolvedores de rollup precisam de acesso RPC confiável não apenas à Ethereum, mas também à Celestia, EigenDA e Avail.

A BlockEden.xyz oferece infraestrutura RPC de alto desempenho para Celestia e mais de 10 ecossistemas de blockchain, permitindo que equipes de rollup construam em stacks modulares sem gerenciar a infraestrutura de nós. Explore nossas APIs de disponibilidade de dados para acelerar a implantação do seu rollup.

Conclusão: Disponibilidade de Dados como o Novo Fosso Competitivo

A Amostragem de Disponibilidade de Dados (DAS) da Celestia não é apenas uma melhoria incremental — é uma mudança de paradigma na forma como as blockchains verificam o estado. Ao permitir que light nodes participem da segurança por meio de amostragem probabilística, a Celestia democratiza a verificação de uma forma que as redes monolíticas não conseguem.

A atualização Matcha com blocos de 128 MB e a visão Fibre de 1 Tbps de throughput representam pontos de inflexão para a economia dos rollups. Quando os custos de disponibilidade de dados caem 100 x, categorias inteiramente novas de aplicações tornam-se viáveis: negociação de alta frequência onchain, jogos multiplayer em tempo real, coordenação de agentes de IA em escala.

Mas a tecnologia sozinha não determina os vencedores. As guerras de DA serão decididas por três fatores:

  1. Adoção de rollups: Quais redes realmente se comprometerão com implantações de produção?
  2. Sustentabilidade econômica: Esses protocolos conseguem manter custos baixos à medida que o uso aumenta?
  3. Resiliência de segurança: Quão bem os sistemas baseados em amostragem resistem a ataques sofisticados?

A participação de mercado de 50 % da Celestia e os 160 GB de dados de rollup processados provam que o conceito funciona. Agora a questão muda de "a DA modular consegue escalar?" para "qual camada DA dominará a economia dos rollups?"

Para os construtores que navegam neste cenário, o conselho é claro: abstraia sua camada DA. Projete rollups para alternar entre Celestia, EigenDA, blobs da Ethereum e Avail sem reestruturar a arquitetura. As guerras de disponibilidade de dados estão apenas começando, e os vencedores podem não ser quem esperamos.


Fontes:

Trade-offs do Modelo de Consenso para Interoperabilidade: PoW, PoS, DPoS e BFT na Segurança de Bridges Cross-Chain

· 13 min de leitura
Dora Noda
Software Engineer

Mais de US$ 2,3 bilhões foram drenados de pontes cross-chain apenas no primeiro semestre de 2025 — já superando o total de todo o ano de 2024. Embora grande parte das conversas do setor se concentre em auditorias de contratos inteligentes e gerenciamento de chaves multisig, uma vulnerabilidade mais silenciosa, porém igualmente crítica, muitas vezes não é examinada: o descompasso entre como diferentes blockchains alcançam o consenso e como as pontes presumem que elas o fazem.

Cada ponte cross-chain faz suposições implícitas sobre a finalidade. Quando essas suposições colidem com o modelo de consenso real de uma cadeia de origem ou destino, os invasores encontram janelas para explorar. Compreender como os mecanismos de consenso PoW, PoS, DPoS e BFT diferem — e como essas diferenças se desdobram em escolhas de design de pontes e seleção de protocolos de mensagens — é um dos tópicos mais importantes na infraestrutura Web3 atualmente.

Mercados de Dados Encontram o Treinamento de IA: Como a Blockchain Resolve a Crise de Precificação de Dados de $ 23 Bilhões

· 16 min de leitura
Dora Noda
Software Engineer

A indústria de IA enfrenta um paradoxo: a produção global de dados explode de 33 zettabytes para 175 zettabytes até 2025, no entanto, a qualidade dos modelos de IA estagna. O problema não é a escassez de dados — é que os provedores de dados não têm como capturar valor de suas contribuições. Entram em cena os mercados de dados baseados em blockchain, como Ocean Protocol, LazAI e ZENi, que estão transformando os dados de treinamento de IA de um recurso gratuito em uma classe de ativos monetizáveis avaliada em $ 23,18 bilhões até 2034.

O Problema da Precificação de Dados de $ 23 Bilhões

Os custos de treinamento de IA aumentaram 89 % de 2023 a 2025, com a aquisição e anotação de dados consumindo até 80 % dos orçamentos de projetos de aprendizado de máquina. No entanto, os criadores de dados — indivíduos que geram consultas de pesquisa, interações em redes sociais e padrões comportamentais — não recebem nada, enquanto os gigantes da tecnologia colhem bilhões em valor.

O mercado de conjuntos de dados de treinamento de IA revela essa desconexão. Avaliado em $ 3,59 bilhões em 2025, o mercado deve atingir $ 23,18 bilhões até 2034 com um CAGR de 22,9 %. Outra previsão estima que em 2026 o valor será de $ 7,48 bilhões, chegando a $ 52,41 bilhões até 2035 com um crescimento anual de 24,16 %.

Mas quem captura esse valor? Atualmente, plataformas centralizadas extraem o lucro enquanto os criadores de dados recebem compensação zero. Ruído de rótulos, marcação inconsistente e falta de contexto elevam os custos, mas os contribuidores carecem de incentivos para melhorar a qualidade. As preocupações com a privacidade dos dados impactam 28 % das empresas, limitando a acessibilidade dos conjuntos de dados justamente quando a IA precisa de entradas diversas e de alta qualidade.

Ocean Protocol: Tokenizando a Economia de Dados de $ 100 Milhões

O Ocean Protocol aborda a propriedade permitindo que os provedores de dados tokenizem conjuntos de dados e os disponibilizem para treinamento de IA sem abrir mão do controle. Desde o lançamento dos Ocean Nodes em agosto de 2024, a rede cresceu para mais de 1,4 milhão de nós em mais de 70 países, integrou mais de 35.000 conjuntos de dados e facilitou mais de $ 100 milhões em transações de dados relacionadas à IA.

O roteiro de produtos para 2025 inclui três componentes críticos:

Inference Pipelines permitem o treinamento e a implantação de modelos de IA de ponta a ponta diretamente na infraestrutura do Ocean. Os provedores de dados tokenizam conjuntos de dados proprietários, definem preços e obtêm receita toda vez que um modelo de IA consome seus dados para treinamento ou inferência.

Ocean Enterprise Onboarding move os negócios do ecossistema do piloto para a produção. O Ocean Enterprise v1, com lançamento previsto para o terceiro trimestre de 2025, oferece uma plataforma de dados em conformidade e pronta para produção, visando clientes institucionais que precisam de trocas de dados auditáveis e que preservam a privacidade.

Node Analytics introduz painéis que rastreiam desempenho, uso e ROI. Parceiros como a NetMind contribuem com 2.000 GPUs, enquanto a Aethir ajuda a escalar os Ocean Nodes para suportar grandes cargas de trabalho de IA, criando uma camada de computação descentralizada para treinamento de IA.

O mecanismo de compartilhamento de receita do Ocean funciona por meio de contratos inteligentes: os provedores de dados definem os termos de acesso, os desenvolvedores de IA pagam por uso e o blockchain distribui automaticamente os pagamentos a todos os colaboradores. Isso transforma os dados de uma venda única em um fluxo de receita contínuo vinculado ao desempenho do modelo.

LazAI: Dados de Interação de IA Verificáveis na Metis

A LazAI apresenta uma abordagem fundamentalmente diferente — monetizar dados de interação de IA, não apenas conjuntos de dados estáticos. Cada conversa com os agentes principais da LazAI (Lazbubu, SoulTarot) gera Data Anchoring Tokens (DATs), que funcionam como registros rastreáveis e verificáveis de resultados gerados por IA.

A Mainnet Alpha foi lançada em dezembro de 2025 em uma infraestrutura de nível empresarial usando consenso QBFT e liquidação baseada em $ METIS. Os DATs tokenizam e monetizam conjuntos de dados e modelos de IA como ativos verificáveis com propriedade transparente e atribuição de receita.

Por que isso importa? O treinamento tradicional de IA usa conjuntos de dados estáticos congelados no momento da coleta. A LazAI captura dados de interação dinâmicos — consultas de usuários, respostas de modelos, loops de refinamento — criando conjuntos de dados de treinamento que refletem padrões de uso do mundo real. Esses dados são exponencialmente mais valiosos para o ajuste fino (fine-tuning) de modelos porque contêm sinais de feedback humano incorporados no fluxo da conversa.

O sistema inclui três inovações principais:

Proof-of-Stake Validator Staking protege os pipelines de dados de IA. Os validadores fazem staking de tokens para verificar a integridade dos dados, ganhando recompensas por validações precisas e enfrentando penalidades por aprovar dados fraudulentos.

Mintagem de DAT com Compartilhamento de Receita permite que usuários que geram dados de interação valiosos mintem DATs que representam suas contribuições. Quando as empresas de IA compram esses conjuntos de dados para treinamento de modelos, a receita flui automaticamente para todos os detentores de DATs com base em sua contribuição proporcional.

Governança iDAO estabelece coletivos de IA descentralizados, onde os colaboradores de dados governam coletivamente a curadoria de conjuntos de dados, estratégias de preços e padrões de qualidade por meio de votação on-chain.

O roteiro de 2026 adiciona privacidade baseada em ZK (os usuários podem monetizar dados de interação sem expor informações pessoais), mercados de computação descentralizados (o treinamento ocorre em infraestrutura distribuída em vez de nuvens centralizadas) e avaliação de dados multimodais (interações de vídeo, áudio e imagem além de texto).

ZENi: A Camada de Dados de Inteligência para Agentes de IA

A ZENi opera na intersecção de Web3 e IA ao impulsionar a "Economia InfoFi" — uma rede descentralizada que une o comércio tradicional e o baseado em blockchain por meio de inteligência alimentada por IA. A empresa arrecadou $ 1,5 milhão em financiamento seed liderado pela Waterdrip Capital e Mindfulness Capital.

Em seu núcleo reside a Camada de Dados InfoFi, um motor de inteligência comportamental de alto rendimento que processa mais de 1 milhão de sinais diários no X / Twitter, Telegram, Discord e atividades on-chain. A ZENi identifica padrões no comportamento do usuário, mudanças de sentimento e engajamento da comunidade — dados que são críticos para o treinamento de agentes de IA, mas difíceis de coletar em escala.

A plataforma opera como um sistema de três partes:

Agente Analítico de Dados de IA identifica públicos de alta intenção e clusters de influência analisando grafos sociais, transações on-chain e métricas de engajamento. Isso cria conjuntos de dados comportamentais que mostram não apenas o que os usuários fazem, mas por que tomam decisões.

Agente AIGC (Conteúdo Gerado por IA) cria campanhas personalizadas usando insights da camada de dados. Ao compreender as preferências do usuário e a dinâmica da comunidade, o agente gera conteúdo otimizado para segmentos específicos de público.

Agente de Execução de IA ativa o alcance através do dApp da ZENi, fechando o ciclo desde a coleta de dados até a monetização. Os usuários recebem compensação quando seus dados comportamentais contribuem para campanhas bem-sucedidas.

A ZENi já atende parceiros em e-commerce, jogos e Web3, com 480.000 usuários registrados e 80.000 usuários ativos diários. O modelo de negócios monetiza a inteligência comportamental: as empresas pagam para acessar os conjuntos de dados processados pela IA da ZENi, e a receita flui para os usuários cujos dados alimentaram esses insights.

A Vantagem Competitiva do Blockchain nos Mercados de Dados

Por que o blockchain é importante para a monetização de dados? Três capacidades técnicas tornam os mercados de dados descentralizados superiores às alternativas centralizadas:

Atribuição de Receita Granular Contratos inteligentes permitem o compartilhamento sofisticado de receitas, onde múltiplos contribuidores para um modelo de IA recebem automaticamente uma compensação proporcional baseada no uso. Um único conjunto de dados de treinamento pode agregar entradas de 10.000 usuários — o blockchain rastreia cada contribuição e distribui micropagamentos por inferência de modelo.

Os sistemas tradicionais não conseguem lidar com essa complexidade. Os processadores de pagamento cobram taxas fixas (2 a 3%) inadequadas para micropagamentos, e as plataformas centralizadas carecem de transparência sobre quem contribuiu com o quê. O blockchain resolve ambos: custos de transação próximos de zero via soluções de Camada 2 e atribuição imutável via proveniência on-chain.

Proveniência de Dados Verificável Os Tokens de Ancoragem de Dados da LazAI comprovam a origem dos dados sem expor o conteúdo subjacente. As empresas de IA que treinam modelos podem verificar que estão usando dados licenciados e de alta qualidade, em vez de conteúdo extraído da web de legalidade questionável.

Isso aborda um risco crítico: as regulamentações de privacidade de dados impactam 28% das empresas, limitando a acessibilidade dos conjuntos de dados. Mercados de dados baseados em blockchain implementam verificação com preservação de privacidade — comprovando a qualidade dos dados e o licenciamento sem revelar informações pessoais.

Treinamento de IA Descentralizado A rede de nós do Ocean Protocol demonstra como a infraestrutura distribuída reduz custos. Em vez de pagar aos provedores de nuvem $ 2 a $ 5 por hora de GPU, as redes descentralizadas combinam capacidade de computação não utilizada (PCs gamers, centros de dados com capacidade ociosa) com a demanda de treinamento de IA com uma redução de custos de 50 a 85%.

O blockchain coordena essa complexidade através de contratos inteligentes que regem a alocação de tarefas, a distribuição de pagamentos e a verificação de qualidade. Os contribuidores fazem staking de tokens para participar, ganhando recompensas por computação honesta e enfrentando penalidades de slashing por entregar resultados incorretos.

O Caminho para os $ 52 Bilhões: Forças de Mercado Impulsionando a Adoção

Três tendências convergentes aceleram o crescimento do mercado de dados em blockchain em direção à projeção de $ 52,41 bilhões para 2035:

Diversificação de Modelos de IA A era dos modelos de fundação massivos (GPT-4, Claude, Gemini) treinados em todo o texto da internet está chegando ao fim. Modelos especializados para saúde, finanças, serviços jurídicos e aplicações verticais exigem conjuntos de dados específicos de domínio que as plataformas centralizadas não fazem curadoria.

Os mercados de dados em blockchain se destacam em conjuntos de dados de nicho. Um provedor de imagens médicas pode tokenizar exames de radiologia com anotações diagnósticas, definir termos de uso que exijam o consentimento do paciente e obter receita de cada modelo de IA treinado em seus dados. Isso é impossível de implementar com plataformas centralizadas que carecem de controle de acesso granular e atribuição.

Pressão Regulatória As regulamentações de privacidade de dados (GDPR, CCPA, Lei de Proteção de Informações Pessoais da China) exigem a coleta de dados baseada em consentimento. Os mercados baseados em blockchain implementam o consentimento como lógica programável — os usuários assinam permissões criptograficamente, os dados só podem ser acessados sob termos especificados e os contratos inteligentes aplicam a conformidade automaticamente.

O foco do Ocean Enterprise v1 na conformidade aborda isso diretamente. Instituições financeiras e provedores de saúde precisam de uma linhagem de dados auditável que comprove que cada conjunto de dados usado para treinamento de modelos possui o licenciamento adequado. O blockchain fornece trilhas de auditoria imutáveis que satisfazem os requisitos regulatórios.

Qualidade em Vez de Quantidade Pesquisas recentes mostram que a IA não precisa de dados de treinamento infinitos quando os sistemas se assemelham melhor aos cérebros biológicos. Isso desloca os incentivos da coleta máxima de dados para a curadoria de entradas de maior qualidade.

Mercados de dados descentralizados alinham os incentivos adequadamente: os criadores de dados ganham mais por contribuições de alta qualidade porque os modelos pagam preços premium por conjuntos de dados que melhoram o desempenho. Os dados de interação da LazAI capturam sinais de feedback humano (quais consultas são refinadas, quais respostas satisfazem os usuários) que os conjuntos de dados estáticos perdem — tornando-os inerentemente mais valiosos por byte.

Desafios : Privacidade, Precificação e Guerras de Protocolos

Apesar do impulso, os mercados de dados em blockchain enfrentam desafios estruturais :

Paradoxo da Privacidade Treinar IA requer transparência de dados (modelos precisam de acesso ao conteúdo real), mas as regulamentações de privacidade exigem a minimização de dados. Soluções atuais como o aprendizado federado (treinamento em dados criptografados) aumentam os custos em 3 - 5x em comparação com o treinamento centralizado.

As provas de conhecimento zero (Zero - knowledge proofs) oferecem um caminho a seguir — provando a qualidade dos dados sem expor o conteúdo — mas adicionam sobrecarga computacional. O roteiro ZK da LazAI para 2026 aborda isso, embora implementações prontas para produção ainda estejam a 12 - 18 meses de distância.

Descoberta de Preço Quanto vale uma interação em rede social ? Uma imagem médica com anotação diagnóstica ? Os mercados de blockchain carecem de mecanismos de precificação estabelecidos para novos tipos de dados.

A abordagem do Ocean Protocol — permitir que os provedores definam os preços e a dinâmica do mercado determine o valor — funciona para conjuntos de dados comoditizados, mas enfrenta dificuldades com dados proprietários únicos. Mercados de previsão ou precificação dinâmica impulsionada por IA podem resolver isso, embora ambos introduzam dependências de oráculos (feeds de preços externos) que prejudicam a descentralização.

Fragmentação da Interoperabilidade O Ocean Protocol roda na Ethereum, LazAI na Metis, ZENi integra - se com múltiplas cadeias. Dados tokenizados em uma plataforma não podem ser facilmente transferidos para outra, fragmentando a liquidez.

Pontes cross - chain e padrões universais de dados (como identificadores descentralizados para conjuntos de dados) poderiam resolver isso, mas o ecossistema ainda é incipiente. O mercado de IA em blockchain a 680,89milho~esem2025crescendopara680,89 milhões em 2025 crescendo para 4,338 bilhões até 2034 sugere que a consolidação em torno de protocolos vencedores está a anos de distância.

O que isso significa para os Desenvolvedores

Para equipes que constroem aplicações de IA, os mercados de dados em blockchain oferecem três vantagens imediatas :

Acesso a Conjuntos de Dados Proprietários Os mais de 35.000 conjuntos de dados do Ocean Protocol incluem dados de treinamento proprietários indisponíveis através de canais tradicionais. Imagens médicas, transações financeiras, análises comportamentais de aplicações Web3 — conjuntos de dados especializados que as plataformas centralizadas não curam.

Infraestrutura Pronta para Conformidade O licenciamento integrado, a gestão de consentimento e as trilhas de auditoria do Ocean Enterprise v1 resolvem dores de cabeça regulatórias. Em vez de construir sistemas de governança de dados personalizados, os desenvolvedores herdam a conformidade por design através de contratos inteligentes que impõem termos de uso de dados.

Redução de Custos As redes de computação descentralizadas superam os provedores de nuvem em 50 - 85% para cargas de trabalho de treinamento em lote. A parceria do Ocean com a NetMind (2.000 GPUs) e a Aethir demonstra como os marketplaces de GPU tokenizados combinam oferta e demanda a um custo menor do que AWS / GCP / Azure.

BlockEden.xyz fornece infraestrutura RPC de nível empresarial para aplicações de IA baseadas em blockchain. Esteja você construindo na Ethereum (Ocean Protocol), Metis (LazAI) ou plataformas multi - chain, nossos serviços de nós confiáveis garantem que seus pipelines de dados de IA permaneçam online e performantes. Explore nosso marketplace de APIs para conectar seus sistemas de IA com redes blockchain construídas para escala.

O Ponto de Inflexão de 2026

Três catalisadores posicionam 2026 como o ano de inflexão para os mercados de dados em blockchain :

Lançamento da Produção do Ocean Enterprise v1 (Q3 2025) O primeiro marketplace de dados em conformidade e de nível institucional entra em operação. Se o Ocean capturar apenas 5% do mercado de conjuntos de dados de treinamento de IA de 7,48bilho~esem2026,issorepresentaraˊ7,48 bilhões em 2026, isso representará 374 milhões em transações de dados fluindo através de infraestrutura baseada em blockchain.

Implementação de Privacidade ZK da LazAI (2026) As provas de conhecimento zero permitem que os usuários monetizem dados de interação sem comprometer a privacidade. Isso desbloqueia a adoção em escala de consumo — centenas de milhões de usuários de redes sociais, consultas de mecanismos de busca e sessões de e - commerce tornando - se monetizáveis através de DATs.

Integração de Aprendizado Federado O aprendizado federado de IA permite o treinamento de modelos sem centralizar os dados. A blockchain adiciona atribuição de valor : em vez de o Google treinar modelos em dados de usuários Android sem compensação, sistemas federados operando em blockchain distribuem a receita para todos os contribuidores de dados.

A convergência significa que o treinamento de IA muda de "coletar todos os dados, treinar centralmente, não pagar nada" para "treinar em dados distribuídos, compensar contribuidores, verificar a procedência". A blockchain não apenas permite essa transição — ela é a única pilha tecnológica capaz de coordenar milhões de provedores de dados com distribuição automática de receita e verificação criptográfica.

Conclusão : Dados Tornam - se Programáveis

O crescimento do mercado de dados de treinamento de IA de 3,59bilho~esem2025para3,59 bilhões em 2025 para 23 - 52 bilhões até 2034 representa mais do que a expansão do mercado. É uma mudança fundamental na forma como valorizamos a informação.

O Ocean Protocol prova que os dados podem ser tokenizados, precificados e negociados como ativos financeiros enquanto preservam o controle do provedor. A LazAI demonstra que os dados de interação de IA — anteriormente descartados como efêmeros — tornam - se insumos de treinamento valiosos quando devidamente capturados e verificados. A ZENi mostra que a inteligência comportamental pode ser extraída, processada por IA e monetizada através de mercados descentralizados.

Juntas, essas plataformas transformam os dados de matéria - prima extraída por gigantes da tecnologia em uma classe de ativos programáveis onde os criadores capturam valor. A explosão global de dados de 33 para 175 zettabytes só importa se a qualidade superar a quantidade — e os mercados baseados em blockchain alinham incentivos para recompensar contribuições de qualidade.

Quando os criadores de dados ganham receita proporcional às suas contribuições, quando as empresas de IA pagam preços justos por insumos de qualidade e quando os contratos inteligentes automatizam a atribuição entre milhões de participantes, não apenas resolvemos o problema da precificação de dados. Construímos uma economia onde a informação tem valor intrínseco, a procedência é verificável e os contribuidores finalmente capturam a riqueza que seus dados geram.

Isso não é uma tendência de mercado. É uma mudança de paradigma — e já está ativa on - chain.

A Ascensão da Privacidade Pragmática: Equilibrando Conformidade e Confidencialidade no Blockchain

· 19 min de leitura
Dora Noda
Software Engineer

A indústria de blockchain encontra-se numa encruzilhada onde a privacidade já não é uma escolha binária. Durante os primeiros anos das criptomoedas, a narrativa era clara: privacidade absoluta a todo o custo, transparência apenas quando necessário e resistência a qualquer forma de vigilância. No entanto, em 2026, uma mudança profunda está em curso. O surgimento da infraestrutura de IA Pragmática Descentralizada (DePAI) sinaliza uma nova era onde as ferramentas de privacidade favoráveis à conformidade não são apenas aceites — estão a tornar-se o padrão.

Isto não é um recuo nos princípios de privacidade. É uma evolução para uma compreensão mais sofisticada: a privacidade e a conformidade regulatória podem coexistir e, de facto, devem coexistir para que a blockchain e a IA alcancem a adoção institucional em escala.

O Fim da "Privacidade a Qualquer Custo"

Durante anos, o maximalismo da privacidade dominou o discurso da blockchain. Projetos como Monero e as primeiras versões de protocolos focados na privacidade defenderam o anonimato absoluto. A filosofia era direta: os utilizadores merecem privacidade financeira completa, e qualquer compromisso representava uma traição aos princípios fundadores das criptomoedas.

Mas esta postura absolutista criou um problema crítico. Embora a privacidade seja essencial para proteger os utilizadores honestos da vigilância e do front-running, também se tornou um escudo para atividades ilícitas. Os reguladores em todo o mundo começaram a tratar as moedas de privacidade com suspeita, o que levou à sua remoção das principais bolsas e a proibições totais em várias jurisdições.

Conforme relatado pela Cointelegraph, 2026 é o ano em que a privacidade pragmática descola, com novos projetos a abordarem formas de privacidade em conformidade para instituições e um interesse crescente em moedas de privacidade existentes como Zcash. A ideia-chave: a privacidade não é binária. Nem a transparência total nem a privacidade absoluta são viáveis no mundo real, porque embora a privacidade seja essencial para utilizadores honestos, também pode ser usada por criminosos para fugir à aplicação da lei.

As pessoas estão a começar a aceitar fazer concessões que limitam a privacidade em contextos restritos para tornar os protocolos mais resistentes a ameaças. Isto representa uma mudança fundamental na abordagem da comunidade blockchain à privacidade.

Definindo a Privacidade Pragmática

Então, o que é exatamente a privacidade pragmática? De acordo com a Anaptyss, a privacidade pragmática refere-se à implementação estratégica de medidas de privacidade que protegem os dados dos utilizadores e das empresas sem violar os requisitos regulatórios, garantindo que as operações financeiras sejam simultaneamente seguras e em conformidade.

Esta abordagem reconhece que diferentes participantes no ecossistema blockchain têm diferentes necessidades de privacidade:

  • Utilizadores de retalho precisam de proteção contra vigilância em massa e recolha de dados
  • Investidores institucionais exigem confidencialidade para evitar o front-running das suas estratégias de negociação
  • Empresas devem cumprir mandatos rigorosos de AML / KYC enquanto protegem informações comerciais sensíveis
  • Agentes de IA necessitam de computação verificável sem expor algoritmos proprietários ou dados de treino

A solução não reside na escolha entre privacidade e conformidade, mas na construção de uma infraestrutura que permita ambas simultaneamente.

zkKYC: Verificação de Identidade com Preservação de Privacidade

Um dos desenvolvimentos mais promissores na privacidade pragmática é o surgimento de soluções de Know Your Customer de conhecimento zero (zkKYC). Os processos de KYC tradicionais exigem que os utilizadores submetam repetidamente documentos pessoais sensíveis a múltiplas plataformas, criando inúmeros honeypots de dados pessoais vulneráveis a fugas.

O zkKYC inverte este modelo. Como a zkMe explica, o seu serviço zkKYC combina a tecnologia de Prova de Conhecimento Zero (ZKP) com a total conformidade com o FATF. Um fornecedor de KYC regulado verifica o utilizador off-chain seguindo os procedimentos padrão de AML e verificação de identidade, mas os protocolos não recolhem dados de identidade. Em vez disso, verificam a conformidade criptograficamente.

O mecanismo é elegante: os contratos inteligentes verificam automaticamente uma prova de conhecimento zero antes de permitir o acesso a certos serviços ou processar grandes transações. Os utilizadores provam que cumprem os requisitos de conformidade — idade, residência, estatuto de não sancionado — sem revelar quaisquer dados de identidade reais ao protocolo ou a outros utilizadores.

De acordo com o Studio AM, isto já está a acontecer em alguns ecossistemas blockchain: os utilizadores provam a idade ou residência com um ZKP antes de acederem a certos serviços de finanças descentralizadas (DeFi). Grandes instituições financeiras estão a tomar nota. O Deutsche Bank e a Privado ID realizaram provas de conceito que demonstram a verificação de identidade baseada em blockchain utilizando credenciais de conhecimento zero.

Talvez o facto mais significativo tenha sido, em julho de 2025, a Google ter disponibilizado em código aberto as suas bibliotecas de provas de conhecimento zero após um trabalho com o grupo alemão Sparkasse, sinalizando um crescente investimento institucional em infraestrutura de identidade que preserva a privacidade.

zkTLS: Tornando a Web Verificável

Enquanto o zkKYC aborda a verificação de identidade, outra tecnologia está resolvendo um problema igualmente crítico: como trazer dados verificáveis da Web2 para sistemas blockchain sem comprometer a privacidade ou a segurança. Apresentamos o zkTLS (Zero-Knowledge Transport Layer Security).

O TLS tradicional — a criptografia que protege todas as conexões HTTPS — possui uma limitação crítica: ele fornece confidencialidade, mas não verificabilidade. Em outras palavras, embora o TLS garanta que as informações sejam criptografadas durante a transmissão, ele não cria uma prova de que a interação criptografada ocorreu de uma forma que possa ser verificada independentemente.

O zkTLS resolve isso integrando Provas de Conhecimento Zero com o sistema de criptografia TLS. Usando MPC-TLS e técnicas de conhecimento zero, o zkTLS permite que um cliente produza provas e atestações criptograficamente verificáveis de sessões HTTPS reais.

Conforme descrito pelo zkPass, o zkTLS gera uma prova de conhecimento zero (ex: zk-SNARK) confirmando que os dados foram buscados de um servidor específico (identificado por sua chave pública e domínio) por meio de uma sessão TLS legítima, sem expor a chave da sessão ou os dados em texto simples.

As implicações são profundas. As APIs tradicionais podem ser facilmente desativadas ou censuradas, enquanto o zkTLS garante que, enquanto os usuários tiverem uma conexão HTTPS, eles possam continuar a acessar seus dados. Isso permite que virtualmente qualquer dado da Web2 seja usado em uma blockchain de forma verificável e permissionless.

Implementações recentes demonstram a maturidade da tecnologia. O Coprocessador zkTLS da Brevis, ao buscar dados de uma fonte web, prova que o conteúdo foi recuperado através de uma sessão TLS genuína do domínio autêntico e que os dados não foram adulterados.

No FOSDEM 2026, o projeto TLSNotary apresentou a liberação de dados do usuário com zkTLS, demonstrando como os usuários podem provar fatos sobre seus dados privados — saldos bancários, pontuações de crédito, históricos de transações — sem expor a informação subjacente.

Computação de IA Verificável: A Peça que Faltava para a Adoção Institucional

A identidade que preserva a privacidade e a verificação de dados preparam o terreno, mas o elemento mais transformador da infraestrutura DePAI é a computação de IA verificável. À medida que os agentes de IA se tornam participantes economicamente ativos nos ecossistemas de blockchain, a questão muda de "A IA pode fazer isso?" para "Você pode provar que a IA fez isso corretamente?".

Este requisito de verificação não é acadêmico. De acordo com a DecentralGPT, à medida que a IA se torna parte das finanças, da automação e dos fluxos de trabalho de agentes, o desempenho por si só não é suficiente. Na Web3, a questão também é: Você pode provar o que aconteceu? No final de dezembro de 2025, a Cysic e a Inference Labs se uniram para construir uma infraestrutura escalável para aplicações de IA verificáveis, combinando computação descentralizada com frameworks de verificação projetados para usos no mundo real.

O imperativo institucional para a computação verificável é claro. Conforme observado na análise de Alexis M. Adams, a transição para uma infraestrutura de IA determinística é o único caminho viável para as organizações atenderem às demandas multijurisdicionais do AI Act da UE, das leis de fronteira estaduais dos EUA e das crescentes expectativas do mercado de seguros cibernéticos.

O mercado global de governança de IA reflete essa urgência: avaliado em aproximadamente 429,8milho~esem2026,projetasequealcance429,8 milhões em 2026, projeta-se que alcance 4,2 bilhões até 2033, de acordo com a mesma análise.

Mas a verificação enfrenta uma lacuna crítica. Como a Keyrus identifica, a implantação de IA exige confiança nas identidades digitais, mas as empresas não conseguem validar quem — ou o quê — está realmente operando os sistemas de IA. Quando as organizações não podem distinguir de forma confiável agentes de IA legítimos de impostores controlados por adversários, elas não podem conceder com confiança acesso a dados sensíveis ou autoridade de decisão aos sistemas de IA.

É aqui que a convergência de zkKYC, zkTLS e computação verificável cria uma solução completa. Agentes de IA podem provar sua identidade (zkKYC), provar que recuperaram dados corretamente de fontes autorizadas (zkTLS) e provar que computaram resultados corretamente (computação verificável) — tudo sem expor a lógica de negócios sensível ou os dados de treinamento.

O Impulso Institucional em Direção ao Compliance

Essas tecnologias não estão surgindo em um vácuo. A demanda institucional por infraestrutura de privacidade em conformidade está acelerando, impulsionada por pressões regulatórias e necessidade comercial.

Grandes instituições financeiras reconhecem que, sem privacidade, suas estratégias de blockchain estagnarão. De acordo com a WEEX Crypto News, os investidores institucionais exigem confidencialidade para evitar o front-running de suas estratégias, mas devem satisfazer mandatos estritos de AML / KYC. As Provas de Conhecimento Zero estão ganhando tração como uma solução, permitindo que as instituições provem a conformidade sem revelar dados subjacentes sensíveis para a blockchain pública.

O cenário regulatório de 2026 não deixa margem para ambiguidades. O AI Act da UE atinge a aplicação geral em 2026, e os reguladores em todas as jurisdições esperam programas de governança documentados, não apenas políticas, de acordo com a SecurePrivacy.ai. A aplicação total se aplica a sistemas de IA de alto risco usados em infraestrutura crítica, educação, emprego, serviços essenciais e aplicação da lei.

Nos Estados Unidos, até o final de 2025, 19 estados aplicavam leis de privacidade abrangentes, com vários novos estatutos entrando em vigor em 2026, complicando as obrigações de conformidade de privacidade multiestaduais. Colorado e Califórnia adicionaram "dados neurais" (e o Colorado também adicionou "dados biológicos") às definições de dados "sensíveis", conforme relatado pela Nixon Peabody.

Essa convergência regulatória cria um incentivo poderoso: organizações que constroem em infraestrutura verificável e em conformidade ganham vantagem competitiva, enquanto aquelas que se apegam ao maximalismo da privacidade encontram-se excluídas dos mercados institucionais.

Integridade de Dados como o Sistema Operacional para IA

Além da conformidade, a computação verificável permite algo mais fundamental: a integridade dos dados como o sistema operacional para uma IA responsável.

Como a Precisely observa, em 2026, a governança não será algo que as organizações adicionam após a implementação — ela será incorporada na forma como os dados são estruturados, interpretados e monitorados desde o início. A integridade de dados servirá como o sistema operacional para uma IA responsável. Desde a clareza semântica e explicabilidade até a conformidade, auditabilidade e controle sobre dados gerados por IA, a integridade determinará se a IA pode escalar com segurança e entregar valor duradouro.

Essa mudança tem implicações profundas na forma como os agentes de IA operam em redes blockchain. Em vez de caixas-pretas opacas, os sistemas de IA tornam-se auditáveis, verificáveis e governáveis por design. Contratos inteligentes podem impor restrições ao comportamento da IA, verificar a correção computacional e criar trilhas de auditoria imutáveis — tudo isso preservando a privacidade de algoritmos proprietários e dados de treinamento.

O MIT Sloan Management Review identifica isso como uma das cinco principais tendências em IA e ciência de dados para 2026, observando que uma IA confiável exige proveniência verificável e processos de tomada de decisão explicáveis.

Identidade Descentralizada: A Camada de Fundação

Subjacente a essas tecnologias está uma mudança mais ampla em direção à identidade descentralizada e Credenciais Verificáveis. Como a Indicio explica, a identidade descentralizada muda a equação — em vez de verificar dados pessoais em um local central, os indivíduos detêm seus dados e os compartilham com consentimento que pode ser verificado de forma independente usando criptografia.

Este modelo inverte os sistemas de identidade tradicionais. Em vez de criar inúmeras cópias de documentos de identidade espalhadas por bancos de dados, os usuários mantêm uma única credencial verificável e divulgam seletivamente apenas os atributos específicos necessários para cada interação.

Para agentes de IA, esse modelo se estende além da identidade humana. Os agentes podem possuir credenciais verificáveis que atestam sua proveniência de treinamento, parâmetros operacionais, histórico de auditoria e escopo de autorização. Isso cria uma estrutura de confiança onde os agentes podem interagir de forma autônoma, permanecendo responsáveis.

Da Experimentação à Implementação

A ferramenta chave em 2026 é a transição de estruturas teóricas para implementações de produção. De acordo com a análise da XT Exchange, até 2026, a IA descentralizada estará saindo da experimentação para a implementação prática. No entanto, restrições fundamentais permanecem, incluindo o escalonamento de cargas de trabalho de IA, a preservação da privacidade de dados e a governança de sistemas de IA abertos.

Essas restrições são precisamente o que a infraestrutura DePAI aborda. Ao combinar zkKYC para identidade, zkTLS para verificação de dados e computação verificável para operações de IA, a infraestrutura cria uma pilha completa para implantar agentes de IA que são simultaneamente:

  • Preservadores de privacidade para usuários e empresas
  • Conformes com os requisitos regulatórios
  • Verificáveis e auditáveis por design
  • Escaláveis para cargas de trabalho institucionais

O Caminho a Seguir: Construindo Privacidade Composicional

A peça final do quebra-cabeça DePAI é a composicionalidade. Como a Blockmanity relata, 2026 marca o momento em que a blockchain se torna "apenas o encanamento" para agentes de IA e finanças globais. A infraestrutura deve ser modular, interoperável e invisível para os usuários finais.

Ferramentas pragmáticas de privacidade se destacam na composicionalidade. Um agente de IA pode:

  1. Autenticar-se usando credenciais zkKYC
  2. Buscar dados externos verificados via zkTLS
  3. Realizar computações com inferência verificável
  4. Enviar resultados on-chain com provas de conhecimento zero de correção
  5. Manter trilhas de auditoria sem expor lógica sensível

Cada camada opera de forma independente, permitindo que os desenvolvedores misturem e combinem tecnologias de preservação de privacidade com base em requisitos específicos. Um protocolo DeFi pode exigir zkKYC para integração de usuários, zkTLS para buscar feeds de preços e computação verificável para cálculos financeiros complexos — tudo funcionando perfeitamente em conjunto.

Essa composicionalidade se estende entre cadeias. A infraestrutura de privacidade construída com padrões de interoperabilidade pode funcionar em Ethereum, Solana, Sui, Aptos e outras redes blockchain, criando uma camada universal para computação em conformidade, privada e verificável.

Por que Isso Importa para os Desenvolvedores

Para desenvolvedores que constroem a próxima geração de aplicações blockchain, a infraestrutura DePAI representa tanto uma oportunidade quanto um requisito.

A oportunidade: Vantagem do pioneiro na construção de aplicações que as instituições realmente desejam usar. Instituições financeiras, provedores de saúde, agências governamentais e empresas precisam de soluções blockchain, mas não podem comprometer a conformidade ou a privacidade. Aplicações construídas em infraestrutura de privacidade pragmática podem atender a esses mercados.

O requisito: Os ambientes regulatórios estão convergindo para mandatos de sistemas de IA verificáveis e governáveis. Aplicações que não conseguirem demonstrar conformidade, auditabilidade e proteção da privacidade do usuário serão excluídas dos mercados regulamentados.

As capacidades técnicas estão amadurecendo rapidamente. Soluções zkKYC estão prontas para produção com grandes instituições financeiras realizando pilotos. Implementações de zkTLS estão processando dados do mundo real. Estruturas de computação verificáveis estão escalando para lidar com cargas de trabalho institucionais.

O que é necessário agora é a adoção pelos desenvolvedores. A transição de ferramentas de privacidade experimentais para infraestrutura de produção exige que os desenvolvedores integrem essas tecnologias em aplicações, testem-nas em cenários do mundo real e forneçam feedback às equipes de infraestrutura.

BlockEden.xyz fornece infraestrutura RPC de nível empresarial para redes blockchain que implementam tecnologias de preservação de privacidade. Explore nossos serviços para construir em bases projetadas para a era DePAI.

Conclusão: O Futuro Pragmático da Privacidade

A explosão do DePAI em 2026 representa mais do que o progresso tecnológico. Ela sinaliza um amadurecimento da relação do blockchain com a privacidade, a conformidade e a adoção institucional.

A indústria está indo além das batalhas ideológicas entre maximalistas da privacidade e absolutistas da transparência. A privacidade pragmática reconhece que diferentes contextos exigem diferentes garantias de privacidade, e que a conformidade regulatória e a privacidade do usuário podem coexistir por meio de um design criptográfico cuidadoso.

O zkKYC prova a identidade sem expô-la. O zkTLS verifica dados sem confiar em intermediários. A computação verificável prova a exatidão sem revelar algoritmos. Juntas, essas tecnologias criam uma camada de infraestrutura onde agentes de IA podem operar de forma autônoma, empresas podem adotar o blockchain com confiança e os usuários mantêm o controle sobre seus dados.

Isso não é um comprometimento dos princípios de privacidade. É o reconhecimento de que a privacidade, para ser significativa, deve ser sustentável dentro das realidades regulatórias e de negócios das finanças globais. A privacidade absoluta que acaba banida, deslistada e excluída do uso institucional não protege ninguém. A privacidade pragmática que permite tanto a confidencialidade quanto a conformidade entrega, de fato, a promessa do blockchain.

Os desenvolvedores que reconhecerem essa mudança e construírem sobre a infraestrutura DePAI hoje definirão a próxima era dos aplicativos descentralizados. As ferramentas estão prontas. A demanda institucional é clara. O ambiente regulatório está se cristalizando. 2026 é o ano em que a privacidade pragmática passa da teoria para a implementação — e a indústria de blockchain será mais forte por causa disso.


Fontes