Seu Agente de IA Acaba de se Tornar um Criminoso: Como a Decisão da Amazon sobre a Perplexity Reescreve as Regras para Software Autônomo
Um juiz federal em São Francisco acaba de traçar uma linha que todo desenvolvedor que constrói agentes de IA precisa entender. Em 9 de março de 2026, a juíza Maxine M. Chesney decidiu que o navegador Comet da Perplexity violou tanto a Lei Federal de Fraude e Abuso de Computadores (CFAA) quanto a Lei Abrangente de Acesso a Dados de Computadores e Fraude da Califórnia ao acessar contas da Amazon em nome dos usuários — mesmo que esses usuários tenham concedido permissão explicitamente. A distinção crítica: a autorização do usuário não é o mesmo que a autorização da plataforma.
Esta decisão não afeta apenas a Perplexity. Ela potencialmente criminaliza toda uma classe de comportamento de agentes de IA que centenas de startups, protocolos cripto e projetos Web3 estão construindo agora.
O Que o Comet da Perplexity Realmente Fez
A Perplexity lançou o Comet em julho de 2025 como um navegador focado em IA construído sobre o Chromium. Diferente de uma extensão de navegador tradicional ou de uma sobreposição de chatbot, o Comet incorporou modelos de linguagem de grande escala diretamente na arquitetura central do navegador, permitindo o que a empresa chamou de "execução de tarefas agênticas". Os usuários podiam instruir o Comet a comparar preços em sites, fazer login em suas contas, adicionar itens aos carrinhos e concluir compras — tudo de forma autônoma.
O conflito com a Amazon começou a escalar muito antes do tribunal. De acordo com os autos do processo, a Amazon alertou a Perplexity pelo menos cinco vezes, a partir de novembro de 2024, para que o Comet parasse de acessar os sistemas da Amazon. Em agosto de 2025, a Amazon implementou uma barreira técnica para bloquear o Comet. A Perplexity respondeu com uma atualização de software em 24 horas para contorná-la.
A Amazon abriu o processo federal em 4 de novembro de 2025, argumentando que a Perplexity disfarçou deliberadamente o agente de IA do Comet como uma sessão normal do navegador Google Chrome para evitar a detecção. A liminar concedida em março de 2026 não apenas proibiu o Comet de acessar os sistemas protegidos por senha da Amazon, mas também exigiu que a Perplexity destruísse quaisquer dados da Amazon que tivesse coletado.
O Terremoto Jurídico: Permissão do Usuário vs. Autorização da Plataforma
A conclusão mais consequente da decisão pode ser resumida em uma única frase do parecer da juíza Chesney: O Comet acessou contas da Amazon "com a permissão do usuário da Amazon, mas sem a autorização da Amazon".
Esta distinção parece simples, mas suas implicações são profundas. Por décadas, o requisito de "autorização" da CFAA tem sido um território jurídico contestado. A Suprema Corte estreitou o escopo da CFAA no caso Van Buren v. Estados Unidos (2021), mas esse caso tratava de um funcionário que excedeu o acesso autorizado em um sistema que ele tinha permissão para usar. O caso Amazon v. Perplexity faz uma pergunta fundamentalmente diferente: quando um agente de IA age em nome de um usuário, a autorização de quem conta?
A resposta da juíza Chesney é clara: a da plataforma. A questão não é mais simplesmente se um usuário consente em ter uma IA agindo em seu nome. A questão é se a plataforma onde essa ação ocorre consentiu com a presença de um agente de IA em primeiro lugar.
Isso cria três linhas vermelhas críticas para os desenvolvedores:
- Acesso a credenciais de conta: Qualquer agente de IA que use credenciais de clientes para fazer login em uma plataforma de terceiros sem o consentimento explícito dessa plataforma corre o risco de responsabilidade sob a CFAA.
- Seções protegidas por senha: O acesso a áreas protegidas por autenticação — mesmo com credenciais de usuário válidas — constitui acesso não autorizado se a plataforma não tiver sancionado o agente.
- Continuação após avisos da plataforma: A decisão da Perplexity de contornar os bloqueios técnicos da Amazon após receber avisos explícitos fortaleceu significativamente o caso da Amazon.
Por Que Isso Importa Além das Compras
O enquadramento imediato deste caso como uma disputa de "comércio agêntico" subestima seu alcance. O princípio jurídico — de que a autorização da plataforma prevalece sobre a autorização do usuário — aplica-se igualmente a agentes de IA que operam em serviços financeiros, redes sociais, portais de saúde, SaaS empresarial e, criticamente, finanças descentralizadas (DeFi).
Considere o cenário atual. Mais de 68% dos novos protocolos DeFi lançados no primeiro trimestre de 2026 incluíam agentes de IA autônomos. Os agentes de IA agora representam aproximadamente 18% do volume total dos mercados de previsão. Quarenta e um por cento dos fundos de hedge cripto estão usando ou testando ativamente agentes de IA on-chain. Toda a tese da IA agêntica na Web3 — agentes autônomos executando swaps, gerenciando portfólios e interagindo com protocolos — depende de responder corretamente à questão da autorização.
A diferença na Web3 é que muitos protocolos são permissionless por design. Uma exchange descentralizada não possui termos de serviço no sentido tradicional. Os contratos inteligentes são executados com base em transações válidas, independentemente de quem chama ser um humano ou um bot. Mas a decisão da Perplexity cria um precedente que pode se estender a qualquer plataforma com controles de acesso mínimos — limites de taxa de API, restrições de termos de serviço ou requisitos de autenticação.
Para exchanges centralizadas e plataformas CeFi, as implicações são imediatas. Um agente de negociação de IA que faz login na conta Coinbase ou Binance de um usuário usando credenciais armazenadas — mesmo com o consentimento total do usuário — pode enfrentar a mesma exposição legal que o Comet.
A Bifurcação no Caminho: APIs vs. Acesso por Credenciais
A decisão efetivamente força o ecossistema de agentes de IA em direção a um de dois modelos arquitetônicos.
Modelo 1: APIs Sancionadas pela Plataforma
O caminho "seguro" exige que os agentes de IA operem exclusivamente por meio de APIs oficiais e acordos de parceria. Isso já está tomando forma:
- Universal Commerce Protocol (UCP) do Google, anunciado em janeiro de 2026 com mais de 20 parceiros, incluindo Shopify, Target e Walmart, cria um padrão aberto para o comércio agêntico que funciona com a infraestrutura de varejo existente.
- Agentic Commerce Protocol (ACP) da OpenAI e Stripe potencializa o Checkout Instantâneo dentro do ChatGPT, focando especificamente na camada de checkout.
- AI Trading Skills da Bybit expõem 253 endpoints de API para trading em linguagem natural, permitindo que os agentes executem ordens sem acesso a credenciais.
Esses protocolos compartilham uma arquitetura comum: a plataforma autoriza explicitamente as interações do agente por meio de interfaces definidas, limites de taxa e escopos de permissão. O agente nunca toca diretamente nas credenciais do usuário.
Modelo 2: Acesso Baseado em Credenciais (Agora Legalmente Perigoso)
A alternativa — agentes de IA usando credenciais fornecidas pelo usuário para acessar plataformas como se fossem o próprio usuário — é o que a Perplexity tentou. Após esta decisão, este modelo carrega uma potencial responsabilidade criminal sob a CFAA, independentemente do consentimento do usuário.
Para a Web3, esta bifurcação é particularmente significativa. Protocolos descentralizados favorecem naturalmente o modelo de API — as interações de contratos inteligentes são inerentemente sem permissão (permissionless) e não exigem falsificação de credenciais. Mas arquiteturas híbridas que conectam sistemas centralizados e descentralizados (conectando a conta bancária de um usuário a um protocolo DeFi, por exemplo) precisarão navegar nesta distinção com cuidado.
A "Abertura Controlada" da China como Contraponto
Enquanto os tribunais dos EUA definem os limites dos agentes de IA por meio de litígios, a China está abordando o problema por meio da arquitetura regulatória. A fragmentação do ecossistema móvel chinês — onde diferentes aplicativos e serviços não interoperam nem compartilham dados — cria um desafio estrutural para agentes de IA que devem operar em múltiplos superaplicativos e dispositivos.
O agente de IA Doubao da ByteDance, por exemplo, enfrenta potenciais restrições antitruste que o impedem de direcionar usuários para a plataforma de e-commerce do Douyin. O "AI Life Manager" Zhixiabao da Alipay opera dentro do jardim murado (walled garden) do Ant Group. O modelo chinês emergente trata os agentes de IA como potenciais "gatekeepers digitais", aplicando uma estrutura de abertura controlada onde o acesso é gerenciado para evitar comportamentos monopolistas.
O contraste é instrutivo. A abordagem dos EUA, exemplificada pela decisão da Perplexity, dá às plataformas o poder de bloquear agentes de IA inteiramente por meio dos termos de serviço. A abordagem da China potencialmente restringe a capacidade das plataformas de limitar o acesso dos agentes se isso criar efeitos anticompetitivos. Nenhum dos modelos resolve totalmente a tensão entre a autonomia do usuário e o controle da plataforma.
O Coringa do Nono Circuito
A Perplexity apelou da liminar em 11 de março de 2026. A revisão do Nono Circuito representa um ponto de inflexão de alto risco para toda a indústria de agentes de IA.
Se o tribunal de apelação mantiver a liminar, a CFAA se tornará uma ferramenta poderosa para qualquer plataforma bloquear agentes de IA, independentemente do consentimento do usuário. Violações dos termos de serviço poderiam constituir fraude informática federal. Cada desenvolvedor de agentes de IA precisaria de acordos de autorização plataforma por plataforma — deslocando fundamentalmente o poder para as plataformas dominantes.
Se o Nono Circuito reverter a decisão, isso sinaliza que a autorização do usuário é suficiente e que as plataformas não podem invocar estatutos de fraude para bloquear ferramentas que os usuários habilitaram explicitamente. Isso preservaria a visão do "agente de IA pessoal", onde os usuários controlam como interagem com a web, mas também limitaria a capacidade das plataformas de proteger seus ecossistemas de acessos automatizados indesejados.
Acadêmicos jurídicos observam que nenhum dos resultados atende perfeitamente a todos os interesses. Um usuário que concede ao seu agente de IA acesso à sua conta da Amazon está exercendo uma forma de autonomia do consumidor. Mas a Amazon tem interesses legítimos em controlar como seus sistemas são acessados, prevenindo a raspagem de dados (scraping) e mantendo a integridade de seu mercado.
O Que os Desenvolvedores Devem Fazer Agora
A decisão cria itens de ação imediatos para qualquer pessoa que esteja construindo agentes de IA:
Audite seus padrões de acesso. Se o seu agente acessa qualquer plataforma de terceiros usando credenciais de usuário, você precisa avaliar se a plataforma autorizou explicitamente esse acesso. A aceitação implícita (a plataforma ainda não bloqueou você) não é o mesmo que autorização.
Adote arquiteturas API-first. Projete agentes para interagir por meio de APIs oficiais, integrações MCP (Model Context Protocol) e endpoints sancionados pela plataforma. O UCP do Google e o ACP da OpenAI fornecem padrões emergentes.
Documente as cadeias de autorização. Mantenha registros claros de quais plataformas autorizaram o acesso do seu agente, por meio de quais mecanismos e sob quais restrições.
Observe a vantagem da Web3. Interações de contratos inteligentes sem permissão não enfrentam a mesma exposição à CFAA que o acesso baseado em credenciais a plataformas centralizadas. Protocolos construídos em blockchains públicas operam com um modelo de autorização fundamentalmente diferente — transações válidas são autorizadas pelas próprias regras do protocolo, não por termos de serviço.
Monitore o Nono Circuito. A decisão da apelação provavelmente chegará no terceiro ou quarto trimestre de 2026 e irá consolidar ou reverter o precedente atual.
A Visão Geral: Quem Controla a Camada de Agentes?
O caso Amazon v. Perplexity, em última análise, faz uma pergunta que definirá a próxima década da computação: quem controla a camada entre usuários e plataformas?
Na web pré-IA, a resposta era clara — o navegador. Os usuários escolhiam Chrome, Firefox ou Safari, e esses navegadores renderizavam fielmente o que quer que a plataforma servisse. O navegador era um intermediário neutro.
Os agentes de IA mudam fundamentalmente essa dinâmica. Um agente de IA não apenas renderiza a interface de uma plataforma — ele interpreta, navega, compara e age dentro dela. Ele condensa fluxos de trabalho de compras inteiros em comandos únicos. Ele pode agregar dados entre plataformas concorrentes de maneiras que essas plataformas nunca pretenderam.
A decisão da Perplexity fica do lado das plataformas nessa luta pelo poder. Mas a trajetória tecnológica — protocolos de comércio agênticos, interações de blockchain sem permissão (permissionless) e a demanda dos usuários por autonomia movida a IA — aponta para um futuro onde os agentes operam como intermediários autorizados, em vez de intrusos não autorizados.
A questão é se esse futuro chegará por meio de parcerias (protocolos abertos e padrões de API) ou por batalhas judiciais. A decisão de 2026 sugere que teremos ambos.
Para desenvolvedores que criam agentes de IA que interagem com a infraestrutura de blockchain, as arquiteturas sem permissão (permissionless) oferecem uma vantagem natural. O BlockEden.xyz fornece endpoints de RPC e API para mais de 30 redes blockchain, permitindo que os agentes interajam com protocolos on-chain por meio de interfaces abertas e sancionadas — sem a necessidade de falsificação de credenciais.