당신의 AI 에이전트가 방금 범죄자가 되었습니다: 아마존-퍼플렉시티 판결이 자율 소프트웨어의 규칙을 재작성하는 법
샌프란시스코의 한 연방 판사가 AI 에이전트를 개발하는 모든 개발자가 반드시 이해해야 할 명확한 선을 그었습니다. 2026년 3월 9일, 맥신 M. 체스니(Maxine M. Chesney) 판사는 퍼플렉시티(Perplexity)의 코멧(Comet) 브라우저가 사용자를 대신해 아마존 계정에 접속함으로써 연방 컴퓨터 사기 및 남용법(CFAA)과 캘리포니아 포괄적 컴퓨터 데이터 접근 및 사기법을 모두 위반했다고 판결했습니다. 비록 해당 사용자들이 명시적으로 허가했음에도 불구하고 말입니다. 여기서 중요한 차이점은 사용자의 권한 부여(user authorization)가 플랫폼의 권한 부여(platform authorization)와 동일하지 않다는 점입니다.
이 판결은 단순히 퍼플렉시티에만 영향을 미치는 것이 아닙니다. 현재 수백 개의 스타트업, 크립토 프로토콜, Web3 프로젝트가 구축하 고 있는 전체 AI 에이전트 행동 클래스를 잠재적으로 범죄화할 수 있습니다.
퍼플렉시티의 코멧(Comet)이 실제로 한 일
퍼플렉시티는 2025년 7월, 크로뮴(Chromium) 기반의 AI 우선 브라우저인 코멧을 출시했습니다. 전통적인 브라우저 확장 프로그램이나 챗봇 오버레이와 달리, 코멧은 대규모 언어 모델을 브라우저의 핵심 아키텍처에 직접 내장하여 회사가 "에이전트 기반 작업 실행(agentic task execution)"이라고 부르는 기능을 가능하게 했습니다. 사용자는 코멧에게 여러 웹사이트를 가로지르는 비교 쇼핑, 계정 로그인, 장바구니 품목 추가, 구매 완료 등을 모두 자율적으로 수행하도록 명령할 수 있었습니다.
아마존과의 갈등은 법정 공방이 시작되기 훨씬 전부터 고조되었습니다. 법원 기록에 따르면, 아마존은 2024년 11월부터 최소 5차례 이상 퍼플렉시티에 코멧의 아마존 시스템 접근을 중단하라고 경고했습니다. 2025년 8월, 아마존은 코멧을 차단하기 위한 기술적 장벽을 구축했습니다. 퍼플렉시티는 이를 우회하기 위해 24시간 이내에 소프트웨어 업데이트를 실시하며 대응했습니다.
아마존은 2025년 11월 4일, 퍼플렉시티가 탐지를 피하기 위해 코멧의 AI 에이전트를 일반 구글 크롬 브라우저 세션으로 의도적으로 위장했다고 주장하며 연방 소송을 제기했습니다. 2026년 3월에 승인된 예비 명령(preliminary injunction)은 코멧이 아마존의 비밀번호로 보호된 시스템에 접근하는 것을 금지했을 뿐만 아니라, 퍼플렉시티가 수집한 모든 아마존 데이터를 파기하도록 요구했습니다.
법적 지진: 사용자 허가 vs. 플랫폼 권한 부여
이 판결에서 가장 중대한 발견은 체스니 판사의 의견서 중 한 문장으로 요약될 수 있습니다. 코멧은 아마존 계정에 "아마존 사용자의 허락을 받았으나, 아마존의 권한 부여(authorization) 없이" 접속했다는 것입니다.
이 차이는 단순해 보이지만 그 함의는 심오합니다. 수십 년 동안 CFAA의 "권한 부여" 요건은 논쟁적인 법적 영역이었습니다. 대법원은 *반 뷰렌 대 미국 사건(Van Buren v. United States, 2021)*에서 CFAA의 범위를 좁혔으나, 해당 사건은 직원이 원래 사용이 허가된 시스템에서 권한을 초과하여 사용한 경우를 다뤘습니다. 아마존 대 퍼플렉시티 사건은 근본적으로 다른 질문을 던집니다. AI 에이전트가 사용자를 대신해 행동할 때, 누구의 권한 부여가 우선하는가?
체스니 판사의 답은 명확합니다. 플랫폼의 권한입니다. 문제는 더 이상 사용자가 자신을 대신해 AI가 행동하는 것에 동의하느냐가 아닙니다. 문제는 그 행동이 일어나는 플랫폼이 AI 에이전트의 등장을 애초에 승인했느냐는 것입니다.
이는 개발자들에게 세 가지 중요한 레드 라인(위험선)을 형성합니다:
- 계정 자격 증명 접근: 해당 플랫폼의 명시적 동의 없이 고객의 자격 증명을 사용하여 제3자 플랫폼에 로그인하는 모든 AI 에이전트는 CFAA 위반 위험이 있습니다.
- 비밀번호로 보호된 섹션: 유효한 사용자 자격 증명이 있더라도 플랫폼이 에이전트를 승인하지 않았다면 인증 게이트 뒤의 영역에 접근하는 것은 무단 접근으로 간주됩니다.
- 플랫폼 경고 이후의 지속: 명시적인 경고를 받은 후에도 아마존의 기술적 차단을 우회하기로 한 퍼플렉시티의 결정은 아마존의 주장을 크게 강화했습니다.
쇼핑을 넘어 이 판결이 중요한 이유
이 사건을 단순히 "에이전트 상거래" 분쟁으로만 보는 것은 그 파급력을 과소평가하는 것입니다. 플랫폼 권한 부여가 사용자 권한 부여보다 우선한다는 법적 원칙은 금융 서비스, 소셜 미디어, 의료 포털, 기업용 SaaS, 그리고 결정적으로 탈중앙화 금융(DeFi)에서 작동하는 AI 에이전트에도 동일하게 적용됩니다.
현재 상황을 살펴보십시오. 2026년 1분기에 출시된 새로운 DeFi 프로토콜의 68% 이상이 자율 AI 에이전트를 포함하고 있습니다. AI 에이전트는 현재 전체 예측 시장 거래량의 약 18%를 차지합니다. 크립토 헤지펀드의 41%가 온체인 AI 에이전트를 활발하게 사용하거나 테스트하고 있습니다. 자율 에이전트가 스왑을 실행하고, 포트폴리오를 관리하며, 프로토콜과 상호작용하는 Web3 에이전트 AI의 전체 가설은 이 권한 부여 질문에 올바르게 답하는 것에 달려 있습니다.
Web3의 차이점은 많은 프로토콜이 설계상 퍼미션리스(permissionless, 허가 없는)라는 점입니다. 탈중앙화 거래소는 전통적인 의미의 서비스 약관이 없습니다. 스마트 컨트랙트는 호출자가 인간인지 봇인지 여부가 아니라 유효한 트랜잭션을 기반으로 실행됩니다. 하지만 퍼플렉시티 판결은 API 속도 제한, 서비스 약관 제한 또는 인증 요구 사항과 같은 최소한의 접근 제어라도 있는 모든 플랫폼으로 확장될 수 있는 선례를 남겼습니다.
중앙화 거래소(CEX)와 CeFi 플랫폼의 경우, 그 영향은 즉각적입니다. 사용자의 풀 동의가 있더라도 저장된 자격 증명을 사용하여 사용자의 코인베이스(Coinbase)나 바이낸스(Binance) 계정에 로그인하는 AI 트레이딩 에이전트는 코멧과 동일한 법적 노출에 직면할 수 있습니다.
갈림길: API 대 자격 증명 액세스
이번 판결은 AI 에이전트 생태계가 두 가지 아키텍처 모델 중 하나를 따르도록 사실상 강제하고 있습니다.
모델 1: 플랫폼 승인 API
"안전한" 경로는 AI 에이전트가 공식 API 및 파트너십 계약을 통해서만 작동하도록 요구합니다. 이는 이미 구체화되고 있습니다:
- **Google의 유니버설 커머스 프로토콜 (UCP)**은 2026년 1월 Shopify, Target, Walmart 등 20개 이상의 파트너와 함께 발표되었으며, 기존 소매 인프라와 연동되는 에이전트 기반 커머스를 위한 개방형 표준을 만듭니다.
- **OpenAI와 Stripe의 에이전트 커머스 프로토콜 (ACP)**은 ChatGPT 내에서 인스턴트 체크아웃 기능을 지원하며, 특히 결제 계층에 집중합니다.
- **Bybit의 AI 트레이딩 스킬 (AI Trading Skills)**은 자연어 거래를 위해 253개의 API 엔드포인트를 노출하여, 에이전트가 자격 증명 액세스 없이도 거래를 실행할 수 있게 합니다.
이러한 프로토콜은 공통된 아키텍처를 공유합니다. 플랫폼은 정의된 인터페이스, 속도 제한 및 권한 범위를 통해 에이전트 상호작용을 명시적으로 승인합니다. 에이전트는 사용자의 자격 증명을 직접 건드리지 않습니다.
모델 2: 자격 증명 기반 액세스 (현재 법적 위험이 큼)
대안으로 사용자가 제공한 자격 증명을 사용하여 마치 사용자인 것처럼 플랫폼에 액세스하는 AI 에이전트 모델이 있으며, 이는 Perplexity가 시도했던 방식입니다. 이번 판결 이후, 이 모델은 사용자의 동의 여부와 관계없이 CFAA (컴퓨터 사기 및 남용 방지법)에 따라 잠재적인 형사 책임을 지게 될 수 있습니다.
Web3의 경우, 이 갈림길은 특히 중요합니다. 탈중앙화 프로토콜은 자연스럽게 API 모델을 선호합니다. 스마트 컨트랙트 상호작용은 본질적으로 허가가 필요 없으며 (permissionless) 자격 증명 스푸핑을 요구하지 않습니다. 하지만 중앙 집중식 시스템과 탈중앙화 시스템을 연결하는 하이브리드 아키텍처 (예: 사용자의 은행 계좌를 DeFi 프로토콜에 연결하는 경우)는 이러한 차이를 주의 깊게 살펴야 합니다.
대조적인 사례로서 중국의 "통제된 개방성"
미국 법원이 소송을 통해 AI 에이전트의 경계를 정의하는 동안, 중국은 규제 아키텍처를 통해 이 문제에 접근하고 있습니다. 서로 다른 앱과 서비스가 상호 운용되거나 데이터를 공유하지 않는 중국 모바일 생태계의 파편화는 여러 슈퍼 앱과 장치에서 작동해야 하는 AI 에이전트에게 구조적인 과제를 안겨줍니다.
예를 들어, ByteDance의 Doubao AI 에이전트는 사용자를 Douyin의 이커머스 플랫폼으로 유도하는 것을 방지하는 반독점 규제에 직면할 수 있습니다. Alipay의 Zhixiabao "AI 라이프 매니저"는 Ant Group의 폐쇄형 정원 (walled garden) 내에서 운영됩니다. 새롭게 부상하는 중국 모델은 AI 에이전트를 잠재적인 "디지털 게이트키퍼"로 간주하고, 독점적 행위를 방지하기 위해 액세스를 관리하는 통제된 개방성 프레임워크를 적용합니다.
이러한 대조는 시사하는 바가 큽니다. Perplexity 판결로 대표되는 미국의 방식은 플랫폼이 서비스 약관을 통해 AI 에이전트를 완전히 차단할 수 있는 권한을 부여합니다. 반면 중국의 방식은 플랫폼이 에이전트 액세스를 제한하여 반경쟁적 효과를 초래할 경우 플랫폼의 권한을 제한할 가능성이 있습니다. 두 모델 모두 사용자 자율성과 플랫폼 통제 사이의 긴장을 완전히 해결하지는 못합니다.
제9순회항소법원의 변수
Perplexity는 2026년 3월 11일 예비 명령에 대해 항소했습니다. 제9순회항소법원의 검토는 전체 AI 에이전트 산업에 있어 중대한 전환점이 될 것입니다.
항소 법원이 명령을 유지한다면, CFAA는 사용자 동의 여부와 상관없이 플랫폼이 AI 에이전트를 차단할 수 있는 강력한 도구가 됩니다. 서비스 약관 위반은 연방 컴퓨터 사기죄에 해당할 수 있습니다. 모든 AI 에이전트 개발자는 플랫폼별로 권한 부여 계약을 체결해야 하며, 이는 권력을 기존 플랫폼으로 근본적으로 이동시키게 됩니다.
만약 제9순회항소법원이 판결을 뒤집는다면, 이는 사용자의 승인이 충분하며 플랫폼이 사용자가 명시적으로 활성화한 도구를 차단하기 위해 사기 법령을 인용할 수 없음을 의미합니다. 이는 사용자가 웹과 상호작용하는 방식을 제어하는 "개인용 AI 에이전트" 비전을 보존하겠지만, 원치 않는 자동화된 액세스로부터 생태계를 보호하려는 플랫폼의 능력은 제한될 것입니다.
법학자들은 어떤 결과도 모든 이해관계를 완벽하게 충족시키지는 못한다고 지적합니다. AI 에이전트에게 자신의 Amazon 계정 액세스 권한을 부여하는 사용자는 소비자 자율성을 행사하는 것입니다. 그러나 Amazon은 시스템 액세스 방식을 제어하고, 스크래핑을 방지하며, 마켓플레이스의 무결성을 유지할 정당한 이해관계를 가지고 있습니다.