본문으로 건너뛰기

io.net 에이전트 클라우드 : AI 에이전트가 직접 GPU 를 구매하기 시작할 때

· 약 10 분
Dora Noda
Software Engineer

2026년 3월 25일, io.net은 '탈중앙화 컴퓨팅'의 의미를 조용히 재정의하는 전환점을 맞이했습니다. 새로운 에이전트 클라우드(Agent Cloud)는 더 이상 키보드 앞에 사람이 필요하지 않습니다. 엔지니어, 구매 팀, 데브옵스(DevOps)가 아닌 AI 에이전트가 이제 티켓 발행, KYC 양식 작성 또는 로그인 과정 없이 자율적으로 GPU를 대여하고, 워크로드를 실행하며, 스테이블코인으로 비용을 결제하고, 모든 리소스를 해제할 수 있습니다.

이것이 바로 DePIN 산업이 지난 2년 동안 지향해 온 변곡점입니다. "3090 그래픽카드를 연결해 수동적 보상을 얻는" 암호화폐 채굴 방식의 시대가 저물고 있습니다. 그 자리를 대신하는 것은 고객도 소프트웨어이고 공급자도 소프트웨어이며, 모든 협상이 모델 컨텍스트 프로토콜(Model Context Protocol, MCP) 호출과 온체인 결제를 통해 이루어지는 시장입니다. io.net은 이러한 미래를 최초로 제품화한 네트워크가 되었으며, 이로 인해 다른 모든 DePIN GPU 프로젝트는 새로운 질문에 답해야 하는 상황에 놓였습니다. "구매자가 기계일 때, 귀하의 네트워크는 어떤 모습입니까?"

30,000개의 GPU에서 구매자 중심의 혁명으로

io.net은 단순 컨테이너 수 기준으로는 가장 큰 탈중앙화 GPU 네트워크가 아닙니다. 그 타이틀은 93개국에 걸쳐 435,000개 이상의 GPU 컨테이너를 기업에 연결하는 에이서(Aethir)가 보유하고 있습니다. io.net의 마켓플레이스에는 130개국 이상, 138개 지역에 걸쳐 약 30,000개의 GPU가 리스팅되어 있습니다. 규모는 더 작지만 지리적으로 더 분산되어 있으며, 솔라나(Solana)를 기반으로 결제가 이루어집니다.

2026년 3월에 바뀐 것은 공급 측면이 아니라 수요 측면입니다. 지금까지 아카시(Akash), 렌더(Render), 에이서(Aethir), 플루언스(Fluence), 그리고 io.net 자신을 포함한 모든 탈중앙화 GPU 마켓플레이스는 인간 사용자를 전제로 해왔습니다. 개발자가 가입하고, 지갑을 연결하고, GPU SKU를 선택하고, EULA에 동의하고, 도커(Docker)를 설정하고, 대시보드를 모니터링합니다. 모든 단계가 인간의 속도에 맞춰져 있었습니다.

에이전트 클라우드는 인간을 완전히 배제합니다. 이 플랫폼은 자율 에이전트가 다음과 같은 작업을 수행할 수 있도록 MCP 라이브러리를 제공합니다.

  • 130개국 이상에서 사용 가능한 GPU 클러스터 탐색
  • 에이전트 메모리 및 상태가 내장된 지속적 컴퓨팅 환경 구축
  • OAuth 흐름, KYC 또는 기업 온보딩 없이 인증
  • USDC 또는 법정화폐(IO로 자동 전환)로 결제하며 0.25%의 예약 수수료 부과 (직접 IO 결제 시 2%의 촉진 수수료 면제)
  • 자체 워크로드 신호에 따라 리소스 확장 또는 축소
  • 내장된 메시징 API를 통해 다른 에이전트와 상호 통신

비용 격차가 핵심입니다. io.net은 기존 제공업체보다 최대 70% 저렴한 가격으로 H100 및 H200 접근성을 광고합니다. 하지만 구조적인 변화는 마찰의 부재에 있습니다. 향후 90분 동안 8개의 A100이 필요한 에이전트는 구매 요청서를 제출하지 않습니다. 그저 함수를 호출할 뿐입니다.

왜 지속적 컴퓨팅이 스팟 가격보다 중요한가

아카시가 역경매 마켓플레이스를 통해 완성한 스팟 GPU 대여 모델(H100 기준 시간당 $1.20–$1.80로 AWS의 $4.50–$5.50 대비 저렴함)은 가격 문제를 해결했습니다. 하지만 에이전트 문제를 해결하지는 못했습니다.

자율 AI 에이전트에게는 배치 워크로드와는 다른 가혹한 아키텍처 요구 사항이 있습니다. 바로 **상태 지속성(state continuity)**입니다. 거래를 조사하거나, 코드를 작성하거나, 다단계 연구 작업을 수행하는 에이전트는 몇 분마다 발생하는 콜드 스타트(cold starts)를 견딜 수 없습니다. 에이전트에게는 지속적인 메모리, 지속적인 신원, 그리고 도구 및 다른 에이전트와의 지속적인 연결이 필요합니다.

이것이 바로 에이전트 클라우드가 실제로 판매하는 것입니다. GPU가 아니라 상시 가동되는 에이전트 백엔드입니다. 배치 작업당 비용이 아닌 지속적인 에이전트 워크로드에 대한 GPU 시간당 과금 방식의 요금 모델은 아카시의 스팟 마켓플레이스나 렌더의 프레임 렌더링 처리량 모델과는 의도적으로 차별화된 지점입니다. 이는 완전히 다른 고객을 겨냥합니다. 바로 잠에서 깨어나 일을 하고, 한 시간 동안 잠들었다가 다시 깨어나도 작업 메모리가 그대로 유지되기를 기대하는 에이전트입니다.

이러한 요구 사항 때문에 앤스로픽(Anthropic)은 2026년 4월에 샌드박싱, 상태 관리, 도구 실행 및 오류 복구를 처리하는 호스팅 플랫폼인 클로드 매니지드 에이전트(Claude Managed Agents)를 출시했습니다. 코인베이스의 x402 프로토콜이 존재하는 이유도 에이전트가 스테이블코인으로 MCP 서버 액세스 비용을 지불할 수 있도록 하기 위해서입니다. 전체 스택은 하나의 통찰력으로 수렴되고 있습니다. **"에이전트에게는 웹 앱이 아닌 에이전트의 형태를 닮은 인프라가 필요하다"**는 것입니다.

io.net의 도박은 이 스택의 탈중앙화 버전이 사치품이 아니라는 것입니다. 이는 AWS 계정 승인, 지역별 컴퓨팅 할당량 또는 기업 구매 주기에 따른 병목 현상 없이 수백만 개의 에이전트로 확장할 수 있는 유일한 버전입니다.

DePIN 컴퓨팅 시장을 나누는 세 가지 시장 진입 전략

에이전트 클라우드의 출시는 탈중앙화 컴퓨팅 시장에서 세 가지 뚜렷한 전략을 구체화합니다. 각 전략은 서로 다른 경제 구조를 가지고 서로 다른 고객을 추구합니다.

1. io.net — 크립토 네이티브 개발자 생태계 및 자율 에이전트. 핵심 가치는 허가 없는 API 액세스, MCP 네이티브 통합, USDC 결제 및 온보딩 마찰 제로입니다. 고객은 Web3 네이티브 팀이거나 점차 늘어나는 AI 에이전트 자체입니다. 공급자 지불금을 달러(USD) 기준으로 안정화하고 실시간 수익에 따라 토큰 공급량을 동적으로 조정하는 인센티브 다이내믹 엔진(Incentive Dynamic Engine, IDE)의 2026년 2분기 출시는 에이전트 기반 수요를 예측하기 어려워짐에 따라 공급을 합리적으로 유지하기 위해 명확하게 설계되었습니다. io.net은 2026년 초에 2,000만 달러 이상의 컴퓨팅 임대를 처리했으며, 1월 한 달 동안에만 전월 대비 15% 증가한 21만 7천 달러 상당의 IO 바이백을 실행했습니다.

2. 에이서(Aethir) — 기업 구매 예산. 에이서는 2026년 1월에 렌더를 제치고 모든 프로토콜 중 가장 높은 월간 DePIN 수익을 창출했습니다. 3억 4,400만 달러 규모의 컴퓨팅 예약 계약을 체결했으며, B2B 계약을 통해 1억 6,600만 달러의 연간 반복 매출(ARR)을 보고했습니다. 고객은 할인된 가격으로 H100 용량을 원하지만 송장 발행, MSA, SLA, 전담 어카운트 매니저 등 기존 클라우드와 유사한 경험을 제공하는 벤더를 필요로 하는 기업 CIO입니다. 에이서의 435,000개 이상의 GPU 컨테이너와 선불 비용 제로 정책은 허가 없는 자유로움보다 예측 가능성을 중시하는 구매자를 겨냥하고 있습니다.

3. 아카시(Akash) — 비용 중심의 워크로드 마이그레이션. 공급자가 일감을 얻기 위해 경쟁하는 아카시의 역경매 모델은 가격을 하이퍼스케일러보다 구조적으로 낮게 유지합니다. 이 네트워크는 2026년으로 접어들며 80% 이상의 가동률과 함께 전년 대비 428%의 사용량 증가를 달성했습니다. 스타본드(Starbonds)를 통해 약 7,200개의 NVIDIA GB200 GPU를 인수하려는 계획을 포함한 스타클러스터(Starcluster) 이니셔티브는 탈중앙화 마켓플레이스를 유지하면서 아카시를 하이퍼스케일 AI 수요로 이끌고 있습니다.

렌더(Render)는 매월 150만 개의 렌더 프레임을 처리하는 동시에, 2026년 4월 RNP-023 거버넌스 제안을 통해 샐러드 네트워크(Salad Network)에서 약 60,000개의 GPU를 흡수하며 이 세 프로토콜과 인접해 있습니다. 이를 통해 렌더는 크리에이티브 컴퓨팅의 뿌리를 유지하면서 AI 추론 영역으로 확장하고 있습니다.

이 네 프로토콜은 이제 더 이상 같은 시장을 두고 싸우지 않습니다. 그들은 기업용, 에이전트 네이티브, 비용 중심, 크리에이티브라는 각기 다른 시장을 두고 경쟁하고 있으며, 이 모든 시장은 공통적으로 GPU를 필요로 합니다.

에이전트 클라우드를 실현 가능하게 만드는 추론 시대의 수학

분산형 컴퓨팅에 관한 모든 대화는 과거에 한 가지 경고로 시작되곤 했습니다. 즉, 학습(training)은 대역폭, 지연 시간, SLA에 너무 민감해서 하이퍼스케일러 데이터 센터를 떠나기 어렵다는 점이었습니다. 이러한 반론은 여전히 최첨단 모델 학습에는 유효합니다. 하지만 실제 시장에서는 더 이상 중요하지 않은 문제가 되었습니다.

2026년에는 GPU 수요의 약 70% 가 학습이 아닌 추론(inference)에서 발생합니다. 모델 실행, 에이전트 서비스 제공, 도구 호출 실행과 같은 추론 워크로드는 학습보다 분산형 네트워크의 아키텍처적 특성을 훨씬 더 잘 수용합니다. 워크로드가 일시적으로 급증하는 특성을 가질 때 지연 시간의 변동성은 허용 가능한 수준이 됩니다. 지리적 분산은 에이전트가 전 세계 사용자에게 서비스를 제공할 때 오히려 장점이 됩니다. 작업이 상태를 유지하지 않거나(stateless) 체크포인트를 설정할 수 있는 경우 스팟 용량(spot capacity)으로도 충분합니다.

이러한 워크로드 구성의 변화는 DePIN 컴퓨팅이 추론 분야에서 AWS 및 Azure보다 45–75% 더 저렴한 가격을 제시할 수 있는 구조적 이유입니다. 또한 이것이 에이전트 클라우드(Agent Cloud)의 출시 시점이 중요한 이유이기도 합니다. 에이전트는 설계상 추론 비중이 높습니다. 에이전트는 가끔 발생하는 대규모 학습 작업이 아니라, 지속적으로 발생하는 소규모 호출을 생성합니다. 에이전트는 많은 수의 GPU를 여러 지역에서 짧은 시간 동안 필요로 합니다. 이것이 바로 분산형 네트워크가 처리하도록 설계된 워크로드 프로필과 정확히 일치합니다.

Anthropic, OpenAI, Google이 MCP(Model Context Protocol)를 표준으로 채택하고 — 2026년 초 기준으로 리눅스 재단은 이미 10,000개 이상의 활성 공용 MCP 서버와 수천만 건의 월간 SDK 다운로드를 기록하고 있습니다 — MCP를 지원하는 모든 컴퓨팅 네트워크가 모든 에이전트 생태계에서 접근 가능해진다면 상황은 달라집니다. io.net은 가장 큰 규모가 되는 것보다 에이전트가 직접 구매할 수 있는 완전한 MCP 네이티브 컴퓨팅 레이어를 최초로 출시하는 것이 더 가치 있다고 판단하고 있습니다.

io.net이 여전히 해결해야 할 신뢰의 격차

이 이야기에서 솔직하게 드러나는 갈등 요소는 신뢰성입니다. AWS와 Azure는 수십억 달러의 보상 체계를 갖춘 99.9% 가동 시간(uptime) SLA를 판매합니다. 반면 io.net은 130개국 이상에 분산된 30,000개의 GPU를 제공하며, 공급자에 따라 품질이 다를 수 있습니다. 실험을 진행하는 개인 개발자에게는 비용 절감이 위험보다 훨씬 큽니다. 하지만 고객의 자금을 취급하는 프로덕션 수준의 에이전트에게는 셈법이 더 복잡해집니다.

인센티브 다이내믹 엔진(Incentive Dynamic Engine)이 그 해답의 일부가 될 수 있습니다. 공급자에게 지급되는 대금을 USD 기준으로 안정화함으로써 공급자의 행동을 더 예측 가능하게 만들고, 이는 다시 신뢰성 향상으로 이어집니다. MCP 네이티브 아키텍처도 또 다른 해결책입니다. 성능이 저하된 공급자를 감지하고 몇 초 내에 다른 클러스터로 경로를 재설정할 수 있는 에이전트는 최종 사용자에게 기저의 변동성을 거의 느끼지 못하게 합니다.

그러나 근본적인 신뢰 격차는 (a) 분산형 네트워크가 신뢰할 수 있는 가동 시간 수치를 발표할 수 있을 만큼 충분한 운영 이력을 쌓거나, (b) 프로덕션 AI 에이전트가 컴퓨팅 변동성을 충분히 수용하게 되어 99.9% 가 더 이상 기준이 되지 않을 때까지는 완전히 해소되지 않을 것입니다. 이 두 가지 과정은 병행하여 진행 중이며, 아직 완료되지 않았습니다.

2026년의 현실적인 결과는 시장의 양분화입니다. 기업급 에이전트 워크로드는 Aethir나 하이퍼스케일러에 남는 반면, 인디 개발자, 자율 트레이딩 에이전트, Web3 네이티브 AI 애플리케이션으로 구성된 롱테일 시장은 io.net 에이전트 클라우드와 그 경쟁사들로 이동할 것입니다. 그 롱테일 시장은 거대하며, 가장 빠르게 성장하는 영역이기도 합니다.

빌더들에게 이것이 의미하는 변화

2026년에 AI 에이전트를 구축하고 있다면 다음 세 가지가 실질적으로 달라집니다.

  1. 컴퓨팅 조달이 더 이상 인간에 의한 병목 현상이 되지 않습니다. 여러분의 에이전트는 자체적인 자금원, 자체적인 컴퓨팅 공급자, 자체적인 확장 로직을 가질 수 있습니다. GPU 확보를 위해 인간이 개입해야 하는 아키텍처는 이제 기능이 아니라 버그입니다.

  2. 스테이블코인 기반의 컴퓨팅 가격 책정이 일반화됩니다. 인프라 레이어에서의 USDC 결제는 에이전트가 자산을 보유하고, 컴퓨팅 비용을 지불하며, 다른 에이전트와 정산하면서 법정화폐 시스템을 거칠 필요가 없음을 의미합니다. 이것은 완전한 자율 에이전트 경제를 가능하게 하는 핵심 요소입니다.

  3. MCP가 통합 접점이 됩니다. 기술 스택의 분산 여부와 관계없이, 에이전트가 접근 가능한 인프라로 가는 길은 MCP를 통하게 됩니다. io.net은 이를 파악한 유일한 네트워크는 아니지만, GPU 마켓플레이스의 중심에 이를 배치한 첫 번째 네트워크입니다.

DePIN의 다음 단계를 선도할 프로토콜은 가장 많은 GPU를 보유한 곳이 아닙니다. 소프트웨어가 GPU를 가장 쉽게 구매할 수 있도록 만든 곳이 승리할 것입니다.


BlockEden.xyz는 수많은 AI 에이전트가 활동하고 거래하는 Solana, Sui, Aptos 및 EVM 생태계를 위한 기업급 RPC 및 인덱싱 인프라를 제공합니다. 분산형 컴퓨팅과 함께 안정적인 온체인 액세스가 필요한 에이전트 네이티브 애플리케이션을 구축하고 있다면, 당사의 API 마켓플레이스를 방문하여 데이터 레이어를 연결해 보십시오.

참고 문헌