본문으로 건너뛰기

DePIN의 AI 전환: 탈중앙화 인프라가 어떻게 거대 IT 기업이 구축하지 못한 GPU 클라우드가 되었나

· 약 9 분
Dora Noda
Software Engineer

2026년 가장 높은 수익을 올리는 세 개의 DePIN 프로젝트는 한 가지 공통점을 공유합니다. 바로 AI 기업에 GPU 연산력을 판매한다는 점입니다. 스토리지가 아닙니다. 무선 대역폭도 아닙니다. 센서 데이터도 아닙니다. 연산(Compute) — 글로벌 기술 스택에서 가장 제약이 심한 단일 리소스입니다.

이 사실 하나만으로도 수년간 제품-시장 적합성(product-market fit)을 찾아 헤매던 탈중앙화 물리적 인프라 네트워크(DePIN)가 어디에 도달했는지 모든 것을 말해줍니다. 한때 토큰 인센티브와 투기적인 플라이휠 경제로 운영되던 이 분야는 이제 기술 분야에서 가장 까다로운 구매자들로부터 실제 수익을 창출하고 있습니다. 바로 지금 당장 GPU가 필요한 AI 모델 개발자들입니다.

토큰 플라이휠에서 수익 엔진으로

DePIN의 탄생 이야기는 우아할 정도로 단순했습니다. 단일 기업이 구축하기에는 너무 비용이 많이 드는 물리적 인프라 네트워크를 토큰 보상을 통해 부트스트랩(bootstrap)하는 것이었습니다. 기여자는 하드웨어(GPU, 라우터, 센서, 스토리지 드라이브)를 공급하고 그 대가로 토큰을 받습니다. 네트워크가 성장함에 따라 토큰 가치가 상승하고, 이는 더 많은 기여자를 끌어들여 선순환 구조를 만듭니다.

문제는 대부분의 초기 DePIN 프로젝트들이 수요 측면을 해결하지 못했다는 점입니다. 기여자들이 토큰 보상을 쫓아 몰려들었지만, 실제 비용을 지불하는 고객은 부족했습니다. 플라이휠은 돌았지만, 한 방향으로만 돌았습니다.

AI 붐은 이 방정식을 완전히 바꾸어 놓았습니다.

글로벌 AI 연산 수요는 2026년까지 전년 대비 37 % 성장하고 있으며, GPU 인프라 지출은 2025년 830억 달러에서 2030년 3,530억 달러로 급증할 것으로 예상됩니다. 한편 AWS, Azure, Google Cloud의 클라우드 GPU 대기 명단은 고성능 하드웨어의 경우 몇 주에서 몇 달까지 이어집니다. 대규모로 모델을 훈련하거나 추론을 실행하는 기업들은 잔혹한 공급 제약에 직면해 있습니다. 이는 정확히 탈중앙화 네트워크가 해결하기 위해 구축된 시장 실패의 유형입니다.

전환 뒤에 숨겨진 숫자들

DePIN 분야는 현재 1,500개 이상의 활성 프로젝트를 보유하고 있으며, 총 시가총액은 300억 달러에서 500억 달러 사이입니다. 하지만 수익 집중도를 보면 더 명확한 이야기가 보입니다. AI 관련 DePIN 프로젝트가 해당 부문 전체 시가총액의 48 %를 차지하며, 수익 상위 3개 프로젝트인 Aethir, Virtuals Protocol, IONET은 모두 탈중앙화 AI 연산에 집중하고 있습니다.

벤처 캐피털도 이 신호를 따랐습니다. 2024년 1월부터 2025년 7월 사이에 165개 이상의 DePIN 스타트업에 7억 4,400만 달러 이상이 투자되었으며, 2025년 한 해에만 총 부문 펀딩액이 10억 달러에 육박했습니다. 2026년 1월, Escape Velocity는 인프라 레이어가 기관급 워크로드를 처리할 준비가 되었다는 판단하에 DePIN 창업자들을 지원하기 위한 6,200만 달러 규모의 펀드를 조성했습니다.

세계경제포럼(WEF)은 더 나아가 DePIN 카테고리가 2028년까지 현재 수준보다 70배 확장된 3조 5,000억 달러 규모로 성장할 것으로 전망했습니다. WEF 보고서는 이러한 융합을 위해 "DePAI"(탈중앙화 물리적 AI, Decentralized Physical AI)라는 새로운 용어를 만들었으며, AI 워크로드가 탈중앙화 인프라의 주요 상업적 동력이 되었음을 인정했습니다.

Akash Network: 마켓플레이스에서 하이퍼스케일러로

Akash Network는 탈중앙화 마켓플레이스에서 AI 지원 연산 제공업체로의 전환을 보여주는 전형적인 사례입니다. 이 플랫폼은 2025년 말까지 전년 대비 428 %의 사용량 증가를 기록했으며, GPU 활용률은 지속적으로 80 % 이상을 유지했습니다. 이는 그 어떤 클라우드 제공업체도 부러워할 만한 수치입니다.

새로운 리스(Lease) 생성은 2025년 3분기에 전 분기 대비 42 % 급증하여 19,000개에서 27,000개로 늘어났으며, 이는 투기적 활동이 아닌 실질적인 수요를 나타냅니다. 이들은 에어드랍 파머가 아니라 비용을 지불하는 연산 작업입니다.

가장 중요한 발전은 Akash의 가장 대담한 승부수인 프로토콜 소유 연산 시스템, Starcluster와 함께 찾아왔습니다. Starcluster는 중앙 집중식으로 관리되는 데이터 센터와 Akash의 탈중앙화 GPU 마켓플레이스를 결합하여 AI 훈련 및 추론에 최적화된 소위 "행성형 메시(planetary mesh)"를 형성합니다. 이 이니셔티브에는 검증된 엔터프라이즈급 데이터 센터인 "노드키퍼(Nodekeepers)"가 운영하는 약 7,200개의 NVIDIA GB200 GPU — 최신 세대 프런티어 AI 모델을 구동하는 것과 동일한 하드웨어 — 확보가 포함됩니다.

이 하이브리드 아키텍처는 실질적인 현실을 인정합니다. 결정론적 지연 시간과 대규모 병렬 처리량이 요구되는 워크로드에 있어 순수 탈중앙화는 한계가 있다는 점입니다. Starcluster는 크립토 네이티브의 이상주의와 기업의 요구 사항 사이의 간극을 메워, 이전에 AWS나 CoreWeave로 향했던 하이퍼스케일 AI 계약을 두고 경쟁할 수 있는 위치에 Akash를 올려놓았습니다.

Render Network: 추론 시장 공략

Akash가 전체 연산 스펙트럼을 타겟팅하는 반면, Render Network는 2026년까지 전체 AI 연산 사용량의 3분의 2를 차지할 것으로 예상되는 워크로드 카테고리인 AI 추론에 전략적인 승부수를 던졌습니다.

그 논리는 타당합니다. 거대 모델을 훈련하려면 수천 개의 GPU가 집중된 클러스터에서 몇 주 동안 구동되어야 합니다. 반면 추론 — 훈련된 모델을 실행하여 예측, 텍스트 또는 이미지를 생성하는 것 — 은 훨씬 더 분산되어 있습니다. 이는 언제 어디서나 발생하며, 점점 더 에지(edge)에서 이루어집니다. 이러한 워크로드 프로필은 여러 지역에 흩어져 있는 GPU 노드의 탈중앙화 네트워크와 자연스럽게 일치합니다.

Render는 2025년 12월, AI 추론 및 에지 머신러닝을 위한 전용 연산 서브넷인 Dispersed를 출시했습니다. 이 플랫폼은 전 세계적으로 5,600개 이상의 활성 GPU 노드로 확장되었으며, 까다로운 워크로드를 위한 용량 확장을 위해 엔터프라이즈급 NVIDIA H200 하드웨어를 통합하고 있습니다.

실제 도입은 개념 증명(PoC) 단계를 넘어서고 있습니다. AI 금융 신탁 회사인 Jember는 비동기 추론 워크플로우를 위해 Render의 인프라를 사용하며, 분산 연산이 어떻게 규제 산업에서 검증 가능한 AI 시스템을 구동할 수 있는지 보여주고 있습니다. THINK는 온체인 AI 에이전트 구축을 위한 무허가형 프로토콜인 Think Agent Standard를 지원하기 위해 Render 노드를 배포하고 있습니다. 이는 1년 전만 해도 거의 존재하지 않았던 사용 사례입니다.

CES 2026에서 Render는 에지 ML 워크로드에 대한 폭발적인 GPU 수요를 겨냥한 파트너십을 공개하며, 크리에이티브 렌더링의 기원을 넘어 범용 AI 연산으로의 성공적인 확장을 알렸습니다. 3D 렌더링과 AI 추론을 모두 지원하는 네트워크의 이중 용도 기능은 순수 AI 연산 네트워크가 갖지 못한 수익 다각화를 제공합니다.

io.net: 어그리게이션 레이어 (The Aggregation Layer)

io.net은 다른 아키텍처 접근 방식을 취합니다. 수직 계열화된 컴퓨팅 네트워크를 구축하는 대신, io.net은 대규모 GPU 공급을 소싱하고 풀링하는 어그리게이션 레이어(Aggregation Layer)로 포지셔닝하여, 구매자에게 클라우드와 유사한 추상화된 형태로 해당 용량을 제공합니다.

이 어그리게이션 우선 모델은 DePIN의 지속적인 과제 중 하나인 분산된 공급 문제를 해결합니다. 개별 GPU 기여자는 유휴 상태의 RTX 4090을 보유한 게이밍 PC 소유자부터 A100 랙을 갖춘 소규모 데이터 센터 운영자까지 다양합니다. 어그리게이션 없이는 이러한 공급이 너무 이질적이고 신뢰성이 낮아 기업용 워크로드에 적합하지 않습니다. io.net의 추상화 레이어는 경험을 표준화하여 탈중앙화된 GPU 용량을 기존의 클라우드 API처럼 느낄 수 있게 만듭니다.

이 접근 방식은 실용적인 유용성을 위해 탈중앙화의 순수성을 일부 희생하며, 이는 승리하는 DePIN 전략을 점차 정의하는 트레이드오프가 되고 있습니다.

실제로 중요한 비용 이점

DePIN의 가장 매력적인 가치 제안은 매우 간단합니다. 탈중앙화 컴퓨팅 비용이 중앙 집중식 클라우드 대안보다 50 ~ 85% 저렴하다는 것입니다.

이는 미미한 절감이 아닙니다. AWS GPU 인스턴스에 매달 50만 달러를 지출하는 AI 스타트업의 경우, 탈중앙화 컴퓨팅으로 전환하면 비용을 7만 5천 달러 ~ 25만 달러로 줄일 수 있습니다. 기업 규모에서 이러한 비용 절감은 경쟁 우위 또는 생존으로 직결됩니다.

DePIN 네트워크는 특수 목적의 데이터 센터를 짓는 대신 기존의 유휴 용량을 수익화하기 때문에 이러한 비용 구조가 가능합니다. 기여자들은 자본 지출(CAPEX)을 부담하고, 프로토콜은 오케스트레이션을 담당하며, 구매자는 소비한 컴퓨팅 비용만 지불합니다. 대규모 선행 구축 비용도, 부동산 비용도, 가격에 포함되어야 할 냉각 인프라 비용도 없습니다.

이 모델에도 한계는 있습니다. 모든 워크로드가 분산 컴퓨팅의 지연 시간 변동성과 신뢰성 트레이드오프를 감당할 수 있는 것은 아닙니다. 그러나 추론(inference), 배치 처리, 파인 튜닝(fine-tuning) 및 많은 학습 구성에 있어 경제적 논리는 점점 더 결정적인 요소가 되고 있습니다.

투기에서 인프라로

DePIN 섹터의 AI 피벗은 크립토 분야에서 드문 현상인 투기 중심 경제에서 유틸리티 중심 경제로의 진정한 전환을 나타냅니다. 네트워크의 수익이 토큰 가격을 추측하는 트레이더가 아니라 GPU 사용 시간을 지불하는 AI 기업에서 발생할 때, 밸류에이션 프레임워크는 근본적으로 변화합니다.

몇 가지 구조적 트렌드가 이러한 궤적을 강화합니다.

  • 추론의 지배력: AI가 학습에서 배포로 이동함에 따라 추론에 소비되는 컴퓨팅 비중이 커집니다. 추론은 본질적으로 분산되어 있으며 많은 애플리케이션에서 지연 시간을 어느 정도 허용하므로 탈중앙화 아키텍처에 유리합니다.

  • 기업의 비용 압박: 현재의 클라우드 가격 체계에서 대부분의 기업에 AI 인프라 비용은 감당하기 어려운 수준입니다. DePIN 네트워크가 제공하는 50 ~ 85%의 비용 절감은 단순한 크립토 네이티브 실험을 넘어 진정한 수요를 창출합니다.

  • 규제 측면의 순풍: EU, 인도 및 기타 관할권의 데이터 주권 요구 사항은 데이터를 로컬에서 처리할 수 있는 지리적으로 분산된 컴퓨팅을 선호합니다. DePIN의 분산 노드 아키텍처는 이에 자연스럽게 부합합니다.

  • 하드웨어 민주화: 각 GPU 세대가 거듭될수록 이전 세대는 저렴해지면서도 여전히 성능을 발휘합니다. DePIN 네트워크는 클라우드 제공업체가 퇴역시킬 하드웨어의 생산 수명을 연장하여 끊임없이 성장하는 공급 풀을 생성합니다.

잠재적 위험 요소

상승 시나리오는 매력적이지만, 여전히 상당한 위험이 존재합니다.

대규모 운용 시의 신뢰성은 미션 크리티컬한 AI 워크로드에 대해 아직 입증되지 않았습니다. 기업용 SLA는 99.99%의 가동 시간을 요구하며, 탈중앙화 네트워크는 아직 그 정도의 신뢰성을 일관되게 제공하지 못하고 있습니다. Akash의 스타클러스터(Starcluster) 하이브리드 접근 방식은 이러한 격차를 묵시적으로 인정하고 있습니다.

탈중앙화 컴퓨팅을 둘러싼 규제 불확실성은 장애물이 될 수 있습니다. 정부가 GPU 마켓플레이스에 클라우드 제공업체와 동일한 규제 프레임워크(데이터 거주성, 컴퓨팅에 대한 수출 통제 등)를 적용하기로 결정하면 비용 이점은 줄어듭니다.

중앙화 압박은 아마도 가장 깊은 아이러니일 것입니다. 가장 성공적인 DePIN 네트워크들은 시간이 지남에 따라 프로토콜 소유 하드웨어를 추가하고, 노드 운영자를 검증하며, 서비스 품질(QoS) 보장을 구현하는 등 점점 더 중앙화되고 있습니다. 어느 시점에서는 "탈중앙화 GPU 클라우드"와 "토큰 인센티브가 있는 클라우드 제공업체" 사이의 구분이 철학적인 문제로 변하게 됩니다.

3조 5천억 달러를 향한 길

세계경제포럼(WEF)이 전망한 2028년 DePIN 시장 규모 3조 5천억 달러는 현재 수준에서 약 70배 성장을 의미합니다. 이는 대담해 보일 수 있지만, 도달 가능한 시장(Addressable Market)을 고려하면 이해가 됩니다. 전 세계 클라우드 인프라 지출만 매년 3,000억 달러를 넘어서며, AI는 여기에 수천억 달러를 더하고 있습니다.

DePIN이 클라우드 컴퓨팅을 완전히 대체할 필요는 없습니다. 어떤 가격으로도 GPU를 구할 수 없는 워크로드, 클라우드 마진을 감당할 수 없는 스타트업, 에지 접근성이 필요한 추론 작업 등 초과 수요를 흡수하기만 하면 됩니다. 글로벌 컴퓨팅 시장의 단 몇 퍼센트만 점유하더라도 WEF의 가설은 입증될 것입니다.

이 경쟁에서 승리하는 프로젝트는 DePIN의 가장 어려운 문제인 '탈중앙화 인프라를 지루할 정도로 당연하게 만드는 것'을 해결하는 프로젝트가 될 것입니다. 혁신적이거나 파괴적이거나 Web3 네이티브한 것이 아니라, 단지 더 저렴하고 빠르며 대안이 없을 때 언제든 사용할 수 있는 인프라가 되는 것입니다. 2026년, Akash, Render, io.net이 구축하고자 하는 미래가 바로 그것입니다.

탈중앙화 컴퓨팅 인프라를 탐구하는 개발자와 기업을 위해, BlockEden.xyz는 DePIN 네트워크를 보완하는 기업용 블록체인 API 서비스를 제공합니다. 이를 통해 애플리케이션은 온체인 컴퓨팅 마켓플레이스와 상호작용하고, 네트워크 성능을 모니터링하며, AI 경제를 뒷받침하는 인프라 레이어 위에서 구축될 수 있습니다.