본문으로 건너뛰기

"AI" 태그로 연결된 79 개 게시물 개의 게시물이 있습니다.

인공지능 및 머신러닝 애플리케이션

모든 태그 보기

DePIN의 192억 달러 규모의 돌파구: IoT 열풍에서 기업의 현실로

· 약 11 분
Dora Noda
Software Engineer

수년 동안 탈중앙화 물리적 인프라의 약속은 마치 '문제를 찾아 헤매는 해결책'처럼 느껴졌습니다. 블록체인 애호가들이 WiFi 핫스팟부터 태양광 패널에 이르기까지 모든 것을 토큰화하는 것에 대해 이야기하는 동안, 기업들은 이를 운영 현실과 동떨어진 크립토 하이프(hype)로 치부하며 조용히 무시해 왔습니다. 하지만 그러한 무시의 대가는 이제 매우 비싸졌습니다.

DePIN (탈중앙화 물리적 인프라 네트워크) 섹터의 시가총액은 단 1년 만에 52억 달러에서 192억 달러로 폭발적으로 성장했습니다. 이는 투기적 광풍과는 무관한 270%의 급증이며, 기업들이 서비스 품질을 유지하면서도 인프라 비용을 50~85% 절감할 수 있다는 사실을 발견한 것과 깊은 관련이 있습니다. 현재 321개의 활성 프로젝트가 매달 1억 5천만 달러의 수익을 창출하고 있으며, 세계경제포럼(WEF)은 2028년까지 이 시장이 3.5조 달러에 달할 것으로 전망하고 있습니다. DePIN은 이제 실험적 기술의 단계를 넘어 핵심 미션 인프라로 도약했습니다.

내러티브를 바꾼 수치들

CoinGecko는 2025년 9월 기준으로 약 250개의 DePIN 프로젝트를 추적하고 있으며, 이는 불과 24개월 전의 극히 일부에 불과했던 수치에서 크게 증가한 것입니다. 하지만 진짜 중요한 것은 프로젝트의 수가 아니라 수익입니다. 이 섹터는 2025년에 약 7,200만 달러의 온체인 수익을 창출했으며, 최상위 프로젝트들은 현재 8자리의 연간 반복 수익(ARR)을 기록하고 있습니다.

2026년 1월 한 달 동안에만 DePIN 프로젝트들은 총 1억 5천만 달러의 수익을 올렸습니다. GPU 중심의 인프라 제공업체인 Aethir가 5,500만 달러로 선두를 달렸고, 탈중앙화 GPU 렌더링 서비스인 Render Network가 3,800만 달러로 그 뒤를 이었습니다. Helium은 무선 네트워크 운영을 통해 2,400만 달러를 기여했습니다. 이는 에어드랍 파머들의 허수 지표가 아니라, 컴퓨팅, 연결성 및 스토리지를 위해 실제로 비용을 지불하는 기업들을 나타냅니다.

시장 구성은 더욱 흥미로운 이야기를 들려줍니다. 시가총액 기준 DePIN 프로젝트의 48%가 현재 AI 인프라에 집중하고 있습니다. AI 워크로드가 폭발적으로 증가하고 하이퍼스케일러들이 수요를 감당하기 위해 고군분투함에 따라, 탈중앙화 컴퓨팅 네트워크는 전통적인 데이터 센터가 빠르게 해결하지 못하는 업계의 병목 현상을 해소하는 분출구가 되고 있습니다.

솔라나의 DePIN 지배력: 속도가 중요한 이유

이더리움이 DeFi의 본고장이고 비트코인이 디지털 금이라면, 솔라나는 조용히 물리적 인프라 조정을 위한 최적의 블록체인이 되었습니다. Helium, Grass, Hivemapper를 포함하여 63개의 DePIN 프로젝트가 솔라나 네트워크에 구축되어 있습니다. 솔라나의 낮은 트랜잭션 비용과 높은 처리량은 물리적 인프라가 요구하는 실시간 대용량 데이터 워크로드를 처리할 수 있는 유일한 레이어 1으로 자리매김하게 했습니다.

Helium의 변화는 특히 시사하는 바가 큽니다. 2023년 4월 솔라나로 마이그레이션한 후, 이 무선 네트워크는 115,000개 이상의 핫스팟으로 확장되어 매일 190만 명의 사용자에게 서비스를 제공하고 있습니다. Helium Mobile 구독자 수는 2024년 9월 115,000명에서 2025년 9월 약 450,000명으로 전년 대비 300% 급증했습니다. 2025년 2분기에만 이 네트워크는 통신 파트너를 위해 2,721 테라바이트의 데이터를 전송했으며, 이는 전 분기 대비 138.5% 증가한 수치입니다.

경제적 측면도 매력적입니다. Helium은 개인이 핫스팟을 설치하고 유지하도록 인센티브를 제공함으로써 기존 통신사 비용의 극히 일부만으로 모바일 연결을 제공합니다. 구독자들은 월 20달러에 무제한 통화, 문자, 데이터를 이용합니다. 핫스팟 운영자는 네트워크 커버리지와 데이터 전송량에 따라 토큰을 보상으로 받습니다. 기존 통신사들은 이러한 비용 구조와 경쟁할 수 없습니다.

Render Network는 AI 및 크리에이티브 산업에서 DePIN의 잠재력을 입증합니다. 7억 7천만 달러의 시가총액을 보유한 Render는 2025년 7월 한 달 동안에만 149만 개 이상의 렌더링 프레임을 처리했으며, 수수료로 207,900 USDC를 소각했습니다. 아티스트와 AI 연구원들은 게이밍 장비나 채굴장의 유휴 GPU 용량을 활용하여, 중앙 집중식 클라우드 렌더링 서비스에 비해 훨씬 저렴한 비용으로 서비스를 이용합니다.

Grass는 300만 명 이상의 사용자를 보유한 솔라나에서 가장 빠르게 성장하는 DePIN으로, AI 학습 데이터셋을 위해 사용되지 않는 대역폭을 수익화합니다. 사용자는 유휴 인터넷 연결을 제공하여 토큰을 획득하고, 기업들은 대규모 언어 모델을 위해 웹 데이터를 수집합니다. 이는 풍부하지만 제대로 활용되지 않는 리소스(주거용 대역폭)를 분산 데이터 수집을 위해 프리미엄을 지불할 의사가 있는 기업용 패키지로 만드는 대규모 인프라 차익 거래입니다.

기업 도입: CFO가 무시할 수 없는 50-85%의 비용 절감

파일럿 프로그램에서 실제 프로덕션 배포로의 전환은 2025년에 급격히 가속화되었습니다. 통신사, 클라우드 제공업체, 에너지 기업들은 단순히 DePIN을 실험하는 데 그치지 않고 이를 핵심 운영에 통합하고 있습니다.

무선 인프라 분야에서는 현재 전 세계적으로 500만 개 이상의 탈중앙화 라우터가 등록되어 있습니다. 한 포춘 500대 통신사는 DePIN 기반 연결 서비스 고객이 23% 증가했다고 기록하며, 경제성과 신뢰성만 확보된다면 기업들이 탈중앙화 모델을 채택할 것임을 증명했습니다. T-Mobile이 농촌 지역의 네트워크 커버리지를 보완하기 위해 Helium과 파트너십을 맺은 사례는 기존 기업들이 전통적인 자본 지출로는 정당화하기 어려운 '라스트 마일' 문제를 해결하기 위해 어떻게 DePIN을 활용하고 있는지 잘 보여줍니다.

통신 부문은 실존적 압박에 직면해 있습니다. 기지국 구축과 주파수 라이선스를 위한 자본 지출이 이익률을 압박하는 반면, 고객들은 보편적인 커버리지를 요구합니다. 통신 분야의 블록체인 시장은 2024년 10.7억 달러에서 2030년 72.5억 달러로 성장할 것으로 예상됩니다. 이는 통신사들이 직접 인프라를 구축하는 것보다 개인들에게 인프라 구축 인센티브를 제공하는 것이 더 저렴하다는 사실을 깨닫고 있기 때문입니다.

Cloud compute는 더 큰 기회를 제공합니다. Nvidia의 지원을 받는 brev.dev 및 기타 DePIN 컴퓨팅 제공업체들은 AWS, Google Cloud 또는 Azure보다 2~3배 저렴한 비용으로 기업용 AI 워크로드를 서비스하고 있습니다. 2026년까지 추론 워크로드가 전체 AI 컴퓨팅의 2/3를 차지할 것으로 예상됨에 따라 (2023년 1/3에서 증가), 비용 효율적인 GPU 용량에 대한 수요는 더욱 거세질 것입니다. 탈중앙화 네트워크는 게이밍 PC, 채굴 작업 및 활용도가 낮은 데이터 센터 등 중앙 집중식 클라우드가 접근할 수 없는 곳에서 GPU를 소싱할 수 있습니다.

에너지 그리드는 아마도 DePIN의 가장 혁신적인 유스케이스일 것입니다. 중앙 집중식 전력망은 지역 수준에서 공급과 수요를 조절하는 데 어려움을 겪으며 효율성 저하와 정전을 초래합니다. 탈중앙화 에너지 네트워크는 블록체인 조정을 통해 개인이 소유한 태양광 패널, 배터리 및 계량기의 생산량을 추적합니다. 참가자들은 전력을 생산하고, 남는 전력을 이웃과 공유하며 기여도에 따라 토큰을 받습니다. 그 결과 전력망의 복원력이 향상되고, 에너지 낭비가 줄어들며, 재생 에너지 도입을 위한 재정적 인센티브가 제공됩니다.

AI 인프라: 스택을 재정의하는 48 %

DePIN 시가총액의 거의 절반이 이제 AI 인프라에 집중하고 있으며, 이는 컴퓨팅 집약적인 워크로드가 처리되는 방식을 재정립하는 융합입니다. 2025년 2분기 AI 인프라 스토리지 지출은 전년 대비 20.5 % 성장했으며, 지출의 48 %가 클라우드 배포에서 발생했습니다. 하지만 중앙 집중식 클라우드는 수요가 폭발함에 따라 용량 제한에 부딪히고 있습니다.

글로벌 데이터 센터 GPU 시장은 2024년에 144.8억 달러 규모였으며 2032년까지 1,552억 달러에 도달할 것으로 예상됩니다. 그러나 Nvidia는 수요를 거의 따라가지 못하고 있으며, 이로 인해 H100 및 H200 칩의 리드 타임이 6 ~ 12개월에 달하고 있습니다. DePIN 네트워크는 80 ~ 90 %의 시간 동안 유휴 상태인 소비자 및 기업용 GPU를 집계함으로써 이러한 병목 현상을 우회합니다.

훈련 완료 후 프로덕션에서 AI 모델을 실행하는 추론 워크로드(Inference workloads)는 가장 빠르게 성장하는 부문입니다. 2025년 투자의 대부분이 훈련용 칩에 집중되었지만, 기업들이 모델 개발에서 대규모 배포로 전환함에 따라 추론 최적화 칩 시장은 2026년에 500억 달러를 넘어설 것으로 예상됩니다. DePIN 컴퓨팅 네트워크는 워크로드가 고도로 병렬화 가능하고 지연 시간에 관대하기 때문에 추론에 탁월하며, 이는 분산형 인프라에 완벽하게 부합합니다.

Render, Akash, Aethir와 같은 프로젝트는 중앙 집중식 클라우드가 따라올 수 없는 부분적인 GPU 액세스, 스팟 가격 책정 및 지리적 분산을 제공함으로써 이러한 수요를 흡수하고 있습니다. AI 스타트업은 주말 배치 작업을 위해 100개의 GPU를 가동하고 최소 약정이나 기업 계약 없이 사용한 만큼만 비용을 지불할 수 있습니다. 하이퍼스케일러에게 그것은 마찰이지만, DePIN에게 그것은 전체 가치 제안입니다.

성장을 주도하는 카테고리

DePIN은 물리적 자원 네트워크(무선 타워, 에너지 그리드, 센서와 같은 하드웨어)와 디지털 자원 네트워크(컴퓨팅, 대역폭, 스토리지)라는 두 가지 기본 카테고리로 나뉩니다. 두 분야 모두 폭발적인 성장을 경험하고 있지만, 디지털 자원은 배포 장벽이 낮아 더 빠르게 확장되고 있습니다.

스토리지 네트워크인 Filecoin과 같은 프로젝트는 사용자가 사용하지 않는 하드드라이브 공간을 임대할 수 있게 하여 AWS S3 및 Google Cloud Storage에 대한 분산형 대안을 만듭니다. 가치 제안은 더 낮은 비용, 지리적 이중화, 단일 장애점(single-point failures)에 대한 저항성입니다. 기업들은 중앙 집중식 클라우드 송출 수수료가 연간 수백만 달러에 달할 수 있는 아카이브 데이터 및 백업 유스케이스에 Filecoin을 시범적으로 도입하고 있습니다.

컴퓨팅 자원은 GPU 렌더링(Render), 범용 컴퓨팅(Akash), AI 추론(Aethir)에 걸쳐 있습니다. Akash는 Kubernetes 배포를 위한 개방형 마켓플레이스를 운영하여 개발자가 전 세계의 저활용 서버에서 컨테이너를 가동할 수 있도록 합니다. 비용 절감 효과는 워크로드 유형 및 가용성 요구 사항에 따라 AWS와 비교했을 때 30 %에서 85 %에 달합니다.

무선 네트워크인 Helium과 World Mobile Token은 서비스가 부족한 시장의 연결성 격차를 해결하고 있습니다. World Mobile은 잔지바르에 분산형 모바일 네트워크를 구축하여 600미터 반경 내의 500명에게 인터넷을 제공하는 동시에 Fulham FC 경기를 스트리밍했습니다. 이것들은 개념 증명이 아니라, 전통적인 ISP가 불리한 경제성 때문에 운영을 거부하는 지역에서 실제 사용자에게 서비스를 제공하는 프로덕션 네트워크입니다.

에너지 네트워크는 블록체인을 사용하여 분산된 발전과 소비를 조정합니다. 태양광 패널 소유자는 남는 전기를 이웃에게 판매합니다. 전기차 소유자는 충전 시간을 전력 수요가 적은 시간대로 조정하여 그리드 안정화를 돕고, 이러한 유연성에 대한 보상으로 토큰을 얻습니다. 유틸리티 기업은 고가의 스마트 미터기와 제어 시스템을 배포하지 않고도 지역 공급과 수요에 대한 실시간 가시성을 확보합니다. 이는 블록체인의 신뢰가 필요 없는 결제 레이어 없이는 존재할 수 없는 인프라 조정입니다.

192억 달러에서 3.5조 달러로: 그곳에 도달하기 위해 필요한 것

세계경제포럼(WEF)의 2028년 3.5조 달러 전망은 단순한 낙관적 추측이 아닙니다. 이는 DePIN이 대규모로 입증되었을 때 도달 가능한 시장이 얼마나 거대한지를 반영합니다. 글로벌 통신 인프라 지출은 연간 1.5조 달러를 초과합니다. 클라우드 컴퓨팅은 6,000억 달러 이상의 시장입니다. 에너지 인프라는 수조 달러의 자본 지출을 나타냅니다.

DePIN은 이러한 산업을 대체할 필요가 없습니다. 우월한 경제성을 제공함으로써 시장 점유율의 10 ~ 20 %만 확보하면 됩니다. DePIN은 전통적인 인프라 모델을 뒤집기 때문에 수학적으로 작동합니다. 기업이 네트워크를 구축하기 위해 수십억 달러를 조달하고 수십 년에 걸쳐 비용을 회수하는 대신, DePIN은 개인이 미리 인프라를 배포하도록 인센티브를 제공하고 용량을 기여함에 따라 토큰을 벌게 합니다. 이는 크라우드소싱된 자본 지출이며, 중앙 집중식 구축보다 훨씬 빠르게 확장됩니다.

하지만 3.5조 달러에 도달하려면 세 가지 과제를 해결해야 합니다.

규제 명확성. 통신과 에너지는 규제가 엄격한 산업입니다. DePIN 프로젝트는 주파수 라이선스(무선), 상호 접속 계약(에너지), 데이터 거주 요건(컴퓨팅 및 스토리지)을 탐색해야 합니다. 아프리카와 라틴 아메리카의 정부들이 연결성 격차를 해소하기 위해 DePIN을 수용하면서 진전이 이루어지고 있지만, 미국과 EU와 같은 성숙한 시장은 더 느리게 움직입니다.

기업의 신뢰. 포춘 500대 기업은 신뢰성이 중앙 집중식 대안과 일치하거나 이를 초과할 때까지 미션 크리티컬 워크로드를 DePIN으로 이전하지 않을 것입니다. 이는 가동 시간 보장, SLA, 장애에 대한 보험, 24/7 지원을 의미하며, 이는 많은 DePIN 프로젝트에 여전히 부족한 기업 IT의 기본 요구 사항입니다. 승자는 토큰 가격보다 운영 성숙도를 우선시하는 프로젝트가 될 것입니다.

토큰 경제학(Token economics). 초기 DePIN 프로젝트는 지속 불가능한 토큰노믹스로 고통받았습니다. 시장에 쏟아지는 인플레이션 보상, 유용한 작업보다 시빌 공격(Sybil attacks)에 보상하는 잘못된 인센티브, 네트워크 펀더멘털과 무관한 투기 주도의 가격 변동 등이 그 예입니다. 차세대 DePIN 프로젝트는 이러한 실수로부터 배우고 있으며, 매출과 연계된 소각 메커니즘, 기여자를 위한 베스팅 일정, 장기적인 지속 가능성을 우선시하는 거버넌스를 구현하고 있습니다.

BlockEden.xyz 빌더가 관심을 가져야 하는 이유

블록체인에서 빌딩을 하고 있다면, DePIN은 암호화폐 역사상 가장 명확한 제품 시장 적합성 (Product-Market Fit) 중 하나를 나타냅니다. DeFi의 규제 불확실성이나 NFT의 투기적 주기와 달리, DePIN은 측정 가능한 ROI를 통해 실제 문제를 해결합니다. 기업은 더 저렴한 인프라를 필요로 하고, 개인은 활용되지 않는 자산을 보유하고 있습니다. 블록체인은 신뢰가 필요 없는 (trustless) 조정과 정산을 제공하며, 모든 요소가 완벽하게 맞물립니다.

개발자들에게 있어 기회는 DePIN을 기업에서 즉시 사용할 수 있도록 만드는 미들웨어를 구축하는 데 있습니다. 모니터링 및 관측 도구, SLA 준수 스마트 컨트랙트, 노드 운영자를 위한 평판 시스템, 가동 시간 보장을 위한 보험 프로토콜, 그리고 지리적 경계를 넘어 즉시 정산되는 결제 레일 등이 포함됩니다.

여러분이 오늘 구축하는 인프라는 2028년의 탈중앙화 인터넷을 뒷받침할 수 있습니다. Helium이 모바일 연결을 처리하고, Render가 AI 추론을 처리하며, Filecoin이 전 세계의 아카이브를 저장하고, Akash가 이 모든 것을 조율하는 컨테이너를 실행하는 세상입니다. 이것은 단순한 암호화폐 미래주의가 아니라, Fortune 500대 기업들이 이미 시범 운영하고 있는 로드맵입니다.

출처

Ambient의 720만 달러 규모 승부수: Proof of Logits가 어떻게 해시 기반 채굴을 AI 추론으로 대체할 수 있는가

· 약 17 분
Dora Noda
Software Engineer

블록체인을 보호하는 동일한 연산 작업이 차세대 AI 모델을 훈련시킨다면 어떨까요? 이것은 먼 미래의 비전이 아닙니다. 최근 a16z CSX 로부터 720만 달러를 투자 유치하며 세계 최초의 AI 기반 작업 증명(Proof-of-Work) 블록체인을 구축하고 있는 솔라나(Solana) 포크인 Ambient 의 핵심 이론입니다.

전통적인 작업 증명은 임의의 암호학적 퍼즐을 풀기 위해 전기를 소모합니다. 비트코인 채굴자들은 네트워크 보안 외에는 가치가 없는 연산 작업인, 선행 제로(leading zeros)가 충분한 해시를 찾기 위해 경쟁합니다. Ambient 는 이 시나리오를 완전히 뒤집습니다. Ambient 의 Proof of Logits (PoL) 합의 메커니즘은 해시 반복 연산(hash grinding)을 AI 추론, 미세 조정(fine-tuning) 및 모델 학습으로 대체합니다. 채굴자는 퍼즐을 풀지 않고 검증 가능한 AI 결과물을 생성합니다. 검증자는 전체 워크로드를 다시 계산하지 않고 로짓(logits)이라고 불리는 암호학적 지문을 확인합니다.

그 결과는 무엇일까요? 보안과 AI 발전이 경제적으로 일치하며, 0.1% 의 검증 오버헤드로 합의 확인이 거의 무료에 가까워지고, 중앙 집중식 대안에 비해 학습 비용이 10배나 절감되는 블록체인입니다. 성공한다면 Ambient 는 채굴을 생산적인 AI 노동으로 전환함으로써, 작업 증명이 자원을 낭비한다는 암호화폐의 가장 오래된 비판 중 하나에 답할 수 있을 것입니다.

Proof of Logits 의 돌파구: 재계산 없는 검증 가능한 AI

PoL 을 이해하려면 로짓(logits)이 실제로 무엇인지 알아야 합니다. 대규모 언어 모델(LLM)이 텍스트를 생성할 때 단어를 직접 출력하지 않습니다. 대신 각 단계에서 전체 어휘에 대한 확률 분포, 즉 가능한 모든 다음 토큰에 대한 신뢰 수준을 나타내는 수치 점수를 생성합니다.

이러한 점수를 로짓이라고 합니다. 5만 개의 토큰 어휘를 가진 모델에서 단어 하나를 생성한다는 것은 5만 개의 로짓을 계산하는 것을 의미합니다. 이 숫자들은 고유한 연산 지문 역할을 합니다. 특정 가중치를 가진 특정 모델이 특정 입력을 처리할 때만 특정 로짓 분포가 생성됩니다.

Ambient 의 혁신은 로짓을 작업 증명(proof-of-work)으로 사용하는 것입니다. 채굴자는 AI 추론(프롬프트에 대한 응답 생성)을 수행하고, 검증자는 전체 계산을 다시 수행하는 대신 로짓 지문을 확인하여 이 작업을 검증합니다.

검증 프로세스는 다음과 같이 진행됩니다:

채굴자의 결과물 생성: 채굴자는 프롬프트(예: "블록체인 합의 원칙 요약")를 받고 6,000억 개의 매개변수 모델을 사용하여 4,000개 토큰 분량의 응답을 생성합니다. 이는 4,000 × 50,000 = 2억 개의 로짓을 생성합니다.

검증자의 지점 확인(Spot-check) 검증: 검증자는 4,000개 토큰을 모두 다시 생성하는 대신 임의의 위치(예: 2,847번째 토큰)를 샘플링합니다. 검증자는 해당 위치에서 단일 추론 단계를 실행하고 채굴자가 보고한 로짓을 예상 분포와 비교합니다.

암호학적 약속(Cryptographic commitment): 부동 소수점 정밀도를 고려한 허용 범위 내에서 로짓이 일치하면 채굴자의 작업이 검증됩니다. 일치하지 않으면 블록이 거부되고 채굴자는 보상을 몰수당합니다.

이를 통해 검증 오버헤드가 원래 계산의 약 0.1% 로 줄어듭니다. 2억 개의 로짓을 확인하는 검증자는 5만 개의 로짓(토큰 위치 1개)만 확인하면 되므로 비용을 99.9% 절감할 수 있습니다. 이는 검증이 전체 해시 함수를 다시 실행하는 것을 의미하는 전통적인 PoW 방식이나, 퍼즐 자체가 임의적이기 때문에 단일 SHA-256 해시를 확인하는 것이 사소한 비트코인의 방식과 대조됩니다.

Ambient 의 시스템은 모든 작업을 다시 계산해야 하는 단순한 "유용 작업 증명(proof of useful work)" 방식보다 기하급수적으로 저렴합니다. 이는 비트코인의 효율성(저렴한 검증)에 더 가까우면서도 실제 유용성(무의미한 해시 대신 AI 추론)을 제공합니다.

10배의 학습 비용 절감: 데이터 센터 독점 없는 탈중앙화 AI

중앙 집중식 AI 학습은 비용이 많이 듭니다. 대부분의 조직에는 감당하기 어려운 수준입니다. GPT-4 규모의 모델을 학습하는 데는 수천만 달러가 소요되고 수천 개의 기업용 GPU 가 필요하며, 소수의 거대 IT 기업의 손에 권력이 집중됩니다. Ambient 의 아키텍처는 독립적인 채굴자 네트워크에 학습을 분산함으로써 이를 민주화하는 것을 목표로 합니다.

10배의 비용 절감은 두 가지 기술 혁신에서 비롯됩니다:

PETALS 방식의 샤딩: Ambient 는 각 노드가 대규모 모델의 샤드(shard)만 저장하는 탈중앙화 추론 시스템인 PETALS 의 기술을 채택했습니다. 채굴자가 6,000억 개의 매개변수 모델 전체를 보유(수 테라바이트의 VRAM 필요)하는 대신, 각 채굴자는 레이어의 일부 세트만 소유합니다. 프롬프트는 네트워크를 통해 순차적으로 흐르며, 각 채굴자는 자신의 샤드를 처리하고 활성화 값(activations)을 다음 채굴자에게 전달합니다.

이는 단일 소비자 등급 GPU(24GB VRAM)를 가진 채굴자도 데이터 센터에 수백 개의 GPU 가 필요한 모델 학습에 참여할 수 있음을 의미합니다. 연산 그래프를 수백 또는 수천 개의 노드에 분산함으로써 Ambient 는 기존 ML 클러스터에서 사용되는 InfiniBand 와 같은 비싼 고대역폭 인터커넥트의 필요성을 제거합니다.

SLIDE 에서 영감을 받은 희소성(Sparsity): 대부분의 신경망 계산은 대부분의 항목이 0에 가까운 행렬 곱셈을 포함합니다. SLIDE (Sub-LInear Deep learning Engine) 는 활성화 값을 해싱하여 주어진 입력에 대해 실제로 중요한 뉴런을 식별함으로써 관련 없는 계산을 완전히 건너뛰어 이를 활용합니다.

Ambient 는 이 희소성을 분산 학습에 적용합니다. 모든 채굴자가 모든 데이터를 처리하는 대신, 네트워크는 현재 배치와 관련된 샤드를 가진 노드로 작업을 동적으로 라우팅합니다. 이는 분산 ML 의 주요 병목 현상인 통신 오버헤드를 줄이고, 성능이 낮은 하드웨어를 가진 채굴자도 희소 서브그래프를 처리함으로써 참여할 수 있게 합니다.

이러한 조합은 Ambient 가 주장하길 DiLoCo 나 Hivemind 와 같은 기존 분산 학습 프로젝트보다 10배 더 나은 처리량을 제공합니다. 더 중요한 것은 진입 장벽을 낮춘다는 점입니다. 채굴자는 데이터 센터 급의 인프라가 필요하지 않으며, 괜찮은 GPU 를 갖춘 게이밍 PC 만으로도 기여하기에 충분합니다.

Solana 포크 아키텍처: 높은 TPS와 비차단 PoW의 만남

Ambient는 처음부터 모든 것을 구축하지 않습니다. Ambient는 Solana의 완전한 포크로서, Solana 가상 머신 (SVM), 역사 증명 (PoH) 타임스탬프 및 Gulf Stream 멤풀 포워딩을 상속받습니다. 이를 통해 Ambient는 Solana의 65,000 TPS라는 이론적 처리량과 1초 미만의 최종성(finality)을 확보합니다.

하지만 Ambient는 한 가지 중요한 수정을 가했습니다. 바로 Solana의 합의 알고리즘 위에 비차단 작업 증명(non-blocking proof-of-work) 레이어를 추가한 것입니다.

하이브리드 합의 방식은 다음과 같이 작동합니다:

역사 증명(PoH)을 통한 트랜잭션 정렬: Solana의 PoH는 암호학적 시계를 제공하여 글로벌 합의를 기다리지 않고 트랜잭션을 정렬합니다. 이를 통해 여러 코어에서 병렬 실행이 가능해집니다.

로짓 증명(Proof of Logits)을 통한 체인 보안: 채굴자들은 유효한 AI 추론 출력을 생성하기 위해 경쟁합니다. 블록체인은 가장 가치 있는 AI 작업(추론 복잡도, 모델 크기 또는 스테이킹된 평판으로 측정)을 생성한 채굴자의 블록을 수락합니다.

비차단 통합: 유효한 PoW가 발견될 때까지 블록 생성이 중단되는 비트코인과 달리, Ambient의 PoW는 비동기적으로 작동합니다. 검증자(Validator)가 트랜잭션을 계속 처리하는 동안 채굴자는 AI 작업을 제출하기 위해 경쟁합니다. 이는 PoW가 병목 현상이 되는 것을 방지합니다.

그 결과, Ambient는 낮은 지연 시간의 추론이 필요한 AI 애플리케이션에 필수적인 Solana의 속도를 유지하는 동시에 추론, 미세 조정(fine-tuning), 학습 등 핵심 네트워크 활동에서의 경제적 경쟁을 보장하는 블록체인이 되었습니다.

이 설계는 또한 "유용한 작업(useful work)" 합의와 관련한 이더리움의 초기 실수를 방지합니다. Primecoin과 Gridcoin은 과학적 계산을 PoW로 사용하려 했으나 치명적인 결함에 직면했습니다. 유용한 작업은 난이도가 균등하지 않다는 점입니다. 어떤 문제는 해결하기는 쉽지만 검증하기는 어렵고, 어떤 문제는 불공정하게 병렬화하기 쉽습니다. Ambient는 로짓 검증을 계산적으로 저렴하고 표준화함으로써 이 문제를 우회합니다. 모든 추론 작업은 복잡도에 관계없이 동일한 스팟 체킹(spot-checking) 알고리즘으로 검증될 수 있습니다.

온체인 AGI 학습 경쟁: 다른 경쟁자는 누구인가?

블록체인 네이티브 AI를 목표로 하는 것은 Ambient뿐만이 아닙니다. 머신러닝의 탈중앙화를 주장하는 프로젝트들이 많지만, 검증 가능한 온체인 학습을 제공하는 프로젝트는 거의 없습니다. Ambient와 주요 경쟁업체를 비교하면 다음과 같습니다:

인공 초지능 연합 (ASI): Fetch.AI, SingularityNET, Ocean Protocol의 합병으로 결성된 ASI는 탈중앙화된 AGI 인프라에 집중합니다. ASI 체인은 동시 에이전트 실행과 보안 모델 트랜잭션을 지원합니다. Ambient의 PoW 방식과 달리 ASI는 개발자가 컴퓨팅 크레딧을 지불하는 마켓플레이스 모델에 의존합니다. 이는 추론에는 적합하지만, 학습을 위한 인센티브 구조와는 일치하지 않습니다. 채굴자들은 사전에 명시적인 보상이 없다면 값비싼 GPU 시간을 제공할 이유가 없기 때문입니다.

AIVM (ChainGPT): ChainGPT의 AIVM 로드맵은 2026년 메인넷 출시를 목표로 하며, 오프체인 GPU 자원을 온체인 검증과 통합합니다. 그러나 AIVM의 검증은 낙관적 롤업(도전이 없는 한 정확하다고 가정)에 의존하므로 사기 증명(fraud-proof)으로 인한 지연이 발생합니다. Ambient의 로짓 체킹은 결정론적입니다. 검증자는 작업의 유효성 여부를 즉시 알 수 있습니다.

인터넷 컴퓨터 (ICP): Dfinity의 인터넷 컴퓨터는 외부 클라우드 인프라 없이 온체인에서 대형 모델을 네이티브하게 호스팅할 수 있습니다. 하지만 ICP의 캐니스터(canister) 아키텍처는 학습에 최적화되어 있지 않으며, 추론과 스마트 컨트랙트 실행을 위해 설계되었습니다. Ambient의 PoW는 지속적인 모델 개선을 경제적으로 장려하는 반면, ICP는 개발자가 외부에서 학습을 관리해야 합니다.

비텐서 (Bittensor): 비텐서는 전문화된 체인들이 서로 다른 AI 작업(텍스트 생성, 이미지 분류 등)을 학습하는 서브넷 모델을 사용합니다. 채굴자들은 모델 가중치(weights)를 제출하여 경쟁하고, 검증자들은 성능에 따라 순위를 매깁니다. 비텐서는 탈중앙화 추론에는 뛰어나지만 학습 조율에는 어려움을 겪습니다. 통합된 글로벌 모델이 없으며 독립적인 서브넷들의 집합일 뿐이기 때문입니다. Ambient의 방식은 단일 PoW 메커니즘 하에서 학습을 통합합니다.

Lightchain Protocol AI: Lightchain의 백서는 노드가 트랜잭션을 검증하기 위해 AI 작업을 수행하는 지능 증명(PoI)을 제안합니다. 그러나 Lightchain의 합의 방식은 여전히 이론적인 수준에 머물러 있으며, 테스트넷 출시 발표도 없습니다. 반면 Ambient는 2025년 2분기 또는 3분기 테스트넷 출시를 계획하고 있습니다.

Ambient의 Edge는 검증 가능한 AI 작업과 Solana의 검증된 고처리량 아키텍처를 결합한 데 있습니다. 대부분의 경쟁업체는 탈중앙화(온체인 검증을 동반한 중앙 집중식 학습)를 희생하거나 성능(사기 증명을 기다리는 느린 합의)을 희생합니다. Ambient의 로짓 기반 PoW는 두 가지를 모두 제공합니다. 즉, 즉각적인 검증이 가능한 탈중앙화 학습입니다.

경제적 인센티브: 비트코인 블록처럼 AI 모델 채굴하기

Ambient의 경제 모델은 비트코인의 모델(예측 가능한 블록 보상 + 트랜잭션 수수료)을 반영합니다. 하지만 비어 있는 블록을 채굴하는 대신, 채굴자는 애플리케이션이 소비할 수 있는 AI 출력을 생성합니다.

인센티브 구조는 다음과 같이 작동합니다:

인플레이션 기반 보상: 초기 채굴자들은 AI 추론, 미세 조정 또는 학습에 기여한 대가로 블록 보조금(새로 발행된 토큰)을 받습니다. 비트코인의 반감기 일정과 마찬가지로 보조금은 시간이 지남에 따라 감소하여 장기적인 희소성을 보장합니다.

트랜잭션 기반 수수료: 애플리케이션은 AI 서비스(추론 요청, 모델 미세 조정 또는 학습된 가중치에 대한 접근)에 대해 비용을 지불합니다. 이러한 수수료는 작업을 수행한 채굴자에게 돌아가며, 보조금이 줄어들더라도 지속 가능한 수익 모델을 창출합니다.

평판 스테이킹: 시빌 공격(보상을 받기 위해 저품질 작업을 제출하는 채굴자)을 방지하기 위해 Ambient는 평판 스테이킹을 도입합니다. 채굴자는 참여를 위해 토큰을 잠금(lock)해야 하며, 유효하지 않은 로짓을 생성하면 슬래싱(slashing) 처리가 됩니다. 이는 채굴자가 시스템을 속이는 대신 정확하고 유용한 AI 출력을 생성하여 이익을 극대화하도록 인센티브를 일치시킵니다.

적절한 하드웨어 접근성: ASIC 팜이 지배하는 비트코인과 달리, Ambient의 PETALS 샤딩을 사용하면 일반 소비자용 GPU로도 참여할 수 있습니다. RTX 4090(24GB VRAM, 약 $1,600) 한 대를 가진 채굴자도 샤드를 소유함으로써 6,000억 개의 파라미터를 가진 모델 학습에 기여할 수 있습니다. 이는 수백만 달러 규모의 데이터 센터 없이도 접근을 민주화합니다.

이 모델은 탈중앙화 AI의 고질적인 문제인 무임승차 문제(free-rider problem)를 해결합니다. 전통적인 PoS 체인에서는 검증자가 자본을 스테이킹하지만 컴퓨팅에 기여하지는 않습니다. Ambient에서 채굴자는 실제 AI 작업에 기여함으로써 네트워크의 효용이 보안 예산에 비례하여 성장하도록 보장합니다.

270억 달러 규모의 AI 에이전트 부문: 2026년이 변곡점인 이유

Ambient의 타이밍은 광범위한 시장 트렌드와 일치합니다. AI 에이전트 암호화폐 부문은 온체인 자산을 관리하고 거래를 실행하며 프로토콜 전반에 걸쳐 조율하는 자율 프로그램에 힘입어 270억 달러의 가치로 평가받고 있습니다.

하지만 오늘날의 에이전트는 신뢰 문제에 직면해 있습니다. 대부분은 중앙 집중식 AI API(OpenAI, Anthropic, Google)에 의존합니다. 1,000만 달러 규모의 DeFi 포지션을 관리하는 에이전트가 의사 결정을 위해 GPT-4를 사용한다면, 사용자는 해당 모델이 조작되거나 검열되거나 편향되지 않았다는 보장을 받을 수 없습니다. 에이전트가 자율적으로 행동했음을 증명하는 감사 추적도 없습니다.

Ambient는 온체인 검증을 통해 이 문제를 해결합니다. 모든 AI 추론(Inference)은 블록체인에 기록되며, 로짓(logits)을 통해 사용된 정확한 모델과 입력을 증명합니다. 애플리케이션은 다음과 같은 작업을 수행할 수 있습니다.

에이전트 의사 결정 감사: DAO는 재무 관리 에이전트가 비밀리에 수정된 버전이 아닌 커뮤니티에서 승인한 특정 모델을 사용했는지 확인할 수 있습니다.

규제 준수 강제: 규제 대상인 DeFi 프로토콜은 에이전트가 온체인에서 증명 가능한 검증된 안전 가드레일이 있는 모델을 사용하도록 요구할 수 있습니다.

AI 마켓플레이스 활성화: 개발자는 미세 조정된 모델을 NFT로 판매할 수 있으며, Ambient는 학습 데이터와 가중치에 대한 암호화 증명을 제공합니다.

이를 통해 Ambient는 차세대 자율 에이전트를 위한 인프라로 자리매김합니다. "AI, 블록체인, 결제가 하나의 자기 조율 인터넷으로 수렴"하는 2026년이 전환점으로 떠오름에 따라, Ambient의 검증 가능한 AI 레이어는 핵심적인 기반 시설(Critical plumbing)이 될 것입니다.

기술적 리스크 및 미해결 과제

Ambient의 비전은 야심차지만, 몇 가지 기술적 과제가 여전히 해결되지 않은 상태로 남아 있습니다.

결정론 및 부동 소수점 드리프트: AI 모델은 부동 소수점 연산을 사용하는데, 이는 하드웨어 간에 완전히 결정론적(Deterministic)이지 않습니다. NVIDIA A100에서 실행되는 모델은 AMD MI250에서 실행되는 동일한 모델과 약간 다른 로짓을 생성할 수 있습니다. 검증자가 사소한 수치적 드리프트로 인해 블록을 거부하면 네트워크가 불안정해집니다. Ambient는 타이트한 허용 오차 범위가 필요하지만, 너무 타이트하면 서로 다른 하드웨어를 사용하는 채굴자가 부당하게 처벌을 받게 됩니다.

모델 업데이트 및 버전 관리: Ambient가 글로벌 모델을 협업하여 학습시킨다면 업데이트는 어떻게 처리할까요? 비트코인에서는 모든 노드가 동일한 합의 규칙을 실행합니다. Ambient에서는 채굴자가 모델을 지속적으로 미세 조정합니다. 네트워크의 절반이 버전 2.0으로 업데이트하고 나머지 절반이 1.9에 머물면 검증이 중단됩니다. 백서에는 모델 버전 관리 및 하위 호환성이 어떻게 작동하는지 자세히 설명되어 있지 않습니다.

프롬프트 다양성 및 작업 표준화: 비트코인의 PoW는 균일합니다. 모든 채굴자가 동일한 유형의 문제를 해결합니다. Ambient의 PoW는 다양합니다. 어떤 채굴자는 수학 문제에 답하고, 어떤 채굴자는 코드를 작성하며, 어떤 채굴자는 문서를 요약합니다. 검증자는 서로 다른 작업의 "가치"를 어떻게 비교할까요? 한 채굴자가 10,000개의 무의미한 토큰을 생성(쉬움)하고 다른 채굴자가 어려운 데이터셋에서 모델을 미세 조정(비쌈)한다면 누구에게 더 많은 보상을 주어야 할까요? Ambient에는 비트코인의 해시 난이도와 유사하게 AI 작업을 위한 난이도 조정 알고리즘이 필요하지만, "추론 난이도"를 측정하는 것은 결코 쉬운 일이 아닙니다.

분산 학습의 지연 시간: PETALS 방식의 샤딩은 추론(순차적 레이어 처리)에는 잘 작동하지만, 학습에는 네트워크를 통해 그래디언트가 역방향으로 흐르는 역전파(Backpropagation)가 필요합니다. 레이어가 다양한 네트워크 지연 시간을 가진 노드에 분산되어 있다면 그래디언트 업데이트가 병목 현상이 됩니다. Ambient는 10배의 처리량 향상을 주장하지만, 실제 성능은 네트워크 토폴로지와 채굴자 분포에 따라 달라집니다.

모델 호스팅의 중앙화 리스크: 소수의 노드만이 가장 가치 있는 모델 샤드(예: 6,000억 개 파라미터 모델의 최종 레이어)를 호스팅할 여력이 있다면, 이들이 불균형적인 영향력을 갖게 됩니다. 검증자는 연결 상태가 좋은 노드에 우선적으로 작업을 라우팅할 수 있으며, 이는 탈중앙화된 네트워크 내에서 데이터 센터의 중앙화를 재현할 수 있습니다.

이것들은 치명적인 결함이라기보다는 모든 블록체인-AI 프로젝트가 직면하는 엔지니어링 과제입니다. 하지만 2025년 2분기/3분기에 출시될 Ambient의 테스트넷은 이론이 실제 환경에서 유효한지 보여줄 것입니다.

다음 단계: 테스트넷, 메인넷 및 AGI 엔드게임

Ambient의 로드맵은 2025년 2분기/3분기 테스트넷 출시를 목표로 하며, 2026년에 메인넷이 뒤따를 예정입니다. a16z CSX, Delphi Digital, Amber Group으로부터 유치한 720만 달러의 시드 라운드는 핵심 개발을 위한 자금을 제공하지만, 프로젝트의 장기적인 성공은 생태계 채택에 달려 있습니다.

주요 관전 포인트:

테스트넷 채굴 참여: 얼마나 많은 채굴자가 네트워크에 참여할까요? Ambient가 수천 명의 GPU 소유자를 끌어들인다면(초기 이더리움 채굴처럼), 경제 모델이 작동함을 증명하는 것입니다. 소수의 엔티티만 채굴한다면 중앙화 리스크를 시사합니다.

모델 성능 벤치마크: Ambient로 학습된 모델이 OpenAI나 Anthropic과 경쟁할 수 있을까요? 탈중앙화된 6,000억 개 파라미터 모델이 GPT-4 수준의 품질을 달성한다면 전체 접근 방식의 타당성이 입증됩니다. 성능이 크게 뒤처지면 개발자들은 중앙 집중식 API를 계속 사용할 것입니다.

애플리케이션 통합: 어떤 DeFi 프로토콜, DAO 또는 AI 에이전트가 Ambient 기반으로 구축될까요? 가치 제안은 실제 애플리케이션이 온체인 AI 추론을 소비할 때만 실현됩니다. 초기 사용 사례는 다음과 같습니다.

  • 증명 가능한 의사 결정 로직을 가진 자율 거래 에이전트
  • 탈중앙화된 콘텐츠 모더레이션(AI 모델이 게시물을 필터링하고 온체인에서 감사 가능)
  • 검증 가능한 AI 오라클(온체인 가격 예측 또는 감정 분석)

이더리움 및 코스모스와의 상호 운용성: Ambient는 솔라나 포크이지만, AI 에이전트 경제는 여러 체인에 걸쳐 있습니다. 이더리움(DeFi용) 및 코스모스(ASI와 같은 IBC 연결 AI 체인용)와의 브리지는 Ambient가 고립된 섬이 될지 허브가 될지를 결정할 것입니다.

궁극적인 엔드게임은 야심차게도 그 어떤 단일 엔티티도 모델을 제어하지 않는 탈중앙화된 AGI를 학습시키는 것입니다. 수천 명의 독립적인 채굴자가 모든 학습 단계에 대한 암호화 증명과 함께 슈퍼 인텔리전스 시스템을 협업하여 학습시킨다면, 이는 AGI로 향하는 최초의 진정으로 개방되고 감사 가능한 경로가 될 것입니다.

Ambient가 이를 달성할지 아니면 약속만 거창한 또 다른 암호화폐 프로젝트가 될지는 실행력에 달려 있습니다. 하지만 임의의 암호화 퍼즐을 검증 가능한 AI 작업으로 대체하는 핵심 혁신은 진정한 돌파구입니다. 작업 증명(Proof-of-Work)이 낭비가 아닌 생산적인 것이 될 수 있다면, Ambient가 이를 가장 먼저 증명하게 될 것입니다.

Proof-of-Logits 패러다임의 전환

Ambient의 720만 달러 투자 유치는 단순한 암호화폐 펀딩 라운드가 아닙니다. 이는 블록체인 합의와 AI 학습이 경제적으로 정렬된 단일 시스템으로 통합될 수 있다는 점에 거는 베팅입니다. 그 영향력은 Ambient를 훨씬 넘어 파급될 것입니다.

만약 로짓 기반 검증이 작동한다면, 다른 체인들도 이를 채택할 것입니다. 이더리움은 단순히 ETH를 스테이킹하는 대신 AI 작업에 기여하는 검증자에게 보상을 제공하는 PoS의 대안으로 PoL을 도입할 수 있습니다. 비트코인은 SHA-256 해시 대신 유용한 컴퓨팅을 사용하도록 포크될 수도 있습니다 (물론 비트코인 맥시멀리스트들이 이를 결코 수용하지 않겠지만요).

탈중앙화된 학습이 경쟁력 있는 성능을 달성한다면, OpenAI와 구글은 그들의 해자를 잃게 됩니다. GPU를 가진 사람이라면 누구나 AGI 개발에 기여하고 그 작업에 대한 토큰을 보상으로 받는 세상은 중앙 집중식 AI 과점 체제를 근본적으로 뒤흔들 것입니다.

온체인 AI 검증이 표준이 된다면, 자율 에이전트는 신뢰성을 얻게 됩니다. 사용자는 블랙박스 API를 신뢰하는 대신 온체인에서 정확한 모델과 프롬프트를 검증합니다. 이는 규제된 DeFi, 알고리즘 거버넌스, 그리고 AI 기반 법률 계약의 가능성을 열어줍니다.

Ambient의 승리가 보장된 것은 아닙니다. 하지만 이것은 작업 증명(PoW)을 생산적으로 만들고, AI 학습을 탈중앙화하며, 블록체인 보안을 문명적 진보와 정렬시키려는 시도 중 지금까지 가장 기술적으로 신뢰할 수 있는 시도입니다. 테스트넷 출시는 이론이 현실과 만날지, 아니면 Proof-of-Logits가 야심 찬 합의 실험의 묘지로 향하게 될지를 보여줄 것입니다.

어느 쪽이든, 온체인 AGI를 학습시키기 위한 경쟁은 이제 부정할 수 없는 현실이 되었습니다. 그리고 Ambient는 방금 출발선에 720만 달러를 투입했습니다.


출처:

Gensyn의 Judge: 비트 단위의 정확한 재현성이 불투명한 AI API 시대를 끝내는 방법

· 약 18 분
Dora Noda
Software Engineer

ChatGPT, Claude 또는 Gemini를 쿼리할 때마다 사용자는 보이지 않는 블랙박스를 신뢰하게 됩니다. 모델 버전은? 알 수 없습니다. 정확한 가중치(weights)는? 비공개입니다. 출력이 사용자가 생각하는 모델에 의해 생성되었는지, 아니면 조용히 업데이트된 변형인지 여부? 확인이 불가능합니다. 레시피나 상식을 묻는 일반 사용자에게 이러한 불투명함은 단순히 짜증 나는 일일 뿐입니다. 하지만 금융 거래 알고리즘, 의료 진단, 법률 계약 분석과 같은 고위험 AI 의사 결정에 있어 이는 근본적인 신뢰의 위기입니다.

2025년 말에 출시되어 2026년에 본격적인 운영을 시작하는 Gensyn's Judge는 혁신적인 대안을 제시합니다. 모든 추론을 비트 단위까지 재현할 수 있는 암호학적으로 검증 가능한 AI 평가입니다. OpenAI나 Anthropic이 올바른 모델을 제공한다고 믿는 대신, Judge는 특정하고 사전에 합의된 AI 모델이 실제 데이터에 대해 결정론적으로 실행되었음을 누구나 확인할 수 있게 하며, 암호화 증명을 통해 결과가 조작되지 않았음을 보장합니다.

기술적 돌파구는 AI 재현성의 골칫거리인 부동 소수점 비결정성 (floating-point nondeterminism)을 제거하는 Gensyn의 검증 시스템인 Verde입니다. Verde는 기기 간에 비트 단위로 정확한 연산을 강제함으로써, 런던의 NVIDIA A100과 도쿄의 AMD MI250에서 동일한 모델을 실행했을 때 온체인에서 증명 가능한 동일한 결과를 얻을 수 있도록 보장합니다. 이는 탈중앙화 금융 (DeFi), 자율 에이전트 및 투명성이 선택이 아닌 생존의 문제인 모든 애플리케이션에 검증 가능한 AI를 가능하게 합니다.

불투명한 API 문제: 검증 없는 신뢰

AI 산업은 API를 기반으로 운영됩니다. 개발자는 REST 엔드포인트를 통해 OpenAI의 GPT-4, Anthropic의 Claude 또는 Google의 Gemini를 통합하여 프롬프트를 보내고 응답을 받습니다. 하지만 이러한 API는 근본적으로 불투명합니다.

버전 불확실성: gpt-4를 호출할 때 정확히 어떤 버전을 사용하고 있습니까? GPT-4-0314인가요? GPT-4-0613인가요? 아니면 조용히 업데이트된 변형인가요? 제공업체는 공개 발표 없이 패치를 자주 배포하여 하룻밤 사이에 모델 동작을 변경합니다.

감사 추적 부재: API 응답에는 어떤 모델이 이를 생성했는지에 대한 암호화 증명이 포함되어 있지 않습니다. 만약 OpenAI가 특정 지역이나 고객에게 검열되거나 편향된 변형을 제공하더라도 사용자는 이를 감지할 방법이 없습니다.

조용한 성능 저하: 제공업체는 비용을 절감하기 위해 모델을 "로보토마이즈 (lobotomize)"하여 동일한 API 계약을 유지하면서 추론 품질을 낮출 수 있습니다. 사용자들은 GPT-4가 시간이 지남에 따라 "멍청해졌다"고 보고하지만, 투명한 버전 관리가 없으면 이러한 주장은 일화적인 수준에 머뭅니다.

비결정론적 출력: 온도 설정, 배치 처리 또는 하드웨어 수준의 부동 소수점 반올림 오류로 인해 동일한 입력으로 동일한 모델을 두 번 쿼리해도 다른 결과가 나올 수 있습니다. 이는 감사를 불가능하게 만듭니다. 출력이 재현 가능하지 않은데 어떻게 정확성을 검증할 수 있습니까?

일반적인 애플리케이션의 경우 이러한 문제는 불편함에 불과합니다. 하지만 고위험 의사 결정에서는 치명적인 장애물입니다. 다음을 고려해 보십시오.

알고리즘 트레이딩: 헤지 펀드가 DeFi 포지션에서 5,000만 달러를 관리하는 AI 에이전트를 배치합니다. 에이전트는 X (구 트위터) 게시물에서 시장 심리를 분석하기 위해 GPT-4에 의존합니다. 거래 세션 도중 모델이 조용히 업데이트되면 심리 점수가 예기치 않게 바뀌어 의도치 않은 청산이 발생할 수 있습니다. 펀드는 모델이 오작동했다는 증거가 없으며, OpenAI의 로그는 공개적으로 감사할 수 없습니다.

의료 진단: 병원에서 암 치료법을 추천하기 위해 AI 모델을 사용합니다. 규정에 따라 의사는 의사 결정 과정을 문서화해야 합니다. 그러나 AI 모델 버전을 확인할 수 없다면 감사 추적은 불완전합니다. 의료 과실 소송은 어떤 모델이 추천을 생성했는지 입증하는 데 달려 있을 수 있지만, 불투명한 API로는 불가능합니다.

DAO 거버넌스: 탈중앙화 자율 조직이 금고 제안에 투표하기 위해 AI 에이전트를 사용합니다. 커뮤니티 구성원들은 에이전트가 특정 결과에 유리하도록 조작된 변형이 아니라 승인된 모델을 사용했다는 증거를 요구합니다. 암호화 검증이 없으면 투표는 정당성을 잃게 됩니다.

이것이 바로 Gensyn이 목표로 하는 신뢰의 간극입니다. AI가 중요한 의사 결정에 내장됨에 따라 모델의 진위와 동작을 확인할 수 없는 능력은 "고위험 환경에서 에이전틱 (agentic) AI를 배포하는 데 근본적인 차단 요소"가 됩니다.

Judge: 검증 가능한 AI 평가 프로토콜

Judge는 사전에 합의된 결정론적 AI 모델을 실제 입력에 대해 실행하고 그 결과를 누구나 이의를 제기할 수 있는 블록체인에 기록함으로써 불투명성 문제를 해결합니다. 프로토콜의 작동 방식은 다음과 같습니다.

1. 모델 커밋 (Model commitment): 참여자들은 AI 모델의 아키텍처, 가중치 및 추론 구성에 합의합니다. 이 모델은 해싱되어 온체인에 기록됩니다. 해시는 암호학적 지문 역할을 합니다. 합의된 모델에서 조금이라도 벗어나면 다른 해시가 생성됩니다.

2. 결정론적 실행 (Deterministic execution): Judge는 기기 간에 비트 단위로 정확한 재현성을 보장하는 Gensyn's Reproducible Runtime을 사용하여 모델을 실행합니다. 이는 잠시 후에 살펴볼 중요한 혁신인 부동 소수점 비결정성을 제거합니다.

3. 공개 커밋 (Public commitment): 추론 후, Judge는 출력물 (또는 그 해시)을 온체인에 게시합니다. 이는 특정 입력에 대해 모델이 생성한 결과에 대한 영구적이고 감사 가능한 기록을 생성합니다.

4. 이의 제기 기간 (Challenge period): 누구나 모델을 독립적으로 다시 실행하여 결과에 이의를 제기할 수 있습니다. 출력이 다를 경우 사기 증명 (fraud proof)을 제출합니다. Verde의 심판 위임 메커니즘 (refereed delegation mechanism)은 결과가 갈라지는 연산 그래프상의 정확한 연산자를 찾아냅니다.

5. 사기에 대한 슬래싱 (Slashing for fraud): 이의 제기자가 Judge가 잘못된 결과를 생성했음을 증명하면, 원래 실행자는 처벌을 받습니다 (스테이킹된 토큰 슬래싱). 이는 경제적 인센티브를 일치시킵니다. 실행자는 모델을 올바르게 실행함으로써 수익을 극대화합니다.

Judge는 AI 평가를 "API 제공업체를 신뢰하라"에서 "암호화 증명을 검증하라"로 전환합니다. 모델의 동작은 공개적이고 감사 가능하며 집행 가능해지며, 더 이상 독점적인 엔드포인트 뒤에 숨겨지지 않습니다.

Verde : 부동 소수점 비결정론 제거

검증 가능한 AI 의 핵심 기술적 과제는 결정론 (determinism) 입니다. 신경망은 추론 과정에서 수십억 개의 부동 소수점 연산을 수행합니다. 현대적인 GPU 에서 이러한 연산은 완벽하게 재현되지 않습니다.

비결합성 (Non-associativity) : 부동 소수점 덧셈은 결합 법칙이 성립하지 않습니다. 반올림 오차로 인해 (a + b) + ca + (b + c) 와 다른 결과를 낼 수 있습니다. GPU 는 수천 개의 코어에서 부분 합을 병렬로 처리하며, 부분 합이 누적되는 순서는 하드웨어 및 드라이버 버전에 따라 달라집니다.

커널 스케줄링 변동성 (Kernel scheduling variability) : GPU 커널 (행렬 곱셈이나 어텐션 등) 은 작업 부하, 드라이버 최적화 또는 하드웨어 아키텍처에 따라 다른 순서로 실행될 수 있습니다. 동일한 모델을 동일한 GPU 에서 두 번 실행하더라도 커널 스케줄링이 다르면 다른 결과가 나올 수 있습니다.

배치 크기 의존성 (Batch-size dependency) : 연구에 따르면 LLM 추론은 시스템 수준에서 비결정론적 인데, 이는 출력이 배치 크기에 따라 달라지기 때문입니다. 많은 커널 (matmul, RMSNorm, 어텐션) 은 얼마나 많은 샘플이 함께 처리되는지에 따라 수치 출력을 변경합니다. 배치 크기 1 로 추론하면 배치 크기 8 로 처리된 동일한 입력과는 다른 값이 생성됩니다.

이러한 문제들로 인해 표준 AI 모델은 블록체인 검증에 적합하지 않습니다. 두 명의 검증자가 동일한 추론을 다시 실행하여 약간 다른 출력을 얻는다면, 누구의 말이 맞을까요? 결정론이 없다면 합의는 불가능합니다.

Verde 는 모든 장치에서 부동 소수점 연산의 순서를 제어하여 하드웨어 비결정론을 제거하는 라이브러리인 RepOps (Reproducible Operators, 재현 가능한 연산자) 를 통해 이 문제를 해결합니다. 작동 방식은 다음과 같습니다.

정형화된 리덕션 순서 (Canonical reduction orders) : RepOps 는 행렬 곱셈과 같은 연산에서 부분 결과를 합산할 때 결정론적인 순서를 강제합니다. GPU 스케줄러가 결정하게 두는 대신, RepOps 는 모든 하드웨어에서 "0번 열을 더하고, 그다음 1번 열, 그다음 2번 열..." 과 같이 명시적으로 순서를 지정합니다. 이를 통해 (a + b) + c 가 항상 동일한 시퀀스로 계산되도록 보장합니다.

커스텀 CUDA 커널 (Custom CUDA kernels) : Gensyn 은 순수 속도보다 재현성을 우선시하는 최적화된 커널을 개발했습니다. RepOps 행렬 곱셈은 표준 cuBLAS 에 비해 오버헤드가 30% 미만 인데, 이는 결정론을 위한 합리적인 절충안입니다.

드라이버 및 버전 고정 (Driver and version pinning) : Verde 는 버전이 고정된 GPU 드라이버와 정형화된 구성을 사용하여, 서로 다른 하드웨어에서 실행되는 동일한 모델이 비트 단위까지 동일한 출력을 생성하도록 보장합니다. 한 데이터 센터의 NVIDIA A100 에서 실행되는 모델의 출력은 다른 데이터 센터의 AMD MI250 에서 나오는 출력과 비트 단위로 일치합니다.

이것이 Judge 의 검증을 가능하게 하는 획기적인 기술입니다. 비트 단위로 정확한 재현성 은 검증자가 실행자를 신뢰하지 않고도 독립적으로 결과를 확인할 수 있음을 의미합니다. 해시가 일치하면 추론은 올바른 것이며, 이는 수학적으로 증명 가능합니다.

중재된 위임 (Refereed Delegation) : 전체 재계산 없는 효율적인 검증

결정론적 실행이 가능하더라도, AI 추론을 그대로 검증하는 것은 비용이 많이 듭니다. 700억 개의 파라미터를 가진 모델이 1,000개의 토큰을 생성하는 데 10 GPU 시간이 걸릴 수 있습니다. 검증자가 정확성을 확인하기 위해 모든 추론을 다시 실행해야 한다면, 검증 비용이 실행 비용과 같아져 탈중앙화의 목적이 퇴색됩니다.

Verde 의 중재된 위임 메커니즘 (refereed delegation mechanism) 은 검증 비용을 기하급수적으로 낮춥니다.

여러 명의 신뢰할 수 없는 실행자 : 하나의 실행자 대신, Judge 는 여러 독립적인 제공자에게 작업을 할당합니다. 각 제공자는 동일한 추론을 실행하고 결과를 제출합니다.

불일치 시 조사 시작 : 모든 실행자가 동의하면 결과가 수락되며 추가 검증은 필요하지 않습니다. 출력이 다를 경우 Verde 는 챌린지 게임 (challenge game) 을 시작합니다.

계산 그래프에 대한 이진 탐색 : Verde 는 전체 추론을 다시 실행하지 않습니다. 대신 모델의 계산 그래프에 대해 이진 탐색을 수행하여 결과가 갈라지는 첫 번째 연산자를 찾습니다. 이를 통해 불일치를 일으키는 정확한 레이어 (예 : "어텐션 레이어 47, 헤드 8") 를 핀포인트로 찾아냅니다.

최소한의 중재자 계산 : 중재자 (제한된 컴퓨팅 파워를 가진 스마트 컨트랙트 또는 검증자일 수 있음) 는 전체 순전파가 아닌 논란이 된 연산자만 확인합니다. 80개 레이어가 있는 70B 파라미터 모델의 경우, 최악의 상황에서도 약 7개 레이어 (log₂ 80) 만 확인하면 됩니다.

이 접근 방식은 단순 복제 방식보다 1,350% 이상 더 효율적 입니다 (모든 검증자가 모든 것을 다시 실행하는 경우 대비). Gensyn 은 암호화 증명, 게임 이론 및 최적화된 프로세스를 결합하여 중복 계산 없이 올바른 실행을 보장합니다.

그 결과, Judge 는 AI 워크로드를 대규모로 검증할 수 있으며, 수천 개의 신뢰할 수 없는 노드가 컴퓨팅에 기여하고 정직하지 않은 실행자는 적발되어 처벌받는 탈중앙화 추론 네트워크를 가능하게 합니다.

중요한 AI 의사결정 : 투명성이 중요한 이유

Judge 의 타겟 시장은 일반적인 챗봇이 아닙니다. 검증 가능성이 '있으면 좋은 것' 이 아니라 규제적 또는 경제적 요구 사항인 애플리케이션입니다. 불투명한 API 가 치명적으로 실패하는 시나리오는 다음과 같습니다.

탈중앙화 금융 (DeFi) : 자율 거래 에이전트는 수십억 달러의 자산을 관리합니다. 에이전트가 포트폴리오 리밸런싱 시점을 결정하기 위해 AI 모델을 사용하는 경우, 사용자는 모델이 조작되지 않았다는 증거가 필요합니다. Judge 는 온체인 검증을 지원합니다. 에이전트는 특정 모델 해시를 약속하고, 그 출력에 따라 거래를 실행하며, 누구나 결정 로직에 이의를 제기할 수 있습니다. 이러한 투명성은 악의적인 에이전트가 증거 없이 "AI 가 청산하라고 했다" 고 주장하며 자금을 탈취하는 (rug pull) 것을 방지합니다.

규제 준수 : 신용 점수 산정, 사기 탐지 또는 자금 세탁 방지 (AML) 를 위해 AI 를 도입하는 금융 기관은 감사를 받습니다. 규제 기관은 "모델이 왜 이 거래를 의심스러운 것으로 표시했는가?" 에 대한 설명을 요구합니다. 불투명한 API 는 감사 추적을 제공하지 않습니다. Judge 는 모델 버전, 입력 및 출력에 대한 불변의 기록을 생성하여 규제 요구 사항을 충족합니다.

알고리즘 거버넌스 : 탈중앙화 자율 조직 (DAO) 은 AI 에이전트를 사용하여 거버넌스 결정을 제안하거나 투표합니다. 커뮤니티 구성원은 에이전트가 해킹된 변종이 아닌 승인된 모델을 사용했는지 확인해야 합니다. Judge 를 사용하면 DAO 는 스마트 컨트랙트에 모델 해시를 인코딩하고, 모든 결정에 정확성에 대한 암호화 증명을 포함할 수 있습니다.

의료 및 법률 AI : 의료 및 법률 시스템은 책임 소재를 명확히 해야 합니다. AI 의 도움을 받아 암을 진단하는 의사는 사용된 정확한 모델 버전을 문서화해야 합니다. AI 로 계약서를 작성하는 변호사는 출력이 검증되고 편향되지 않은 모델에서 나왔음을 증명해야 합니다. Judge 의 온체인 감사 추적은 이러한 증거를 제공합니다.

예측 시장 및 오라클 : Polymarket 과 같은 프로젝트는 베팅 결과 (예 : "이 이벤트가 발생할 것인가?") 를 결정하기 위해 AI 를 사용합니다. 결정이 뉴스 기사를 분석하는 AI 모델에 달려 있다면, 참여자들은 모델이 조작되지 않았다는 증거가 필요합니다. Judge 는 오라클의 AI 추론을 검증하여 분쟁을 방지합니다.

각 사례의 공통된 주제는 투명성 없는 신뢰는 불충분하다 는 것입니다. VeritasChain 이 언급했듯이, AI 시스템에는 분쟁 발생 시 어떤 일이 일어났는지 증명하는 불변의 로그 인 "암호화된 비행 기록 장치 (cryptographic flight recorders)" 가 필요합니다.

영지식 증명 대안: Verde와 ZKML의 비교

Judge는 검증 가능한 AI를 위한 유일한 접근 방식이 아닙니다. 영지식 기계 학습 (ZKML)은 입력을 공개하거나 가중치를 밝히지 않고도 계산이 올바르게 수행되었음을 증명하는 암호학적 증명인 zk-SNARKs를 사용하여 유사한 목표를 달성합니다.

Verde는 ZKML과 어떻게 비교될까요?

검증 비용: ZKML은 증명을 생성하기 위해 원래 추론보다 약 1,000배 더 많은 계산이 필요합니다 (연구 추정치). 추론에 10 GPU 시간이 필요한 700억 개 파라미터 모델을 증명하려면 10,000 GPU 시간이 필요할 수 있습니다. Verde의 중재된 위임 (refereed delegation)은 로그 (logarithmic) 방식입니다. 80개 레이어 대신 약 7개 레이어를 확인하는 것은 1,000배가 아닌 10배의 감소를 의미합니다.

증명자 복잡성: ZKML은 증명을 효율적으로 생성하기 위해 특수 하드웨어 (예: zk-SNARK 회로용 맞춤형 ASIC)를 요구합니다. Verde는 일반 소매용 GPU에서 작동하므로, 게이밍 PC를 가진 채굴자라면 누구나 참여할 수 있습니다.

프라이버시 트레이드오프: ZKML의 강점은 프라이버시입니다. 증명은 입력값이나 모델 가중치에 대해 아무것도 드러내지 않습니다. Verde의 결정론적 실행은 투명합니다. 입력과 출력은 공개됩니다 (가중치는 암호화될 수 있음). 중대한 의사결정의 경우 투명성이 선호되는 경우가 많습니다. 재고 할당에 대해 투표하는 DAO는 숨겨진 증명이 아니라 공개된 감사 추적을 원합니다.

증명 범위: ZKML은 현재의 계산 비용으로 인해 학습을 증명하는 것이 불가능하므로 실질적으로 추론에 국한됩니다. Verde는 추론과 학습 검증을 모두 지원합니다 (Gensyn의 더 넓은 프로토콜은 분산 학습을 검증합니다).

실제 도입: Modulus Labs와 같은 ZKML 프로젝트는 온체인에서 1,800만 개 파라미터 모델을 검증하는 등 획기적인 성과를 거두었지만, 여전히 소규모 모델에 국한되어 있습니다. Verde의 결정론적 런타임은 실제 운영 환경에서 700억 개 이상의 파라미터 모델을 처리합니다.

ZKML은 홍채 스캔을 노출하지 않고 생체 인식 인증을 확인하는 것 (Worldcoin)과 같이 프라이버시가 가장 중요한 분야에서 탁월합니다. Verde는 특정 공개 모델이 올바르게 실행되었음을 증명하는 것과 같이 투명성이 목표인 분야에서 탁월합니다. 두 접근 방식은 서로 경쟁하는 것이 아니라 상호 보완적입니다.

Gensyn 생태계: Judge에서 탈중앙화 학습까지

Judge는 머신러닝 컴퓨팅을 위한 탈중앙화 네트워크인 Gensyn의 원대한 비전의 한 구성 요소입니다. 이 프로토콜에는 다음이 포함됩니다:

실행 레이어: 다양한 이기종 하드웨어 (소비자용 GPU, 기업용 클러스터, 엣지 디바이스)에서 일관된 ML 실행을 제공합니다. Gensyn은 추론 및 학습 워크로드를 표준화하여 호환성을 보장합니다.

검증 레이어 (Verde): 중재된 위임을 사용한 무신뢰 검증입니다. 정직하지 않은 실행자는 감지되고 처벌받습니다.

P2P 통신: 중앙 집중식 조정 없이 디바이스 간에 워크로드를 분산합니다. 채굴자는 작업을 수신하고 실행하며 증명을 블록체인에 직접 제출합니다.

탈중앙화된 조율: 이더리움 롤업상의 스마트 컨트랙트가 참여자를 식별하고, 작업을 할당하며, 허가 없이 결제를 처리합니다.

Gensyn의 공개 테스트넷은 2025년 3월에 출시되었으며, 메인넷은 2026년으로 예정되어 있습니다. $AI 토큰 공개 판매는 2025년 12월에 이루어져 채굴자와 검증인을 위한 경제적 인센티브를 구축했습니다.

Judge는 이 생태계에서 평가 레이어로 적합합니다. Gensyn의 핵심 프로토콜이 학습과 추론을 처리하는 동안, Judge는 해당 출력이 검증 가능하도록 보장합니다. 이는 다음과 같은 플라이휠을 생성합니다:

개발자는 Gensyn의 탈중앙화 네트워크에서 모델을 학습시킵니다 (활용되지 않는 소비자용 GPU가 컴퓨팅을 제공하므로 AWS보다 저렴함).

모델은 Judge와 함께 배포되어 평가 무결성을 보장받습니다. 애플리케이션은 Gensyn의 API를 통해 추론을 사용하지만, OpenAI와 달리 모든 출력에는 암호학적 증명이 포함됩니다.

검증인은 증명을 확인하고 사기를 적발하여 수수료를 벌며, 경제적 인센티브를 네트워크 보안과 일치시킵니다.

신뢰는 확장됩니다. 더 많은 애플리케이션이 검증 가능한 AI를 채택함에 따라 중앙 집중식 제공업체에 대한 의존도가 낮아집니다.

최종 목표는 거대 IT 기업뿐만 아니라 누구나 접근할 수 있고, 증명 가능하며, 올바르고 탈중앙화된 AI 학습 및 추론 환경을 만드는 것입니다.

과제 및 남은 과제들

Judge의 접근 방식은 혁신적이지만 몇 가지 과제가 남아 있습니다:

성능 오버헤드: RepOps의 30% 속도 저하는 검증을 위해서는 수용 가능하지만, 모든 추론이 결정론적으로 실행되어야 한다면 지연 시간에 민감한 애플리케이션 (실시간 거래, 자율 주행 차량)은 더 빠르고 검증 불가능한 대안을 선호할 수 있습니다. Gensyn의 로드맵에는 RepOps를 더욱 최적화하는 것이 포함될 가능성이 높지만, 속도와 결정론 사이에는 근본적인 트레이드오프가 존재합니다.

드라이버 버전 파편화: Verde는 특정 버전으로 고정된 드라이버를 가정하지만, GPU 제조업체는 지속적으로 업데이트를 출시합니다. 일부 채굴자가 CUDA 12.4를 사용하고 다른 채굴자가 12.5를 사용하면 비트 단위 재현성이 깨집니다. Gensyn은 엄격한 버전 관리를 강제해야 하며, 이는 채굴자 온보딩을 복잡하게 만들 수 있습니다.

모델 가중치 비밀성: Judge의 투명성은 공개 모델에는 장점이지만 독점 모델에는 단점입니다. 헤지펀드가 가치 있는 거래 모델을 학습시키고 Judge에 배포하면 온체인 약속 (commitment)을 통해 경쟁자에게 가중치가 노출됩니다. 비밀 모델의 경우 ZKML 기반 대안이 선호될 수 있으며, 이는 Judge가 공개 또는 반공개 AI 애플리케이션을 타겟팅함을 시사합니다.

분쟁 해결 지연 시간: 도전자 (challenger)가 사기를 주장하는 경우, 이진 탐색을 통해 분쟁을 해결하려면 여러 번의 온체인 트랜잭션이 필요합니다 (각 라운드는 탐색 범위를 좁힙니다). 고빈도 애플리케이션은 최종 확정성 (finality)을 위해 몇 시간을 기다릴 수 없습니다. Gensyn은 지연 시간을 줄이기 위해 낙관적 검증 (일정 기간 내에 도전받지 않는 한 올바른 것으로 간주)을 도입할 수 있습니다.

중재된 위임의 시빌 저항성 (Sybil resistance): 여러 실행자가 합의해야 하는 경우, 단일 주체가 시빌 신원을 통해 모든 실행자를 통제하는 것을 어떻게 방지할 수 있을까요? Gensyn은 공모를 막기 위해 슬래싱 (slashing)과 함께 스테이킹 기반 선택 (평판이 높은 검증인이 우선적으로 선택됨)을 사용할 가능성이 높지만, 경제적 임계값을 신중하게 조정해야 합니다.

이것들은 해결 불가능한 문제가 아니라 엔지니어링 과제입니다. 핵심 혁신 (결정론적 AI + 암호학적 검증)은 견고합니다. 테스트넷이 메인넷으로 전환됨에 따라 실행 세부 사항은 더욱 성숙해질 것입니다.

검증 가능한 AI로 가는 길: 채택 경로와 시장 적합성

Judge의 성공은 채택에 달려 있습니다. 어떤 애플리케이션이 검증 가능한 AI를 가장 먼저 배포하게 될까요?

자율 에이전트가 포함된 DeFi 프로토콜: Aave, Compound 또는 Uniswap DAO는 재무 관리를 위해 Judge로 검증된 에이전트를 통합할 수 있습니다. 커뮤니티는 모델 해시를 승인하기 위해 투표하고, 모든 에이전트의 결정에는 증명이 포함됩니다. 이러한 투명성은 DeFi의 정당성에 중요한 신뢰를 구축합니다.

예측 시장 및 오라클: Polymarket이나 Chainlink와 같은 플랫폼은 Judge를 사용하여 베팅을 해결하거나 가격 피드를 제공할 수 있습니다. 감정, 뉴스 또는 온체인 활동을 분석하는 AI 모델은 검증 가능한 출력을 생성하여 오라클 조작에 대한 분쟁을 제거합니다.

탈중앙화 신원 증명 및 KYC: AI 기반 신원 확인 (셀카를 통한 연령 추정, 문서 진위 확인 등)이 필요한 프로젝트는 Judge의 감사 추적 (audit trail)의 이점을 누릴 수 있습니다. 규제 기관은 중앙화된 신원 제공자를 신뢰하지 않고도 규정 준수에 대한 암호학적 증명을 수용할 수 있습니다.

소셜 미디어를 위한 콘텐츠 중재: 탈중앙화 소셜 네트워크 (Farcaster, Lens Protocol)는 Judge로 검증된 AI 모더레이터를 배치할 수 있습니다. 커뮤니티 구성원은 중재 모델이 편향되거나 검열되지 않았음을 확인하여 플랫폼의 중립성을 보장할 수 있습니다.

AI-as-a-Service 플랫폼: AI 애플리케이션을 구축하는 개발자는 "검증 가능한 추론 (verifiable inference)"을 프리미엄 기능으로 제공할 수 있습니다. 사용자는 증명을 위해 추가 비용을 지불함으로써 불투명한 대안들과 서비스를 차별화합니다.

공통점: 규제, 탈중앙화 또는 높은 이해관계로 인해 신뢰 비용이 많이 들고, 확실성의 가치에 비해 검증 비용이 수용 가능한 애플리케이션들입니다.

Judge는 소비자용 챗봇에서 OpenAI를 대체하지는 않을 것입니다 — 사용자는 요리 레시피 아이디어를 물어볼 때 GPT-4가 검증 가능한지 여부에 신경 쓰지 않기 때문입니다. 하지만 금융 알고리즘, 의료 도구 및 거버넌스 시스템에 있어 검증 가능한 AI는 미래입니다.

새로운 표준으로서의 검증 가능성

Gensyn의 Judge는 패러다임의 전환을 의미합니다. AI 평가는 "제공자를 신뢰하는 것"에서 "증명을 검증하는 것"으로 이동하고 있습니다. Verde를 통한 비트 단위의 정확한 재현성 (bitwise-exact reproducibility), 심판된 위임 (refereed delegation)을 통한 효율적인 검증, 그리고 온체인 감사 추적이라는 기술적 토대는 이 전환을 단순한 열망이 아닌 현실로 만듭니다.

그 영향은 Gensyn을 훨씬 넘어 파급됩니다. 검증 가능한 AI가 표준이 된다면, 중앙화된 제공자들은 그들의 해자 (moat)를 잃게 됩니다. OpenAI의 가치 제안은 단순히 GPT-4의 성능만이 아니라, 인프라를 관리하지 않아도 되는 '편의성'에 있습니다. 하지만 Gensyn이 탈중앙화 AI가 중앙화된 성능에 '추가적인 검증 가능성'까지 갖출 수 있음을 증명한다면, 개발자들은 독점 API에 갇힐 이유가 없습니다.

경쟁은 시작되었습니다. ZKML 프로젝트 (Modulus Labs, Worldcoin의 생체 인식 시스템)는 영지식 증명 (zero-knowledge proofs)에 베팅하고 있습니다. 결정론적 런타임 (Gensyn의 Verde, EigenAI)은 재현성에 베팅하고 있습니다. 낙관적 접근 방식 (블록체인 AI 오라클)은 사기 증명 (fraud proofs)에 베팅하고 있습니다. 각 경로마다 트레이드오프가 있지만, 목적지는 동일합니다: 결과물이 단순히 그럴듯한 것이 아니라 증명 가능한 AI 시스템입니다.

높은 이해관계가 걸린 의사 결정에서 이것은 선택 사항이 아닙니다. 규제 기관은 금융, 의료 또는 법률 애플리케이션에서 AI 제공자의 "우리를 믿으라"는 말을 받아들이지 않을 것입니다. DAO는 재무 관리를 블랙박스 에이전트에게 위임하지 않을 것입니다. 그리고 자율 AI 시스템이 더욱 강력해짐에 따라 대중은 투명성을 요구할 것입니다.

Judge는 이러한 약속을 이행하는 최초의 프로덕션 준비 완료 시스템입니다. 테스트넷이 운영 중입니다. 암호학적 기반은 견고합니다. 270억 달러 규모의 AI 에이전트 암호화폐 시장, 알고리즘으로 관리되는 수십억 달러의 DeFi 자산, 그리고 거세지는 규제 압박 등 시장은 이미 준비되어 있습니다.

불투명한 AI API의 시대가 저물고 있습니다. 검증 가능한 지능의 시대가 시작되고 있습니다. 그리고 Gensyn의 Judge가 그 길을 밝히고 있습니다.


출처:

Nillion's Blacklight 출시: ERC-8004가 자율형 AI 에이전트를 위한 신뢰 계층을 구축하는 방법

· 약 12 분
Dora Noda
Software Engineer

2026년 2월 2일, AI 에이전트 경제는 중요한 진전을 이루었습니다. Nillion은 블록체인의 가장 시급한 과제 중 하나인 '한 번도 만난 적 없는 AI 에이전트를 어떻게 신뢰할 것인가?'를 해결하기 위해 ERC-8004 표준을 구현한 검증 레이어인 Blacklight를 출시했습니다.

그 해답은 단순한 평판 점수나 중앙화된 등록 기관이 아닙니다. 암호학적 증명, 프로그래밍 가능한 감사, 그리고 커뮤니티가 운영하는 노드 네트워크에 의해 뒷받침되는 5단계 검증 프로세스입니다. 자율형 에이전트가 거래를 실행하고, 자산을 관리하며, 크로스 체인 활동을 조율하는 사례가 늘어남에 따라, Blacklight는 대규모의 신뢰가 필요 없는(trustless) AI 조율을 가능하게 하는 인프라를 상징합니다.

AI 에이전트가 스스로 해결할 수 없는 신뢰 문제

수치가 상황을 대변합니다. AI 에이전트는 현재 Polymarket 거래량의 30%를 차지하고 있으며, 여러 프로토콜에 걸쳐 DeFi 수익 전략을 처리하고 자율적으로 복잡한 워크플로우를 실행하고 있습니다. 하지만 근본적인 병목 현상이 존재합니다. 에이전트들이 사전 관계 없이 어떻게 서로의 신뢰성을 확인할 수 있을까요?

기존 시스템은 자격 증명을 발급하는 중앙 집중식 권한 기관에 의존합니다. Web3의 약속은 다릅니다 — 암호화와 합의를 통한 신뢰가 필요 없는 검증입니다. 하지만 ERC-8004 이전에는 에이전트가 자신의 진위성을 증명하거나, 행동을 추적하거나, 온체인에서 의사 결정 로직을 검증할 수 있는 표준화된 방법이 없었습니다.

이는 단순히 이론적인 문제가 아닙니다. Davide Crapis가 설명했듯이, "ERC-8004는 탈중앙화된 AI 에이전트 상호작용을 가능하게 하고, 신뢰가 필요 없는 상거래를 구축하며, 이더리움의 평판 시스템을 강화합니다." 이것이 없다면 에이전트 간 상거래는 폐쇄적인 환경(walled gardens)에 갇히거나 수동적인 감독이 필요하게 되어, 자율성의 목적을 퇴색시킵니다.

ERC-8004: 3대 레지스트리 신뢰 인프라

2026년 1월 29일 이더리움 메인넷에 출시된 ERC-8004 표준은 세 가지 온체인 레지스트리를 통해 모듈형 신뢰 레이어를 구축합니다.

신원 레지스트리 (Identity Registry): ERC-721을 사용하여 이식 가능한 에이전트 식별자를 제공합니다. 각 에이전트는 고유한 온체인 신원을 나타내는 NFT를 부여받아, 플랫폼 간 인식을 가능하게 하고 신원 도용을 방지합니다.

평판 레지스트리 (Reputation Registry): 표준화된 피드백과 평가를 수집합니다. 중앙화된 리뷰 시스템과 달리, 피드백은 암호화 서명과 함께 온체인에 기록되어 변하지 않는 감사 추적(audit trail)을 생성합니다. 누구나 이 이력을 크롤링하여 맞춤형 평판 알고리즘을 구축할 수 있습니다.

검증 레지스트리 (Validation Registry): 에이전트 작업의 암호학적 및 경제적 검증을 지원합니다. 이곳에서 프로그래밍 가능한 감사가 이루어집니다. 검증자는 계산을 재실행하거나, 영지식 증명을 확인하거나, 신뢰 실행 환경(TEE)을 활용하여 에이전트가 올바르게 작동했음을 확인할 수 있습니다.

ERC-8004의 탁월함은 특정 방식에 얽매이지 않는 설계에 있습니다. 기술 사양에서 언급했듯이, 이 표준은 다양한 검증 기술을 지원합니다: "스테이크 기반의 작업 재실행(EigenLayer와 같은 시스템에서 영감을 받음), 영지식 머신러닝(zkML) 증명 검증, 신뢰 실행 환경(TEE)의 증명 등."

이러한 유연성은 매우 중요합니다. DeFi 차익 거래 에이전트는 알파(alpha)를 노출하지 않고도 zkML 증명을 사용하여 거래 로직을 검증할 수 있습니다. 공급망 에이전트는 TEE 증명을 사용하여 실제 데이터에 올바르게 접근했음을 증명할 수 있습니다. 크로스 체인 브릿지 에이전트는 정직한 실행을 보장하기 위해 슬래싱(slashing)이 포함된 암호 경제적 검증에 의존할 수 있습니다.

Blacklight의 5단계 검증 프로세스

Nillion의 Blacklight 내 ERC-8004 구현은 커뮤니티 운영 검증 노드라는 중요한 레이어를 추가합니다. 프로세스는 다음과 같습니다.

1. 에이전트 등록: 에이전트는 신원 레지스트리에 자신의 신원을 등록하고 ERC-721 NFT를 받습니다. 이는 에이전트의 공개 키와 연결된 고유한 온체인 식별자를 생성합니다.

2. 검증 요청 시작: 에이전트가 검증이 필요한 작업(예: 거래 실행, 자금 이체, 상태 업데이트)을 수행할 때 Blacklight에 검증 요청을 제출합니다.

3. 위원회 배정: Blacklight 프로토콜은 요청을 감사할 검증 노드 위원회를 무작위로 배정합니다. 이 노드들은 네트워크의 무결성을 위해 70,000 NIL 토큰을 스테이킹한 커뮤니티 구성원들에 의해 운영됩니다.

4. 노드 확인: 위원회 구성원들은 계산을 재실행하거나 암호학적 증명을 검증합니다. 검증자가 잘못된 동작을 감지하면, 에이전트의 스테이크를 슬래싱하거나(암호 경제적 검증을 사용하는 시스템의 경우) 평판 레지스트리에 해당 신원을 표시할 수 있습니다.

5. 온체인 보고: 결과는 온체인에 게시됩니다. 검증 레지스트리는 에이전트의 작업이 검증되었는지 기록하여 실행에 대한 영구적인 증명을 생성합니다. 평판 레지스트리는 이에 따라 업데이트됩니다.

이 프로세스는 비동기적이며 비차단(non-blocking) 방식으로 진행되므로, 에이전트는 일상적인 작업을 위해 검증이 완료될 때까지 기다리지 않습니다. 하지만 위험도가 높은 작업(거액 이체, 크로스 체인 작업)은 사전 검증을 요구할 수 있습니다.

프로그래밍 가능한 감사: 이진 신뢰를 넘어서

Blacklight의 가장 야심 찬 기능은 '프로그래밍 가능한 검증(programmable verification)'입니다. 이는 에이전트가 수행한 '결과'뿐만 아니라 의사 결정을 내리는 '과정'을 감사할 수 있는 기능입니다.

트레저리를 관리하는 DeFi 에이전트를 예로 들어보겠습니다. 전통적인 감사는 자금이 올바르게 이동했는지만 확인합니다. 프로그래밍 가능한 감사는 다음을 검증합니다:

  • 의사 결정 로직의 일관성: 에이전트가 명시된 투자 전략을 따랐는지, 아니면 이탈했는지 여부.
  • 다단계 워크플로우 실행: 에이전트가 세 개의 체인에 걸쳐 포트폴리오를 재조정하기로 되어 있었다면, 모든 단계를 완료했는지 여부.
  • 보안 제약 조건: 에이전트가 가스 한도, 슬리피지 허용 오차 및 노출 캡을 준수했는지 여부.

ERC-8004의 Validation Registry(검증 레지스트리)가 임의의 증명 시스템을 지원하기 때문에 이것이 가능합니다. 에이전트는 온체인에서 의사 결정 알고리즘(예: 신경망 가중치의 해시 또는 로직을 나타내는 zk-SNARK 회로)을 커밋한 다음, 고유한 세부 정보를 공개하지 않고도 각 작업이 해당 알고리즘을 준수함을 증명할 수 있습니다.

Nillion의 로드맵은 이러한 유스케이스를 명시적으로 겨냥하고 있습니다: "Nillion은 Blacklight의 기능을 '프로그래밍 가능한 검증'으로 확장하여 에이전트 의사 결정 로직의 일관성, 다단계 워크플로우 실행, 보안 제약 조건과 같은 복잡한 행동에 대한 탈중앙화 감사를 가능하게 할 계획입니다."

이것은 검증의 패러다임을 사후 대응(발생한 오류 포착)에서 선제적 대응(설계에 의한 올바른 행동 강제)으로 전환합니다.

블라인드 연산: 프라이버시와 검증의 만남

Nillion의 기반 기술인 NMC(Nil Message Compute)는 에이전트 검증에 프라이버시 차원을 더합니다. 모든 데이터가 공개되는 전통적인 블록체인과 달리, Nillion의 "블라인드 연산(blind computation)"은 복호화 없이 암호화된 데이터에 대한 작업을 가능하게 합니다.

에이전트에게 이것이 중요한 이유는 다음과 같습니다: AI 에이전트는 경쟁자에게 알파(수익 전략)를 노출하지 않고 거래 전략을 검증해야 할 수도 있습니다. 또는 환자 데이터를 노출하지 않고 기밀 의료 기록에 올바르게 액세스했음을 증명하거나, 독점적인 비즈니스 로직을 공개하지 않고 규제 제약 준수를 입증해야 할 수도 있습니다.

Nillion의 NMC는 MPC(다자간 연산)를 통해 이를 달성하며, 노드들이 협력하여 데이터를 암호화하는 데 사용되는 상관 관계가 있는 무작위성인 '블라인딩 팩터(blinding factors)'를 생성합니다. DAIC Capital이 설명하듯, "노드들은 데이터를 처리하는 데 필요한 핵심 네트워크 리소스인 블라인딩 팩터를 생성하며, 각 노드는 블라인딩 팩터의 점유분을 안전하게 저장하여 양자 보안 방식으로 네트워크 전체에 신뢰를 분산합니다."

이 아키텍처는 설계 단계부터 양자 내성(quantum-resistant)을 갖추고 있습니다. 양자 컴퓨터가 오늘날의 타원 곡선 암호학을 해독하더라도, 개별 노드가 데이터를 복호화할 만큼 충분한 정보를 보유하지 않기 때문에 분산된 블라인딩 팩터는 안전하게 유지됩니다.

AI 에이전트에게 이는 검증을 위해 기밀성을 희생할 필요가 없음을 의미합니다. 에이전트는 자신의 방법론, 데이터 소스, 의사 결정 로직을 비공개로 유지하면서도 작업을 올바르게 수행했음을 증명할 수 있습니다.

43억 달러 규모의 에이전트 경제 인프라 전략

Blacklight의 출시는 블록체인-AI 부문이 초고속 성장기에 진입하는 시점에 이루어졌습니다. 시장은 2025년 6억 8천만 달러에서 2034년 43억 달러로 연평균 성장률(CAGR) 22.9%로 성장할 것으로 예상되며, 광범위한 기밀 컴퓨팅 시장은 2032년까지 3,500억 달러에 달할 전망입니다.

하지만 Nillion은 단순한 시장 확장에 베팅하는 것이 아니라 스스로를 핵심 인프라로 포지셔닝하고 있습니다. 에이전트 경제의 병목 현상은 연산이나 저장 장치가 아니라 *대규모 신뢰(trust at scale)*입니다. KuCoin의 2026년 전망에 따르면, 세 가지 주요 트렌드가 AI 아이덴티티와 가치 흐름을 재편하고 있습니다:

에이전트 래핑 에이전트(Agent-Wrapping-Agent) 시스템: 복잡한 다단계 작업을 실행하기 위해 다른 에이전트와 협력하는 에이전트. 이를 위해서는 표준화된 아이덴티티와 검증이 필요하며, 이것이 바로 ERC-8004가 제공하는 것입니다.

KYA (Know Your Agent): 에이전트 자격 증명을 요구하는 금융 인프라. 규제 기관은 올바른 동작에 대한 증명 없이 자율 에이전트가 자금을 관리하는 것을 승인하지 않을 것입니다. Blacklight의 프로그래밍 가능한 감사가 이를 직접 해결합니다.

나노 결제(Nano-payments): 에이전트는 소액 결제를 효율적으로 처리해야 합니다. 2026년 1월에 2,000만 건 이상의 트랜잭션을 처리한 x402 결제 프로토콜은 Blacklight가 신뢰를 처리하는 동안 정산을 처리함으로써 ERC-8004를 보완합니다.

이러한 표준들은 서로 몇 주 간격으로 상용화 준비를 마쳤으며, 이는 인프라 성숙을 알리는 중대한 협력적 돌파구입니다.

이더리움의 에이전트 중심 미래

ERC-8004의 채택은 Nillion을 훨씬 넘어 확장되고 있습니다. 2026년 초 현재, 여러 프로젝트가 이 표준을 통합했습니다:

이러한 빠른 채택은 이더리움 로드맵의 광범위한 변화를 반영합니다. 비탈릭 부테린은 블록체인의 역할이 AI 에이전트를 위한 "단순한 배관(plumbing)"이 되고 있다고 반복해서 강조해 왔습니다. 즉, 블록체인은 소비자 접점 레이어가 아니라 자율적인 협력을 가능하게 하는 신뢰 인프라가 된다는 것입니다.

Nillion의 Blacklight는 검증을 프로그래밍 가능하고 프라이버시를 보존하며 탈중앙화된 방식으로 구현함으로써 이러한 비전을 가속화합니다. 중앙 집중식 오라클이나 인간 검토자에 의존하는 대신, 에이전트는 암호학적으로 자신의 정당성을 스스로 증명할 수 있습니다.

향후 계획 : 메인넷 통합 및 생태계 확장

Nillion의 2026 로드맵은 이더리움 호환성과 지속 가능한 탈중앙화를 최우선 과제로 삼고 있습니다. 2026년 2월 이더리움 브리지가 활성화되었으며, 이후 스테이킹과 프라이빗 연산을 위한 네이티브 스마트 컨트랙트가 도입되었습니다.

70,000 NIL 토큰을 스테이킹하는 커뮤니티 구성원은 Blacklight 검증 노드를 운영하여 네트워크 무결성을 유지하면서 보상을 받을 수 있습니다. 이 설계는 이더리움의 검증인 경제 모델을 반영하면서도 검증 특화 역할을 추가한 형태입니다.

다음 주요 마일스톤은 다음과 같습니다 :

  • 확장된 zkML 지원 : Modulus Labs와 같은 프로젝트와 통합하여 온체인 AI 추론 검증
  • 크로스 체인 검증 : Blacklight가 이더리움, Cosmos, Solana에서 작동하는 에이전트를 검증할 수 있도록 지원
  • 기관 파트너십 : 기업용 에이전트 배포를 위해 Coinbase 및 Alibaba Cloud와 협력
  • 규제 준수 도구 : 금융 서비스 도입을 위한 KYA 프레임워크 구축

아마도 가장 중요한 점은, Nillion이 완전한 프라이빗 AI 챗봇인 nilGPT를 개발하고 있다는 것입니다. 이는 블라인드 연산(blind computation)이 어떻게 기밀 에이전트 상호작용을 가능하게 하는지 보여줍니다. 이것은 단순한 데모가 아닙니다. 의료, 금융, 정부 분야에서 민감한 데이터를 처리하는 에이전트를 위한 청사진입니다.

신뢰가 필요 없는 협업의 최종 단계 (The Trustless Coordination Endgame)

Blacklight의 출시는 에이전트 경제의 전환점이 되었습니다. ERC-8004 이전의 에이전트들은 개별적으로 운영되었습니다. 자체 생태계 내에서는 신뢰받았지만, 인간 중개자 없이는 플랫폼 간 협업이 불가능했습니다. ERC-8004 이후, 에이전트들은 서로의 신원을 확인하고 행동을 감사하며 자율적으로 결제를 정산할 수 있게 되었습니다.

이는 완전히 새로운 카테고리의 애플리케이션을 가능하게 합니다 :

  • 탈중앙화 헤지펀드 : 검증 가능한 투자 전략과 투명한 성과 감사를 바탕으로 여러 체인에서 포트폴리오를 관리하는 에이전트
  • 자율 공급망 : 중앙 집중식 감독 없이 물류, 결제 및 규제 준수를 조율하는 에이전트
  • AI 기반 DAO : 암호학적으로 검증된 의사 결정 로직에 따라 투표하고 제안하며 실행하는 에이전트에 의해 운영되는 조직
  • 크로스 프로토콜 유동성 관리 : 프로그래밍 가능한 리스크 제약 조건 하에서 여러 DeFi 프로토콜에 걸쳐 자산을 재조정하는 에이전트

이들의 공통점은 무엇일까요? 모두 신뢰가 필요 없는 협업(trustless coordination), 즉 기존 관계나 중앙 집중식 신뢰 거점 없이도 에이전트들이 함께 일할 수 있는 능력이 필요하다는 것입니다.

Nillion의 Blacklight는 바로 이를 제공합니다. ERC-8004의 신원 및 평판 인프라를 프로그래밍 가능한 검증 및 블라인드 연산과 결합함으로써, 다가올 조 단위 에이전트 경제에 걸맞은 확장 가능한 신뢰 계층을 구축합니다.

블록체인이 AI 에이전트와 글로벌 금융의 토대가 됨에 따라, 검증 인프라의 필요 여부는 더 이상 질문의 대상이 아닙니다. 중요한 것은 누가 이를 구축하느냐, 그리고 그것이 탈중앙화되어 있느냐 아니면 소수의 관리자에 의해 통제되느냐 하는 것입니다. Blacklight의 커뮤니티 운영 노드와 개방형 표준은 전자의 필요성을 입증합니다.

온체인 자율 액터의 시대가 도래했습니다. 인프라는 준비되었습니다. 이제 남은 질문은 그 위에 무엇이 구축될 것인가 하는 점입니다.


출처 :

AI × Web3 융합: 블록체인이 어떻게 자율 에이전트를 위한 운영 체제가 되었는가

· 약 15 분
Dora Noda
Software Engineer

2026년 1월 29일, 이더리움은 AI 소프트웨어 에이전트에게 영구적인 온체인 신원을 부여하는 표준인 ERC-8004를 출시했습니다. 며칠 만에 24,549개 이상의 에이전트가 등록되었으며, BNB Chain은 해당 프로토콜에 대한 지원을 발표했습니다. 이것은 단순한 기술적 진보가 아닙니다. 인간의 중개 없이 스스로 거래하고, 협업하며, 평판을 쌓을 수 있는 자율적 경제 주체들을 위한 인프라입니다.

AI 에이전트가 존재하기 위해 블록체인이 필수적인 것은 아닙니다. 하지만 에이전트들이 서로 협업하기 위해서는 블록체인이 필요합니다. 조직의 경계를 넘어 신뢰가 필요 없는(Trustless) 거래를 수행하기 위해서, 검증 가능한 평판을 구축하기 위해서, 자율적으로 결제를 정산하기 위해서, 그리고 중앙화된 중개자 없이 실행 결과를 증명하기 위해서 블록체인은 반드시 필요합니다.

두 기술의 결합이 가속화되는 이유는 서로의 결정적인 약점을 해결해주기 때문입니다. AI는 지능과 자동화를 제공하고, 블록체인은 신뢰와 경제적 인프라를 제공합니다. 이들은 결합을 통해 어느 한 쪽도 단독으로는 달성할 수 없는 결과물을 만들어냅니다. 즉, 사전 신뢰 관계 없이도 개방된 시장에 참여할 수 있는 자율 시스템을 구축하는 것입니다.

본 기사에서는 신원 표준부터 경제 프로토콜, 탈중앙화 모델 실행에 이르기까지 AI × Web3 융합을 필연적으로 만드는 인프라를 살펴봅니다. 이제 문제는 AI 에이전트가 블록체인에서 작동할지 여부가 아니라, 수백만 개의 자율적 경제 주체를 지원하기 위해 인프라가 얼마나 빠르게 확장될 것인가 하는 점입니다.

ERC-8004: AI 에이전트를 위한 신원 인프라

ERC-8004는 2026년 1월 29일 이더리움 메인넷에 출시되어, 에이전트의 신원, 평판 및 검증을 위한 표준화되고 허가가 필요 없는(Permissionless) 메커니즘을 구축했습니다.

이 프로토콜은 근본적인 문제를 해결합니다. 즉, 사전 신뢰 관계 없이 조직의 경계를 넘어 에이전트를 검색하고, 선택하고, 상호작용하는 방법에 대한 것입니다. 신원 인프라가 없다면 모든 에이전트의 상호작용에는 마켓플레이스 플랫폼, 검증 서비스, 분쟁 해결 계층과 같은 중앙화된 중개가 필요합니다. ERC-8004는 이러한 과정을 신뢰가 필요 없으며 결합 가능한(Composable) 방식으로 만듭니다.

세 가지 핵심 레지스트리:

ID 레지스트리(Identity Registry): URIStorage 확장이 포함된 ERC-721 기반의 최소한의 온체인 핸들로, 에이전트의 등록 파일로 연결됩니다. 모든 에이전트는 이식 가능하고 검열 저항성이 있는 식별자를 갖게 됩니다. 어떤 중앙 기관도 에이전트 신원 생성이나 이를 인식하는 플랫폼을 통제할 수 없습니다.

평판 레지스트리(Reputation Registry): 피드백 신호를 게시하고 가져오기 위한 표준화된 인터페이스입니다. 에이전트는 온체인 거래 내역, 완료된 작업 및 상대방의 리뷰를 통해 평판을 쌓습니다. 평판은 개별 마켓플레이스에 고립되지 않고 플랫폼 간에 이식될 수 있습니다.

검증 레지스트리(Validation Registry): 독립적인 검증인 확인을 요청하고 기록하기 위한 범용 훅(Hook)입니다. 여기에는 작업을 재실행하는 스테이커, 실행을 확인하는 zkML 검증기, 연산을 증명하는 TEE 오라클, 분쟁을 해결하는 신뢰할 수 있는 판사 등이 포함됩니다. 검증 메커니즘은 플랫폼별 구현이 필요 없이 모듈식으로 연결됩니다.

이 아키텍처는 개방형 에이전트 시장을 위한 조건을 조성합니다. AI 에이전트를 위한 업워크(Upwork) 대신, 에이전트가 서로를 발견하고, 조건을 협상하며, 작업을 수행하고, 결제를 정산하는 허가가 필요 없는 프로토콜이 등장하게 됩니다. 이 모든 과정에서 중앙화된 플랫폼의 게이트키핑은 필요하지 않습니다.

BNB Chain의 신속한 지원 발표는 이 표준이 크로스체인 채택으로 나아가고 있음을 시사합니다. 멀티체인 에이전트 신원을 통해 에이전트는 통합된 평판 및 검증 시스템을 유지하면서 여러 블록체인 생태계에서 활동할 수 있습니다.

DeMCP: 모델 컨텍스트 프로토콜과 탈중앙화의 만남

DeMCP는 TEE(신뢰 실행 환경)와 블록체인을 통해 신뢰 및 보안 문제를 해결하며 최초의 탈중앙화 모델 컨텍스트 프로토콜 네트워크로 출시되었습니다.

앤스로픽(Anthropic)이 개발한 모델 컨텍스트 프로토콜(MCP)은 애플리케이션이 대규모 언어 모델(LLM)에 컨텍스트를 제공하는 방식을 표준화합니다. AI 애플리케이션을 위한 USB-C라고 생각하면 됩니다. 모든 데이터 소스에 대해 맞춤형 통합을 수행하는 대신, MCP는 범용 인터페이스 표준을 제공합니다.

DeMCP는 이를 Web3로 확장합니다. 온디맨드 MCP 인스턴스를 통해 GPT-4 및 Claude와 같은 주요 LLM에 대한 원활한 종량제 접근 방식을 제공하며, 모든 비용은 스테이블코인(USDT/USDC)으로 결제되고 수익 공유 모델에 의해 관리됩니다.

이 아키텍처는 세 가지 중요한 문제를 해결합니다:

접근성: 기존 AI 모델 API는 중앙화된 계정, 결제 인프라 및 플랫폼 전용 SDK가 필요합니다. DeMCP는 자율 에이전트가 인간이 관리하는 API 키나 신용카드 없이 암호화폐로 결제하며 표준화된 프로토콜을 통해 LLM에 접근할 수 있게 합니다.

신뢰: 중앙화된 MCP 서비스는 단일 장애점(Single Point of Failure)이자 감시의 대상이 될 수 있습니다. DeMCP의 TEE 보안 노드는 검증 가능한 실행을 제공합니다. 에이전트는 모델이 변조 없이 특정 프롬프트를 실행했음을 확인할 수 있으며, 이는 금융 결정이나 규제 준수에 있어 매우 중요합니다.

결합성: MCP 및 A2A(Agent-to-Agent) 프로토콜을 기반으로 한 새로운 세대의 AI 에이전트 인프라가 등장하고 있습니다. 이는 Web3 시나리오에 특화되어 설계되었으며, 에이전트가 멀티체인 데이터에 접근하고 DeFi 프로토콜과 네이티브하게 상호작용할 수 있도록 합니다.

결과적으로 MCP는 AI를 Web3의 일류 시민으로 만듭니다. 블록체인은 신뢰, 조율 및 경제적 기반을 공급합니다. 두 기술은 함께 에이전트가 상호 운용 가능한 프로토콜 전반에서 추론하고, 협력하며, 행동하는 탈중앙화 운영 체제를 형성합니다.

2026년에 주목해야 할 주요 MCP 암호화폐 프로젝트에는 에이전트 조율 계층을 구축하는 인프라 제공업체, 탈중앙화 모델 실행 네트워크, 그리고 에이전트가 Web3 생태계 전반에서 자율적으로 운영될 수 있도록 하는 프로토콜 수준의 통합 서비스 등이 포함됩니다.

Polymarket의 170개 이상의 에이전트 도구 : 인프라의 실제 활용

Polymarket의 생태계는 19개 카테고리에 걸쳐 170개 이상의 제3자 도구로 성장했으며, 이는 예측 시장 거래에 진지하게 임하는 모든 이들에게 필수적인 인프라가 되었습니다.

도구 카테고리는 에이전트 워크플로우 전체를 아우릅니다 :

자율 거래 : AI 기반 에이전트가 자동으로 전략을 발견하고 최적화하며, 예측 시장을 이자 농사(yield farming) 및 DeFi 프로토콜과 통합합니다. 일부 에이전트는 단기 예측에서 98%의 정확도를 달성하기도 합니다.

아비트라지(차익거래) 시스템 : Polymarket과 다른 예측 플랫폼 또는 전통적인 베팅 시장 간의 가격 차이를 식별하는 자동화된 봇으로, 인간 운영자보다 빠르게 거래를 실행합니다.

고래 추적 : 대규모 포지션 이동을 모니터링하여, 에이전트가 과거 성과 상관관계에 기반해 기관의 활동을 추종하거나 반대 포지션을 취할 수 있도록 지원하는 도구입니다.

카피 트레이딩 인프라 : 에이전트가 상위 성과자의 전략을 복제할 수 있게 해주는 플랫폼으로, 온체인 성과 증명을 통해 가짜 수익률 주장을 방지합니다.

분석 및 데이터 피드 : 에이전트에게 시장 깊이, 유동성 분석, 과거 확률 분포 및 이벤트 결과 상관관계를 제공하는 기관급 분석 도구입니다.

리스크 관리 : 자동화된 포지션 사이징, 노출 제한 및 스톱로스(손절매) 메커니즘이 에이전트 거래 로직에 직접 통합됩니다.

이 생태계는 AI × Web3 융합 테제를 입증합니다. Polymarket은 에이전트 개발을 위한 전용 GitHub 리포지토리와 SDK를 제공하며, 자율적 행위자를 서비스 약관 위반이나 예외 케이스가 아닌 플랫폼의 일등 시민(first-class participants)으로 대우합니다.

2026년 전망에는 거버넌스, 수수료 구조 및 생태계 인센티브에 새로운 역학을 창출할 $POLY 토큰 출시 가능성이 포함되어 있습니다. Shayne Coplan CEO는 이것이 2026년 최대 규모의 TGE(토큰 생성 이벤트) 중 하나가 될 수 있음을 시사했습니다. 또한, (Hyperliquid 모델을 따른) Polymarket의 자체 블록체인 출시 가능성은 수십억 달러의 자금이 조달됨에 따라 앱체인(appchain)으로의 자연스러운 진화와 함께 인프라를 근본적으로 재편할 수 있습니다.

인프라 스택 : AI × Web3의 계층

블록체인에서 작동하는 자율 에이전트는 여러 계층에 걸친 조정된 인프라가 필요합니다 :

계층 1 : 신원 및 평판

  • 에이전트 식별을 위한 ERC-8004 레지스트리
  • 성과를 추적하는 온체인 평판 시스템
  • 에이전트 소유권 및 권한에 대한 암호학적 증명
  • 다중 생태계 운영을 위한 크로스체인 신원 브리징

계층 2 : 접근 및 실행

  • 탈중앙화된 LLM 접근을 위한 DeMCP
  • 비공개 에이전트 로직을 위한 TEE 보안 연산
  • 검증 가능한 추론을 위한 zkML (영지식 머신러닝)
  • 모델 실행을 분산시키는 탈중앙화 추론 네트워크

계층 3 : 조율 및 통신

  • 직접 협상을 위한 A2A (에이전트 간) 프로토콜
  • 에이전트 간 통신을 위한 표준화된 메시징 형식
  • 특정 기능을 가진 에이전트를 찾기 위한 발견(discovery) 메커니즘
  • 자율 계약을 위한 에스크로 및 분쟁 해결

계층 4 : 경제적 인프라

  • 국경 없는 정산을 위한 스테이블코인 결제 레일
  • 에이전트 생성 자산을 위한 자동화된 마켓 메이커 (AMM)
  • 프로그래밍 가능한 수수료 구조 및 수익 공유
  • 토큰 기반 인센티브 정렬

계층 5 : 애플리케이션 프로토콜

  • 자율적 수익 최적화를 위한 DeFi 통합
  • 정보 거래를 위한 예측 시장 API
  • 에이전트 생성 콘텐츠를 위한 NFT 마켓플레이스
  • DAO 거버넌스 참여 프레임워크

이 스택은 단순 자동화(스마트 컨트랙트 실행), 반응형 에이전트(온체인 이벤트에 대응), 능동형 에이전트(추론에 기반한 전략 시작), 그리고 조정 에이전트(다른 자율 행위자와 협상)와 같이 점진적으로 복잡한 에이전트 행동을 가능하게 합니다.

이 인프라는 단순히 AI 에이전트가 블록체인을 사용하도록 허용하는 것이 아니라, 블록체인을 자율적 경제 활동을 위한 자연스러운 운영 환경으로 만듭니다.

AI에 블록체인이 필요한 이유 : 신뢰 문제

AI 에이전트는 중앙 집중식 아키텍처로는 해결할 수 없는 근본적인 신뢰 문제에 직면해 있습니다 :

검증 : AI 에이전트가 조작 없이 특정 로직을 실행했음을 어떻게 증명합니까? 전통적인 API는 어떠한 보장도 제공하지 않습니다. zkML 또는 TEE 인증이 결합된 블록체인은 검증 가능한 연산, 즉 특정 모델이 특정 입력을 처리하여 특정 출력을 생성했다는 암호학적 증명을 생성합니다.

평판 : 에이전트가 조직의 경계를 넘어 어떻게 신뢰도를 쌓을 수 있습니까? 중앙 집중식 플랫폼은 폐쇄적인 생태계를 만듭니다. Upwork에서 얻은 평판은 Fiverr로 이전되지 않습니다. 온체인 평판은 휴대 가능하고 검증 가능하며, 시빌 공격(Sybil attacks)을 통한 조작에 강합니다.

정산 : 자율 에이전트가 인간의 중개 없이 어떻게 결제를 처리합니까? 전통적인 은행 업무는 계좌, KYC, 그리고 각 거래에 대한 인간의 승인이 필요합니다. 스테이블코인과 스마트 컨트랙트는 관료적 보안이 아닌 암호학적 보안을 통해 프로그래밍 가능하고 즉각적인 정산을 가능하게 합니다.

조율 : 서로 다른 조직의 에이전트들이 신뢰할 수 있는 중개자 없이 어떻게 협상합니까? 전통적인 비즈니스에는 계약서, 변호사, 집행 메커니즘이 필요합니다. 스마트 컨트랙트는 무신뢰(trustless) 합의 실행을 가능하게 합니다. 즉, 코드가 검증 가능한 조건에 따라 자동으로 약관을 집행합니다.

귀속(Attribution) : 특정 출력을 어떤 에이전트가 생성했는지 어떻게 증명합니까? AI 콘텐츠의 출처(provenance)는 저작권, 책임 소재 및 수익 분배에 있어 매우 중요해집니다. 온체인 인증은 생성, 수정 및 소유권에 대한 변조 방지 기록을 제공합니다.

블록체인은 단순히 이러한 기능을 가능하게 하는 것이 아니라, 중앙 집중식 신뢰 가정을 다시 도입하지 않고도 이를 실현할 수 있는 유일한 아키텍처입니다. 이러한 융합은 투기적 내러티브가 아닌 기술적 필요성에 의해 발생합니다.

블록체인이 AI 를 필요로 하는 이유: 지능 문제

블록체인은 AI 가 해결할 수 있는 근본적인 한계에 직면해 있습니다:

복잡성 추상화: 블록체인의 사용자 경험(UX)은 시드 구문, 가스비, 트랜잭션 서명 등 여전히 매우 불편합니다. AI 에이전트는 이러한 복잡성을 추상화하여, 기술적 구현 세부 사항을 노출하지 않고 사용자의 의도를 실행하는 지능형 매개체 역할을 할 수 있습니다.

정보 처리: 블록체인은 데이터를 제공하지만 이를 해석할 지능이 부족합니다. AI 에이전트는 온체인 활동 패턴을 분석하고, 차익 거래 기회를 식별하며, 시장 움직임을 예측하고, 인간이 불가능한 속도와 규모로 전략을 최적화합니다.

자동화: 스마트 컨트랙트는 로직을 실행하지만 명시적인 프로그래밍 없이는 변화하는 조건에 적응할 수 없습니다. AI 에이전트는 결과로부터 학습하고 모든 매개변수 변경에 대해 거버넌스 제안을 요구하지 않고도 전략을 조정하는 동적인 의사 결정을 제공합니다.

발견 가능성: DeFi 프로토콜은 파편화로 인해 어려움을 겪고 있습니다. 사용자는 수백 개의 플랫폼에서 기회를 수동으로 찾아야 합니다. AI 에이전트는 정교한 다변수 최적화를 기반으로 활동을 지속적으로 스캔, 평가 및 최적의 프로토콜로 라우팅합니다.

리스크 관리: 인간 트레이더는 규율, 감정 및 주의력의 한계로 인해 어려움을 겪습니다. AI 에이전트는 미리 정의된 리스크 매개변수를 강제하고, 주저 없이 손절매를 실행하며, 여러 체인에 걸쳐 포지션을 연중무휴 24시간 모니터링합니다.

이 관계는 공생 관계가 됩니다. 블록체인은 AI 조정을 가능하게 하는 신뢰 인프라를 제공하고, AI 는 블록체인 인프라를 복잡한 경제 활동에 사용할 수 있게 만드는 지능을 제공합니다.

신흥 에이전트 경제

인프라 스택은 새로운 경제 모델을 가능하게 합니다:

서비스형 에이전트 (Agent-as-a-Service): 자율 에이전트는 수요와 공급에 따라 동적으로 가격을 책정하여 필요에 따라 자신의 기능을 임대합니다. 플랫폼이나 중개자 없이 에이전트 간 직접 서비스 시장이 형성됩니다.

협업 지능: 에이전트들은 복잡한 작업을 위해 전문 지식을 결합하며, 기여도에 따라 수익을 자동으로 분배하는 스마트 컨트랙트를 통해 협업합니다. 개별 에이전트의 능력을 넘어서는 문제를 해결하는 다중 에이전트 시스템입니다.

예측 증강: 에이전트는 정보 흐름을 지속적으로 모니터링하고, 확률 추정치를 업데이트하며, 인간이 읽을 수 있는 뉴스보다 먼저 통찰력을 바탕으로 거래합니다. 정보 금융(InfoFi)은 알고리즘화되어 에이전트가 가격 발견을 주도하게 됩니다.

자율 조직: 인간의 투표 대신 검증 가능한 추론을 통해 의사 결정을 내리고 토큰 보유자를 대신하여 실행하는 AI 에이전트에 의해 전적으로 관리되는 DAO 입니다. 암호학적 책임성을 바탕으로 기계의 속도로 운영되는 조직입니다.

콘텐츠 경제: AI 생성 콘텐츠에 온체인 출처(provenance)를 부여하여 자동화된 라이선싱, 로열티 분배 및 파생 저작물 생성 권리가 가능해집니다. 에이전트는 사용 조건을 협상하고 스마트 컨트랙트를 통해 속성(attribution)을 강제합니다.

이것들은 가설이 아닙니다. 초기 버전은 이미 작동하고 있습니다. 문제는 수백만 명의 자율 경제 행위자를 지원하기 위해 인프라가 얼마나 빨리 확장되느냐입니다.

남아있는 기술적 과제

급격한 발전에도 불구하고 상당한 장애물이 남아 있습니다:

확장성: 현재 블록체인은 처리량 문제로 어려움을 겪고 있습니다. 지속적인 마이크로 트랜잭션을 실행하는 수백만 개의 에이전트에는 레이어 2 솔루션, 옵티미스틱 롤업 또는 에이전트 전용 체인이 필요합니다.

프라이버시: 많은 에이전트 작업에는 기밀 로직이나 데이터가 필요합니다. TEE 는 부분적인 솔루션을 제공하지만, 완전 동형 암호 (FHE) 및 고급 암호화 기술은 아직 상용화 규모로 사용하기에는 너무 비용이 많이 듭니다.

규제: 자율 경제 행위자는 기존 법적 프레임워크에 도전합니다. 에이전트가 피해를 입혔을 때 누가 책임을 집니까? KYC / AML 요구 사항은 어떻게 적용됩니까? 규제 명확성은 기술적 능력보다 뒤처져 있습니다.

모델 비용: LLM 추론 비용은 여전히 높습니다. 탈중앙화 네트워크는 검증 오버헤드를 추가하면서도 중앙화된 API 가격과 경쟁해야 합니다. 경제적 생존 가능성을 위해서는 모델 효율성의 지속적인 개선이 필요합니다.

오라클 문제: 에이전트에게는 신뢰할 수 있는 현실 세계 데이터가 필요합니다. 기존 오라클 솔루션은 신뢰 가정과 지연 시간을 도입합니다. 온체인 로직과 오프체인 정보 사이의 더 나은 브릿지가 여전히 중요합니다.

이러한 과제들은 극복 불가능한 것이 아니며, 명확한 해결 경로가 있는 엔지니어링 문제입니다. 인프라의 궤적은 12-24개월 이내에 해결될 것임을 시사합니다.

2026년의 변곡점

2026년에는 여러 촉매제가 수렴됩니다:

표준의 성숙: 주요 체인에서 ERC-8004 가 채택되면서 상호 운용 가능한 신원 인프라가 구축됩니다. 에이전트는 이더리움 (Ethereum), BNB 체인 및 신흥 생태계 전반에서 원활하게 작동합니다.

모델 효율성: 더 작고 전문화된 모델이 특정 작업에 대한 성능을 유지하면서 추론 비용을 10-100배 절감합니다. 경제적 타당성이 크게 향상됩니다.

규제 명확성: 첫 번째 관할 구역에서 자율 에이전트를 위한 프레임워크를 수립하여 기관 도입을 위한 법적 확실성을 제공합니다.

애플리케이션의 돌파구: 예측 시장, DeFi 최적화 및 콘텐츠 제작 분야에서 에이전트가 인간 운영자보다 명확한 우위를 점하며 크립토 네이티브 사용자를 넘어 채택을 가속화합니다.

인프라 경쟁: 탈중앙화 추론, 에이전트 조정 프로토콜 및 특화된 체인을 구축하는 여러 팀이 경쟁적인 압력을 만들어 개발을 가속화합니다.

융합은 실험 단계에서 인프라 단계로 전환됩니다. 얼리 어답터는 우위를 점하고, 플랫폼은 에이전트 지원을 기본으로 통합하며, 경제 활동은 점차 자율 매개체를 통해 흐르게 될 것입니다.

Web3 개발에 주는 시사점

Web3의 다음 단계를 준비하는 개발자들은 다음 사항을 우선순위에 두어야 합니다:

에이전트 우선 설계 (Agent-First Design): 자율적 행위자를 예외 사례가 아닌 주요 사용자로 취급해야 합니다. 에이전트가 활동의 주류를 이룬다는 가정하에 API, 수수료 구조, 거버넌스 메커니즘을 설계하십시오.

결합성 (Composability): 에이전트가 쉽게 통합하고, 서로 협력하며, 확장할 수 있는 프로토콜을 구축해야 합니다. 독점적인 구현보다는 표준화된 인터페이스가 더 중요합니다.

검증 가능성 (Verification): 단순히 실행 결과만 제공하는 것이 아니라 실행에 대한 암호학적 증명을 제공해야 합니다. 에이전트가 신뢰 사슬을 구축하기 위해서는 검증 가능한 연산이 필요합니다.

경제적 효율성 (Economic Efficiency): 마이크로 트랜잭션, 지속적인 정산, 동적 수수료 시장에 최적화해야 합니다. 전통적인 배치 처리나 수동 개입은 에이전트 활동의 규모를 감당할 수 없습니다.

프라이버시 옵션 (Privacy Options): 투명한 에이전트 운영과 기밀 에이전트 운영을 모두 지원해야 합니다. 사용 사례에 따라 서로 다른 프라이버시 보장이 필요합니다.

인프라는 이미 존재합니다. 표준이 정립되고 있으며, 경제적 인센티브도 일치하고 있습니다. AI × Web3 융합은 다가올 미래가 아니라 이미 시작되었습니다. 이제 남은 질문은 이것입니다. 향후 10년 동안 자율적 경제 활동의 토대가 될 인프라를 누가 구축할 것인가?

BlockEden.xyz는 Web3 애플리케이션을 위한 엔터프라이즈급 인프라를 제공하며, 주요 블록체인 생태계 전반에 걸쳐 신뢰할 수 있는 고성능 RPC 액세스를 지원합니다. AI 에이전트 인프라 및 자율 시스템 지원을 위한 당사의 서비스를 확인해 보세요.


출처:

InfoFi의 폭발적 성장: 정보가 월스트리트에서 가장 많이 거래되는 자산이 된 방법

· 약 12 분
Dora Noda
Software Engineer

금융 산업은 대부분이 예상치 못한 문턱을 방금 넘었습니다. 2026년 2월, 예측 시장은 주간 거래량 63.2억 달러를 기록했습니다. 이는 단순한 투기성 도박이 아니라, 기관 투자자들이 정보 자체를 거래 가능한 상품으로 가격을 매긴 결과입니다.

정보 금융(Information Finance) 또는 "InfoFi"는 지난 10년간의 변화가 정점에 달한 모습입니다. 2025년 46.3억 달러에서 2034년에는 1,763.2억 달러로 성장할 것으로 예상되는 Web3 인프라는 예측 시장을 단순한 베팅 플랫폼에서 비탈릭 부테린(Vitalik Buterin)이 "진실 엔진(Truth Engines)"이라고 부르는 수준으로 발전시켰습니다. 이는 전통적인 미디어나 여론 조사 시스템보다 더 빠르게 지능을 집계하는 금융 메커니즘입니다.

이것은 단순한 암호화폐 투기가 아닙니다. NYSE(뉴욕증권거래소)의 소유주인 ICE(Intercontinental Exchange)는 폴리마켓(Polymarket)에 20억 달러를 투입하며 해당 예측 시장의 가치를 90억 달러로 평가했습니다. 이제 헤지펀드와 중앙은행은 주식 및 파생상품에 사용되는 것과 동일한 터미널에 예측 시장 데이터를 통합하고 있습니다. InfoFi는 이제 금융 인프라가 되었습니다.

InfoFi의 실제 의미

InfoFi는 정보를 하나의 자산군(Asset Class)으로 취급합니다. 참가자들은 뉴스를 수동적으로 소비하는 대신, 주장의 정확성에 자본을 걸어 모든 데이터 포인트를 가격 발견이 가능한 시장으로 바꿉니다.

메커니즘은 다음과 같이 작동합니다:

전통적인 정보 흐름: 사건 발생 → 미디어 보도 → 분석가 해석 → 시장 반응 (며칠에서 몇 주 소요)

InfoFi 정보 흐름: 시장이 사건을 예측 → 정확한 예측에 자본 유입 → 가격이 즉시 진실을 신호함 (몇 분에서 몇 시간 소요)

예측 시장은 2026년 1월까지 주간 거래량 59억 달러에 도달했으며, 칼시(Kalshi)가 66.4%의 시장 점유율을 차지하고 폴리마켓은 ICE의 기관용 인프라 지원을 받고 있습니다. AI 에이전트가 현재 거래 활동의 30% 이상을 기여하며 지정학적 사건, 경제 지표 및 기업 성과에 대해 지속적으로 가격을 매기고 있습니다.

그 결과, 정보가 뉴스가 되기 전에 가격이 형성됩니다. 예측 시장은 WHO의 발표 몇 주 전에 코로나19의 심각성을 파악했고, 전통적인 여론 조사보다 2024년 미국 대선 결과를 더 정확하게 예측했으며, 공식 발표에 앞서 중앙은행의 정책 변화를 예견했습니다.

폴리마켓 vs 칼시의 대결

두 플랫폼이 InfoFi 환경을 지배하고 있으며, 이는 정보 시장에 대한 근본적으로 다른 접근 방식을 나타냅니다.

칼시(Kalshi): 연방 규제를 받는 도전자입니다. 2025년에 431억 달러의 거래량을 처리했으며, CFTC(상품선물거래위원회)의 감독을 통해 기관의 신뢰성을 확보했습니다. 달러로 거래되며, 전통적인 증권 계좌와 통합되고 미국 법규를 준수하는 시장에 집중합니다.

규제 프레임워크는 시장 범위를 제한하지만 기관 자본을 끌어들입니다. 전통 금융권은 칼시가 기존의 규제 준수 인프라 내에서 운영되기 때문에 칼시를 통한 주문 라우팅을 편안하게 느낍니다. 2026년 2월까지 칼시는 2026년 거래량 1위를 차지할 확률 34%를 유지하고 있으며, 거래의 91.1%가 스포츠 계약에 집중되어 있습니다.

폴리마켓(Polymarket): 암호화폐 네이티브 도전자입니다. 블록체인 인프라를 기반으로 구축되었으며, 2025년에 330억 달러의 거래량을 처리했습니다. 스포츠 비중은 39.9%에 불과하며 나머지는 지정학, 경제, 기술 및 문화 행사 등 훨씬 더 다양한 시장을 포괄합니다.

ICE의 20억 달러 투자는 모든 것을 바꾸어 놓았습니다. 폴리마켓은 이전에는 전통적인 거래소에만 허용되었던 기관용 결제 인프라, 시장 데이터 배포 및 규제 경로에 접근할 수 있게 되었습니다. 트레이더들은 ICE와의 파트너십을 예측 시장 데이터가 곧 블룸버그 터미널 및 로이터 피드와 함께 등장할 것이라는 확인으로 보고 있습니다.

이 경쟁은 혁신을 주도합니다. 칼시의 규제 명확성은 기관 도입을 가능하게 합니다. 폴리마켓의 암호화폐 인프라는 글로벌 참여와 결합성(composability)을 가능하게 합니다. 두 방식 모두 InfoFi를 주류 수용으로 이끌고 있으며, 서로 다른 경로가 동일한 목적지를 향해 수렴하고 있습니다.

정보 트레이더로서의 AI 에이전트

AI 에이전트는 단순히 정보를 소비하는 것에 그치지 않고 정보를 거래합니다.

현재 예측 시장 거래량의 30% 이상이 AI 에이전트로부터 발생하고 있으며, 이들은 지속적으로 데이터 스트림을 분석하고 거래를 실행하며 확률 예측을 업데이트합니다. 이는 단순히 사전 정의된 규칙을 따르는 봇이 아닙니다. 현대의 AI 에이전트는 여러 데이터 소스를 통합하고, 통계적 이상 징후를 식별하며, 진화하는 정보 환경에 따라 포지션을 조정합니다.

AI 트레이딩의 부상은 다음과 같은 피드백 루프를 생성합니다:

  1. AI 에이전트가 인간보다 빠르게 정보를 처리합니다.
  2. 트레이딩 활동이 가격 신호를 생성합니다.
  3. 가격 신호는 다른 에이전트들에게 정보 입력값이 됩니다.
  4. 더 많은 에이전트가 참여하여 유동성과 정확도가 향상됩니다.

이러한 역학 관계는 예측 시장을 인간의 투기장에서 알고리즘 기반의 정보 발견의 장으로 변화시켰습니다. 이제 시장은 AI 에이전트가 뉴스 흐름, 사회적 정서, 경제 지표 및 시장 간 상관관계를 바탕으로 확률 가격을 지속적으로 재산정함에 따라 실시간으로 업데이트됩니다.

이러한 영향은 단순 트레이딩을 넘어섭니다. 예측 시장은 스마트 컨트랙트를 위한 "진실 오라클 (truth oracles)"이 되어 경제적으로 뒷받침되는 검증 가능한 데이터 피드를 제공합니다. DeFi 프로토콜은 예측 시장의 결과에 따라 정산을 수행할 수 있으며, DAO는 거버넌스 결정을 위해 인포파이 (InfoFi) 합의를 활용할 수 있습니다. 웹3 (Web3) 스택 전체가 고품질의 인센티브가 정렬된 정보 인프라에 접근할 수 있게 된 것입니다.

X 플랫폼 크래시: 인포파이 (InfoFi)의 첫 번째 실패

모든 인포파이 실험이 성공한 것은 아닙니다. 2026년 1월, X (구 트위터)가 참여 보상형 애플리케이션을 금지한 후 인포파이 토큰 가격이 폭락했습니다.

KAITO (18% 하락) 및 COOKIE (20% 하락)와 같은 프로젝트들은 사용자의 참여, 데이터 기여 및 콘텐츠 품질에 보상을 제공하는 "자산으로서의 정보 (information-as-an-asset)" 모델을 구축했습니다. 그 논거는 '관심 (attention)은 가치가 있으며, 사용자는 토큰 경제를 통해 그 가치를 획득해야 한다'는 것이었습니다.

이 폭락은 중앙화된 플랫폼 위에 탈중앙화 경제를 구축하는 것의 근본적인 결함을 드러냈습니다. X가 서비스 약관을 변경하자 인포파이 생태계 전체가 하룻밤 사이에 증발했습니다. 사용자는 토큰 가치를 잃었고, 프로젝트는 배포 채널을 잃었습니다. "탈중앙화" 정보 경제가 중앙화된 플랫폼 리스크에 얼마나 취약한지 증명된 셈입니다.

생존자들은 여기서 교훈을 얻었습니다. 진정한 인포파이 인프라는 웹2 (Web2) 플랫폼에 대한 의존성이 아닌, 블록체인 네이티브 배포 방식이 필요합니다. 프로젝트들은 파캐스터 (Farcaster), 렌즈 (Lens)와 같은 탈중앙화 소셜 프로토콜과 온체인 데이터 마켓으로 방향을 선회했습니다. 이번 크래시는 하이브리드 웹2-웹3 모델에서 완전한 탈중앙화 정보 인프라로의 이전을 가속화했습니다.

예측 시장 그 이상의 인포파이 (InfoFi)

자산으로서의 정보는 이진법적 예측을 넘어 확장됩니다.

데이터 DAO (Data DAOs): 데이터 세트를 공동으로 소유, 큐레이팅 및 수익화하는 조직입니다. 구성원은 데이터를 기여하고 품질을 검증하며, 상업적 사용으로 발생한 수익을 공유합니다. 2025년 중반까지 실물 자산 (RWA) 토큰화 규모가 230억 달러에 도달하며, 온체인 가치 표상에 대한 기관들의 수요를 입증했습니다.

탈중앙화 물리적 인프라 네트워크 (DePIN): 2025년 초 기준으로 약 300억 달러의 가치를 지니고 있으며 1,500개 이상의 활성 프로젝트가 존재합니다. 개인은 남는 하드웨어 (GPU 성능, 대역폭, 저장 공간)를 공유하고 토큰을 얻습니다. 정보는 거래 가능한 컴퓨팅 리소스가 됩니다.

AI 모델 마켓플레이스: 블록체인은 검증 가능한 모델 소유권과 사용 추적을 가능하게 합니다. 제작자는 온체인 라이선싱을 통해 AI 모델을 수익화하고, 스마트 컨트랙트는 수익 배분을 자동화합니다. 정보 (모델 가중치, 학습 데이터)는 조합 가능하고 거래 가능한 인프라가 됩니다.

자격 증명 마켓 (Credential Markets): 영지식 증명 (Zero-knowledge proofs)은 프라이버시를 보호하면서 자격 증명을 검증할 수 있게 합니다. 사용자는 개인 데이터를 노출하지 않고 자격을 증명합니다. 검증 가능한 자격 증명은 채용, 대출 및 거버넌스 맥락에서 거래 가능한 자산이 됩니다.

이들의 공통점은 정보가 '무료 외부 효과'에서 '가격이 매겨진 자산'으로 전환된다는 것입니다. 시장은 검색 쿼리, 관심도 지표, 전문성 검증, 컴퓨팅 리소스 등 이전에는 수익화할 수 없었던 데이터의 가치를 발견하고 있습니다.

기관급 인프라 통합

월스트리트의 인포파이 채택은 이론적인 수준을 넘어 실무 운영 단계에 접어들었습니다.

ICE의 20억 달러 규모 폴리마켓 (Polymarket) 투자는 컴플라이언스 프레임워크, 정산 인프라, 시장 데이터 배포 및 규제 경로와 같은 기관급 기반 시설을 제공합니다. [예측 시장 데이터는 이제 헤지펀드 매니저와 중앙은행이 사용하는 터미널에 통합되고 있습니다](https://markets.financialcontent.com/stocks/article/predictstreet-2026-2-6-the-ice-age-of-infofi-how- a-2-billion-bet-turned-polymarket-into-wall-streets-truth-engine).

이러한 통합은 예측 시장을 대안 데이터 소스에서 주요 인텔리전스 인프라로 격상시킵니다. 포트폴리오 매니저는 기술적 지표와 함께 인포파이 확률을 참조합니다. 리스크 관리 시스템은 예측 시장 신호를 통합하며, 트레이딩 알고리즘은 실시간 확률 업데이트를 소비합니다.

이러한 전환은 블룸버그 터미널이 수십 년에 걸쳐 데이터 소스를 흡수한 과정과 유사합니다. 채권 가격에서 시작해 뉴스 피드를 확장하고 소셜 정서를 통합한 것과 같은 맥락입니다. 인포파이는 다음 단계인 '전통적인 데이터로는 가격을 매길 수 없는 사건에 대한 경제적 기반의 확률 추정치'를 제공합니다.

전통 금융권은 이 가치 제안을 인식하고 있습니다. 시장이 정확성에 대해 지속적으로 가격을 매길 때 정보 비용은 감소합니다. 헤지펀드는 예측 시장이 인센티브 정렬을 통해 유기적으로 생성하는 정보를 얻기 위해 독점 리서치에 수백만 달러를 지불합니다. 중앙은행은 인포파이가 실시간 확률 분포로 포착하는 여론 조사를 통해 대중의 정서를 모니터링합니다.

업계가 2025년 400억 달러에서 2027년까지 1,000억 달러 이상의 성장을 전망함에 따라, 기관 자본은 투기성 크립토 베팅이 아닌 핵심 금융 시장 구성 요소로서 인포파이 인프라로 계속 유입될 것입니다.

규제적 과제

InfoFi 의 폭발적인 성장은 규제 당국의 조사를 끌어들입니다.

Kalshi 는 CFTC 의 감독 하에 운영되며 예측 시장을 파생 상품으로 취급합니다. 이 프레임워크는 명확성을 제공하지만 시장 범위를 제한합니다 — 정치 선거 금지, "사회적으로 해로운" 결과 금지, 규제 관할권 밖의 사건 금지 등입니다.

Polymarket 의 크립토 네이티브 (Crypto-native) 방식은 글로벌 시장을 가능하게 하지만 규제 준수를 복잡하게 만듭니다. 규제 당국은 예측 시장이 도박인지, 증권 발행인지, 아니면 정보 서비스인지에 대해 논의하고 있습니다. 분류에 따라 어떤 기관이 규제할지, 어떤 활동이 허용될지, 누가 참여할 수 있는지가 결정됩니다.

논쟁은 근본적인 질문에 집중됩니다 :

  • 예측 시장은 도박인가 아니면 정보 발견인가 ?
  • 시장 포지션을 나타내는 토큰은 증권에 해당하는가 ?
  • 플랫폼은 지리적 위치나 적격 투자자 여부에 따라 참여자를 제한해야 하는가 ?
  • 기존 금융 규제가 탈중앙화 정보 시장에 어떻게 적용되는가 ?

규제 결과는 InfoFi 의 궤적을 결정할 것입니다. 제한적인 프레임워크는 혁신을 해외로 몰아내는 동시에 기관의 참여를 제한할 수 있습니다. 균형 잡힌 규제는 시장의 무결성을 보호하면서 대중적 채택을 가속화할 수 있습니다.

초기 신호는 실용적인 접근 방식을 시사합니다. 규제 당국은 가격 발견 및 리스크 관리를 위한 예측 시장의 가치를 인정하고 있습니다. 과제는 조작을 방지하고 소비자를 보호하며 금융 안정을 유지하면서도 혁신을 가능하게 하는 프레임워크를 구축하는 것입니다.

향후 전망

InfoFi 는 단순한 예측 시장 그 이상을 의미합니다 — 이는 정보 경제를 위한 인프라입니다.

AI 에이전트가 인간과 컴퓨터의 상호작용을 점점 더 매개함에 따라, 신뢰할 수 있는 정보원이 필요해졌습니다. 블록체인은 검증 가능하고 인센티브가 일치하는 데이터 피드를 제공합니다. 예측 시장은 실시간 확률 분포를 제공합니다. 이들의 결합은 자율 시스템을 위한 "진실 인프라 (truth infrastructure)" 를 구축합니다.

DeFi 프로토콜은 이미 결제를 위해 InfoFi 오라클을 통합하고 있습니다. DAO 는 거버넌스를 위해 예측 시장을 사용합니다. 보험 프로토콜은 온체인 확률 추정치를 사용하여 리스크의 가격을 책정합니다. 다음 단계는 공급망 예측, 시장 조사 및 전략적 계획을 위한 기업의 도입입니다.

2034 년까지의 1,760 억 달러 규모의 시장 전망은 점진적인 성장을 가정한 것입니다. 혁신은 더 빠르게 가속화될 수 있습니다. 주요 금융 기관이 InfoFi 인프라를 완전히 통합한다면, 전통적인 설문 조사, 리서치 및 예측 산업은 실존적 압박에 직면하게 될 것입니다. 시장이 지속적으로 확률을 가격에 반영하는데 왜 분석가들에게 추측의 대가를 지불하겠습니까 ?

전환 과정이 순탄하지는 않을 것입니다. 규제 싸움은 격화될 것이며, 플랫폼 경쟁은 통폐합을 강요할 것입니다. 시장 조작 시도는 인센티브 조율 능력을 시험하게 될 것입니다. 하지만 근본적인 논제는 여전합니다 : 정보는 가치가 있고, 시장은 가격을 발견하며, 블록체인은 인프라를 가능하게 합니다.

InfoFi 는 전통 금융을 대체하는 것이 아니라, 스스로 전통 금융이 되어가고 있습니다. 질문은 정보 시장이 대중적 채택에 도달할지 여부가 아니라, 기관 자본이 그 필연성을 얼마나 빨리 인식하느냐는 것입니다.

BlockEden.xyz 는 Web3 애플리케이션을 위한 엔터프라이즈급 인프라를 제공하며, 주요 블록체인 생태계 전반에 걸쳐 신뢰할 수 있는 고성능 RPC 액세스를 제공합니다. 확장 가능한 InfoFi 및 예측 시장 인프라를 위해 당사의 서비스 를 살펴보세요.


출처 :

InfoFi 시장 현황: 예측 시장을 넘어 인프라로서의 데이터로

· 약 10 분
Dora Noda
Software Engineer

예측 시장의 주간 거래량이 2026년 2월 초에 63억 2천만 달러를 돌파했으며, Kalshi가 51%의 시장 점유율을 차지하고 Polymarket이 47%를 기록했습니다. 하지만 정보 금융 (InfoFi)은 단순한 이진 베팅을 훨씬 뛰어넘는 개념입니다. 데이터 토큰화 시장, 데이터 DAO, 그리고 자산으로서의 정보 인프라는 정보가 프로그래밍 가능하고, 거래 가능하며, 검증 가능한 신흥 생태계를 구축하고 있습니다.

InfoFi의 논지: 정보는 가치를 지니고, 시장은 가격을 발견하며, 블록체인은 인프라를 가능하게 합니다. 이 기사에서는 Polymarket의 예측 엔진부터 Ocean Protocol의 데이터 토큰화, 데이터 DAO에서 AI가 제약하는 진실 시장에 이르기까지 그 지형을 살펴봅니다.

예측 시장의 토대

예측 시장은 불확실한 미래 사건에 대한 가격 신호를 제공함으로써 InfoFi 생태계의 닻 역할을 합니다.

Kalshi-Polymarket의 양대 독점 체제

Kalshi와 Polymarket 사이에서 시장이 거의 51대 49로 나뉘었지만, 그 구성은 근본적으로 다릅니다.

Kalshi: 2025년에 431억 달러 이상의 거래를 처리했으며, 스포츠 베팅에 큰 비중을 두고 있습니다. CFTC 라이선스를 보유하고 달러화로 표시되며, 미국 리테일 증권사와 통합되어 있습니다. Robinhood의 "예측 시장 허브(Prediction Markets Hub)"는 Kalshi 인프라를 통해 수십억 달러 규모의 계약을 유입시킵니다.

Polymarket: 2025년에 334억 달러를 처리했으며, 지정학, 거시 경제, 과학적 돌파구와 같은 "고신호(high-signal)" 이벤트에 집중합니다. 크립토 네이티브하며 전 세계적으로 참여가 가능하고 DeFi와 결합이 가능합니다. 2025년 말에 CFTC 라이선스를 통한 미국 시장 재진입을 위해 1억 1,200만 달러 규모의 QCEX 인수를 완료했습니다.

이러한 경쟁은 혁신을 주도합니다. Kalshi가 리테일 및 기관의 규제 준수를 확보하는 반면, Polymarket은 크립토 네이티브 결합성과 국제적 접근성을 선도합니다.

베팅을 넘어: 정보 오라클

예측 시장은 단순한 투기 도구에서 AI 시스템을 위한 정보 오라클로 진화했습니다. 시장의 확률은 AI 환각(hallucination)을 억제하는 "외부 앵커" 역할을 하며, 현재 많은 AI 시스템은 예측 시장에서 거래될 수 없는 주장의 가중치를 낮게 평가합니다.

이는 피드백 루프를 생성합니다. AI 에이전트가 예측 시장에서 거래하고, 시장 가격은 AI 출력에 정보를 제공하며, AI가 생성한 예측은 인간의 거래에 영향을 미칩니다. 결과적으로 정보 시장은 알고리즘 진실 발견을 위한 인프라가 됩니다.

데이터 토큰화: Ocean Protocol 모델

예측 시장이 미래의 사건에 가격을 매기는 동안, Ocean Protocol은 기존 데이터 세트를 토큰화하여 AI 학습 데이터, 연구 데이터 세트 및 독점 정보를 위한 시장을 만듭니다.

데이터토큰(Datatoken) 아키텍처

Ocean의 모델: 각 데이터토큰은 기본 지적 재산권 소유자의 서브 라이선스를 나타내며, 사용자가 관련 데이터 세트에 액세스하고 사용할 수 있도록 합니다. 데이터토큰은 ERC20 표준을 준수하므로 거래가 가능하고, DeFi와 결합할 수 있으며, 스마트 컨트랙트를 통해 프로그래밍할 수 있습니다.

3계층 스택:

데이터 NFT(Data NFTs): 기초 데이터 세트의 소유권을 나타냅니다. 제작자는 출처와 제어 권한을 설정하는 NFT를 발행(민팅)합니다.

데이터토큰(Datatokens): 액세스 제어 토큰입니다. 데이터토큰을 보유하면 소유권 이전 없이 일시적인 사용 권한을 부여받습니다. 데이터 액세스와 데이터 소유권을 분리합니다.

Ocean 마켓플레이스(Ocean Marketplace): 데이터토큰을 위한 탈중앙화 거래소입니다. 데이터 제공자는 자산을 수익화하고, 소비자는 액세스 권한을 구매하며, 투기자는 토큰을 거래합니다.

이 아키텍처는 중요한 문제를 해결합니다. 데이터 제공업체는 통제력을 잃지 않고 수익을 창출하고, 소비자는 전체 구매 비용 없이 액세스할 수 있으며, 시장은 정보 가치에 대한 공정한 가격을 발견합니다.

거래를 넘어선 사용 사례

AI 학습 시장: 모델 개발자는 학습을 위해 데이터세트 액세스 권한을 구매합니다. 데이터토큰 경제는 인센티브를 일치시킵니다 — 가치 있는 데이터는 더 높은 가격을 형성하며, 제작자는 모델 학습 활동을 통해 지속적인 수익을 얻습니다.

연구 데이터 공유: 통제된 배포를 위해 학술 및 과학 데이터세트가 토큰화됩니다. 연구자는 출처를 확인하고 사용량을 추적하며, 자동화된 로열티 배포를 통해 데이터 생성자에게 보상합니다.

기업 데이터 협업: 기업은 전체 전송 대신 토큰화된 액세스를 통해 독점 데이터세트를 공유합니다. 기밀성을 유지하면서 협업 분석 및 모델 개발을 가능하게 합니다.

개인 데이터 수익화: 개인은 건강 기록, 행동 데이터 또는 소비자 선호도를 토큰화합니다. 플랫폼이 보상 없이 가치를 추출하도록 두는 대신 액세스 권한을 직접 판매합니다.

Ocean은 데이터 DAO가 데이터 협동조합으로서 이더리움 결합성을 갖도록 지원하며, 데이터가 프로그래밍 가능한 금융 자산이 되는 인프라를 구축합니다.

데이터 DAO: 집단 정보 소유권

데이터 DAO는 데이터 자산을 관리하는 탈중앙화 자율 조직으로 기능하며, 공동 소유, 거버넌스 및 수익화를 가능하게 합니다.

데이터 연합 모델

멤버들은 집단적으로 데이터를 기여하고, DAO는 액세스 정책과 가격을 관리하며, 수익은 스마트 컨트랙트를 통해 자동으로 배분되고, 거버넌스 권한은 데이터 기여도에 따라 확장됩니다.

새롭게 등장하는 사례:

헬스케어 데이터 연합: 환자들은 암호화 증명을 통해 개인의 프라이버시를 유지하면서 건강 기록을 풀(pool)에 모읍니다. 연구자는 집계된 액세스 권한을 구매하고 수익은 기여자에게 돌아갑니다. 데이터는 중앙 집중식 의료 시스템이 아닌 환자가 직접 제어합니다.

신경과학 연구 DAO: 학술 기관과 연구자들은 뇌 영상 데이터세트, 유전 정보 및 임상 결과를 기여합니다. 집단 데이터세트는 개별 기여보다 더 큰 가치를 지니게 되어 연구를 가속화하는 동시에 데이터 제공자에게 보상합니다.

생태/GIS 프로젝트: 환경 센서, 위성 이미지 및 지리 데이터가 커뮤니티에 의해 통합됩니다. DAO는 기후 모델링, 도시 계획 및 보존을 위한 데이터 액세스를 관리하는 동시에, 해당 지역에서 생성된 데이터로부터 지역 커뮤니티가 혜택을 받을 수 있도록 보장합니다.

데이터 DAO는 조정 문제를 해결합니다: 개인은 협상력이 부족하고, 플랫폼은 독점 이윤을 추출하며, 데이터는 고립되어 있습니다. 공동 소유권은 공정한 보상과 민주적인 거버넌스를 가능하게 합니다.

디지털 자산으로서의 정보

이 개념은 데이터 자산을 디지털 자산으로 취급하며, 원래 암호화폐를 위해 설계된 블록체인 인프라를 사용하여 정보 소유권, 전송 및 가치 평가를 관리합니다.

이러한 아키텍처적 선택은 강력한 결합성을 생성합니다: 데이터 자산은 DeFi 프로토콜과 통합되고, 자동 시장 조성자(AMM)에 참여하며, 대출 담보로 사용되거나 프로그래밍 가능한 수익 공유를 가능하게 합니다.

인프라 스택

신원 계층: 데이터 소유권 및 기여에 대한 암호화 증명입니다. 표절을 방지하고 출처를 확립하며 저작자 표시를 가능하게 합니다.

액세스 제어: 어떤 조건 하에서 누가 데이터에 액세스할 수 있는지 관리하는 스마트 컨트랙트입니다. 수동 계약 협상을 대체하는 프로그래밍 가능한 라이선스입니다.

가격 책정 메커니즘: 데이터세트의 공정 가치를 발견하는 자동 시장 조성자입니다. 임의적인 기관 가격 책정 대신 수요와 공급의 역학에 따릅니다.

수익 배분: 기여자, 큐레이터 및 플랫폼 운영자 간에 수익을 자동으로 나누는 스마트 컨트랙트입니다. 결제 중개자와 지연을 제거합니다.

결합성: 데이터 자산이 더 넓은 Web3 생태계와 통합됩니다. 데이터세트를 담보로 사용하거나 파생 상품을 만들거나 복합 상품으로 묶을 수 있습니다.

2025년 중반까지 온체인 RWA 시장(데이터 포함) 규모는 230억 달러에 달했으며, 이는 투기성 암호화폐를 넘어 토큰화된 자산에 대한 기관의 수요를 입증합니다.

AI를 제약하는 InfoFi: 검증 루프

AI 시스템은 진실 검증을 위해 InfoFi 인프라에 점점 더 의존하고 있습니다.

예측 시장은 AI 환각을 억제합니다: 거래자는 실제 자금을 위험에 노출시키고, 시장 확률은 외부 지표 역할을 하며, AI 시스템은 베팅할 수 없는 주장에 대해서는 가중치를 낮춥니다.

이는 품질 필터를 생성합니다: 검증 가능한 주장은 예측 시장에서 거래되고, 검증 불가능한 주장은 낮은 AI 신뢰도를 받으며, 시장 가격은 지속적인 확률 업데이트를 제공하고, AI 결과물은 경제적 현실에 더 근거하게 됩니다.

피드백 루프는 양방향으로 작동합니다: AI 에이전트는 시장 효율성을 개선하는 예측을 생성하고, 시장 가격은 AI 학습 데이터 품질에 정보를 제공하며, 고가치 예측은 데이터 수집 노력을 촉진하고, 정보 시장은 노이즈보다 신호에 최적화됩니다.

2026 InfoFi 생태계 지도

이 환경은 상호 연결된 여러 계층으로 구성됩니다 :

Layer 1 : 진실 발견 (Truth Discovery)

  • 예측 시장 (Kalshi, Polymarket)
  • 전망 플랫폼
  • 평판 시스템
  • 검증 프로토콜

Layer 2 : 데이터 수익화 (Data Monetization)

  • Ocean Protocol 데이터 토큰
  • 데이터 세트 마켓플레이스
  • API 액세스 토큰
  • 정보 라이선싱 플랫폼

Layer 3 : 공동 소유권 (Collective Ownership)

  • 데이터 DAO (Data DAOs)
  • 연구 협업
  • 데이터 유니온
  • 커뮤니티 정보 풀

Layer 4 : AI 통합 (AI Integration)

  • 모델 학습 시장
  • 추론 검증
  • 출력 증명 (Output attestation)
  • 환각 (Hallucination) 제약

Layer 5 : 금융 인프라 (Financial Infrastructure)

  • 정보 파생상품
  • 데이터 담보
  • 자동 마켓 메이커 (AMM)
  • 수익 분배 프로토콜

각 계층은 서로를 기반으로 구축됩니다 : 예측 시장은 가격 신호를 설정하고, 데이터 시장은 정보를 수익화하며, DAO는 공동 행동을 가능하게 하고, AI는 수요를 창출하며, 금융 인프라는 유동성을 제공합니다.

2026년이 보여주는 것

InfoFi는 실험적 단계에서 인프라 단계로 전환됩니다.

기관의 검증 : 주요 플랫폼이 예측 시장을 통합하고 있습니다. 월스트리트가 InfoFi 신호를 활용하고 있습니다. 정보를 자산으로 취급하기 위한 규제 프레임워크가 등장하고 있습니다.

인프라 성숙 : 데이터 토큰화 표준이 공고해지고 있습니다. DAO 거버넌스 패턴이 대규모로 입증되었습니다. AI와 블록체인의 통합이 원활해지고 있습니다.

시장 성장 : 주간 예측 시장 거래량 63억 2천만 달러, 230억 달러 규모의 온체인 데이터 자산 등 전 분야에서 도입이 가속화되고 있습니다.

유즈케이스 확장 : 단순 투기를 넘어 연구, 기업 협업, AI 개발 및 공공재 조율로 확장되고 있습니다.

문제는 정보가 자산 클래스가 될 것인지가 아니라, 인프라가 얼마나 빠르게 확장되고 어떤 모델이 주도권을 잡을 것인가 하는 점입니다. 예측 시장이 먼저 대중의 관심을 사로잡았지만, 궁극적으로는 데이터 DAO와 토큰화 프로토콜이 더 큰 가치 흐름을 주도할 수 있습니다.

2026년의 InfoFi 환경 : 확립된 기반, 입증된 유즈케이스, 기관 도입 시작, 성숙해가는 인프라. 다음 단계는 주류 정보 시스템으로의 통합, 기존 데이터 마켓플레이스 대체, 정보 교환을 위한 기본 인프라로의 자리매김입니다.

BlockEden.xyz는 Web3 애플리케이션을 위한 엔터프라이즈급 인프라를 제공하며, 주요 블록체인 생태계 전반에 걸쳐 안정적이고 고성능의 RPC 액세스를 지원합니다. InfoFi 인프라 및 데이터 시장 지원을 위한 서비스를 살펴보세요 .


출처 :

예측 시장 59억 달러 돌파: AI 에이전트가 월스트리트의 예측 도구가 된 시점

· 약 12 분
Dora Noda
Software Engineer

2026년 초 Kalshi의 일일 거래량이 8억 1,400만 달러에 도달하며 예측 시장 점유율 66.4%를 차지했을 때, 이러한 급증을 주도한 것은 개인 투기꾼들이 아니었습니다. 바로 AI 에이전트였습니다. 자율 거래 알고리즘은 현재 예측 시장 거래량의 30% 이상을 차지하며, 인터넷상의 호기심으로 시작된 것을 월스트리트의 새로운 기관용 예측 인프라로 탈바꿈시키고 있습니다. 이 섹터의 주간 거래량은 59억 달러를 넘어 계속 상승 중이며, 이는 많은 전통적인 파생상품 시장과 견줄 만한 수준입니다. 하지만 한 가지 결정적인 차이점이 있습니다. 이 시장은 단순히 자산이 아니라 정보를 거래한다는 점입니다.

이것이 바로 블록체인 기반 예측 시장을 통한 집단 지성의 수익화, 즉 "정보 금융 (Information Finance)"입니다. 트레이더들이 OpenAI가 2030년 이전에 AGI를 달성할지 여부에 4,200만 달러를 걸거나, 다음에 상장할 회사에 1,800만 달러를 걸 때, 그들은 도박을 하는 것이 아닙니다. 그들은 기관 투자자, 정책 입안자, 기업 전략가들이 전통적인 분석가들보다 점점 더 신뢰하는 유동적이고 거래 가능한 예측을 생성하고 있는 것입니다. 문제는 예측 시장이 예측 분야를 혁신할 것인지가 아닙니다. 기관들이 전문가의 예측을 수치로 측정 가능한 차이로 능가하는 이 시장을 얼마나 빨리 채택하느냐는 것입니다.

59억 달러의 이정표: 비주류에서 금융 인프라로

예측 시장은 2025년을 53억 달러에 육박하는 역대 최고 거래량으로 마감했으며, 이러한 궤적은 2026년 들어 더욱 가속화되었습니다. 주간 거래량은 이제 지속적으로 59억 달러를 초과하고 있으며, 주요 이벤트 기간 중 일일 최고치는 8억 1,400만 달러에 달합니다. 참고로, 이는 많은 중형주의 일일 거래량을 초과하며 특수 파생상품 시장과 맞먹는 수준입니다.

이러한 성장은 선형적이지 않고 기하급수적입니다. 2024년 예측 시장 거래량은 연간 수억 달러 수준이었습니다. 2025년에는 월간 거래량이 10억 달러를 넘어섰습니다. 2026년에는 주간 거래량이 정기적으로 59억 달러를 기록하며 연간 10배 이상의 성장을 나타내고 있습니다. 이러한 가속화는 기관들이 예측 시장을 바라보는 근본적인 시각이 '신기한 것'에서 '필수적인 것'으로 변화했음을 반영합니다.

Kalshi는 66.4%의 시장 점유율로 시장을 주도하며 기관 거래량의 대부분을 처리하고 있습니다. 크립토 네이티브 공간에서 운영되는 Polymarket은 상당한 개인 및 글로벌 유동성을 확보하고 있습니다. 이 플랫폼들은 함께 선거, 경제, 기술 발전, 스포츠, 엔터테인먼트를 아우르는 수천 개의 시장에서 주간 수십억 달러의 거래량을 처리합니다.

이 섹터의 정당성은 NYSE의 모기업인 ICE (Intercontinental Exchange)가 예측 시장 인프라에 20억 달러를 투자하면서 입증되었습니다. 세계 최대 증권 거래소의 운영사가 이 정도 규모의 자본을 투입한다는 것은 예측 시장이 더 이상 실험적인 단계가 아니라 전략적 인프라임을 시사합니다.

AI 에이전트: 30%의 기여 요인

예측 시장 성장에서 가장 과소평가된 동력은 AI 에이전트의 참여입니다. 자율 거래 알고리즘은 현재 전체 거래량의 30% 이상을 기여하며 시장의 역학을 근본적으로 바꾸고 있습니다.

왜 AI 에이전트가 예측을 거래할까요? 세 가지 이유가 있습니다.

정보 차익 거래 (Information arbitrage): AI 에이전트는 뉴스, 소셜 미디어, 온체인 데이터, 전통 금융 시장 등 수천 개의 데이터 소스를 스캔하여 가격이 잘못 책정된 예측을 식별합니다. 시장이 이벤트 확률을 40%로 책정했지만 AI 분석이 55%를 제시할 때, 에이전트는 그 차이를 거래합니다.

유동성 공급 (Liquidity provision): 마켓 메이커가 증권 거래소에서 유동성을 공급하는 것과 마찬가지로, AI 에이전트는 예측 플랫폼에서 양방향 시장을 제공합니다. 이는 가격 발견을 개선하고 스프레드를 줄여 모든 참여자에게 시장을 더욱 효율적으로 만듭니다.

포트폴리오 다각화 (Portfolio diversification): 기관 투자자들은 전통적이지 않은 정보 신호에 노출되기 위해 AI 에이전트를 배치합니다. 헤지 펀드는 정치적 리스크, 기술 개발 일정 또는 규제 결과와 같이 전통적인 시장에서 표현하기 어려운 리스크를 헤지하기 위해 예측 시장을 사용할 수 있습니다.

AI 에이전트 거래의 등장은 긍정적인 피드백 루프를 형성합니다. AI 참여가 많아질수록 유동성이 좋아지고, 이는 더 많은 기관 자본을 유인하며, 이는 다시 더 많은 AI 개발을 정당화합니다. 예측 시장은 복잡하고 실제적인 예측 과제를 탐색하는 법을 배우는 자율 에이전트들의 훈련장이 되고 있습니다.

Kalshi의 트레이더들은 OpenAI가 2030년 이전에 AGI를 달성할 확률을 42%로 책정하고 있으며, 이는 6개월 전의 32%에서 상승한 수치입니다. 4,200만 달러 이상의 유동성이 공급된 이 시장은 엔지니어, 벤처 캐피털리스트, 정책 전문가, 그리고 인간이 대규모로 추적할 수 없는 신호를 처리하는 AI 에이전트들이 포함된 "군중의 지혜"를 반영합니다.

Kalshi의 기관 지배력: 규제된 거래소의 이점

Kalshi의 66.4% 시장 점유율은 우연이 아니라 구조적인 결과입니다. 미국 최초의 CFTC 규제 예측 시장 거래소로서, Kalshi는 경쟁사가 제공할 수 없는 '규제적 확실성'을 기관 투자자에게 제공합니다.

기관 자본은 규정 준수를 요구합니다. 헤지 펀드, 자산 운용사, 기업 재무팀은 법적 및 컴플라이언스 리스크를 감수하면서 규제되지 않은 플랫폼에 수십억 달러를 투입할 수 없습니다. Kalshi의 CFTC 등록은 이러한 장벽을 제거하여 기관들이 포트폴리오 내의 주식, 채권, 파생상품과 함께 예측을 거래할 수 있게 합니다.

규제된 상태는 네트워크 효과를 창출합니다. 더 많은 기관 거래량은 더 나은 유동성 공급자를 끌어들이고, 이는 스프레드를 좁혀 더 많은 트레이더를 유인합니다. Kalshi의 오더북은 이제 수백만 달러 규모의 거래가 상당한 슬리피지 없이 실행될 정도로 깊어졌으며, 이는 기능적인 시장과 실험적인 시장을 구분하는 기준이 됩니다.

Kalshi의 제품 폭 또한 중요합니다. 시장은 선거, 경제 지표, 기술 이정표, IPO 타이밍, 기업 실적 및 거시 경제 이벤트를 포괄합니다. 이러한 다양성은 기관 투자자들이 미묘한 견해를 표현할 수 있게 합니다. 기술 가치 평가에 비관적인 헤지 펀드는 유니콘 기업의 IPO에 대한 예측 시장에서 숏 포지션을 취할 수 있습니다. 규제 변화를 예상하는 정책 분석가는 의회 결과 시장에서 거래할 수 있습니다.

높은 유동성은 가격이 쉽게 조작되지 않도록 보장합니다. 수백만 달러가 걸려 있고 수천 명의 참여자가 있는 상황에서 시장 가격은 개인의 조작이 아닌 진정한 합의를 반영합니다. 이러한 "군중의 지혜"는 블라인드 테스트에서 전문가의 예측을 능가합니다. 예측 시장은 여론 조사, 분석가 전망, 전문가의 의견보다 일관되게 더 나은 성과를 보여줍니다.

Polymarket의 크립토 네이티브 대안: 탈중앙화된 도전자

Kalshi가 규제된 미국 시장을 지배하는 동안, Polymarket은 크립토 네이티브 및 국제적인 흐름을 포착합니다. 블록체인 기반 위에서 USDC 결제 방식으로 운영되는 Polymarket은 KYC나 지리적 제한, 규제적 관문 없이 허가 없는(permissionless) 접근을 제공합니다.

Polymarket의 장점은 글로벌 도달 범위입니다. Kalshi를 이용할 수 없는 관할권의 트레이더들도 자유롭게 참여할 수 있습니다. 2024년 미국 대선 기간 동안 Polymarket은 30억 달러 이상의 거래량을 처리하며, 크립토 네이티브 인프라가 기관급 규모를 감당할 수 있음을 입증했습니다.

플랫폼의 크립토 통합은 혁신적인 메커니즘을 가능하게 합니다. 스마트 컨트랙트는 오라클 데이터를 기반으로 정산을 자동으로 집행합니다. 유동성 풀은 중개자 없이 지속적으로 운영됩니다. 정산은 며칠이 아닌 몇 초 만에 이루어집니다. 이러한 장점은 디파이(DeFi) 프리미티브에 익숙한 크립토 네이티브 트레이더들에게 매력적입니다.

그러나 규제적 불확실성은 여전히 Polymarket의 과제입니다. 명확한 미국 규제 승인 없이 운영되는 것은 국내 기관 도입을 제한합니다. 개인 및 국제 사용자들은 허가 없는 접근을 환영하지만, 미국 기관들은 규제 명확성이 부족한 플랫폼을 대체로 기피합니다.

Kalshi(규제됨, 기관 중심)와 Polymarket(크립토 네이티브, 허가 없음) 간의 경쟁은 디지털 금융의 광범위한 논쟁을 투영합니다. 두 모델 모두 작동하며, 각기 다른 사용자 층에 서비스를 제공합니다. 이 분야의 성장은 각각 서로 다른 규제 및 기술적 절충안에 최적화된 여러 승자가 공존할 수 있는 공간이 있음을 시사합니다.

정보 금융: 집단 지성의 수익화

"정보 금융(Information Finance)"이라는 용어는 예측 시장의 핵심 혁신을 설명합니다. 즉, 예측을 거래 가능하고 유동적인 상품으로 변환하는 것입니다. 전통적인 예측은 정확성이 불확실한 전문가들의 점 추정치(point estimates)에 의존합니다. 예측 시장은 분산된 지식을 연속적이고 시장 가격이 책정된 확률로 집계합니다.

시장이 전문가보다 나은 이유:

책임 분담 (Skin in the game): 시장 참여자들은 자신의 예측에 자본을 겁니다. 잘못된 예측은 금전적 손실로 이어집니다. 이러한 인센티브 구조는 예측 결과에 대해 아무런 책임을 지지 않는 여론 조사나 전문가 패널보다 노이즈에서 신호를 더 잘 걸러냅니다.

지속적인 업데이트: 새로운 정보가 나타남에 따라 시장 가격은 실시간으로 조정됩니다. 전문가 예측은 다음 보고서가 나올 때까지 정적입니다. 시장은 속보, 유출, 신규 트렌드를 즉각적으로 반영하며 역동적으로 움직입니다.

집계된 지식: 시장은 다양한 전문 지식을 가진 수천 명의 참여자로부터 정보를 모읍니다. 어떤 단일 전문가도 전문적인 통찰력을 제공하는 엔지니어, 투자자, 정책 입안자 및 실무자들의 집단 지식을 따라올 수 없습니다.

투명한 확률: 시장은 예측을 명확한 신뢰 구간이 있는 확률로 표현합니다. 특정 사건의 가격을 65%로 책정하는 시장은 "대략 3분의 2의 확률"이라고 말해주며, 이는 수치화 없이 "가능성 있음"이라고 말하는 전문가보다 훨씬 유용합니다.

연구에 따르면 예측 시장은 선거, 경제, 기술 개발, 기업 성과 등 다양한 분야에서 전문가 패널, 여론 조사, 분석가 예측보다 지속적으로 우수한 성과를 보입니다. 실적이 완벽하지는 않지만, 대안들보다 측정 가능할 정도로 더 낫습니다.

금융 기관들이 이를 주목하고 있습니다. 시나리오 분석을 위해 값비싼 컨설턴트를 고용하는 대신, 기업들은 예측 시장을 참고할 수 있습니다. 의회가 올해 크립토 규제안을 통과시킬지 알고 싶으신가요? 이를 위한 시장이 존재합니다. 경쟁사가 연말 전에 IPO를 할지 궁금하신가요? 해당 예측을 거래하십시오. 지정학적 리스크를 평가하고 싶으신가요? 거기에 베팅하십시오.

기관용 유스케이스: 서비스형 예측

예측 시장은 투기적 오락에서 기관용 인프라로 전환되고 있습니다. 몇 가지 유스케이스가 도입을 주도합니다:

리스크 관리: 기업들은 전통적인 파생상품으로 표현하기 어려운 리스크를 헤지하기 위해 예측 시장을 사용합니다. 항만 파업을 걱정하는 공급망 관리자는 노사 협상에 대한 예측 시장을 거래할 수 있습니다. 금리를 우려하는 CFO는 연준(Fed) 예측 시장과 채권 선물을 교차 참조할 수 있습니다.

전략적 기획: 기업들은 예측을 바탕으로 수십억 달러 규모의 결정을 내립니다. AI 규제가 통과될 것인가? 기술 플랫폼이 반독점 조치에 직면할 것인가? 경쟁사가 제품을 출시할 것인가? 예측 시장은 실제 자본이 위험에 처한 상태에서 확률적인 답변을 제공합니다.

투자 리서치: 헤지 펀드와 자산 운용사들은 예측 시장을 대체 데이터 소스로 사용합니다. 기술적 이정표, 규제 결과 또는 거시적 사건에 대한 시장 가격은 포트폴리오 포지셔닝에 정보를 제공합니다. 일부 펀드는 예측 시장을 알파 소스로 직접 거래하기도 합니다.

정책 분석: 정부와 싱크탱크는 여론 조사를 넘어선 대중의 의견을 확인하기 위해 예측 시장을 참고합니다. 시장은 진정한 신념과 미덕 과시(virtue signaling)를 구분해 줍니다. 자신의 돈을 거는 참여자들은 사회적으로 바람직한 답변이 아닌 진정한 기대를 드러냅니다.

ICE의 20억 달러 투자는 전통 거래소들이 예측 시장을 새로운 자산군으로 보고 있다는 신호입니다. 1970년대에 리스크 관리를 수익화하기 위해 파생상품 시장이 등장했듯이, 2020년대에는 예측을 수익화하기 위해 예측 시장이 부상하고 있습니다.

AI 에이전트 - 시장 피드백 루프

예측 시장에 참여하는 AI 에이전트는 두 기술의 발전을 가속화하는 피드백 루프를 생성합니다 :

시장 데이터를 통한 더 나은 AI : AI 모델은 예측 시장의 결과를 학습하여 예측 능력을 향상시킵니다. 기술 IPO 타이밍을 예측하는 모델은 Kalshi 의 과거 데이터를 기반으로 백테스팅을 수행하여 개선됩니다. 이는 AI 연구소들이 예측 중심의 모델을 구축하도록 하는 인센티브를 제공합니다.

AI 참여를 통한 더 나은 시장 : AI 에이전트는 유동성을 공급하고, 가격 오차를 이용해 아비트라지를 수행하며, 가격 발견 기능을 개선합니다. 인간 트레이더는 더 좁아진 스프레드와 더 나은 정보 취합의 혜택을 누립니다. AI 참여가 증가함에 따라 시장은 더욱 효율적으로 변합니다.

기관의 AI 도입 : 예측 시장에 AI 에이전트를 배치하는 기관은 리스크가 상대적으로 낮은 환경에서 자율 트레이딩 시스템에 대한 경험을 쌓을 수 있습니다. 여기서 얻은 교훈은 주식, 외환 및 파생상품 거래로 전이됩니다.

30 % 이상의 AI 거래량 기여도는 상한선이 아니라 하한선입니다. AI 역량이 향상되고 기관 도입이 증가함에 따라, 에이전트 참여율은 몇 년 내에 50 - 70 % 에 도달할 수 있습니다. 이는 인간의 판단을 대체하는 것이 아니라 보완하는 것입니다. 인간은 전략을 설정하고, AI 에이전트는 수동으로는 불가능한 규모와 속도로 이를 실행합니다.

기술 스택이 서로 수렴하고 있습니다. AI 연구소는 예측 시장 플랫폼과 파트너십을 맺습니다. 거래소는 알고리즘 트레이딩을 위한 API 를 구축합니다. 기관은 예측 시장 전략을 위한 독점적인 AI 를 개발합니다. 이러한 융합은 예측 시장을 차세대 자율 금융 에이전트의 테스트베드로 자리매김하게 합니다.

도전 과제와 회의론

성장세에도 불구하고 예측 시장은 다음과 같은 타당한 과제에 직면해 있습니다 :

조작 리스크 : 높은 유동성이 조작 가능성을 줄여주지만, 거래량이 적은 시장은 여전히 취약합니다. 자본력을 갖춘 특정 주체가 틈새 시장의 가격을 일시적으로 왜곡할 수 있습니다. 플랫폼은 유동성 요구 사항과 조작 탐지 시스템으로 이에 대응하고 있지만, 리스크는 여전히 존재합니다.

오라클 의존성 : 예측 시장은 결과를 결정하는 신뢰할 수 있는 주체인 오라클을 필요로 합니다. 오라클의 오류나 부정 부패는 잘못된 정산을 초래할 수 있습니다. 블록체인 기반 시장은 탈중앙화된 오라클 네트워크를 통해 이를 최소화하지만, 전통적인 시장은 중앙 집중식 해결 방식에 의존합니다.

규제 불확실성 : Kalshi 가 CFTC 의 규제를 받고 있음에도 불구하고, 더 넓은 범위의 규제 프레임워크는 여전히 불투명합니다. 더 많은 예측 시장이 승인을 받을 수 있을까요 ? 국제 시장이 규제에 직면하게 될까요 ? 규제의 진화는 성장을 억제하거나 예기치 않게 가속화할 수 있습니다.

유동성 집중 : 대부분의 거래량은 선거, 주요 기술 이벤트 등 세간의 이목이 쏠리는 시장에 집중됩니다. 틈새 시장은 유동성이 부족하여 전문적인 예측 도구로서의 유용성이 제한됩니다. 이를 해결하기 위해서는 마켓 메이킹 인센티브나 AI 에이전트를 통한 유동성 공급이 필요합니다.

윤리적 우려 : 정치적 폭력, 사망, 재난과 같은 민감한 주제에 대한 시장이 존재해야 할까요 ? 비판론자들은 비극적인 사건을 수익화하는 것이 비윤리적이라고 주장합니다. 옹호론자들은 그러한 시장에서 얻은 정보가 오히려 피해를 예방하는 데 도움이 된다고 반박합니다. 이 논쟁은 플랫폼이 허용하는 시장의 종류를 결정짓게 될 것입니다.

2026 - 2030 년의 궤적

2026 년 초에 주간 거래량이 59 억 달러에 달한다면, 이 섹터는 어디로 향하게 될까요 ?

최근의 가속도를 고려할 때 보수적인 수치인 연간 50 % 의 완만한 성장을 가정하더라도, 예측 시장 거래량은 2028 년까지 연간 500 억 달러를 초과하고 2030 년까지 1,500 억 달러에 이를 수 있습니다. 이는 이 섹터가 중급 규모의 파생상품 시장과 견줄만한 수준으로 성장함을 의미합니다.

ICE 가 NYSE 에서 예측 시장을 출시하거나, 주요 은행이 예측 상품을 제공하고, 더 다양한 시장 유형에 대한 규제 승인이 이루어지는 등의 공격적인 시나리오에서는 2030 년까지 거래량이 5,000 억 달러 이상으로 치솟을 수 있습니다. 그 정도 규모가 되면 예측 시장은 기관 포트폴리오에서 별도의 자산 클래스로 자리 잡게 됩니다.

기술적 원동력은 이미 갖춰져 있습니다 : 블록체인 결제, AI 에이전트, 규제 프레임워크, 기관의 관심, 그리고 전통적인 예측치를 능가하는 입증된 실적 등이 그것입니다. 이제 남은 것은 수용 곡선의 역학 관계, 즉 기관들이 얼마나 빨리 예측 시장을 의사 결정 프로세스에 통합하느냐 하는 점입니다.

"지엽적인 투기" 에서 "기관의 예측 도구" 로의 전환은 이미 순조롭게 진행 중입니다. ICE 가 20 억 달러를 투자하고, AI 에이전트가 거래량의 30 % 를 차지하며, Kalshi 의 일일 거래량이 8 억 1,400 만 달러에 달하는 지금, 담론은 영구적으로 변했습니다. 예측 시장은 단순한 호기심의 대상이 아닙니다. 이는 기관들이 불확실성을 정량화하고 정보 리스크를 헤지하는 미래의 방식입니다.

출처

탈중앙화 GPU 네트워크 2026: DePIN이 1,000억 달러 규모의 AI 컴퓨팅 시장에서 AWS에 도전하는 방법

· 약 10 분
Dora Noda
Software Engineer

AI 혁명은 전례 없는 연산 능력에 대한 갈증을 불러일으켰습니다. AWS, Azure, Google Cloud와 같은 하이퍼스케일러들이 이 시장을 지배해 왔지만, 이제 이들의 패권에 도전하는 새로운 부류의 탈중앙화 GPU 네트워크가 등장하고 있습니다. DePIN (탈중앙화 물리적 인프라 네트워크) 부문이 1 년 만에 시가총액 52 억 달러에서 190 억 달러 이상으로 폭발적으로 성장하고 2028 년까지 3.5 조 달러에 달할 것으로 예상됨에 따라, 질문은 더 이상 탈중앙화 연산이 전통적인 클라우드 제공업체와 경쟁할 것인지가 아니라, 얼마나 빨리 시장 점유율을 차지할 것인가로 바뀌었습니다.

GPU 희소성 위기: 탈중앙화를 위한 완벽한 폭풍

반도체 산업은 탈중앙화 연산 이론을 정당화하는 공급 병목 현상에 직면해 있습니다.

세계 최대의 고대역폭 메모리 (HBM) 생산 업체인 SK 하이닉스와 마이크론은 모두 2026 년 생산 물량이 전량 매진되었다고 발표했습니다. 삼성은 수요가 공급을 크게 앞지르면서 두 자릿수 가격 인상을 경고했습니다.

이러한 희소성은 하이퍼스케일 인프라에 직접 접근할 수 있는 계층과 그렇지 못한 계층이라는 이원화된 시장을 형성하고 있습니다.

수십억 달러의 예산이 없는 AI 개발자, 스타트업 및 연구자들에게 전통적인 클라우드 모델은 세 가지 중요한 장벽을 제시합니다:

  • 예산의 50-70% 를 소비할 수 있는 과도한 비용
  • 유연성이 최소화된 장기 고정 계약
  • 엔비디아 H100 또는 H200 과 같은 하이엔드 GPU 의 제한된 가용성

탈중앙화 GPU 네트워크는 이 세 가지 문제를 모두 해결할 수 있는 위치에 있습니다.

시장의 선두주자들: 네 가지 아키텍처, 하나의 비전

렌더 네트워크: 3D 아티스트에서 AI 인프라까지

원래 분산 렌더링 작업을 위해 유휴 GPU 를 모으기 위해 구축된 렌더 네트워크 (Render Network) 는 AI 연산 워크로드로 성공적으로 피벗했습니다. 이 네트워크는 현재 매월 약 150 만 프레임을 처리하고 있으며, 2025 년 12 월 Dispersed.com 의 출시는 창의적 산업을 넘어선 전략적 확장을 의미했습니다.

2026 년의 주요 마일스톤은 다음과 같습니다:

  • AI 연산 서브넷 확장: 기계 학습 워크로드에 특화된 탈중앙화 GPU 리소스 확장
  • 600 개 이상의 AI 모델 온보딩: 추론 및 로보틱스 시뮬레이션을 위한 오픈 웨이트 모델
  • 70% 업로드 최적화: Blender 용 차등 업로드 (Differential Uploads) 를 통한 파일 전송 시간의 획기적 단축

이더리움에서 솔라나로의 네트워크 마이그레이션 (RNDR 에서 RENDER 로의 리브랜딩) 은 AI 연산의 높은 처리량 요구 사항에 대응하기 위한 조치였습니다.

CES 2026 에서 렌더 네트워크는 엣지 ML 워크로드를 위한 GPU 수요의 폭발적인 성장을 충족하기 위한 파트너십을 선보였습니다. 창의적 렌더링에서 범용 AI 연산으로의 전환은 DePIN 분야에서 가장 성공적인 시장 확장 사례 중 하나로 꼽힙니다.

아카시 네트워크: 쿠버네티스 호환 도전지

아카시 (Akash) 는 역경매 모델을 통해 근본적으로 다른 접근 방식을 취합니다. 고정 가격 대신 GPU 제공업체가 워크로드를 두고 경쟁하여, 탈중앙화 마켓플레이스를 통해 품질을 유지하면서도 비용을 낮춥니다.

결과가 이를 증명합니다: 2026 년으로 접어들면서 가동률이 80% 이상을 기록하며 사용량이 전년 대비 428% 성장했습니다.

네트워크의 스타클러스터 (Starcluster) 이니셔티브는 현재까지 가장 야심 찬 행보를 보여줍니다. 중앙 집중식 데이터 센터와 아카시의 탈중앙화 마켓플레이스를 결합하여 훈련과 추론 모두에 최적화된 소위 "행성형 메쉬 (planetary mesh)" 를 구축하고 있습니다. 스타본드 (Starbonds) 를 통해 약 7,200 개의 엔비디아 GB200 GPU 를 확보하려는 계획은 아카시가 하이퍼스케일 AI 수요를 지원할 수 있는 위치를 점하게 할 것입니다.

2025 년 3 분기 지표는 가속화되는 모멘텀을 보여줍니다:

  • 수수료 수익은 전분기 대비 11% 증가한 715,000 AKT 기록
  • 신규 임대는 전분기 대비 42% 증가한 27,000 건 기록
  • 2026 년 1 분기 소각 메커니즘 강화 (BME) 는 AKT 토큰 소각을 연산 지출과 연동시킵니다. 1 달러가 소비될 때마다 0.85 달러 상당의 AKT 가 소각됩니다.

월간 연산 규모가 336 만 달러에 달함에 따라, 매월 약 210 만 AKT (약 985,000 달러) 가 소각될 수 있으며, 이는 토큰 공급에 디플레이션 압력을 가하게 됩니다.

사용량과 토큰 경제학 간의 이러한 직접적인 연결은 토큰의 유틸리티가 강제적이거나 실제 제품 채택과 동떨어져 느껴지는 프로젝트들과 아카시를 차별화합니다.

하이퍼볼릭: 비용 파괴자

하이퍼볼릭 (Hyperbolic) 의 가치 제안은 매우 단순합니다. AWS, Azure, Google Cloud 와 동일한 AI 추론 기능을 75% 낮은 비용으로 제공하는 것입니다. 10 만 명 이상의 개발자에게 서비스를 제공하는 이 플랫폼은 고급 오케스트레이션 레이어를 통해 전 세계에 분산된 GPU 리소스를 조정하는 탈중앙화 운영체제인 Hyper-dOS 를 사용합니다.

아키텍처는 네 가지 핵심 구성 요소로 이루어져 있습니다:

  1. Hyper-dOS: 전 세계에 분산된 GPU 리소스 조정
  2. GPU 마켓플레이스: 공급자와 연산 수요 연결
  3. 추론 서비스: 최첨단 오픈 소스 모델에 대한 접근 제공
  4. 에이전트 프레임워크: 자율 지능을 가능하게 하는 도구

하이퍼볼릭을 차별화하는 요소는 UC 버클리 및 컬럼비아 대학교 연구진과 함께 개발 중인 샘플링 증명 (PoSP, Proof of Sampling) 프로토콜입니다. 이는 AI 출력에 대한 암호화된 검증을 제공할 예정입니다.

이는 중앙 집중식 기관에 의존하지 않는 무신뢰 검증이라는 탈중앙화 연산의 가장 큰 과제 중 하나를 해결합니다. PoSP 가 활성화되면 기업들은 GPU 제공업체를 신뢰할 필요 없이 추론 결과가 정확하게 계산되었음을 검증할 수 있게 됩니다.

Inferix: 브릿지 빌더

Inferix는 GPU 컴퓨팅 파워가 필요한 개발자와 잉여 용량을 보유한 공급자 사이의 연결 계층으로 스스로를 포지셔닝합니다. Inferix 의 종량제 (pay-as-you-go) 모델은 사용자를 기존 클라우드 제공업체에 묶어두는 장기 계약의 필요성을 제거합니다.

시장에 출시된 지 얼마 되지 않았지만, Inferix 는 특정 세그먼트를 겨냥한 전문화된 GPU 네트워크의 성장세를 잘 보여줍니다. 이 경우에는 엔터프라이즈 급의 대규모 요구 사항 없이 유연하고 단기적인 액세스가 필요한 개발자들을 대상으로 합니다.

DePIN 혁명: 숫자로 보는 현황

더 넓은 의미의 DePIN (탈중앙화 물리적 인프라 네트워크) 섹터는 탈중앙화 GPU 컴퓨팅이 인프라 지형에서 어디에 위치하는지 이해하는 데 중요한 맥락을 제공합니다.

2025년 9월 현재, CoinGecko 는 약 250개의 DePIN 프로젝트를 추적하고 있으며, 이들의 총 시가총액은 190억 달러 이상입니다. 이는 불과 12개월 전의 52억 달러에서 증가한 수치입니다. 이러한 265% 의 성장률은 전체 암호화폐 시장의 성장세를 크게 앞지르는 것입니다.

이 생태계 내에서 AI 관련 DePIN 은 시가총액 기준으로 테마의 48% 를 차지하며 시장을 주도하고 있습니다. 탈중앙화 컴퓨팅 및 스토리지 네트워크를 합치면 약 193억 달러로, 전체 DePIN 시가총액의 절반 이상을 차지합니다.

눈에 띄는 성과를 거둔 프로젝트들은 이 섹터의 성숙도를 증명합니다:

  • Aethir: 14억 시간 이상의 컴퓨팅 시간을 제공했으며, 2025년 분기별 매출이 약 4,000만 달러에 달한다고 보고했습니다.
  • io.net 및 Nosana: 각각의 성장 주기 동안 시가총액 4억 달러를 돌파했습니다.
  • Render Network: 렌더링에서 AI 워크로드로 확장하며 시가총액 20억 달러를 넘어섰습니다.

하이퍼스케일러의 반론: 여전히 중앙화가 승리하는 지점

설득력 있는 경제성과 인상적인 성장 지표에도 불구하고, 탈중앙화 GPU 네트워크는 하이퍼스케일러가 처리하도록 설계된 기술적 과제들에 직면해 있습니다.

장기 워크로드: 대규모 언어 모델 (LLM) 학습은 수주 또는 수개월의 지속적인 컴퓨팅이 필요할 수 있습니다. 탈중앙화 네트워크는 특정 GPU 가 장기간 사용 가능한 상태를 유지한다고 보장하는 데 어려움을 겪는 반면, AWS 는 필요한 기간만큼 용량을 예약할 수 있습니다.

긴밀한 동기화: 여러 GPU 에 걸친 분산 학습은 마이크로초 단위의 조정이 필요합니다. 이러한 GPU 들이 네트워크 지연 시간이 제각각인 여러 대륙에 흩어져 있을 때, 효율적인 학습을 위해 필요한 동기화를 유지하는 것은 기하급수적으로 더 어려워집니다.

예측 가능성: 미션 크리티컬 워크로드를 실행하는 기업에게 기대 성능을 정확히 파악하는 것은 타협할 수 없는 조건입니다. 하이퍼스케일러는 상세한 SLA 를 제공할 수 있지만, 탈중앙화 네트워크는 유사한 보증을 제공하기 위한 검증 인프라를 여전히 구축하는 중입니다.

인프라 전문가들 사이의 합의는 탈중앙화 GPU 네트워크가 배치 (batch) 워크로드, 추론 작업 및 단기 학습 실행에 탁월하다는 것입니다.

이러한 사용 사례의 경우, 하이퍼스케일러 대비 50-75% 의 비용 절감은 게임 체인저가 됩니다. 하지만 가장 까다롭고, 장기간 실행되며, 미션 크리티컬한 워크로드의 경우 중앙화된 인프라가 여전히 우위를 점하고 있습니다 — 적어도 현재로서는 그렇습니다.

2026년 촉매제: AI 추론의 폭발적 증가

2026년부터 세 가지 융합 트렌드에 힘입어 AI 추론 및 학습 컴퓨팅에 대한 수요가 급격히 가속화될 것으로 예상됩니다:

  1. 에이전틱 AI (Agentic AI) 의 확산: 자율 에이전트는 의사 결정을 위해 지속적인 컴퓨팅이 필요합니다.
  2. 오픈 소스 모델 채택: 기업들이 독점 API 에서 벗어나면서 모델을 호스팅할 인프라가 필요해졌습니다.
  3. 엔터프라이즈 AI 배포: 비즈니스가 실험 단계에서 프로덕션 단계로 전환하고 있습니다.

이러한 수요 급증은 탈중앙화 네트워크의 강점과 직결됩니다.

추론 워크로드는 일반적으로 단기간이며 대규모 병렬 처리가 가능합니다. 이는 탈중앙화 GPU 네트워크가 비용면에서 하이퍼스케일러를 압도하면서도 대등한 성능을 제공하는 프로필과 정확히 일치합니다. 챗봇이나 이미지 생성 서비스를 위해 추론을 실행하는 스타트업은 사용자 경험을 희생하지 않으면서 인프라 비용을 75% 까지 절감할 수 있습니다.

토큰 경제: 인센티브 레이어

이러한 네트워크의 암호화폐 구성 요소는 단순한 투기가 아닙니다 — 이는 글로벌 GPU 통합을 경제적으로 실행 가능하게 만드는 메커니즘입니다.

Render (RENDER): 원래 이더리움에서 RNDR 로 발행되었으나, 2023-2024년 사이에 네트워크를 솔라나로 마이그레이션했으며 토큰 보유자들은 1:1 비율로 스왑했습니다. RENDER 를 포함한 GPU 공유 토큰은 2026년 초에 20% 이상 급등하며 해당 섹터에 대한 확신이 커지고 있음을 반영했습니다.

Akash (AKT): BME (Burn-and-Mint Equilibrium) 소각 메커니즘은 네트워크 사용량과 토큰 가치 사이의 직접적인 연결 고리를 만듭니다. 토큰 경제가 제품 사용과 동떨어져 느껴지는 많은 암호화폐 프로젝트와 달리, Akash 의 모델은 컴퓨팅에 사용되는 모든 달러가 토큰 공급에 직접적인 영향을 미치도록 보장합니다.

토큰 레이어는 초기 탈중앙화 컴퓨팅 시도들을 괴롭혔던 콜드 스타트 문제를 해결합니다.

네트워크 초기 단계에 토큰 보상으로 GPU 공급자들에게 인센티브를 제공함으로써, 이러한 프로젝트들은 수요가 임계 질량에 도달하기 전에 공급을 먼저 확보할 수 있습니다. 네트워크가 성숙해짐에 따라 실제 컴퓨팅 수익이 점차 토큰 인플레이션을 대체하게 됩니다.

토큰 인센티브에서 실질적인 수익으로의 이러한 전환은 지속 가능한 인프라 프로젝트와 지속 불가능한 폰지 경제를 구분하는 리트머스 시험지입니다.

1,000 억 달러 규모의 질문: 탈중앙화가 경쟁력을 가질 수 있을까요?

탈중앙화 컴퓨팅 시장은 2024 년 90 억 달러에서 2032 년까지 1,000 억 달러 규모로 성장할 것으로 전망됩니다. 탈중앙화 GPU 네트워크가 의미 있는 점유율을 확보할 수 있을지는 다음 세 가지 과제를 해결하는 데 달려 있습니다:

대규모 검증 (Verification at scale): Hyperbolic 의 PoSP 프로토콜은 진전을 보여주고 있지만, 업계에는 컴퓨팅 작업이 올바르게 수행되었음을 암호학적으로 확인하기 위한 표준화된 방법이 필요합니다. 이것이 없다면 기업들은 여전히 도입을 주저할 것입니다.

엔터프라이즈급 신뢰성 (Enterprise-grade reliability): 전 세계에 분산되어 독립적으로 운영되는 GPU 를 조정하면서 99.99 % 의 업타임을 달성하려면 정교한 오케스트레이션이 필요합니다. Akash 의 Starcluster 모델은 이를 위한 하나의 경로를 제시합니다.

개발자 경험 (Developer experience): 탈중앙화 네트워크는 AWS, Azure 또는 GCP 의 사용 편의성과 대등한 수준을 갖춰야 합니다. 쿠버네티스 (Kubernetes) 호환성 (Akash 가 제공하는 것과 같은) 은 시작일 뿐이며, 기존 ML 워크플로우와의 원활한 통합이 필수적입니다.

개발자에게 갖는 의미

AI 개발자와 Web3 빌더에게 탈중앙화 GPU 네트워크는 전략적인 기회를 제공합니다:

비용 최적화: 모델 학습 및 추론 비용은 AI 스타트업 예산의 50 - 70 % 를 쉽게 차지할 수 있습니다. 이러한 비용을 절반 이하로 줄이는 것은 유닛 이코노믹스 (unit economics) 를 근본적으로 변화시킵니다.

벤더 종속 (Vendor lock-in) 방지: 하이퍼스케일러 (Hyperscaler) 는 진입은 쉽게 만들지만 나가는 것은 비용이 많이 들게 설계되어 있습니다. 개방형 표준을 사용하는 탈중앙화 네트워크는 선택의 자유를 보존합니다.

검열 저항성: 중앙 집중식 서비스 제공업체로부터 압력을 받을 수 있는 애플리케이션의 경우, 탈중앙화 인프라는 중요한 회복력 계층을 제공합니다.

주의할 점은 워크로드와 인프라를 적절히 매칭하는 것입니다. 빠른 프로토타이핑, 배치 처리, 추론 서빙 및 병렬 학습 실행의 경우 탈중앙화 GPU 네트워크는 현재도 충분히 준비되어 있습니다. 그러나 절대적인 신뢰성이 요구되는 수주간의 모델 학습의 경우에는 아직까지는 하이퍼스케일러가 더 안전한 선택입니다.

향후 전망

GPU 부족 현상, AI 컴퓨팅 수요의 성장, 그리고 성숙해가는 DePIN 인프라의 결합은 드문 시장 기회를 창출하고 있습니다. 전통적인 클라우드 제공업체들은 신뢰성과 편의성을 제공함으로써 1 세대 AI 인프라를 지배했습니다. 탈중앙화 GPU 네트워크는 이제 비용, 유연성 및 중앙 집중식 통제에 대한 저항을 무기로 경쟁하고 있습니다.

앞으로의 12 개월은 결정적인 시기가 될 것입니다. Render 가 AI 컴퓨팅 서브넷을 확장하고, Akash 가 Starcluster GPU 를 가동하며, Hyperbolic 이 암호학적 검증을 출시함에 따라, 우리는 탈중앙화 인프라가 하이퍼스케일 수준에서 그 약속을 이행할 수 있을지 확인하게 될 것입니다.

희소한 GPU 자원에 대해 프리미엄 가격을 지불하고 있는 개발자, 연구원 및 기업들에게 신뢰할 수 있는 대안의 등장은 더할 나위 없이 반가운 소식입니다. 문제는 탈중앙화 GPU 네트워크가 1,000 억 달러 규모의 컴퓨팅 시장 중 일부를 점유할 것인지가 아니라, 얼마나 많이 점유할 것인지입니다.

BlockEden.xyz 는 지속 가능한 기반 위에 구축되는 서비스를 위해 개발자들에게 엔터프라이즈급 블록체인 인프라를 제공합니다. API 마켓플레이스 탐색을 통해 주요 블록체인 네트워크 전반의 신뢰할 수 있는 노드 서비스에 접속해 보세요.