본문으로 건너뛰기

Gensyn RL Swarm: 검증 가능한 탈중앙화 AI 학습의 첫 실거래 테스트

· 약 11 분
Dora Noda
Software Engineer

지난 10년의 대부분 동안 "프론티어 모델 학습"은 "하이퍼스케일러급 GPU 클러스터를 소유하는 것"과 동의어로 여겨져 왔습니다. Gensyn은 차세대 AI가 전혀 다른 곳, 즉 이더리움 롤업을 통해 조정되는 인터넷 연결 노드 스웜(swarm)에서 학습될 것이라는 데 베팅하며 퍼블릭 테스트넷을 출시했습니다. ETHGlobal은 그 위에서 에이전트를 구축할 수 있는 개발자들에게 50,000달러의 상금을 지원하고 있습니다.

탈중앙화 머신러닝 학습이 기술적으로 가능한지에 대한 질문은 더 이상 중요하지 않습니다. RL Swarm은 라이브 상태이며, 누구나 레포지토리를 클론할 수 있고, 이 아키텍처는 2025년 11월부터 조용히 배포되어 왔습니다. 문제는 경제성, 검증 체계, 그리고 개발자 유인책이 AWS와 Azure 데이터 센터에서 학습 워크로드를 끌어내기에 충분한지, 그리고 2025년 12월에 마감된 $AI 토큰 세일이 그 미래 가치를 실제로 올바르게 책정했는지 여부입니다.

왜 "RL Swarm"이 탈중앙화 학습의 첫 번째 프로덕션 테스트인가

여러분이 들어본 대부분의 "탈중앙화 AI" 프로젝트(Bittensor, io.net, Akash, Render)는 인접한 문제들을 해결합니다. Bittensor는 서브넷 간의 경쟁적인 모델 벤치마킹을 조정합니다. io.net과 Akash는 크립토 네이티브 결제 시스템을 갖춘 GPU 렌탈 마켓플레이스입니다. Render는 추론 렌더링 작업을 분산합니다. 지금까지 신뢰할 수 없는 노드들이 협력하여 모델을 학습시키는 라이브 시스템은 없었습니다.

그것이 바로 Gensyn의 RL Swarm이 수행하는 일입니다. 이는 Gensyn 테스트넷 페이즈 0의 기반으로, 단일 데이터 센터 내부가 아닌 공용 인터넷상에서 강화 학습(RL) 에이전트들이 협력하는 탈중앙화 환경입니다. 참여하는 각 노드는 로컬 언어 모델을 실행합니다. 노드들은 동료들과 함께 답변하고, 비판하며, 솔루션을 수정하는 다단계 RL 추론 게임을 수행하며, 모든 기여도는 Gensyn 테스트넷의 온체인 ID에 기록됩니다.

아키텍처의 변화는 말로는 작아 보일 수 있지만 실제로는 거대합니다. Bittensor는 마이너들이 최상의 결과물을 위해 경쟁하도록 장려하는 반면, Gensyn은 노드들이 공유된 결과물을 학습시키기 위해 협력하도록 장려합니다. 이것이 바로 경쟁적인 마켓플레이스와 진정한 분산 학습 실행의 차이이며, RL Swarm이 단순한 세련된 컴퓨팅 렌탈 레이어가 아니라 프로덕션 급의 탈중앙화 ML 학습 네트워크에 대한 첫 번째 신뢰할 만한 시도인 이유입니다.

2025년 11월 릴리스에서는 동일한 피어 투 피어 프레임워크를 기반으로 구축된 협업 코딩 환경인 CodeZero가 추가되었습니다. 이 두 가지 릴리스를 종합해 보면 로드맵이 보입니다. RL Swarm은 추론을 위한 조정 프리미티브가 작동함을 증명하고, CodeZero는 이를 구조화된 도구 사용으로 확장합니다. 2026년 5월 6일 해커톤 종료 시점에는 두 환경 모두 라이브 상태이며 대기 명단 없이 참여할 수 있습니다.

4계층 아키텍처: 실행, 검증, 통신, 조정

사용자용 테스트넷 아래에서 Gensyn은 OP 스택(Bedrock)을 기반으로 구축된 맞춤형 이더리움 레이어 2 롤업입니다. 프로토콜은 탈중앙화 학습 문제를 네 가지 계층으로 분해하여, "인터넷을 통해 GPU를 임대하는 것"이 역사적으로 실패했던 구체적인 이유들을 해결합니다.

실행(Execution). 거대 모델은 단일 소비자 노드에 들어가지 않으므로, Gensyn은 모델을 장치 전체에 분산된 파라미터 블록으로 조각내어 노드당 메모리 압박을 줄입니다. 더 어려운 문제는 결정론(determinism)입니다. 서로 다른 하드웨어(Nvidia A100 vs H100)에서의 부동 소수점 연산은 미세하게 다른 결과를 낼 수 있으며, 이는 부정행위를 탐지해야 하는 검증 프로토콜에 치명적입니다. Gensyn의 RepOps 라이브러리는 부동 소수점 연산 순서를 고정하여 서로 다른 하드웨어에서도 동일한 입력에 대해 비트 단위로 동일한 출력을 생성하도록 합니다. 복제 가능 실행 환경(Reproducible Execution Environment, REE)은 RepOps를 맞춤형 MLIR 기반 컴파일러로 래핑하여 모델을 복제 가능한 커널로 컴파일합니다.

검증(Verification). 이 계층은 이전의 모든 탈중앙화 학습 시도를 가로막았던 부분입니다. 만약 어떤 노드가 학습 단계를 수행했다고 주장하며 그래디언트(gradient)를 제출한다면, 직접 전체 계산을 다시 실행해 보지 않고 그 노드가 정직하게 작업했는지 어떻게 알 수 있을까요? Gensyn의 해답은 Verde 검증 프로토콜입니다. 이는 학습 추적 과정을 이진 탐색하여 증명자와 검증자가 일치하지 않는 단일 단계를 격리한 후 해당 작업만 재계산하는 경량화된 분쟁 해결 시스템입니다. 확률적 학습 증명(probabilistic proof-of-learning)과 결합하여, 네트워크는 전체 재실행 비용을 지불하지 않고도 암호학적 보증을 얻습니다. 이는 개념적으로 Truebit의 대화형 검증 모델과 유사하며, 일반적인 계산에서 ML 전용 커널로 이식된 것입니다.

통신(Communication). 대역폭이 제한된 공용 인터넷에서 학습을 조정하려면 교과서적인 방법은 버려야 합니다. 표준 데이터 센터 프리미티브인 동기식 올리듀스(all-reduce)는 대용량 인피니밴드(InfiniBand) 회선을 전제로 합니다. Gensyn은 세 가지 맞춤형 프리미티브로 이를 대체합니다. NoLoCo는 올리듀스를 저통신 가십 프로토콜로 대체하고, CheckFree는 비용이 많이 드는 주기적 체크포인팅 없이 장애 내성 복구를 제공하며, SkipPipe는 스웜 전체에서 메시지 홉을 최소화하는 그래디언트 공유 알고리즘을 도입합니다. 각각이 논문급 기여이며, 이들이 모여 "가정용 인터넷을 사용하는 노트북 뭉치"를 기능하는 학습 클러스터로 탈바꿈시킵니다.

조정(Coordination). 이더리움 L2 자체가 경제적 엔진입니다. 이는 참여자를 식별하고, 토큰화된 보상을 정산하며, 허가 없는(permissionless) 롤업을 통해 결제를 실행합니다. $AI 토큰이 존재하는 곳이자, 학습 실행에 대한 모든 기여가 궁극적으로 회계 처리되는 곳이기도 합니다.

이 스택을 이해하는 가장 명확한 방법은 이를 클라우드 GPU 모델의 의도적인 반전으로 보는 것입니다. AWS와 Azure는 원시 처리량에 엔지니어링 역량을 집중하고 계약에 의한 신뢰를 전제합니다. 반면 Gensyn은 복제 가능성과 분쟁 해결에 엔지니어링 역량을 집중하며, 네트워크 반대편의 운영자에 대해 아무것도 가정하지 않습니다.

Gensyn이 Bittensor, io.net, Render와 다른 점

아키텍처가 공개되면 경쟁 지형이 명확해집니다. Gensyn과 함께 자주 언급되는 세 가지 프로젝트가 있지만, 이들은 서로 다른 문제를 해결합니다.

  • Bittensor (TAO, 시가총액 약 $2.64B) 는 경쟁적인 벤치마킹 네트워크입니다. 서브넷이 작업을 정의하고, 마이너가 결과물을 생성하며, 검증자가 이를 평가하여 순위를 매기면 가장 높은 점수를 받은 참여자에게 TAO가 지급됩니다. 모델의 품질을 장려하는 데는 탁월하지만, 여러 노드에 걸쳐 단일 공유 학습 실행을 조정하지는 않습니다. Gensyn의 스웜(swarm) 기반 학습은 구조적으로 협력적이지만, Bittensor의 서브넷 모델은 구조적으로 경쟁적(adversarial)입니다.
  • io.net 및 Akash 는 GPU 마켓플레이스입니다. 유휴 하드웨어를 보유한 운영자가 비용을 지불할 의사가 있는 사람에게 시간을 판매할 수 있도록 합니다. 결정적으로, 두 프로토콜 모두 구매자의 워크로드가 올바르게 실행되었는지 검증하지 않습니다. 이는 일반적으로 구매자가 직접 학습 스택을 실행하고 영수증을 신뢰함으로써 해결해야 하는 문제입니다. Gensyn의 Verde + REE 쌍은 바로 이러한 마켓플레이스에 부족한 레이어를 제공합니다.
  • Render Network 는 주로 그래픽을 위한 추론(inference) 렌더링 작업을 분산합니다. 경제 모델은 Gensyn보다는 io.net에 더 가깝습니다. 즉, 컴퓨팅 자원을 임대하고, 결과물을 얻으며, 운영자를 신뢰하는 방식입니다. Render의 Dispersed 서브넷은 인접 제품이지 경쟁 제품이 아닙니다.

Gensyn은 시가총액 약 $71.6M로 368위에 토큰을 출시했으며, 이는 Bittensor 시가총액의 일부에 불과합니다. 이 격차가 바로 핵심 논거입니다. 만약 검증 가능한 협력 학습이 단순한 컴퓨팅 임대의 정교한 버전이 아닌 실제적인 카테고리로 자리 잡는다면, 이 차이는 진입점이 될 것입니다. 그렇지 않다면, 이 격차는 시장이 과학 프로젝트에 대해 올바르게 가치를 매긴 결과일 것입니다.

AI 토큰 판매: \1M에서 $1B 캡 범위의 3% 잉글리시 옥션

2025년 12월 15일, Gensyn이 Sonar에서 AI토큰판매를시작하면서경제모델이실체화되었습니다.구조는이례적으로투명했습니다.총고정공급량100억개의3AI 토큰 판매를 시작하면서 경제 모델이 실체화되었습니다. 구조는 이례적으로 투명했습니다. 총 고정 공급량 100억 개의 3%인 3억 개의 토큰을 대상으로, FDV 하한선 \1M와 상한선 $1B 사이에서 잉글리시 옥션이 진행되었습니다. 입찰자는 토큰당 $0.0001에서 $0.1 사이의 최대 가격을 선택했으며, 최소 입찰 금액은 $100였습니다. 입찰은 이더리움 메인넷에서 USDC 또는 USDT로 결제되었으며, 토큰은 Gensyn Network L2에서 수령되었습니다.

전체 할당량은 Gensyn이 지향하는 프로젝트의 성격을 보여줍니다:

할당 항목비율
커뮤니티 트레저리 (Community Treasury)40.4%
투자자29.6%
25.0%
커뮤니티 세일3.0%
기타2.0%

40%의 커뮤니티 트레저리와 3%의 퍼블릭 세일의 조합은 일반적인 DePIN 출시보다는 Optimism 스타일의 거버넌스 태도에 더 가깝습니다. 팀과 투자자의 지분(총 54.6%, 최근 프라이빗 라운드에서 a16z가 퍼블릭 세일 상한선과 동일한 $1B 가치로 주도함)은 높지만 극단적인 수준은 아닙니다.

이번 판매의 가장 흥미로운 설계는 테스트넷 인센티브였습니다. 검증된 테스트넷 참가자들에게 참여 수준과 입찰 금액에 비례하여 토큰 배수 형태의 2% 보너스 보상 풀이 분배되었습니다. 이는 Gensyn이 퍼블릭 세일 가격의 극대화보다 실제 기여자들에 대한 분배를 더 중요하게 생각한다는 완만하지만 실질적인 신호입니다. 미국 구매자는 12개월의 락업(lock-up)을 수용했으며, 미국 외 구매자는 10% 보너스 배수를 받는 대신 유사한 락업을 선택할 수 있었습니다.

이 경매가 산정한 가치는 하나의 베팅입니다. 즉, 탈중앙화 학습의 단위 경제성이 유사한 AWS 또는 Azure H100 클러스터(온디맨드 요금 기준 시간당 약 $3)보다 60-80% 저렴할 것이며, 유휴 상태인 개인 및 프로슈머 GPU가 유의미한 학습 수요를 흡수할 만큼 충분하다는 가설에 거는 도박입니다. 이 베팅의 성패는 경매 가격이 아니라 2026년 네트워크에 실제로 등장할 워크로드에 의해 결정될 것입니다.

ETHGlobal Open Agents: 생산 신호

이 프로젝트를 "흥미로운 인프라 프로젝트"에서 "빌더들이 실제로 제품을 출시하는 플랫폼"으로 전환시킨 소식은 2026년 4월 24일부터 5월 6일까지 진행되는 ETHGlobal Open Agents입니다. Gensyn은 후원사로서 $5,000의 '최우수 에이전트 익스체인지 레이어 (AXL) 애플리케이션' 부문을 포함하여 총 $50,000 이상의 상금을 제공합니다. 모든 수상자는 Gensyn Foundation 그랜트 프로그램의 우선 검토 대상으로 등록됩니다.

이것이 중요한 이유는 두 가지입니다.

첫째, 해커톤은 새로운 인프라가 그 필요성을 아직 인지하지 못한 개발자들에게 발견되는 통로입니다. Optimism, Base, Sui 생태계의 초기 단계에서도 동일한 전략이 사용되었습니다. $50K의 상금 풀이 시장을 움직일 만한 액수는 아니지만, 수백 명의 ETHGlobal 수준 빌더들이 RL Swarm 및 AXL API를 처음으로 접하게 만드는 강력한 유인책이 됩니다. 해커톤이 끝난 후에도 이들 중 일부는 구축을 계속할 것입니다.

둘째, 상금 카테고리는 Gensyn이 생각하는 킬러 앱의 모습을 보여줍니다. 에이전트 익스체인지 레이어 (Agent eXchange Layer)라는 프레임워크는 자율 에이전트들이 서로를 발견하고, 컴퓨팅 자원을 교환하며, 필요에 따라 서로를 학습시키고 미세 조정 (fine-tuning)하는 구조입니다. Gensyn이 미래를 모놀리식 파운데이션 모델 학습에 걸었다면 상금 항목도 이를 강조했을 것입니다. 대신 에이전트 인프라를 강조하고 있는데, 이는 2026년의 광범위한 내러티브와 일치합니다. 즉, 서로에게 비용을 지불하고 작업을 수행하는 에이전트들에게는 모델 학습 및 미세 조정과 같은 가장 비용이 많이 드는 작업을 검증 가능한 네트워크에 아웃소싱할 수 있는 기반이 필요하다는 것입니다.

솔직한 주의 사항

RL Swarm이 무엇이 아닌지에 대해 2026년 5월 시점에서 명확히 짚고 넘어갈 필요가 있습니다.

현재 라이브 테스트넷에서 공식적으로 운영되는 swarm은 없습니다. 참가자들은 커뮤니티 소유의 swarm에 참여할 수 있는데, 이는 무허가(permissionless) 네트워크에서 항상 발생하는 전형적인 부트스트랩 문제입니다. 프로토콜은 개방되어 있지만, 실제 고가치의 통합 학습 실행이 대규모로 이루어지고 있지는 않습니다. 주요 연구소나 오픈 소스 단체가 실제 모델 학습을 네트워크상에서 실행하기 전까지, 테스트넷은 프로덕션 시스템이라기보다는 개념 증명(PoC) 단계에 머물러 있습니다.

검증 비용 또한 여전히 해결해야 할 과제입니다. Verde의 이진 탐색(binary-search) 분쟁 해결 방식은 전체 학습 작업을 재실행하는 것보다 훨씬 저렴하지만, 공짜는 아닙니다. 또한 수천억 개의 파라미터와 수주간의 학습이 필요한 프런티어 규모(frontier scale)에서의 오버헤드는 아직 입증되지 않았습니다. A100 및 H100 간에 비트 단위로 동일한 출력을 생성하는 RepOps의 하드웨어 결정론(hardware-determinism) 이론은 우아하지만, 경쟁 관계에 있는 중앙 집중형 스택에서는 지불하지 않아도 되는 컴파일러 오버헤드를 추가합니다.

그리고 비용 절감 논리(AWS H100 스팟 인스턴스보다 60-80% 저렴)는 유휴 상태의 일반 소비자 및 프로슈머 GPU의 롱테일이 하이퍼스케일러의 용량을 대체할 수 있을 만큼 밀도가 높다는 가정에 기반합니다. 이는 7B에서 70B 파라미터 규모의 미세 조정(fine-tuning) 작업에는 타당할 수 있습니다. 그러나 진정한 프런티어 규모의 사전 학습(pretraining)에는 아직 무리가 있으며, Gensyn 역시 이를 솔직하게 인정하고 있습니다.

인프라 구축자에게 주는 의미

향후 12개월을 어디에 투자할지 고민하는 개발자들에게 가장 유용한 관점은, Gensyn이 이전에는 존재하지 않았던 새로운 카테고리의 API 영역, 즉 학습 네트워크에 대한 프로그래밍 방식의 검증 가능한 접근 권한을 열어준다는 점입니다. 지금까지 "특정 작업을 수행하는 모델 제작"을 위한 선택지는 (a) OpenAI나 Anthropic과 같은 호스팅된 API를 호출하거나, (b) GPU를 임대하여 직접 학습을 실행하는 것뿐이었습니다. Gensyn은 세 번째 옵션인 '검증 가능한 swarm에 학습 작업을 제출하고 암호학적 보증을 받는 방식'을 제안하며, 이는 ETHGlobal이 장려하는 에이전트 경제(agent economy)와 깔끔하게 맞물립니다.

이 세 번째 옵션이 제대로 작동한다면 하나의 프리미티브(primitive)가 될 것입니다. 니치한 작업을 위해 소규모 전문 모델을 미세 조정해야 하는 에이전트들은 GPU를 직접 임대하고 운영하기를 원치 않을 것입니다. 대신 학습 의도(training intent)를 발행하고, 스테이블코인이나 $AI로 지불하며, 결과물인 가중치(weights)를 소비하기를 원할 것입니다. 이러한 패턴이 확산됨에 따라 이를 가능하게 하는 프로토콜 레이어(L2 롤업, 검증 시스템, swarm 조정 프리미티브 등)가 유의미한 가치를 축적할 것이라는 점이 Gensyn의 핵심 가설입니다.

BlockEden.xyz는 25개 이상의 체인에서 Web3 빌더들이 의존하는 인덱싱, RPC 및 분석 인프라를 지원합니다. Gensyn과 같은 검증 가능한 AI 학습 네트워크가 성숙해짐에 따라, 그 아래의 데이터 및 조정 레이어는 더욱 중요해질 것입니다. API 마켓플레이스를 탐색하여 Web3의 에이전틱(agentic), AI 네이티브 시대를 위해 설계된 인프라 위에서 개발을 시작하세요.

출처