본문으로 건너뛰기

"AI" 태그로 연결된 12개 게시물개의 게시물이 있습니다.

모든 태그 보기

탈중앙화 AI 추론 시장: Bittensor, Gensyn, Cuckoo AI

· 약 58분
Dora Noda
Software Engineer

소개

탈중앙화 AI 추론/훈련 시장은 신뢰가 필요 없는(trustless) 방식으로 전 세계 컴퓨팅 리소스와 커뮤니티 모델을 활용하는 것을 목표로 합니다. Bittensor, Gensyn, **Cuckoo Network (Cuckoo AI)**와 같은 프로젝트들은 블록체인 기술이 어떻게 개방형 AI 마켓플레이스를 구동할 수 있는지 보여줍니다. 각 플랫폼은 컴퓨팅 파워, 머신러닝 모델, 그리고 때로는 데이터와 같은 핵심 AI 자산을 온체인 경제 단위로 토큰화합니다. 다음에서는 이러한 네트워크를 뒷받침하는 기술 아키텍처, 리소스 토큰화 방식, 거버넌스 및 인센티브 구조, 모델 소유권 추적 방법, 수익 공유 메커니즘, 그리고 발생하는 공격 표면(예: 시빌 공격, 담합, 무임승차, 포이즈닝)에 대해 자세히 살펴보겠습니다. 마지막 비교표는 Bittensor, Gensyn, Cuckoo AI의 모든 핵심 차원을 요약합니다.

기술 아키텍처

Bittensor: 서브넷 기반의 탈중앙화 "신경 인터넷"

Bittensor는 다수의 특화된 서브넷에 걸쳐 AI 모델 노드 네트워크를 조정하는 맞춤형 레이어 1 블록체인(Subtensor 체인, Substrate 기반) 위에 구축되었습니다. 각 서브넷은 특정 AI 작업(예: 언어 생성을 위한 서브넷, 이미지 생성을 위한 또 다른 서브넷 등)에 초점을 맞춘 독립적인 미니 네트워크입니다. Bittensor의 참여자들은 다음과 같은 뚜렷한 역할을 맡습니다:

  • 채굴자(Miners) – 자신의 하드웨어에서 머신러닝 모델을 실행하고 서브넷의 작업에 대한 추론 답변을 제공하거나 훈련을 수행합니다. 본질적으로 채굴자는 쿼리에 응답할 AI 모델을 호스팅하는 노드입니다.
  • 검증자(Validators) – 프롬프트로 채굴자의 모델에 쿼리하고 응답의 품질을 평가하여 어떤 채굴자가 가치 있는 결과를 기여하는지에 대한 의견을 형성합니다. 검증자는 효과적으로 채굴자의 성능을 채점합니다.
  • 서브넷 소유자(Subnet Owners) – 서브넷을 생성하고 정의하며, 해당 서브넷에서 어떤 작업이 수행되고 검증이 어떻게 이루어지는지에 대한 규칙을 설정합니다. 예를 들어, 서브넷 소유자는 특정 데이터셋이나 모달리티를 위한 서브넷을 지정하고 검증 절차를 정의할 수 있습니다.
  • 위임자(Delegators) – 노드를 운영하지 않는 토큰 보유자는 자신의 Bittensor 토큰(TAO)을 채굴자나 검증자에게 위임(스테이킹)하여 최고의 성과자를 지원하고 보상의 일부를 얻을 수 있습니다(지분 증명 네트워크의 스테이킹과 유사).

Bittensor의 합의 메커니즘은 참신합니다. 전통적인 블록 검증 대신, Bittensor는 "지능 증명(proof-of-intelligence)"의 한 형태인 유마(Yuma) 합의를 사용합니다. 유마 합의에서 채굴자에 대한 검증자의 평가는 온체인에서 집계되어 보상 분배를 결정합니다. 12초마다 생성되는 블록에서 네트워크는 새로운 TAO 토큰을 발행하고, 어떤 채굴자가 유용한 작업을 제공했는지에 대한 검증자들의 합의에 따라 분배합니다. 검증자의 점수는 지분 가중 중앙값 방식으로 결합됩니다. 즉, 특이한 의견은 잘리고 정직한 다수의 의견이 우세하게 됩니다. 이는 대부분의 검증자가 한 채굴자가 고품질이라고 동의하면 해당 채굴자는 높은 보상을 받고, 한 검증자가 다른 검증자들과 크게 다른 의견을 내면(담합이나 오류 가능성) 해당 검증자는 보상을 덜 받음으로써 불이익을 받는다는 것을 의미합니다. 이런 방식으로 Bittensor의 블록체인은 채굴자-검증자 피드백 루프를 조정합니다. 채굴자들은 최고의 AI 결과물을 생성하기 위해 경쟁하고, 검증자들은 그 결과물을 큐레이팅하고 순위를 매기며, 양측 모두 자신이 추가한 가치에 비례하여 토큰을 얻습니다. 이 아키텍처는 종종 "탈중앙화 신경망" 또는 "글로벌 브레인"으로 묘사되며, 모델들이 서로의 신호로부터 배우고 집단적으로 진화합니다. 특히, Bittensor는 최근 체인을 업그레이드하여 EVM 호환성(스마트 계약용)을 지원하고, 리소스 할당에 대한 통제를 더욱 분산시키기 위해 서브넷별 토큰 및 스테이킹 시스템인 dTAO를 도입했습니다.

Gensyn: 신뢰가 필요 없는 분산 컴퓨팅 프로토콜

Gensyn은 머신러닝을 위한 분산 컴퓨팅 프로토콜의 관점에서 탈중앙화 AI에 접근합니다. 이 아키텍처는 AI 작업(모델 훈련이나 추론 작업 실행 등)을 가진 **개발자(제출자)**와 전 세계의 여유 GPU/TPU 리소스를 가진 **컴퓨팅 제공자(해결자)**를 연결합니다. 원래 Gensyn은 Substrate L1 체인을 계획했지만, 더 강력한 보안과 유동성을 위해 이더리움 롤업으로 구축하는 방향으로 전환했습니다. 따라서 Gensyn 네트워크는 이더리움 레이어 2(이더리움 롤업)로서 작업 게시와 결제를 조정하고, 계산은 제공자의 하드웨어에서 오프체인으로 이루어집니다.

Gensyn 설계의 핵심 혁신은 오프체인 작업에 대한 검증 시스템입니다. Gensyn은 **낙관적 검증(사기 증명)**과 암호화 기술을 조합하여 해결자가 훈련/추론 작업을 실행했다고 주장할 때 그 결과가 정확함을 보장합니다. 실제로 프로토콜에는 여러 참여자 역할이 포함됩니다:

  • 제출자(Submitter) – 작업을 요청하는 당사자(예: 모델 훈련이 필요한 사람). 네트워크 수수료를 지불하고 모델/데이터 또는 작업 사양을 제공합니다.
  • 해결자(Solver) – ML 작업에 입찰하고 자신의 하드웨어에서 실행하는 노드. 요청에 따라 모델을 훈련하거나 추론을 실행한 다음, 결과와 계산 증명을 제출합니다.
  • 검증자/도전자(Verifier/Challenger) – 해결자의 작업을 감사하거나 무작위로 점검할 수 있는 노드. Gensyn은 Truebit 스타일의 방식을 구현하여 기본적으로 해결자의 결과는 수락되지만, 부정확한 계산이 의심되는 경우 검증자가 일정 기간 내에 이의를 제기할 수 있습니다. 이의 제기가 발생하면, 계산 단계를 통한 대화형 "이진 탐색"(사기 증명 프로토콜)을 사용하여 불일치 지점을 정확히 찾아냅니다. 이를 통해 체인은 전체적인 비싼 작업을 다시 수행하는 대신, 최소한의 중요한 계산 부분만 온체인에서 수행하여 분쟁을 해결할 수 있습니다.

결정적으로, Gensyn은 순진한 접근 방식의 막대한 중복성을 피하도록 설계되었습니다. 많은 노드가 모두 동일한 ML 작업을 반복하는 대신(이는 비용 절감 효과를 없앨 것임), Gensyn의 "학습 증명(proof-of-learning)" 접근 방식은 훈련 메타데이터를 사용하여 학습 진행이 이루어졌음을 검증합니다. 예를 들어, 해결자는 중간 모델 가중치의 암호화 해시나 체크포인트, 그리고 이것이 훈련 업데이트에 따라 진행되었음을 보여주는 간결한 증명을 제공할 수 있습니다. 이 확률적 학습 증명은 전체 훈련을 다시 실행하는 것보다 훨씬 저렴하게 확인할 수 있어, 완전한 복제 없이 신뢰가 필요 없는 검증을 가능하게 합니다. 검증자가 이상을 감지한 경우에만 최후의 수단으로 더 무거운 온체인 계산이 트리거됩니다. 이 접근 방식은 무차별 대입 검증에 비해 오버헤드를 극적으로 줄여 탈중앙화 ML 훈련을 더 실현 가능하게 만듭니다. 따라서 Gensyn의 아키텍처는 암호경제학적 게임 설계를 크게 강조합니다. 해결자는 지분이나 보증금을 걸고, 만약 속임수(잘못된 결과 제출)를 쓰면 정직하게 잡아낸 검증자에게 그 지분을 잃게 됩니다. 블록체인 조정(결제 및 분쟁 해결용)과 오프체인 컴퓨팅 및 영리한 검증을 결합함으로써, Gensyn은 신뢰성을 유지하면서 어디서든 유휴 GPU를 활용할 수 있는 ML 컴퓨팅 마켓플레이스를 만듭니다. 그 결과, 모든 개발자가 저렴하고 전 세계적으로 분산된 훈련 성능을 필요에 따라 이용할 수 있는 하이퍼스케일 "컴퓨팅 프로토콜"이 탄생합니다.

Cuckoo AI: 풀스택 탈중앙화 AI 서비스 플랫폼

Cuckoo Network(또는 Cuckoo AI)는 보다 수직적으로 통합된 접근 방식을 취하여, 단순히 원시 컴퓨팅이 아닌 엔드투엔드 탈중앙화 AI 서비스를 제공하는 것을 목표로 합니다. Cuckoo는 모든 것을 조율하기 위해 자체 블록체인(초기에는 Arbitrum Orbit, 즉 이더리움 호환 롤업 프레임워크 위의 Cuckoo Chain이라는 레이어 1)을 구축했습니다. 이는 작업과 GPU를 매칭할 뿐만 아니라, AI 애플리케이션을 호스팅하고 단일 시스템 내에서 결제를 처리합니다. 이 설계는 풀스택입니다. 즉, 거래와 거버넌스를 위한 블록체인, 탈중앙화 GPU/CPU 리소스 레이어, 그리고 그 위에 사용자 대상 AI 애플리케이션과 API를 결합합니다. 다시 말해, Cuckoo는 블록체인, 컴퓨팅, AI 애플리케이션이라는 세 가지 레이어를 단일 플랫폼 내에 통합합니다.

Cuckoo의 참여자는 네 그룹으로 나뉩니다:

  • AI 앱 빌더(코디네이터) – Cuckoo에 AI 모델이나 서비스를 배포하는 개발자들입니다. 예를 들어, 개발자는 Stable Diffusion 이미지 생성기나 LLM 챗봇을 서비스로 호스팅할 수 있습니다. 이들은 코디네이터 노드를 운영하며, 자신의 서비스를 관리하는 책임을 집니다. 즉, 사용자 요청을 수락하고, 이를 작업으로 분할하여 채굴자에게 할당합니다. 코디네이터는 네이티브 토큰($CAI)을 스테이킹하여 네트워크에 참여하고 채굴자를 활용할 권리를 얻습니다. 이들은 본질적으로 사용자와 GPU 제공자 사이를 연결하는 레이어 2 오케스트레이터 역할을 합니다.
  • GPU/CPU 채굴자(작업 노드) – 리소스 제공자입니다. 채굴자들은 Cuckoo 작업 클라이언트를 실행하고 자신의 하드웨어를 기여하여 AI 앱을 위한 추론 작업을 수행합니다. 예를 들어, 채굴자는 코디네이터로부터 이미지 생성 요청(주어진 모델과 프롬프트 포함)을 할당받아 자신의 GPU를 사용하여 결과를 계산할 수 있습니다. 채굴자 또한 약속과 선량한 행동을 보장하기 위해 $CAI를 스테이킹해야 합니다. 이들은 올바르게 완료한 각 작업에 대해 토큰 보상을 받습니다.
  • 최종 사용자 – AI 애플리케이션의 소비자입니다. 이들은 Cuckoo의 웹 포털이나 API를 통해 상호작용합니다(예: CooVerse를 통해 예술 작품 생성 또는 AI 인격체와 대화). 사용자는 각 사용에 대해 암호화폐로 지불하거나, 사용 비용을 상쇄하기 위해 자신의 컴퓨팅을 기여(또는 스테이킹)할 수 있습니다. 중요한 측면은 검열 저항성입니다. 한 코디네이터(서비스 제공자)가 차단되거나 다운되면, 사용자는 동일한 애플리케이션을 제공하는 다른 코디네이터로 전환할 수 있습니다. 왜냐하면 탈중앙화 네트워크에서는 여러 코디네이터가 유사한 모델을 호스팅할 수 있기 때문입니다.
  • 스테이커(위임자) – AI 서비스나 채굴 하드웨어를 운영하지 않는 커뮤니티 구성원도 이를 운영하는 사람들에게 $CAI를 스테이킹함으로써 참여할 수 있습니다. 신뢰할 수 있는 코디네이터나 채굴자에게 자신의 지분으로 투표함으로써, 이들은 평판을 알리는 데 도움을 주고 그 대가로 네트워크 보상의 일부를 얻습니다. 이 설계는 Web3 평판 레이어를 구축합니다. 선량한 행위자는 더 많은 지분(따라서 신뢰와 보상)을 유치하고, 악의적인 행위자는 지분과 평판을 잃습니다. 어떤 경우에는 최종 사용자도 스테이킹하여 네트워크의 성공에 동참할 수 있습니다.

Cuckoo 체인(현재 독립형 체인에서 공유 보안 롤업으로 전환 중)은 이러한 모든 상호작용을 추적합니다. 사용자가 AI 서비스를 호출하면, 코디네이터 노드는 채굴자를 위한 온체인 작업 할당을 생성합니다. 채굴자들은 오프체인에서 작업을 실행하고 결과를 코디네이터에게 반환하며, 코디네이터는 이를 검증(예: 출력 이미지나 텍스트가 무의미하지 않은지 확인)하고 최종 결과를 사용자에게 전달합니다. 블록체인은 결제 정산을 처리합니다. 각 작업에 대해 코디네이터의 스마트 계약은 채굴자에게 $CAI로 지불합니다(종종 소액 결제를 일일 지급액으로 집계). Cuckoo는 신뢰성과 투명성을 강조합니다. 모든 참여자는 토큰을 스테이킹하고 모든 작업 할당 및 완료가 기록되므로, 지분을 잃을 위협과 성능의 공개적인 가시성으로 인해 부정행위가 억제됩니다. 네트워크의 모듈식 설계는 새로운 AI 모델이나 사용 사례를 쉽게 추가할 수 있음을 의미합니다. 개념 증명으로 텍스트-이미지 생성을 시작했지만, 그 아키텍처는 다른 AI 워크로드(예: 언어 모델 추론, 오디오 전사 등)를 지원할 만큼 일반적입니다.

Cuckoo 아키텍처의 주목할 만한 점은 AI 거래의 처리량을 극대화하기 위해 초기에 자체 레이어 1 블록체인을 출시했다는 것입니다(테스트 중 일일 30만 건의 거래에 도달). 이를 통해 AI 작업 스케줄링을 위한 맞춤형 최적화가 가능했습니다. 그러나 팀은 독립형 L1을 유지하는 것이 비용이 많이 들고 복잡하다는 것을 발견했고, 2025년 중반에 맞춤형 체인을 중단하고 이더리움의 롤업/AVS(Active Validated Service) 모델로 마이그레이션하기로 결정했습니다. 이는 Cuckoo가 자체 합의를 실행하는 대신 이더리움이나 Arbitrum과 같은 L2로부터 보안을 상속받지만, 해당 공유 보안 레이어에서 탈중앙화 AI 마켓플레이스를 계속 운영할 것임을 의미합니다. 이 변경은 경제적 보안을 개선하고(이더리움의 견고성 활용) Cuckoo 팀이 저수준 체인 유지보수 대신 제품에 집중할 수 있도록 하기 위한 것입니다. 요약하자면, Cuckoo의 아키텍처는 누구나 하드웨어를 연결하거나 AI 모델 서비스를 배포할 수 있고, 전 세계 사용자가 더 낮은 비용과 빅테크 인프라에 대한 의존도 감소로 AI 앱에 접근할 수 있는 탈중앙화 AI 서빙 플랫폼을 만듭니다.

자산 토큰화 메커니즘

이러한 네트워크의 공통된 주제는 컴퓨팅, 모델, 데이터를 거래하거나 수익화할 수 있는 온체인 자산 또는 경제 단위로 전환하는 것입니다. 그러나 각 프로젝트는 이러한 리소스를 서로 다른 방식으로 토큰화하는 데 중점을 둡니다:

  • 컴퓨팅 파워: 세 플랫폼 모두 컴퓨팅 작업을 보상 토큰으로 전환합니다. Bittensor에서는 유용한 계산(채굴자가 수행한 추론 또는 훈련)이 검증자 점수를 통해 정량화되고 각 블록마다 TAO 토큰으로 보상됩니다. 본질적으로 Bittensor는 기여된 지능을 "측정"하고 그 기여를 나타내는 상품으로 TAO를 발행합니다. Gensyn은 컴퓨팅을 상품으로 명시적으로 취급합니다. 이 프로토콜은 GPU 시간이 제품이고 가격이 토큰 단위의 수요-공급에 의해 설정되는 마켓플레이스를 만듭니다. 개발자는 토큰을 사용하여 컴퓨팅을 구매하고, 제공자는 하드웨어 사이클을 판매하여 토큰을 얻습니다. Gensyn 팀은 모든 디지털 리소스(컴퓨팅, 데이터, 알고리즘)가 유사한 신뢰가 필요 없는 시장에서 표현되고 거래될 수 있다고 언급합니다. Cuckoo는 완료된 작업에 대한 지불로 발행되는 ERC-20 토큰 $CAI를 통해 컴퓨팅을 토큰화합니다. GPU 제공자는 본질적으로 AI 추론 작업을 수행하여 CAI를 "채굴"합니다. Cuckoo의 시스템은 작업의 온체인 기록을 생성하므로, 완료된 각 GPU 작업을 토큰으로 지불되는 원자적 작업 단위로 생각할 수 있습니다. 세 가지 모두의 전제는 유휴 상태이거나 접근할 수 없는 컴퓨팅 파워가 토큰화되고 유동적인 자산이 된다는 것입니다. 이는 프로토콜 수준의 토큰 발행(Bittensor 및 초기 Cuckoo에서처럼) 또는 컴퓨팅 작업에 대한 매수/매도 주문의 공개 시장(Gensyn에서처럼)을 통해 이루어집니다.

  • AI 모델: AI 모델을 온체인 자산(예: NFT 또는 토큰)으로 표현하는 것은 아직 초기 단계입니다. Bittensor는 모델 자체를 토큰화하지 않습니다. 모델은 채굴자의 소유로 오프체인에 남아 있습니다. 대신, Bittensor는 좋은 성과를 내는 모델에 보상함으로써 간접적으로 가치를 부여합니다. 사실상 모델의 "지능"은 TAO 수익으로 전환되지만, 모델 가중치를 나타내거나 다른 사람이 모델을 사용할 수 있도록 허용하는 NFT는 없습니다. Gensyn은 모델용 토큰을 명시적으로 생성하는 것이 아니라 컴퓨팅 거래에 중점을 둡니다. Gensyn의 모델은 일반적으로 개발자가 오프체인으로 제공하고(오픈 소스 또는 독점일 수 있음), 해결자가 훈련하고, 반환됩니다. 모델이나 그 IP를 소유하는 토큰을 생성하는 내장 메커니즘은 없습니다. (그렇지만, 당사자들이 원한다면 Gensyn 마켓플레이스는 잠재적으로 모델 아티팩트나 체크포인트 거래를 촉진할 수 있지만, 프로토콜 자체는 모델을 토큰화된 자산이 아닌 계산의 내용으로 봅니다.) Cuckoo는 그 중간 어딘가에 있습니다. "AI 에이전트"와 네트워크에 통합된 모델에 대해 이야기하지만, 현재 각 모델을 나타내는 대체 불가능한 토큰은 없습니다. 대신, 모델은 앱 빌더에 의해 배포된 다음 네트워크를 통해 제공됩니다. 해당 모델의 사용 권한은 모델이 사용될 때 $CAI를 벌 수 있다는 점에서 암묵적으로 토큰화됩니다(모델을 배포한 코디네이터를 통해). 세 플랫폼 모두 모델 토큰화 개념(예: 토큰을 통해 커뮤니티에 모델 소유권 부여)을 인정하지만, 실제 구현은 제한적입니다. 업계로서 AI 모델을 토큰화하는 것(예: 소유권 및 이익 공유 권리가 있는 NFT로)은 아직 탐색 중입니다. 모델이 서로 가치를 교환하는 Bittensor의 접근 방식은 모델당 명시적인 토큰이 없는 *"모델 마켓플레이스"*의 한 형태입니다. Cuckoo 팀은 탈중앙화된 모델 소유권이 중앙 집중식 AI에 비해 장벽을 낮출 수 있어 유망하지만, 모델 출력과 사용을 온체인에서 검증하는 효과적인 방법이 필요하다고 언급합니다. 요약하자면, 컴퓨팅 파워는 즉시 토큰화되지만(수행된 작업에 대해 토큰을 지불하는 것은 간단함), 모델은 간접적으로 또는 희망적으로 토큰화됩니다(출력에 대해 보상받고, 지분이나 평판으로 표현될 수 있지만, 아직 이러한 플랫폼에서 양도 가능한 NFT로 취급되지는 않음).

  • 데이터: 데이터 토큰화는 가장 어려운 과제로 남아 있습니다. Bittensor, Gensyn, Cuckoo 중 어느 곳도 완전히 일반화된 온체인 데이터 마켓플레이스(데이터셋이 시행 가능한 사용 권한으로 거래되는 곳)를 통합하지 않았습니다. Bittensor 노드는 다양한 데이터셋에서 훈련할 수 있지만, 해당 데이터셋은 온체인 시스템의 일부가 아닙니다. Gensyn은 개발자가 훈련용 데이터셋을 제공하도록 허용할 수 있지만, 프로토콜은 해당 데이터를 토큰화하지 않습니다. 이는 단순히 해결자가 사용하도록 오프체인으로 제공될 뿐입니다. Cuckoo도 마찬가지로 사용자 데이터를 토큰화하지 않습니다. 주로 추론 작업을 위해 데이터(사용자 프롬프트나 출력 등)를 일시적인 방식으로 처리합니다. Cuckoo 블로그는 *“탈중앙화 데이터는 중요한 리소스임에도 불구하고 토큰화하기 어려운 과제로 남아 있다”*고 명시적으로 언급합니다. 데이터는 민감하고(개인 정보 보호 및 소유권 문제) 현재 블록체인 기술로 처리하기 어렵습니다. 따라서 컴퓨팅은 상품화되고 모델은 시작 단계에 있지만, 데이터는 특별한 경우를 제외하고는 대부분 오프체인에 머물러 있습니다(이 세 가지 외의 일부 프로젝트는 데이터 조합과 데이터 기여에 대한 토큰 보상을 실험하고 있지만, 이는 현재 범위 밖입니다). 요약하자면, 컴퓨팅 파워는 이제 이러한 네트워크에서 온체인 상품이 되었고, 모델은 토큰을 통해 가치가 평가되지만 아직 자산으로 개별적으로 토큰화되지는 않았으며, 데이터 토큰화는 여전히 해결되지 않은 문제입니다(그 중요성을 인정하는 것 이상으로).

거버넌스 및 인센티브

이러한 탈중앙화 AI 네트워크가 자율적이고 공정하게 기능하기 위해서는 견고한 거버넌스 및 인센티브 설계가 중요합니다. 여기서는 각 플랫폼이 어떻게 자신을 통치하는지(누가 결정을 내리고, 업그레이드나 매개변수 변경이 어떻게 발생하는지)와 토큰 경제학을 통해 참여자 인센티브를 어떻게 조정하는지를 살펴봅니다.

  • Bittensor 거버넌스: 초기 단계에서 Bittensor의 개발 및 서브넷 매개변수는 주로 핵심 팀과 메인 서브넷의 64개 "루트" 검증자 집합에 의해 통제되었습니다. 이는 중앙 집중화의 한 지점이었습니다. 소수의 강력한 검증자가 보상 할당에 과도한 영향력을 행사하여 일부에서는 *"과두 정치적 투표 시스템"*이라고 불렀습니다. 이를 해결하기 위해 Bittensor는 2025년에 dTAO(탈중앙화 TAO) 거버넌스를 도입했습니다. dTAO 시스템은 리소스 할당을 시장 주도 및 커뮤니티 통제 방식으로 전환했습니다. 구체적으로, TAO 보유자는 자신의 토큰을 서브넷별 유동성 풀에 스테이킹하여(본질적으로 어떤 서브넷이 더 많은 네트워크 배출량을 받아야 하는지에 대해 "투표"함) 해당 서브넷 풀의 소유권을 나타내는 알파 토큰을 받습니다. 더 많은 지분을 유치하는 서브넷은 더 높은 알파 토큰 가격을 가지게 되고 일일 TAO 배출량의 더 큰 부분을 차지하게 되며, 인기가 없거나 성과가 저조한 서브넷은 자본(따라서 배출량)이 빠져나가는 것을 보게 될 것입니다. 이는 피드백 루프를 만듭니다. 서브넷이 가치 있는 AI 서비스를 생산하면 더 많은 사람들이 TAO를 스테이킹하고(보상을 추구하며), 이는 해당 서브넷에 참여자에게 보상할 더 많은 TAO를 제공하여 성장을 촉진합니다. 서브넷이 정체되면 스테이커는 더 수익성 있는 서브넷으로 자금을 인출합니다. 사실상, TAO 보유자들은 어떤 AI 도메인이 더 많은 리소스를 받을 가치가 있는지 재정적으로 신호를 보냄으로써 네트워크의 초점을 집단적으로 통치합니다. 이는 경제적 결과에 맞춰진 토큰 가중치에 의한 온체인 거버넌스의 한 형태입니다. 리소스 할당 외에도, 주요 프로토콜 업그레이드나 매개변수 변경은 여전히 TAO 보유자가 투표하는 거버넌스 제안을 통해 이루어질 가능성이 높습니다(Bittensor는 Bittensor 재단과 선출된 위원회가 관리하는 온체인 제안 및 국민투표 메커니즘을 가지고 있으며, 이는 Polkadot의 거버넌스와 유사합니다). 시간이 지남에 따라 Bittensor의 거버넌스는 점점 더 탈중앙화될 것으로 예상되며, 재단은 커뮤니티(TAO 지분을 통해)가 인플레이션율, 새로운 서브넷 승인 등과 같은 사항을 조종함에 따라 뒤로 물러날 것입니다. dTAO로의 전환은 중앙 집중식 의사 결정자를 인센티브에 맞춰진 토큰 이해관계자 시장으로 대체하는 큰 발걸음입니다.

  • Bittensor 인센티브: Bittensor의 인센티브 구조는 합의 메커니즘과 긴밀하게 얽혀 있습니다. 모든 블록(12초)마다 정확히 1개의 TAO가 새로 발행되어 각 서브넷의 기여자들에게 성과에 따라 분배됩니다. 각 서브넷의 블록 보상에 대한 기본 분배는 **채굴자에게 41%, 검증자에게 41%, 서브넷 소유자에게 18%**입니다. 이는 모든 역할이 보상받도록 보장합니다. 채굴자는 추론 작업을 수행하여 보상을 받고, 검증자는 평가 노력에 대해 보상을 받으며, 서브넷 소유자(해당 서브넷의 데이터/작업을 부트스트랩했을 수 있음)는 "마켓플레이스" 또는 작업 설계를 제공한 대가로 잔여 보상을 받습니다. 이 비율은 프로토콜에 고정되어 있으며 모든 사람의 인센티브를 고품질 AI 출력으로 향하게 하는 것을 목표로 합니다. 유마 합의 메커니즘은 품질 점수에 따라 보상을 가중함으로써 인센티브를 더욱 정교하게 만듭니다. 더 나은 답변을 제공하는 채굴자(검증자 합의에 따라)는 41%의 더 높은 부분을 받고, 정직한 합의를 면밀히 따르는 검증자는 검증자 부분의 더 많은 부분을 받습니다. 성과가 저조한 참여자는 경제적으로 제거됩니다. 또한, 채굴자나 검증자를 지원하는 **위임자(스테이커)**는 일반적으로 해당 노드의 수익 일부를 받습니다(노드는 종종 수수료를 설정하고 나머지를 위임자에게 제공하며, 이는 PoS 네트워크의 스테이킹과 유사합니다). 이를 통해 수동적인 TAO 보유자는 최고의 기여자를 지원하고 수익을 얻을 수 있어 능력주의를 더욱 강화합니다. 따라서 Bittensor의 토큰(TAO)은 유틸리티 토큰입니다. 새로운 채굴자의 등록에 필요하며(채굴자는 참여하기 위해 소량의 TAO를 사용해야 하며, 이는 시빌 스팸을 방지함), 영향력을 높이거나 위임을 통해 수익을 얻기 위해 스테이킹될 수 있습니다. 또한 외부 사용자가 Bittensor 네트워크의 서비스를 이용하고자 할 때(예: Bittensor의 언어 모델에 쿼리하기 위해 TAO 지불) 결제 토큰으로도 구상되지만, 지금까지는 내부 보상 메커니즘이 주요 "경제"였습니다. 전반적인 인센티브 철학은 "가치 있는 지능" 즉, 좋은 AI 결과를 생산하는 데 도움이 되는 모델에 보상하고, 네트워크 내 모델의 품질을 지속적으로 향상시키는 경쟁을 만드는 것입니다.

  • Gensyn 거버넌스: Gensyn의 거버넌스 모델은 네트워크가 성숙함에 따라 핵심 팀 통제에서 커뮤니티 통제로 진화하도록 구성되어 있습니다. 초기에 Gensyn은 프로토콜 업그레이드와 재무 결정을 감독하는 Gensyn 재단과 선출된 위원회를 가질 것입니다. 이 위원회는 처음에는 핵심 팀 구성원과 초기 커뮤니티 리더로 구성될 것으로 예상됩니다. Gensyn은 네이티브 토큰(종종 GENS라고 함)에 대한 **토큰 생성 이벤트(TGE)**를 계획하고 있으며, 그 이후에는 온체인 투표를 통해 거버넌스 권한이 점점 더 토큰 보유자의 손에 넘어갈 것입니다. 재단의 역할은 프로토콜의 이익을 대표하고 완전한 탈중앙화로의 원활한 전환을 보장하는 것입니다. 실제로 Gensyn은 매개변수 변경(예: 검증 게임 기간, 수수료율)이나 업그레이드에 대해 커뮤니티가 투표하는 온체인 제안 메커니즘을 가질 가능성이 높습니다. Gensyn이 이더리움 롤업으로 구현되고 있기 때문에, 거버넌스는 이더리움의 보안과도 연결될 수 있습니다(예: 롤업 계약에 대한 업그레이드 키를 사용하여 결국 토큰 보유자의 DAO에 넘겨주는 것). Gensyn 라이트페이퍼의 탈중앙화 및 거버넌스 섹션은 프로토콜이 궁극적으로 전 세계적으로 소유되어야 함을 강조하며, *"기계 지능을 위한 네트워크"*가 사용자 및 기여자에게 속해야 한다는 정신과 일치합니다. 요약하자면, Gensyn의 거버넌스는 반중앙집중식으로 시작하지만, GENS 토큰 보유자(잠재적으로 지분이나 참여에 따라 가중)가 집단적으로 결정을 내리는 DAO가 되도록 설계되었습니다.

  • Gensyn 인센티브: Gensyn의 경제적 인센티브는 암호경제학적 보안으로 보완된 간단한 시장 역학입니다. **개발자(클라이언트)**는 Gensyn 토큰으로 ML 작업 비용을 지불하고, 해결자는 해당 작업을 올바르게 완료하여 토큰을 얻습니다. 컴퓨팅 사이클의 가격은 공개 시장에서 결정됩니다. 아마도 개발자는 보상금을 걸고 작업을 게시할 수 있고, 해결자는 가격이 기대에 부응하면 입찰하거나 그냥 수락할 수 있습니다. 이는 유휴 GPU 공급이 있는 한, 경쟁이 비용을 공정한 수준으로 낮출 것임을 보장합니다(Gensyn 팀은 네트워크가 전 세계에서 가장 저렴한 하드웨어를 찾기 때문에 클라우드 가격에 비해 최대 80%의 비용 절감을 예상합니다). 반면에, 해결자는 작업을 통해 토큰을 얻는 인센티브를 가집니다. 그렇지 않으면 유휴 상태일 수 있는 하드웨어가 이제 수익을 창출합니다. 품질을 보장하기 위해, Gensyn은 해결자가 작업을 맡을 때 담보를 스테이킹하도록 요구합니다. 만약 그들이 속이거나 부정확한 결과를 생성하고 발각되면, 그들은 그 지분을 잃게 됩니다(삭감되어 정직한 검증자에게 수여될 수 있음). 검증자는 사기꾼 해결자를 잡으면 "잭팟" 보상을 얻을 기회로 인센티브를 받습니다. 이는 Truebit의 설계와 유사하게, 부정확한 계산을 성공적으로 식별한 검증자에게 주기적으로 보상하는 것입니다. 이는 해결자를 정직하게 유지하고 일부 노드가 감시자 역할을 하도록 동기를 부여합니다. 최적의 시나리오(부정행위 없음)에서는 해결자는 단순히 작업 수수료를 벌고 검증자 역할은 대부분 유휴 상태입니다(또는 참여하는 해결자 중 하나가 다른 사람에 대한 검증자 역할을 겸할 수 있음). 따라서 Gensyn의 토큰은 컴퓨팅 구매를 위한 가스 통화와 프로토콜을 보호하는 스테이킹 담보 역할을 모두 합니다. 라이트페이퍼는 비영구 토큰을 사용한 테스트넷을 언급하며, 초기 테스트넷 참여자는 TGE에서 실제 토큰으로 보상받을 것이라고 명시합니다. 이는 Gensyn이 부트스트래핑을 위해 일부 토큰 공급을 할당했음을 나타냅니다. 즉, 초기 채택자, 테스트 해결자, 커뮤니티 구성원에게 보상하는 것입니다. 장기적으로는 실제 작업에서 발생하는 수수료가 네트워크를 유지해야 합니다. 또한 각 작업 지불의 일부가 재무부로 들어가거나 소각되는 작은 프로토콜 수수료가 있을 수 있습니다. 이 세부 사항은 아직 확인되지 않았지만, 많은 마켓플레이스 프로토콜은 개발 자금을 조달하거나 토큰 바이백 및 소각을 위해 수수료를 포함합니다. 요약하자면, Gensyn의 인센티브는 ML 작업의 정직한 완료를 중심으로 조정됩니다. 일을 하면 돈을 받고, 속이려 하면 지분을 잃고, 다른 사람을 검증하면 사기꾼을 잡을 경우 보상을 받습니다. 이는 신뢰할 수 있는 분산 컴퓨팅을 달성하기 위한 자율적인 경제 시스템을 만듭니다.

  • Cuckoo 거버넌스: Cuckoo Network는 초기부터 생태계에 거버넌스를 구축했지만, 아직 개발 단계에 있습니다. CAI토큰은유틸리티역할외에도명시적으로거버넌스토큰입니다.Cuckoo의철학은GPU노드운영자,앱개발자,심지어최종사용자까지네트워크의진화에발언권을가져야한다는것입니다.이는커뮤니티주도비전을반영합니다.실제로,중요한결정(프로토콜업그레이드나경제적변경등)은토큰가중투표로결정될것이며,아마도DAO메커니즘을통해이루어질것입니다.예를들어,Cuckoo는보상분배변경이나새로운기능채택에대해온체인투표를실시할수있으며,CAI 토큰은 유틸리티 역할 외에도 명시적으로 거버넌스 토큰입니다. Cuckoo의 철학은 GPU 노드 운영자, 앱 개발자, 심지어 최종 사용자까지 네트워크의 진화에 발언권을 가져야 한다는 것입니다. 이는 커뮤니티 주도 비전을 반영합니다. 실제로, 중요한 결정(프�로토콜 업그레이드나 경제적 변경 등)은 토큰 가중 투표로 결정될 것이며, 아마도 DAO 메커니즘을 통해 이루어질 것입니다. 예를 들어, Cuckoo는 보상 분배 변경이나 새로운 기능 채택에 대해 온체인 투표를 실시할 수 있으며, CAI 보유자(채굴자, 개발자, 사용자 포함)가 투표할 것입니다. 이미 온체인 투표평판 시스템으로 사용됩니다. Cuckoo는 각 역할에 토큰을 스테이킹하도록 요구하며, 커뮤니티 구성원은 어떤 코디네이터나 채굴자가 신뢰할 수 있는지 투표할 수 있습니다(아마도 지분 위임이나 거버넌스 모듈을 통해). 이는 평판 점수에 영향을 미치고 작업 스케줄링에 영향을 줄 수 있습니다(예: 더 많은 투표를 받은 코디네이터는 더 많은 사용자를 유치하거나, 더 많은 투표를 받은 채굴자는 더 많은 작업을 할당받을 수 있음). 이는 거버넌스와 인센티브의 혼합입니다. 거버넌스 토큰을 사용하여 신뢰를 구축하는 것입니다. Cuckoo 재단이나 핵심 팀은 지금까지 프로젝트의 방향을 이끌어 왔지만(예: 최근 L1 체인 중단 결정), 그들의 블로그는 탈중앙화 소유권으로 나아가겠다는 약속을 나타냅니다. 그들은 자체 체인을 운영하는 것이 높은 오버헤드를 발생시키고 롤업으로 전환하면 더 개방적인 개발과 기존 생태계와의 통합이 가능해질 것이라고 밝혔습니다. 공유 레이어(이더리움 등)에 올라가면, Cuckoo는 커뮤니티가 CAI를 사용하여 투표하는 보다 전통적인 DAO를 구현할 가능성이 높습니다.

  • Cuckoo 인센티브: Cuckoo의 인센티브 설계는 고정된 토큰 할당이 있는 초기 부트스트래핑 단계와 사용량 기반 수익 공유가 있는 미래 상태의 두 단계로 나뉩니다. 출시 시, Cuckoo는 10억 개의 CAI 토큰을 **"공정한 출시"**로 배포했습니다. 공급량의 51%는 커뮤니티를 위해 따로 마련되었으며, 다음과 같이 할당되었습니다:

  • 채굴 보상: 총 공급량의 30%는 AI 작업을 수행하는 GPU 채굴자에게 지불하기 위해 예약되었습니다.

  • 스테이킹 보상: 공급량의 11%는 스테이킹하고 네트워크 보안에 도움을 주는 사람들을 위한 것입니다.

  • 에어드랍: 5%는 초기 사용자 및 커뮤니티 구성원에게 채택 인센티브로 제공되었습니다.

  • (또 다른 5%는 Cuckoo 기반 구축을 장려하기 위한 개발자 보조금이었습니다.)

이러한 대규모 할당은 초기 네트워크에서 실제 사용자 수요가 낮더라도 채굴자와 스테이커가 배출 풀에서 보상을 받았음을 의미합니다. 실제로 Cuckoo의 초기 단계는 스테이킹과 채굴에 대한 높은 APY 수익률을 특징으로 했으며, 이는 참가자들을 성공적으로 유치했지만 토큰만을 위해 참여한 "수익 농부"들도 끌어들였습니다. 팀은 보상률이 떨어지자 많은 사용자가 떠났다는 점을 지적했으며, 이는 해당 인센티브가 진정한 사용량과 연결되지 않았음을 나타냅니다. 이로부터 배운 Cuckoo는 보상이 실제 AI 워크로드와 직접적으로 상관관계를 갖는 모델로 전환하고 있습니다. 미래에는(그리고 부분적으로는 이미) 최종 사용자가 AI 추론 비용을 지불할 때, 그 지불액(CAI 또는 CAI로 변환된 다른 허용된 토큰)이 기여자들 사이에 분배될 것입니다:

  • GPU 채굴자는 제공한 컴퓨팅에 대해 대부분의 몫을 받게 됩니다.
  • **코디네이터(앱 개발자)**는 모델을 제공하고 요청을 처리한 서비스 제공자로서 일부를 가져갑니다.
  • 해당 채굴자나 코디네이터에게 위임한 스테이커는 신뢰할 수 있는 노드를 계속 지원하도록 인센티브를 주기 위해 작은 몫이나 인플레이션 보상을 받을 수 있습니다.
  • 네트워크/재무부는 지속적인 개발을 위한 자금을 조달하거나 미래 인센티브를 위해 수수료를 보유할 수 있습니다(또는 사용자 경제성을 극대화하기 위해 수수료가 없거나 명목상일 수 있음).

본질적으로, Cuckoo는 수익 공유 모델로 나아가고 있습니다. Cuckoo의 AI 앱이 수익을 창출하면, 그 수익은 해당 서비스의 모든 기여자에게 공정한 방식으로 분배됩니다. 이는 참가자들이 인플레이션뿐만 아니라 실제 사용량으로부터 이익을 얻도록 인센티브를 조정합니다. 이미 네트워크는 모든 당사자에게 CAI를 스테이킹하도록 요구했습니다. 이는 채굴자와 코디네터가 고정된 보상뿐만 아니라 지분 기반 보상도 받을 수 있음을 의미합니다(예: 많은 사용자가 스테이킹하거나 자신이 더 많이 스테이킹하면 코디네이터가 더 높은 보상을 받을 수 있음, 지분 증명 검증자와 유사). 사용자 인센티브 측면에서, Cuckoo는 초기 활동을 유도하기 위해 에어드랍 포털과 파우셋(일부 사용자가 악용함)과 같은 것을 도입했습니다. 앞으로 사용자는 서비스 사용에 대한 토큰 리베이트나 큐레이션 참여에 대한 거버넌스 보상(예: 출력 평가나 데이터 기여에 대해 작은 토큰 획득)을 통해 인센티브를 받을 수 있습니다. 결론은 Cuckoo의 토큰($CAI)이 다목적이라는 것입니다. 체인의 가스/수수료 토큰(모든 거래와 결제에 사용됨), 스테이킹 및 투표에 사용되며, 수행된 작업에 대한 보상 단위입니다. Cuckoo는 순전히 투기적인 인센티브를 피하기 위해 토큰 보상을 서비스 수준 KPI(핵심 성과 지표) - 예를 들어, 가동 시간, 쿼리 처리량, 사용자 만족도 - 와 연결하고 싶다고 명시적으로 언급합니다. 이는 토큰 경제가 단순한 유동성 채굴에서 보다 지속 가능하고 유틸리티 중심적인 모델로 성숙하고 있음을 반영합니다.

모델 소유권 및 IP 귀속

AI 모델의 지적 재산(IP) 및 소유권을 처리하는 것은 탈중앙화 AI 네트워크의 복잡한 측면입니다. 각 플랫폼은 약간 다른 입장을 취했으며, 일반적으로 이것은 아직 완전한 해결책이 없는 진화하는 분야입니다:

  • Bittensor: Bittensor의 모델은 채굴자 노드에 의해 제공되며, 해당 채굴자들은 자신의 모델 가중치(온체인에 게시되지 않음)에 대한 완전한 통제권을 유지합니다. Bittensor는 특정 지갑 주소에서 실행되고 있다는 사실 외에 누가 모델을 "소유"하는지 명시적으로 추적하지 않습니다. 채굴자가 떠나면 그들의 모델도 함께 떠납니다. 따라서 Bittensor의 IP 귀속은 오프체인입니다. 채굴자가 독점 모델을 사용하는 경우, 온체인에서 이를 강제하거나 알 수 있는 것은 아무것도 없습니다. Bittensor의 철학은 개방적인 기여를 장려하며(많은 채굴자가 GPT-J와 같은 오픈 소스 모델을 사용할 수 있음), 네트워크는 해당 모델의 성능에 보상합니다. Bittensor는 모델에 대한 평판 점수를 생성한다고 말할 수 있으며(검증자 순위를 통해), 이는 모델의 가치를 인정하는 한 형태이지만, 모델 자체에 대한 권리는 토큰화되거나 분배되지 않습니다. 특히, Bittensor의 서브넷 소유자는 IP의 일부를 소유하는 것으로 볼 수 있습니다. 그들은 작업(데이터셋이나 방법을 포함할 수 있음)을 정의합니다. 서브넷 소유자는 서브넷을 생성할 때 **NFT(서브넷 UID라고 함)**를 발행하며, 해당 NFT는 해당 서브넷 보상의 18%를 받을 자격을 부여합니다. 이는 모델 인스턴스는 아니지만 모델 마켓플레이스(서브넷)의 생성을 효과적으로 토큰화합니다. 서브넷의 정의(예: 특정 데이터셋을 사용한 음성 인식 작업)를 IP로 간주한다면, 그것은 적어도 기록되고 보상됩니다. 그러나 채굴자가 훈련하는 개별 모델 가중치에 대해서는 온체인 소유권 기록이 없습니다. 귀속은 해당 채굴자의 주소로 지급되는 보상 형태로 이루어집니다. Bittensor는 현재 여러 사람이 공동으로 모델을 소유하고 자동으로 수익을 공유받을 수 있는 시스템을 구현하지 않습니다. 모델을 실행하는 사람(채굴자)이 보상을 받고, 그들이 사용한 모델의 IP 라이선스를 존중하는 것은 오프체인에서 그들의 책임입니다.

  • Gensyn: Gensyn에서 모델 소유권은 제출자(모델 훈련을 원하는 사람)가 모델 아키텍처와 데이터를 제공하고, 훈련 후 결과 모델 아티팩트를 받는다는 점에서 간단합니다. 작업을 수행하는 해결자는 모델에 대한 권리가 없습니다. 그들은 서비스에 대해 돈을 받는 계약자와 같습니다. 따라서 Gensyn의 프로토콜은 전통적인 IP 모델을 가정합니다. 제출한 모델과 데이터에 대한 법적 권리가 있었다면, 훈련 후에도 여전히 그 권리를 가집니다. 컴퓨팅 네트워크는 어떠한 소유권도 주장하지 않습니다. Gensyn은 마켓플레이스가 다른 리소스처럼 알고리즘과 데이터도 거래할 수 있다고 언급합니다. 이는 누군가가 네트워크에서 사용할 모델이나 알고리즘을 수수료를 받고 제공할 수 있는 시나리오를 암시하며, 따라서 해당 모델에 대한 접근을 토큰화할 수 있습니다. 예를 들어, 모델 제작자는 자신의 사전 훈련된 모델을 Gensyn에 올리고 다른 사람들이 수수료를 내고 네트워크를 통해 미세 조정할 수 있도록 허용할 수 있습니다(이는 효과적으로 모델 IP를 수익화하는 것임). 프로토콜이 라이선스 조건을 강제하지는 않지만, 지불 요구 사항을 인코딩할 수 있습니다. 스마트 계약은 해결자에게 모델 가중치를 잠금 해제하기 위해 수수료를 요구할 수 있습니다. 그러나 이것들은 추측적인 사용 사례입니다. Gensyn의 주요 설계는 훈련 작업 활성화에 관한 것입니다. 귀속에 관해서는, 여러 당사자가 모델에 기여하는 경우(예: 한쪽은 데이터를 제공하고 다른 쪽은 컴퓨팅을 제공), 이는 Gensyn을 사용하기 전에 설정한 계약이나 합의에 의해 처리될 가능성이 높습니다(예: 스마트 계약이 데이터 제공자와 컴퓨팅 제공자 간에 지불을 분할할 수 있음). Gensyn 자체는 어떤 주소가 작업에 대해 지불되었는지 기록하는 것 외에 "이 모델은 X, Y, Z에 의해 만들어졌다"를 온체인에서 추적하지 않습니다. 요약하자면, Gensyn의 모델 IP는 제출자에게 남아 있으며, 모든 귀속이나 라이선스는 프로토콜 외부의 법적 계약이나 그 위에 구축된 맞춤형 스마트 계약을 통해 처리되어야 합니다.

  • Cuckoo: Cuckoo의 생태계에서 **모델 제작자(AI 앱 빌더)**는 일급 참여자입니다. 그들은 AI 서비스를 배포합니다. 앱 빌더가 언어 모델을 미세 조정하거나 맞춤형 모델을 개발하여 Cuckoo에 호스팅하면, 해당 모델은 본질적으로 그들의 재산이며 그들은 서비스 소유자 역할을 합니다. Cuckoo는 어떠한 소유권도 빼앗지 않습니다. 대신, 그들이 사용량을 수익화할 수 있는 인프라를 제공합니다. 예를 들어, 개발자가 챗봇 AI를 배포하면 사용자는 그것과 상호 작용할 수 있고 개발자(및 채굴자)는 각 상호 작용에서 CAI를 얻습니다. 따라서 플랫폼은 모델 제작자에게 사용 수익을 귀속시키지만, 모델 가중치를 명시적으로 게시하거나 NFT로 만들지는 않습니다. 사실, 채굴자의 GPU에서 모델을 실행하려면 코디네이터 노드가 어떤 형태로든 모델(또는 런타임)을 채굴자에게 보내야 할 가능성이 높습니다. 이는 IP 문제를 제기합니다. 악의적인 채굴자가 모델 가중치를 복사하여 배포할 수 있을까요? 탈중앙화 네트워크에서는 독점 모델이 사용될 경우 그 위험이 존재합니다. Cuckoo의 현재 초점은 상당히 개방된 모델(Stable Diffusion, LLaMA 파생 모델 등)과 커뮤니티 구축에 있었기 때문에, 아직 스마트 계약을 통한 IP 권리 집행을 보지 못했습니다. 플랫폼은 향후 IP 보호를 위해 암호화된 모델 실행이나 보안 엔클레이브와 같은 도구를 통합할 수 있지만, 문서에는 구체적인 내용이 언급되어 있지 않습니다. 그것이 추적하는 것은 각 작업에 대해 누가 모델 서비스를 제공했는지입니다. 코디네이터는 온체인 신원이므로, 그들의 모델 사용은 모두 그들에게 귀속되고, 그들은 자동으로 보상 몫을 받습니다. 만약 누군가에게 모델을 넘겨주거나 판매한다면, 사실상 그들은 코디네이터 노드의 통제권을 이전하는 것입니다(아마도 코디네이터 역할이 토큰화되었다면 개인 키나 NFT를 주는 것일 수도 있음). 현재, 모델의 커뮤니티 소유권(토큰 지분을 통해)은 구현되지 않았지만, Cuckoo의 비전은 탈중앙화된 커뮤니티 주도 AI를 암시하므로, 사람들이 집단적으로 AI 모델에 자금을 지원하거나 통치하도록 하는 것을 탐색할 수 있습니다. 개별 소유권을 넘어서는 모델의 토큰화는 이러한 네트워크 전반에 걸쳐 여전히 열린 영역입니다. 이는 목표로 인식되지만(기업이 아닌 커뮤니티가 AI 모델을 소유하도록 하기 위해), 실제로는 위의 IP 및 검증 문제를 해결해야 합니다.

요약하자면, Bittensor, Gensyn, Cuckoo의 모델 소유권은 전통적인 수단으로 오프체인에서 처리됩니다. 모델을 실행하거나 제출하는 개인이나 단체가 사실상 소유자입니다. 네트워크는 경제적 보상(모델 기여자의 IP나 노력에 대해 지불) 형태로 귀속을 제공합니다. 세 곳 모두 아직 스마트 계약 수준에서 모델 사용에 대한 라이선스나 로열티 집행 기능이 내장되어 있지 않습니다. 귀속은 평판과 보상을 통해 이루어집니다. 예를 들어, Bittensor의 최고의 모델은 높은 평판 점수(공개 기록임)와 더 많은 TAO를 얻으며, 이는 제작자에 대한 암묵적인 공로 인정입니다. 시간이 지남에 따라 IP를 더 잘 추적하기 위해 NFT에 바인딩된 모델 가중치탈중앙화 라이선스와 같은 기능이 나타날 수 있지만, 현재 우선순위는 네트워크가 작동하고 기여를 장려하는 데 있습니다. 모두가 모델 출처와 출력을 검증하는 것이 진정한 모델 자산 시장을 가능하게 하는 핵심이라는 데 동의하며, 이 방향으로 연구가 진행 중입니다.

수익 공유 구조

세 플랫폼 모두 여러 당사자가 협력하여 가치 있는 AI 결과물을 생산할 때 경제적 파이를 어떻게 나눌지 결정해야 합니다. AI 서비스가 사용되거나 토큰이 발행될 때 누가, 얼마를 받게 될까요? 각각은 독특한 수익 공유 모델을 가지고 있습니다:

  • Bittensor: 인센티브에서 언급했듯이, Bittensor의 수익 분배는 블록 수준에서 프로토콜에 의해 정의됩니다. **각 블록의 TAO 발행에 대해 채굴자에게 41%, 검증자에게 41%, 서브넷 소유자에게 18%**입니다. 이는 각 서브넷에서 생성된 가치에 대한 내장된 수익 분할입니다. 서브넷 소유자의 몫(18%)은 "모델/작업 설계" 또는 해당 서브넷의 생태계를 부트스트랩한 것에 대한 로열티처럼 작용합니다. 채굴자와 검증자가 동등한 몫을 받는 것은 검증 없이는 채굴자가 보상받지 못하고(그 반대도 마찬가지), 그들이 공생 관계이며 발행된 보상의 동등한 부분을 각각 받는다는 것을 보장합니다. 외부 사용자가 모델에 쿼리하기 위해 TAO를 지불하는 경우를 고려하면, Bittensor 백서는 해당 지불도 답변하는 채굴자와 답변을 검증하는 데 도움을 준 검증자 간에 유사하게 분할될 것으로 예상합니다(정확한 분할은 프로토콜이나 시장의 힘에 의해 결정될 수 있음). 또한, 채굴자/검증자에게 스테이킹하는 위임자는 사실상 파트너입니다. 일반적으로 채굴자/검증자는 획득한 TAO의 일부를 위임자와 공유합니다(이는 구성 가능하지만, 종종 다수는 위임자에게 돌아감). 따라서 채굴자가 블록에서 1 TAO를 벌었다면, 이는 지분에 따라 예를 들어 위임자와 자신 사이에 80/20으로 나뉠 수 있습니다. 이는 비운영자도 네트워크 수익의 일부를 지원에 비례하여 얻는다는 것을 의미합니다. dTAO 도입으로 또 다른 공유 계층이 추가되었습니다. 서브넷 풀에 스테이킹하는 사람들은 알파 토큰을 얻게 되며, 이는 해당 서브넷 배출량의 일부를 받을 자격을 부여합니다(수익 농사와 유사). 사실상, 누구나 특정 서브넷의 성공에 지분을 가질 수 있고, 알파 토큰을 보유함으로써 채굴자/검증자 보상의 일부를 받을 수 있습니다(알파 토큰은 서브넷이 더 많은 사용량과 배출량을 유치함에 따라 가치가 상승함). 요약하자면, Bittensor의 수익 공유는 주요 역할에 대해 코드로 고정되어 있으며, 사회적/스테이킹 약정에 의해 추가로 공유됩니다. 이는 상대적으로 투명하고 규칙 기반의 분할입니다. 모든 블록마다 참여자들은 1 TAO가 어떻게 할당되는지 정확히 알고, 따라서 기여당 "수익"을 알 수 있습니다. 이러한 명확성은 Bittensor가 때때로 AI를 위한 비트코인에 비유되는 이유 중 하나입니다. 참여자의 보상이 수학적으로 설정된 결정론적 화폐 발행입니다.

  • Gensyn: Gensyn의 수익 공유는 작업이 개별적으로 가격이 책정되기 때문에 더 역동적이고 시장 주도적입니다. 제출자가 작업을 생성할 때, 그들은 지불할 의사가 있는 보상(예: X 토큰)을 첨부합니다. 작업을 완료한 해결자는 그 X(네트워크 수수료를 제외한 금액)를 받습니다. 검증자가 관련된 경우, 일반적으로 다음과 같은 규칙이 있습니다. 사기가 감지되지 않으면 해결자는 전액 지불을 유지하고, 사기가 감지되면 해결자는 지분의 일부 또는 전부를 삭감당하며, 그 삭감된 금액은 검증자에게 보상으로 주어집니다. 따라서 검증자는 모든 작업에서 수익을 얻는 것이 아니라, 나쁜 결과를 잡았을 때만 수익을 얻습니다(구현에 따라 참여에 대한 작은 기본 수수료가 있을 수 있음). 여기에는 모델 소유자에게 지불하는 내장된 개념이 없습니다. 왜냐하면 제출자가 모델 소유자이거나 모델을 사용할 권리가 있다고 가정하기 때문입니다. 제출자가 다른 사람의 사전 훈련된 모델을 미세 조정하고 지불의 일부가 원래 모델 제작자에게 가는 시나리오를 상상할 수 있지만, 이는 프로토콜 외부에서 처리되어야 합니다(예: 합의나 토큰 지불을 적절하게 분할하는 별도의 스마트 계약에 의해). Gensyn의 프로토콜 수준 공유는 본질적으로 **클라이언트 -> 해결자 (-> 검증자)**입니다. 토큰 모델에는 프로토콜 재무부나 재단을 위한 할당이 포함될 가능성이 높습니다. 예를 들어, 모든 작업 지불의 작은 비율이 개발 자금이나 보험 풀에 사용될 수 있는 재무부로 갈 수 있습니다(이는 사용 가능한 문서에 명시적으로 언급되어 있지는 않지만, 많은 프로토콜이 그렇게 함). 또한, 초기에 Gensyn은 인플레이션을 통해 해결자를 보조할 수 있습니다. 테스트넷 사용자에게는 TGE에서 보상이 약속되며, 이는 초기 토큰 분배로부터의 효과적인 수익 공유입니다(초기 해결자와 지지자는 부트스트래핑을 돕는 대가로 토큰 덩어리를 얻음, 에어드랍이나 채굴 보상과 유사). 시간이 지남에 따라 실제 작업이 지배하게 되면, 인플레이션 보상은 줄어들고, 해결자 수입은 주로 사용자 지불에서 나올 것입니다. Gensyn의 접근 방식은 서비스별 요금 수익 모델로 요약될 수 있습니다. 네트워크는 작업이 필요한 사람으로부터 작업을 수행하는 사람에게 직접 지불을 촉진하며, 검증자와 잠재적으로 토큰 스테이커는 해당 서비스를 보호하는 역할을 할 때만 몫을 가져갑니다.

  • Cuckoo: Cuckoo의 수익 공유는 진화해 왔습니다. 처음에는 지불하는 최종 사용자가 많지 않았기 때문에, 수익 공유는 본질적으로 인플레이션 공유였습니다. 토큰 공급량의 30% 채굴 및 11% 스테이킹 할당은 채굴자와 스테이커가 네트워크의 공정한 출시 풀에서 발행된 토큰을 공유하고 있음을 의미했습니다. 실제로 Cuckoo는 완료된 작업에 비례하여 채굴자에게 일일 CAI 지급과 같은 것을 운영했습니다. 이러한 지급은 주로 채굴 보상 할당(예약된 고정 공급량의 일부)에서 나왔습니다. 이는 많은 레이어 1 블록체인이 채굴자/검증자에게 블록 보상을 분배하는 방식과 유사합니다. 외부 사용자의 실제 사용량과 연결된 것이 아니라, 참여와 성장을 장려하기 위한 것이었습니다. 그러나 2025년 7월 블로그에서 강조했듯이, 이는 실제 수요가 아닌 토큰 파밍에 의해 인센티브를 받는 사용을 초래했습니다. Cuckoo의 다음 단계는 서비스 수수료 기반의 진정한 수익 공유 모델입니다. 이 모델에서는 최종 사용자가 예를 들어 이미지 생성 서비스를 사용하고 1달러(암호화폐 단위)를 지불하면, 그 1달러 상당의 토큰이 다음과 같이 분할될 수 있습니다. GPU 작업을 수행한 채굴자에게 0.70, 모델과 인터페이스를 제공한 앱 개발자(코디네이터)에게 0.20, 스테이커나 네트워크 재무부에 0.10. (참고: 정확한 비율은 가상이며, Cuckoo는 아직 공개적으로 명시하지 않았지만, 이는 개념을 설명합니다.) 이렇게 하면 서비스를 제공하는 데 기여한 모든 사람이 수익의 일부를 얻게 됩니다. 이는 예를 들어 AI를 위한 차량 공유 경제와 유사합니다. 차량(GPU 채굴자)이 대부분을 차지하고, 운전자나 플랫폼(모델 서비스를 구축한 코디네이터)이 몫을 가져가며, 플랫폼의 거버넌스/스테이커가 작은 수수료를 받을 수 있습니다. Cuckoo가 언급한 *"수익 공유 모델과 사용량 지표에 직접 연결된 토큰 보상"*은 특정 서비스나 노드가 많은 양을 처리하면, 그 운영자와 지지자가 더 많이 벌게 될 것임을 시사합니다. 그들은 단순히 토큰을 잠그는 것에 대한 고정 수익률(초기 스테이킹 APY의 경우)에서 벗어나고 있습니다. 구체적으로 말하면, 매우 인기 있는 AI 앱을 구동하는 코디네이터에게 스테이킹하면, 해당 앱 수수료의 일부를 벌 수 있습니다. 이는 인플레이션만을 위한 스테이킹이 아닌, 진정한 유틸리티에 투자하는 스테이킹 시나리오입니다. 이는 모든 사람의 인센티브를 AI 서비스를 위해 지불하는 실제 사용자를 유치하는 방향으로 조정하며, 이는 다시 토큰 보유자에게 가치를 되돌려줍니다. Cuckoo의 체인에는 거래 수수료(가스)도 있었으므로, 블록을 생성한 채굴자(초기에는 GPU 채굴자도 Cuckoo 체인의 블록 생산에 기여함)도 가스 수수료를 받았습니다. 체인이 종료되고 롤업으로 마이그레이션됨에 따라, 가스 수수료는 최소화될 가능성이 높으므로(또는 이더리움에서), 주요 수익은 AI 서비스 수수료 자체가 됩니다. 요약하자면, Cuckoo는 보조금 주도 모델(네트워크가 토큰 풀에서 참가자에게 지불)에서 수요 주도 모델(참가자가 실제 사용자 지불에서 수익을 얻음)로 전환하고 있습니다. 토큰은 여전히 스테이킹과 거버넌스에서 역할을 하겠지만, 채굴자와 앱 개발자의 일상적인 수입은 점점 더 AI 서비스를 구매하는 사용자로부터 나올 것입니다. 이 모델은 장기적으로 더 지속 가능하며, Web2 SaaS 수익 공유와 매우 유사하지만, 투명성을 위해 스마트 계약과 토큰을 통해 구현됩니다.

공격 표면 및 취약점

탈중앙화 AI는 여러 인센티브 및 보안 문제를 야기합니다. 이제 시빌 공격, 담합, 무임승차, 데이터/모델 포이즈닝과 같은 주요 공격 벡터를 분석하고 각 플랫폼이 이를 어떻게 완화하거나 취약한 상태로 남아 있는지 살펴봅니다:

  • 시빌 공격(가짜 신원): 개방형 네트워크에서 공격자는 많은 신원(노드)을 생성하여 불균형한 보상이나 영향력을 얻으려 할 수 있습니다.

  • Bittensor: 시빌 저항은 주로 진입 비용에 의해 제공됩니다. Bittensor에 새로운 채굴자나 검증자를 등록하려면 TAO를 사용하거나 스테이킹해야 합니다. 이는 소각 또는 보증금 요구 사항일 수 있습니다. 이는 N개의 가짜 노드를 생성하는 데 N배의 비용이 들게 하여 대규모 시빌 군단을 비싸게 만듭니다. 또한, Bittensor의 합의는 영향력을 지분과 성과에 연결합니다. 지분이 없거나 성과가 저조한 시빌은 거의 벌지 못합니다. 공격자는 상당한 보상을 얻기 위해 막대한 투자를 하고 시빌 노드가 실제로 유용한 작업을 기여하도록 해야 합니다(이는 일반적인 시빌 전략이 아님). 그렇지만, 공격자가 많은 자본을 가지고 있다면, TAO의 과반수를 획득하고 많은 검증자나 채굴자를 등록할 수 있습니다. 이는 사실상 부에 의한 시빌입니다. 이는 51% 공격 시나리오와 겹칩니다. 단일 개체가 서브넷에서 스테이킹된 TAO의 50% 이상을 통제하면, 합의를 크게 좌우할 수 있습니다. Bittensor의 dTAO 도입은 여기서 약간 도움이 됩니다. 영향력을 서브넷 전반에 분산시키고 서브넷이 번성하기 위해 커뮤니티 스테이킹 지원을 요구함으로써, 한 개체가 모든 것을 통제하기 어렵게 만듭니다. 그럼에도 불구하고, 자금이 풍부한 적에 의한 시빌 공격은 여전히 우려 사항입니다. Arxiv 분석은 현재 지분이 상당히 집중되어 있어 과반수 공격의 장벽이 원하는 만큼 높지 않다고 명시적으로 지적합니다. 이를 완화하기 위해, 지갑당 지분 상한선(예: 한 지갑이 지배하는 것을 방지하기 위해 유효 지분을 88번째 백분위수에서 제한)과 같은 제안이 제시되었습니다. 요약하자면, Bittensor는 시빌을 처리하기 위해 지분 가중 신원(비례적인 지분 없이는 저렴하게 신원을 생성할 수 없음)에 의존합니다. 이는 매우 자원이 풍부한 공격자를 제외하고는 상당히 효과적입니다.

  • Gensyn: Gensyn의 시빌 공격은 공격자가 시스템을 조작하기 위해 많은 해결자나 검증자 노드를 가동하는 것으로 나타날 것입니다. Gensyn의 방어는 순전히 경제적이고 암호학적입니다. 신원 자체는 중요하지 않지만, 작업을 수행하거나 담보를 게시하는 것이 중요합니다. 공격자가 100개의 가짜 해결자 노드를 생성하더라도 작업이나 지분이 없으면 아무것도 달성하지 못합니다. 작업을 따내려면 시빌 노드는 경쟁적으로 입찰하고 작업을 수행할 하드웨어를 가져야 합니다. 용량 없이 낮은 가격으로 입찰하면 실패하고 지분을 잃게 됩니다. 마찬가지로, 공격자는 검증 대상으로 선택되기를 바라며 많은 검증자 신원을 생성할 수 있습니다(프로토콜이 무작위로 검증자를 선택하는 경우). 그러나 너무 많으면 네트워크나 작업 게시자가 활성 검증자 수를 제한할 수 있습니다. 또한, 검증자는 확인을 위해 잠재적으로 계산을 수행해야 하므로 비용이 많이 듭니다. 많은 가짜 검증자를 갖는 것은 실제로 결과를 검증할 수 없다면 도움이 되지 않습니다. Gensyn에서 더 관련 있는 시빌 각도는 공격자가 네트워크를 가짜 작업이나 응답으로 채워 다른 사람의 시간을 낭비하려는 경우입니다. 이는 제출자에게도 보증금을 요구함으로써 완화됩니다(가짜 작업을 게시하는 악의적인 제출자는 지불금이나 보증금을 잃음). 전반적으로, Gensyn의 필수 지분/보증금 사용과 검증을 위한 무작위 선택은 공격자가 비례적인 리소스를 가져오지 않는 한 여러 신원을 갖는 것으로 얻는 것이 거의 없음을 의미합니다. 이는 저렴한 공격이 아닌 더 비싼 공격이 됩니다. 낙관적 보안 모델은 적어도 하나의 정직한 검증자를 가정합니다. 시빌은 일관되게 속이기 위해 모든 검증자를 압도하고 모두가 되어야 하며, 이는 다시 지분이나 컴퓨팅 파워의 과반수를 소유하는 것으로 귀결됩니다. 따라서 Gensyn의 시빌 저항은 낙관적 롤업과 비슷합니다. 정직한 행위자가 하나라도 있는 한, 시빌은 시스템적 피해를 쉽게 일으킬 수 없습니다.

  • Cuckoo: Cuckoo의 시빌 공격 방지는 스테이킹과 커뮤니티 심사에 의존합니다. Cuckoo의 모든 역할(채굴자, 코디네이터, 경우에 따라 사용자까지)은 $CAI 스테이킹을 요구합니다. 이는 즉시 시빌 신원의 비용을 높입니다. 100개의 더미 채굴자를 만드는 공격자는 각각에 대해 지분을 획득하고 잠가야 합니다. 더욱이, Cuckoo의 설계에는 인간/커뮤니티 요소가 있습니다. 새로운 노드는 온체인 투표를 통해 평판을 얻어야 합니다. 평판이 없는 새로운 노드의 시빌 군단은 많은 작업을 할당받거나 사용자의 신뢰를 얻을 가능성이 낮습니다. 특히 코디네이터는 사용자를 유치해야 합니다. 실적이 없는 가짜 코디네이터는 사용량을 얻지 못할 것입니다. 채굴자의 경우, 코디네이터는 Cuckoo Scan에서 그들의 성능 통계(성공한 작업 등)를 볼 수 있으며 신뢰할 수 있는 채굴자를 선호할 것입니다. Cuckoo는 또한 상대적으로 적은 수의 채굴자(베타에서 한때 40개의 GPU)를 가지고 있었으므로, 많은 노드의 이상한 유입은 눈에 띌 것입니다. 잠재적인 약점은 공격자가 평판 시스템도 조작하는 경우입니다. 예를 들어, 시빌 노드에 많은 CAI를 스테이킹하여 평판이 좋은 것처럼 보이게 하거나, 가짜 "사용자" 계정을 만들어 자신을 추천하는 것입니다. 이는 이론적으로 가능하지만, 모든 것이 토큰 큐레이션되므로 그렇게 하는 데 토큰 비용이 듭니다(본질적으로 자신의 노드에 자신의 지분으로 투표하는 것임). Cuckoo 팀은 시빌 행동이 관찰되면 스테이킹 및 보상 매개변수를 조정할 수도 있습니다(특히 이제 더 중앙 집중화된 롤업 서비스가 되고 있으므로, 나쁜 행위자를 일시 중지하거나 삭감할 수 있음). 종합하면, 시빌은 이해관계(지분) 요구커뮤니티 승인 필요로 억제됩니다. 정직한 참가자가 실제 하드웨어와 지분에 더 잘 쓸 수 있는 상당한 투자 없이는 수백 개의 가짜 GPU로 들어와 보상을 거둘 수 없습니다.

  • 담합: 여기서는 여러 참여자가 시스템을 조작하기 위해 공모하는 것을 고려합니다. 예를 들어, Bittensor에서 검증자와 채굴자가 담합하거나, Gensyn에서 해결자와 검증자가 담합하는 경우 등입니다.

  • Bittensor: 담합은 실제 우려 사항으로 확인되었습니다. 원래 설계에서는 소수의 검증자가 특정 채굴자나 자신을 항상 추천하여 보상 분배를 불공정하게 왜곡할 수 있었습니다(이는 루트 서브넷에서 권력 집중으로 관찰됨). 유마 합의는 일부 방어를 제공합니다. 검증자 점수의 중앙값을 취하고 벗어나는 것을 처벌함으로써, 소규모 담합 그룹이 다수가 아닌 한 목표를 극적으로 부풀리는 것을 방지합니다. 즉, 10명의 검증자 중 3명이 담합하여 채굴자에게 매우 높은 점수를 주지만 다른 7명은 그렇지 않은 경우, 담합자의 특이한 점수는 잘리고 채굴자의 보상은 중앙값 점수를 기반으로 합니다(따라서 담합은 크게 도움이 되지 않음). 그러나 담합자가 검증자의 50% 이상(또는 검증자 중 지분의 50% 이상)을 형성하면, 그들은 사실상 합의입니다. 그들은 거짓 높은 점수에 동의할 수 있고 중앙값은 그들의 견해를 반영할 것입니다. 이것이 고전적인 51% 공격 시나리오입니다. 불행히도, Arxiv 연구는 일부 Bittensor 서브넷에서 참여자의 1-2%(수 기준)에 불과한 연합이 과도한 토큰 집중으로 인해 지분의 과반수를 통제한다는 것을 발견했습니다. 이는 소수의 큰 보유자에 의한 담합이 신뢰할 수 있는 위협이었음을 의미합니다. Bittensor가 dTAO를 통해 추구하는 완화책은 영향력을 민주화하는 것입니다. 모든 TAO 보유자가 서브넷에 지분을 직접 투입할 수 있게 함으로써, 폐쇄적인 검증자 그룹의 힘을 희석시킵니다. 또한, 오목한 스테이킹(과도한 지분에 대한 수익 체감) 및 지분 상한선과 같은 제안은 하나의 담합 개체가 너무 많은 투표권을 모으는 능력을 깨뜨리는 것을 목표로 합니다. Bittensor의 보안 가정은 이제 지분 증명과 유사합니다. 단일 개체(또는 카르텔)가 활성 지분의 50% 이상을 통제하지 않는 것입니다. 이것이 유지되는 한, 정직한 검증자가 나쁜 채점을 무효화하고 담합하는 서브넷 소유자가 임의로 자신의 보상을 부풀릴 수 없기 때문에 담합은 제한됩니다. 마지막으로, 서브넷 소유자와 검증자 간의 담합(예: 서브넷 소유자가 자신의 서브넷 채굴자를 높게 평가하도록 검증자에게 뇌물을 주는 것)에 대해, dTAO는 직접적인 검증자 통제를 제거하고 토큰 보유자 결정으로 대체합니다. 토큰 공급을 매수하지 않는 한 "시장"과 담합하기는 더 어렵습니다. 이 경우 실제로는 담합이 아니라 인수입니다. 따라서 Bittensor의 주요 담합 방지 기술은 **알고리즘적 합의(중앙값 클리핑)**와 광범위한 토큰 분배입니다.

  • Gensyn: Gensyn에서의 담합은 해결자와 검증자(또는 여러 검증자)가 시스템을 속이기 위해 공모하는 것을 포함할 가능성이 높습니다. 예를 들어, 해결자는 가짜 결과를 생성하고 공모하는 검증자는 의도적으로 이의를 제기하지 않을 수 있습니다(또는 프로토콜이 검증자에게 서명을 요청하는 경우 올바르다고 증언할 수도 있음). 이를 완화하기 위해 Gensyn의 보안 모델은 적어도 하나의 정직한 검증자를 요구합니다. 만약 모든 검증자가 해결자와 공모한다면, 나쁜 결과는 이의 없이 통과됩니다. Gensyn은 많은 독립적인 검증자를 장려하고(누구나 검증할 수 있음), 검증자가 담합에서 벗어나 이의를 제기함으로써 큰 보상을 얻을 수 있다는 게임 이론으로 이 문제를 해결합니다(왜냐하면 그들은 해결자의 지분을 얻게 될 것이기 때문). 본질적으로, 공모에 동의하는 그룹이 있더라도 각 구성원은 배신하고 자신을 위해 현상금을 청구할 인센티브를 가집니다. 이것은 고전적인 죄수의 딜레마 설정입니다. 희망은 이것이 담합 그룹을 작거나 비효율적으로 유지하는 것입니다. 또 다른 잠재적인 담합은 여러 해결자가 가격을 올리거나 작업을 독점하기 위해 공모하는 것입니다. 그러나 개발자는 작업을 게시할 위치를 선택할 수 있고(작업은 쉽게 독점될 수 있는 동일한 단위가 아님), 가격 담합에서 해결자 담합은 전 세계적으로 조정하기 어려울 것입니다. 공모하지 않는 해결자는 작업을 따내기 위해 더 낮은 가격을 제시할 수 있습니다. 공개 시장 역학은 적어도 일부 경쟁 참여자가 있다고 가정할 때 가격 담합에 대응합니다. 또 다른 각도: 검증자 담합으로 해결자를 괴롭히는 것 - 예를 들어, 검증자가 정직한 해결자를 거짓으로 고발하여 그들의 지분을 훔치는 것입니다. Gensyn의 사기 증명은 이진적이고 온체인입니다. 거짓 고발은 온체인 재계산에서 오류를 찾지 못하면 실패할 것이며, 아마도 악의적인 검증자는 무언가(아마도 보증금이나 평판)를 잃게 될 것입니다. 따라서 해결자를 방해하려는 검증자 담합은 프로토콜의 검증 과정에 의해 발각될 것입니다. 요약하자면, Gensyn의 아키텍처는 담합 집합의 적어도 한 당사자가 정직할 인센티브를 갖는 한 견고합니다. 이는 비트코인에서 사기를 결국 폭로하기 위해 하나의 정직한 채굴자를 요구하는 것과 유사한 낙관적 검증의 속성입니다. 공격자가 작업의 모든 검증자와 해결자를 통제할 수 있다면(네트워크의 과반수처럼) 이론적으로 담합이 가능하지만, 그러면 그들은 담합 없이도 그냥 속일 수 있습니다. 암호경제학적 인센티브는 담합을 유지하는 것을 비합리적으로 만들도록 배열되어 있습니다.

  • Cuckoo: Cuckoo에서의 담합은 몇 가지 방식으로 발생할 수 있습니다:

  1. 코디네이터와 채굴자의 담합 – 예를 들어, 코디네이터는 항상 친한 채굴자 집합에 작업을 할당하고 보상을 나누며, 다른 정직한 채굴자를 무시할 수 있습니다. 코디네이터는 작업 스케줄링에 재량권이 있으므로 이런 일이 발생할 수 있습니다. 그러나 친한 채굴자가 수준 이하라면, 최종 사용자는 느리거나 나쁜 서비스를 알아차리고 떠날 수 있으므로, 코디네터는 품질을 해치는 순수한 편애로부터 인센티브를 받지 못합니다. 담합이 보상을 조작하기 위한 것이라면(예: 채굴자에게 토큰을 주기 위해 가짜 작업을 제출하는 것), 이는 온체인에서 감지될 수 있으며(아마도 동일한 입력이나 실제 사용자 없는 많은 작업) 처벌받을 수 있습니다. Cuckoo의 온체인 투명성은 비정상적인 패턴이 커뮤니티나 핵심 팀에 의해 플래그 지정될 수 있음을 의미합니다. 또한, 모든 참여자가 스테이킹하기 때문에, 담합하는 코디네이터-채굴자 집단은 시스템을 남용하다가 발각되면 지분을 잃을 위험이 있습니다(예: 거버넌스가 사기로 그들을 삭감하기로 결정하는 경우).
  2. 채굴자 간의 담합 – 그들은 정보를 공유하거나 카르텔을 형성하여, 예를 들어 평판에서 서로에게 투표하거나 특정 코디네이터에게 서비스를 거부하여 더 높은 수수료를 요구할 수 있습니다. 이러한 시나리오는 가능성이 낮습니다. 평판 투표는 스테이커(사용자 포함)에 의해 이루어지며, 채굴자들끼리 서로 투표하는 것이 아닙니다. 그리고 서비스 거부는 코디네이터가 다른 채굴자를 찾거나 경보를 울리게 할 뿐입니다. 현재 상대적으로 작은 규모를 고려할 때, 어떤 담합도 숨기기 어려울 것입니다.
  3. 거버넌스 조작을 위한 담합 – 대규모 CAI 보유자는 자신에게 유리한 제안을 통과시키기 위해 담합할 수 있습니다(예: 터무니없는 수수료 설정이나 재무부 방향 전환). 이는 모든 토큰 거버넌스에서 위험 요소입니다. 최선의 완화책은 토큰을 널리 분배하고(Cuckoo의 공정한 출시는 51%를 커뮤니티에 제공함) 활발한 커뮤니티 감독을 갖는 것입니다. 또한, Cuckoo가 L1에서 벗어났기 때문에, 새로운 체인에 정착할 때까지 즉각적인 온체인 거버넌스는 제한될 수 있습니다. 팀은 그동안 다중 서명 통제를 유지할 가능성이 높으며, 이는 아이러니하게도 중앙 집중화되는 대가로 악의적인 외부인의 담합을 방지합니다. 전반적으로, Cuckoo는 담합을 처리하기 위해 투명성과 스테이킹에 의존합니다. 경쟁 환경에서 사용자를 유치하고 싶기 때문에 코디네이터가 행동할 것이라는 신뢰 요소가 있습니다. 담합이 더 나쁜 서비스나 명백한 보상 조작으로 이어진다면, 이해관계자들은 나쁜 행위자에 대한 투표를 철회하거나 스테이킹을 중단할 수 있으며, 네트워크는 그들을 삭감하거나 차단할 수 있습니다. 상당히 개방적인 성격(스테이킹하면 누구나 코디네이터나 채굴자가 될 수 있음)은 담합이 명백하게 드러날 대규모의 조직적인 노력을 요구함을 의미합니다. Bittensor나 Gensyn처럼 수학적으로 방지되지는 않지만, 경제적 지분과 커뮤니티 거버넌스의 조합이 견제 역할을 합니다.
  • 무임승차(Free-rider problems): 이는 참여자가 동등한 가치를 기여하지 않고 보상을 거두려는 것을 의미합니다. 예를 들어, 실제로 평가하지 않지만 여전히 수익을 얻는 검증자, 계산하는 대신 다른 사람의 답변을 복사하는 채굴자, 또는 유용한 입력을 제공하지 않고 보상을 파밍하는 사용자 등입니다.

  • Bittensor: Bittensor에서 알려진 무임승차 문제는 게으른 검증자에 의한 **"가중치 복사"**입니다. 검증자는 독립적으로 채굴자를 평가하는 대신 다수의 의견(또는 다른 검증자의 점수)을 단순히 복사할 수 있습니다. 그렇게 함으로써, 그들은 AI 쿼리 실행 비용을 피하지만, 제출된 점수가 합의에 부합하는 것처럼 보이면 여전히 보상을 받습니다. Bittensor는 각 검증자의 합의 정렬정보 기여도를 측정하여 이에 대응합니다. 검증자가 항상 다른 사람을 복사하기만 한다면, 잘 정렬될 수 있지만(따라서 심하게 처벌받지 않음), 독특한 가치를 추가하지 않습니다. 프로토콜 개발자들은 정확하지만 순전히 중복되지 않는 평가를 제공하는 검증자에게 더 높은 보상을 주는 것에 대해 논의했습니다. 노이즈 주입(의도적으로 검증자에게 약간 다른 쿼리를 제공)과 같은 기술은 그들이 복사하는 대신 실제로 일하도록 강제할 수 있습니다. 비록 그것이 구현되었는지는 불분명하지만 말입니다. Arxiv는 검증자 노력을 보상과 더 잘 연결하기 위해 성과 가중 배출 및 복합 채점 방법을 제안합니다. 채굴자의 경우, 가능한 무임승차 행동은 채굴자가 다른 채굴자에게 쿼리하고 답변을 중계하는 것입니다(표절의 한 형태). Bittensor의 설계(탈중앙화 쿼리 포함)는 채굴자의 모델이 자신의 덴드라이트를 통해 다른 모델을 호출하도록 허용할 수 있습니다. 채굴자가 다른 사람의 답변을 그냥 중계한다면, 좋은 검증자는 답변이 채굴자의 주장된 모델 능력과 일관되지 않을 수 있기 때문에 그것을 알아챌 수 있습니다. 알고리즘적으로 감지하기는 까다롭지만, 원래 결과를 계산하지 않는 채굴자는 결국 일부 쿼리에서 낮은 점수를 받고 평판을 잃게 될 것입니다. 또 다른 무임승차 시나리오는 AI 작업을 하지 않고 보상을 받는 위임자였습니다. 이는 의도적인 것(토큰 보유자를 참여시키기 위해)이므로 공격은 아니지만, 일부 토큰 배출이 스테이킹만 한 사람들에게 간다는 것을 의미합니다. Bittensor는 이를 낭비된 보상이 아닌 인센티브 조정으로 정당화합니다. 요약하자면, Bittensor는 검증자 무임승차 문제를 인정하고 인센티브를 조정하고 있습니다(예: 벗어나거나 복사하지 않는 사람들을 부양하는 검증자 신뢰 점수 제공). 그들의 해결책은 본질적으로 노력과 정확성을 더 명시적으로 보상하여, 아무것도 하지 않거나 맹목적으로 복사하는 것이 시간이 지남에 따라 더 적은 TAO를 산출하도록 하는 것입니다.

  • Gensyn: Gensyn에서 무임승차자는 토큰을 얻기 위해 컴퓨팅을 제공하거나 누군가의 부정행위를 잡아야 하기 때문에 수익을 얻기 어려울 것입니다. 해결자는 작업을 "가짜"로 할 수 없습니다. 유효한 증명을 제출하거나 삭감될 위험을 감수해야 합니다. 작업을 수행하지 않고 돈을 받는 메커니즘은 없습니다. 검증자는 이론적으로 가만히 앉아서 다른 사람들이 사기를 잡기를 바랄 수 있지만, 그러면 아무것도 벌지 못합니다(사기 증명을 제기한 사람만 보상을 받기 때문). 너무 많은 검증자가 무임승차를 시도하면(실제로 작업을 재계산하지 않음), 아무도 확인하지 않기 때문에 사기꾼 해결자가 빠져나갈 수 있습니다. Gensyn의 인센티브 설계는 잭팟 보상으로 이 문제를 해결합니다. 사기꾼을 잡고 큰 보상을 받기 위해서는 하나의 활동적인 검증자만 있으면 되므로, 적어도 하나는 항상 작업을 수행하는 것이 합리적입니다. 작업을 하지 않는 다른 사람들은 쓸모없는 것 외에는 네트워크에 해를 끼치지 않으며, 보상도 받지 못합니다. 따라서 시스템은 자연스럽게 무임승차자를 걸러냅니다. 실제로 검증하는 검증자만이 장기적으로 이익을 얻을 것입니다(다른 사람들은 아무것도 얻지 못하거나 아주 드물게 우연히 보상을 얻기 위해 노드에 자원을 낭비함). 프로토콜은 또한 모든 검증자가 "다른 사람이 할 것"이라고 가정하는 것을 막기 위해 어떤 검증자가 이의를 제기할 기회를 얻을지 무작위로 지정할 수 있습니다. 작업은 개별적으로 지불되므로, 일시적인 테스트넷 인센티브를 제외하고는 "작업 없는 스테이킹 보상"과 유사한 것이 없습니다. 주목할 한 가지 영역은 다중 작업 최적화입니다. 해결자는 작업 간에 작업을 재사용하거나 비밀리에 더 저렴한 곳(중앙 집중식 클라우드 사용 등)에 아웃소싱하려고 할 수 있지만, 이는 해로운 무임승차가 아닙니다. 제시간에 올바른 결과를 제공한다면, 어떻게 했는지는 중요하지 않습니다. 그것은 공격이라기보다는 차익 거래에 가깝습니다. 요약하자면, Gensyn의 메커니즘 설계는 분배된 모든 토큰이 완료된 작업이나 처벌된 부정행위에 해당하기 때문에 무임승차자가 이득을 볼 여지를 거의 남기지 않습니다.

  • Cuckoo: Cuckoo의 초기 단계는 의도치 않게 무임승차 문제를 만들었습니다. 에어드랍과 고수익 스테이킹은 토큰을 파밍하기 위해서만 참여한 사용자들을 끌어들였습니다. 이 사용자들은 장기적인 네트워크 가치에 기여하지 않고 파우셋을 통해 토큰을 순환시키거나 에어드랍 작업을 조작했습니다(예: 무료 테스트 프롬프트를 계속 사용하거나 보상을 청구하기 위해 많은 계정을 생성). Cuckoo는 이를 문제로 인식했습니다. 본질적으로 사람들은 AI 출력을 위해서가 아니라 투기적 보상 획득을 위해 네트워크를 "사용"하고 있었습니다. L1 체인을 종료하고 재집중하기로 한 결정은 부분적으로 이러한 인센티브 불일치를 떨쳐내기 위한 것이었습니다. 미래의 토큰 보상을 실제 사용량과 연결함으로써(즉, 서비스가 실제로 지불하는 고객에 의해 사용되기 때문에 수익을 얻음), 무임승차의 매력은 감소합니다. 또한 채굴자 측 무임승차 시나리오도 있습니다. 채굴자는 참여하여 작업을 할당받고 어떻게든 수행하지 않으면서 보상을 청구할 수 있습니다. 그러나 코디네이터는 결과를 검증하고 있습니다. 채굴자가 출력을 반환하지 않거나 나쁜 출력을 반환하면, 코디네이터는 이를 완료된 작업으로 계산하지 않으므로 채굴자는 돈을 받지 못할 것입니다. 채굴자는 또한 쉬운 작업을 골라내고 어려운 작업을 버리려고 할 수 있습니다(예: 일부 프롬프트가 느리면 채굴자가 이를 피하기 위해 연결을 끊을 수 있음). 이는 문제가 될 수 있지만, 코디네이터는 채굴자의 신뢰성을 기록할 수 있습니다. 채굴자가 자주 중단되면, 코디네이터는 그들에게 할당을 중단하거나 지분을 삭감할 수 있습니다(그러한 메커니즘이 존재하거나 단순히 보상하지 않음). 사용자 무임승차 – 많은 AI 서비스에 무료 평가판이 있기 때문에, 사용자는 지불하지 않고 출력을 얻기 위해 요청을 스팸으로 보낼 수 있습니다(보조금 모델이 있는 경우). 이는 프로토콜 수준이라기보다는 서비스 수준의 문제입니다. 각 코디네이터는 무료 사용을 처리하는 방법을 결정할 수 있습니다(예: 소액 결제 요구 또는 제한). Cuckoo는 처음에 사용자를 유치하기 위해 무료 제공(무료 AI 이미지 생성 등)을 했기 때문에 일부는 이를 이용했지만, 이는 예상된 성장 마케팅의 일부였습니다. 이러한 프로모션이 끝나면 사용자는 지불해야 하므로, 악용할 공짜 점심은 없습니다. 전반적으로, Cuckoo의 새로운 전략인 토큰 분배를 실제 유틸리티에 매핑하는 것은 "의미 없는 루프를 수행하여 토큰 채굴"이라는 무임승차 문제를 제거하는 것을 명시적으로 목표로 합니다.

  • 데이터 또는 모델 포이즈닝: 이는 악의적으로 나쁜 데이터나 행동을 도입하여 AI 모델을 저하시키거나 출력을 조작하는 것, 그리고 유해하거나 편향된 콘텐츠가 기여되는 문제를 의미합니다.

  • Bittensor: Bittensor에서의 데이터 포이즈닝은 채굴자가 의도적으로 부정확하거나 유해한 답변을 제공하거나, 검증자가 고의로 좋은 답변을 나쁘게 평가하는 것을 의미합니다. 채굴자가 지속적으로 쓰레기나 악성 콘텐츠를 출력하면, 검증자는 낮은 점수를 줄 것이고, 해당 채굴자는 거의 벌지 못하고 결국 탈락할 것입니다. 경제적 인센티브는 품질을 제공하는 것이므로, 다른 사람을 "포이즈닝"하는 것은 공격자에게 이익이 되지 않습니다(목표가 순전히 자신의 비용으로 파괴하는 것이 아니라면). 악의적인 채굴자가 다른 사람을 포이즈닝할 수 있을까요? Bittensor에서는 채굴자가 서로를 직접 훈련시키지 않습니다(적어도 설계상으로는, 포이즈닝될 수 있는 업데이트되는 글로벌 모델이 없음). 각 채굴자의 모델은 분리되어 있습니다. 그들은 채굴자가 자신을 미세 조정하기 위해 다른 사람으로부터 흥미로운 샘플을 가져올 수 있다는 의미에서 학습하지만, 이는 전적으로 선택 사항이며 각자에게 달려 있습니다. 악의적인 행위자가 무의미한 답변을 스팸으로 보낸다면, 정직한 검증자는 그것을 걸러낼 것입니다(낮은 점수를 줄 것임), 따라서 정직한 채굴자의 훈련 과정에 큰 영향을 미치지 않을 것입니다(게다가, 채굴자는 낮은 점수를 받은 동료의 지식이 아닌 높은 점수를 받은 동료의 지식을 사용할 가능성이 높음). 따라서 고전적인 데이터 포이즈닝(모델을 손상시키기 위해 나쁜 훈련 데이터를 주입하는 것)은 Bittensor의 현재 설정에서는 최소화됩니다. 더 관련 있는 위험은 모델 응답 조작입니다. 예를 들어, 검증자에게 명확하지 않은 미묘하게 편향되거나 위험한 콘텐츠를 출력하는 채굴자입니다. 그러나 검증자도 인간이 설계했거나 적어도 알고리즘 에이전트이므로, 노골적인 독성이나 오류는 포착될 가능성이 높습니다(일부 서브넷에는 안전하지 않은 콘텐츠를 확인하는 AI 검증자가 있을 수도 있음). 최악의 시나리오는 공격자가 어떻게든 특정 부정확한 출력을 "정확한" 것으로 밀어붙이기 위해 과반수의 검증자와 채굴자를 공모시키는 경우입니다. 그러면 그들은 응답에 대한 네트워크의 합의를 편향시킬 수 있습니다(모든 공모하는 검증자가 악의적인 답변을 추천하는 것처럼). 그러나 외부 사용자가 그것에 의해 해를 입으려면, 실제로 네트워크에 쿼리하고 출력을 신뢰해야 합니다. Bittensor는 아직 최종 사용자에 의한 중요한 쿼리에 널리 사용되는 것이 아니라, 역량을 구축하는 단계에 있습니다. 그 시점이 되면, 콘텐츠 필터링과 검증자의 다양성을 통해 그러한 위험을 완화할 수 있기를 바랍니다. 검증자 측면에서, 악의적인 검증자는 포이즈닝된 평가를 제공할 수 있습니다. 예를 들어, 경쟁을 제거하기 위해 특정 정직한 채굴자를 지속적으로 낮게 평가하는 것입니다. 충분한 지분이 있다면, 그들은 해당 채굴자를 몰아내는 데 성공할 수 있습니다(채굴자의 보상이 너무 낮아져 떠나는 경우). 이것은 인센티브 메커니즘에 대한 공격입니다. 다시 말하지만, 그들이 다수가 아니라면, 중앙값 클리핑이 특이한 검증자를 저지할 것입니다. 만약 그들이 다수라면, 이는 담합/51% 시나리오와 합쳐집니다. 모든 다수는 규칙을 다시 쓸 수 있습니다. 해결책은 탈중앙화로 돌아갑니다. 어떤 단일 개체도 지배하지 못하게 하는 것입니다. 요약하자면, Bittensor의 설계는 채점 시스템을 통해 포이즈닝된 데이터/모델 기여를 본질적으로 처벌합니다. 나쁜 기여는 낮은 가중치를 받고 따라서 낮은 보상을 받습니다. 포이즈닝할 영구적인 모델 저장소는 없습니다. 모든 것이 동적이고 지속적으로 평가됩니다. 이는 회복력을 제공합니다. 네트워크는 검증자에 의해 기여가 걸러짐에 따라 나쁜 행위자를 점차 "잊거나" 무시할 수 있습니다.

  • Gensyn: 해결자가 훈련 중인 모델을 포이즈닝하고 싶다면(백도어나 편견을 도입하는 등), 은밀하게 시도할 수 있습니다. Gensyn 프로토콜은 훈련이 지정된 알고리즘(확률적 경사 하강법 단계 등)에 따라 진행되었는지 검증하지만, 해결자가 일반적인 검증 지표에 나타나지 않는 미묘한 백도어 트리거를 도입했는지 반드시 감지하지는 못할 것입니다. 이것은 더 교활한 문제입니다. 계산의 실패가 아니라, 훈련의 허용된 자유도 내에서의 조작입니다(가중치를 트리거 문구 쪽으로 조정하는 등). 그것을 감지하는 것은 ML 보안에서 활발한 연구 문제입니다. Gensyn은 제출자가 선택한 테스트 세트에서 최종 모델을 평가할 수 있다는 사실 외에 모델 포이즈닝에 대한 특별한 메커니즘이 없습니다. 현명한 제출자는 항상 반환된 모델을 테스트해야 합니다. 일부 입력에서 실패하거나 이상한 행동을 보이면, 결과를 이의 제기하거나 지불을 거부할 수 있습니다. 아마도 프로토콜은 제출자가 특정 수락 기준("모델은 이 비밀 테스트 세트에서 최소 X의 정확도를 달성해야 함")을 지정하도록 허용할 수 있으며, 해결자의 결과가 실패하면 해결자는 전액 지불을 받지 못할 것입니다. 이는 공격자가 평가 기준을 충족하지 못할 것이기 때문에 포이즈닝을 억제할 것입니다. 그러나 포이즈닝이 일반적인 테스트에서 정확도에 영향을 미치지 않는다면, 빠져나갈 수 있습니다. Gensyn의 검증자는 모델 품질이 아닌 계산 무결성만 확인하므로, 훈련 로그가 유효해 보이는 한 의도적인 과적합이나 트로이 목마를 잡지 못할 것입니다. 따라서 이것은 작업 수준의 신뢰 문제로 남아 있습니다. 제출자는 해결자가 모델을 포이즈닝하지 않을 것이라고 신뢰하거나, 단일 해결자의 영향을 희석시키기 위해 다른 해결자의 여러 훈련 결과를 앙상블하는 것과 같은 방법을 사용해야 합니다. 또 다른 각도는 데이터 포이즈닝입니다. 제출자가 훈련 데이터를 제공하면, 악의적인 해결자는 해당 데이터를 무시하고 다른 것으로 훈련하거나 쓰레기 데이터를 추가할 수 있습니다. 그러나 이는 정확도를 감소시킬 가능성이 높으며, 제출자는 출력 모델의 성능에서 이를 알아챌 것입니다. 그러면 해결자는 전체 지불을 받지 못할 것입니다(아마도 성능 목표를 달성하고 싶을 것이기 때문). 따라서 성능을 저하시키는 포이즈닝은 해결자의 보상에 대해 자멸적입니다. 성능 중립적이면서 악의적인 포이즈닝(백도어)만이 실제 위험이며, 이는 일반적인 블록체인 검증의 범위를 벗어납니다. 이는 머신러닝 보안 과제입니다. Gensyn의 최선의 완화책은 아마도 사회적인 것입니다. 알려진 평판 좋은 모델을 사용하고, 여러 훈련을 실행하고, 오픈 소스 도구를 사용하는 것입니다. 추론 작업에서(Gensyn이 추론 작업에도 사용되는 경우), 공모하는 해결자는 특정 답변을 편향시키는 부정확한 출력을 반환할 수 있습니다. 그러나 검증자는 동일한 모델을 실행하면 잘못된 출력을 잡을 것이므로, 이는 포이즈닝이라기보다는 사기에 가깝고, 사기 증명이 이를 해결합니다. 요약하자면, Gensyn은 의도가 아닌 프로세스를 보호합니다. 훈련/추론이 올바르게 수행되었음을 보장하지만, 결과가 좋거나 숨겨진 악의가 없는지는 보장하지 않습니다. 이는 해결되지 않은 문제로 남아 있으며, Gensyn의 백서는 아직 그것을 완전히 해결하지 못했을 가능성이 높습니다(거의 아무도 해결하지 못함).

  • Cuckoo: Cuckoo는 현재 추론(기존 모델 제공)에 중점을 두고 있으므로, 데이터/모델 포이즈닝의 위험은 출력 조작이나 콘텐츠 포이즈닝에 비교적 제한됩니다. 악의적인 채굴자는 실행하도록 주어진 모델을 조작하려고 할 수 있습니다. 예를 들어, Stable Diffusion 체크포인트가 제공되면, 모든 이미지에 미묘한 워터마크나 광고를 삽입하는 다른 모델로 교체할 수 있습니다. 그러나 모델 소유자인 코디네이터는 일반적으로 출력 형식에 대한 기대를 가지고 작업을 보냅니다. 채굴자가 지속적으로 사양에 맞지 않는 출력을 반환하면, 코디네이터는 해당 채굴자를 플래그 지정하고 금지할 것입니다. 또한, 채굴자는 출력을 눈에 띄게 변경하지 않고는 모델을 쉽게 수정할 수 없습니다. 또 다른 시나리오는 Cuckoo가 커뮤니티 훈련 모델을 도입하는 경우입니다. 그러면 채굴자나 데이터 제공자가 훈련 데이터를 포이즈닝하려고 할 수 있습니다(예: 많은 잘못된 레이블이나 편향된 텍스트를 제공). Cuckoo는 크라우드소싱 데이터의 검증이나 기여자 가중치를 구현해야 할 것입니다. 이는 아직 기능이 아니지만, 팀이 개인화된 AI(AI 라이프 코치나 학습 앱 언급 등)에 관심을 가지고 있다는 것은 결국 사용자 제공 훈련 데이터를 처리하게 될 것이며, 이는 신중한 확인이 필요할 것임을 의미합니다. 콘텐츠 안전에 관해서는, Cuckoo 채굴자가 추론을 수행하므로, 모델이 정상적으로는 출력하지 않을 유해한 콘텐츠를 출력할까 걱정할 수 있습니다. 그러나 채굴자는 임의로 출력을 변경할 인센티브가 없습니다. 그들은 창의성이 아니라 올바른 계산에 대해 돈을 받습니다. 오히려 악의적인 채굴자는 시간을 절약하기 위해 전체 계산을 건너뛸 수 있습니다(예: 흐릿한 이미지나 일반적인 응답 반환). 코디네이터나 사용자는 그것을 보고 해당 채굴자를 낮게 평가할 것입니다(그리고 해당 작업에 대해 지불하지 않을 가능성이 높음). 개인 정보 보호는 또 다른 측면입니다. 악의적인 채굴자는 사용자 데이터를 유출하거나 기록할 수 있습니다(사용자가 민감한 텍스트나 이미지를 입력하는 경우). 이것은 포이즈닝은 아니지만, 기밀성에 대한 공격입니다. Cuckoo의 개인 정보 보호 입장은 개인 정보 보호 방법을 탐색하고 있다는 것입니다(생태계에서 개인 정보 보호 VPN 언급은 미래의 초점을 시사함). 그들은 데이터를 채굴자로부터 비공개로 유지하기 위해 보안 엔클레이브나 분할 추론과 같은 기술을 통합할 수 있습니다. 아직 구현되지는 않았지만, 알려진 고려 사항입니다. 마지막으로, Cuckoo의 블로그는 모델 토큰화를 실현 가능하게 만드는 핵심으로 모델 출력을 효과적으로 검증하고 안전한 탈중앙화 모델 운영을 보장하는 것을 강조합니다. 이는 그들이 AI를 진정으로 탈중앙화하려면, 포이즈닝된 출력이나 오작동하는 모델과 같은 것으로부터 보호해야 한다는 것을 알고 있음을 나타냅니다. 아마도 그들은 암호경제학적 인센티브(나쁜 행위자에 대한 지분 삭감)와 사용자 평가 시스템(사용자가 나쁜 출력을 플래그 지정하고, 해당 채굴자는 평판을 잃음)의 조합을 사용할 계획일 것입니다. 평판 시스템이 여기서 도움이 될 수 있습니다. 채굴자가 명백히 악의적이거나 부정확한 결과를 하나라도 반환하면, 사용자/코디네이터는 그들을 낮게 평가하여 미래의 수입 능력에 큰 영향을 미칠 수 있습니다. 이를 알고 있는 채굴자는 일관되게 정확하고 어떤 포이즈닝도 끼워 넣지 않도록 인센티브를 받습니다. 본질적으로, Cuckoo는 신뢰하되 검증하는 방식에 의존합니다. 누군가 잘못 행동하면 식별하고 제거하는(처벌로 지분 손실) 보다 전통적인 방식입니다. 아직 미묘한 모델 포이즈닝에 대한 전문적인 방어책은 없지만, 특정 앱 소유자(코디네이터)가 책임지는 구조는 감독 계층을 추가합니다. 해당 소유자는 자신의 수익과 평판이 그것에 달려 있기 때문에 모델의 무결성을 손상시키는 것이 없도록 동기를 부여받을 것입니다.

결론적으로, 탈중앙화 AI 네트워크는 새로운 공격 표면을 도입하지만, 암호학적, 게임 이론적, 커뮤니티 거버넌스 방어의 조합을 배포합니다: 시빌 저항은 주로 참여에 경제적 지분을 요구함으로써 처리됩니다. 담합 저항은 인센티브의 정렬(정직한 행동이 더 수익성이 있음)과 소규모 담합 그룹의 영향을 제한하는 합의 메커니즘에서 비롯됩니다. 무임승차 방지는 보상을 실제 유용한 작업과 밀접하게 연결하고 아무것도 기여하지 않는 사람들을 처벌하거나 제거함으로써 달성됩니다. 포이즈닝 및 관련 공격은 여전히 어려운 과제로 남아 있지만, 시스템은 지속적인 평가와 악의적인 행위자를 삭감하거나 퇴출시키는 능력을 통해 노골적인 사례를 완화합니다. 이러한 플랫폼은 Bittensor의 유마 및 dTAO에 대한 지속적인 조정과 Cuckoo의 토큰 경제학 변화에서 알 수 있듯이, 안전하고 자립적인 탈중앙화 AI 생태계를 보장하기 위해 이러한 설계를 적극적으로 연구하고 반복하고 있습니다.

비교 평가

Bittensor, Gensyn, Cuckoo AI의 차이점과 유사점을 강조하기 위해 다음 표는 주요 차원에 걸쳐 나란히 비교합니다:

차원Bittensor (TAO)GensynCuckoo AI (CAI)
기술 스택맞춤형 L1 (Substrate 기반 Subtensor 체인)과 93개 이상의 특화된 AI 서브넷. 자체 체인에서 EVM 호환(최근 업그레이드 후).이더리움 기반 롤업 (원래 L1 계획, 현재 ETH 롤업). 온체인 검증을 통한 오프체인 컴퓨팅.Arbitrum Orbit 레이어 2 체인(EVM 롤업)으로 출시. 풀스택 플랫폼 (자체 체인 + 컴퓨팅 + 앱 UI). 맞춤형 L1에서 이더리움 공유 보안(롤업/AVS)으로 마이그레이션 중.
주요 초점모델의 탈중앙화 AI 네트워크("신경 인터넷"). 노드는 작업(LLM, 비전 등) 전반에 걸쳐 집단 모델 추론 및 훈련에 기여.ML을 위한 탈중앙화 컴퓨팅 마켓플레이스. 블록체인을 통해 작업을 검증하며, 전 세계 GPU에 의한 오프체인 모델 훈련 및 추론에 중점.탈중앙화 AI 서비스 플랫폼. 분산 GPU 채굴자를 사용한 모델 서빙/추론(예: 생성 예술, LLM API)에 중점. 최종 사용자 애플리케이션과 백엔드 GPU 마켓플레이스를 통합.
주요 역할서브넷 소유자: 서브넷에서 작업 및 검증 정의 (18% 보상 획득).
채굴자: AI 모델 실행(추론/훈련), 답변 제공.
검증자: 쿼리 제기 및 채굴자 출력 채점 (품질 큐레이팅).
위임자: 채굴자/검증자에게 TAO 스테이킹하여 증폭하고 몫 획득.
제출자(개발자): ML 작업(모델/데이터 포함) 및 지불 게시.
해결자: 자신의 하드웨어에서 작업 계산, 결과 제출.
검증자(감시자): 해결자 결과 확인, 잘못된 경우 사기 증명을 통해 이의 제기 가능.
(제출자가 모델을 제공하므로 별도의 "소유자" 역할 없음, 토큰 보유자를 통한 거버넌스 역할).
AI 앱 빌더(코디네이터): AI 모델 서비스 배포, CAI 스테이킹, 채굴자에게 작업 관리.
채굴자(GPU/CPU 제공자): CAI 스테이킹, 할당된 추론 작업 수행, 결과 반환.
최종 사용자: AI 앱 사용 (암호화폐로 지불 또는 리소스 기여).
스테이커(위임자): 코디네이터/채굴자에게 스테이킹, 거버넌스 투표, 보상 몫 획득.
합의 및 검증유마(Yuma) 합의: 맞춤형 "지능 증명" – AI 출력에 대한 검증자 점수가 집계되어(지분 가중 중앙값) 채굴자 보상 결정. 기본 체인 합의는 블록에 대해 PoS와 유사(Substrate)하지만, 블록 유효성은 각 에포크의 AI 합의에 달려 있음. 특이한 채점 및 50%까지의 담합에 저항성.낙관적 검증(Truebit 스타일): 검증자가 이의를 제기하지 않는 한 해결자의 결과가 정확하다고 가정. 잘못된 단계를 정확히 찾아내기 위해 대화형 온체인 사기 증명 사용. 재실행 없이 훈련 진행 상황을 검증하기 위해 암호학적 계산 증명(학습 증명)도 구현 중. 이더리움이 거래에 대한 기본 합의 제공.지분 증명 체인 + 코디네이터에 의한 작업 검증: Cuckoo 체인은 블록 생산에 PoS 검증자를 사용(초기에는 채굴자도 블록 보안에 도움). AI 작업 결과는 코디네이터 노드(채굴자 출력을 예상 모델 동작과 비교하여 확인)에 의해 검증됨. 아직 전문적인 암호화 증명 없음 – 지분과 평판에 의존(잘못된 행동이 자동 수학 증명 감지가 아닌 삭감이나 다운보팅으로 이어지는 범위까지 신뢰 불필요). 원장 보안을 위해 이더리움 합의(롤업)로 전환 중.
토큰 및 유틸리티TAO 토큰: Subtensor의 네이티브 통화. 스테이킹(등록 및 합의 영향력 행사에 필요), 거래 수수료/결제(예: AI 쿼리 비용 지불), 기여에 대한 보상(채굴/검증)에 사용. TAO는 지속적인 인플레이션(12초 블록당 1 TAO)을 가지며, 이는 보상 메커니즘을 구동. 거버넌스(서브넷에 dTAO 스테이킹)에도 사용.Gensyn 토큰(ERC-20, 이름 미정): 프로토콜의 결제 단위(개발자가 해결자에게 지불). 스테이킹 담보로 기능(해결자/검증자가 토큰을 보증하고 결함 시 삭감됨). 거버넌스(Gensyn 재단의 DAO를 통해 프로토콜 업그레이드 투표)에 사용될 예정. 공급량에 대한 세부 정보 아직 없음, 초기 채택(테스트넷 등) 인센티브를 위해 일부 할당될 가능성 높음.CAI 토큰(ERC-20): Cuckoo 체인의 네이티브 토큰(10억 개 고정 공급). 다목적: Cuckoo 체인 거래의 가스 수수료, 네트워크 역할 스테이킹(채굴자, 코디네이터는 CAI 잠금 필요), 프로토콜 결정에 대한 거버넌스 투표, 기여에 대한 보상(채굴/스테이킹 보상은 초기 할당에서 나옴). 밈 매력도 있음(커뮤니티 토큰 측면).
자산 토큰화컴퓨팅: 예 – AI 컴퓨팅 작업은 TAO 보상을 통해 토큰화됨(TAO를 지능을 위한 "가스"로 생각). 모델: 간접적으로 – 모델은 성능에 따라 TAO를 얻지만, 모델/가중치 자체는 온체인 자산이 아님(모델용 NFT 없음). 서브넷 소유권은 모델 마켓플레이스의 지분을 나타내기 위해 토큰화됨(서브넷 소유자 NFT + 알파 토큰). 데이터: 토큰화되지 않음(데이터는 오프체인, Bittensor는 데이터셋보다 모델 출력에 중점).컴퓨팅: 예 – 유휴 컴퓨팅은 온체인 상품이 되어 작업 마켓플레이스에서 토큰으로 거래됨. 모델: 명시적이지 않음 – 모델은 개발자가 오프체인으로 제공하고 결과가 반환됨, 내장된 모델 토큰 없음(당사자가 설정하면 프로토콜이 라이선스를 촉진할 수 있음). 데이터: 아니요 – 데이터셋은 제출자와 해결자 간에 오프체인으로 처리됨(암호화되거나 보호될 수 있지만, 온체인 자산으로 표현되지 않음). Gensyn 비전에는 컴퓨팅처럼 알고리즘이나 데이터를 거래하는 것이 포함될 수 있지만, 핵심 구현은 컴퓨팅 중심.컴퓨팅: 예 – GPU 시간은 일일 CAI 지급 및 작업 현상금을 통해 토큰화됨. 네트워크는 컴퓨팅 파워를 채굴자가 CAI를 위해 "판매"하는 리소스로 취급. 모델: 부분적으로 – 플랫폼은 모델을 서비스로 통합, 그러나 모델 자체는 NFT로 발행되지 않음. 모델의 가치는 사용자가 사용하는 것으로부터 코디네이터가 CAI를 벌 수 있는 능력에 포착됨. 미래 계획은 커뮤니티 소유 모델을 암시하지만, 현재 모델 IP는 오프체인(코디네이터를 운영하는 사람이 소유). 데이터: 일반적인 데이터 토큰화 없음. 사용자 입력/출력은 일시적. (Cuckoo는 Beancount 등과 같은 앱과 파트너 관계를 맺지만, 데이터는 체인에서 토큰으로 표현되지 않음).
거버넌스탈중앙화, 토큰 보유자 주도(dTAO): 초기에 64명의 선출된 검증자가 루트 합의를 운영, 현재 거버넌스는 개방됨 – TAO 보유자가 서브넷에 스테이킹하여 배출량 방향 결정(시장 기반 리소스 할당). 프로토콜 업그레이드 및 변경은 온체인 제안(TAO 투표, Bittensor 재단/위원회가 촉진)을 통해 결정. 목표는 완전히 커뮤니티가 통치하고, 재단이 점차 통제권을 양도하는 것.점진적 탈중앙화: Gensyn 재단 + 선출된 위원회가 초기 결정 관리. 토큰 출시 후, 거버넌스는 토큰 보유자가 제안에 투표하는 DAO로 전환될 것(많은 DeFi 프로젝트와 유사). 이더리움의 공유 보안 환경은 주요 변경이 커뮤니티와 잠재적으로 레이어 1 거버넌스를 포함함을 의미. 거버넌스 범위에는 경제적 매개변수, 계약 업그레이드(보안 감사 대상)가 포함. 아직 라이브는 아니지만, 메인넷 이후를 위해 라이트페이퍼에 개요가 나와 있음.커뮤니티 및 재단 혼합: Cuckoo는 "공정한 출시" 정신으로 출시(내부자를 위한 사전 채굴 없음). 커뮤니티 DAO가 의도되었으며, 주요 결정 및 프로토콜 업그레이드에 대한 CAI 투표가 있음. 실제로는 핵심 팀(Cuckoo Network 개발자)이 주요 결정(체인 중단 등)을 주도했지만, 그들은 근거를 투명하게 공유하고 커뮤니티의 이익을 위한 진화로 포지셔닝함. 온체인 거버넌스 기능(제안, 투표)은 새로운 롤업이 자리를 잡으면 나올 가능성이 높음. 스테이킹은 또한 평판 시스템을 통해 비공식적으로 거버넌스 영향력을 제공(신뢰할 수 있는 노드에 대한 지분 가중 투표).
인센티브 모델기여도와 연계된 인플레이션 보상: 블록당 약 1 TAO가 성과에 따라 참가자에게 분배. 품질 = 더 많은 보상. 채굴자와 검증자는 지속적으로(블록별로) 수익을 얻고, 위임자도 몫을 얻음. 최종 사용자가 서비스를 지불하기 위해 TAO를 사용(토큰에 대한 수요 측면 생성). 토큰 경제는 장기적인 참여(스테이킹)와 모델의 지속적인 개선을 장려하도록 설계되었으며, 비트코인의 채굴자와 유사하지만 "AI를 채굴"함. 잠재적인 문제(지분 중앙 집중화로 인한 잘못된 보상)는 인센티브 조정을 통해 해결 중.시장 주도, 결과에 따른 지불: 지속적인 인플레이션 수익 없음(초기 인센티브 가능성 제외), 해결자는 성공적으로 작업을 수행할 때만 지불받음. 검증자는 사기를 잡았을 때만 지불받음(잭팟 인센티브). 이는 직접적인 경제를 창출: 개발자의 지출 = 제공자의 수입. 토큰 가치는 실제 컴퓨팅 수요와 연결됨. 부트스트래핑을 위해, Gensyn은 출시 시 테스트넷 사용자에게 보상할 가능성이 높음(일회성 분배), 그러나 안정 상태에서는 사용량 기반. 이는 인센티브를 네트워크 유틸리티와 긴밀하게 조정(AI 작업이 증가하면 토큰 사용이 증가하여 모든 보유자에게 이익).하이브리드(인플레이션에서 사용료로 이동): 초기에, 51% 커뮤니티 풀의 채굴 및 스테이킹 할당은 외부 사용량과 관계없이 GPU 채굴자(공급량의 30%)와 스테이커(11%)에게 보상 – 이는 네트워크 효과를 시작하기 위함. 시간이 지남에 따라, 특히 L1 중단 후, 수익 공유에 중점: 채굴자와 앱 개발자는 실제 사용자 지불에서 수익을 얻음(예: 이미지 생성 수수료 분할). 스테이커의 수익은 실제 사용량의 일부에서 파생되거나 생산적인 노드만 지원하도록 조정될 것. 따라서 초기 인센티브는 "네트워크 성장"(높은 APY, 에어드랍)이었고, 나중에는 "네트워크가 실제로 유용하면 성장"(고객으로부터의 수입). 이 전환은 무임승차자를 제거하고 지속 가능성을 보장하도록 설계됨.
보안 및 공격 완화시빌: 비용이 많이 드는 등록(TAO 스테이킹)이 시빌을 억제. 담합: 중앙값 합의는 50% 지분까지 담합에 저항, dTAO는 토큰 보유자 투표를 강화하여 검증자 과두 정치를 깨뜨림. 부정직: 합의에서 벗어나는 검증자는 보상 몫을 잃음(정직한 채점 인센티브). 지분이 고도로 집중되면 51% 공격 가능 – 연구는 이를 완화하기 위해 지분 상한선 및 성과 삭감 추가 제안. 모델 공격: 나쁜 또는 악의적인 모델 출력은 낮은 점수로 처벌됨. 단일 실패 지점 없음 – 네트워크는 전 세계적으로 탈중앙화됨(TAO 채굴자는 전 세계에 존재, 의사 익명).시빌: 참여에 경제적 지분 필요, 지분/작업 없는 가짜 노드는 아무것도 얻지 못함. 검증: 적어도 하나의 정직한 검증자 필요 – 그렇다면 어떤 잘못된 결과도 잡히고 처벌됨. 부정행위가 이익이 되지 않도록 암호경제학적 인센티브 사용(해결자는 보증금을 잃고, 검증자는 얻음). 담합: 모든 당사자가 담합하지 않는 한 안전 – 하나의 정직한 자가 사기를 드러내어 계획을 깨뜨림. 신뢰: 하드웨어나 회사에 대한 신뢰에 의존하지 않고, 경제적 게임 이론과 암호학에만 의존. 공격: 작업이 분산되어 있어 검열이나 DoS가 어려움, 공격자는 정직한 노드를 능가하는 입찰을 하거나 사기 증명을 지속적으로 이겨야 함(과반수 통제 없이는 불가능). 그러나 미묘한 모델 백도어는 탐지를 피할 수 있으며, 이는 알려진 과제(사용자 테스트 및 올바른 실행을 넘어서는 미래의 감사로 완화). 전반적인 보안은 컴퓨팅을 위한 낙관적 롤업과 유사.시빌: 모든 행위자는 CAI를 스테이킹해야 하므로 시빌의 장벽이 높아짐. 또한 평판 시스템(스테이킹 + 투표)은 평판 없는 시빌 신원이 작업을 얻지 못함을 의미. 노드 오작동: 코디네이터는 성능이 저조하거나 의심스러운 채굴자를 제외할 수 있음, 스테이커는 지원을 철회할 수 있음. 프로토콜은 입증된 사기에 대해 지분을 삭감할 수 있음(L1에는 합의에 대한 삭감 조건이 있었으며, 작업 사기에도 유사하게 적용될 수 있음). 담합: 부분적으로 신뢰 기반 – 담합이 지배하는 것을 방지하기 위해 공개 경쟁과 커뮤니티 감독에 의존. 작업과 지급이 온체인에서 공개되므로, 노골적인 담합은 식별되고 사회적으로 또는 거버넌스를 통해 처벌될 수 있음. 사용자 보호: 사용자는 하나가 검열되거나 손상되면 제공자를 전환할 수 있어 단일 통제 지점이 없음을 보장. 포이즈닝/콘텐츠: 설계상, 채굴자는 제공된 모델을 그대로 실행, 악의적으로 출력을 변경하면 평판과 보상을 잃음. 시스템은 합리적인 행위자에 베팅: 모든 사람이 지분 가치와 미래 수입 잠재력을 가지고 있기 때문에, 네트워크에 대한 신뢰를 훼손하는 공격으로부터 인센티브를 받지 않음(유틸리티와 인센티브를 조정하는 것에 대한 L1 실험의 무거운 교훈으로 강화됨).

표: 아키텍처, 초점, 역할, 합의, 토큰, 자산 토큰화, 거버넌스, 인센티브, 보안에 걸친 Bittensor, Gensyn, Cuckoo AI의 기능 비교.

검증 가능한 AI의 움직임: 라그랑주 랩스의 동적 zk-SNARKs가 연속적인 신뢰를 가능하게 하는 방법

· 약 5분
Dora Noda
Software Engineer

1. 팀과 사명

Lagrange Labs는 모든 AI 추론 또는 온체인 애플리케이션에 대한 암호학적 증명을 생성하는 기본 인프라를 구축하고 있습니다. 그들의 목표는 계산을 검증 가능하게 만들어 디지털 세계에 새로운 신뢰 층을 제공하는 것입니다. 그들의 생태계는 세 가지 핵심 제품 라인으로 구성됩니다:

  • ZK Prover Network: AI와 롤업부터 탈중앙화 애플리케이션(dApp)까지 다양한 증명 작업에 필요한 계산 능력을 제공하는 85개 이상의 증명 노드로 구성된 탈중앙화 네트워크.
  • DeepProve (zkML): 신경망 추론에 대한 ZK 증명을 생성하는 특화 시스템. Lagrange는 경쟁 솔루션보다 최대 158배 빠르다고 주장하며, 검증 가능한 AI를 실용적인 현실로 만든다.
  • ZK Coprocessor 1.0: 최초의 SQL 기반 ZK 코프로세서로, 개발자가 대규모 온체인 데이터셋에 대해 맞춤형 쿼리를 실행하고 검증 가능한 정확한 결과를 받을 수 있게 한다.

2. 검증 가능한 AI 로드맵

Lagrange는 AI 검증 가능성 문제를 단계별로 해결하기 위해 로드맵을 체계적으로 실행하고 있습니다.

  • Q3 2024: ZK Coprocessor 1.0 출시: 이 릴리스는 하이퍼 병렬 재귀 회로를 도입했으며, 평균 속도가 약 2배 향상되었습니다. Azuki와 Gearbox와 같은 프로젝트가 이미 코프로세서를 활용하고 있습니다.
  • Q1 2025: DeepProve 공개: Lagrange는 Zero‑Knowledge Machine Learning(zkML) 솔루션인 DeepProve를 발표했습니다. 이는 다층 퍼셉트론(MLP) 및 합성곱 신경망(CNN)과 같은 인기 있는 신경망 아키텍처를 지원합니다. 시스템은 일회성 설정, 증명 생성, 검증이라는 세 단계 모두에서 획기적인 가속을 달성했으며, 속도 향상은 최대 158배에 이릅니다.
  • Q2 2025: Dynamic zk‑SNARKs 논문 (최신 마일스톤): 이 논문은 혁신적인 “업데이트” 알고리즘을 소개합니다. 기본 데이터나 계산이 변경될 때마다 증명을 처음부터 다시 생성하는 대신, 기존 증명(π)을 새로운 증명(π')으로 패치할 수 있습니다. 이 업데이트는 O(√n log³n) 복잡도로 수행될 수 있어 전체 재계산에 비해 크게 개선되었습니다. 이 혁신은 지속적으로 학습하는 AI 모델, 실시간 게임 로직, 진화하는 스마트 계약과 같은 동적 시스템에 특히 적합합니다.

3. Dynamic zk‑SNARKs가 중요한 이유

업데이트 가능한 증명의 도입은 영지식 기술의 비용 모델에 근본적인 변화를 가져옵니다.

  • 새로운 비용 패러다임: 업계는 “각 증명마다 전체 재계산” 모델에서 “변경 규모에 기반한 증분 증명” 모델로 이동합니다. 이는 빈번하고 작은 업데이트가 발생하는 애플리케이션의 계산 및 비용을 크게 낮춥니다.
  • AI에 대한 시사점:
    • 연속 미세 조정: 모델 파라미터의 1% 미만을 미세 조정할 때, 증명 생성 시간은 전체 모델 크기가 아니라 변경된 파라미터 수(Δ 파라미터)에 거의 선형적으로 증가합니다.
    • 스트리밍 추론: 이는 추론 과정 자체와 동시에 증명을 생성할 수 있게 합니다. 이를 통해 AI가 결정을 내리는 순간과 그 결정이 온체인에 정산·검증되는 사이의 지연이 크게 감소하여 온체인 AI 서비스 및 롤업을 위한 압축 증명과 같은 사용 사례를 열어줍니다.
  • 온체인 애플리케이션에 대한 시사점: Dynamic zk‑SNARKs는 빈번하고 작은 상태 변화를 특징으로 하는 애플리케이션에 대해 가스 비용과 시간 최적화를 크게 제공합니다. 여기에는 탈중앙화 거래소(DEX) 주문서, 진화하는 게임 상태, 빈번한 추가·삭제가 있는 원장 업데이트 등이 포함됩니다.

4. 기술 스택 살펴보기

Lagrange의 강력한 인프라는 정교하고 통합된 기술 스택 위에 구축됩니다.

  • 회로 설계: 시스템은 ONNX(Open Neural Network Exchange) 모델, SQL 파서, 맞춤 연산자를 회로에 직접 삽입하는 것을 지원하도록 유연하게 설계되었습니다.
  • 재귀 및 병렬성: ZK Prover Network는 분산 재귀 증명을 가능하게 하고, ZK Coprocessor는 “마이크로 회로” 샤딩을 활용해 작업을 병렬로 실행하여 효율성을 극대화합니다.
  • 경제적 인센티브: Lagrange는 네이티브 토큰 LA를 출시할 계획이며, 이는 Double‑Auction‑for‑Recursive‑Auction(DARA) 시스템에 통합될 예정입니다. 이를 통해 증명자 계산에 대한 입찰 시장을 구축하고, 인센티브와 페널티를 통해 네트워크 무결성을 보장합니다.

5. 생태계 및 실제 채택

Lagrange는 진공 속에서만 개발하는 것이 아니라, 다양한 분야의 프로젝트에 이미 기술이 통합되고 있습니다.

  • AI 및 ML: 0G Labs와 Story Protocol 등 프로젝트가 DeepProve를 사용해 AI 모델 출력의 출처와 신뢰성을 검증하고 있습니다.
  • 롤업 및 인프라: EigenLayer, Base, Arbitrum 등 주요 플레이어가 검증 노드 또는 통합 파트너로 ZK Prover Network에 참여해 보안과 계산 능력을 강화하고 있습니다.
  • NFT 및 DeFi 애플리케이션: Azuki와 Gearbox와 같은 브랜드가 ZK Coprocessor를 활용해 데이터 쿼리와 보상 분배 메커니즘의 신뢰성을 높이고 있습니다.

6. 도전 과제와 향후 로드맵

눈부신 진전에도 불구하고 Lagrange Labs와 ZK 분야 전체가 직면한 과제가 몇 가지 있습니다.

  • 하드웨어 병목: 분산 네트워크가 있더라도 업데이트 가능한 SNARK는 높은 대역폭을 요구하고, 효율적인 실행을 위해 GPU 친화적인 암호 곡선에 의존합니다.
  • 표준화 부족: ONNX 및 PyTorch와 같은 AI 프레임워크를 ZK 회로에 매핑하는 과정은 아직 보편적인 표준 인터페이스가 없어 개발자에게 마찰을 발생시킵니다.
  • 경쟁 환경: zkVM 및 일반화된 zkCompute 플랫폼을 구축하려는 경쟁이 가열되고 있습니다. Risc‑Zero와 Succinct와 같은 경쟁사도 큰 진전을 보이고 있습니다. 최종 승자는 개발자 친화적이고 커뮤니티 주도형 툴체인을 최초로 상용화하는 팀이 될 가능성이 높습니다.

7. 결론

Lagrange Labs는 검증 가능성이라는 관점에서 AI와 블록체인의 교차점을 체계적으로 재구성하고 있습니다. 그들의 접근 방식은 포괄적인 솔루션을 제공합니다.

  • DeepProve신뢰할 수 있는 추론 문제를 해결합니다.
  • ZK Coprocessor신뢰할 수 있는 데이터 문제를 해결합니다.
  • Dynamic zk‑SNARKs연속적인 업데이트라는 현실적인 요구를 증명 시스템에 직접 통합합니다.

라그랑주가 성능 우위를 유지하고 표준화라는 핵심 과제를 해결하며 견고한 네트워크를 지속적으로 확장한다면, 떠오르는 “AI + ZK 인프라” 분야의 핵심 플레이어로 자리매김할 것입니다.

Camp Network: AI의 수십억 달러 IP 문제를 해결하는 블록체인 🏕️

· 약 4분
Dora Noda
Software Engineer

생성형 AI의 급부상은 폭발적이라 할 수 있습니다. 놀라운 디지털 아트부터 인간과 구분하기 어려운 텍스트까지, AI는 전례 없는 규모로 콘텐츠를 만들어내고 있습니다. 하지만 이 성장 뒤에는 어두운 그림자가 있습니다. AI는 어디서 학습 데이터를 얻을까요? 대부분은 인터넷에 흩어져 있는 방대한 양의 예술, 음악, 글 등 인간이 만든 창작물에서 가져옵니다. 이 창작자들은 거의 인정도, 보상도 받지 못합니다.

여기에 Camp Network가 등장합니다. 근본적인 문제를 해결하고자 하는 새로운 블록체인 프로젝트입니다. 단순한 암호화폐 플랫폼이 아니라, AI 시대에 창작자에게 소유권과 통제권을 부여하기 위해 설계된 “자율 IP 레이어”입니다. Camp Network가 왜 주목받아야 하는지 살펴보겠습니다.


핵심 아이디어는?

Camp Network는 지식재산권(IP)을 위한 전 세계적인 검증 가능한 레지스트리 역할을 하는 블록체인입니다. 독립 아티스트부터 소셜 미디어 사용자까지 누구나 자신의 콘텐츠를 온체인에 등록할 수 있게 하여, 영구적이고 변조가 불가능한 소유권 및 출처 기록을 생성합니다.

왜 중요한가요? AI 모델이 Camp에 등록된 콘텐츠를 사용할 경우, 네트워크의 스마트 계약이 자동으로 라이선스 조건을 시행합니다. 즉, 원작자는 즉시 귀속 표시를 받고 로열티를 받을 수 있습니다. Camp는 보상이 사후에 이루어지는 것이 아니라 프로토콜 자체에 내장된 새로운 크리에이터 경제를 구축하고자 합니다.


기술 스택 살펴보기

Camp는 개념에 머무르지 않고 고성능·개발자 친화성을 목표로 한 실질적인 기술을 갖추고 있습니다.

  • 모듈형 아키텍처: Camp는 데이터 가용성을 위해 Celestia를 활용한 주권 롤업으로 구축되었습니다. 이 설계 덕분에 초당 50,000건 이상의 트랜잭션을 목표로 매우 빠르고 저렴하면서도 이더리움(EVM) 도구와 완전 호환됩니다.
  • Proof of Provenance (PoP): Camp만의 합의 메커니즘으로, 에너지 집약적인 채굴 대신 콘텐츠 출처 검증에 기반한 보안을 제공합니다. 모든 트랜잭션은 네트워크 상 IP의 출처를 강화해 “디자인상 강제 가능한” 소유권을 구현합니다.
  • 듀얼 VM 전략: 성능 극대화를 위해 Solana Virtual Machine (SVM) 을 EVM 호환성과 병행하여 통합합니다. 이를 통해 개발자는 실시간 AI 인터랙션과 같은 고처리량 사용 사례에 최적화된 환경을 선택할 수 있습니다.
  • 크리에이터·AI 툴킷: Camp는 두 가지 핵심 프레임워크를 제공합니다.
    • Origin Framework: 크리에이터가 IP를 등록하고 NFT 형태로 토큰화하며 라이선스 규칙을 삽입할 수 있는 사용자 친화적인 시스템.
    • mAItrix Framework: 개발자가 온체인 IP와 안전하고 권한이 부여된 방식으로 상호작용하는 AI 에이전트를 구축·배포할 수 있도록 지원하는 툴킷.

팀, 파트너십, 진행 상황

아이디어는 실행력에 달려 있으며, Camp는 현재까지 좋은 실행력을 보여주고 있습니다.

팀 및 펀딩

프로젝트는 The Raine Group(미디어·IP 딜), Goldman Sachs, Figma, CoinList 등에서 풍부한 경험을 가진 팀이 이끌고 있습니다. 이들의 금융·기술·암호공학 역량 덕분에 1kx, Blockchain Capital, Maven 11 등 주요 벤처캐피털로부터 3천만 달러의 펀딩을 확보했습니다.

성장하는 생태계

Camp는 파트너십 구축에 적극적입니다. 가장 눈에 띄는 협업은 KOR Protocol에 대한 전략적 지분 투자로, 이 플랫폼은 Deadmau5Black Mirror와 같은 대형 아티스트·프랜차이즈의 음악 IP를 토큰화합니다. 이를 통해 Camp는 방대한 고품질 권리 클리어된 콘텐츠 라이브러리를 즉시 확보했습니다. 주요 협업 파트너는 다음과 같습니다.

  • RewardedTV: Camp를 활용해 온체인 콘텐츠 권리를 관리하는 탈중앙화 비디오 스트리밍 플랫폼.
  • Rarible: IP 자산 거래를 위한 NFT 마켓플레이스와 통합.
  • LayerZero: 다른 블록체인과의 상호운용성을 보장하는 크로스체인 프로토콜.

로드맵 및 커뮤니티

수만 명의 사용자를 끌어들인 인센티브 테스트넷 캠페인을 성공적으로 마친 뒤, Camp는 2025년 3분기 메인넷 출시를 목표로 하고 있습니다. 동시에 네이티브 토큰 $CAMP의 토큰 생성 이벤트(TGE)가 진행되어 가스 요금, 스테이킹, 거버넌스 등에 사용될 예정입니다. 프로젝트는 이미 첫날부터 플랫폼을 구축·활용하고자 하는 열정적인 커뮤니티를 형성했습니다.


경쟁 구도와 차별점

Camp Network는 이 분야에서 유일한 존재는 아닙니다. a16z가 지원하는 Story Protocol이나 Sony와 연계된 Soneium 등 강력한 경쟁자가 있습니다. 그러나 Camp는 다음과 같은 핵심 포인트로 차별화됩니다.

  1. 하향식 접근: 경쟁 프로젝트가 대기업 IP 보유자를 주 타깃으로 삼는 반면, Camp는 독립 크리에이터와 암호 커뮤니티에 토큰 인센티브를 제공해 권한을 부여합니다.
  2. 통합 솔루션: IP 레지스트리부터 AI 에이전트 프레임워크까지 전 과정을 아우르는 원스톱 서비스 제공.
  3. 성능·확장성: 모듈형 아키텍처와 듀얼 VM 지원으로 AI·미디어의 고처리량 요구에 최적화되었습니다.

요약

Camp Network는 Web3 시대에 지식재산권의 기반 레이어가 될 가능성을 보여줍니다. 혁신적인 기술, 강력한 팀, 전략적 파트너십, 커뮤니티 중심 철학을 결합해 생성형 AI가 야기한 가장 시급한 문제 중 하나에 실질적인 해결책을 제시하고 있습니다.

진정한 시험은 메인넷 출시와 실제 채택 여부입니다. 지금까지 명확한 비전과 탄탄한 실행력을 보여준 Camp Network는 디지털 크리에이터를 위한 보다 공정한 미래를 구축하려는 핵심 프로젝트라 할 수 있습니다.

BeFreed.ai 만나기 – BlockEden.xyz 빌더들을 위한 학습 연료

· 약 3분
Dora Noda
Software Engineer

BlockEden.xyz가 신경 쓰는 이유

빠르게 변화하는 Web3 세계에서는 속도가 전부입니다. 프로덕션 수준의 RPC와 스테이킹 인프라를 제공하려면 우리 팀과 커뮤니티가 지속적으로 혁신의 최전선에 있어야 합니다. 이는 복잡한 프로토콜, 획기적인 암호학 논문, 급변하는 거버넌스 스레드를 파악하는 것을 의미합니다. 커뮤니티가 새로운 아이디어를 빠르게 흡수하고 이해할수록 차세대 탈중앙화 애플리케이션을 더 신속하게 구축할 수 있습니다. 바로 여기서 BeFreed.ai 가 등장합니다.

BeFreed.ai란

BeFreed.ai는 샌프란시스코에 기반을 둔 스타트업으로, AI 시대에 학습을 즐겁고 개인화된 경험으로 만들겠다는 단순하지만 강력한 사명을 가지고 있습니다. 이들은 빌더와 크리에이터의 바쁜 생활에 맞춰 설계된 지능형 마이크로러닝 동반자를 만들었습니다.

핵심 요소:

  • 다양한 포맷 → 한 번의 클릭: BeFreed.ai는 방대한 책, 상세 비디오, 복잡한 기술 문서 등 다양한 콘텐츠를 받아 즉시 짧은 요약, 플래시카드, 심층 노트, 심지어 팟캐스트 형식의 오디오로 변환합니다.
  • 적응형 엔진: 플랫폼은 사용자의 학습 속도와 관심사에 맞춰 함께 학습하도록 설계되었습니다. 일괄적인 커리큘럼을 강요하는 대신, 가장 관련성 높은 정보를 다음에 제공해 줍니다.
  • 내장 채팅 및 “왜 이걸” 설명: 질문이 있나요? 바로 물어보세요. BeFreed.ai는 복잡한 주제를 즉시 문의할 수 있게 해 주며, 새로운 인사이트를 여러분의 전체 목표와 연결해 설명해 줍니다.
  • 4만 3천 명 규모의 학습 커뮤니티: 학습은 종종 공동 활동입니다. BeFreed.ai는 43,000명 이상의 학습자들이 진행 상황을 공유하고, 유익한 콘텐츠에 반응하며, 핵심 포인트를 강조하는 활기찬 커뮤니티를 조성해 동기부여와 추진력을 유지합니다.

BlockEden.xyz 빌더에게 왜 중요한가

BlockEden.xyz 생태계의 헌신적인 빌더들에게 BeFreed.ai는 단순한 학습 도구를 넘어 전략적 이점입니다. 다음은 여러분의 경쟁력을 높이는 방법입니다:

  • 시간 활용: 300페이지 분량의 백서를 10분짜리 간결한 오디오 요약으로 변환해 중요한 거버넌스 투표 전에 청취할 수 있습니다.
  • 맥락 유지: 플래시카드와 마인드맵을 활용해 프로토콜 세부 사항을 견고히 이해하고, 스마트 계약 인덱스를 작성할 때 활용합니다.
  • 다기능 성장: 개발 환경을 떠나지 않고도 디자인 씽킹 기본, 성장 루프 이해, Go 동시성 팁 등 다양한 스킬을 습득합니다.
  • 공유된 어휘: 팀 차원의 플레이리스트를 만들어 모든 기여자가 동일하고 정제된 정보를 학습하도록 함으로써 협업과 정렬을 강화합니다.

BlockEden.xyz 워크플로에 BeFreed.ai 적용하기

BeFreed.ai를 기존 개발 프로세스에 통합하는 것은 매끄럽고 즉시 효과를 발휘합니다:

  1. 스펙을 넣기: 최신 토크노믹스 PDF 혹은 YouTube 개발자 콜 URL을 BeFreed에 붙여넣어 즉시 이해하기 쉬운 요약을 받습니다.
  2. 플래시카드 내보내기: CI 실행 중에 핵심 개념을 복습합니다. 지속적인 컨텍스트 전환으로 인한 정신 피로보다 반복 학습이 훨씬 효과적입니다.
  3. 문서에 링크 삽입: 각 API 레퍼런스 옆에 BeFreed 요약 URL을 삽입해 새로운 팀원이 빠르게 적응하도록 돕습니다.
  4. 최신 유지: 떠오르는 L2에 대한 주간 다이제스트를 BeFreed에 설정하고, BlockEden.xyz의 멀티체인 RPC 서비스를 활용해 즉시 프로토타입을 제작합니다.

시작하기

BeFreed.ai는 현재 iOS, Android 및 웹에서 이용할 수 있습니다. 다음 BlockEden.xyz 프로젝트 스프린트에서 직접 사용해 보시고 학습 및 개발 속도를 어떻게 향상시키는지 경험해 보세요. 저희 팀은 이미 더 긴밀한 통합을 모색 중이며, 웹훅이 병합된 모든 PR 설명을 자동으로 포괄적인 학습 세트로 변환하는 미래를 상상해 보세요.

MCP를 통한 AI와 Web3의 연결: 종합적 분석

· 약 14분
Dora Noda
Software Engineer

서론

AI와 Web3는 강력한 방식으로 융합되고 있으며, 이제 AI 범용 인터페이스는 탈중앙화 웹을 위한 연결 조직으로 구상되고 있습니다. 이러한 융합에서 나타나는 핵심 개념은 MCP로, 이는 Anthropic이 소개한 "모델 컨텍스트 프로토콜(Model Context Protocol)"을 의미하거나, 더 넓은 논의에서는 **메타버스 연결 프로토콜(Metaverse Connection Protocol)**로 느슨하게 설명됩니다. 본질적으로 MCP는 AI 시스템이 외부 도구 및 네트워크와 자연스럽고 안전한 방식으로 상호 작용할 수 있게 하는 표준화된 프레임워크로, 잠재적으로 **AI 에이전트를 Web3 생태계의 모든 곳에 "연결"**할 수 있습니다. 이 보고서는 AI 범용 인터페이스(대규모 언어 모델 에이전트 및 신경-기호 시스템 등)가 MCP를 통해 Web3 세계의 모든 것을 어떻게 연결할 수 있는지에 대한 포괄적인 분석을 제공하며, 역사적 배경, 기술 아키텍처, 산업 환경, 위험 및 미래 잠재력을 다룹니다.

1. 개발 배경

1.1 Web3의 진화와 미완의 약속

"Web3"라는 용어는 2014년경 블록체인 기반의 탈중앙화 웹을 설명하기 위해 만들어졌습니다. 그 비전은 야심 찼습니다: 사용자 소유권 중심의 무허가형 인터넷. 지지자들은 Web2의 중앙화된 인프라를 블록체인 기반의 대안으로 대체하는 것을 상상했습니다. 예를 들어, DNS를 위한 이더리움 네임 서비스(ENS), 스토리지를 위한 파일코인(Filecoin)이나 IPFS, 금융 레일을 위한 DeFi 등이 있었습니다. 이론적으로 이는 빅테크 플랫폼으로부터 통제권을 빼앗고 개인에게 데이터, 신원, 자산에 대한 자기 주권을 부여하는 것이었습니다.

현실은 기대에 미치지 못했습니다. 수년간의 개발과 과대광고에도 불구하고 Web3의 주류 영향력은 미미했습니다. 일반 인터넷 사용자들이 탈중앙화 소셜 미디어로 몰려들거나 개인 키를 관리하기 시작하지 않았습니다. 주요 원인으로는 열악한 사용자 경험, 느리고 비싼 트랜잭션, 세간의 이목을 끈 사기, 규제 불확실성 등이 있었습니다. 탈중앙화된 "소유권 웹"은 대체로 틈새 커뮤니티를 넘어서 "실현되지 못했습니다". 2020년대 중반까지 암호화폐 지지자들조차 Web3가 일반 사용자에게 패러다임 전환을 가져오지 못했다는 것을 인정했습니다.

한편, AI는 혁명을 겪고 있었습니다. 자본과 개발자 인재가 암호화폐에서 AI로 이동하면서 딥러닝과 파운데이션 모델(GPT-3, GPT-4 등)의 혁신적인 발전이 대중의 상상력을 사로잡았습니다. 생성형 AI는 암호화폐 애플리케이션이 고군분투했던 방식으로 콘텐츠, 코드, 결정을 생성하는 등 명확한 유용성을 보여주었습니다. 실제로, 대규모 언어 모델이 불과 몇 년 만에 미친 영향은 10년간의 블록체인 사용자 채택 속도를 현저히 앞질렀습니다. 이러한 대조는 일부 사람들로 하여금 *"Web3는 암호화폐에 낭비되었다"*고 비꼬게 했고, 진정한 Web 3.0은 AI 물결에서 나타나고 있다고 말하게 했습니다.

1.2 AI 범용 인터페이스의 부상

수십 년에 걸쳐 사용자 인터페이스는 정적인 웹 페이지(Web1.0)에서 상호작용적인 앱(Web2.0)으로 진화했지만, 항상 버튼을 클릭하고 양식을 채우는 한계 내에 있었습니다. 현대 AI, 특히 대규모 언어 모델(LLM)과 함께 새로운 인터페이스 패러다임이 등장했습니다: 자연어. 사용자는 평이한 언어로 의도를 표현하기만 하면 AI 시스템이 여러 도메인에 걸쳐 복잡한 작업을 실행할 수 있습니다. 이러한 변화는 너무나 심오해서 일부에서는 "Web 3.0"을 이전의 블록체인 중심 정의가 아닌 AI 기반 에이전트의 시대("에이전틱 웹")로 재정의할 것을 제안합니다.

그러나 자율 AI 에이전트에 대한 초기 실험은 결정적인 병목 현상을 드러냈습니다. AutoGPT와 같은 프로토타입 에이전트들은 텍스트나 코드를 생성할 수는 있었지만, 외부 시스템 및 서로와 통신할 수 있는 견고한 방법이 부족했습니다. 상호 운용성을 위한 *"공통된 AI 네이티브 언어"*가 없었습니다. 도구나 데이터 소스와의 각 통합은 맞춤형 해킹이었고, AI 간의 상호 작용에는 표준 프로토콜이 없었습니다. 실질적으로, AI 에이전트는 뛰어난 추론 능력을 가졌을지라도 웹 앱이나 온체인 서비스를 사용하는 데 필요한 작업을 실행하는 데 실패할 수 있었습니다. 단순히 해당 시스템과 대화하는 방법을 몰랐기 때문입니다. 이러한 불일치, 즉 강력한 두뇌와 원시적인 I/O는 마치 서투른 GUI 뒤에 갇힌 초지능 소프트웨어와 같았습니다.

1.3 융합과 MCP의 출현

2024년까지 AI가 잠재력을 최대한 발휘하고 Web3가 약속을 이행하기 위해서는 융합이 필요하다는 것이 명백해졌습니다. AI 에이전트는 Web3의 기능(탈중앙화 앱, 계약, 데이터)에 원활하게 접근해야 하고, Web3는 AI가 제공할 수 있는 더 많은 지능과 사용성이 필요합니다. 이것이 바로 **MCP(모델 컨텍스트 프로토콜)**가 탄생한 배경입니다. 2024년 말 Anthropic에 의해 소개된 MCP는 LLM에게 자연스럽게 느껴지는 AI-도구 통신을 위한 개방형 표준입니다. 이는 AI "호스트"(ChatGPT, Claude 등)가 MCP 서버를 통해 다양한 외부 도구와 리소스를 찾고 사용할 수 있는 구조화되고 발견 가능한 방법을 제공합니다. 즉, MCP는 AI 에이전트가 각 통합을 맞춤 코딩하지 않고도 웹 서비스, API, 심지어 블록체인 기능에 연결할 수 있게 하는 공통 인터페이스 계층입니다.

MCP를 **"AI 인터페이스의 USB-C"**라고 생각해보세요. USB-C가 장치 연결 방식을 표준화하여 각 장치마다 다른 케이블이 필요 없게 만든 것처럼, MCP는 AI 에이전트가 도구 및 데이터에 연결하는 방식을 표준화합니다. 개발자는 모든 서비스(Slack 대 Gmail 대 이더리움 노드)에 대해 서로 다른 API 호출을 하드코딩하는 대신, MCP 사양을 한 번 구현하면 MCP 호환 AI는 해당 서비스를 사용하는 방법을 이해할 수 있습니다. 주요 AI 기업들은 그 중요성을 빠르게 인식했습니다. Anthropic은 MCP를 오픈소스로 공개했으며, OpenAI와 Google 같은 회사들은 자사 모델에 이에 대한 지원을 구축하고 있습니다. 이러한 움직임은 MCP(또는 유사한 "메타 연결 프로토콜")가 마침내 AI와 Web3를 확장 가능한 방식으로 연결하는 중추가 될 수 있음을 시사합니다.

특히, 일부 기술자들은 이러한 AI 중심의 연결성이 Web3.0의 진정한 실현이라고 주장합니다. Simba Khadder의 말에 따르면, "MCP는 LLM과 애플리케이션 간의 API를 표준화하는 것을 목표로 하며," 이는 REST API가 Web 2.0을 가능하게 한 것과 유사합니다. 즉, Web3의 다음 시대는 단지 블록체인이 아닌 지능형 에이전트 인터페이스에 의해 정의될 수 있습니다. 탈중앙화 그 자체를 위한 탈중앙화 대신, AI와의 융합은 자연어와 자율 에이전트 뒤에 복잡성을 숨김으로써 탈중앙화를 유용하게 만들 수 있습니다. 이 보고서의 나머지 부분에서는 기술적으로나 실질적으로 AI 범용 인터페이스가 (MCP와 같은 프로토콜을 통해) Web3 세계의 모든 것을 어떻게 연결할 수 있는지 자세히 살펴봅니다.

2. 기술 아키텍처: Web3 기술을 연결하는 AI 인터페이스

AI 에이전트를 Web3 스택에 내장하려면 블록체인 네트워크 및 스마트 계약, 탈중앙화 스토리지, 신원 시스템, 토큰 기반 경제 등 여러 수준에서의 통합이 필요합니다. 대규모 파운데이션 모델부터 하이브리드 신경-기호 시스템에 이르기까지 AI 범용 인터페이스는 이러한 구성 요소들을 연결하는 "범용 어댑터" 역할을 할 수 있습니다. 아래에서는 이러한 통합의 아키텍처를 분석합니다.

그림: MCP 아키텍처의 개념도. AI 호스트(Claude나 ChatGPT와 같은 LLM 기반 앱)가 MCP 클라이언트를 사용하여 다양한 MCP 서버에 연결하는 방법을 보여줍니다. 각 서버는 외부 도구나 서비스(예: Slack, Gmail, 캘린더 또는 로컬 데이터)에 대한 브리지를 제공하며, 이는 범용 허브를 통해 연결되는 주변 장치와 유사합니다. 이 표준화된 MCP 인터페이스를 통해 AI 에이전트는 하나의 공통 프로토콜을 통해 원격 서비스와 온체인 리소스에 접근할 수 있습니다.

2.1 Web3 클라이언트로서의 AI 에이전트 (블록체인과의 통합)

Web3의 핵심에는 블록체인과 스마트 계약이 있습니다. 이는 신뢰가 필요 없는 방식으로 로직을 강제할 수 있는 탈중앙화된 상태 기계입니다. AI 인터페이스는 이들과 어떻게 상호 작용할 수 있을까요? 두 가지 방향을 고려할 수 있습니다.

  • 블록체인에서 데이터를 읽는 AI: AI 에이전트는 결정을 내리기 위한 맥락으로 온체인 데이터(예: 토큰 가격, 사용자의 자산 잔액, DAO 제안)가 필요할 수 있습니다. 전통적으로 블록체인 데이터를 검색하려면 노드 RPC API나 서브그래프 데이터베이스와 상호 작용해야 합니다. MCP와 같은 프레임워크를 사용하면, AI는 표준화된 "블록체인 데이터" MCP 서버에 질의하여 실시간 온체인 정보를 가져올 수 있습니다. 예를 들어, MCP 지원 에이전트는 특정 토큰의 최신 거래량을 묻거나 스마트 계약의 상태를 물을 수 있으며, MCP 서버는 블록체인에 연결하는 저수준 세부 사항을 처리하고 AI가 사용할 수 있는 형식으로 데이터를 반환합니다. 이는 AI를 특정 블록체인의 API 형식에서 분리하여 상호 운용성을 높입니다.

  • 블록체인에 데이터를 쓰는 AI: 더 강력하게, AI 에이전트는 Web3 통합을 통해 스마트 계약 호출이나 트랜잭션을 실행할 수 있습니다. 예를 들어, AI는 특정 조건이 충족되면 탈중앙화 거래소에서 자율적으로 거래를 실행하거나 스마트 계약의 매개변수를 조정할 수 있습니다. 이는 AI가 블록체인 트랜잭션 기능을 래핑하는 MCP 서버를 호출함으로써 달성됩니다. 구체적인 예로는 EVM 체인을 위한 thirdweb MCP 서버가 있으며, 이는 MCP 호환 AI 클라이언트가 체인별 메커니즘을 추상화하여 이더리움, 폴리곤, BSC 등과 상호 작용할 수 있게 합니다. 이러한 도구를 사용하여 AI 에이전트는 "인간의 개입 없이" 온체인 작업을 트리거할 수 있으며, 이는 자율 dApp을 가능하게 합니다. 예를 들어, 시장 상황이 변할 때 트랜잭션에 서명하여 자체적으로 리밸런싱하는 AI 기반 DeFi 볼트가 있습니다.

내부적으로 이러한 상호 작용은 여전히 지갑, 키, 가스비에 의존하지만, AI 인터페이스는 트랜잭션을 수행하기 위해 (적절한 보안 샌드박스와 함께) 지갑에 대한 통제된 접근 권한을 부여받을 수 있습니다. 오라클과 크로스체인 브리지도 중요한 역할을 합니다. 체인링크(Chainlink)와 같은 오라클 네트워크는 AI와 블록체인 간의 다리 역할을 하여, AI 출력이 신뢰할 수 있는 방식으로 온체인에 제공될 수 있도록 합니다. 예를 들어, 체인링크의 크로스체인 상호운용성 프로토콜(CCIP)은 신뢰할 수 있다고 판단되는 AI 모델이 사용자를 대신하여 여러 다른 체인에 걸쳐 여러 계약을 동시에 트리거할 수 있게 합니다. 요약하자면, AI 범용 인터페이스는 표준화된 프로토콜을 통해 블록체인 데이터를 소비하고 블록체인 트랜잭션을 생성할 수 있는 새로운 유형의 Web3 클라이언트 역할을 할 수 있습니다.

2.2 신경-기호 시너지: AI 추론과 스마트 계약의 결합

AI-Web3 통합의 흥미로운 측면 중 하나는 AI의 학습 능력(신경망)과 스마트 계약의 엄격한 논리(기호 규칙)를 결합하는 신경-기호 아키텍처의 잠재력입니다. 실제로 이는 AI 에이전트가 비정형적인 의사 결정을 처리하고 특정 작업을 검증 가능한 실행을 위해 스마트 계약에 전달하는 것을 의미할 수 있습니다. 예를 들어, AI는 시장 심리(모호한 작업)를 분석할 수 있지만, 사전에 설정된 위험 규칙을 따르는 결정론적 스마트 계약을 통해 거래를 실행할 수 있습니다. MCP 프레임워크 및 관련 표준은 AI에게 계약 함수를 호출하거나 행동하기 전에 DAO의 규칙을 질의할 수 있는 공통 인터페이스를 제공함으로써 이러한 핸드오프를 실현 가능하게 합니다.

구체적인 예로는 **싱귤래리티넷(SingularityNET)의 AI-DSL(AI 도메인 특화 언어)**이 있으며, 이는 탈중앙화 네트워크상의 AI 에이전트 간 통신을 표준화하는 것을 목표로 합니다. 이는 신경-기호 통합을 향한 한 걸음으로 볼 수 있습니다. 즉, 에이전트가 서로에게 AI 서비스나 데이터를 요청하기 위한 형식 언어(기호)입니다. 유사하게, **딥마인드(DeepMind)의 알파코드(AlphaCode)**나 다른 프로젝트들도 결국 연결되어 스마트 계약이 온체인 문제 해결을 위해 AI 모델을 호출할 수 있게 될 것입니다. 오늘날 대규모 AI 모델을 직접 온체인에서 실행하는 것은 비현실적이지만, 하이브리드 접근 방식이 등장하고 있습니다. 예를 들어, 특정 블록체인은 영지식 증명이나 신뢰 실행 환경을 통해 ML 계산의 검증을 허용하여 오프체인 AI 결과의 온체인 검증을 가능하게 합니다. 요약하자면, 기술 아키텍처는 AI 시스템과 블록체인 스마트 계약을 공통 프로토콜을 통해 조율되는 상호 보완적인 구성 요소로 구상합니다. AI는 인식과 개방형 작업을 처리하고, 블록체인은 무결성, 메모리, 합의된 규칙의 집행을 제공합니다.

2.3 AI를 위한 탈중앙화 스토리지 및 데이터

AI는 데이터를 기반으로 성장하며, Web3는 데이터 저장 및 공유를 위한 새로운 패러다임을 제공합니다. 탈중앙화 스토리지 네트워크(IPFS/파일코인, Arweave, Storj 등)는 AI 모델 아티팩트의 저장소이자 훈련 데이터의 소스로 사용될 수 있으며, 블록체인 기반 접근 제어를 제공합니다. AI 범용 인터페이스는 MCP 등을 통해 Web2 API에서와 마찬가지로 쉽게 탈중앙화 스토리지에서 파일이나 지식을 가져올 수 있습니다. 예를 들어, AI 에이전트는 적절한 키나 지불 수단이 있다면 오션 프로토콜(Ocean Protocol)의 마켓에서 데이터셋을 가져오거나 분산 스토리지에서 암호화된 파일을 가져올 수 있습니다.

특히 오션 프로토콜은 자신을 "AI 데이터 경제" 플랫폼으로 자리매김했으며, 블록체인을 사용하여 데이터와 심지어 AI 서비스를 토큰화합니다. 오션에서는 데이터셋이 접근을 제어하는 데이터토큰으로 표현됩니다. AI 에이전트는 데이터토큰을 획득하고(아마도 암호화폐로 지불하거나 특정 접근 권한을 통해) 오션 MCP 서버를 사용하여 실제 데이터를 분석용으로 검색할 수 있습니다. 오션의 목표는 AI를 위해 "잠자고 있는 데이터"를 잠금 해제하고, 프라이버시를 보존하면서 공유를 장려하는 것입니다. 따라서 Web3에 연결된 AI는 이전에 사일로화되었던 개인 데이터 금고에서부터 개방형 정부 데이터에 이르기까지 방대하고 탈중앙화된 정보 코퍼스를 활용할 수 있습니다. 블록체인은 데이터 사용이 투명하고 공정하게 보상받을 수 있도록 보장하여, 더 많은 데이터가 AI에 제공되고 더 많은 AI 기여(훈련된 모델 등)가 수익화될 수 있는 선순환을 촉진합니다.

탈중앙화 신원 시스템도 여기서 역할을 합니다(다음 하위 섹션에서 더 자세히 논의됨). 이는 누가 또는 무엇이 특정 데이터에 접근할 수 있는지 제어하는 데 도움이 될 수 있습니다. 예를 들어, 의료 AI 에이전트는 환자의 개인 IPFS 스토리지에서 의료 데이터셋을 해독하기 전에 검증 가능한 자격 증명(HIPAA 또는 유사한 규정 준수에 대한 온체인 증명)을 제시해야 할 수 있습니다. 이러한 방식으로 기술 아키텍처는 적절한 경우 AI로 데이터가 흐르도록 보장하되, 권한을 강제하기 위해 온체인 거버넌스와 감사 추적을 사용합니다.

2.4 탈중앙화 환경에서의 신원 및 에이전트 관리

자율 AI 에이전트가 Web3와 같은 개방형 생태계에서 작동할 때, 신원과 신뢰는 가장 중요해집니다. 탈중앙화 신원(DID) 프레임워크는 암호학적으로 검증될 수 있는 AI 에이전트를 위한 디지털 신원을 설정하는 방법을 제공합니다. 각 에이전트(또는 이를 배포하는 인간/조직)는 DID와 관련 검증 가능한 자격 증명을 가질 수 있으며, 이는 그 속성과 권한을 명시합니다. 예를 들어, AI 트레이딩 봇은 특정 위험 한도 내에서 작동할 수 있음을 인증하는 규제 샌드박스에서 발급한 자격 증명을 가질 수 있거나, AI 콘텐츠 중재자는 신뢰할 수 있는 조직에 의해 생성되었고 편향성 테스트를 거쳤음을 증명할 수 있습니다.

온체인 신원 등록소와 평판 시스템을 통해 Web3 세계는 AI 행동에 대한 책임성을 강제할 수 있습니다. AI 에이전트가 수행하는 모든 트랜잭션은 그 ID로 추적될 수 있으며, 문제가 발생하면 자격 증명이 누가 만들었는지 또는 누가 책임이 있는지 알려줍니다. 이는 중요한 과제를 해결합니다. 신원이 없으면 악의적인 행위자가 시스템을 악용하거나 잘못된 정보를 퍼뜨리기 위해 가짜 AI 에이전트를 만들 수 있으며, 아무도 봇과 합법적인 서비스를 구별할 수 없습니다. 탈중앙화 신원은 강력한 인증을 가능하게 하고 진짜 AI 에이전트와 스푸핑을 구별함으로써 이를 완화하는 데 도움이 됩니다.

실제로 Web3와 통합된 AI 인터페이스는 신원 프로토콜을 사용하여 자신의 행동과 요청에 서명합니다. 예를 들어, AI 에이전트가 도구를 사용하기 위해 MCP 서버를 호출할 때, 서버가 승인된 에이전트로부터의 호출임을 확인할 수 있도록 탈중앙화 신원에 연결된 토큰이나 서명을 포함할 수 있습니다. 블록체인 기반 신원 시스템(이더리움의 ERC-725 또는 원장에 고정된 W3C DID 등)은 이 검증이 신뢰가 필요 없고 전 세계적으로 검증 가능하도록 보장합니다. 새롭게 등장하는 "AI 지갑" 개념은 이와 관련이 있습니다. 본질적으로 AI 에이전트에게 신원과 연결된 암호화폐 지갑을 제공하여 키를 관리하고, 서비스 비용을 지불하거나, (잘못된 행동에 대해 삭감될 수 있는) 보증금으로 토큰을 스테이킹할 수 있게 합니다. 예를 들어, ArcBlock은 *"AI 에이전트가 탈중앙화 환경에서 책임감 있게 운영되기 위해 지갑이 필요하다"*고 논의했습니다.

요약하자면, 기술 아키텍처는 AI 에이전트를 Web3의 일등 시민으로 구상하며, 각 에이전트는 온체인 신원과 시스템에 대한 지분을 가질 수 있고, MCP와 같은 프로토콜을 사용하여 상호 작용합니다. 이는 신뢰의 웹을 만듭니다. 스마트 계약은 협력하기 전에 AI의 자격 증명을 요구할 수 있으며, 사용자는 특정 온체인 인증을 충족하는 AI에게만 작업을 위임하도록 선택할 수 있습니다. 이는 AI의 능력과 블록체인의 신뢰 보증이 결합된 것입니다.

2.5 AI를 위한 토큰 경제 및 인센티브

토큰화는 Web3의 특징이며, AI 통합 영역으로도 확장됩니다. 토큰을 통해 경제적 인센티브를 도입함으로써 네트워크는 AI 개발자와 에이전트 자체 모두에게 바람직한 행동을 장려할 수 있습니다. 몇 가지 패턴이 나타나고 있습니다.

  • 서비스에 대한 지불: AI 모델과 서비스는 온체인에서 수익화될 수 있습니다. **싱귤래리티넷(SingularityNET)**은 개발자가 AI 서비스를 배포하고 각 호출에 대해 네이티브 토큰(AGIX)으로 사용자에게 요금을 부과할 수 있도록 함으로써 이를 개척했습니다. MCP가 활성화된 미래에는 모든 AI 도구나 모델이 플러그 앤 플레이 서비스가 되어 사용량이 토큰이나 소액 결제를 통해 측정될 수 있다고 상상할 수 있습니다. 예를 들어, AI 에이전트가 MCP를 통해 타사 비전 API를 사용하는 경우, 서비스 제공업체의 스마트 계약으로 토큰을 전송하여 자동으로 지불을 처리할 수 있습니다. Fetch.ai도 유사하게 *"자율 경제 에이전트"*가 서비스와 데이터를 거래하는 마켓플레이스를 구상하며, 새로운 Web3 LLM(ASI-1)은 가치 교환을 위해 암호화폐 거래를 통합할 것으로 추정됩니다.

  • 스테이킹 및 평판: 품질과 신뢰성을 보장하기 위해 일부 프로젝트는 개발자나 에이전트에게 토큰을 스테이킹하도록 요구합니다. 예를 들어, DeMCP 프로젝트(탈중앙화 MCP 서버 마켓플레이스)는 유용한 MCP 서버를 만드는 개발자에게 보상하기 위해 토큰 인센티브를 사용할 계획이며, 서버 보안에 대한 약속의 표시로 토큰을 스테이킹하게 할 수도 있습니다. 평판도 토큰과 연결될 수 있습니다. 예를 들어, 지속적으로 좋은 성과를 내는 에이전트는 평판 토큰이나 긍정적인 온체인 리뷰를 축적할 수 있는 반면, 잘못된 행동을 하는 에이전트는 스테이크를 잃거나 부정적인 평가를 받을 수 있습니다. 이 토큰화된 평판은 위에서 언급한 신원 시스템에 피드백될 수 있습니다(스마트 계약이나 사용자는 에이전트를 신뢰하기 전에 온체인 평판을 확인).

  • 거버넌스 토큰: AI 서비스가 탈중앙화 플랫폼의 일부가 되면, 거버넌스 토큰은 커뮤니티가 그 진화를 이끌 수 있게 합니다. 싱귤래리티넷과 오션 같은 프로젝트에는 토큰 보유자가 프로토콜 변경이나 AI 이니셔티브 자금 지원에 투표하는 DAO가 있습니다. 싱귤래리티넷, Fetch.ai, 오션 프로토콜의 합병으로 새로 발표된 인공 초지능(ASI) 얼라이언스에서는 통합 토큰(ASI)이 공동 AI+블록체인 생태계의 방향을 결정하게 될 것입니다. 이러한 거버넌스 토큰은 채택할 표준(예: MCP 또는 A2A 프로토콜 지원), 인큐베이팅할 AI 프로젝트, AI 에이전트에 대한 윤리 지침 처리 방법과 같은 정책을 결정할 수 있습니다.

  • 접근 및 유틸리티: 토큰은 데이터(오션의 데이터토큰처럼)뿐만 아니라 AI 모델 사용에 대한 접근도 제어할 수 있습니다. 가능한 시나리오는 "모델 NFT" 또는 이와 유사한 것으로, 토큰을 소유하면 AI 모델의 출력에 대한 권리나 수익의 일부를 얻게 됩니다. 이는 탈중앙화 AI 마켓플레이스의 기반이 될 수 있습니다. 고성능 모델의 부분 소유권을 나타내는 NFT를 상상해보세요. 소유자들은 모델이 추론 작업에 사용될 때마다 공동으로 수익을 얻고, 미세 조정에 대해 투표할 수 있습니다. 실험적이지만, 이는 AI 자산에 적용된 Web3의 공유 소유권 정신과 일치합니다.

기술적으로 토큰을 통합한다는 것은 AI 에이전트가 지갑 기능이 필요하다는 것을 의미합니다(언급했듯이, 많은 에이전트가 자체 암호화폐 지갑을 가질 것입니다). MCP를 통해 AI는 잔액을 확인하고, 토큰을 보내거나, DeFi 프로토콜을 호출(아마도 서비스 비용을 지불하기 위해 한 토큰을 다른 토큰으로 교환)할 수 있는 *"지갑 도구"*를 가질 수 있습니다. 예를 들어, 이더리움에서 실행되는 AI 에이전트가 데이터셋

zkML과 암호학적 증명을 통한 검증 가능한 온체인 AI

· 약 32분
Dora Noda
Software Engineer

소개: 블록체인에서 검증 가능한 AI의 필요성

AI 시스템의 영향력이 커짐에 따라 그 결과물의 신뢰성을 보장하는 것이 중요해졌습니다. 전통적인 방법은 제도적 보증(본질적으로 "그냥 우리를 믿으세요")에 의존하며, 이는 암호학적 보장을 제공하지 않습니다. 이는 블록체인과 같은 탈중앙화된 환경에서 특히 문제가 되는데, 스마트 계약이나 사용자는 무거운 모델을 온체인에서 다시 실행할 수 없이 AI가 도출한 결과를 신뢰해야 하기 때문입니다. **영지식 머신러닝(zkML)**은 ML 연산의 _암호학적 검증_을 허용함으로써 이 문제를 해결합니다. 본질적으로 zkML은 증명자가 _"출력 $Y$는 입력 $X$에 대해 모델 $M$을 실행하여 나왔다"_는 간결한 증명을 생성할 수 있게 해주며, 이때 $X$나 $M$의 내부 세부 정보는 공개하지 않습니다. 이러한 영지식 증명(ZKP)은 누구나(또는 어떤 계약이든) 효율적으로 검증할 수 있어, AI 신뢰를 "정책에서 증명으로" 전환시킵니다.

AI의 온체인 검증 가능성은 블록체인이 연산 자체를 수행하는 대신 정확한 실행 증명을 검증함으로써 고급 연산(신경망 추론 등)을 통합할 수 있음을 의미합니다. 이는 광범위한 영향을 미칩니다. 스마트 계약은 AI 예측을 기반으로 결정을 내릴 수 있고, 탈중앙화된 자율 에이전트는 자신들의 알고리즘을 따랐음을 증명할 수 있으며, 크로스체인 또는 오프체인 연산 서비스는 검증 불가능한 오라클 대신 검증 가능한 결과물을 제공할 수 있습니다. 궁극적으로 zkML은 신뢰가 필요 없고 프라이버시를 보존하는 AI로 가는 길을 제시합니다. 예를 들어, AI 모델의 결정이 개인 데이터나 독점적인 모델 가중치를 노출하지 않고 정확하고 승인되었음을 증명할 수 있습니다. 이는 안전한 의료 분석부터 블록체인 게임, DeFi 오라클에 이르기까지 다양한 애플리케이션에 핵심적입니다.

zkML의 작동 원리: ML 추론을 간결한 증명으로 압축하기

높은 수준에서 zkML은 암호학적 증명 시스템과 ML 추론을 결합하여 복잡한 모델 평가를 작은 증명으로 "압축"할 수 있도록 합니다. 내부적으로 ML 모델(예: 신경망)은 많은 산술 연산(행렬 곱셈, 활성화 함수 등)으로 구성된 회로나 프로그램으로 표현됩니다. 모든 중간 값을 공개하는 대신, 증명자는 전체 연산을 오프체인에서 수행한 다음 영지식 증명 프로토콜을 사용하여 모든 단계가 올바르게 수행되었음을 증명합니다. 검증자는 증명과 일부 공개 데이터(최종 출력 및 모델 식별자 등)만으로 모델을 재실행하지 않고도 정확성을 암호학적으로 확신할 수 있습니다.

이를 달성하기 위해 zkML 프레임워크는 일반적으로 모델 연산을 ZKP에 적합한 형식으로 변환합니다.

  • 회로 컴파일: SNARK 기반 접근 방식에서는 모델의 연산 그래프가 산술 회로 또는 다항식 제약 조건 집합으로 컴파일됩니다. 신경망의 각 계층(컨볼루션, 행렬 곱셈, 비선형 활성화)은 입력이 주어졌을 때 출력이 정확함을 보장하는 제약 조건이 있는 하위 회로가 됩니다. 신경망은 다항식에 자연스럽게 적합하지 않은 비선형 연산(ReLU, Sigmoid 등)을 포함하기 때문에, 이를 효율적으로 처리하기 위해 룩업 테이블과 같은 기술이 사용됩니다. 예를 들어, ReLU(출력 = max(0, 입력))는 입력≥0일 때 출력이 입력과 같고 그렇지 않으면 0임을 검증하는 사용자 정의 제약 조건이나 룩업으로 강제할 수 있습니다. 최종 결과는 증명자가 만족해야 하는 암호학적 제약 조건 집합이며, 이는 모델이 올바르게 실행되었음을 암묵적으로 증명합니다.
  • 실행 추적 및 가상 머신: 대안은 zkVM 접근 방식에서처럼 모델 추론을 프로그램 추적으로 취급하는 것입니다. 예를 들어, JOLT zkVM은 RISC-V 명령어 집합을 대상으로 합니다. ML 모델(또는 이를 계산하는 코드)을 RISC-V로 컴파일한 다음 각 CPU 명령어가 올바르게 실행되었음을 증명할 수 있습니다. JOLT는 "룩업 특이점" 기술을 도입하여, 비용이 많이 드는 산술 제약 조건을 각 유효한 CPU 연산에 대한 빠른 테이블 룩업으로 대체합니다. 모든 연산(덧셈, 곱셈, 비트 연산 등)은 사전 계산된 유효한 결과의 거대한 테이블에서 룩업을 통해 확인되며, 이를 효율적으로 유지하기 위해 특화된 인수(Lasso/SHOUT)를 사용합니다. 이는 증명자의 작업량을 극적으로 줄입니다. 복잡한 64비트 연산조차도 많은 산술 제약 조건 대신 증명에서 단일 테이블 룩업이 됩니다.
  • 상호작용 프로토콜 (GKR 합계 검사): 세 번째 접근 방식은 GKR(Goldwasser–Kalai–Rotblum)과 같은 상호작용 증명을 사용하여 계층화된 연산을 검증하는 것입니다. 여기서 모델의 연산은 계층화된 산술 회로로 간주됩니다(각 신경망 계층은 회로 그래프의 한 계층임). 증명자는 모델을 정상적으로 실행한 다음, 각 계층의 출력이 입력에 따라 정확함을 증명하기 위해 _합계 검사 프로토콜_에 참여합니다. Lagrange의 접근 방식(다음에서 자세히 설명할 DeepProve)에서는 증명자와 검증자가 상호작용 다항식 프로토콜(Fiat-Shamir를 통해 비상호작용적으로 만듦)을 수행하여 각 계층의 연산을 다시 수행하지 않고 일관성을 확인합니다. 이 합계 검사 방법은 단일의 정적 회로를 생성하는 것을 피하고, 대신 최소한의 암호학적 연산(주로 해싱 또는 다항식 평가)으로 단계별로 _연산의 일관성_을 검증합니다.

어떤 접근 방식을 사용하든, 결과는 전체 추론의 정확성을 증명하는 간결한 증명(일반적으로 수 킬로바이트에서 수십 킬로바이트)입니다. 이 증명은 _영지식_이므로, 모든 비밀 입력(개인 데이터 또는 모델 매개변수)은 숨겨질 수 있습니다. 이는 증명에 영향을 미치지만 검증자에게는 공개되지 않습니다. 의도된 공개 출력이나 주장만이 공개됩니다. 이는 _"모델 $M$을 환자 데이터 $X$에 적용하면 진단 $Y$가 나온다는 것을 $X$나 모델의 가중치를 공개하지 않고 증명하라"_와 같은 시나리오를 가능하게 합니다.

온체인 검증 활성화: 증명이 생성되면 블록체인에 게시될 수 있습니다. 스마트 계약은 증명을 확인하기 위한 검증 로직을 포함할 수 있으며, 종종 사전 컴파일된 암호학적 프리미티브를 사용합니다. 예를 들어, 이더리움은 많은 zk-SNARK 검증기에서 사용되는 BLS12-381 페어링 연산을 위한 사전 컴파일을 가지고 있어, SNARK 증명의 온체인 검증을 효율적으로 만듭니다. STARK(해시 기반 증명)는 더 크지만, 신중한 최적화나 일부 신뢰 가정(예를 들어, StarkWare의 L2는 이더리움에서 STARK 증명을 온체인 검증기 계약으로 검증하지만 SNARK보다 가스 비용이 높음)을 통해 여전히 온체인에서 검증될 수 있습니다. 핵심은 체인이 ML 모델을 실행할 필요 없이, 원래 연산보다 훨씬 저렴한 검증만 실행한다는 것입니다. 요약하면, zkML은 _비용이 많이 드는 AI 추론을 블록체인(또는 모든 검증자)이 밀리초에서 초 단위로 확인할 수 있는 작은 증명으로 압축_합니다.

Lagrange DeepProve: zkML의 혁신적인 아키텍처와 성능

Lagrange Labs의 DeepProve는 속도와 확장성에 초점을 맞춘 최첨단 zkML 추론 프레임워크입니다. 2025년에 출시된 DeepProve는 Ezkl과 같은 이전 솔루션보다 극적으로 빠른 새로운 증명 시스템을 도입했습니다. 그 설계는 _합계 검사를 포함한 GKR 상호작용 증명 프로토콜_과 신경망 회로에 대한 특화된 최적화를 중심으로 합니다. DeepProve의 작동 방식과 성능 달성 방법은 다음과 같습니다.

  • 일회성 전처리: 개발자는 훈련된 신경망(현재 다층 퍼셉트론 및 인기 있는 CNN 아키텍처 지원)으로 시작합니다. 모델은 표준 그래프 표현인 ONNX 형식으로 내보내집니다. 그런 다음 DeepProve의 도구는 ONNX 모델을 파싱하고 효율적인 필드 산술을 위해 양자화(가중치를 고정 소수점/정수 형태로 변환)합니다. 이 단계에서 암호학적 프로토콜을 위한 증명 및 검증 키도 생성합니다. 이 설정은 모델당 한 번만 수행되며 추론마다 반복할 필요가 없습니다. DeepProve는 통합의 용이성을 강조합니다: "모델을 ONNX로 내보내기 → 일회성 설정 → 증명 생성 → 어디서든 검증".

  • 증명 (추론 + 증명 생성): 설정 후, 증명자(사용자, 서비스 또는 Lagrange의 탈중앙화 증명자 네트워크에서 실행 가능)는 새로운 입력 $X$를 받아 모델 $M$을 실행하여 출력 $Y$를 얻습니다. 이 실행 동안 DeepProve는 각 계층의 연산에 대한 실행 추적을 기록합니다. SNARK 접근 방식처럼 모든 곱셈을 정적 회로로 미리 변환하는 대신, DeepProve는 선형 시간 GKR 프로토콜을 사용하여 각 계층을 즉석에서 검증합니다. 각 네트워크 계층에 대해 증명자는 계층의 입력과 출력에 커밋하고(예: 암호학적 해시 또는 다항식 커밋을 통해), 그런 다음 출력이 계층의 함수에 따라 실제로 입력에서 비롯되었음을 증명하기 위해 합계 검사 인수에 참여합니다. 합계 검사 프로토콜은 실제 값을 공개하지 않고 계층의 연산을 인코딩하는 다항식의 평가 합계의 정확성을 검증자에게 반복적으로 확신시킵니다. 비선형 연산(ReLU, softmax 등)은 DeepProve에서 _룩업 인수_를 통해 효율적으로 처리됩니다. 활성화의 출력이 계산되면, DeepProve는 각 출력이 해당 함수에 대해 사전 계산된 테이블의 유효한 입력-출력 쌍에 해당함을 증명할 수 있습니다. 계층별로 증명이 생성된 다음, 전체 모델의 순방향 전파를 다루는 하나의 간결한 증명으로 집계됩니다. 암호학의 무거운 작업은 최소화됩니다. DeepProve의 증명자는 거대한 제약 조건 시스템을 푸는 대신, 주로 일반적인 수치 연산(실제 추론)과 일부 가벼운 암호학적 커밋을 수행합니다.

  • 검증: 검증자는 최종 간결한 증명과 함께 몇 가지 공개 값(일반적으로 모델의 커밋된 식별자($M$의 가중치에 대한 암호학적 커밋), 입력 $X$(비공개가 아닌 경우), 주장된 출력 $Y$)을 사용하여 정확성을 확인합니다. DeepProve 시스템에서의 검증은 합계 검사 프로토콜의 트랜스크립트와 최종 다항식 또는 해시 커밋을 검증하는 것을 포함합니다. 이는 고전적인 SNARK를 검증하는 것(몇 번의 페어링일 수 있음)보다 더 복잡하지만, _모델을 다시 실행하는 것보다 훨씬 저렴_합니다. Lagrange의 벤치마크에서, 중간 크기 CNN에 대한 DeepProve 증명을 검증하는 데 소프트웨어에서 0.5초 정도 걸립니다. 이는 예를 들어 수십만 개의 매개변수를 가진 컨볼루션 네트워크가 올바르게 실행되었음을 확인하는 데 약 0.5초가 걸린다는 의미이며, 이는 검증을 위해 GPU에서 해당 CNN을 순진하게 재계산하는 것보다 500배 이상 빠릅니다. (실제로 DeepProve는 CNN에 대해 최대 521배 빠른 검증, MLP에 대해 _671배 빠른 검증_을 재실행과 비교하여 측정했습니다.) 증명 크기는 온체인으로 전송하기에 충분히 작으며(수십 KB), 0.5초의 연산은 신중한 가스 최적화나 레이어 2 실행이 필요할 수 있지만, 필요하다면 스마트 계약에서 검증을 수행할 수 있습니다.

아키텍처 및 도구: DeepProve는 Rust로 구현되었으며 개발자를 위한 툴킷(zkml 라이브러리)을 제공합니다. ONNX 모델 그래프를 기본적으로 지원하므로 PyTorch나 TensorFlow의 모델(내보내기 후)과 호환됩니다. 증명 프로세스는 현재 최대 수백만 개의 매개변수를 가진 모델을 대상으로 합니다(테스트에는 4백만 매개변수 밀집 네트워크 포함). DeepProve는 다중 선형 다항식 커밋(계층 출력에 커밋하기 위해), 연산 검증을 위한 합계 검사 프로토콜, 비선형 연산을 위한 룩업 인수 등 여러 암호학적 구성 요소를 조합하여 활용합니다. 특히 Lagrange의 오픈 소스 저장소는 이전 작업(Scroll의 Ceno 프로젝트에서 온 합계 검사 및 GKR 구현)을 기반으로 구축되었음을 인정하며, 이는 zkML과 영지식 롤업 연구의 교차점을 나타냅니다.

실시간 확장성을 달성하기 위해 Lagrange는 DeepProve를 **증명자 네트워크(Prover Network)**와 결합합니다. 이는 전문 ZK 증명자들의 탈중앙화 네트워크입니다. 무거운 증명 생성은 이 네트워크에 오프로드될 수 있습니다. 애플리케이션이 추론 증명이 필요할 때, 작업을 Lagrange의 네트워크에 보내면, 많은 운영자(보안을 위해 EigenLayer에 스테이킹됨)가 증명을 계산하고 결과를 반환합니다. 이 네트워크는 신뢰할 수 있는 증명 생성을 경제적으로 인센티브화합니다(악의적이거나 실패한 작업은 운영자를 슬래싱함). 증명자들에게 작업을 분산시키고(잠재적으로 GPU나 ASIC 활용), Lagrange 증명자 네트워크는 최종 사용자로부터 복잡성과 비용을 숨깁니다. 그 결과는 빠르고, 확장 가능하며, 탈중앙화된 zkML 서비스입니다: "검증 가능한 AI 추론을 빠르고 저렴하게".

성능 이정표: DeepProve의 주장은 이전 최첨단 기술인 Ezkl과의 벤치마크로 뒷받침됩니다. 약 264k 매개변수를 가진 CNN(CIFAR-10 규모 모델)의 경우, DeepProve의 증명 시간은 약 1.24초였던 반면, Ezkl은 약 196초로, 약 158배 더 빨랐습니다. 4백만 개의 매개변수를 가진 더 큰 밀집 네트워크의 경우, DeepProve는 추론을 약 2.3초 만에 증명했지만, Ezkl은 약 126.8초가 걸렸습니다(약 54배 더 빠름). 검증 시간도 단축되었습니다. DeepProve는 264k CNN 증명을 약 0.6초 만에 검증했지만, Ezkl 증명(Halo2 기반)을 CPU에서 검증하는 데는 5분 이상 걸렸습니다. 이러한 속도 향상은 DeepProve의 거의 선형적인 복잡성에서 비롯됩니다. 증명자는 연산 수에 따라 대략 _O(n)_으로 확장되는 반면, 회로 기반 SNARK 증명자는 종종 초선형적인 오버헤드(FFT 및 다항식 커밋 확장)를 가집니다. 실제로 DeepProve의 증명자 처리량은 일반 추론 런타임의 한 자릿수 이내일 수 있습니다. 최근 GKR 시스템은 대규모 행렬 곱셈에 대해 원시 실행보다 10배 미만으로 느릴 수 있으며, 이는 ZK에서 인상적인 성과입니다. 이는 _실시간 또는 온디맨드 증명_을 더 실현 가능하게 만들어, 상호작용 애플리케이션에서 검증 가능한 AI의 길을 열어줍니다.

사용 사례: Lagrange는 이미 Web3 및 AI 프로젝트와 협력하여 zkML을 적용하고 있습니다. 예시 사용 사례로는 검증 가능한 NFT 특성(게임 캐릭터나 수집품의 AI 생성 진화가 승인된 모델에 의해 계산되었음을 증명), AI 콘텐츠의 출처(딥페이크와 싸우기 위해 이미지나 텍스트가 특정 모델에 의해 생성되었음을 증명), DeFi 위험 모델(독점 데이터를 공개하지 않고 금융 위험을 평가하는 모델의 출력을 증명), 의료 또는 금융에서의 프라이빗 AI 추론(병원이 환자 데이터를 노출하지 않고 정확성을 보장하는 증명과 함께 AI 예측을 받을 수 있음) 등이 있습니다. AI 출력을 검증 가능하고 프라이버시를 보존하게 만듦으로써, DeepProve는 탈중앙화 시스템에서 _"신뢰할 수 있는 AI"_의 문을 엽니다. 이는 _"블랙박스 모델에 대한 맹목적인 신뢰"_의 시대에서 _"객관적인 보증"_의 시대로 나아가는 것입니다.

SNARK 기반 zkML: Ezkl과 Halo2 접근 방식

zkML에 대한 전통적인 접근 방식은 zk-SNARK(Succinct Non-interactive Arguments of Knowledge)를 사용하여 신경망 추론을 증명합니다. Ezkl(ZKonduit/Modulus Labs 제작)은 이 접근 방식의 대표적인 예입니다. 이는 Halo2 증명 시스템(BLS12-381 상의 다항식 커밋을 사용하는 PLONK 스타일의 SNARK)을 기반으로 합니다. Ezkl은 개발자가 PyTorch나 TensorFlow 모델을 가져와 ONNX로 내보내면, Ezkl이 이를 자동으로 맞춤형 산술 회로로 컴파일하는 툴링 체인을 제공합니다.

작동 방식: 신경망의 각 계층은 제약 조건으로 변환됩니다.

  • 선형 계층(밀집 또는 컨볼루션)은 입력, 가중치, 출력 간의 내적을 강제하는 곱셈-덧셈 제약 조건의 모음이 됩니다.
  • 비선형 계층(ReLU, 시그모이드 등)은 이러한 함수가 다항식이 아니기 때문에 룩업 또는 조각별 제약 조건을 통해 처리됩니다. 예를 들어, ReLU는 $y = x \cdot b$, $0 \le b \le 1$, $x>0$일 때 $b=1$을 보장하는 불리언 선택자 $b$로 구현될 수 있거나, 더 효율적으로는 $x$ 값의 범위에 대해 $x \mapsto \max(0,x)$를 매핑하는 룩업 테이블을 사용할 수 있습니다. Halo2의 룩업 인수는 16비트(또는 더 작은) 값의 청크를 매핑할 수 있으므로, 큰 도메인(예: 모든 32비트 값)은 보통 여러 개의 작은 룩업으로 _"청크화"_됩니다. 이 청크화는 제약 조건의 수를 증가시킵니다.
  • 큰 정수 연산이나 나눗셈(있는 경우)도 비슷하게 작은 조각으로 나뉩니다. 그 결과 특정 모델 아키텍처에 맞춰진 대규모 R1CS/PLONK 제약 조건 집합이 생성됩니다.

그런 다음 Ezkl은 Halo2를 사용하여 비밀 입력(모델 가중치, 개인 입력)과 공개 출력이 주어졌을 때 이러한 제약 조건이 성립한다는 증명을 생성합니다. 툴링 및 통합: SNARK 접근 방식의 한 가지 장점은 잘 알려진 프리미티브를 활용한다는 것입니다. Halo2는 이미 이더리움 롤업(예: Zcash, zkEVM)에서 사용되고 있으므로, 실전에서 검증되었고 온체인 검증기를 쉽게 사용할 수 있습니다. Ezkl의 증명은 BLS12-381 곡선을 사용하며, 이더리움은 사전 컴파일을 통해 이를 검증할 수 있어 스마트 계약에서 Ezkl 증명을 검증하는 것이 간단합니다. 팀은 또한 사용자 친화적인 API를 제공했습니다. 예를 들어, 데이터 과학자는 파이썬에서 모델 작업을 하고 Ezkl의 CLI를 사용하여 회로에 대한 깊은 지식 없이도 증명을 생성할 수 있습니다.

강점: Ezkl의 접근 방식은 SNARK의 일반성과 생태계로부터 이점을 얻습니다. 상당히 복잡한 모델을 지원하며 이미 _"실용적인 통합(DeFi 위험 모델에서 게임 AI까지)"_을 통해 실제 ML 작업을 증명했습니다. 모델의 연산 그래프 수준에서 작동하기 때문에, 중요하지 않은 가중치를 가지치기하거나 매개변수를 양자화하여 회로 크기를 줄이는 등 ML 관련 최적화를 적용할 수 있습니다. 또한 모델 기밀성이 자연스럽다는 것을 의미합니다. 가중치는 개인 증인 데이터로 처리될 수 있으므로, 검증자는 단지 어떤 유효한 모델이 출력을 생성했거나 기껏해야 모델에 대한 커밋만 볼 수 있습니다. SNARK 증명의 검증은 매우 빠르며(일반적으로 온체인에서 수 밀리초 이하), 증명 크기가 작아(수 킬로바이트) 블록체인 사용에 이상적입니다.

약점: 성능이 아킬레스건입니다. 회로 기반 증명은 특히 모델이 커질수록 큰 오버헤드를 부과합니다. 역사적으로 SNARK 회로는 증명자에게 모델을 그냥 실행하는 것보다 _백만 배 더 많은 작업_이 될 수 있다고 알려져 있습니다. Halo2와 Ezkl은 이를 최적화하지만, 여전히 대규모 행렬 곱셈과 같은 연산은 수많은 제약 조건을 생성합니다. 모델에 수백만 개의 매개변수가 있는 경우, 증명자는 그에 상응하는 수백만 개의 제약 조건을 처리해야 하며, 그 과정에서 무거운 FFT와 다중 지수 연산을 수행해야 합니다. 이로 인해 증명 시간이 길어지고(종종 중요하지 않은 모델의 경우에도 수 분 또는 수 시간이 걸림) 메모리 사용량이 높아집니다. 예를 들어, 비교적 작은 CNN(예: 수십만 개의 매개변수)을 증명하는 데도 단일 머신에서 Ezkl로 수십 분이 걸릴 수 있습니다. DeepProve 팀은 Ezkl이 특정 모델 증명에 몇 시간이 걸렸지만 DeepProve는 몇 분 만에 할 수 있다고 언급했습니다. 대규모 모델은 메모리에 맞지 않거나 여러 증명으로 분할해야 할 수도 있습니다(그런 다음 재귀적 집계가 필요함). Halo2가 _"적당히 최적화"_되었지만, 룩업을 "청크화"하거나 넓은 비트 연산을 처리해야 하는 필요성은 추가 오버헤드로 이어집니다. 요약하면, 확장성이 제한적입니다. Ezkl은 소규모에서 중간 규모의 모델에 잘 작동하지만(실제로 벤치마크에서 일부 초기 대안보다 성능이 우수했음), 모델 크기가 일정 지점을 넘어서면 어려움을 겪습니다.

이러한 어려움에도 불구하고, Ezkl 및 유사한 SNARK 기반 zkML 라이브러리는 중요한 디딤돌입니다. 그들은 온체인에서 _검증된 ML 추론이 가능함_을 증명했으며 활발하게 사용되고 있습니다. 특히, Modulus Labs와 같은 프로젝트는 SNARK를 사용하여 (대대적인 최적화와 함께) 1,800만 매개변수 모델을 온체인에서 검증하는 것을 시연했습니다. 비용은 상당했지만, 이는 발전 궤도를 보여줍니다. 또한, Mina Protocol은 자체 zkML 툴킷을 가지고 있어, Mina의 스마트 계약(Snark 기반)이 ML 모델 실행을 검증할 수 있도록 합니다. 이는 SNARK 기반 zkML에 대한 다중 플랫폼 지원이 증가하고 있음을 나타냅니다.

STARK 기반 접근 방식: ML을 위한 투명하고 프로그래밍 가능한 ZK

zk-STARK(Scalable Transparent ARguments of Knowledge)는 zkML로 가는 또 다른 경로를 제공합니다. STARK는 해시 기반 암호학(다항식 커밋을 위한 FRI 등)을 사용하며 신뢰 설정이 필요 없습니다. 이들은 종종 CPU나 VM을 시뮬레이션하고 실행 추적이 올바른지 증명하는 방식으로 작동합니다. ML의 맥락에서는 신경망을 위한 맞춤형 STARK를 구축하거나 범용 STARK VM을 사용하여 모델 코드를 실행할 수 있습니다.

일반 STARK VM (RISC Zero, Cairo): 간단한 접근 방식은 추론 코드를 작성하고 STARK VM에서 실행하는 것입니다. 예를 들어, Risc0는 RISC-V 환경을 제공하여 모든 코드(예: 신경망의 C++ 또는 Rust 구현)를 실행하고 STARK를 통해 증명할 수 있습니다. 마찬가지로, StarkWare의 Cairo 언어는 임의의 연산(LSTM 또는 CNN 추론 등)을 표현할 수 있으며, 이는 StarkNet STARK 증명자에 의해 증명됩니다. 장점은 유연성입니다. 각 모델에 대해 맞춤형 회로를 설계할 필요가 없습니다. 그러나 초기 벤치마크에서는 순진한 STARK VM이 ML에 최적화된 SNARK 회로보다 느리다는 것을 보여주었습니다. 한 테스트에서 Halo2 기반 증명(Ezkl)은 Cairo의 STARK 기반 접근 방식보다 약 3배 빨랐고, 2024년 특정 벤치마크에서는 RISC-V STARK VM보다 66배 더 빨랐습니다. 이 격차는 STARK에서 모든 저수준 명령어를 시뮬레이션하는 오버헤드와 STARK 증명의 더 큰 상수(해싱은 빠르지만 많이 필요함, STARK 증명 크기가 더 큼 등) 때문입니다. 그러나 STARK VM은 개선되고 있으며 투명한 설정(신뢰 설정 없음)과 양자내성 보안이라는 이점이 있습니다. STARK 친화적인 하드웨어와 프로토콜이 발전함에 따라 증명 속도는 향상될 것입니다.

DeepProve의 접근 방식 vs STARK: 흥미롭게도, DeepProve가 GKR과 합계 검사를 사용하는 것은 정신적으로 STARK와 더 유사한 증명을 산출합니다. 이는 구조화된 참조 문자열이 필요 없는 상호작용, 해시 기반 증명입니다. 트레이드오프는 증명이 더 크고 검증이 SNARK보다 무겁다는 것입니다. 그러나 DeepProve는 신중한 프로토콜 설계(ML의 계층 구조에 특화됨)가 증명 시간에서 일반 STARK VM과 SNARK 회로를 모두 크게 능가할 수 있음을 보여줍니다. DeepProve를 맞춤형 STARK 스타일 zkML 증명자로 간주할 수 있습니다(간결성을 위해 zkSNARK라는 용어를 사용하지만, 0.5초 검증은 일반적인 SNARK 검증보다 크기 때문에 전통적인 SNARK의 작은 상수 크기 검증은 없음). 전통적인 STARK 증명(StarkNet의 것과 같은)은 종종 검증하는 데 수만 개의 필드 연산이 필요한 반면, SNARK는 아마도 수십 개로 검증합니다. 따라서 한 가지 트레이드오프가 분명합니다. SNARK는 더 작은 증명과 더 빠른 검증기를 산출하는 반면, STARK(또는 GKR)는 증명 크기와 검증 속도를 희생하여 더 쉬운 확장성과 신뢰 설정 없음을 제공합니다.

새로운 개선 사항: JOLT zkVM(앞서 JOLTx에서 논의됨)은 실제로 SNARK(PLONKish 커밋 사용)를 출력하지만, STARK 맥락에서도 적용될 수 있는 아이디어(Lasso 룩업은 이론적으로 FRI 커밋과 함께 사용될 수 있음)를 구현합니다. StarkWare 등은 일반적인 연산의 증명 속도를 높이는 방법(예: Cairo에서 큰 정수 연산을 위해 사용자 정의 게이트나 힌트 사용)을 연구하고 있습니다. 또한 Privacy&Scaling Explorations(PSE)의 Circomlib-ML이 있는데, 이는 CNN 계층 등을 위한 Circom 템플릿을 제공합니다. 이는 SNARK 지향적이지만, 개념적으로 유사한 템플릿을 STARK 언어용으로 만들 수 있습니다.

실제로, STARK를 활용하는 비-이더리움 생태계에는 StarkNet(누군가 검증기를 작성하면 온체인 ML 검증이 가능하지만 비용이 높음)과 Risc0의 Bonsai 서비스(다양한 체인에서 검증할 수 있는 STARK 증명을 내보내는 오프체인 증명 서비스)가 있습니다. 2025년 현재, 블록체인 상의 대부분의 zkML 데모는 (검증기 효율성 때문에) SNARK를 선호했지만, STARK 접근 방식은 투명성과 고보안 또는 양자내성 환경에서의 잠재력 때문에 여전히 매력적입니다. 예를 들어, 탈중앙화 연산 네트워크는 STARK를 사용하여 누구나 신뢰 설정 없이 작업을 검증할 수 있게 하여 장기적인 사용에 유용할 수 있습니다. 또한, 일부 특화된 ML 작업은 STARK 친화적인 구조를 활용할 수 있습니다. 예를 들어, XOR/비트 연산을 많이 사용하는 연산은 SNARK 필드 산술보다 STARK에서 더 빠를 수 있습니다(불 대수와 해싱에서 저렴하기 때문).

ML에 대한 SNARK vs STARK 요약:

  • 성능: SNARK(Halo2 등)는 게이트당 증명 오버헤드가 크지만 강력한 최적화와 검증을 위한 작은 상수의 이점을 누립니다. STARK(일반)는 상수 오버헤드가 더 크지만 더 선형적으로 확장되고 페어링과 같은 비싼 암호화를 피합니다. DeepProve는 접근 방식을 맞춤화(합계 검사)하면 거의 선형적인 증명 시간(빠름)을 얻지만 STARK와 유사한 증명을 갖게 됨을 보여줍니다. JOLT는 일반 VM조차도 룩업을 많이 사용하면 더 빨라질 수 있음을 보여줍니다. 경험적으로, 수백만 연산까지의 모델에 대해: 잘 최적화된 SNARK(Ezkl)는 처리할 수 있지만 수십 분이 걸릴 수 있는 반면, DeepProve(GKR)는 몇 초 만에 할 수 있습니다. 2024년의 STARK VM은 특화되지 않는 한 SNARK보다 중간이거나 더 나빴을 가능성이 높습니다(Risc0는 테스트에서 더 느렸고, Cairo는 사용자 정의 힌트 없이는 더 느렸음).
  • 검증: SNARK 증명은 가장 빠르게 검증됩니다(밀리초, 온체인 데이터는 최소 ~수백 바이트에서 수 KB). STARK 증명은 더 크고(수십 KB) 많은 해싱 단계 때문에 검증하는 데 더 오래 걸립니다(수십 ms에서 수 초). 블록체인 용어로, SNARK 검증은 약 20만 가스가 들 수 있는 반면, STARK 검증은 수백만 가스가 들 수 있어 L1에는 너무 높고, L2나 간결한 검증 체계에서는 수용 가능합니다.
  • 설정 및 보안: Groth16과 같은 SNARK는 회로당 신뢰 설정이 필요하지만(임의의 모델에는 비우호적), 범용 SNARK(PLONK, Halo2)는 특정 크기까지의 모든 회로에 재사용할 수 있는 일회성 설정을 가집니다. STARK는 설정이 필요 없으며 해시 가정(및 고전적인 다항식 복잡성 가정)만 사용하며, 양자내성 보안을 갖습니다. 이는 STARK를 장기적으로 매력적으로 만듭니다. 양자 컴퓨터가 등장하더라도 증명은 안전하게 유지되지만, 현재의 SNARK(BLS12-381 기반)는 양자 공격에 의해 깨질 것입니다.

이러한 차이점들을 곧 비교표로 정리하겠습니다.

ML을 위한 FHE (FHE-o-ML): 프라이빗 연산 vs. 검증 가능한 연산

완전 동형 암호(FHE)는 암호화된 데이터에 대해 직접 연산을 수행할 수 있게 하는 암호화 기술입니다. ML의 맥락에서 FHE는 _프라이버시 보존 추론_의 한 형태를 가능하게 할 수 있습니다. 예를 들어, 클라이언트는 암호화된 입력을 모델 호스트에게 보내고, 호스트는 이를 해독하지 않고 암호문에 대해 신경망을 실행한 다음, 클라이언트가 해독할 수 있는 암호화된 결과를 다시 보냅니다. 이는 데이터 기밀성을 보장합니다. 모델 소유자는 입력에 대해 아무것도 알 수 없으며(잠재적으로 클라이언트는 출력만 알게 되고, 출력만 받으면 모델의 내부는 알 수 없음), FHE 자체는 ZKP와 같은 방식으로 정확성 증명을 생성하지 않습니다. 클라이언트는 모델 소유자가 실제로 정직하게 연산을 수행했다고 신뢰해야 합니다(암호문이 조작될 수 있음). 일반적으로 클라이언트가 모델을 가지고 있거나 특정 출력 분포를 예상하는 경우, 노골적인 속임수는 감지될 수 있지만, 미묘한 오류나 잘못된 모델 버전 사용은 암호화된 출력만으로는 명확하지 않습니다.

성능의 트레이드오프: FHE는 연산이 매우 무겁습니다. FHE 하에서 딥러닝 추론을 실행하면 몇 자릿수나 되는 속도 저하가 발생합니다. 초기 실험(예: 2016년 CryptoNets)에서는 암호화된 데이터에 대해 작은 CNN을 평가하는 데 수십 초가 걸렸습니다. 2024년까지 **CKKS(근사 산술용)**와 더 나은 라이브러리(Microsoft SEAL, Zama의 Concrete)와 같은 개선으로 이 오버헤드가 줄었지만 여전히 큽니다. 예를 들어, 한 사용자는 Zama의 Concrete-ML을 사용하여 CIFAR-10 분류기를 실행하는 데 하드웨어에서 추론당 _25–30분_이 걸렸다고 보고했습니다. 최적화 후 Zama 팀은 192코어 서버에서 해당 추론에 대해 약 40초를 달성했습니다. 40초조차도 평문 추론(0.01초일 수 있음)에 비해 매우 느리며, 약 $10^3$–$10^4\times$의 오버헤드를 보여줍니다. 더 큰 모델이나 더 높은 정밀도는 비용을 더욱 증가시킵니다. 또한 FHE 연산은 많은 메모리를 소비하고 때때로 계산적으로 비싼 부트스트래핑(잡음 감소 단계)이 필요합니다. 요약하면, _확장성은 주요 문제_입니다. 최첨단 FHE는 작은 CNN이나 간단한 로지스틱 회귀를 처리할 수 있지만, 대규모 CNN이나 트랜스포머로 확장하는 것은 현재의 실용적인 한계를 넘어섭니다.

프라이버시 이점: FHE의 큰 매력은 _데이터 프라이버시_입니다. 입력은 프로세스 전체에서 완전히 암호화된 상태로 유지될 수 있습니다. 이는 신뢰할 수 없는 서버가 클라이언트의 개인 데이터에 대해 아무것도 배우지 않고 연산할 수 있음을 의미합니다. 반대로, 모델이 민감한(독점적인) 경우, 모델 매개변수를 암호화하고 클라이언트가 자신의 쪽에서 FHE 추론을 수행하도록 상상할 수 있지만, 클라이언트가 무거운 FHE 연산을 해야 한다면 강력한 서버에 오프로드한다는 아이디어를 무효화하기 때문에 이는 덜 일반적입니다. 일반적으로 모델은 공개되거나 서버가 평문으로 보유하고, 데이터는 클라이언트의 키로 암호화됩니다. 이 시나리오에서 모델 프라이버시는 기본적으로 제공되지 않습니다(서버는 모델을 알고, 클라이언트는 가중치가 아닌 출력을 알게 됨). 모델과 데이터를 서로에게서 비공개로 유지할 수 있는 더 이국적인 설정(보안 2자간 연산 또는 다중 키 FHE 등)이 있지만, 이는 훨씬 더 복잡합니다. 대조적으로, ZKP를 통한 zkML은 _모델 프라이버시_와 _데이터 프라이버시_를 동시에 보장할 수 있습니다. 증명자는 모델과 데이터를 모두 비밀 증인으로 가질 수 있으며, 검증자에게 필요한 것만 공개합니다.

온체인 검증 불필요(그리고 불가능): FHE를 사용하면 결과가 클라이언트에게 암호화되어 나옵니다. 그런 다음 클라이언트는 이를 해독하여 실제 예측을 얻습니다. 그 결과를 온체인에서 사용하려면 클라이언트(또는 해독 키를 가진 사람)가 평문 결과를 게시하고 다른 사람들에게 그것이 정확하다고 설득해야 합니다. 그러나 그 시점에서는 ZKP와 결합하지 않는 한 신뢰가 다시 개입됩니다. 원칙적으로 FHE와 ZKP를 결합할 수 있습니다. 예를 들어, 연산 중 데이터를 비공개로 유지하기 위해 FHE를 사용한 다음, 평문 결과가 올바른 연산에 해당한다는 ZK 증명을 생성합니다. 그러나 이들을 결합하면 FHE ZKP의 성능 페널티를 모두 지불해야 하므로 오늘날의 기술로는 매우 비실용적입니다. 따라서 실제로 FHE-of-ML과 zkML은 다른 사용 사례를 제공합니다.

  • FHE-of-ML: 목표가 _두 당사자(클라이언트와 서버) 간의 기밀성_일 때 이상적입니다. 예를 들어, 클라우드 서비스는 ML 모델을 호스팅하고 사용자는 클라우드에 데이터를 공개하지 않고 민감한 데이터로 쿼리할 수 있습니다(그리고 모델이 민감한 경우 FHE 친화적인 인코딩을 통해 배포할 수 있음). 이는 프라이버시 보존 ML 서비스(의료 예측 등)에 적합합니다. 사용자는 여전히 서비스가 모델을 충실히 실행할 것이라고 신뢰해야 하지만(증명이 없으므로), 적어도 모든 _데이터 유출_은 방지됩니다. Zama와 같은 일부 프로젝트는 스마트 계약이 암호화된 입력에 대해 작동할 수 있는 _"FHE 지원 EVM(fhEVM)"_을 탐색하고 있지만, 이러한 연산을 온체인에서 검증하려면 계약이 어떻게든 올바른 연산을 강제해야 하므로, ZK 증명이나 특수 보안 하드웨어가 필요한 미해결 과제입니다.
  • zkML (ZKPs): 목표가 _검증 가능성과 공개 감사 가능성_일 때 이상적입니다. 누구나(또는 어떤 계약이든) _"모델 $M$이 $X$에 대해 올바르게 평가되어 $Y$를 생성했다"_는 것을 확신하고 싶다면 ZKP가 해결책입니다. 또한 프라이버시를 보너스로 제공하지만(증명에 대한 개인 입력으로 처리하여 $X$, $Y$, $M$을 숨길 수 있음), 주요 기능은 올바른 실행의 증명입니다.

상호 보완적인 관계: ZKP는 _검증자_를 보호하고(비밀에 대해 아무것도 배우지 않고 연산이 올바르게 수행되었다는 것만 알게 됨), FHE는 연산 당사자로부터 _증명자_의 데이터를 보호한다는 점에 주목할 가치가 있습니다. 일부 시나리오에서는 이들을 결합할 수 있습니다. 예를 들어, 신뢰할 수 없는 노드 네트워크는 FHE를 사용하여 사용자의 개인 데이터에 대해 연산한 다음, 사용자(또는 블록체인)에게 연산이 프로토콜에 따라 수행되었다는 ZK 증명을 제공할 수 있습니다. 이는 프라이버시와 정확성을 모두 다루지만, 오늘날의 알고리즘으로는 성능 비용이 막대합니다. 가까운 미래에 더 실현 가능한 것은 신뢰 실행 환경(TEE) + ZKP 또는 _기능적 암호화 + ZKP_와 같은 하이브리드입니다. 이는 우리의 범위를 벗어나지만, 비슷한 것을 제공하는 것을 목표로 합니다(TEE는 연산 중 데이터/모델을 비밀로 유지한 다음, ZKP는 TEE가 올바른 일을 했다고 증명할 수 있음).

요약하면, FHE-of-ML은 입력/출력의 기밀성을 우선시하는 반면, zkML은 검증 가능한 정확성(가능한 프라이버시 포함)을 우선시합니다. 아래 표 1은 주요 속성을 대조합니다.

접근 방식증명자 성능 (추론 및 증명)증명 크기 및 검증프라이버시 기능신뢰 설정 필요 여부양자내성 여부
zk-SNARK (Halo2, Groth16, PLONK 등)무거운 증명자 오버헤드 (최적화 없이는 일반 런타임의 최대 10^6배, 실제로는 10^3–10^5배). 특정 모델/회로에 최적화됨. 중간 크기 모델은 증명에 수 분, 큰 모델은 수 시간이 걸림. 최근 zkML SNARK(GKR을 사용한 DeepProve)는 이를 크게 개선함 (거의 선형적인 오버헤드, 예: 백만 매개변수 모델에 대해 분 대신 초).매우 작은 증명 (종종 100 KB 미만, 때로는 ~수 KB). 검증은 빠름: 몇 번의 페어링 또는 다항식 평가 (일반적으로 온체인에서 50 ms 미만). DeepProve의 GKR 기반 증명은 더 크고(수십–수백 KB) ~0.5초 만에 검증됨 (여전히 모델 재실행보다 훨씬 빠름).데이터 기밀성: 예 – 입력은 증명에서 비공개일 수 있음 (공개되지 않음). 모델 프라이버시: 예 – 증명자는 모델 가중치에 커밋하고 공개하지 않을 수 있음. 출력 숨기기: 선택 사항 – 증명은 출력을 공개하지 않고 명제에 대한 것일 수 있음 (예: "출력은 속성 P를 가짐"). 그러나 출력이 온체인에서 필요한 경우 일반적으로 공개됨. 전반적으로 SNARK는 완전한 영지식 유연성을 제공함 (원하는 부분을 숨길 수 있음).스킴에 따라 다름. Groth16/EZKL은 회로당 신뢰 설정이 필요함. PLONK/Halo2는 범용 설정(일회성)을 사용함. DeepProve의 합계 검사 GKR은 투명함 (설정 없음) – 그 설계의 보너스.고전적인 SNARK(BLS12-381 곡선)는 양자내성 안전하지 않음 (타원 곡선 이산 로그에 대한 양자 공격에 취약함). 일부 최신 SNARK는 양자내성 안전한 커밋을 사용하지만, Ezkl에서 사용되는 Halo2/PLONK는 양자내성 안전하지 않음. GKR(DeepProve)은 해시 커밋(예: Poseidon/Merkle)을 사용하며, 이는 양자내성 안전하다고 추정됨 (해시 프리이미지 저항성에 의존).
zk-STARK (FRI, 해시 기반 증명)증명자 오버헤드는 높지만 더 선형적인 확장성. 일반적으로 큰 작업에 대해 네이티브보다 10^2–10^4배 느리며, 병렬화의 여지가 있음. 일반 STARK VM(Risc0, Cairo)은 2024년 ML에 대해 SNARK보다 느린 성능을 보임 (예: 일부 경우 Halo2보다 3배–66배 느림). 특화된 STARK(또는 GKR)는 선형 오버헤드에 근접하고 큰 회로에 대해 SNARK를 능가할 수 있음.증명은 더 큼: 종종 수십 KB (회로 크기/log(n)에 따라 증가). 검증자는 여러 해시 및 FFT 검사를 해야 함 – 검증 시간 ~O(n^ε) (작은 ε에 대해, 예: 증명 크기에 따라 ~50 ms에서 500 ms). 온체인에서는 더 비쌈 (StarkWare의 L1 검증기는 증명당 수백만 가스가 들 수 있음). 일부 STARK는 증명자 시간을 희생하여 크기를 압축하기 위해 재귀적 증명을 지원함.데이터 및 모델 프라이버시: STARK는 추적 데이터를 무작위화하여(다항식 평가에 블라인딩 추가) 영지식으로 만들 수 있으므로, SNARK와 유사하게 개인 입력을 숨길 수 있음. 많은 STARK 구현은 무결성에 초점을 맞추지만, zk-STARK 변형은 프라이버시를 허용함. 따라서 예, SNARK처럼 입력/모델을 숨길 수 있음. 출력 숨기기: 이론적으로 마찬가지로 가능함 (증명자가 출력을 공개로 선언하지 않음), 그러나 일반적으로 출력이 우리가 공개/검증하려는 것이기 때문에 거의 사용되지 않음.신뢰 설정 없음. 투명성은 STARK의 특징 – 공통 무작위 문자열만 필요함 (Fiat-Shamir가 파생할 수 있음). 이는 개방형 사용(모든 모델, 언제든지, 모델별 의식 없음)에 매력적임.예, STARK는 해시 및 정보 이론적 보안 가정(랜덤 오라클 및 FRI에서 특정 코드워드 디코딩의 어려움 등)에 의존함. 이는 양자 적에 대해 안전하다고 믿어짐. 따라서 STARK 증명은 양자내성이 있어, 검증 가능한 AI를 미래에 대비하는 데 이점이 있음.
ML을 위한 FHE (추론에 적용된 완전 동형 암호)증명자 = 암호화된 데이터에 대해 연산을 수행하는 당사자. 연산 시간은 매우 높음: 평문 추론보다 10^3–10^5배 느린 것이 일반적임. 고급 하드웨어(다중 코어 서버, FPGA 등)가 이를 완화할 수 있음. 일부 최적화(저정밀도 추론, 레벨링된 FHE 매개변수)는 오버헤드를 줄일 수 있지만 근본적인 성능 저하가 있음. FHE는 현재 작은 모델이나 간단한 선형 모델에 실용적임. 딥 네트워크는 장난감 크기를 넘어서는 것이 여전히 어려움.증명이 생성되지 않음. 결과는 암호화된 출력임. 정확성을 확인하는 의미의 검증은 FHE 단독으로는 제공되지 않음 – 연산 당사자가 속이지 않을 것이라고 신뢰해야 함. (보안 하드웨어와 결합하면 증명을 얻을 수 있지만, 그렇지 않으면 악의적인 서버가 클라이언트가 차이를 모른 채 잘못된 출력으로 해독할 수 있는 잘못된 암호화된 결과를 반환할 수 있음).데이터 기밀성: 예 – 입력이 암호화되어 있으므로 연산 당사자는 그것에 대해 아무것도 알 수 없음. 모델 프라이버시: 모델 소유자가 암호화된 입력에 대해 연산을 수행하는 경우, 모델은 그들의 측에서 평문임 (보호되지 않음). 역할이 반대인 경우(클라이언트가 모델을 암호화하여 보유하고 서버가 연산), 모델은 암호화된 상태로 유지될 수 있지만, 이 시나리오는 덜 일반적임. FHE/MPC를 결합하여 둘 다 보호하는 보안 2자간 ML과 같은 기술이 있지만, 이는 일반 FHE를 넘어섬. 출력 숨기기: 기본적으로 연산의 출력은 암호화됨 (비밀 키를 가진 당사자, 보통 입력 소유자만 해독 가능). 따라서 출력은 연산 서버로부터 숨겨짐. 출력을 공개하고 싶다면 클라이언트가 해독하고 공개할 수 있음.설정이 필요 없음. 각 사용자는 암호화를 위해 자신의 키 쌍을 생성함. 신뢰는 키가 비밀로 유지되는 것에 의존함.FHE 스킴(예: BFV, CKKS, TFHE)의 보안은 격자 문제(오류를 사용한 학습)에 기반하며, 이는 양자 공격에 저항성이 있다고 믿어짐 (적어도 효율적인 양자 알고리즘은 알려져 있지 않음). 따라서 FHE는 일반적으로 양자내성 보안으로 간주됨.

표 1: 머신러닝 추론을 위한 zk-SNARK, zk-STARK, FHE 접근 방식 비교 (성능 및 프라이버시 트레이드오프).

Web3 애플리케이션을 위한 사용 사례 및 시사점

zkML을 통한 AI와 블록체인의 융합은 Web3에서 강력한 새로운 애플리케이션 패턴을 열어줍니다.

  • 탈중앙화 자율 에이전트 및 온체인 의사 결정: 스마트 계약이나 DAO는 정확성을 보장받으며 AI 기반 결정을 통합할 수 있습니다. 예를 들어, 거래를 실행하기 전에 시장 상황을 분석하기 위해 신경망을 사용하는 DAO를 상상해 보세요. zkML을 사용하면 DAO의 스마트 계약은 조치가 수락되기 전에 승인된 ML 모델(알려진 해시 커밋 포함)이 최신 데이터에 대해 실행되어 권장 조치를 생성했다는 zkSNARK 증명을 요구할 수 있습니다. 이는 악의적인 행위자가 가짜 예측을 주입하는 것을 방지합니다. 체인은 _AI의 연산을 검증_합니다. 시간이 지남에 따라, DeFi나 게임에서 결정을 내리는 완전한 온체인 자율 에이전트(오프체인 AI를 쿼리하거나 단순화된 모델을 포함하는 계약)가 있을 수 있으며, 모든 움직임은 zk 증명을 통해 정확하고 정책을 준수함이 증명됩니다. 이는 자율 에이전트의 "사고"가 블랙박스가 아닌 투명하고 검증 가능하기 때문에 신뢰를 높입니다.

  • 검증 가능한 연산 시장: Lagrange와 같은 프로젝트는 효과적으로 검증 가능한 연산 마켓플레이스를 만들고 있습니다. 개발자는 무거운 ML 추론을 증명자 네트워크에 아웃소싱하고 결과와 함께 증명을 받을 수 있습니다. 이는 탈중앙화 클라우드 컴퓨팅과 유사하지만, 신뢰가 내장되어 있습니다. 서버를 신뢰할 필요 없이 증명만 신뢰하면 됩니다. 이는 오라클과 오프체인 연산에 대한 패러다임 전환입니다. 이더리움의 곧 출시될 DSC(탈중앙화 시퀀싱 레이어)나 오라클 네트워크와 같은 프로토콜은 이를 사용하여 암호학적 보증이 있는 데이터 피드나 분석 피드를 제공할 수 있습니다. 예를 들어, 오라클은 "입력 Y에 대한 모델 X의 결과"를 제공하고 누구나 오라클의 말을 신뢰하는 대신 온체인에서 첨부된 증명을 검증할 수 있습니다. 이는 블록체인에서 _검증 가능한 AI-as-a-Service_를 가능하게 할 수 있습니다. 모든 계약은 연산("내 개인 모델로 이 신용 위험을 평가하라")을 요청하고 유효한 증명이 있는 경우에만 답변을 수락할 수 있습니다. Gensyn과 같은 프로젝트는 이러한 검증 기술을 사용하여 탈중앙화된 훈련 및 추론 마켓플레이스를 탐색하고 있습니다.

  • NFT 및 게임 – 출처 및 진화: 블록체인 게임이나 NFT 수집품에서 zkML은 특성이나 게임 움직임이 합법적인 AI 모델에 의해 생성되었음을 증명할 수 있습니다. 예를 들어, 게임에서 AI가 NFT 펫의 속성을 진화시킬 수 있습니다. ZK가 없으면 영리한 사용자가 AI나 결과를 수정하여 우월한 펫을 얻을 수 있습니다. zkML을 사용하면 게임은 _"펫의 새로운 능력치가 펫의 이전 능력치에 대해 공식 진화 모델에 의해 계산되었다"_는 증명을 요구하여 부정행위를 방지할 수 있습니다. 생성 예술 NFT도 마찬가지입니다. 작가는 생성 모델을 커밋으로 공개할 수 있습니다. 나중에 NFT를 민팅할 때, 각 이미지가 특정 시드에 대해 해당 모델에 의해 생성되었음을 증명하여 진위성을 보장할 수 있습니다(심지어 정확한 모델을 대중에게 공개하지 않고 작가의 IP를 보존하면서도). 이 _출처 검증_은 검증 가능한 무작위성과 유사한 방식으로 진위성을 보장합니다. 단, 여기서는 검증 가능한 창의성입니다.

  • 민감한 영역에서의 프라이버시 보존 AI: zkML은 입력을 노출하지 않고 결과를 확인할 수 있게 합니다. 의료 분야에서 환자의 데이터는 클라우드 제공업체에 의해 AI 진단 모델을 통해 실행될 수 있습니다. 병원은 진단과 함께 _모델(제약 회사가 비공개로 보유할 수 있음)이 환자 데이터에 대해 올바르게 실행되었다_는 증명을 받습니다. 환자 데이터는 비공개로 유지되고(증명에는 암호화되거나 커밋된 형태만 사용됨), 모델 가중치는 독점적으로 유지되지만 결과는 신뢰할 수 있습니다. 규제 기관이나 보험사도 승인된 모델만 사용되었는지 확인할 수 있습니다. 금융 분야에서 회사는 감사인이나 규제 기관에게 _위험 모델이 내부 데이터에 적용되어 특정 지표를 생성했다_고 증명하면서 민감한 기본 금융 데이터를 공개하지 않을 수 있습니다. 이는 수동적인 신뢰 대신 암호학적 보증으로 규정 준수 및 감독을 가능하게 합니다.

  • 크로스체인 및 오프체인 상호운용성: 영지식 증명은 근본적으로 이식 가능하기 때문에, zkML은 크로스체인 AI 결과를 촉진할 수 있습니다. 한 체인은 오프체인에서 실행되는 AI 집약적인 애플리케이션을 가질 수 있습니다. 결과의 증명을 다른 블록체인에 게시하면, 그 블록체인은 신뢰 없이 이를 수락할 것입니다. 예를 들어, 소셜 미디어 전반의 감성을 집계하기 위해 AI를 사용하는 다중 체인 DAO를 생각해 보세요. AI 분석(대규모 데이터에 대한 복잡한 NLP)은 오프체인에서 서비스에 의해 수행된 다음, _"분석이 올바르게 수행되었고 출력 감성 점수 = 0.85"_라는 증명을 작은 블록체인(또는 여러 체인)에 게시합니다. 모든 체인은 각자 분석을 다시 실행할 필요 없이 해당 결과를 검증하고 거버넌스 로직에 사용할 수 있습니다. 이러한 종류의 상호운용 가능한 검증 가능한 연산은 Lagrange의 네트워크가 여러 롤업이나 L1을 동시에 서비스함으로써 지원하고자 하는 것입니다. 이는 체인 간에 결과를 이동할 때 신뢰할 수 있는 브리지나 오라클 가정이 필요 없게 만듭니다.

  • AI 정렬 및 거버넌스: 더 미래 지향적인 관점에서, zkML은 _AI 거버넌스 및 안전_을 위한 도구로 강조되었습니다. 예를 들어, Lagrange의 비전 선언문은 AI 시스템이 더 강력해짐에 따라(심지어 초지능적으로), 합의된 규칙을 따르도록 보장하기 위해 암호학적 검증이 필수적일 것이라고 주장합니다. AI 모델이 자신의 추론이나 제약 조건에 대한 증명을 생성하도록 요구함으로써, 인간은 어느 정도의 통제력을 유지합니다. "검증할 수 없는 것은 신뢰할 수 없다". 이는 기술적인 측면뿐만 아니라 사회적인 측면도 포함하는 추측이지만, 이 기술은 자율적으로 실행되는 AI 에이전트가 여전히 승인된 모델을 사용하고 있으며 조작되지 않았음을 증명하도록 강제할 수 있습니다. 탈중앙화 AI 네트워크는 온체인 증명을 사용하여 기여를 검증할 수 있습니다(예: 모델을 협력적으로 훈련하는 노드 네트워크는 각 업데이트가 충실하게 계산되었음을 증명할 수 있음). 따라서 zkML은 _AI 시스템이 탈중앙화되거나 통제되지 않는 환경에서도 인간이 정의한 프로토콜에 대해 책임지도록 보장_하는 데 역할을 할 수 있습니다.

결론적으로, zkML과 검증 가능한 온체인 AI는 AI 애플리케이션의 신뢰, 투명성, 프라이버시를 향상시킬 고급 암호학과 머신러닝의 융합을 나타냅니다. 주요 접근 방식인 zk-SNARK, zk-STARK, FHE를 비교함으로써, 우리는 성능과 프라이버시 사이의 다양한 트레이드오프 스펙트럼을 볼 수 있으며, 각각 다른 시나리오에 적합합니다. Ezkl과 같은 SNARK 기반 프레임워크와 Lagrange의 DeepProve와 같은 혁신은 상당한 신경망 추론을 실용적인 노력으로 증명하는 것을 가능하게 하여, 검증 가능한 AI의 실제 배포의 문을 열었습니다. STARK 기반 및 VM 기반 접근 방식은 더 큰 유연성과 양자내성 보안을 약속하며, 이는 분야가 성숙함에 따라 중요해질 것입니다. FHE는 검증 가능성에 대한 해결책은 아니지만, 기밀 ML 연산의 상호 보완적인 요구를 해결하며, ZKP와 결합하거나 특정 개인적인 맥락에서 사용자가 데이터 프라이버시를 희생하지 않고 AI를 활용할 수 있도록 힘을 실어줄 수 있습니다.

Web3에 대한 시사점은 중요합니다. 우리는 AI 예측에 반응하는 스마트 계약이 정확하다는 것을 알게 되고, 결과가 신뢰 없이 판매되는 연산 시장, zkML에 의해 보호되어 생체 이미지 유출 없이 인간임을 확인하는 디지털 신원(Worldcoin의 홍채 AI를 통한 개인 증명 등), 그리고 일반적으로 블록체인 애플리케이션을 풍부하게 하는 새로운 종류의 _"증명 가능한 지능"_을 예견할 수 있습니다. 매우 큰 모델에 대한 성능, 개발자 인체 공학, 특수 하드웨어의 필요성 등 많은 과제가 남아 있지만, 궤적은 분명합니다. 한 보고서에서 언급했듯이, "오늘날의 ZKP는 작은 모델을 지원할 수 있지만, 중간에서 큰 모델은 패러다임을 깨뜨립니다." 그러나 빠른 발전(DeepProve로 이전 기술보다 50배–150배 속도 향상)이 그 경계를 넓히고 있습니다. 지속적인 연구(예: 하드웨어 가속 및 분산 증명)를 통해, 점진적으로 더 크고 복잡한 AI 모델이 증명 가능해질 것으로 기대할 수 있습니다. zkML은 곧 틈새 데모에서 신뢰할 수 있는 AI 인프라의 필수 구성 요소로 진화하여, AI가 보편화됨에 따라 감사 가능하고, 탈중앙화되며, 사용자 프라이버시 및 보안과 일치하는 방식으로 그렇게 되도록 보장할 수 있습니다.

ETHDenver 2025: 페스티벌에서 본 핵심 Web3 트렌드와 인사이트

· 약 21분

"재생자들의 해(Year of The Regenerates)"라는 브랜드로 열린 ETHDenver 2025는 세계 최대의 Web3 행사 중 하나로서의 위상을 공고히 했습니다. BUIDLWeek (2월 23일–26일), 메인 이벤트 (2월 27일–3월 2일), 그리고 컨퍼런스 후의 마운틴 리트리트에 걸쳐 진행된 이 페스티벌에는 25,000명 이상의 참가자가 모일 것으로 예상되었습니다. 125개국 이상에서 온 빌더, 개발자, 투자자, 크리에이터들이 덴버에 모여 이더리움의 탈중앙화와 혁신 정신을 기념했습니다. 커뮤니티에 뿌리를 둔 ETHDenver는 여전히 무료로 참석할 수 있었고, 커뮤니티의 후원으로 운영되었으며, 해커톤과 워크숍부터 패널, 피칭 이벤트, 파티에 이르기까지 풍성한 콘텐츠로 가득했습니다. 탈중앙화를 수호하는 *"재생자들(Regenerates)"*이라는 행사의 세계관은 경쟁적인 기술 환경 속에서도 공공재와 협력적인 빌딩을 강조하는 분위기를 조성했습니다. 그 결과, 한 주 동안 에너지 넘치는 빌더들의 활동과 미래 지향적인 논의가 이어졌으며, 이는 Web3의 새로운 트렌드와 업계 전문가들을 위한 실행 가능한 인사이트를 엿볼 수 있는 기회를 제공했습니다.

ETHDenver 2025

연사들이 조명한 새로운 Web3 트렌드

ETHDenver 2025에서는 단 하나의 서사가 지배적이지 않았습니다. 대신, 광범위한 Web3 트렌드가 중심 무대를 차지했습니다. 작년(EigenLayer를 통한 리스테이킹이 주목받았던)과 달리, 2025년의 의제는 탈중앙화 물리적 인프라 네트워크(DePIN)부터 AI 에이전트, 규제 준수, 실물 자산 토큰화(RWA), 그리고 프라이버시, 상호운용성 등 모든 것을 조금씩 다루었습니다. 실제로 ETHDenver의 설립자인 John Paller는 멀티체인 콘텐츠에 대한 우려에 대해 *"우리 스폰서의 95% 이상과 콘텐츠의 90%가 이더리움/EVM 기반"*이라고 언급했지만, 비이더리움 생태계의 존재는 상호운용성이 핵심 주제임을 강조했습니다. 주요 연사들은 이러한 트렌드 영역을 반영했습니다. 예를 들어, Matter Labs/zkSync의 CEO인 Alex Gluchowski는 zk-롤업과 레이어 2 스케일링을 강조했고, Mysten Labs(Sui)의 Adeniyi Abiodun과 Injective의 Albert Chon은 멀티체인 혁신에 대해 발표했습니다.

AI와 Web3의 융합은 강력한 기저 흐름으로 부상했습니다. 수많은 강연과 사이드 이벤트가 탈중앙화 AI 에이전트와 "DeFi+AI" 크로스오버에 초점을 맞췄습니다. 전용 AI 에이전트 데이에서는 온체인 AI 데모가 선보여졌고, 14개 팀(Coinbase의 개발자 키트와 NEAR의 AI 유닛 포함)의 연합체는 Web3 인프라를 공동으로 활용하여 무허가 무료 AI 접근을 제공하기 위한 이니셔티브인 **오픈 에이전트 얼라이언스(OAA)**를 발표하기도 했습니다. 이는 빌더들을 위한 새로운 개척지로서 **자율 에이전트와 AI 기반 디앱(dApp)**에 대한 관심이 커지고 있음을 나타냅니다. AI와 함께 **DePIN(탈중앙화 물리적 인프라)**도 또 다른 화두였습니다. 여러 패널(Day of DePIN, DePIN Summit 등)에서는 블록체인을 물리적 네트워크(통신에서 모빌리티까지)와 연결하는 프로젝트들을 탐구했습니다.

Cuckoo AI Network는 ETHDenver 2025에서 큰 주목을 받았으며, 크리에이터와 개발자를 위해 설계된 혁신적인 탈중앙화 AI 모델 서빙 마켓플레이스를 선보였습니다. 해커톤과 커뮤니티 주도 사이드 이벤트 모두에서 강력한 존재감을 드러낸 Cuckoo AI는 GPU/CPU 리소스를 수익화하고 온체인 AI API를 쉽게 통합할 수 있는 기능에 매료된 개발자들로부터 상당한 관심을 끌었습니다. 전용 워크숍과 네트워킹 세션에서 Cuckoo AI는 탈중앙화 인프라가 어떻게 고급 AI 서비스에 대한 접근을 효율적으로 민주화할 수 있는지 강조했습니다. 이는 블록체인과 AI, DePIN, 공공재 펀딩의 교차점이라는 행사의 광범위한 트렌드와 직접적으로 일치합니다. ETHDenver의 투자자와 개발자들에게 Cuckoo AI는 탈중앙화 접근 방식이 차세대 AI 기반 디앱과 인프라를 어떻게 구동할 수 있는지 보여주는 명확한 사례로 부상했으며, Web3 생태계 내에서 매력적인 투자 기회로 자리매김했습니다.

프라이버시, 신원, 보안은 여전히 최우선 과제였습니다. 연사들과 워크숍에서는 영지식 증명(zkSync의 참여), 신원 관리 및 검증 가능한 자격 증명(해커톤에 전용 프라이버시 & 보안 트랙이 있었음), 법률/규제 문제(온체인 법률 서밋이 페스티벌 트랙의 일부였음)와 같은 주제를 다루었습니다. 또 다른 주목할 만한 논의는 자금 조달의 미래와 펀딩의 탈중앙화였습니다. 메인 스테이지에서 Dragonfly Capital의 Haseeb Qureshi와 Legion("ICO와 유사한" 플랫폼)의 Matt O’Connor가 ICO 대 VC 펀딩에 대해 벌인 토론은 참석자들을 사로잡았습니다. 이 토론은 전통적인 VC 경로에 도전하는 커뮤니티 토큰 판매와 같은 새로운 모델을 조명했으며, 이는 자본 조달을 모색하는 Web3 스타트업에게 중요한 트렌드입니다. 전문가들을 위한 시사점은 분명합니다. 2025년의 Web3는 다학제적이며, 금융, AI, 실물 자산, 문화를 아우릅니다. 정보를 유지한다는 것은 단 하나의 유행 주기를 넘어 혁신의 전체 스펙트럼을 바라보는 것을 의미합니다.

스폰서와 그들의 전략적 초점 분야

2025년 ETHDenver의 스폰서 명단은 레이어 1, 레이어 2, Web3 인프라 프로젝트의 거물들로 가득 차 있으며, 각자는 전략적 목표를 달성하기 위해 이 행사를 활용했습니다. 크로스체인 및 멀티체인 프로토콜이 강력한 존재감을 보였습니다. 예를 들어, Polkadot은 8만 달러의 상당한 상금 풀을 제공하는 최고 스폰서로서, 빌더들이 크로스체인 디앱과 앱체인을 만들도록 장려했습니다. 마찬가지로 **BNB Chain, Flow, Hedera, Base(Coinbase의 L2)**는 각각 생태계와 통합하는 프로젝트에 최대 5만 달러를 제공하며 이더리움 개발자 유치에 힘쓰고 있음을 시사했습니다. Solana와 Internet Computer와 같은 전통적으로 분리된 생태계조차도 스폰서 챌린지에 참여했습니다(예: Solana는 DePIN 이벤트를 공동 주최했고, Internet Computer는 "오직 ICP에서만 가능한" 상금을 제공했습니다). 이러한 교차 생태계 참여는 일부 커뮤니티의 비판을 받기도 했지만, ETHDenver 팀은 콘텐츠의 대다수가 이더리움 기반임을 언급했습니다. 그 결과 상호운용성이 핵심 주제가 되었으며, 스폰서들은 자신들의 플랫폼을 이더리움 세계의 보완적인 확장으로 포지셔닝하고자 했습니다.

스케일링 솔루션과 인프라 제공업체 또한 전면에 나섰습니다. Optimism과 Arbitrum과 같은 주요 이더리움 L2들은 대형 부스를 운영하고 스폰서 챌린지를 진행하며(Optimism의 상금은 최대 4만 달러), 롤업으로 개발자들을 온보딩하는 데 집중하고 있음을 재확인했습니다. ZkSync와 Zircuit(L2 롤업 접근 방식을 선보인 프로젝트)과 같은 새로운 진입자들은 영지식 기술을 강조했으며, 심지어 SDK를 제공하기도 했습니다(ZkSync는 사용자 친화적인 로그인을 위한 Smart Sign-On SDK를 홍보했고, 해커톤 팀들은 이를 적극적으로 사용했습니다). 리스테이킹과 모듈형 블록체인 인프라는 또 다른 스폰서의 관심사였습니다. EigenLayer(리스테이킹의 선구자)는 자체적으로 5만 달러 트랙을 운영하고 "리스테이킹 & DeFAI(탈중앙화 AI)" 이벤트를 공동 주최하여 자신들의 보안 모델을 AI 주제와 결합했습니다. 오라클과 상호운용성 미들웨어는 Chainlink와 Wormhole과 같은 프로젝트들이 대표했으며, 각각 자신들의 프로토콜 사용에 대한 상금을 내걸었습니다.

주목할 점은 Web3 소비자 애플리케이션과 툴링이 사용자 경험 개선을 위해 스폰서 지원을 받았다는 것입니다. Uniswap의 참여는(가장 큰 부스 중 하나를 갖추고) 단지 보여주기 위함이 아니었습니다. 이 DeFi 거인은 이벤트를 통해 통합된 법정화폐 오프램프와 같은 새로운 지갑 기능을 발표하며, DeFi 사용성 향상이라는 스폰서십 초점과 일치시켰습니다. **Galxe(Gravity)**와 Lens Protocol과 같은 신원 및 커뮤니티 중심 플랫폼들은 온체인 소셜 및 자격 증명 관련 챌린지를 후원했습니다. 주류 기술 기업들도 관심을 보였습니다. PayPal과 Google Cloud는 스테이블코인/결제 해피아워를 주최하여 암호화폐 결제의 미래에 대해 논의했습니다. 이러한 스폰서들의 조합은 전략적 관심사가 핵심 인프라에서 최종 사용자 애플리케이션에 이르기까지 다양했음을 보여주며, 이들 모두가 개발자들에게 리소스(API, SDK, 보조금)를 제공하기 위해 ETHDenver에 모였습니다. Web3 전문가들에게 레이어 1, 레이어 2, 심지어 Web2 핀테크 기업들의 대규모 후원은 업계가 어디에 투자하고 있는지를 명확히 보여줍니다. 바로 상호운용성, 확장성, 보안, 그리고 다음 세대 사용자를 위해 암호화폐를 유용하게 만드는 것입니다.

해커톤 하이라이트: 혁신적인 프로젝트와 수상작

ETHDenver의 핵심은 전설적인 #BUIDLathon입니다. 이 해커톤은 수천 명의 개발자가 참여하는 세계 최대의 블록체인 해커톤으로 성장했습니다. 2025년 해커톤은 혁신을 촉진하기 위해 기록적인 1,043,333달러 이상의 상금 풀을 제공했습니다. 60개 이상의 스폰서가 제공한 상금은 주요 Web3 분야를 목표로 했으며, 경쟁은 다음과 같은 트랙으로 나뉘었습니다: DeFi & AI, NFT & 게이밍, 인프라 & 확장성, 프라이버시 & 보안, DAO & 공공재. 이 트랙 디자인 자체도 통찰력이 있습니다. 예를 들어, DeFi와 AI를 짝지은 것은 AI 기반 금융 애플리케이션의 등장을 암시하며, 전용 공공재 트랙은 재생 금융과 오픈소스 개발에 대한 커뮤니티의 초점을 재확인합니다. 각 트랙은 자신들의 기술을 가장 잘 활용한 프로젝트에 상을 제공하는 스폰서들(예: DeFi 분야의 Polkadot과 Uniswap, 상호운용성 분야의 Chainlink, 스케일링 솔루션 분야의 Optimism)의 지원을 받았습니다. 주최 측은 심사에 **이차 투표(quadratic voting)**를 도입하여 커뮤니티가 최고의 프로젝트를 발굴하는 데 도움을 주도록 했으며, 최종 수상자는 전문 심사위원단이 선정했습니다.

그 결과 최첨단 프로젝트들이 쏟아져 나왔으며, 이들 중 다수는 Web3의 미래를 엿볼 수 있게 합니다. 주목할 만한 수상작으로는 온체인 멀티플레이어 게임 **"0xCaliber"**가 있습니다. 이 1인칭 슈팅 게임은 고전적인 FPS 게임 내에서 실시간 블록체인 상호작용을 실행합니다. 0xCaliber는 진정한 온체인 게이밍을 시연하여 심사위원들을 놀라게 했습니다. 플레이어들은 암호화폐로 참여하고, 온체인 "총알"을 쏘며, 크로스체인 트릭을 사용해 전리품을 수집하고 현금화하는 모든 과정을 실시간으로 진행합니다. 이런 종류의 프로젝트는 Web3 게이밍의 성숙도(Unity 게임 엔진과 스마트 컨트랙트의 통합)와 엔터테인먼트와 암호화폐 경제학을 결합하는 창의성을 보여줍니다. 또 다른 뛰어난 해킹 카테고리는 AI와 이더리움을 결합한 것들이었습니다. 팀들은 오픈 에이전트 얼라이언스 발표에서 영감을 받아 스마트 컨트랙트를 사용해 AI 서비스를 조정하는 "에이전트" 플랫폼을 구축했습니다. 예를 들어, 한 해커톤 프로젝트는 AI 기반 스마트 컨트랙트 감사기(컨트랙트에 대한 보안 테스트 케이스를 자동 생성)를 통합하여 컨퍼런스에서 관찰된 탈중앙화 AI 트렌드와 일치했습니다.

인프라 및 툴링 프로젝트도 두드러졌습니다. 일부 팀들은 계정 추상화와 사용자 경험 문제를 다루었으며, zkSync의 Smart Sign-On과 같은 스폰서 툴킷을 사용하여 디앱을 위한 지갑 없는 로그인 흐름을 만들었습니다. 다른 팀들은 크로스체인 브리지와 레이어 2 통합 작업을 진행하며 상호운용성에 대한 개발자들의 지속적인 관심을 반영했습니다. 공공재 & DAO 트랙에서는 몇몇 프로젝트가 실제 사회적 영향력을 다루었습니다. 예를 들어, 노숙자를 돕기 위한 탈중앙화 신원 및 지원 디앱(NFT와 커뮤니티 기금을 활용, 이전 ReFi 해킹을 연상시키는 아이디어)이 있었습니다. 새로운 메커니즘을 통해 공공재에 자금을 지원하는 것과 같은 재생 금융(ReFi) 개념은 ETHDenver의 재생 테마를 반영하며 계속해서 등장했습니다.

메인 이벤트가 끝날 무렵 최종 수상자들이 축하를 받았지만, 진정한 가치는 혁신의 파이프라인에 있었습니다. 400개 이상의 프로젝트 제출물이 쏟아졌으며, 이들 중 다수는 이벤트 이후에도 계속될 것입니다. ETHDenver의 해커톤은 미래의 스타트업을 배출한 실적을 가지고 있습니다(실제로 과거 BUIDLathon 프로젝트 중 일부는 스폰서로 성장하기도 했습니다). 투자자와 기술자들에게 해커톤은 최첨단 아이디어에 대한 창을 제공했으며, 차세대 Web3 스타트업이 온체인 게이밍, AI 주입 디앱, 크로스체인 인프라, 사회적 영향을 목표로 하는 솔루션과 같은 분야에서 나타날 수 있음을 시사했습니다. 개발자들에게 거의 1백만 달러의 상금이 지급되면서, 스폰서들은 이러한 혁신을 육성하기 위해 말 그대로 돈을 쏟아부었습니다.

네트워킹 이벤트와 투자자 교류

ETHDenver는 단지 코드를 작성하는 것만이 아닙니다. 그만큼 중요한 것은 관계를 맺는 것입니다. 2025년 페스티벌은 스타트업, 투자자, 커뮤니티 빌더를 위해 맞춤화된 공식 및 비공식 이벤트로 네트워킹을 한층 강화했습니다. 대표적인 이벤트 중 하나는 Bufficorn Ventures (BV) Startup Rodeo였습니다. 이는 엄선된 20개의 스타트업이 과학 박람회 스타일의 엑스포에서 투자자들에게 데모를 선보이는 에너지 넘치는 쇼케이스였습니다. 3월 1일 메인 홀에서 열린 Startup Rodeo는 피칭 대회라기보다는 "스피드 데이팅"에 가까웠습니다. 창업자들은 테이블을 지키며 참석한 모든 투자자들이 경기장을 돌아다니는 동안 일대일로 프로젝트를 소개했습니다. 이 형식은 초기 단계의 팀들도 VC, 전략적 파트너, 또는 파트너들과 의미 있는 대면 시간을 가질 수 있도록 보장했습니다. 많은 스타트업이 이를 고객과 자금을 찾는 발판으로 삼았으며, ETHDenver에 집중된 Web3 펀드들의 존재를 활용했습니다.

컨퍼런스 마지막 날에는 BV BuffiTank Pitchfest가 메인 스테이지에서 주목을 받았습니다. 이는 ETHDenver 커뮤니티에서 나온 "가장 혁신적인" 초기 단계 스타트업 10개가 참여하는 보다 전통적인 피칭 대회였습니다. 이 팀들(해커톤 수상자와는 별개)은 최고의 VC와 업계 리더들로 구성된 패널에게 자신들의 비즈니스 모델을 발표하며, 영예와 잠재적인 투자 제안을 놓고 경쟁했습니다. Pitchfest는 ETHDenver가 딜 플로우 생성기로서의 역할을 보여주었습니다. 이는 명시적으로 "이미 조직되어 투자, 고객, 노출을 찾고 있는" 팀들, 특히 SporkDAO 커뮤니티와 연결된 팀들을 대상으로 했습니다. 수상자에게 주어지는 보상은 단순한 상금이 아니라 Bufficorn Ventures의 포트폴리오나 다른 액셀러레이터 코호트에 합류할 수 있다는 약속이었습니다. 본질적으로 ETHDenver는 Web3를 위한 자체 미니 "샤크 탱크"를 만들어 커뮤니티 최고의 프로젝트에 대한 투자자들의 관심을 촉발시켰습니다.

이러한 공식적인 쇼케이스 외에도, 한 주 동안은 투자자-창업자 믹서로 가득했습니다. Belong이 큐레이팅한 가이드에 따르면, 주목할 만한 사이드 이벤트로는 2월 27일 CertiK Ventures가 주최한 "Meet the VCs" 해피아워, 3월 1일의 StarkNet VC & Founders Lounge, 그리고 "Pitch & Putt" 골프 테마 피칭 이벤트와 같은 캐주얼한 행사들이 있었습니다. 이러한 모임들은 창업자들이 벤처 캐피탈리스트들과 편안한 환경에서 어울릴 수 있는 기회를 제공했으며, 종종 컨퍼런스 이후 후속 미팅으로 이어졌습니다. 많은 신흥 VC 펀드의 존재감도 패널에서 느껴졌습니다. 예를 들어, EtherKnight Stage의 한 세션에서는 Reflexive Capital, Reforge VC, Topology, Metalayer, Hash3와 같은 새로운 펀드들과 그들이 가장 기대하는 트렌드를 조명했습니다. 초기 징후에 따르면 이들 VC는 탈중앙화 소셜 미디어, AI, 새로운 레이어 1 인프라와 같은 분야에 관심이 많았으며, 각 펀드는 경쟁적인 VC 환경에서 자신들을 차별화하기 위해 틈새 시장을 개척하고 있었습니다.

ETHDenver의 네트워킹을 활용하려는 전문가들에게 핵심적인 교훈은 사이드 이벤트와 타겟 믹서의 가치입니다. 거래와 파트너십은 종종 무대 위에서보다 커피나 칵테일을 마시며 싹트기 마련입니다. ETHDenver 2025의 수많은 투자자 이벤트는 Web3 펀딩 커뮤니티가 침체된 시장에서도 적극적으로 인재와 아이디어를 찾고 있음을 보여줍니다. 세련된 데모와 명확한 가치 제안을 준비해 온 스타트업들(종종 이벤트의 해커톤 모멘텀을 활용)은 호의적인 청중을 만났습니다. 한편, 투자자들은 이러한 교류를 통해 개발자 커뮤니티의 맥박을 측정했습니다. 올해 가장 똑똑한 빌더들은 어떤 문제를 해결하고 있는가? 요약하자면, ETHDenver는 네트워킹이 BUIDLing만큼 중요하다는 것을 재확인시켜 주었습니다. 우연한 만남이 시드 투자로 이어질 수 있고, 통찰력 있는 대화가 다음의 큰 협업을 촉발할 수 있는 곳입니다.

Web3의 벤처 캐피탈 트렌드와 투자 기회

ETHDenver 2025 전반에 걸쳐 미묘하지만 중요한 서사 중 하나는 Web3 벤처 캐피탈 자체의 진화하는 환경이었습니다. 광범위한 암호화폐 시장의 등락에도 불구하고, ETHDenver의 투자자들은 유망한 Web3 프로젝트에 대한 강한 의욕을 보였습니다. 현장의 Blockworks 기자들은 *"거시 경제의 역풍에도 불구하고 얼마나 많은 사모 자본이 여전히 암호화폐로 유입되고 있는지"*를 언급하며, 가장 인기 있는 아이디어에 대한 시드 단계 밸류에이션이 종종 하늘을 찌를 정도라고 전했습니다. 실제로 암호화폐 네이티브 펀드부터 Web3에 발을 담그는 전통적인 기술 투자자에 이르기까지 수많은 VC가 참석한 것은 ETHDenver가 여전히 딜 메이킹의 허브임을 분명히 했습니다.

VC들이 논의하고 후원하는 내용에서 새로운 주제별 초점을 파악할 수 있었습니다. AI x Crypto 콘텐츠(해커톤 트랙, 패널 등)의 확산은 단지 개발자 트렌드만이 아니었습니다. 이는 **"DeFi와 AI의 만남"**이라는 연결고리에 대한 벤처의 관심을 반영합니다. 많은 투자자들이 블록체인에서 머신러닝이나 자율 에이전트를 활용하는 스타트업을 주시하고 있으며, 이는 벤처가 후원하는 AI 해커하우스와 서밋에서 증명되었습니다. 마찬가지로, DePIN과 실물 자산(RWA) 토큰화에 대한 높은 관심은 펀드들이 블록체인을 실물 경제 자산 및 물리적 장치와 연결하는 프로젝트에서 기회를 보고 있음을 나타냅니다. 토큰화된 자산의 미래에 대한 B2B 이벤트인 전용 RWA 데이(2월 26일)는 벤처 스카우트들이 그 분야에서 다음 Goldfinch나 Centrifuge(즉, 실물 금융을 온체인으로 가져오는 플랫폼)를 적극적으로 찾고 있음을 시사합니다.

관찰 가능한 또 다른 트렌드는 펀딩 모델에 대한 실험의 증가였습니다. 앞서 언급한 ICO 대 VC에 대한 토론은 단지 컨퍼런스 쇼가 아니었습니다. 이는 커뮤니티 중심 펀딩을 향한 실제 벤처 움직임을 반영합니다. ETHDenver의 일부 VC들은 하이브리드 모델(예: 초기 라운드에 커뮤니티를 참여시키는 벤처 지원 토큰 출시)에 대한 개방성을 나타냈습니다. 또한, 공공재 펀딩과 임팩트 투자도 중요한 위치를 차지했습니다. ETHDenver의 재생 정신과 함께, 투자자들조차도 단지 다음 DeFi나 NFT 붐을 쫓는 것을 넘어 오픈소스 인프라와 개발자들을 장기적으로 지원하는 방법에 대해 논의했습니다. *"미래에 자금을 지원하다: 온체인 스타트업을 위한 진화하는 모델"*과 같은 패널에서는 전통적인 VC 자금을 보완하기 위해 보조금, DAO 재무부 투자, 이차 펀딩과 같은 대안을 탐색했습니다. 이는 프로젝트가 자본화되는 방식이 성숙하고 있음을 가리킵니다. 즉, 벤처 캐피탈, 생태계 펀드, 커뮤니티 펀딩이 함께 작동하는 혼합 방식입니다.

기회 측면에서, Web3 전문가와 투자자들은 ETHDenver의 벤처 동향에서 몇 가지 실행 가능한 인사이트를 얻을 수 있습니다: (1) 인프라는 여전히 왕이다 – 많은 VC들이 업계의 중추로서 픽스앤셔블(L2 스케일링, 보안, 개발 도구)이 여전히 고부가가치 투자라고 밝혔습니다. (2) AI/블록체인 융합 및 DePIN과 같은 새로운 버티컬은 신흥 투자 개척지이다 – 이러한 분야에 대한 최신 정보를 얻거나 그곳에서 스타트업을 찾는 것은 보람 있을 수 있습니다. (3) 커뮤니티 주도 프로젝트와 공공재는 새로운 펀딩을 볼 수 있다 – 현명한 투자자들은 이를 지속 가능하게 지원하는 방법을 찾고 있습니다(예: 탈중앙화 거버넌스나 공유 소유권을 가능하게 하는 프로토콜에 투자). 전반적으로 ETHDenver 2025는 Web3 벤처 환경이 경쟁적이면서도 확신에 차 있음을 보여주었습니다. DeFi, NFT, 게이밍 등의 미래를 구축하는 사람들을 위한 자본은 준비되어 있으며, 약세장에서 태어난 아이디어라도 올바른 트렌드를 목표로 한다면 지원을 받을 수 있습니다.

개발자 리소스, 툴킷 및 지원 시스템

ETHDenver는 항상 빌더 중심이었으며, 2025년도 예외는 아니었습니다. 이 행사는 Web3 개발자들을 위한 풍부한 리소스와 지원을 제공하는 오픈소스 개발자 컨퍼런스 역할을 겸했습니다. BUIDLWeek 동안 참석자들은 다양한 분야에 걸친 라이브 워크숍, 기술 부트캠프, 미니 서밋에 참여할 수 있었습니다. 예를 들어, 개발자들은 최첨단 기술 서밋에 참여하여 최신 프로토콜을 다루거나, 온체인 법률 서밋에 들러 규정을 준수하는 스마트 컨트랙트 개발에 대해 배울 수 있었습니다. 주요 스폰서와 블록체인 팀들은 실습 세션을 운영했습니다. Polkadot 팀은 파라체인을 구축하는 방법에 대한 해커 하우스와 워크숍을 주최했고, EigenLayer는 개발자들에게 자신들의 보안 레이어를 활용하는 방법을 가르치기 위해 "리스테이킹 부트캠프"를 이끌었으며, Polygon과 zkSync는 영지식 기술로 확장 가능한 디앱을 구축하는 방법에 대한 튜토리얼을 제공했습니다. 이러한 세션들은 핵심 엔지니어들과의 귀중한 대면 시간을 제공하여 개발자들이 통합에 대한 도움을 받고 새로운 툴킷을 직접 배울 수 있게 했습니다.

메인 이벤트 기간 동안, 행사장은 빌더들이 협업 환경에서 코딩하고 멘토에게 접근할 수 있는 전용 #BUIDLHub 및 메이커스페이스를 갖추고 있었습니다. ETHDenver 주최 측은 상세한 BUIDLer 가이드를 발행하고 현장 멘토십 프로그램을 운영했습니다(스폰서 전문가들이 기술적 문제에 대해 팀을 도울 수 있었습니다). 개발자 툴링 회사들도 대거 참석했습니다. Alchemy와 Infura(블록체인 API용)부터 Hardhat과 Foundry(스마트 컨트랙트 개발용)까지 다양했습니다. 많은 회사들이 행사에서 새로운 릴리스나 베타 툴을 공개했습니다. 예를 들어, MetaMask 팀은 사용자를 위해 앱이 가스비를 부담하는 방식을 단순화하기 위해 가스 추상화와 개선된 SDK를 특징으로 하는 주요 지갑 업데이트를 미리 선보였습니다. 여러 프로젝트가 SDK나 오픈소스 라이브러리를 출시했습니다. Coinbase의 AI 에이전트를 위한 *"Agent Kit"*와 협력적인 Open Agents Alliance 툴킷이 소개되었고, Story.xyz는 자체 해커톤 이벤트 동안 온체인 지적 재산권 라이선싱을 위한 Story SDK를 홍보했습니다.

상금과 해커 지원은 개발자 경험을 더욱 풍부하게 했습니다. 62개 스폰서가 제공한 180개 이상의 상금으로, 해커들은 사실상 선택할 수 있는 특정 챌린지 메뉴를 가졌으며, 각 챌린지에는 문서, 오피스 아워, 때로는 맞춤형 샌드박스가 함께 제공되었습니다. 예를 들어, Optimism의 상금은 개발자들이 최신 Bedrock 옵코드를 사용하도록 도전했고(엔지니어들이 대기하며 지원), Uniswap의 챌린지는 오프램프 통합을 위한 새로운 API에 대한 액세스를 제공했습니다. 공식 ETHDenver 모바일 앱과 Discord 채널과 같은 조정 및 학습 도구는 개발자들에게 일정 변경, 사이드 퀘스트, 심지어 ETHDenver 채용 게시판을 통한 채용 기회에 대한 정보를 제공했습니다.

주목할 만한 리소스 중 하나는 이차 펀딩 실험과 온체인 투표에 대한 강조였습니다. ETHDenver는 해커톤 심사에 이차 투표 시스템을 통합하여 많은 개발자들에게 이 개념을 접하게 했습니다. 또한, Gitcoin 및 기타 공공재 그룹의 참여는 개발자들이 이벤트 이후 자신들의 프로젝트를 위한 보조금 펀딩에 대해 배울 수 있음을 의미했습니다. 요약하자면, ETHDenver 2025는 개발자들에게 최첨단 도구(SDK, API), 전문가 지도, 그리고 프로젝트를 계속할 수 있는 후속 지원을 제공했습니다. 업계 전문가들에게 이는 교육, 툴링, 펀딩을 통해 개발자 커뮤니티를 육성하는 것이 중요하다는 점을 상기시킵니다. 강조된 많은 리소스(새로운 SDK나 개선된 개발 환경 등)는 이제 공개적으로 사용 가능하며, 전 세계 팀들에게 ETHDenver에서 공유된 것을 기반으로 구축할 기회를 제공합니다.

ETHDenver 경험을 풍요롭게 한 사이드 이벤트와 커뮤니티 모임

ETHDenver를 진정으로 차별화하는 것은 축제 같은 분위기입니다. 공식 및 비공식적인 수십 개의 사이드 이벤트가 메인 컨퍼런스를 중심으로 풍부한 경험의 태피스트리를 만들어냈습니다. 2025년에는 공식 콘텐츠가 진행된 National Western Complex를 넘어, 도시 전체가 밋업, 파티, 해커톤, 커뮤니티 모임으로 활기찼습니다. 종종 스폰서나 지역 Web3 그룹이 주최하는 이러한 사이드 이벤트는 더 넓은 ETHDenver 경험에 크게 기여했습니다.

공식적으로 ETHDenver의 자체 일정에는 테마가 있는 미니 이벤트가 포함되었습니다. 행사장은 NFT 아트 갤러리, 블록체인 아케이드, DJ 칠 돔, 심지어 긴장을 풀 수 있는 젠 존과 같은 구역을 갖추고 있었습니다. 주최 측은 또한 오프닝 및 클로징 파티와 같은 저녁 이벤트를 주최했습니다. 예를 들어, 2월 26일 Story Protocol이 주최한 "Crack’d House" 비공식 오프닝 파티는 예술적인 공연과 해커톤 시상식 발표를 결합했습니다. 그러나 진정으로 확산된 것은 커뮤니티 주도 사이드 이벤트였습니다. 한 이벤트 가이드에 따르면, ETHDenver Luma 캘린더에는 100개 이상의 사이드 행사가 기록되었습니다.

몇 가지 예는 이러한 모임의 다양성을 보여줍니다:

  • 기술 서밋 & 해커 하우스: ElizaOS와 EigenLayer는 AI+Web3 애호가들을 위해 9일간의 Vault AI Agent Hacker House 레지던시를 운영했습니다. StarkNet 팀은 여러 날에 걸쳐 해커 하우스를 주최했으며, 이는 ZK-롤업 기반 프로젝트를 위한 데모 나이트로 마무리되었습니다. 이는 개발자들이 메인 해커톤 외부에서 특정 기술 스택에 대해 협업할 수 있는 집중된 환경을 제공했습니다.
  • 네트워킹 믹서 & 파티: 매일 저녁 다양한 선택지가 있었습니다. 2월 27일 MetaMask, Linea, EigenLayer, Wormhole 등이 후원한 Builder Nights Denver는 혁신가들을 모아 음식과 음료를 즐기며 캐주얼한 대화를 나누었습니다. Belong이 후원한 3VO’s Mischief Minded Club Takeover는 커뮤니티 토큰화 리더들을 위한 수준 높은 네트워킹 파티였습니다. 순수한 즐거움을 원하는 사람들을 위해 BEMO Rave(Berachain 등과 함께)와 rAIve the Night(AI 테마 레이브)는 암호화폐 군중을 밤늦게까지 춤추게 했으며, 음악, 예술, 암호화폐 문화를 혼합했습니다.
  • 특별 관심사 모임: 틈새 커뮤니티도 자신들의 공간을 찾았습니다. Meme Combat은 순전히 밈 애호가들이 암호화폐에서 밈의 역할을 기념하기 위한 이벤트였습니다. House of Ink는 NFT 아티스트와 수집가를 대상으로 했으며, 몰입형 예술 공간(Meow Wolf Denver)을 디지털 아트 쇼케이스로 탈바꿈시켰습니다. 2월 26일 SheFi Summit은 World of Women, Celo와 같은 그룹의 지원을 받아 Web3 분야의 여성들을 모아 강연과 네트워킹을 진행하며 다양성과 포용성에 대한 약속을 강조했습니다.
  • 투자자 & 콘텐츠 크리에이터 밋업: VC 이벤트에 대해서는 이미 언급했습니다. 추가적으로, 2월 28일 KOL(핵심 오피니언 리더) 모임은 암호화폐 인플루언서와 콘텐츠 크리에이터들이 참여 전략을 논의하게 하여 소셜 미디어와 암호화폐 커뮤니티의 교차점을 보여주었습니다.

결정적으로, 이러한 사이드 이벤트는 단지 오락거리가 아니었습니다. 그들은 종종 그 자체로 아이디어와 관계의 인큐베이터 역할을 했습니다. 예를 들어, Tokenized Capital Summit 2025는 온체인 자본 시장의 미래를 깊이 파고들었으며, 참석한 핀테크 기업가와 블록체인 개발자 간의 협업을 촉발했을 가능성이 높습니다. 온체인 게이밍 해커 하우스는 게임 개발자들이 모범 사례를 공유할 수 있는 공간을 제공했으며, 이는 블록체인 게이밍 프로젝트 간의 상호 교류로 이어질 수 있습니다.

대규모 컨퍼런스에 참석하는 전문가들에게 ETHDenver의 모델은 가치가 무대 위에서만큼이나 무대 밖에서도 발견된다는 점을 강조합니다. 광범위한 비공식 프로그램은 참석자들이 자신의 경험을 맞춤화할 수 있게 했습니다. 목표가 투자자를 만나는 것이든, 새로운 기술을 배우는 것이든, 공동 창업자를 찾는 것이든, 아니면 그냥 긴장을 풀고 동료애를 쌓는 것이든, 그에 맞는 이벤트가 있었습니다. 많은 베테랑들은 신규 참가자들에게 조언합니다: "강연만 듣지 말고, 밋업에 가서 인사하세요." Web3처럼 커뮤니티 중심적인 공간에서 이러한 인간적인 연결은 종종 DAO 협업, 투자 거래, 또는 적어도 대륙을 넘나드는 지속적인 우정으로 이어집니다. ETHDenver 2025의 활기찬 사이드 씬은 핵심 컨퍼런스를 증폭시켜, 덴버에서의 한 주를 다차원적인 혁신의 축제로 만들었습니다.

핵심 요약 및 실행 가능한 인사이트

ETHDenver 2025는 혁신과 협업이 만개한 Web3 산업을 보여주었습니다. 이 분야의 전문가들에게는 이 심층 분석에서 몇 가지 명확한 요약과 실행 항목이 도출됩니다:

  • 트렌드의 다각화: 이 행사는 Web3가 더 이상 단일하지 않다는 것을 분명히 했습니다. AI 통합, DePIN, RWA 토큰화와 같은 신흥 분야는 DeFi와 NFT만큼이나 두드러집니다. 실행 가능한 인사이트: 정보를 유지하고 적응력을 갖추십시오. 리더들은 다음 성장 물결을 타기 위해 이러한 떠오르는 버티컬에 R&D나 투자를 할당해야 합니다(예: AI가 디앱을 어떻게 향상시킬 수 있는지, 또는 실물 자산이 DeFi 플랫폼에 어떻게 통합될 수 있는지 탐색).
  • 크로스체인이 미래다: 주요 비이더리움 프로토콜들이 적극적으로 참여하면서 생태계 간의 벽이 낮아지고 있습니다. MetaMask가 비트코인/솔라나 지원을 추가하고 Polkadot 및 Cosmos 기반 체인들이 이더리움 개발자들을 유치하는 등, 상호운용성과 멀티체인 사용자 경험이 큰 주목을 받았습니다. 실행 가능한 인사이트: 멀티체인 세계를 위해 설계하십시오. 프로젝트는 다른 체인의 유동성과 사용자를 활용하는 통합이나 브리지를 고려해야 하며, 전문가들은 고립되기보다는 커뮤니티 간의 파트너십을 모색해야 합니다.
  • 커뮤니티 & 공공재의 중요성: "재생자들의 해"라는 테마는 단지 수사적인 표현이 아니었습니다. 이는 공공재 펀딩 논의, 해커톤을 위한 이차 투표, SheFi Summit과 같은 이벤트를 통해 콘텐츠에 스며들었습니다. 윤리적이고 지속 가능한 개발과 커뮤니티 소유권은 이더리움 정신의 핵심 가치입니다. 실행 가능한 인사이트: 재생 원칙을 통합하십시오. 오픈소스 이니셔티브를 지원하거나, 공정한 출시 메커니즘을 사용하거나, 비즈니스 모델을 커뮤니티 성장과 일치시키는 등, Web3 기업들은 순전히 착취적이지 않음으로써 호의와 장수성을 얻을 수 있습니다.
  • 투자자 심리 – 신중하지만 대담함: 약세장 소문에도 불구하고, ETHDenver는 VC들이 Web3의 다음 장에 적극적으로 탐색하고 큰 베팅을 할 의향이 있음을 보여주었습니다. 그러나 그들은 또한 투자 방법을 재고하고 있습니다(예: 더 전략적이고, 제품-시장 적합성에 대한 감독 강화, 커뮤니티 펀딩에 대한 개방성). 실행 가능한 인사이트: 스타트업이라면 기본기와 스토리텔링에 집중하십시오. 눈에 띄었던 프로젝트들은 명확한 사용 사례와 종종 작동하는 프로토타입(일부는 주말에 만들어짐!)을 가지고 있었습니다. 투자자라면, 컨퍼런스는 인프라(L2, 보안, 개발 도구)가 여전히 최우선 순위임을 확인시켜 주었지만, AI, 게이밍, 소셜 분야의 논제를 통해 차별화하면 펀드를 선두에 세울 수 있습니다.
  • 개발자 경험 개선 중: ETHDenver는 계정 추상화 도구부터 온체인 AI 라이브러리에 이르기까지 Web3 개발의 장벽을 낮추는 많은 새로운 툴킷, SDK, 프레임워크를 조명했습니다. 실행 가능한 인사이트: 이러한 리소스를 활용하십시오. 팀들은 개발을 가속화하고 경쟁에서 앞서 나가기 위해 공개된 최신 개발 도구를 실험해야 합니다(예: 더 쉬운 로그인을 위해 zkSync Smart SSO를 사용해 보거나, AI 프로젝트를 위해 Open Agents Alliance 리소스를 사용). 또한, 기업들은 인재와 아이디어를 발굴하는 방법으로 해커톤 및 공개 개발자 포럼에 계속 참여해야 합니다. 해커를 창업자로 전환시킨 ETHDenver의 성공이 그 모델의 증거입니다.
  • 사이드 이벤트의 힘: 마지막으로, 사이드 이벤트의 폭발적인 증가는 네트워킹에서 중요한 교훈을 가르쳐 주었습니다. 기회는 종종 캐주얼한 환경에서 나타납니다. 해피아워에서의 우연한 만남이나 작은 밋업에서의 공통 관심사가 경력을 결정짓는 연결을 만들 수 있습니다. 실행 가능한 인사이트: 업계 컨퍼런스에 참석하는 사람들은 공식 의제 이상을 계획하십시오. 목표(투자자 만나기, 틈새 기술 배우기, 인재 채용 등)에 맞는 사이드 이벤트를 파악하고 적극적으로 참여하십시오. 덴버에서 보았듯이, 한 주의 생태계에 완전히 몰입한 사람들은 지식뿐만 아니라 새로운 파트너, 채용 인력, 친구들을 얻어갔습니다.

결론적으로, ETHDenver 2025는 Web3 산업의 모멘텀을 보여주는 축소판이었습니다. 최첨단 기술 담론, 열정적인 커뮤니티 에너지, 전략적인 투자 움직임, 그리고 진지한 혁신과 재미를 혼합하는 문화의 조화였습니다. 전문가들은 이 행사에서 얻은 트렌드와 인사이트를 Web3가 나아갈 방향에 대한 로드맵으로 보아야 합니다. 실행 가능한 다음 단계는 이러한 배움(AI에 대한 새로운 초점이든, L2 팀과의 연결이든, 해커톤 프로젝트에서 얻은 영감이든)을 전략으로 전환하는 것입니다. ETHDenver가 가장 좋아하는 모토의 정신으로, 이제 이러한 인사이트를 바탕으로 #BUIDL하고 덴버에 모인 많은 사람들이 함께 구상한 탈중앙화된 미래를 만들어갈 때입니다.

Altera.al 채용: 디지털 인간 개발 선구자와 함께 ($600K-1M 보상)

· 약 2분

Altera.al은 디지털 인간 개발 분야에서 획기적인 성과를 보여준 혁신적인 AI 스타트업으로, 이번에 변혁적인 커리어 기회를 제공하게 되어 기쁩니다. 최근 MIT Technology Review에 소개된 바와 같이, Altera.al은 인간과 유사한 행동을 개발하고, 커뮤니티를 형성하며, 디지털 공간에서 의미 있게 상호작용할 수 있는 AI 에이전트를 만드는 데 놀라운 진전을 이루었습니다.

Altera.al: 디지털 인간 개발 최전선에 합류하고 $600K-1M 보상을 받으세요

Altera.al 소개

MIT에서 계산 신경과학 조교수직을 떠나 이 비전을 실현하고자 설립한 Robert Yang이 창업한 Altera.al은 이미 A16Z와 Eric Schmidt의 신생 기술 벤처 캐피털 등 유명 투자자로부터 1,100만 달러 이상의 자금을 확보했습니다. 최근 Project Sid 시연에서는 AI 에이전트가 스스로 전문 역할을 개발하고, 사회적 연결을 형성하며, 마인크래프트 내에서 문화 시스템까지 구축하는 모습을 보여주었습니다. 이는 규모에 맞춰 협업할 수 있는 진정한 자율 AI 에이전트를 만들겠다는 목표에 한 걸음 더 다가선 것입니다.

지금이 합류하기에 흥미로운 시점인 이유

Altera.al은 인간의 기본적인 특성을 갖춘 기계를 개발한다는 사명에서 중요한 기술적 돌파구를 달성했습니다. 이들의 작업은 전통적인 AI 개발을 넘어 다음과 같은 디지털 존재를 만들고 있습니다.

  • 커뮤니티와 사회적 계층 형성
  • 전문 역할 및 책임 개발
  • 문화적 패턴 생성 및 전파
  • 디지털 공간에서 인간과 의미 있게 상호작용

찾고 있는 인재

최근의 돌파구를 바탕으로 Altera.al은 팀을 확장하고 있으며, 다음 분야의 전문가에게 600,000에서600,000에서 1,000,000까지의 뛰어난 보상 패키지를 제공합니다.

  • AI 에이전트 연구 전문가
  • 다음 분야의 강력한 개인 기여자
    • 분산 시스템
    • 보안
    • 운영 체제

지원 방법

이 혁신적인 여정에 함께하고 싶으신가요? 아래 커리어 페이지를 통해 직접 지원하세요: https://jobs.ashbyhq.com/altera.al

디지털 인간 개발의 미래에 합류하세요

인공지능과 인간 행동 모델링의 교차점에서 일할 수 있는 독특한 기회이며, 이미 눈에 띄는 성과를 보여주고 있는 팀과 함께 할 수 있습니다. AI와 인간‑기계 상호작용의 한계를 뛰어넘는 일에 열정을 가지고 있다면, Altera.al이 다음 모험이 될 수 있습니다.


더 많은 혁신적인 기술 및 블록체인 기회 소식을 원하시면 Twitter 또는 Discord 커뮤니티를 팔로우하세요.

이 게시물은 기술 산업에서 혁신을 지원하고 인재와 변혁적인 기회를 연결하기 위한 우리의 지속적인 약속의 일환입니다.

0G의 분산 AI 운영 체제가 대규모 온체인 AI를 실제로 구동할 수 있을까?

· 약 7분

2024년 11월 13일, 0G Labs는 Hack VC, Delphi Digital, OKX Ventures, Samsung Next, Animoca Brands가 이끄는 4천만 달러 펀딩 라운드를 발표하며 이 분산 AI 운영 체제 뒤 팀을 주목받게 만들었습니다. 그들의 모듈식 접근 방식은 분산 스토리지, 데이터 가용성 검증, 분산 정산을 결합해 온체인 AI 애플리케이션을 가능하게 합니다. 하지만 실제로 GB/s 수준의 처리량을 달성해 Web3에서 AI 채택의 다음 시대를 견인할 수 있을까요? 이 심층 보고서는 0G의 아키텍처, 인센티브 메커니즘, 생태계 현황 및 잠재적 위험 요소를 평가하여 0G가 약속을 실현할 수 있는지를 판단하는 데 도움을 줍니다.

배경

AI 분야는 ChatGPTERNIE Bot 같은 대형 언어 모델에 의해 급격히 성장했습니다. 그러나 AI는 챗봇과 생성 텍스트를 넘어 AlphaGo의 바둑 승리부터 MidJourney 같은 이미지 생성 도구까지 포괄합니다. 많은 개발자가 추구하는 궁극적인 목표는 AGI(Artificial General Intelligence), 즉 인간 수준의 학습·인식·결정·복잡한 실행 능력을 갖춘 AI “에이전트”입니다.

하지만 AI와 AI 에이전트 애플리케이션은 모두 데이터 집약적입니다. 학습과 추론에 방대한 데이터셋이 필요하고, 전통적으로 이러한 데이터는 중앙화된 인프라에 저장·처리됩니다. 블록체인의 등장으로 DeAI(Decentralized AI) 라는 새로운 접근 방식이 등장했으며, 이는 데이터 저장·공유·검증을 탈중앙화 네트워크에 맡겨 기존 중앙화 AI 솔루션의 한계를 극복하려 합니다.

0G Labs는 이러한 DeAI 인프라 환경에서 분산 AI 운영 체제0G를 구축하려는 선두 주자입니다.

0G Labs란?

전통 컴퓨팅에서 **운영 체제(OS)**는 하드웨어와 소프트웨어 자원을 관리합니다(예: Windows, Linux, macOS, iOS, Android). OS는 하드웨어 복잡성을 추상화해 사용자와 개발자가 컴퓨터와 쉽게 상호작용하도록 돕습니다.

0G OS는 Web3에서 이와 유사한 역할을 목표로 합니다.

  • 분산 스토리지·컴퓨트·데이터 가용성을 관리
  • 온체인 AI 애플리케이션 배포를 단순화

왜 탈중앙화인가?

전통 AI 시스템은 중앙화된 데이터 사일로에 저장·처리되며, 데이터 투명성·사용자 프라이버시·데이터 제공자 보상 등의 문제가 발생합니다. 0G는 탈중앙화 스토리지, 암호학적 증명, 공개 인센티브 모델을 활용해 이러한 위험을 완화합니다.

**“0G”**는 “Zero Gravity”(무중력) 를 의미합니다. 팀은 데이터 교환과 컴퓨팅이 “무게 없이” 이루어지는 환경을 상상합니다—AI 학습·추론·데이터 가용성이 모두 온체인에서 매끄럽게 이루어지는 세상 말이죠.

2024년 10월에 공식 설립된 0G Foundation은 이 비전을 추진합니다. 목표는 AI를 공공재로 만들어 누구나 접근·검증·활용할 수 있게 하는 것입니다.

0G 운영 체제의 핵심 구성 요소

본질적으로 0G는 AI 애플리케이션을 온체인에서 지원하도록 설계된 모듈형 아키텍처이며, 세 가지 주요 축으로 구성됩니다.

  1. 0G Storage – 탈중앙화 스토리지 네트워크
  2. 0G DA (Data Availability) – 데이터 가용성을 보장하는 전용 레이어
  3. 0G Compute Network – AI 추론(및 향후 학습)을 위한 탈중앙화 컴퓨트 및 정산

이 세 축은 0G Chain이라는 레이어1 네트워크 아래에서 협업합니다. 0G Chain은 합의와 정산을 담당합니다.

0G Storage

0G Storage는 대규모 데이터를 위한 탈중앙화 스토리지 시스템으로, 인센티브가 내장된 노드들이 사용자 데이터를 저장합니다. 핵심은 Erasure Coding(EC) 을 이용해 데이터를 작은 중복 “청크” 로 나누고, 이를 다양한 스토리지 노드에 분산시키는 것입니다. 노드가 장애가 발생해도 중복 청크 덕분에 데이터 복구가 가능합니다.

지원 데이터 유형

  • 구조화 데이터: Key-Value(KV) 레이어에 저장되어 동적·빈번한 업데이트에 적합합니다(예: 데이터베이스, 협업 문서).
  • 비구조화 데이터: Log 레이어에 순차적으로 추가되는 형태로, 대용량 파일 시스템에 최적화돼 있습니다.

KV 레이어를 Log 레이어 위에 쌓아, 대규모 모델 가중치(비구조화)부터 실시간 메트릭·사용자 기반 데이터(구조화)까지 다양한 AI 요구를 충족합니다.

PoRA 합의

PoRA(Proof of Random Access) 는 스토리지 노드가 실제로 청크를 보유하고 있음을 증명합니다.

  • 스토리지 마이너는 무작위 청크에 대한 암호학적 해시를 주기적으로 챌린지 받습니다.
  • 해당 청크를 로컬에서 해시해 응답해야 하며, 이는 PoW와 유사한 퍼즐 해결 방식입니다.

공정성을 위해 경쟁은 8 TB 세그먼트 단위로 제한됩니다. 큰 마이너는 하드웨어를 여러 8 TB 파티션으로 나눌 수 있고, 작은 마이너는 하나의 8 TB 경계 내에서 경쟁합니다.

인센티브 설계

데이터는 8 GB “가격 세그먼트” 로 구분됩니다. 각 세그먼트는 기부 풀보상 풀을 가집니다. 사용자는 ZG(0G Token) 로 스토리지 비용을 지불하고, 이 비용이 노드 보상에 일부 사용됩니다.

  • 기본 보상: 스토리지 노드가 유효한 PoRA 증명을 제출하면 해당 세그먼트에 대해 즉시 블록 보상을 받습니다.
  • 지속 보상: 기부 풀에서 연간 4 % 정도가 보상 풀로 전환돼, 노드가 데이터를 영구 보관하도록 유도합니다. 특정 세그먼트를 보관하는 노드가 적을수록 각 노드가 받는 보상 비중이 커집니다.

사용자는 한 번만 비용을 지불하면 영구 스토리지를 이용할 수 있지만, 시스템 최소값 이상을 기부해야 합니다. 기부 금액이 클수록 마이너가 해당 데이터를 복제할 가능성이 높아집니다.

로열티 메커니즘: 초기 스토리지 제공자는 각 청크에 대해 “로열티 기록”을 생성합니다. 새로운 노드가 동일 청크를 저장하려 하면 원 제공자가 공유할 수 있으며, 이후 새로운 노드가 PoRA 증명을 제출하면 원 제공자는 지속적인 로열티를 받습니다. 데이터가 널리 복제될수록 초기 제공자의 총 보상이 증가합니다.

Filecoin·Arweave와 비교

유사점

  • 모두 탈중앙화 데이터 스토리지를 인센티브화합니다.
  • 0G Storage와 Arweave는 영구 스토리지를 목표로 합니다.
  • 데이터 청크와 중복 저장이 기본 설계입니다.

차이점

  • 네이티브 통합: 0G Storage는 독립 블록체인이 아니라 0G Chain에 직접 통합돼 AI 중심 사용 사례에 최적화돼 있습니다.
  • 구조화 데이터 지원: KV 기반 구조화 데이터를 제공해 빈번한 읽·쓰기 요구가 있는 AI 워크로드에 필수적입니다.
  • 비용: 0G는 영구 스토리지 비용을 $10–11/TB 로 제시해 Arweave보다 저렴하다고 주장합니다.
  • 성능 초점: AI 처리량 요구에 맞춰 설계돼 Filecoin·Arweave보다 높은 처리량을 목표로 합니다.

0G DA (Data Availability Layer)

데이터 가용성은 네트워크 참여자가 트랜잭션 데이터를 완전하게 검증·복구할 수 있음을 보장합니다. 데이터가 누락되거나 은폐되면 블록체인의 신뢰 가정이 무너집니다.

0G 시스템에서는 데이터가 청크화돼 오프체인에 저장됩니다. 각 청크의 Merkle Root 를 체인에 기록하고, DA 노드는 샘플링을 통해 청크가 실제 존재함을 증명합니다.

0G Compute Network

(본문에 별도 설명이 없으므로 기존 내용 그대로 유지)

0G의 합의 메커니즘 요약

  • 스토리지: PoRA(Proof of Random Access) 로 무작위 청크 접근 증명
  • 데이터 가용성: Merkle Root 기반 샘플링 검증
  • 컴퓨트: 탈중앙화 추론 노드가 작업을 수행하고, 정산은 0G Chain에서 처리

0G의 인센티브 메커니즘

0G는 토큰(ZA) 을 활용해 네트워크 참여를 장려합니다.

  • 스토리지 비용: 사용자는 ZG 로 스토리지 비용을 선불하고, 이 금액이 기여 풀·보상 풀에 분배됩니다.
  • 기본 보상: 유효한 PoRA 증명 제출 시 즉시 블록 보상을 받습니다.
  • 지속 보상: 연간 일정 비율(4 %)이 영구 보관 인센티브로 전환됩니다.
  • 로열티: 초기 제공자는 청크 복제 시 지속적인 로열티를 획득합니다.

0G와 기존 솔루션 비교

항목0GFilecoinArweave
영구 스토리지 비용$10–11/TB변동 (시장 기반)$5–6/TB
구조화 데이터 지원KV 레이어 제공제한적비구조화 위주
AI 처리량 목표GB/s 수준낮음낮음
레이어1 통합0G Chain에 직접 통합독립 체인독립 체인
인센티브 모델PoRA + 로열티Proof-of-Replication 등Proof-of-Access 등

0G의 합의 메커니즘 요약

  • 스토리지: PoRA 로 무작위 청크 접근 증명
  • 데이터 가용성: Merkle Root 기반 샘플링 검증
  • 컴퓨트: 탈중앙화 AI 추론 노드와 정산 메커니즘

0G의 인센티브 메커니즘

  • 스토리지 비용: ZG 로 선불 결제, 기부 풀·보상 풀로 분배
  • 기본 보상: PoRA 증명 시 즉시 블록 보상
  • 지속 보상: 연간 4 % 기부 풀 전환, 영구 보관 유도
  • 로열티: 초기 제공자에게 지속적인 로열티 지급

0G와 기존 솔루션 비교

  • Filecoin·Arweave와 유사점: 탈중앙화 스토리지 인센티브, 청크 기반 중복 저장
  • 차이점: 0G는 AI 중심 설계, 구조화 데이터 지원, 비용 효율성, 높은 처리량 목표

결론

0G는 분산 스토리지·데이터 가용성·컴퓨트 를 하나의 통합 플랫폼으로 묶어 온체인 AI를 실현하려는 야심찬 프로젝트입니다. 현재까지 모은 4천만 달러 와 강력한 파트너십은 프로젝트 진행에 큰 힘이 됩니다. 그러나 실제로 GB/s 수준의 처리량을 달성하고, 탈중앙화 인센티브가 장기적으로 지속 가능하도록 설계할 수 있는지는 아직 검증이 필요합니다.

주요 위험 요소

  • 기술 복잡성: 세 개의 레이어가 모두 고성능을 유지해야 함
  • 경제적 지속 가능성: 영구 스토리지와 지속 보상이 장기적으로 충분한 인센티브를 제공할 수 있는가
  • 생태계 채택: 개발자와 기업이 0G 기반 서비스를 실제로 채택할지 여부

전망

0G가 제시한 모듈형, 탈중앙화, AI‑우선 설계는 Web3에서 AI 처리량을 크게 끌어올릴 잠재력을 가지고 있습니다. 성공한다면 AI를 공공재 로 전환해 누구나 접근·검증·활용할 수 있는 새로운 패러다임을 열게 될 것입니다. 그러나 기술적·경제적·생태계적 도전 과제를 어떻게 극복하느냐에 따라 결과가 달라질 것입니다.