Ambient의 720만 달러 규모 승부수: Proof of Logits가 어떻게 해시 기반 채굴을 AI 추론으로 대체할 수 있는가
블록체인을 보호하는 동일한 연산 작업이 차세대 AI 모델을 훈련시킨다면 어떨까요? 이것은 먼 미래의 비전이 아닙니다. 최근 a16z CSX 로부터 720만 달러를 투자 유치하며 세계 최초의 AI 기반 작업 증명(Proof-of-Work) 블록체인을 구축하고 있는 솔라나(Solana) 포크인 Ambient 의 핵심 이론입니다.
전통적인 작업 증명은 임의의 암호학적 퍼즐을 풀기 위해 전기를 소모합니다. 비트코인 채굴자들은 네트워크 보안 외에는 가치가 없는 연산 작업인, 선행 제로(leading zeros)가 충분한 해시를 찾기 위해 경쟁합니다. Ambient 는 이 시나리오를 완전히 뒤집습니다. Ambient 의 Proof of Logits (PoL) 합의 메커니즘은 해시 반복 연산(hash grinding)을 AI 추론, 미세 조정(fine-tuning) 및 모델 학습으로 대체합니다. 채굴자는 퍼즐을 풀지 않고 검증 가능한 AI 결과물을 생성합니다. 검증자는 전체 워크로드를 다시 계산하지 않고 로짓(logits)이라고 불리는 암호학적 지문을 확인합니다.
그 결과는 무엇일까요? 보안과 AI 발전이 경제적으로 일치하며, 0.1% 의 검증 오버헤드로 합의 확인이 거의 무료에 가까워지고, 중앙 집중식 대안에 비해 학습 비용이 10배나 절감되는 블록체인입니다. 성공한다면 Ambient 는 채굴을 생산적인 AI 노동으로 전환함으로써, 작업 증명이 자원을 낭비한다는 암호화폐의 가장 오래된 비판 중 하나에 답할 수 있을 것입니다.
Proof of Logits 의 돌파구: 재계산 없는 검증 가능한 AI
PoL 을 이해하려면 로짓(logits)이 실제로 무엇인지 알아야 합니다. 대규모 언어 모델(LLM)이 텍스트를 생성할 때 단어를 직접 출력하지 않습니다. 대신 각 단계에서 전체 어휘에 대한 확률 분포, 즉 가능한 모든 다음 토큰에 대한 신뢰 수준을 나타내는 수치 점수를 생성합니다.
이러한 점수를 로짓이라고 합니다. 5만 개의 토큰 어휘를 가진 모델에서 단어 하나를 생성한다는 것은 5만 개의 로짓을 계산하는 것을 의미합니다. 이 숫자들은 고유한 연산 지문 역할을 합니다. 특정 가중치를 가진 특정 모델이 특정 입력을 처리할 때만 특정 로짓 분포가 생성됩니다.
Ambient 의 혁신은 로짓을 작업 증명(proof-of-work)으로 사용하는 것입니다. 채굴자는 AI 추론(프롬프트에 대한 응답 생성)을 수행하고, 검증자는 전체 계산을 다시 수행하는 대신 로짓 지문을 확인하여 이 작업을 검증합니다.
검증 프로세스는 다음과 같이 진행됩니다:
채굴자의 결과물 생성: 채굴자는 프롬프트(예: "블록체인 합의 원칙 요약")를 받고 6,000억 개의 매개변수 모델을 사용하여 4,000개 토큰 분량의 응답을 생성합니다. 이는 4,000 × 50,000 = 2억 개의 로짓을 생성합니다.
검증자의 지점 확인(Spot-check) 검증: 검증자는 4,000개 토큰을 모두 다시 생성하는 대신 임의의 위치(예: 2,847번째 토큰)를 샘플링합니다. 검증자는 해당 위치에서 단일 추론 단계를 실행하고 채굴자가 보고한 로짓을 예상 분포와 비교합니다.
암호학적 약속(Cryptographic commitment): 부동 소수점 정밀도를 고려한 허용 범위 내에서 로짓이 일치하면 채굴자의 작업이 검증됩니다. 일치하지 않으면 블록이 거부되고 채굴자는 보상을 몰수당합니다.
이를 통해 검증 오버헤드가 원래 계산의 약 0.1% 로 줄어듭니다. 2억 개의 로짓을 확인하는 검증자는 5만 개의 로짓(토큰 위치 1개)만 확인하면 되므로 비용을 99.9% 절감할 수 있습니다. 이는 검증이 전체 해시 함수를 다시 실행하는 것을 의미하는 전통적인 PoW 방식이나, 퍼즐 자체가 임의적이기 때문에 단일 SHA-256 해시를 확인하는 것이 사소한 비트코인의 방식과 대조됩니다.
Ambient 의 시스템은 모든 작업을 다시 계산해야 하는 단순한 "유용 작업 증명(proof of useful work)" 방식보다 기하급수적으로 저렴합니다. 이는 비트코인의 효율성(저렴한 검증)에 더 가까우면서도 실제 유용성(무의미한 해시 대신 AI 추론)을 제공합니다.
10배의 학습 비용 절감: 데이터 센터 독점 없는 탈중앙화 AI
중앙 집중식 AI 학습은 비용이 많이 듭니다. 대부분의 조직에는 감당하기 어려운 수준입니다. GPT-4 규모의 모델을 학습하는 데는 수천만 달러가 소요되고 수천 개의 기업용 GPU 가 필요하며, 소수의 거대 IT 기업의 손에 권력이 집중됩니다. Ambient 의 아키텍처는 독립적인 채굴자 네트워크에 학습을 분산함으로써 이를 민주화하는 것을 목표로 합니다.
10배의 비용 절감은 두 가지 기술 혁신에서 비롯됩니다:
PETALS 방식의 샤딩: Ambient 는 각 노드가 대규모 모델의 샤드(shard)만 저장하는 탈중앙화 추론 시스템인 PETALS 의 기술을 채택했습니다. 채굴자가 6,000억 개의 매개변수 모델 전체를 보유(수 테라바이트의 VRAM 필요)하는 대신, 각 채굴자는 레이어의 일부 세트만 소유합니다. 프롬프트는 네트워크를 통해 순차적으로 흐르며, 각 채굴자는 자신의 샤드를 처리하고 활성화 값(activations)을 다음 채굴자에게 전달합니다.
이는 단일 소비자 등급 GPU(24GB VRAM)를 가진 채굴자도 데이터 센터에 수백 개의 GPU 가 필요한 모델 학습에 참여할 수 있음을 의미합니다. 연산 그래프를 수백 또는 수천 개의 노드에 분산함으로써 Ambient 는 기존 ML 클러스터에서 사용되는 InfiniBand 와 같은 비싼 고대역폭 인터커넥트의 필요성을 제거합니다.
SLIDE 에서 영감을 받은 희소성(Sparsity): 대부분의 신경망 계산은 대부분의 항목이 0에 가까운 행렬 곱셈을 포함합니다. SLIDE (Sub-LInear Deep learning Engine) 는 활성화 값을 해싱하여 주어진 입력에 대해 실제로 중요한 뉴런을 식별함으로써 관련 없는 계산을 완전히 건너뛰어 이를 활용합니다.
Ambient 는 이 희소성을 분산 학습에 적용합니다. 모든 채굴자가 모든 데이터를 처리하는 대신, 네트워크는 현재 배치와 관련된 샤드를 가진 노드로 작업을 동적으로 라우팅합니다. 이는 분산 ML 의 주요 병목 현상인 통신 오버헤드를 줄이고, 성능이 낮은 하드웨어를 가진 채굴자도 희소 서브그래프를 처리함으로써 참여할 수 있게 합니다.
이러한 조합은 Ambient 가 주장하길 DiLoCo 나 Hivemind 와 같은 기존 분산 학습 프로젝트보다 10배 더 나은 처리량을 제공합니다. 더 중요한 것은 진입 장벽을 낮춘다는 점입니다. 채굴자는 데이터 센터 급의 인프라가 필요하지 않으며, 괜찮은 GPU 를 갖춘 게이밍 PC 만으로도 기여하기에 충분합니다.