만약 차세대 프론티어 AI 모델이 단일 기업이 소유한 10억 달러 규모의 데이터 센터가 아니라, 블록체인으로 조정되고 일반 인터넷 연결을 통해 소통하는 전 세계 수십 명의 익명 기여자들에 의해 훈련된다면 어떨까요?

이것이 바로 최근에 일어난 일입니다. Templar의 Covenant-72B는 Bittensor의 서브넷 3(Subnet 3)에서 전적으로 사전 훈련된 727억 개의 파라미터를 가진 대규모 언어 모델로, 암호화폐 역사상 가장 거대한 협업 훈련 AI 모델이 되었습니다. 또한 중앙집중식 베이스라인과 경쟁할 수 있는 성능을 달성하면서도 완전히 무허가형(permissionless) 참여를 허용한 최초의 모델 중 하나입니다. 화이트리스트도, 기업의 게이트키퍼도 없었습니다. 오직 GPU, 압축된 그래디언트(gradients), 그리고 모두가 정직하게 참여하도록 유도하는 토큰 인센티브 메커니즘만 있었을 뿐입니다.
Anthropic의 공동 창립자 잭 클라크(Jack Clark)는 그의 영향력 있는 뉴스레터 Import AI에서 이 성과를 언급하며, 탈중앙화 훈련 컴퓨팅이 매년 20배씩 성장하고 있으며, 이는 중앙집중식 프론티어 훈련의 연간 성장률인 5배보다 4배나 빠르다고 지적했습니다.
이 성과가 Bittensor 생태계를 넘어 중요한 의미를 갖는 이유는 다음과 같습니다.