Was wäre, wenn das nächste bahnbrechende KI-Modell nicht in einem Milliarden Dollar teuren Rechenzentrum eines einzelnen Konzerns trainiert würde – sondern von Dutzenden anonymen Mitwirkenden auf der ganzen Welt, koordiniert durch eine Blockchain und über gewöhnliche Internetverbindungen kommunizierend?

Genau das ist gerade passiert. Templars Covenant-72B, ein Large Language Model mit 72,7 Milliarden Parametern, das vollständig auf dem Subnet 3 von Bittensor vortrainiert wurde, ist zum größten kollaborativ trainierten KI-Modell in der Geschichte der Kryptowelt geworden – und eines der ersten, das eine wettbewerbsfähige Leistung gegenüber zentralisierten Baselines erreicht und gleichzeitig eine völlig erlaubnisfreie (permissionless) Teilnahme ermöglicht. Keine Whitelists. Keine korporativen Gatekeeper. Nur GPUs, komprimierte Gradienten und ein Token-Incentive-Mechanismus, der alle ehrlich hielt.
Anthropic-Mitbegründer Jack Clark hob diesen Erfolg in seinem einflussreichen Import AI-Newsletter hervor und merkte an, dass dezentrale Trainingskapazitäten jährlich um das 20-Fache wachsen – viermal schneller als die jährliche Wachstumsrate von 5-Fach bei zentralisiertem Frontier-Training.
Hier ist der Grund, warum dies weit über das Bittensor-Ökosystem hinaus von Bedeutung ist.