Direkt zum Hauptinhalt

Bittensors 72-Milliarden-DeepSeek-Moment: Als dezentrales KI endlich bewies, dass die Skeptiker falsch lagen

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Am 20. Januar 2026 veröffentlichte DeepSeek still und leise ein Modell, das die gesamte KI-Industrie erschütterte: ein Open-Source-Reasoning-System, das OpenAIs Bestes für etwa 1/50 der Trainingskosten erreichte. Nvidia verlor an einem einzigen Tag 600 Milliarden Dollar Marktkapitalisierung. Die zugrunde liegende Lektion betraf nicht nur Chinas KI-Fortschritt – es war die Erkenntnis, dass die Annahme "nur massive zentralisierte Labore können Frontier-KI bauen" gerissen war.

Sechs Wochen später, am 10. März 2026, schloss ein Netzwerk von 70 unabhängigen Beitragenden – mit handelsüblichen GPUs und gewöhnlichen Heiminternetverbindungen – das Training eines Sprachmodells mit 72 Milliarden Parametern ohne ein einziges Rechenzentrum ab. Das Templar-Subnetz von Bittensor hatte seinen eigenen DeepSeek-Moment, und die Implikationen für dezentrale KI sind genauso tiefgreifend.

Was im Bittensor-Ökosystem gerade passiert ist

Covenant-72B ist nicht einfach ein technischer Meilenstein. Es ist ein Proof of Concept, dass dezentrales KI-Training im Frontier-Maßstab nun wirtschaftlich und technisch machbar ist.

Das Modell wurde von Bittensors Subnetz 3, bekannt als Templar, mit einem bahnbrechenden Algorithmus namens SparseLoCo trainiert. In Zusammenarbeit mit Covenant AI und dem Mila Lab entwickelt, kombiniert SparseLoCo Sparsifizierung, 2-Bit-Quantisierung und Fehler-Feedback, um die knotenübergreifende Gradientenkommunikation um mehr als das 146-fache zu komprimieren. Diese einzige Innovation löste, was das fundamentale Engpass beim dezentralen Training gewesen war: die enorme Bandbreite, die erforderlich ist, um Modell-Updates über Tausende unabhängiger Knoten zu synchronisieren.

Die Ergebnisse sprechen für sich. Covenant-72B erzielte 67,1 im MMLU-Benchmark – womit es in derselben Leistungsklasse wie Metas Llama 2 70B liegt, einem Modell, das von einem der bestfinanzierten KI-Labore des Planeten mit Hunderten von Millionen Dollar zentralisierter Infrastruktur gebaut wurde. Bittensors Version wurde von mehr als 70 Beitragenden über Heiminternet trainiert.

Jensen Huang, Nvidias CEO, nannte es "eine moderne Version von folding@home" im All-In-Podcast.

Warum Dies der "DeepSeek-Moment" dezentraler KI ist

Die DeepSeek-Parallele reicht tiefer als nur "günstiger KI". In beiden Fällen geht es darum, wie die Wirtschaft der Effizienz eine bisher angenommene Kostenbasis durchbricht.

DeepSeeks Einsicht war algorithmisch: Durch die Kombination von Mixture-of-Experts-Architekturen mit aggressiver Inferenzoptimierung zeigten sie, dass man keine 100.000 H100 braucht, um Frontier-Leistung zu erreichen. Bittensors Einsicht ist infrastrukturell: Durch die Komprimierung der Gradientenkommunikation um 97% ohne Genauigkeitsverlust zeigten sie, dass koordiniertes Training nicht die Bandbreite eines einzigen Rechenzentrums benötigt.

Beide Durchbrüche greifen dieselbe Annahme an – dass Frontier-KI massive, zentralisierte Kapitalkonzentration erfordert.

Der Unterschied liegt darin, was als nächstes passiert. DeepSeeks Effizienzvorteile fließen an alle, die das Modell ausführen. Bittensors Effizienzvorteile fließen in das Netzwerk – an die 70+ Knotenbetreiber, die gemeinsam Covenant-72B trainiert haben, und an die TAO-Inhaber, die das Protokoll besitzen, auf dem sie laufen.

Dies ist die zentrale wirtschaftliche Innovation von Bittensors Subnetz-Modell: KI-Modellqualität in einen verteilten finanziellen Anreiz zu verwandeln, nicht nur in eine Produktmetrik.

Die Wirtschaft: Halbierung trifft Durchbruch

Der Zeitpunkt ist bedeutsam. Bittensors erste TAO-Halbierung fand am 14. Dezember 2025 statt und halbierte die täglichen Token-Emissionen von 7.200 auf 3.600 TAO. Das war nicht nur ein Angebotsereignis – es veränderte grundlegend die Wirtschaft des Subnetz-Betriebs.

Vor der Halbierung konnten Subnetze Miner anlocken, indem sie großzügige Emissionen auch für mittelmäßige Ergebnisse anboten. Die Halbierung erzwang eine darwinsche Selektion: Mit weniger zu verteilenden Tokens wurden Validatoren viel anspruchsvoller, und Subnetze, die keine echten Leistungsmetriken nachweisen konnten, sahen die Aufmerksamkeit der Miner (und die Hash-Rate) zu besseren Gelegenheiten wandern.

Templar/SN3 gedeiht in dieser Umgebung genau deshalb, weil es strenge Anti-Betrugs-Mechanismen aufgebaut hat – "Commit-Reveal"-Gradienten-Einreichungsprotokolle und präzise Zeitstempel über R2-Bucket-Speicher –, die die Qualität jedes von Minern eingereichten Gradient-Updates sicherstellten. Als die Halbierung die Emissionen komprimierte, bekamen hochwertige Subnetze relativ mehr; minderwertige wurden ausgequetscht.

Der Launch von Covenant-72B im März 2026 validierte dieses Modell. TAO rallierte um etwa 90% und stieg von 180 Dollar auf über 332 Dollar, als sich die Nachricht verbreitete, dass der größte dezentralisierte LLM-Vortraining-Durchlauf der Geschichte ein wirklich wettbewerbsfähiges Modell produziert hatte. Die Subnetz-Bewertung von Templar überschritt 550 Millionen Dollar. Grayscale erhöhte TAOs Gewichtung in seinem KI-Fonds auf 43,06% und beschleunigte seinen Vorstoß zur Umwandlung seines Bittensor Trust in einen Spot-ETF.

Die institutionellen Signale stimmten überein: Polychain Capital verpflichtete sich zu 200 Millionen Dollar für das Ökosystem, und große Einrichtungen hatten fast 19% des gesamten TAO-Angebots (691 Millionen Dollar) gestaked, was echte Knappheitsdynamiken schuf.

Die Netzwerkarchitektur hinter dem Meilenstein

Um zu verstehen, warum Covenant-72B wichtig ist, muss man Bittensors Subnetz-Architektur verstehen.

Bittensor funktioniert als Layer-1-Blockchain (gebaut auf Polkadot Substrate), wo Intelligenz die produzierte und bepreiste Ware ist. Das Netzwerk betreibt 128 aktive Subnetze – spezialisierte Märkte, jeder auf eine andere KI-Aufgabe fokussiert. Subnetz 64 (Chutes) handhabt dezentralisierte Modellinferenz. Subnetz 3 (Templar) konzentriert sich auf kollaboratives Modelltraining. Andere Subnetze befassen sich mit Text-zu-Bild, Proteinfaltungssimulation, Speicherung und Finanzprognose.

Jedes Subnetz betreibt seinen eigenen Anreizmechanismus. Miner führen die Arbeit durch (laufen Modelle, produzieren Outputs, reichen Gradienten ein). Validatoren bewerten diese Arbeit anhand objektiver Metriken. Yuma Consensus – Bittensors Kernalgorithmus – wandelt diese Bewertungen in TAO-Emissionen um. Je besser Ihre Arbeit, desto mehr TAO verdienen Sie.

Was den 72B-Trainings-Durchlauf bedeutsam macht, ist, dass er die Synchronisierung von Gradient-Updates über 70+ unabhängige Knoten erforderte, von denen jeder auf handelsüblicher Hardware läuft und über das öffentliche Internet verbunden ist. Frühere verteilte Trainingssysteme gingen davon aus, dass Sie Petabytes von Gradientendaten durch private Rechenzentrum-Interconnects routen könnten. SparseLoCo zeigte, dass Sie dasselbe Ergebnis mit 146-mal weniger Daten erzielen können.

Das Netzwerk plant nun, die Subnetz-Kapazität bis Ende 2026 von 128 auf 256 zu verdoppeln und neue Konsens-Verbesserungen (manchmal als Version 1.4 bezeichnet) zu integrieren, die Validatoren bessere Werkzeuge zur Überprüfung der Minerarbeit mit Metriken wie GraVal geben und die Qualitätsbewertung objektiver und schwerer zu manipulieren machen.

Die Herausforderungen, die nicht ignoriert werden können

Keine ehrliche Bewertung von Bittensors Moment kann die schwierigen Fragen überspringen.

Die Subventions-zu-Umsatz-Lücke ist real. Das Forschungsunternehmen Pine Analytics stellte fest, dass Bittensors größtes Subnetz Chutes (SN64) jährlich etwa 52 Millionen Dollar in TAO-Emissionen erhält, aber nur 1,3 bis 2,4 Millionen Dollar echten externen Umsatz generiert – ein Subventions-zu-Umsatz-Verhältnis von 22:1 bis 40:1. Ohne TAO-Emissionen, die die Preisgestaltung stützen, würde Chutes' Inferenz 1,6 bis 3,5-mal mehr kosten als zentralisierte Alternativen wie DeepSeek und Together AI. Das Netzwerk läuft derzeit auf Token-Inflation, nicht auf Product-Market-Fit.

Governance-Konflikte eskalieren. In einer erschreckenden Entwicklung am 10. April 2026 – derselben Woche, in der TAO 340 Dollar überschritt – verließ Covenant AI öffentlich das Bittensor-Netzwerk. Das Unternehmen beschuldigte Mitgründer Jacob Steeves, zentralisierte Kontrolle über Subnetz-Operationen auszuüben und das zu betreiben, was es "Dezentralisierungstheater" nannte. Die Ankündigung löste eine Preiskorrektur von mehr als 20% und Liquidationen von mehr als 10 Millionen Dollar aus – eine Erinnerung daran, dass Governance-Risiken die größte ungelöste Frage für jedes dezentralisierte Infrastrukturprojekt bleiben.

Der Vergleich mit Llama 2, nicht mit Llama 4. Covenant-72B entspricht Metas Modell von 2023, was für ein dezentralisiertes System beeindruckend ist. Es ist eine andere Frage, ob dezentralisiertes Training mit Modellen Schritt halten kann, die auf 100.000 H100-Clustern an der aktuellen Frontier trainiert werden. Der Effizienzgewinn von SparseLoCo muss sich schnell vervielfachen, um relevant zu bleiben.

Was Dies für dezentrale KI im Jahr 2026 bedeutet

Der Einwand "dezentrale KI wird immer teurer sein als zentralisierte" war einer der größten Hindernisse für die institutionelle Akzeptanz von Netzwerken wie Bittensor. Covenant-72B greift diesen Einwand direkt auf der Trainingsebene an.

Das Wirtschaftsmodell, das entsteht, wenn Bittensor im Maßstab funktioniert, ist wirklich neuartig: KI-Modelle, die von Tausenden unabhängiger Betreiber trainiert und bereitgestellt werden, durch Token-Anreize koordiniert, ohne dass eine einzelne Entität den Stack kontrolliert. Das Talisman AI-Subnetz bediente bereits über 100.000 zahlende Kunden und generierte im ersten Quartal 2026 43 Millionen Dollar KI-Kundeneinnahmen – Beweis dafür, dass zumindest einige Subnetze von token-subventionierten zu extern finanzierten wechseln.

Für das breitere Web3-Ökosystem repräsentiert Bittensors Moment etwas Wichtiges: Die These, dass Blockchains komplexe Rechenarbeit koordinieren können – nicht nur Finanztransaktionen –, bewegt sich vom Whitepaper in die Produktion.

Die wichtigsten Variablen, die in den nächsten 12 Monaten zu beobachten sind:

  • Ob Grayscales Spot-ETF-Antrag in ein genehmigtes Produkt konvertiert
  • Ob sich die Subnetz-Umsatz-zu-Emissions-Verhältnisse materiell verbessern, wenn die externe Nachfrage wächst
  • Ob der Governance-Streit mit Covenant AI gelöst wird oder einen Netzwerk-Fork beschleunigt
  • Ob der Kompressionsvorteil von SparseLoCo aufrechterhalten werden kann, wenn auch zentralisierte Labore effizientere Trainingsalgorithmen übernehmen

Die DeepSeek-Parallele hält in einer entscheidenden Weise stand: Der Effizienz-Durchbruch schafft unumkehrbaren Druck. Einmal bewiesen, dass man ein Frontier-Scale-Modell ohne Rechenzentrum trainieren kann, hört die Frage auf, "kann dezentrale KI funktionieren?" zu sein und wird zu "was ist die Obergrenze?"


BlockEden.xyz bietet Enterprise-RPC- und API-Infrastruktur für Sui, Aptos, Ethereum und mehr als 20 andere Blockchains. Wenn Sie KI-gestützte DApps bauen oder zuverlässige On-Chain-Daten für KI-Agenten-Workflows benötigen, erkunden Sie unseren API-Marktplatz, um Ihre Modelle mit der Produktions-Blockchain-Infrastruktur zu verbinden.