Direkt zum Hauptinhalt

Bittensors DeepSeek-Moment: Kann TAO zum zweiten Pol der globalen KI werden?

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Als 70 Fremde aus der ganzen Welt – ausgestattet mit Consumer-GPUs und privaten Internetanschlüssen – gemeinsam ein Sprachmodell mit 72 Milliarden Parametern trainierten, das Metas LLaMA-2-70B übertraf, verschob sich etwas im Narrativ der KI. Keine Unternehmens-Whitelist. Kein 100-Millionen-Dollar-Rechenzentrum. Kein zentralisiertes Labor, das die Fäden zieht. Nur Bittensors Subnet 3, ein kryptoökonomisches Anreizsystem und ein technischer Trick namens SparseLoCo, der all das möglich machte.

Anfang 2026 war die KI-Welt besessen von DeepSeeks Beweis, dass Modelle in Frontier-Qualität keine Budgets in OpenAI-Größe erfordern. Die Bittensor-Community bezeichnet das, was am 10. März 2026 geschah, als ihren eigenen „DeepSeek-Moment“ – einen Beweis dafür, dass große Sprachmodelle nun völlig außerhalb zentralisierter Institutionen entstehen können. Die entscheidende Frage lautet: Baut Bittensor tatsächlich den zweiten Pol der globalen KI-Infrastruktur auf, oder handelt es sich um eine fesselnde Geschichte rund um ein elegantes, aber zerbrechliches Experiment?

Was Bittensor eigentlich ist

Abgesehen von der Token-Spekulation lässt sich Bittensor am besten als eine Incentive-Ebene für KI-Rohstoffe (AI commodities) verstehen. Das Netzwerk organisiert sich in „Subnets“ – über 128 spezialisierte Wettbewerbsarenen, in denen jedes Subnet eine bestimmte Art von KI-Output erzeugt: Sprachmodell-Inferenz, Bildgenerierung, Datenspeicherung, Finanzprognosen, Programmierunterstützung.

Jedes Subnet besteht aus zwei Arten von Teilnehmern:

  • Miner betreiben KI-Modelle und beantworten Anfragen. Sie konkurrieren über die Qualität des Outputs.
  • Validatoren fragen Miner ab, bewerten deren Antworten und melden die Qualität an die Chain.

Der Yuma Consensus-Algorithmus der Chain – Bittensors Äquivalent zu einer CPU – aggregiert die Validator-Bewertungen und verteilt die TAO-Emissionen entsprechend. Die Token-Aufteilung: 41 % an Miner, 41 % an Validatoren und 18 % an den Ersteller des Subnets. Das bedeutet, dass jeder Teilnehmer finanziell beteiligt ist („Skin in the Game“), und das Austricksen des Systems ökonomisch selbstzerstörerisch ist, da Validatoren, die ungenaue Bewertungen abgeben, ihre eigenen Emissionen verlieren.

Was dies von einem einfachen Freelancer-Marktplatz unterscheidet, ist der Ende 2024 eingeführte Dynamic TAO-Mechanismus. Jedes Subnet betreibt nun seinen eigenen Automated Market Maker (AMM) mit zwei Reserven: TAO und einen Subnet-spezifischen „Alpha“-Token. Wenn TAO-Inhaber in ein Subnet staken, erhalten sie im Gegenzug Alpha-Token – sie stimmen damit effektiv mit Kapital darüber ab, welche Subnets mehr Netzwerkressourcen verdienen. Subnets, die mehr TAO-Staking anziehen, erhalten mehr Emissionen, wodurch ein selbstorganisierendes Kapitalallokationssystem entsteht, bei dem der Markt entscheidet, welche KI-Dienste finanzierungswürdig sind.

Der Covenant-72B-Meilenstein

Am 10. März 2026 schloss Bittensors Subnet 3 – das damals unter dem Namen Templar operierte – Covenant-72B ab: den größten dezentralen LLM-Pre-Training-Lauf, der jemals dokumentiert wurde. Das Modell wurde mit etwa 1,1 Billionen Token trainiert und erreichte einen MMLU-Score von 67,1 (Zero-Shot), womit es den Benchmark von LLaMA-2-70B übertraf.

Das technische Rückgrat war SparseLoCo, ein Kommunikationsprotokoll, das den Overhead beim Datentransfer zwischen verteilten Knoten um das 146-fache reduzierte. Traditionelles verteiltes Training erfordert eine ständige Gradientensynchronisation – jede GPU muss ihre Updates mit jeder anderen GPU teilen, was zum Flaschenhals wird, wenn die Knoten über Kontinente hinweg mit herkömmlichem Internet verbunden sind. SparseLoCo erreicht dies durch eine Kombination aus Sparsification (Übertragung nur der signifikantesten Gradienten-Updates), 2-Bit-Quantisierung (weitere Komprimierung dieser Updates) und Error-Feedback (Akkumulierung übersprungener Updates für zukünftige Übertragungen, damit nichts dauerhaft verloren geht).

Das Ergebnis: ein Trainingslauf, bei dem jeder mit ausreichend GPUs frei ein- oder aussteigen konnte, ohne den Prozess zu destabilisieren. Keine dedizierte Verbindung. Keine vertragliche Bindung. Keine unternehmerische Aufsicht. Das ist tatsächlich neu.

Nvidia-CEO Jensen Huang bezeichnete das verteilte Trainingsmodell von Bittensor als „eine moderne Version von folding@home“ – das berühmte Volunteer-Computing-Projekt, das ungenutzte Consumer-Hardware für die wissenschaftliche Forschung nutzte. Der Vergleich ist treffend: folding@home hat bewiesen, dass fragmentierte Rechenleistung Probleme lösen kann, die zuvor Supercomputern vorbehalten waren. Covenant-72B ist das Äquivalent dazu im Bereich der KI.

Die darauffolgende Governance-Krise

Dem Meilenstein folgte unmittelbar ein Bruch. Sam Dare, Gründer von Covenant AI (dem Team, das Subnet 3 entwickelt hat), kündigte im April 2026 den Ausstieg des Projekts aus Bittensor an und behauptete, dass Mitbegründer Jacob Steeves einseitig die Emissionen von Covenant AI ausgesetzt, die Community-Management-Berechtigungen entzogen und Token-Verkäufe genutzt habe, um wirtschaftlichen Druck auf das Team auszuüben.

Der Vorwurf trifft den Kern der tiefsten Spannung von Bittensor: Ist ein auf kryptoökonomischen Anreizen aufgebautes Netzwerk tatsächlich dezentralisiert, wenn ein einzelner Gründer die Emissionen eines Subnets widerrufen kann?

Steeves hat die spezifischen Vorwürfe weder öffentlich bestätigt noch dementiert. Die Bittensor-Community ist gespalten – einige verteidigen das Handeln des Gründers als notwendige Governance während eines Streits, andere führen den Vorfall als Beweis dafür an, dass die Dezentralisierung des Netzwerks eher performativ als strukturell ist.

Dies ist ein echtes Problem, kein Nebenschauplatz. Wenn Subnet-Betreiber ihre Emissionen von einem Kernentwickler ausgesetzt bekommen können, dann benötigt das „dezentrale“ Framing ein Sternchen. Institutionelles Kapital, das Bittensor für den Infrastruktureinsatz bewertet, wird genau diese Frage stellen. Die Antwort des Netzwerks – sei es durch Governance-Änderungen auf Protokollebene oder eine fortgesetzte Autorität der Gründer – wird darüber entscheiden, ob Bittensor glaubwürdig um die Akzeptanz durch Unternehmen konkurrieren kann.

Wie Bittensor im Vergleich zur Konkurrenz abschneidet

Der Bereich der dezentralen KI hat sich um drei verschiedene Visionen konsolidiert, die jeweils auf eine andere Ebene des KI-Stacks abzielen:

Fetch.ai / ASI Alliance (FET): Durch die Fusion von Fetch.ai, SingularityNET und Ocean Protocol entstand das vom Design her umfassendste dezentrale KI-Ökosystem. Agentverse, die Cloud-IDE der Allianz, beherbergt über 2 Millionen registrierte KI-Agenten. Die ASI Alliance konzentriert sich auf die Koordination – die Verbindung von KI-Agenten, Datenquellen und Rechenmärkten unter einem einheitlichen Token. Während Bittensor die reine Modellqualität belohnt, honoriert die ASI Alliance den Nutzen der Agenten und den Abschluss von Aufgaben. Der Kompromiss: ein einfacherer Einstieg für Entwickler, aber eine weniger strenge Durchsetzung der Qualität.

Gensyn: Gensyn fungiert als reiner Marktplatz für Rechenleistung – es spielt keine Rolle, was Sie trainieren oder inferieren, solange Sie GPU-Kapazität zum Vermieten haben. Seine technische Innovation ist das „Proof-of-Learning“, das Trainingsaufträge durch Stichproben zufälliger Gradientenberechnungen verifiziert, anstatt ganze Arbeitslasten erneut auszuführen. Gensyn positioniert sich explizit als das AWS der KI – infrastrukturneutral und aufgabenunabhängig. Es konkurriert nicht mit Bittensor bei der KI-Qualität, sondern bei den Rechenkosten.

Origin Protocols Multi-Agent Chain: Origin zielt auf die Agenten-Orchestrierung ab – die Koordinierung mehrstufiger KI-Workflows, bei denen verschiedene Modelle unterschiedliche Aufgaben übernehmen. Es ist der am stärksten auf der Anwendungsebene angesiedelte der drei Konkurrenten, weniger besorgt um Modelltraining oder reine Rechenleistung, sondern mehr auf autonome KI-Pipelines für Endbenutzer fokussiert.

Bittensor nimmt die ambitionierteste Position ein: Es versucht, gleichzeitig Modellqualität, Rechenleistungsverteilung und Wertschöpfung in einem einzigen Protokoll zu lösen. Diese Ambition ist auch seine Fragilität – jeder Zusammenbruch in einer Ebene (Governance, Validator-Integrität, Subnet-Qualität) wirkt sich kaskadenartig auf das gesamte System aus.

Die Marktrealität im Jahr 2026

Bei etwa 271 proTAOundeinerMarktkapitalisierungvon3,08Mrd.pro TAO und einer Marktkapitalisierung von 3,08 Mrd. (Platz 33 laut CoinGecko) wird Bittensor zu einem Bruchteil seines Höchststandes vom Januar 2025 von fast 565 $ gehandelt. Die Volatilität erzählt eine vertraute Krypto-Geschichte: anfängliche Begeisterung, spekulative Verkäufe und Konsolidierung, während der tatsächliche Nutzen mit dem Narrativ gleichzieht.

Zwei strukturelle Ereignisse prägen die Angebotsdynamik von TAO neu. Das erste Halving von Bittensor fand am 14. Dezember 2025 statt und reduzierte die tägliche TAO-Emission von 7.200 auf 3.600 Token. Ein zweites Halving ist für Dezember 2026 geplant, wodurch die Emissionen auf 1.800 täglich sinken werden. Für Inhaber bedeutet dies eine Angebotsverknappung im Bitcoin-Stil; für Netzwerkteilnehmer heißt es, dass jedes durch Mining oder Validierung verdiente TAO im Hinblick auf die Knappheit mehr wert ist.

Die institutionelle Positionierung ist gefolgt. Grayscale erhöhte die Gewichtung von TAO im KI-Bereich seines Digital Large Cap Funds auf 43,06 % und reichte einen Antrag ein, um seinen TAO-Trust in einen Spot-ETF umzuwandeln – ein Antrag, der im Falle einer Genehmigung das erste regulierte TAO-Anlageinstrument für institutionelle US-Allokatoren schaffen würde. Das Signal: Grayscale betrachtet Bittensor als die dominierende Pure-Play-Wette auf dezentrale KI-Infrastruktur, nicht als spekulativen Altcoin.

Die tiefergehende Frage: Infrastruktur oder Narrativ?

Das Argument für Bittensor stützt sich auf eine These, die eine genaue Prüfung verdient: dass kryptoökonomische Anreize KI-Modelle hervorbringen können, die mit zentralisierten Laboren konkurrenzfähig sind. Covenant-72B ist der Beweis dafür, dass dezentrales Training möglich ist. Es ist jedoch noch kein Beweis dafür, dass es in einem grenzwertigen Maßstab wiederholbar, skalierbar oder kosteneffizient ist.

Berichten zufolge kostete das Training von GPT-4 von OpenAI 100 Mio. $ auf dedizierten H100-Clustern mit Mikrosekunden-Interconnects. Covenant-72B wurde auf Consumer-GPUs über private Internetverbindungen trainiert. Der SparseLoCo-Durchbruch machte dies technisch machbar, führte jedoch zu einem Qualitätskompromiss – 2-Bit-Quantisierung und Sparsifizierung bedeuten, dass einige Gradienteninformationen verloren gehen. Ob dieser Verlust für produktionsreife Modelle bei größeren Parameterzahlen akzeptabel ist, bleibt eine offene Forschungsfrage.

Die vertretbarere kurzfristige These ist, dass Bittensor OpenAI nicht schlagen muss – es muss „Nichts“ schlagen. Der Wert des Netzwerks ergibt sich aus der Kommerzialisierung der KI-Inferenz am Edge: der Bereitstellung günstiger, zensurresistenter und domänenspezifischer KI-Dienste für Entwickler, die sich zentralisierte Anbieter nicht leisten können oder ihnen nicht vertrauen. Die über 128 Subnets bedienen bereits Anfragen für Codierungsunterstützung, Finanzanalysen, Bildgenerierung und biologische Forschung. Keine dieser Anwendungen erfordert Denkvermögen auf Frontier-Niveau; sie benötigen zuverlässige, kosteneffiziente und aufgabenspezifische Inferenz.

Das ist ein Markt, den Bittensor realistisch beherrschen kann.

Was Bittensor beweisen muss

Drei Tests werden entscheiden, ob TAO zu einer KI-Infrastruktur wird oder eine KI-nahe Spekulation bleibt:

  1. Governance-Legitimität. Der Covenant-KI-Streit muss strukturelle Reformen katalysieren – kodifizierte Subnet-Governance, transparente Berufungsverfahren und Einschränkungen der Gründerautorität – andernfalls werden die Vorwürfe der Zentralisierung Bittensor in jedes institutionelle Gespräch folgen.

  2. Wiederholbares Training. Covenant-72B war ein Meilenstein. Die nächste Frage ist, ob Bittensor mehrere gleichzeitige Trainingsläufe im Frontier-Maßstab unterstützen kann, während das Subnet-Limit von 128 auf 256 erweitert wird und SparseLoCo (oder Nachfolger) eine effiziente Koordination über zunehmend heterogene Hardware ermöglicht.

  3. Entwickler-Adoption jenseits von Token. Subnets ziehen derzeit Teilnehmer primär an, weil TAO-Emissionen die Beiträge profitabel machen. Eine nachhaltige Infrastruktur erfordert eine zweite Adoptionskurve: Entwickler, die Bittensor-APIs nutzen, weil die Dienste gut sind, und nicht, weil die Mitwirkenden dafür bezahlt werden, dort zu sein.

Die Technologie ist glaubwürdiger, als es das Preisdiagramm vermuten lässt. Die Governance ist fragiler, als es ihre Befürworter zugeben. Der DeepSeek-Moment von Bittensor war real – das dezentrale Training von Modellen auf Frontier-Niveau ist nicht mehr theoretisch. Ob das Netzwerk diese Fähigkeit institutionalisieren kann, ohne die zentralisierten Engpässe, die seine gesamte Prämisse untergraben würden, ist die entscheidende Herausforderung für 2026.


BlockEden.xyz unterstützt Entwickler, die auf dezentraler KI-Infrastruktur aufbauen, durch die Bereitstellung von Hochleistungs-RPC- und Daten-APIs für die Chains, auf denen diese Protokolle betrieben werden. Erkunden Sie unseren API-Marktplatz, um auf die On-Chain-Daten zuzugreifen, die Sie benötigen, ohne eine eigene Node-Infrastruktur verwalten zu müssen.