Direkt zum Hauptinhalt

Der Inference Flip: Warum dezentrale GPU-Netzwerke das Rennen um die am schnellsten wachsende KI-Workload gewinnen

· 9 Min. Lesezeit
Dora Noda
Software Engineer

NVIDIA ist so verzweifelt auf der Suche nach Energie, dass das Unternehmen auf der GTC 2026 gerade orbitale Rechenzentren angekündigt hat. In der Zwischenzeit werden zwei Drittel der gesamten KI-Rechenleistung in diesem Jahr überhaupt keinen Trainings-Cluster berühren – es wird Inference sein, die wenig glanzvolle, aber geschäftskritische Aufgabe, Modelle tatsächlich für echte Nutzer auszuführen. Und dezentrale GPU-Netzwerke entwickeln sich still und leise zur am besten positionierten Infrastruktur, um diesen Bedarf zu decken.

Die große Rechen-Inversion

Während des größten Teils der modernen Ära der KI dominierte das Training die Diskussion – und das Kapital. Der Aufbau eines Frontier-Modells bedeutete, Tausende von miteinander vernetzten H100-GPUs monatelang zu binden und Megawatt an Strom in einem einzigen Rechenzentrum zu verbrauchen. Diese Konzentration machte zentrale Hyperscaler zum natürlichen Monopol.

Doch die wirtschaftlichen Vorzeichen haben sich gedreht. Deloitte schätzt, dass Inference-Workloads im Jahr 2025 die Hälfte der gesamten KI-Rechenleistung ausmachten. Bis 2026 wird dieser Wert auf zwei Drittel ansteigen. Allein der Markt für Inference-optimierte Chips wird in diesem Jahr voraussichtlich 50 Milliarden $ überschreiten.

Warum dieser Wandel? Weil Unternehmen aufgehört haben zu experimentieren und mit der Implementierung begonnen haben. Jeder Chatbot, jeder KI-Copilot und jeder autonome Agent, der in der Produktion läuft, ist ein Inference-Workload – und im Gegensatz zum Training hört Inference nie auf. Ein einzelnes Deployment der GPT-4-Klasse, das Millionen von Nutzern bedient, erzeugt mehr kumulative Rechennachfrage als der monatelange Trainingslauf, der das Modell hervorgebracht hat.

Hier ist der entscheidende architektonische Unterschied: Das Training erfordert Tausende von GPUs, die über NVLink in einer einzigen Einrichtung eng miteinander gekoppelt sind. Inference benötigt das nicht. Eine einzelne GPU – oder ein kleiner Cluster – kann Modellanfragen unabhängig verarbeiten. Das macht Inference von Natur aus verteilbar, geografisch flexibel und perfekt geeignet für dezentrale Netzwerke.

Warum Latenz der neue Flaschenhals ist

Der Wechsel zur Inference bringt eine Einschränkung mit sich, für die die zentrale Cloud während der Trainings-Ära nie optimieren musste: Latenz.

Agentische KI-Systeme – autonome Tools, die im Namen der Nutzer wahrnehmen, denken und handeln – benötigen Antwortzeiten im Bereich von Millisekunden. Ein Trading-Bot, der Arbitrage-Geschäfte ausführt, ein KI-Assistent, der Sprachbefehle verarbeitet, oder ein DeFi-Protokoll, das Liquidität in Echtzeit leitet – keines dieser Systeme kann eine Round-Trip-Latenz von mehr als 200 Millisekunden zu einem zentralen Rechenzentrum auf einem anderen Kontinent tolerieren.

Branchenanalysten definieren „Edge Inference“ nun als Rechenleistung, die innerhalb von 100 Meilen um große Ballungsräume bereitgestellt wird. Das ist ein Problem der geografischen Verteilung, kein Problem der reinen Rechenleistung. Und es ist ein Problem, das ein Netzwerk von über 50.000 verteilten GPU-Hosts natürlicher löst als eine Handvoll Hyperscale-Einrichtungen in Virginia, Oregon und Irland.

Die DePIN-Inference-These – Validiert im großen Maßstab

Dezentrale physische Infrastrukturnetzwerke (DePIN) wurden ursprünglich als eine Möglichkeit beworben, unterausgelastete Hardware per Crowdsourcing zu nutzen. Die frühe Kritik war berechtigt: Dezentrale Rechenleistung konnte nicht mit der engen Kopplung mithalten, die für das Training von Frontier-Modellen erforderlich ist. Doch Inference ändert diese Kalkulation grundlegend.

Die Zahlen sprechen für sich. CoinGecko verfolgt mittlerweile fast 250 DePIN-Projekte mit einer kombinierten Marktkapitalisierung von über 19 Milliarden einAnstiegvon265– ein Anstieg von 265 % gegenüber 5,2 Milliarden nur 12 Monate zuvor. KI-bezogene DePINs dominieren und machen 48 % der gesamten Marktkapitalisierung aus.

Noch wichtiger ist, dass diese Netzwerke nicht mehr nur theoretisch sind. Es fließt echter Produktionsverkehr:

  • Akash Network meldete ein Nutzungswachstum von 428 % gegenüber dem Vorjahr bei einer Auslastung von über 80 %. Sein Ende 2025 eingeführter AkashML-Service bietet eine OpenAI-kompatible API, die den Verkehr zum nächstgelegenen von über 80 globalen Rechenzentren leitet und Antwortzeiten von unter 200 ms erreicht. Kostenersparnis: bis zu 85 % im Vergleich zur herkömmlichen Cloud.

  • Aethir lieferte über 1,4 Milliarden Rechenstunden aus und meldete einen Quartalsumsatz von fast 40 Millionen $, womit es eines der ersten DePIN-Projekte ist, das einen Durchsatz auf Hyperscaler-Niveau demonstriert.

  • Nosana überschritt die Marke von 50.000 unabhängigen GPU-Hosts und konzentriert sich in seinem auf Solana basierenden Netzwerk speziell auf Inference-Workloads wie die Bildgenerierung mit Stable Diffusion und das Serving von LLMs.

Die Wirtschaftlichkeit: 45–60 % günstiger, mit Vorbehalten

Die reinen GPU-Preise in DePIN-Netzwerken unterbieten Hyperscaler um Längen. Hyperbolic bietet NVIDIA H100-Instanzen für 1,49 /StundeanimVergleichzuAWSmit3,90/Stunde an – im Vergleich zu AWS mit 3,90 /Stunde (nach den Preissenkungen von 2025), Azure mit 6,98 /StundeundGoogleCloudmit3,00/Stunde und Google Cloud mit 3,00 /Stunde.

Für ein Startup, das Inference für einen Chatbot oder einen Bildgenerierungsdienst betreibt, bedeutet dies eine Reduzierung der Infrastrukturkosten um 45–60 %. Auf skalierten Ebenen summieren sich die Einsparungen: Ein Unternehmen, das 1 Million proMonatfu¨rInferenceRechenleistungausgibt,ko¨nnteja¨hrlich450.000bis600.000pro Monat für Inference-Rechenleistung ausgibt, könnte jährlich 450.000 bis 600.000 stattdessen in die Produktentwicklung leiten.

Doch der reine Preis ist nicht alles. Zuverlässigkeitsschwankungen in dezentralen Netzwerken können zu einer Überprovisionierung zwingen – man muss möglicherweise 20–30 % mehr Kapazität reservieren, um Uptime-SLAs zu garantieren, die mit den 99,99 % von AWS vergleichbar sind. Die operative Komplexität ist höher. Zudem bleiben Compliance-Anforderungen für Unternehmen (SOC 2, HIPAA) eine Barriere für regulierte Branchen.

Die Projekte, die dies direkt angehen, gewinnen an Zugkraft. Das bevorstehende Proof of Sampling (PoSP)-Protokoll von Hyperbolic – entwickelt mit Forschern der UC Berkeley und der Columbia University – wird eine kryptografische Verifizierung ermöglichen, dass Inference-Ergebnisse korrekt berechnet wurden, ohne Vertrauen in den GPU-Anbieter voraussetzen zu müssen. Die Starcluster-Initiative von Akash kombiniert protokolleigene Rechenzentren der Enterprise-Klasse mit seinem dezentralen Marktplatz und schafft so ein Hybridmodell, das sowohl Kosteneinsparungen als auch Zuverlässigkeitsgarantien bietet.

Das Vera-Rubin-Paradoxon

Auf der GTC 2026 enthüllte NVIDIA-CEO Jensen Huang die Vera-Rubin-Plattform — sieben neue Chips und fünf Rack-Typen, die als ein massiver KI-Supercomputer konzipiert sind. Die wichtigste Kennzahl: 10-mal mehr Leistung pro Watt im Vergleich zum Vorgänger Grace Blackwell, bei einem 5-mal höheren Umsatz pro Gigawatt.

Huang prognostizierte zudem kumulative Bestellungen in Höhe von 1 Billion US-Dollar für Blackwell und Vera Rubin bis 2027. Als vielleicht deutlichstes Zeichen dafür, wie schwerwiegend die Energiekrise geworden ist, kündigte NVIDIA Vera Rubin Space-1 an — orbitale Rechenzentren, die darauf ausgelegt sind, terrestrische Stromnetz-Beschränkungen vollständig zu umgehen.

Hier liegt das Paradoxon: Die Effizienzgewinne von Vera Rubin sind außergewöhnlich, aber sie sind für KI-Fabriken im Gigawatt-Maßstab konzipiert — zentralisierte Einrichtungen, die so energiehungrig sind, dass NVIDIA buchstäblich im Weltraum nach Lösungen sucht. In der Zwischenzeit benötigen Inferenz-Workloads keine Gigawatt-Anlagen. Sie benötigen tausende kleinere Bereitstellungen, geografisch verteilt und nah am Endnutzer.

NVIDIA baut die leistungsstärksten zentralisierten Inferenzmaschinen, die jemals konzipiert wurden. DePIN-Netzwerke bauen die am stärksten dezentralisierten. Die Frage ist nicht, welcher Ansatz gewinnt — sondern welche Workloads jeder am besten bedient. Das Training von Frontier-Modellen und Massive-Batch-Inferenz werden weiterhin in zentralisierten Einrichtungen stattfinden. Echtzeitfähige, latenzsensitive und geografisch diverse Inferenz ist der Bereich, in dem dezentrale Netzwerke einen strukturellen Vorteil haben.

Die spezialisierte Inferenz-Ebene

Die nächste Evolution zeichnet sich bereits ab: zweckgebundene Inferenz-DePIN-Netzwerke, die über das allgemeine GPU-Sharing hinausgehen.

Ritual hat sich als der erste KI-Coprozessor für Blockchains positioniert — er ermöglicht es Smart Contracts, neuronale Netzwerk-Inferenz auf die gleiche Weise anzufordern, wie sie Preisdaten von Orakeln abfragen. Dies schafft eine native On-Chain-Inferenz-Ebene, in der DeFi-Protokolle KI-Entscheidungsfindungen integrieren können, ohne einer Off-Chain-API vertrauen zu müssen.

Hyperbolic baut ein verifizierbares Inferenz-Netzwerk auf, in dem jede Berechnung kryptografisch beweisbar ist. Für Unternehmen, die KI-Ausgaben prüfen müssen — Finanzdienstleistungen, Gesundheitswesen, Recht — löst dies das Vertrauensproblem, das sie bisher von der Einführung dezentraler Rechenleistung abgehalten hat.

Diese spezialisierten Netzwerke repräsentieren die Reifung von DePIN von „günstigen GPUs“ hin zu einer Infrastruktur, die Probleme löst, welche die zentrale Cloud nicht bewältigen kann: verifizierbare Berechnungen, On-Chain-Integration und geografische Verteilung in einer Granularität, deren Nachbildung für keinen Hyperscaler wirtschaftlich rational wäre.

Was als Nächstes kommt

Die Inferenz-Ära validiert die ursprüngliche DePIN-These besser, als es das Training jemals könnte. Training erfordert eine enge Kopplung; Inferenz erfordert eine breite Verteilung. Training ist ein Batch-Prozess; Inferenz ist kontinuierlich. Training ist eine Kostenstelle; Inferenz ist dort, wo Umsatz generiert wird.

Drei Entwicklungen, die in den nächsten 12 Monaten zu beobachten sind:

  1. Hybride Einführung in Unternehmen: Das Starcluster-Modell von Akash — die Kombination von protokolleigener Unternehmens-Hardware mit dezentraler Kapazität — wird als Vorbild dienen. Unternehmen werden nicht über Nacht vollständig dezentralisiert agieren, aber sie werden zunehmend DePIN-Netzwerke für Spitzenkapazitäten und Edge-Bereitstellungen nutzen.

  2. Verifizierbare Inferenz wird zur Grundvoraussetzung: Da KI-Agenten Finanztransaktionen, medizinische Entscheidungen und rechtliche Analysen übernehmen, wird die Fähigkeit, die korrekte Berechnung der Inferenz zu beweisen, von einem „Nice-to-have“ zu einer regulatorischen Anforderung. Projekte wie Hyperbolic und Ritual bauen diese Infrastruktur bereits jetzt auf.

  3. Der 50-Milliarden-Dollar-Markt für Inferenz-Chips schafft Hardware-Vielfalt: Da NVIDIA, AMD, Intel und Hersteller kundenspezifischer ASICs den Markt mit inferenzoptimiertem Silizium überschwemmen, werden DePIN-Netzwerke diese heterogene Hardware effektiver bündeln als jeder einzelne Cloud-Anbieter. Sie bieten workload-spezifische Optimierungen an, mit denen Hyperscaler nicht mithalten können.

Der globale Markt für KI-Infrastruktur wird für 2026 auf 1,36 Billionen US-Dollar prognostiziert. Der Großteil dieser Ausgaben verlagert sich von Trainings-Clustern hin zur Inferenz-Infrastruktur. Dezentrale GPU-Netzwerke werden nicht den gesamten Markt erobern — aber das müssen sie auch nicht. Selbst ein einstelliger Prozentsatz des Inferenz-Marktes stellt eine milliardenschwere Chance für DePIN-Netzwerke dar, die in Bezug auf Zuverlässigkeit, Latenz und Kosten liefern können.

Die Ära des Trainings gehörte den zentralisierten Hyperscalern. Die Inferenz-Ära ist offen — und die Architektur dezentraler Netzwerke könnte genau das sein, was sie erfordert.


BlockEden.xyz bietet hochperformante API-Infrastruktur für führende Blockchain-Netzwerke wie Sui, Aptos und Ethereum — dieselben Chains, die die nächste Generation von DePIN-Protokollen antreiben. Erkunden Sie unseren API-Marktplatz, um auf einer Infrastruktur aufzubauen, die für die dezentrale Zukunft entwickelt wurde.