Direkt zum Hauptinhalt

DePINs KI-Wende: Wie dezentrale Infrastruktur zur GPU-Cloud wurde, die Big Tech nicht gebaut hat

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Die drei umsatzstärksten DePIN-Projekte im Jahr 2026 haben eines gemeinsam: Sie alle verkaufen GPU-Rechenleistung an KI-Unternehmen. Kein Speicher. Keine drahtlose Bandbreite. Keine Sensordaten. Rechenleistung — die am stärksten begrenzte Ressource im globalen Technologie-Stack.

Diese Tatsache allein sagt alles darüber aus, wo Dezentrale Physische Infrastrukturnetzwerke (DePIN) nach Jahren der Suche nach einem Product-Market-Fit gelandet sind. Der Sektor, der einst auf Token-Anreizen und spekulativer Flywheel-Ökonomie basierte, generiert nun echte Einnahmen von den anspruchsvollsten Käufern in der Technologiebranche: KI-Modellentwickler, die GPUs am besten schon gestern gebraucht hätten.

Vom Token-Flywheel zur Umsatzmaschine

Die Entstehungsgeschichte von DePIN war elegant und einfach: Nutzung von Token-Belohnungen, um physische Infrastrukturnetzwerke aufzubauen, deren Errichtung für ein einzelnes Unternehmen zu teuer wäre. Mitwirkende stellen Hardware zur Verfügung — GPUs, Router, Sensoren, Speicherlaufwerke — und verdienen im Gegenzug Token. Wenn das Netzwerk wächst, steigt der Wert des Tokens, was in einem positiven Kreislauf weitere Mitwirkende anzieht.

Das Problem war, dass die meisten frühen DePIN-Projekte nie die Nachfrageseite erschlossen haben. Mitwirkende strömten herbei, um Token-Belohnungen zu jagen, aber tatsächliche zahlende Kunden blieben Mangelware. Das Flywheel drehte sich, aber nur in eine Richtung.

Der KI-Boom hat diese Gleichung grundlegend geändert.

Die weltweite Nachfrage nach KI-Rechenleistung wächst bis 2026 jährlich um 37 %, und die Ausgaben für GPU-Infrastruktur werden voraussichtlich von 83 Milliarden US-Dollar im Jahr 2025 auf 353 Milliarden US-Dollar bis 2030 ansteigen. Währenddessen betragen die Wartezeiten für Cloud-GPUs bei AWS, Azure und Google Cloud für High-End-Hardware Wochen bis Monate. Unternehmen, die Modelle trainieren oder Inferenz im großen Stil betreiben, stehen vor einer brutalen Angebotsknappheit — genau die Art von Marktversagen, für deren Lösung dezentrale Netzwerke gebaut wurden.

Die Zahlen hinter dem Schwenk

Der DePIN-Sektor umfasst heute über 1.500 aktive Projekte mit einer kombinierten Marktkapitalisierung zwischen 30 und 50 Milliarden US-Dollar. Doch die Umsatzkonzentration erzählt eine deutlichere Geschichte: KI-bezogene DePIN-Projekte machen 48 % der gesamten Marktkapitalisierung des Sektors aus, und die drei umsatzstärksten Projekte — Aethir, Virtuals Protocol und IONET — konzentrieren sich alle auf dezentrale KI-Rechenleistung.

Das Risikokapital ist dem Signal gefolgt. Zwischen Januar 2024 und Juli 2025 wurden über 744 Millionen US-Dollar in mehr als 165 DePIN-Startups investiert, wobei die Gesamtzahl der Finanzierungen im Sektor allein im Jahr 2025 fast 1 Milliarde US-Dollar erreichte. Im Januar 2026 legte Escape Velocity einen 62-Millionen-Dollar-Fonds auf, der speziell DePIN-Gründer unterstützt — eine Wette darauf, dass die Infrastrukturebene bereit für Workloads auf institutionellem Niveau ist.

Das Weltwirtschaftsforum (WEF) ging noch weiter und prognostizierte, dass die DePIN-Kategorie bis 2028 auf 3,5 Billionen US-Dollar anwachsen wird — eine 70-fache Expansion gegenüber dem aktuellen Niveau. Der WEF-Bericht prägte einen neuen Begriff für diese Konvergenz: "DePAI" (Decentralized Physical AI) und erkannte damit an, dass KI-Workloads zum primären kommerziellen Treiber für dezentrale Infrastrukturen geworden sind.

Akash Network: Vom Marktplatz zum Hyperscaler

Akash Network ist ein Paradebeispiel für den Wandel vom dezentralen Marktplatz zum KI-fähigen Rechenleistungsanbieter. Die Plattform meldete bis Ende 2025 ein Wachstum der Nutzung von 428 % im Vergleich zum Vorjahr, wobei die GPU-Auslastung konsistent über 80 % lag — Kennzahlen, um die jeder Cloud-Anbieter beneiden würde.

Die Erstellung neuer Mietverträge (Leases) stieg im dritten Quartal 2025 um 42 % gegenüber dem Vorquartal von 19.000 auf 27.000 Verträge an, was auf eine echte Nachfrage hindeutet und nicht auf spekulative Aktivitäten. Dies sind bezahlte Rechenaufträge, keine Airdrop-Farmer.

Die bedeutendste Entwicklung kam mit Starcluster, einem protokolleigenen Rechensystem, das Akashs bisher mutigste Wette darstellt. Starcluster kombiniert zentral verwaltete Rechenzentren mit dem dezentralen GPU-Marktplatz von Akash zu einem, wie das Team es nennt, "planetaren Mesh", das für KI-Training und -Inferenz optimiert ist. Die Initiative umfasst den Erwerb von etwa 7.200 NVIDIA GB200 GPUs — derselben Hardware, die die neueste Generation von führenden KI-Modellen antreibt — betrieben von geprüften Rechenzentrums-"Nodekeepern" auf Enterprise-Niveau.

Diese Hybrid-Architektur trägt einer praktischen Realität Rechnung: Reine Dezentralisierung hat ihre Grenzen bei Workloads, die deterministische Latenzzeiten und massiven parallelen Durchsatz erfordern. Starcluster schließt die Lücke zwischen krypto-nativem Idealismus und Unternehmensanforderungen und positioniert Akash so, dass es um Hyperscale-KI-Verträge konkurrieren kann, die zuvor standardmäßig an AWS oder CoreWeave gingen.

Render Network: Die Inferenz-Strategie

Während Akash das gesamte Spektrum der Rechenleistung anvisiert, Render Network hat eine strategische Wette auf KI-Inferenz abgeschlossen — die Workload-Kategorie, die bis 2026 voraussichtlich zwei Drittel der gesamten KI-Rechenleistung ausmachen wird.

Die Begründung ist stichhaltig. Das Training großer Modelle erfordert konzentrierte Cluster von Tausenden von GPUs, die über Wochen laufen. Inferenz — das Ausführen trainierter Modelle zur Generierung von Vorhersagen, Texten oder Bildern — ist weitaus verteilter. Sie findet überall und jederzeit statt, zunehmend auch am Edge. Dieses Workload-Profil lässt sich natürlich auf ein dezentrales Netzwerk von GPU-Knoten übertragen, die über verschiedene Regionen verteilt sind.

Render startete im Dezember 2025 Dispersed als dediziertes Rechen-Subnetz für KI-Inferenz und Edge Machine Learning. Die Plattform ist weltweit auf über 5.600 aktive GPU-Knoten angewachsen und integriert NVIDIA H200-Hardware auf Enterprise-Niveau, um die Kapazität für anspruchsvolle Workloads zu erweitern.

Die reale Akzeptanz geht über den Proof-of-Concept hinaus. Jember, ein KI-Finanz-Trust-Unternehmen, nutzt die Infrastruktur von Render für asynchrone Inferenz-Workflows und zeigt damit, wie verteiltes Rechnen verifizierbare KI-Systeme in regulierten Branchen unterstützen kann. THINK setzt Render-Knoten ein, um den Think Agent Standard zu unterstützen, ein erlaubnisfreies Protokoll zur Erstellung von On-Chain-KI-Agenten — ein Anwendungsfall, der vor einem Jahr kaum existierte.

Auf der CES 2026 präsentierte Render Partnerschaften, die auf die explosive GPU-Nachfrage für Edge-ML-Workloads abzielen, und markierte damit eine erfolgreiche Expansion von den Ursprüngen im kreativen Rendering hin zu allgemeiner KI-Rechenleistung. Die Dual-Use-Fähigkeit des Netzwerks — die sowohl 3D-Rendering als auch KI-Inferenz bedient — sorgt für eine Umsatzdiversifizierung, die reinen KI-Rechennetzwerken fehlt.

io.net: Die Aggregationsschicht

io.net verfolgt einen anderen architektonischen Ansatz. Anstatt ein vertikal integriertes Rechennetzwerk aufzubauen, positioniert sich io.net als Aggregationsschicht, die das GPU-Angebot in großem Maßstab bezieht und bündelt und diese Kapazität dann über eine cloud-ähnliche Abstraktion für Käufer bereitstellt.

Dieses Aggregation-First-Modell adressiert eine der beständigen Herausforderungen von DePIN: das fragmentierte Angebot. Die einzelnen GPU-Anbieter reichen von Besitzern von Gaming-PCs mit ungenutzten RTX 4090s bis hin zu kleinen Rechenzentrumsbetreibern mit Racks voller A100s. Ohne Aggregation ist dieses Angebot zu heterogen und unzuverlässig für Enterprise-Workloads. Die Abstraktionsschicht von io.net standardisiert das Erlebnis und sorgt dafür, dass sich dezentrale GPU-Kapazität wie eine herkömmliche Cloud-API anfühlt.

Dieser Ansatz tauscht ein Stück weit die Reinheit der Dezentralisierung gegen praktische Nutzbarkeit ein – ein Kompromiss, der zunehmend die gewinnbringenden DePIN-Strategien definiert.

Der Kostenvorteil, der wirklich zählt

Das überzeugendste Wertversprechen von DePIN ist brutal einfach: Dezentrales Computing kostet 50–85 % weniger als vergleichbare zentralisierte Cloud-Lösungen.

Dies ist keine geringfügige Ersparnis. Für ein KI-Startup, das monatlich 500.000 fu¨rAWSGPUInstanzenausgibt,ko¨nntederWechselzudezentralemComputingdieKostenauf75.000für AWS-GPU-Instanzen ausgibt, könnte der Wechsel zu dezentralem Computing die Kosten auf 75.000 bis 250.000 $ senken. Auf Unternehmensebene summieren sich diese Einsparungen zu einem Wettbewerbsvorteil – oder zum Überleben.

Die Kostenstruktur funktioniert, weil DePIN-Netzwerke vorhandene Leerlaufkapazitäten monetarisieren, anstatt zweckgebundene Rechenzentren zu bauen. Die Anbieter tragen die Investitionskosten (Capex). Das Protokoll übernimmt die Orchestrierung. Käufer zahlen nur für die verbrauchte Rechenleistung. Es gibt keine massiven Vorab-Investitionen, keine Immobilienkosten und keine Infrastruktur für die Kühlung, die auf den Preis umgelegt werden müsste.

Dieses Modell hat Grenzen – nicht jeder Workload verträgt die Latenzvarianz und die Zuverlässigkeitskompromisse von verteiltem Computing. Aber für Inferenz, Batch-Verarbeitung, Fine-Tuning und viele Trainingskonfigurationen wird die Wirtschaftlichkeit zunehmend entscheidend.

Von der Spekulation zur Infrastruktur

Der KI-Schwenk des DePIN-Sektors repräsentiert etwas Seltenes in der Krypto-Welt: einen echten Übergang von einer spekulationsgetriebenen zu einer nutzenorientierten Ökonomie. Wenn der Umsatz eines Netzwerks von KI-Unternehmen stammt, die für GPU-Stunden bezahlen, anstatt von Tradern, die auf den Token-Preis spekulieren, ändert sich der Bewertungsrahmen grundlegend.

Mehrere strukturelle Trends verstärken diesen Kurs:

  • Inferenz-Dominanz: Da sich die KI vom Training zur Bereitstellung verlagert, wächst der Anteil der Rechenleistung, die für die Inferenz aufgewendet wird. Inferenz ist von Natur aus verteilt und für viele Anwendungen latenztolerant, was dezentrale Architekturen begünstigt.

  • Kostendruck in Unternehmen: KI-Infrastrukturkosten sind für die meisten Unternehmen bei den aktuellen Cloud-Preisen untragbar. Die von DePIN-Netzwerken angebotene Kostenreduzierung von 50–85 % schafft eine echte Nachfrage, nicht nur Krypto-native Experimente.

  • Regulatorischer Rückenwind: Anforderungen an die Datensouveränität in der EU, Indien und anderen Gerichtsbarkeiten begünstigen geografisch verteiltes Computing, das Daten lokal verarbeiten kann. Die verteilte Knotenarchitektur von DePIN passt hier perfekt.

  • Hardware-Demokratisierung: Jede GPU-Generation macht die vorherige billiger, aber immer noch leistungsfähig. DePIN-Netzwerke verlängern die produktive Lebensdauer von Hardware, die Cloud-Anbieter ausmustern würden, und schaffen so einen ständig wachsenden Angebotspool.

Was schiefgehen könnte

Das optimistische Szenario ist überzeugend, aber es bleiben erhebliche Risiken.

Zuverlässigkeit im großen Maßstab ist für geschäftskritische KI-Workloads unbewiesen. Enterprise-SLAs verlangen eine Verfügbarkeit von 99,99 %, und dezentrale Netzwerke haben dieses Maß an Zuverlässigkeit bisher nicht konsistent geliefert. Der hybride Starcluster-Ansatz von Akash erkennt diese Lücke implizit an.

Regulatorische Unsicherheit in Bezug auf dezentrales Computing könnte Gegenwind erzeugen. Wenn Regierungen entscheiden, dass GPU-Marktplätze die gleichen Compliance-Frameworks benötigen wie Cloud-Anbieter (Datenresidenz, Exportkontrollen für Rechenleistung), verringert sich der Kostenvorteil.

Zentralisierungsdruck ist vielleicht die tiefste Ironie. Die erfolgreichsten DePIN-Netzwerke werden im Laufe der Zeit zentralisierter – sie fügen protokolleigene Hardware hinzu, überprüfen Knotenbetreiber und implementieren Quality-of-Service-Garantien. Ab einem gewissen Punkt wird die Unterscheidung zwischen einer „dezentralen GPU-Cloud“ und „einem Cloud-Anbieter mit Token-Anreizen“ philosophisch.

Der Weg zu 3,5 Billionen $

Die Prognose des Weltwirtschaftsforums von 3,5 Billionen fu¨rDePINbis2028wu¨rdeeinetwa70fachesWachstumdesSektorsgegenu¨berdemheutigenNiveauerfordern.Dasklingtku¨hn,bismandenadressierbarenMarktbetrachtet:AlleindieweltweitenAusgabenfu¨rCloudInfrastrukturu¨bersteigenja¨hrlich300Milliardenfür DePIN bis 2028 würde ein etwa 70-faches Wachstum des Sektors gegenüber dem heutigen Niveau erfordern. Das klingt kühn, bis man den adressierbaren Markt betrachtet: Allein die weltweiten Ausgaben für Cloud-Infrastruktur übersteigen jährlich 300 Milliarden, und KI fügt weitere hunderte Milliarden hinzu.

DePIN muss Cloud Computing nicht ersetzen. Es muss den Überlauf auffangen – die Workloads, die zu keinem Preis GPU-Zugang erhalten, die Startups, die sich keine Cloud-Margen leisten können, die Inferenzaufgaben, die von der Edge-Nähe profitieren. Sogar ein einstelliger Prozentsatz des globalen Rechenmarktes würde die These des WEF bestätigen.

Die Projekte, die dieses Rennen gewinnen, werden diejenigen sein, die das schwierigste Problem in DePIN gelöst haben: dezentrale Infrastruktur „langweilig“ zu machen. Nicht revolutionär, nicht disruptiv, nicht Web3-nativ – einfach nur billiger, schneller und verfügbar, wenn die Alternative es nicht ist. Im Jahr 2026 ist es genau das, worauf Akash, Render und io.net hinarbeiten.

Für Entwickler und Unternehmen, die dezentrale Recheninfrastrukturen erkunden, bietet BlockEden.xyz Blockchain-API-Dienste der Enterprise-Klasse an, die DePIN-Netzwerke ergänzen – und es Anwendungen ermöglichen, mit On-Chain-Rechenmarktplätzen zu interagieren, die Netzwerkperformance zu überwachen und auf der Infrastrukturschicht aufzubauen, die die KI-Wirtschaft antreibt.