Direkt zum Hauptinhalt

228 Beiträge getaggt mit „Technologische Innovation“

Technologische Innovationen und Durchbrüche

Alle Tags anzeigen

Farcaster im Jahr 2025: Das Protokoll-Paradoxon

· 27 Min. Lesezeit
Dora Noda
Software Engineer

Farcaster erreichte im Jahr 2025 mit der Einführung von Snapchain im April und der Evolution von Frames v2 technische Reife, steht aber vor einer existenziellen Akzeptanzkrise. Das „ausreichend dezentrale“ soziale Protokoll erzielt eine Bewertung von 1 Milliarde US-Dollar mit 180 Millionen US-Dollar an Kapitalbeschaffung, kämpft jedoch darum, Nutzer über seine 4.360 wirklich aktiven Power Badge-Inhaber hinaus zu halten – ein Bruchteil der 40.000-60.000 gemeldeten täglich aktiven Nutzer, die durch Bot-Aktivitäten aufgebläht werden. Das Infrastruktur-Upgrade des Protokolls mit Snapchain im April 2025 demonstriert eine technische Ausführung von Weltklasse mit einer Kapazität von über 10.000 TPS und einer Finalität von 780 ms, während das Ökosystem gleichzeitig mit einem Rückgang der Nutzer um 40 % vom Höchststand, einem Rückgang der Neuregistrierungen um 95 % und einem monatlichen Protokolleinkommen, das bis Oktober 2025 auf etwa 10.000 US-Dollar von einem kumulativen Höchststand von 1,91 Millionen US-Dollar im Juli 2024 einbricht, zu kämpfen hat. Dies stellt die zentrale Spannung dar, die Farcasters Realität im Jahr 2025 definiert: bahnbrechende Infrastruktur auf der Suche nach nachhaltiger Akzeptanz, gefangen zwischen krypto-nativer Exzellenz und Mainstream-Irrelevanz.

Snapchain revolutioniert die Infrastruktur, kann aber die Bindung nicht lösen

Die Einführung des Snapchain-Mainnets am 16. April 2025 stellt die bedeutendste Protokoll-Evolution in der Geschichte von Farcaster dar. Nach acht Monaten Entwicklung vom Konzept bis zur Produktion ersetzte das Protokoll sein schließlich konsistentes CRDT-basiertes Hub-System durch eine Blockchain-ähnliche Konsensschicht unter Verwendung des Malachite BFT (Byzantine Fault Tolerant) Konsenses – eine Rust-Implementierung von Tendermint, die ursprünglich für Starknet entwickelt wurde. Snapchain liefert einen Durchsatz von über 10.000 Transaktionen pro Sekunde mit einer Finalität von unter einer Sekunde (durchschnittlich 780 ms bei 100 Validatoren), wodurch das Protokoll theoretisch 1-2 Millionen täglich aktive Nutzer unterstützen kann. Die Architektur verwendet Sharding auf Kontoebene, bei dem die Daten jeder Farcaster-ID in isolierten Shards liegen, die keine Cross-Shard-Kommunikation erfordern, was eine lineare horizontale Skalierbarkeit ermöglicht.

Die hybride Onchain-Offchain-Architektur positioniert Farcasters Philosophie der „ausreichenden Dezentralisierung“ klar. Drei Smart Contracts auf OP Mainnet (Ethereum L2) verwalten die sicherheitskritischen Komponenten: IdRegistry ordnet numerische Farcaster-IDs Ethereum-Verwaltungsadressen zu, StorageRegistry verfolgt Speicherzuweisungen zu etwa 7 US-Dollar pro Jahr für 5.000 Casts plus Reaktionen und Follows, und KeyRegistry verwaltet App-Berechtigungen für delegiertes Posten über EdDSA-Schlüsselpaare. Währenddessen leben alle sozialen Daten – Casts, Reaktionen, Follows, Profile – Offchain im Snapchain-Netzwerk, validiert von 11 Validatoren, die alle sechs Monate durch eine Community-Abstimmung mit 80 % Beteiligungsanforderungen ausgewählt werden. Dieses Design ermöglicht die Integration und Komponierbarkeit des Ethereum-Ökosystems und vermeidet gleichzeitig die Transaktionskosten und Durchsatzbeschränkungen, die vollständig Onchain-Konkurrenten wie Lens Protocol plagen.

Doch technische Exzellenz hat sich nicht in Nutzerbindung umgesetzt. Die aktuellen Netzwerkstatistiken des Protokolls zeigen die Lücke: Über 1.049.519 registrierte Farcaster-IDs existieren Stand April 2025, aber die täglich aktiven Nutzer erreichten im Juli 2024 einen Höchststand von 73.700-100.000, bevor sie bis Oktober 2025 auf 40.000-60.000 zurückgingen. Das DAU/MAU-Verhältnis liegt bei etwa 0,2, was darauf hindeutet, dass Nutzer durchschnittlich nur etwa 6 Tage pro Monat aktiv sind – weit unter den gesunden Benchmarks von 0,3-0,4 für soziale Plattformen. Kritischer ist, dass Daten von Power Badge-Nutzern (verifizierte aktive, qualitativ hochwertige Konten) darauf hindeuten, dass nur 4.360 wirklich engagierte tägliche Nutzer existieren, wobei der Rest potenziell Bots oder inaktive Konten sind. Die Infrastruktur kann auf Millionen skalieren, aber das Protokoll kämpft darum, Zehntausende zu halten.

Frames v2 und Mini-Apps erweitern die Funktionen, verpassen aber den viralen Moment

Farcasters Killer-Feature bleiben Frames – interaktive Mini-Anwendungen, die direkt in Posts eingebettet sind. Die ursprüngliche Frames-Einführung am 26. Januar 2024 führte zu einem 400 %igen DAU-Anstieg in einer Woche (von 5.000 auf 24.700) und das Cast-Volumen stieg von 200.000 auf 2 Millionen täglich. Basierend auf dem Open Graph-Protokoll mit Farcaster-spezifischen Meta-Tags verwandelten Frames statische soziale Posts in dynamische Erlebnisse: Nutzer konnten NFTs minten, Spiele spielen, Token-Swaps ausführen, an Umfragen teilnehmen und Einkäufe tätigen – alles, ohne ihren Feed zu verlassen. Frühe virale Beispiele waren kollaborative Pokémon-Spiele, One-Click-Zora-NFT-Minting mit vom Ersteller gesponserten Gasgebühren und Einkaufswagen, die in weniger als neun Stunden erstellt wurden.

Frames v2, das Anfang 2025 nach einer Vorschau im November 2024 eingeführt wurde, zielte darauf ab, diesen Schwung mit erheblichen Verbesserungen wieder aufzunehmen. Die Entwicklung zu „Mini-Apps“ führte Vollbildanwendungen anstelle von nur eingebetteten Karten, Echtzeit-Push-Benachrichtigungen zur erneuten Nutzerbindung, verbesserte Onchain-Transaktionsfunktionen mit nahtloser Wallet-Integration und persistenten Zustand ein, der es Apps ermöglicht, Nutzerdaten über Sitzungen hinweg zu speichern. Das JavaScript SDK bietet native Farcaster-Funktionen wie Authentifizierung und direkte Client-Kommunikation, während die WebView-Unterstützung die mobile Integration ermöglicht. Mini-Apps erhielten im April 2025 eine prominente Platzierung in Warpcasts Navigation, mit einem App Store zur Entdeckung.

Das Ökosystem demonstriert trotz des erhofften viralen Durchbruchs Entwicklerkreativität. Gaming führt die Innovation an mit Flappycaster (Farcaster-natives Flappy Bird), Farworld (Onchain-Monster) und FarHero (3D-Sammelkartenspiel). Soziale Dienstprogramme umfassen ausgeklügelte Umfragen über den @ballot Bot, Event-RSVP-Systeme über @events und interaktive Quizze auf Quizframe.xyz. Die Handelsintegration glänzt durch Zoras One-Click-NFT-Minting direkt im Feed, DEX-Token-Swaps und USDC-Zahlungs-Frames. Utility-Anwendungen reichen von der Kalenderintegration über Event.xyz, Jobbörsen über Jobcaster und Bounty-Management über Bountycaster. Doch trotz Hunderter erstellter Frames und kontinuierlicher Innovation erwies sich der Anstieg auf etwa 40.000 DAU im März 2025 durch Frame v2- und Mini-App-Kampagnen als temporär – Nutzer waren laut Community-Einschätzung „nicht klebrig“, mit einem schnellen Rückgang nach der ersten Erkundung.

Die Entwicklererfahrung sticht als Wettbewerbsvorteil hervor. Offizielle Tools umfassen das @farcaster/mini-app CLI, das Frog-Framework (minimales TypeScript), Frames.js mit über 20 Beispielprojekten und OnchainKit von Coinbase mit React-Komponenten, die für Base Chain optimiert sind. Drittanbieter-Infrastrukturanbieter – insbesondere Neynar mit umfassenden APIs, Airstack mit komponierbaren Web3-Abfragen und Wields Open-Source-Alternativen – senken die Eintrittsbarrieren. Sprachspezifische Bibliotheken umfassen JavaScript (farcaster-js von Standard Crypto), Python (farcaster-py von a16z), Rust (farcaster-rs) und Go (go-farcaster). Mehrere Hackathons in den Jahren 2024-2025, darunter FarHack bei FarCon und ETHToronto-Events, demonstrieren aktive Builder-Communities. Das Protokoll hat sich erfolgreich als entwicklerfreundliche Infrastruktur positioniert; die Herausforderung bleibt, Entwickleraktivität in nachhaltiges Nutzerengagement umzuwandeln.

Nutzerakzeptanz stagniert, während der Wettbewerb zunimmt

Die Geschichte des Nutzerwachstums teilt sich in drei unterschiedliche Phasen, die einen beunruhigenden Verlust an Dynamik offenbaren. Die Ära 2022-2023 sah stagnierende 1.000-4.000 DAU während der Beta-Phase nur auf Einladung, wobei bis Ende 2023 140.000 registrierte Nutzer gesammelt wurden. Das Durchbruchsjahr 2024 begann mit dem Frames-Launch-Spike: Die DAU sprang von 2.400 (25. Januar) auf 24.700 (3. Februar) – ein Anstieg von 400 % in einer Woche. Bis Mai 2024, während der 150 Millionen US-Dollar Series A-Finanzierungsrunde bei einer Bewertung von 1 Milliarde US-Dollar, erreichte das Protokoll 80.000 DAU mit insgesamt 350.000 Anmeldungen. Juli 2024 markierte den Allzeit-Höchststand mit 73.700-100.000 einzigartigen täglichen Castern, die insgesamt 62,58 Millionen Casts posteten und kumulative Protokolleinnahmen von 1,91 Millionen US-Dollar generierten (883,5 % Steigerung gegenüber dem Basiswert von 194.110 US-Dollar Ende 2023).

Der Rückgang von 2024-2025 erweist sich als schwerwiegend und anhaltend. Im September 2024 sank die DAU um 40 % vom Höchststand, begleitet von einem verheerenden Rückgang der täglichen Neuregistrierungen um 95,7 % (von 15.000 auf 650). Bis Oktober 2025 erreichte die Nutzeraktivität einen Vier-Monats-Tiefststand, wobei die Einnahmen auf etwa 10.000 US-Dollar monatlich sanken – ein Rückgang von 99 % gegenüber den Höchsteinnahmen. Der aktuelle Stand zeigt 650.820 insgesamt registrierte Nutzer, aber nur 40.000-60.000 gemeldete DAU, wobei die zuverlässigere Power Badge-Metrik nur 4.360 wirklich aktive Qualitätsnutzer nahelegt. Das Cast-Volumen zeigt kumulativ 116,04 Millionen (85 % Wachstum seit Juli 2024), aber die durchschnittliche tägliche Aktivität von etwa 500.000 Casts stellt einen erheblichen Rückgang gegenüber dem Höchststand von 2 Millionen täglich im Februar 2024 dar.

Die demografische Analyse zeigt eine krypto-native Konzentration, die die Mainstream-Attraktivität begrenzt. 77 % der Nutzer fallen in die Altersgruppe der 18-34-Jährigen (37 % im Alter von 18-24, 40 % im Alter von 25-34), was stark auf junge, technikaffine Demografien hindeutet. Die Nutzerbasis weist ein „hohes Wal-Verhältnis“ auf – Personen, die bereit sind, für Apps und Dienste auszugeben – aber Eintrittsbarrieren filtern Mainstream-Zielgruppen heraus: Ethereum-Wallet-Anforderungen, jährliche Speichergebühren von 5-7 US-Dollar, technische Vorkenntnisse und Krypto-Zahlungsmechanismen. Die geografische Verteilung konzentriert sich auf die Vereinigten Staaten, basierend auf Aktivitäts-Heatmaps, die Spitzenengagement während der US-Tagesstunden zeigen, obwohl die über 560 geografisch verteilten Hubs auf eine wachsende internationale Präsenz hindeuten. Verhaltensmuster zeigen, dass Nutzer hauptsächlich während der „Erkundungsphase“ engagiert sind und dann abbrechen, wenn sie keine Zielgruppen aufbauen oder keine ansprechenden Inhalte finden – das klassische Kaltstartproblem, das neue soziale Netzwerke plagt.

Der Wettbewerbskontext verdeutlicht die Skalierungslücke. Bluesky erreichte bis September 2025 etwa 38 Millionen Nutzer (174 % Wachstum seit Ende 2024) mit 4-5,2 Millionen DAU und starker Mainstream-Akzeptanz nach den Twitter-Migrationen. Mastodon unterhält 8,6 Millionen Nutzer im föderierten ActivityPub-Ökosystem. Selbst innerhalb von Blockchain-Social hat Lens Protocol über 1,5 Millionen historische Nutzer gesammelt, leidet aber derzeit unter ähnlichen Bindungsproblemen mit etwa 20.000 DAU und nur 12 Engagements pro Nutzer monatlich (im Vergleich zu Farcasters 29). Nostr beansprucht etwa 16 Millionen Gesamtnutzer mit etwa 780.000 DAU, hauptsächlich Bitcoin-Enthusiasten. Der gesamte SocialFi-Sektor kämpft – Friend.tech brach auf etwa 230 DAU zusammen (97 % Rückgang vom Höchststand) – aber Farcasters Position als am besten finanziertes Unternehmen wird durch überlegenes Mainstream-Wachstum anderswo herausgefordert.

Wirtschaftsmodell strebt Nachhaltigkeit durch Abonnements an

Das Protokoll basiert auf einem innovativen Modell, bei dem der Nutzer für den Speicherplatz bezahlt, was sich grundlegend von werbefinanzierten Web2-Social-Media unterscheidet. Die aktuellen Preise liegen bei 7 US-Dollar pro Speichereinheit pro Jahr, zahlbar in ETH auf Optimism L2 über ein Chainlink-Orakel für die USD-zu-ETH-Umrechnung, mit automatischen Rückerstattungen für Überzahlungen. Eine Speichereinheit umfasst 5.000 Casts, 2.500 Reaktionen, 2.500 Links (Follows), 50 Profil-Dateneinträge und 50 Verifizierungen. Das Protokoll verwendet eine First-In-First-Out (FIFO)-Bereinigung: Wenn Limits überschritten werden, werden die ältesten Nachrichten automatisch gelöscht, mit einer 30-tägigen Nachfrist nach Ablauf. Dieses Speichermietmodell dient mehreren Zwecken – Spam-Verhinderung durch wirtschaftliche Barrieren, Gewährleistung der Protokoll-Nachhaltigkeit ohne Werbung und Aufrechterhaltung überschaubarer Infrastrukturkosten trotz Wachstum.

Die Protokolleinnahmen erzählen eine Geschichte von anfänglichem Versprechen, gefolgt von einem Rückgang. Von 194.110 US-Dollar Ende 2023 stiegen die Einnahmen bis Juli 2024 explosionsartig auf kumulativ 1,91 Millionen US-Dollar an (883,5 % Wachstum in sechs Monaten) und erreichten im Mai 2025 2,8 Millionen US-Dollar. Im Oktober 2025 brachen die monatlichen Einnahmen jedoch auf etwa 10.000 US-Dollar zusammen – den niedrigsten Stand seit vier Monaten. Die gesamten kumulativen Einnahmen bis September 2025 erreichten lediglich 2,34 Millionen US-Dollar (757,24 ETH), was für die Nachhaltigkeit bei weitem nicht ausreicht. Im Vergleich zu den 180 Millionen US-Dollar an Kapitalbeschaffung (30 Millionen US-Dollar im Juli 2022, 150 Millionen US-Dollar im Mai 2024 bei einer Bewertung von 1 Milliarde US-Dollar von Paradigm, a16z, Haun Ventures, USV, Variant und Standard Crypto) liegt das Verhältnis von Einnahmen zu Finanzierung bei nur 1,6 %. Die Kluft zwischen einer Milliarden-Dollar-Bewertung und Zehntausenden monatlichen Einnahmen wirft trotz der erheblichen Finanzierungsreserve Fragen zur Nachhaltigkeit auf.

Die Einführung von Farcaster Pro am 28. Mai 2025 stellt die strategische Wende hin zu nachhaltiger Monetarisierung dar. Mit einem Preis von 120 US-Dollar pro Jahr oder 12.000 Warps (interne Währung zu etwa 0,01 US-Dollar pro Warp) bietet Pro 10.000-Zeichen-Casts gegenüber 1.024 Standard, 4 Einbettungen pro Cast gegenüber 2 Standard, benutzerdefinierte Bannerbilder und Prioritätsfunktionen. Entscheidend ist, dass 100 % der Pro-Abonnement-Einnahmen in wöchentliche Belohnungspools fließen, die an Ersteller, Entwickler und aktive Nutzer verteilt werden – das Protokoll verzichtet explizit darauf, Gewinne zu erzielen, sondern zielt stattdessen darauf ab, die Nachhaltigkeit der Ersteller zu fördern. Die ersten 10.000 Pro-Abonnements waren in weniger als sechs Stunden ausverkauft, brachten 1,2 Millionen US-Dollar ein und bescherten frühen Abonnenten limitierte NFTs und Belohnungsmultiplikatoren. Die wöchentlichen Belohnungspools übersteigen jetzt 25.000 US-Dollar, wobei die Kubikwurzel der „aktiven Follower-Anzahl“ verwendet wird, um Manipulationen zu verhindern und Fairness zu gewährleisten.

Bemerkenswerterweise hat Farcaster keinen nativen Protokoll-Token, obwohl es ein Web3-Projekt ist. Mitbegründer Dan Romero bestätigte explizit, dass kein Farcaster-Token existiert, keiner geplant ist und keine Airdrops Hub-Betreiber belohnen werden. Dies steht in scharfem Kontrast zu Wettbewerbern und stellt eine bewusste Designentscheidung dar, um spekulationsgetriebene statt nutzungsgetriebene Akzeptanz zu vermeiden. Warps dienen als interne Währung des Warpcast-Clients für Posting-Gebühren (ca. 0,01 US-Dollar/Cast, ausgeglichen durch Belohnungsmechanismen), Kanalerstellung (2.500 Warps = ca. 25 US-Dollar) und Pro-Abonnements, bleiben aber nicht handelbar und client-spezifisch statt Protokoll-Level-Tokens. Drittanbieter-Tokens florieren – insbesondere DEGEN, das eine Marktkapitalisierung von über 120 Millionen US-Dollar und über 1,1 Millionen Inhaber über Base, Ethereum, Arbitrum und Solana-Chains erreichte – diese existieren jedoch unabhängig von der Protokollökonomie.

Wettbewerb um Qualität, während Bluesky die Skalierung erobert

Farcaster nimmt eine unverwechselbare Mittelposition in der dezentralen sozialen Landschaft ein: dezentraler als Bluesky, nutzbarer als Nostr, fokussierter als Lens Protocol. Der Vergleich der technischen Architekturen offenbart grundlegende philosophische Unterschiede. Nostr strebt maximale Dezentralisierung durch reine kryptografische Schlüssel und einfache Relay-basierte Nachrichtenübertragung ohne Blockchain-Abhängigkeiten an – stärkste Zensurresistenz, schlechteste Mainstream-UX. Farcasters „ausreichend dezentraler“ Hybrid platziert die Identität Onchain (Ethereum/OP Mainnet) mit Daten Offchain in verteilten Hubs unter Verwendung des BFT-Konsenses – ein Gleichgewicht zwischen Dezentralisierung und Produktqualität. Lens Protocol geht vollständig Onchain mit Profil-NFTs (ERC-721) und Publikationen auf Polygon L2 plus Momoka Optimistic L3 – vollständige Komponierbarkeit, aber Blockchain-UX-Reibung und Durchsatzbeschränkungen. Bluesky verwendet föderierte Personal Data Server mit dezentralen Identifikatoren und DNS-Handles unter Verwendung von Webstandards, nicht Blockchain – beste Mainstream-UX, aber Zentralisierungsrisiko, da über 99 % den Standard-Bluesky-PDS verwenden.

Die Akzeptanzmetriken zeigen, dass Farcaster in absoluter Skalierung zurückliegt, aber in der Qualität des Engagements innerhalb von Web3 Social führend ist. Blueskys 38 Millionen Nutzer (4-5,2 Millionen DAU) stellen Farcasters 546.494 registrierte Nutzer (40.000-60.000 gemeldete DAU) in den Schatten. Lens Protocols über 1,5 Millionen angesammelte Nutzer mit derzeit etwa 20.000 DAU deuten auf ähnliche Schwierigkeiten hin. Nostr beansprucht etwa 16 Millionen Nutzer mit etwa 780.000 DAU, hauptsächlich in Bitcoin-Communities. Doch der Vergleich der Engagement-Rate begünstigt Farcaster: 29 Engagements pro Nutzer monatlich gegenüber Lens' 12, was auf eine höhere Qualität, wenn auch kleinere Community hindeutet. Der 400 %ige DAU-Anstieg nach dem Frames-Launch demonstrierte eine Wachstumsgeschwindigkeit, die von Wettbewerbern unerreicht war, erwies sich jedoch als nicht nachhaltig. Die eigentliche Frage ist, ob die krypto-native Engagement-Qualität letztendlich zu Skalierung führen kann oder dauerhaft eine Nische bleibt.

Vorteile des Entwickler-Ökosystems positionieren Farcaster günstig. Die Frames-Innovation stellt den größten UX-Durchbruch im dezentralen Social-Bereich dar, der interaktive Mini-Apps ermöglicht, die Einnahmen generieren (kumulativ 1,91 Millionen US-Dollar Mitte 2024). Starke VC-Unterstützung (180 Millionen US-Dollar eingeworben) bietet Ressourcen, die Wettbewerbern fehlen. Eine einheitliche Client-Erfahrung über Warpcast vereinfacht die Entwicklung im Vergleich zu Lens' fragmentiertem Multi-Client-Ökosystem. Klare Einnahmemodelle für Entwickler durch Frame-Gebühren und Pro-Abonnement-Pools ziehen Builder an. Die Vertrautheit mit dem Ethereum-Ökosystem senkt die Barrieren im Vergleich zum Erlernen der AT Protocol-Abstraktionen von Bluesky. Nostr führt jedoch wohl in der absoluten Größe der Entwickler-Community aufgrund der Protokoll-Einfachheit – Entwickler können die Nostr-Grundlagen in Stunden beherrschen, im Gegensatz zu den steilen Lernkurven von Farcasters Hub-Architektur oder Lens' Smart-Contract-System.

Der Vergleich der Benutzererfahrung zeigt, dass Bluesky die Mainstream-Zugänglichkeit dominiert, während Farcaster in Web3-nativen Funktionen glänzt. Die Onboarding-Reibung rangiert: Bluesky (E-Mail/Passwort, keine Krypto-Kenntnisse), Farcaster (5 US-Dollar Gebühr, optionales Wallet anfänglich), Lens (Profil-Minting ~10 MATIC, obligatorisches Krypto-Wallet), Nostr (selbstverwaltete private Schlüssel, hohes Verlustrisiko). Die Inhaltserstellung und Interaktion zeigt, dass Farcasters Frames eine einzigartige Inline-Interaktivität bieten, die bei Wettbewerbern unmöglich ist – Spiele, NFT-Mints, Umfragen, Käufe, ohne den Feed zu verlassen. Lens bietet Open Actions für Smart-Contract-Interaktionen, aber fragmentiert über Clients hinweg. Bluesky bietet eine saubere Twitter-ähnliche Oberfläche mit benutzerdefinierten algorithmischen Feeds. Nostr variiert erheblich je nach Client mit einfachem Text plus Lightning Network Zaps (Bitcoin-Trinkgelder). Für die Monetarisierungs-UX führt Lens mit nativen Follow-NFT-Mint-Gebühren und sammelbaren Posts, Farcaster ermöglicht Frame-basierte Einnahmen, Nostr bietet Lightning-Trinkgelder, und Bluesky hat derzeit keine.

Technische Errungenschaften stehen in scharfem Kontrast zu Zentralisierungsbedenken

Das Rebranding von Warpcast zu Farcaster im Mai 2025 erkennt eine unbequeme Realität an: Der offizielle Client erfasst im Wesentlichen 100 % der Nutzeraktivität, trotz der Dezentralisierungsversprechen des Protokolls. Drittanbieter-Clients wie Supercast, Herocast, Nook und Kiosk existieren, bleiben aber marginalisiert. Das Rebranding signalisiert die strategische Akzeptanz, dass ein einziger Einstiegspunkt Wachstum ermöglicht, widerspricht aber den Erzählungen von „permissionless development“ und „protocol-first“. Dies stellt die zentrale Spannung zwischen Dezentralisierungs-Idealen und Produkt-Markt-Fit-Anforderungen dar – Nutzer wünschen sich ausgefeilte, einheitliche Erlebnisse; Dezentralisierung liefert oft Fragmentierung.

Die Hub-Zentralisierung verstärkt die Bedenken. Während über 1.050 Hubs theoretisch eine verteilte Infrastruktur bereitstellen (von 560 Ende 2023 gestiegen), betreibt das Farcaster-Team die Mehrheit ohne wirtschaftliche Anreize für unabhängige Betreiber. Dan Romero bestätigte explizit, dass keine Hub-Betreiber-Belohnungen oder Airdrops materialisiert werden, unter Berufung auf die Unfähigkeit, einen langfristig ehrlichen und leistungsfähigen Betrieb nachzuweisen. Dies spiegelt die Bitcoin/Ethereum-Node-Ökonomie wider, wo Infrastrukturanbieter Nodes aus Geschäftsinteressen und nicht für direkte Belohnungen betreiben. Der Ansatz lädt zu Kritik ein, dass „ausreichend dezentralisiert“ Marketing bedeutet, während zentralisierte Infrastruktur den Web3-Werten widerspricht. Das Drittanbieterprojekt Ferrule erforscht EigenLayer-Restaking-Modelle, um Hub-Anreize zu bieten, bleibt aber inoffiziell und unbewiesen.

Kontroll- und Zensurdebatten schaden der Glaubwürdigkeit der Dezentralisierung zusätzlich. Das Power Badge-System – ursprünglich entwickelt, um qualitativ hochwertige Inhalte hervorzuheben und die Sichtbarkeit von Bots zu reduzieren – sieht sich Anschuldigungen zentralisierter Moderation und der Entfernung von Badges von kritischen Stimmen gegenüber. Mehrere Community-Mitglieder berichten von „Shadow-Banning“-Bedenken, obwohl sie auf angeblich dezentraler Infrastruktur laufen. Der Kritiker Geoff Golberg fand heraus, dass 21 % der Power Badge-Konten keine Aktivität zeigten und behauptete, dass Whitelisting zur Aufblähung von Metriken verwendet wurde, mit Anschuldigungen, dass Dan Romero Badges von Kritikern entfernte. Ob genau oder nicht, diese Kontroversen zeigen, dass wahrgenommene Zentralisierung die Legitimität des Protokolls auf eine Weise schädigt, die rein technische Dezentralisierungsmaßnahmen nicht adressieren.

Die Belastung durch das Zustands-Wachstum und Skalierbarkeitsprobleme bestehen trotz der Durchsatzverbesserungen von Snapchain fort. Das Protokoll verwaltet die Datenspeicherung zentral, während Wettbewerber die Kosten verteilen – Nostr an Relay-Betreiber, Lens an Nutzer, die Gas bezahlen, Bluesky theoretisch an PDS-Betreiber, obwohl die meisten den Standard verwenden. Farcasters Prognose von 2022 schätzte die jährlichen Kosten pro Hub von 3.500 US-Dollar (2024) auf 45.000 US-Dollar (2025) auf 575.000 US-Dollar (2026) auf 6,9 Millionen US-Dollar (2027), unter Annahme eines wöchentlichen Nutzerwachstums von 5 %. Obwohl das tatsächliche Wachstum weit hinter den Erwartungen zurückblieb, veranschaulichen die Prognosen grundlegende Skalierbarkeitsfragen darüber, wer für verteilte soziale Infrastruktur ohne wirtschaftliche Anreize für Betreiber bezahlt. Snapchains Snapshot-Größe von etwa 200 GB und Synchronisationszeiten von 2-4 Stunden stellen überschaubare, aber nicht triviale Barrieren für den unabhängigen Hub-Betrieb dar.

Wichtige Entwicklungen im Jahr 2025 zeigen Innovation inmitten des Rückgangs

Das Jahr begann mit der stabilen Veröffentlichung von Frames v2 im Januar-Februar nach der Vorschau im November 2024, die Vollbildanwendungen, Onchain-Transaktionen, Benachrichtigungen und persistenten Zustand lieferte. Obwohl technisch beeindruckend, erwies sich der Nutzeranstieg im März 2025 auf etwa 40.000 DAU durch Mini-App-Kampagnen als kurzlebig mit schlechter Bindung. Die Einführung des Snapchain-Mainnets am 16. April 2025 markierte den technischen Höhepunkt – der Übergang von schließlich konsistenten CRDTs zu Blockchain-ähnlichem BFT-Konsens mit über 10.000 TPS und Sub-Sekunden-Finalität, entwickelt in nur sechs Monaten. Zusammen mit dem Belohnungsprogramm „Airdrop Offers“ positioniert Snapchain Farcasters Infrastruktur für Skalierung, auch wenn die tatsächlichen Nutzerzahlen zurückgehen.

Der Mai 2025 brachte eine strategische Geschäftsmodell-Evolution. Das Rebranding von Warpcast zu Farcaster im Mai 2025 erkannte die Realität der Client-Dominanz an. Am 28. Mai erfolgte die Einführung von Farcaster Pro zu 120 US-Dollar/Jahr mit 10.000-Zeichen-Casts, 4 Einbettungen und 100 % Umsatzumverteilung an wöchentliche Ersteller-Pools. Die ersten 10.000 Abonnements waren in weniger als 6 Stunden ausverkauft (anfänglich 100/Minute), generierten 1,2 Millionen US-Dollar und verteilten PRO-Tokens im Wert von angeblich 600 US-Dollar pro 120 US-Dollar Abonnement. Warpcast Rewards wurde gleichzeitig erweitert, um wöchentlich über 25.000 US-Dollar in USDC an Hunderte von Erstellern zu verteilen, wobei die Kubikwurzel der aktiven Follower-Anzahl zur Verhinderung von Manipulationen verwendet wurde. Diese Schritte signalisieren eine Verschiebung von „Wachstum um jeden Preis“ hin zum Aufbau einer nachhaltigen Creator Economy.

Der Oktober 2025 lieferte die bedeutendste Ökosystem-Integration: BNB Chain-Unterstützung am 8. Oktober (zusätzlich zu Ethereum, Solana, Base, Arbitrum), die auf BNB Chains 4,7 Millionen DAU und 615 Millionen Gesamtadressen abzielt. Frames funktionieren nativ auf BNB Chain mit Transaktionskosten von etwa 0,01 US-Dollar. Noch wichtiger war die Clanker-Integration am 23. Oktober, die sich als katalytisch erwies – der KI-gestützte Token-Bereitstellungsbot, der jetzt Farcaster gehört, ermöglicht es Nutzern, @clanker mit Token-Ideen zu taggen und sofort handelbare Tokens auf Base bereitzustellen. Alle Protokollgebühren kaufen jetzt CLANKER-Tokens zurück und halten sie (etwa 7 % des Angebots dauerhaft in einem einseitigen LP gesperrt), wobei der Token nach der Ankündigung um 50-90 % auf eine Marktkapitalisierung von 35-36 Millionen US-Dollar anstieg. Innerhalb von zwei Wochen erreichte Clanker etwa 15 % des Transaktionsvolumens von pump.fun auf Base mit wöchentlichen Gebühren von 400.000 bis 500.000 US-Dollar, selbst bei geringer Aktivität. Ein bemerkenswerter Erfolg ist der Aether AI-Agent, der den $LUM-Token erstellte, der innerhalb einer Woche eine Marktkapitalisierung von 80 Millionen US-Dollar erreichte. Die KI-Agenten-Erzählung und Meme-Coin-Experimente erneuerten die Community-Begeisterung inmitten ansonsten rückläufiger Fundamentaldaten.

Partnerschaftliche Entwicklungen stärkten die Positionierung im Ökosystem. Base (Coinbase L2) vertiefte die Integration als primäre Bereitstellungskette mit aktiver Unterstützung des Gründers Jesse Pollak. Linda Xie wechselte von Scalar Capital zu den Developer Relations und entschied sich, Vollzeit an Farcaster zu bauen, anstatt weiterhin VC-Investitionen zu tätigen. Rainbow Wallet integrierte das Mobile Wallet Protocol für nahtlose Transaktionen. Die Noice-Plattform erweiterte die Trinkgeldfunktion für Ersteller mit USDC und der Ausgabe von Creator Tokens. Vitalik Buterins fortgesetzte aktive Nutzung sorgt für einen anhaltenden Glaubwürdigkeitsschub. Bountycaster von Linda Xie wuchs als Bounty-Marktplatz-Hub. Diese Schritte positionieren Farcaster zunehmend zentral im Base-Ökosystem und der breiteren Ethereum L2-Landschaft.

Anhaltende Herausforderungen bedrohen die langfristige Rentabilität

Die Nutzerbindungs-Krise dominiert die strategischen Bedenken. Der Rückgang der DAU um 40 % vom Höchststand im Juli 2024 (100.000 auf 60.000 bis September 2025) trotz massiver Finanzierung und technischer Innovation wirft grundlegende Fragen zur Produkt-Markt-Passung auf. Der Einbruch der täglichen Neuregistrierungen um 95,7 % von 15.000 auf 650 deutet auf einen Zusammenbruch der Akquisitions-Pipeline hin. Das DAU/MAU-Verhältnis von 0,2 (Nutzer engagieren sich etwa 6 Tage monatlich) liegt unter den gesunden Benchmarks von 0,3-0,4 für „klebrige“ soziale Plattformen. Power Badge-Daten, die nur 4.360 wirklich aktive Qualitätsnutzer gegenüber 40.000-60.000 gemeldeten DAU zeigen, deuten auf eine Bot-Inflation hin, die die Realität verschleiert. Die gescheiterte Bindung nach dem DAU-Anstieg im März 2025 durch Frame v2 – Nutzer „nicht klebrig“ – deutet darauf hin, dass virale Funktionen allein die zugrunde liegenden Engagement-Schleifen nicht lösen können.

Die wirtschaftliche Nachhaltigkeit ist im aktuellen Maßstab unbewiesen. Monatliche Einnahmen von etwa 10.000 US-Dollar im Oktober 2025 gegenüber 180 Millionen US-Dollar an Kapitalbeschaffung schaffen eine enorme Lücke, selbst unter Berücksichtigung einer erheblichen Finanzierungsreserve. Der Weg zur Profitabilität erfordert entweder ein 10-faches oder höheres Nutzerwachstum zur Skalierung der Speichergebühren oder eine signifikante Akzeptanz von Pro-Abonnements über die anfänglichen 3.700 Frühkäufer hinaus. Bei einer jährlichen Speichergebühr von 7 US-Dollar pro Nutzer erfordert das Erreichen der Gewinnschwelle (geschätzte 5-10 Millionen US-Dollar jährlich für den Betrieb) 700.000-1,4 Millionen zahlende Nutzer – weit über die aktuellen 40.000-60.000 DAU hinaus. Pro-Abonnements zu 120 US-Dollar mit einer Konversionsrate von 10-20 % könnten zusätzliche 6-12 Millionen US-Dollar von 500.000 Nutzern generieren, aber das Erreichen dieser Skalierung, während die Nutzerzahlen sinken, erweist sich als zirkuläres Problem. Die Kosten für Hub-Betreiber, die ein exponentielles Wachstum prognostizieren (potenziell 6,9 Millionen US-Dollar pro Hub bis 2027 unter den ursprünglichen Annahmen), fügen Unsicherheit hinzu, selbst wenn das tatsächliche Wachstum hinter den Erwartungen zurückbleibt.

Der Wettbewerbsdruck verstärkt sich aus mehreren Richtungen. Web2-Plattformen bieten eine überlegene UX ohne Krypto-Reibung – X/Twitter behält trotz Problemen massive Skalierung und Netzwerkeffekte bei, Threads nutzt die Instagram-Integration, TikTok dominiert Kurzformate. Web3-Alternativen zeigen sowohl Chancen als auch Bedrohungen: Bluesky, das 38 Millionen Nutzer erreicht, beweist, dass dezentrale soziale Netzwerke mit dem richtigen Ansatz skalieren können (wenn auch zentralisierter als behauptet), OpenSocial, das in APAC über 100.000 DAU aufrechterhält, zeigt, dass regionaler Wettbewerb erfolgreich ist, Lens Protocols ähnliche Schwierigkeiten bestätigen die Schwierigkeit von Blockchain-Social, und Friend.techs Zusammenbruch (230 DAU, 97 % Rückgang) offenbart die Risiken des SocialFi-Sektors. Die gesamte Kategorie sieht sich Gegenwind gegenüber – spekulationsgetriebene Nutzer versus organische Community-Builder, Airdrop-Farming-Kultur, die authentisches Engagement schädigt, und die breitere Krypto-Marktstimmung, die flüchtiges Interesse antreibt.

UX-Komplexität und Zugänglichkeitsbarrieren begrenzen das Mainstream-Potenzial. Krypto-Wallet-Anforderungen, Seed-Phrase-Verwaltung, 5 US-Dollar Anmeldegebühren, ETH-Zahlungen für Speicher und begrenzter Speicher, der Miete erfordert, filtern alle Nicht-Krypto-Zielgruppen heraus. Die Desktop-Unterstützung bleibt begrenzt mit einem Mobile-First-Design. Die Lernkurve für Web3-spezifische Funktionen wie das Signieren von Nachrichten, das Verwalten von Schlüsseln, das Verstehen von Gasgebühren und das Navigieren in Multi-Chain-Umgebungen erzeugt Reibung. Kritiker argumentieren, dass die Plattform „Twitter auf der Blockchain ohne UX/UI-Innovationen jenseits von Krypto-Funktionen“ sei. Das Onboarding ist schwieriger als bei Web2-Alternativen, während der Mehrwert für Mainstream-Nutzer, die Dezentralisierung nicht priorisieren, fragwürdig ist. Die Konzentration der 18-34-Jährigen (77 % der Nutzer) deutet auf ein Scheitern hin, über krypto-native Early Adopters hinauszuwachsen.

Roadmap konzentriert sich auf Creator Economy und KI-Integration

Bestätigte kurzfristige Entwicklungen konzentrieren sich auf die tiefere Integration von Clanker in die Farcaster-App über die aktuelle Bot-Funktionalität hinaus, obwohl Details Stand Oktober 2025 noch spärlich sind. Die Token-Bereitstellung als Kernfunktion positioniert das Protokoll als Infrastruktur für Meme-Coin-Experimente und KI-Agenten-Kollaboration. Der Erfolg von Aether, das den $LUM-Token mit einer Marktkapitalisierung von 80 Millionen US-Dollar erstellte, demonstriert Potenzial, während Bedenken hinsichtlich der Ermöglichung von Pump-and-Dump-Schemata angegangen werden müssen. Die Strategie erkennt die krypto-native Zielgruppe an und setzt auf Spekulation als Wachstumsvektor, anstatt sich davon abzuwenden – kontrovers, aber pragmatisch angesichts der Herausforderungen bei der Mainstream-Akzeptanz.

Die Expansionspläne für Farcaster Pro umfassen zusätzliche Premium-Funktionen über die aktuellen 10.000-Zeichen-Limits und 4 Einbettungen hinaus, mit potenziellen gestaffelten Abonnements und einer Verfeinerung des Einnahmemodells. Das Ziel ist es, kostenlose Nutzer in zahlende Abonnenten umzuwandeln, während 100 % der Einnahmen an wöchentliche Ersteller-Pools umverteilt werden, anstatt Unternehmensgewinne zu erzielen. Der Erfolg erfordert den Nachweis eines klaren Wertversprechens über Zeichenlimits hinaus – potenzielle Funktionen umfassen Analysen, erweiterte Planung, algorithmische Priorisierung oder exklusive Tools. Die Kanalverbesserung konzentriert sich auf kanalspezifische Tokens und Belohnungen, Leaderboard-Systeme, Community-Governance-Funktionen und Multi-Kanal-Abonnementmodelle. Plattformen wie DiviFlyy und Cura experimentieren bereits mit Kanal-Level-Ökonomien; Protokoll-Level-Unterstützung könnte die Akzeptanz beschleunigen.

Die Erweiterung der Ersteller-Monetarisierung über die wöchentlichen Belohnungen von 25.000 US-Dollar hinaus zielt darauf ab, über 1.000 Ersteller zu unterstützen, die regelmäßig verdienen, im Gegensatz zu den aktuellen Hunderten. Kanal-Level-Belohnungssysteme, die Entwicklung von Creator Coins/Fan Tokens und Frame-basierte Monetarisierung bieten Einnahmequellen, die auf Web2-Plattformen unmöglich sind. Die Vision positioniert Farcaster als das erste soziale Netzwerk, in dem „normale Menschen für Posts bezahlt werden“ und nicht nur Influencer – überzeugend, aber eine nachhaltige Wirtschaftlichkeit erfordernd, die nicht von VC-Subventionen abhängt. Technische Infrastrukturverbesserungen umfassen Snapchain-Skalierungsoptimierungen, verbesserte Sharding-Strategien für Ultra-Skalierung (Millionen von Nutzern), Verfeinerung des Speicher-Wirtschaftsmodells zur Kostensenkung und fortgesetzte Erweiterung der Cross-Chain-Interoperabilität über die aktuellen fünf Chains hinaus.

Die 10-Jahres-Vision, die von Mitbegründer Dan Romero formuliert wurde, zielt auf über eine Milliarde täglich aktiver Nutzer des Protokolls, Tausende von Apps und Diensten, die auf Farcaster aufbauen, nahtloses Ethereum-Wallet-Onboarding für jeden Nutzer, 80 % der Amerikaner, die Krypto halten, ob bewusst oder nicht, und die Mehrheit der Onchain-Aktivitäten, die über die Farcaster-Social-Schicht auf Base stattfinden. Dieser ehrgeizige Umfang steht in scharfem Kontrast zur aktuellen Realität von 40.000-60.000 DAU. Die strategische Wette geht davon aus, dass die Krypto-Akzeptanz Mainstream-Ausmaße erreicht, soziale Erlebnisse inhärent Onchain werden und Farcaster seine krypto-nativen Wurzeln erfolgreich mit der Massenmarkt-Zugänglichkeit verbindet. Erfolgsszenarien reichen von einem optimistischen Durchbruch (Frames v2 + KI-Agenten katalysieren eine neue Wachstumswelle, die bis 2026 250.000-500.000 DAU erreicht) über eine realistische Nischen-Nachhaltigkeit (60.000-100.000 engagierte Nutzer mit einer profitablen Creator Economy) bis hin zu einem pessimistischen langsamen Verblassen (anhaltender Rückgang, Finanzierungsbedenken bis 2027, eventuelle Abschaltung oder Neuausrichtung).

Kritische Bewertung offenbart Qualitäts-Community auf der Suche nach Skalierung

Das Protokoll weist trotz Herausforderungen echte Stärken auf, die anerkannt werden sollten. Die Qualität der Community erntet durchweg Lob – „fühlt sich an wie frühes Twitter“-Nostalgie, durchdachte Gespräche im Gegensatz zum Lärm von X, eine eng verbundene, unterstützende Erstellerkultur. Krypto-Vordenker, Entwickler und Enthusiasten schaffen einen höheren durchschnittlichen Diskurs als Mainstream-Plattformen, trotz geringerer Zahlen. Die technische Innovation bleibt Weltklasse: Snapchains über 10.000 TPS und 780 ms Finalität rivalisieren mit speziell entwickelten Blockchains, Frames stellen einen echten UX-Fortschritt gegenüber Wettbewerbern dar, und die hybride Architektur gleicht Kompromisse elegant aus. Die Entwicklererfahrung mit umfassenden SDKs, Hackathons und klaren Monetarisierungspfaden zieht Builder an. Die 180 Millionen US-Dollar Finanzierung bietet eine Laufzeit, die Wettbewerbern fehlt, wobei die Unterstützung von Paradigm und a16z ein Zeichen für das Vertrauen anspruchsvoller Investoren ist. Die Integration des Ethereum-Ökosystems bietet Komponierbarkeit und etablierte Infrastruktur.

Doch Warnzeichen dominieren den Ausblick. Über den 40 %igen DAU-Rückgang und den 95 %igen Registrierungseinbruch hinaus untergräbt die Power Badge-Kontroverse das Vertrauen – nur 4.360 wirklich aktive verifizierte Nutzer gegenüber 60.000 gemeldeten deuten auf eine 10-15-fache Inflation hin. Bot-Aktivität trotz einer Anmeldegebühr von 5 US-Dollar deutet darauf hin, dass die wirtschaftliche Barriere unzureichend ist. Die Einnahmeentwicklung ist besorgniserregend: 10.000 US-Dollar monatlich im Oktober 2025 gegenüber einem kumulativen Höchststand von 1,91 Millionen US-Dollar stellen einen Rückgang von 99 % dar. Bei der aktuellen Rate (ca. 120.000 US-Dollar jährlich) ist das Protokoll trotz einer Milliarden-Dollar-Bewertung weit davon entfernt, sich selbst zu tragen. Netzwerkeffekte begünstigen stark die etablierten Anbieter – X hat Millionen von Nutzern, die für die meisten unüberwindbare Wechselkosten schaffen. Der Rückgang des breiteren SocialFi-Sektors (Friend.tech-Zusammenbruch, Lens-Schwierigkeiten) deutet auf strukturelle statt auf Ausführungsprobleme hin.

Die grundlegende Frage kristallisiert sich heraus: Baut Farcaster die Zukunft der sozialen Medien oder soziale Medien für eine Zukunft, die möglicherweise nicht eintritt? Das Protokoll hat sich erfolgreich als kritische Krypto-Infrastruktur etabliert und zeigt, dass eine „ausreichend dezentrale“ Architektur technisch funktionieren kann. Die Geschwindigkeit des Entwickler-Ökosystems, die Base-Integration und die Akzeptanz durch Vordenker schaffen eine starke Grundlage. Doch der Status einer Massenmarkt-Social-Plattform bleibt nach vier Jahren und massiven Investitionen schwer fassbar. Die Obergrenze des krypto-nativen Publikums könnte bei 100.000-200.000 wirklich engagierten Nutzern weltweit liegen – wertvoll, aber weit entfernt von Einhorn-Erwartungen. Ob Dezentralisierung selbst zu einem Mainstream-Wertversprechen wird oder eine Nischenangelegenheit für Web3-Gläubige bleibt, entscheidet über den letztendlichen Erfolg.

Die Clanker-Integration im Oktober 2025 stellt strategische Klarheit dar: Sich auf krypto-native Stärken konzentrieren, anstatt direkt gegen Twitter zu kämpfen. KI-Agenten-Kollaboration, Meme-Coin-Experimente, Frame-basierter Handel und Ersteller-Token-Ökonomien nutzen einzigartige Fähigkeiten, anstatt bestehende soziale Medien mit dem Label „Dezentralisierung“ zu replizieren. Dieser Ansatz „Qualität über Quantität“ und „nachhaltige Nische“ könnte klüger sein, als eine unmögliche Mainstream-Skalierung anzustreben. Ein neu definierter Erfolg könnte 100.000 engagierte Nutzer bedeuten, die Millionen an wirtschaftlicher Aktivität von Erstellern über Tausende von Frames und Mini-Apps generieren – kleiner als ursprünglich vorgestellt, aber machbar und wertvoll. Die nächsten 12-18 Monate werden darüber entscheiden, ob Farcaster 2026 zu einem nachhaltigen 100-Millionen-Dollar-Protokoll oder zu einer warnenden Geschichte auf dem Web3-Social-Friedhof wird.

Der Aufstieg von KI-Agenten im DeFi-Bereich: Transformation von Multi-Chain-Strategien

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Die meisten DeFi-Nutzer öffnen immer noch fünf Browser-Tabs, um eine einzige Yield-Strategie abzuschließen – sie prüfen die Zinssätze auf Aave, bridgen Assets auf Stargate, zahlen auf Curve ein und hoffen, dass sie keine Gas-Spitze verpassen. Aber eine stille Revolution ist im Gange. Autonome KI-Agenten erledigen all das nun geräuschlos über mehrere Blockchains hinweg gleichzeitig, während Sie schlafen.

Im Jahr 2025 stieg die Aktivität von KI-Agenten auf Blockchains um 86 %. Allein die Agenten von Fetch.ai verwalten über 1 Milliarde US-Dollar in Hyperliquid-Derivaten und führen autonom Trades mit 100-fachem Hebel aus. Die KI-gesteuerten Vaults von Yearn optimieren 5 Milliarden US-Dollar über Yield-Pools hinweg ohne menschliches Zutun. Und Plattformen wie XION und Particle Network bauen die Abstraktionsebenen auf, die all dies für Endnutzer unsichtbar machen. Die Frage ist nicht mehr, ob KI-Agenten Multi-Chain-DeFi orchestrieren können – sondern wie schnell die Infrastruktur reifen wird und was das für alle bedeutet, von Privatanwendern bis hin zu institutionellen Desks.

Wie Celestias Data Availability Sampling 1 Terabit pro Sekunde erreicht: Der technische Deep Dive

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Am 13. Januar 2026 sprengte Celestia alle Erwartungen mit einem einzigen Benchmark: 1 Terabit pro Sekunde Datendurchsatz über 498 verteilte Knoten hinweg. Zum Vergleich: Das ist genug Bandbreite, um das gesamte tägliche Transaktionsvolumen der größten Layer-2-Rollups von Ethereum zu verarbeiten – in weniger als einer Sekunde.

Doch die eigentliche Geschichte ist nicht die Schlagzeile. Es ist die kryptografische Infrastruktur, die dies ermöglicht: Data Availability Sampling (DAS), ein Durchbruch, der es Light Nodes mit begrenzten Ressourcen erlaubt, die Datenverfügbarkeit der Blockchain zu verifizieren, ohne ganze Blöcke herunterzuladen. Da Rollups darum wetteifern, über den nativen Blob-Speicher von Ethereum hinaus zu skalieren, war es noch nie so wichtig zu verstehen, wie Celestia diesen Durchsatz erreicht – und warum dies für die Ökonomie von Rollups von Bedeutung ist.

Der Datenverfügbarkeits-Engpass: Warum Rollups eine bessere Lösung benötigen

Die Skalierbarkeit von Blockchains ist seit langem durch einen fundamentalen Kompromiss eingeschränkt: Wie verifiziert man, dass Transaktionsdaten tatsächlich verfügbar sind, ohne dass jeder Knoten alles herunterladen und speichern muss? Dies ist das Datenverfügbarkeitsproblem, und es stellt den primären Engpass für die Skalierung von Rollups dar.

Ethereums Ansatz – die Anforderung, dass jeder Full Node komplette Blöcke herunterlädt – schafft eine Zugangsbarriere. Mit wachsender Blockgröße können sich immer weniger Teilnehmer die Bandbreite und den Speicher leisten, um Full Nodes zu betreiben, was die Dezentralisierung gefährdet. Rollups, die Daten auf Ethereum L1 veröffentlichen, sehen sich mit prohibitiven Kosten konfrontiert: Bei Spitzenlast kann ein einzelner Batch tausende Dollar an Gas-Gebühren kosten.

Hier kommen modulare Datenverfügbarkeitsschichten ins Spiel. Durch die Trennung der Datenverfügbarkeit von Ausführung und Konsens versprechen Protokolle wie Celestia, EigenDA und Avail, die Kosten für Rollups drastisch zu senken und gleichzeitig Sicherheitsgarantien aufrechtzuerhalten. Celestias Innovation? Eine Sampling-Technik, die das Verifizierungsmodell umkehrt: Anstatt alles herunterzuladen, um die Verfügbarkeit zu prüfen, tasten Light Nodes zufällig winzige Fragmente ab und erreichen so eine statistische Gewissheit, dass der vollständige Datensatz existiert.

Data Availability Sampling erklärt: Wie Light Nodes ohne Download verifizieren

Im Kern ist DAS ein probabilistischer Verifizierungsmechanismus. Hier erfahren Sie, wie es funktioniert:

Zufälliges Sampling und Vertrauensaufbau

Light Nodes laden keine ganzen Blöcke herunter. Stattdessen führen sie mehrere Runden zufälliger Stichproben (Sampling) für kleine Teile der Blockdaten durch. Jedes erfolgreiche Sample erhöht das Vertrauen, dass der vollständige Block verfügbar ist.

Die Mathematik dahinter ist elegant: Wenn ein böswilliger Validator auch nur einen kleinen Prozentsatz der Blockdaten zurückhält, werden ehrliche Light Nodes die Nichtverfügbarkeit mit hoher Wahrscheinlichkeit bereits nach wenigen Sampling-Runden erkennen. Dies schafft ein Sicherheitsmodell, bei dem sogar Geräte mit begrenzten Ressourcen an der Verifizierung der Datenverfügbarkeit teilnehmen können.

Konkret wählt jede Light Node zufällig einen Satz einzigartiger Koordinaten in einer erweiterten Datenmatrix aus und fragt Bridge-Nodes nach den entsprechenden Datenanteilen sowie Merkle-Proofs ab. Wenn die Light Node valide Antworten für jede Abfrage erhält, garantiert die statistische Wahrscheinlichkeit, dass die Daten des gesamten Blocks verfügbar sind.

2D Reed-Solomon-Kodierung: Das mathematische Fundament

Celestia setzt ein 2-dimensionales Reed-Solomon-Kodierungsschema ein, um das Sampling sowohl effizient als auch betrugssicher zu macht. Dies ist der technische Ablauf:

  1. Blockdaten werden aufgeteilt in k × k Chunks, die ein Datenquadrat bilden
  2. Reed-Solomon-Erasure-Coding erweitert dies auf eine 2k × 2k Matrix (Hinzufügen von Redundanz)
  3. Merkle-Roots werden berechnet für jede Zeile und Spalte der erweiterten Matrix
  4. Die Merkle-Root dieser Roots wird zum Block Data Commitment im Block-Header

Dieser Ansatz hat eine entscheidende Eigenschaft: Wenn irgendein Teil der erweiterten Matrix fehlt, bricht die Kodierung zusammen, und Light Nodes werden Inkonsistenzen bei der Verifizierung der Merkle-Proofs feststellen. Ein Angreifer kann Daten nicht selektiv zurückhalten, ohne erwischt zu werden.

Namespaced Merkle Trees: Rollup-spezifische Datenisolierung

Hier glänzt die Architektur von Celestia für Multi-Rollup-Umgebungen: Namespaced Merkle Trees (NMTs).

Ein Standard-Merkle-Tree gruppiert Daten willkürlich. Ein NMT hingegen kennzeichnet jeden Knoten mit den minimalen und maximalen Namespace-Identifikatoren seiner Kinder und ordnet die Leaves nach Namespaces. Dies ermöglicht es Rollups:

  • Nur ihre eigenen Daten von der DA-Schicht herunterzuladen
  • Die Vollständigkeit der Daten ihres Namespaces mit einem Merkle-Proof zu beweisen
  • Irrelevante Daten anderer Rollups gänzlich zu ignorieren

Für einen Rollup-Betreiber bedeutet dies, dass keine Bandbreitenkosten anfallen, um Daten von konkurrierenden Chains herunterzuladen. Man ruft genau das ab, was man benötigt, verifiziert es mit kryptografischen Beweisen und fährt fort. Dies ist ein massiver Effizienzgewinn im Vergleich zu monolithischen Chains, bei denen alle Teilnehmer alle Daten verarbeiten müssen.

Das Matcha-Upgrade: Skalierung auf 128 MB-Blöcke

Im Jahr 2025 aktivierte Celestia das Matcha-Upgrade, einen Wendepunkt für modulare Datenverfügbarkeit. Das hat sich geändert:

Blockgrößen-Erweiterung

Matcha erhöht die maximale Blockgröße von 8 MB auf 128 MB — eine 16-fache Kapazitätssteigerung. Dies bedeutet:

  • Datenquadrat-Größe: 128 → 512
  • Maximale Transaktionsgröße: 2 MB → 8 MB
  • Anhaltender Durchsatz: 21,33 MB/s im Testnet (April 2025)

Um dies einzuordnen: Ethereums Ziel-Blob-Anzahl liegt bei 6 pro Block (etwa 0,75 MB), erweiterbar auf 9 Blobs. Die 128-MB-Blöcke von Celestia übertreffen diese Kapazität um mehr als das 100-fache.

Block-Propagierung mit hohem Durchsatz

Die Einschränkung lag nicht nur an der Blockgröße, sondern an der Geschwindigkeit der Block-Propagierung. Matcha führt einen neuen Propagierungsmechanismus (CIP-38) ein, der 128-MB-Blöcke sicher im Netzwerk verbreitet, ohne eine Desynchronisation der Validatoren zu verursachen.

Im Testnet hielt das Netzwerk Blockzeiten von 6 Sekunden mit 128-MB-Blöcken aufrecht und erreichte einen Durchsatz von 21,33 MB/s. Dies entspricht dem 16-fachen der aktuellen Mainnet-Kapazität.

Reduzierung der Speicherkosten

Eine der am meisten übersehenen wirtschaftlichen Änderungen: Matcha reduzierte das minimale Daten-Pruning-Fenster von 30 Tagen auf 7 Tage + 1 Stunde (CIP-34).

Für Bridge-Nodes senkt dies die Speicheranforderungen bei prognostizierten Durchsatzraten von 30 TB auf 7 TB. Geringere Betriebskosten für Infrastrukturanbieter führen zu günstigerer Datenverfügbarkeit für Rollups.

Überarbeitung der Token-Ökonomie

Matcha verbesserte auch die TIA-Token-Ökonomie:

  • Inflationskürzung: Von jährlich 5 % auf 2,5 %
  • Erhöhung der Validatoren-Provision: Maximum von 10 % auf 20 % angehoben
  • Verbesserte Sicherheiten-Eigenschaften: TIA wird für DeFi-Anwendungsfälle attraktiver gemacht

Zusammengenommen positionieren diese Änderungen Celestia für die nächste Phase: Skalierung auf einen Durchsatz von 1 GB/s und darüber hinaus.

Rollup-Ökonomie: Warum ein DA-Marktanteil von 50 % wichtig ist

Seit Anfang 2026 hält Celestia etwa 50 % des Marktes für Datenverfügbarkeit (DA-Markt) und hat über 160 GB an Rollup-Daten verarbeitet. Diese Dominanz spiegelt die reale Akzeptanz durch Rollup-Entwickler wider, die Kosten und Skalierbarkeit priorisieren.

Kostenvergleich: Celestia vs. Ethereum-Blobs

Das Gebührenmodell von Celestia ist unkompliziert: Rollups zahlen pro Blob basierend auf der Größe und den aktuellen Gas-Preisen. Im Gegensatz zu Ausführungsschichten (Execution Layers), in denen Berechnungen dominieren, geht es bei der Datenverfügbarkeit grundlegend um Bandbreite und Speicherung — Ressourcen, die mit Hardware-Verbesserungen vorhersehbarer skalieren.

Für Rollup-Betreiber ist die Rechnung überzeugend:

  • Ethereum L1-Posting: Bei Spitzenlast kann die Batch-Einreichung 1.000 bisu¨ber10.000bis über 10.000 an Gas-Gebühren kosten
  • Celestia DA: Kosten unter einem Dollar pro Batch für gleichwertige Daten

Diese mehr als 100-fache Kostenreduzierung ist der Grund, warum Rollups zu modularen DA-Lösungen migrieren. Günstigere Datenverfügbarkeit führt direkt zu niedrigeren Transaktionsgebühren für Endnutzer.

Die Rollup-Anreizstruktur

Das Wirtschaftsmodell von Celestia bringt die Anreize in Einklang:

  1. Rollups zahlen für Blob-Speicher proportional zur Datengröße
  2. Validatoren verdienen Gebühren für die Absicherung der DA-Schicht
  3. Bridge-Nodes stellen Daten für Light-Nodes bereit und verdienen Servicegebühren
  4. Light-Nodes sampeln Daten kostenlos und tragen so zur Sicherheit bei

Dies erzeugt einen Schwungrad-Effekt: Je mehr Rollups Celestia nutzen, desto höher sind die Einnahmen der Validatoren, was mehr Staker anzieht, was die Sicherheit stärkt und wiederum mehr Rollups anzieht.

Der Wettbewerb: EigenDA, Avail und Ethereum-Blobs

Der Marktanteil von Celestia von 50 % wird angegriffen. Drei große Konkurrenten skalieren aggressiv:

EigenDA: Ethereum-natives Restaking

EigenDA nutzt die Restaking-Infrastruktur von EigenLayer, um einen hohen Durchsatz für die Datenverfügbarkeit von Ethereum-Rollups zu bieten. Hauptvorteile:

  • Ökonomische Sicherheit: Gesichert durch gerestaktes ETH (derzeit 93,9 % des Restaking-Marktes)
  • Enge Ethereum-Integration: Native Kompatibilität mit dem Blob-Markt von Ethereum
  • Höchste Durchsatzansprüche: Obwohl früheren Versionen eine aktive ökonomische Sicherheit fehlte

Kritiker weisen darauf hin, dass die Abhängigkeit von EigenDA vom Restaking ein Kaskadenrisiko einführt: Wenn ein AVS einem Slashing unterliegt, könnte sich dies auf Lido stETH-Halter übertragen und den breiteren LST-Markt destabilisieren.

Avail: Universelle DA für alle Chains

Im Gegensatz zum Cosmos-Fokus von Celestia und der Ethereum-Orientierung von EigenDA positioniert sich Avail als eine universelle DA-Schicht, die mit jeder Blockchain-Architektur kompatibel ist:

  • Unterstützung für UTXO-, Account- und Object-Modelle: Funktioniert mit Bitcoin L2s, EVM-Chains und Move-basierten Systemen
  • Modulares Design: Trennt DA vollständig vom Konsens
  • Ökosystemübergreifende Vision: Ziel ist es, als neutrale DA-Schicht für alle Blockchains zu dienen

Die Herausforderung für Avail? Es ist der neueste Marktteilnehmer und hinkt bei den Live-Rollup-Integrationen im Vergleich zu Celestia und EigenDA hinterher.

Ethereum Native Blobs: EIP-4844 und darüber hinaus

Ethereums EIP-4844 (Dencun-Upgrade) führte Blob-tragende Transaktionen ein und bot Rollups eine günstigere Alternative zum Posten von Daten im Vergleich zu Calldata. Aktuelle Kapazität:

  • Ziel: 6 Blobs pro Block (~0,75 MB)
  • Maximum: 9 Blobs pro Block (~1,125 MB)
  • Zukünftige Erweiterung: PeerDAS- und zkEVM-Upgrades, die auf über 10.000 TPS abzielen

Ethereum-Blobs bringen jedoch Kompromisse mit sich:

  • Kurzes Aufbewahrungsfenster: Daten werden nach ca. 18 Tagen gelöscht
  • Konkurrenz um geteilte Ressourcen: Alle Rollups konkurrieren um denselben Blob-Platz
  • Begrenzte Skalierbarkeit: Selbst mit PeerDAS bleibt die Blob-Kapazität weit unter der Roadmap von Celestia

Für Rollups, die eine Ausrichtung auf Ethereum prioritär behandeln, sind Blobs attraktiv. Für diejenigen, die massiven Durchsatz und langfristige Datenspeicherung benötigen, bleibt Celestia die bessere Wahl.

Fibre Blockspace: Die 1-Terabit-Vision

Am 14. Januar 2026 enthüllte Mustafa Al-Bassam, Mitbegründer von Celestia, Fibre Blockspace – ein neues Protokoll, das einen Durchsatz von 1 Terabit pro Sekunde bei einer Latenz im Millisekundenbereich anstrebt. Dies entspricht einer 1.500-fachen Verbesserung gegenüber den ursprünglichen Roadmap-Zielen von vor nur einem Jahr.

Details zum Benchmark

Das Team erreichte den Benchmark von 1 Tbps unter Verwendung von:

  • 498 Knoten, verteilt über Nordamerika
  • GCP-Instanzen mit jeweils 48-64 vCPUs und 90-128 GB RAM
  • 34-45 Gbps Netzwerkverbindungen pro Instanz

Unter diesen kontrollierten Bedingungen hielt das Protokoll einen Datendurchsatz von 1 Terabit pro Sekunde aufrecht – ein gewaltiger Sprung in der Blockchain-Performance.

ZODA-Kodierung: 881-mal schneller als KZG

Das Herzstück von Fibre ist ZODA, ein neuartiges Kodierungsprotokoll, von dem Celestia behauptet, dass es Daten 881-mal schneller verarbeitet als Alternativen, die auf KZG-Commitments basieren, wie sie von EigenDA und Ethereum Blobs verwendet werden.

KZG-Commitments (Kate-Zaverucha-Goldberg-Polynom-Commitments) sind kryptographisch elegant, aber rechenintensiv. ZODA opfert einige kryptographische Eigenschaften für massive Geschwindigkeitsgewinne, wodurch ein Durchsatz im Terabit-Bereich auf Standard-Hardware erreichbar wird.

Die Vision: Jeder Markt kommt On-Chain

Al-Bassams Aussage zur Roadmap verdeutlicht Celestias Ambitionen:

„Wenn 10 KB/s AMMs ermöglichten und 10 MB/s On-Chain-Orderbücher erlaubten, dann ist 1 Tbps der Sprung, der es jedem Markt ermöglicht, On-Chain zu agieren.“

Die Implikation: Mit ausreichender Bandbreite für Datenverfügbarkeit könnten Finanzmärkte, die derzeit von zentralisierten Börsen dominiert werden – Spot, Derivate, Optionen, Prognosemärkte –, auf eine transparente, erlaubnisfreie Blockchain-Infrastruktur migrieren.

Realitätscheck: Benchmarks vs. Produktion

Benchmark-Bedingungen entsprechen selten dem Chaos der realen Welt. Das Ergebnis von 1 Tbps wurde in einer kontrollierten Testnet-Umgebung mit Hochleistungs-Cloud-Instanzen erzielt. Der eigentliche Test erfolgt, wenn:

  • Tatsächliche Rollups reale Produktions-Workloads bewältigen müssen
  • Netzwerkbedingungen variieren (Latenzspitzen, Paketverluste, asymmetrische Bandbreite)
  • Gegnerische Validatoren versuchen, Data-Withholding-Angriffe durchzuführen

Das Team von Celestia räumt dies ein: Fibre läuft parallel zur bestehenden L1-DA-Ebene, sodass Nutzer die Wahl zwischen einer praxiserprobten Infrastruktur und einem experimentellen Spitzendurchsatz haben.

Was dies für Rollup-Entwickler bedeutet

Wenn Sie ein Rollup aufbauen, bietet die DAS-Architektur (Data Availability Sampling) von Celestia überzeugende Vorteile:

Wann Sie Celestia wählen sollten

  • Hochdurchsatz-Anwendungen: Gaming, soziale Netzwerke, Micropayments
  • Kostensensible Anwendungsfälle: Rollups, die Transaktionsgebühren im Sub-Cent-Bereich anstreben
  • Datenintensive Workflows: KI-Inferenz, Integrationen für dezentralen Speicher
  • Multi-Rollup-Ökosysteme: Projekte, die mehrere spezialisierte Rollups starten

Wann Sie bei Ethereum Blobs bleiben sollten

  • Ethereum-Alignment: Wenn Ihr Rollup Wert auf den sozialen Konsens und die Sicherheit von Ethereum legt
  • Vereinfachte Architektur: Blobs bieten eine engere Integration mit Ethereum-Tooling
  • Geringere Komplexität: Weniger zu verwaltende Infrastruktur (keine separate DA-Ebene)

Integrationsüberlegungen

Die DA-Ebene von Celestia lässt sich in die wichtigsten Rollup-Frameworks integrieren:

  • Polygon CDK: Einfach austauschbare DA-Komponente
  • OP Stack: Benutzerdefinierte DA-Adapter verfügbar
  • Arbitrum Orbit: Von der Community entwickelte Integrationen
  • Rollkit: Native Celestia-Unterstützung

Für Entwickler bedeutet die Einführung von Celestia oft nur den Austausch des Datenverfügbarkeitsmoduls in ihrem Rollup-Stack – mit minimalen Änderungen an der Ausführungs- oder Settlement-Logik.

Die Data Availability Wars: Wie es weitergeht

Die modulare Blockchain-These wird in Echtzeit auf die Probe gestellt. Celestias Marktanteil von 50 %, die Restaking-Dynamik von EigenDA und die universelle Positionierung von Avail führen zu einem Dreikampf um die Gunst der Rollup-Entwickler.

  1. Eskalation des Durchsatzes: Celestia strebt 1 GB/s → 1 Tbps an; EigenDA und Avail werden darauf reagieren
  2. Ökonomische Sicherheitsmodelle: Werden die Restaking-Risiken EigenDA einholen? Kann das Validator-Set von Celestia skalieren?
  3. Erweiterung der Ethereum Blobs: PeerDAS und zkEVM-Upgrades könnten die Kostendynamik verschieben
  4. Chain-übergreifende DA: Avails universelle Vision gegenüber ökosystemspezifischen Lösungen

Die BlockEden.xyz-Perspektive

Für Infrastrukturanbieter wird die Unterstützung mehrerer DA-Ebenen zur Grundvoraussetzung. Rollup-Entwickler benötigen einen zuverlässigen RPC-Zugang nicht nur zu Ethereum, sondern auch zu Celestia, EigenDA und Avail.

BlockEden.xyz bietet Hochleistungs-RPC-Infrastruktur für Celestia und über 10 weitere Blockchain-Ökosysteme an, was es Rollup-Teams ermöglicht, auf modularen Stacks aufzubauen, ohne die Knoten-Infrastruktur selbst verwalten zu müssen. Entdecken Sie unsere Datenverfügbarkeits-APIs, um Ihr Rollup-Deployment zu beschleunigen.

Fazit: Datenverfügbarkeit als neuer Wettbewerbsvorteil

Das Data Availability Sampling von Celestia ist nicht nur eine schrittweise Verbesserung – es ist ein Paradigmenwechsel in der Art und Weise, wie Blockchains ihren Status verifizieren. Indem es Light-Nodes ermöglicht, durch probabilistisches Sampling an der Sicherheit teilzunehmen, demokratisiert Celestia die Verifizierung in einer Weise, wie es monolithische Chains nicht können.

Das Matcha-Upgrade mit 128 MB großen Blöcken und die Fibre-Vision eines Durchsatzes von 1 Tbps stellen Wendepunkte für die Rollup-Ökonomie dar. Wenn die Kosten für die Datenverfügbarkeit um das 100-fache sinken, werden völlig neue Anwendungskategorien realisierbar: On-Chain-Hochfrequenzhandel, Echtzeit-Multiplayer-Gaming und die Koordination von KI-Agenten in großem Maßstab.

Doch Technologie allein entscheidet nicht über die Gewinner. Die DA-Wars werden durch drei Faktoren entschieden:

  1. Rollup-Adoption: Welche Chains verpflichten sich tatsächlich zu Produktions-Deployments?
  2. Ökonomische Nachhaltigkeit: Können diese Protokolle niedrige Kosten beibehalten, wenn die Nutzung skaliert?
  3. Sicherheitsresilienz: Wie gut widerstehen Sampling-basierte Systeme hochentwickelten Angriffen?

Celestias Marktanteil von 50 % und 160 GB an verarbeiteten Rollup-Daten beweisen, dass das Konzept funktioniert. Jetzt verschiebt sich die Frage von „Kann modulare DA skalieren?“ zu „Welche DA-Ebene wird die Rollup-Wirtschaft dominieren?“

Für Entwickler, die sich in dieser Landschaft bewegen, ist der Rat klar: Abstrahieren Sie Ihre DA-Ebene. Entwerfen Sie Rollups so, dass sie zwischen Celestia, EigenDA, Ethereum Blobs und Avail wechseln können, ohne die Architektur neu zu gestalten. Die Data Availability Wars haben gerade erst begonnen, und die Gewinner sind vielleicht nicht diejenigen, die wir erwarten.


Quellen:

Datenmärkte treffen auf KI-Training: Wie Blockchain die 23-Milliarden-Dollar-Datenpreiskrise löst

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Die KI-Branche steht vor einem Paradoxon: Die weltweite Datenproduktion explodiert bis 2025 von 33 Zettabyte auf 175 Zettabyte, doch die Qualität der KI-Modelle stagniert. Das Problem ist nicht der Datenmangel – es liegt daran, dass Datenanbieter keine Möglichkeit haben, den Wert ihrer Beiträge zu erfassen. Hier kommen Blockchain-basierte Datenmärkte wie Ocean Protocol, LazAI und ZENi ins Spiel, die KI-Trainingsdaten von einer kostenlosen Ressource in eine monetarisierbare Anlageklasse verwandeln, die bis 2034 einen Wert von 23,18 Milliarden US-Dollar erreichen wird.

Das 23-Milliarden-Dollar-Datenpreisfindungsproblem

Die Kosten für das KI-Training stiegen von 2023 bis 2025 um 89 %, wobei die Datenerfassung und -annotation bis zu 80 % der Budgets von Machine-Learning-Projekten verschlingen. Dennoch erhalten Datenersteller – Einzelpersonen, die Suchanfragen, Social-Media-Interaktionen und Verhaltensmuster generieren – nichts, während Tech-Giganten Werte in Milliardenhöhe abschöpfen.

Der Markt für KI-Trainingsdatensätze offenbart diese Diskrepanz. Mit einem geschätzten Wert von 3,59 Milliarden US-Dollar im Jahr 2025 wird erwartet, dass der Markt bis 2034 23,18 Milliarden US-Dollar bei einer jährlichen Wachstumsrate (CAGR) von 22,9 % erreichen wird. Eine andere Prognose beziffert das Jahr 2026 auf 7,48 Milliarden US-Dollar und erreicht bis 2035 52,41 Milliarden US-Dollar bei einem jährlichen Wachstum von 24,16 %.

Aber wer schöpft diesen Wert ab? Derzeit erzielen zentralisierte Plattformen Gewinne, während die Datenersteller keinerlei Vergütung erhalten. Label-Rauschen, inkonsistentes Tagging und fehlender Kontext treiben die Kosten in die Höhe, doch den Mitwirkenden fehlen die Anreize, die Qualität zu verbessern. Datenschutzbedenken betreffen 28 % der Unternehmen und schränken die Zugänglichkeit von Datensätzen genau dann ein, wenn die KI vielfältige und qualitativ hochwertige Inputs benötigt.

Ocean Protocol: Tokenisierung der 100-Millionen-Dollar-Datenökonomie

Ocean Protocol adressiert das Thema Eigentum, indem es Datenanbietern ermöglicht, Datensätze zu tokenisieren und für das KI-Training verfügbar zu machen, ohne die Kontrolle abzugeben. Seit dem Start der Ocean Nodes im August 2024 ist das Netzwerk auf über 1,4 Millionen Nodes in mehr als 70 Ländern angewachsen, hat über 35.000 Datensätze integriert und KI-bezogene Datentransaktionen im Wert von mehr als 100 Millionen US-Dollar ermöglicht.

Die Produkt-Roadmap für 2025 umfasst drei entscheidende Komponenten:

Inference Pipelines ermöglichen das End-to-End-Training und Deployment von KI-Modellen direkt auf der Infrastruktur von Ocean. Datenanbieter tokenisieren proprietäre Datensätze, legen Preise fest und erzielen Einnahmen jedes Mal, wenn ein KI-Modell ihre Daten für das Training oder die Inferenz nutzt.

Ocean Enterprise Onboarding führt Unternehmen des Ökosystems vom Pilotprojekt zur Produktion. Ocean Enterprise v1, das im 3. Quartal 2025 startet, bietet eine konforme, produktionsreife Datenplattform für institutionelle Kunden, die einen prüffähigen, datenschutzfreundlichen Datenaustausch benötigen.

Node Analytics führt Dashboards zur Verfolgung von Leistung, Nutzung und ROI ein. Partner wie NetMind steuern 2.000 GPUs bei, während Aethir bei der Skalierung von Ocean Nodes hilft, um große KI-Workloads zu unterstützen und eine dezentrale Rechenschicht für das KI-Training zu schaffen.

Der Revenue-Sharing-Mechanismus von Ocean funktioniert über Smart Contracts: Datenanbieter legen Zugriffsbedingungen fest, KI-Entwickler zahlen pro Nutzung und die Blockchain verteilt Zahlungen automatisch an alle Mitwirkenden. Dies verwandelt Daten von einem einmaligen Verkauf in einen kontinuierlichen Einnahmestrom, der an die Modellleistung gebunden ist.

LazAI: Verifizierbare KI-Interaktionsdaten auf Metis

LazAI führt einen grundlegend anderen Ansatz ein – die Monetarisierung von KI-Interaktionsdaten, nicht nur statischen Datensätzen. Jedes Gespräch mit den Flaggschiff-Agenten von LazAI (Lazbubu, SoulTarot) generiert Data Anchoring Tokens (DATs), die als rückverfolgbare, verifizierbare Aufzeichnungen von KI-generierten Outputs fungieren.

Das Alpha Mainnet startete im Dezember 2025 auf einer unternehmensgerechten Infrastruktur mit QBFT-Konsens und $METIS-basiertem Settlement. DATs tokenisieren und monetarisieren KI-Datensätze und -Modelle als verifizierbare Assets mit transparentem Eigentum und Umsatzverteilung.

Warum ist das wichtig? Traditionelles KI-Training verwendet statische Datensätze, die zum Zeitpunkt der Erfassung eingefroren sind. LazAI erfasst dynamische Interaktionsdaten – Benutzeranfragen, Modellantworten, Verfeinerungsschleifen – und erstellt Trainingsdatensätze, die reale Nutzungsmuster widerspiegeln. Diese Daten sind exponentiell wertvoller für die Feinabstimmung von Modellen, da sie Signale für menschliches Feedback enthalten, die in den Gesprächsfluss eingebettet sind.

Das System umfasst drei zentrale Innovationen:

Proof-of-Stake Validator Staking sichert KI-Datenpipelines. Validatoren staken Token, um die Datenintegrität zu verifizieren, verdienen Belohnungen für eine genaue Validierung und müssen mit Strafen rechnen, wenn sie betrügerische Daten genehmigen.

DAT Minting mit Revenue Sharing ermöglicht es Nutzern, die wertvolle Interaktionsdaten generieren, DATs zu prägen (Minting), die ihre Beiträge repräsentieren. Wenn KI-Unternehmen diese Datensätze für das Modelltraining erwerben, fließen die Einnahmen basierend auf ihrem proportionalen Beitrag automatisch an alle DAT-Inhaber.

iDAO Governance etabliert dezentrale KI-Kollektive, in denen Datenbeitragende gemeinsam über On-Chain-Abstimmungen die Kuratierung von Datensätzen, Preisstrategien und Qualitätsstandards steuern.

Die Roadmap für 2026 sieht ZK-basierte Privatsphäre vor (Nutzer können Interaktionsdaten monetarisieren, ohne persönliche Informationen preiszugeben), dezentrale Rechenmärkte (das Training findet auf einer verteilten Infrastruktur statt statt in zentralisierten Clouds) sowie die Auswertung multimodaler Daten (Video-, Audio-, Bildinteraktionen über Text hinaus).

ZENi: Die Intelligence Data Layer für KI-Agenten

ZENi agiert an der Schnittstelle von Web3 und KI, indem es die „InfoFi-Ökonomie“ vorantreibt – ein dezentrales Netzwerk, das den traditionellen und blockchainbasierten Handel durch KI-gestützte Intelligenz überbrückt. Das Unternehmen sammelte 1,5 Millionen US-Dollar in einer Seed-Finanzierungsrunde unter der Leitung von Waterdrip Capital und Mindfulness Capital.

Im Kern steht der InfoFi Data Layer, eine Hochdurchsatz-Engine für Verhaltensintelligenz, die täglich über 1 Million Signale auf X / Twitter, Telegram, Discord und On-Chain-Aktivitäten verarbeitet. ZENi identifiziert Muster im Nutzerverhalten, Stimmungsschwankungen und Community-Engagement – Daten, die für das Training von KI-Agenten entscheidend, aber in großem Maßstab schwer zu erfassen sind.

Die Plattform operiert als dreiteiliges System:

AI Data Analytic Agent identifiziert Zielgruppen mit hoher Intention und Einfluss-Cluster durch die Analyse von Social Graphs, On-Chain-Transaktionen und Engagement-Metriken. Dies erstellt Verhaltensdatensätze, die nicht nur zeigen, was Nutzer tun, sondern auch, warum sie Entscheidungen treffen.

AIGC (AI-Generated Content) Agent entwirft personalisierte Kampagnen mithilfe von Erkenntnissen aus dem Data Layer. Durch das Verständnis von Nutzerpräferenzen und Community-Dynamiken generiert der Agent Inhalte, die für spezifische Zielgruppensegmente optimiert sind.

AI Execution Agent aktiviert die Reichweite über die ZENi dApp und schließt so den Kreislauf von der Datenerfassung bis zur Monetarisierung. Nutzer erhalten eine Vergütung, wenn ihre Verhaltensdaten zu erfolgreichen Kampagnen beitragen.

ZENi bedient bereits Partner in den Bereichen E-Commerce, Gaming und Web3 mit 480.000 registrierten Nutzern und 80.000 täglich aktiven Nutzern. Das Geschäftsmodell monetarisiert Verhaltensintelligenz: Unternehmen zahlen für den Zugriff auf die KI-verarbeiteten Datensätze von ZENi, und die Einnahmen fließen an die Nutzer zurück, deren Daten diese Erkenntnisse ermöglicht haben.

Der Wettbewerbsvorteil der Blockchain in Datenmärkten

Warum ist die Blockchain für die Datenmonetarisierung wichtig? Drei technische Fähigkeiten machen dezentrale Datenmärkte gegenüber zentralisierten Alternativen überlegen:

Granulare Umsatz-Zuweisung Smart Contracts ermöglichen eine ausgeklügelte Umsatzbeteiligung, bei der mehrere Mitwirkende an einem KI-Modell automatisch eine proportionale Vergütung basierend auf der Nutzung erhalten. Ein einzelner Trainingsdatensatz könnte Eingaben von 10.000 Nutzern aggregieren – die Blockchain verfolgt jeden Beitrag und verteilt Mikrozahlungen pro Modell-Inferenz.

Traditionelle Systeme können diese Komplexität nicht bewältigen. Zahlungsabwickler erheben feste Gebühren (2–3 %), die für Mikrozahlungen ungeeignet sind, und zentralisierten Plattformen mangelt es an Transparenz darüber, wer was beigetragen hat. Die Blockchain löst beides: Transaktionskosten nahe Null über Layer-2-Lösungen und unveränderliche Zuweisung über On-Chain-Provenienz.

Verifizierbare Datenherkunft Die Data Anchoring Tokens von LazAI beweisen den Datenursprung, ohne den zugrunde liegenden Inhalt offenzulegen. KI-Unternehmen, die Modelle trainieren, können verifizieren, dass sie lizenzierte, hochwertige Daten verwenden und keine abgegriffenen Webinhalte von fragwürdiger Legalität.

Dies adressiert ein kritisches Risiko: Datenschutzbestimmungen betreffen 28 % der Unternehmen und schränken die Zugänglichkeit von Datensätzen ein. Blockchainbasierte Datenmärkte implementieren datenschutzfreundliche Verifizierungen – sie beweisen Datenqualität und Lizenzierung, ohne persönliche Informationen preiszugeben.

Dezentralisiertes KI-Training Das Knotennetzwerk von Ocean Protocol demonstriert, wie verteilte Infrastrukturen Kosten senken. Anstatt Cloud-Anbietern 2–5 US-Dollar pro GPU-Stunde zu zahlen, bringen dezentrale Netzwerke ungenutzte Rechenkapazitäten (Gaming-PCs, Rechenzentren mit freien Kapazitäten) mit dem Bedarf an KI-Training zusammen – bei einer Kostensenkung von 50–85 %.

Die Blockchain koordiniert diese Komplexität durch Smart Contracts, die die Aufgabenverteilung, Zahlungsabwicklung und Qualitätsprüfung regeln. Teilnehmer staken Token, um teilzunehmen, verdienen Belohnungen für ehrliche Berechnungen und riskieren Slashing-Strafen für die Lieferung falscher Ergebnisse.

Der Weg zu 52 Milliarden US-Dollar: Marktkräfte treiben die Adaption voran

Drei konvergierende Trends beschleunigen das Wachstum des Blockchain-Datenmarktes in Richtung der Prognose von 52,41 Milliarden US-Dollar bis 2035:

Diversifizierung von KI-Modellen Die Ära der massiven Basismodelle (GPT-4, Claude, Gemini), die auf allen Internet-Texten trainiert wurden, geht zu Ende. Spezialisierte Modelle für das Gesundheitswesen, Finanzen, Rechtsdienstleistungen und vertikale Anwendungen erfordern domänenspezifische Datensätze, die von zentralisierten Plattformen nicht kuratiert werden.

Blockchain-Datenmärkte brillieren bei Nischen-Datensätzen. Ein Anbieter von medizinischen Bildgebungsverfahren kann Radiologie-Scans mit diagnostischen Anmerkungen tokenisieren, Nutzungsbedingungen festlegen, die die Zustimmung des Patienten erfordern, und Einnahmen aus jedem KI-Modell erzielen, das mit seinen Daten trainiert wurde. Dies ist mit zentralisierten Plattformen, denen es an granularer Zugriffskontrolle und Zuweisung mangelt, unmöglich umzusetzen.

Regulierungsdruck Datenschutzbestimmungen (DSGVO, CCPA, Chinas Gesetz zum Schutz persönlicher Informationen) schreiben eine einwilligungsbasierte Datenerfassung vor. Blockchainbasierte Märkte implementieren die Einwilligung als programmierbare Logik – Nutzer unterzeichnen Berechtigungen kryptografisch, auf Daten kann nur unter festgelegten Bedingungen zugegriffen werden, und Smart Contracts setzen die Compliance automatisch durch.

Der Fokus von Ocean Enterprise v1 auf Compliance adressiert dies direkt. Finanzinstitute und Gesundheitsdienstleister benötigen eine prüfbare Datenhistorie, die beweist, dass jeder für das Modelltraining verwendete Datensatz über die ordnungsgemäße Lizenzierung verfügte. Die Blockchain bietet unveränderliche Audit-Trails, die regulatorische Anforderungen erfüllen.

Qualität vor Quantität Jüngste Forschungsergebnisse zeigen, dass KI keine endlosen Trainingsdaten benötigt, wenn die Systeme biologischen Gehirnen ähnlicher werden. Dies verschiebt die Anreize von der Sammlung maximaler Datenmengen hin zur Kuratierung hochwertigster Eingaben.

Dezentrale Datenmärkte richten die Anreize richtig aus: Datenersteller verdienen mehr für qualitativ hochwertige Beiträge, da Modelle Premiumpreise für Datensätze zahlen, die die Leistung verbessern. Die Interaktionsdaten von LazAI erfassen menschliche Feedbacksignale (welche Abfragen verfeinert werden, welche Antworten die Nutzer zufriedenstellen), die statische Datensätze übersehen – was sie pro Byte inhärent wertvoller macht.

Herausforderungen: Privatsphäre, Preisgestaltung und Protokollkriege

Trotz der Dynamik stehen Blockchain-Datenmärkte vor strukturellen Herausforderungen:

Privatsphären-Paradoxon Das Training von KI erfordert Datentransparenz (Modelle benötigen Zugang zu tatsächlichen Inhalten), während Datenschutzbestimmungen eine Datenminimierung fordern. Aktuelle Lösungen wie föderiertes Lernen (Training auf verschlüsselten Daten) erhöhen die Kosten um das 3- bis 5-fache im Vergleich zum zentralisierten Training.

Zero-Knowledge-Proofs bieten einen Weg nach vorne – sie beweisen die Datenqualität, ohne den Inhalt offenzulegen –, erhöhen jedoch den Rechenaufwand. Die ZK-Roadmap von LazAI für 2026 adressiert dies, obwohl produktionsreife Implementierungen noch 12 bis 18 Monate entfernt sind.

Preisfindung Was ist eine Social-Media-Interaktion wert? Ein medizinisches Bild mit diagnostischer Annotation? Blockchain-Märkten fehlen etablierte Preismechanismen für neuartige Datentypen.

Der Ansatz des Ocean Protocols – Anbieter Preise festlegen zu lassen und die Marktdynamik den Wert bestimmen zu lassen – funktioniert für standardisierte Datensätze, hat jedoch Schwierigkeiten bei einzigartigen, proprietären Daten. Prognosemärkte oder KI-gestützte dynamische Preisgestaltung könnten dies lösen, führen jedoch beide Oracle-Abhängigkeiten (externe Preisfeeds) ein, die die Dezentralisierung untergraben.

Interoperabilitäts-Fragmentierung Das Ocean Protocol läuft auf Ethereum, LazAI auf Metis, ZENi lässt sich in mehrere Chains integrieren. Daten, die auf einer Plattform tokenisiert wurden, können nicht einfach auf eine andere übertragen werden, was die Liquidität fragmentiert.

Cross-Chain-Bridges und universelle Datenstandards (wie dezentrale Identifikatoren für Datensätze) könnten dies lösen, doch das Ökosystem befindet sich noch in einem frühen Stadium. Der Blockchain-KI-Markt, der von 680,89 Millionen imJahr2025auf4,338Milliardenim Jahr 2025 auf 4,338 Milliarden bis 2034 anwachsen soll, deutet darauf hin, dass eine Konsolidierung um die gewinnenden Protokolle noch Jahre entfernt ist.

Was das für Entwickler bedeutet

Für Teams, die KI-Anwendungen entwickeln, bieten Blockchain-Datenmärkte drei unmittelbare Vorteile:

Zugang zu proprietären Datensätzen Die über 35.000 Datensätze des Ocean Protocols umfassen proprietäre Trainingsdaten, die über herkömmliche Kanäle nicht verfügbar sind. Medizinische Bildgebung, Finanztransaktionen, Verhaltensanalysen von Web3-Anwendungen – spezialisierte Datensätze, die von zentralisierten Plattformen nicht kuratiert werden.

Compliance-fähige Infrastruktur Die integrierte Lizenzierung, das Einwilligungsmanagement und die Audit-Trails von Ocean Enterprise v1 lösen regulatorische Probleme. Anstatt eigene Data-Governance-Systeme zu entwickeln, übernehmen Entwickler „Compliance by Design“ durch Smart Contracts, die Datennutzungsbedingungen erzwingen.

Kostensenkung Dezentrale Rechennetzwerke unterbieten Cloud-Anbieter bei Batch-Training-Workloads um 50 bis 85 %. Die Partnerschaft von Ocean mit NetMind (2.000 GPUs) und Aethir zeigt, wie tokenisierte GPU-Marktplätze Angebot und Nachfrage zu geringeren Kosten als AWS / GCP / Azure zusammenführen.

BlockEden.xyz bietet RPC-Infrastruktur auf Enterprise-Niveau für Blockchain-basierte KI-Anwendungen. Unabhängig davon, ob Sie auf Ethereum (Ocean Protocol), Metis (LazAI) oder Multi-Chain-Plattformen aufbauen, gewährleisten unsere zuverlässigen Node-Services, dass Ihre KI-Datenpipelines online und leistungsfähig bleiben. Erkunden Sie unseren API-Marktplatz, um Ihre KI-Systeme mit für Skalierung ausgelegten Blockchain-Netzwerken zu verbinden.

Der Wendepunkt 2026

Drei Katalysatoren positionieren 2026 als das Jahr des Wendepunkts für Blockchain-Datenmärkte:

Produktionsstart von Ocean Enterprise v1 (Q3 2025) Der erste konforme Datenmarktplatz auf institutionellem Niveau geht live. Wenn Ocean auch nur 5 % des Marktes für KI-Trainingsdatensätze von 7,48 Milliarden imJahr2026erobert,fließen374Millionenim Jahr 2026 erobert, fließen 374 Millionen an Datentransaktionen durch Blockchain-basierte Infrastrukturen.

LazAI ZK-Privatsphären-Implementierung (2026) Zero-Knowledge-Proofs ermöglichen es Nutzern, Interaktionsdaten zu monetarisieren, ohne die Privatsphäre zu gefährden. Dies erschließt die Akzeptanz im Massenmarkt – Hunderte Millionen von Social-Media-Nutzern, Suchmaschinenanfragen und E-Commerce-Sitzungen werden durch DATs monetarisierbar.

Integration von föderiertem Lernen KI-gestütztes föderiertes Lernen ermöglicht Modelltraining ohne Zentralisierung der Daten. Blockchain fügt die Wertzuweisung hinzu: Anstatt dass Google Modelle auf Android-Nutzerdaten ohne Entschädigung trainiert, verteilen föderierte Systeme, die auf der Blockchain laufen, die Einnahmen an alle Datenlieferanten.

Diese Konvergenz bedeutet, dass sich das KI-Training von „alle Daten sammeln, zentral trainieren, nichts bezahlen“ hin zu „auf verteilten Daten trainieren, Mitwirkende entschädigen, Herkunft verifizieren“ verschiebt. Die Blockchain ermöglicht diesen Übergang nicht nur – sie ist der einzige Technologie-Stack, der in der Lage ist, Millionen von Datenanbietern mit automatischer Umsatzverteilung und kryptografischer Verifizierung zu koordinieren.

Fazit: Daten werden programmierbar

Das Wachstum des Marktes für KI-Trainingsdaten von 3,59 Milliarden imJahr2025auf23bis52Milliardenim Jahr 2025 auf 23 bis 52 Milliarden bis 2034 stellt mehr als nur eine Marktexpansion dar. Es ist eine fundamentale Verschiebung in der Art und Weise, wie wir Informationen bewerten.

Das Ocean Protocol beweist, dass Daten wie Finanzanlagen tokenisiert, bepreist und gehandelt werden können, während die Kontrolle der Anbieter gewahrt bleibt. LazAI zeigt, dass KI-Interaktionsdaten – die früher als flüchtig verworfen wurden – zu wertvollen Trainingseingaben werden, wenn sie ordnungsgemäß erfasst und verifiziert werden. ZENi zeigt, dass Verhaltensintelligenz extrahiert, von KI verarbeitet und über dezentrale Märkte monetarisiert werden kann.

Zusammen transformieren diese Plattformen Daten von einem Rohmaterial, das von Tech-Giganten extrahiert wird, in eine programmierbare Asset-Klasse, bei der die Schöpfer den Wert abschöpfen. Die globale Datenexplosion von 33 auf 175 Zettabyte ist nur dann von Bedeutung, wenn Qualität die Quantität schlägt – und Blockchain-basierte Märkte richten Anreize so aus, dass hochwertige Beiträge belohnt werden.

Wenn Datenersteller Einnahmen proportional zu ihren Beiträgen erzielen, wenn KI-Unternehmen faire Preise für hochwertige Inputs zahlen und wenn Smart Contracts die Zuordnung über Millionen von Teilnehmern automatisieren, lösen wir nicht nur das Problem der Datenpreisgestaltung. Wir bauen eine Wirtschaft auf, in der Informationen einen intrinsischen Wert haben, die Herkunft überprüfbar ist und die Mitwirkenden endlich den Wohlstand abschöpfen, den ihre Daten generieren.

Das ist kein Markttrend. Es ist ein Paradigmenwechsel – und er ist bereits On-Chain live.

Der Aufstieg pragmatischer Privatsphäre: Compliance und Vertraulichkeit in der Blockchain in Einklang bringen

· 17 Min. Lesezeit
Dora Noda
Software Engineer

Die Blockchain-Branche steht an einem Wendepunkt, an dem Privatsphäre keine binäre Entscheidung mehr ist. In den Anfangsjahren von Krypto war das Narrativ klar: absolute Privatsphäre um jeden Preis, Transparenz nur wenn nötig und Widerstand gegen jede Form von Überwachung. Doch im Jahr 2026 ist ein tiefgreifender Wandel im Gange. Der Aufstieg der dezentralen pragmatischen KI (DePAI)-Infrastruktur signalisiert eine neue Ära, in der regulierungsfreundliche Privatsphäre-Tools nicht nur akzeptiert werden – sie werden zum Standard.

Dies ist kein Rückzug von den Grundsätzen der Privatsphäre. Es ist eine Entwicklung hin zu einem differenzierteren Verständnis: Privatsphäre und die Einhaltung regulatorischer Vorschriften (Compliance) können koexistieren und müssen es tatsächlich auch, wenn Blockchain und KI eine institutionelle Akzeptanz in großem Maßstab erreichen sollen.

Das Ende von „Privatsphäre um jeden Preis“

Jahrelang dominierte der Privatsphäre-Maximalismus den Blockchain-Diskurs. Projekte wie Monero und frühe Versionen von privatsphäre-orientierten Protokollen setzten auf absolute Anonymität. Die Philosophie war einfach: Nutzer verdienen vollständige finanzielle Privatsphäre, und jeder Kompromiss stellte einen Verrat an den Gründungsprinzipien von Krypto dar.

Doch diese absolutistische Haltung schuf ein kritisches Problem. Während Privatsphäre unerlässlich ist, um ehrliche Nutzer vor Überwachung und Front-Running zu schützen, wurde sie auch zu einem Schutzschild für illegale Aktivitäten. Regulatoren weltweit begannen, Privacy Coins mit Misstrauen zu begegnen, was zu Delistings an großen Börsen und vollständigen Verboten in mehreren Jurisdiktionen führte.

Wie Cointelegraph berichtet, ist 2026 das Jahr, in dem pragmatische Privatsphäre durchstartet, mit neuen Projekten, die konforme Formen der Privatsphäre für Institutionen angehen, und wachsendem Interesse an bestehenden Privacy Coins wie Zcash. Die wichtigste Erkenntnis: Privatsphäre ist nicht binär. Weder vollständige Transparenz noch absolute Privatsphäre sind in der realen Welt praktikabel, denn während Privatsphäre für ehrliche Nutzer unerlässlich ist, kann sie auch von Kriminellen genutzt werden, um der Strafverfolgung zu entgehen.

Die Menschen beginnen zu akzeptieren, Kompromisse einzugehen, die die Privatsphäre in begrenzten Kontexten einschränken, um Protokolle widerstandsfähiger gegen Bedrohungen zu machen. Dies stellt einen grundlegenden Wandel im Ansatz der Blockchain-Community zum Thema Privatsphäre dar.

Definition von pragmatischer Privatsphäre

Was genau ist also pragmatische Privatsphäre? Laut Anaptyss bezieht sich pragmatische Privatsphäre auf die strategische Implementierung von Privatsphäre-Maßnahmen, die Nutzer- und Geschäftsdaten schützen, ohne regulatorische Anforderungen zu verletzen, und so sicherstellen, dass Finanzgeschäfte sowohl sicher als auch regelkonform sind.

Dieser Ansatz erkennt an, dass verschiedene Teilnehmer im Blockchain-Ökosystem unterschiedliche Bedürfnisse an die Privatsphäre haben:

  • Privatanwender benötigen Schutz vor Massenüberwachung und Daten-Harvesting
  • Institutionelle Investoren benötigen Vertraulichkeit, um Front-Running ihrer Handelsstrategien zu verhindern
  • Unternehmen müssen strenge AML / KYC-Vorgaben erfüllen und gleichzeitig sensible Geschäftsinformationen schützen
  • KI-Agenten benötigen verifizierbare Berechnungen, ohne proprietäre Algorithmen oder Trainingsdaten preiszugeben

Die Lösung liegt nicht darin, sich zwischen Privatsphäre und Compliance zu entscheiden, sondern darin, eine Infrastruktur aufzubauen, die beides gleichzeitig ermöglicht.

zkKYC: Privatsphärenschonende Identitätsprüfung

Eine der vielversprechendsten Entwicklungen in der pragmatischen Privatsphäre ist das Aufkommen von Zero-Knowledge Know Your Customer (zkKYC)-Lösungen. Traditionelle KYC-Prozesse verlangen von den Nutzern, sensible persönliche Dokumente wiederholt an mehrere Plattformen zu übermitteln, was zahlreiche Honeypots für personenbezogene Daten schafft, die anfällig für Sicherheitsverletzungen sind.

zkKYC kehrt dieses Modell um. Wie zkMe erklärt, kombiniert ihr zkKYC-Dienst die Zero-Knowledge Proof (ZKP)-Technologie mit vollständiger FATF-Compliance. Ein regulierter KYC-Anbieter verifiziert den Nutzer off-chain nach Standard-AML- und Identitätsprüfungsverfahren, aber die Protokolle erfassen keine Identitätsdaten. Stattdessen verifizieren sie die Einhaltung kryptografisch.

Der Mechanismus ist elegant: Smart Contracts prüfen automatisch einen Zero-Knowledge-Proof, bevor sie den Zugriff auf bestimmte Dienste erlauben oder große Transaktionen verarbeiten. Nutzer beweisen, dass sie die Compliance-Anforderungen erfüllen – Alter, Wohnsitz, Status auf keiner Sanktionsliste –, ohne tatsächliche Identitätsdaten an das Protokoll oder andere Nutzer preiszugeben.

Laut Studio AM geschieht dies bereits in einigen Blockchain-Ökosystemen: Nutzer weisen ihr Alter oder ihren Wohnsitz mit einem ZKP nach, bevor sie auf bestimmte dezentrale Finanzdienste (DeFi) zugreifen. Große Finanzinstitute werden darauf aufmerksam. Die Deutsche Bank und Privado ID haben Proof of Concepts durchgeführt, die eine Blockchain-basierte Identitätsverifizierung unter Verwendung von Zero-Knowledge-Anmeldedaten demonstrieren.

Am bedeutendsten ist vielleicht, dass Google im Juli 2025 nach der Zusammenarbeit mit der deutschen Sparkassen-Finanzgruppe seine Zero-Knowledge-Proof-Bibliotheken als Open Source zur Verfügung gestellt hat, was auf wachsende institutionelle Investitionen in eine privatsphärenschonende Identitätsinfrastruktur hindeutet.

zkTLS: Das Web verifizierbar machen

Während zkKYC die Identitätsverifizierung adressiert, löst eine andere Technologie ein ebenso kritisches Problem: wie man verifizierbare Web2-Daten in Blockchain-Systeme bringt, ohne den Datenschutz oder die Sicherheit zu gefährden. Vorhang auf für zkTLS (Zero-Knowledge Transport Layer Security).

Traditionelles TLS – die Verschlüsselung, die jede HTTPS-Verbindung sichert – hat eine entscheidende Einschränkung: Es bietet Vertraulichkeit, aber keine Verifizierbarkeit. Mit anderen Worten: Während TLS sicherstellt, dass Informationen während der Übertragung verschlüsselt sind, erzeugt es keinen Beweis dafür, dass die verschlüsselte Interaktion auf eine Weise stattgefunden hat, die unabhängig verifiziert werden kann.

zkTLS löst dies, indem es Zero-Knowledge-Proofs in das TLS-Verschlüsselungssystem integriert. Durch die Verwendung von MPC-TLS und Zero-Knowledge-Techniken ermöglicht zkTLS einem Client, kryptografisch verifizierbare Beweise und Attestierungen von echten HTTPS-Sitzungen zu erstellen.

Wie zkPass es beschreibt, generiert zkTLS einen Zero-Knowledge-Proof (z. B. zk-SNARK), der bestätigt, dass Daten von einem bestimmten Server (identifiziert durch seinen öffentlichen Schlüssel und seine Domain) über eine legitime TLS-Sitzung abgerufen wurden, ohne den Sitzungsschlüssel oder die Klartextdaten preiszugeben.

Die Auswirkungen sind tiefgreifend. Traditionelle APIs können leicht deaktiviert oder zensiert werden, während zkTLS sicherstellt, dass Nutzer weiterhin auf ihre Daten zugreifen können, solange sie über eine HTTPS-Verbindung verfügen. Dies ermöglicht es, praktisch alle Web2-Daten auf einer Blockchain auf verifizierbare und erlaubnisfreie Weise zu nutzen.

Jüngste Implementierungen demonstrieren die Reife der Technologie. Der zkTLS-Coprozessor von Brevis beweist beim Abrufen von Daten aus einer Webquelle, dass der Inhalt über eine echte TLS-Sitzung von der authentischen Domain abgerufen wurde und dass die Daten nicht manipuliert wurden.

Auf der FOSDEM 2026 präsentierte das TLSNotary-Projekt die Befreiung von Nutzerdaten mit zkTLS und demonstrierte, wie Nutzer Fakten über ihre privaten Daten – Kontostände, Kredit-Scores, Transaktionsverläufe – beweisen können, ohne die zugrunde liegenden Informationen offenzulegen.

Verifizierbare KI-Berechnung: Das fehlende Puzzleteil für die institutionelle Adoption

Datenschutzwahrende Identitäts- und Datenverifizierung bereiten den Weg, aber das transformativste Element der DePAI-Infrastruktur ist die verifizierbare KI-Berechnung. Da KI-Agenten zu wirtschaftlich aktiven Teilnehmern in Blockchain-Ökosystemen werden, verlagert sich die Frage von „Kann die KI das tun?“ zu „Können Sie beweisen, dass die KI dies korrekt getan hat?“.

Diese Verifizierungsanforderung ist nicht akademisch. Laut DecentralGPT reicht Leistung allein nicht aus, wenn KI Teil von Finanz-, Automatisierungs- und Agenten-Workflows wird. In Web3 lautet die Frage auch: Können Sie beweisen, was passiert ist? Ende Dezember 2025 schlossen sich Cysic und Inference Labs zusammen, um eine skalierbare Infrastruktur für verifizierbare KI-Anwendungen aufzubauen, die dezentrales Computing mit Verifizierungs-Frameworks kombiniert, die für reale Anwendungen entwickelt wurden.

Die institutionelle Notwendigkeit für verifizierbare Berechnungen ist klar. Wie in einer Analyse von Alexis M. Adams festgestellt wurde, ist der Übergang zu einer deterministischen KI-Infrastruktur der einzige gangbare Weg für Organisationen, um die multijurisdiktionellen Anforderungen des EU AI Act, der US-Gesetze auf Bundesstaatsebene für Frontier-KI und der steigenden Erwartungen des Cyber-Versicherungsmarktes zu erfüllen.

Der globale Markt für KI-Governance spiegelt diese Dringlichkeit wider: Mit einem Wert von etwa 429,8 Millionen imJahr2026wirderlautderselbenAnalysebis2033voraussichtlich4,2Milliardenim Jahr 2026 wird er laut derselben Analyse bis 2033 voraussichtlich 4,2 Milliarden erreichen.

Aber die Verifizierung steht vor einer kritischen Lücke. Wie Keyrus feststellt, erfordert der KI-Einsatz Vertrauen in digitale Identitäten, aber Unternehmen können nicht validieren, wer – oder was – KI-Systeme tatsächlich bedient. Wenn Organisationen legitime KI-Agenten nicht zuverlässig von gegnerisch kontrollierten Betrügern unterscheiden können, können sie KI-Systemen nicht vertrauensvoll Zugang zu sensiblen Daten oder Entscheidungsbefugnissen gewähren.

Hier schafft die Konvergenz von zkKYC, zkTLS und verifizierbarer Berechnung eine vollständige Lösung. KI-Agenten können ihre Identität beweisen (zkKYC), beweisen, dass sie Daten korrekt von autorisierten Quellen abgerufen haben (zkTLS), und beweisen, dass sie Ergebnisse korrekt berechnet haben (verifizierbare Berechnung) – und das alles, ohne sensible Geschäftslogik oder Trainingsdaten offenzulegen.

Der institutionelle Vorstoß zur Compliance

Diese Technologien entstehen nicht in einem Vakuum. Die institutionelle Nachfrage nach konformer Datenschutz-Infrastruktur beschleunigt sich, angetrieben durch regulatorischen Druck und geschäftliche Notwendigkeiten.

Große Finanzinstitute erkennen, dass ihre Blockchain-Strategien ohne Datenschutz ins Stocken geraten werden. Laut WEEX Crypto News benötigen institutionelle Investoren Vertraulichkeit, um Front-Running ihrer Strategien zu verhindern, müssen jedoch gleichzeitig strenge AML / KYC-Mandate erfüllen. Zero-Knowledge-Proofs gewinnen als Lösung an Bedeutung, da sie es Institutionen ermöglichen, Compliance nachzuweisen, ohne sensible zugrunde liegende Daten der öffentlichen Blockchain preiszugeben.

Die Regulierungslandschaft von 2026 lässt keinen Raum für Unklarheiten. Der EU AI Act tritt 2026 in die allgemeine Anwendung, und Regulierungsbehörden über verschiedene Gerichtsbarkeiten hinweg erwarten dokumentierte Governance-Programme, nicht nur Richtlinien, so SecurePrivacy.ai. Die vollständige Durchsetzung gilt für hochriskante KI-Systeme, die in kritischen Infrastrukturen, im Bildungswesen, im Beschäftigungssektor, in wesentlichen Dienstleistungen und in der Strafverfolgung eingesetzt werden.

In den Vereinigten Staaten setzten bis Ende 2025 19 Bundesstaaten umfassende Datenschutzgesetze durch, wobei 2026 mehrere neue Statuten in Kraft treten, was die Compliance-Verpflichtungen für den Datenschutz über mehrere Bundesstaaten hinweg erschwert. Colorado und Kalifornien haben „neurale Daten“ (und Colorado zusätzlich „biologische Daten“) zu den Definitionen „sensibler“ Daten hinzugefügt, wie von Nixon Peabody berichtet.

Diese regulatorische Konvergenz schafft einen starken Anreiz: Organisationen, die auf einer konformen, verifizierbaren Infrastruktur aufbauen, gewinnen einen Wettbewerbsvorteil, während diejenigen, die am Datenschutz-Maximalismus festhalten, von institutionellen Märkten ausgeschlossen werden.

Datenintegrität als Betriebssystem für KI

Über Compliance hinaus ermöglicht die verifizierbare Berechnung etwas Grundlegenderes: Datenintegrität als Betriebssystem für eine verantwortungsbewusste KI.

Wie Precisely anmerkt, wird Governance im Jahr 2026 nichts mehr sein, was Organisationen nach der Bereitstellung hinzufügen – sie wird von Anfang an in die Strukturierung, Interpretation und Überwachung von Daten integriert sein. Datenintegrität wird als Betriebssystem für verantwortungsbewusste KI dienen. Von semantischer Klarheit und Erklärbarkeit bis hin zu Compliance, Auditierbarkeit und Kontrolle über KI-generierte Daten – die Integrität wird entscheiden, ob KI sicher skalieren und dauerhaften Wert liefern kann.

Dieser Wandel hat tiefgreifende Auswirkungen darauf, wie KI-Agenten in Blockchain-Netzwerken agieren. Anstatt undurchsichtiger Blackboxes werden KI-Systeme durch Design auditierbar, verifizierbar und steuerbar. Smart Contracts können Beschränkungen für das Verhalten der KI durchsetzen, die Korrektheit von Berechnungen verifizieren und unveränderliche Audit-Trails erstellen – und das alles unter Wahrung der Privatsphäre proprietärer Algorithmen und Trainingsdaten.

Die MIT Sloan Management Review identifiziert dies als einen der fünf wichtigsten Trends in den Bereichen KI und Data Science für 2026, wobei betont wird, dass vertrauenswürdige KI eine verifizierbare Herkunft (Provenance) und erklärbare Entscheidungsprozesse erfordert.

Dezentrale Identität: Die Basisschicht

Diesen Technologien liegt ein umfassenderer Wandel hin zu dezentraler Identität und Verifiable Credentials zugrunde. Wie Indicio erklärt, ändert die dezentrale Identität die Ausgangslage – anstatt persönliche Daten an einem zentralen Ort zu verifizieren, besitzen Einzelpersonen ihre Daten und teilen sie mit einer Zustimmung, die mithilfe von Kryptografie unabhängig verifiziert werden kann.

Dieses Modell kehrt traditionelle Identitätssysteme um. Anstatt zahlreiche Kopien von Identitätsdokumenten verstreut in Datenbanken zu erstellen, führen Nutzer einen einzigen verifizierbaren Berechtigungsnachweis (Verifiable Credential) und legen selektiv nur die spezifischen Attribute offen, die für die jeweilige Interaktion erforderlich sind.

Für KI-Agenten erstreckt sich dieses Modell über die menschliche Identität hinaus. Agenten können über verifizierbare Berechtigungsnachweise verfügen, die ihre Trainingsherkunft, Betriebsparameter, Prüfhistorie und ihren Autorisierungsumfang bestätigen. Dies schafft einen Vertrauensrahmen, in dem Agenten autonom interagieren können und dennoch rechenschaftspflichtig bleiben.

Vom Experimentieren zum Einsatz

Die entscheidende Transformation im Jahr 2026 ist der Übergang von theoretischen Rahmenbedingungen zu produktiven Einsätzen. Laut der Analyse von XT Exchange wird dezentrale KI bis 2026 über das Experimentierstadium hinausgehen und in den praktischen Einsatz übergehen. Es bestehen jedoch weiterhin wesentliche Einschränkungen, darunter die Skalierung von KI-Workloads, die Wahrung des Datenschutzes und die Steuerung offener KI-Systeme.

Diese Einschränkungen sind genau das, was die DePAI-Infrastruktur adressiert. Durch die Kombination von zkKYC für die Identität, zkTLS für die Datenverifizierung und verifizierbarer Berechnung für KI-Operationen schafft die Infrastruktur einen vollständigen Stack für die Bereitstellung von KI-Agenten, die gleichzeitig:

  • Die Privatsphäre von Nutzern und Unternehmen wahren
  • Regulatorische Anforderungen erfüllen
  • Durch Design verifizierbar und auditierbar sind
  • Für institutionelle Workloads skalierbar sind

Der Weg nach vorn: Aufbau einer komponierbaren Privatsphäre

Das letzte Puzzleteil von DePAI ist die Komponierbarkeit (Composability). Wie Blockmanity berichtet, markiert 2026 den Moment, in dem Blockchain „einfach nur die Infrastruktur“ (Plumbing) für KI-Agenten und das globale Finanzwesen wird. Die Infrastruktur muss modular, interoperabel und für Endnutzer unsichtbar sein.

Pragmatische Datenschutz-Tools zeichnen sich durch Komponierbarkeit aus. Ein KI-Agent kann:

  1. Sich mit zkKYC-Zugangsdaten authentifizieren
  2. Verifizierte externe Daten über zkTLS abrufen
  3. Berechnungen mit verifizierbarer Inferenz (Verifiable Inference) durchführen
  4. Ergebnisse On-Chain mit Zero-Knowledge-Proofs der Korrektheit einreichen
  5. Audit-Trails pflegen, ohne sensible Logik offenzulegen

Jede Ebene arbeitet unabhängig, sodass Entwickler datenschutzfreundliche Technologien basierend auf spezifischen Anforderungen kombinieren können. Ein DeFi-Protokoll könnte zkKYC für das Benutzer-Onboarding, zkTLS für das Abrufen von Preis-Feeds und verifizierbare Berechnung für komplexe Finanzkalkulationen erfordern – und alles arbeitet nahtlos zusammen.

Diese Komponierbarkeit erstreckt sich über verschiedene Chains hinweg. Eine Datenschutz-Infrastruktur, die mit Interoperabilitätsstandards erstellt wurde, kann auf Ethereum, Solana, Sui, Aptos und anderen Blockchain-Netzwerken funktionieren und so eine universelle Ebene für konforme, private und verifizierbare Berechnungen schaffen.

Warum dies für Entwickler wichtig ist

Für Entwickler, die die nächste Generation von Blockchain-Anwendungen bauen, stellt die DePAI-Infrastruktur sowohl eine Chance als auch eine Anforderung dar.

Die Chance: Der First-Mover-Vorteil beim Aufbau von Anwendungen, die Institutionen tatsächlich nutzen wollen. Finanzinstitute, Gesundheitsdienstleister, Regierungsbehörden und Unternehmen benötigen alle Blockchain-Lösungen, können aber keine Kompromisse bei Compliance oder Datenschutz eingehen. Anwendungen, die auf einer pragmatischen Datenschutz-Infrastruktur basieren, können diese Märkte bedienen.

Die Anforderung: Regulatorische Rahmenbedingungen konvergieren hin zu Mandaten für verifizierbare, steuerbare KI-Systeme. Anwendungen, die keine Compliance, Auditierbarkeit und den Schutz der Privatsphäre der Nutzer nachweisen können, werden von regulierten Märkten ausgeschlossen sein.

Die technischen Möglichkeiten reifen schnell heran. zkKYC-Lösungen sind produktionsreif, wobei große Finanzinstitute Pilotprojekte durchführen. zkTLS-Implementierungen verarbeiten reale Daten. Frameworks für verifizierbare Berechnungen skalieren, um institutionelle Workloads zu bewältigen.

Was jetzt benötigt wird, ist die Akzeptanz durch die Entwickler. Der Übergang von experimentellen Datenschutz-Tools zur Produktionsinfrastruktur erfordert, dass Entwickler diese Technologien in Anwendungen integrieren, sie in realen Szenarien testen und den Infrastrukturteams Feedback geben.

BlockEden.xyz bietet eine Enterprise-Grade RPC-Infrastruktur für Blockchain-Netzwerke, die datenschutzfreundliche Technologien implementieren. Erkunden Sie unsere Dienste, um auf Fundamenten aufzubauen, die für die DePAI-Ära konzipiert sind.

Fazit: Die pragmatische Zukunft der Privatsphäre

Die DePAI - Explosion im Jahr 2026 stellt mehr als nur technologischen Fortschritt dar. Sie signalisiert eine Reifung der Beziehung der Blockchain zu Privatsphäre, Compliance und institutioneller Adoption.

Die Branche bewegt sich über ideologische Kämpfe zwischen Datenschutz - Maximalisten und Transparenz - Absolutisten hinaus. Pragmatische Privatsphäre erkennt an, dass unterschiedliche Kontexte unterschiedliche Datenschutzgarantien erfordern und dass regulatorische Compliance und Nutzersphäre durch durchdachtes kryptografisches Design koexistieren können.

zkKYC beweist die Identität, ohne sie offenzulegen. zkTLS verifiziert Daten, ohne auf Intermediäre vertrauen zu müssen. Verifizierbare Berechnungen (Verifiable Computation) beweisen die Korrektheit, ohne Algorithmen preiszugeben. Zusammen schaffen diese Technologien eine Infrastrukturschicht, in der KI - Agenten autonom agieren können, Unternehmen Blockchain vertrauensvoll einführen können und Nutzer die Kontrolle über ihre Daten behalten.

Dies ist kein Kompromiss bei den Datenschutzprinzipien. Es ist die Erkenntnis, dass Privatsphäre, um bedeutungsvoll zu sein, innerhalb der regulatorischen und geschäftlichen Realitäten des globalen Finanzwesens tragfähig sein muss. Absolute Privatsphäre, die verboten, von Börsen genommen (delisted) und von der institutionellen Nutzung ausgeschlossen wird, schützt niemanden. Pragmatische Privatsphäre, die sowohl Vertraulichkeit als auch Compliance ermöglicht, löst das Versprechen der Blockchain tatsächlich ein.

Die Entwickler, die diesen Wandel erkennen und heute auf der DePAI - Infrastruktur aufbauen, werden die nächste Ära dezentraler Anwendungen definieren. Die Werkzeuge sind bereit. Die institutionelle Nachfrage ist klar. Das regulatorische Umfeld kristallisiert sich heraus. 2026 ist das Jahr, in dem pragmatische Privatsphäre von der Theorie in den Einsatz übergeht — und die Blockchain - Industrie wird dadurch gestärkt hervorgehen.


Quellen

DePINs Wandel zum Unternehmen: Von der Token-Spekulation zur 166 Mio. $ ARR Realität

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Wenn das Weltwirtschaftsforum prognostiziert, dass ein Sektor von 19 Milliarden bis2028auf3,5Billionenbis 2028 auf 3,5 Billionen anwachsen wird, sollte man aufhorchen. Wenn derselbe Sektor 166 Millionen $ an jährlich wiederkehrenden Umsätzen (ARR) von echten Unternehmenskunden generiert – und nicht aus Token-Emissionen –, ist es an der Zeit, ihn nicht länger als Krypto-Hype abzutun.

Decentralized Physical Infrastructure Networks (DePIN) haben im Stillen eine fundamentale Transformation durchlaufen. Während Spekulanten Memecoins jagen, bauen einige DePIN-Projekte Milliarden-Dollar-Unternehmen auf, indem sie das liefern, was zentralisierte Cloud-Anbieter nicht können: 60-80 % Kosteneinsparungen bei Zuverlässigkeit auf Produktionsniveau. Der Wandel vom Tokenomics-Theater hin zur Enterprise-Infrastruktur schreibt das Wertversprechen der Blockchain neu – und die traditionellen Cloud-Giganten werden aufmerksam.

Die 3,5 Billionen $-Chance, die direkt vor unseren Augen liegt

Die Zahlen erzählen eine Geschichte, die die meisten Krypto-Investoren übersehen haben. Das DePIN-Ökosystem expandierte von 5,2 Milliarden Marktkapitalisierung(September2024)auf19,2MilliardenMarktkapitalisierung (September 2024) auf 19,2 Milliarden bis September 2025 – ein Anstieg von 269 %, der in einer Branche, die von Layer-1-Narrativen besessen ist, kaum Schlagzeilen machte. Fast 250 erfasste Projekte erstrecken sich nun über sechs Vertikalen: Compute, Speicher, Wireless, Energie, Sensoren und Bandbreite.

Aber die Marktkapitalisierung ist eine Ablenkung. Die wahre Geschichte ist die Umsatzdichte. DePIN-Projekte generieren heute geschätzte 72 Millionen $ an jährlichen On-Chain-Umsätzen im gesamten Sektor und werden mit dem 10- bis 25-fachen des Umsatzes bewertet – eine dramatische Komprimierung gegenüber den über 1.000-fachen Bewertungen des Zyklus von 2021. Dies ist nicht nur Bewertungsdisziplin, sondern ein Beleg für die Reifung grundlegender Geschäftsmodelle.

Die Prognose des Weltwirtschaftsforums von 3,5 Billionen $ für 2028 basiert nicht auf Träumen über Token-Preise. Sie spiegelt die Konvergenz dreier massiver Infrastruktur-Verschiebungen wider:

  1. Explosion der KI-Rechennachfrage: Es wird prognostiziert, dass Machine-Learning-Workloads bis 2030 24 % des US-Stroms verbrauchen werden, was eine unersättliche Nachfrage nach verteilten GPU-Netzwerken schafft.
  2. Ökonomie des 5G/6G-Ausbaus: Telekommunikationsbetreiber müssen Edge-Infrastrukturen mit der 10-fachen Dichte von 4G-Netzwerken bereitstellen, jedoch bei geringeren Investitionsausgaben pro Standort.
  3. Cloud-Kosten-Rebellion: Unternehmen hinterfragen endlich, warum AWS, Azure und Google Cloud Aufschläge von 30-70 % auf Commodity-Compute und -Speicher erheben.

DePIN wird die zentralisierte Infrastruktur nicht morgen ersetzen. Aber wenn Aethir 1,5 Milliarden Rechenstunden an über 150 Unternehmenskunden liefert und Helium Partnerschaften mit T-Mobile, AT&T und Telefónica unterzeichnet, bricht das Narrativ der „experimentellen Technologie“ in sich zusammen.

Von Airdrops zu jährlich wiederkehrenden Umsätzen (ARR)

Die Transformation des DePIN-Sektors lässt sich am besten am Beispiel tatsächlicher Unternehmen verstehen, die achtstellige Umsätze generieren, und nicht an Token-Inflationsmodellen, die sich als wirtschaftliche Aktivität tarnen.

Aethir: Das GPU-Kraftwerk

Aethir ist nicht nur der größte DePIN-Umsatzgenerator – es schreibt die Ökonomie des Cloud Computings neu. 166 Millionen $ ARR bis zum 3. Quartal 2025, generiert aus über 150 zahlenden Unternehmenskunden in den Bereichen KI-Training, Inferenz, Gaming und Web3-Infrastruktur. Dies ist kein theoretischer Durchsatz; es handelt sich um Abrechnungen von Kunden wie KI-Modell-Trainingsbetrieben, Gaming-Studios und KI-Agenten-Plattformen, die eine garantierte Rechenverfügbarkeit benötigen.

Die Skalierung ist atemberaubend: Über 440.000 GPU-Container, die in 94 Ländern eingesetzt werden und über 1,5 Milliarden Rechenstunden liefern. Zum Vergleich: Das ist mehr Umsatz als bei Filecoin (135-mal größer nach Marktkapitalisierung), Render (455-mal) und Bittensor (14-mal) zusammen – gemessen an der Effizienz von Umsatz zu Marktkapitalisierung.

Die Enterprise-Strategie von Aethir zeigt, warum DePIN gegen zentralisierte Clouds gewinnen kann: 70 % Kostenersparnis gegenüber AWS bei gleichzeitiger Einhaltung von SLA-Garantien, die traditionelle Infrastrukturanbieter neidisch machen würden. Durch die Aggregation ungenutzter GPUs aus Rechenzentren, Gaming-Cafés und Enterprise-Hardware schafft Aethir einen angebotsseitigen Marktplatz, der die Hyperscaler beim Preis unterbietet und bei der Leistung gleichzieht.

Die Ziele für das 1. Quartal 2026 sind noch ehrgeiziger: Verdoppelung des globalen Compute-Footprints, um die beschleunigte Nachfrage nach KI-Infrastruktur zu decken. Partnerschaften mit der Filecoin Foundation (für die Integration von permanentem Speicher) und großen Cloud-Gaming-Plattformen positionieren Aethir als das erste DePIN-Projekt, das eine echte Enterprise-Stickiness erreicht – mit wiederkehrenden Verträgen statt einmaliger Protokoll-Interaktionen.

Grass: Das Datenerfassungs-Netzwerk

Während Aethir Rechenleistung monetarisiert, beweist Grass die Flexibilität von DePIN über verschiedene Infrastrukturkategorien hinweg. 33 Millionen $ ARR aus einem fundamental anderen Wertversprechen: dezentrales Web-Scraping und Datensammlung für KI-Trainings-Pipelines.

Grass hat die Bandbreite der Verbraucher in ein handelsfähiges Gut verwandelt. Benutzer installieren einen leichtgewichtigen Client, der Anfragen für KI-Trainingsdaten über ihre privaten IP-Adressen leitet und so das Problem der „Anti-Bot-Erkennung“ löst, das zentralisierte Scraping-Dienste plagt. KI-Unternehmen zahlen Premium-Preise für den Zugriff auf saubere, geografisch diverse Trainingsdaten, ohne Ratenbegrenzungen oder CAPTCHA-Hürden auszulösen.

Die Ökonomie geht auf, weil Grass Margen abschöpft, die sonst an Proxy-Dienstleister (Bright Data, Smartproxy) fließen würden, während es gleichzeitig eine bessere Abdeckung bietet. Für die Nutzer ist es ein passives Einkommen aus ungenutzter Bandbreite. Für KI-Labore ist es ein zuverlässiger Zugang zu webbasierten Daten mit 50-60 % Kosteneinsparung.

Bittensor: Dezentrale Märkte für Intelligenz

Der Ansatz von Bittensor unterscheidet sich grundlegend von Infrastructure-as-a-Service-Modellen. Anstatt Rechenleistung oder Bandbreite zu verkaufen, monetarisiert es KI-Modell-Outputs über einen Marktplatz spezialisierter „Subnets“ – jedes konzentriert auf spezifische Machine-Learning-Aufgaben wie Bildgenerierung, Textvervollständigung oder prädiktive Analysen.

Bis September 2025 generieren über 128 aktive Subnets kollektiv einen **Jahresumsatz von etwa 20 Millionen ,wobeidasfu¨hrendeInferenceasaServiceSubnetvoraussichtlichallein10,4Millionen**, wobei das führende Inference-as-a-Service-Subnet voraussichtlich allein 10,4 Millionen erreichen wird. Entwickler greifen auf Bittensor-gestützte Modelle über OpenAI-kompatible APIs zu, wodurch die dezentrale Infrastruktur abstrahiert wird, während gleichzeitig preislich wettbewerbsfähige Inferenz geliefert wird.

Die institutionelle Validierung erfolgte mit dem Bittensor Trust (GTAO) von Grayscale im Dezember 2025, gefolgt von börsennotierten Unternehmen wie xTAO und TAO Synergies, die über 70.000 TAO-Token (~ 26 Millionen $) akkumulierten. Custody-Anbieter wie BitGo, Copper und Crypto.com integrierten Bittensor über den Validator von Yuma, was signalisiert, dass DePIN für die traditionelle Finanzinfrastruktur nicht mehr zu „exotisch“ ist.

Render Network: Vom 3D-Rendering zur Enterprise-KI

Die Entwicklung von Render zeigt, wie DePIN-Projekte über ihre ursprünglichen Anwendungsfälle hinauswachsen. Ursprünglich auf verteiltes 3D-Rendering für Künstler und Studios fokussiert, schwenkte Render auf KI-Rechenleistung um, als sich die Nachfrage verschob.

Metriken vom Juli 2025: 1,49 Millionen gerenderte Frames, 207.900 $ an USDC-Gebühren verbrannt – wobei 35 % aller jemals gerenderten Frames allein im Jahr 2025 entstanden sind, was die beschleunigte Akzeptanz demonstriert. Das vierte Quartal 2025 brachte das Onboarding von Enterprise-GPUs durch RNP-021, wobei NVIDIA H200- und AMD MI300X-Chips integriert wurden, um neben Rendering-Aufgaben auch KI-Inferenz- und Trainings-Workloads zu bedienen.

Das Wirtschaftsmodell von Render verbrennt Gebühreneinnahmen (207.900 USDC in einem einzigen Monat) und schafft so eine deflationäre Tokenomics, die in starkem Kontrast zu inflationären DePIN-Projekten steht. Da das Enterprise-GPU-Onboarding skaliert, positioniert sich Render als Premium-Option: höhere Leistung, auditierte Hardware, kuratiertes Angebot – ausgerichtet auf Unternehmen, die garantierte Compute-SLAs benötigen und nicht auf Hobby-Knotenbetreiber.

Helium: Die dezentrale Disruption der Telekommunikation

Die drahtlosen Netzwerke von Helium beweisen, dass DePIN in Billionen-Dollar-Branchen eindringen kann. Partnerschaften mit T-Mobile, AT&T und Telefónica sind keine Pilotprogramme – es sind Produktionseinsätze, bei denen die dezentralen Hotspots von Helium die Makrozellen-Abdeckung in schwer erreichbaren Gebieten ergänzen.

Die Wirtschaftlichkeit ist für Telekommunikationsbetreiber überzeugend: Die von der Community bereitgestellten Hotspots von Helium kosten einen Bruchteil herkömmlicher Mobilfunkmast-Aufbauten und lösen das Problem der „letzten Meile“, ohne kapitalintensive Infrastrukturinvestitionen zu erfordern. Für Hotspot-Betreiber sind es wiederkehrende Einnahmen aus realer Datennutzung, nicht aus Token-Spekulation.

Der Q3 2025 State of Helium-Bericht von Messari hebt das anhaltende Netzwerkwachstum und das Datentransfervolumen hervor, wobei der Sektor Blockchain-in-Telekom voraussichtlich von 1,07 Milliarden (2024)auf7,25Milliarden(2024) auf **7,25 Milliarden bis 2030** wachsen wird. Helium erobert bedeutende Marktanteile in einem Segment, das sich traditionell gegen Disruption gewehrt hat.

Der Kostenvorteil von 60-80 %: Ökonomie, die zur Akzeptanz zwingt

Das Wertversprechen von DePIN ist keine ideologische Dezentralisierung – es ist brutale Kosteneffizienz. Wenn das Fluence Network Einsparungen von 60-80 % gegenüber zentralisierten Clouds verspricht, vergleichen sie Äpfel mit Äpfeln: gleichwertige Rechenkapazität, SLA-Garantien und Verfügbarkeitszonen.

Der Kostenvorteil resultiert aus strukturellen Unterschieden:

  1. Eliminierung der Plattformmarge: AWS, Azure und Google Cloud erheben Aufschläge von 30-70 % auf die zugrunde liegenden Infrastrukturkosten. DePIN-Protokolle ersetzen diese Aufschläge durch algorithmisches Matching und transparente Gebührenstrukturen.

  2. Nutzung brachliegender Kapazitäten: Zentralisierte Clouds müssen für Spitzenlasten vorsorgen, wodurch Kapazitäten in Nebenzeiten ungenutzt bleiben. DePIN aggregiert weltweit verteilte Ressourcen, die mit höheren durchschnittlichen Auslastungsraten arbeiten.

  3. Geografische Arbitrage: DePIN-Netzwerke zapfen Regionen mit niedrigeren Energiekosten und unterausgelasteter Hardware an und leiten Workloads dynamisch weiter, um das Preis-Leistungs-Verhältnis zu optimieren.

  4. Wettbewerb auf offenem Markt: Das Protokoll von Fluence fördert beispielsweise den Wettbewerb unter unabhängigen Compute-Anbietern, was die Preise drückt, ohne dass mehrjährige Verpflichtungen für Reserved Instances erforderlich sind.

Traditionelle Cloud-Anbieter bieten vergleichbare Rabatte an – AWS Reserved Instances sparen bis zu 72 %, Azure Reserved VM Instances erreichen 72 %, Azure Hybrid Benefit bis zu 85 % – aber diese erfordern 1-3 Jahre Bindung mit Vorauszahlung. DePIN liefert ähnliche Einsparungen On-Demand, mit Spot-Preisen, die sich in Echtzeit anpassen.

Für Unternehmen, die variable Workloads verwalten (KI-Modell-Experimente, Rendering-Farms, wissenschaftliches Rechnen), ist diese Flexibilität bahnbrechend. 10.000 GPUs für ein Wochenende starten, Spot-Preise zahlen, die 70 % unter AWS liegen, und die Infrastruktur am Montagmorgen abschalten – keine Kapazitätsplanung, keine verschwendete reservierte Kapazität.

Institutionelles Kapital folgt realen Einnahmen

Die Verschiebung von privater Spekulation hin zu institutioneller Allokation ist quantifizierbar. DePIN-Startups sammelten **im Jahr 2025 etwa 1 Milliarde ein,wobei744Millionen** ein, wobei 744 Millionen in über 165 Projekte zwischen Januar 2024 und Juli 2025 investiert wurden (plus über 89 nicht offengelegte Deals). Dies ist kein „Dumb Money“, das Airdrops hinterherjagt – es ist kalkulierter Einsatz von auf Infrastruktur spezialisierten VCs.

Zwei Fonds signalisieren die institutionelle Ernsthaftigkeit:

  • Borderless Capitals 100 Mio. $ DePIN Fund III (September 2024): Unterstützt von peaq, Solana Foundation, Jump Crypto und IoTeX, zielt auf Projekte mit nachgewiesenem Product-Market-Fit und Umsatztraktion ab.

  • Entrée Capitals 300 Mio. $ Fund (Dezember 2025): Explizit auf KI-Agenten und DePIN-Infrastruktur von Pre-Seed bis Series A ausgerichtet, setzt auf die Konvergenz von autonomen Systemen und dezentraler Infrastruktur.

Wichtig ist, dass dies keine Krypto-nativen Fonds sind, die sich lediglich in Infrastruktur absichern – es sind traditionelle Infrastruktur-Investoren, die erkennen, dass DePIN überlegene risikobereinigte Renditen im Vergleich zu zentralisierten Cloud-Wettbewerbern bietet. Wenn man ein Projekt finanzieren kann, das zum 15-fachen Umsatz gehandelt wird (Aethir), im Vergleich zu Hyperscalern zum 10-fachen Umsatz, aber mit monopolistischen Schutzwällen, wird die DePIN-Asymmetrie offensichtlich.

Neuere DePIN-Projekte lernen zudem aus den Tokenomics-Fehlern von 2021. Protokolle, die in den letzten 12 Monaten gestartet sind, erreichten durchschnittliche Fully Diluted Valuations von 760 Millionen $ – fast das Doppelte der Bewertungen von Projekten, die vor zwei Jahren gestartet sind –, weil sie die Emissions-Todesspiralen vermieden haben, die frühe Netzwerke plagten. Ein knapperes Token-Angebot, umsatzbasierte Unlocks und Burn-Mechanismen schaffen eine nachhaltige Ökonomik, die langfristiges Kapital anzieht.

Von Spekulation zu Infrastruktur: Was sich jetzt ändert

Der Januar 2026 markierte einen Wendepunkt: Der Umsatz im DePIN-Sektor erreichte 150 Millionen $ in einem einzigen Monat, getrieben durch die Nachfrage von Unternehmen nach Rechenleistung, Kartierungsdaten und drahtloser Bandbreite. Dies war kein Token-Preis-Pump – es war abgerechnete Nutzung von Kunden, die reale Probleme lösen.

Die Auswirkungen ziehen sich durch das gesamte Krypto-Ökosystem:

Für Entwickler: Die DePIN-Infrastruktur bietet endlich produktionsreife Alternativen zu AWS. Die 440.000 GPUs von Aethir können LLMs trainieren, Filecoin kann Petabytes an Daten mit kryptografischer Verifizierung speichern, Helium kann IoT-Konnektivität ohne AT&T-Verträge liefern. Der Blockchain-Stack ist komplett.

Für Unternehmen: Kostenoptimierung ist keine Entscheidung mehr zwischen Leistung und Preis. DePIN liefert beides, mit transparenter Preisgestaltung, ohne Vendor Lock-in und mit einer geografischen Flexibilität, mit der zentralisierte Clouds nicht mithalten können. CFOs werden das bemerken.

Für Investoren: Die Umsatzmultiplikatoren nähern sich den Normen des Tech-Sektors an (10 - 25x), was Einstiegspunkte schafft, die während der spekulativen Manie von 2021 unmöglich waren. Aethir mit dem 15-fachen Umsatz ist günstiger als die meisten SaaS-Unternehmen, bei höheren Wachstumsraten.

Für die Tokenomics: Projekte, die echte Einnahmen generieren, können Token verbrennen (Render), Protokollgebühren verteilen (Bittensor) oder das Wachstum des Ökosystems finanzieren (Helium), ohne auf inflationäre Emissionen angewiesen zu sein. Nachhaltige Wirtschaftskreisläufe ersetzen die Ponzi-Reflexivität.

Die Prognose des Weltwirtschaftsforums von 3,5 Billionen erscheintplo¨tzlichkonservativ.WennDePINbis2028nur10erscheint plötzlich konservativ. Wenn DePIN bis 2028 nur 10 % der Ausgaben für Cloud-Infrastruktur erfasst (~ 60 Milliarden jährlich bei aktuellen Cloud-Wachstumsraten) und Projekte mit dem 15-fachen Umsatz gehandelt werden, ergibt sich eine Marktkapitalisierung des Sektors von 900 Milliarden das46fachederheutigenBasisvon19,2Milliarden– das 46-fache der heutigen Basis von 19,2 Milliarden.

Was BlockEden.xyz-Builder wissen sollten

Die DePIN-Revolution findet nicht isoliert statt – sie schafft Infrastrukturabhängigkeiten, auf die Web3-Entwickler zunehmend angewiesen sein werden. Wenn Sie auf Sui, Aptos oder Ethereum bauen, werden die Off-Chain-Rechenanforderungen Ihrer dApp (KI-Inferenz, Datenindizierung, IPFS-Speicherung) zunehmend über DePIN-Anbieter statt über AWS geleitet.

Warum das wichtig ist: Kosteneffizienz. Wenn Ihre dApp KI-generierte Inhalte bereitstellt (NFT-Erstellung, Spiel-Assets, Handelssignale), könnte die Ausführung der Inferenz über Bittensor oder Aethir Ihre AWS-Rechnung um 70 % senken. Für Projekte, die mit knappen Margen arbeiten, ist das der Unterschied zwischen Nachhaltigkeit und dem Tod durch die Burn-Rate.

BlockEden.xyz bietet API-Infrastruktur auf Enterprise-Niveau für Sui, Aptos, Ethereum und über 15 weitere Blockchain-Netzwerke. Während DePIN-Protokolle zu produktionsreifer Infrastruktur reifen, stellt unser Multichain-Ansatz sicher, dass Entwickler dezentrale Rechenleistung, Speicher und Bandbreite zusammen mit zuverlässigem RPC-Zugriff integrieren können. Erkunden Sie unseren API-Marktplatz, um auf Fundamenten zu bauen, die auf Dauer ausgelegt sind.

Der Schwenk der Unternehmen ist bereits abgeschlossen

DePIN kommt nicht – es ist bereits da. Wenn Aethir 166 Millionen $ ARR von 150 Unternehmenskunden generiert, wenn Helium Partnerschaften mit T-Mobile und AT&T eingeht, wenn Bittensor KI-Inferenz über OpenAI-kompatible APIs bereitstellt, trifft das Label „experimentelle Technologie“ nicht mehr zu.

Der Sektor hat den Sprung von der krypto-nativen Adaption zur Validierung durch Unternehmen geschafft. Institutionelles Kapital finanziert kein Potenzial mehr – es finanziert bewährte Erlösmodelle mit Kostenstrukturen, mit denen zentralisierte Wettbewerber nicht mithalten können.

Für die Blockchain-Infrastruktur sind die Auswirkungen tiefgreifend. DePIN beweist, dass Dezentralisierung nicht nur eine ideologische Präferenz ist – sie ist ein Wettbewerbsvorteil. Wenn man 70 % Kostenersparnis mit SLA-Garantien liefern kann, muss man Unternehmen nicht von der Philosophie des Web3 überzeugen. Man muss ihnen nur die Rechnung zeigen.

Die 3,5-Billionen-$-Chance ist keine Vorhersage. Es ist Mathematik. Und die Projekte, die echte Unternehmen aufbauen – keine Token-Casinos –, positionieren sich, um diese Chance zu nutzen.


Quellen:

Jenseits von Monolithisch vs. Modular: Wie das Zero Network von LayerZero das Regelwerk der Blockchain-Skalierung neu schreibt

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Jede Blockchain, die jemals Skalierbarkeit erreicht hat, tat dies, indem sie jeden Validator zwang, dieselbe Arbeit zu wiederholen. Diese eine Designentscheidung – nennen wir sie die Replikationsanforderung – hat den Durchsatz seit Jahrzehnten gedeckelt. Das Zero Network von LayerZero schlägt vor, diese vollständig zu eliminieren, und die institutionellen Partner, die sich anschließen, deuten darauf hin, dass die Branche diesen Anspruch ernst nimmt.

Das Layer-2-Paradoxon: Wie 0,001 $-Gebühren das Skalierungs-Geschäftsmodell von Ethereum untergraben

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Ethereums Layer-2-Netzwerke haben im Jahr 2025 Außergewöhnliches erreicht: Sie haben die Transaktionskosten um über 90 % gesenkt und Blockchain-Interaktionen nahezu kostenlos gemacht. Doch dieser technologische Triumph hat eine unerwartete Krise ausgelöst – genau das Geschäftsmodell, das diese Netzwerke finanziert, bricht unter der Last des eigenen Erfolgs zusammen.

Während die Transaktionsgebühren auf 0,001 $ pro Operation zustürzen, stehen die Betreiber von Layer-2-Lösungen vor einer ernsten Frage: Wie unterhält man eine milliardenschwere Infrastruktur, wenn die Haupteinnahmequelle wegbricht?

Der große Gebührenkollaps von 2025

Die Zahlen erzählen eine dramatische Geschichte. Zwischen Januar 2025 und Januar 2026 fielen die durchschnittlichen Gaspreise in den Ethereum-Layer-2-Netzwerken von 7,141 Gwei auf etwa 0,50 Gwei – eine staggering Reduzierung um 93 %. Heute kosten Transaktionen auf Base durchschnittlich 0,01 ,wa¨hrendArbitrumundOptimismbeietwa0,150,20, während Arbitrum und Optimism bei etwa 0,15–0,20 liegen, wobei viele Operationen mittlerweile nur noch Bruchteile eines Cents kosten.

Der Auslöser? EIP-4844, Ethereums Dencun-Upgrade, das im März 2024 eingeführt wurde. Es führte „Blobs“ ein – temporäre Datenpakete, die Layer-2-Netzwerke für eine kostengünstige Abwicklung (Settlement) nutzen können. Im Gegensatz zu herkömmlichen Calldata, die dauerhaft auf Ethereum gespeichert werden, bleiben Blobs nur etwa 18 Tage lang verfügbar, was einen deutlich niedrigeren Preis ermöglicht.

Die Auswirkungen waren unmittelbar und verheerend für das traditionelle Erlösmodell. Optimism, Arbitrum und Base verzeichneten bei vielen Transaktionstypen Gebührensenkungen von 90–99 %. Die medianen Blob-Gebühren fielen auf bis zu 0,0000000005 $, wodurch Interaktionen für Nutzer fast vernachlässigbar günstig wurden. Seit dem Start von EIP-4844 wurden über 950.000 Blobs auf Ethereum gepostet, was die Wirtschaftlichkeit des Layer-2-Betriebs grundlegend verändert hat.

Für Nutzer und Entwickler ist dies ein Paradies. Für Layer-2-Betreiber, die auf Sequencer-Einnahmen angewiesen sind, ist es eine existenzielle Bedrohung.

Sequencer-Einnahmen: Die bedrohte Erlösquelle

Traditionell haben Layer-2-Netzwerke Geld durch ein einfaches Modell verdient: Sie erheben Gebühren von Nutzern für die Verarbeitung von Transaktionen und zahlen dann einen Teil dieser Gebühren an Ethereum für die Datenverfügbarkeit (Data Availability) und das Settlement. Die Differenz zwischen dem, was sie einnehmen, und dem, was sie zahlen, wird zu ihrem Gewinn – den Sequencer-Einnahmen.

Dieses Modell funktionierte hervorragend, solange die Layer-2-Gebühren substanziell waren. Doch da sich die Transaktionskosten gegen Null bewegen, ist die Marge hauchdünn geworden.

Die wirtschaftlichen Daten verdeutlichen die Herausforderung. Base erzielt trotz seiner Spitzenposition in den letzten 180 Tagen durchschnittlich nur 185.291 anta¨glichenEinnahmen.Arbitrumkommtaufetwa55.025an täglichen Einnahmen. Arbitrum kommt auf etwa 55.025 pro Tag. Diese Zahlen sind zwar nicht unbedeutend, müssen jedoch eine umfangreiche Infrastruktur, Entwicklungsteams und den laufenden Betrieb für Netzwerke finanzieren, die täglich Hunderttausende von Transaktionen verarbeiten.

Die Situation wird noch prekärer, wenn man die jährlichen Bruttogewinne betrachtet. Base führt mit fast 30 Millionen imJahr,wa¨hrendsowohlArbitrumalsauchOptimismjeweilsrund9,5Millionenim Jahr, während sowohl Arbitrum als auch Optimism jeweils rund 9,5 Millionen brutto eingenommen haben. Diese Beträge müssen Netzwerke tragen, die zusammen 60–70 % des gesamten Transaktionsvolumens von Ethereum abwickeln – eine massive operative Last für vergleichsweise bescheidene Erträge.

Das grundlegende Spannungsfeld ist klar: Layer-2-Netzwerke müssen eine Nische finden, die ihre Existenz abseits des Ethereum-Mainnets rechtfertigt, und genügend Einnahmen generieren, um sich selbst zu tragen. Wie eine Branchenanalyse anmerkte: „Die Rentabilität liegt in der Differenz zwischen dem, was L2s von den Nutzern verdienen, und dem, was sie an Ethereum zahlen“ – aber diese Differenz schrumpft täglich.

Die MEV-Divergenz: Verschiedene Wege zur Wertschöpfung

Angesichts des Drucks auf die Sequencer-Einnahmen untersuchen Layer-2-Netzwerke Maximal Extractable Value (MEV) als alternative Einnahmequelle. Ihre Ansätze unterscheiden sich jedoch drastisch, was zu individuellen Wettbewerbsvorteilen und Herausforderungen führt.

Arbitrums „Fair Ordering“-Philosophie

Arbitrum nutzt ein First-Come-First-Serve-System (FCFS) für die Reihenfolge von Transaktionen, um den Schaden für Nutzer durch MEV-Extraktion zu minimieren. Diese Philosophie priorisiert die Nutzererfahrung vor der Umsatzmaximierung, was zu einer deutlich geringeren MEV-Aktivität führt – nur 7 % des On-Chain-Gasverbrauchs im Vergleich zu über 50 % bei konkurrierenden Netzwerken.

Dennoch gibt Arbitrum MEV nicht völlig auf. Das Netzwerk untersucht künftige dezentrale Sequencer-Implementierungen, die Auktionen für MEV-Möglichkeiten einführen könnten, um potenziell einen Teil des Wertes an die Nutzer oder die Protokoll-Schatzkammer (Treasury) zurückzugeben. Dies stellt einen Mittelweg dar: Wahrung der Fairness bei gleichzeitiger Erfassung des wirtschaftlichen Wertes.

Der Auktionsansatz von Base und Optimism

Im Gegensatz dazu nutzen Base und Optimism Priority Gas Auctions (PGA), bei denen Nutzer höhere Gebühren für die Priorisierung von Transaktionen bieten können. Dieses Design ermöglicht von Natur aus mehr MEV-Aktivität – optimistisches MEV macht 51–55 % des gesamten On-Chain-Gasverbrauchs in diesen Netzwerken aus.

Der Haken? Die Erfolgsraten für echtes Arbitrage-Geschäft bleiben bei OP-Stack-Rollups mit etwa 1 % extrem niedrig – weit niedriger als bei Arbitrum. Der Großteil des Gases wird für „Interaktions-Sonden“ (Interaction Probes) aufgewendet – On-Chain-Berechnungen, die nach Arbitrage-Möglichkeiten suchen, die sich selten materialisieren. Dies führt zu der kuriosen Situation, dass MEV-Aktivitäten Ressourcen verbrauchen, ohne einen proportionalen Wert zu generieren.

Besonders trotz niedrigerer Erfolgsraten trägt das schiere Volumen der MEV-bezogenen Aktivitäten auf Base zu seiner führenden Position bei den Einnahmen bei. Das Netzwerk verarbeitet über 1.000 Transaktionen pro Sekunde bei minimalen Kosten und macht Volumen zu einem Wettbewerbsvorteil.

Alternative Erlösmodelle: Jenseits von Transaktionsgebühren

Da sich herkömmliche Sequencer-Einnahmen als unzureichend erweisen, leisten Layer-2-Netzwerke Pionierarbeit bei alternativen Geschäftsmodellen, welche die Ökonomie der Blockchain-Infrastruktur grundlegend neu gestalten könnten.

Die Divergenz bei der Lizenzierung

Arbitrum und Optimism haben grundlegend verschiedene Ansätze zur Monetarisierung ihrer Technologie-Stacks gewählt.

Arbitrums Orbit-Umsatzbeteiligung: Arbitrum setzt auf ein „Community-Source-Code“-Modell. Chains, die auf dem Orbit-Framework basieren, müssen 10 % ihres Protokollumsatzes abführen, wenn sie ihr Settlement außerhalb des Arbitrum-Ökosystems durchführen. Dies schafft eine lizenzgebührenähnliche Struktur, die Einnahmen generiert, selbst wenn Chains Arbitrum nicht direkt für das Settlement nutzen.

Optimisms Open-Source-Gambit: Der OP Stack von Optimism ist unter der MIT-Lizenz vollständig quelloffen. Dies ermöglicht es jedem, den Code zu beziehen, ihn frei zu modifizieren und individuelle Layer-2-Chains ohne Lizenzgebühren oder Vorabkosten zu erstellen. Eine Umsatzbeteiligung wird erst aktiviert, wenn eine Chain dem offiziellen Ökosystem von Optimism, der „Superchain“, beitritt.

Dies erzeugt eine interessante Dynamik: Optimism setzt auf Ökosystemwachstum und freiwillige Teilnahme, während Arbitrum die ökonomische Ausrichtung durch Lizenzvorgaben erzwingt. Die Zeit wird zeigen, welcher Ansatz das Wachstum besser mit Nachhaltigkeit in Einklang bringt.

Enterprise-Rollups und professionelle Dienstleistungen

Die vielleicht vielversprechendste Alternative zeichnete sich im Jahr 2025 ab: der Aufstieg des „Enterprise-Rollups“. Große Institutionen bringen maßgeschneiderte Layer-2-Netzwerke an den Start und sind bereit, für professionelle Bereitstellung, Wartung und Support-Services zu bezahlen.

Dies spiegelt traditionelle Open-Source-Geschäftsmodelle wider – der Code ist kostenlos, aber operatives Fachwissen erzielt Premium-Preise. Das kürzlich eingeführte OP Enterprise von Optimism verdeutlicht diesen Ansatz und bietet Institutionen, die eine individualisierte Blockchain-Infrastruktur aufbauen, einen erstklassigen Rundum-Service (White-Glove-Service).

Das Wertversprechen für Unternehmen ist überzeugend. Sie erhalten Zugang zur Liquidität und den Netzwerkeffekten der Ethereum-Ökonomie, während sie gleichzeitig individuelle Sicherheits-, Datenschutz- und Compliance-Funktionen beibehalten. Wie in einem Branchenbericht angemerkt wird: „Institutionen können ihr eigenes maßgeschneidertes institutionelles L2 betreiben, das an die Liquidität und die Netzwerkeffekte der Ethereum-Ökonomie angeschlossen ist.“

Layer-3s und App-spezifische Chains

Hochleistungsfähige DeFi-Protokolle verlangen zunehmend nach Funktionen, die generische Layer-2-Netzwerke nicht effizient bereitstellen können: vorhersehbare Ausführung, flexible Liquidationslogik, granulare Kontrolle über die Transaktionsreihenfolge und die Fähigkeit, MEV intern zu erfassen.

Hier kommen Layer-3s und App-spezifische Chains ins Spiel, die auf Frameworks wie Arbitrum Orbit basieren. Diese spezialisierten Netzwerke ermöglichen es Protokollen, MEV zu internalisieren, die Ökonomie anzupassen und für spezifische Anwendungsfälle zu optimieren. Für Layer-2-Betreiber stellt die Bereitstellung der Infrastruktur und Tools für diese spezialisierten Chains eine neue Einnahmequelle dar, die nicht von margenschwacher Transaktionsverarbeitung abhängt.

Die strategische Erkenntnis ist klar: Layer-2-Netzwerke gewinnen, indem sie ihre Infrastruktur nach außen verteilen und Partnerschaften mit großen Plattformen eingehen, anstatt nur über Transaktionskosten zu konkurrieren.

Die Nachhaltigkeitsfrage: Können L2s den Gebührenkrieg überleben?

Die grundlegende Spannung, vor der Layer-2-Netzwerke im Jahr 2026 stehen, ist die Frage, ob eine Kombination aus alternativen Erlösmodellen die wegbrechenden Transaktionsgebühren kompensieren kann.

Betrachten wir die Zahlen: Wenn der Trend bei Transaktionsgebühren weiter in Richtung 0,001 $ geht und die Blob-Kosten nahe Null bleiben, generiert selbst die Verarbeitung von Millionen von Transaktionen pro Tag nur minimale Einnahmen. Base muss trotz seiner führenden Rolle beim Volumen zusätzliche Einnahmequellen finden, um den laufenden Betrieb in großem Maßstab zu rechtfertigen.

Erschwert wird die Situation durch anhaltende Bedenken hinsichtlich der Zentralisierung. Die meisten Layer-2-Netzwerke sind nach wie vor weitaus zentralisierter, als es den Anschein hat, wobei Dezentralisierung eher als langfristiges Ziel denn als unmittelbare Priorität behandelt wird. Dies birgt regulatorische Risiken und wirft Fragen zur langfristigen Werthaltigkeit auf – wenn ein Netzwerk zentralisiert ist, warum sollten Nutzer ihm dann eher vertrauen als herkömmlichen Datenbanken mit „cleverer Kryptografie“?

Jüngste strukturelle Änderungen deuten darauf hin, dass Ethereum selbst das Problem erkennt. Das Fusaka-Upgrade zielt darauf ab, die Kette der Wertschöpfung zwischen Layer 1 und Layer 2 zu „reparieren“, indem von L2s ein erhöhter „Tribut“ an das Ethereum-Mainnet verlangt wird. Diese Umverteilung hilft Ethereum, schmälert jedoch die ohnehin geringen Margen der Layer 2s weiter.

Erlösmodelle für 2026 und darüber hinaus

Mit Blick auf die Zukunft werden erfolgreiche Layer-2-Netzwerke wahrscheinlich hybride Erlösstrategien verfolgen:

  1. Volumen vor Marge: Der Ansatz von Base – die Verarbeitung massiver Transaktionsvolumina bei minimalem Gewinn pro Transaktion – kann funktionieren, wenn eine entsprechende Skalierung erreicht wird. Die mehr als 1.000 + TPS von Base bei Gebühren von 0,01 generierenmehrUmsatzalsdie400TPSvonArbitrumbeiGebu¨hrenvon0,20generieren mehr Umsatz als die 400 TPS von Arbitrum bei Gebühren von 0,20.

  2. Selektive MEV-Erfassung: Netzwerke müssen die MEV-Extraktion mit der Benutzererfahrung in Einklang bringen. Arbitrums Untersuchung von MEV-Auktionen, die den Wert an die Nutzer zurückgeben, stellt einen Mittelweg dar, der Einnahmen generiert, ohne die Community zu verprellen.

  3. Enterprise-Services: Professioneller Support, Unterstützung bei der Bereitstellung und Anpassungsdienste für institutionelle Kunden bieten margenstarke Einnahmen, die eher mit dem Kundenwert als mit der Anzahl der Transaktionen skalieren.

  4. Ökosystem-Umsatzbeteiligung: Sowohl obligatorische (Arbitrum Orbit) als auch freiwillige (Optimism Superchain) Umsatzbeteiligungsmodelle schaffen Netzwerkeffekte, bei denen sich der Erfolg der Layer 2 durch die Teilnahme am Ökosystem potenziert.

  5. Märkte für Datenverfügbarkeit: Während sich die Preisgestaltung für Blobs weiterentwickelt, könnten Layer-2-Netzwerke gestaffelte Angebote für die Datenverfügbarkeit (Data Availability) einführen – Premium-Settlement-Garantien für Institutionen und Budget-Optionen für Verbraucheranwendungen.

Bis 2026 wird erwartet, dass Netzwerke Modelle zur Umsatzbeteiligung, zur Verteilung von Sequencer-Gewinnen und Renditen einführen, die an die tatsächliche Netzwerknutzung gebunden sind. Dies markiert einen grundlegenden Wandel von Transaktionsgebühren hin zu einer Partizipationsökonomie.

Der Weg in die Zukunft

Die wirtschaftliche Krise von Layer 2 ist paradoxerweise ein Zeichen für technologischen Erfolg. Die Skalierungslösungen von Ethereum haben ihr primäres Ziel erreicht: Blockchain-Transaktionen erschwinglich und zugänglich zu machen. Doch technologischer Triumph lässt sich nicht automatisch in geschäftliche Nachhaltigkeit übersetzen.

Die Netzwerke, die überleben und florieren werden, sind diejenigen, die:

  • Akzeptieren, dass Transaktionsgebühren allein den Betrieb bei 0,001 $ pro Operation nicht aufrechterhalten können
  • Diversifizierte Einnahmequellen entwickeln, die auf der tatsächlichen Wertschöpfung basieren
  • Zentralisierungsbedenken mit betrieblicher Effizienz in Einklang bringen
  • Ökosystem-Netzwerkeffekte aufbauen, die den Wert über einzelne Transaktionen hinaus steigern
  • Institutionelle Kunden und Unternehmenskunden bedienen, die bereit sind, für die Zuverlässigkeit der Infrastruktur zu zahlen

Base, Arbitrum und Optimism experimentieren alle mit verschiedenen Kombinationen dieser Strategien. Base führt beim Bruttoumsatz durch Volumen, Arbitrum erzwingt die wirtschaftliche Ausrichtung durch Lizenzierung und Optimism setzt auf das Wachstum des Open-Source-Ökosystems.

Die letztendlichen Gewinner werden wahrscheinlich diejenigen sein, die den grundlegenden Wandel erkennen: Layer-2-Netzwerke sind nicht mehr nur Transaktionsprozessoren. Sie entwickeln sich zu Infrastrukturplattformen, Enterprise-Service-Providern und Ökosystem-Orchestratoren. Die Erlösmodelle müssen sich entsprechend weiterentwickeln – andernfalls riskieren sie, zu unhaltbar günstigen Commodity-Diensten in einem Preiskampf nach unten zu werden, den niemand gewinnen kann.

Für Entwickler, die auf Layer-2-Infrastrukturen aufbauen, bleiben zuverlässiger Node-Zugriff und Datenindexierung entscheidend, während diese Netzwerke ihre Geschäftsmodelle weiterentwickeln. BlockEden.xyz bietet API-Zugang auf Enterprise-Niveau über alle wichtigen Layer-2-Netzwerke hinweg und liefert konstante Leistung, unabhängig von den zugrunde liegenden wirtschaftlichen Veränderungen.


Quellen

Die 0,001 $-Krise: Wie Ethereum L2s ihre Einnahmen neu erfinden müssen, wenn die Gebühren verschwinden

· 16 Min. Lesezeit
Dora Noda
Software Engineer

Die Transaktionsgebühren in Ethereum-Layer-2-Netzwerken sind auf bis zu 0,001 $ eingebrochen – ein Triumph für die Nutzer, aber eine existenzielle Krise für die Blockchains selbst. Während Base, Arbitrum und Optimism auf Kosten nahe Null zusteuern, wird die grundlegende Frage, die jeden L2-Betreiber verfolgt, unumgänglich: Wie erhält man eine Milliarden-Dollar-Infrastruktur aufrecht, wenn die Haupteinnahmequelle gegen Null geht?

Im Jahr 2026 ist dies keine Theorie mehr. Es ist die neue wirtschaftliche Realität, die Ethereums Skalierungslandschaft umgestaltet.

Der Gebühreneinsturz: Sieg wird zur Krise

Layer-2-Lösungen wurden entwickelt, um das Skalierbarkeitsproblem von Ethereum zu lösen – und in dieser Hinsicht waren sie spektakulär erfolgreich. Die Transaktionsgebühren auf führenden L2s liegen mittlerweile zwischen 0,001 und0,01und 0,01, was einer Reduzierung von 90–99 % im Vergleich zum Ethereum-Mainnet entspricht. In Zeiten hoher Auslastung, wenn eine Ethereum-Transaktion 50 $ kosten könnte, können Base oder Arbitrum dieselbe Operation für Bruchteile eines Cents ausführen.

Doch der Erfolg hat ein unerwartetes Dilemma geschaffen. Genau die Errungenschaft, die L2s für Nutzer attraktiv macht – extrem niedrige Gebühren –, bedroht ihre langfristige Rentabilität als Unternehmen.

Die Zahlen sprechen für sich. In den letzten sechs Monaten des Jahres 2025 generierten die Top-10-Ethereum-L2s 232 Millionen $ an Einnahmen aus Nutzer-Transaktionsgebühren. Obwohl dieser Wert absolut gesehen beeindruckend ist, kaschiert er den wachsenden Druck, da die durch EIP-4844 eingeführte Blob-basierte Datenverfügbarkeit die Rollup-Gebühren in vielen Fällen um 50–90 % gedrückt hat. Wenn die Blob-Auslastung niedrig bleibt – wie Anfang 2026 –, nähern sich die Grenzkosten für das Veröffentlichen von Daten Null, wodurch eine der wenigen verbleibenden Rechtfertigungen für die Erhebung von Premium-Gebühren entfällt.

Die Arbitrum Foundation meldete für das 4. Quartal 2025 Bruttomargen von über 90 % über vier Einnahmequellen hinweg, mit annualisierten Gewinnen von etwa 26 Millionen .DiesePerformancelagjedochvordenvollenAuswirkungenkonkurrierenderL2s,sinkenderBlobPreiseunddenErwartungenderNutzeraufimmergu¨nstigereTransaktionen.DieMargenkompressionistbereitssichtbar:BeiBasemachenalleindiePriorita¨tsgebu¨hrenetwa86,1. Diese Performance lag jedoch vor den vollen Auswirkungen konkurrierender L2s, sinkender Blob-Preise und den Erwartungen der Nutzer auf immer günstigere Transaktionen. Die Margenkompression ist bereits sichtbar: Bei Base machen allein die Prioritätsgebühren etwa 86,1 % des gesamten täglichen Sequencer-Umsatzes aus, was im Durchschnitt nur 156.138 pro Tag entspricht – kaum genug, um Milliardenbewertungen zu rechtfertigen oder die langfristige Infrastrukturentwicklung aufrechtzuerhalten.

Die Krise verschärft sich, wenn man die Wettbewerbsdynamik betrachtet. Mit über 60 aktiven Ethereum-L2s und monatlichen Neuzugängen ähnelt der Markt einem Race to the Bottom. Jede L2, die versucht, höhere Gebühren beizubehalten, riskiert, Nutzer an günstigere Alternativen zu verlieren. Doch wenn alle auf Null zusteuern, überlebt niemand.

MEV: Vom Bösewicht zum Rettungsanker für Einnahmen

Maximal Extractable Value (MEV) – einst das umstrittenste Thema im Krypto-Sektor – wird angesichts schwindender Transaktionsgebühren schnell zur vielversprechendsten Einnahmequelle für L2s.

MEV stellt den Gewinn dar, der durch das Umordnen, Einfügen oder Zensieren von Transaktionen innerhalb eines Blocks erzielt werden kann. Im Ethereum-Mainnet haben Block-Builder und Validatoren durch ausgeklügelte Strategien wie Sandwich-Attacken, Arbitrage und Liquidationen längst Milliarden an MEV abgeschöpft. Nun lernen L2-Sequencer, dieselbe Einnahmequelle zu erschließen – jedoch mit mehr Kontrolle und weniger Kontroversen.

Timeboost: Die MEV-Auktion von Arbitrum

Der Timeboost-Mechanismus von Arbitrum, der Ende 2025 eingeführt wurde, stellt den ersten großen Versuch dar, MEV systematisch auf einer L2 zu monetarisieren. Das System führt eine transparente Auktion für Transaktionsordnungsrechte ein, die es professionellen Tradern ermöglicht, auf das Privileg zu bieten, ihre Transaktionen vor anderen einreihen zu lassen.

In den ersten sieben Monaten generierte Timeboost über 5 Millionen $ an Einnahmen – eine bescheidene Summe, aber ein Proof-of-Concept dafür, dass die MEV-Erfassung auf Sequencer-Ebene funktionieren kann. Im Gegensatz zur intransparenten MEV-Extraktion im Mainnet gibt Timeboost diesen Wert an das Protokoll selbst zurück, anstatt ihn an externe Searcher abfließen zu lassen oder vor den Nutzern zu verbergen.

Das Modell wandelt den Sequencer vom bloßen Transaktionsverarbeiter zum „neutralen Auktionator“. Anstatt dass der Sequencer MEV direkt extrahiert (was Zentralisierungsbedenken aufwirft), schafft er einen wettbewerbsorientierten Marktplatz, auf dem MEV-Searcher gegeneinander bieten und das Protokoll den Überschuss einbehält.

Proposer-Builder Separation auf L2s

Die Architektur, die für die nachhaltige MEV-Erfassung die meiste Aufmerksamkeit erhält, ist die Proposer-Builder Separation (PBS), die ursprünglich für das Ethereum-Mainnet entwickelt wurde, nun aber für L2s angepasst wird.

In PBS-Modellen teilt sich die Rolle des Sequencers in zwei Funktionen auf:

  • Builder erstellen Blöcke mit optimierter Transaktionsreihenfolge, um die MEV-Erfassung zu maximieren
  • Proposer (Sequencer) wählen den profitabelsten Block aus den Vorschlägen konkurrierender Builder aus

Diese Transformation verändert die Ökonomie grundlegend. Anstatt dass Sequencer intern über ausgeklügelte MEV-Extraktionsfähigkeiten verfügen müssen, versteigern sie einfach das Recht zum Blockbau an spezialisierte Einheiten. Der Sequencer erzielt Einnahmen durch wettbewerbsorientierte Gebote für den Blockbau, während die Builder über ihre Fähigkeit konkurrieren, MEV effizient zu extrahieren.

Auf Base und Optimism machten zyklische Arbitrage-Verträge bereits im 1. Quartal 2025 über 50 % des On-Chain-Gasverbrauchs aus. Diese „optimistischen MEV“-Transaktionen repräsentieren wirtschaftliche Aktivitäten, die unabhängig von den Nutzer-Transaktionsgebühren fortbestehen werden – und L2s lernen, einen Teil dieses Wertes abzuschöpfen.

Enshrined PBS (ePBS) – bei dem PBS direkt in das Protokoll integriert ist, anstatt von Dritten betrieben zu werden – bietet noch mehr Potenzial. Durch die Einbettung von MEV-Erfassungsmechanismen auf Protokollebene können L2s garantieren, dass der extrahierte Wert an Token-Inhaber, Netzwerkteilnehmer oder die Finanzierung öffentlicher Güter zurückfließt, anstatt an externe Akteure abzuwandern.

Die Herausforderung liegt in der Implementierung. Im Gegensatz zum Ethereum-Mainnet, wo PBS über Jahre gereift ist, stehen L2s vor Designbeschränkungen in Bezug auf zentralisierte Sequencer, schnelle Blockzeiten und die Notwendigkeit, die Kompatibilität mit der bestehenden Infrastruktur aufrechtzuerhalten. Doch da die Margen von Arbitrum selbst bei minimaler MEV-Erfassung eine Rentabilität von über 90 % aufweisen, ist das Umsatzpotenzial nicht zu ignorieren.

Datenverfügbarkeit: Die verborgene Einnahmequelle

Während sich viel Aufmerksamkeit auf die benutzerorientierten Transaktionsgebühren konzentriert, hat sich die Ökonomie der Datenverfügbarkeit (Data Availability – DA) still und heimlich zu einem der wichtigsten Wettbewerbsfaktoren für die Nachhaltigkeit von L2 - Lösungen entwickelt.

Die Einführung von „Blobs“ durch EIP-4844 – dedizierte Datenstrukturen für Rollup-Daten – hat die L2 - Kostenstrukturen grundlegend verändert. Vor den Blobs zahlten L2s dafür, Transaktionsdaten als Calldata im Ethereum-Mainnet zu veröffentlichen, wobei die Kosten bei Netzwerküberlastung sprunghaft ansteigen konnten. Nach EIP-4844 reduzierten Blob-basierte DA die Veröffentlichungskosten um Größenordnungen: von etwa 3,83 $ pro Megabyte auf in vielen Fällen nur noch wenige Cent.

Diese Kostenreduzierung ist der Grund, warum die L2 - Gebühren so drastisch sinken konnten. Sie offenbarte jedoch auch eine kritische Abhängigkeit: L2s verlassen sich nun auf den Blob-Preismechanismus von Ethereum, über den sie keine Kontrolle haben.

Celestia und alternative DA-Märkte

Das Aufkommen dedizierter DA-Layer wie Celestia hat Wettbewerb – und Optionalität – in die L2 - Ökonomie gebracht. Celestia berechnet etwa 0,07 $ pro Megabyte für die Datenverfügbarkeit, was etwa 55-mal günstiger ist als die Blob-Preise von Ethereum in vergleichbaren Zeiträumen. Für kostenbewusste L2s, insbesondere solche mit hohem Transaktionsvolumen, ist dieser Preisunterschied unmöglich zu ignorieren.

Bis Anfang 2026 hatte Celestia über 160 GB an Rollup-Daten verarbeitet, hielt einen Marktanteil von rund 50 % im Nicht-Ethereum-DA-Sektor und verzeichnete ein 10-faches Wachstum seiner täglichen Blob-Gebühren seit Ende 2024. Der Erfolg der Plattform zeigt, dass DA nicht nur eine Kostenstelle ist, sondern eine potenzielle Einnahmequelle für Plattformen, die wettbewerbsfähige Preise, Zuverlässigkeit und einfache Integration bieten können.

Die Frage der DA-Fragmentierung

Dennoch bleibt Ethereum die „Premium“-Option. Trotz höherer Kosten bietet die Blob-DA von Ethereum unübertroffene Sicherheitsgarantien – die Datenverfügbarkeit wird durch denselben Konsensmechanismus gesichert, der Billionenwerte schützt. Für hochwertige L2s, die Finanzanwendungen, institutionelle Nutzer oder große Unternehmen bedienen, stellt die Zahlung eines Aufpreises für die Ethereum-DA eine Versicherung gegen katastrophale Datenverluste oder Verfügbarkeitsausfälle dar.

Dies schafft einen zweistufigen Markt:

  • Hochwertige L2s (Base, Arbitrum One, Optimism) nutzen weiterhin die Ethereum-DA und betrachten die Kosten als notwendige Sicherheitsausgabe.
  • Kostensensible L2s (Gaming-Chains, experimentelle Netzwerke, Anwendungen mit hohem Durchsatz) setzen zunehmend auf alternative DA-Layer wie Celestia, EigenDA oder sogar zentralisierte Lösungen.

Für die L2s selbst stellt sich die strategische Frage, ob sie reine Ethereum-Rollups bleiben oder „Validium“- oder Hybridmodelle akzeptieren, die für drastische Kostenreduzierungen etwas Sicherheit opfern. Die Ökonomie begünstigt zunehmend die Hybridisierung – doch die Auswirkungen auf die Marke und die Sicherheit bleiben umstritten.

Interessanterweise beginnen einige L2s damit, selbst DA-Dienste anzubieten. Wenn ein L2 eine ausreichende Skalierung und Dezentralisierung erreicht, könnte er theoretisch Datenverfügbarkeit für andere, kleinere Chains bereitstellen – und so eine neue Einnahmequelle schaffen, während er seine Position in der Ökosystem-Hierarchie stärkt.

Enterprise-Lizenzierung: Das B2B-Umsatzmodell

Während Privatanwender von Transaktionskosten besessen sind, die in Bruchteilen von Cent gemessen werden, baut das Phänomen der Enterprise-Rollups im Stillen ein völlig anderes Geschäftsmodell auf – eines, bei dem Gebühren kaum eine Rolle spielen.

Das Jahr 2025 markierte den Aufstieg von „Enterprise-Rollups“: L2 - Infrastrukturen, die von großen Institutionen primär nicht für Endverbraucher, sondern für kontrollierte Geschäftsumgebungen eingesetzt werden. Kraken startete INK, Uniswap implementierte UniChain, Sony führte Soneium für Gaming und Medien ein, und Robinhood integrierte die Arbitrum-Infrastruktur zur Abwicklung von Brokerage-Transaktionen.

Diese Unternehmen starten keine L2s, um um Marktanteile im Einzelhandel zu konkurrieren, die am Transaktionsvolumen gemessen werden. Sie setzen Blockchain-Infrastrukturen ein, um spezifische Geschäftsprobleme zu lösen: Compliance-Management, Endgültigkeit der Abwicklung (Settlement Finality), Interoperabilität mit dezentralen Ökosystemen und Differenzierung des Kundenerlebnisses.

Das Enterprise-Wertversprechen

Für Robinhood ermöglicht ein L2 den Aktienhandel rund um die Uhr und eine sofortige Abwicklung – Funktionen, die in traditionellen Märkten, die an Geschäftszeiten und T + 2 - Abwicklungszyklen gebunden sind, unmöglich sind. Für Sony eröffnet die Blockchain-basierte Gaming- und Medienverteilung neue Einnahmemodelle, plattformübergreifende Interoperabilität von Assets und Community-Governance-Mechanismen, die eine Web2 - Infrastruktur nicht unterstützen kann.

Transaktionsgebühren werden in diesen Kontexten weitgehend irrelevant. Ob ein Handel 0,001 oder0,01oder 0,01 kostet, spielt kaum eine Rolle, wenn die Alternative mehrtägige Verzögerungen bei der Abwicklung oder die Unmöglichkeit bestimmter Transaktionen überhaupt sind.

Das Einnahmemodell verlagert sich von „Gebühren pro Transaktion“ zu „Plattformgebühren, Lizenzierung und Mehrwertdiensten“:

  • Start- und Implementierungsgebühren: Gebühren für die Bereitstellung maßgeschneiderter L2 - Infrastrukturen, die oft zwischen Hunderttausenden und Millionen von Dollar liegen.
  • Managed Services: Laufende betriebliche Unterstützung, Upgrades, Überwachung und Unterstützung bei der Compliance.
  • Governance- und Berechtigungsmanagement: Tools für Unternehmen, um zu kontrollieren, wer mit ihren Chains interagieren kann, KYC / AML-Anforderungen zu implementieren und die Einhaltung regulatorischer Vorschriften zu gewährleisten.
  • Datenschutz- und Vertraulichkeitsfunktionen: Das Prividium-Framework von ZKsync beispielsweise bietet Datenschutzebenen auf Enterprise-Niveau, die Finanzinstitute für sensible Transaktionsdaten benötigen.

Optimism leistete Pionierarbeit mit seiner Superchain-Architektur, die von den Teilnehmern 2,5 % der gesamten Sequencer-Einnahmen oder 15 % der Sequencer-Gewinne für den Beitritt zum Netzwerk interoperabler OP-Stack-Chains verlangt. Dies ist keine benutzerorientierte Gebühr – es handelt sich um eine B2B-Umsatzbeteiligungsvereinbarung zwischen Optimism und Institutionen, die ihre eigenen Chains mit der OP-Stack-Technologie bereitstellen.

Private vs. öffentliche L2-Ökonomie

Das Unternehmensmodell führt auch zu einer fundamentalen Gabelung in der L2-Architektur: öffentliche versus private (oder zugangsbeschränkte) Chains.

Öffentliche L2s bieten sofortigen Zugang zu bestehenden Nutzern, Liquidität und gemeinsamer Infrastruktur – im Wesentlichen die Anbindung an das Ethereum DeFi-Ökosystem. Diese Chains hängen vom Transaktionsvolumen ab und müssen über Gebühren konkurrieren.

Private L2s ermöglichen es Institutionen, Teilnehmer, Datenhandhabung und Governance zu kontrollieren, während das Settlement für Finalität und Sicherheit weiterhin auf Ethereum verankert bleibt. Diese Chains können völlig anders abrechnen: Zugangsgebühren, SLA-Garantien, Full-Service-Betreuung und Integrationsunterstützung statt Kosten pro Transaktion.

Der sich abzeichnende Konsens deutet darauf hin, dass L2-Anbieter wie Cloud-Infrastrukturunternehmen agieren werden. Genau wie AWS für Rechenleistung, Speicher und Bandbreite mit Premium-Tiers für Unternehmens-SLAs und Support abrechnet, werden L2-Betreiber über Service-Tiers monetarisieren, nicht über Transaktionsgebühren.

Dieses Modell erfordert Skalierung, Reputation und Vertrauen – Attribute, die etablierte Akteure wie Optimism, Arbitrum und aufstrebende Giganten wie Base begünstigen. Kleinere L2s ohne Markenbekanntheit oder Unternehmensbeziehungen werden es schwer haben, in diesem Markt zu bestehen.

Die technische Architektur der Nachhaltigkeit

Um die Gebühren-Apokalypse zu überleben, bedarf es mehr als kluger Geschäftsmodelle – es erfordert architektonische Innovationen, die grundlegend verändern, wie L2s arbeiten und Werte erfassen.

Dezentralisierung des Sequencers

Die meisten L2s verlassen sich heute auf zentralisierte Sequencer: einzelne Einheiten, die für die Sortierung von Transaktionen und die Erstellung von Blöcken verantwortlich sind. Während diese Architektur eine schnelle Finalität und einfache Abläufe ermöglicht, schafft sie einen Single Point of Failure, regulatorische Risiken und Einschränkungen bei MEV-Erfassungsstrategien.

Dezentrale Sequencer stellen einen der wichtigsten technischen Übergänge des Jahres 2026 dar. Durch die Verteilung des Sequencing auf mehrere Betreiber können L2s:

  • Staking-Mechanismen ermöglichen, bei denen Sequencer-Betreiber Token sperren müssen, was neuen Token-Nutzen und potenzielle Einnahmen aus Slashing-Strafen schafft.
  • Faire Sortierung und MEV-Minderungsstrategien implementieren, die sich glaubwürdig zum Nutzerschutz verpflichten.
  • Regulatorische Risiken reduzieren, indem einzelne verantwortliche Einheiten eliminiert werden.
  • Möglichkeiten für „Sequencer-as-a-Service“-Märkte schaffen, in denen Teilnehmer um Sequencing-Rechte bieten.

Die Herausforderung besteht darin, den Geschwindigkeitsvorteil der L2s beizubehalten und gleichzeitig zu dezentralisieren. Netzwerke wie Arbitrum und Optimism haben Pläne für dezentrale Sequencer-Sets angekündigt, aber die Umsetzung hat sich als komplex erwiesen. Schnelle Blockzeiten (einige L2s streben eine Finalität von 2 Sekunden an) werden mit verteiltem Konsens schwieriger aufrechtzuerhalten.

Dennoch sind die wirtschaftlichen Anreize klar: Dezentrale Sequencer erschließen Staking-Renditen, Validator-Netzwerke und MEV-Marktplätze – alles potenzielle Einnahmequellen, die zentralisierten Betreibern nicht zur Verfügung stehen.

Shared Sequencing und Cross-L2-Liquidität

Ein weiteres aufstrebendes Modell ist das „Shared Sequencing“, bei dem mehrere L2s über eine gemeinsame Sequencing-Ebene koordinieren. Diese Architektur ermöglicht atomare Cross-L2-Transaktionen, einheitliche Liquiditätspools und die MEV-Erfassung über Chains hinweg statt innerhalb einzelner Silos.

Shared Sequencer könnten monetarisieren durch:

  • Gebühren, die L2s für die Aufnahme in den Shared Sequencing Service berechnet werden.
  • Erfasstes MEV aus Cross-Chain-Arbitrage und Liquidationen.
  • Prioritätsauktionen für die Sortierung über mehrere Chains gleichzeitig.

Projekte wie Espresso Systems, Astria und andere bauen an der Infrastruktur für Shared Sequencing, obwohl die Einführung noch in einem frühen Stadium ist. Das Wirtschaftsmodell geht davon aus, dass L2s für Sequencing-Dienste bezahlen werden, anstatt ihre eigenen zu betreiben, wodurch ein neuer Infrastrukturmarkt entsteht.

Modulare Datenverfügbarkeit (Modular Data Availability)

Wie bereits erwähnt, stellt DA (Data Availability) sowohl ein Kostenzentrum als auch ein potenzielles Ertragszentrum dar. Die modulare Blockchain-Diese – bei der Ausführung, Konsens und Datenverfügbarkeit in spezialisierte Schichten getrennt werden – schafft Märkte auf jeder Ebene.

L2s, die auf Nachhaltigkeit optimieren, werden zunehmend DA-Lösungen kombinieren:

  • Transaktionen mit hoher Sicherheit nutzen Ethereum DA.
  • Transaktionen mit hohem Volumen und geringerem Wert nutzen günstigere Alternativen wie Celestia oder EigenDA.
  • Anwendungsfälle mit extrem hohem Durchsatz könnten zentralisierte DA mit Fraud Proofs oder Validity Proofs zur Sicherheit einsetzen.

Dieses „Data Availability Routing“ erfordert eine anspruchsvolle Infrastruktur für die Verwaltung und schafft Möglichkeiten für Middleware-Anbieter, die die DA-Auswahl dynamisch basierend auf Kosten, Sicherheitsanforderungen und Netzwerkbedingungen optimieren können.

Was als Nächstes kommt: Drei mögliche Zukunftsszenarien

Die L2-Umsatzkrise wird sich in den nächsten 12 bis 18 Monaten in einem von drei Gleichgewichten auflösen:

Zukunft 1: Die große Konsolidierung

Die meisten L2s schaffen es nicht, eine ausreichende Skalierung zu erreichen, und der Markt konsolidiert sich um 5 bis 10 dominante Chains, die von großen Institutionen unterstützt werden. Base (Coinbase), Arbitrum, Optimism und einige spezialisierte Chains erfassen über 90 % der Aktivitäten. Diese Überlebenden monetarisieren über Unternehmensbeziehungen, MEV-Erfassung und Plattformgebühren, während der Token-Wert durch Rückkäufe erhalten bleibt, die durch diversifizierte Einnahmen finanziert werden.

Kleinere L2s werden entweder eingestellt oder zu App-spezifischen Chains für nischige Anwendungsfälle und geben ihre Ambitionen als General-Purpose-Netzwerke auf.

Zukunft 2: Die Service-Ebene

L2-Betreiber schwenken auf Infrastructure-as-a-Service-Geschäftsmodelle um und verdienen Einnahmen durch den Verkauf von Sequencing-, DA- und Settlement-Diensten an andere Chains. Der OP Stack, Arbitrum Orbit, zkSync’s ZK Stack und ähnliche Frameworks werden zum AWS / Azure / GCP der Blockchain, wobei Transaktionsgebühren nur einen kleinen Bruchteil des Gesamtumsatzes ausmachen.

In dieser Zukunft wird der Betrieb öffentlicher L2s zu einem Lockvogelangebot für den Verkauf von Unternehmensinfrastruktur.

Zukunft 3: Der MEV-Markt

PBS und ausgeklügelte MEV-Erfassungsmechanismen reifen so weit aus, dass L2s effektiv zu Marktplätzen für Blockspace und Transaktionssortierung werden, anstatt nur Transaktionsprozessoren zu sein. Die Einnahmen fließen primär von Searchern, Buildern und professionellen Market Makern anstatt von Endnutzern.

Retail-Nutzer genießen kostenlose Transaktionen, die durch MEV-Erfassungen aus professionellen Handelsaktivitäten subventioniert werden. L2-Token gewinnen an Wert als Governance-Instrumente über MEV-Umverteilungsmechanismen.

Jeder Weg bleibt plausibel, und verschiedene L2s können unterschiedliche Strategien verfolgen. Aber der Status quo – die primäre Abhängigkeit von Nutzertransaktionsgebühren – ist bereits veraltet.

Der Weg in die Zukunft

Die 0,001-Dollar-Gebührenkrise erzwingt eine längst überfällige Abrechnung: Blockchain-Infrastruktur kann, genau wie das Cloud-Computing davor, auf Dauer nicht von hauchdünnen Transaktionsmargen im großen Maßstab überleben. Die Gewinner werden diejenigen sein, die diese Realität zuerst erkennen und Erlösmodelle entwickeln, die über das Pro-Transaktions-Paradigma hinausgehen.

Für die Nutzer ist dieser Übergang überwiegend positiv. Nahezu kostenlose Transaktionen ermöglichen Anwendungen, die bei höheren Gebühren unmöglich wären: Mikrozahlungen, On-Chain-Gaming, Hochfrequenzhandel und IoT-Abrechnungen. Die Infrastrukturkrise ist eine Krise für Blockchain-Betreiber, nicht für Blockchain-Nutzer.

Für L2-Betreiber ist die Herausforderung existenziell, aber lösbar. MEV-Abschöpfung, Unternehmenslizenzierung, Datenverfügbarkeitsmärkte und Infrastructure-as-a-Service-Modelle bieten Wege zur Nachhaltigkeit. Die Frage ist, ob L2-Teams den Übergang vollziehen können, bevor ihre Finanzpuffer aufgebraucht sind oder ihre Communities das Vertrauen verlieren.

Und für Ethereum selbst stellt die L2-Einnahmenkrise eine Bestätigung seiner Rollup-zentrierten Roadmap dar. Das Ökosystem skaliert genau wie geplant – die Transaktionskosten gehen gegen Null, der Durchsatz schießt in die Höhe und die Sicherheit des Mainnets bleibt unbeeinträchtigt. Der wirtschaftliche Schmerz ist ein Feature, kein Bug: eine marktgetriebene Zwangsfunktion, die nachhaltige Infrastruktur von spekulativen Experimenten trennen wird.

Der Gebührenkrieg ist vorbei. Der Einnahmenkrieg hat gerade erst begonnen.


Quellen: