Direkt zum Hauptinhalt

279 Beiträge getaggt mit „Technologische Innovation“

Technologische Innovationen und Durchbrüche

Alle Tags anzeigen

Datenmärkte treffen auf KI-Training: Wie Blockchain die 23-Milliarden-Dollar-Datenpreiskrise löst

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Die KI-Branche steht vor einem Paradoxon: Die weltweite Datenproduktion explodiert bis 2025 von 33 Zettabyte auf 175 Zettabyte, doch die Qualität der KI-Modelle stagniert. Das Problem ist nicht der Datenmangel – es liegt daran, dass Datenanbieter keine Möglichkeit haben, den Wert ihrer Beiträge zu erfassen. Hier kommen Blockchain-basierte Datenmärkte wie Ocean Protocol, LazAI und ZENi ins Spiel, die KI-Trainingsdaten von einer kostenlosen Ressource in eine monetarisierbare Anlageklasse verwandeln, die bis 2034 einen Wert von 23,18 Milliarden US-Dollar erreichen wird.

Das 23-Milliarden-Dollar-Datenpreisfindungsproblem

Die Kosten für das KI-Training stiegen von 2023 bis 2025 um 89 %, wobei die Datenerfassung und -annotation bis zu 80 % der Budgets von Machine-Learning-Projekten verschlingen. Dennoch erhalten Datenersteller – Einzelpersonen, die Suchanfragen, Social-Media-Interaktionen und Verhaltensmuster generieren – nichts, während Tech-Giganten Werte in Milliardenhöhe abschöpfen.

Der Markt für KI-Trainingsdatensätze offenbart diese Diskrepanz. Mit einem geschätzten Wert von 3,59 Milliarden US-Dollar im Jahr 2025 wird erwartet, dass der Markt bis 2034 23,18 Milliarden US-Dollar bei einer jährlichen Wachstumsrate (CAGR) von 22,9 % erreichen wird. Eine andere Prognose beziffert das Jahr 2026 auf 7,48 Milliarden US-Dollar und erreicht bis 2035 52,41 Milliarden US-Dollar bei einem jährlichen Wachstum von 24,16 %.

Aber wer schöpft diesen Wert ab? Derzeit erzielen zentralisierte Plattformen Gewinne, während die Datenersteller keinerlei Vergütung erhalten. Label-Rauschen, inkonsistentes Tagging und fehlender Kontext treiben die Kosten in die Höhe, doch den Mitwirkenden fehlen die Anreize, die Qualität zu verbessern. Datenschutzbedenken betreffen 28 % der Unternehmen und schränken die Zugänglichkeit von Datensätzen genau dann ein, wenn die KI vielfältige und qualitativ hochwertige Inputs benötigt.

Ocean Protocol: Tokenisierung der 100-Millionen-Dollar-Datenökonomie

Ocean Protocol adressiert das Thema Eigentum, indem es Datenanbietern ermöglicht, Datensätze zu tokenisieren und für das KI-Training verfügbar zu machen, ohne die Kontrolle abzugeben. Seit dem Start der Ocean Nodes im August 2024 ist das Netzwerk auf über 1,4 Millionen Nodes in mehr als 70 Ländern angewachsen, hat über 35.000 Datensätze integriert und KI-bezogene Datentransaktionen im Wert von mehr als 100 Millionen US-Dollar ermöglicht.

Die Produkt-Roadmap für 2025 umfasst drei entscheidende Komponenten:

Inference Pipelines ermöglichen das End-to-End-Training und Deployment von KI-Modellen direkt auf der Infrastruktur von Ocean. Datenanbieter tokenisieren proprietäre Datensätze, legen Preise fest und erzielen Einnahmen jedes Mal, wenn ein KI-Modell ihre Daten für das Training oder die Inferenz nutzt.

Ocean Enterprise Onboarding führt Unternehmen des Ökosystems vom Pilotprojekt zur Produktion. Ocean Enterprise v1, das im 3. Quartal 2025 startet, bietet eine konforme, produktionsreife Datenplattform für institutionelle Kunden, die einen prüffähigen, datenschutzfreundlichen Datenaustausch benötigen.

Node Analytics führt Dashboards zur Verfolgung von Leistung, Nutzung und ROI ein. Partner wie NetMind steuern 2.000 GPUs bei, während Aethir bei der Skalierung von Ocean Nodes hilft, um große KI-Workloads zu unterstützen und eine dezentrale Rechenschicht für das KI-Training zu schaffen.

Der Revenue-Sharing-Mechanismus von Ocean funktioniert über Smart Contracts: Datenanbieter legen Zugriffsbedingungen fest, KI-Entwickler zahlen pro Nutzung und die Blockchain verteilt Zahlungen automatisch an alle Mitwirkenden. Dies verwandelt Daten von einem einmaligen Verkauf in einen kontinuierlichen Einnahmestrom, der an die Modellleistung gebunden ist.

LazAI: Verifizierbare KI-Interaktionsdaten auf Metis

LazAI führt einen grundlegend anderen Ansatz ein – die Monetarisierung von KI-Interaktionsdaten, nicht nur statischen Datensätzen. Jedes Gespräch mit den Flaggschiff-Agenten von LazAI (Lazbubu, SoulTarot) generiert Data Anchoring Tokens (DATs), die als rückverfolgbare, verifizierbare Aufzeichnungen von KI-generierten Outputs fungieren.

Das Alpha Mainnet startete im Dezember 2025 auf einer unternehmensgerechten Infrastruktur mit QBFT-Konsens und $METIS-basiertem Settlement. DATs tokenisieren und monetarisieren KI-Datensätze und -Modelle als verifizierbare Assets mit transparentem Eigentum und Umsatzverteilung.

Warum ist das wichtig? Traditionelles KI-Training verwendet statische Datensätze, die zum Zeitpunkt der Erfassung eingefroren sind. LazAI erfasst dynamische Interaktionsdaten – Benutzeranfragen, Modellantworten, Verfeinerungsschleifen – und erstellt Trainingsdatensätze, die reale Nutzungsmuster widerspiegeln. Diese Daten sind exponentiell wertvoller für die Feinabstimmung von Modellen, da sie Signale für menschliches Feedback enthalten, die in den Gesprächsfluss eingebettet sind.

Das System umfasst drei zentrale Innovationen:

Proof-of-Stake Validator Staking sichert KI-Datenpipelines. Validatoren staken Token, um die Datenintegrität zu verifizieren, verdienen Belohnungen für eine genaue Validierung und müssen mit Strafen rechnen, wenn sie betrügerische Daten genehmigen.

DAT Minting mit Revenue Sharing ermöglicht es Nutzern, die wertvolle Interaktionsdaten generieren, DATs zu prägen (Minting), die ihre Beiträge repräsentieren. Wenn KI-Unternehmen diese Datensätze für das Modelltraining erwerben, fließen die Einnahmen basierend auf ihrem proportionalen Beitrag automatisch an alle DAT-Inhaber.

iDAO Governance etabliert dezentrale KI-Kollektive, in denen Datenbeitragende gemeinsam über On-Chain-Abstimmungen die Kuratierung von Datensätzen, Preisstrategien und Qualitätsstandards steuern.

Die Roadmap für 2026 sieht ZK-basierte Privatsphäre vor (Nutzer können Interaktionsdaten monetarisieren, ohne persönliche Informationen preiszugeben), dezentrale Rechenmärkte (das Training findet auf einer verteilten Infrastruktur statt statt in zentralisierten Clouds) sowie die Auswertung multimodaler Daten (Video-, Audio-, Bildinteraktionen über Text hinaus).

ZENi: Die Intelligence Data Layer für KI-Agenten

ZENi agiert an der Schnittstelle von Web3 und KI, indem es die „InfoFi-Ökonomie“ vorantreibt – ein dezentrales Netzwerk, das den traditionellen und blockchainbasierten Handel durch KI-gestützte Intelligenz überbrückt. Das Unternehmen sammelte 1,5 Millionen US-Dollar in einer Seed-Finanzierungsrunde unter der Leitung von Waterdrip Capital und Mindfulness Capital.

Im Kern steht der InfoFi Data Layer, eine Hochdurchsatz-Engine für Verhaltensintelligenz, die täglich über 1 Million Signale auf X / Twitter, Telegram, Discord und On-Chain-Aktivitäten verarbeitet. ZENi identifiziert Muster im Nutzerverhalten, Stimmungsschwankungen und Community-Engagement – Daten, die für das Training von KI-Agenten entscheidend, aber in großem Maßstab schwer zu erfassen sind.

Die Plattform operiert als dreiteiliges System:

AI Data Analytic Agent identifiziert Zielgruppen mit hoher Intention und Einfluss-Cluster durch die Analyse von Social Graphs, On-Chain-Transaktionen und Engagement-Metriken. Dies erstellt Verhaltensdatensätze, die nicht nur zeigen, was Nutzer tun, sondern auch, warum sie Entscheidungen treffen.

AIGC (AI-Generated Content) Agent entwirft personalisierte Kampagnen mithilfe von Erkenntnissen aus dem Data Layer. Durch das Verständnis von Nutzerpräferenzen und Community-Dynamiken generiert der Agent Inhalte, die für spezifische Zielgruppensegmente optimiert sind.

AI Execution Agent aktiviert die Reichweite über die ZENi dApp und schließt so den Kreislauf von der Datenerfassung bis zur Monetarisierung. Nutzer erhalten eine Vergütung, wenn ihre Verhaltensdaten zu erfolgreichen Kampagnen beitragen.

ZENi bedient bereits Partner in den Bereichen E-Commerce, Gaming und Web3 mit 480.000 registrierten Nutzern und 80.000 täglich aktiven Nutzern. Das Geschäftsmodell monetarisiert Verhaltensintelligenz: Unternehmen zahlen für den Zugriff auf die KI-verarbeiteten Datensätze von ZENi, und die Einnahmen fließen an die Nutzer zurück, deren Daten diese Erkenntnisse ermöglicht haben.

Der Wettbewerbsvorteil der Blockchain in Datenmärkten

Warum ist die Blockchain für die Datenmonetarisierung wichtig? Drei technische Fähigkeiten machen dezentrale Datenmärkte gegenüber zentralisierten Alternativen überlegen:

Granulare Umsatz-Zuweisung Smart Contracts ermöglichen eine ausgeklügelte Umsatzbeteiligung, bei der mehrere Mitwirkende an einem KI-Modell automatisch eine proportionale Vergütung basierend auf der Nutzung erhalten. Ein einzelner Trainingsdatensatz könnte Eingaben von 10.000 Nutzern aggregieren – die Blockchain verfolgt jeden Beitrag und verteilt Mikrozahlungen pro Modell-Inferenz.

Traditionelle Systeme können diese Komplexität nicht bewältigen. Zahlungsabwickler erheben feste Gebühren (2–3 %), die für Mikrozahlungen ungeeignet sind, und zentralisierten Plattformen mangelt es an Transparenz darüber, wer was beigetragen hat. Die Blockchain löst beides: Transaktionskosten nahe Null über Layer-2-Lösungen und unveränderliche Zuweisung über On-Chain-Provenienz.

Verifizierbare Datenherkunft Die Data Anchoring Tokens von LazAI beweisen den Datenursprung, ohne den zugrunde liegenden Inhalt offenzulegen. KI-Unternehmen, die Modelle trainieren, können verifizieren, dass sie lizenzierte, hochwertige Daten verwenden und keine abgegriffenen Webinhalte von fragwürdiger Legalität.

Dies adressiert ein kritisches Risiko: Datenschutzbestimmungen betreffen 28 % der Unternehmen und schränken die Zugänglichkeit von Datensätzen ein. Blockchainbasierte Datenmärkte implementieren datenschutzfreundliche Verifizierungen – sie beweisen Datenqualität und Lizenzierung, ohne persönliche Informationen preiszugeben.

Dezentralisiertes KI-Training Das Knotennetzwerk von Ocean Protocol demonstriert, wie verteilte Infrastrukturen Kosten senken. Anstatt Cloud-Anbietern 2–5 US-Dollar pro GPU-Stunde zu zahlen, bringen dezentrale Netzwerke ungenutzte Rechenkapazitäten (Gaming-PCs, Rechenzentren mit freien Kapazitäten) mit dem Bedarf an KI-Training zusammen – bei einer Kostensenkung von 50–85 %.

Die Blockchain koordiniert diese Komplexität durch Smart Contracts, die die Aufgabenverteilung, Zahlungsabwicklung und Qualitätsprüfung regeln. Teilnehmer staken Token, um teilzunehmen, verdienen Belohnungen für ehrliche Berechnungen und riskieren Slashing-Strafen für die Lieferung falscher Ergebnisse.

Der Weg zu 52 Milliarden US-Dollar: Marktkräfte treiben die Adaption voran

Drei konvergierende Trends beschleunigen das Wachstum des Blockchain-Datenmarktes in Richtung der Prognose von 52,41 Milliarden US-Dollar bis 2035:

Diversifizierung von KI-Modellen Die Ära der massiven Basismodelle (GPT-4, Claude, Gemini), die auf allen Internet-Texten trainiert wurden, geht zu Ende. Spezialisierte Modelle für das Gesundheitswesen, Finanzen, Rechtsdienstleistungen und vertikale Anwendungen erfordern domänenspezifische Datensätze, die von zentralisierten Plattformen nicht kuratiert werden.

Blockchain-Datenmärkte brillieren bei Nischen-Datensätzen. Ein Anbieter von medizinischen Bildgebungsverfahren kann Radiologie-Scans mit diagnostischen Anmerkungen tokenisieren, Nutzungsbedingungen festlegen, die die Zustimmung des Patienten erfordern, und Einnahmen aus jedem KI-Modell erzielen, das mit seinen Daten trainiert wurde. Dies ist mit zentralisierten Plattformen, denen es an granularer Zugriffskontrolle und Zuweisung mangelt, unmöglich umzusetzen.

Regulierungsdruck Datenschutzbestimmungen (DSGVO, CCPA, Chinas Gesetz zum Schutz persönlicher Informationen) schreiben eine einwilligungsbasierte Datenerfassung vor. Blockchainbasierte Märkte implementieren die Einwilligung als programmierbare Logik – Nutzer unterzeichnen Berechtigungen kryptografisch, auf Daten kann nur unter festgelegten Bedingungen zugegriffen werden, und Smart Contracts setzen die Compliance automatisch durch.

Der Fokus von Ocean Enterprise v1 auf Compliance adressiert dies direkt. Finanzinstitute und Gesundheitsdienstleister benötigen eine prüfbare Datenhistorie, die beweist, dass jeder für das Modelltraining verwendete Datensatz über die ordnungsgemäße Lizenzierung verfügte. Die Blockchain bietet unveränderliche Audit-Trails, die regulatorische Anforderungen erfüllen.

Qualität vor Quantität Jüngste Forschungsergebnisse zeigen, dass KI keine endlosen Trainingsdaten benötigt, wenn die Systeme biologischen Gehirnen ähnlicher werden. Dies verschiebt die Anreize von der Sammlung maximaler Datenmengen hin zur Kuratierung hochwertigster Eingaben.

Dezentrale Datenmärkte richten die Anreize richtig aus: Datenersteller verdienen mehr für qualitativ hochwertige Beiträge, da Modelle Premiumpreise für Datensätze zahlen, die die Leistung verbessern. Die Interaktionsdaten von LazAI erfassen menschliche Feedbacksignale (welche Abfragen verfeinert werden, welche Antworten die Nutzer zufriedenstellen), die statische Datensätze übersehen – was sie pro Byte inhärent wertvoller macht.

Herausforderungen: Privatsphäre, Preisgestaltung und Protokollkriege

Trotz der Dynamik stehen Blockchain-Datenmärkte vor strukturellen Herausforderungen:

Privatsphären-Paradoxon Das Training von KI erfordert Datentransparenz (Modelle benötigen Zugang zu tatsächlichen Inhalten), während Datenschutzbestimmungen eine Datenminimierung fordern. Aktuelle Lösungen wie föderiertes Lernen (Training auf verschlüsselten Daten) erhöhen die Kosten um das 3- bis 5-fache im Vergleich zum zentralisierten Training.

Zero-Knowledge-Proofs bieten einen Weg nach vorne – sie beweisen die Datenqualität, ohne den Inhalt offenzulegen –, erhöhen jedoch den Rechenaufwand. Die ZK-Roadmap von LazAI für 2026 adressiert dies, obwohl produktionsreife Implementierungen noch 12 bis 18 Monate entfernt sind.

Preisfindung Was ist eine Social-Media-Interaktion wert? Ein medizinisches Bild mit diagnostischer Annotation? Blockchain-Märkten fehlen etablierte Preismechanismen für neuartige Datentypen.

Der Ansatz des Ocean Protocols – Anbieter Preise festlegen zu lassen und die Marktdynamik den Wert bestimmen zu lassen – funktioniert für standardisierte Datensätze, hat jedoch Schwierigkeiten bei einzigartigen, proprietären Daten. Prognosemärkte oder KI-gestützte dynamische Preisgestaltung könnten dies lösen, führen jedoch beide Oracle-Abhängigkeiten (externe Preisfeeds) ein, die die Dezentralisierung untergraben.

Interoperabilitäts-Fragmentierung Das Ocean Protocol läuft auf Ethereum, LazAI auf Metis, ZENi lässt sich in mehrere Chains integrieren. Daten, die auf einer Plattform tokenisiert wurden, können nicht einfach auf eine andere übertragen werden, was die Liquidität fragmentiert.

Cross-Chain-Bridges und universelle Datenstandards (wie dezentrale Identifikatoren für Datensätze) könnten dies lösen, doch das Ökosystem befindet sich noch in einem frühen Stadium. Der Blockchain-KI-Markt, der von 680,89 Millionen imJahr2025auf4,338Milliardenim Jahr 2025 auf 4,338 Milliarden bis 2034 anwachsen soll, deutet darauf hin, dass eine Konsolidierung um die gewinnenden Protokolle noch Jahre entfernt ist.

Was das für Entwickler bedeutet

Für Teams, die KI-Anwendungen entwickeln, bieten Blockchain-Datenmärkte drei unmittelbare Vorteile:

Zugang zu proprietären Datensätzen Die über 35.000 Datensätze des Ocean Protocols umfassen proprietäre Trainingsdaten, die über herkömmliche Kanäle nicht verfügbar sind. Medizinische Bildgebung, Finanztransaktionen, Verhaltensanalysen von Web3-Anwendungen – spezialisierte Datensätze, die von zentralisierten Plattformen nicht kuratiert werden.

Compliance-fähige Infrastruktur Die integrierte Lizenzierung, das Einwilligungsmanagement und die Audit-Trails von Ocean Enterprise v1 lösen regulatorische Probleme. Anstatt eigene Data-Governance-Systeme zu entwickeln, übernehmen Entwickler „Compliance by Design“ durch Smart Contracts, die Datennutzungsbedingungen erzwingen.

Kostensenkung Dezentrale Rechennetzwerke unterbieten Cloud-Anbieter bei Batch-Training-Workloads um 50 bis 85 %. Die Partnerschaft von Ocean mit NetMind (2.000 GPUs) und Aethir zeigt, wie tokenisierte GPU-Marktplätze Angebot und Nachfrage zu geringeren Kosten als AWS / GCP / Azure zusammenführen.

BlockEden.xyz bietet RPC-Infrastruktur auf Enterprise-Niveau für Blockchain-basierte KI-Anwendungen. Unabhängig davon, ob Sie auf Ethereum (Ocean Protocol), Metis (LazAI) oder Multi-Chain-Plattformen aufbauen, gewährleisten unsere zuverlässigen Node-Services, dass Ihre KI-Datenpipelines online und leistungsfähig bleiben. Erkunden Sie unseren API-Marktplatz, um Ihre KI-Systeme mit für Skalierung ausgelegten Blockchain-Netzwerken zu verbinden.

Der Wendepunkt 2026

Drei Katalysatoren positionieren 2026 als das Jahr des Wendepunkts für Blockchain-Datenmärkte:

Produktionsstart von Ocean Enterprise v1 (Q3 2025) Der erste konforme Datenmarktplatz auf institutionellem Niveau geht live. Wenn Ocean auch nur 5 % des Marktes für KI-Trainingsdatensätze von 7,48 Milliarden imJahr2026erobert,fließen374Millionenim Jahr 2026 erobert, fließen 374 Millionen an Datentransaktionen durch Blockchain-basierte Infrastrukturen.

LazAI ZK-Privatsphären-Implementierung (2026) Zero-Knowledge-Proofs ermöglichen es Nutzern, Interaktionsdaten zu monetarisieren, ohne die Privatsphäre zu gefährden. Dies erschließt die Akzeptanz im Massenmarkt – Hunderte Millionen von Social-Media-Nutzern, Suchmaschinenanfragen und E-Commerce-Sitzungen werden durch DATs monetarisierbar.

Integration von föderiertem Lernen KI-gestütztes föderiertes Lernen ermöglicht Modelltraining ohne Zentralisierung der Daten. Blockchain fügt die Wertzuweisung hinzu: Anstatt dass Google Modelle auf Android-Nutzerdaten ohne Entschädigung trainiert, verteilen föderierte Systeme, die auf der Blockchain laufen, die Einnahmen an alle Datenlieferanten.

Diese Konvergenz bedeutet, dass sich das KI-Training von „alle Daten sammeln, zentral trainieren, nichts bezahlen“ hin zu „auf verteilten Daten trainieren, Mitwirkende entschädigen, Herkunft verifizieren“ verschiebt. Die Blockchain ermöglicht diesen Übergang nicht nur – sie ist der einzige Technologie-Stack, der in der Lage ist, Millionen von Datenanbietern mit automatischer Umsatzverteilung und kryptografischer Verifizierung zu koordinieren.

Fazit: Daten werden programmierbar

Das Wachstum des Marktes für KI-Trainingsdaten von 3,59 Milliarden imJahr2025auf23bis52Milliardenim Jahr 2025 auf 23 bis 52 Milliarden bis 2034 stellt mehr als nur eine Marktexpansion dar. Es ist eine fundamentale Verschiebung in der Art und Weise, wie wir Informationen bewerten.

Das Ocean Protocol beweist, dass Daten wie Finanzanlagen tokenisiert, bepreist und gehandelt werden können, während die Kontrolle der Anbieter gewahrt bleibt. LazAI zeigt, dass KI-Interaktionsdaten – die früher als flüchtig verworfen wurden – zu wertvollen Trainingseingaben werden, wenn sie ordnungsgemäß erfasst und verifiziert werden. ZENi zeigt, dass Verhaltensintelligenz extrahiert, von KI verarbeitet und über dezentrale Märkte monetarisiert werden kann.

Zusammen transformieren diese Plattformen Daten von einem Rohmaterial, das von Tech-Giganten extrahiert wird, in eine programmierbare Asset-Klasse, bei der die Schöpfer den Wert abschöpfen. Die globale Datenexplosion von 33 auf 175 Zettabyte ist nur dann von Bedeutung, wenn Qualität die Quantität schlägt – und Blockchain-basierte Märkte richten Anreize so aus, dass hochwertige Beiträge belohnt werden.

Wenn Datenersteller Einnahmen proportional zu ihren Beiträgen erzielen, wenn KI-Unternehmen faire Preise für hochwertige Inputs zahlen und wenn Smart Contracts die Zuordnung über Millionen von Teilnehmern automatisieren, lösen wir nicht nur das Problem der Datenpreisgestaltung. Wir bauen eine Wirtschaft auf, in der Informationen einen intrinsischen Wert haben, die Herkunft überprüfbar ist und die Mitwirkenden endlich den Wohlstand abschöpfen, den ihre Daten generieren.

Das ist kein Markttrend. Es ist ein Paradigmenwechsel – und er ist bereits On-Chain live.

Der Aufstieg pragmatischer Privatsphäre: Compliance und Vertraulichkeit in der Blockchain in Einklang bringen

· 17 Min. Lesezeit
Dora Noda
Software Engineer

Die Blockchain-Branche steht an einem Wendepunkt, an dem Privatsphäre keine binäre Entscheidung mehr ist. In den Anfangsjahren von Krypto war das Narrativ klar: absolute Privatsphäre um jeden Preis, Transparenz nur wenn nötig und Widerstand gegen jede Form von Überwachung. Doch im Jahr 2026 ist ein tiefgreifender Wandel im Gange. Der Aufstieg der dezentralen pragmatischen KI (DePAI)-Infrastruktur signalisiert eine neue Ära, in der regulierungsfreundliche Privatsphäre-Tools nicht nur akzeptiert werden – sie werden zum Standard.

Dies ist kein Rückzug von den Grundsätzen der Privatsphäre. Es ist eine Entwicklung hin zu einem differenzierteren Verständnis: Privatsphäre und die Einhaltung regulatorischer Vorschriften (Compliance) können koexistieren und müssen es tatsächlich auch, wenn Blockchain und KI eine institutionelle Akzeptanz in großem Maßstab erreichen sollen.

Das Ende von „Privatsphäre um jeden Preis“

Jahrelang dominierte der Privatsphäre-Maximalismus den Blockchain-Diskurs. Projekte wie Monero und frühe Versionen von privatsphäre-orientierten Protokollen setzten auf absolute Anonymität. Die Philosophie war einfach: Nutzer verdienen vollständige finanzielle Privatsphäre, und jeder Kompromiss stellte einen Verrat an den Gründungsprinzipien von Krypto dar.

Doch diese absolutistische Haltung schuf ein kritisches Problem. Während Privatsphäre unerlässlich ist, um ehrliche Nutzer vor Überwachung und Front-Running zu schützen, wurde sie auch zu einem Schutzschild für illegale Aktivitäten. Regulatoren weltweit begannen, Privacy Coins mit Misstrauen zu begegnen, was zu Delistings an großen Börsen und vollständigen Verboten in mehreren Jurisdiktionen führte.

Wie Cointelegraph berichtet, ist 2026 das Jahr, in dem pragmatische Privatsphäre durchstartet, mit neuen Projekten, die konforme Formen der Privatsphäre für Institutionen angehen, und wachsendem Interesse an bestehenden Privacy Coins wie Zcash. Die wichtigste Erkenntnis: Privatsphäre ist nicht binär. Weder vollständige Transparenz noch absolute Privatsphäre sind in der realen Welt praktikabel, denn während Privatsphäre für ehrliche Nutzer unerlässlich ist, kann sie auch von Kriminellen genutzt werden, um der Strafverfolgung zu entgehen.

Die Menschen beginnen zu akzeptieren, Kompromisse einzugehen, die die Privatsphäre in begrenzten Kontexten einschränken, um Protokolle widerstandsfähiger gegen Bedrohungen zu machen. Dies stellt einen grundlegenden Wandel im Ansatz der Blockchain-Community zum Thema Privatsphäre dar.

Definition von pragmatischer Privatsphäre

Was genau ist also pragmatische Privatsphäre? Laut Anaptyss bezieht sich pragmatische Privatsphäre auf die strategische Implementierung von Privatsphäre-Maßnahmen, die Nutzer- und Geschäftsdaten schützen, ohne regulatorische Anforderungen zu verletzen, und so sicherstellen, dass Finanzgeschäfte sowohl sicher als auch regelkonform sind.

Dieser Ansatz erkennt an, dass verschiedene Teilnehmer im Blockchain-Ökosystem unterschiedliche Bedürfnisse an die Privatsphäre haben:

  • Privatanwender benötigen Schutz vor Massenüberwachung und Daten-Harvesting
  • Institutionelle Investoren benötigen Vertraulichkeit, um Front-Running ihrer Handelsstrategien zu verhindern
  • Unternehmen müssen strenge AML / KYC-Vorgaben erfüllen und gleichzeitig sensible Geschäftsinformationen schützen
  • KI-Agenten benötigen verifizierbare Berechnungen, ohne proprietäre Algorithmen oder Trainingsdaten preiszugeben

Die Lösung liegt nicht darin, sich zwischen Privatsphäre und Compliance zu entscheiden, sondern darin, eine Infrastruktur aufzubauen, die beides gleichzeitig ermöglicht.

zkKYC: Privatsphärenschonende Identitätsprüfung

Eine der vielversprechendsten Entwicklungen in der pragmatischen Privatsphäre ist das Aufkommen von Zero-Knowledge Know Your Customer (zkKYC)-Lösungen. Traditionelle KYC-Prozesse verlangen von den Nutzern, sensible persönliche Dokumente wiederholt an mehrere Plattformen zu übermitteln, was zahlreiche Honeypots für personenbezogene Daten schafft, die anfällig für Sicherheitsverletzungen sind.

zkKYC kehrt dieses Modell um. Wie zkMe erklärt, kombiniert ihr zkKYC-Dienst die Zero-Knowledge Proof (ZKP)-Technologie mit vollständiger FATF-Compliance. Ein regulierter KYC-Anbieter verifiziert den Nutzer off-chain nach Standard-AML- und Identitätsprüfungsverfahren, aber die Protokolle erfassen keine Identitätsdaten. Stattdessen verifizieren sie die Einhaltung kryptografisch.

Der Mechanismus ist elegant: Smart Contracts prüfen automatisch einen Zero-Knowledge-Proof, bevor sie den Zugriff auf bestimmte Dienste erlauben oder große Transaktionen verarbeiten. Nutzer beweisen, dass sie die Compliance-Anforderungen erfüllen – Alter, Wohnsitz, Status auf keiner Sanktionsliste –, ohne tatsächliche Identitätsdaten an das Protokoll oder andere Nutzer preiszugeben.

Laut Studio AM geschieht dies bereits in einigen Blockchain-Ökosystemen: Nutzer weisen ihr Alter oder ihren Wohnsitz mit einem ZKP nach, bevor sie auf bestimmte dezentrale Finanzdienste (DeFi) zugreifen. Große Finanzinstitute werden darauf aufmerksam. Die Deutsche Bank und Privado ID haben Proof of Concepts durchgeführt, die eine Blockchain-basierte Identitätsverifizierung unter Verwendung von Zero-Knowledge-Anmeldedaten demonstrieren.

Am bedeutendsten ist vielleicht, dass Google im Juli 2025 nach der Zusammenarbeit mit der deutschen Sparkassen-Finanzgruppe seine Zero-Knowledge-Proof-Bibliotheken als Open Source zur Verfügung gestellt hat, was auf wachsende institutionelle Investitionen in eine privatsphärenschonende Identitätsinfrastruktur hindeutet.

zkTLS: Das Web verifizierbar machen

Während zkKYC die Identitätsverifizierung adressiert, löst eine andere Technologie ein ebenso kritisches Problem: wie man verifizierbare Web2-Daten in Blockchain-Systeme bringt, ohne den Datenschutz oder die Sicherheit zu gefährden. Vorhang auf für zkTLS (Zero-Knowledge Transport Layer Security).

Traditionelles TLS – die Verschlüsselung, die jede HTTPS-Verbindung sichert – hat eine entscheidende Einschränkung: Es bietet Vertraulichkeit, aber keine Verifizierbarkeit. Mit anderen Worten: Während TLS sicherstellt, dass Informationen während der Übertragung verschlüsselt sind, erzeugt es keinen Beweis dafür, dass die verschlüsselte Interaktion auf eine Weise stattgefunden hat, die unabhängig verifiziert werden kann.

zkTLS löst dies, indem es Zero-Knowledge-Proofs in das TLS-Verschlüsselungssystem integriert. Durch die Verwendung von MPC-TLS und Zero-Knowledge-Techniken ermöglicht zkTLS einem Client, kryptografisch verifizierbare Beweise und Attestierungen von echten HTTPS-Sitzungen zu erstellen.

Wie zkPass es beschreibt, generiert zkTLS einen Zero-Knowledge-Proof (z. B. zk-SNARK), der bestätigt, dass Daten von einem bestimmten Server (identifiziert durch seinen öffentlichen Schlüssel und seine Domain) über eine legitime TLS-Sitzung abgerufen wurden, ohne den Sitzungsschlüssel oder die Klartextdaten preiszugeben.

Die Auswirkungen sind tiefgreifend. Traditionelle APIs können leicht deaktiviert oder zensiert werden, während zkTLS sicherstellt, dass Nutzer weiterhin auf ihre Daten zugreifen können, solange sie über eine HTTPS-Verbindung verfügen. Dies ermöglicht es, praktisch alle Web2-Daten auf einer Blockchain auf verifizierbare und erlaubnisfreie Weise zu nutzen.

Jüngste Implementierungen demonstrieren die Reife der Technologie. Der zkTLS-Coprozessor von Brevis beweist beim Abrufen von Daten aus einer Webquelle, dass der Inhalt über eine echte TLS-Sitzung von der authentischen Domain abgerufen wurde und dass die Daten nicht manipuliert wurden.

Auf der FOSDEM 2026 präsentierte das TLSNotary-Projekt die Befreiung von Nutzerdaten mit zkTLS und demonstrierte, wie Nutzer Fakten über ihre privaten Daten – Kontostände, Kredit-Scores, Transaktionsverläufe – beweisen können, ohne die zugrunde liegenden Informationen offenzulegen.

Verifizierbare KI-Berechnung: Das fehlende Puzzleteil für die institutionelle Adoption

Datenschutzwahrende Identitäts- und Datenverifizierung bereiten den Weg, aber das transformativste Element der DePAI-Infrastruktur ist die verifizierbare KI-Berechnung. Da KI-Agenten zu wirtschaftlich aktiven Teilnehmern in Blockchain-Ökosystemen werden, verlagert sich die Frage von „Kann die KI das tun?“ zu „Können Sie beweisen, dass die KI dies korrekt getan hat?“.

Diese Verifizierungsanforderung ist nicht akademisch. Laut DecentralGPT reicht Leistung allein nicht aus, wenn KI Teil von Finanz-, Automatisierungs- und Agenten-Workflows wird. In Web3 lautet die Frage auch: Können Sie beweisen, was passiert ist? Ende Dezember 2025 schlossen sich Cysic und Inference Labs zusammen, um eine skalierbare Infrastruktur für verifizierbare KI-Anwendungen aufzubauen, die dezentrales Computing mit Verifizierungs-Frameworks kombiniert, die für reale Anwendungen entwickelt wurden.

Die institutionelle Notwendigkeit für verifizierbare Berechnungen ist klar. Wie in einer Analyse von Alexis M. Adams festgestellt wurde, ist der Übergang zu einer deterministischen KI-Infrastruktur der einzige gangbare Weg für Organisationen, um die multijurisdiktionellen Anforderungen des EU AI Act, der US-Gesetze auf Bundesstaatsebene für Frontier-KI und der steigenden Erwartungen des Cyber-Versicherungsmarktes zu erfüllen.

Der globale Markt für KI-Governance spiegelt diese Dringlichkeit wider: Mit einem Wert von etwa 429,8 Millionen imJahr2026wirderlautderselbenAnalysebis2033voraussichtlich4,2Milliardenim Jahr 2026 wird er laut derselben Analyse bis 2033 voraussichtlich 4,2 Milliarden erreichen.

Aber die Verifizierung steht vor einer kritischen Lücke. Wie Keyrus feststellt, erfordert der KI-Einsatz Vertrauen in digitale Identitäten, aber Unternehmen können nicht validieren, wer – oder was – KI-Systeme tatsächlich bedient. Wenn Organisationen legitime KI-Agenten nicht zuverlässig von gegnerisch kontrollierten Betrügern unterscheiden können, können sie KI-Systemen nicht vertrauensvoll Zugang zu sensiblen Daten oder Entscheidungsbefugnissen gewähren.

Hier schafft die Konvergenz von zkKYC, zkTLS und verifizierbarer Berechnung eine vollständige Lösung. KI-Agenten können ihre Identität beweisen (zkKYC), beweisen, dass sie Daten korrekt von autorisierten Quellen abgerufen haben (zkTLS), und beweisen, dass sie Ergebnisse korrekt berechnet haben (verifizierbare Berechnung) – und das alles, ohne sensible Geschäftslogik oder Trainingsdaten offenzulegen.

Der institutionelle Vorstoß zur Compliance

Diese Technologien entstehen nicht in einem Vakuum. Die institutionelle Nachfrage nach konformer Datenschutz-Infrastruktur beschleunigt sich, angetrieben durch regulatorischen Druck und geschäftliche Notwendigkeiten.

Große Finanzinstitute erkennen, dass ihre Blockchain-Strategien ohne Datenschutz ins Stocken geraten werden. Laut WEEX Crypto News benötigen institutionelle Investoren Vertraulichkeit, um Front-Running ihrer Strategien zu verhindern, müssen jedoch gleichzeitig strenge AML / KYC-Mandate erfüllen. Zero-Knowledge-Proofs gewinnen als Lösung an Bedeutung, da sie es Institutionen ermöglichen, Compliance nachzuweisen, ohne sensible zugrunde liegende Daten der öffentlichen Blockchain preiszugeben.

Die Regulierungslandschaft von 2026 lässt keinen Raum für Unklarheiten. Der EU AI Act tritt 2026 in die allgemeine Anwendung, und Regulierungsbehörden über verschiedene Gerichtsbarkeiten hinweg erwarten dokumentierte Governance-Programme, nicht nur Richtlinien, so SecurePrivacy.ai. Die vollständige Durchsetzung gilt für hochriskante KI-Systeme, die in kritischen Infrastrukturen, im Bildungswesen, im Beschäftigungssektor, in wesentlichen Dienstleistungen und in der Strafverfolgung eingesetzt werden.

In den Vereinigten Staaten setzten bis Ende 2025 19 Bundesstaaten umfassende Datenschutzgesetze durch, wobei 2026 mehrere neue Statuten in Kraft treten, was die Compliance-Verpflichtungen für den Datenschutz über mehrere Bundesstaaten hinweg erschwert. Colorado und Kalifornien haben „neurale Daten“ (und Colorado zusätzlich „biologische Daten“) zu den Definitionen „sensibler“ Daten hinzugefügt, wie von Nixon Peabody berichtet.

Diese regulatorische Konvergenz schafft einen starken Anreiz: Organisationen, die auf einer konformen, verifizierbaren Infrastruktur aufbauen, gewinnen einen Wettbewerbsvorteil, während diejenigen, die am Datenschutz-Maximalismus festhalten, von institutionellen Märkten ausgeschlossen werden.

Datenintegrität als Betriebssystem für KI

Über Compliance hinaus ermöglicht die verifizierbare Berechnung etwas Grundlegenderes: Datenintegrität als Betriebssystem für eine verantwortungsbewusste KI.

Wie Precisely anmerkt, wird Governance im Jahr 2026 nichts mehr sein, was Organisationen nach der Bereitstellung hinzufügen – sie wird von Anfang an in die Strukturierung, Interpretation und Überwachung von Daten integriert sein. Datenintegrität wird als Betriebssystem für verantwortungsbewusste KI dienen. Von semantischer Klarheit und Erklärbarkeit bis hin zu Compliance, Auditierbarkeit und Kontrolle über KI-generierte Daten – die Integrität wird entscheiden, ob KI sicher skalieren und dauerhaften Wert liefern kann.

Dieser Wandel hat tiefgreifende Auswirkungen darauf, wie KI-Agenten in Blockchain-Netzwerken agieren. Anstatt undurchsichtiger Blackboxes werden KI-Systeme durch Design auditierbar, verifizierbar und steuerbar. Smart Contracts können Beschränkungen für das Verhalten der KI durchsetzen, die Korrektheit von Berechnungen verifizieren und unveränderliche Audit-Trails erstellen – und das alles unter Wahrung der Privatsphäre proprietärer Algorithmen und Trainingsdaten.

Die MIT Sloan Management Review identifiziert dies als einen der fünf wichtigsten Trends in den Bereichen KI und Data Science für 2026, wobei betont wird, dass vertrauenswürdige KI eine verifizierbare Herkunft (Provenance) und erklärbare Entscheidungsprozesse erfordert.

Dezentrale Identität: Die Basisschicht

Diesen Technologien liegt ein umfassenderer Wandel hin zu dezentraler Identität und Verifiable Credentials zugrunde. Wie Indicio erklärt, ändert die dezentrale Identität die Ausgangslage – anstatt persönliche Daten an einem zentralen Ort zu verifizieren, besitzen Einzelpersonen ihre Daten und teilen sie mit einer Zustimmung, die mithilfe von Kryptografie unabhängig verifiziert werden kann.

Dieses Modell kehrt traditionelle Identitätssysteme um. Anstatt zahlreiche Kopien von Identitätsdokumenten verstreut in Datenbanken zu erstellen, führen Nutzer einen einzigen verifizierbaren Berechtigungsnachweis (Verifiable Credential) und legen selektiv nur die spezifischen Attribute offen, die für die jeweilige Interaktion erforderlich sind.

Für KI-Agenten erstreckt sich dieses Modell über die menschliche Identität hinaus. Agenten können über verifizierbare Berechtigungsnachweise verfügen, die ihre Trainingsherkunft, Betriebsparameter, Prüfhistorie und ihren Autorisierungsumfang bestätigen. Dies schafft einen Vertrauensrahmen, in dem Agenten autonom interagieren können und dennoch rechenschaftspflichtig bleiben.

Vom Experimentieren zum Einsatz

Die entscheidende Transformation im Jahr 2026 ist der Übergang von theoretischen Rahmenbedingungen zu produktiven Einsätzen. Laut der Analyse von XT Exchange wird dezentrale KI bis 2026 über das Experimentierstadium hinausgehen und in den praktischen Einsatz übergehen. Es bestehen jedoch weiterhin wesentliche Einschränkungen, darunter die Skalierung von KI-Workloads, die Wahrung des Datenschutzes und die Steuerung offener KI-Systeme.

Diese Einschränkungen sind genau das, was die DePAI-Infrastruktur adressiert. Durch die Kombination von zkKYC für die Identität, zkTLS für die Datenverifizierung und verifizierbarer Berechnung für KI-Operationen schafft die Infrastruktur einen vollständigen Stack für die Bereitstellung von KI-Agenten, die gleichzeitig:

  • Die Privatsphäre von Nutzern und Unternehmen wahren
  • Regulatorische Anforderungen erfüllen
  • Durch Design verifizierbar und auditierbar sind
  • Für institutionelle Workloads skalierbar sind

Der Weg nach vorn: Aufbau einer komponierbaren Privatsphäre

Das letzte Puzzleteil von DePAI ist die Komponierbarkeit (Composability). Wie Blockmanity berichtet, markiert 2026 den Moment, in dem Blockchain „einfach nur die Infrastruktur“ (Plumbing) für KI-Agenten und das globale Finanzwesen wird. Die Infrastruktur muss modular, interoperabel und für Endnutzer unsichtbar sein.

Pragmatische Datenschutz-Tools zeichnen sich durch Komponierbarkeit aus. Ein KI-Agent kann:

  1. Sich mit zkKYC-Zugangsdaten authentifizieren
  2. Verifizierte externe Daten über zkTLS abrufen
  3. Berechnungen mit verifizierbarer Inferenz (Verifiable Inference) durchführen
  4. Ergebnisse On-Chain mit Zero-Knowledge-Proofs der Korrektheit einreichen
  5. Audit-Trails pflegen, ohne sensible Logik offenzulegen

Jede Ebene arbeitet unabhängig, sodass Entwickler datenschutzfreundliche Technologien basierend auf spezifischen Anforderungen kombinieren können. Ein DeFi-Protokoll könnte zkKYC für das Benutzer-Onboarding, zkTLS für das Abrufen von Preis-Feeds und verifizierbare Berechnung für komplexe Finanzkalkulationen erfordern – und alles arbeitet nahtlos zusammen.

Diese Komponierbarkeit erstreckt sich über verschiedene Chains hinweg. Eine Datenschutz-Infrastruktur, die mit Interoperabilitätsstandards erstellt wurde, kann auf Ethereum, Solana, Sui, Aptos und anderen Blockchain-Netzwerken funktionieren und so eine universelle Ebene für konforme, private und verifizierbare Berechnungen schaffen.

Warum dies für Entwickler wichtig ist

Für Entwickler, die die nächste Generation von Blockchain-Anwendungen bauen, stellt die DePAI-Infrastruktur sowohl eine Chance als auch eine Anforderung dar.

Die Chance: Der First-Mover-Vorteil beim Aufbau von Anwendungen, die Institutionen tatsächlich nutzen wollen. Finanzinstitute, Gesundheitsdienstleister, Regierungsbehörden und Unternehmen benötigen alle Blockchain-Lösungen, können aber keine Kompromisse bei Compliance oder Datenschutz eingehen. Anwendungen, die auf einer pragmatischen Datenschutz-Infrastruktur basieren, können diese Märkte bedienen.

Die Anforderung: Regulatorische Rahmenbedingungen konvergieren hin zu Mandaten für verifizierbare, steuerbare KI-Systeme. Anwendungen, die keine Compliance, Auditierbarkeit und den Schutz der Privatsphäre der Nutzer nachweisen können, werden von regulierten Märkten ausgeschlossen sein.

Die technischen Möglichkeiten reifen schnell heran. zkKYC-Lösungen sind produktionsreif, wobei große Finanzinstitute Pilotprojekte durchführen. zkTLS-Implementierungen verarbeiten reale Daten. Frameworks für verifizierbare Berechnungen skalieren, um institutionelle Workloads zu bewältigen.

Was jetzt benötigt wird, ist die Akzeptanz durch die Entwickler. Der Übergang von experimentellen Datenschutz-Tools zur Produktionsinfrastruktur erfordert, dass Entwickler diese Technologien in Anwendungen integrieren, sie in realen Szenarien testen und den Infrastrukturteams Feedback geben.

BlockEden.xyz bietet eine Enterprise-Grade RPC-Infrastruktur für Blockchain-Netzwerke, die datenschutzfreundliche Technologien implementieren. Erkunden Sie unsere Dienste, um auf Fundamenten aufzubauen, die für die DePAI-Ära konzipiert sind.

Fazit: Die pragmatische Zukunft der Privatsphäre

Die DePAI - Explosion im Jahr 2026 stellt mehr als nur technologischen Fortschritt dar. Sie signalisiert eine Reifung der Beziehung der Blockchain zu Privatsphäre, Compliance und institutioneller Adoption.

Die Branche bewegt sich über ideologische Kämpfe zwischen Datenschutz - Maximalisten und Transparenz - Absolutisten hinaus. Pragmatische Privatsphäre erkennt an, dass unterschiedliche Kontexte unterschiedliche Datenschutzgarantien erfordern und dass regulatorische Compliance und Nutzersphäre durch durchdachtes kryptografisches Design koexistieren können.

zkKYC beweist die Identität, ohne sie offenzulegen. zkTLS verifiziert Daten, ohne auf Intermediäre vertrauen zu müssen. Verifizierbare Berechnungen (Verifiable Computation) beweisen die Korrektheit, ohne Algorithmen preiszugeben. Zusammen schaffen diese Technologien eine Infrastrukturschicht, in der KI - Agenten autonom agieren können, Unternehmen Blockchain vertrauensvoll einführen können und Nutzer die Kontrolle über ihre Daten behalten.

Dies ist kein Kompromiss bei den Datenschutzprinzipien. Es ist die Erkenntnis, dass Privatsphäre, um bedeutungsvoll zu sein, innerhalb der regulatorischen und geschäftlichen Realitäten des globalen Finanzwesens tragfähig sein muss. Absolute Privatsphäre, die verboten, von Börsen genommen (delisted) und von der institutionellen Nutzung ausgeschlossen wird, schützt niemanden. Pragmatische Privatsphäre, die sowohl Vertraulichkeit als auch Compliance ermöglicht, löst das Versprechen der Blockchain tatsächlich ein.

Die Entwickler, die diesen Wandel erkennen und heute auf der DePAI - Infrastruktur aufbauen, werden die nächste Ära dezentraler Anwendungen definieren. Die Werkzeuge sind bereit. Die institutionelle Nachfrage ist klar. Das regulatorische Umfeld kristallisiert sich heraus. 2026 ist das Jahr, in dem pragmatische Privatsphäre von der Theorie in den Einsatz übergeht — und die Blockchain - Industrie wird dadurch gestärkt hervorgehen.


Quellen

DePINs Wandel zum Unternehmen: Von der Token-Spekulation zur 166 Mio. $ ARR Realität

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Wenn das Weltwirtschaftsforum prognostiziert, dass ein Sektor von 19 Milliarden bis2028auf3,5Billionenbis 2028 auf 3,5 Billionen anwachsen wird, sollte man aufhorchen. Wenn derselbe Sektor 166 Millionen $ an jährlich wiederkehrenden Umsätzen (ARR) von echten Unternehmenskunden generiert – und nicht aus Token-Emissionen –, ist es an der Zeit, ihn nicht länger als Krypto-Hype abzutun.

Decentralized Physical Infrastructure Networks (DePIN) haben im Stillen eine fundamentale Transformation durchlaufen. Während Spekulanten Memecoins jagen, bauen einige DePIN-Projekte Milliarden-Dollar-Unternehmen auf, indem sie das liefern, was zentralisierte Cloud-Anbieter nicht können: 60-80 % Kosteneinsparungen bei Zuverlässigkeit auf Produktionsniveau. Der Wandel vom Tokenomics-Theater hin zur Enterprise-Infrastruktur schreibt das Wertversprechen der Blockchain neu – und die traditionellen Cloud-Giganten werden aufmerksam.

Die 3,5 Billionen $-Chance, die direkt vor unseren Augen liegt

Die Zahlen erzählen eine Geschichte, die die meisten Krypto-Investoren übersehen haben. Das DePIN-Ökosystem expandierte von 5,2 Milliarden Marktkapitalisierung(September2024)auf19,2MilliardenMarktkapitalisierung (September 2024) auf 19,2 Milliarden bis September 2025 – ein Anstieg von 269 %, der in einer Branche, die von Layer-1-Narrativen besessen ist, kaum Schlagzeilen machte. Fast 250 erfasste Projekte erstrecken sich nun über sechs Vertikalen: Compute, Speicher, Wireless, Energie, Sensoren und Bandbreite.

Aber die Marktkapitalisierung ist eine Ablenkung. Die wahre Geschichte ist die Umsatzdichte. DePIN-Projekte generieren heute geschätzte 72 Millionen $ an jährlichen On-Chain-Umsätzen im gesamten Sektor und werden mit dem 10- bis 25-fachen des Umsatzes bewertet – eine dramatische Komprimierung gegenüber den über 1.000-fachen Bewertungen des Zyklus von 2021. Dies ist nicht nur Bewertungsdisziplin, sondern ein Beleg für die Reifung grundlegender Geschäftsmodelle.

Die Prognose des Weltwirtschaftsforums von 3,5 Billionen $ für 2028 basiert nicht auf Träumen über Token-Preise. Sie spiegelt die Konvergenz dreier massiver Infrastruktur-Verschiebungen wider:

  1. Explosion der KI-Rechennachfrage: Es wird prognostiziert, dass Machine-Learning-Workloads bis 2030 24 % des US-Stroms verbrauchen werden, was eine unersättliche Nachfrage nach verteilten GPU-Netzwerken schafft.
  2. Ökonomie des 5G/6G-Ausbaus: Telekommunikationsbetreiber müssen Edge-Infrastrukturen mit der 10-fachen Dichte von 4G-Netzwerken bereitstellen, jedoch bei geringeren Investitionsausgaben pro Standort.
  3. Cloud-Kosten-Rebellion: Unternehmen hinterfragen endlich, warum AWS, Azure und Google Cloud Aufschläge von 30-70 % auf Commodity-Compute und -Speicher erheben.

DePIN wird die zentralisierte Infrastruktur nicht morgen ersetzen. Aber wenn Aethir 1,5 Milliarden Rechenstunden an über 150 Unternehmenskunden liefert und Helium Partnerschaften mit T-Mobile, AT&T und Telefónica unterzeichnet, bricht das Narrativ der „experimentellen Technologie“ in sich zusammen.

Von Airdrops zu jährlich wiederkehrenden Umsätzen (ARR)

Die Transformation des DePIN-Sektors lässt sich am besten am Beispiel tatsächlicher Unternehmen verstehen, die achtstellige Umsätze generieren, und nicht an Token-Inflationsmodellen, die sich als wirtschaftliche Aktivität tarnen.

Aethir: Das GPU-Kraftwerk

Aethir ist nicht nur der größte DePIN-Umsatzgenerator – es schreibt die Ökonomie des Cloud Computings neu. 166 Millionen $ ARR bis zum 3. Quartal 2025, generiert aus über 150 zahlenden Unternehmenskunden in den Bereichen KI-Training, Inferenz, Gaming und Web3-Infrastruktur. Dies ist kein theoretischer Durchsatz; es handelt sich um Abrechnungen von Kunden wie KI-Modell-Trainingsbetrieben, Gaming-Studios und KI-Agenten-Plattformen, die eine garantierte Rechenverfügbarkeit benötigen.

Die Skalierung ist atemberaubend: Über 440.000 GPU-Container, die in 94 Ländern eingesetzt werden und über 1,5 Milliarden Rechenstunden liefern. Zum Vergleich: Das ist mehr Umsatz als bei Filecoin (135-mal größer nach Marktkapitalisierung), Render (455-mal) und Bittensor (14-mal) zusammen – gemessen an der Effizienz von Umsatz zu Marktkapitalisierung.

Die Enterprise-Strategie von Aethir zeigt, warum DePIN gegen zentralisierte Clouds gewinnen kann: 70 % Kostenersparnis gegenüber AWS bei gleichzeitiger Einhaltung von SLA-Garantien, die traditionelle Infrastrukturanbieter neidisch machen würden. Durch die Aggregation ungenutzter GPUs aus Rechenzentren, Gaming-Cafés und Enterprise-Hardware schafft Aethir einen angebotsseitigen Marktplatz, der die Hyperscaler beim Preis unterbietet und bei der Leistung gleichzieht.

Die Ziele für das 1. Quartal 2026 sind noch ehrgeiziger: Verdoppelung des globalen Compute-Footprints, um die beschleunigte Nachfrage nach KI-Infrastruktur zu decken. Partnerschaften mit der Filecoin Foundation (für die Integration von permanentem Speicher) und großen Cloud-Gaming-Plattformen positionieren Aethir als das erste DePIN-Projekt, das eine echte Enterprise-Stickiness erreicht – mit wiederkehrenden Verträgen statt einmaliger Protokoll-Interaktionen.

Grass: Das Datenerfassungs-Netzwerk

Während Aethir Rechenleistung monetarisiert, beweist Grass die Flexibilität von DePIN über verschiedene Infrastrukturkategorien hinweg. 33 Millionen $ ARR aus einem fundamental anderen Wertversprechen: dezentrales Web-Scraping und Datensammlung für KI-Trainings-Pipelines.

Grass hat die Bandbreite der Verbraucher in ein handelsfähiges Gut verwandelt. Benutzer installieren einen leichtgewichtigen Client, der Anfragen für KI-Trainingsdaten über ihre privaten IP-Adressen leitet und so das Problem der „Anti-Bot-Erkennung“ löst, das zentralisierte Scraping-Dienste plagt. KI-Unternehmen zahlen Premium-Preise für den Zugriff auf saubere, geografisch diverse Trainingsdaten, ohne Ratenbegrenzungen oder CAPTCHA-Hürden auszulösen.

Die Ökonomie geht auf, weil Grass Margen abschöpft, die sonst an Proxy-Dienstleister (Bright Data, Smartproxy) fließen würden, während es gleichzeitig eine bessere Abdeckung bietet. Für die Nutzer ist es ein passives Einkommen aus ungenutzter Bandbreite. Für KI-Labore ist es ein zuverlässiger Zugang zu webbasierten Daten mit 50-60 % Kosteneinsparung.

Bittensor: Dezentrale Märkte für Intelligenz

Der Ansatz von Bittensor unterscheidet sich grundlegend von Infrastructure-as-a-Service-Modellen. Anstatt Rechenleistung oder Bandbreite zu verkaufen, monetarisiert es KI-Modell-Outputs über einen Marktplatz spezialisierter „Subnets“ – jedes konzentriert auf spezifische Machine-Learning-Aufgaben wie Bildgenerierung, Textvervollständigung oder prädiktive Analysen.

Bis September 2025 generieren über 128 aktive Subnets kollektiv einen **Jahresumsatz von etwa 20 Millionen ,wobeidasfu¨hrendeInferenceasaServiceSubnetvoraussichtlichallein10,4Millionen**, wobei das führende Inference-as-a-Service-Subnet voraussichtlich allein 10,4 Millionen erreichen wird. Entwickler greifen auf Bittensor-gestützte Modelle über OpenAI-kompatible APIs zu, wodurch die dezentrale Infrastruktur abstrahiert wird, während gleichzeitig preislich wettbewerbsfähige Inferenz geliefert wird.

Die institutionelle Validierung erfolgte mit dem Bittensor Trust (GTAO) von Grayscale im Dezember 2025, gefolgt von börsennotierten Unternehmen wie xTAO und TAO Synergies, die über 70.000 TAO-Token (~ 26 Millionen $) akkumulierten. Custody-Anbieter wie BitGo, Copper und Crypto.com integrierten Bittensor über den Validator von Yuma, was signalisiert, dass DePIN für die traditionelle Finanzinfrastruktur nicht mehr zu „exotisch“ ist.

Render Network: Vom 3D-Rendering zur Enterprise-KI

Die Entwicklung von Render zeigt, wie DePIN-Projekte über ihre ursprünglichen Anwendungsfälle hinauswachsen. Ursprünglich auf verteiltes 3D-Rendering für Künstler und Studios fokussiert, schwenkte Render auf KI-Rechenleistung um, als sich die Nachfrage verschob.

Metriken vom Juli 2025: 1,49 Millionen gerenderte Frames, 207.900 $ an USDC-Gebühren verbrannt – wobei 35 % aller jemals gerenderten Frames allein im Jahr 2025 entstanden sind, was die beschleunigte Akzeptanz demonstriert. Das vierte Quartal 2025 brachte das Onboarding von Enterprise-GPUs durch RNP-021, wobei NVIDIA H200- und AMD MI300X-Chips integriert wurden, um neben Rendering-Aufgaben auch KI-Inferenz- und Trainings-Workloads zu bedienen.

Das Wirtschaftsmodell von Render verbrennt Gebühreneinnahmen (207.900 USDC in einem einzigen Monat) und schafft so eine deflationäre Tokenomics, die in starkem Kontrast zu inflationären DePIN-Projekten steht. Da das Enterprise-GPU-Onboarding skaliert, positioniert sich Render als Premium-Option: höhere Leistung, auditierte Hardware, kuratiertes Angebot – ausgerichtet auf Unternehmen, die garantierte Compute-SLAs benötigen und nicht auf Hobby-Knotenbetreiber.

Helium: Die dezentrale Disruption der Telekommunikation

Die drahtlosen Netzwerke von Helium beweisen, dass DePIN in Billionen-Dollar-Branchen eindringen kann. Partnerschaften mit T-Mobile, AT&T und Telefónica sind keine Pilotprogramme – es sind Produktionseinsätze, bei denen die dezentralen Hotspots von Helium die Makrozellen-Abdeckung in schwer erreichbaren Gebieten ergänzen.

Die Wirtschaftlichkeit ist für Telekommunikationsbetreiber überzeugend: Die von der Community bereitgestellten Hotspots von Helium kosten einen Bruchteil herkömmlicher Mobilfunkmast-Aufbauten und lösen das Problem der „letzten Meile“, ohne kapitalintensive Infrastrukturinvestitionen zu erfordern. Für Hotspot-Betreiber sind es wiederkehrende Einnahmen aus realer Datennutzung, nicht aus Token-Spekulation.

Der Q3 2025 State of Helium-Bericht von Messari hebt das anhaltende Netzwerkwachstum und das Datentransfervolumen hervor, wobei der Sektor Blockchain-in-Telekom voraussichtlich von 1,07 Milliarden (2024)auf7,25Milliarden(2024) auf **7,25 Milliarden bis 2030** wachsen wird. Helium erobert bedeutende Marktanteile in einem Segment, das sich traditionell gegen Disruption gewehrt hat.

Der Kostenvorteil von 60-80 %: Ökonomie, die zur Akzeptanz zwingt

Das Wertversprechen von DePIN ist keine ideologische Dezentralisierung – es ist brutale Kosteneffizienz. Wenn das Fluence Network Einsparungen von 60-80 % gegenüber zentralisierten Clouds verspricht, vergleichen sie Äpfel mit Äpfeln: gleichwertige Rechenkapazität, SLA-Garantien und Verfügbarkeitszonen.

Der Kostenvorteil resultiert aus strukturellen Unterschieden:

  1. Eliminierung der Plattformmarge: AWS, Azure und Google Cloud erheben Aufschläge von 30-70 % auf die zugrunde liegenden Infrastrukturkosten. DePIN-Protokolle ersetzen diese Aufschläge durch algorithmisches Matching und transparente Gebührenstrukturen.

  2. Nutzung brachliegender Kapazitäten: Zentralisierte Clouds müssen für Spitzenlasten vorsorgen, wodurch Kapazitäten in Nebenzeiten ungenutzt bleiben. DePIN aggregiert weltweit verteilte Ressourcen, die mit höheren durchschnittlichen Auslastungsraten arbeiten.

  3. Geografische Arbitrage: DePIN-Netzwerke zapfen Regionen mit niedrigeren Energiekosten und unterausgelasteter Hardware an und leiten Workloads dynamisch weiter, um das Preis-Leistungs-Verhältnis zu optimieren.

  4. Wettbewerb auf offenem Markt: Das Protokoll von Fluence fördert beispielsweise den Wettbewerb unter unabhängigen Compute-Anbietern, was die Preise drückt, ohne dass mehrjährige Verpflichtungen für Reserved Instances erforderlich sind.

Traditionelle Cloud-Anbieter bieten vergleichbare Rabatte an – AWS Reserved Instances sparen bis zu 72 %, Azure Reserved VM Instances erreichen 72 %, Azure Hybrid Benefit bis zu 85 % – aber diese erfordern 1-3 Jahre Bindung mit Vorauszahlung. DePIN liefert ähnliche Einsparungen On-Demand, mit Spot-Preisen, die sich in Echtzeit anpassen.

Für Unternehmen, die variable Workloads verwalten (KI-Modell-Experimente, Rendering-Farms, wissenschaftliches Rechnen), ist diese Flexibilität bahnbrechend. 10.000 GPUs für ein Wochenende starten, Spot-Preise zahlen, die 70 % unter AWS liegen, und die Infrastruktur am Montagmorgen abschalten – keine Kapazitätsplanung, keine verschwendete reservierte Kapazität.

Institutionelles Kapital folgt realen Einnahmen

Die Verschiebung von privater Spekulation hin zu institutioneller Allokation ist quantifizierbar. DePIN-Startups sammelten **im Jahr 2025 etwa 1 Milliarde ein,wobei744Millionen** ein, wobei 744 Millionen in über 165 Projekte zwischen Januar 2024 und Juli 2025 investiert wurden (plus über 89 nicht offengelegte Deals). Dies ist kein „Dumb Money“, das Airdrops hinterherjagt – es ist kalkulierter Einsatz von auf Infrastruktur spezialisierten VCs.

Zwei Fonds signalisieren die institutionelle Ernsthaftigkeit:

  • Borderless Capitals 100 Mio. $ DePIN Fund III (September 2024): Unterstützt von peaq, Solana Foundation, Jump Crypto und IoTeX, zielt auf Projekte mit nachgewiesenem Product-Market-Fit und Umsatztraktion ab.

  • Entrée Capitals 300 Mio. $ Fund (Dezember 2025): Explizit auf KI-Agenten und DePIN-Infrastruktur von Pre-Seed bis Series A ausgerichtet, setzt auf die Konvergenz von autonomen Systemen und dezentraler Infrastruktur.

Wichtig ist, dass dies keine Krypto-nativen Fonds sind, die sich lediglich in Infrastruktur absichern – es sind traditionelle Infrastruktur-Investoren, die erkennen, dass DePIN überlegene risikobereinigte Renditen im Vergleich zu zentralisierten Cloud-Wettbewerbern bietet. Wenn man ein Projekt finanzieren kann, das zum 15-fachen Umsatz gehandelt wird (Aethir), im Vergleich zu Hyperscalern zum 10-fachen Umsatz, aber mit monopolistischen Schutzwällen, wird die DePIN-Asymmetrie offensichtlich.

Neuere DePIN-Projekte lernen zudem aus den Tokenomics-Fehlern von 2021. Protokolle, die in den letzten 12 Monaten gestartet sind, erreichten durchschnittliche Fully Diluted Valuations von 760 Millionen $ – fast das Doppelte der Bewertungen von Projekten, die vor zwei Jahren gestartet sind –, weil sie die Emissions-Todesspiralen vermieden haben, die frühe Netzwerke plagten. Ein knapperes Token-Angebot, umsatzbasierte Unlocks und Burn-Mechanismen schaffen eine nachhaltige Ökonomik, die langfristiges Kapital anzieht.

Von Spekulation zu Infrastruktur: Was sich jetzt ändert

Der Januar 2026 markierte einen Wendepunkt: Der Umsatz im DePIN-Sektor erreichte 150 Millionen $ in einem einzigen Monat, getrieben durch die Nachfrage von Unternehmen nach Rechenleistung, Kartierungsdaten und drahtloser Bandbreite. Dies war kein Token-Preis-Pump – es war abgerechnete Nutzung von Kunden, die reale Probleme lösen.

Die Auswirkungen ziehen sich durch das gesamte Krypto-Ökosystem:

Für Entwickler: Die DePIN-Infrastruktur bietet endlich produktionsreife Alternativen zu AWS. Die 440.000 GPUs von Aethir können LLMs trainieren, Filecoin kann Petabytes an Daten mit kryptografischer Verifizierung speichern, Helium kann IoT-Konnektivität ohne AT&T-Verträge liefern. Der Blockchain-Stack ist komplett.

Für Unternehmen: Kostenoptimierung ist keine Entscheidung mehr zwischen Leistung und Preis. DePIN liefert beides, mit transparenter Preisgestaltung, ohne Vendor Lock-in und mit einer geografischen Flexibilität, mit der zentralisierte Clouds nicht mithalten können. CFOs werden das bemerken.

Für Investoren: Die Umsatzmultiplikatoren nähern sich den Normen des Tech-Sektors an (10 - 25x), was Einstiegspunkte schafft, die während der spekulativen Manie von 2021 unmöglich waren. Aethir mit dem 15-fachen Umsatz ist günstiger als die meisten SaaS-Unternehmen, bei höheren Wachstumsraten.

Für die Tokenomics: Projekte, die echte Einnahmen generieren, können Token verbrennen (Render), Protokollgebühren verteilen (Bittensor) oder das Wachstum des Ökosystems finanzieren (Helium), ohne auf inflationäre Emissionen angewiesen zu sein. Nachhaltige Wirtschaftskreisläufe ersetzen die Ponzi-Reflexivität.

Die Prognose des Weltwirtschaftsforums von 3,5 Billionen erscheintplo¨tzlichkonservativ.WennDePINbis2028nur10erscheint plötzlich konservativ. Wenn DePIN bis 2028 nur 10 % der Ausgaben für Cloud-Infrastruktur erfasst (~ 60 Milliarden jährlich bei aktuellen Cloud-Wachstumsraten) und Projekte mit dem 15-fachen Umsatz gehandelt werden, ergibt sich eine Marktkapitalisierung des Sektors von 900 Milliarden das46fachederheutigenBasisvon19,2Milliarden– das 46-fache der heutigen Basis von 19,2 Milliarden.

Was BlockEden.xyz-Builder wissen sollten

Die DePIN-Revolution findet nicht isoliert statt – sie schafft Infrastrukturabhängigkeiten, auf die Web3-Entwickler zunehmend angewiesen sein werden. Wenn Sie auf Sui, Aptos oder Ethereum bauen, werden die Off-Chain-Rechenanforderungen Ihrer dApp (KI-Inferenz, Datenindizierung, IPFS-Speicherung) zunehmend über DePIN-Anbieter statt über AWS geleitet.

Warum das wichtig ist: Kosteneffizienz. Wenn Ihre dApp KI-generierte Inhalte bereitstellt (NFT-Erstellung, Spiel-Assets, Handelssignale), könnte die Ausführung der Inferenz über Bittensor oder Aethir Ihre AWS-Rechnung um 70 % senken. Für Projekte, die mit knappen Margen arbeiten, ist das der Unterschied zwischen Nachhaltigkeit und dem Tod durch die Burn-Rate.

BlockEden.xyz bietet API-Infrastruktur auf Enterprise-Niveau für Sui, Aptos, Ethereum und über 15 weitere Blockchain-Netzwerke. Während DePIN-Protokolle zu produktionsreifer Infrastruktur reifen, stellt unser Multichain-Ansatz sicher, dass Entwickler dezentrale Rechenleistung, Speicher und Bandbreite zusammen mit zuverlässigem RPC-Zugriff integrieren können. Erkunden Sie unseren API-Marktplatz, um auf Fundamenten zu bauen, die auf Dauer ausgelegt sind.

Der Schwenk der Unternehmen ist bereits abgeschlossen

DePIN kommt nicht – es ist bereits da. Wenn Aethir 166 Millionen $ ARR von 150 Unternehmenskunden generiert, wenn Helium Partnerschaften mit T-Mobile und AT&T eingeht, wenn Bittensor KI-Inferenz über OpenAI-kompatible APIs bereitstellt, trifft das Label „experimentelle Technologie“ nicht mehr zu.

Der Sektor hat den Sprung von der krypto-nativen Adaption zur Validierung durch Unternehmen geschafft. Institutionelles Kapital finanziert kein Potenzial mehr – es finanziert bewährte Erlösmodelle mit Kostenstrukturen, mit denen zentralisierte Wettbewerber nicht mithalten können.

Für die Blockchain-Infrastruktur sind die Auswirkungen tiefgreifend. DePIN beweist, dass Dezentralisierung nicht nur eine ideologische Präferenz ist – sie ist ein Wettbewerbsvorteil. Wenn man 70 % Kostenersparnis mit SLA-Garantien liefern kann, muss man Unternehmen nicht von der Philosophie des Web3 überzeugen. Man muss ihnen nur die Rechnung zeigen.

Die 3,5-Billionen-$-Chance ist keine Vorhersage. Es ist Mathematik. Und die Projekte, die echte Unternehmen aufbauen – keine Token-Casinos –, positionieren sich, um diese Chance zu nutzen.


Quellen:

Jenseits von Monolithisch vs. Modular: Wie das Zero Network von LayerZero das Regelwerk der Blockchain-Skalierung neu schreibt

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Jede Blockchain, die jemals Skalierbarkeit erreicht hat, tat dies, indem sie jeden Validator zwang, dieselbe Arbeit zu wiederholen. Diese eine Designentscheidung – nennen wir sie die Replikationsanforderung – hat den Durchsatz seit Jahrzehnten gedeckelt. Das Zero Network von LayerZero schlägt vor, diese vollständig zu eliminieren, und die institutionellen Partner, die sich anschließen, deuten darauf hin, dass die Branche diesen Anspruch ernst nimmt.

Das Layer-2-Paradoxon: Wie 0,001 $-Gebühren das Skalierungs-Geschäftsmodell von Ethereum untergraben

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Ethereums Layer-2-Netzwerke haben im Jahr 2025 Außergewöhnliches erreicht: Sie haben die Transaktionskosten um über 90 % gesenkt und Blockchain-Interaktionen nahezu kostenlos gemacht. Doch dieser technologische Triumph hat eine unerwartete Krise ausgelöst – genau das Geschäftsmodell, das diese Netzwerke finanziert, bricht unter der Last des eigenen Erfolgs zusammen.

Während die Transaktionsgebühren auf 0,001 $ pro Operation zustürzen, stehen die Betreiber von Layer-2-Lösungen vor einer ernsten Frage: Wie unterhält man eine milliardenschwere Infrastruktur, wenn die Haupteinnahmequelle wegbricht?

Der große Gebührenkollaps von 2025

Die Zahlen erzählen eine dramatische Geschichte. Zwischen Januar 2025 und Januar 2026 fielen die durchschnittlichen Gaspreise in den Ethereum-Layer-2-Netzwerken von 7,141 Gwei auf etwa 0,50 Gwei – eine staggering Reduzierung um 93 %. Heute kosten Transaktionen auf Base durchschnittlich 0,01 ,wa¨hrendArbitrumundOptimismbeietwa0,150,20, während Arbitrum und Optimism bei etwa 0,15–0,20 liegen, wobei viele Operationen mittlerweile nur noch Bruchteile eines Cents kosten.

Der Auslöser? EIP-4844, Ethereums Dencun-Upgrade, das im März 2024 eingeführt wurde. Es führte „Blobs“ ein – temporäre Datenpakete, die Layer-2-Netzwerke für eine kostengünstige Abwicklung (Settlement) nutzen können. Im Gegensatz zu herkömmlichen Calldata, die dauerhaft auf Ethereum gespeichert werden, bleiben Blobs nur etwa 18 Tage lang verfügbar, was einen deutlich niedrigeren Preis ermöglicht.

Die Auswirkungen waren unmittelbar und verheerend für das traditionelle Erlösmodell. Optimism, Arbitrum und Base verzeichneten bei vielen Transaktionstypen Gebührensenkungen von 90–99 %. Die medianen Blob-Gebühren fielen auf bis zu 0,0000000005 $, wodurch Interaktionen für Nutzer fast vernachlässigbar günstig wurden. Seit dem Start von EIP-4844 wurden über 950.000 Blobs auf Ethereum gepostet, was die Wirtschaftlichkeit des Layer-2-Betriebs grundlegend verändert hat.

Für Nutzer und Entwickler ist dies ein Paradies. Für Layer-2-Betreiber, die auf Sequencer-Einnahmen angewiesen sind, ist es eine existenzielle Bedrohung.

Sequencer-Einnahmen: Die bedrohte Erlösquelle

Traditionell haben Layer-2-Netzwerke Geld durch ein einfaches Modell verdient: Sie erheben Gebühren von Nutzern für die Verarbeitung von Transaktionen und zahlen dann einen Teil dieser Gebühren an Ethereum für die Datenverfügbarkeit (Data Availability) und das Settlement. Die Differenz zwischen dem, was sie einnehmen, und dem, was sie zahlen, wird zu ihrem Gewinn – den Sequencer-Einnahmen.

Dieses Modell funktionierte hervorragend, solange die Layer-2-Gebühren substanziell waren. Doch da sich die Transaktionskosten gegen Null bewegen, ist die Marge hauchdünn geworden.

Die wirtschaftlichen Daten verdeutlichen die Herausforderung. Base erzielt trotz seiner Spitzenposition in den letzten 180 Tagen durchschnittlich nur 185.291 anta¨glichenEinnahmen.Arbitrumkommtaufetwa55.025an täglichen Einnahmen. Arbitrum kommt auf etwa 55.025 pro Tag. Diese Zahlen sind zwar nicht unbedeutend, müssen jedoch eine umfangreiche Infrastruktur, Entwicklungsteams und den laufenden Betrieb für Netzwerke finanzieren, die täglich Hunderttausende von Transaktionen verarbeiten.

Die Situation wird noch prekärer, wenn man die jährlichen Bruttogewinne betrachtet. Base führt mit fast 30 Millionen imJahr,wa¨hrendsowohlArbitrumalsauchOptimismjeweilsrund9,5Millionenim Jahr, während sowohl Arbitrum als auch Optimism jeweils rund 9,5 Millionen brutto eingenommen haben. Diese Beträge müssen Netzwerke tragen, die zusammen 60–70 % des gesamten Transaktionsvolumens von Ethereum abwickeln – eine massive operative Last für vergleichsweise bescheidene Erträge.

Das grundlegende Spannungsfeld ist klar: Layer-2-Netzwerke müssen eine Nische finden, die ihre Existenz abseits des Ethereum-Mainnets rechtfertigt, und genügend Einnahmen generieren, um sich selbst zu tragen. Wie eine Branchenanalyse anmerkte: „Die Rentabilität liegt in der Differenz zwischen dem, was L2s von den Nutzern verdienen, und dem, was sie an Ethereum zahlen“ – aber diese Differenz schrumpft täglich.

Die MEV-Divergenz: Verschiedene Wege zur Wertschöpfung

Angesichts des Drucks auf die Sequencer-Einnahmen untersuchen Layer-2-Netzwerke Maximal Extractable Value (MEV) als alternative Einnahmequelle. Ihre Ansätze unterscheiden sich jedoch drastisch, was zu individuellen Wettbewerbsvorteilen und Herausforderungen führt.

Arbitrums „Fair Ordering“-Philosophie

Arbitrum nutzt ein First-Come-First-Serve-System (FCFS) für die Reihenfolge von Transaktionen, um den Schaden für Nutzer durch MEV-Extraktion zu minimieren. Diese Philosophie priorisiert die Nutzererfahrung vor der Umsatzmaximierung, was zu einer deutlich geringeren MEV-Aktivität führt – nur 7 % des On-Chain-Gasverbrauchs im Vergleich zu über 50 % bei konkurrierenden Netzwerken.

Dennoch gibt Arbitrum MEV nicht völlig auf. Das Netzwerk untersucht künftige dezentrale Sequencer-Implementierungen, die Auktionen für MEV-Möglichkeiten einführen könnten, um potenziell einen Teil des Wertes an die Nutzer oder die Protokoll-Schatzkammer (Treasury) zurückzugeben. Dies stellt einen Mittelweg dar: Wahrung der Fairness bei gleichzeitiger Erfassung des wirtschaftlichen Wertes.

Der Auktionsansatz von Base und Optimism

Im Gegensatz dazu nutzen Base und Optimism Priority Gas Auctions (PGA), bei denen Nutzer höhere Gebühren für die Priorisierung von Transaktionen bieten können. Dieses Design ermöglicht von Natur aus mehr MEV-Aktivität – optimistisches MEV macht 51–55 % des gesamten On-Chain-Gasverbrauchs in diesen Netzwerken aus.

Der Haken? Die Erfolgsraten für echtes Arbitrage-Geschäft bleiben bei OP-Stack-Rollups mit etwa 1 % extrem niedrig – weit niedriger als bei Arbitrum. Der Großteil des Gases wird für „Interaktions-Sonden“ (Interaction Probes) aufgewendet – On-Chain-Berechnungen, die nach Arbitrage-Möglichkeiten suchen, die sich selten materialisieren. Dies führt zu der kuriosen Situation, dass MEV-Aktivitäten Ressourcen verbrauchen, ohne einen proportionalen Wert zu generieren.

Besonders trotz niedrigerer Erfolgsraten trägt das schiere Volumen der MEV-bezogenen Aktivitäten auf Base zu seiner führenden Position bei den Einnahmen bei. Das Netzwerk verarbeitet über 1.000 Transaktionen pro Sekunde bei minimalen Kosten und macht Volumen zu einem Wettbewerbsvorteil.

Alternative Erlösmodelle: Jenseits von Transaktionsgebühren

Da sich herkömmliche Sequencer-Einnahmen als unzureichend erweisen, leisten Layer-2-Netzwerke Pionierarbeit bei alternativen Geschäftsmodellen, welche die Ökonomie der Blockchain-Infrastruktur grundlegend neu gestalten könnten.

Die Divergenz bei der Lizenzierung

Arbitrum und Optimism haben grundlegend verschiedene Ansätze zur Monetarisierung ihrer Technologie-Stacks gewählt.

Arbitrums Orbit-Umsatzbeteiligung: Arbitrum setzt auf ein „Community-Source-Code“-Modell. Chains, die auf dem Orbit-Framework basieren, müssen 10 % ihres Protokollumsatzes abführen, wenn sie ihr Settlement außerhalb des Arbitrum-Ökosystems durchführen. Dies schafft eine lizenzgebührenähnliche Struktur, die Einnahmen generiert, selbst wenn Chains Arbitrum nicht direkt für das Settlement nutzen.

Optimisms Open-Source-Gambit: Der OP Stack von Optimism ist unter der MIT-Lizenz vollständig quelloffen. Dies ermöglicht es jedem, den Code zu beziehen, ihn frei zu modifizieren und individuelle Layer-2-Chains ohne Lizenzgebühren oder Vorabkosten zu erstellen. Eine Umsatzbeteiligung wird erst aktiviert, wenn eine Chain dem offiziellen Ökosystem von Optimism, der „Superchain“, beitritt.

Dies erzeugt eine interessante Dynamik: Optimism setzt auf Ökosystemwachstum und freiwillige Teilnahme, während Arbitrum die ökonomische Ausrichtung durch Lizenzvorgaben erzwingt. Die Zeit wird zeigen, welcher Ansatz das Wachstum besser mit Nachhaltigkeit in Einklang bringt.

Enterprise-Rollups und professionelle Dienstleistungen

Die vielleicht vielversprechendste Alternative zeichnete sich im Jahr 2025 ab: der Aufstieg des „Enterprise-Rollups“. Große Institutionen bringen maßgeschneiderte Layer-2-Netzwerke an den Start und sind bereit, für professionelle Bereitstellung, Wartung und Support-Services zu bezahlen.

Dies spiegelt traditionelle Open-Source-Geschäftsmodelle wider – der Code ist kostenlos, aber operatives Fachwissen erzielt Premium-Preise. Das kürzlich eingeführte OP Enterprise von Optimism verdeutlicht diesen Ansatz und bietet Institutionen, die eine individualisierte Blockchain-Infrastruktur aufbauen, einen erstklassigen Rundum-Service (White-Glove-Service).

Das Wertversprechen für Unternehmen ist überzeugend. Sie erhalten Zugang zur Liquidität und den Netzwerkeffekten der Ethereum-Ökonomie, während sie gleichzeitig individuelle Sicherheits-, Datenschutz- und Compliance-Funktionen beibehalten. Wie in einem Branchenbericht angemerkt wird: „Institutionen können ihr eigenes maßgeschneidertes institutionelles L2 betreiben, das an die Liquidität und die Netzwerkeffekte der Ethereum-Ökonomie angeschlossen ist.“

Layer-3s und App-spezifische Chains

Hochleistungsfähige DeFi-Protokolle verlangen zunehmend nach Funktionen, die generische Layer-2-Netzwerke nicht effizient bereitstellen können: vorhersehbare Ausführung, flexible Liquidationslogik, granulare Kontrolle über die Transaktionsreihenfolge und die Fähigkeit, MEV intern zu erfassen.

Hier kommen Layer-3s und App-spezifische Chains ins Spiel, die auf Frameworks wie Arbitrum Orbit basieren. Diese spezialisierten Netzwerke ermöglichen es Protokollen, MEV zu internalisieren, die Ökonomie anzupassen und für spezifische Anwendungsfälle zu optimieren. Für Layer-2-Betreiber stellt die Bereitstellung der Infrastruktur und Tools für diese spezialisierten Chains eine neue Einnahmequelle dar, die nicht von margenschwacher Transaktionsverarbeitung abhängt.

Die strategische Erkenntnis ist klar: Layer-2-Netzwerke gewinnen, indem sie ihre Infrastruktur nach außen verteilen und Partnerschaften mit großen Plattformen eingehen, anstatt nur über Transaktionskosten zu konkurrieren.

Die Nachhaltigkeitsfrage: Können L2s den Gebührenkrieg überleben?

Die grundlegende Spannung, vor der Layer-2-Netzwerke im Jahr 2026 stehen, ist die Frage, ob eine Kombination aus alternativen Erlösmodellen die wegbrechenden Transaktionsgebühren kompensieren kann.

Betrachten wir die Zahlen: Wenn der Trend bei Transaktionsgebühren weiter in Richtung 0,001 $ geht und die Blob-Kosten nahe Null bleiben, generiert selbst die Verarbeitung von Millionen von Transaktionen pro Tag nur minimale Einnahmen. Base muss trotz seiner führenden Rolle beim Volumen zusätzliche Einnahmequellen finden, um den laufenden Betrieb in großem Maßstab zu rechtfertigen.

Erschwert wird die Situation durch anhaltende Bedenken hinsichtlich der Zentralisierung. Die meisten Layer-2-Netzwerke sind nach wie vor weitaus zentralisierter, als es den Anschein hat, wobei Dezentralisierung eher als langfristiges Ziel denn als unmittelbare Priorität behandelt wird. Dies birgt regulatorische Risiken und wirft Fragen zur langfristigen Werthaltigkeit auf – wenn ein Netzwerk zentralisiert ist, warum sollten Nutzer ihm dann eher vertrauen als herkömmlichen Datenbanken mit „cleverer Kryptografie“?

Jüngste strukturelle Änderungen deuten darauf hin, dass Ethereum selbst das Problem erkennt. Das Fusaka-Upgrade zielt darauf ab, die Kette der Wertschöpfung zwischen Layer 1 und Layer 2 zu „reparieren“, indem von L2s ein erhöhter „Tribut“ an das Ethereum-Mainnet verlangt wird. Diese Umverteilung hilft Ethereum, schmälert jedoch die ohnehin geringen Margen der Layer 2s weiter.

Erlösmodelle für 2026 und darüber hinaus

Mit Blick auf die Zukunft werden erfolgreiche Layer-2-Netzwerke wahrscheinlich hybride Erlösstrategien verfolgen:

  1. Volumen vor Marge: Der Ansatz von Base – die Verarbeitung massiver Transaktionsvolumina bei minimalem Gewinn pro Transaktion – kann funktionieren, wenn eine entsprechende Skalierung erreicht wird. Die mehr als 1.000 + TPS von Base bei Gebühren von 0,01 generierenmehrUmsatzalsdie400TPSvonArbitrumbeiGebu¨hrenvon0,20generieren mehr Umsatz als die 400 TPS von Arbitrum bei Gebühren von 0,20.

  2. Selektive MEV-Erfassung: Netzwerke müssen die MEV-Extraktion mit der Benutzererfahrung in Einklang bringen. Arbitrums Untersuchung von MEV-Auktionen, die den Wert an die Nutzer zurückgeben, stellt einen Mittelweg dar, der Einnahmen generiert, ohne die Community zu verprellen.

  3. Enterprise-Services: Professioneller Support, Unterstützung bei der Bereitstellung und Anpassungsdienste für institutionelle Kunden bieten margenstarke Einnahmen, die eher mit dem Kundenwert als mit der Anzahl der Transaktionen skalieren.

  4. Ökosystem-Umsatzbeteiligung: Sowohl obligatorische (Arbitrum Orbit) als auch freiwillige (Optimism Superchain) Umsatzbeteiligungsmodelle schaffen Netzwerkeffekte, bei denen sich der Erfolg der Layer 2 durch die Teilnahme am Ökosystem potenziert.

  5. Märkte für Datenverfügbarkeit: Während sich die Preisgestaltung für Blobs weiterentwickelt, könnten Layer-2-Netzwerke gestaffelte Angebote für die Datenverfügbarkeit (Data Availability) einführen – Premium-Settlement-Garantien für Institutionen und Budget-Optionen für Verbraucheranwendungen.

Bis 2026 wird erwartet, dass Netzwerke Modelle zur Umsatzbeteiligung, zur Verteilung von Sequencer-Gewinnen und Renditen einführen, die an die tatsächliche Netzwerknutzung gebunden sind. Dies markiert einen grundlegenden Wandel von Transaktionsgebühren hin zu einer Partizipationsökonomie.

Der Weg in die Zukunft

Die wirtschaftliche Krise von Layer 2 ist paradoxerweise ein Zeichen für technologischen Erfolg. Die Skalierungslösungen von Ethereum haben ihr primäres Ziel erreicht: Blockchain-Transaktionen erschwinglich und zugänglich zu machen. Doch technologischer Triumph lässt sich nicht automatisch in geschäftliche Nachhaltigkeit übersetzen.

Die Netzwerke, die überleben und florieren werden, sind diejenigen, die:

  • Akzeptieren, dass Transaktionsgebühren allein den Betrieb bei 0,001 $ pro Operation nicht aufrechterhalten können
  • Diversifizierte Einnahmequellen entwickeln, die auf der tatsächlichen Wertschöpfung basieren
  • Zentralisierungsbedenken mit betrieblicher Effizienz in Einklang bringen
  • Ökosystem-Netzwerkeffekte aufbauen, die den Wert über einzelne Transaktionen hinaus steigern
  • Institutionelle Kunden und Unternehmenskunden bedienen, die bereit sind, für die Zuverlässigkeit der Infrastruktur zu zahlen

Base, Arbitrum und Optimism experimentieren alle mit verschiedenen Kombinationen dieser Strategien. Base führt beim Bruttoumsatz durch Volumen, Arbitrum erzwingt die wirtschaftliche Ausrichtung durch Lizenzierung und Optimism setzt auf das Wachstum des Open-Source-Ökosystems.

Die letztendlichen Gewinner werden wahrscheinlich diejenigen sein, die den grundlegenden Wandel erkennen: Layer-2-Netzwerke sind nicht mehr nur Transaktionsprozessoren. Sie entwickeln sich zu Infrastrukturplattformen, Enterprise-Service-Providern und Ökosystem-Orchestratoren. Die Erlösmodelle müssen sich entsprechend weiterentwickeln – andernfalls riskieren sie, zu unhaltbar günstigen Commodity-Diensten in einem Preiskampf nach unten zu werden, den niemand gewinnen kann.

Für Entwickler, die auf Layer-2-Infrastrukturen aufbauen, bleiben zuverlässiger Node-Zugriff und Datenindexierung entscheidend, während diese Netzwerke ihre Geschäftsmodelle weiterentwickeln. BlockEden.xyz bietet API-Zugang auf Enterprise-Niveau über alle wichtigen Layer-2-Netzwerke hinweg und liefert konstante Leistung, unabhängig von den zugrunde liegenden wirtschaftlichen Veränderungen.


Quellen

Die 0,001 $-Krise: Wie Ethereum L2s ihre Einnahmen neu erfinden müssen, wenn die Gebühren verschwinden

· 16 Min. Lesezeit
Dora Noda
Software Engineer

Die Transaktionsgebühren in Ethereum-Layer-2-Netzwerken sind auf bis zu 0,001 $ eingebrochen – ein Triumph für die Nutzer, aber eine existenzielle Krise für die Blockchains selbst. Während Base, Arbitrum und Optimism auf Kosten nahe Null zusteuern, wird die grundlegende Frage, die jeden L2-Betreiber verfolgt, unumgänglich: Wie erhält man eine Milliarden-Dollar-Infrastruktur aufrecht, wenn die Haupteinnahmequelle gegen Null geht?

Im Jahr 2026 ist dies keine Theorie mehr. Es ist die neue wirtschaftliche Realität, die Ethereums Skalierungslandschaft umgestaltet.

Der Gebühreneinsturz: Sieg wird zur Krise

Layer-2-Lösungen wurden entwickelt, um das Skalierbarkeitsproblem von Ethereum zu lösen – und in dieser Hinsicht waren sie spektakulär erfolgreich. Die Transaktionsgebühren auf führenden L2s liegen mittlerweile zwischen 0,001 und0,01und 0,01, was einer Reduzierung von 90–99 % im Vergleich zum Ethereum-Mainnet entspricht. In Zeiten hoher Auslastung, wenn eine Ethereum-Transaktion 50 $ kosten könnte, können Base oder Arbitrum dieselbe Operation für Bruchteile eines Cents ausführen.

Doch der Erfolg hat ein unerwartetes Dilemma geschaffen. Genau die Errungenschaft, die L2s für Nutzer attraktiv macht – extrem niedrige Gebühren –, bedroht ihre langfristige Rentabilität als Unternehmen.

Die Zahlen sprechen für sich. In den letzten sechs Monaten des Jahres 2025 generierten die Top-10-Ethereum-L2s 232 Millionen $ an Einnahmen aus Nutzer-Transaktionsgebühren. Obwohl dieser Wert absolut gesehen beeindruckend ist, kaschiert er den wachsenden Druck, da die durch EIP-4844 eingeführte Blob-basierte Datenverfügbarkeit die Rollup-Gebühren in vielen Fällen um 50–90 % gedrückt hat. Wenn die Blob-Auslastung niedrig bleibt – wie Anfang 2026 –, nähern sich die Grenzkosten für das Veröffentlichen von Daten Null, wodurch eine der wenigen verbleibenden Rechtfertigungen für die Erhebung von Premium-Gebühren entfällt.

Die Arbitrum Foundation meldete für das 4. Quartal 2025 Bruttomargen von über 90 % über vier Einnahmequellen hinweg, mit annualisierten Gewinnen von etwa 26 Millionen .DiesePerformancelagjedochvordenvollenAuswirkungenkonkurrierenderL2s,sinkenderBlobPreiseunddenErwartungenderNutzeraufimmergu¨nstigereTransaktionen.DieMargenkompressionistbereitssichtbar:BeiBasemachenalleindiePriorita¨tsgebu¨hrenetwa86,1. Diese Performance lag jedoch vor den vollen Auswirkungen konkurrierender L2s, sinkender Blob-Preise und den Erwartungen der Nutzer auf immer günstigere Transaktionen. Die Margenkompression ist bereits sichtbar: Bei Base machen allein die Prioritätsgebühren etwa 86,1 % des gesamten täglichen Sequencer-Umsatzes aus, was im Durchschnitt nur 156.138 pro Tag entspricht – kaum genug, um Milliardenbewertungen zu rechtfertigen oder die langfristige Infrastrukturentwicklung aufrechtzuerhalten.

Die Krise verschärft sich, wenn man die Wettbewerbsdynamik betrachtet. Mit über 60 aktiven Ethereum-L2s und monatlichen Neuzugängen ähnelt der Markt einem Race to the Bottom. Jede L2, die versucht, höhere Gebühren beizubehalten, riskiert, Nutzer an günstigere Alternativen zu verlieren. Doch wenn alle auf Null zusteuern, überlebt niemand.

MEV: Vom Bösewicht zum Rettungsanker für Einnahmen

Maximal Extractable Value (MEV) – einst das umstrittenste Thema im Krypto-Sektor – wird angesichts schwindender Transaktionsgebühren schnell zur vielversprechendsten Einnahmequelle für L2s.

MEV stellt den Gewinn dar, der durch das Umordnen, Einfügen oder Zensieren von Transaktionen innerhalb eines Blocks erzielt werden kann. Im Ethereum-Mainnet haben Block-Builder und Validatoren durch ausgeklügelte Strategien wie Sandwich-Attacken, Arbitrage und Liquidationen längst Milliarden an MEV abgeschöpft. Nun lernen L2-Sequencer, dieselbe Einnahmequelle zu erschließen – jedoch mit mehr Kontrolle und weniger Kontroversen.

Timeboost: Die MEV-Auktion von Arbitrum

Der Timeboost-Mechanismus von Arbitrum, der Ende 2025 eingeführt wurde, stellt den ersten großen Versuch dar, MEV systematisch auf einer L2 zu monetarisieren. Das System führt eine transparente Auktion für Transaktionsordnungsrechte ein, die es professionellen Tradern ermöglicht, auf das Privileg zu bieten, ihre Transaktionen vor anderen einreihen zu lassen.

In den ersten sieben Monaten generierte Timeboost über 5 Millionen $ an Einnahmen – eine bescheidene Summe, aber ein Proof-of-Concept dafür, dass die MEV-Erfassung auf Sequencer-Ebene funktionieren kann. Im Gegensatz zur intransparenten MEV-Extraktion im Mainnet gibt Timeboost diesen Wert an das Protokoll selbst zurück, anstatt ihn an externe Searcher abfließen zu lassen oder vor den Nutzern zu verbergen.

Das Modell wandelt den Sequencer vom bloßen Transaktionsverarbeiter zum „neutralen Auktionator“. Anstatt dass der Sequencer MEV direkt extrahiert (was Zentralisierungsbedenken aufwirft), schafft er einen wettbewerbsorientierten Marktplatz, auf dem MEV-Searcher gegeneinander bieten und das Protokoll den Überschuss einbehält.

Proposer-Builder Separation auf L2s

Die Architektur, die für die nachhaltige MEV-Erfassung die meiste Aufmerksamkeit erhält, ist die Proposer-Builder Separation (PBS), die ursprünglich für das Ethereum-Mainnet entwickelt wurde, nun aber für L2s angepasst wird.

In PBS-Modellen teilt sich die Rolle des Sequencers in zwei Funktionen auf:

  • Builder erstellen Blöcke mit optimierter Transaktionsreihenfolge, um die MEV-Erfassung zu maximieren
  • Proposer (Sequencer) wählen den profitabelsten Block aus den Vorschlägen konkurrierender Builder aus

Diese Transformation verändert die Ökonomie grundlegend. Anstatt dass Sequencer intern über ausgeklügelte MEV-Extraktionsfähigkeiten verfügen müssen, versteigern sie einfach das Recht zum Blockbau an spezialisierte Einheiten. Der Sequencer erzielt Einnahmen durch wettbewerbsorientierte Gebote für den Blockbau, während die Builder über ihre Fähigkeit konkurrieren, MEV effizient zu extrahieren.

Auf Base und Optimism machten zyklische Arbitrage-Verträge bereits im 1. Quartal 2025 über 50 % des On-Chain-Gasverbrauchs aus. Diese „optimistischen MEV“-Transaktionen repräsentieren wirtschaftliche Aktivitäten, die unabhängig von den Nutzer-Transaktionsgebühren fortbestehen werden – und L2s lernen, einen Teil dieses Wertes abzuschöpfen.

Enshrined PBS (ePBS) – bei dem PBS direkt in das Protokoll integriert ist, anstatt von Dritten betrieben zu werden – bietet noch mehr Potenzial. Durch die Einbettung von MEV-Erfassungsmechanismen auf Protokollebene können L2s garantieren, dass der extrahierte Wert an Token-Inhaber, Netzwerkteilnehmer oder die Finanzierung öffentlicher Güter zurückfließt, anstatt an externe Akteure abzuwandern.

Die Herausforderung liegt in der Implementierung. Im Gegensatz zum Ethereum-Mainnet, wo PBS über Jahre gereift ist, stehen L2s vor Designbeschränkungen in Bezug auf zentralisierte Sequencer, schnelle Blockzeiten und die Notwendigkeit, die Kompatibilität mit der bestehenden Infrastruktur aufrechtzuerhalten. Doch da die Margen von Arbitrum selbst bei minimaler MEV-Erfassung eine Rentabilität von über 90 % aufweisen, ist das Umsatzpotenzial nicht zu ignorieren.

Datenverfügbarkeit: Die verborgene Einnahmequelle

Während sich viel Aufmerksamkeit auf die benutzerorientierten Transaktionsgebühren konzentriert, hat sich die Ökonomie der Datenverfügbarkeit (Data Availability – DA) still und heimlich zu einem der wichtigsten Wettbewerbsfaktoren für die Nachhaltigkeit von L2 - Lösungen entwickelt.

Die Einführung von „Blobs“ durch EIP-4844 – dedizierte Datenstrukturen für Rollup-Daten – hat die L2 - Kostenstrukturen grundlegend verändert. Vor den Blobs zahlten L2s dafür, Transaktionsdaten als Calldata im Ethereum-Mainnet zu veröffentlichen, wobei die Kosten bei Netzwerküberlastung sprunghaft ansteigen konnten. Nach EIP-4844 reduzierten Blob-basierte DA die Veröffentlichungskosten um Größenordnungen: von etwa 3,83 $ pro Megabyte auf in vielen Fällen nur noch wenige Cent.

Diese Kostenreduzierung ist der Grund, warum die L2 - Gebühren so drastisch sinken konnten. Sie offenbarte jedoch auch eine kritische Abhängigkeit: L2s verlassen sich nun auf den Blob-Preismechanismus von Ethereum, über den sie keine Kontrolle haben.

Celestia und alternative DA-Märkte

Das Aufkommen dedizierter DA-Layer wie Celestia hat Wettbewerb – und Optionalität – in die L2 - Ökonomie gebracht. Celestia berechnet etwa 0,07 $ pro Megabyte für die Datenverfügbarkeit, was etwa 55-mal günstiger ist als die Blob-Preise von Ethereum in vergleichbaren Zeiträumen. Für kostenbewusste L2s, insbesondere solche mit hohem Transaktionsvolumen, ist dieser Preisunterschied unmöglich zu ignorieren.

Bis Anfang 2026 hatte Celestia über 160 GB an Rollup-Daten verarbeitet, hielt einen Marktanteil von rund 50 % im Nicht-Ethereum-DA-Sektor und verzeichnete ein 10-faches Wachstum seiner täglichen Blob-Gebühren seit Ende 2024. Der Erfolg der Plattform zeigt, dass DA nicht nur eine Kostenstelle ist, sondern eine potenzielle Einnahmequelle für Plattformen, die wettbewerbsfähige Preise, Zuverlässigkeit und einfache Integration bieten können.

Die Frage der DA-Fragmentierung

Dennoch bleibt Ethereum die „Premium“-Option. Trotz höherer Kosten bietet die Blob-DA von Ethereum unübertroffene Sicherheitsgarantien – die Datenverfügbarkeit wird durch denselben Konsensmechanismus gesichert, der Billionenwerte schützt. Für hochwertige L2s, die Finanzanwendungen, institutionelle Nutzer oder große Unternehmen bedienen, stellt die Zahlung eines Aufpreises für die Ethereum-DA eine Versicherung gegen katastrophale Datenverluste oder Verfügbarkeitsausfälle dar.

Dies schafft einen zweistufigen Markt:

  • Hochwertige L2s (Base, Arbitrum One, Optimism) nutzen weiterhin die Ethereum-DA und betrachten die Kosten als notwendige Sicherheitsausgabe.
  • Kostensensible L2s (Gaming-Chains, experimentelle Netzwerke, Anwendungen mit hohem Durchsatz) setzen zunehmend auf alternative DA-Layer wie Celestia, EigenDA oder sogar zentralisierte Lösungen.

Für die L2s selbst stellt sich die strategische Frage, ob sie reine Ethereum-Rollups bleiben oder „Validium“- oder Hybridmodelle akzeptieren, die für drastische Kostenreduzierungen etwas Sicherheit opfern. Die Ökonomie begünstigt zunehmend die Hybridisierung – doch die Auswirkungen auf die Marke und die Sicherheit bleiben umstritten.

Interessanterweise beginnen einige L2s damit, selbst DA-Dienste anzubieten. Wenn ein L2 eine ausreichende Skalierung und Dezentralisierung erreicht, könnte er theoretisch Datenverfügbarkeit für andere, kleinere Chains bereitstellen – und so eine neue Einnahmequelle schaffen, während er seine Position in der Ökosystem-Hierarchie stärkt.

Enterprise-Lizenzierung: Das B2B-Umsatzmodell

Während Privatanwender von Transaktionskosten besessen sind, die in Bruchteilen von Cent gemessen werden, baut das Phänomen der Enterprise-Rollups im Stillen ein völlig anderes Geschäftsmodell auf – eines, bei dem Gebühren kaum eine Rolle spielen.

Das Jahr 2025 markierte den Aufstieg von „Enterprise-Rollups“: L2 - Infrastrukturen, die von großen Institutionen primär nicht für Endverbraucher, sondern für kontrollierte Geschäftsumgebungen eingesetzt werden. Kraken startete INK, Uniswap implementierte UniChain, Sony führte Soneium für Gaming und Medien ein, und Robinhood integrierte die Arbitrum-Infrastruktur zur Abwicklung von Brokerage-Transaktionen.

Diese Unternehmen starten keine L2s, um um Marktanteile im Einzelhandel zu konkurrieren, die am Transaktionsvolumen gemessen werden. Sie setzen Blockchain-Infrastrukturen ein, um spezifische Geschäftsprobleme zu lösen: Compliance-Management, Endgültigkeit der Abwicklung (Settlement Finality), Interoperabilität mit dezentralen Ökosystemen und Differenzierung des Kundenerlebnisses.

Das Enterprise-Wertversprechen

Für Robinhood ermöglicht ein L2 den Aktienhandel rund um die Uhr und eine sofortige Abwicklung – Funktionen, die in traditionellen Märkten, die an Geschäftszeiten und T + 2 - Abwicklungszyklen gebunden sind, unmöglich sind. Für Sony eröffnet die Blockchain-basierte Gaming- und Medienverteilung neue Einnahmemodelle, plattformübergreifende Interoperabilität von Assets und Community-Governance-Mechanismen, die eine Web2 - Infrastruktur nicht unterstützen kann.

Transaktionsgebühren werden in diesen Kontexten weitgehend irrelevant. Ob ein Handel 0,001 oder0,01oder 0,01 kostet, spielt kaum eine Rolle, wenn die Alternative mehrtägige Verzögerungen bei der Abwicklung oder die Unmöglichkeit bestimmter Transaktionen überhaupt sind.

Das Einnahmemodell verlagert sich von „Gebühren pro Transaktion“ zu „Plattformgebühren, Lizenzierung und Mehrwertdiensten“:

  • Start- und Implementierungsgebühren: Gebühren für die Bereitstellung maßgeschneiderter L2 - Infrastrukturen, die oft zwischen Hunderttausenden und Millionen von Dollar liegen.
  • Managed Services: Laufende betriebliche Unterstützung, Upgrades, Überwachung und Unterstützung bei der Compliance.
  • Governance- und Berechtigungsmanagement: Tools für Unternehmen, um zu kontrollieren, wer mit ihren Chains interagieren kann, KYC / AML-Anforderungen zu implementieren und die Einhaltung regulatorischer Vorschriften zu gewährleisten.
  • Datenschutz- und Vertraulichkeitsfunktionen: Das Prividium-Framework von ZKsync beispielsweise bietet Datenschutzebenen auf Enterprise-Niveau, die Finanzinstitute für sensible Transaktionsdaten benötigen.

Optimism leistete Pionierarbeit mit seiner Superchain-Architektur, die von den Teilnehmern 2,5 % der gesamten Sequencer-Einnahmen oder 15 % der Sequencer-Gewinne für den Beitritt zum Netzwerk interoperabler OP-Stack-Chains verlangt. Dies ist keine benutzerorientierte Gebühr – es handelt sich um eine B2B-Umsatzbeteiligungsvereinbarung zwischen Optimism und Institutionen, die ihre eigenen Chains mit der OP-Stack-Technologie bereitstellen.

Private vs. öffentliche L2-Ökonomie

Das Unternehmensmodell führt auch zu einer fundamentalen Gabelung in der L2-Architektur: öffentliche versus private (oder zugangsbeschränkte) Chains.

Öffentliche L2s bieten sofortigen Zugang zu bestehenden Nutzern, Liquidität und gemeinsamer Infrastruktur – im Wesentlichen die Anbindung an das Ethereum DeFi-Ökosystem. Diese Chains hängen vom Transaktionsvolumen ab und müssen über Gebühren konkurrieren.

Private L2s ermöglichen es Institutionen, Teilnehmer, Datenhandhabung und Governance zu kontrollieren, während das Settlement für Finalität und Sicherheit weiterhin auf Ethereum verankert bleibt. Diese Chains können völlig anders abrechnen: Zugangsgebühren, SLA-Garantien, Full-Service-Betreuung und Integrationsunterstützung statt Kosten pro Transaktion.

Der sich abzeichnende Konsens deutet darauf hin, dass L2-Anbieter wie Cloud-Infrastrukturunternehmen agieren werden. Genau wie AWS für Rechenleistung, Speicher und Bandbreite mit Premium-Tiers für Unternehmens-SLAs und Support abrechnet, werden L2-Betreiber über Service-Tiers monetarisieren, nicht über Transaktionsgebühren.

Dieses Modell erfordert Skalierung, Reputation und Vertrauen – Attribute, die etablierte Akteure wie Optimism, Arbitrum und aufstrebende Giganten wie Base begünstigen. Kleinere L2s ohne Markenbekanntheit oder Unternehmensbeziehungen werden es schwer haben, in diesem Markt zu bestehen.

Die technische Architektur der Nachhaltigkeit

Um die Gebühren-Apokalypse zu überleben, bedarf es mehr als kluger Geschäftsmodelle – es erfordert architektonische Innovationen, die grundlegend verändern, wie L2s arbeiten und Werte erfassen.

Dezentralisierung des Sequencers

Die meisten L2s verlassen sich heute auf zentralisierte Sequencer: einzelne Einheiten, die für die Sortierung von Transaktionen und die Erstellung von Blöcken verantwortlich sind. Während diese Architektur eine schnelle Finalität und einfache Abläufe ermöglicht, schafft sie einen Single Point of Failure, regulatorische Risiken und Einschränkungen bei MEV-Erfassungsstrategien.

Dezentrale Sequencer stellen einen der wichtigsten technischen Übergänge des Jahres 2026 dar. Durch die Verteilung des Sequencing auf mehrere Betreiber können L2s:

  • Staking-Mechanismen ermöglichen, bei denen Sequencer-Betreiber Token sperren müssen, was neuen Token-Nutzen und potenzielle Einnahmen aus Slashing-Strafen schafft.
  • Faire Sortierung und MEV-Minderungsstrategien implementieren, die sich glaubwürdig zum Nutzerschutz verpflichten.
  • Regulatorische Risiken reduzieren, indem einzelne verantwortliche Einheiten eliminiert werden.
  • Möglichkeiten für „Sequencer-as-a-Service“-Märkte schaffen, in denen Teilnehmer um Sequencing-Rechte bieten.

Die Herausforderung besteht darin, den Geschwindigkeitsvorteil der L2s beizubehalten und gleichzeitig zu dezentralisieren. Netzwerke wie Arbitrum und Optimism haben Pläne für dezentrale Sequencer-Sets angekündigt, aber die Umsetzung hat sich als komplex erwiesen. Schnelle Blockzeiten (einige L2s streben eine Finalität von 2 Sekunden an) werden mit verteiltem Konsens schwieriger aufrechtzuerhalten.

Dennoch sind die wirtschaftlichen Anreize klar: Dezentrale Sequencer erschließen Staking-Renditen, Validator-Netzwerke und MEV-Marktplätze – alles potenzielle Einnahmequellen, die zentralisierten Betreibern nicht zur Verfügung stehen.

Shared Sequencing und Cross-L2-Liquidität

Ein weiteres aufstrebendes Modell ist das „Shared Sequencing“, bei dem mehrere L2s über eine gemeinsame Sequencing-Ebene koordinieren. Diese Architektur ermöglicht atomare Cross-L2-Transaktionen, einheitliche Liquiditätspools und die MEV-Erfassung über Chains hinweg statt innerhalb einzelner Silos.

Shared Sequencer könnten monetarisieren durch:

  • Gebühren, die L2s für die Aufnahme in den Shared Sequencing Service berechnet werden.
  • Erfasstes MEV aus Cross-Chain-Arbitrage und Liquidationen.
  • Prioritätsauktionen für die Sortierung über mehrere Chains gleichzeitig.

Projekte wie Espresso Systems, Astria und andere bauen an der Infrastruktur für Shared Sequencing, obwohl die Einführung noch in einem frühen Stadium ist. Das Wirtschaftsmodell geht davon aus, dass L2s für Sequencing-Dienste bezahlen werden, anstatt ihre eigenen zu betreiben, wodurch ein neuer Infrastrukturmarkt entsteht.

Modulare Datenverfügbarkeit (Modular Data Availability)

Wie bereits erwähnt, stellt DA (Data Availability) sowohl ein Kostenzentrum als auch ein potenzielles Ertragszentrum dar. Die modulare Blockchain-Diese – bei der Ausführung, Konsens und Datenverfügbarkeit in spezialisierte Schichten getrennt werden – schafft Märkte auf jeder Ebene.

L2s, die auf Nachhaltigkeit optimieren, werden zunehmend DA-Lösungen kombinieren:

  • Transaktionen mit hoher Sicherheit nutzen Ethereum DA.
  • Transaktionen mit hohem Volumen und geringerem Wert nutzen günstigere Alternativen wie Celestia oder EigenDA.
  • Anwendungsfälle mit extrem hohem Durchsatz könnten zentralisierte DA mit Fraud Proofs oder Validity Proofs zur Sicherheit einsetzen.

Dieses „Data Availability Routing“ erfordert eine anspruchsvolle Infrastruktur für die Verwaltung und schafft Möglichkeiten für Middleware-Anbieter, die die DA-Auswahl dynamisch basierend auf Kosten, Sicherheitsanforderungen und Netzwerkbedingungen optimieren können.

Was als Nächstes kommt: Drei mögliche Zukunftsszenarien

Die L2-Umsatzkrise wird sich in den nächsten 12 bis 18 Monaten in einem von drei Gleichgewichten auflösen:

Zukunft 1: Die große Konsolidierung

Die meisten L2s schaffen es nicht, eine ausreichende Skalierung zu erreichen, und der Markt konsolidiert sich um 5 bis 10 dominante Chains, die von großen Institutionen unterstützt werden. Base (Coinbase), Arbitrum, Optimism und einige spezialisierte Chains erfassen über 90 % der Aktivitäten. Diese Überlebenden monetarisieren über Unternehmensbeziehungen, MEV-Erfassung und Plattformgebühren, während der Token-Wert durch Rückkäufe erhalten bleibt, die durch diversifizierte Einnahmen finanziert werden.

Kleinere L2s werden entweder eingestellt oder zu App-spezifischen Chains für nischige Anwendungsfälle und geben ihre Ambitionen als General-Purpose-Netzwerke auf.

Zukunft 2: Die Service-Ebene

L2-Betreiber schwenken auf Infrastructure-as-a-Service-Geschäftsmodelle um und verdienen Einnahmen durch den Verkauf von Sequencing-, DA- und Settlement-Diensten an andere Chains. Der OP Stack, Arbitrum Orbit, zkSync’s ZK Stack und ähnliche Frameworks werden zum AWS / Azure / GCP der Blockchain, wobei Transaktionsgebühren nur einen kleinen Bruchteil des Gesamtumsatzes ausmachen.

In dieser Zukunft wird der Betrieb öffentlicher L2s zu einem Lockvogelangebot für den Verkauf von Unternehmensinfrastruktur.

Zukunft 3: Der MEV-Markt

PBS und ausgeklügelte MEV-Erfassungsmechanismen reifen so weit aus, dass L2s effektiv zu Marktplätzen für Blockspace und Transaktionssortierung werden, anstatt nur Transaktionsprozessoren zu sein. Die Einnahmen fließen primär von Searchern, Buildern und professionellen Market Makern anstatt von Endnutzern.

Retail-Nutzer genießen kostenlose Transaktionen, die durch MEV-Erfassungen aus professionellen Handelsaktivitäten subventioniert werden. L2-Token gewinnen an Wert als Governance-Instrumente über MEV-Umverteilungsmechanismen.

Jeder Weg bleibt plausibel, und verschiedene L2s können unterschiedliche Strategien verfolgen. Aber der Status quo – die primäre Abhängigkeit von Nutzertransaktionsgebühren – ist bereits veraltet.

Der Weg in die Zukunft

Die 0,001-Dollar-Gebührenkrise erzwingt eine längst überfällige Abrechnung: Blockchain-Infrastruktur kann, genau wie das Cloud-Computing davor, auf Dauer nicht von hauchdünnen Transaktionsmargen im großen Maßstab überleben. Die Gewinner werden diejenigen sein, die diese Realität zuerst erkennen und Erlösmodelle entwickeln, die über das Pro-Transaktions-Paradigma hinausgehen.

Für die Nutzer ist dieser Übergang überwiegend positiv. Nahezu kostenlose Transaktionen ermöglichen Anwendungen, die bei höheren Gebühren unmöglich wären: Mikrozahlungen, On-Chain-Gaming, Hochfrequenzhandel und IoT-Abrechnungen. Die Infrastrukturkrise ist eine Krise für Blockchain-Betreiber, nicht für Blockchain-Nutzer.

Für L2-Betreiber ist die Herausforderung existenziell, aber lösbar. MEV-Abschöpfung, Unternehmenslizenzierung, Datenverfügbarkeitsmärkte und Infrastructure-as-a-Service-Modelle bieten Wege zur Nachhaltigkeit. Die Frage ist, ob L2-Teams den Übergang vollziehen können, bevor ihre Finanzpuffer aufgebraucht sind oder ihre Communities das Vertrauen verlieren.

Und für Ethereum selbst stellt die L2-Einnahmenkrise eine Bestätigung seiner Rollup-zentrierten Roadmap dar. Das Ökosystem skaliert genau wie geplant – die Transaktionskosten gehen gegen Null, der Durchsatz schießt in die Höhe und die Sicherheit des Mainnets bleibt unbeeinträchtigt. Der wirtschaftliche Schmerz ist ein Feature, kein Bug: eine marktgetriebene Zwangsfunktion, die nachhaltige Infrastruktur von spekulativen Experimenten trennen wird.

Der Gebührenkrieg ist vorbei. Der Einnahmenkrieg hat gerade erst begonnen.


Quellen:

Pump.funs Paradoxon des faireren Launchs: Wenn 98,6 % trotz fairer Mechanismen scheitern

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was passiert, wenn der "Fair Launch" zum fairsten Weg wird, sein Geld zu verlieren? Pump.fun versprach, die Erstellung von Memecoins zu demokratisieren, indem Vorverkäufe und Zuteilungen für Insider eliminiert wurden – doch 98,6 % der auf der Plattform gestarteten Token entpuppen sich als Betrug. Dies ist kein Fehler im System. Es könnte das Geschäftsmodell sein.

In der schnelllebigen Welt der Solana-Memecoins ist Pump.fun sowohl revolutionär als auch abschreckend geworden. Die Plattform verarbeitete über 3 Millionen Token-Launches, was seit ihrem Debüt durchschnittlich 7 neuen Token pro Minute entspricht. Aber hier ist der Haken: Nur 1,4 % dieser Token "schaffen den Abschluss" zum Mainstream-Handel, und die durchschnittliche Lebensdauer beträgt lediglich 12 Tage.

Wie wurde eine Plattform, die darauf ausgelegt war, gleiche Voraussetzungen zu schaffen, zum Friedhof für Privatanleger? Und was ändern aufstrebende Alternativen wie Moonshot und SunPump an dieser Gleichung?

Das Bonding-Curve-Versprechen: Mathematische Fairness, reales Chaos

Im Zentrum der Innovation von Pump.fun steht die Bonding-Curve – ein mathematischer Preisbildungsmechanismus, der die Token-Preise automatisch basierend auf Angebot und Nachfrage anpasst. Im Gegensatz zu traditionellen Token-Launches, die Vorab-Liquidität oder komplexe Market-Making-Arrangements erfordern, ermöglichen Bonding-Curves eine sofortige Preisfindung durch Smart Contracts.

Die Formel ist täuschend einfach: Je mehr Käufer Token prägen (minten), desto mehr steigt der Preis entlang einer vordefinierten Kurve (linear, exponentiell oder sigmoidal). Wenn Verkäufer Token zurückgeben, sinkt der Preis. Dieser Mechanismus macht externe Market Maker überflüssig und schafft sofortige Liquidität für neue Projekte.

Die spezifische Implementierung von Pump.fun erfordert, dass Token eine Marktkapitalisierung von etwa 69.000 $ erreichen, bevor sie den "Abschluss" machen – an diesem Punkt ist die Bonding-Curve erfüllt und die Liquidität wird auf Raydium übertragen, Solanas führende dezentrale Börse. Als Sicherheitsmaßnahme verbrennt (burn) die Plattform die Liquiditätspool-Token (LP-Token), was theoretisch verhindert, dass Ersteller einen Rug-Pull begehen, indem sie die Liquidität abziehen.

Theoretisch.

Das 98,6-%-Problem: Wenn Fair Launch auf die räuberische Realität trifft

Das Forschungsunternehmen Solidus Labs fällte das vernichtende Urteil: 98,6 % der auf Pump.fun gestarteten Token entpuppen sich als Betrug. Das bedeutet, dass bei 986 von 1.000 Projekten entweder die Ersteller Gelder abziehen oder Token auf ahnungslose Käufer abladen (dumpen).

Der finanzielle Schaden ist erschütternd. Während Pump.fun 935,6 Millionen anPlattformeinnahmengenerierte,verlorenNutzerBerichtenzufolgezwischen4und5,5Milliardenan Plattformeinnahmen generierte, verloren Nutzer Berichten zufolge zwischen 4 und 5,5 Milliarden. Die Gebührenstruktur der Plattform stellt sicher, dass sie von jeder Transaktion profitiert – ungeachtet dessen, ob der Token erfolgreich ist oder zu einer weiteren Statistik im Memecoin-Friedhof wird.

Die Überlebensstatistiken zeichnen ein noch düstereres Bild:

  • 98 % der in den letzten 3 Monaten gestarteten Token sind tot
  • Durchschnittliche Lebensdauer: 12 Tage
  • Nur 1,4 % schaffen jemals den "Abschluss" auf Raydium
  • Unter den Absolventen machen nur 12 Token (0,00009 %) mehr als 55 % des Gesamtwerts aus

Alle 24 Stunden werden auf Pump.fun 10.417 Token gestartet, während 9.912 eingestellt werden. Die Plattform ist zu einem Hochgeschwindigkeits-Laufband geworden, auf dem neue Projekte schneller geboren werden und sterben, als die meisten Investoren Informationen verarbeiten können.

Die Bot-Invasion: Fair Launch durch Automatisierung gekapert

Das Versprechen des "Fair Launch" bricht zusammen, wenn Bots die Token-Erstellung dominieren. Coinbase-Manager Conor Grogan enthüllte, dass eine Handvoll Bots für die überwiegende Mehrheit der Token-Launches auf Plattformen wie Pump.fun verantwortlich ist.

Jüngste Daten verdeutlichen das Ausmaß: Auf LetsBONK.fun (einer ähnlichen Memecoin-Plattform) starteten 13 Wallets über 4.200 Token in nur 24 Stunden. Top-Accounts setzten alle drei Minuten neue Token ein und erzeugten künstliche Kurssprünge, die Privatanleger in die Falle locken.

Diese automatisierten Netzwerke nutzen die Dynamik des "Wer zuerst kommt, mahlt zuerst" aus, die durch Bonding-Curves entsteht. Während die mathematische Formel alle Käufer gleich behandelt, verdrängen Bots mit überlegener Ausführungsgeschwindigkeit und Marktkenntnis konsequent die privaten Teilnehmer (Front-Running). Das Ergebnis? Ein "Fair Launch"-System, bei dem die Wettbewerbsbedingungen alles andere als gleich sind.

Die rechtliche Abrechnung: 500-Millionen-Dollar-Klage und existenzielle Risiken

Das finanzielle Blutbad ist nicht unbemerkt geblieben. Eine im Januar 2023 eingereichte Klage über 500 Millionen $ stellt eine existenzielle Bedrohung für das Geschäftsmodell von Pump.fun dar. Die rechtliche Herausforderung argumentiert, dass das Versäumnis der Plattform, Betrug zu verhindern – obwohl sie kräftig daran verdient –, Fahrlässigkeit oder Mitschuld darstellt.

Der Zeitpunkt könnte nicht schlechter sein. Am 12. Juli 2026 werden 41 % des gesamten PUMP-Token-Angebots, das derzeit gesperrt ist, handelbar. Dieses massive Unlocking-Event gibt Gründern und frühen Investoren die Möglichkeit zu verkaufen, was den Markt potenziell mit Angebot überschwemmt, genau dann, wenn der rechtliche und Reputationsdruck steigt.

Die Plattform steht vor einer grundlegenden Frage: Ist die Betrugsrate von 98,6 % wirklich unvermeidlich, oder fehlt Pump.fun schlichtweg der Anreiz, ein Problem zu beheben, das zuverlässige Handelsgebühren generiert?

Evolution des Fair Launch: Was Alternativen ändern

Das Ökosystem der Memecoin-Launchpads entwickelt sich als Reaktion auf das Scheitern von Pump.fun weiter. Moonshot und SunPump repräsentieren unterschiedliche Ansätze zur Lösung des "Fair Launch"-Paradoxons.

Moonshot: Deflationäre Mechanismen als Sicherheitsmerkmal

Moonshot, entwickelt von DexScreener, implementiert ähnliche Fair - Launch - Prinzipien ohne Presale, fügt jedoch entscheidende Sicherheitsvorkehrungen hinzu:

  1. Höhere Graduation - Schwelle: Token müssen 500 SOL (~ 73.000 $ Marktkapitalisierung) erreichen, bevor sie zu Raydium migrieren – eine etwas höhere Schwelle als bei Pump.fun.

  2. Automatische Token - Burns: Wenn ein Token „graduiert“, verbrennt Moonshot automatisch 150 bis 200 Millionen Token, um deflationären Druck zu erzeugen. Dieser Knappheitsmechanismus soll theoretisch den langfristigen Wert steigern.

  3. Liquidity Locking: Die gesamte Liquidität wird durch das Verbrennen von LP - Token gesperrt, was einen stärkeren Schutz gegen Rug - Pulls im Vergleich zu Pump.fun bietet.

Der deflationäre Ansatz stellt einen philosophischen Wandel dar: Anstatt sich ausschließlich auf die Bonding Curve zu verlassen, integriert Moonshot tokenökonomische Anreize direkt in den Launch - Prozess.

SunPump: Fair Launch wird Multi - Chain

SunPump bringt das Bonding - Curve - Modell in das TRON - Netzwerk und wurde im August 2024 eingeführt. Die Plattform spiegelt die Kernmechaniken von Pump.fun wider – keine Presales, keine Team - Allokationen, Bonding - Curve - Preisgestaltung – und profitiert gleichzeitig von den niedrigeren Transaktionsgebühren bei TRON.

Die Multi - Chain - Expansion unterstreicht einen wichtigen Trend: Fair - Launch - Mechanismen sind plattformagnostisch. Die Frage ist nicht, ob Bonding Curves funktionieren, sondern wie man verhindert, dass sie von böswilligen Akteuren missbraucht werden.

Anti - Bot - Innovationen: Die Grenze von 2026

Im gesamten Launchpad - Ökosystem entstehen neue Mechanismen zur Bekämpfung der Bot - Dominanz:

  • Anti - Sniper - Schutz: Integrierte Funktionen verhindern, dass Bots im ersten Block nach dem Start den gesamten Vorrat aufkaufen.
  • Reputationssysteme: Die Historie der Teilnehmer bestimmt die Priorität bei der Token - Verteilung, wodurch echte Community - Mitglieder gegenüber Sybil - Angreifern bevorzugt werden.
  • Bonding - Curve - Reifeschranken: Die Liquiditätsmigration erfolgt erst nach Erreichen bestimmter Zeit - und Volumenmeilensteine, nicht nur bei Erreichen von Marktkapitalisierungsschwellen.

Diese Innovationen erkennen eine harte Wahrheit an: Mathematische Fairness garantiert keine reale Gerechtigkeit, wenn Automatisierung und Informationsasymmetrie dominieren.

Die Infrastruktur - Frage: Wo ordnet sich BlockEden.xyz ein?

Für Entwickler, die in diesem chaotischen Ökosystem bauen, wird die Zuverlässigkeit der Infrastruktur entscheidend. Ob man den nächsten Memecoin lanciert oder Analysetools entwickelt, um die Token - Flut zu bewältigen – der Zugang zu einer robusten Solana RPC - Infrastruktur unterscheidet Gewinner von Verlierern.

Die Bot - Netzwerke, die Pump.fun dominieren, verlassen sich auf Ausführungen im Millisekundenbereich und Echtzeit - Blockchain - Daten. Privatanleger und unabhängige Entwickler benötigen einen gleichwertigen Zugang, um wettbewerbsfähig zu sein – oder zumindest um zu vermeiden, die Exit - Liquidität zu sein.

BlockEden.xyz bietet eine Solana RPC - Infrastruktur der Enterprise - Klasse mit Latenzzeiten im Sub - Sekundenbereich und 99,9 % Verfügbarkeit. Für Entwickler, die sich in der Memecoin - Landschaft bewegen – sei es bei der Erstellung von Launchpads, Trading - Bots oder Analyse - Dashboards – ist ein zuverlässiger Node - Zugang nicht optional. Entdecken Sie unsere Solana API - Services, um auf einer Infrastruktur aufzubauen, die mit dem schnellsten Ökosystem der Blockchain Schritt hält.

Das ungelöste Paradoxon: Was kommt als Nächstes?

Die Geschichte von Pump.fun offenbart eine grundlegende Spannung im Krypto - Bereich: Dezentralisierung und Permissionlessness schaffen Chancen, ermöglichen aber auch Ausbeutung in großem Stil. Fair - Launch - Mechanismen lösen ein Problem (Insider - Zugang), während sie ein anderes schaffen (Bot - Dominanz und Verbreitung von Scams).

Der Umsatz der Plattform von 935 Millionen beweist,dasseineNachfragenachdemokratisierterTokenErstellungbesteht.DieVerlustederNutzerinHo¨hevon4bis5,5Milliardenbeweist, dass eine Nachfrage nach demokratisierter Token - Erstellung besteht. Die Verluste der Nutzer in Höhe von 4 bis 5,5 Milliarden belegen, dass das aktuelle Modell für die meisten Teilnehmer nicht nachhaltig ist.

Während sich das Ökosystem weiterentwickelt, zeichnen sich drei potenzielle Zukunftsszenarien ab:

  1. Regulatorische Eingriffe: Die 500 - Millionen - Dollar - Klage könnte Plattformen dazu zwingen, Maßnahmen zur Betrugsprävention zu implementieren, selbst wenn dies im Widerspruch zu idealistischen Vorstellungen von Erlaubnisfreiheit steht.

  2. Technische Innovation: Anti - Bot - Mechanismen, Reputationssysteme und verbesserte Tokenomics könnten tatsächlich fairere Launches ermöglichen.

  3. Marktreife: Investoren werden anspruchsvoller, Bot - Betreiber ziehen weniger Wert ab und nur Qualitätsprojekte ziehen Kapital an – das Überleben der Besten auf Ökosystem - Ebene.

Das Memecoin - Casino wird so schnell nicht schließen. Aber ob es zu einem nachhaltigen Ökosystem oder zu einem dauerhaften Friedhof wird, hängt davon ab, ob das Paradoxon im Kern gelöst wird: den „Fair Launch“ tatsächlich fair zu gestalten.

Quellen

Der Aufstieg von KI-Agenten in DeFi: Finanztransformation während Sie schlafen

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn die transformativste Kraft im Krypto-Bereich nicht ein neues Layer 2, ein Meme-Coin oder die Zulassung eines ETF ist – sondern Software, die handelt, verwaltet und Vermögen aufbaut, während Sie schlafen? Das Zeitalter der KI-Agenten ist angebrochen, und es gestaltet alles um, was wir über dezentrale Finanzen zu wissen glaubten.

In nur 18 Monaten ist die Akzeptanz von KI-Agenten in Unternehmen von 11 % auf 42 % gestiegen, während Gartner prognostiziert, dass bis Ende 2026 40 % aller Unternehmensanwendungen aufgabenspezifische KI-Agenten enthalten werden – gegenüber weniger als 5 % heute. Laut Capgemini könnte dieser Wandel bis 2028 einen wirtschaftlichen Wert von 450 Milliarden US-Dollar freisetzen. Die radikalsten Experimente finden jedoch on-chain statt, wo autonome Agenten bereits Milliarden an DeFi-Kapital verwalten, tausende Trades pro Tag ausführen und die Annahme grundlegend infrage stellen, dass der Mensch stets involviert sein muss.

Willkommen in der DeFAI-Ära – in der dezentrales Finanzwesen auf künstliche Intelligenz trifft und die Gewinner möglicherweise gar keine Menschen sind.

Von Copilots zu autonomen Operatoren: Der Wendepunkt im Jahr 2026

Die Zahlen erzählen eine Geschichte exponentieller Beschleunigung. Die Akzeptanz autonomer Agenten in Unternehmen wird voraussichtlich von 25 % im Jahr 2025 auf etwa 37 % im Jahr 2026 springen und bis 2027 die 50 %-Marke überschreiten. Der dedizierte Markt für autonome KI- und Agentensoftware wird allein in diesem Jahr 11,79 Milliarden US-Dollar erreichen.

Doch diese Statistiken unterschätzen die Transformation, die im Web3-Bereich stattfindet. Im Gegensatz zu herkömmlicher Unternehmenssoftware bietet die Blockchain das perfekte Substrat für KI-Agenten: erlaubnisfreier Zugang, programmierbares Geld und transparente Ausführung. Ein KI-Agent benötigt kein Bankkonto, keine Unternehmensgenehmigung oder regulatorische Freigabe, um Kapital über DeFi-Protokolle hinweg zu bewegen – er benötigt lediglich eine Wallet und Smart-Contract-Interaktionen.

Das Ergebnis? Was Trent Bolar in The Capital als „den Anbruch der autonomen On-Chain-Finanzierung“ bezeichnet. Diese Agenten folgen nicht nur vorprogrammierten Regeln. Sie nehmen On-Chain-Daten in Echtzeit wahr – Preise, Liquidität, Renditen über verschiedene Protokolle hinweg –, entwickeln mehrstufige Strategien, führen Transaktionen unabhängig aus und lernen aus den Ergebnissen, um sich im Laufe der Zeit zu verbessern.

Der 50-Milliarden-Dollar-DeFAI-Markt nimmt Gestalt an

DeFAI – die Verschmelzung von DeFi und KI – hat sich in weniger als zwei Jahren von einem Nischenexperiment zu einer Milliarden-Kategorie entwickelt. Prognosen deuten darauf hin, dass der Markt von seinem aktuellen Bereich von 10 bis 15 Milliarden US-Dollar auf über 50 Milliarden US-Dollar bis Ende 2026 anwachsen wird, wenn die Protokolle reifen und sich die Nutzerakzeptanz beschleunigt.

Die Anwendungsfälle vervielfachen sich rasant:

Hands-Free Yield Farming: KI-Agenten suchen kontinuierlich nach den höchsten APYs in verschiedenen Protokollen und schichten Vermögenswerte automatisch uum, um die Rendite zu maximieren, während sie Gaskosten, unbeständige Verluste (Impermanent Loss) und Liquiditätsrisiken berücksichtigen. Was früher stundenlange Dashboard-Überwachung erforderte, geschieht heute autonom.

Autonomes Portfoliomanagement: AgentFi-Bots gleichen Bestände neu aus, ernten Belohnungen und passen Risikoprofile in Echtzeit an. Einige beginnen bereits, „Billionen an TVL“ zu verwalten und werden zu dem, was Analysten als „algorithmische Wale“ bezeichnen, die Liquidität bereitstellen und sogar DAOs steuern.

Ereignisgesteuertes Trading: Durch die gleichzeitige Überwachung von On-Chain-Orderbüchern, sozialer Stimmung und Marktdaten führen KI-Agenten Trades in Millisekunden aus – eine Geschwindigkeit, die für menschliche Trader unmöglich ist.

Prädiktives Risikomanagement: Anstatt auf Marktcrashs zu reagieren, identifizieren KI-Systeme potenzielle Risiken, bevor sie eintreten, und machen DeFi-Protokolle sicherer und kapitaleffizienter.

Virtuals Protocol: Die Infrastruktur für KI-Agenten

Kaum ein Projekt veranschaulicht das explosive Wachstum von On-Chain-KI-Agenten besser als das Virtuals Protocol. Im März 2024 auf Base mit einer Marktkapitalisierung von 50 Millionen US-Dollar gestartet, stieg es bis Dezember desselben Jahres auf über 1,6 Milliarden US-Dollar an – eine 32-fache Steigerung.

Die Statistiken des Protokolls verdeutlichen das Ausmaß der KI-Agenten-Aktivität, die derzeit on-chain stattfindet:

  • 466 Millionen US-Dollar an gesamtem Agenten-BIP (durch Agenten generierter wirtschaftlicher Wert)
  • 1,16 Millionen US-Dollar an kumuliertem Agenten-Umsatz
  • Fast eine Million von autonomen Agenten abgeschlossene Aufgaben
  • 13,23 Milliarden US-Dollar monatliches Handelsvolumen
  • Ethy AI, ein einzelner herausragender Agent, hat über 2 Millionen Transaktionen verarbeitet

Die Roadmap 2026 von Virtuals zeigt an, wohin sich der Sektor bewegt: Skalierung des Agenten-Handels über Smart Contracts, Ausbau der Kapitalmärkte (die bereits 29,5 Millionen US-Dollar für 15.000 Projekte aufgebracht haben) und Ausweitung in den Bereich Robotik mit 500.000 geplanten realen Integrationen.

Die Artificial Superintelligence Alliance: Dezentrale AGI-Infrastruktur

Der Zusammenschluss von Fetch.ai, SingularityNET und Ocean Protocol zur Artificial Superintelligence (ASI) Alliance stellt einen der ambitioniertesten Versuche dar, dezentrale künstliche allgemeine Intelligenz (AGI) auf Blockchain-Basis aufzubauen.

Das zusammengeschlossene Unternehmen strebt eine Marktkapitalisierung von rund 6 Milliarden US-Dollar an und vereint drei komplementäre Fähigkeiten:

  • Fetch.ai: Autonome KI-Agenten für Lieferkettenoptimierung, Marktplatzautomatisierung und DeFi-Operationen, plus ASI-1 Mini – ein Web3-natives Large Language Model, das für Agenten-Frameworks entwickelt wurde
  • SingularityNET: Ein globaler KI-Marktplatz, auf dem Entwickler Algorithmen veröffentlichen, die andere aufrufen und bezahlen können, wodurch im Grunde eine „API-Ökonomie“ für Intelligenz entsteht
  • Ocean Protocol: Tokenisierte Datensätze mit datenschutzfreundlicher Compute-to-Data-Technologie, die KI-Training ermöglicht, ohne Rohdaten preiszugeben

Während sich Ocean Protocol kürzlich aus der formellen Direktionsstruktur der Allianz zurückgezogen hat, um eine unabhängige Tokenomics zu verfolgen, signalisiert die Zusammenarbeit, wie sich Web3-Infrastruktur positioniert, um Werte aus der KI-Revolution zu schöpfen – anstatt sie vollständig zentralisierten Plattformen zu überlassen.

30 % der Prognosemarkt-Handel: Die Übernahme durch Bots

Nirgendwo ist der Aufstieg von KI-Agenten sichtbarer als auf Prognosemärkten. Laut den 26 Schlüsselprognosen von Cryptogram Venture für 2026 wird prognostiziert, dass KI mehr als 30 % des Handelsvolumens auf Plattformen wie Polymarket ausmachen wird. Dabei fungieren sie eher als dauerhafte Liquiditätsanbieter denn als kurzzeitige Spekulanten.

Die Performance-Lücke zwischen Bots und Menschen ist mittlerweile staggering:

  • Ein Bot verwandelte 313in313 in 414.000 innerhalb eines einzigen Monats.
  • Ein anderer Händler erzielte mithilfe von KI-Strategien einen Gewinn von $ 2,2 Millionen in zwei Monaten.
  • Bots nutzen Latenzzeiten, Arbitrage und falsch bewertete Wahrscheinlichkeiten mit einer Geschwindigkeit aus, die Menschen schlichtweg nicht erreichen können.

Das Ökosystem von Polymarket umfasst mittlerweile über 170 Drittanbieter-Tools in 19 Kategorien – von KI-gesteuerten autonomen Agenten bis hin zu automatisierten Arbitrage-Systemen, Whale-Tracking und Analysen auf institutionellem Niveau. Plattformen wie RSS3 MCP Server und Olas Predict ermöglichen es Agenten, Ereignisse autonom zu scannen, Daten zu sammeln und rund um die Uhr Handel auszuführen.

Die Implikation ist tiefgreifend: Die menschliche Teilnahme könnte zunehmend eher als Trainingsdaten dienen und nicht mehr als der primäre Treiber der Marktaktivität.

Die Infrastrukturlücke: Was fehlt?

Trotz des Hypes bleiben erhebliche Herausforderungen bestehen, bevor KI-Agenten ihr volles Potenzial in Web3 ausschöpfen können:

Vertrauensdefizit: Laut Capgemini ist das Vertrauen in vollständig autonome KI-Agenten im vergangenen Jahr von 43 % auf 27 % gesunken. Nur 40 % der Organisationen geben an, dass sie KI-Agenten vertrauen, Aufgaben unabhängig zu verwalten.

Regulatorische Unsicherheit: Die rechtlichen Rahmenbedingungen für agentengesteuerte Aktionen sind noch unterentwickelt. Wer trägt die Haftung, wenn ein KI-Agent einen Handel ausführt, der Verluste verursacht? „Know Your Agent“ (KYA)-Standards könnten als regulatorische Antwort entstehen.

Systemisches Risiko: Die weit verbreitete Nutzung ähnlicher KI-Agenten könnte in Stressphasen des Marktes zu Herdenverhalten führen – man stelle sich vor, Tausende von Agenten verlassen gleichzeitig denselben Liquiditätspool.

Sicherheitslücken: Wie Forschungen aus dem Jahr 2025 zeigten, können bösartige Agenten Protokollschwachstellen ausnutzen. Robuste Verteidigungsmechanismen und Audit-Frameworks speziell für agentische Systeme stecken noch in den Kinderschuhen.

Wallet- und Identitätsinfrastruktur: Die meisten Wallets wurden nicht für nicht-menschliche Nutzer konzipiert. Die Infrastruktur für Agenten-Identität, Schlüsselmanagement und Berechtigungssysteme befindet sich noch im Aufbau.

Die 450-Milliarden-Dollar-Chance

Die Forschung von Capgemini beziffert den wirtschaftlichen Gewinn: Die Zusammenarbeit von Mensch und KI könnte bis 2028 einen Wert von 450Milliardenfreisetzen,kombiniertausUmsatzsteigerungenundKosteneinsparungen.OrganisationenmitskaliertenImplementierungenwerdenindenna¨chstendreiJahrenvoraussichtlichdurchschnittlichetwa450 Milliarden freisetzen, kombiniert aus Umsatzsteigerungen und Kosteneinsparungen. Organisationen mit skalierten Implementierungen werden in den nächsten drei Jahren voraussichtlich durchschnittlich etwa 382 Millionen generieren.

Das Weltwirtschaftsforum geht noch weiter und legt nahe, dass agentische KI in den nächsten zehn Jahren weltweit Produktivitätsgewinne in Unternehmen in Höhe von $ 3 Billionen erzielen könnte, während sie gleichzeitig den Zugang für kleine Unternehmen erweitert und völlig neue Ebenen wirtschaftlicher Aktivität ermöglicht.

Speziell für DeFi sind die Prognosen ebenso ambitioniert. Bis Mitte 2026 und darüber hinaus könnten Agenten Billionen an Total Value Locked verwalten und damit grundlegend verändern, wie Kapitalallokation, Governance und Risikomanagement on-chain funktionieren.

Was das für Entwickler und Investoren bedeutet

Das DeFAI-Narrativ ist nicht nur Hype – es ist der logische Endpunkt, an dem programmierbares Geld auf programmierbare Intelligenz trifft. Wie ein Branchenanalyst es ausdrückte: „Im Jahr 2026 werden die erfolgreichsten DeFi-Teilnehmer keine Menschen sein, die Dashboards bearbeiten, sondern diejenigen, die Flotten von intelligenten Agenten einsetzen.“

Für Entwickler liegt die Chance in der Infrastruktur: Agent-native Wallets, Berechtigungs-Frameworks, Orakel-Systeme, die für maschinelle Konsumenten entwickelt wurden, und Sicherheitstools, die agentisches Verhalten prüfen können.

Für Investoren könnte das Verständnis darüber, welche Protokolle die Agenten-Aktivität erfassen – Transaktionsgebühren, Rechenleistung, Datenverbrauch – vorausschauender sein als traditionelle DeFi-Metriken.

Es wird erwartet, dass die meisten großen Krypto-Wallets im Jahr 2026 eine auf natürlicher Sprache basierende, Intent-gesteuerte Transaktionsausführung einführen werden. Die Schnittstelle zwischen Menschen und On-Chain-Aktivitäten verschmilzt zu einer Konversation, die durch KI vermittelt wird.

Die Frage ist nicht, ob KI-Agenten DeFi transformieren werden. Es geht darum, ob Menschen relevante Teilnehmer bleiben – oder zu den Trainingsdaten für Systeme werden, die außerhalb unseres Verständnisses und unserer Geschwindigkeit operieren.


Bauen Sie Infrastruktur für die agentische Zukunft? BlockEden.xyz bietet RPC- und API-Dienste der Enterprise-Klasse für Sui, Aptos, Ethereum und andere führende Chains – die Basisschicht, die KI-Agenten benötigen, um zuverlässig und in großem Maßstab mit Blockchain-Netzwerken zu interagieren. Erkunden Sie unseren API-Marktplatz, um Ihre Anwendungen der nächsten Generation voranzutreiben.

Stablecoin-Chains

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn die lukrativste Immobilie im Kryptobereich nicht ein Layer-1-Protokoll oder eine DeFi-Anwendung wäre – sondern die Leitungen unter Ihren digitalen Dollars?

Circle, Stripe und Tether setzen hunderte Millionen darauf, dass sich die Kontrolle über die Abrechnungsebene (Settlement Layer) für Stablecoins als wertvoller erweisen wird als die Stablecoins selbst. Im Jahr 2025 kündigten drei der mächtigsten Akteure der Branche speziell entwickelte Blockchains an, die eigens für Stablecoin-Transaktionen konzipiert wurden: Circles Arc, Stripes Tempo und Plasma. Das Rennen um den Besitz der Stablecoin-Infrastruktur hat begonnen – und der Einsatz könnte nicht höher sein.