Direkt zum Hauptinhalt

334 Beiträge getaggt mit „Technologische Innovation“

Technologische Innovationen und Durchbrüche

Alle Tags anzeigen

Ethereums Paradigmenwechsel in der Skalierung: Die Rolle der Layer-2-Netzwerke neu überdenken

· 15 Min. Lesezeit
Dora Noda
Software Engineer

In einer überraschenden Kehrtwende, die Schockwellen durch das Ethereum-Ökosystem sandte, erklärte Vitalik Buterin im Februar 2026, dass die Rollup-zentrierte Skalierungs-Roadmap, die die Ethereum-Entwicklung jahrelang geleitet hat, „keinen Sinn mehr ergibt“. Diese Aussage war keine gänzliche Ablehnung von Layer-2-Netzwerken, sondern vielmehr eine grundlegende Neubewertung ihrer Rolle in der Zukunft von Ethereum – angetrieben durch zwei unbequeme Wahrheiten: Layer 2s dezentralisierten sich weitaus langsamer als erwartet, während die Basisschicht von Ethereum schneller skalierte, als es sich jemand vorstellen konnte.

Jahrelang war das Narrativ klar: Ethereum Layer 1 würde teuer und langsam bleiben und als Settlement-Layer dienen, während Layer-2-Rollups die überwiegende Mehrheit der Benutzertransaktionen abwickeln würden. Doch da sich die Blob-Kapazität bis 2026 verdoppelt und PeerDAS eine achtfache Steigerung der Datenverfügbarkeit ermöglicht, ist Ethereum L1 nun in der Lage, niedrige Gebühren und einen massiven Durchsatz anzubieten – was die eigentliche Grundlage der L2-Value-Proposition infrage stellt.

Die Rollup-zentrierte Vision von einst

Die Rollup-zentrierte Roadmap entstand als Ethereums Antwort auf das Blockchain-Trilemma. Anstatt bei der Dezentralisierung oder Sicherheit Kompromisse einzugehen, um Skalierung zu erreichen, sollte Ethereum die Ausführung auf spezialisierte Layer-2-Netzwerke auslagern. Diese übernahmen die Sicherheitsgarantien von Ethereum, während sie Transaktionen zu einem Bruchteil der Kosten verarbeiteten.

Diese Vision prägte Milliarden an Risikokapital, Entwicklungsaufwand und die Positionierung des Ökosystems. Arbitrum, Optimism und Base entwickelten sich zu den „großen Drei“ der L2s, die zusammen fast 90 % aller Layer-2-Transaktionen abwickelten. Bis Ende 2025 erreichten die täglichen L2-Transaktionen 1,9 Millionen pro Tag und übertrafen damit zum ersten Mal die Aktivitäten im Ethereum-Mainnet.

Die Wirtschaftlichkeit schien aufzugehen. Base erwirtschaftete im Jahr 2024 einen Bruttogewinn von fast 30 Millionen US-Dollar und übertraf damit Arbitrum und Optimism zusammen. Arbitrum verfügte über ein TVL (Total Value Locked) von etwa 16 bis 19 Milliarden US-Dollar, was 41 % des gesamten L2-Marktes entsprach. Layer 2s waren nicht nur ein Punkt auf der Roadmap – sie waren eine florierende Industrie.

Doch unter der Oberfläche bildeten sich Risse.

Was sich geändert hat: L1 skalierte, L2s stagnierten

Buterins Neubewertung basierte auf zwei kritischen Beobachtungen, die im Laufe des Jahres 2025 und Anfang 2026 deutlich wurden.

Erstens erwies sich die Dezentralisierung von Layer 2 als weitaus schwieriger als erwartet. Die meisten großen L2s blieben abhängig von zentralisierten Sequencern, Multisig-Bridges und Upgrade-Mechanismen, die von kleinen Gruppen kontrolliert wurden. Der Weg von Stufe 0 (vollständig zentralisiert) zu Stufe 2 (vollständig dezentralisiert), den Buterin skizziert hatte, dauerte viel länger als gedacht. Während einige Netzwerke Stufe-1-Fraud-Proofs erreichten – Arbitrum, OP Mainnet und Base implementierten Ende 2025 erlaubnisfreie Fraud-Proof-Systeme –, blieb eine echte Dezentralisierung schwer fassbar.

In Buterins unverblümter Einschätzung: „Wenn man eine EVM mit 10.000 TPS schafft, deren Verbindung zu L1 über eine Multisig-Bridge vermittelt wird, dann skaliert man Ethereum nicht.“

Zweitens skalierte Ethereum L1 dramatisch schneller, als die ursprüngliche Roadmap vorsah. EIP-4844, das im März 2024 mit dem Dencun-Upgrade eingeführt wurde, brachte Blob-Transaktionen, die die Kosten für die Datenverfügbarkeit von L2s um über 90 % senkten. Optimism reduzierte seine DA-Kosten um mehr als die Hälfte durch die Optimierung von Batching-Strategien. Doch das war erst der Anfang.

Das Fusaka-Upgrade im Dezember 2025 führte PeerDAS (Peer Data Availability Sampling) ein, was die Art und Weise, wie Nodes Daten verifizieren, grundlegend veränderte. Anstatt ganze Blöcke herunterzuladen, können Validatoren die Datenverfügbarkeit nun durch Stichproben kleiner, zufälliger Teile verifizieren, was die Anforderungen an Bandbreite und Speicher drastisch reduziert. Dieser architektonische Wandel ebnet den Weg für eine Erhöhung der Blob-Kapazität von 6 auf 48 pro Block durch automatisierte Blob-Parameter-Only (BPO)-Forks – vorprogrammierte Upgrades, die die Anzahl der Blobs alle paar Wochen ohne manuelles Eingreifen erhöhen.

Anfang 2026 hatte sich die Blob-Kapazität von Ethereum mehr als verdoppelt, mit einem klaren technischen Pfad zu einer 20-fachen Erweiterung in den kommenden Jahren. In Kombination mit steigenden Gas-Limits war Ethereum L1 nicht länger der teure Settlement-Layer der ursprünglichen Vision – es entwickelte sich selbst zu einer Hochdurchsatz-Ausführungsumgebung mit niedrigen Kosten.

Die Geschäftsmodell-Krise für Layer 2s

Dieser Wandel stellt eine existenzielle Herausforderung für L2-Netzwerke dar, deren gesamtes Nutzenversprechen darauf beruht, „günstiger als Ethereum“ zu sein.

Mit 2- bis 3-mal mehr Blobspace bis Anfang 2026 und einer 20-fachen Steigerung in Sicht, werden die Transaktionskosten auf L2 voraussichtlich um weitere 50 bis 90 % sinken. Während dies positiv klingt, schmälert es die Margen der L2-Betreiber, die bereits durch den Gebührenkollaps nach Dencun unter Druck geraten sind. Die Gebührensenkung um 90 % durch das Dencun-Upgrade löste aggressive Gebührenkriege aus, die die meisten Rollups in die Verlustzone trieben, wobei Base der einzige große L2 war, der im Jahr 2025 einen Gewinn erzielte.

Wenn Ethereum L1 einen vergleichbaren Durchsatz bei ähnlichen Kosten bieten kann und gleichzeitig stärkere Sicherheitsgarantien sowie native Interoperabilität bietet, was rechtfertigt dann die Komplexität und Fragmentierung durch die Aufrechterhaltung Dutzender separater L2-Ökosysteme?

Analysten prognostizieren, dass kleinere Nischen-L2s bis 2026 aufgrund mangelnder nachhaltiger Einnahmen und Nutzeraktivität zu „Zombie-Chains“ werden könnten. Der Markt hat sich bereits drastisch konsolidiert – Arbitrum, Optimism und Base kontrollieren die überwältigende Mehrheit der L2-Aktivitäten und stellen eine Infrastrukturschicht dar, die als „too big to fail“ gilt. Doch selbst diese Marktführer stehen vor strategischer Ungewissheit.

Steven Goldfeder von Arbitrum widersprach Buterins Darstellung und betonte, dass Skalierung weiterhin das Kernversprechen von L2s bleibe. Jesse Pollak von Base räumte ein, dass die „L1-Skalierung für das Ökosystem von Vorteil ist“, argumentierte jedoch, dass L2s nicht bloß ein „günstigeres Ethereum“ sein dürfen – sie müssen einen differenzierten Mehrwert bieten.

Diese Spannung offenbart die zentrale Herausforderung: Wenn die L1-Skalierung das ursprüngliche L2-Nutzenversprechen untergräbt, was tritt dann an dessen Stelle?

Neudefinition von Layer-2s: Mehr als nur günstigere Transaktionen

Anstatt Layer-2s aufzugeben, schlug Buterin eine grundlegende Neudefinition ihres Zwecks vor. Anstatt L2s primär als Skalierungslösungen zu positionieren, sollten sie sich darauf konzentrieren, einen Mehrwert zu bieten, den L1 nicht ohne Weiteres replizieren kann:

Privacy-Funktionen. Ethereum L1 bleibt konstruktionsbedingt transparent. L2s können Zero-Knowledge-Proofs, vollständig homomorphe Verschlüsselung oder Trusted Execution Environments integrieren, um vertrauliche Transaktionen zu ermöglichen — eine Fähigkeit, die regulierte Institutionen zunehmend fordern. Der Schwenk von ZKsync hin zu Enterprise Privacy Computing mit seinem Prividium-Banking-Stack (der von der Deutschen Bank und UBS übernommen wurde) ist beispielhaft für diesen Ansatz.

Anwendungsspezifisches Design. Generische Ausführungsumgebungen konkurrieren über Kosten und Geschwindigkeit. Zweckgebundene L2s können für spezifische Anwendungsfälle optimiert werden — Gaming-Chains mit einer Finalität im Subsekundenbereich, DeFi-Chains mit MEV-Schutz oder soziale Netzwerke mit Zensurresistenz. Der Erfolg von Ronin im Bereich GameFi und der Fokus von Base auf Consumer-Apps beweisen die Tragfähigkeit einer spezialisierten Positionierung.

Ultraschnelle Bestätigung. Während Ethereum L1 Blockzeiten von 12 Sekunden anstrebt, können L2s für spezifische Anwendungsfälle nahezu sofortige „Soft-Confirmations“ anbieten. Dies ist besonders wichtig für Endverbraucheranwendungen, bei denen sich selbst eine Wartezeit von 12 Sekunden unnatürlich anfühlt.

Nicht-finanzielle Anwendungsfälle. Viele Blockchain-Anwendungen benötigen nicht die volle ökonomische Sicherheit von Ethereum L1. Dezentrale soziale Netzwerke, Lieferketten-Tracking und Gaming könnten von dedizierten Ausführungsumgebungen mit unterschiedlichen Vertrauensannahmen profitieren.

Kritisch betonte Buterin, dass L2s gegenüber den Nutzern transparent machen müssen, welche Garantien sie tatsächlich bieten. Ein Netzwerk, das durch ein 5-von-9-Multisig gesichert ist, bietet keine „Ethereum-Sicherheit“ — es bietet Multisig-Sicherheit. Die Nutzer verdienen es, diesen Kompromiss zu verstehen.

Was ersetzt das Rollup-zentrierte Narrativ?

Wenn die Rollup-zentrierte Roadmap die Skalierungszukunft von Ethereum nicht mehr allein definiert, was tut es dann?

Der aufkommende Konsens deutet auf ein Dual-Scaling-Modell hin, bei dem sowohl L1 als auch L2 parallel expandieren und unterschiedliche Zwecke erfüllen:

Ethereum L1 wird zu einer Hochleistungs-Ausführungsebene, nicht nur zu einem Settlement-Layer. Da PeerDAS eine massive Erweiterung der Datenverfügbarkeit ermöglicht, die Gas-Limits erhöht werden und potenzielle zukünftige Upgrades wie die parallele Ausführung (geplant für das Glamsterdam-Upgrade) anstehen, kann Ethereum L1 einen erheblichen Transaktionsdurchsatz direkt bewältigen. Dies ist wichtig für Anwendungsfälle, die stärkste Sicherheitsgarantien erfordern — hochwertiges DeFi, institutionelle Abwicklungen und Anwendungen, bei denen Vertrauensminimierung an oberster Stelle steht.

Layer-2s entwickeln sich von „Skalierungslösungen“ zu „spezialisierten Ausführungsumgebungen“. Anstatt über Kosten und Geschwindigkeit zu konkurrieren (wo L1-Verbesserungen ihren Vorteil schmälern), differenzieren sich L2s durch Funktionen, Governance-Modelle und die Optimierung für spezifische Anwendungsfälle. Man sollte sie weniger als „Ethereum, aber billiger“ betrachten, sondern eher als „maßgeschneiderte Ethereum-Varianten für bestimmte Zwecke“.

Datenverfügbarkeit wird zu einem wettbewerbsorientierten Markt. Während Ethereums Danksharding-Roadmap weiterhin DA-Kapazität hinzufügt, schaffen alternative DA-Layer wie Celestia (das durch geringe Kosten und Modularität an Zugkraft gewinnt) und EigenDA (das Ethereum-ausgerichtete Sicherheit durch Restaking bietet) Wahlmöglichkeiten. L2s könnten basierend auf Kosten, Sicherheit und Ökosystem-Ausrichtung entscheiden, wo sie Daten veröffentlichen.

Interoperabilität wird von einem „Nice-to-have“ zur Grundvoraussetzung. In einer Welt mit L1-Aktivität und Dutzenden von L2s wird eine nahtlose Kommunikation zwischen den Ebenen unerlässlich. Standards wie ERC-7683 (Cross-Chain-Intents) und Infrastrukturen wie Chainlink CCIP zielen darauf ab, die Multi-Chain-Realität für Endnutzer unsichtbar zu machen.

Dies ist zwar nicht die Rollup-zentrierte Vision, die Ethereum von 2020 bis 2025 leitete, aber sie ist möglicherweise realistischer — und besser darauf abgestimmt, wie sich das Ökosystem tatsächlich entwickelt hat.

Die Debatte um die Wertschöpfung: L1 vs. L2

Ein Faktor, der diesen Übergang erschwert, ist die Ökonomie der Wertschöpfung (Value Accrual) für ETH-Token-Inhaber.

Layer-1-Transaktionen generieren Gebührenverbrennung durch EIP-1559, was das ETH-Angebot direkt reduziert und deflationären Druck erzeugt. Layer-2-Transaktionen zahlen jedoch nur minimale Gebühren an Ethereum für die Datenverfügbarkeit — nur einen Bruchteil des Wertes, den sie selbst erfassen. Wenn die Aktivität auf L2s abwandert, sinkt die Gebührenverbrennung von ETH, was potenziell die Tokenomics schwächen könnte.

Eine Analyse von Fidelity stellte fest, dass „Layer-1-Transaktionen deutlich mehr Wert an ETH-Investoren weitergeben als Transaktionen auf Layer 2“. Dies deutet darauf hin, dass eine erhöhte L1-Aktivität in einen größeren Wert für Token-Inhaber resultieren könnte. Die Einführung einer Blob-Gebührenuntergrenze (EIP-7918) im Fusaka-Upgrade versucht, Preismacht im DA-Layer von Ethereum zu etablieren und Blobs potenziell in eine skalierbare Einnahmequelle zu verwandeln, wenn L2s mehr Kapazität verbrauchen.

Dies schafft jedoch ein Spannungsfeld: Wenn die Prioritäten der Ethereum Foundation auf die L1-Wertschöpfung optimiert werden, entstehen dann fehlausgerichtete Anreize für L2-Ökosysteme, die Milliarden an Risikokapital mit dem Versprechen eingeworben haben, Ethereums Skalierungslösung zu sein?

Der Schatten von Solana

Unausgesprochen, aber in dieser gesamten Debatte präsent, ist der Wettbewerbsdruck durch Solana.

Während Ethereum eine modulare, Rollup-zentrierte Architektur verfolgte, setzte Solana auf monolithische Skalierung — den Aufbau eines einzigen, ultraschnellen L1, bei dem Nutzer keine Brücken zwischen Layern schlagen oder eine komplexe Fragmentierung des Ökosystems verstehen müssen. Mit dem Firedancer-Client-Upgrade, das 1 Million TPS und eine Finalität im Subsekundenbereich anstrebt, stellt Solana die These infrage, dass Modularität der einzige Weg zur Skalierung ist.

R3 bezeichnete Solana als das „Nasdaq der Blockchains“, und institutionelles Kapital ist darauf aufmerksam geworden — Anträge für Solana-ETFs, Staking-Rendite-Produkte und die Akzeptanz in Unternehmen sind bis Ende 2025 und Anfang 2026 sprunghaft angestiegen.

Ethereums Schwenk hin zu einer stärkeren L1-Skalierung ist zum Teil eine Reaktion auf diese Wettbewerbsdynamik. Wenn Ethereum bei der Durchsatzrate mit Solana gleichziehen kann und gleichzeitig seine überlegene Dezentralisierung und den Reichtum seines Ökosystems beibehält, wird die modulare Komplexität von L2s eher optional als zwingend erforderlich.

Was passiert mit den bestehenden L2-Ökosystemen?

Für die „großen Drei“ der L2s erfordert dieser Wandel eine strategische Neupositionierung:

Arbitrum hält den höchsten TVL und das am weitesten entwickelte DeFi-Ökosystem. Seine Reaktion betont, dass Skalierung weiterhin essenziell bleibt und dass L1-Verbesserungen die Notwendigkeit von L2-Kapazitäten nicht aufheben. Das Netzwerk baut seinen DeFi-Vorsprung weiter aus und setzt auf die Expansion im Gaming-Bereich (Ende 2025 wurde ein Gaming-Katalysator-Fonds in Höhe von 215 Millionen US-Dollar angekündigt).

Optimism leistete Pionierarbeit mit der Superchain-Vision – einem Netzwerk miteinander verbundener L2s, die einen gemeinsamen Stack nutzen. Dieser modulare Ansatz positioniert Optimism weniger als einzelne L2, sondern vielmehr als Infrastrukturanbieter für Entwickler maßgeschneiderter Chains. Wenn die Zukunft spezialisierten statt generischen L2s gehört, gewinnt der Stack von Optimism an Wert.

Base nutzt die Basis von über 100+ Millionen Coinbase-Nutzern und konzentriert sich auf Consumer-Apps. Die Strategie, auf On-Chain-Nutzererlebnisse abzuzielen – Zahlungen, soziale Medien, Gaming –, schafft eine Differenzierung jenseits der reinen Skalierung. Mit einer Dominanz von 46 % beim DeFi-TVL und einem Anteil von 60 % an den L2-Transaktionen könnte die Ausrichtung von Base auf Endverbraucher das Netzwerk besser vor dem L1-Wettbewerb schützen als rein DeFi-fokussierte Chains.

Für kleinere L2s ohne klare Differenzierung sind die Aussichten düster. Analysten von 21Shares prognostizieren, dass die meisten das Jahr 2026 möglicherweise nicht überleben werden, da Nutzer und Liquidität sich bei den etablierten Marktführern konsolidieren oder zurück zur L1 migrieren, wenn Anwendungen maximale Sicherheit erfordern.

Der Weg in die Zukunft: Ethereums Skalierungsrealität im Jahr 2026

Wie sieht die Skalierung von Ethereum Ende 2026 und darüber hinaus tatsächlich aus?

Voraussichtlich wird es eine hybride Realität sein:

  • Hochwertige Transaktionen auf L1: DeFi-Protokolle, die Milliarden verwalten, institutionelle Abwicklungen und Anwendungen, bei denen die Minimierung von Vertrauen höhere (aber immer noch angemessene) Kosten rechtfertigt.
  • Spezialisierte L2s für differenzierte Anwendungsfälle: Datenschutzfokussierte L2s für regulierte Finanzen, Gaming-L2s mit optimierten Bestätigungszeiten, Consumer-L2s mit vereinfachter UX und subventionierten Gebühren.
  • Konsolidierung von Zombie-Chains: Kleinere L2s mit unklarer Differenzierung verlieren Liquidität und Nutzer, was entweder zur Schließung oder zur Fusion mit größeren Netzwerken führt.
  • Interoperabilität als Infrastruktur: Cross-Chain-Standards und Intent-basierte Systeme machen die L1 / L2-Fragmentierung für Endnutzer weitgehend unsichtbar.

Bis zum 3. Quartal 2026 prognostizieren einige, dass der Layer-2-TVL den Ethereum-L1-DeFi-TVL übersteigen wird und 150 Milliarden US-Dollar erreicht, verglichen mit 130 Milliarden US-Dollar im Mainnet. Doch die Zusammensetzung dieses L2-Ökosystems wird dramatisch anders aussehen – konzentriert auf eine Handvoll großer, differenzierter Netzwerke statt auf Dutzende generischer „Ethereum, aber günstiger“-Alternativen.

Die Rollup-zentrierte Roadmap hat Ethereum im Zeitraum 2020 – 2025 gute Dienste geleistet, als L1-Gebühren unerschwinglich teuer waren und die Skalierung eine existenzielle Krise darstellte. Doch als sich die technischen Realitäten weiterentwickelten – die L1-Skalierung schritt schneller voran als erwartet, die L2-Dezentralisierung langsamer als erhofft –, wäre das Festhalten an einem veralteten Rahmenwerk strategische Starrheit gewesen.

Buterins Erklärung vom Februar 2026 war kein Eingeständnis des Scheiterns. Es war die Anerkennung, dass sich die stärksten Ökosysteme anpassen, wenn die Realität von der Roadmap abweicht.

Die Frage für das nächste Kapitel von Ethereum lautet nicht, ob Layer 2s eine Zukunft haben – sondern ob sie sich von reinen „Skalierungslösungen“ zu echten Innovationen entwickeln können, die die L1 nicht replizieren kann. Die Netzwerke, die diese Frage überzeugend beantworten, werden florieren. Der Rest wird zu Fußnoten in der Blockchain-Geschichte werden.


Quellen

Wenn Maschinen Menschen überholen: KI-Agenten dominieren bereits das Krypto-Handelsvolumen

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Im Januar 2026 wurde ein stiller Meilenstein erreicht: KI-gesteuerte Trading-Bots kontrollieren mittlerweile 58 % des Krypto-Handelsvolumens, während KI-Agenten über 30 % der Aktivitäten auf Prognosemärkten ausmachen.

Die Frage ist nicht mehr, ob autonome Wirtschaftsteilnehmer das menschliche Handelsvolumen übertreffen werden – sondern wann der vollständige Übergang erfolgt und was als Nächstes kommt.

Die Zahlen sprechen eine deutliche Sprache. Der Markt für Krypto-Trading-Bots erreichte im Jahr 2025 ein Volumen von 47,43 Milliarden US-Dollar und wird laut Prognosen im Jahr 2026 auf 54,07 Milliarden US-Dollar ansteigen, mit einer Beschleunigung auf 200,1 Milliarden US-Dollar bis 2035.

Unterdessen verarbeiten Prognosemärkte ein wöchentliches Volumen von 5,9 Milliarden US-Dollar, wobei Piper Sandler für dieses Jahr 445 Milliarden Kontrakte im Nominalwert von 222,5 Milliarden US-Dollar voraussagt.

Hinter diesen Zahlen verbirgt sich ein grundlegender Wandel: Software, nicht der Mensch, wird zum primären Treiber der On-Chain-Wirtschaftsaktivität.

Der Aufstieg autonomer DeFi-Agenten

Im Gegensatz zu den einfachen Arbitrage-Bots der Jahre 2020–2022 führen heutige KI-Agenten anspruchsvolle Strategien aus, die es mit institutionellen Trading-Desks aufnehmen können.

Moderne DeFAI-Systeme (Decentralized Finance AI) agieren autonom über Protokolle wie Aave, Morpho, Compound und Moonwell hinweg und führen Aufgaben aus, die einst Teams von Analysten erforderten:

Portfolio-Rebalancing: Agenten bewerten gleichzeitig Liquiditätstiefe, Collateral-Status, Funding-Raten und Cross-Chain-Bedingungen. Sie schichten Gelder mehrmals täglich um, anstatt im wöchentlichen oder monatlichen Rhythmus traditioneller ETFs. Plattformen wie ARMA investieren Gelder kontinuierlich und ohne menschliches Eingreifen in die Pools mit den höchsten Renditen um.

Auto-Compounding-Belohnungen: Protokolle wie Beefy, Yearn und Convex leisteten Pionierarbeit bei Auto-Compounding-Vaults, die Yield-Farming-Belohnungen ernten und sie sofort wieder in dieselbe Position reinvestieren. Die yVaults von Yearn haben den manuellen Prozess des Claimings und Restakings vollständig eliminiert und maximieren die Zinseszins-Renditen durch algorithmische Effizienz.

Liquidationsstrategien: Autonome Agenten überwachen die Besicherungsquoten rund um die Uhr und verwalten Positionen automatisch, um Liquidationsereignisse zu verhindern. Fetch.ai-Agenten verwalten Liquiditätspools und führen komplexe Handelsstrategien aus, wobei einige durch den Transfer von USDT zwischen Pools annualisierte Renditen von 50–80 % erzielen, sobald bessere Renditechancen entstehen.

Echtzeit-Risikomanagement: KI-Agenten analysieren mehrere Signale – On-Chain-Liquidität, Funding-Raten, Oracle-Price-Feeds, Gas-Kosten – und passen ihr Verhalten innerhalb vordefinierter Richtlinien dynamisch an. Diese Echtzeit-Anpassung ist für menschliche Trader in diesem Umfang unmöglich zu replizieren.

Die Infrastruktur, die diese Funktionen unterstützt, ist rasant gereift. Das x402-Protokoll von Coinbase hat kumulativ über 50 Millionen US-Dollar an agentenbasierten Zahlungen verarbeitet. Plattformen wie Pionex wickeln ein monatliches Handelsvolumen von 60 Milliarden US-Dollar ab, während Hummingbot über 5,2 Milliarden US-Dollar an gemeldetem Volumen unterstützt.

Wie KI-Agenten menschliche Trader übertreffen

In einem 17-tägigen Live-Trading-Experiment auf Polymarket demonstrierten KI-Agenten, die auf führenden LLMs basieren, ihren Vorsprung. Kassandra, unterstützt durch Anthropic's Claude, lieferte eine Rendite von 29 % und übertraf damit sowohl die Agenten auf Basis von Google's Gemini als auch OpenAI's GPT.

Der Vorteil resultiert aus Fähigkeiten, die Menschen nicht erreichen können:

  • 15-Minuten-Arbitrage-Fenster: Agenten nutzen Preisunterschiede zwischen Plattformen schneller aus, als Menschen die Gelegenheit überhaupt erfassen können.
  • Daten-Synthese aus mehreren Quellen: Sie scannen gleichzeitig wissenschaftliche Arbeiten, News-Feeds, soziale Stimmungslagen und On-Chain-Metriken und generieren in Sekundenschnelle strukturierte Research-Signale.
  • Ausführung ohne Emotionen: Im Gegensatz zu menschlichen Tradern, die zu FOMO oder Panikverkäufen neigen, führen Agenten vordefinierte Strategien unabhängig von der Marktvolatilität aus.
  • Betrieb rund um die Uhr: Märkte schlafen nie, und das gilt auch für KI-Agenten, die Positionen über alle Zeitzonen hinweg überwachen.

Das Ergebnis? Etwa 70 % des globalen Krypto-Handelsvolumens ist mittlerweile algorithmisch, wobei institutionelle Bots den Großteil dominieren. Plattformen wie BingX verarbeiten über 670 Millionen US-Dollar an Zuweisungen für Futures-Grid-Bots, während Coinrule über 2 Milliarden US-Dollar an Nutzertransaktionen ermöglicht hat.

Die Infrastrukturlücke, die vollständige Autonomie verhindert

Trotz dieser Fortschritte verhindern kritische Infrastrukturlücken, dass KI-Agenten eine vollständige Autonomie erreichen.

Untersuchungen im Jahr 2026 identifizieren drei Hauptengpässe:

1. Fehlende Schnittstellenebenen

Aktuelle Agenten-Architekturen trennen das „Gehirn“ (LLM) von den „Händen“ (Transaktions-Executor), aber die Verbindung zwischen ihnen bleibt fragil. Der optimale Stack umfasst:

  • Logik-Ebene: LLMs wie GPT-4o oder Claude analysieren Aufgaben und treffen Entscheidungen.
  • Tooling-Ebene: Frameworks wie LangChain oder das Coinbase AgentKit übersetzen Anweisungen in Blockchain-Transaktionen.
  • Settlement-Ebene: Gehärtete Wallets wie Gnosis Safe mit strengen Berechtigungskontrollen.

Das Problem? Diesen Ebenen mangelt es oft an standardisierten APIs, was Entwickler dazu zwingt, für jedes Protokoll maßgeschneiderte Integrationen zu bauen.

ERC-8004, der aufkommende Standard für die vertrauenslose Koordination von KI-Agenten, zielt darauf ab, dies zu lösen, steht jedoch noch am Anfang seiner Einführung.

2. Verifizierbare Durchsetzung von Richtlinien

Wie stellen Sie sicher, dass ein KI-Agent mit autonomem Wallet-Zugriff nicht das gesamte Guthaben abzieht oder unbeabsichtigte Trades ausführt?

Aktuelle Lösungen basieren auf Safe (Gnosis) Wallets mit dem Zodiac-Modul, welches die Berechtigungen von Agenten durch On-Chain-Regeln einschränkt. Die Durchsetzung komplexer, mehrstufiger Strategien (z. B. „nur rebalancen, wenn das Rendite-Delta 2 % überschreitet und Gas unter 20 Gwei liegt“) erfordert jedoch eine anspruchsvolle Smart-Contract-Logik, die den meisten Protokollen fehlt.

Ohne kryptografische Verifizierung der Entscheidungsfindung des Agenten müssen sich Nutzer auf die Programmierung der KI verlassen – ein inakzeptabler Kompromiss im Bereich Trustless Finance.

3. Skalierbarkeit und Kapitalbeschränkungen

KI-Agenten benötigen einen zuverlässigen RPC-Zugriff mit geringer Latenz, um Transaktionen auf mehreren Chains gleichzeitig auszuführen. Da immer mehr Agenten um Blockspace konkurrieren, steigen die Gas-Kosten und die Ausführungsverzögerungen nehmen zu.

Projekte wie Fetch.ai und die ASI Alliance untersuchen hybride Modelle: KI-Agenten nutzen Blockchain-basierte Identitäts- und Zahlungsschienen, während die Ausführung auf hochperformanten Off-Chain-Rechenressourcen erfolgt, wobei die Ergebnisse On-Chain kryptografisch verifiziert werden.

Kapital ist eine weitere Einschränkung. Während 282 Krypto×KI-Projekte im Jahr 2025 Finanzierungen erhielten, drohen Skalierbarkeitslücken und regulatorische Unsicherheiten, Krypto-KI auf Nischenanwendungen zu beschränken, sofern die Infrastruktur nicht weiter reift.

Was passiert, wenn Agenten den Großteil des Volumens kontrollieren?

Analysten prognostizieren, dass die Wirtschaft der autonomen Agenten bis 2030 ein Volumen von 30 Billionen US-Dollar erreichen wird.

Sollte dieser Trend anhalten, sind mehrere Verschiebungen unvermeidlich:

Liquiditätsfragmentierung: Menschliche Trader könnten sich um bestimmte Protokolle oder Strategien gruppieren, während KI-Agenten den Hochfrequenzhandel und Arbitrage dominieren. Dies könnte zweistufige Märkte mit unterschiedlichen Liquiditätsmerkmalen schaffen.

Evolution des Protokolldesigns: DeFi-Protokolle werden für die Interaktion mit Agenten optimiert, nicht für die menschliche UX. Erwarten Sie mehr „agent-native“ Funktionen: programmierbare Ausgabenlimits, durch Richtlinien erzwungene Wallets und maschinenlesbare Dokumentationen.

Regulatorischer Druck: Wenn Agenten autonome Trades in Milliardenhöhe ausführen, werden Regulierungsbehörden Rechenschaftspflicht fordern. Wer ist haftbar, wenn ein KI-Agent Marktmanipulationssignale auslöst? Der Entwickler? Der Nutzer, der ihn eingesetzt hat? Der LLM-Anbieter?

Paradoxon der Markteffizienz: Wenn alle Agenten auf dieselben Signale optimieren (höchste Rendite, geringster Slippage), könnten Märkte aufgrund von Herdenverhalten weniger effizient werden. Die Flash-Crashes von 2026, die durch synchronisierte algorithmische Verkäufe verursacht wurden, verdeutlichen dieses Risiko.

Der Weg nach vorne: Agent-First-Infrastruktur

Die nächste Phase der Blockchain-Entwicklung muss der Agent-First-Infrastruktur Priorität einräumen:

  • Standardisierte Agent-Wallets: Frameworks wie das Coinbase AgentKit für Base oder das Solana Agent Kit sollten universell werden, mit Cross-Chain-Kompatibilität.
  • Trustless Execution Layers: Zero-Knowledge-Proofs oder Trusted Execution Environments (TEEs) müssen Agentenentscheidungen vor dem Settlement verifizieren.
  • Agenten-Register: Über 24.000 Agenten haben sich bereits über Verifizierungsprotokolle registriert. Dezentrale Register mit Reputationssystemen könnten Nutzern helfen, zuverlässige Agenten zu identifizieren und böswillige zu markieren.
  • RPC-Infrastruktur: Node-Provider müssen Latenzzeiten von unter 100 ms für die skalierbare Ausführung von Multi-Chain-Agenten liefern.

Die Infrastrukturlücke schließt sich. ElizaOS und das Virtuals Protocol haben sich als führende Frameworks für den Bau autonomer KI-Agenten mit „Intelligenz“ (LLMs), Gedächtnissystemen und eigenen Wallets etabliert.

Während diese Tools reifen, wird die Unterscheidung zwischen menschlichem Handel und dem Handel durch Agenten vollständig verschwimmen.

Fazit: Die autonome Wirtschaft ist bereits hier

Die Frage „Wann werden KI-Agenten das menschliche Handelsvolumen übertreffen?“ geht am Kern vorbei – in vielen Märkten haben sie es bereits getan. Die eigentliche Frage ist, wie Menschen und Agenten in einer Wirtschaft koexistieren werden, in der Software den Großteil der finanziellen Entscheidungen trifft.

Für Trader bedeutet dies, über Strategie und Risikomanagement zu konkurrieren, nicht über die Geschwindigkeit der Ausführung.

Für Entwickler bedeutet es den Aufbau agent-nativer Protokolle, die autonome Akteure als Primärnutzer voraussetzen.

Für Regulierungsbehörden bedeutet es ein Überdenken von Haftungsrahmen, die für menschliche Entscheidungsfindungen konzipiert wurden.

Die autonome Wirtschaft kommt nicht erst. Sie ist bereits in Betrieb und verarbeitet Transaktionen in Milliardenhöhe, während die meisten Teilnehmer sich dessen nicht bewusst sind.

Die Maschinen sind nicht nur angekommen – sie führen bereits Regie.

BlockEden.xyz bietet RPC-Infrastruktur auf Enterprise-Niveau, optimiert für die Ausführung von KI-Agenten auf Sui, Aptos, Ethereum und über 10 weiteren Chains. Erkunden Sie unsere Services, um autonome Systeme auf Grundlagen zu bauen, die für maschinenschnelle Finanzen entwickelt wurden.


Quellen:

Ethereums Quantenabwehr: Navigieren durch die Roadmap bis 2030

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Ethereum steht unter Zeitdruck. Während Quantencomputer, die in der Lage sind, moderne Kryptografie zu knacken, noch nicht existieren, schätzt Vitalik Buterin die Wahrscheinlichkeit auf 20 %, dass sie vor 2030 einsatzbereit sein werden – und wenn es soweit ist, könnten Vermögenswerte in Höhe von Hunderten von Milliarden Dollar gefährdet sein. Im Februar 2026 enthüllte er Ethereums bisher umfassendste Roadmap zur Quantenabwehr, die sich auf EIP-8141 und eine mehrjährige Migrationsstrategie konzentriert, um jede anfällige kryptografische Komponente zu ersetzen, bevor der „Q-Day“ eintritt.

Noch nie stand so viel auf dem Spiel. Ethereums Proof-of-Stake-Konsens, Externally Owned Accounts (EOAs) und Zero-Knowledge-Proof-Systeme beruhen alle auf kryptografischen Algorithmen, die Quantencomputer innerhalb von Stunden knacken könnten. Anders als bei Bitcoin, wo Nutzer ihre Gelder schützen können, indem sie Adressen niemals wiederverwenden, erzeugen das Validierungssystem und die Smart-Contract-Architektur von Ethereum dauerhafte Expositionsrisiken. Das Netzwerk muss jetzt handeln – oder riskiert die Bedeutungslosigkeit, sobald die Quantencomputertechnologie ausgereift ist.

Die Quantenbedrohung: Warum 2030 die Deadline für Ethereum ist

Das Konzept des „Q-Day“ – der Moment, in dem Quantencomputer die heutige Kryptografie knacken können – hat sich von einer theoretischen Sorge zu einer strategischen Planungspriorität entwickelt. Die meisten Experten sagen voraus, dass der Q-Day in den 2030er Jahren eintreten wird, wobei Vitalik Buterin einem Durchbruch vor 2030 eine Wahrscheinlichkeit von etwa 20 % beimisst. Auch wenn dies in weiter Ferne scheinen mag, dauert die sichere Durchführung kryptografischer Migrationen auf Blockchain-Ebene Jahre.

Quantencomputer bedrohen Ethereum durch den Shor-Algorithmus, der die mathematischen Probleme, die der RSA- und Elliptic Curve Cryptography (ECC) zugrunde liegen, effizient lösen kann. Ethereum verlässt sich derzeit auf:

  • ECDSA (Elliptic Curve Digital Signature Algorithm) für Signaturen von Benutzerkonten
  • BLS (Boneh-Lynn-Shacham) Signaturen für den Validatoren-Konsens
  • KZG-Commitments für die Datenverfügbarkeit in der Post-Dencun-Ära
  • Traditionelle ZK-SNARKs in Datenschutz- und Skalierungslösungen

Jedes dieser kryptografischen Primitiven wird anfällig, sobald ausreichend leistungsstarke Quantencomputer verfügbar sind. Ein einziger Quantendurchbruch könnte es Angreifern ermöglichen, Signaturen zu fälschen, sich als Validatoren auszugeben und Benutzerkonten leerzuräumen – was potenziell das gesamte Sicherheitsmodell des Netzwerks gefährden würde.

Die Bedrohung ist für Ethereum im Vergleich zu Bitcoin besonders akut. Bitcoin-Nutzer, die Adressen niemals wiederverwenden, halten ihre öffentlichen Schlüssel bis zur Transaktion verborgen, was das Zeitfenster für Quantenangriffe einschränkt. Die Proof-of-Stake-Validatoren von Ethereum müssen jedoch öffentliche BLS-Schlüssel veröffentlichen, um am Konsens teilzunehmen. Interaktionen mit Smart Contracts legen routinemäßig öffentliche Schlüssel offen. Dieser architektonische Unterschied bedeutet, dass Ethereum über beständigere Angriffsflächen verfügt, die eine proaktive Verteidigung anstelle von reaktiven Verhaltensänderungen erfordern.

EIP-8141: Das Fundament der Quantenabwehr von Ethereum

Das Herzstück der Quanten-Roadmap von Ethereum ist EIP-8141, ein Vorschlag, der die Art und Weise, wie Konten Transaktionen authentifizieren, grundlegend neu denkt. Anstatt Signaturverfahren fest im Protokoll zu kodieren, ermöglicht EIP-8141 „Account Abstraction“ – wodurch die Authentifizierungslogik von den Protokollregeln in den Smart-Contract-Code verlagert wird.

Dieser architektonische Wandel transformiert Ethereum-Konten von starren, rein ECDSA-basierten Einheiten in flexible Container, die jeden Signaturalgorithmus unterstützen können, einschließlich quantenresistenter Alternativen. Unter EIP-8141 könnten Nutzer auf hashbasierte Signaturen (wie SPHINCS+), gitterbasierte Verfahren (CRYSTALS-Dilithium) oder hybride Ansätze umsteigen, die mehrere kryptografische Primitive kombinieren.

Die technische Implementierung stützt sich auf „Frame-Transaktionen“, einen Mechanismus, der es Konten ermöglicht, eine benutzerdefinierte Verifizierungslogik festzulegen. Anstatt dass die EVM ECDSA-Signaturen auf Protokollebene prüft, delegieren Frame-Transaktionen diese Verantwortung an Smart Contracts. Das bedeutet:

  1. Zukunftssichere Flexibilität: Neue Signaturverfahren können ohne Hard Forks eingeführt werden.
  2. Schrittweise Migration: Nutzer wechseln in ihrem eigenen Tempo, anstatt koordinierte „Flag Day“-Upgrades durchzuführen.
  3. Hybride Sicherheit: Konten können gleichzeitig mehrere Signaturtypen verlangen.
  4. Quantenresistenz: Hashbasierte und gitterbasierte Algorithmen widerstehen bekannten Quantenangriffen.

Felix Lange, Entwickler bei der Ethereum Foundation, betonte, dass EIP-8141 eine entscheidende „Ausfahrt von ECDSA“ schafft, die es dem Netzwerk ermöglicht, anfällige Kryptografie aufzugeben, bevor Quantencomputer ausgereift sind. Vitalik hat sich dafür ausgesprochen, Frame-Transaktionen in das Hegota-Upgrade aufzunehmen, das für die zweite Jahreshälfte 2026 erwartet wird, was dies zu einer kurzfristigen Priorität statt zu einem fernen Forschungsprojekt macht.

Die vier Säulen: Ethereums kryptografisches Fundament ersetzen

Vitaliks Roadmap zielt auf vier anfällige Komponenten ab, die einen quantenresistenten Ersatz erfordern:

1. Konsens-Layer: Von BLS zu hashbasierten Signaturen

Ethereums Proof-of-Stake-Konsens basiert auf BLS-Signaturen, die Tausende von Validatoren-Signaturen in kompakte Beweise aggregieren. Obwohl effizient, sind BLS-Signaturen quantenanfällig. Die Roadmap schlägt vor, BLS durch hashbasierte Alternativen zu ersetzen – kryptografische Verfahren, deren Sicherheit ausschließlich von kollisionsresistenten Hashfunktionen abhängt und nicht von schwierigen mathematischen Problemen, die Quantencomputer lösen können.

Hashbasierte Signaturen wie XMSS (Extended Merkle Signature Scheme) bieten nachgewiesene Quantenresistenz, gestützt auf jahrzehntelange kryptografische Forschung. Die Herausforderung liegt in der Effizienz: BLS-Signaturen ermöglichen es Ethereum, mehr als 900.000 Validatoren wirtschaftlich zu verarbeiten, während hashbasierte Verfahren wesentlich mehr Daten und Rechenleistung erfordern.

2. Datenverfügbarkeit: KZG-Commitments zu STARKs

Seit dem Dencun-Upgrade nutzt Ethereum KZG-Polynom-Commitments für die „Blob“-Datenverfügbarkeit – ein System, das es Rollups ermöglicht, Daten kostengünstig zu veröffentlichen, während Validatoren diese effizient verifizieren. KZG-Commitments beruhen jedoch auf Paarungen elliptischer Kurven, die anfällig für Quantenangriffe sind.

Die Lösung besteht im Übergang zu STARK-Proofs (Scalable Transparent Argument of Knowledge), die ihre Sicherheit aus Hash-Funktionen anstelle von elliptischen Kurven ableiten. STARKs sind von Natur aus quantenresistent und treiben bereits zkEVM-Rollups wie StarkWare an. Die Migration würde die Datenverfügbarkeitsfunktionen von Ethereum beibehalten und gleichzeitig die Quanten-Anfälligkeit eliminieren.

3. Externally Owned Accounts: Von ECDSA zu Multi-Algorithmus-Unterstützung

Die offensichtlichste Änderung für Nutzer betrifft die Migration der über 200 Millionen Ethereum-Adressen von ECDSA zu quantensicheren Alternativen. EIP-8141 ermöglicht diesen Übergang durch Account Abstraction (Kontoabstraktion), sodass jeder Nutzer sein bevorzugtes quantenresistentes Verfahren wählen kann:

  • CRYSTALS-Dilithium: NIST-standardisierte, gitterbasierte Signaturen, die starke Sicherheitsgarantien bieten.
  • SPHINCS+: Hash-basierte Signaturen, die keine Annahmen erfordern, die über die Sicherheit der Hash-Funktion hinausgehen.
  • Hybride Ansätze: Kombination von ECDSA mit quantenresistenten Verfahren für eine mehrschichtige Verteidigung (Defense-in-Depth).

Die kritische Einschränkung sind die Gaskosten. Eine herkömmliche ECDSA-Verifizierung kostet etwa 3.000 Gas, während eine SPHINCS+-Verifizierung bei etwa 200.000 Gas liegt – eine 66-fache Steigerung. Diese wirtschaftliche Belastung könnte quantenresistente Transaktionen ohne EVM-Optimierung oder neue Precompiles, die speziell für die Verifizierung von Post-Quantum-Signaturen entwickelt wurden, unerschwinglich machen.

4. Zero-Knowledge-Proofs: Übergang zu quantensicheren ZK-Systemen

Viele Layer-2-Skalierungslösungen und Datenschutzprotokolle verlassen sich auf zk-SNARKs (Zero-Knowledge Succinct Non-Interactive Arguments of Knowledge), die typischerweise Kryptografie auf Basis elliptischer Kurven für die Proof-Erstellung und -Verifizierung verwenden. Diese Systeme müssen auf quantenresistente Alternativen wie STARKs oder gitterbasierte ZK-Proofs umgestellt werden.

StarkWare, Polygon und zkSync haben bereits massiv in STARK-basierte Proving-Systeme investiert und damit eine Grundlage für Ethereums Quanten-Übergang geschaffen. Die Herausforderung besteht darin, Upgrades über Dutzende unabhängiger Layer-2-Netzwerke hinweg zu koordinieren und gleichzeitig die Kompatibilität mit dem Base Layer von Ethereum zu wahren.

NIST-Standards und Zeitplan für die Implementierung

Ethereums Quantum-Roadmap baut auf kryptografischen Algorithmen auf, die vom U.S. National Institute of Standards and Technology (NIST) in den Jahren 2024–2025 standardisiert wurden:

  • CRYSTALS-Kyber (jetzt FIPS 203): Schlüsselkapselungsmechanismus für quantensichere Verschlüsselung.
  • CRYSTALS-Dilithium (jetzt FIPS 204): Digitaler Signaturalgorithmus auf Basis von gitterbasierter Kryptografie.
  • SPHINCS+ (jetzt FIPS 205): Hash-basiertes Signaturverfahren mit konservativen Sicherheitsannahmen.

Diese vom NIST genehmigten Algorithmen bieten praxiserprobte Alternativen zu ECDSA und BLS, ergänzt durch formale Sicherheitsnachweise und umfassende Peer-Reviews. Ethereum-Entwickler können diese Verfahren mit Vertrauen in ihre kryptografischen Grundlagen implementieren.

Der Zeitplan für die Implementierung spiegelt eine Dringlichkeit wider, die von der technischen Realität gemildert wird:

Januar 2026: Die Ethereum Foundation gründet ein spezielles Post-Quantum-Sicherheitsteam mit einem Budget von 2 Millionen $, geleitet vom Forscher Thomas Coratger. Dies markierte die formale Erhebung der Quantenresistenz vom Forschungsthema zur strategischen Priorität.

Februar 2026: Vitalik veröffentlicht eine umfassende Roadmap zur Quantenabwehr, einschließlich EIP-8141 und „Strawmap“ – einem Plan für ein Upgrade in sieben Forks, der quantenresistente Kryptografie bis 2029 integriert.

2. Halbjahr 2026: Geplante Aufnahme von Frame-Transaktionen (die EIP-8141 ermöglichen) im Hegota-Upgrade, um die technische Grundlage für quantensichere Account Abstraction zu schaffen.

2027–2029: Phasenweise Einführung von quantenresistenten Konsens-Signaturen, Commitments zur Datenverfügbarkeit und ZK-Proof-Systemen über den Base Layer und Layer-2-Netzwerke hinweg.

Vor 2030: Vollständige Migration der kritischen Infrastruktur auf quantenresistente Kryptografie, um einen Sicherheitsspielraum vor den frühesten geschätzten Q-Day-Szenarien zu schaffen.

Dieser Zeitplan stellt eine der ehrgeizigsten kryptografischen Umstellungen in der Geschichte der Informatik dar. Sie erfordert die Koordination zwischen Foundation-Teams, Client-Entwicklern, Layer-2-Protokollen, Wallet-Anbietern und Millionen von Nutzern – und das alles bei gleichzeitiger Aufrechterhaltung der Betriebsstabilität und Sicherheit von Ethereum.

Die wirtschaftliche Herausforderung: Gaskosten und Optimierung

Quantenresistenz gibt es nicht umsonst. Das bedeutendste technische Hindernis sind die Rechenkosten für die Verifizierung von Post-Quantum-Signaturen in der Ethereum Virtual Machine (EVM).

Die aktuelle ECDSA-Signaturverifizierung kostet etwa 3.000 Gas – etwa 0,10 beitypischenGaspreisen.SPHINCS+,einederkonservativstenquantenresistentenAlternativen,kostetetwa200.000Gasfu¨rdieVerifizierungdasentsprichtetwa6,50bei typischen Gaspreisen. SPHINCS+, eine der konservativsten quantenresistenten Alternativen, kostet etwa 200.000 Gas für die Verifizierung – das entspricht etwa 6,50 pro Transaktion. Für Nutzer, die häufig Transaktionen durchführen oder mit komplexen DeFi-Protokollen interagieren, könnte dieser 66-fache Kostenanstieg untragbar werden.

Mehrere Ansätze könnten diese wirtschaftlichen Auswirkungen abmildern:

EVM-Precompiles: Die Hinzufügung nativer EVM-Unterstützung für die Verifizierung von CRYSTALS-Dilithium und SPHINCS+ würde die Gaskosten drastisch senken, ähnlich wie bestehende Precompiles die ECDSA-Verifizierung erschwinglich machen. Die Roadmap sieht Pläne für 13 neue quantenresistente Precompiles vor.

Hybride Verfahren: Nutzer könnten „klassisch + quanten“-Signaturkombinationen verwenden, bei denen sowohl ECDSA- als auch SPHINCS+-Signaturen validiert werden müssen. Dies bietet Quantenresistenz bei gleichzeitiger Effizienz bis zum Eintreten des Q-Day, an dem die ECDSA-Komponente entfernt werden kann.

Optimistische Verifizierung: Die Forschung zu „Naysayer-Proofs“ untersucht optimistische Modelle, bei denen Signaturen als gültig angenommen werden, sofern sie nicht angefochten werden. Dies reduziert die On-Chain-Verifizierungskosten drastisch auf Kosten zusätzlicher Vertrauensannahmen.

Layer-2-Migration: Quantenresistente Transaktionen könnten primär auf Rollups stattfinden, die für Post-Quantum-Kryptografie optimiert sind, während der Base Layer von Ethereum nur das finale Settlement übernimmt. Diese architektonische Verschiebung würde die Kostensteigerungen auf spezifische Anwendungsfälle begrenzen.

Die Ethereum-Forschungsgemeinschaft untersucht aktiv all diese Wege, wobei wahrscheinlich unterschiedliche Lösungen für verschiedene Anwendungsfälle entstehen werden. Hochwertige institutionelle Überweisungen könnten Gaskosten von 200.000 Gas für die Sicherheit von SPHINCS+ rechtfertigen, während alltägliche DeFi-Transaktionen auf effizientere gitterbasierte Verfahren oder hybride Ansätze setzen könnten.

Von Bitcoin lernen: Verschiedene Bedrohungsmodelle

Bitcoin und Ethereum begegnen Quantenbedrohungen auf unterschiedliche Weise, was ihre jeweiligen Verteidigungsstrategien beeinflusst.

Das UTXO-Modell von Bitcoin und die Muster der Adresswiederverwendung schaffen eine einfachere Bedrohungslandschaft. Nutzer, die Adressen nie wiederverwenden, halten ihre öffentlichen Schlüssel bis zum Ausgeben verborgen, was das Zeitfenster für Quantenangriffe auf den kurzen Zeitraum zwischen der Transaktionsübertragung und der Blockbestätigung begrenzt. Dieser Hinweis „Adressen nicht wiederverwenden“ bietet erheblichen Schutz, selbst ohne Änderungen auf Protokollebene.

Das Kontomodell und die Smart-Contract-Architektur von Ethereum schaffen permanente Expositionspunkte. Jeder Validator veröffentlicht öffentliche BLS-Schlüssel, die konstant bleiben. Smart-Contract-Interaktionen legen routinemäßig öffentliche Schlüssel der Nutzer offen. Der Konsensmechanismus selbst hängt davon ab, alle 12 Sekunden Tausende von öffentlichen Signaturen zu aggregieren.

Dieser architektonische Unterschied bedeutet, dass Ethereum eine proaktive kryptografische Migration benötigt, während Bitcoin potenziell eine reaktivere Haltung einnehmen kann. Die Quanten-Roadmap von Ethereum spiegelt diese Realität wider und priorisiert Änderungen auf Protokollebene, die alle Nutzer schützen, anstatt sich auf Verhaltensänderungen zu verlassen.

Dennoch stehen beide Netzwerke vor ähnlichen langfristigen Notwendigkeiten. Auch für Bitcoin gab es Vorschläge für quantenresistente Adressformate und Signaturschemata, wobei Projekte wie das Quantum Resistant Ledger (QRL) hashbasierte Alternativen demonstrieren. Das breitere Kryptowährungs-Ökosystem erkennt Quantencomputing als existenzielle Bedrohung an, die eine koordinierte Antwort erfordert.

Was dies für Ethereum-Nutzer und -Entwickler bedeutet

Für die über 200 Millionen Inhaber von Ethereum-Adressen wird die Quantenresistenz eher durch schrittweise Wallet-Upgrades als durch dramatische Protokolländerungen erreicht werden.

Wallet-Anbieter werden quantenresistente Signaturschemata integrieren, da EIP-8141 die Kontoabstraktion (Account Abstraction) ermöglicht. Nutzer könnten in MetaMask oder Hardware-Wallets einen „quantensicheren Modus“ wählen, der ihre Konten automatisch auf SPHINCS+- oder Dilithium-Signaturen aktualisiert. Für die meisten wird sich dieser Übergang wie ein routinemäßiges Sicherheitsupdate anfühlen.

DeFi-Protokolle und DApps müssen sich auf die Auswirkungen der Gaskosten durch quantenresistente Signaturen vorbereiten. Smart Contracts müssen möglicherweise neu konzipiert werden, um Aufrufe zur Signaturprüfung zu minimieren oder Operationen effizienter zu bündeln. Protokolle könnten „quantensichere“ Versionen mit höheren Transaktionskosten, aber stärkeren Sicherheitsgarantien anbieten.

Layer-2-Entwickler stehen vor dem komplexesten Übergang, da Rollup-Beweissysteme (Proving Systems), Mechanismen zur Datenverfügbarkeit und Cross-Chain-Bridges allesamt quantenresistente Kryptografie erfordern. Netzwerke wie Optimism haben bereits 10-Jahres-Pläne für den Post-Quanten-Übergang angekündigt, da sie den Umfang dieser technischen Herausforderung erkannt haben.

Validatoren und Staking-Dienste werden schließlich von BLS- zu hashbasierten Konsens-Signaturen migrieren, was potenziell Upgrades der Client-Software und Änderungen an der Staking-Infrastruktur erforderlich macht. Der phasenweise Ansatz der Ethereum Foundation zielt darauf ab, Störungen zu minimieren, aber Validatoren sollten sich auf diesen unvermeidlichen Übergang vorbereiten.

Für das breitere Ökosystem stellt Quantenresistenz sowohl eine Herausforderung als auch eine Chance dar. Projekte, die heute quantensichere Infrastruktur aufbauen – seien es Wallets, Protokolle oder Entwicklertools –, positionieren sich als wesentliche Bestandteile der langfristigen Sicherheitsarchitektur von Ethereum.

Fazit: Wettlauf gegen die Quantenuhr

Die Roadmap zur Quantenverteidigung von Ethereum stellt die umfassendste Reaktion der Blockchain-Industrie auf die Herausforderungen der Post-Quanten-Kryptografie dar. Durch die gleichzeitige Ausrichtung auf Konsens-Signaturen, Datenverfügbarkeit, Nutzerkonten und Zero-Knowledge-Proofs entwirft das Netzwerk eine vollständige kryptografische Überholung, bevor Quantencomputer ausgereift sind.

Der Zeitplan ist ehrgeizig, aber erreichbar. Mit einem engagierten Team für Post-Quanten-Sicherheit mit einem Budget von 2 Millionen US-Dollar, NIST-standardisierten Algorithmen, die zur Implementierung bereitstehen, und einer Übereinstimmung in der Community über die Bedeutung von EIP-8141 verfügt Ethereum über die technische Grundlage und den organisatorischen Willen, diesen Übergang zu vollziehen.

Die wirtschaftlichen Herausforderungen – insbesondere der 66-fache Anstieg der Gaskosten für hashbasierte Signaturen – bleiben ungelöst. Doch mit EVM-Optimierungen, der Entwicklung von Precompiles und hybriden Signaturschemata zeichnen sich Lösungen ab. Die Frage ist nicht, ob Ethereum quantenresistent werden kann, sondern wie schnell es diese Verteidigungsmaßnahmen in großem Maßstab bereitstellen kann.

Für Nutzer und Entwickler ist die Botschaft klar: Quantencomputing ist kein entferntes theoretisches Anliegen mehr, sondern eine kurzfristige strategische Priorität. Das Zeitfenster 2026–2030 stellt für Ethereum die entscheidende Gelegenheit dar, seine kryptografische Grundlage zukunftssicher zu machen, bevor der Q-Day eintritt.

Hundertmilliarden an On-Chain-Werten hängen davon ab, dass dies gelingt. Da Vitaliks Roadmap nun öffentlich ist und die Implementierung läuft, wettet Ethereum darauf, dass es das Rennen gegen das Quantencomputing gewinnen – und die Blockchain-Sicherheit für die Post-Quanten-Ära neu definieren kann.


Quellen:

Die VM-Barriere durchbrechen: Wie die Cross-VM-Architektur von Initia die L2-Orthodoxie von Ethereum herausfordert

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Entwickler ihre Blockchain-Virtual-Machine so wählen könnten wie ihre Programmiersprache – basierend auf der jeweiligen Aufgabe und nicht auf der Bindung an ein Ökosystem? Während das Layer-2-Ökosystem von Ethereum durch den OP Stack und die Superchain-Vision verstärkt auf EVM-Standardisierung setzt, geht Initia den entgegengesetzten Weg: ein vereinheitlichtes Netzwerk, in dem EVM, MoveVM und WasmVM koexistieren, interoperieren und nahtlos miteinander kommunizieren.

Dies ist nicht nur eine architektonische Kuriosität. Während die Blockchain-Infrastruktur im Jahr 2026 reift, wird die Frage, ob Netzwerke VM-Heterogenität begrüßen oder VM-Homogenität erzwingen sollten, darüber entscheiden, welche Plattformen die nächste Generation von Entwicklern anziehen – und welche mit veralteten Tooling zurückbleiben.

Die Multi-VM-These: Warum eine Einheitslösung nicht für alle passt

Initia startete sein Mainnet am 24. April 2025 mit einem radikalen Vorschlag: Sein OPinit Stack Rollup-Framework ist VM-agnostisch und ermöglicht es Layer 2s, basierend auf Anwendungsanforderungen anstatt auf Netzwerkbeschränkungen, EVM, WasmVM oder MoveVM einzusetzen. Dies bedeutet, dass ein DeFi-Protokoll, das das ressourcenorientierte Sicherheitsmodell von Move benötigt, neben einer Gaming-Anwendung laufen kann, die die Leistungsoptimierungen von WebAssembly nutzt – alles innerhalb eines einzigen interoperablen Netzwerks.

Die architektonische Begründung ergibt sich aus der Erkenntnis, dass verschiedene virtuelle Maschinen in unterschiedlichen Aufgaben glänzen:

  • EVM dominiert mit seinen ausgereiften Tools und der großen Entwicklergemeinschaft den Großteil der Blockchain-Entwicklungsaktivitäten.
  • MoveVM, das von Aptos und Sui verwendet wird, führt ein objektbasiertes Modell ein, das für verbesserte Sicherheit und parallele Ausführung konzipiert ist – ideal für hochwertige Finanzanwendungen, bei denen formale Verifizierung wichtig ist.
  • WasmVM bietet eine nahezu native Performance und ermöglicht es Entwicklern, Smart Contracts in vertrauten Sprachen wie Rust, C++ und Go zu schreiben, was die Hürde für Web2-Entwickler beim Übergang zu Web3 senkt.

Das Interwoven Stack-Framework von Initia ermöglicht es Entwicklern, anpassbare Rollups bereitzustellen, die alle drei VMs unterstützen, während sie von universellen Konten und vereinheitlichten Gas-Systemen profitieren. Dies bedeutet, dass Benutzer mit Verträgen über verschiedene VMs hinweg mit jeder Wallet-Software interagieren können, wodurch die Fragmentierung der Benutzererfahrung, die heutige Multi-Chain-Ökosysteme plagt, effektiv beseitigt wird.

Technische Architektur: Das Rätsel der Zustandsübergänge lösen

Die Kerninnovation, die die Cross-VM-Interoperabilität von Initia ermöglicht, liegt darin, wie sie Zustandsübergänge und den Nachrichtenaustausch zwischen heterogenen Ausführungsumgebungen handhabt. Traditionelle Blockchain-Netzwerke erzwingen eine einzige VM, um einen Konsens über Zustandsänderungen aufrechtzuerhalten – die EVM von Ethereum verarbeitet Transaktionen sequentiell, um deterministische Ergebnisse zu gewährleisten, während die SVM von Solana die Ausführung innerhalb eines einzigen VM-Paradigmas parallelisiert.

Die Architektur von Initia hingegen muss grundlegend unterschiedliche Zustandsmodelle in Einklang bringen:

  • EVM verwendet einen kontenbasierten Zustand mit persistenten Speicherplätzen (Storage Slots).
  • MoveVM nutzt ein ressourcenorientiertes Modell, bei dem Assets erstklassige Bürger mit einer auf VM-Ebene erzwungenen Eigentumssemantik sind.
  • WasmVM arbeitet mit linearem Speicher und expliziten Zustandsverwaltungsmustern, die aus der traditionellen Informatik übernommen wurden.

Jedes Modell hat einzigartige Stärken, aber ihre Kombination erfordert eine sorgfältige Koordination.

Forschungen zu heterogenen Blockchain-Frameworks wie HEMVM zeigen, wie dies in der Praxis funktionieren kann. HEMVM integriert EVM und MoveVM durch einen „Cross-Space Handler-Mechanismus“ – eine spezialisierte Smart-Contract-Operation, die Operationen aus mehreren VMs in einer atomaren Transaktion bündelt. Experimentelle Ergebnisse zeigen, dass dieser Ansatz minimale Overheads (weniger als 4,4 %) für Intra-VM-Transaktionen verursacht, während er bis zu 9.300 Transaktionen pro Sekunde für Cross-VM-Interaktionen erreicht.

Initia wendet ähnliche Prinzipien durch die Integration des Inter-Blockchain Communication (IBC) Protokolls an. Das Initia L1 dient als Koordinations- und Liquiditätszentrum und nutzt MoveVM als seine native Ausführungsschicht, während es Rollups ermöglicht, EVM oder WasmVM zu verwenden. Dies stellt die erste Integration von Move-Smart-Contracts dar, die nativ mit dem IBC-Protokoll von Cosmos kompatibel sind, was ein nahtloses Messaging und Asset-Bridging zwischen verschiedenen VM-basierten Layer 2s ermöglicht.

Die technische Implementierung erfordert mehrere Schlüsselkomponenten:

Universal Account Abstraction (Universelle Konto-Abstraktion): Benutzer unterhalten ein einziges Konto, das mit Verträgen über alle VMs hinweg interagieren kann, wodurch die Notwendigkeit separater Wallets oder gewrappter Token beim Wechsel zwischen Ausführungsumgebungen entfällt.

Atomic Cross-VM Transactions (Atomare Cross-VM-Transaktionen): Operationen, die sich über mehrere VMs erstrecken, werden in atomare Einheiten gebündelt, um sicherzustellen, dass entweder alle Zustandsübergänge erfolgreich sind oder alle gemeinsam fehlschlagen – entscheidend für die Aufrechterhaltung der Konsistenz in komplexen Cross-VM-DeFi-Operationen.

Shared Security Model (Modell der geteilten Sicherheit): Auf Initia bereitgestellte Rollups erben die Sicherheit vom L1-Validator-Set, wodurch fragmentierte Sicherheitsannahmen vermieden werden, die unabhängige L2-Netzwerke plagen.

Gas Abstraction (Gas-Abstraktion): Ein vereinheitlichtes Gas-System ermöglicht es Benutzern, Transaktionsgebühren in einem einzigen Token zu bezahlen, unabhängig davon, welche VM ihre Transaktion ausführt. Dies vereinfacht die UX im Vergleich zu Netzwerken, die native Token für jede Chain erfordern.

Ethereums Gegennarrativ: Die Kraft der Standardisierung

Um zu verstehen, warum der Ansatz von Initia umstritten ist, sollte man die gegensätzliche Vision von Ethereum betrachten. Der OP Stack – die Grundlage für Optimism, Base und Dutzende aufstrebender L2s – bietet eine standardisierte Suite von Tools für den Aufbau EVM-kompatibler Rollups. Dieser homogene Ansatz ermöglicht das, was Optimism als „Superchain“ bezeichnet: ein horizontal skalierbares Netzwerk miteinander verbundener Chains, die sich Sicherheit, Governance und nahtlose Upgrades teilen.

Das Wertversprechen der Superchain konzentriert sich auf Netzwerkeffekte. Jede neue Chain, die dem Ökosystem beitritt, stärkt das Ganze durch die Erweiterung von Liquidität, Komponierbarkeit und Entwicklerressourcen. Die Roadmap von Optimism sieht vor, dass sich im Jahr 2026 fast alle alltäglichen Blockchain-Aktivitäten auf Layer 2s verlagern werden, wobei das Ethereum-Mainnet rein als Settlement-Layer dient. In dieser Welt wird die EVM-Standardisierung zur gemeinsamen Sprache, die reibungslose Cross-L2-Interaktionen ermöglicht.

Base, das L2 von Coinbase, ist ein Beispiel für den Erfolg dieser Strategie. Obwohl es lediglich als eine weitere OP-Stack-Chain startete, kontrolliert es nun 46 % des Layer-2-TVL im DeFi-Bereich und 60 % des L2-Transaktionsvolumens, indem es auf Standardisierung statt auf Differenzierung setzt. Entwickler müssen keine neuen VMs oder Toolchains erlernen – sie implementieren dieselben Solidity-Contracts, die auf dem Ethereum-Mainnet, Optimism oder jeder anderen OP-Stack-Chain funktionieren.

Die Modularitätsthese erstreckt sich über die Ausführung hinaus. Das L2-Ökosystem von Ethereum trennt zunehmend die Datenverfügbarkeit von der Ausführung, wobei Rollups zwischen Ethereums teurer, aber sicherer DA-Schicht, Celestias kostenoptimierter DA oder EigenDAs Modell mit Restaking-Sicherheit wählen können. Entscheidend ist jedoch, dass diese Modularität auf der VM-Ebene endet – fast alle Ethereum-L2s bleiben bei der EVM, um die Komponierbarkeit zu bewahren.

Die Herausforderung der Entwickleradaption: Flexibilität vs. Fragmentierung

Der Multi-VM-Ansatz von Initia steht vor einem grundlegenden Spannungsfeld: Er bietet Entwicklern zwar Auswahlmöglichkeiten, erfordert aber auch das Verständnis mehrerer Ausführungsmodelle, Sicherheitsannahmen und Programmierparadigmen.

EVM bleibt aufgrund ihres First-Mover-Vorteils und ihres ausgereiften Ökosystems dominant. Solidity-Entwickler haben Zugriff auf praxiserprobte Bibliotheken, Wirtschaftsprüfungsgesellschaften, die auf EVM-Sicherheit spezialisiert sind, und standardisierte Tools von Hardhat bis Foundry.

WasmVM kämpft trotz ihrer theoretischen Vorteile bei Leistung und Sprachflexibilität mit einer mangelnden Reife des Ökosystems. Ihre Integration in die Blockchain-Infrastruktur bleibt eine Herausforderung, und die Sicherheitsstandards entwickeln sich im Vergleich zu den gut dokumentierten Schwachstellenmustern der EVM noch.

MoveVM führt die vielleicht steilste Lernkurve ein. Das ressourcenorientierte Programmiermodell von Move verhindert ganze Klassen von Schwachstellen, die in Solidity häufig vorkommen (Reentrancy-Angriffe, Double-Spending-Bugs), erfordert jedoch von den Entwicklern ein Umdenken in Bezug auf Asset-Eigentum und State-Management. Sui, Aptos und Initia buhlen im Jahr 2026 mit einzigartigen Ansätzen für die Sprache Move um die Aufmerksamkeit der Entwickler, aber die Fragmentierung innerhalb des MoveVM-Ökosystems selbst verkompliziert das Narrativ.

Die Frage lautet: Fragmentiert die Multi-VM-Unterstützung die Entwickler-Communities oder beschleunigt sie die Innovation, indem jede VM ihren optimalen Anwendungsfall bedient? Die Wette von Initia ist, dass die richtige Architektur beides bieten kann – VM-Wahl ohne Fragmentierung des Ökosystems –, indem die Cross-VM-Interoperabilität so nahtlos gestaltet wird, dass Entwickler in Anwendungen und nicht in Chains denken.

Interoperabilitäts-Infrastruktur: IBC als vereinheitlichendes Protokoll

Die Cross-VM-Vision von Initia hängt stark vom Inter-Blockchain Communication Protokoll (IBC) ab, das ursprünglich für das Cosmos-Ökosystem entwickelt wurde. Im Gegensatz zur Bridge-basierten Interoperabilität (die Sicherheitslücken und Vertrauensannahmen einführt) ermöglicht IBC eine vertrauenslose Nachrichtenübermittlung zwischen Chains mit standardisierten Paketformaten und Bestätigungsmechanismen.

Initia erweitert IBC für den Einsatz in heterogenen VMs und ermöglicht den Fluss von Assets und Daten zwischen EVM-, WasmVM- und MoveVM-Rollups unter Beibehaltung von Atomaritätsgarantien. Das Initia L1 fungiert in diesem Hub-and-Spoke-Modell als Hub, koordiniert den Status über die Rollups hinweg und sorgt durch sein Validator-Set für Finalität.

Diese Architektur spiegelt die ursprüngliche Vision von Cosmos wider, angewendet auf Layer-2-Rollups anstatt auf unabhängige Layer-1s. Der Vorteil gegenüber dem L2-Ökosystem von Ethereum ist klar: Während Ethereum-Rollups komplexe Bridge-Protokolle erfordern, um Assets zwischen Chains zu verschieben (oft mit mehrtägigen Auszahlungsfristen und Risiken bei Bridge-Contracts), ermöglicht der IBC-native Ansatz von Initia nahezu sofortige Cross-Rollup-Transfers mit der vom L1 geerbten Sicherheit.

Für Anwendungen, die Multi-VM-Funktionalität erfordern – man stelle sich ein DeFi-Protokoll vor, das Move für die zentrale Finanzlogik, WasmVM für hochperformantes Order-Matching und EVM für die Kompatibilität mit bestehenden Liquiditätsquellen nutzt –, ermöglicht diese Architektur eine atomare Komposition, die in Bridge-basierten Systemen unmöglich ist.

2026 und darüber hinaus: Welches Paradigma gewinnt?

Mit der Reifung der Blockchain-Infrastruktur kristallisieren sich im Streit zwischen Multi-VM und homogener VM zwei konkurrierende Visionen für dezentrales Computing heraus.

Der Ansatz von Ethereum optimiert auf Netzwerkeffekte und Komponierbarkeit. Jede Chain, die dieselbe VM-Sprache spricht, verstärkt die kollektive Intelligenz des Ökosystems – Auditoren, Tooling-Anbieter und Entwickler können nahtlos zwischen Projekten wechseln. Der Marktanteil der OP Superchain von 90 % bei den Ethereum-L2-Transaktionen deutet darauf hin, dass die Standardisierung gewinnt, zumindest innerhalb des Ethereum-Ökosystems.

Der Ansatz von Initia optimiert auf technische Vielfalt und anwendungsspezifische Optimierung. Wenn Ihr Anwendungsfall die Sicherheitsgarantien von Move erfordert, sollten Sie nicht gezwungen sein, auf der EVM aufzubauen. Wenn Sie die Leistungsmerkmale von Wasm benötigen, sollten Sie nicht auf den Zugang zu Liquidität auf anderen Chains verzichten müssen. Die Multi-VM-Architektur betrachtet Vielfalt als Feature und nicht als Fehler.

Die ersten Anzeichen sind gemischt. Die unmittelbare Roadmap von Initia konzentriert sich eher auf die Entwicklung des Ökosystems und das Engagement der Community als auf spezifische technische Upgrades, was darauf hindeutet, dass das Team die Adaption über weitere architektonische Iterationen stellt. In der Zwischenzeit konsolidieren sich die Ethereum-L2s um einige wenige dominante Akteure (Base, Arbitrum, Optimism), wobei Prognosen besagen, dass die meisten der über 60 bestehenden L2s die „große Marktbereinigung“ des Jahres 2026 nicht überleben werden.

Unbestreitbar ist, dass beide Ansätze die Blockchain-Infrastruktur in Richtung größerer Modularität treiben. Ob sich diese Modularität auf die VM-Ebene erstreckt – oder bei der Datenverfügbarkeit und dem Sequencing halt macht, während die Ausführung standardisiert bleibt –, wird die technische Landschaft des nächsten Zyklus definieren.

Für Entwickler hängt die Wahl zunehmend von den Prioritäten ab. Wenn Sie Wert auf Kompatibilität im Ökosystem und maximale Komponierbarkeit legen, bietet das homogene L2-Ökosystem von Ethereum unübertroffene Netzwerkeffekte. Wenn Sie VM-spezifische Funktionen benötigen oder Ausführungsumgebungen für bestimmte Arbeitslasten optimieren möchten, bietet die Cross-VM-Architektur von Initia die Flexibilität dazu, ohne auf Interoperabilität zu verzichten.

Die Reifung der Blockchain-Industrie im Jahr 2026 legt nahe, dass es möglicherweise keinen einzelnen Gewinner geben wird. Stattdessen sehen wir wahrscheinlich die Entstehung unterschiedlicher Cluster: das Ethereum-EVM-Megaversum, das auf Standardisierung optimiert ist, das Cosmos-IBC-Universum, das anwendungsspezifische Chains umfasst, und neuartige Hybride wie Initia, die versuchen, beide Paradigmen zu überbrücken.

Während Entwickler diese architektonischen Entscheidungen treffen, wird sich die von ihnen gewählte Infrastruktur im Laufe der Zeit summieren. Die Frage ist nicht nur, welche VM die beste ist – sondern ob die Zukunft der Blockchain wie ein universeller Standard oder wie ein polyglottes Ökosystem aussieht, in dem Interoperabilität Vielfalt überbrückt, anstatt Uniformität zu erzwingen.

BlockEden.xyz bietet eine Multi-Chain-API-Infrastruktur, die EVM, MoveVM und aufstrebende Blockchain-Architekturen unterstützt. Erkunden Sie unsere vereinheitlichte API-Plattform, um über heterogene Blockchain-Netzwerke hinweg zu entwickeln, ohne für jede VM eine separate Infrastruktur verwalten zu müssen.

Quellen

The Multi-VM Blockchain Era: Why Initia's EVM+MoveVM+WasmVM Approach Challenges Ethereum's Homogeneous L2 Dominance

· 12 Min. Lesezeit
Dora Noda
Software Engineer

What if the biggest bottleneck in blockchain development isn't scalability or security—but the forced marriage to a single programming language? As Ethereum's Layer 2 ecosystem surges past 90% market dominance with its homogeneous EVM-only architecture, a contrarian thesis is gaining traction: developer choice matters more than ecosystem uniformity. Enter Initia, a blockchain platform that lets developers choose between three virtual machines—EVM, MoveVM, and WasmVM—on a single interoperable network. The question isn't whether multi-VM blockchains can work. It's whether Ethereum's "one VM to rule them all" philosophy will survive the flexibility revolution.

The Ethereum Homogeneity Paradox

Ethereum's Layer 2 scaling strategy has been wildly successful by one metric: developer adoption. EVM-compatible chains now support a unified developer experience where the same Solidity or Vyper code can be deployed across Arbitrum, Optimism, Base, and dozens of other L2s with minimal modification. zkEVM implementations have virtually eliminated friction for developers building on zero-knowledge rollups, seamlessly integrating with Ethereum's established tooling, standards, and massive library of audited smart contracts.

This homogeneity is both Ethereum's superpower and its Achilles' heel. Smart contracts written for one EVM-compatible chain can be easily migrated to others, creating powerful network effects. But the EVM's architecture—designed in 2015—carries fundamental limitations that have become increasingly apparent as blockchain use cases evolve.

The EVM's stack-based design prevents parallelization because it doesn't know which on-chain data will be modified before execution. Everything becomes clear only after execution completes, creating an inherent bottleneck for high-throughput applications. The EVM's precompiled operations are hardcoded, meaning developers cannot easily modify, extend, or replace them with newer algorithms. This restriction locks developers into predefined operations and limits innovation at the protocol level.

For DeFi applications building on Ethereum, this is acceptable. For gaming, AI agents, or real-world asset tokenization requiring different performance characteristics, it's a straitjacket.

Initia's Bet on Virtual Machine Diversity

Initia's architecture makes a different wager: what if developers could choose the virtual machine best suited for their application, while still benefiting from shared security and seamless interoperability?

The Initia Layer 1 serves as an orchestration layer, coordinating security, liquidity, routing, and interoperability across a network of "Minitias"—Layer 2 rollups that can run EVM, MoveVM, or WasmVM execution environments. This VM-agnostic approach is enabled by the OPinit Stack, a framework supporting fraud proofs and rollback capabilities built on CosmosSDK and leveraging Celestia's data availability layer.

Here's where it gets interesting: L2 application developers can modify rollup parameters on the Cosmos SDK side while selecting EVM, MoveVM, or WasmVM compatibility based on which virtual machine or smart contracting language best suits their needs. An NFT gaming platform might choose MoveVM for its resource-oriented programming model and parallel execution. A DeFi protocol seeking Ethereum ecosystem compatibility might opt for EVM. A compute-intensive application requiring 10-100x performance improvements could select WasmVM's register-based architecture.

The innovation extends beyond virtual machine choice. Initia enables seamless messaging and bridging of assets between these heterogeneous execution environments. Assets can flow between EVM, WASM, and MoveVM Layer 2s using the IBC protocol, solving one of the hardest problems in blockchain: cross-VM interoperability without trusted intermediaries.

Technical Breakdown: Three VMs, Different Trade-offs

Understanding why developers might choose one VM over another requires examining their fundamental architectural differences.

MoveVM: Security Through Resource-Oriented Design

Used by Aptos and Sui, MoveVM introduces an object-based model that treats digital assets as first-class resources with specific ownership and transfer semantics. The resulting system is far safer and more flexible than EVM for asset-centric applications. Move's resource model prevents entire classes of vulnerabilities—like reentrancy attacks and double-spending—that plague EVM smart contracts.

But MoveVM isn't monolithic. While Sui, Aptos, and now Initia share the same Move language, they don't share the same architectural assumptions. Their execution models differ—object-centric execution versus optimistic concurrency versus hybrid DAG ledger—meaning the audit surface shifts with each platform. This fragmentation is both a feature (innovation at the execution layer) and a challenge (auditor scarcity compared to EVM).

EVM: The Network Effect Fortress

The Ethereum Virtual Machine remains the most widely adopted due to its first-mover advantage and massive developer ecosystem. Every operation in the EVM charges gas to prevent denial-of-service attacks, creating a predictable fee market. The problem is efficiency: the EVM's account-based model cannot parallelize transaction execution, and its gas metering makes transactions costly compared to newer architectures.

Yet the EVM's dominance persists because tooling, auditors, and liquidity all orbit Ethereum. Any multi-VM platform must provide EVM compatibility to access this ecosystem—which is precisely what Initia does.

WebAssembly (Wasm): Performance Without Compromise

WASM VMs execute smart contracts 10-100x faster than EVM due to their register-based architecture. Unlike EVM's fixed gas metering, WASM employs dynamic metering for efficiency. CosmWASM, the Cosmos implementation, was specifically designed to combat the types of attacks that EVM is vulnerable to—particularly those involving gas limit manipulation and storage access patterns.

The challenge with WASM is fragmented adoption. While it offers significant performance, security, and flexibility improvements over EVM, it lacks the unified developer experience that makes Ethereum L2s attractive. Fewer auditors specialize in WASM security, and cross-chain liquidity from the broader Ethereum ecosystem requires additional bridging infrastructure.

This is where Initia's multi-VM approach becomes strategically interesting. Rather than forcing developers to choose one ecosystem or another, it lets them select the VM that matches their application's performance and security requirements while maintaining access to liquidity and users across all three environments.

IBC-Native Interoperability: The Missing Piece

Inter-Blockchain Communication (IBC) protocol—which now connects 115+ chains—provides the secure, permissionless cross-chain messaging infrastructure that makes Initia's multi-VM vision possible. IBC enables data and value transfer without third-party intermediaries, using cryptographic proofs to verify state transitions across heterogeneous blockchains.

Initia leverages IBC alongside optimistic bridges to support cross-chain functionality. The INIT token exists in multiple formats (OpINIT, IbcOpINIT) to facilitate bridging between Initia L1 and its rollups, as well as between different VM environments within the network.

The timing is strategic. IBC v2 launched at the end of March 2025, bringing performance improvements and expanded compatibility. Looking ahead, IBC's Bitcoin and Ethereum expansion shows strong growth trajectory into 2026, while LayerZero pursues enterprise integrations with a different architectural approach.

Where Ethereum L2s rely on centralized or multisig bridges to move assets between chains, Initia's IBC-native design provides cryptographic finality guarantees. This matters for institutional use cases where bridge security has been the Achilles' heel of cross-chain infrastructure—over $2 billion was stolen from bridges in 2025 alone.

Breaking Developer Vendor Lock-in

The conversation around multi-VM blockchains ultimately centers on a question about power: who controls the platform, and how much leverage do developers have?

Ethereum's homogeneous L2 ecosystem creates what technologists call "vendor lock-in." Once you've built your application in Solidity for the EVM, migrating to a non-EVM chain requires rewriting your entire smart contract codebase. Your developers' expertise, your security audits, your tooling integrations—all optimized for one execution environment. Switching costs are enormous.

Solidity remains the practical EVM standard in 2026. But Rust dominates several performance-focused environments (Solana, NEAR, Polkadot). Move brings asset-safe design for newer chains. Cairo anchors zero-knowledge-native development. The fragmentation reflects different engineering priorities—security versus performance versus developer familiarity.

Initia's thesis is that in 2026, monolithic approaches have become a strategic liability. When a blockchain application needs a specific performance characteristic—whether local state management for gaming, parallel execution for DeFi, or verifiable computation for AI agents—requiring them to rebuild on a new chain is friction that slows innovation.

Modular, API-first architecture is replacing monoliths as flexibility becomes survival. As embedded finance, cross-border expansion, and regulatory complexity accelerate in 2026, the ability to choose the right virtual machine for each component of your application stack—while maintaining interoperability—becomes a competitive advantage.

This isn't just theoretical. The 2026 blockchain programming landscape reveals a toolbox matched to ecosystems and risk. Vyper favors safety over flexibility, stripping away Python's dynamic features for auditability. Rust offers systems-level control for performance-critical applications. Move's resource model makes asset security provable rather than assumed.

Multi-VM platforms let developers choose the right tool for the job without fragmenting liquidity or sacrificing composability.

The Developer Experience Question

Critics of multi-VM platforms point to a legitimate concern: developer experience friction.

Ethereum's homogeneous L2 solutions provide a streamlined developer experience through unified tooling and compatibility. You learn Solidity once, and that knowledge transfers across dozens of chains. Auditing firms specialize in EVM security, creating deep expertise. Development tools like Hardhat, Foundry, and Remix work everywhere.

Multi-VM blockchains introduce unique programming models that can achieve better throughput or specialized consensus, but they fragment tooling, reduce auditor availability, and complicate liquidity bridging from the broader Ethereum ecosystem.

Initia's counterargument is that this fragmentation already exists—developers already choose between EVM, Solana's Rust-based SVM, Cosmos's CosmWasm, and Move-based chains based on application requirements. What doesn't exist is a platform that lets those heterogeneous components interoperate natively.

The evidence from existing multi-VM experiments is mixed. Developers building on Cosmos can choose between EVM modules (Evmos), CosmWasm smart contracts, or native Cosmos SDK applications. But these environments remain somewhat siloed, with limited composability across VMs.

Initia's innovation is making inter-VM messaging a first-class primitive. Rather than treating EVM, MoveVM, and WasmVM as competing alternatives, the platform treats them as complementary tools in a single composable environment.

Whether this vision materializes depends on execution. The technical infrastructure exists. The question is whether developers will embrace multi-VM complexity in exchange for flexibility, or whether Ethereum's "simplicity through homogeneity" remains the dominant paradigm.

What This Means for 2026 and Beyond

The blockchain industry's scaling roadmap has been remarkably consistent: build faster, cheaper Layer 2s on top of Ethereum while maintaining EVM compatibility. Base, Arbitrum, and Optimism control 90% of L2 transactions by following this playbook. Over 60 Ethereum L2s are live, with hundreds more in development.

But 2026 is revealing cracks in the homogeneous scaling thesis. Application-specific chains like dYdX and Hyperliquid have proven the vertical integration model, capturing $3.7M in daily revenue by controlling their entire stack. These teams didn't choose EVM—they chose performance and control.

Initia represents a middle path: the performance and flexibility of application-specific chains, with the composability and liquidity of a shared ecosystem. Whether this approach gains traction depends on three factors.

First, developer adoption. Platforms live or die by the applications built on them. Initia must convince teams that the complexity of choosing between three VMs is worth the flexibility gained. Early traction in gaming, RWA tokenization, or AI agent infrastructure could validate the thesis.

Second, security maturity. Multi-VM platforms introduce new attack surfaces. Bridges between heterogeneous execution environments must be bulletproof. The industry's $2B+ in bridge hacks creates justified skepticism about cross-VM messaging security.

Third, ecosystem network effects. Ethereum didn't win because the EVM is technically superior—it won because billions of dollars in liquidity, thousands of developers, and entire industries have standardized on EVM compatibility. Disrupting that ecosystem requires more than better technology.

The multi-VM blockchain era isn't about replacing Ethereum. It's about expanding what's possible beyond EVM's limitations. For applications where Move's resource safety, Wasm's performance, or EVM's ecosystem access each matter for different components, platforms like Initia offer a compelling alternative to monolithic architectures.

The broader trend is clear: in 2026, modular architecture is replacing one-size-fits-all approaches across blockchain infrastructure. Data availability is separating from execution (Celestia, EigenDA). Consensus is separating from ordering (shared sequencers). Virtual machines are separating from chain architecture.

Initia's bet is that execution environment diversity—supported by robust interoperability—will become the new standard. Whether they're right depends on whether developers choose freedom over simplicity, and whether the platform can deliver both without compromise.

For developers building multi-chain applications that require robust RPC infrastructure across EVM, Move, and WebAssembly environments, enterprise-grade node access becomes critical. BlockEden.xyz provides reliable API endpoints for the heterogeneous blockchain ecosystem, supporting teams building across virtual machine boundaries.

Sources

Die Transformation von The Graph im Jahr 2026: Neudefinition der Blockchain-Dateninfrastruktur

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Wenn 37 % Ihrer neuen Nutzer nicht menschlich sind, wissen Sie, dass sich etwas Grundlegendes verschoben hat.

Das ist die Realität, mit der The Graph Anfang 2026 bei der Analyse der Token-API-Adoption konfrontiert war: Mehr als jeder dritte neue Account gehörte KI-Agenten, nicht Entwicklern. Diese autonomen Programme – die DeFi-Liquiditätspools abfragen, tokenisierte Real-World-Assets verfolgen und institutionelle Trades ausführen – verbrauchen Blockchain-Daten mittlerweile in einem Ausmaß, das für menschliche Akteure unmöglich zu bewältigen wäre.

Dies ist kein Zukunftsszenario. Es geschieht jetzt und erzwingt ein komplettes Überdenken der Funktionsweise von Blockchain-Dateninfrastrukturen.

Vom Subgraph-Pionier zum Multi-Service-Datenrückgrat

The Graph hat seinen Ruf auf einer einzigen eleganten Lösung aufgebaut: Subgraphs. Entwickler erstellen benutzerdefinierte Schemata, die On-Chain-Events und Smart-Contract-Zustände indizieren, wodurch dApps präzise Echtzeitdaten abrufen können, ohne eigene Nodes betreiben zu müssen.

Das ist der Grund, warum Sie Ihren DeFi-Portfolio-Kontostand sofort überprüfen oder NFT-Metadaten durchsuchen können, ohne darauf warten zu müssen, dass Blockchain-Abfragen abgeschlossen werden.

Bis Ende 2025 hatte The Graph seit seiner Einführung über 1,5 Billionen Abfragen verarbeitet – ein Meilenstein, der es als größte dezentrale Dateninfrastruktur im Web3 positioniert. Doch das reine Abfragevolumen erzählt nur einen Teil der Geschichte.

Die aussagekräftigere Kennzahl ergab sich im 4. Quartal 2025: 6,4 Milliarden Abfragen pro Quartal, wobei die aktiven Subgraphs mit 15.500 ein Allzeithoch erreichten. Dennoch hatte sich die Erstellung neuer Subgraphs drastisch verlangsamt.

Die Interpretation? Die bestehende Infrastruktur von The Graph bedient ihre aktuellen Nutzer hervorragend, aber die nächste Welle der Adoption erfordert etwas grundlegend anderes.

Hier kommt Horizon ins Spiel, das Protokoll-Upgrade, das im Dezember 2025 live ging und die Weichen für die Transformation von The Graph im Jahr 2026 stellt.

Die Horizon-Architektur: Multi-Service-Infrastruktur für die On-Chain-Ökonomie

Horizon ist kein bloßes Feature-Update. Es ist eine komplette architektonische Neugestaltung, die The Graph von einer Subgraph-fokussierten Plattform in eine Multi-Service-Dateninfrastruktur verwandelt, die in der Lage ist, drei verschiedene Kundensegmente gleichzeitig zu bedienen: Entwickler, KI-Agenten und Institutionen.

Die Architektur führt drei grundlegende Komponenten ein:

Ein Kern-Staking-Protokoll, das die ökonomische Sicherheit auf jeden Datendienst ausweitet, nicht nur auf Subgraphs. Dies ermöglicht es neuen Datenprodukten, das bestehende Netzwerk von The Graph mit über 167.000 Delegatoren und aktiven Indexern zu übernehmen, ohne eigene Sicherheitsmodelle aufbauen zu müssen.

Eine vereinheitlichte Zahlungsschicht, die Gebühren über alle Dienste hinweg abwickelt, eine nahtlose serviceübergreifende Abrechnung ermöglicht und Reibungsverluste für Nutzer verringert, die mehrere Arten von Blockchain-Daten benötigen.

Ein erlaubnisfreies (permissionless) Framework, das die Integration neuer Datendienste ohne Governance-Abstimmungen auf Protokollebene ermöglicht. Jedes Team kann auf der Infrastruktur von The Graph aufbauen, sofern es die technischen Standards erfüllt und GRT-Token zur Absicherung stakt.

Dieser modulare Ansatz löst ein kritisches Problem: Unterschiedliche Anwendungsfälle erfordern unterschiedliche Datenarchitekturen.

Ein DeFi-Trading-Bot benötigt Liquiditäts-Updates im Millisekundenbereich. Ein institutionelles Compliance-Team benötigt SQL-abfragbare Audit-Trails. Eine Wallet-App benötigt vorindizierte Token-Guthaben über Dutzende von Chains hinweg. Vor Horizon hätten diese Anwendungsfälle separate Infrastrukturanbieter erfordert.

Jetzt können sie alle auf The Graph laufen.

Vier Dienste, vier verschiedene Märkte

Die Roadmap von The Graph für 2026 führt vier spezialisierte Datendienste ein, die jeweils auf einen spezifischen Marktbedarf abzielen:

Token-API: Vorindizierte Daten für gängige Abfragen

Die Token-API macht eine benutzerdefinierte Indizierung überflüssig, wenn Sie lediglich Standard-Token-Daten benötigen – Guthaben, Transferhistorien, Kontraktadressen über 10 Chains hinweg. Wallets, Explorer und Analyseplattformen müssen für grundlegende Abfragen keine eigenen Subgraphs mehr bereitstellen.

Hier sind KI-Agenten massiv in Erscheinung getreten. Die 37-prozentige Adoptionsrate durch nicht-menschliche Nutzer spiegelt eine einfache Realität wider: KI-Agenten wollen keine Indexer konfigurieren oder GraphQL-Abfragen schreiben. Sie wollen eine API, die natürliche Sprache versteht und sofort strukturierte Daten liefert.

Die Integration mit dem Model Context Protocol (MCP) ermöglicht es KI-Agenten, Blockchain-Daten über Tools wie Claude, Cursor und ChatGPT ohne Setup-Keys abzufragen. Das x402-Protokoll fügt autonome Zahlungsfunktionen hinzu, sodass Agenten pro Abfrage ohne menschliches Eingreifen bezahlen können.

Tycho: Echtzeit-Liquiditätsverfolgung für DeFi

Tycho streamt Live-Liquiditätsänderungen über dezentrale Börsen hinweg – genau das, was Handelssysteme, Solver und MEV-Bots benötigen. Anstatt Subgraphs alle paar Sekunden abzufragen (Polling), pusht Tycho Updates, sobald sie On-Chain stattfinden.

Für DeFi-Infrastrukturanbieter reduziert dies die Latenz von Sekunden auf Millisekunden. In Hochfrequenz-Handelsumgebungen, in denen eine Verzögerung von 100 ms den Unterschied zwischen Gewinn und Verlust ausmachen kann, wird die Streaming-Architektur von Tycho geschäftskritisch.

Amp: SQL-Datenbank für institutionelle Analysen

Amp repräsentiert den explizitesten Vorstoß von The Graph in Richtung Adoption durch das traditionelle Finanzwesen: eine Blockchain-Datenbank für Unternehmen mit SQL-Zugriff, integrierten Audit-Trails, Lineage-Tracking und On-Premise-Bereitstellungsoptionen.

Das ist nicht für DeFi-"Degens". Es ist für Treasury-Aufsichtsteams, Risikomanagement-Abteilungen und regulierte Zahlungssysteme gedacht, die eine Compliance-fähige Dateninfrastruktur benötigen.

Das "Great Collateral Experiment" der DTCC – ein Pilotprogramm zur Erforschung der Abwicklung tokenisierter Wertpapiere – nutzt bereits Graph-Technologie und validiert damit den institutionellen Anwendungsfall.

SQL-Kompatibilität ist entscheidend. Finanzinstitute verfügen über jahrzehntelange Erfahrung mit Tools, Berichtssystemen und Analysten-Expertise, die auf SQL basieren.

Von ihnen zu verlangen, GraphQL zu lernen, ist aussichtslos. Amp holt sie dort ab, wo sie stehen.

Subgraphs: Das Fundament, das weiterhin zählt

Trotz der neuen Dienste bleiben Subgraphs das Herzstück des Wertversprechens von The Graph. Die über 50.000 aktiven Subgraphs, die nahezu jedes große DeFi-Protokoll unterstützen, stellen eine installierte Basis dar, die Wettbewerber nicht einfach replizieren können.

Im Jahr 2026 vertiefen sich Subgraphs in zweierlei Hinsicht: durch eine erweiterte Multi-Chain-Abdeckung (die mittlerweile über 40 + Blockchains umfasst) und eine engere Integration mit den neuen Diensten.

Ein Entwickler kann einen Subgraph für benutzerdefinierte Logik verwenden und gleichzeitig vorindexierte Token-Daten über die Token API abrufen – das Beste aus beiden Welten.

Cross-Chain-Expansion: GRT-Nutzen über Ethereum hinaus

Jahrelang existierte der GRT-Token von The Graph primär auf dem Ethereum-Mainnet, was Reibungsverluste für Nutzer auf anderen Chains verursachte. Das änderte sich mit der Integration des Cross-Chain Interoperability Protocol (CCIP) von Chainlink, das GRT Ende 2025 auf Arbitrum, Base und Avalanche brachte, wobei Solana für 2026 geplant ist.

Hierbei geht es nicht nur um die Verfügbarkeit von Token. Der Cross-Chain-Nutzen von GRT ermöglicht es Entwicklern auf jeder Chain, Graph-Dienste mit ihren nativen Token zu bezahlen, GRT zu staken, um Datendienste zu sichern, und an Indexer zu delegieren, ohne Assets auf Ethereum verschieben zu müssen.

Die Netzwerkeffekte verstärken sich schnell: Base verarbeitete im 4. Quartal 2025 1,23 Milliarden Abfragen (ein Plus von 11 % gegenüber dem Vorquartal), während Arbitrum mit 31 % das stärkste Wachstum unter den großen Netzwerken verzeichnete. Da L2s weiterhin Transaktionsvolumen vom Ethereum-Mainnet absorbieren, positioniert sich The Graph durch seine Cross-Chain-Strategie so, dass es das gesamte Multi-Chain-Ökosystem bedienen kann.

Das Datenproblem von KI-Agenten: Warum Indexierung entscheidend wird

KI-Agenten stellen eine grundlegend andere Klasse von Blockchain-Nutzern dar. Im Gegensatz zu menschlichen Entwicklern, die Abfragen einmal schreiben und dann bereitstellen, generieren Agenten täglich Tausende von individuellen Abfragen über Dutzende von Datenquellen hinweg.

Betrachten wir einen autonomen DeFi-Yield-Optimierer:

  1. Er fragt aktuelle APYs über Kreditprotokolle hinweg ab (Aave, Compound, Morpho)
  2. Er prüft Gaspreise und Transaktionsstaus
  3. Er überwacht Token-Preis-Feeds von Oracles
  4. Er verfolgt die historische Volatilität zur Risikobewertung
  5. Er verifiziert Sicherheitsprüfungen (Audits) von Smart Contracts
  6. Er führt Rebalancing-Transaktionen aus, sobald die Bedingungen erfüllt sind

Jeder Schritt erfordert strukturierte, indexierte Daten. Das Betreiben eines Full Nodes für jedes Protokoll ist wirtschaftlich nicht machbar. APIs von zentralisierten Anbietern stellen Single Points of Failure und Zensurrisiken dar.

The Graph löst dies durch eine dezentrale, zensurresistente Datenebene, die KI-Agenten programmatisch abfragen können. Das Wirtschaftsmodell funktioniert, weil Agenten pro Abfrage über das x402-Protokoll bezahlen – keine monatlichen Abonnements, keine zu verwaltenden API-Schlüssel, sondern lediglich nutzungsbasierte Abrechnung, die On-Chain abgewickelt wird.

Aus diesem Grund baut Cookie DAO, ein dezentrales Datennetzwerk zur Indexierung von KI-Agenten-Aktivitäten auf Solana, Base und der BNB Chain, auf der Infrastruktur von The Graph auf. Die fragmentierten On-Chain-Aktionen und sozialen Signale, die von Tausenden von Agenten erzeugt werden, benötigen strukturierte Datenfeeds, um nützlich zu sein.

DeFi und RWA: Die Datenanforderungen der tokenisierten Finanzwelt

Die Datenanforderungen von DeFi haben sich drastisch weiterentwickelt. Im Jahr 2021 fragte ein DEX-Aggregator vielleicht grundlegende Token-Preise und Liquiditätspool-Reserven ab. Im Jahr 2026 benötigen institutionelle DeFi-Plattformen:

  • Echtzeit-Besicherungsquoten für Kreditprotokolle
  • Historische Volatilitätsdaten für die Risikomodellierung
  • Cross-Chain-Asset-Preise mit Oracle-Verifizierung
  • Transaktionsherkunft für Compliance-Audits
  • Liquiditätstiefe über mehrere Handelsplätze hinweg für die Handelsausführung

Tokenisierte Real-World-Assets (RWA) fügen eine weitere Komplexitätsebene hinzu. Wenn ein tokenisierter US-Staatsanleihen-Fonds mit einem DeFi-Kreditprotokoll integriert wird (wie es BlackRocks BUIDL mit Uniswap tat), muss die Dateninfrastruktur Folgendes verfolgen:

  • On-Chain-Eigentumsnachweise
  • Rücknahmeanträge und Abwicklungsstatus
  • Regulatorische Compliance-Ereignisse
  • Renditeverteilung an Token-Inhaber
  • Cross-Chain-Bridge-Aktivität

Die Multi-Service-Architektur von The Graph adressiert dies, indem sie RWA-Plattformen ermöglicht, Amp für SQL-Analysen in institutioneller Qualität zu nutzen und gleichzeitig Echtzeit-Updates über Tycho für DeFi-Integrationen zu streamen.

Die Marktchance ist gewaltig: Ripple und BCG prognostizieren, dass tokenisierte RWAs von 0,6 Billionen US-Dollar im Jahr 2025 auf 18,9 Billionen US-Dollar bis 2033 anwachsen werden – eine durchschnittliche jährliche Wachstumsrate von 53 %. Jeder On-Chain tokenisierte Dollar generiert Daten, die indexiert, abgefragt und gemeldet werden müssen.

Netzwerkökonomie: Das Indexer- und Delegatoren-Modell

Die dezentrale Architektur von The Graph beruht auf wirtschaftlichen Anreizen, die drei Interessengruppen aufeinander abstimmen:

Indexer betreiben die Infrastruktur, um Abfragen zu verarbeiten und bereitzustellen, und verdienen dafür Abfragegebühren sowie Indexierungsbelohnungen in GRT-Token. Die Anzahl der aktiven Indexer stieg im 4. Quartal 2025 leicht an, was darauf hindeutet, dass die Betreiber trotz geringerer kurzfristiger Rentabilität aufgrund reduzierter Abfragegebühren engagiert blieben.

Delegatoren staken GRT-Token bei Indexern, um einen Teil der Belohnungen zu verdienen, ohne selbst Infrastruktur zu betreiben. Die über 167.000 + Delegatoren des Netzwerks repräsentieren eine verteilte wirtschaftliche Sicherheit, die Datenzensur extrem teuer macht.

Kuratoren signalisieren durch das Staken von GRT, welche Subgraphs wertvoll sind, und verdienen einen Teil der Abfragegebühren, wenn ihre kuratierten Subgraphs verwendet werden. Dies schafft einen selbstorganisierenden Qualitätsfilter: Hochwertige Subgraphs ziehen Kuratierung an, was Indexer anlockt, was wiederum die Abfrageleistung verbessert.

Das Horizon-Upgrade weitet dieses Modell auf alle Datendienste aus, nicht nur auf Subgraphs. Ein Indexer kann nun Abfragen für die Token API bedienen, Tycho-Liquiditäts-Updates streamen und Amp-Datenbankzugriff gewähren – alles abgesichert durch denselben GRT-Stake.

Dieses Multi-Service-Einnahmemodell ist wichtig, da es das Einkommen der Indexer über Subgraph-Abfragen hinaus diversifiziert. Wenn das Abfragevolumen von KI-Agenten wie prognostiziert skaliert, könnten Indexer, die die Token API bedienen, ein signifikantes Umsatzwachstum verzeichnen, selbst wenn die herkömmliche Subgraph-Nutzung stagniert.

Der institutionelle Keil: Von DeFi zu TradFi

Das DTCC-Pilotprogramm stellt etwas Größeres dar als nur einen einzelnen Anwendungsfall. Es ist der Beweis dafür, dass große Finanzinstitute – in diesem Fall die Organisation, die jährlich Wertpapiertransaktionen im Wert von 2,5 Billiarden $ abwickelt – auf einer öffentlichen Blockchain-Dateninfrastruktur aufbauen werden, wenn diese die regulatorischen Anforderungen erfüllt.

Der Funktionsumfang von Amp zielt direkt auf dieses Segment ab:

  • Herkunftsverfolgung (Lineage tracking): Jeder Datenpunkt lässt sich bis zu seiner On-Chain-Quelle zurückverfolgen, was einen unveränderlichen Audit-Trail schafft.
  • Compliance-Funktionen: Rollenbasierte Zugriffskontrollen, Aufbewahrungsrichtlinien für Daten und Datenschutzkontrollen erfüllen regulatorische Standards.
  • On-Premises-Bereitstellung: Regulierte Einheiten können die Graph-Infrastruktur innerhalb ihres eigenen Sicherheitsbereichs betreiben und dennoch am dezentralen Netzwerk teilnehmen.

Die Strategie spiegelt wider, wie die Einführung von Enterprise-Blockchains verlief: Beginnend mit privaten / permissioned Chains, schrittweise Integration mit öffentlichen Chains, sobald die Compliance-Rahmenwerke ausgereift sind. The Graph positioniert sich als Datenschicht, die in beiden Umgebungen funktioniert.

Wenn große Banken Amp für die Abwicklung tokenisierter Wertpapiere, Blockchain-Analysen für die AML-Compliance oder Echtzeit-Risikoüberwachung einführen, könnte das Abfragevolumen die aktuelle DeFi-Nutzung in den Schatten stellen. Ein einziges großes Institut, das stündlich Compliance-Abfragen über mehrere Chains hinweg durchführt, generiert nachhaltigere Einnahmen als Tausende einzelner Entwickler.

Der Wendepunkt 2026: Ist dies das Jahr von The Graph?

Die Roadmap 2026 von The Graph präsentiert eine klare These: Der aktuelle Token-Preis bewertet die Position des Netzwerks in der aufstrebenden KI-Agenten-Ökonomie und der institutionellen Blockchain-Adoption fundamental falsch.

Das Bullen-Szenario stützt sich auf drei Annahmen:

  1. Das Abfragevolumen von KI-Agenten skaliert signifikant. Wenn die Adoptionsrate von 37 % unter den Nutzern der Token-API einen breiteren Trend widerspiegelt und autonome Agenten zu den Hauptkonsumenten von Blockchain-Daten werden, könnten die Abfragegebühren über das historische Niveau hinaus ansteigen.

  2. Die Multi-Service-Architektur von Horizon treibt das Wachstum der Gebühreneinnahmen voran. Durch die gleichzeitige Bedienung von Entwicklern, Agenten und Institutionen generiert The Graph Einnahmen aus mehreren Kundensegmenten, anstatt sich ausschließlich auf DeFi-Entwickler zu verlassen.

  3. Cross-Chain GRT-Utility über Chainlink CCIP erzeugt eine nachhaltige Nachfrage. Da Nutzer auf Arbitrum, Base, Avalanche und Solana für Graph-Dienste mit gebrücktem GRT bezahlen, steigt die Token-Velocity, während das Angebot begrenzt bleibt.

Das Bären-Szenario argumentiert, dass der Infrastruktur-Burggraben schmaler ist, als es den Anschein hat. Alternative Indexierungslösungen wie Chainstack, BlockXs und Goldsky bieten Hosted-Subgraph-Dienste mit einfacherer Preisgestaltung und schnellerer Einrichtung an. Zentralisierte API-Anbieter wie Alchemy und Infura bündeln den Datenzugriff mit Knoten-Infrastruktur, was Wechselkosten verursacht.

Das Gegenargument: Die dezentrale Architektur von The Graph ist gerade deshalb wichtig, weil KI-Agenten und Institutionen sich nicht auf zentralisierte Datenanbieter verlassen können. KI-Agenten benötigen Zensurresistenz, um die Betriebszeit unter widrigen Bedingungen zu gewährleisten. Institutionen benötigen eine nachweisbare Datenprovenienz, die zentralisierte APIs nicht bieten können.

Die über 50.000 aktiven Subgraphs, über 167.000 Delegatoren und Ökosystem-Integrationen mit praktisch jedem größeren DeFi-Protokoll schaffen einen Netzwerkeffekt, den Wettbewerber nicht nur erreichen, sondern übertreffen müssten.

Warum die Dateninfrastruktur zum Rückgrat der KI-Ökonomie wird

Die Blockchain-Branche war zwischen 2021 und 2023 besessen von Execution Layers: schnellere Layer-1-Lösungen, günstigere Layer-2-Lösungen, skalierbarere Konsensmechanismen.

Das Ergebnis? Transaktionen, die Bruchteile eines Pennys kosten und in Millisekunden abgewickelt werden. Der Engpass hat sich verschoben.

Die Ausführung ist gelöst. Daten sind die neue Einschränkung.

KI-Agenten können Trades ausführen, Portfolios umschichten und Zahlungen autonom abwickeln. Was sie nicht tun können, ist ohne qualitativ hochwertige, indexierte und abfragbare Daten über den On-Chain-Status zu agieren. Der Meilenstein von einer Billion Abfragen bei The Graph spiegelt diese Realität wider: Da Blockchain-Anwendungen immer komplexer werden, wird die Dateninfrastruktur kritischer als der Transaktionsdurchsatz.

Dies spiegelt die Entwicklung der traditionellen Technologie-Infrastruktur wider. Amazon hat den E-Commerce nicht gewonnen, weil es die schnellsten Server hatte – es gewann, weil es die beste Dateninfrastruktur für Bestandsmanagement, Personalisierung und Logistikoptimierung aufbaute. Google hat die Suche nicht gewonnen, weil es den meisten Speicherplatz hatte – es gewann, weil es das Web besser indexierte als jeder andere.

The Graph positioniert sich als das Google der Blockchain-Daten: nicht die einzige Indexierungslösung, aber die Standardinfrastruktur, auf der alles andere aufbaut.

Ob diese Vision Wirklichkeit wird, hängt von der Umsetzung in den nächsten 12 bis 24 Monaten ab. Wenn die Multi-Service-Architektur von Horizon institutionelle Kunden anzieht, wenn das Abfragevolumen von KI-Agenten die Infrastrukturinvestitionen rechtfertigt und wenn die Cross-Chain-Expansion eine nachhaltige GRT-Nachfrage antreibt, könnte 2026 das Jahr sein, in dem The Graph den Übergang von einer „wichtigen DeFi-Infrastruktur“ zum „essenziellen Rückgrat der On-Chain-Ökonomie“ vollzieht.

Die 1,5 Billionen Abfragen sind erst der Anfang.


Erstellen Sie Anwendungen, die auf einer robusten Blockchain-Dateninfrastruktur basieren? BlockEden.xyz bietet leistungsstarken API-Zugriff über mehr als 40 Chains hinweg und ergänzt die dezentrale Indexierung durch Zuverlässigkeit auf Enterprise-Niveau für produktive Web3-Anwendungen.

Renaissance der Applikations-Chains: Warum vertikale Integration das Umsatzspiel der Blockchain gewinnt

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Hyperliquid hat gerade etwas Bemerkenswertes erreicht: Es hat Ethereum bei den Einnahmen übertroffen. Im Januar 2026 erzielte diese anwendungsspezifische Blockchain tägliche Einnahmen in Höhe von 4,3 Mio. mehralsdieBasisschicht,dieTausendevonProtokollenbeherbergt.UnterdessenverarbeitetdieAppChainvondYdXeinta¨glichesHandelsvolumenvon200Mio.– mehr als die Basisschicht, die Tausende von Protokollen beherbergt. Unterdessen verarbeitet die App-Chain von dYdX ein tägliches Handelsvolumen von 200 Mio. mit chirurgischer Präzision. Dies sind keine Anomalien. Sie sind der Beweis für einen grundlegenden architektonischen Wandel, der die Ökonomie der Blockchain neu gestaltet.

Während sich Ethereum in über 50 Layer-2-Rollups fragmentiert und Allzweck-Chains um Entwickler konkurrieren, sichern sich App-Chains im Stillen die entscheidenden Einnahmen. Die Frage ist nicht, ob vertikale Integration funktioniert – sondern warum wir so lange gebraucht haben, um zu erkennen, dass der Versuch, allen alles zu sein, die Erbsünde der Blockchain sein könnte.

Das Paradoxon der Umsatzkonzentration

Die Zahlen erzählen eine Geschichte, die die heiligste Annahme der Blockchain infrage stellt – nämlich, dass eine gemeinsame Infrastruktur gemeinsamen Wert schafft.

Die Performance von Hyperliquid im Jahr 2025 liest sich wie eine Fallstudie für richtig umgesetzte vertikale Integration. Die Plattform schloss das Jahr mit 844 Mio. Umsatz,2,95BillionenUmsatz, 2,95 Billionen Handelsvolumen und über 80 % Marktanteil bei dezentralen Derivaten ab. Am 31. Januar 2026 erreichten die täglichen Einnahmen 4,3 Mio. $, den höchsten Stand seit November. Diese Single-Purpose-Chain, die ausschließlich für den Handel mit Perpetual Futures optimiert ist, kontrolliert nun mehr als 60 % des Marktes für dezentrale Perps.

Die Transformation von dYdX v4 ist ebenso aufschlussreich. Nach der Migration von Ethereum zu einer eigenen, auf dem Cosmos SDK basierenden App-Chain, verarbeitete das Protokoll allein im ersten Halbjahr 2025 ein Volumen von 316 Mrd. .SeitdemStartwurdenkumulierteGebu¨hreninHo¨hevon62Mio.. Seit dem Start wurden kumulierte Gebühren in Höhe von 62 Mio. generiert, wovon fast 50 Mio. inUSDCanStakerausgeschu¨ttetwurden.Dasta¨glicheHandelsvolumenu¨bersteigtkonstant200Mio.in USDC an Staker ausgeschüttet wurden. Das tägliche Handelsvolumen übersteigt konstant 200 Mio., wobei das Open Interest bei etwa 175 - 200 Mio. $ liegt.

Vergleichen Sie dies mit dem Modell der Allzweck-Chains. Ethereum beherbergt Tausende von Protokollen, erzielte jedoch Ende 2025 einen annualisierten Umsatz von 524 Mio. $ – weniger als Hyperliquid allein. Der Wertabfluss ist strukturell bedingt, nicht zufällig. Als Polymarket ursprünglich auf Polygon aufbaute, generierte es ein massives Volumen, aber nur minimalen Wert für die Basisschicht. Die anschließende Migration auf eine eigene Polygon CDK-Chain verdeutlicht das Problem: Anwendungen, die ihre Infrastruktur nicht kontrollieren, können ihre Ökonomie nicht optimieren.

Warum vertikale Integration Wert schöpft

Die App-Chain-Diese beruht auf einer einfachen Beobachtung: Spezialisierte Architektur übertrifft generische Infrastruktur, wenn Umsatzkonzentration wichtiger ist als Komponierbarkeit.

Performance-Optimierung wird möglich, wenn man den gesamten Stack kontrolliert. Die Architektur von Hyperliquid, die speziell für Hochfrequenz-Derivate entwickelt wurde, erreichte tägliche Handelsvolumina von über 21 Mrd. $. Es gibt keine Abstraktionssteuer, keine Konkurrenz um gemeinsame Ressourcen, keine Abhängigkeit von externen Sequenzern oder Datenverfügbarkeitsschichten (Data Availability Layers). Die Designentscheidungen der Chain – von Blockzeiten bis hin zu Gebührenstrukturen – sind alle auf eines optimiert: den Handel.

Die Roadmap von dYdX für 2026 betont das Motto „Trade Anything“, wobei Real-World Assets (RWAs) und Spot-Handel für die Integration vorgesehen sind. Diese Art von produktspezifischer Innovation ist auf Allzweck-Chains fast unmöglich, da Protokoll-Upgrades unterschiedlichen Interessengruppen gerecht werden und die Abwärtskompatibilität mit Tausenden von unabhängigen Anwendungen wahren müssen.

Ökonomische Ausrichtung ändert sich grundlegend, wenn die Anwendung die Chain besitzt. Auf Allzweck-Plattformen konkurrieren Anwendungsentwickler um denselben Blockplatz, was die Kosten durch MEV-Extraktion und Gebührenmärkte in die Höhe treibt. App-Chains internalisieren diese Ökonomik. dYdX kann Handelsgebühren subventionieren, weil die Validatoren der Chain direkt vom Erfolg des Protokolls profitieren. Hyperliquid kann Sequenzer-Einnahmen in Liquiditätsanreize und Infrastrukturverbesserungen reinvestieren.

Governance wird ausführbar statt theatralisch. Auf Ethereum L2s oder generischen Chains kann die Protokoll-Governance zwar Änderungen vorschlagen, verfügt aber oft nicht über die Autorität, die Regeln der Basisschicht zu ändern. App-Chains lösen diesen Unterschied auf – Protokoll-Governance ist Chain-Governance. Wenn dYdX Blockzeiten oder Gebührenstrukturen anpassen möchte, gibt es keine politischen Verhandlungen mit unbeteiligten Stakeholdern.

Verankerte Liquidität: Die Geheimwaffe

Hier wird es bei App-Chains richtig interessant: Verankerte Liquiditätsmechanismen (Enshrined Liquidity), die auf einer gemeinsamen Infrastruktur unmöglich wären.

Die Implementierung von Initia demonstriert dieses Konzept. In traditionellen Chains sorgen Staker mit nativen Token für Sicherheit. Verankerte Liquidität erweitert dieses Modell: Whitelisted LP-Token (Liquidity Provider) von DEX-Plattformen können direkt bei Validatoren gestakt werden, zusammen mit Solo-Token, um Stimmkraft zu gewinnen. Dies wird durch einen delegierten Proof-of-Stake-Mechanismus umgesetzt, der durch ein Multi-Staking-Modul ergänzt wird.

Die Vorteile potenzieren sich schnell:

  • Produktives Kapital, das sonst ungenutzt in LP-Pools liegen würde, sichert nun das Netzwerk
  • Diversifizierte Sicherheit reduziert die Abhängigkeit von der Volatilität nativer Token
  • Erhöhte Staking-Belohnungen, da LP-Staker gleichzeitig Swap-Gebühren, Yield aus gepaarten Assets und Staking-Belohnungen verdienen
  • Governance-Macht skaliert mit dem gesamten wirtschaftlichen Einsatz, nicht nur mit dem Besitz nativer Token

Dies schafft einen Flywheel-Effekt, der auf Allzweck-Chains unmöglich ist. Wenn das Handelsvolumen steigt, steigen die LP-Gebühren, was verankertes LP-Staking attraktiver macht, was die Netzwerksicherheit erhöht, was wiederum mehr institutionelles Kapital anzieht und das Handelsvolumen weiter steigert. Das Sicherheitsmodell der Chain wird direkt an die Nutzung der Anwendung gekoppelt und nicht an abstrakte Token-Spekulation.

Die L2-Fragmentierungsfalle

Während Application Chains florieren, illustriert das Layer-2-Ökosystem von Ethereum das gegenteilige Problem: Fragmentierung ohne Fokus.

Mit über 140 Layer-2-Netzwerken, die um Nutzer konkurrieren, ist Ethereum zu dem geworden, was Kritiker „ein Labyrinth isolierter Chains“ nennen. Mehr als 42 Milliarden US-Dollar an Liquidität liegen isoliert in Silos über mehr als 55 L2-Chains hinweg, ohne standardisierte Interoperabilität. Nutzer halten ETH auf Base, können aber kein NFT auf Optimism kaufen, ohne Assets manuell zu bridgen, separate Wallets zu führen und durch inkompatible Schnittstellen zu navigieren.

Dies ist nicht nur eine schlechte UX – es ist eine architektonische Krise. Der Ethereum-Forscher Justin Drake bezeichnet die Fragmentierung als „mehr als eine kleine Unannehmlichkeit – sie wird zu einer existenziellen Bedrohung für die Zukunft von Ethereum“. Das größte Versagen der User Experience in den Jahren 2024–2025 war genau dieses Fragmentierungsproblem.

Lösungen zeichnen sich ab. Der Ethereum Interoperability Layer (EIL) zielt darauf ab, die L2-Komplexitäten zu abstrahieren, damit sich Ethereum „wieder wie eine einzige Chain anfühlt“. ERC-7683 hat Unterstützung von über 45 Teams erhalten, darunter Arbitrum, Base, Optimism, Polygon und zkSync. Aber dies sind nur Notlösungen für ein strukturelles Problem: General-Purpose-Infrastrukturen fragmentieren zwangsläufig, wenn Anwendungen Anpassungen benötigen.

Application Chains umgehen dies vollständig. Wenn dYdX seine eigene Chain kontrolliert, gibt es keine Fragmentierung – nur eine einzige, optimierte Ausführungsumgebung. Wenn Hyperliquid für Derivate baut, gibt es keine Liquiditätsfragmentierung – der gesamte Handel findet in derselben State Machine statt.

Der Shift 2026: Von General-Purpose zu umsatzspezifisch

Der Markt preist diesen architektonischen Wandel bereits ein. Wie AltLayer im Februar 2026 anmerkte: „Der Wandel im Jahr 2026 ist klar: weg von General-Purpose-Blockchains hin zu applikationsspezifischen Netzwerken, die für echte Umsätze optimiert sind. KI-Agenten-Infrastruktur, zweckgebundene Ausführung und kontinuierliches institutionelles Onboarding definieren den nächsten Zyklus.“

Modulare Stacks werden zum Standard, aber nicht so, wie ursprünglich gedacht. Die Erfolgsformel lautet nicht „General-Purpose L1 + General-Purpose L2 + Applikationslogik“. Sie lautet „Settlement-Layer + maßgeschneiderte Ausführungsumgebung + applikationsspezifische Optimierungen“. L1s gewinnen bei Settlement, Neutralität und Liquidität. L2s und L3s gewinnen, wenn Anwendungen dedizierten Blockspace, maßgeschneiderte UX und Kostenkontrolle benötigen.

On-Chain-Spiele verdeutlichen diesen Trend. Applikationsspezifische L3s beheben Durchsatzbeschränkungen, indem sie jedem Spiel seinen eigenen dedizierten Blockspace zuweisen, während Entwickler die Ausführung anpassen und Spielergebühren subventionieren können. Hochgeschwindigkeits-Gameplay mit tiefer Interaktivität erfordert Optimierungen auf Chain-Ebene, die General-Purpose-Plattformen nicht bieten können, ohne den Service für alle anderen zu beeinträchtigen.

Institutionelles Onboarding verlangt zunehmend nach Anpassungsmöglichkeiten. TradFi-Institutionen, die Blockchain-Settlement untersuchen, wollen nicht mit Memecoin-Tradern um Blockspace konkurrieren. Sie wollen Compliance-gerechte Ausführungsumgebungen, anpassbare Finalitätsgarantien und die Möglichkeit, zugangsbeschränkte Zugriffskontrollen zu implementieren – all dies ist auf Application Chains trivial und auf erlaubnisfreien General-Purpose-Plattformen fast unmöglich.

Was das für Builder bedeutet

Wenn Sie ein Protokoll entwickeln, das ein signifikantes Transaktionsvolumen generieren wird, hat sich der Entscheidungsbaum verschoben:

Wählen Sie General-Purpose-Chains, wenn:

  • Sie sofortige Composability mit bestehenden DeFi-Primitiven benötigen
  • Ihre Anwendung sich in einem frühen Stadium befindet und keine Infrastrukturinvestitionen rechtfertigt
  • Netzwerkeffekte durch die Co-Location mit anderen Apps die Optimierungsvorteile überwiegen
  • Sie Infrastruktur (Oracles, Bridges, Identity) statt Endnutzer-Anwendungen bauen

Wählen Sie Application Chains, wenn:

  • Ihr Erlösmodell von Hochfrequenz-Transaktionen mit niedriger Latenz abhängt
  • Sie Anpassungen auf Chain-Ebene benötigen (Blockzeiten, Gebührenstrukturen, Ausführungsumgebung)
  • Ihre Anwendung genug Aktivität generieren wird, um eine dedizierte Infrastruktur zu rechtfertigen
  • Sie MEV internalisieren möchten, anstatt ihn an externe Validatoren abzugeben
  • Ihre Token-Economics davon profitieren, die Applikationslogik auf dem Konsensus-Layer zu verankern

Die Kluft zwischen diesen Pfaden vergrößert sich täglich. Die 3,7 Millionen US-Dollar täglicher Umsatz von Hyperliquid passieren nicht zufällig – sie sind das direkte Ergebnis der Kontrolle über jede Ebene des Stacks. Das halbjährliche Volumen von dYdX in Höhe von 316 Milliarden US-Dollar ist nicht nur Skalierung – es ist die architektonische Abstimmung zwischen Anwendungsanforderungen und Infrastrukturkapazitäten.

Die Validierung der vertikalen Integrationsthese

Wir beobachten eine grundlegende Umstrukturierung der Wertschöpfung in der Blockchain-Industrie. Die Branche hat Jahre damit verbracht, auf horizontale Skalierbarkeit zu optimieren – mehr Chains, mehr Rollups, mehr Composability. Aber Composability ohne Umsatz ist nur Komplexität. Fragmentierung ohne Fokus ist nur Rauschen.

Application Chains beweisen, dass vertikale Integration – einst als „nicht krypto-nativ“ abgetan – Anreize tatsächlich besser aufeinander abstimmt, als es eine gemeinsame Infrastruktur jemals könnte. Wenn Ihre Anwendung Ihre eigene Chain ist, dient jede Optimierung Ihren Nutzern. Wenn Ihr Token Ihr Netzwerk absichert, überträgt sich wirtschaftliches Wachstum direkt in Sicherheit. Wenn Ihre Governance die Konsensusregeln kontrolliert, können Sie tatsächlich Verbesserungen umsetzen, anstatt Kompromisse auszuhandeln.

Die über 50 L2s von Ethereum werden sich wahrscheinlich um einige wenige dominante Akteure konsolidieren, wie mehrere Branchenbeobachter vorhersagen. In der Zwischenzeit werden erfolgreiche Anwendungen zunehmend ihre eigenen Chains starten, anstatt auf überfüllten Plattformen um Aufmerksamkeit zu kämpfen. Die Frage für 2026 und darüber hinaus ist nicht, ob sich dieser Trend fortsetzt – sondern wie schnell Builder erkennen, dass der Versuch, alles für jeden zu sein, ein Rezept dafür ist, von niemandem etwas zu erfassen.

BlockEden.xyz bietet API-Infrastruktur auf Enterprise-Niveau für Application Chains in Cosmos, Ethereum und über 10 weiteren Ökosystemen. Egal, ob Sie auf dYdX aufbauen, Initia evaluieren oder Ihre eigene applikationsspezifische Chain starten – unsere Multi-Provider-Architektur stellt sicher, dass Ihre Infrastruktur mit Ihrem Umsatz skaliert. Erkunden Sie unsere Application-Chain-Infrastruktur, um auf Fundamenten zu bauen, die für die Ewigkeit ausgelegt sind.

Bitcoins Layer-2-Abrechnung: Warum 75 L2s um 0,46 % von BTC kämpfen, während Babylon 5 Mrd. $ einnimmt

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Das Bitcoin-Layer-2-Narrativ versprach, BTC von „digitalem Gold“ in eine programmierbare finanzielle Basisschicht zu verwandeln. Stattdessen lieferte das Jahr 2025 einen ernüchternden Realitätscheck: Der Bitcoin-L2-TVL brach um 74 % ein, während das gesamte BTCFi-Ökosystem von 101.721 BTC auf nur 91.332 BTC schrumpfte – was lediglich 0,46 % aller im Umlauf befindlichen Bitcoins entspricht.

Doch inmitten dieses Gemetzels ragt ein Protokoll heraus: Das Babylon-Protokoll beherrscht einen TVL von 4,95 Milliarden $, was etwa 78 % des gesamten Bitcoin-Staking-Wertes ausmacht. Dieser krasse Gegensatz wirft eine entscheidende Frage für institutionelle Investoren, Entwickler und BTC-Halter auf: Ist Bitcoin L2 ein überfüllter Friedhof gescheiterter Experimente oder konsolidiert sich das Kapital schlichtweg um echte Innovationen?

Der große Bitcoin-L2-Shakeout

Die Bitcoin-L2-Landschaft explodierte von nur 10 Projekten im Jahr 2021 auf 75 bis 2024 – eine siebenfache Steigerung, die die „Jeder braucht ein L2“-Mentalität widerspiegelte, die auch Ethereum erfasst hatte. Doch das explosive Wachstum der Projektzahl schlug sich nicht in nachhaltiger Akzeptanz nieder.

Die Zahlen erzählen eine bittere Geschichte:

  • Der Bitcoin-L2-TVL sank im Laufe des Jahres 2025 um 74 %
  • Der gesamte BTCFi-TVL ging um 10 % zurück, von 101.721 BTC auf 91.332 BTC
  • Nur 0,46 % des zirkulierenden Bitcoin-Angebots nehmen an L2-DeFi teil
  • Bei den meisten neuen L2s brach die Nutzung ein, nachdem die ersten Incentive-Zyklen endeten

Zum Vergleich: Ethereums Layer-2-Ökosystem verfügt über einen TVL von mehr als 40 Milliarden u¨berBase,ArbitrumundOptimismhinwegwobeiBaseallein46über Base, Arbitrum und Optimism hinweg – wobei Base allein 46 % des L2-DeFi-TVL einnimmt. Bitcoins gesamtes L2-Ökosystem hat dagegen Mühe, 4 bis 5 Milliarden zu halten, obwohl Bitcoins Marktkapitalisierung von 1,8 Billionen die350Milliardendie 350 Milliarden von Ethereum in den Schatten stellt.

Dies ist nicht nur eine Underperformance – es ist ein fundamentales Missverhältnis zwischen Narrativ und Ausführung.

Babylons Dominanz: Warum ein Protokoll 78 % des BTC-Stakings eroberte

Während die meisten Bitcoin-L2s Kapital verloren, ging das Babylon-Protokoll als unangefochtener Sieger hervor. Zu seinem Höchststand im Dezember 2024 hielt Babylon einen TVL von 9 Milliarden .SelbstnacheinemRu¨ckgangvon32. Selbst nach einem Rückgang von 32 %, der durch Unstaking-Ereignisse im Wert von 1,26 Milliarden im April 2025 ausgelöst wurde, beherrscht Babylon immer noch 4,95 Milliarden $ – mehr als der Rest des Bitcoin-L2-Ökosystems zusammen.

Warum Babylon dort Erfolg hatte, wo andere scheiterten:

1. Lösung eines realen Problems: Bitcoins brachliegendes Kapital von 1,8 Billionen $

Bitcoin-Halter standen historisch vor einer binären Wahl: BTC halten und null Rendite erzielen oder verkaufen, um Kapital anderweitig einzusetzen. Babylons Bitcoin-Staking-Mechanismus ermöglicht es BTC-Haltern, Proof-of-Stake-Chains zu sichern, ohne zu wrappen, zu bridgen oder die Verwahrung aufzugeben – ein entscheidendes Unterscheidungsmerkmal, das Bitcoins Kernversprechen des trustless Ownership bewahrt.

Im Gegensatz zu herkömmlichen Bitcoin-L2s, bei denen Benutzer BTC in Wrapped Tokens bridgen müssen (was Smart-Contract-Risiken und Zentralisierung einführt), nutzt Babylon kryptografische Verpflichtungen auf der Bitcoin-Mainchain, um natives BTC-Staking zu ermöglichen. Diese architektonische Entscheidung fand Anklang bei Institutionen und Whale-Haltern, die Sicherheit vor maximale Rendite stellen.

2. Multi-Chain Security as a Service

Babylons Start des Multi-Stakings im 4. Quartal 2025 ermöglichte es einem einzelnen BTC-Stake, mehrere Chains gleichzeitig zu sichern – was ein skalierbares Erlösmodell schuf, mit dem traditionelle L2s nicht mithalten konnten. Durch die Positionierung als „Bitcoins Sicherheitsschicht für PoS-Chains“ erschloss Babylon die Nachfrage von aufstrebenden L1s und L2s, die Validator-Sicherheit suchten, ohne eigene Konsensmechanismen einführen zu müssen.

Dieses Modell spiegelt den Erfolg des Restakings von EigenLayer auf Ethereum wider, jedoch mit einem entscheidenden Vorteil: Bitcoins Marktkapitalisierung von 1,8 Billionen bieteteinetiefereo¨konomischeSicherheitalsdie350Milliardenbietet eine tiefere ökonomische Sicherheit als die 350 Milliarden von Ethereum. Für junge Chains bietet das Bootstrapping der Sicherheit über Babylons restaked BTC sofortige Glaubwürdigkeit.

3. Infrastruktur auf institutionellem Niveau

Babylons Partnerschaft mit Aave (angekündigt Ende 2025) zur Integration von Bitcoin-Staking in das größte DeFi-Lending-Protokoll signalisierte eine Verschiebung von privater Spekulation hin zu institutioneller Infrastruktur. Wenn Aave – mit einem TVL von 68 Milliarden $ und strengen Sicherheitsstandards – einen Bitcoin-Staking-Mechanismus unterstützt, validiert dies sowohl die technische Architektur als auch die Marktnachfrage.

Die institutionelle These wurde klar: Bitcoin-Staking ist kein spekulatives DeFi-Spiel – es ist Infrastruktur für die Renditegenerierung auf der sichersten Blockchain der Welt.

Wo Bitcoin-L2s falsch abgebogen sind: Stacks, Rootstock und die institutionelle Kapitallücke

Wenn Babylon das repräsentiert, was in BTCFi funktioniert, dann illustrieren Stacks, Rootstock und Hemi, was nicht funktioniert – zumindest noch nicht in institutionellem Maßstab.

Stacks: Der Pionier, der mit der Ausführung kämpft

Stacks startete 2021 als Bitcoins erste große Smart-Contract-Schicht und führte den Proof-of-Transfer (PoX)-Konsensmechanismus ein, der auf der Bitcoin-Mainchain siedelt. Theoretisch löst Stacks die Bitcoin-Programmierbarkeit. In der Praxis steht es vor anhaltenden Herausforderungen:

  • TVL-Stagnation: Trotz Erreichen eines TVL-Meilensteins von 208 Millionen $ repräsentiert Stacks weniger als 5 % des Kapitals von Babylon.
  • sBTC-Bridge-Beschränkungen: Die Obergrenze der 5.000 BTC-Bridge war in weniger als 2,5 Stunden gefüllt – was die Nachfrage zeigt, aber auch Skalierungsengpässe verdeutlicht.
  • Token-Preisdruck: STX wird bei etwa 0,63 gehandelt,miteinerMarktkapitalisierungvon1,1Milliardengehandelt, mit einer Marktkapitalisierung von 1,1 Milliarden, was deutlich unter den Höchstständen von 2021 liegt.

Das grundlegende Problem von Stacks ist nicht die technische Innovation – es ist die Geschwindigkeit. DeFi-Nutzer fordern schnelle Finalität und niedrige Gebühren. Die an Bitcoin verankerte Abwicklung von Stacks (alle ~10 Minuten) erzeugt UX-Reibungen, die konkurrierende Chains vor Jahren gelöst haben. Institutionelles Kapital, das an Hochfrequenzhandel und sofortige Abwicklung im TradFi gewöhnt ist, wird keine 10-minütigen Blockbestätigungen tolerieren.

Rootstock (RSK): Die EVM-Kompatibilität, die nicht ausreichte

Rootstock startete 2018 als Bitcoins Ethereum-kompatible Sidechain und ermöglichte Solidity Smart Contracts, die durch Merged Mining mit Bitcoin gesichert sind. Es ist die am längsten bestehende Bitcoin L2 und erreichte im März 2025 einen Spitzenwert von 8,6 Milliarden $ an TVL.

Doch bis Ende 2025 brach das TVL von Rootstock zusammen mit anderen Bitcoin L2s ein. Warum?

  • Verwirrung um das Sicherheitsmodell: Merged Mining nutzt theoretisch die Hashpower von Bitcoin, aber in der Praxis nimmt nur ein Teil der Bitcoin-Miner teil – was eine schwächere Sicherheitsgarantie als die Bitcoin-Mainchain schafft.
  • EVM ist kein Differenzierungsmerkmal: Wenn Entwickler EVM-Kompatibilität wollen, wählen sie Ethereum L2s mit 100-mal mehr Liquidität und Tooling. Rootstocks Versprechen von „EVM auf Bitcoin“ löst ein Problem, das Entwickler nicht hatten.
  • Kein institutionelles Narrativ: Rootstock positioniert sich als „Bitcoin-DeFi-Infrastruktur“, aber es fehlt die Geschichte der Vertrauensminimierung, die institutionelle Treasury-Manager benötigen.

Rootstocks im Oktober 2025 angekündigte institutionelle Initiative für „unbewegte Bitcoins“ im Wert von 260 Milliarden $ signalisiert die Erkenntnis des Problems – aber Ankündigungen sind keine Akzeptanz. Babylon hat das Narrativ der institutionellen Bitcoin-Rendite bereits mit einem überlegenen Product-Market-Fit besetzt.

Hemi: Schnelles Wachstum, unklarer Wettbewerbsvorteil

Hemi entwickelte sich zu einer der Breakout-Bitcoin-L2s des Jahres 2025 und erreichte ein TVL von 1,2 Milliarden $, mehr als 90 Protokolle und über 100.000 Nutzer. Die Partnerschaft mit Dominari Securities (unterstützt von Investoren mit Verbindungen zu Trump) im Oktober 2025 zum Aufbau einer Bitcoin-nativen ETF-Infrastruktur erzeugte erhebliches Aufsehen.

Doch Hemi steht vor derselben existenziellen Frage, die die meisten Bitcoin L2s plagt: Was kann Hemi, was Ethereum L2s nicht können – und warum ist das wichtig?

  • Geschwindigkeit ist kein Alleinstellungsmerkmal: Hemis schnelle Finalität konkurriert mit Base (2-Sekunden-Blöcke) und Arbitrum – beide verfügen über 100-mal mehr DeFi-Liquidität.
  • Bitcoin-Settlement verursacht Kosten, keinen Mehrwert: Das Settlement auf der Bitcoin-Mainchain ist teuer (Transaktionsgebühren von über 40 $) und langsam (10-Minuten-Blöcke). Was ist der marginale Nutzen gegenüber dem Settlement auf Ethereum?
  • Protokollanzahl ≠ tatsächliche Nutzung: 90 Protokolle zu haben bedeutet wenig, wenn die meisten Forks von Ethereum-DeFi-Primitiven mit minimalem TVL sind.

Hemis institutionelles ETF-Narrativ könnte es differenzieren – falls die Umsetzung folgt. Doch Anfang 2026 verkaufen die meisten Bitcoin L2s immer noch Potenzial, anstatt echte Traktion zu liefern.

Das Problem mit dem institutionellen Kapital: Warum Geld zu Babylon fließt und nicht zu L2s

Institutionelles Kapital hat eine oberste Priorität: risikobereinigte Renditen. Babylons Staking-Modell bietet:

  • 4–7 % APY auf BTC, ohne die Verwahrung (Custody) aufzugeben
  • Native Bitcoin-Sicherheit durch kryptografische Beweise auf der Mainchain
  • Multi-Chain-Einnahmen durch die Sicherung von PoS-Ökosystemen
  • Partnerschaft mit Aave, was die Sicherheit auf institutionellem Niveau validiert

Vergleichen Sie dies mit traditionellen Bitcoin L2s, die Folgendes bieten:

  • Smart-Contract-Risiko durch Wrapped-BTC-Token
  • Unbewiesene Sicherheitsmodelle (Merged Mining, föderierte Multisigs, Optimistic Rollups auf Bitcoin)
  • Ungewisse Renditen, die von spekulativen DeFi-Protokollen abhängen
  • Liquiditätsfragmentierung über 75 konkurrierende Chains hinweg

Für einen Treasury-Manager, der entscheiden muss, wo er 100 Millionen inBTCeinsetzt,istBabylondieoffensichtlicheWahl.DerStakingMechanismusisttrustless,dieRenditeistvorhersehbarunddasProtokollverfu¨gtu¨berinstitutionellePartnerschaften.WarumeinSmartContractRisikoaufeinerexperimentellenBitcoinL2mit50Millionenin BTC einsetzt, ist Babylon die offensichtliche Wahl. Der Staking-Mechanismus ist trustless, die Rendite ist vorhersehbar und das Protokoll verfügt über institutionelle Partnerschaften. Warum ein Smart-Contract-Risiko auf einer experimentellen Bitcoin L2 mit 50 Millionen TVL und ungeprüften DeFi-Protokollen eingehen?

Die Zukunft der Bitcoin L2: Konsolidierung oder Aussterben?

Die Ethereum-L2-Landschaft bietet einen Fahrplan: Konsolidierung um einige dominante Chains (Base, Arbitrum, Optimism kontrollieren 90 % der L2-Aktivität), während Dutzende von Zombie-Chains mit vernachlässigbarer Nutzung fortbestehen.

Bitcoin L2s stehen vor einem noch härteren Filter, da Bitcoins Wertversprechen Sicherheit und Dezentralisierung sind – nicht Programmierbarkeit. Nutzer, die DeFi suchen, haben bereits Ethereum, Solana und Dutzende von Hochleistungs-L1s. Bitcoin L2s müssen die Frage beantworten: Warum DeFi auf Bitcoin aufbauen statt auf Chains, die dafür zweckbestimmt sind?

Drei Szenarien für Bitcoin L2 in 2026–2027

Szenario 1: Babylon-Monopol Babylon absorbiert über 90 % des Bitcoin-Stakings und der BTCFi-Aktivität und wird zur De-facto-„Bitcoin-DeFi-Schicht“, während traditionelle L2s in der Bedeutungslosigkeit verschwinden. Dies spiegelt die Dominanz von EigenLayer beim Ethereum-Restaking wider (93,9 % Marktanteil).

Szenario 2: Überleben spezialisierter L2s Eine Handvoll Bitcoin L2s überlebt, indem sie spezifische Nischen besetzen:

  • Lightning Network für Mikrozahlungen
  • Stacks für Bitcoin-verankerte Smart Contracts für spezifische Anwendungsfälle
  • Rootstock für bestehende Bitcoin-DeFi-Protokolle
  • Babylon für Staking und PoS-Sicherheit

Szenario 3: Renaissance von institutionellem BTCFi Große Institutionen (BlackRock, Fidelity, Coinbase) führen regulierte Bitcoin-Renditeprodukte und ETFs ein und umgehen öffentliche L2s vollständig. Dies begann bereits mit dem BUIDL-Fonds von BlackRock (1,8 Mrd. $ in tokenisierten Staatsanleihen) und könnte sich auf Bitcoin-besicherte Kredite und Derivate ausweiten.

Das wahrscheinlichste Ergebnis kombiniert Elemente aller drei: Babylon-Dominanz, einige wenige spezialisierte L2-Überlebende und institutionelle Produkte, die die zugrunde liegende Infrastruktur abstrahieren.

Was dies für Entwickler und Investoren bedeutet

Für Bitcoin-L2-Entwickler:

  • Differenzierung oder Untergang. „Schnelleres Ethereum auf Bitcoin“ ist keine überzeugende These. Finden Sie ein einzigartiges Wertversprechen (Datenschutz, Compliance, spezifische Asset-Klassen) oder bereiten Sie sich auf die Bedeutungslosigkeit vor.
  • Integration mit Babylon. Wenn Sie sie nicht schlagen können, bauen Sie auf ihnen auf. Die Multi-Staking-Architektur von Babylon könnte zum Sicherheits-Substrat für anwendungsspezifische Bitcoin-Rollups werden.
  • Zielgruppe Institutionen, nicht Privatkunden. Privatnutzer haben bereits zahlreiche DeFi-Optionen. Institutionen haben Compliance-Anforderungen, Verwahrungsbedenken und Renditemandate, die Bitcoin-L2s auf einzigartige Weise adressieren könnten.

Für Investoren:

  • Babylon ist der einzige klare Gewinner im Bereich Bitcoin-Staking. Bis ein glaubwürdiger Konkurrent mit differenzierter Technologie auftaucht, vergrößert sich der Wettbewerbsvorteil (Moat) von Babylon mit jeder Partnerschaft und Integration.
  • Die meisten Bitcoin-L2-Token sind überbewertet. Projekte mit einem TVL von unter 100 Mio. $ und sinkenden Nutzerzahlen werden zu Bewertungen gehandelt, die ein 10-faches Wachstum implizieren – ein Wachstum, das aufgrund strukturellen Gegenwinds unwahrscheinlich ist.
  • Bitcoin-DeFi ist real, steht aber noch am Anfang. Die Beteiligungsrate von 0,46 % deutet auf ein massives Potenzial hin, falls die richtigen Produkte entstehen. Aber dieses „Falls“ ist eine große Hürde.

Für Bitcoin-Halter:

  • Staking ist nicht länger theoretisch. Babylon, Aave-Integrationen und aufkommende Renditeprodukte bieten glaubwürdige Optionen, um 4–7 % auf BTC zu verdienen, ohne Wrapping oder Bridging.
  • Das Risiko von L2-Bridges bleibt hoch. Die meisten Bitcoin-L2s verlassen sich auf Wrapped BTC mit Annahmen zur treuhänderischen oder föderierten Verwahrung. Verstehen Sie das Sicherheitsmodell, bevor Sie Kapital über eine Bridge transferieren.
  • Institutionelle Produkte kommen. ETFs, regulierte Verwahrung und TradFi-Integrationen werden Bitcoin-Renditen ohne DeFi-Komplexität bieten – und damit potenziell öffentliche L2s kannibalisieren.

Das Fazit: Signal vs. Rauschen

Das Bitcoin-L2-Narrativ ist nicht tot – es wird erwachsen. Der Kollaps von 75 konkurrierenden Chains hin zu einer von Babylon dominierten Landschaft spiegelt die Konsolidierung von Ethereum um Base, Arbitrum und Optimism wider. Kapital verteilt sich nicht gleichmäßig auf „interessante Experimente“ – es fließt in Protokolle, die echte Probleme mit überlegener Ausführung lösen.

Babylon hat das Problem des brachliegenden Bitcoin-Kapitals mit einem vertrauensminimierten Staking-Mechanismus, institutionellen Partnerschaften und Multi-Chain-Einnahmen gelöst. Das ist das Signal.

Die meisten anderen Bitcoin-L2s werben für „programmierbares Bitcoin“, ohne zu erklären, warum Nutzer sie gegenüber Ethereum-L2s mit 100-mal mehr Liquidität bevorzugen sollten. Das ist Rauschen.

Die Frage für 2026 ist nicht, ob Bitcoin-L2s skalieren können – sondern ob sie existieren sollten. Bitcoins Zweck war nie, ein „langsameres Ethereum“ zu sein. Bitcoin ist die sicherste Abrechnungsschicht (Settlement Layer) der Welt und ein dezentraler Wertaufbewahrungsspeicher. Der Aufbau einer DeFi-Infrastruktur, die diese Eigenschaften bewahrt und gleichzeitig Renditen ermöglicht – wie Babylon –, ist wertvoll.

Noch eine weitere EVM-Chain zu bauen, die zufällig auf Bitcoin abrechnet? Das ist nur Rauschen in einem ohnehin schon überfüllten Markt.

BlockEden.xyz bietet Enterprise-Infrastruktur für Bitcoin, Ethereum und aufstrebende Layer-2-Ökosysteme. Egal, ob Sie auf Babylon, Stacks oder der nächsten Generation der Bitcoin-Infrastruktur aufbauen, unser institutioneller API-Zugang und unser engagierter Support stellen sicher, dass Ihre Anwendung zuverlässig skaliert. Erkunden Sie unsere Bitcoin-Node-Services und bauen Sie auf Fundamenten, die für die Ewigkeit ausgelegt sind.

Cross-Chain Messaging Protocol Wars: Wer gewinnt den Kampf um die Multichain-Vorherrschaft?

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Die Multichain-Zukunft steht nicht bevor – sie ist bereits da. Mit über 19,5 Milliarden US-Dollar, die in Cross-Chain-Bridges gesperrt sind, und einem Markt, der bis Ende 2026 auf 3,5 Milliarden US-Dollar zusteuert, hat sich die Blockchain-Interoperabilität von einer experimentellen Phase zu einer unternehmenskritischen Infrastruktur entwickelt. Doch unter der Oberfläche von nahtlosen Token-Transfers und Cross-Chain-DApps befinden sich drei Protokolle in einem architektonischen Wettrüsten, das das Rückgrat des nächsten Jahrzehnts von Web3 bestimmen wird.

LayerZero, Wormhole und Axelar haben sich als unangefochtene Marktführer im Cross-Chain-Messaging herauskristallisiert, doch ihre Designphilosophien könnten kaum unterschiedlicher sein. Eines priorisiert blitzschnelle Finalität durch minimalistische Architektur. Ein anderes setzt auf Dezentralisierung durch ein robustes Validator-Netzwerk. Das dritte versucht, den Mittelweg zu finden und bietet eine ausgewogene Performance mit Zuverlässigkeit auf institutionellem Niveau.

Die Frage ist nicht, ob Cross-Chain-Messaging wichtig ist – angesichts eines kumulativen Volumens von über 70 Milliarden US-Dollar bei Wormhole und der Absicherung der 80 Milliarden US-Dollar schweren Omnichain-Integration von Cardano durch LayerZero hat der Markt bereits entschieden. Die eigentliche Frage lautet: Welcher architektonische Kompromiss gewinnt, wenn Geschwindigkeit, Sicherheit und Dezentralisierung aufeinanderprallen?

Die Schlacht der Architekturen: Drei Pfade zur Cross-Chain-Vorherrschaft

LayerZero: Der Geschwindigkeits-Minimalist

Die Designphilosophie von LayerZero ist täuschend einfach: Den On-Chain-Footprint minimal halten, die Verifizierung Off-Chain verlagern und den Entwicklern die Wahl ihres Sicherheitsmodells überlassen. Im Kern setzt LayerZero unveränderliche „Endpoint“-Smart-Contracts auf jeder Blockchain ein, aber die Hauptarbeit wird durch sein Netzwerk aus Decentralized Verifier Networks (DVNs) erledigt.

Im Gegensatz zu herkömmlichen Bridges, die Vermögenswerte in Escrow-Verträgen sperren, verwendet LayerZero ein Oracle-Relayer-Modell, bei dem unabhängige Einheiten die Integrität der Nachrichten über Ketten hinweg verifizieren.

Entwickler können ihre eigenen Sicherheitsparameter konfigurieren, indem sie aus über 60 verfügbaren DVNs wählen, darunter institutionelle Akteure wie der FCAT-Verifier von Fidelity, der die tokenisierten Vermögenswerte von Ondo Finance in Höhe von 2,7 Milliarden US-Dollar absichert.

Der Vorteil? Eine nahezu sofortige Zustellung der Nachrichten. Die leichtgewichtige Architektur von LayerZero eliminiert den Konsens-Overhead, der schwerfälligere Protokolle belastet, und ermöglicht bei korrekter Konfiguration Cross-Chain-Transaktionen in Sekundenbruchteilen. Dieser Geschwindigkeitsvorteil ist der Grund, warum das Protokoll zum De-facto-Standard für DeFi-Anwendungen geworden ist, die schnelles Cross-Chain-Arbitrage und Liquiditäts-Routing erfordern.

Doch Minimalismus bringt Kompromisse mit sich. Durch das Outsourcing der Verifizierung an externe DVNs führt LayerZero Vertrauensannahmen ein, die nach Ansicht von Puristen die Dezentralisierung gefährden. Wenn ein DVN-Set kompromittiert wird oder kolludiert, könnte die Nachrichtenintegrität gefährdet sein. Die Antwort des Protokolls? Modulare Sicherheit – Anwendungen können verlangen, dass mehrere unabhängige DVNs Nachrichten abzeichnen, was Redundanz auf Kosten einer leicht erhöhten Latenz schafft.

Der „Moonshot“ von LayerZero für 2026 verstärkt die Speed-First-Strategie weiter: Die Ankündigung von „Zero“, einer dedizierten Layer-1-Blockchain, die im Herbst 2026 starten soll. Unter Verwendung einer heterogenen Architektur, die die Ausführung von der Verifizierung mittels Zero-Knowledge-Proofs über die Jolt zkVM trennt, verspricht Zero beeindruckende 2 Millionen Transaktionen pro Sekunde bei minimalen Gebühren. Falls dies umgesetzt wird, wäre LayerZero nicht mehr nur ein Messaging-Protokoll, sondern ein Hochleistungs-Settlement-Layer für Cross-Chain-Aktivitäten.

Wormhole: Der Dezentralisierungs-Purist

Wormhole setzt auf das Gegenteil: Die Minimierung von Vertrauen durch robusten Konsens zu priorisieren, auch wenn dies bedeutet, etwas Geschwindigkeit opfern zu müssen. Das Guardian-Netzwerk des Protokolls besteht aus 19 unabhängigen Validatoren, und eine Nachricht erlangt erst dann Authentizität, wenn mehr als zwei Drittel der Guardians sie mittels t-Schnorr-Multisig kryptografisch signiert haben.

Dieses Design schafft einen erheblichen Sicherheitspuffer. Im Gegensatz zu den konfigurierbaren DVNs von LayerZero fungiert das Guardian-Netzwerk von Wormhole als festes Quorum, das schwerer zu kompromittieren ist. Die Validatoren sind geografisch verteilt und werden von namhaften Unternehmen betrieben, was eine Redundanz schafft, die sich selbst in Marktturbulenzen als widerstandsfähig erwiesen hat.

Als der Zusammenbruch von Terra/LUNA im Jahr 2022 kaskadenartige Liquidationen im DeFi-Sektor auslöste, behielt das Guardian-Netzwerk von Wormhole eine Verfügbarkeit von 100 % bei, ohne dass Nachrichten fehlschlugen.

Die Architektur verbindet über 40 Blockchains durch On-Chain-Core-Contracts, die Nachrichten aussenden und verifizieren, während Guardians Ereignisse beobachten und signierte Attestierungen erstellen, die von Relayer an die Zielketten übermittelt werden. Dieses Guardian-Observer-Muster lässt sich bemerkenswert gut skalieren – Wormhole hat über 1 Milliarde Transaktionen mit einem kumulativen Volumen von 70 Milliarden US-Dollar verarbeitet, ohne dass das Netzwerk selbst zum Engpass wurde.

Die Entwicklung von Wormhole für 2026, genannt „W 2.0“, führt wirtschaftliche Anreize durch einen Staking-Mechanismus ein, der eine Basisrendite von 4 % anstrebt, sowie eine Wormhole Reserve Treasury, die Protokolleinnahmen akkumuliert. Dieser Schritt adressiert einen langjährigen Kritikpunkt: Dass es Wormhole-Validatoren im Vergleich zu PoS-basierten Wettbewerbern an direktem wirtschaftlichem Eigenkapital („Skin in the Game“) fehlte.

Der Kompromiss? Die Finalität dauert etwas länger. Da Nachrichten auf Signaturen von mehr als zwei Dritteln der Guardians warten müssen, bevor sie einen kanonischen Status erreichen, liegen die Bestätigungszeiten von Wormhole um einige Sekunden hinter dem optimistischen Relaying von LayerZero. Für Hochfrequenz-DeFi-Strategien, die eine Ausführung in Sekundenbruchteilen erfordern, spielt diese Latenz eine Rolle. Für institutionelle Cross-Chain-Transfers, bei denen Sicherheit Vorrang vor Geschwindigkeit hat, ist dies jedoch kein Problem.

Axelar: Die pragmatische goldene Mitte

Axelar positioniert sich als die Goldlöckchen-Lösung — weder zu schnell, um leichtsinnig zu sein, noch zu langsam, um unpraktisch zu wirken. Auf dem Cosmos SDK unter Verwendung des CometBFT-Konsenses und der CosmWasm VM aufgebaut, fungiert Axelar als Proof-of-Stake-Blockchain, die andere Chains über ein „Hub-and-Spoke“-Modell verbindet.

Mit über 75 aktiven Validator-Nodes, die den Delegated Proof-of-Stake-Konsens nutzen, erreicht Axelar vorhersehbare Finalitätszeiten, die genau in der Mitte zwischen dem Minimalismus von LayerZero und dem Quorum-basierten Ansatz von Wormhole liegen. Nachrichten erzielen Konsens durch Block-Finalität im Cosmos-Stil, was einen transparenten Audit-Trail ohne die Vertrauensannahmen externer Oracles schafft.

Das Killer-Feature von Axelar ist General Message Passing (GMP), das 84 % des vierteljährlichen Cross-Chain-Volumens von 732,7 Millionen US-Dollar im zweiten Quartal 2024 ausmachte. Im Gegensatz zu einfachen Token-Bridges ermöglicht GMP es Smart Contracts, beliebige Funktionsaufrufe über Chains hinweg zu senden und auszuführen — was Cross-Chain-Swaps, Multichain-Gaming-Logik, NFT-Bridging und komplexe DeFi-Strategien ermöglicht, die Komponierbarkeit zwischen unterschiedlichen Ökosystemen erfordern.

Die Full-Stack-Interoperabilität des Protokolls geht über das einfache Bridging von Assets hinaus und unterstützt eine permissionless Overlay-Programmierbarkeit. Dies erlaubt es Entwicklern, dApps bereitzustellen, die Logik netzwerkübergreifend ausführen, ohne die Smart Contracts für jede Chain neu schreiben zu müssen.

Diese „einmal schreiben, überall bereitstellen“-Fähigkeit ist der Grund, warum Axelar 8,66 Milliarden US-Dollar an Transfers in 1,85 Millionen Transaktionen über 64 Blockchains hinweg verarbeitet hat.

Die Roadmap von Axelar für 2026 umfasst strategische Integrationen mit Stellar und Hedera, wodurch die Multichain-Reichweite über EVM-Chains hinaus auf unternehmensorientierte Netzwerke ausgeweitet wird. Die im Februar 2026 angekündigte Stellar-Integration signalisiert Axelars Wette darauf, zahlungsoptimierte Blockchains mit nativen DeFi-Ökosystemen zu verbinden.

Der Kompromiss? Das PoS-Konsensmodell von Axelar erbt die Beschränkungen der Validator-Sets im Cosmos-Stil. Während mehr als 75 Validatoren eine sinnvolle Dezentralisierung bieten, ist das Netzwerk zentralisierter als die über 1 Million Validatoren von Ethereum, aber verteilter als die 19 Guardians von Wormhole. Die Performance liegt zwischen den Extremen: schneller als Quorum-basierte Systeme, aber nicht so unmittelbar wie Oracle-Relayer-Modelle.

Die Zahlen hinter den Narrativen

Die Marktaktivität offenbart deutliche Adoptionsmuster. Wormhole dominiert die Metriken zum Rohvolumen mit kumulierten Transfers von 70 Milliarden US-Dollar über 1 Milliarde Transaktionen. Allein die Portal Bridge hat seit ihrer Einführung 60 Milliarden US-Dollar verarbeitet, wobei das 30-Tage-Volumen zum 28. Januar 2026 bei 1,413 Milliarden US-Dollar lag.

Axelars Zahlen erzählen eine andere Geschichte — weniger Transaktionen (1,85 Millionen), aber ein höherer Durchschnittswert (insgesamt 8,66 Milliarden US-Dollar), was eher auf eine Adoption auf Institutionen- und Protokollebene als auf Spekulationen durch Privatanleger hindeutet. Die Tatsache, dass 84 % des Volumens aus General Message Passing anstelle von einfachen Token-Swaps stammt, zeigt, dass die Infrastruktur von Axelar anspruchsvollere Cross-Chain-Anwendungen antreibt.

Die Metriken von LayerZero konzentrieren sich eher auf die Breite der Integration als auf das reine Volumen. Mit über 60 unabhängigen DVNs und Schlagzeilen machenden Integrationen, wie dem Zugang von Cardano zu 80 Milliarden US-Dollar an Omnichain-Assets und den 2,7 Milliarden US-Dollar an tokenisierten Staatsanleihen von Ondo Finance, priorisiert die Strategie von LayerZero Flexibilität für Entwickler und hochwertige Partnerschaften gegenüber dem Transaktionsdurchsatz.

Der breitere Marktkontext ist entscheidend: Mit einem Gesamtwert von 19,5 Milliarden US-Dollar, der bis Januar 2025 in allen Cross-Chain-Bridges gebunden war (Total Value Locked), und Prognosen, die eine Marktgröße von 3,5 Milliarden US-Dollar bis Ende 2026 voraussagen, wächst der Sektor schneller, als einzelne Protokolle allein erfassen können.

Es wird prognostiziert, dass der Markt für Blockchain-Bridges von 202 Millionen US-Dollar im Jahr 2024 auf 911 Millionen US-Dollar bis 2032 wachsen wird, bei einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 22,5 %.

Dies ist kein Nullsummenspiel. Die drei Protokolle ergänzen sich oft gegenseitig, anstatt zu konkurrieren — viele Anwendungen nutzen mehrere Messaging-Layer für Redundanz, wobei hochwertige Transaktionen über Wormhole geroutet werden, während kleinere Operationen über das schnellere Relaying von LayerZero gebündelt werden.

Abwägungen, die die Entscheidungen von Entwicklern definieren

Für Entwickler, die Cross-Chain-Anwendungen erstellen, ist die Wahl nicht rein technischer Natur — sie ist philosophisch. Was zählt mehr: Geschwindigkeit, Dezentralisierung oder Entwicklererfahrung?

Geschwindigkeitskritische Anwendungen tendieren naturgemäß zu LayerZero. Wenn Ihre dApp eine Cross-Chain-Ausführung im Sub-Sekunden-Bereich erfordert — etwa Arbitrage-Bots, Echtzeit-Gaming oder Hochfrequenzhandel —, liefert das Oracle-Relayer-Modell von LayerZero eine unübertroffene Finalität. Die Möglichkeit, benutzerdefinierte DVN-Sets zu konfigurieren, bedeutet, dass Entwickler genau das Gleichgewicht zwischen Sicherheit und Latenz einstellen können, das ihre Anwendung verlangt.

Sicherheitsmaximalistische Protokolle greifen standardmäßig zu Wormhole. Wenn Milliarden an institutionellem Kapital bewegt oder Assets für Verwahrer mit Treuhandpflichten übertragen werden, bietet der 2/3+ Guardian-Konsens von Wormhole die stärkste Vertrauensminimierung. Die geografische Verteilung und der Ruf des Validator-Sets fungieren als implizite Versicherung gegen byzantinische Fehler.

Auf Komponierbarkeit fokussierte Entwickler finden bei Axelar ein Zuhause. Wenn Ihre Anwendung erfordert, dass Smart Contracts auf Chain A eine komplexe Logik auf Chain B auslösen — etwa die Orchestrierung von Multichain-DeFi-Strategien, die Synchronisierung des NFT-Status über Ökosysteme hinweg oder die Koordinierung von netzwerkübergreifender Governance —, wurde die GMP-Infrastruktur von Axelar speziell für diesen Anwendungsfall entwickelt. Die Basis des Cosmos SDK bedeutet zudem native IBC-Kompatibilität für Chains der Cosmos-Familie, was eine natürliche Brücke zwischen Cosmos- und EVM-Ökosystemen schafft.

Finalitätsmodelle führen subtile, aber kritische Unterschiede ein. Das optimistische Relaying von LayerZero bedeutet, dass Nachrichten auf der Ziel-Chain erscheinen, bevor die vollständige Verifizierung abgeschlossen ist, was ein kurzes Fenster der Unsicherheit schafft, das versierte Angreifer theoretisch ausnutzen könnten. Der Quorum-basierte Konsens von Wormhole garantiert einen kanonischen Nachrichtenstatus vor der Zustellung. Der PoS-Konsens von Axelar bietet kryptoökonomische Finalität, die durch Validator-Sicherheiten abgesichert ist.

Die Integrationskomplexität variiert erheblich. Das minimalistische Design von LayerZero bedeutet einfachere Smart-Contract-Schnittstellen, aber mehr DevOps-Aufwand bei der Konfiguration von DVNs. Das Guardian-Observer-Modell von Wormhole abstrahiert die Komplexität, bietet aber weniger Anpassungsmöglichkeiten. Der Full-Stack-Ansatz von Axelar bietet den umfangreichsten Funktionsumfang, aber die steilste Lernkurve für Entwickler, die mit der Cosmos-Architektur nicht vertraut sind.

2026 Meilensteine, die die Wettbewerbslandschaft neu gestalten

Die Protokollkriege treten im Jahr 2026 in eine neue Phase ein. Der Start der „Zero“-Blockchain von LayerZero stellt den kühnsten Vorstoß dar – der Übergang von einem reinen Messaging-Protokoll zu einer Applikationsplattform. Wenn die versprochenen 2 Millionen TPS mit Zero-Knowledge-Proof-Verifizierung geliefert werden, könnte LayerZero nicht nur das Cross-Chain-Messaging, sondern auch die Settlement-Finalität selbst erobern und zur kanonischen Source of Truth für den Multichain-Status werden.

Der W 2.0 Staking-Mechanismus von Wormhole verändert sein Wirtschaftsmodell grundlegend. Durch die Einführung einer Basisrendite von 4 % für Staker und die Akkumulierung von Protokolleinnahmen in der Wormhole-Reserve reagiert das Protokoll auf Kritiker, die argumentierten, dass es den Guardians an ausreichenden wirtschaftlichen Anreizen fehle, um die Nachrichtenintegrität zu gewährleisten. Die Staking-Ebene schafft zudem einen Sekundärmarkt für den $W-Token jenseits des spekulativen Handels, was potenziell institutionelle Validatoren anzieht.

Die Integrationen von Stellar und Hedera durch Axelar signalisieren eine strategische Expansion über das EVM-dominierte DeFi hinaus in den Zahlungsverkehr und Enterprise-Anwendungsfälle. Stellars Fokus auf grenzüberschreitende Überweisungen und regulierte Stablecoins ergänzt die institutionelle Positionierung von Axelar, während die Enterprise-Adoption von Hedera einen Einstiegspunkt in Permissioned-Blockchain-Netzwerke bietet, die historisch gesehen von öffentlichen Chains isoliert waren.

Die Integration der XRPL-EVM-Sidechain stellt einen weiteren potenziellen Katalysator dar. Wenn Ripples XRP Ledger eine echte EVM-Kompatibilität mit nahtlosem Cross-Chain-Messaging erreicht, könnten über 80 Milliarden US-Dollar an XRP-Liquidität für DeFi-Anwendungen freigesetzt werden, die derzeit im XRPL-Ökosystem gebunden sind. Welches Protokoll auch immer die dominante Integration sichert, wird einen massiven On-Ramp für institutionelles Kapital gewinnen.

In der Zwischenzeit adressieren Innovationen wie das gaslose Routing von Jumper einen der größten Schwachpunkte der Cross-Chain-UX: Nutzer benötigen Gas-Token der Ziel-Chain, bevor sie Transaktionen abschließen können. Wenn Messaging-Protokolle eine gaslose Abstraktion nativ integrieren, entfernt dies einen erheblichen Reibungspunkt, der die Cross-Chain-Adoption bisher auf erfahrene Nutzer beschränkt hat.

Die Multi-Protokoll-Zukunft

Das Endspiel ist wahrscheinlich keine Winner-takes-all-Dominanz, sondern eine strategische Spezialisierung. So wie sich die Layer-2-Skalierung von „Ethereum-Killern“ zu komplementären Rollups entwickelt hat, reift das Cross-Chain-Messaging zu einem heterogenen Infrastruktur-Stack heran, in dem verschiedene Protokolle unterschiedliche Nischen bedienen.

Die Geschwindigkeit und Flexibilität von LayerZero machen es zum Standard für DeFi-Primitiven, die eine schnelle Finalität und benutzerdefinierte Sicherheitsparameter erfordern. Die Dezentralisierung und bewährte Resilienz von Wormhole positionieren es als die Bridge der Wahl für institutionelles Kapital und den Transfer hochwertiger Assets. Die GMP-Infrastruktur von Axelar und die Cosmos-native Interoperabilität machen es zum Bindeglied für komplexe Multichain-Anwendungen, die ein beliebiges Message Passing erfordern.

Der wahre Wettbewerb findet nicht zwischen diesen drei Giganten statt – er findet zwischen dieser Multichain-Zukunft und den geschlossenen Systemen (Walled Gardens) monolithischer Blockchains statt, die immer noch hoffen, 100 % des Wertes innerhalb eines einzigen Ökosystems zu erfassen. Jede Milliarde Dollar an Cross-Chain-Volumen, jede Multichain-dApp, die einen Product-Market-Fit erreicht, und jede Institution, die Assets über permissionlose Messaging-Protokolle leitet, beweist, dass die Zukunft von Web3 vernetzt und nicht isoliert ist.

Für Entwickler und Nutzer erzeugen die Protokollkriege eine leistungsstarke Dynamik: Wettbewerb treibt Innovation voran, Redundanz verbessert die Sicherheit und Optionalität verhindert monopolistische Rentenabschöpfung. Unabhängig davon, ob Ihre Transaktion über die DVNs von LayerZero, die Guardians von Wormhole oder die Validatoren von Axelar geleitet wird, das Ergebnis bleibt dasselbe – ein offeneres, komponierbareres und zugänglicheres Blockchain-Ökosystem.

Die Frage ist nicht, welches Protokoll gewinnt. Es ist die Frage, wie schnell der gesamte Stack reift, damit sich Cross-Chain so nahtlos anfühlt wie das Laden einer Webseite.


Quellen: