Direkt zum Hauptinhalt

61 Beiträge getaggt mit „Skalierbarkeit“

Blockchain-Skalierungslösungen und Performance

Alle Tags anzeigen

Vitaliks L2-Bombe: Warum Ethereums Rollup-zentrierte Roadmap „keinen Sinn mehr ergibt“

· 12 Min. Lesezeit
Dora Noda
Software Engineer

„Sie skalieren Ethereum nicht.“

Mit diesen sechs Worten lieferte Vitalik Buterin einen Realitätscheck, der Schockwellen durch das Ethereum-Ökosystem sandte. Die Aussage, die sich an Ketten mit hohem Durchsatz richtete, welche Multisig-Bridges nutzen, löste eine unmittelbare Reaktion aus: ENS Labs brach nur wenige Tage später seinen geplanten Namechain-Rollup ab und verwies auf die drastisch verbesserte Performance des Ethereum-Base-Layers.

Nachdem Layer-2-Rollups jahrelang als Ethereums primäre Skalierungslösung positioniert wurden, stellt der Schwenk des Mitbegründers im Februar 2026 eine der bedeutendsten strategischen Verschiebungen in der Geschichte der Blockchain dar. Die Frage ist nun, ob sich Tausende bestehender L2-Projekte anpassen können – oder ob sie obsolet werden.

Die Rollup-zentrierte Roadmap: Was hat sich geändert?

Jahrelang konzentrierte sich die offizielle Skalierungsstrategie von Ethereum auf Rollups. Die Logik war einfach: Ethereum L1 würde sich auf Sicherheit und Dezentralisierung konzentrieren, während Layer-2-Netzwerke den Transaktionsdurchsatz bewältigen, indem sie Ausführungen off-chain bündeln und komprimierte Daten zurück an das Mainnet senden.

Diese Roadmap ergab Sinn, als Ethereum L1 mit 15-30 TPS kämpfte und die Gas-Gebühren während Spitzenzeiten routinemäßig 50 $ pro Transaktion überstiegen. Projekte wie Arbitrum, Optimism und zkSync sammelten Milliarden ein, um eine Rollup-Infrastruktur aufzubauen, die Ethereum schließlich auf Millionen von Transaktionen pro Sekunde skalieren sollte.

Doch zwei entscheidende Entwicklungen untergruben dieses Narrativ.

Erstens schritt die L2-Dezentralisierung laut Buterin „viel langsamer“ voran als erwartet. Die meisten Rollups verlassen sich immer noch auf zentralisierte Sequencer, Multisig-Upgrade-Keys und vertrauenswürdige Betreiber. Der Weg zur Dezentralisierung der Stufe 2 (Stage 2) – bei der Rollups ohne Stützräder funktionieren können – hat sich als außerordentlich schwierig erwiesen. Nur eine Handvoll Projekte haben Stufe 1 erreicht, und keines hat Stufe 2 erreicht.

Zweitens skalierte Ethereum L1 selbst dramatisch. Das Fusaka-Upgrade Anfang 2026 brachte Gebührensenkungen von 99 % für viele Anwendungsfälle. Die Gas-Limits stiegen mit dem bevorstehenden Glamsterdam-Fork von 60 Millionen auf 200 Millionen. Die Validierung von Zero-Knowledge-Proofs strebt bis Ende 2026 10.000 TPS auf L1 an.

Plötzlich erschien die Prämisse, die Milliarden an L2-Investitionen vorangetrieben hatte – dass Ethereum L1 nicht skalieren könne – fragwürdig.

ENS Namechain: Das erste prominente Opfer

Die Entscheidung des Ethereum Name Service, seinen Namechain L2-Rollup zu verwerfen, wurde zur profiliertesten Bestätigung von Buterins revidierter Denkweise.

ENS hatte Namechain jahrelang als spezialisierten Rollup entwickelt, um Namensregistrierungen und -verlängerungen kostengünstiger abzuwickeln, als es das Mainnet erlaubte. Bei Gas-Gebühren von 5 $ pro Registrierung während der Spitzenlastzeiten im Jahr 2024 war das wirtschaftliche Argument überzeugend.

Bis Februar 2026 kehrte sich diese Kalkulation komplett um. Die ENS-Registrierungsgebühren fielen auf Ethereum L1 unter 5 Cent – eine Reduzierung um 99 %. Die Komplexität der Infrastruktur, die laufenden Wartungskosten und die Nutzerfragmentierung beim Betrieb eines separaten L2 rechtfertigten die minimalen Kosteneinsparungen nicht mehr.

ENS Labs gab sein ENSv2-Upgrade nicht auf, das eine grundlegende Neugestaltung der ENS-Contracts mit verbesserter Benutzerfreundlichkeit und Entwickler-Tools darstellt. Stattdessen implementierte das Team ENSv2 direkt auf dem Ethereum-Mainnet und vermied so den Koordinationsaufwand für das Bridging zwischen L1 und L2.

Die Absage signalisiert ein breiteres Muster: Wenn Ethereum L1 weiterhin effektiv skaliert, verlieren spezialisierte Rollups für bestimmte Anwendungsfälle ihre wirtschaftliche Rechtfertigung. Warum eine separate Infrastruktur unterhalten, wenn der Base-Layer ausreicht?

Das Problem der 10.000 TPS Multisig-Bridge

Buterins Kritik an Multisig-Bridges trifft den Kern dessen, was „Ethereum skalieren“ eigentlich bedeutet.

Seine Aussage – „Wenn man eine EVM mit 10.000 TPS erstellt, deren Verbindung zu L1 über eine Multisig-Bridge vermittelt wird, dann skaliert man Ethereum nicht“ – zieht eine klare Linie zwischen echter Ethereum-Skalierung und unabhängigen Chains, die lediglich eine Verbindung behaupten.

Die Unterscheidung ist für Sicherheit und Dezentralisierung von enormer Bedeutung.

Eine Multisig-Bridge verlässt sich auf eine kleine Gruppe von Betreibern, um Cross-Chain-Transaktionen zu validieren. Die Nutzer vertrauen darauf, dass diese Gruppe nicht kollidiert, nicht gehackt wird und nicht von Regulierungsbehörden kompromittiert wird. Die Geschichte zeigt, dass dieses Vertrauen häufig fehlgeleitet ist: Bridge-Hacks haben zu Verlusten in Milliardenhöhe geführt, wobei allein der Ronin-Bridge-Exploit über 600 Millionen $ kostete.

Echte Ethereum-Skalierung erbt die Sicherheitsgarantien von Ethereum. Ein korrekt implementierter Rollup verwendet Fraud-Proofs oder Validity-Proofs, um sicherzustellen, dass jeder ungültige Zustandsübergang angefochten und rückgängig gemacht werden kann, wobei Streitigkeiten von Ethereum L1-Validatoren beigelegt werden. Nutzer müssen keiner Multisig vertrauen – sie vertrauen dem Konsensmechanismus von Ethereum.

Das Problem ist, dass das Erreichen dieses Sicherheitsniveaus technisch komplex und teuer ist. Viele Projekte, die sich selbst als „Ethereum L2s“ bezeichnen, sparen an den falschen Stellen:

  • Zentralisierte Sequencer: Eine einzelne Instanz ordnet Transaktionen, was Zensurrisiken und Single Points of Failure schafft.
  • Multisig-Upgrade-Keys: Eine kleine Gruppe kann Protokollregeln ohne Zustimmung der Community ändern, was potenziell zum Diebstahl von Geldern oder zur Änderung der Ökonomie führen kann.
  • Keine Exit-Garantien: Wenn der Sequencer offline geht oder die Upgrade-Keys kompromittiert werden, haben Nutzer möglicherweise keinen zuverlässigen Weg, um ihre Assets abzuheben.

Dies sind keine theoretischen Bedenken. Untersuchungen zeigen, dass die meisten L2-Netzwerke weitaus zentralisierter bleiben als Ethereum L1, wobei Dezentralisierung eher als langfristiges Ziel und nicht als unmittelbare Priorität behandelt wird.

Buterins Formulierung erzwingt eine unangenehme Frage: Wenn ein L2 die Sicherheit von Ethereum nicht erbt, skaliert es dann wirklich „Ethereum“, oder ist es nur eine weitere Alt-Chain mit Ethereum-Branding?

Das neue L2-Framework: Wert über die Skalierung hinaus

Anstatt L2s gänzlich aufzugeben, schlug Buterin vor, sie als ein Spektrum von Netzwerken mit unterschiedlichen Graden der Anbindung an Ethereum zu betrachten, von denen jedes verschiedene Kompromisse bietet.

Die entscheidende Erkenntnis ist, dass L2s einen Mehrwert bieten müssen, der über die reine Skalierung hinausgeht, wenn sie relevant bleiben wollen, während sich die Ethereum L1 verbessert:

Datenschutzfunktionen

Chains wie Aztec und Railgun bieten programmierbare Privatsphäre mittels Zero-Knowledge Proofs. Diese Funktionen lassen sich auf der transparenten, öffentlichen L1 nicht ohne Weiteres umsetzen, was eine echte Differenzierung schafft.

Anwendungsspezifisches Design

Gaming-fokussierte Rollups wie Ronin oder IMX sind auf hochfrequente Transaktionen mit geringem Wert optimiert und haben andere Anforderungen an die Finalität als Finanzanwendungen. Diese Spezialisierung ist selbst dann sinnvoll, wenn die L1 für die meisten Anwendungsfälle ausreichend skaliert.

Ultraschnelle Bestätigung

Einige Anwendungen benötigen eine Finalität im Subsekundenbereich, die die 12-sekündige Blockzeit der L1 nicht bieten kann. L2s mit optimiertem Konsens können diese Nische bedienen.

Nicht-finanzielle Anwendungsfälle

Identität, Social Graphs und Datenverfügbarkeit haben andere Anforderungen als DeFi. Spezialisierte L2s können für diese Workloads optimiert werden.

Buterin betonte, dass L2s „gegenüber den Nutzern klar kommunizieren sollten, welche Garantien sie bieten“. Die Zeiten vager Behauptungen über die „Skalierung von Ethereum“, ohne Sicherheitsmodelle, Dezentralisierungsstatus und Vertrauensannahmen zu spezifizieren, sind vorbei.

Reaktionen des Ökosystems: Anpassung oder Verleugnung?

Die Reaktion auf Buterins Kommentare offenbart ein gespaltenes Ökosystem, das mit einer Identitätskrise kämpft.

Polygon kündigte eine strategische Neuausrichtung an, um sich primär auf Zahlungen zu konzentrieren, und erkannte explizit an, dass die allgemeine Skalierung zunehmend zu einem Standardprodukt (Commodity) wird. Das Team hat erkannt, dass Differenzierung Spezialisierung erfordert.

Marc Boiron (Offchain Labs) argumentierte, dass es in Buterins Kommentaren „weniger um das Aufgeben von Rollups ging, sondern darum, die Erwartungen an sie zu erhöhen“. Diese Formulierung bewahrt das Rollup-Narrativ und erkennt gleichzeitig die Notwendigkeit höherer Standards an.

Solana-Anhänger ergriffen die Gelegenheit, um zu argumentieren, dass Solanas monolithische Architektur die L2-Komplexität gänzlich vermeidet. Sie wiesen darauf hin, dass die Multi-Chain-Fragmentierung von Ethereum eine schlechtere UX schafft als eine einzige Hochleistungs-L1.

L2-Entwickler verteidigten im Allgemeinen ihre Relevanz, indem sie Funktionen jenseits des reinen Durchsatzes betonten – Datenschutz, Anpassbarkeit, spezialisierte Ökonomien –, während sie insgeheim einräumten, dass reine Skalierungslösungen immer schwieriger zu rechtfertigen sind.

Der breitere Trend ist klar: Die L2-Landschaft wird sich in zwei Kategorien aufteilen:

  1. Commodity-Rollups, die primär über Gebühren und Durchsatz konkurrieren und sich wahrscheinlich um einige dominante Akteure konsolidieren werden (Base, Arbitrum, Optimism).

  2. Spezialisierte L2s mit grundlegend anderen Ausführungsmodellen, die einzigartige Wertversprechen bieten, welche die L1 nicht replizieren kann.

Chains, die in keine dieser Kategorien fallen, stehen vor einer ungewissen Zukunft.

Was L2s tun müssen, um zu überleben

Für bestehende Layer-2-Projekte erzeugt Buterins Kehrtwende sowohl existenziellen Druck als auch strategische Klarheit. Das Überleben erfordert entschlossenes Handeln an mehreren Fronten:

1. Dezentralisierung beschleunigen

Das Narrativ „wir werden irgendwann dezentralisieren“ ist nicht länger akzeptabel. Projekte müssen konkrete Zeitpläne veröffentlichen für:

  • Erlaubnisfreie (permissionless) Sequencer-Netzwerke (oder glaubwürdige Proofs-of-Authority)
  • Entfernung oder Time-Locking von Upgrade-Keys
  • Implementierung von Fault-Proof-Systemen mit garantierten Exit-Fenstern

L2s, die zentralisiert bleiben und gleichzeitig Ethereum-Sicherheit für sich beanspruchen, sind besonders anfällig für regulatorische Prüfungen und Reputationsschäden.

2. Wertversprechen klären

Wenn das Hauptargument einer L2 „günstiger als Ethereum“ ist, braucht sie ein neues Konzept. Nachhaltige Differenzierung erfordert:

  • Spezialisierte Funktionen: Datenschutz, benutzerdefinierte VM-Ausführung, neuartige Zustandsmodelle
  • Klarheit der Zielgruppe: Gaming? Zahlungen? Social? DeFi?
  • Ehrliche Sicherheitsoffenlegungen: Welche Vertrauensannahmen bestehen? Welche Angriffsvektoren bleiben bestehen?

Marketing-Vaporware wird nicht funktionieren, wenn Nutzer tatsächliche Dezentralisierungsmetriken über Tools wie L2Beat vergleichen können.

3. Das Problem der Bridge-Sicherheit lösen

Multisig-Bridges sind das schwächste Glied in der L2-Sicherheit. Projekte müssen:

  • Fraud-Proofs oder Validity-Proofs für vertrauensloses Bridging implementieren
  • Zeitverzögerungen und soziale Konsensebenen für Notfalleingriffe hinzufügen
  • Garantierte Exit-Mechanismen bereitstellen, die auch bei einem Ausfall der Sequencer funktionieren

Bridge-Sicherheit darf kein Nebengedanke sein, wenn Milliarden an Nutzergeldern auf dem Spiel stehen.

4. Fokus auf Interoperabilität

Fragmentierung ist das größte UX-Problem von Ethereum. L2s sollten:

  • Cross-Chain-Messaging-Standards unterstützen (LayerZero, Wormhole, Chainlink CCIP)
  • Nahtloses Liquidity-Sharing über Chains hinweg ermöglichen
  • Abstraktionsschichten aufbauen, die die Komplexität vor den Endnutzern verbergen

Die erfolgreichen L2s werden sich wie Erweiterungen von Ethereum anfühlen, nicht wie isolierte Inseln.

5. Konsolidierung akzeptieren

Realistischerweise kann der Markt nicht über 100 lebensfähige L2s tragen. Viele werden fusionieren, sich neu orientieren oder den Betrieb geordnet einstellen müssen. Je eher Teams dies anerkennen, desto besser können sie sich für strategische Partnerschaften oder Acqui-Hires positionieren, anstatt langsam in der Bedeutungslosigkeit zu versinken.

Die Ethereum L1 Skalierungs-Roadmap

Während L2s vor einer Identitätskrise stehen, setzt Ethereum L1 einen aggressiven Skalierungsplan um, der Buterins Argumentation untermauert.

Glamsterdam Fork (Mitte 2026): Führt Block Access Lists (BAL) ein, die eine perfekte parallele Verarbeitung ermöglichen, indem Transaktionsdaten vorab in den Speicher geladen werden. Die Gas-Limits steigen von 60 Millionen auf 200 Millionen, was den Durchsatz für komplexe Smart Contracts drastisch verbessert.

Zero-Knowledge Proof Validierung: Der Rollout von Phase 1 im Jahr 2026 zielt darauf ab, dass 10 % der Validatoren auf ZK-Validierung umstellen, bei der Validatoren mathematische Beweise verifizieren, die die Blockgenauigkeit bestätigen, anstatt alle Transaktionen erneut auszuführen. Dies ermöglicht Ethereum eine Skalierung in Richtung 10.000 TPS bei gleichzeitiger Wahrung von Sicherheit und Dezentralisierung.

Proposer-Builder Separation (ePBS): Integriert den Wettbewerb zwischen Buildern direkt in die Consensus-Ebene von Ethereum, wodurch die MEV-Extraktion reduziert und die Zensurresistenz verbessert wird.

Diese Upgrades machen L2s nicht überflüssig, räumen aber mit der Annahme auf, dass eine L1-Skalierung unmöglich oder unpraktikabel sei. Wenn Ethereum L1 mit paralleler Ausführung und ZK-Validierung 10.000 TPS erreicht, steigt die Messlatte für die Differenzierung von L2s dramatisch an.

Der langfristige Ausblick: Was setzt sich durch?

Ethereums Skalierungsstrategie tritt in eine neue Phase ein, in der die Entwicklung von L1 und L2 als komplementär statt als kompetitiv betrachtet werden muss.

Die Rollup-zentrierte Roadmap ging davon aus, dass L1 auf unbestimmte Zeit langsam und teuer bleiben würde. Diese Annahme ist nun hinfällig. L1 wird skalieren – vielleicht nicht auf Millionen von TPS, aber genug, um die meisten Mainstream-Anwendungsfälle mit angemessenen Gebühren zu bewältigen.

L2s, die diese Realität erkennen und auf echte Differenzierung setzen, können florieren. Diejenigen, die weiterhin mit „günstiger und schneller als Ethereum“ werben, werden es schwer haben, da L1 die Leistungslücke schließt.

Die ultimative Ironie besteht darin, dass Buterins Kommentare die langfristige Position von Ethereum stärken könnten. Indem L2s gezwungen werden, ihre Standards zu erhöhen – echte Dezentralisierung, ehrliche Sicherheitsoffenlegungen, spezialisierte Wertversprechen –, eliminiert Ethereum die schwächsten Projekte und hebt gleichzeitig die Qualität des gesamten Ökosystems an.

Nutzer profitieren von klareren Entscheidungen: Ethereum L1 für maximale Sicherheit und Dezentralisierung nutzen oder spezialisierte L2s für bestimmte Funktionen mit explizit genannten Kompromissen wählen. Die Grauzone von „wir skalieren Ethereum irgendwie mit einer Multisig-Bridge“ verschwindet.

Für Projekte, die die Zukunft der Blockchain-Infrastruktur aufbauen, ist die Botschaft klar: Generische Skalierung ist gelöst. Wenn Ihre L2 nichts bietet, was Ethereum L1 nicht leisten kann, bauen Sie auf geliehener Zeit.

BlockEden.xyz bietet Enterprise-Infrastruktur für Ethereum L1 und wichtige Layer-2-Netzwerke an und stellt Entwicklern die Tools zur Verfügung, um im gesamten Ethereum-Ökosystem zu bauen. Erkunden Sie unsere API-Services für skalierbare, zuverlässige Blockchain-Konnektivität.


Quellen:

SONAMI erreicht Stage 10: Kann Solanas Layer-2-Strategie Ethereums L2-Dominanz herausfordern?

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Solana hat gerade eine Schwelle überschritten, die die meisten für unmöglich hielten: Eine Blockchain, die auf reine Geschwindigkeit ausgelegt ist, baut nun zusätzliche Ausführungsumgebungen darauf auf. SONAMI, das sich als Solanas erste produktionsreife Layer-2-Lösung präsentiert, gab Anfang Februar 2026 seinen Stage-10-Meilenstein bekannt und markierte damit einen entscheidenden Wendepunkt in der Skalierbarkeitsstrateige der Hochleistungs-Blockchain.

Jahrelang war das Narrativ einfach: Ethereum braucht Layer 2s, weil seine Basisschicht nicht skalieren kann. Solana braucht keine L2s, weil es bereits Tausende von Transaktionen pro Sekunde verarbeitet. Jetzt, da SONAMI die Produktionsreife erreicht und konkurrierende Projekte wie SOON und Eclipse an Zugkraft gewinnen, übernimmt Solana still das modulare Spielbuch, das Ethereums Rollup-Ökosystem zu einem 33-Milliarden-Dollar-Giganten gemacht hat.

Die Frage ist nicht, ob Solana Layer 2s braucht. Es geht darum, ob Solanas L2-Narrativ mit der etablierten Dominanz von Base, Arbitrum und Optimism konkurrieren kann – und was es bedeutet, wenn jede Blockchain auf dieselbe Skalierungslösung konvergiert.

Warum Solana Layer 2s baut (und warum jetzt)

Solanas theoretisches Design-Ziel sind 65.000 Transaktionen pro Sekunde. In der Praxis operiert das Netzwerk typischerweise im niedrigen Tausenderbereich und erreicht gelegentlich Überlastung während NFT-Mints oder Memecoin-Frenzies. Kritiker verweisen auf Netzwerkausfälle und Leistungseinbrüche unter Spitzenlast als Beweis dafür, dass hoher Durchsatz allein nicht ausreicht.

SONAMIs Stage-10-Launch adressiert diese Schwachstellen direkt. Laut offiziellen Ankündigungen konzentriert sich der Meilenstein auf drei Kernverbesserungen:

  • Stärkung der Ausführungsfähigkeiten unter Spitzenauslastung
  • Erweiterung modularer Bereitstellungsoptionen für anwendungsspezifische Umgebungen
  • Verbesserung der Netzwerkeffizienz zur Reduzierung der Überlastung der Basisschicht

Dies ist Ethereums L2-Strategie, angepasst an Solanas Architektur. Wo Ethereum die Transaktionsausführung an Rollups wie Arbitrum und Base auslagert, schafft Solana nun spezialisierte Ausführungsschichten, die Überlauf und anwendungsspezifische Logik verarbeiten und gleichzeitig auf der Hauptkette abwickeln.

Das Timing ist strategisch. Ethereums Layer-2-Ökosystem verarbeitete Ende 2025 fast 90 % aller L2-Transaktionen, wobei Base allein über 60 % des Marktanteils eroberte. Gleichzeitig fließt institutionelles Kapital in Ethereum-L2s: Base hält 10 Milliarden Dollar TVL, Arbitrum verfügt über 16,63 Milliarden Dollar, und das kombinierte L2-Ökosystem repräsentiert einen bedeutenden Anteil an Ethereums gesichertem Gesamtwert.

Solanas Layer-2-Vorstoß ist kein Eingeständnis des Scheiterns. Es geht darum, um dieselbe institutionelle und Entwickleraufmerksamkeit zu konkurrieren, die Ethereums modulare Roadmap erobert hat.

SONAMI vs. Ethereums L2-Giganten: Ein ungleicher Kampf

SONAMI betritt einen Markt, in dem die Konsolidierung bereits stattgefunden hat. Anfang 2026 sind die meisten Ethereum-L2s außerhalb der Top Drei – Base, Arbitrum, Optimism – effektiv „Zombie-Chains", deren Nutzung um 61 % gesunken ist und deren TVL sich überwiegend in etablierten Ökosystemen konzentriert.

Hier ist, womit SONAMI konfrontiert ist:

Bases Coinbase-Vorteil: Base profitiert von Coinbases 110 Millionen verifizierten Nutzern, nahtlosen Fiat-Onramps und institutionellem Vertrauen. Ende 2025 dominierte Base 46,58 % des Layer-2-DeFi-TVL und 60 % des Transaktionsvolumens. Kein Solana-L2 hat vergleichbare Distribution.

Arbitrums DeFi-Burggraben: Arbitrum führt alle L2s mit 16,63 Milliarden Dollar TVL an, aufgebaut auf Jahren etablierter DeFi-Protokolle, Liquiditätspools und institutioneller Integrationen. Solanas gesamtes DeFi-TVL beträgt 11,23 Milliarden Dollar über sein gesamtes Ökosystem.

Optimisms Governance-Netzwerkeffekte: Optimisms Superchain-Architektur zieht Enterprise-Rollups von Coinbase, Kraken und Uniswap an. SONAMI hat kein vergleichbares Governance-Framework oder Partnerschafts-Ökosystem.

Der architektonische Vergleich ist ebenso krass. Ethereums L2s wie Arbitrum erreichen theoretisch 40.000 TPS, wobei tatsächliche Transaktionsbestätigungen durch günstige Gebühren und schnelle Finalität sofort spürbar sind. SONAMIs Architektur verspricht ähnliche Durchsatzverbesserungen, baut aber auf einer Basisschicht auf, die bereits Bestätigungen mit niedriger Latenz liefert.

Das Wertversprechen ist unklar. Ethereum-L2s lösen ein reales Problem: Ethereums 15-30-TPS-Basisschicht ist zu langsam für Consumer-Anwendungen. Solanas Basisschicht bewältigt die meisten Anwendungsfälle bereits komfortabel. Welches Problem löst ein Solana-L2, das Firedancer – Solanas Validator-Client der nächsten Generation, der die Performance deutlich steigern soll – nicht adressieren kann?

Die SVM-Expansion: Eine andere Art von L2-Strategie

Solanas Layer-2-Strategie zielt möglicherweise nicht darauf ab, Solana selbst zu skalieren. Es geht möglicherweise darum, die Solana Virtual Machine (SVM) als Technologiestack unabhängig von Solana der Blockchain zu skalieren.

Eclipse, das erste Ethereum-L2 mit SVM-Antrieb, hält konstant über 1.000 TPS ohne Gebührenspitzen aufrecht. SOON, ein Optimistic Rollup, das SVM mit Ethereums modularem Design verbindet, zielt darauf ab, auf Ethereum abzuwickeln und gleichzeitig mit Solanas Parallelisierungsmodell auszuführen. Atlas verspricht 50ms-Blockzeiten mit schneller State-Merklisierung. Yona wickelt auf Bitcoin ab und nutzt SVM für die Ausführung.

Dies sind keine Solana-L2s im traditionellen Sinne. Es sind SVM-betriebene Rollups, die auf anderen Chains abwickeln und Solana-Level-Performance mit Ethereums Liquidität oder Bitcoins Sicherheit bieten.

SONAMI passt in dieses Narrativ als „Solanas erstes Produktions-L2", aber die größere Strategie besteht darin, SVM in jedes große Blockchain-Ökosystem zu exportieren. Falls erfolgreich, wird Solana zur bevorzugten Ausführungsschicht über mehrere Settlement-Layer hinweg – eine Parallele dazu, wie die EVM-Dominanz über Ethereum selbst hinauswuchs.

Die Herausforderung ist Fragmentierung. Ethereums L2-Ökosystem leidet unter Liquiditätsaufteilung über Dutzende von Rollups. Nutzer auf Arbitrum können nicht nahtlos mit Base oder Optimism interagieren, ohne zu bridgen. Solanas L2-Strategie riskiert dasselbe Schicksal: SONAMI, SOON, Eclipse und andere konkurrieren um Liquidität, Entwickler und Nutzer, ohne die Komposabilität, die Solanas L1-Erfahrung definiert.

Was Stage 10 tatsächlich bedeutet (und was nicht)

SONAMIs Stage-10-Ankündigung enthält viel Vision, aber wenig technische Details. Die Pressemitteilungen betonen „modulare Bereitstellungsoptionen", „Stärkung der Ausführungsfähigkeiten" und „Netzwerkeffizienz unter Spitzenauslastung", liefern aber keine konkreten Performance-Benchmarks oder Mainnet-Metriken.

Dies ist typisch für L2-Launches in der Frühphase. Eclipse restrukturierte sich Ende 2025, entließ 65 % des Personals und wechselte vom Infrastrukturanbieter zum hauseigenen App-Studio. SOON sammelte 22 Millionen Dollar durch einen NFT-Verkauf vor dem Mainnet-Launch, hat aber noch keine nachhaltige Produktionsnutzung demonstriert. Das Solana-L2-Ökosystem ist jung, spekulativ und unbewiesen.

Zum Vergleich: Ethereums L2-Dominanz brauchte Jahre, um sich zu festigen. Arbitrum startete sein Mainnet im August 2021. Optimism ging im Dezember 2021 live. Base startete erst im August 2023, überholte aber innerhalb von Monaten Arbitrum beim Transaktionsvolumen dank Coinbases Distributionskraft. SONAMI versucht, in einem Markt zu konkurrieren, in dem Netzwerkeffekte, Liquidität und institutionelle Partnerschaften bereits klare Gewinner geschaffen haben.

Der Stage-10-Meilenstein deutet darauf hin, dass SONAMI seine Entwicklungs-Roadmap vorantreibt, aber ohne TVL, Transaktionsvolumen oder Metriken aktiver Nutzer ist es unmöglich, die tatsächliche Zugkraft zu bewerten. Die meisten L2-Projekte kündigen „Mainnet-Launches" oder „Testnet-Meilensteine" an, die Schlagzeilen generieren, aber keine Nutzung.

Kann Solanas L2-Narrativ Erfolg haben?

Die Antwort hängt davon ab, was „Erfolg" bedeutet. Wenn Erfolg bedeutet, Base oder Arbitrum zu entthronen, ist die Antwort fast sicher Nein. Ethereums L2-Ökosystem profitiert vom First-Mover-Vorteil, institutionellem Kapital und Ethereums unübertroffener DeFi-Liquidität. Solana-L2s fehlen diese strukturellen Vorteile.

Wenn Erfolg bedeutet, anwendungsspezifische Ausführungsumgebungen zu schaffen, die die Überlastung der Basisschicht reduzieren und gleichzeitig Solanas Komposabilität beibehalten, ist die Antwort vielleicht. Solanas Fähigkeit, über L2s horizontal zu skalieren und gleichzeitig einen schnellen und komposablen Kern-L1 beizubehalten, könnte seine Position für hochfrequente, echtzeitfähige dezentrale Anwendungen stärken.

Wenn Erfolg bedeutet, SVM in andere Ökosysteme zu exportieren und Solanas Ausführungsumgebung als Cross-Chain-Standard zu etablieren, ist die Antwort plausibel, aber unbewiesen. SVM-betriebene Rollups auf Ethereum, Bitcoin und anderen Chains könnten die Adoption vorantreiben, aber Fragmentierung und Liquiditätsaufteilung bleiben ungelöste Probleme.

Das wahrscheinlichste Ergebnis ist Bifurkation. Ethereums L2-Ökosystem wird weiterhin institutionelles DeFi, tokenisierte Assets und Enterprise-Anwendungsfälle dominieren. Solanas Basisschicht wird für Retail-Aktivitäten, Memecoins, Gaming und konstante Low-Fee-Transaktionen gedeihen. Solana-L2s werden einen Mittelweg einnehmen: spezialisierte Ausführungsschichten für Überlauf, anwendungsspezifische Logik und Cross-Chain-SVM-Deployments.

Dies ist kein Winner-takes-all-Szenario. Es ist die Anerkennung, dass verschiedene Skalierungsstrategien verschiedene Anwendungsfälle bedienen und die modulare These – ob auf Ethereum oder Solana – zum Standard-Playbook für jede große Blockchain wird.

Die stille Konvergenz

Dass Solana Layer 2s baut, fühlt sich wie ideologische Kapitulation an. Jahrelang lautete Solanas Pitch Einfachheit: eine schnelle Chain, keine Fragmentierung, kein Bridging. Ethereums Pitch war Modularität: Konsens von Ausführung trennen, L2s spezialisieren lassen, Kompromisse bei der Komposabilität akzeptieren.

Jetzt konvergieren beide Ökosysteme auf dieselbe Lösung. Ethereum upgradet seine Basisschicht (Pectra, Fusaka), um mehr L2s zu unterstützen. Solana baut L2s, um seine Basisschicht zu erweitern. Die architektonischen Unterschiede bleiben, aber die strategische Richtung ist identisch: Ausführung an spezialisierte Schichten auslagern und gleichzeitig die Sicherheit der Basisschicht bewahren.

Die Ironie ist, dass der Wettbewerb sich intensiviert, je ähnlicher sich Blockchains werden. Ethereum hat einen mehrjährigen Vorsprung, 33 Milliarden Dollar L2-TVL und institutionelle Partnerschaften. Solana hat überlegene Basisschicht-Performance, niedrigere Gebühren und ein auf Retail ausgerichtetes Ökosystem. SONAMIs Stage-10-Meilenstein ist ein Schritt in Richtung Parität, aber Parität reicht nicht in einem Markt, der von Netzwerkeffekten dominiert wird.

Die eigentliche Frage ist nicht, ob Solana L2s bauen kann. Es ist, ob Solanas L2s die Liquidität, Entwickler und Nutzer anziehen können, die nötig sind, um in einem Ökosystem relevant zu sein, in dem die meisten L2s bereits scheitern.

BlockEden.xyz bietet Enterprise-Grade-RPC-Infrastruktur für Solana und andere Hochleistungs-Blockchains. Erkunden Sie unseren API-Marktplatz, um auf skalierbaren Grundlagen zu bauen, die für Geschwindigkeit optimiert sind.

Quellen

ZK-Coprozessoren: Die Infrastruktur, die Blockchains Berechnungsbarriere durchbricht

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Wenn Ethereum Transaktionen verarbeitet, findet jede Berechnung on-chain statt – verifizierbar, sicher und schmerzhaft teuer. Diese fundamentale Einschränkung hat jahrelang begrenzt, was Entwickler bauen können. Doch eine neue Klasse von Infrastruktur schreibt die Regeln neu: ZK-Coprozessoren bringen unbegrenzte Rechenleistung zu ressourcenbeschränkten Blockchains, ohne die Vertrauenslosigkeit zu opfern.

Bis Oktober 2025 hatte der ZK-Coprozessor von Brevis Network bereits 125 Millionen Zero-Knowledge-Beweise generiert, über 2,8 Milliarden Dollar an Total Value Locked unterstützt und über 1 Milliarde Dollar an Transaktionsvolumen verifiziert. Dies ist keine experimentelle Technologie mehr – es ist Produktionsinfrastruktur, die Anwendungen ermöglicht, die zuvor on-chain unmöglich waren.

Der Berechnungsengpass, der die Blockchain definierte

Blockchains stehen vor einem inhärenten Trilemma: sie können dezentralisiert, sicher oder skalierbar sein – aber alle drei gleichzeitig zu erreichen hat sich als schwer fassbar erwiesen. Smart Contracts auf Ethereum zahlen Gas für jeden Berechnungsschritt, was komplexe Operationen unerschwinglich teuer macht. Möchten Sie die gesamte Transaktionshistorie eines Nutzers analysieren, um seine Treuekategorie zu bestimmen? Personalisierte Gaming-Belohnungen basierend auf Hunderten von On-Chain-Aktionen berechnen? Machine-Learning-Inferenz für DeFi-Risikomodelle ausführen?

Traditionelle Smart Contracts können dies nicht wirtschaftlich leisten. Das Lesen historischer Blockchain-Daten, das Verarbeiten komplexer Algorithmen und der Zugriff auf Cross-Chain-Informationen erfordern allesamt Berechnungen, die die meisten Anwendungen in den Ruin treiben würden, wenn sie auf Layer 1 ausgeführt würden. Deshalb verwenden DeFi-Protokolle vereinfachte Logik, Spiele verlassen sich auf Off-Chain-Server, und KI-Integration bleibt weitgehend konzeptionell.

Der Workaround war immer derselbe: Berechnungen off-chain verlagern und einer zentralisierten Partei vertrauen, sie korrekt auszuführen. Aber das macht den gesamten Zweck der vertrauenslosen Blockchain-Architektur zunichte.

ZK-Coprozessoren im Einsatz: Off-Chain-Ausführung, On-Chain-Verifikation

Zero-Knowledge-Coprozessoren lösen dieses Problem durch die Einführung eines neuen Berechnungsparadigmas: „Off-Chain-Berechnung + On-Chain-Verifikation." Sie ermöglichen Smart Contracts, schwere Verarbeitungen an spezialisierte Off-Chain-Infrastruktur zu delegieren und die Ergebnisse dann on-chain mit Zero-Knowledge-Beweisen zu verifizieren – ohne einem Vermittler zu vertrauen.

So funktioniert es in der Praxis:

  1. Datenzugriff: Der Coprozessor liest historische Blockchain-Daten, Cross-Chain-Zustände oder externe Informationen, die on-chain gas-prohibitiv teuer wären
  2. Off-Chain-Berechnung: Komplexe Algorithmen laufen in spezialisierten Umgebungen, die für Performance optimiert sind und nicht durch Gas-Limits eingeschränkt werden
  3. Beweisgenerierung: Ein Zero-Knowledge-Beweis wird erzeugt, der demonstriert, dass die Berechnung korrekt auf bestimmten Eingaben ausgeführt wurde
  4. On-Chain-Verifikation: Der Smart Contract verifiziert den Beweis in Millisekunden, ohne die Berechnung erneut auszuführen oder die Rohdaten zu sehen

Diese Architektur ist wirtschaftlich tragfähig, weil die Generierung von Beweisen off-chain und ihre Verifikation on-chain weit weniger kostet als die direkte Ausführung der Berechnung auf Layer 1. Das Ergebnis: Smart Contracts erhalten Zugang zu unbegrenzter Rechenleistung bei gleichzeitiger Wahrung der Sicherheitsgarantien der Blockchain.

Die Evolution: Von zkRollups zu zkCoprozessoren

Die Technologie entstand nicht über Nacht. Zero-Knowledge-Beweissysteme haben sich in verschiedenen Phasen entwickelt:

L2-zkRollups waren Pioniere des Modells „Off-Chain berechnen, on-chain verifizieren" zur Skalierung des Transaktionsdurchsatzes. Projekte wie zkSync und StarkNet bündeln Tausende von Transaktionen, führen sie off-chain aus und übermitteln einen einzigen Gültigkeitsbeweis an Ethereum – was die Kapazität dramatisch erhöht, während Ethereums Sicherheit geerbt wird.

zkVMs (Zero-Knowledge Virtual Machines) generalisierten dieses Konzept und ermöglichten den Nachweis der Korrektheit beliebiger Berechnungen. Anstatt auf Transaktionsverarbeitung beschränkt zu sein, konnten Entwickler jedes Programm schreiben und verifizierbare Beweise seiner Ausführung generieren. Brevis' Pico/Prism zkVM erreicht eine durchschnittliche Beweiszeit von 6,9 Sekunden auf 64x RTX 5090 GPU-Clustern und macht Echtzeit-Verifikation praktikabel.

zkCoprozessoren stellen die nächste Evolution dar: spezialisierte Infrastruktur, die zkVMs mit Daten-Coprozessoren kombiniert, um den Zugriff auf historische und Cross-Chain-Daten zu ermöglichen. Sie sind speziell für die einzigartigen Anforderungen von Blockchain-Anwendungen gebaut – das Lesen der On-Chain-Historie, das Überbrücken mehrerer Chains und die Bereitstellung von Fähigkeiten für Smart Contracts, die zuvor hinter zentralisierten APIs verschlossen waren.

Lagrange startete 2025 den ersten SQL-basierten ZK-Coprozessor, der es Entwicklern ermöglicht, benutzerdefinierte SQL-Abfragen über große Mengen an On-Chain-Daten direkt aus Smart Contracts heraus zu beweisen. Brevis folgte mit einer Multi-Chain-Architektur, die verifizierbare Berechnungen über Ethereum, Arbitrum, Optimism, Base und andere Netzwerke unterstützt. Axiom konzentrierte sich auf verifizierbare historische Abfragen mit Circuit-Callbacks für programmierbare Verifikationslogik.

Wie ZK-Coprozessoren im Vergleich zu Alternativen abschneiden

Um zu verstehen, wo ZK-Coprozessoren hingehören, muss man sie mit verwandten Technologien vergleichen:

ZK-Coprozessoren vs. zkML

Zero-Knowledge-Machine-Learning (zkML) verwendet ähnliche Beweissysteme, zielt aber auf ein anderes Problem ab: den Nachweis, dass ein KI-Modell eine bestimmte Ausgabe erzeugt hat, ohne die Modellgewichte oder Eingabedaten preiszugeben. zkML konzentriert sich hauptsächlich auf die Inferenz-Verifikation – die Bestätigung, dass ein neuronales Netzwerk ehrlich ausgewertet wurde.

Der wesentliche Unterschied liegt im Workflow. Bei ZK-Coprozessoren schreiben Entwickler explizite Implementierungslogik, stellen die Korrektheit der Schaltkreise sicher und generieren Beweise für deterministische Berechnungen. Bei zkML beginnt der Prozess mit Datenexploration und Modelltraining, bevor Schaltkreise zur Verifikation der Inferenz erstellt werden. ZK-Coprozessoren verarbeiten Allzwecklogik; zkML spezialisiert sich darauf, KI on-chain verifizierbar zu machen.

Beide Technologien teilen dasselbe Verifikationsparadigma: Die Berechnung läuft off-chain und erzeugt neben den Ergebnissen einen Zero-Knowledge-Beweis. Die Chain verifiziert den Beweis in Millisekunden, ohne die Roheingaben zu sehen oder die Berechnung erneut auszuführen. Aber zkML-Schaltkreise sind für Tensor-Operationen und neuronale Netzwerkarchitekturen optimiert, während Coprozessor-Schaltkreise Datenbankabfragen, Zustandsübergänge und Cross-Chain-Datenaggregation verarbeiten.

ZK-Coprozessoren vs. Optimistic Rollups

Optimistic Rollups und ZK-Rollups skalieren beide Blockchains, indem sie die Ausführung off-chain verlagern, aber ihre Vertrauensmodelle unterscheiden sich grundlegend.

Optimistic Rollups gehen davon aus, dass Transaktionen standardmäßig gültig sind. Validatoren übermitteln Transaktionsbündel ohne Beweise, und jeder kann ungültige Bündel während einer Anfechtungsfrist (typischerweise 7 Tage) anfechten. Diese verzögerte Finalität bedeutet, dass das Abheben von Geldern von Optimism oder Arbitrum eine Woche Wartezeit erfordert – akzeptabel für die Skalierung, problematisch für viele Anwendungen.

ZK-Coprozessoren beweisen die Korrektheit sofort. Jedes Bündel enthält einen Gültigkeitsbeweis, der on-chain verifiziert wird, bevor es akzeptiert wird. Es gibt keine Anfechtungsfrist, keine Betrugsannahmen, keine einwöchigen Auszahlungsverzögerungen. Transaktionen erreichen sofortige Finalität.

Der historische Kompromiss war Komplexität und Kosten. Die Generierung von Zero-Knowledge-Beweisen erfordert spezialisierte Hardware und anspruchsvolle Kryptografie, was ZK-Infrastruktur teurer im Betrieb macht. Aber Hardware-Beschleunigung verändert die Wirtschaftlichkeit. Brevis' Pico Prism erreicht eine Echtzeit-Beweisabdeckung von 96,8 %, was bedeutet, dass Beweise schnell genug generiert werden, um mit dem Transaktionsfluss Schritt zu halten – und die Leistungslücke eliminiert, die optimistische Ansätze begünstigt hat.

Im aktuellen Markt dominieren Optimistic Rollups wie Arbitrum und Optimism immer noch den Total Value Locked. Ihre EVM-Kompatibilität und einfachere Architektur machten sie leichter skalierbar einsetzbar. Aber da die ZK-Technologie reift, verschieben die sofortige Finalität und stärkeren Sicherheitsgarantien von Gültigkeitsbeweisen das Momentum. Layer-2-Skalierung stellt einen Anwendungsfall dar; ZK-Coprozessoren erschließen eine breitere Kategorie – verifizierbare Berechnung für jede On-Chain-Anwendung.

Praxisanwendungen: Von DeFi bis Gaming

Die Infrastruktur ermöglicht Anwendungsfälle, die zuvor unmöglich waren oder zentralisiertes Vertrauen erforderten:

DeFi: Dynamische Gebührenstrukturen und Treueprogramme

Dezentralisierte Börsen haben Schwierigkeiten, anspruchsvolle Treueprogramme umzusetzen, da die Berechnung des historischen Handelsvolumens eines Nutzers on-chain unerschwinglich teuer ist. Mit ZK-Coprozessoren können DEXs das Lebenszeit-Volumen über mehrere Chains hinweg verfolgen, VIP-Stufen berechnen und Handelsgebühren dynamisch anpassen – alles on-chain verifizierbar.

Incentra, aufgebaut auf dem Brevis-zkCoprozessor, verteilt Belohnungen basierend auf verifizierter On-Chain-Aktivität, ohne sensible Nutzerdaten preiszugeben. Protokolle können jetzt Kreditlinien basierend auf vergangenem Rückzahlungsverhalten, aktives Liquiditätspositionsmanagement mit vordefinierten Algorithmen und dynamische Liquidationspräferenzen implementieren – alles durch kryptografische Beweise statt vertrauenswürdiger Vermittler gesichert.

Gaming: Personalisierte Erlebnisse ohne zentralisierte Server

Blockchain-Spiele stehen vor einem UX-Dilemma: Jede Spieleraktion on-chain aufzuzeichnen ist teuer, aber Spiellogik off-chain zu verlagern erfordert Vertrauen in zentralisierte Server. ZK-Coprozessoren ermöglichen einen dritten Weg.

Smart Contracts können jetzt komplexe Abfragen beantworten wie „Welche Wallets haben dieses Spiel in der letzten Woche gewonnen, ein NFT aus meiner Sammlung geprägt und mindestens zwei Stunden Spielzeit absolviert?" Dies ermöglicht personalisierte LiveOps – dynamisches Anbieten von In-Game-Käufen, Gegnerzuordnung, Auslösen von Bonus-Events – basierend auf verifizierter On-Chain-Historie statt zentralisierter Analytik.

Spieler erhalten personalisierte Erlebnisse. Entwickler behalten die vertrauenslose Infrastruktur. Der Spielzustand bleibt verifizierbar.

Cross-Chain-Anwendungen: Einheitlicher Zustand ohne Bridges

Das Lesen von Daten einer anderen Blockchain erfordert traditionell Bridges – vertrauenswürdige Vermittler, die Assets auf einer Chain sperren und Repräsentationen auf einer anderen prägen. ZK-Coprozessoren verifizieren Cross-Chain-Zustände direkt mit kryptografischen Beweisen.

Ein Smart Contract auf Ethereum kann die NFT-Bestände eines Nutzers auf Polygon, seine DeFi-Positionen auf Arbitrum und seine Governance-Abstimmungen auf Optimism abfragen – alles ohne Bridge-Betreibern zu vertrauen. Dies ermöglicht Cross-Chain-Kreditbewertung, einheitliche Identitätssysteme und Multi-Chain-Reputationsprotokolle.

Die Wettbewerbslandschaft: Wer baut was

Der ZK-Coprozessor-Bereich hat sich um mehrere Schlüsselakteure konsolidiert, die jeweils unterschiedliche architektonische Ansätze verfolgen:

Brevis Network führt in der Fusion „ZK-Daten-Coprozessor + Allzweck-zkVM". Ihr zkCoprozessor verarbeitet das Lesen historischer Daten und Cross-Chain-Abfragen, während die Pico/Prism zkVM programmierbare Berechnung für beliebige Logik bereitstellt. Brevis sammelte 7,5 Millionen Dollar in einer Seed-Token-Runde und hat auf Ethereum, Arbitrum, Base, Optimism, BSC und anderen Netzwerken deployed. Ihr BREV-Token gewinnt Anfang 2026 an Börsen-Momentum.

Lagrange war Pionier bei SQL-basierten Abfragen mit ZK Coprocessor 1.0 und machte On-Chain-Daten über vertraute Datenbankschnittstellen zugänglich. Entwickler können benutzerdefinierte SQL-Abfragen direkt aus Smart Contracts heraus beweisen, was die technische Hürde für den Aufbau datenintensiver Anwendungen dramatisch senkt. Azuki, Gearbox und andere Protokolle nutzen Lagrange für verifizierbare historische Analysen.

Axiom konzentriert sich auf verifizierbare Abfragen mit Circuit-Callbacks, die es Smart Contracts ermöglichen, bestimmte historische Datenpunkte anzufordern und kryptografische Beweise der Korrektheit zu erhalten. Ihre Architektur optimiert für Anwendungsfälle, in denen Anwendungen präzise Ausschnitte der Blockchain-Historie benötigen, statt allgemeiner Berechnung.

Space and Time kombiniert eine verifizierbare Datenbank mit SQL-Abfragen und zielt auf Enterprise-Anwendungsfälle ab, die sowohl On-Chain-Verifikation als auch traditionelle Datenbankfunktionalität erfordern. Ihr Ansatz spricht Institutionen an, die bestehende Systeme auf Blockchain-Infrastruktur migrieren.

Der Markt entwickelt sich rasant, wobei 2026 weithin als das „Jahr der ZK-Infrastruktur" gilt. Da die Beweisgenerierung schneller wird, die Hardware-Beschleunigung sich verbessert und das Entwickler-Tooling reift, wandeln sich ZK-Coprozessoren von experimenteller Technologie zu kritischer Produktionsinfrastruktur.

Technische Herausforderungen: Warum das schwierig ist

Trotz der Fortschritte bleiben erhebliche Hindernisse.

Geschwindigkeit der Beweisgenerierung stellt für viele Anwendungen einen Engpass dar. Selbst mit GPU-Clustern kann das Beweisen komplexer Berechnungen Sekunden oder Minuten dauern – akzeptabel für einige Anwendungsfälle, problematisch für Hochfrequenzhandel oder Echtzeit-Gaming. Brevis' Durchschnitt von 6,9 Sekunden repräsentiert Spitzenleistung, aber Sub-Sekunden-Beweisführung für alle Workloads erfordert weitere Hardware-Innovation.

Komplexität der Schaltkreisentwicklung erzeugt Entwicklerreibung. Das Schreiben von Zero-Knowledge-Schaltkreisen erfordert spezialisiertes kryptografisches Wissen, das die meisten Blockchain-Entwickler nicht haben. Während zkVMs etwas Komplexität abstrahieren, indem sie Entwicklern das Schreiben in vertrauten Sprachen ermöglichen, erfordert die Optimierung von Schaltkreisen für Performance immer noch Expertise. Verbesserungen der Tools schließen diese Lücke, aber sie bleibt ein Hindernis für die breite Übernahme.

Datenverfügbarkeit stellt Koordinationsherausforderungen dar. Coprozessoren müssen synchronisierte Ansichten des Blockchain-Zustands über mehrere Chains hinweg aufrechterhalten und dabei Reorgs, Finalität und Konsensunterschiede handhaben. Sicherzustellen, dass Beweise sich auf den kanonischen Chain-Zustand beziehen, erfordert anspruchsvolle Infrastruktur – besonders für Cross-Chain-Anwendungen, bei denen verschiedene Netzwerke unterschiedliche Finalitätsgarantien haben.

Wirtschaftliche Nachhaltigkeit bleibt ungewiss. Der Betrieb von Beweisgenerierungsinfrastruktur ist kapitalintensiv und erfordert spezialisierte GPUs und laufende Betriebskosten. Coprozessor-Netzwerke müssen Beweiskosten, Nutzergebühren und Token-Anreize ausbalancieren, um nachhaltige Geschäftsmodelle zu schaffen. Frühe Projekte subventionieren Kosten, um die Übernahme zu bootstrappen, aber die langfristige Tragfähigkeit hängt vom Beweis der Stückkosten im Maßstab ab.

Die Infrastruktur-These: Berechnung als verifizierbare Service-Schicht

ZK-Coprozessoren entwickeln sich zu „verifizierbaren Service-Schichten" – Blockchain-nativen APIs, die Funktionalität bereitstellen, ohne Vertrauen zu erfordern. Dies spiegelt die Entwicklung des Cloud Computing wider: Entwickler bauen keine eigenen Server; sie nutzen AWS-APIs. Ebenso sollten Smart-Contract-Entwickler keine historischen Datenabfragen oder Cross-Chain-Zustandsverifikation neu implementieren müssen – sie sollten bewährte Infrastruktur aufrufen.

Der Paradigmenwechsel ist subtil, aber tiefgreifend. Statt „Was kann diese Blockchain?" wird die Frage zu „Auf welche verifizierbaren Services kann dieser Smart Contract zugreifen?" Die Blockchain stellt Settlement und Verifikation bereit; Coprozessoren stellen unbegrenzte Berechnung bereit. Zusammen ermöglichen sie Anwendungen, die sowohl Vertrauenslosigkeit als auch Komplexität erfordern.

Dies geht über DeFi und Gaming hinaus. Die Tokenisierung von Real-World-Assets benötigt verifizierte Off-Chain-Daten über Immobilieneigentum, Rohstoffpreise und regulatorische Konformität. Dezentrale Identität erfordert die Aggregation von Anmeldeinformationen über mehrere Blockchains und die Verifikation des Widerrufsstatus. KI-Agenten müssen ihre Entscheidungsprozesse beweisen, ohne proprietäre Modelle offenzulegen. All dies erfordert verifizierbare Berechnung – genau die Fähigkeit, die ZK-Coprozessoren bereitstellen.

Die Infrastruktur verändert auch die Art und Weise, wie Entwickler über Blockchain-Beschränkungen denken. Jahrelang lautete das Mantra „Für Gas-Effizienz optimieren." Mit Coprozessoren können Entwickler Logik schreiben, als ob Gas-Limits nicht existieren würden, und dann teure Operationen an verifizierbare Infrastruktur auslagern. Dieser mentale Wandel – von eingeschränkten Smart Contracts zu Smart Contracts mit unendlicher Rechenleistung – wird umgestalten, was on-chain gebaut wird.

Was 2026 bringt: Von der Forschung zur Produktion

Mehrere Trends konvergieren, um 2026 zum Wendepunkt für die Übernahme von ZK-Coprozessoren zu machen.

Hardware-Beschleunigung verbessert die Beweisgenerierungsleistung dramatisch. Unternehmen wie Cysic bauen spezialisierte ASICs für Zero-Knowledge-Beweise, ähnlich wie sich Bitcoin-Mining von CPUs über GPUs zu ASICs entwickelte. Wenn die Beweisgenerierung 10-100x schneller und billiger wird, fallen wirtschaftliche Barrieren.

Entwickler-Tooling abstrahiert Komplexität. Frühe zkVM-Entwicklung erforderte Schaltkreis-Design-Expertise; moderne Frameworks lassen Entwickler in Rust oder Solidity schreiben und automatisch zu beweisbaren Schaltkreisen kompilieren. Wenn diese Tools reifen, nähert sich die Entwicklererfahrung dem Schreiben standardmäßiger Smart Contracts – verifizierbare Berechnung wird zum Standard, nicht zur Ausnahme.

Institutionelle Übernahme treibt die Nachfrage nach verifizierbarer Infrastruktur. Da BlackRock Assets tokenisiert und traditionelle Banken Stablecoin-Abwicklungssysteme starten, benötigen sie verifizierbare Off-Chain-Berechnung für Compliance, Prüfung und regulatorische Berichterstattung. ZK-Coprozessoren stellen die Infrastruktur bereit, um dies vertrauenslos zu machen.

Cross-Chain-Fragmentierung schafft Dringlichkeit für einheitliche Zustandsverifikation. Mit Hunderten von Layer 2s, die Liquidität und Nutzererfahrung fragmentieren, brauchen Anwendungen Wege, Zustände über Chains hinweg zu aggregieren, ohne sich auf Bridge-Vermittler zu verlassen. Coprozessoren bieten die einzige vertrauenslose Lösung.

Die Projekte, die überleben, werden sich wahrscheinlich um bestimmte Branchen konsolidieren: Brevis für Allzweck-Multi-Chain-Infrastruktur, Lagrange für datenintensive Anwendungen, Axiom für die Optimierung historischer Abfragen. Wie bei Cloud-Anbietern werden die meisten Entwickler keine eigene Beweisinfrastruktur betreiben – sie werden Coprozessor-APIs nutzen und für Verifikation als Service bezahlen.

Das große Ganze: Unendliche Rechenleistung trifft auf Blockchain-Sicherheit

ZK-Coprozessoren lösen eine der fundamentalsten Einschränkungen der Blockchain: Man kann vertrauenslose Sicherheit ODER komplexe Berechnung haben, aber nicht beides. Durch die Entkopplung von Ausführung und Verifikation machen sie den Kompromiss obsolet.

Dies erschließt die nächste Welle von Blockchain-Anwendungen – solche, die unter den alten Beschränkungen nicht existieren konnten. DeFi-Protokolle mit Risikomanagement auf dem Niveau traditioneller Finanzen. Spiele mit AAA-Produktionswerten auf verifizierbarer Infrastruktur. KI-Agenten, die autonom mit kryptografischem Beweis ihrer Entscheidungsfindung operieren. Cross-Chain-Anwendungen, die sich wie einheitliche Plattformen anfühlen.

Die Infrastruktur ist da. Die Beweise sind schnell genug. Die Entwickler-Tools reifen. Was bleibt, ist der Aufbau der Anwendungen, die vorher unmöglich waren – und zuzusehen, wie eine Branche erkennt, dass die Berechnungsbeschränkungen der Blockchain nie permanent waren, sondern nur auf die richtige Infrastruktur warteten, um durchzubrechen.

BlockEden.xyz bietet Enterprise-Grade-RPC-Infrastruktur über die Blockchains hinweg, auf denen ZK-Coprozessor-Anwendungen gebaut werden – von Ethereum und Arbitrum bis Base, Optimism und darüber hinaus. Erkunden Sie unseren API-Marktplatz, um auf die gleiche zuverlässige Node-Infrastruktur zuzugreifen, die die nächste Generation verifizierbarer Berechnung antreibt.

Ethereums BPO-2 Upgrade: Eine neue Ära der parametrischen Skalierbarkeit

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was passiert, wenn eine Blockchain beschließt, nicht durch eine Neuerfindung, sondern einfach durch das Aufdrehen der Regler zu skalieren? Am 7. Januar 2026 aktivierte Ethereum BPO-2 – den zweiten „Blob Parameters Only“-Fork – und schloss damit die letzte Phase des Fusaka-Upgrades geräuschlos ab. Das Ergebnis: eine Kapazitätserweiterung um 40 %, die die Layer-2-Gebühren über Nacht um bis zu 90 % senkte. Dies war keine prunkvolle Protokollüberholung. Es war chirurgische Präzision, die bewies, dass die Skalierbarkeit von Ethereum nun parametrisch und nicht mehr prozedural ist.

Das BPO-2-Upgrade: Zahlen, die zählen

BPO-2 erhöhte das Blob-Ziel von Ethereum von 10 auf 14 und das maximale Blob-Limit von 15 auf 21. Jeder Blob enthält 128 Kilobyte an Daten, was bedeutet, dass ein einzelner Block nun etwa 2,6 – 2,7 Megabyte an Blob-Daten transportieren kann – gegenüber etwa 1,9 MB vor dem Fork.

Zum Hintergrund: Blobs sind Datenpakete, die Rollups auf Ethereum veröffentlichen. Sie ermöglichen es Layer-2-Netzwerken wie Arbitrum, Base und Optimism, Transaktionen außerhalb der Chain zu verarbeiten und gleichzeitig die Sicherheitsgarantien von Ethereum zu übernehmen. Wenn der Blob-Speicher knapp ist, konkurrieren Rollups um Kapazität, was die Kosten in die Höhe treibt. BPO-2 hat diesen Druck gemildert.

Der Zeitplan: Der dreiphasige Rollout von Fusaka

Das Upgrade fand nicht isoliert statt. Es war die letzte Phase des methodischen Deployments von Fusaka:

  • 3. Dezember 2025: Aktivierung des Fusaka-Mainnets, Einführung von PeerDAS (Peer Data Availability Sampling)
  • 9. Dezember 2025: BPO-1 erhöhte das Blob-Ziel auf 10 und das Maximum auf 15
  • 7. Januar 2026: BPO-2 steigerte das Ziel auf 14 und das Maximum auf 21

Dieser gestufte Ansatz ermöglichte es den Entwicklern, den Zustand des Netzwerks zwischen jeder Erhöhung zu überwachen, um sicherzustellen, dass Home-Node-Betreiber die gestiegenen Bandbreitenanforderungen bewältigen konnten.

Warum „Ziel“ und „Limit“ unterschiedlich sind

Das Verständnis der Unterscheidung zwischen Blob-Ziel (Target) und Blob-Limit ist entscheidend, um die Gebührenmechanik von Ethereum zu begreifen.

Das Blob-Limit (21) stellt die harte Obergrenze dar – die absolute maximale Anzahl von Blobs, die in einem einzigen Block enthalten sein können. Das Blob-Ziel (14) ist der Gleichgewichtspunkt, den das Protokoll über die Zeit beizubehalten versucht.

Wenn die tatsächliche Blob-Nutzung das Ziel überschreitet, steigen die Base Fees (Grundgebühren), um den Überverbrauch einzudämmen. Wenn die Nutzung unter das Ziel fällt, sinken die Gebühren, um mehr Aktivität anzureizen. Diese dynamische Anpassung schafft einen selbstregulierenden Markt:

  • Volle Blobs: Die Base Fee steigt um ca. 8,2 %
  • Keine Blobs: Die Base Fee sinkt um ca. 14,5 %

Diese Asymmetrie ist beabsichtigt. Sie ermöglicht es den Gebühren, in Zeiten geringer Nachfrage schnell zu sinken, während sie bei hoher Nachfrage allmählicher steigen, was Preissprünge verhindert, die die Ökonomie der Rollups destabilisieren könnten.

Die Auswirkungen auf die Gebühren: Echte Zahlen aus echten Netzwerken

Die Transaktionskosten auf Layer 2 sind seit dem Deployment von Fusaka um 40 – 90 % eingebrochen. Die Zahlen sprechen für sich:

NetzwerkDurchschnittliche Gebühr nach BPO-2Vergleich mit Ethereum Mainnet
Base$ 0,000116$ 0,3139
Arbitrum~$ 0,001$ 0,3139
Optimism~$ 0,001$ 0,3139

Die medianen Blob-Gebühren sind auf bis zu $ 0,0000000005 pro Blob gefallen – was für praktische Zwecke effektiv kostenlos ist. Für Endnutzer bedeutet dies nahezu Nullkosten für Swaps, Transfers, NFT-Mints und Gaming-Transaktionen.

Wie sich Rollups angepasst haben

Führende Rollups haben ihre Abläufe umstrukturiert, um die Blob-Effizienz zu maximieren:

  • Optimism hat seinen Batcher aktualisiert, um sich primär auf Blobs statt auf Calldata zu verlassen, wodurch die Kosten für die Datenverfügbarkeit um mehr als die Hälfte gesenkt wurden.
  • zkSync hat seine Proof-Submission-Pipeline überarbeitet, um Status-Updates in weniger, größere Blobs zu komprimieren, was die Frequenz der Veröffentlichungen reduziert.
  • Arbitrum hat sich auf sein ArbOS Dia-Upgrade (Q1 2026) vorbereitet, das mit Fusaka-Unterstützung reibungslosere Gebühren und einen höheren Durchsatz einführt.

Seit der Einführung von EIP-4844 wurden über 950.000 Blobs auf Ethereum gepostet. Optimistische Rollups verzeichneten eine Reduzierung der Calldata-Nutzung um 81 %, was beweist, dass das Blob-Modell wie vorgesehen funktioniert.

Der Weg zu 128 Blobs: Was als Nächstes kommt

BPO-2 ist ein Zwischenziel, kein Endpunkt. Die Roadmap von Ethereum sieht eine Zukunft vor, in der Blöcke 128 oder mehr Blobs pro Slot enthalten – eine Verachtfachung gegenüber dem aktuellen Stand.

PeerDAS: Die technische Grundlage

PeerDAS (EIP-7594) ist das Netzwerkprotokoll, das eine aggressive Blob-Skalierung erst möglich macht. Anstatt von jedem Node zu verlangen, jeden Blob herunterzuladen, nutzt PeerDAS das Data Availability Sampling, um die Datenintegrität zu verifizieren, während nur eine Teilmenge heruntergeladen wird.

So funktioniert es:

  1. Erweiterte Blob-Daten werden in 128 Teile, sogenannte Columns (Spalten), unterteilt.
  2. Jeder Node nimmt an mindestens 8 zufällig ausgewählten Column-Subnetzen teil.
  3. Der Empfang von 8 der 128 Spalten (etwa 12,5 % der Daten) ist mathematisch ausreichend, um die vollständige Datenverfügbarkeit zu beweisen.
  4. Erasure Coding stellt sicher, dass das Original selbst dann rekonstruiert werden kann, wenn einige Daten fehlen.

Dieser Ansatz ermöglicht eine theoretische 8-fache Skalierung des Datendurchsatzes, während die Anforderungen an die Nodes für Home-Betreiber bewältigbar bleiben.

Der Zeitplan für die Blob-Skalierung

PhaseBlob-ZielMax. BlobsStatus
Dencun (März 2024)36Abgeschlossen
Pectra (Mai 2025)69Abgeschlossen
BPO-1 (Dezember 2025)1015Abgeschlossen
BPO-2 (Januar 2026)1421Abgeschlossen
BPO-3/4 (2026)Noch offen72+Geplant
Langfristig128+128+Roadmap

In einem kürzlich abgehaltenen Call der All-Core-Devs wurde ein „spekulativer Zeitplan“ diskutiert, der nach Ende Februar alle zwei Wochen zusätzliche BPO-Forks beinhalten könnte, um ein Ziel von 72 Blobs zu erreichen. Ob dieser aggressive Zeitplan umgesetzt wird, hängt von den Daten der Netzwerküberwachung ab.

Glamsterdam: Der nächste große Meilenstein

Über die BPO-Forks hinausgehend ist das kombinierte Glamsterdam-Upgrade (Glam für die Konsensschicht, Amsterdam für die Ausführungsschicht) derzeit für Q2 / Q3 2026 geplant. Es verspricht noch drastischere Verbesserungen:

  • Block Access Lists (BALs): Dynamische Gas-Limits, die eine parallele Transaktionsverarbeitung ermöglichen.
  • Enshrined Proposer-Builder Separation (ePBS): On-Chain-Protokoll zur Trennung der Rollen bei der Blockerstellung, das mehr Zeit für die Block-Propagierung bietet.
  • Erhöhung des Gas-Limits: Potenziell bis zu 200 Millionen, was eine „perfekte parallele Verarbeitung“ ermöglicht.

Vitalik Buterin prognostizierte, dass das späte Jahr 2026 aufgrund von BALs und ePBS „große, nicht von ZK-EVM abhängige Erhöhungen des Gas-Limits“ bringen wird. Diese Änderungen könnten den nachhaltigen Durchsatz im gesamten Layer-2-Ökosystem auf über 100.000 + TPS steigern.

Was BPO-2 über die Strategie von Ethereum verrät

Das BPO-Fork-Modell stellt einen philosophischen Wandel in der Herangehensweise von Ethereum an Upgrades dar. Anstatt mehrere komplexe Änderungen in monolithische Hard-Forks zu bündeln, isoliert der BPO-Ansatz Anpassungen einzelner Variablen, die schnell bereitgestellt und bei Problemen rückgängig gemacht werden können.

„Der BPO2-Fork unterstreicht, dass die Skalierbarkeit von Ethereum jetzt parametrisch und nicht mehr prozedural ist“, bemerkte ein Entwickler. „Der Blob-Speicher ist noch weit von der Sättigung entfernt, und das Netzwerk kann den Durchsatz einfach durch Feinabstimmung der Kapazität erweitern.“

Diese Beobachtung hat weitreichende Konsequenzen:

  1. Vorhersehbare Skalierung: Rollups können den Kapazitätsbedarf planen, da sie wissen, dass Ethereum den Blob-Speicher weiter ausbauen wird.
  2. Reduziertes Risiko: Isolierte Parameteränderungen minimieren das Risiko kaskadierender Fehler.
  3. Schnellere Iteration: BPO-Forks können in Wochen statt in Monaten erfolgen.
  4. Datengesteuerte Entscheidungen: Jede Erhöhung liefert reale Daten für den nächsten Schritt.

Die Ökonomie: Wer profitiert?

Die Nutznießer von BPO-2 gehen über die Endnutzer hinaus, die von günstigeren Transaktionen profitieren:

Rollup-Betreiber

Niedrigere Kosten für das Posten von Daten verbessern die Einheitenökonomie für jedes Rollup. Netzwerke, die zuvor mit geringen Margen arbeiteten, haben nun Spielraum für Investitionen in Nutzerakquise, Entwickler-Tools und das Wachstum des Ökosystems.

Anwendungsentwickler

Transaktionskosten im Sub-Cent-Bereich ermöglichen Anwendungsfälle, die zuvor unwirtschaftlich waren: Mikrozahlungen, High-Frequency-Gaming, soziale Anwendungen mit On-Chain-Status und IoT-Integrationen.

Ethereum-Validatoren

Ein erhöhter Blob-Durchsatz bedeutet mehr Gesamtgebühren, selbst wenn die Gebühren pro Blob sinken. Das Netzwerk verarbeitet mehr Wert und erhält die Anreize für Validatoren aufrecht, während gleichzeitig die Benutzererfahrung verbessert wird.

Das breitere Ökosystem

Günstigere Datenverfügbarkeit auf Ethereum macht alternative DA-Layer für Rollups, die Sicherheit priorisieren, weniger attraktiv. Dies stärkt die Position von Ethereum im Zentrum des modularen Blockchain-Stacks.

Herausforderungen und Überlegungen

BPO-2 ist nicht ohne Kompromisse:

Anforderungen an Nodes

Während PeerDAS die Bandbreitenanforderungen durch Sampling reduziert, fordern erhöhte Blob-Zahlen den Node-Betreibern dennoch mehr ab. Der stufenweise Rollout zielt darauf ab, Engpässe zu identifizieren, bevor sie kritisch werden, aber Home-Operator mit begrenzter Bandbreite könnten Schwierigkeiten bekommen, wenn die Blob-Zahlen auf 72 oder 128 steigen.

MEV-Dynamik

Mehr Blobs bedeuten mehr Möglichkeiten zur MEV-Extraktion über Rollup-Transaktionen hinweg. Das ePBS-Upgrade in Glamsterdam zielt darauf ab, dies zu adressieren, aber in der Übergangszeit könnte die MEV-Aktivität zunehmen.

Volatilität des Blob-Speichers

Bei Nachfragespitzen können die Blob-Gebühren immer noch schnell ansteigen. Die Erhöhung um 8,2 % pro vollem Block bedeutet, dass eine anhaltend hohe Nachfrage zu einem exponentiellen Gebührenwachstum führt. Zukünftige BPO-Forks müssen die Kapazitätserweiterung gegen diese Volatilität abwägen.

Fazit: Skalierung in Etappen

BPO-2 zeigt, dass eine sinnvolle Skalierung nicht immer revolutionäre Durchbrüche erfordert. Manchmal ergeben sich die effektivsten Verbesserungen aus der sorgfältigen Kalibrierung bestehender Systeme.

Die Blob-Kapazität von Ethereum ist von maximal 6 bei Dencun auf 21 bei BPO-2 gestiegen – eine Steigerung von 250 % in weniger als zwei Jahren. Die Layer-2-Gebühren sind um Größenordnungen gesunken. Und die Roadmap zu 128 + Blobs deutet darauf hin, dass dies erst der Anfang ist.

Für Rollups ist die Botschaft klar: Die Datenverfügbarkeitsschicht von Ethereum wird skaliert, um die Nachfrage zu decken. Für die Nutzer wird das Ergebnis zunehmend unsichtbar: Transaktionen, die Bruchteile von Cents kosten, in Sekunden finalisiert werden und durch die am meisten praxiserprobte Smart-Contract-Plattform gesichert sind.

Die parametrische Ära der Ethereum-Skalierung ist angebrochen. BPO-2 ist der Beweis dafür, dass es manchmal ausreicht, am richtigen Knopf zu drehen.


Bauen Sie auf der wachsenden Blob-Kapazität von Ethereum auf? BlockEden.xyz bietet RPC-Dienste in Enterprise-Qualität für Ethereum und sein Layer-2-Ökosystem, einschließlich Arbitrum, Optimism und Base. Entdecken Sie unseren API-Marktplatz, um sich mit der Infrastruktur zu verbinden, die die nächste Generation skalierbarer Anwendungen antreibt.

Ethereums Evolution: Von hohen Gas-Gebühren zu nahtlosen Transaktionen

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Der Albtraum der 50 Gasgebu¨hrenistoffiziellvorbei.Am17.Januar2026verarbeiteteEthereum2,6MillionenTransaktionenaneinemeinzigenTageinneuerRekord,wa¨hrenddieGasgebu¨hrenbei0,01Gasgebühren ist offiziell vorbei. Am 17. Januar 2026 verarbeitete Ethereum 2,6 Millionen Transaktionen an einem einzigen Tag – ein neuer Rekord –, während die Gasgebühren bei 0,01 lagen. Vor zwei Jahren hätte dieses Aktivitätsniveau das Netzwerk lahmgelegt. Heute wird es kaum als winzige Schwankung wahrgenommen.

Dies ist nicht nur ein technischer Erfolg. Es stellt einen grundlegenden Wandel dessen dar, was Ethereum wird: eine Plattform, auf der echte wirtschaftliche Aktivität – nicht Spekulation – das Wachstum vorantreibt. Die Frage ist nicht mehr, ob Ethereum DeFi in großem Maßstab bewältigen kann. Es geht darum, ob der Rest des Finanzsystems mithalten kann.

Citreas Bitcoin ZK-Rollup: Können Zero-Knowledge Proofs endlich das 4,95-Milliarden-Dollar-Versprechen von BTCFi einlösen?

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Bitcoin hat gerade Smart Contracts erhalten – echte, verifiziert durch Zero-Knowledge-Beweise direkt im Bitcoin-Netzwerk. Der Mainnet-Start von Citrea am 27. Januar 2026 markiert das erste Mal, dass ZK-Beweise innerhalb der Bitcoin-Blockchain inscribed und nativ verifiziert wurden. Damit öffnet sich eine Tür, die über 75 Bitcoin-L2-Projekte seit Jahren zu öffnen versuchen.

Aber es gibt einen Haken: Der Total Value Locked (TVL) von BTCFi ist im letzten Jahr um 74 % geschrumpft, und das Ökosystem wird weiterhin von Restaking-Protokollen anstatt von programmierbaren Anwendungen dominiert. Kann Citreas technischer Durchbruch in tatsächliche Adoption umgemünzt werden, oder wird es sich in den Friedhof der Bitcoin-Skalierungslösungen einreihen, die nie an Zugkraft gewonnen haben? Lassen Sie uns untersuchen, was Citrea anders macht und ob es in einem zunehmend überfüllten Feld bestehen kann.

MegaETH: Die Real-Time-Blockchain, die Geschwindigkeit und Skalierbarkeit revolutioniert

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Wenn Vitalik Buterin persönlich in ein Blockchain-Projekt investiert, horcht die Krypto-Welt auf. Doch wenn dieses Projekt behauptet, 100.000 Transaktionen pro Sekunde mit Blockzeiten von 10 Millisekunden zu liefern – wodurch traditionelle Blockchains wie ein altes Wählverbindungs-Internet wirken –, verschiebt sich die Frage von „Warum sollte mich das interessieren?“ zu „Ist das überhaupt möglich?“.

MegaETH, die selbsternannte „erste Echtzeit-Blockchain“, startete ihr Mainnet am 22. Januar 2026, und die Zahlen sind atemberaubend: 10,7 Milliarden verarbeitete Transaktionen während eines siebentägigen Stresstests, ein anhaltender Durchsatz von 35.000 TPS und Blockzeiten, die von 400 Millisekunden auf nur 10 Millisekunden sanken. Das Projekt hat über 506 Millionen invierFinanzierungsrundeneingesammelt,einschließlicheineso¨ffentlichenTokenVerkaufsu¨ber450Millionenin vier Finanzierungsrunden eingesammelt, einschließlich eines öffentlichen Token-Verkaufs über 450 Millionen, der 27,8-fach überzeichnet war.

Doch hinter den beeindruckenden Kennzahlen verbirgt sich ein grundlegender Kompromiss, der den Kern des Versprechens der Blockchain trifft: die Dezentralisierung. Die Architektur von MegaETH stützt sich auf einen einzigen, hyper-optimierten Sequenzer, der auf Hardware läuft, die die meisten Rechenzentren vor Neid erblassen ließe – über 100 CPU-Kerne, bis zu 4 Terabyte RAM und 10 Gbit / s Netzwerkverbindungen. Dies ist kein typisches Validator-Setup; es ist ein Supercomputer.

Die Architektur: Geschwindigkeit durch Spezialisierung

Die Leistungssteigerungen von MegaETH resultieren aus zwei Schlüsselinnovationen: einer heterogenen Blockchain-Architektur und einer hyper-optimierten EVM-Ausführungsumgebung.

Traditionelle Blockchains erfordern, dass jeder Node dieselben Aufgaben erfüllt – Transaktionen ordnen, sie ausführen und den Status aufrechterhalten. MegaETH wirft dieses Handbuch über Bord. Stattdessen differenziert es Nodes in spezialisierte Rollen:

Sequenzer-Nodes übernehmen die Hauptlast der Transaktionsordnung und -ausführung. Dies sind keine Validatoren für den Heimgebrauch; es sind Server der Enterprise-Klasse mit Hardware-Anforderungen, die 20-mal teurer sind als die durchschnittlicher Solana-Validatoren.

Prover-Nodes generieren und verifizieren kryptografische Beweise mit spezialisierter Hardware wie GPUs oder FPGAs. Durch die Trennung der Beweiserstellung von der Ausführung kann MegaETH die Sicherheit aufrechterhalten, ohne den Durchsatz zu drosseln.

Replica-Nodes verifizieren die Ausgabe des Sequenzers mit minimalen Hardware-Anforderungen – in etwa vergleichbar mit dem Betrieb eines Ethereum L1-Nodes – und stellen sicher, dass jeder den Status der Chain validieren kann, auch wenn er nicht an der Sequenzierung teilnimmt.

Das Ergebnis? Blockzeiten, die in einstelligen Millisekunden gemessen werden, wobei das Team schlussendlich eine Blockzeit von 1 Millisekunde anstrebt – ein Novum in der Branche, falls es erreicht wird.

Stresstest-Ergebnisse: Proof of Concept oder Proof of Hype?

Der siebentägige globale Stresstest von MegaETH verarbeitete etwa 10,7 Milliarden Transaktionen, wobei Spiele wie Smasher, Crossy Fluffle und Stomp.gg eine anhaltende Last im gesamten Netzwerk erzeugten. Die Chain erreichte einen Spitzendurchsatz von 47.000 TPS, mit dauerhaften Raten zwischen 15.000 und 35.000 TPS.

Diese Zahlen benötigen Kontext. Solana, das oft als Maßstab für Geschwindigkeit angeführt wird, hat ein theoretisches Maximum von 65.000 TPS, arbeitet unter realen Bedingungen jedoch bei etwa 3.400 TPS. Ethereum L1 schafft etwa 15 - 30 TPS. Selbst die schnellsten L2s wie Arbitrum und Base verarbeiten unter normaler Last üblicherweise einige hundert TPS.

Die Stresstest-Zahlen von MegaETH würden, falls sie in die Produktion übernommen werden, eine 10-fache Verbesserung gegenüber der realen Leistung von Solana und eine 1.000-fache Verbesserung gegenüber dem Ethereum-Mainnet darstellen.

Es gibt jedoch einen wichtigen Vorbehalt: Stresstests sind kontrollierte Umgebungen. Die Testtransaktionen stammten primär von Gaming-Anwendungen – einfache, vorhersehbare Operationen, die nicht die komplexen Status-Interaktionen von DeFi-Protokollen oder die unvorhersehbaren Transaktionsmuster organischer Benutzeraktivität widerspiegeln.

Der Dezentralisierungs-Kompromiss

Hier weicht MegaETH deutlich von der Blockchain-Orthodoxie ab: Das Projekt räumt offen ein, dass es keine Pläne hat, seinen Sequenzer zu dezentralisieren. Jemals.

„Das Projekt gibt nicht vor, dezentralisiert zu sein, und erklärt, warum ein zentralisierter Sequenzer als Kompromiss notwendig war, um das gewünschte Leistungsniveau zu erreichen“, heißt es in einer Analyse.

Dies ist keine vorübergehende Brücke zur künftigen Dezentralisierung – es ist eine dauerhafte architektonische Entscheidung. Der Sequenzer von MegaETH ist ein Single Point of Failure, der von einer einzigen Entität kontrolliert wird und auf Hardware läuft, die sich nur gut finanzierte Betriebe leisten können.

Das Sicherheitsmodell stützt sich auf das, was das Team „optimistische Fraud-Proofs und Slashing“ nennt. Die Sicherheit des Systems hängt nicht davon ab, dass mehrere Entitäten unabhängig voneinander zum gleichen Ergebnis kommen. Stattdessen verlässt es sich auf ein dezentrales Netzwerk von Provern und Replicas, um die rechnerische Korrektheit der Ausgabe des Sequenzers zu verifizieren. Wenn der Sequenzer bösartig handelt, sollten Prover nicht in der Lage sein, gültige Beweise für fehlerhafte Berechnungen zu erstellen.

Zusätzlich erbt MegaETH Sicherheit von Ethereum durch ein Rollup-Design, was sicherstellt, dass Benutzer ihre Assets über das Ethereum-Mainnet zurückerhalten können, selbst wenn der Sequenzer ausfällt oder bösartig handelt.

Doch Kritiker sind nicht überzeugt. Aktuelle Analysen zeigen, dass MegaETH nur 16 Validatoren hat, verglichen mit den über 800.000 von Ethereum, was Governance-Bedenken aufwirft. Das Projekt nutzt zudem EigenDA für die Datenverfügbarkeit anstelle von Ethereum – eine Entscheidung, die kampferprobte Sicherheit gegen niedrigere Kosten und höheren Durchsatz eintauscht.

USDm: Die Stablecoin-Strategie

MegaETH baut nicht nur eine schnelle Blockchain; es baut einen wirtschaftlichen Schutzwall auf. Das Projekt ist eine Partnerschaft mit Ethena Labs eingegangen, um USDm einzuführen – einen nativen Stablecoin, der primär durch BlackRocks tokenisierten U.S. Treasury Fund BUIDL (derzeit über 2,2 Milliarden $ an Vermögenswerten) gedeckt ist.

Die clevere Innovation: Die Rendite der USDm-Reserven wird programmatisch zur Deckung des Sequenzer-Betriebs verwendet. Dies ermöglicht es MegaETH, Transaktionsgebühren im Sub-Cent-Bereich anzubieten, ohne auf vom Nutzer gezahltes Gas angewiesen zu sein. Wenn die Netzwerknutzung steigt, wächst die Stablecoin-Rendite proportional, was ein selbsterhaltendes Wirtschaftsmodell schafft, das keine Erhöhung der Nutzergebühren erfordert.

Dies positioniert MegaETH gegen das traditionelle L2-Gebührenmodell, bei dem Sequenzer von der Differenz zwischen den vom Nutzer gezahlten Gebühren und den L1-Datenbereitstellungskosten profitieren. Durch die Subventionierung der Gebühren über die Rendite kann MegaETH Wettbewerber preislich unterbieten und gleichzeitig eine berechenbare Ökonomie für Entwickler aufrechterhalten.

Die Wettbewerbslandschaft

MegaETH tritt in einen überfüllten L2-Markt ein, in dem Base, Arbitrum und Optimism etwa 90 % des Transaktionsvolumens kontrollieren. Seine Wettbewerbspositionierung ist einzigartig:

Gegenüber Solana: Die Blockzeiten von 10 ms bei MegaETH schlagen die 400 ms von Solana deutlich, was es theoretisch überlegen für latenzsensible Anwendungen wie Hochfrequenzhandel oder Echtzeit-Gaming macht. Solana bietet jedoch eine einheitliche L1-Erfahrung ohne die Komplexität des Bridgings, und das bevorstehende Firedancer-Upgrade verspricht signifikante Leistungsverbesserungen.

Gegenüber anderen L2s: Traditionelle Rollups wie Arbitrum und Optimism priorisieren Dezentralisierung gegenüber reiner Geschwindigkeit. Sie verfolgen Stage 1 und Stage 2 Fraud Proofs, während MegaETH einen anderen Punkt auf der Trade-off-Kurve optimiert.

Gegenüber Monad: Beide Projekte zielen auf eine Hochleistungs-EVM-Ausführung ab, aber Monad baut ein L1 mit eigenem Konsens, während MegaETH die Sicherheit von Ethereum erbt. Monad startete Ende 2025 mit einem TVL von 255 Millionen $, was den Appetit für leistungsstarke EVM-Chains demonstriert.

Wen sollte das interessieren?

Die Architektur von MegaETH ist am sinnvollsten für spezifische Anwendungsfälle:

Echtzeit-Gaming: Die Latenz von 10 ms ermöglicht einen On-Chain-Spielstatus, der sich sofort anfühlt. Der Gaming-Fokus des Stresstests war kein Zufall – dies ist der Zielmarkt.

Hochfrequenzhandel: Blockzeiten im Sub-Millisekunden-Bereich könnten ein Order-Matching ermöglichen, das mit zentralisierten Börsen konkurriert. Hyperliquid hat den Appetit auf leistungsstarken On-Chain-Handel bewiesen.

Consumer-Anwendungen: Apps, die eine Web2-ähnliche Reaktionsfähigkeit benötigen – Social Feeds, interaktive Medien, Echtzeit-Auktionen – könnten endlich reibungslose Erlebnisse ohne Off-Chain-Kompromisse bieten.

Die Architektur ist weniger sinnvoll für Anwendungen, bei denen Dezentralisierung an erster Stelle steht: Finanzinfrastrukturen, die Zensurresistenz erfordern, Protokolle, die große Werttransfers abwickeln, bei denen Vertrauensannahmen wichtig sind, oder jede Anwendung, bei der Nutzer starke Garantien über das Verhalten des Sequenzers benötigen.

Der Weg nach vorn

Das öffentliche Mainnet von MegaETH startet am 9. Februar 2026 und geht damit vom Stresstest in die Produktion über. Der Erfolg des Projekts wird von mehreren Faktoren abhängen:

Entwickler-Adoption: Kann MegaETH Entwickler gewinnen, um Anwendungen zu bauen, die seine einzigartigen Leistungsmerkmale nutzen? Gaming-Studios und Entwickler von Consumer-Apps sind die offensichtlichen Ziele.

Sicherheitsbilanz: Die Zentralisierung des Sequenzers ist ein bekanntes Risiko. Jeder Vorfall – sei es technisches Versagen, Zensur oder böswilliges Verhalten – würde das Vertrauen in die gesamte Architektur untergraben.

Wirtschaftliche Nachhaltigkeit: Das USDm-Subventionsmodell ist auf dem Papier elegant, hängt aber von ausreichendem Stablecoin-TVL ab, um eine aussagekräftige Rendite zu generieren. Wenn die Adoption ausbleibt, wird die Gebührenstruktur unhaltbar.

Regulatorische Klarheit: Zentralisierte Sequenzer werfen Fragen zur Haftung und Kontrolle auf, die dezentrale Netzwerke vermeiden. Wie Regulierungsbehörden L2s mit einem einzigen Operator behandeln, bleibt unklar.

Das Urteil

MegaETH stellt die bisher aggressivste Wette auf die These dar, dass Leistung für bestimmte Blockchain-Anwendungsfälle wichtiger ist als Dezentralisierung. Das Projekt versucht nicht, Ethereum zu sein – es versucht, die Überholspur zu sein, die Ethereum fehlt.

Die Ergebnisse des Stresstests sind wirklich beeindruckend. Wenn MegaETH in der Produktion 35.000 TPS mit einer Latenz von 10 ms liefern kann, wird es die mit Abstand schnellste EVM-kompatible Chain sein. Die USDm-Ökonomie ist clever, der Hintergrund des Teams (MIT und Stanford) ist stark, und Vitaliks Unterstützung verleiht Legitimität.

Aber der Zentralisierungs-Trade-off ist real. In einer Welt, in der wir das Scheitern zentralisierter Systeme gesehen haben – FTX, Celsius und unzählige andere –, erfordert das Vertrauen in einen einzelnen Sequenzer Vertrauen in die Betreiber und das Fraud-Proof-System. Das Sicherheitsmodell von MegaETH ist theoretisch solide, wurde aber noch nicht gegen entschlossene Angreifer im harten Einsatz getestet.

Die Frage ist nicht, ob MegaETH seine Leistungsversprechen einlösen kann. Der Stresstest deutet darauf hin, dass es das kann. Die Frage ist, ob der Markt eine Blockchain will, die wirklich schnell, aber maßgeblich zentralisiert ist, oder ob die ursprüngliche Vision dezentraler, vertrauensloser Systeme immer noch zählt.

Für Anwendungen, bei denen Geschwindigkeit alles ist und Nutzer dem Betreiber vertrauen, könnte MegaETH transformativ sein. Für alles andere steht das Urteil noch aus.


Der Mainnet-Launch von MegaETH am 9. Februar wird eines der am genauesten beobachteten Krypto-Events des Jahres 2026 sein. Ob es das Versprechen der „Echtzeit-Blockchain“ einlöst oder zu einem weiteren Lehrstück über den Trade-off zwischen Zentralisierung und Leistung wird – das Experiment selbst erweitert unser Verständnis dessen, was an der Grenze der Blockchain-Performance möglich ist.

ZKsync Airbender zkVM

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn das Beweisen eines Ethereum-Blocks nur 35 Sekunden dauern würde, anstatt ein ganzes Lagerhaus voller GPUs zu benötigen? Das ist kein hypothetisches Szenario – es ist das, was Airbender von ZKsync heute liefert.

Im Rennen darum, Zero-Knowledge-Proofs für die Mainstream-Blockchain-Infrastruktur praktikabel zu machen, ist ein neuer Maßstab gesetzt worden. Airbender, die Open-Source RISC-V zkVM von ZKsync, erreicht 21,8 Millionen Zyklen pro Sekunde auf einer einzigen H100-GPU – mehr als 6 x schneller als konkurrierende Systeme. Es kann Ethereum-Blöcke in weniger als 35 Sekunden beweisen und nutzt dabei Hardware, die nur einen Bruchteil dessen kostet, was Wettbewerber benötigen.

Sei Giga Upgrade: Von 10.000 auf 200.000 TPS während Sei Cosmos für eine reine EVM-Chain aufgibt

· 7 Min. Lesezeit
Dora Noda
Software Engineer

Als Sei im Jahr 2023 startete, positionierte es sich als die schnellste Cosmos-Chain mit theoretischen 20.000 TPS. Zwei Jahre später geht das Netzwerk seine bisher aggressivste Wette ein: Giga, ein Upgrade, das auf 200.000 TPS mit einer Finalität von unter 400 ms abzielt – und die kontroverse Entscheidung, Cosmos vollständig aufzugeben, um eine reine EVM-Chain zu werden.

Der Zeitpunkt ist entscheidend. Monad verspricht 10.000 TPS mit seiner parallelen EVM, die 2025 an den Start geht. MegaETH beansprucht eine Kapazität von über 100.000 TPS. Sei führt nicht nur ein Upgrade durch – es ist ein Wettlauf darum, zu definieren, was „schnell“ für EVM-kompatible Blockchains bedeutet, bevor die Wettbewerber den Maßstab setzen.

Was Giga tatsächlich ändert

Sei Giga stellt einen grundlegenden Neuaufbau der Kernarchitektur des Netzwerks dar, der für das erste Quartal 2026 geplant ist. Die Zahlen verdeutlichen die Ambition:

Leistungsziele:

  • 200.000 Transaktionen pro Sekunde (vorher ca. 5.000 - 10.000 aktuell)
  • Finalität unter 400 Millisekunden (zuvor ca. 500 ms)
  • 40-fache Ausführungseffizienz im Vergleich zu Standard-EVM-Clients

Architektonische Änderungen:

Multi-Proposer-Konsens (Autobahn): Der traditionelle Konsens mit einem einzigen Leader erzeugt Engpässe. Giga führt Autobahn ein, wobei mehrere Validatoren gleichzeitig Blöcke über verschiedene Shards hinweg vorschlagen. Man kann es sich wie parallele Autobahnen anstelle einer einzigen Straße vorstellen.

Custom EVM Client: Sei ersetzte den standardmäßigen Go-basierten EVM durch einen maßgeschneiderten Client, der das State-Management von der Ausführung trennt. Diese Entkopplung ermöglicht die unabhängige Optimierung jeder Komponente – ähnlich wie Datenbanken Speicher-Engines von der Abfrageverarbeitung trennen.

Parallelisierte Ausführung: Während andere Chains Transaktionen sequenziell ausführen, verarbeitet Giga nicht-konfliktäre Transaktionen gleichzeitig. Die Execution Engine identifiziert, welche Transaktionen separate Zustände (States) betreffen, und führt sie parallel aus.

Bounded MEV Design: Anstatt MEV zu bekämpfen, implementiert Sei „begrenztes“ (bounded) MEV, bei dem Validatoren Werte nur innerhalb definierter Parameter extrahieren können, was eine vorhersehbare Transaktionsreihenfolge schafft.

Der kontroverse Cosmos-Ausstieg: SIP-3

Vielleicht noch bedeutender als das Performance-Upgrade ist SIP-3 – der Sei Improvement Proposal, um die Unterstützung für CosmWasm und IBC bis Mitte 2026 vollständig einzustellen.

Was SIP-3 vorschlägt:

  • Entfernung der CosmWasm-Laufzeitumgebung (Rust-basierte Smart Contracts)
  • Einstellung der Unterstützung für das Inter-Blockchain Communication (IBC) Protokoll
  • Übergang von Sei zu einer reinen EVM-Chain
  • Verpflichtung bestehender CosmWasm dApps zur Migration auf EVM

Die Begründung:

Das Team von Sei argumentiert, dass die Aufrechterhaltung von zwei virtuellen Maschinen (EVM und CosmWasm) einen technischen Overhead verursacht, der die Entwicklung verlangsamt. Die EVM dominiert das Bewusstsein der Entwickler – über 70 % der Smart-Contract-Entwickler arbeiten primär mit Solidity. Durch die Umstellung auf EV-only kann Sei:

  1. Die Engineering-Ressourcen auf eine einzige Ausführungsumgebung konzentrieren
  2. Mehr Entwickler aus dem größeren EVM-Ökosystem anziehen
  3. Die Codebasis vereinfachen und die Angriffsfläche reduzieren
  4. Die Optimierungen für die parallele Ausführung maximieren

Die Kritik:

Nicht jeder ist damit einverstanden. Teilnehmer des Cosmos-Ökosystems argumentieren, dass die IBC-Konnektivität wertvolle chainübergreifende Komponierbarkeit bietet. CosmWasm-Entwickler stehen vor erzwungenen Migrationskosten. Einige Kritiker vermuten, dass Sei seine differenzierte Positionierung aufgibt, um direkt mit Ethereum-L2s zu konkurrieren.

Das Gegenargument: Sei hat nie eine signifikante Adoption von CosmWasm erreicht. Der Großteil des TVL (Total Value Locked) und der Aktivität läuft bereits auf der EVM. SIP-3 formalisiert eher die Realität, anstatt sie zu verändern.

Performance-Kontext: Das Rennen um die parallele EVM

Sei Giga startet in eine zunehmend wettbewerbsorientierte Landschaft paralleler EVMs:

ChainZiel-TPSStatusArchitektur
Sei Giga200.000Q1 2026Multi-Proposer-Konsens
MegaETH100.000+TestnetEchtzeit-Verarbeitung
Monad10.0002025Parallele EVM
Solana65.000LiveProof of History

Wie Sei im Vergleich abschneidet:

Gegenüber Monad: Monads parallele EVM strebt 10.000 TPS mit einer Finalität von 1 Sekunde an. Sei beansprucht einen 20-mal höheren Durchsatz mit schnellerer Finalität. Monad startet jedoch zuerst, und die reale Leistung weicht oft von den Testnet-Zahlen ab.

Gegenüber MegaETH: MegaETH betont die „Echtzeit“-Blockchain mit einem Potenzial von über 100.000 TPS. Beide Chains zielen auf ähnliche Leistungsklassen ab, aber MegaETH behält die EVM-Äquivalenz bei, während der maßgeschneiderte Client von Sei subtile Kompatibilitätsunterschiede aufweisen könnte.

Gegenüber Solana: Solanas 65.000 TPS mit 400 ms Finalität stellen den aktuellen High-Performance-Benchmark dar. Seis Ziel von unter 400 ms würde Solanas Geschwindigkeit erreichen und gleichzeitig EVM-Kompatibilität bieten, die Solana nativ fehlt.

Die ehrliche Einschätzung: All diese Zahlen sind theoretische Werte oder Testnet-Ergebnisse. Die reale Leistung hängt von den tatsächlichen Nutzungsmustern, Netzwerkbedingungen und der wirtschaftlichen Aktivität ab.

Aktuelles Ökosystem: TVL und Adoption

Das DeFi-Ökosystem von Sei ist signifikant gewachsen, wenn auch nicht ohne Volatilität:

TVL-Verlauf:

  • Höchststand: 688 Millionen $ (Anfang 2025)
  • Aktuell: ca. 455 - 500 Millionen $
  • Wachstum im Jahresvergleich (YoY): Ungefähr das Dreifache gegenüber Ende 2024

Führende Protokolle:

  1. Yei Finance: Lending-Protokoll, das Sei DeFi dominiert
  2. DragonSwap: Primäre DEX mit signifikantem Volumen
  3. Silo Finance: Integration von Cross-Chain-Lending
  4. Verschiedene NFT/Gaming-Projekte: Aufstrebend, aber noch kleiner

Nutzer-Metriken:

  • Täglich aktive Adressen: ca. 50.000 - 100.000 (variabel)
  • Transaktionsvolumen: Steigend, liegt aber hinter Solana/Base zurück

Das Ökosystem bleibt kleiner als etablierte L1s, zeigt aber stetiges Wachstum. Die Frage ist, ob die Leistungsverbesserungen von Giga zu einem proportionalen Anstieg der Adoption führen werden.

Auswirkungen für Entwickler

Für Entwickler, die Sei in Betracht ziehen, schaffen Giga und SIP-3 sowohl Chancen als auch Herausforderungen:

Chancen:

  • Standard-Solidity-Entwicklung mit extremer Performance
  • Niedrigere Gas-Gebühren durch Effizienzverbesserungen
  • Early-Mover-Vorteil in der Hochleistungs-EVM-Nische
  • Wachsendes Ökosystem mit weniger Wettbewerb als im Ethereum-Mainnet

Herausforderungen:

  • Maßgeschneiderter EVM-Client könnte subtile Kompatibilitätsprobleme aufweisen
  • Kleinere Nutzerbasis als bei etablierten Chains
  • Der Zeitplan für die Einstellung von CosmWasm erzeugt Migrationsdruck
  • Das Ökosystem-Tooling befindet sich noch in der Reifephase

Migrationspfad für CosmWasm-Entwickler:

Falls SIP-3 angenommen wird, haben CosmWasm-Entwickler bis Mitte 2026 Zeit, um:

  1. Verträge nach Solidity/Vyper zu portieren
  2. Zu einer anderen Cosmos-Chain zu migrieren
  3. Die Einstellung zu akzeptieren und den Betrieb einzustellen

Sei hat keine spezifische Migrationsunterstützung angekündigt, obwohl Community-Diskussionen auf potenzielle Grants oder technische Unterstützung hindeuten.

Überlegungen für Investoren

Bullen-Szenario:

  • Vorreiter im 200.000 TPS EVM-Bereich
  • Klare technische Roadmap mit Bereitstellung im 1. Quartal 2026
  • EVM-Fokus zieht einen größeren Pool an Entwicklern an
  • Performance-Vorsprung gegenüber langsameren Wettbewerbern

Bären-Szenario:

  • Theoretische TPS entsprechen selten der Realität im Live-Betrieb
  • Wettbewerber (Monad, MegaETH) starten mit viel Dynamik
  • Die Einstellung von CosmWasm vergrault bestehende Entwickler
  • Das TVL-Wachstum entspricht bisher nicht den Performance-Versprechen

Wichtige Kennzahlen zur Beobachtung:

  • Testnet-TPS und Finalität unter realen Bedingungen
  • Entwickleraktivität nach der SIP-3-Ankündigung
  • TVL-Verlauf bis zum Giga-Launch
  • Cross-Chain-Bridge-Volumen und Integrationen

Was als Nächstes passiert

Q1 2026: Giga-Launch

  • Aktivierung des Multi-Proposer-Konsensus
  • 200.000 TPS Ziel geht live
  • Einsatz des maßgeschneiderten EVM-Clients

Mitte 2026: SIP-3-Implementierung (falls genehmigt)

  • Frist für die Einstellung von CosmWasm
  • Entfernung des IBC-Supports
  • Vollständiger Übergang zu EVM-only

Schlüsselfragen:

  1. Werden die realen TPS dem 200.000-Ziel entsprechen?
  2. Wie viele CosmWasm-Projekte migrieren im Vergleich zu denen, die die Chain verlassen?
  3. Kann Sei große DeFi-Protokolle von Ethereum anziehen?
  4. Führt die Performance tatsächlich zu einer höheren Nutzerakzeptanz?

Das große Ganze

Seis Giga-Upgrade stellt eine Wette darauf dar, dass reine Performance den entscheidenden Unterschied in einer zunehmend überfüllten Blockchain-Landschaft machen wird. Durch die Abkehr von Cosmos und den Wechsel zu EVM-only setzt Sei auf Fokus statt Optionalität – in der Überzeugung, dass die Dominanz von EVM andere Ausführungsumgebungen redundant macht.

Ob diese Wette aufgeht, hängt von der Umsetzung ab. Die Blockchain-Industrie ist voll von Projekten, die revolutionäre Performance versprachen und letztlich nur moderate Verbesserungen lieferten. Seis Zeitplan für das 1. Quartal 2026 wird konkrete Daten liefern.

Für Entwickler und Investoren schafft Giga einen klaren Entscheidungspunkt: Daran glauben, dass Sei die 200.000 TPS liefern kann und sich entsprechend positionieren, oder auf den Beweis im Live-Betrieb warten, bevor signifikante Ressourcen investiert werden.

Das Rennen um die parallele EVM ist offiziell eröffnet. Sei hat gerade seine Startgeschwindigkeit angekündigt.


BlockEden.xyz bietet RPC-Infrastruktur für Hochleistungs-Blockchains einschließlich Sei Network. Da Chains mit paralleler Ausführung die Durchsatzgrenzen verschieben, wird eine zuverlässige Node-Infrastruktur für Entwickler, die latenzkritische Anwendungen erstellen, entscheidend. Erkunden Sie unseren API-Marktplatz für den Zugriff auf Sei und andere Blockchains.