Direkt zum Hauptinhalt

33 Beiträge getaggt mit „Skalierbarkeit“

Blockchain-Skalierungslösungen und Performance

Alle Tags anzeigen

Ethereum Glamsterdam Upgrade: Wie Block Access Lists und ePBS das Netzwerk im Jahr 2026 transformieren werden

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Ethereum-Validatoren verarbeiten Transaktionen derzeit so, wie eine Supermarktkasse mit einer einzigen Schlange funktioniert: ein Artikel nach dem anderen, der Reihe nach, egal wie lang die Schlange ist. Das für Mitte 2026 geplante Glamsterdam-Upgrade verändert diese Architektur grundlegend. Durch die Einführung von Block Access Lists (BAL) und enshrined Proposer-Builder Separation (ePBS) bereitet sich Ethereum darauf vor, von etwa 21 Transaktionen pro Sekunde auf 10.000 TPS zu skalieren – eine 476-fache Verbesserung, welche DeFi, NFTs und On-Chain-Anwendungen neu gestalten könnte.

Celestias Wettbewerbsvorteil bei der Datenverfügbarkeit: Eine tiefe Analyse

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Als Ethereum-L2s 3,83 proMegabytezahlten,umDatenmittelsBlobszuposten,zahlteEclipseanCelestia0,07pro Megabyte zahlten, um Daten mittels Blobs zu posten, zahlte Eclipse an Celestia 0,07 für dasselbe Megabyte. Das ist kein Tippfehler – 55-mal günstiger, was es Eclipse ermöglichte, über 83 GB an Daten zu posten, ohne die eigene Schatzkammer zu sprengen. Dieser Kostenunterschied ist keine vorübergehende Marktanomalie. Es ist der strukturelle Vorteil einer zweckgebundenen Infrastruktur.

Celestia hat mittlerweile über 160 GB an Rollup-Daten verarbeitet, generiert tägliche Blob-Gebühren, die seit Ende 2024 um das Zehnfache gestiegen sind, und hält einen Marktanteil von etwa 50 % im Bereich der Datenverfügbarkeit (Data Availability). Die Frage ist nicht, ob modulare Datenverfügbarkeit funktioniert – sondern ob Celestia seinen Vorsprung behaupten kann, während EigenDA, Avail und die nativen Blobs von Ethereum um dieselben Rollup-Kunden konkurrieren.

Die Ökonomie der Blobs verstehen: Die Grundlage

Bevor wir die Zahlen von Celestia analysieren, lohnt es sich zu verstehen, was die Datenverfügbarkeit wirtschaftlich von anderen Blockchain-Diensten unterscheidet.

Wofür Rollups tatsächlich bezahlen

Wenn ein Rollup Transaktionen verarbeitet, erzeugt es Statusänderungen (State Changes), die verifizierbar sein müssen. Anstatt dem Rollup-Betreiber zu vertrauen, können Nutzer dies überprüfen, indem sie Transaktionen anhand der Originaldaten erneut ausführen. Dies setzt voraus, dass die Transaktionsdaten verfügbar bleiben – nicht für immer, aber lange genug für Challenges und Verifizierungen.

Traditionelle Rollups posteten diese Daten direkt in die Ethereum-Calldata und zahlten Premiumpreise für die dauerhafte Speicherung auf dem sichersten Ledger der Welt. Die meisten Rollup-Daten benötigen die Verfügbarkeit jedoch nur für ein Challenge-Zeitfenster (typischerweise 7–14 Tage), nicht für die Ewigkeit. Diese Diskrepanz schuf die Chance für spezialisierte Datenverfügbarkeitsschichten (Data Availability Layers).

Celestias PayForBlob-Modell

Das Gebührenmodell von Celestia ist einfach: Rollups zahlen pro Blob basierend auf der Größe und den aktuellen Gaspreisen. Im Gegensatz zu Ausführungsschichten (Execution Layers), in denen Rechenkosten dominieren, geht es bei der Datenverfügbarkeit grundlegend um Bandbreite und Speicherung – Ressourcen, die mit Hardwareverbesserungen berechenbarer skalieren.

Die Ökonomie erzeugt einen Schwungradeffekt (Flywheel): Niedrigere DA-Kosten ermöglichen mehr Rollups, mehr Rollups generieren mehr Gebühreneinnahmen, und die gestiegene Nutzung rechtfertigt Infrastrukturinvestitionen für noch größere Kapazitäten. Celestias aktueller Durchsatz von etwa 1,33 MB / s (8-MB-Blöcke alle 6 Sekunden) stellt eine Kapazität im Frühstadium dar, mit einem klaren Pfad zur 100-fachen Verbesserung.

Die 160-GB-Realität: Wer Celestia nutzt

Die Gesamtzahlen erzählen eine Geschichte schneller Akzeptanz. Seit dem Mainnet-Start wurden über 160 GB an Daten auf Celestia veröffentlicht, wobei das tägliche Datenvolumen im Durchschnitt bei etwa 2,5 GB liegt. Doch die Zusammensetzung dieser Daten offenbart interessantere Muster.

Eclipse: Der Volumen-Spitzenreiter

Eclipse – ein Layer 2, der die virtuelle Maschine von Solana mit dem Settlement auf Ethereum kombiniert – hat über 83 GB an Daten auf Celestia veröffentlicht, mehr als die Hälfte des gesamten Netzwerkvorgangs. Eclipse nutzt Celestia für die Datenverfügbarkeit, während das Settlement auf Ethereum erfolgt, was die modulare Architektur in der Praxis demonstriert.

Das Volumen überrascht angesichts der Designentscheidungen von Eclipse nicht. Die Ausführung der Solana Virtual Machine (SVM) erzeugt mehr Daten als EVM-Äquivalente, und der Fokus von Eclipse auf Hochdurchsatz-Anwendungen (Gaming, DeFi, Social) bedeutet Transaktionsvolumina, die auf Ethereum DA kostenintensiv wären.

Die Enterprise-Kohorte

Über Eclipse hinaus umfasst das Rollup-Ökosystem:

  • Manta Pacific: Über 7 GB gepostet, ein OP-Stack-Rollup, das sich auf ZK-Anwendungen mit Universal-Circuits-Technologie konzentriert
  • Plume Network: Ein auf RWA spezialisierter L2, der Celestia für Transaktionsdaten tokenisierter Vermögenswerte nutzt
  • Derive: On-Chain-Optionen und Handel mit strukturierten Produkten
  • Aevo: Dezentrale Derivatebörse, die Hochfrequenz-Handelsdaten verarbeitet
  • Orderly Network: Cross-Chain-Orderbuch-Infrastruktur

Sechsundzwanzig Rollups bauen nun auf Celestia auf, wobei die wichtigsten Frameworks – Arbitrum Orbit, OP Stack, Polygon CDK – Celestia als DA-Option anbieten. Rollups-as-a-Service-Plattformen wie Conduit und Caldera haben die Celestia-Integration zu einem Standardangebot gemacht.

Wachstum der Gebühreneinnahmen

Ende 2024 generierte Celestia etwa 225 $ pro Tag an Blob-Gebühren. Diese Zahl ist fast um das Zehnfache gestiegen, was sowohl die gestiegene Nutzung als auch die Fähigkeit des Netzwerks widerspiegelt, bei steigender Nachfrage Wert zu schöpfen. Der Gebührenmarkt befindet sich noch in einem frühen Stadium – die Kapazitätsauslastung ist im Vergleich zu getesteten Limits gering –, aber der Wachstumspfad bestätigt das Wirtschaftsmodell.

Kostenvergleich: Celestia vs. die Konkurrenz

Die Datenverfügbarkeit hat sich zu einem wettbewerbsorientierten Markt entwickelt. Das Verständnis der Kostenstrukturen hilft dabei, die Entscheidungen der Rollups nachzuvollziehen.

Celestia vs. Ethereum-Blobs

Ethereums EIP-4844 (Dencun-Upgrade) führte Blob-Transaktionen ein, wodurch die DA-Kosten im Vergleich zu Calldata um über 90 % gesenkt wurden. Celestia bleibt jedoch deutlich günstiger:

MetrikEthereum-BlobsCelestia
Kosten pro MB~ 3,83 $~ 0,07 $
KostenvorteilBasiswert55-mal günstiger
KapazitätBegrenzter Blob-Platz8-MB-Blöcke (skalierbar auf 1 GB)

Für Rollups mit hohem Volumen wie Eclipse ist dieser Unterschied existenziell. Zu Preisen von Ethereum-Blobs hätten die 83 GB an Daten von Eclipse über 300.000 gekostet.AufCelestiakosteteesetwa6.000gekostet. Auf Celestia kostete es etwa 6.000.

Celestia vs. EigenDA

EigenDA bietet ein anderes Wertversprechen: Auf Ethereum ausgerichtete Sicherheit durch Restaking, mit einem behaupteten Durchsatz von 100 MB / s. Die Abwägungen:

AspektCelestiaEigenDA
SicherheitsmodellUnabhängiges Validator-SetEthereum Restaking
Durchsatz1,33 MB / s (8-MB-Blöcke)100 MB / s (behauptet)
ArchitekturBlockchain-basiertData Availability Committee (DAC)
DezentralisierungÖffentliche VerifizierungVertrauensannahmen

Die DAC-Architektur von EigenDA ermöglicht einen höheren Durchsatz, führt jedoch Vertrauensannahmen ein, die vollständig Blockchain-basierte Lösungen vermeiden. Für Teams, die tief in das Ökosystem von Ethereum eingebunden sind, kann die Restaking-Integration von EigenDA die Unabhängigkeit von Celestia überwiegen.

Celestia vs. Avail

Avail positioniert sich als die flexibelste Option für Multichain-Anwendungen:

AspektCelestiaAvail
Kosten pro MBHöherNiedriger
Ökonomische SicherheitHöherNiedriger
Mainnet-Kapazität8-MB-Blöcke4-MB-Blöcke
Test-Kapazität128 MB nachgewiesen128 MB nachgewiesen

Die niedrigeren Kosten von Avail gehen mit einer geringeren ökonomischen Sicherheit einher – ein angemessener Kompromiss für Anwendungen, bei denen die marginalen Kosteneinsparungen wichtiger sind als maximale Sicherheitsgarantien.

Die Skalierungs-Roadmap: Von 1 MB / s zu 1 GB / s

Die aktuelle Kapazität von Celestia – etwa 1,33 MB / s – ist bewusst konservativ gewählt. Das Netzwerk hat in kontrollierten Tests einen dramatisch höheren Durchsatz demonstriert und bietet einen klaren Upgrade-Pfad.

Mammoth-Testergebnisse

Im Oktober 2024 erreichte das Mammoth Mini Devnet 88-MB-Blöcke mit 3-Sekunden-Blockzeiten, was einen Durchsatz von ca. 27 MB / s lieferte – mehr als das 20-fache der aktuellen Mainnet-Kapazität.

Im April 2025 ging das mamo-1 Testnet noch weiter: 128-MB-Blöcke mit 6-Sekunden-Blockzeiten erreichten einen dauerhaften Durchsatz von 21,33 MB / s. Dies entsprach der 16-fachen aktuellen Mainnet-Kapazität und beinhaltete neue Propagationsalgorithmen wie Vacuum!, die für effiziente Datenbewegungen bei großen Blöcken entwickelt wurden.

Fortschritt der Mainnet-Upgrades

Die Skalierung erfolgt schrittweise:

  • Ginger Upgrade (Dezember 2024): Reduzierung der Blockzeiten von 12 Sekunden auf 6 Sekunden
  • 8-MB-Block-Erhöhung (Januar 2025): Verdoppelung der Blockgröße durch On-Chain-Governance
  • Matcha Upgrade (Januar 2026): Ermöglichte 128-MB-Blöcke durch verbesserte Propagationsmechaniken, wodurch die Speicheranforderungen für Nodes um 77 % gesenkt wurden
  • Lotus Upgrade (Juli 2025): V4 Mainnet-Release mit weiteren Verbesserungen für TIA-Halter

Die Roadmap zielt auf Blöcke im Gigabyte-Bereich bis 2030 ab, was eine 1.000-fache Steigerung gegenüber der aktuellen Kapazität darstellt. Ob die Marktnachfrage wächst, um diese Kapazität zu rechtfertigen, bleibt ungewiss, aber der technische Pfad ist klar.

TIA Tokenomics: Wie Wert entsteht

Um die Ökonomie von Celestia zu verstehen, muss man die Rolle von TIA im System verstehen.

Token-Nutzen

TIA erfüllt drei Funktionen:

  1. Blob-Gebühren: Rollups zahlen TIA für die Datenverfügbarkeit (Data Availability)
  2. Staking: Validatoren staken TIA, um das Netzwerk zu sichern und Belohnungen zu verdienen
  3. Governance: Token-Inhaber stimmen über Netzwerkparameter und Upgrades ab

Der Gebührenmechanismus schafft eine direkte Verbindung zwischen der Netzwerknutzung und der Token-Nachfrage. Wenn die Anzahl der Blob-Einreichungen steigt, wird TIA gekauft und ausgegeben, was einen Kaufdruck erzeugt, der proportional zum Nutzen des Netzwerks ist.

Angebotsdynamik

TIA startete mit 1 Milliarde Genesis-Token. Die anfängliche Inflation wurde auf 8 % jährlich festgelegt und sinkt im Laufe der Zeit auf eine finale Inflation von 1,5 %.

Das Matcha-Upgrade im Januar 2026 führte Proof-of-Governance (PoG) ein, wodurch die jährliche Token-Emission von 5 % auf 0,25 % gesenkt wurde. Diese strukturelle Änderung:

  • Reduziert den Verkaufsdruck durch Inflation
  • Richtet Belohnungen an der Governance-Teilnahme aus
  • Stärkt die Werterfassung bei steigender Netzwerknutzung

Zusätzlich kündigte die Celestia Foundation für 2025 ein TIA-Rückkaufprogramm im Wert von 62,5 Millionen $ an, was das umlaufende Angebot weiter reduziert.

Validator-Ökonomie

Mit Wirkung zum Januar 2026 stieg die maximale Validator-Provision von 10 % auf 20 %. Dies trägt den steigenden Betriebskosten der Validatoren Rechnung – insbesondere bei wachsenden Blockgrößen – während gleichzeitig wettbewerbsfähige Staking-Renditen beibehalten werden.

Der Wettbewerbsvorteil: First-Mover oder nachhaltiger Vorteil?

Celestia's Marktanteil von 50 % im DA-Bereich und über 160 GB an geposteten Daten stellen eine klare Traktion dar. Aber Wettbewerbsvorteile (Moats) in der Infrastruktur können schnell erodieren.

Vorteile

Framework-Integration: Jedes größere Rollup-Framework – Arbitrum Orbit, OP Stack, Polygon CDK – unterstützt Celestia als DA-Option. Diese Integration schafft Wechselkosten und verringert die Reibung für neue Rollups.

Nachgewiesene Skalierung: Die 128-MB-Blocktests schaffen Vertrauen in die zukünftige Kapazität, das Wettbewerber in diesem Maße noch nicht demonstriert haben.

Ökonomische Ausrichtung: Die Proof-of-Governance-Tokenomics und Rückkaufprogramme ermöglichen eine stärkere Werterfassung als alternative Modelle.

Herausforderungen

EigenDAs Ethereum-Ausrichtung: Für Teams, die native Ethereum-Sicherheit priorisieren, könnte das Restaking-Modell von EigenDA trotz architektonischer Kompromisse attraktiver sein.

Avails Kostenvorteil: Für kostensensible Anwendungen könnten die niedrigeren Gebühren von Avail die Sicherheitsunterschiede überwiegen.

Ethereums native Verbesserung: Wenn Ethereum die Blob-Kapazität erheblich ausweitet (wie in verschiedenen Roadmap-Diskussionen vorgeschlagen), schrumpft der Kostenvorteil.

Die Frage des Ecosystem Lock-ins

Celestias wahrer Burggraben könnte der Ecosystem Lock-in sein. Die über 83 GB an Daten von Eclipse schaffen eine Pfadabhängigkeit — eine Migration zu einer anderen DA-Layer würde erhebliche Infrastrukturänderungen erfordern. Da immer mehr Rollups ihre Historie auf Celestia akkumulieren, steigen die Wechselkosten.

Was uns die Daten sagen

Celestias Blob-Ökonomie bestätigt die modulare These: Spezialisierte Infrastruktur für Data Availability kann drastisch günstiger sein als Allzweck-L1-Lösungen. Der 55-fache Kostenvorteil gegenüber Ethereum-Blobs ist keine Magie — er ist das Ergebnis einer zweckgebundenen Architektur, die für eine spezifische Funktion optimiert wurde.

Die über 160 GB an geposteten Daten beweisen, dass eine Marktnachfrage besteht. Das 10-fache Wachstum der Gebühreneinnahmen demonstriert die Wertschöpfung. Die Scaling-Roadmap schafft Vertrauen in die zukünftige Kapazität.

Für Rollup-Entwickler ist die Kalkulation einfach: Celestia bietet die am besten getestete und am stärksten integrierte DA-Lösung mit einem klaren Pfad zu Kapazitäten im Gigabyte-Bereich. EigenDA ist sinnvoll für Ethereum-native Projekte, die bereit sind, DAC-Vertrauensannahmen zu akzeptieren. Avail bedient Multichain-Anwendungen, die Flexibilität gegenüber maximaler Sicherheit priorisieren.

Der Markt für Data Availability bietet Platz für mehrere Gewinner, die unterschiedliche Segmente bedienen. Aber Celestias Kombination aus bewährter Skalierung, tiefgreifenden Integrationen und verbesserten Tokenomics positioniert es gut für die kommende Welle der Rollup-Expansion.


Sie bauen Rollups, die eine zuverlässige Data Availability-Infrastruktur benötigen? BlockEden.xyz bietet RPC-Endpunkte für über 30 Netzwerke, einschließlich bedeutender L2s, die auf Celestia DA aufbauen. Erkunden Sie unseren API-Marktplatz, um auf die Infrastruktur zuzugreifen, die Ihr modularer Stack benötigt.

Die Blockchain-Performance-Revolution: Wie 2025 Skalierbarkeit und Gebühren neu definiert hat

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn sich die Debatten über die Blockchain-Performance von 2021–2023 bereits wie Steinzeit anfühlen würden? Im Jahr 2025 hat die Branche leise eine Schwelle überschritten, von der sowohl Risikokapitalgeber als auch Skeptiker dachten, sie sei noch Jahre entfernt: Mehrere Mainnets verarbeiten mittlerweile routinemäßig Tausende von Transaktionen pro Sekunde, während die Gebühren unter einem Cent bleiben. Die Ära von „Blockchain ist nicht skalierbar“ ist offiziell beendet.

Hier geht es nicht um theoretische Benchmarks oder Testnet-Versprechen. Echte Nutzer, echte Anwendungen und echtes Geld fließen durch Netzwerke, die noch vor zwei Jahren wie Science-Fiction gewirkt hätten. Lassen Sie uns die harten Zahlen hinter der Performance-Revolution der Blockchain untersuchen.

Die neuen TPS-Spitzenreiter: Kein Zweikampf mehr

Die Performance-Landschaft hat sich grundlegend verändert. Während Bitcoin und Ethereum jahrelang die Blockchain-Gespräche dominierten, etablierte 2025 eine neue Generation von Geschwindigkeits-Champions.

Solana stellte am 17. August 2025 den Rekord auf, der Schlagzeilen machte, indem es 107.664 Transaktionen pro Sekunde auf seinem Mainnet verarbeitete – nicht in einem Labor, sondern unter realen Bedingungen. Dies war kein einmaliger Peak; das Netzwerk demonstrierte einen nachhaltig hohen Durchsatz, der jahrelange architektonische Entscheidungen validiert, die Performance priorisierten.

Aber Solanas Erfolg ist nur ein Datenpunkt in einer breiteren Revolution:

  • Aptos hat 13.367 TPS im Mainnet ohne Ausfälle, Verzögerungen oder Gas-Fee-Spitzen demonstriert. Ihre Block-STM Parallel Execution Engine unterstützt theoretisch bis zu 160.000 TPS.
  • Sui hat 297.000 TPS in kontrollierten Tests bewiesen, wobei die Mainnet-Peaks bei typischer Nutzung 822 TPS erreichten und der Mysticeti v2 Konsens eine Latenz von nur 390 ms erzielte.
  • BNB Chain liefert in der Produktion konsistent rund 2.200 TPS, wobei die Hard Forks Lorentz und Maxwell 4x schnellere Blockzeiten ermöglichen.
  • Avalanche verarbeitet 4.500 TPS durch seine einzigartige Subnet-Architektur, die eine horizontale Skalierung über spezialisierte Chains hinweg ermöglicht.

Diese Zahlen stellen eine 10- bis 100-fache Verbesserung gegenüber dem dar, was dieselben Netzwerke im Jahr 2023 erreicht haben. Noch wichtiger ist, dass es sich nicht um theoretische Maximalwerte handelt – es ist beobachtete, überprüfbare Performance unter tatsächlichen Nutzungsbedingungen.

Firedancer: Der Eine-Million-TPS-Client, der alles verändert hat

Der bedeutendste technische Durchbruch des Jahres 2025 war keine neue Blockchain – es war Firedancer, Jump Cryptos vollständige Neuimplementierung des Solana Validator-Clients. Nach drei Jahren Entwicklung ging Firedancer am 12. Dezember 2025 im Mainnet live.

Die Zahlen sind atemberaubend. In Demonstrationen auf der Breakpoint 2024 zeigte Jump's Chief Scientist Kevin Bowers, wie Firedancer über 1 Million Transaktionen pro Sekunde auf Standard-Hardware verarbeitet. Benchmarks zeigten in kontrollierten Tests konsistent 600.000 bis 1.000.000 TPS – 20-mal höher als der nachgewiesene Durchsatz des vorherigen Agave-Clients.

Was macht Firedancer anders? Die Architektur. Im Gegensatz zum monolithischen Design von Agave verwendet Firedancer eine modulare, kachelbasierte Architektur, die Validator-Aufgaben aufteilt, um sie parallel auszuführen. Geschrieben in C statt in Rust, wurde jede Komponente von Grund auf für maximale Performance optimiert.

Die Adoptionskurve spricht für sich. Frankendancer, eine hybride Implementierung, die den Networking-Stack von Firedancer mit der Runtime von Agave kombiniert, läuft nun auf 207 Validatoren, was 20,9 % aller gestakten SOL entspricht – ein Anstieg von nur 8 % im Juni 2025. Dies ist keine experimentelle Software mehr; es ist Infrastruktur, die Milliarden von Dollar sichert.

Das Alpenglow-Upgrade von Solana im September 2025 fügte eine weitere Ebene hinzu, indem die ursprünglichen Proof of History- und TowerBFT-Mechanismen durch die neuen Votor- und Rotor-Systeme ersetzt wurden. Das Ergebnis: 150 ms Block-Finalität und Unterstützung für mehrere gleichzeitige Leader, was eine parallele Ausführung ermöglicht.

Gebühren unter einem Cent: Die stille Revolution von EIP-4844

Während TPS-Zahlen die Schlagzeilen beherrschen, ist die Gebühren-Revolution gleichermaßen transformativ. Ethereums EIP-4844 Upgrade im März 2024 strukturierte grundlegend um, wie Layer-2-Netzwerke für Datenverfügbarkeit bezahlen, und bis 2025 waren die Auswirkungen nicht mehr zu ignorieren.

Der Mechanismus ist elegant: Blob-Transaktionen bieten temporären Datenspeicher für Rollups zu einem Bruchteil der bisherigen Kosten. Wo Layer 2s früher um teuren Calldata-Platz konkurrierten, bieten Blobs eine 18-tägige temporäre Speicherung, die Rollups tatsächlich benötigen.

Die Auswirkungen auf die Gebühren waren unmittelbar und dramatisch:

  • Arbitrum-Gebühren sanken von 0,37 auf0,012auf 0,012 pro Transaktion.
  • Optimism fiel von 0,32 auf0,009auf 0,009.
  • Base erreichte Gebühren von nur 0,01 $.

Dies sind keine Aktionspreise oder subventionierten Transaktionen – es sind nachhaltige Betriebskosten, die durch architektonische Verbesserungen ermöglicht wurden. Ethereum bietet nun effektiv eine 10- bis 100-mal günstigere Datenspeicherung für Layer-2-Lösungen an.

Der Anstieg der Aktivitäten folgte erwartungsgemäß. Base verzeichnete nach dem Upgrade einen Anstieg der täglichen Transaktionen um 319,3 %, Arbitrum stieg um 45,7 % und Optimism um 29,8 %. Nutzer und Entwickler reagierten genau so, wie es die Wirtschaftswissenschaft vorausgesagt hat: Wenn Transaktionen billig genug werden, explodiert die Nutzung.

Das Pectra-Upgrade im Mai 2025 ging noch weiter, indem es den Blob-Durchsatz von 6 auf 9 Blobs pro Block erhöhte und das Gas-Limit auf 37,3 Millionen anhob. Ethereums effektive TPS über Layer 2s übersteigt nun 100.000, wobei die durchschnittlichen Transaktionskosten in L2-Netzwerken auf 0,08 $ gesunken sind.

Die Performance-Lücke in der realen Welt

Hier ist das, was die Benchmarks Ihnen nicht verraten: Theoretische TPS und beobachtete TPS bleiben sehr unterschiedliche Zahlen. Diese Lücke offenbart wichtige Wahrheiten über die Reife der Blockchain.

Betrachten wir Avalanche. Während das Netzwerk theoretisch 4.500 TPS unterstützt, liegt die beobachtete Aktivität im Durchschnitt bei etwa 18 TPS, wobei die C-Chain eher bei 3-4 TPS liegt. Sui demonstriert in Tests 297.000 TPS, erreicht aber im Mainnet Spitzenwerte von 822 TPS.

Dies ist kein Misserfolg – es ist der Beweis für Kapazitätsreserven. Diese Netzwerke können massive Nachfragespitzen ohne Leistungseinbußen bewältigen. Wenn der nächste NFT-Hype oder DeFi-Sommer kommt, wird die Infrastruktur nicht einknicken.

Die praktischen Auswirkungen sind für Entwickler enorm:

  • Gaming-Anwendungen benötigen konsistente niedrige Latenzzeiten mehr als Spitzen-TPS.
  • DeFi-Protokolle erfordern vorhersehbare Gebühren während Phasen hoher Volatilität.
  • Zahlungssysteme verlangen einen zuverlässigen Durchsatz während der Einkaufshochzeiten an Feiertagen.
  • Unternehmensanwendungen benötigen garantierte SLAs, unabhängig von den Netzwerkbedingungen.

Netzwerke mit signifikanten Kapazitätsreserven können diese Garantien bieten. Netzwerke, die nahe an ihrer Kapazitätsgrenze arbeiten, können dies nicht.

Move VM Chains: Der Vorteil der Performance-Architektur

Bei der Untersuchung der Top-Performer des Jahres 2025 zeichnet sich ein Muster ab: Die Programmiersprache Move taucht immer wieder auf. Sowohl Sui als auch Aptos, die von Teams mit Facebook/Diem-Hintergrund entwickelt wurden, nutzen das objektzentrierte Datenmodell von Move für Parallelisierungsvorteile, die in Blockchains mit Account-Modell unmöglich sind.

Die Block-STM-Engine von Aptos demonstriert dies deutlich. Durch die gleichzeitige statt sequentielle Verarbeitung von Transaktionen erreichte das Netzwerk in Spitzenzeiten 326 Millionen erfolgreiche Transaktionen an einem einzigen Tag – bei durchschnittlichen Gebühren von etwa 0,002 $.

Der Ansatz von Sui unterscheidet sich, folgt aber ähnlichen Prinzipien. Das Mysticeti-Konsensprotokoll erreicht eine Latenz von 390 ms, indem es Objekte anstelle von Konten als fundamentale Einheit behandelt. Transaktionen, die nicht dieselben Objekte berühren, werden automatisch parallel ausgeführt.

Beide Netzwerke zogen im Jahr 2025 signifikantes Kapital an. Der BUIDL-Fonds von BlackRock fügte Aptos im Oktober tokenisierte Vermögenswerte im Wert von 500 Millionen $ hinzu, was es zur zweitgrößten BUIDL-Chain macht. Aptos betrieb auch das offizielle digitale Wallet für die Expo 2025 in Osaka, verarbeitete über 558.000 Transaktionen und band mehr als 133.000 Nutzer an – eine praxisnahe Validierung in großem Maßstab.

Was hohe TPS tatsächlich ermöglichen

Was ermöglichen Tausende von TPS über das Prestige hinaus?

Settlement auf institutionellem Niveau: Bei der Verarbeitung von über 2.000 TPS mit Finalität im Sub-Sekunden-Bereich konkurrieren Blockchains direkt mit traditionellen Zahlungsschienen. Die Lorentz- und Maxwell-Upgrades der BNB Chain zielten spezifisch auf ein "Settlement auf Nasdaq-Niveau" für institutionelles DeFi ab.

Wirtschaftlichkeit von Mikrotransaktionen: Bei 0,01 proTransaktionwerdenGescha¨ftsmodelleprofitabel,diebeiGebu¨hrenvon5pro Transaktion werden Geschäftsmodelle profitabel, die bei Gebühren von 5 unmöglich wären. Streaming-Zahlungen, Abrechnungen pro API-Aufruf und granulare Lizenzgebührenverteilung erfordern alle eine Ökonomie im Bereich von Bruchteilen eines Cents.

Synchronisierung von Spielzuständen: Blockchain-Gaming erfordert die Aktualisierung von Spielerzuständen hunderte Male pro Sitzung. Die Performance-Level von 2025 ermöglichen endlich echtes On-Chain-Gaming anstelle der reinen Settlement-Modelle früherer Jahre.

IoT und Sensornetzwerke: Wenn Geräte für Bruchteile eines Cents transagieren können, werden Lieferkettenverfolgung, Umweltüberwachung und Maschine-zu-Maschine-Zahlungen wirtschaftlich rentabel.

Der rote Faden: Die Performance-Verbesserungen von 2025 haben bestehende Anwendungen nicht nur schneller gemacht – sie haben völlig neue Kategorien der Blockchain-Nutzung ermöglicht.

Die Debatte über den Dezentralisierungs-Kompromiss

Kritiker stellen zu Recht fest, dass rohe TPS oft mit einer verringerten Dezentralisierung korrelieren. Solana betreibt weniger Validatoren als Ethereum. Aptos und Sui erfordern teurere Hardware. Diese Kompromisse sind real.

Aber 2025 hat auch gezeigt, dass die binäre Wahl zwischen Geschwindigkeit und Dezentralisierung falsch ist. Das Layer-2-Ökosystem von Ethereum liefert über 100.000 effektive TPS und übernimmt dabei die Sicherheitsgarantien von Ethereum. Firedancer verbessert den Durchsatz von Solana, ohne die Anzahl der Validatoren zu verringern.

Die Branche lernt, sich zu spezialisieren: Settlement-Layer optimieren für Sicherheit, Ausführungs-Layer optimieren für Geschwindigkeit und ordnungsgemäßes Bridging verbindet sie. Dieser modulare Ansatz – Datenverfügbarkeit von Celestia, Ausführung durch Rollups, Settlement auf Ethereum – erreicht Geschwindigkeit, Sicherheit und Dezentralisierung durch Komposition statt durch Kompromisse.

Ausblick: Das Millionen-TPS Mainnet

Wenn 2025 High-TPS-Mainnets als Realität statt als Versprechen etabliert hat, was kommt als Nächstes?

Das Fusaka-Upgrade von Ethereum wird vollständiges Danksharding über PeerDAS einführen, was potenziell Millionen von TPS über Rollups hinweg ermöglicht. Der Produktionseinsatz von Firedancer soll Solana in Richtung seiner getesteten Kapazität von 1 Million TPS treiben. Neue Marktteilnehmer tauchen weiterhin mit neuartigen Architekturen auf.

Noch wichtiger ist, dass die Entwicklererfahrung gereift ist. Das Erstellen von Anwendungen, die Tausende von TPS erfordern, ist kein Forschungsprojekt mehr – es ist Standardpraxis. Das Tooling, die Dokumentation und die Infrastruktur, die die Entwicklung von Hochleistungs-Blockchains im Jahr 2025 unterstützen, wären für einen Entwickler aus dem Jahr 2021 nicht wiederzuerkennen.

Die Frage ist nicht mehr, ob die Blockchain skalieren kann. Die Frage ist, was wir bauen werden, jetzt wo sie es kann.


BlockEden.xyz bietet RPC- und API-Zugang auf Unternehmensniveau für Hochleistungs-Chains wie Sui, Aptos und Solana. Wenn Ihre Anwendung den Durchsatz und die Zuverlässigkeit erfordert, die die Performance-Revolution von 2025 ermöglicht, erkunden Sie unsere Infrastruktur, die für die Blockchain-Entwicklung auf Produktionsniveau konzipiert wurde.

PeerDAS erklärt: Wie Ethereum Daten verifiziert, ohne alles herunterzuladen

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Sie die Existenz eines 500-seitigen Buches verifizieren könnten, ohne eine einzige Seite zu lesen? Genau das hat Ethereum mit PeerDAS gelernt – und es gestaltet im Stillen neu, wie Blockchains skalieren können, ohne die Dezentralisierung zu opfern.

Am 3. Dezember 2025 aktivierte Ethereum das Fusaka-Upgrade und führte PeerDAS (Peer Data Availability Sampling) als Hauptfeature ein. Während sich die meisten Schlagzeilen auf die Senkung der Gebühren für Layer 2-Netzwerke um 40 - 60 % konzentrierten, stellt der zugrunde liegende Mechanismus etwas viel Bedeutenderes dar: einen grundlegenden Wandel in der Art und Weise, wie Blockchain-Nodes die Existenz von Daten beweisen, ohne diese tatsächlich vollständig zu speichern.

Polkadots JAM: Neudefinition der Blockchain-Architektur mit RISC-V

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Im April 2025 schlug Vitalik Buterin etwas vor, das ein Jahr zuvor noch als ketzerisch gegolten hätte: den Ersatz der EVM von Ethereum durch RISC-V. Der Vorschlag löste sofortige Debatten aus. Doch was die meisten Kommentatoren übersahen, war, dass Polkadot bereits seit über einem Jahr an genau dieser Architektur gearbeitet hatte – und nur noch Monate von der Einführung in die Produktion entfernt war.

Polkadots JAM (Join-Accumulate Machine) ist nicht einfach nur ein weiteres Blockchain-Upgrade. Es stellt ein grundlegendes Überdenken dessen dar, was eine „Blockchain“ überhaupt bedeutet. Während sich das Weltbild von Ethereum um eine globale virtuelle Maschine dreht, die Transaktionen verarbeitet, eliminiert JAM das Transaktionskonzept auf seiner Kernebene vollständig und ersetzt es durch ein Rechenmodell, das eine Datenverfügbarkeit von 850 MB/s verspricht – das 42-fache der bisherigen Kapazität von Polkadot und das 650-fache der 1,3 MB/s von Ethereum.

Die Auswirkungen gehen weit über Performance-Benchmarks hinaus. JAM ist vielleicht die bisher klarste Formulierung eines Post-Ethereum-Paradigmas für die Blockchain-Architektur.

Das Gray Paper: Gavin Woods dritter Akt

Dr. Gavin Wood schrieb 2014 das Ethereum Yellow Paper und lieferte damit die formale Spezifikation, die Ethereum erst möglich machte. 2016 folgte das Polkadot White Paper, das heterogenes Sharding und Shared Security einführte. Im April 2024 veröffentlichte er auf der Token2049 in Dubai das JAM Gray Paper – und vervollständigte damit eine Trilogie, die die gesamte Geschichte programmierbarer Blockchains umspannt.

Das Gray Paper beschreibt JAM als „eine globale, zustandslose (singleton), erlaubnisfreie Objektumgebung – ähnlich der Smart-Contract-Umgebung von Ethereum – gepaart mit sicherer Sideband-Berechnung, die über ein skalierbares Knotennetzwerk parallelisiert wird.“ Doch das untertreibt den konzeptionellen Wandel.

JAM verbessert nicht nur bestehende Blockchain-Designs. Es stellt die Frage: Was wäre, wenn wir aufhören würden, Blockchains ausschließlich als virtuelle Maschinen zu betrachten?

Das Transaktionsproblem

Traditionelle Blockchains – einschließlich Ethereum – sind im Kern Transaktionsverarbeitungssysteme. Benutzer senden Transaktionen, Validatoren ordnen und führen sie aus, und die Blockchain zeichnet Zustandsänderungen auf. Dieses Modell hat gute Dienste geleistet, bringt jedoch inhärente Einschränkungen mit sich:

  • Sequenzielle Engpässe: Transaktionen müssen geordnet werden, was Durchsatzbeschränkungen schafft.
  • Globaler Statuskonflikt (State Contention): Jede Transaktion berührt potenziell den gemeinsamen Status.
  • Ausführungskopplung: Konsens und Berechnung sind eng miteinander verknüpft.

JAM entkoppelt diese Bereiche durch das, was Wood das „Refine-Accumulate“-Paradigma nennt. Das System arbeitet in zwei Phasen:

Refine: Die Berechnung erfolgt parallel im gesamten Netzwerk. Die Arbeit wird in unabhängige Einheiten unterteilt, die gleichzeitig und ohne Koordination ausgeführt werden können.

Accumulate: Ergebnisse werden gesammelt und im globalen Status zusammengeführt. Nur diese Phase erfordert einen Konsens über die Reihenfolge.

Das Ergebnis ist ein „transaktionsloses“ Kernprotokoll. JAM selbst verarbeitet keine Transaktionen – das erledigen die auf JAM aufgebauten Anwendungen. Diese Trennung ermöglicht es dem Base Layer, sich rein auf sichere, parallele Berechnungen zu konzentrieren.

PolkaVM: Warum RISC-V wichtig ist

Das Herzstück von JAM ist PolkaVM, eine spezialisierte virtuelle Maschine, die auf dem RISC-V-Befehlssatz basiert. Diese Wahl hat tiefgreifende Auswirkungen auf die Blockchain-Berechnung.

Die architektonischen Schulden der EVM

Die EVM von Ethereum wurde 2013–2014 entworfen, noch bevor viele moderne Annahmen über die Blockchain-Ausführung verstanden wurden. Ihre Architektur spiegelt diese Ära wider:

  • Stack-basierte Ausführung: Operationen schieben Werte auf einen unbegrenzten Stack und nehmen sie wieder herunter, was eine komplexe Nachverfolgung erfordert.
  • 256-Bit-Wortbreite: Aus kryptografischer Bequemlichkeit gewählt, aber für die meisten Operationen verschwenderisch.
  • Eindimensionales Gas: Eine einzige Kennzahl versucht, völlig unterschiedliche Rechenressourcen zu bepreisen.
  • Nur Interpretation: EVM-Bytecode kann nicht effizient in nativen Code kompiliert werden.

Diese Designentscheidungen waren als erste Schritte sinnvoll, führen jedoch zu anhaltenden Leistungseinbußen.

Die Vorteile von RISC-V

PolkaVM verfolgt einen grundlegend anderen Ansatz:

Registerbasierte Architektur: Wie moderne CPUs verwendet PolkaVM einen begrenzten Satz an Registern für die Argumentübergabe. Dies entspricht der tatsächlichen Hardware und ermöglicht eine effiziente Übersetzung in native Befehlssätze.

64-Bit-Wortbreite: Moderne Prozessoren arbeiten mit 64 Bit. Die Verwendung einer passenden Wortbreite eliminiert den Overhead bei der Emulation von 256-Bit-Operationen für den Großteil der Berechnungen.

Mehrdimensionales Gas: Verschiedene Ressourcen (Berechnung, Speicherung, Bandbreite) werden unabhängig voneinander bepreist, was die tatsächlichen Kosten besser widerspiegelt und Angriffe durch falsche Preisgestaltung verhindert.

Duale Ausführungsmodi: Code kann zur sofortigen Ausführung interpretiert oder für eine optimierte Leistung JIT-kompiliert (Just-In-Time) werden. Das System wählt den geeigneten Modus basierend auf den Merkmalen der Arbeitslast.

Auswirkungen auf die Performance

Die architektonischen Unterschiede schlagen sich in echten Performance-Gewinnen nieder. Benchmarks zeigen, dass PolkaVM bei arithmetikintensiven Contracts Verbesserungen von mehr als dem 10-fachen gegenüber WebAssembly erzielt – und die EVM ist noch langsamer. Bei komplexen Interaktionen zwischen mehreren Contracts vergrößert sich der Abstand weiter, da die JIT-Kompilierung die Setup-Kosten amortisiert.

Was vielleicht noch wichtiger ist: PolkaVM unterstützt jede Sprache, die nach RISC-V kompiliert werden kann. Während EVM-Entwickler auf Solidity, Vyper und eine Handvoll spezialisierter Sprachen beschränkt sind, PolkaVM öffnet die Tür für Rust, C++ und letztlich jede von LLVM unterstützte Sprache. Dies erweitert den potenziellen Entwicklerkreis drastisch.

Aufrechterhaltung der Developer Experience

Trotz der architektonischen Überholung bewahrt PolkaVM die Kompatibilität mit bestehenden Workflows. Der Revive-Compiler bietet vollständige Solidity-Unterstützung, einschließlich Inline-Assembler. Entwickler können weiterhin Hardhat, Remix und MetaMask verwenden, ohne ihre Prozesse ändern zu müssen.

Das Papermoon-Team demonstrierte diese Kompatibilität durch die erfolgreiche Migration des Uniswap V2-Contract-Codes in das PolkaVM-Testnetz – ein Beweis dafür, dass selbst komplexer, praxiserprobter DeFi-Code ohne Neuschreibungen migriert werden kann.

JAMs Leistungsziele

Die Zahlen, die Wood für JAM prognostiziert, sind nach heutigen Blockchain-Standards atemberaubend.

Datenverfügbarkeit (Data Availability)

JAM strebt eine Datenverfügbarkeit von 850 MB / s an – etwa das 42-Fache der ursprünglichen Polkadot-Kapazität vor den jüngsten Optimierungen und das 650-Fache der 1,3 MB / s von Ethereum. Zum Vergleich: Dies nähert sich dem Durchsatz von Enterprise-Datenbanksystemen an.

Rechenkapazität (Computational Throughput)

Das Gray Paper schätzt, dass JAM bei voller Auslastung etwa 150 Milliarden Gas pro Sekunde erreichen kann. Die Umrechnung von Gas in Transaktionen ist unpräzise, aber der theoretische maximale Durchsatz erreicht basierend auf dem Ziel der Datenverfügbarkeit über 3,4 Millionen TPS.

Validierung in der Praxis

Dies sind keine rein theoretischen Zahlen. Stresstests haben die Architektur bestätigt:

  • Kusama (August 2025): Erreichte 143.000 TPS bei nur 23 % Auslastung
  • Polkadot „Spammening“ (2024): Erreichte 623.000 TPS in kontrollierten Tests

Diese Zahlen stellen den echten Transaktionsdurchsatz dar, nicht optimistische Prognosen oder Testnetzbedingungen, die keine Produktionsumgebungen widerspiegeln.

Entwicklungsstand und Zeitplan

Die JAM-Entwicklung folgt einem strukturierten Meilensteinsystem, wobei 43 Implementierungsteams um einen Preispool von über 60 Millionen US-Dollar (10 Millionen DOT + 100.000 KSM) konkurrieren.

Aktueller Fortschritt (Ende 2025)

Das Ökosystem hat mehrere kritische Meilensteine erreicht:

  • Mehrere Teams haben eine 100%ige Konformität mit den Testvektoren der Web3 Foundation erreicht.
  • Die Entwicklung ist durch die Gray Paper Versionen 0.6.2 bis 0.8.0 vorangeschritten und nähert sich v1.0.
  • Die Konferenz „JAM Experience“ in Lissabon (Mai 2025) brachte Implementierungsteams für eine tiefgreifende technische Zusammenarbeit zusammen.
  • Universitätstouren erreichten über 1.300 Teilnehmer an neun globalen Standorten, darunter Cambridge, die Universität Peking und die Fudan-Universität.

Meilensteinstruktur

Die Teams durchlaufen eine Reihe von Meilensteinen:

  1. IMPORTER (M1): Bestehen von Konformitätstests für Zustandsübergänge (State Transitions) und Importieren von Blöcken.
  2. AUTHORER (M2): Volle Konformität einschließlich Blockproduktion, Networking und Off-Chain-Komponenten.
  3. HALF-SPEED (M3): Erreichen der Performance-Stufe von Kusama, mit Zugang zum „JAM Toaster“ für Tests in vollem Umfang.
  4. FULL-SPEED (M4): Performance-Stufe des Polkadot-Mainnets mit professionellen Sicherheitsaudits.

Mehrere Teams haben M1 abgeschlossen, wobei einige bereits auf M2 hinarbeiten.

Zeitplan bis zum Mainnet

  • Ende 2025: Letzte Gray Paper Überarbeitungen, fortlaufende Meilenstein-Einreichungen, erweiterte Testnetz-Teilnahme.
  • Q1 2026: JAM-Mainnet-Upgrade auf Polkadot nach Genehmigung durch die Governance via OpenGov-Referendum.
  • 2026: Bereitstellung von CoreChain Phase 1, offizielles öffentliches JAM-Testnetz, vollständiger Netzwerkübergang.

Der Governance-Prozess hat bereits eine starke Unterstützung der Community gezeigt. Eine fast einstimmige Abstimmung der DOT-Inhaber im Mai 2024 genehmigte die Richtung des Upgrades.

JAM vs. Ethereum: Ergänzung oder Konkurrenz?

Die Frage, ob JAM ein „Ethereum-Killer“ ist, verkennt die architektonischen Nuancen.

Unterschiedliche Designphilosophien

Ethereum baut auf einem monolithischen Fundament auf. Die EVM bietet eine globale Ausführungsumgebung, und Skalierungslösungen – L2s, Rollups, Sharding – werden darauf aufgesetzt. Dieser Ansatz hat ein riesiges Ökosystem geschaffen, aber auch technische Schulden angehäuft.

JAM hat Modularität im Kern. Die Trennung der Phasen „Refine“ und „Accumulate“, die domänenspezifische Optimierung für die Handhabung von Rollups und der transaktionslose Base Layer spiegeln ein von Grund auf für Skalierbarkeit konzipiertes Design wider.

Konvergente technische Entscheidungen

Trotz unterschiedlicher Ausgangspunkte kommen die Projekte zu ähnlichen Schlussfolgerungen. Vitaliks RISC-V-Vorschlag vom April 2025 erkannte an, dass die Architektur der EVM die langfristige Performance einschränkt. Polkadot hatte die RISC-V-Unterstützung bereits Monate zuvor im Testnetz implementiert.

Diese Konvergenz bestätigt das technische Urteilsvermögen beider Projekte und verdeutlicht gleichzeitig die Lücke in der Ausführung: Polkadot liefert das, was Ethereum vorschlägt.

Realitäten des Ökosystems

Technische Überlegenheit führt nicht automatisch zur Dominanz des Ökosystems. Die Entwickler-Community von Ethereum, die Vielfalt der Anwendungen und die Liquiditätstiefe stellen beträchtliche Netzwerkeffekte dar, die nicht über Nacht repliziert werden können.

Das wahrscheinlichere Ergebnis ist kein Ersatz, sondern eine Spezialisierung. Die Architektur von JAM ist für bestimmte Workloads optimiert – insbesondere für Anwendungen mit hohem Durchsatz und Rollup-Infrastruktur – während Ethereum Vorteile bei der Reife des Ökosystems und der Kapitalbildung behält.

Im Jahr 2026 sehen sie weniger wie Konkurrenten aus, sondern eher wie komplementäre Layer eines Multi-Chain-Internets.

Was JAM für die Blockchain-Architektur bedeutet

Die Bedeutung von JAM geht über Polkadot hinaus. Es stellt die klarste Ausprägung eines Post-EVM-Paradigmas dar, das andere Projekte studieren und selektiv übernehmen werden.

Kernprinzipien

Rechen-Trennung: Die Entkoppelung von Ausführung und Konsens ermöglicht parallele Verarbeitung auf dem Base-Layer, nicht als nachträglicher Einfall.

Domänenspezifische Optimierung: Anstatt eine Allzweck-VM zu bauen und auf Skalierbarkeit zu hoffen, ist JAM gezielt für die Arbeitslasten konzipiert, die Blockchains tatsächlich ausführen.

Hardware-Ausrichtung: Die Verwendung von RISC-V und 64-Bit-Wörtern richtet die Architektur der virtuellen Maschine an physischer Hardware aus und eliminiert so den Emulations-Overhead.

Transaktionsabstraktion: Die Verlagerung der Transaktionsabwicklung auf die Anwendungsebene ermöglicht es dem Protokoll, sich auf Berechnung und Zustandsverwaltung zu konzentrieren.

Auswirkungen auf die Branche

Unabhängig davon, ob JAM kommerziell erfolgreich ist oder scheitert, werden diese architektonischen Entscheidungen das Blockchain-Design des nächsten Jahrzehnts beeinflussen. Das Gray Paper bietet eine formale Spezifikation, die andere Projekte studieren, kritisieren und selektiv implementieren können.

Ethereums RISC-V-Vorschlag zeigt bereits diesen Einfluss. Die Frage ist nicht, ob sich diese Ideen verbreiten werden, sondern wie schnell und in welcher Form.

Der Weg in die Zukunft

JAM stellt Gavin Woods ambitionierteste technische Vision seit Polkadot selbst dar. Der Einsatz entspricht der Ambition: Ein Erfolg würde einen völlig anderen Ansatz für die Blockchain-Architektur validieren, während ein Scheitern Polkadot im Wettbewerb mit neueren L1s ohne ein differenziertes technisches Narrativ zurücklassen würde.

Die nächsten 18 Monate werden zeigen, ob sich die theoretischen Vorteile von JAM in die Produktionsrealität übertragen lassen. Mit 43 Implementierungsteams, einem neunstelligen Preispool und einer klaren Roadmap zum Mainnet verfügt das Projekt über Ressourcen und Dynamik. Es bleibt abzuwarten, ob die Komplexität des Refine-Accumulate-Paradigmas Woods Vision eines „verteilten Computers, der fast jede Art von Aufgabe ausführen kann“, erfüllen kann.

Für Entwickler und Projekte, die Blockchain-Infrastruktur evaluieren, verdient JAM ernsthafte Aufmerksamkeit – nicht als Hype, sondern als technisch fundierter Versuch, Probleme zu lösen, mit denen jede große Blockchain konfrontiert ist. Das Blockchain-als-virtuelle-Maschine-Paradigma hat der Branche ein Jahrzehnt lang gute Dienste geleistet. JAM setzt darauf, dass das nächste Jahrzehnt etwas grundlegend anderes erfordert.


Bauen Sie auf einer Blockchain-Infrastruktur der nächsten Generation? BlockEden.xyz bietet leistungsstarke RPC-Endpunkte im gesamten Polkadot-Ökosystem und über 30 weiteren Netzwerken. Erkunden Sie unseren API-Marktplatz, um auf Infrastruktur der Enterprise-Klasse für Ihre Anwendungen zuzugreifen.

Die Evolution von zkEVMs: Abwägung von Kompatibilität und Performance bei der Skalierung von Ethereum

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Im Jahr 2022 stellte Vitalik Buterin eine einfache Frage, die die nächsten vier Jahre der Ethereum-Skalierung definieren sollte: Wie viel Ethereum-Kompatibilität sind Sie bereit zu opfern, um schnellere Zero-Knowledge-Beweise zu erhalten? Seine Antwort kam in Form eines Klassifizierungssystems mit fünf Typen für zkEVMs, das seitdem zum Industriestandard für die Bewertung dieser kritischen Skalierungslösungen geworden ist.

Springen wir vor ins Jahr 2026, und die Antwort ist nicht mehr so einfach. Die Beweiszeiten sind von 16 Minuten auf 16 Sekunden eingebrochen. Die Kosten sind um das 45-fache gesunken. Mehrere Teams haben eine Echtzeit-Beweisgenerierung demonstriert, die schneller ist als die 12-sekündigen Blockzeiten von Ethereum. Dennoch bleibt der grundlegende Kompromiss bestehen, den Vitalik identifiziert hat – und ihn zu verstehen ist für jeden Entwickler oder jedes Projekt, das vor der Wahl steht, wo es bauen soll, unerlässlich.

Die Vitalik-Klassifizierung: Typ 1 bis 4

Vitaliks Framework kategorisiert zkEVMs entlang eines Spektrums von perfekter Ethereum-Äquivalenz bis hin zu maximaler Beweiseffizienz. Höhere Typennummern bedeuten schnellere Beweise, aber weniger Kompatibilität mit der bestehenden Ethereum-Infrastruktur.

Typ 1: Vollständig Ethereum-äquivalent

Typ 1 zkEVMs ändern nichts an Ethereum. Sie beweisen exakt dieselbe Ausführungsumgebung, die das Ethereum L1 verwendet – dieselben Opcodes, dieselben Datenstrukturen, einfach alles.

Der Vorteil: Perfekte Kompatibilität. Ethereum-Execution-Clients funktionieren wie sie sind. Jedes Tool, jeder Vertrag und jedes Stück Infrastruktur lässt sich direkt übertragen. Dies ist letztlich das, was Ethereum benötigt, um L1 selbst skalierbarer zu machen.

Der Nachteil: Ethereum wurde nicht für Zero-Knowledge-Beweise entwickelt. Die stackbasierte Architektur der EVM ist bekanntermaßen ineffizient für die ZK-Beweisgenerierung. Frühe Typ-1-Implementierungen benötigten Stunden, um einen einzigen Beweis zu generieren.

Führendes Projekt: Taiko strebt Typ-1-Äquivalenz als Based Rollup an und nutzt die Validatoren von Ethereum für das Sequencing, was eine synchrone Komponierbarkeit mit anderen Based Rollups ermöglicht.

Typ 2: Vollständig EVM-äquivalent

Typ 2 zkEVMs behalten die volle EVM-Kompatibilität bei, ändern jedoch interne Darstellungen – wie der Status gespeichert wird, wie Datenstrukturen organisiert sind –, um die Beweisgenerierung zu verbessern.

Der Vorteil: Für Ethereum geschriebene Smart Contracts laufen ohne Modifikation. Die Entwicklererfahrung bleibt identisch. Der Migrationsaufwand geht gegen Null.

Der Nachteil: Block-Explorer und Debugging-Tools müssen möglicherweise angepasst werden. Statusbeweise (State Proofs) funktionieren anders als auf dem Ethereum L1.

Führende Projekte: Scroll und Linea zielen auf Typ-2-Kompatibilität ab und erreichen eine nahezu perfekte EVM-Äquivalenz auf VM-Ebene ohne Transpiler oder benutzerdefinierte Compiler.

Typ 2.5: EVM-äquivalent mit Änderungen der Gaskosten

Typ 2.5 ist ein pragmatischer Mittelweg. Die zkEVM bleibt EVM-kompatibel, erhöht jedoch die Gaskosten für Operationen, deren Beweis in Zero-Knowledge besonders teuer ist.

Der Kompromiss: Da Ethereum ein Gaslimit pro Block hat, bedeutet die Erhöhung der Gaskosten für spezifische Opcodes, dass weniger dieser Opcodes pro Block ausgeführt werden können. Anwendungen funktionieren, aber bestimmte Rechenmuster werden unverhältnismäßig teuer.

Typ 3: Fast EVM-äquivalent

Typ 3 zkEVMs opfern spezifische EVM-Funktionen – oft im Zusammenhang mit Precompiles, der Speicherverwaltung oder der Behandlung von Vertragscode –, um die Beweisgenerierung drastisch zu verbessern.

Der Vorteil: Schnellere Beweise, geringere Kosten, bessere Performance.

Der Nachteil: Einige Ethereum-Anwendungen funktionieren nicht ohne Modifikation. Entwickler müssen möglicherweise Verträge umschreiben, die auf nicht unterstützten Funktionen basieren.

Realitätscheck: Kein Team möchte tatsächlich bei Typ 3 bleiben. Es wird als Übergangsphase verstanden, während die Teams an der komplexen Precompile-Unterstützung arbeiten, die erforderlich ist, um Typ 2.5 oder Typ 2 zu erreichen. Sowohl Scroll als auch Polygon zkEVM agierten als Typ 3, bevor sie auf der Kompatibilitätsleiter aufstiegen.

Typ 4: Kompatibel mit Hochsprachen

Typ-4-Systeme geben die EVM-Kompatibilität auf Bytecode-Ebene vollständig auf. Stattdessen kompilieren sie Solidity oder Vyper in eine benutzerdefinierte VM, die speziell für effiziente ZK-Beweise entwickelt wurde.

Der Vorteil: Schnellste Beweisgenerierung. Niedrigste Kosten. Maximale Performance.

Der Nachteil: Verträge verhalten sich möglicherweise anders. Adressen stimmen eventuell nicht mit Ethereum-Deployments überein. Debugging-Tools erfordern komplette Neuentwicklungen. Die Migration erfordert sorgfältige Tests.

Führende Projekte: zkSync Era und StarkNet repräsentieren den Typ-4-Ansatz. zkSync transpiliert Solidity in benutzerdefinierten Bytecode, der für ZK optimiert ist. StarkNet verwendet Cairo, eine völlig neue Sprache, die auf Beweisbarkeit ausgelegt ist.

Performance-Benchmarks: Wo wir im Jahr 2026 stehen

Die Zahlen haben sich seit Vitaliks ursprünglichem Beitrag dramatisch verändert. Was 2022 theoretisch war, ist 2026 Produktionsrealität.

Beweiszeiten

Frühe zkEVMs benötigten etwa 16 Minuten, um Beweise zu generieren. Aktuelle Implementierungen schließen denselben Prozess in etwa 16 Sekunden ab – eine 60-fache Verbesserung. Mehrere Teams haben eine Beweisgenerierung in weniger als 2 Sekunden demonstriert, was schneller ist als die 12-sekündigen Blockzeiten von Ethereum.

Die Ethereum Foundation hat sich ein ehrgeiziges Ziel gesetzt: 99 % der Mainnet-Blöcke in weniger als 10 Sekunden zu beweisen, unter Einsatz von Hardware im Wert von weniger als 100.000 $ und einem Stromverbrauch von 10 kW. Mehrere Teams haben bereits Fähigkeiten demonstriert, die nahe an diesem Ziel liegen.

Transaktionskosten

Das Dencun-Upgrade im März 2024 (EIP-4844 zur Einführung von „Blobs“) reduzierte die L2-Gebühren um 75–90 %, wodurch alle Rollups dramatisch kosteneffizienter wurden. Aktuelle Benchmarks zeigen:

PlattformTransaktionskostenAnmerkungen
Polygon zkEVM$ 0,00275Pro Transaktion für vollständige Batches
zkSync Era$ 0,00378Mediane Transaktionskosten
Linea$ 0,05–0,15Durchschnittliche Transaktion

Durchsatz

Die reale Performance variiert erheblich je nach Transaktionskomplexität:

PlattformTPS (Komplexes DeFi)Anmerkungen
Polygon zkEVM5,4 tx / sAMM-Swap-Benchmark
zkSync Era71 TPSKomplexe DeFi-Swaps
Theoretisch (Linea)100.000 TPSMit fortgeschrittenem Sharding

Diese Zahlen werden sich weiter verbessern, wenn Hardware-Beschleunigung, Parallelisierung und algorithmische Optimierungen reifen.

Marktadoption: TVL und Entwickler-Traktion

Die zkEVM-Landschaft hat sich um mehrere klare Marktführer konsolidiert, die jeweils unterschiedliche Punkte auf dem Typen-Spektrum repräsentieren:

Aktuelle TVL-Rankings (2025)

  • Scroll: $ 748 Millionen TVL, größte reine zkEVM
  • StarkNet: $ 826 Millionen TVS
  • zkSync Era: $ 569 Millionen TVL, 270+ bereitgestellte dApps
  • Linea: ~ $ 963 Millionen TVS, 400 % + Wachstum bei täglich aktiven Adressen

Das gesamte Layer-2-Ökosystem hat ein TVL von 70 Milliarden US-Dollar erreicht, wobei ZK-Rollups zunehmend Marktanteile gewinnen, da die Beweiskosten (Proving Costs) weiter sinken.

Signale für die Entwickler-Adoption

  • Über 65 % der neuen Smart Contracts im Jahr 2025 wurden auf Layer-2-Netzwerken bereitgestellt
  • zkSync Era zog etwa $ 1,9 Milliarden an tokenisierten Real-World-Assets (RWA) an und sicherte sich damit ~ 25 % des On-Chain-RWA-Marktanteils
  • Layer-2-Netzwerke verarbeiteten im Jahr 2025 schätzungsweise 1,9 Millionen tägliche Transaktionen

Das Abwägen zwischen Kompatibilität und Performance in der Praxis

Das Verständnis der theoretischen Typen ist nützlich, aber entscheidend sind die praktischen Auswirkungen für Entwickler.

Typ 1-2: Keine Migrationsreibung

Für Scroll und Linea (Typ 2) bedeutet Migration buchstäblich null Codeänderungen für die meisten Anwendungen. Stellen Sie denselben Solidity-Bytecode bereit, verwenden Sie dieselben Tools (MetaMask, Hardhat, Remix) und erwarten Sie dasselbe Verhalten.

Bestens geeignet für: Bestehende Ethereum-Anwendungen, die eine nahtlose Migration priorisieren; Projekte, bei denen bewährter, geprüfter Code unverändert bleiben muss; Teams ohne Ressourcen für umfangreiche Tests und Modifikationen.

Typ 3: Sorgfältige Tests erforderlich

Für Polygon zkEVM und ähnliche Typ-3-Implementierungen funktionieren die meisten Anwendungen, aber es existieren Edge-Cases. Bestimmte Precompiles verhalten sich möglicherweise anders oder werden nicht unterstützt.

Bestens geeignet für: Teams mit Ressourcen für eine gründliche Testnet-Validierung; Projekte, die nicht auf exotische EVM-Funktionen angewiesen sind; Anwendungen, die Kosteneffizienz über perfekte Kompatibilität stellen.

Typ 4: Ein anderes mentales Modell

Für zkSync Era und StarkNet unterscheidet sich die Entwicklungserfahrung deutlich von Ethereum:

zkSync Era unterstützt Solidity, transpiliert es jedoch in einen benutzerdefinierten Bytecode. Verträge lassen sich kompilieren und ausführen, aber das Verhalten kann in feinen Details abweichen. Es gibt keine Garantie, dass Adressen mit Ethereum-Bereitstellungen übereinstimmen.

StarkNet verwendet Cairo, was von Entwicklern verlangt, eine völlig neue Sprache zu lernen – allerdings eine, die speziell für beweisbare Berechnungen (provable computation) entwickelt wurde.

Bestens geeignet für: Greenfield-Projekte, die nicht durch bestehenden Code eingeschränkt sind; Anwendungen, bei denen maximale Performance die Investition in Tooling rechtfertigt; Teams, die bereit sind, in spezialisierte Entwicklung und Tests zu investieren.

Sicherheit: Die unverhandelbare Einschränkung

Die Ethereum Foundation führte 2025 klare kryptografische Sicherheitsanforderungen für zkEVM-Entwickler ein:

  • 100-Bit beweisbare Sicherheit bis Mai 2026
  • 128-Bit Sicherheit bis Ende 2026

Diese Anforderungen spiegeln die Realität wider, dass schnellere Beweise nichts bedeuten, wenn die zugrunde liegende Kryptografie nicht absolut sicher ist. Von den Teams wird erwartet, dass sie diese Schwellenwerte unabhängig von ihrer Typ-Klassifizierung erreichen.

Der Fokus auf Sicherheit hat einige Performance-Verbesserungen verlangsamt – die Ethereum Foundation hat sich bis 2026 explizit für Sicherheit vor Geschwindigkeit entschieden –, stellt aber sicher, dass das Fundament für die Massenadoption solide bleibt.

Die Wahl Ihrer zkEVM: Ein Entscheidungsrahmen

Wählen Sie Typ 1-2 (Taiko, Scroll, Linea), wenn:

  • Sie bestehende, kampferprobte Verträge migrieren
  • Audit-Kosten ein Faktor sind (keine erneute Prüfung erforderlich)
  • Ihr Team Ethereum-nativ ist und keine ZK-Expertise besitzt
  • Die Composability mit Ethereum L1 wichtig ist
  • Sie synchrone Interoperabilität mit anderen Based Rollups benötigen

Wählen Sie Typ 3 (Polygon zkEVM), wenn:

  • Sie ein Gleichgewicht zwischen Kompatibilität und Performance suchen
  • Sie in eine gründliche Testnet-Validierung investieren können
  • Kosteneffizienz eine Priorität ist
  • Sie nicht auf exotische EVM-Precompiles angewiesen sind

Wählen Sie Typ 4 (zkSync Era, StarkNet), wenn:

  • Sie neu bauen, ohne Einschränkungen durch Migration
  • Maximale Performance die Investition in Tools rechtfertigt
  • Ihr Anwendungsfall von ZK-nativen Designmustern profitiert
  • Sie über Ressourcen für spezialisierte Entwicklung verfügen

Was als Nächstes kommt

Die Typ-Klassifizierungen werden nicht statisch bleiben. Vitalik bemerkte, dass zkEVM-Projekte „leicht bei Typen mit höheren Nummern beginnen und im Laufe der Zeit zu Typen mit niedrigeren Nummern springen“ können. Wir sehen dies in der Praxis – Projekte, die als Typ 3 starteten, entwickeln sich in Richtung Typ 2, während sie die Implementierung von Precompiles vervollständigen.

Noch interessanter ist: Sollte Ethereum L1 Modifikationen vornehmen, um ZK-freundlicher zu werden, könnten Typ-2- und Typ-3-Implementierungen zu Typ 1 werden, ohne ihren eigenen Code zu ändern.

Das Endziel scheint zunehmend klar: Die Beweiszeiten werden weiter sinken, die Kosten werden weiter fallen und die Unterscheidung zwischen den Typen wird verschwimmen, da Hardware-Beschleunigung und algorithmische Verbesserungen die Performance-Lücke schließen. Die Frage ist nicht, welcher Typ gewinnen wird – sondern wie schnell das gesamte Spektrum zu einer praktischen Äquivalenz konvergiert.

Vorerst bleibt der Rahmen wertvoll. Zu wissen, wo eine zkEVM im Kompatibilitäts-Performance-Spektrum steht, sagt Ihnen, was Sie während der Entwicklung, Bereitstellung und des Betriebs zu erwarten haben. Dieses Wissen ist für jedes Team unerlässlich, das an der ZK-gestützten Zukunft von Ethereum baut.


Bauen Sie auf einer zkEVM-Infrastruktur? BlockEden.xyz bietet hochperformante RPC-Endpunkte über mehrere zkEVM-Chains hinweg, darunter Polygon zkEVM, Scroll und Linea. Erkunden Sie unseren API-Marktplatz, um auf die Infrastrukturschicht zuzugreifen, die Ihre ZK-Anwendungen benötigen.

Boundless von RISC Zero: Kann der dezentrale Proof-Markt den 97-Millionen-Dollar-Engpass von ZK lösen?

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Zero-Knowledge-Rollups sollten die Zukunft der Blockchain-Skalierung sein. Stattdessen sind sie zu Geiseln eines zentralisierten Prover-Marktes im Wert von 97 Millionen US-Dollar geworden, in dem eine Handvoll Unternehmen 60–70 % der Gebühren abschöpft — während Nutzer Minuten auf Proofs warten, die Sekunden dauern sollten.

Boundless, der dezentrale Proof-Marktplatz von RISC Zero, der im September 2025 im Mainnet startete, behauptet, dieses Problem gelöst zu haben. Indem die ZK-Proof-Erzeugung in einen offenen Markt verwandelt wird, in dem GPU-Betreiber um Aufträge konkurrieren, verspricht Boundless, verifizierbare Berechnungen „so günstig wie die Ausführung“ zu machen. Aber kann ein durch Token incentiviertes Netzwerk wirklich die Zentralisierungs-Abwärtsspirale durchbrechen, die die ZK-Technologie teuer und unzugänglich gehalten hat?

Der Milliarden-Dollar-Engpass: Warum ZK-Proofs immer noch teuer sind

Das Versprechen von Zero-Knowledge-Rollups war elegant: Transaktionen off-chain ausführen, einen kryptografischen Beweis der korrekten Ausführung erstellen und diesen Beweis auf Ethereum für einen Bruchteil der Kosten verifizieren. Theoretisch würde dies Sicherheit auf Ethereum-Niveau bei Transaktionskosten von weniger als einem Cent bieten.

Die Realität sah komplizierter aus.

Ein einzelner ZK-Proof für einen Batch von 4.000 Transaktionen benötigt auf einer High-End-A100-GPU zwei bis fünf Minuten zur Erstellung und kostet allein 0,04 bis 0,17 US-Dollar an Cloud-Computing-Gebühren. Dabei sind die spezialisierte Software, die technische Expertise und die redundante Infrastruktur, die für den Betrieb eines zuverlässigen Proving-Services erforderlich sind, noch gar nicht berücksichtigt.

Das Ergebnis? Über 90 % der ZK-L2s verlassen sich auf eine Handvoll Prover-as-a-Service-Anbieter. Diese Zentralisierung führt genau die Risiken ein, die die Blockchain eigentlich eliminieren sollte: Zensur, MEV-Extraktion, Single Points of Failure und Rentenabschöpfung im Web2-Stil.

Die technische Herausforderung

Der Engpass ist nicht die Netzwerküberlastung — es ist die Mathematik selbst. ZK-Proving stützt sich auf Multi-Skalar-Multiplikationen (MSMs) und zahlentheoretische Transformationen (NTTs) über elliptische Kurven. Diese Operationen unterscheiden sich grundlegend von der Matrixmathematik, die GPUs für KI-Workloads so leistungsfähig macht.

Nach Jahren der MSM-Optimierung machen NTTs nun bis zu 90 % der Latenz bei der Proof-Erzeugung auf GPUs aus. Die Kryptografie-Community hat bei der reinen Software-Optimierung sinkende Grenzerträge erreicht.

Auftritt Boundless: Der offene Proof-Marktplatz

Boundless versucht, dieses Problem zu lösen, indem die Proof-Erzeugung vollständig vom Blockchain-Konsens entkoppelt wird. Anstatt dass jedes Rollup eine eigene Prover-Infrastruktur betreibt, schafft Boundless einen Marktplatz, auf dem:

  1. Antragsteller Proof-Anfragen einreichen (von jeder beliebigen Chain)
  2. Prover um die Erstellung von Proofs unter Verwendung von GPUs und Standard-Hardware konkurrieren
  3. Das Settlement auf der vom Antragsteller angegebenen Ziel-Chain erfolgt

Die entscheidende Innovation ist „Proof of Verifiable Work“ (PoVW) — ein Mechanismus, der Prover nicht für nutzlose Hashes (wie beim Bitcoin-Mining) belohnt, sondern für die Erzeugung nützlicher ZK-Proofs. Jeder Proof enthält kryptografische Metadaten, die belegen, wie viel Rechenaufwand in ihn geflossen ist, wodurch ein transparenter Arbeitsnachweis entsteht.

Wie es tatsächlich funktioniert

Unter der Haube baut Boundless auf der zkVM von RISC Zero auf — einer Zero-Knowledge Virtual Machine, die jedes für den RISC-V-Befehlssatz kompilierte Programm ausführen kann. Das bedeutet, dass Entwickler Anwendungen in Rust, C++ oder jeder Sprache schreiben können, die nach RISC-V kompiliert, und dann Beweise für die korrekte Ausführung erstellen können, ohne spezialisierte ZK-Circuits erlernen zu müssen.

Die Drei-Schichten-Architektur umfasst:

  • zkVM-Layer: Führt beliebige Programme aus und erzeugt STARK-Proofs
  • Recursion-Layer: Aggregiert mehrere STARKs zu kompakten Proofs
  • Settlement-Layer: Konvertiert Proofs in das Groth16-Format für die On-Chain-Verifizierung

Dieses Design ermöglicht es Boundless, Proofs zu generieren, die klein genug sind (etwa 200 KB), um eine wirtschaftliche On-Chain-Verifizierung zu ermöglichen, während gleichzeitig komplexe Berechnungen unterstützt werden.

Der ZKC-Token: Mining von Proofs statt Hashes

Boundless hat den ZK Coin (ZKC) als nativen Token für seinen Proof-Marktplatz eingeführt. Im Gegensatz zu typischen Utility-Token wird ZKC aktiv durch Proof-Erzeugung gemined — Prover verdienen ZKC-Belohnungen proportional zur von ihnen beigetragenen Rechenleistung.

Überblick über die Tokenomics

  • Gesamtangebot: 1 Milliarde ZKC (mit 7 % Inflation im ersten Jahr, sinkend auf 3 % bis zum achten Jahr)
  • Ökosystem-Wachstum: 41,6 % für Adoptionsinitiativen reserviert
  • Strategische Partner: 21,5 % mit 1-jährigem Cliff und 2-jährigem Vesting
  • Community: 8,3 % für Token-Verkauf und Airdrops
  • Aktueller Preis: ~ 0,12 US-Dollar (gesunken vom ICO-Preis von 0,29 US-Dollar)

Das Inflationsmodell hat Debatten ausgelöst. Befürworter argumentieren, dass kontinuierliche Emissionen notwendig sind, um ein gesundes Prover-Netzwerk zu incentivieren. Kritiker weisen darauf hin, dass eine jährliche Inflation von 7 % einen konstanten Verkaufsdruck erzeugt, was die Wertsteigerung von ZKC potenziell begrenzt, selbst wenn das Netzwerk wächst.

Marktturbulenzen

Die ersten Monate von ZKC verliefen nicht reibungslos. Im Oktober 2025 versah die südkoreanische Börse Upbit den Token mit einer „Investitionswarnung“, was einen Kurseinbruch von 46 % auslöste. Upbit hob die Warnung auf, nachdem Boundless seine Tokenomics klargestellt hatte, aber die Episode verdeutlichte die Volatilitätsrisiken von Infrastruktur-Token, die an Schwellenmärkte gebunden sind.

Mainnet-Realität: Wer nutzt Boundless tatsächlich?

Seit dem Start der Mainnet-Beta auf Base im Juli 2025 und dem vollständigen Mainnet im September hat Boundless bemerkenswerte Integrationen gesichert:

Wormhole-Integration

Wormhole integriert Boundless, um den Ethereum-Konsens um eine ZK-Verifizierung zu erweitern und Cross-Chain-Transfers sicherer zu machen. Anstatt sich rein auf Multi-Sig-Guardians zu verlassen, kann Wormhole NTT (Native Token Transfers) nun optionale ZK-Beweise für Nutzer enthalten, die kryptografische Garantien wünschen.

Citrea Bitcoin L2

Citrea, ein von Chainway Labs entwickeltes Bitcoin-Layer-2-zk-Rollup, nutzt die RISC Zero zkVM, um Validitätsnachweise zu erstellen, die über BitVM auf Bitcoin gepostet werden. Dies ermöglicht eine EVM-äquivalente Programmierbarkeit auf Bitcoin, während BTC für Settlement und Datenverfügbarkeit genutzt wird.

Partnerschaft mit Google Cloud

Durch sein Verifiable AI Programm ist Boundless eine Partnerschaft mit Google Cloud eingegangen, um ZK-gestützte KI-Beweise zu ermöglichen. Entwickler können Anwendungen erstellen, die KI-Modellausgaben beweisen, ohne die Eingaben offenzulegen – eine entscheidende Funktion für privatsphäre-wahrendes maschinelles Lernen.

Stellar-Bridge

Im September 2025 implementierte Nethermind RISC Zero Verifizierer für die Stellar zk Bridge-Integration, was Cross-Chain-Beweise zwischen dem kostengünstigen Zahlungsnetzwerk von Stellar und den Sicherheitsgarantien von Ethereum ermöglicht.

Der Wettbewerb: Succinct SP1 und der Krieg der zkVMs

Boundless ist nicht der einzige Akteur im Rennen um die Lösung des ZK-Skalierungsproblems. Die SP1 zkVM von Succinct Labs hat sich als bedeutender Wettbewerber herausgestellt und einen Benchmarking-Krieg zwischen den beiden Teams ausgelöst.

Die Behauptungen von RISC Zero

RISC Zero behauptet, dass ordnungsgemäß konfigurierte zkVM-Implementierungen „mindestens 7-mal kostengünstiger als SP1“ und bei kleinen Arbeitslasten bis zu 60-mal günstiger sind. Sie verweisen auf kompaktere Proof-Größen und eine effizientere GPU-Auslastung.

Die Reaktion von Succinct

Succinct entgegnet, dass die Benchmarks von RISC Zero „fälschlicherweise die CPU-Leistung mit GPU-Ergebnissen verglichen haben“. Ihr SP1 Hypercube Prover verspricht Proofs für 0,02 $ bei einer Latenz von ca. 2 Minuten – obwohl er weiterhin Closed-Source ist.

Unabhängige Analyse

Ein Vergleich von Fenbushi Capital ergab, dass RISC Zero in GPU-Umgebungen „überlegene Geschwindigkeit und Effizienz in allen Benchmark-Kategorien“ demonstrierte, merkte jedoch an, dass SP1 bei der Entwicklerakzeptanz glänzt und Projekte wie Celestia's Blobstream mit 3,14 Mrd. angesichertemGesamtwert(TotalValueSecured)antreibt,imVergleichzu239Mio.an gesichertem Gesamtwert (Total Value Secured) antreibt, im Vergleich zu 239 Mio. bei RISC Zero.

Der wahre Wettbewerbsvorteil liegt möglicherweise nicht in der reinen Performance, sondern im Ökosystem-Lock-in. Boundless plant, konkurrierende zkVMs zu unterstützen, darunter SP1, ZKsyncs Boojum und Jolt – und positioniert sich so eher als protokollagnostischer Proof-Marktplatz statt als Single-Vendor-Lösung.

Roadmap 2026: Was als Nächstes für Boundless ansteht

Die Roadmap von RISC Zero für Boundless umfasst mehrere ehrgeizige Ziele:

Ökosystem-Erweiterung (Q4 2025 - 2026)

  • Ausweitung der ZK-Proof-Unterstützung auf Solana
  • Bitcoin-Integration via BitVM
  • Zusätzliche L2-Deployments

Hybrid-Rollup-Upgrades

Der wichtigste technische Meilenstein ist der Übergang von Optimistic Rollups (wie Optimism- und Base-Chains) zur Verwendung von Validitätsnachweisen für eine schnellere Finalität. Anstatt 7 Tage auf Fraud-Proof-Fenster zu warten, könnten OP-Chains in Minuten abrechnen.

Multi-zkVM-Unterstützung

Die Unterstützung konkurrierender zkVMs steht auf der Roadmap, sodass Entwickler zwischen RISC Zero, SP1 oder anderen Proof-Systemen wechseln können, ohne den Marktplatz zu verlassen.

Abschluss der Dezentralisierung

RISC Zero hat seinen gehosteten Proof-Service im Dezember 2025 eingestellt und erzwingt die gesamte Proof-Erstellung über das dezentrale Boundless-Netzwerk. Dies markierte ein bedeutendes Bekenntnis zur Dezentralisierungsthese – bedeutet aber auch, dass die Zuverlässigkeit des Netzwerks nun vollständig von unabhängigen Provern abhängt.

Das Gesamtbild: Wird dezentrales Proving zum Standard?

Der Erfolg von Boundless hängt von einer grundlegenden Wette ab: Dass die Proof-Erstellung zu einem Massengut (Commodity) wird, so wie es beim Cloud-Computing der Fall war. Wenn diese These stimmt, ist ein effizientes Prover-Netzwerk weniger wichtig als ein großer und liquider Marktplatz.

Mehrere Faktoren stützen diese Sichtweise:

  1. Hardware-Kommerzialisierung: ZK-spezifische ASICs von Unternehmen wie Cysic versprechen eine 50-fache Steigerung der Energieeffizienz, was die Eintrittsbarrieren senken könnte.
  2. Proof-Aggregation: Netzwerke wie Boundless können Proofs von mehreren Anwendungen bündeln und so Fixkosten amortisieren.
  3. Cross-Chain-Nachfrage: Da immer mehr Chains die ZK-Verifizierung übernehmen, könnte die Nachfrage nach Proof-Erstellung die Kapazität jedes einzelnen Anbieters übersteigen.

Doch es bleiben Risiken:

  1. Zentralisierungstendenzen: Frühe Prover-Netzwerke neigen zur Konzentration, da Skaleneffekte große Betreiber begünstigen.
  2. Token-Abhängigkeit: Wenn der ZKC-Preis einbricht, schwinden die Anreize für Prover – was potenziell eine Abwärtsspirale auslösen könnte.
  3. Technische Komplexität: Der Betrieb eines wettbewerbsfähigen Provers erfordert erhebliches Fachwissen, was die Dezentralisierung in der Praxis einschränken könnte.

Was das für Entwickler bedeutet

Für Entwickler, die eine ZK-Integration in Betracht ziehen, stellt Boundless einen pragmatischen Mittelweg dar:

  • Kein Infrastruktur-Overhead: Reichen Sie Proof-Anfragen über eine API ein, ohne eigene Prover zu betreiben.
  • Multi-Chain-Settlement: Erstellen Sie Proofs einmal und verifizieren Sie diese auf jeder unterstützten Chain.
  • Sprachliche Flexibilität: Schreiben Sie in Rust oder jeder RISC-V-kompatiblen Sprache, anstatt ZK-DSLs lernen zu müssen.

Der Kompromiss besteht in der Abhängigkeit von einem token-basierten Netzwerk, dessen langfristige Stabilität noch unbewiesen ist. Für Produktionsanwendungen könnten viele Teams Boundless für Testnets und Experimente bevorzugen, während sie für kritische Arbeitslasten eine Fallback-Prover-Infrastruktur beibehalten.

Fazit

Boundless stellt den bisher ehrgeizigsten Versuch dar, das Zentralisierungsproblem von ZK zu lösen. Indem die Erzeugung von Beweisen in einen offenen Markt umgewandelt wird, der durch ZKC-Token incentiviert wird, setzt RISC Zero darauf, dass der Wettbewerb die Kosten schneller senken wird, als es ein einzelner Anbieter allein erreichen könnte.

Der Mainnet-Launch, bedeutende Integrationen mit Wormhole und Citrea sowie die Verpflichtung zur Unterstützung konkurrierender zkVMs deuten auf ernsthafte technische Fähigkeiten hin. Doch die inflationäre Tokenomics, die Volatilität an den Börsen und die unbewiesene Dezentralisierung in großem Maßstab lassen wichtige Fragen offen.

Für das ZK-Ökosystem wird der Erfolg oder Misserfolg von Boundless signalisieren, ob dezentrale Infrastruktur mit zentralisierter Effizienz konkurrieren kann – oder ob die Zukunft der Skalierung der Blockchain-Industrie in den Händen einiger weniger, gut finanzierter Prover-Dienste bleibt.


Bauen Sie Anwendungen, die eine ZK-Verifizierung über mehrere Chains hinweg benötigen? BlockEden.xyz bietet Enterprise-RPC-Endpunkte und APIs für Ethereum, Base und über 20 Netzwerke – die zuverlässige Konnektivitätsschicht, die Ihre Cross-Chain-ZK-Anwendungen benötigen.

Ethereum vs Solana 2026: Der Wettbewerb ordnet sich nach Pectra und Firedancer neu

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Im Dezember 2025 trafen zwei gewaltige Upgrades innerhalb weniger Wochen aufeinander: Ethereums Pectra Hard Fork am 7. Mai und Solanas Firedancer-Validator-Client am 12. Dezember. Zum ersten Mal seit Jahren ist das Performance-Narrativ nicht mehr hypothetisch – es ist messbar, implementiert und definiert die Debatte Ethereum vs. Solana grundlegend neu.

Die alten Argumente sind veraltet. Ethereum ist nicht mehr nur „langsam, aber dezentralisiert“, und Solana ist nicht mehr nur „schnell, aber riskant“. Beide Chains haben ihre ambitioniertesten Infrastruktur-Upgrades seit dem Merge bzw. der Netzwerk-Neustart-Krise geliefert. Die Frage ist nicht, welche Chain „besser“ ist – sondern welche Architektur in einer Multi-Chain-Welt, in der L2s 40.000 TPS verarbeiten und Solana 1 Million anstrebt, für spezifische Anwendungsfälle gewinnt.

Analysieren wir, was sich tatsächlich geändert hat, was die Daten zeigen und wo jede Chain Anfang 2026 steht.

Pectra: Ethereums größtes Upgrade seit dem Merge

Ethereums Pectra-Upgrade kombinierte die Updates der Ausführungsebene (Prague) und der Konsensebene (Electra) und lieferte 11 EIPs mit Fokus auf drei Kernverbesserungen: Account Abstraction, Validator-Effizienz und L2-Skalierbarkeit.

Account Abstraction wird zum Mainstream

EIP-7702 führt temporäre Smart-Contract-Funktionalität für Externally Owned Accounts (EOAs) ein und ermöglicht Gas Abstraction (Gebührenzahlung in beliebigen Token), gebündelte Transaktionen (batched transactions) und anpassbare Sicherheit – und das alles, ohne permanent zu einem Contract Account konvertieren zu müssen. Dies schließt die UX-Lücke zwischen EOAs und Smart Wallets und macht Ethereum für Nutzer zugänglich, die keine Gas-Token verwalten oder jede Transaktion einzeln signieren möchten.

Für Entwickler bedeutet dies den Aufbau von Wallet-Erlebnissen, die mit Web2-Apps konkurrieren: Social Recovery, gesponserte Transaktionen und automatisierte Workflows – ohne die Nutzer zur Migration auf Smart Wallets zu zwingen. Das Upgrade eliminiert einen großen Reibungspunkt beim Onboarding, der Ethereum seit seinen Anfängen geplagt hat.

Überarbeitung des Validator-Stakings

Pectra erhöhte das maximale effektive Guthaben von 32 ETH auf 2.048 ETH pro Validator – eine 64-fache Steigerung. Für institutionelle Staker, die Tausende von Validatoren betreiben, vereinfacht diese Änderung den Betrieb erheblich. Anstatt 1.000 separate 32-ETH-Validatoren zu verwalten, können Institutionen diese in ca. 16 Validatoren mit jeweils 2.048 ETH Staking-Volumen konsolidieren.

Die Aktivierungszeit für Einzahlungen sank aufgrund einer einfacheren Verarbeitung von Stunden auf etwa 13 Minuten. Die Wartezeiten in der Validator-Warteschlange, die sich früher in Zeiten hoher Nachfrage über Wochen hinzogen, sind nun vernachlässigbar. Staking wurde betrieblich günstiger und schneller – entscheidend für die Gewinnung von institutionellem Kapital, das den Verwaltungsaufwand für Validatoren bisher als Barriere sah.

Blob-Durchsatz verdoppelt sich

Ethereum erhöhte die Zielanzahl der Blobs von 3 auf 6 pro Block, mit einem Maximum von 9 (vorher 6). Dies verdoppelt effektiv die Bandbreite für die Datenverfügbarkeit (Data Availability) für L2-Rollups, die auf Blobs angewiesen sind, um Transaktionsdaten kostengünstig zu veröffentlichen.

In Kombination mit PeerDAS (aktiviert am 8. Dezember 2025), das die Blob-Kapazität durch die Verteilung von Blob-Daten über die Knoten hinweg von 6 auf 48 pro Block erweitert, wird erwartet, dass die Layer-2-Gebühren bis 2026 um weitere 50–70 % sinken – zusätzlich zu der nach Dencun erreichten Reduzierung von 70–95 %. Da die Datenverfügbarkeit derzeit 90 % der L2-Betriebskosten ausmacht, wirkt sich diese Änderung direkt auf die Ökonomie von Rollups aus.

Was sich nicht geändert hat

Der Basislayer von Ethereum verarbeitet weiterhin 15–30 TPS. Pectra hat den Durchsatz von Layer 1 nicht angetastet – weil dies nicht nötig ist. Ethereums Skalierungsthese ist modular: L1 bietet Sicherheit und Datenverfügbarkeit, während L2s (Arbitrum, Optimism, Base) die Ausführung übernehmen. Arbitrum erreicht theoretisch bereits 40.000 TPS, und PeerDAS zielt darauf ab, die kombinierte L2-Kapazität in Richtung 100.000+ TPS zu treiben.

Der Kompromiss bleibt bestehen: Ethereum priorisiert Dezentralisierung (über 8.000 Knoten) und Sicherheit und akzeptiert einen geringeren L1-Durchsatz im Austausch für glaubwürdige Neutralität und Zensurresistenz.

Firedancer: Solanas Weg zu 1 Million TPS

Der Firedancer-Validator-Client für Solana, entwickelt von Jump Crypto und in C geschrieben für Optimierungen auf Hardware-Ebene, ging am 12. Dezember 2024 nach 100 Testtagen und 50.000 produzierten Blöcken im Mainnet live. Dies ist kein Protokoll-Upgrade, sondern eine vollständige Neuimplementierung der Validator-Software, die darauf ausgelegt ist, Engpässe im ursprünglichen Agave-Client (ehemals Labs) zu beseitigen.

Architektur: Parallele Verarbeitung im großen Maßstab

Im Gegensatz zur monolithischen Architektur von Agave verwendet Firedancer ein „Kachel-basiertes“ (tile-based) modulares Design, bei dem verschiedene Validator-Aufgaben (Konsens, Transaktionsverarbeitung, Networking) parallel über CPU-Kerne laufen. Dies ermöglicht es Firedancer, die maximale Leistung aus Standard-Hardware (commodity hardware) herauszuholen, ohne spezialisierte Infrastruktur zu erfordern.

Die Ergebnisse sind messbar: Kevin Bowers, Chief Scientist bei der Jump Trading Group, demonstrierte auf der Breakpoint 2024 über 1 Million Transaktionen pro Sekunde auf Standard-Hardware. Während Bedingungen in der realen Welt dieses Niveau noch nicht erreicht haben, berichten Early Adopters bereits von erheblichen Verbesserungen.

Leistungssteigerungen in der Praxis

Figments Flaggschiff-Solana-Validator migrierte zu Firedancer und meldete:

  • 18 - 28 Basispunkte höhere Staking-Belohnungen im Vergleich zu Agave-basierten Validatoren
  • 15 % Reduzierung verpasster Voting-Credits (verbesserte Konsensbeteiligung)
  • Vote-Latenz optimiert auf 1,002 Slots (nahezu verzögerungsfreie Konsensbeiträge)

Die Steigerung der Belohnungen resultiert primär aus einer besseren MEV-Erfassung und einer effizienteren Transaktionsverarbeitung — die parallele Architektur von Firedancer ermöglicht es Validatoren, mehr Transaktionen pro Block zu verarbeiten, was die Gebühreneinnahmen erhöht.

Stand Ende 2025 sicherte sich der hybride „Frankendancer“-Client (der den Konsens von Firedancer mit der Ausführungsebene von Agave kombiniert) innerhalb weniger Wochen nach dem Mainnet-Launch über 26 % des Validator-Marktanteils. Es wird erwartet, dass sich die vollständige Einführung von Firedancer im Jahr 2026 beschleunigt, sobald die verbleibenden Sonderfälle gelöst sind.

Der Zeitplan für 1 Million TPS

Die Kapazität von Firedancer für 1 Million TPS wurde in kontrollierten Umgebungen demonstriert, nicht im Produktivbetrieb. Solana verarbeitet derzeit 3.000 - 5.000 TPS in der Praxis, mit einer Spitzenkapazität von etwa 4.700 TPS. Das Erreichen von 1 Million TPS erfordert nicht nur Firedancer, sondern eine netzwerkweite Einführung und ergänzende Upgrades wie Alpenglow (erwartet für Q1 2026).

Der Weg nach vorne umfasst:

  1. Vollständige Firedancer-Migration über alle Validatoren hinweg (derzeit ~ 26 % hybrid, 0 % vollständiger Firedancer)
  2. Alpenglow-Upgrade zur Optimierung von Konsens und Zustandsverwaltung
  3. Verbesserungen der Netzwerk-Hardware, wenn Validatoren ihre Infrastruktur aufrüsten

Realistischerweise ist 1 Million TPS ein Ziel für 2027 - 2028, nicht für 2026. Die unmittelbare Auswirkung von Firedancer — die Verdoppelung oder Verdreifachung des effektiven Durchsatzes — ist jedoch bereits messbar und positioniert Solana so, dass es schon heute Anwendungen auf Endverbraucherniveau (Consumer-Scale) bewältigen kann.

Head-to-Head: Wo jede Chain im Jahr 2026 gewinnt

Transaktionsgeschwindigkeit und Kosten

Solana: 3.000 - 5.000 TPS in der Praxis, mit durchschnittlichen Transaktionskosten von $ 0,00025. Die Einführung von Firedancer sollte dies bis Mitte 2026 in Richtung 10.000 + TPS treiben, wenn mehr Validatoren migrieren.

Ethereum L1: 15 - 30 TPS, mit variablen Gas-Gebühren (150+jenachNetzu¨berlastung).L2Lo¨sungen(Arbitrum,Optimism,Base)erreichentheoretisch40.000TPSbeiTransaktionskostenvon1 - 50 + je nach Netzüberlastung). L2-Lösungen (Arbitrum, Optimism, Base) erreichen theoretisch 40.000 TPS bei Transaktionskosten von 0,10 - 1,00 — was immer noch 400 - 4.000-mal teurer ist als Solana.

Gewinner: Solana für rohen Durchsatz und Kosteneffizienz. Ethereum-L2s sind schneller als Ethereum L1, bleiben aber für Hochfrequenz-Anwendungsfälle (Zahlungen, Gaming, Social) um Größenordnungen teurer als Solana.

Dezentralisierung und Sicherheit

Ethereum: ~ 8.000 Validatoren (die jeweils einen Einsatz von 32 + ETH repräsentieren), mit Client-Diversität (Geth, Nethermind, Besu, Erigon) und geografisch verteilten Knoten. Das Staking-Limit von 2.048 ETH durch Pectra verbessert die institutionelle Effizienz, beeinträchtigt jedoch nicht die Dezentralisierung — große Staker betreiben weiterhin mehrere Validatoren.

Solana: ~ 3.500 Validatoren, wobei Firedancer zum ersten Mal Client-Diversität einführt. Historisch gesehen lief Solana ausschließlich auf dem Labs-Client (jetzt Agave), was Risiken durch einen Single-Point-of-Failure schuf. Die 26 %ige Akzeptanz von Firedancer ist ein positiver Schritt, aber eine vollständige Client-Diversität liegt noch Jahre entfernt.

Gewinner: Ethereum behält einen strukturellen Vorteil bei der Dezentralisierung durch Client-Diversität, geografische Verteilung und ein größeres Validator-Set. Solanas Vergangenheit mit Netzwerkausfällen (zuletzt im September 2022) spiegelt Kompromisse bei der Zentralisierung wider, obwohl Firedancer das Risiko eines einzelnen Clients mindert.

Entwickler-Ökosystem und Liquidität

Ethereum: $ 50 Mrd. + TVL über DeFi-Protokolle hinweg, mit etablierter Infrastruktur für RWA-Tokenisierung (BlackRocks BUIDL), NFT-Märkte und institutionelle Integrationen. Solidity bleibt die dominierende Smart-Contract-Sprache mit der größten Entwickler-Community und dem umfangreichsten Audit-Ökosystem.

Solana: $ 8 Mrd. + TVL (schnell wachsend), mit Dominanz bei verbraucherorientierten Apps (Tensor für NFTs, Jupiter für DEX-Aggregation, Phantom-Wallet). Die Rust-basierte Entwicklung zieht High-Performance-Ingenieure an, hat aber eine steilere Lernkurve als Solidity.

Gewinner: Ethereum für DeFi-Tiefe und institutionelles Vertrauen; Solana für Consumer-Apps und Zahlungsschienen. Dies sind zunehmend unterschiedliche Anwendungsfälle und kein direkter Wettbewerb.

Upgrade-Pfad und Roadmap

Ethereum: Das Fusaka-Upgrade (Q2 / Q3 2026) wird die Blob-Kapazität auf 48 pro Block erweitern, wobei PeerDAS L2s in Richtung 100.000 + kombinierte TPS treibt. Langfristig zielt „The Surge“ darauf ab, L2s eine unbegrenzte Skalierung zu ermöglichen, während L1 als Settlement-Layer erhalten bleibt.

Solana: Alpenglow (Q1 2026) wird Konsens und Zustandsverwaltung optimieren. Der vollständige Rollout von Firedancer sollte bis Ende 2026 abgeschlossen sein, wobei 1 Million TPS bis 2027 - 2028 machbar ist, wenn die netzwerkweite Migration gelingt.

Gewinner: Ethereum hat eine klarere und vorhersehbarere Roadmap. Solanas Roadmap hängt stark von den Firedancer-Adoptionsraten und potenziellen Sonderfällen ab, die während der Migration auftreten können.

Die wahre Debatte: Monolithisch vs. Modular

Der Vergleich zwischen Ethereum und Solana verfehlt zunehmend den Kern der Sache. Diese Chains lösen unterschiedliche Probleme:

Ethereums modulare These: L1 bietet Sicherheit und Datenverfügbarkeit; L2s übernehmen die Ausführung. Dies trennt die Zuständigkeiten und ermöglicht es L2s, sich zu spezialisieren (Arbitrum für DeFi, Base für Consumer-Apps, Optimism für Governance-Experimente), während sie die Sicherheit von Ethereum erben. Der Kompromiss ist Komplexität — Benutzer müssen zwischen L2s brücken, und die Liquidität fragmentiert über verschiedene Chains.

Solanas monolithische These: Eine einzige, vereinheitlichte State-Machine maximiert die Komponierbarkeit. Jede App teilt denselben Liquiditätspool, und atomare Transaktionen erstrecken sich über das gesamte Netzwerk. Der Kompromiss ist das Zentralisierungsrisiko — höhere Hardwareanforderungen (Validatoren benötigen leistungsstarke Maschinen) und die Abhängigkeit von einem einzigen Client (durch Firedancer gemildert, aber nicht beseitigt).

Keiner der Ansätze ist „richtig“. Ethereum dominiert hochwertige Anwendungsfälle mit geringer Frequenz (DeFi, RWA-Tokenisierung), bei denen die Sicherheit höhere Kosten rechtfertigt. Solana dominiert hochfrequente Anwendungsfälle mit geringem Wert (Zahlungen, Gaming, Social), bei denen Geschwindigkeit und Kosten an erster Stelle stehen.

Was Entwickler wissen sollten

Wenn Sie im Jahr 2026 entwickeln, ist dies das Entscheidungsschema:

Wählen Sie Ethereum (+ L2), wenn:

  • Ihre Anwendung maximale Sicherheit und Dezentralisierung erfordert (DeFi-Protokolle, Custody-Lösungen)
  • Sie institutionelle Nutzer oder die Tokenisierung von Real-World Assets (RWA) anvisieren
  • Sie Zugang zu Ethereums TVL von über 50 Mrd. $ und hoher Liquiditätstiefe benötigen
  • Ihre Nutzer Transaktionskosten von 0,10 bis 1,00 $ tolerieren

Wählen Sie Solana, wenn:

  • Ihre Anwendung Hochfrequenz-Transaktionen erfordert (Zahlungen, Gaming, Social)
  • Die Transaktionskosten im Sub-Cent-Bereich liegen müssen (durchschnittlich 0,00025 $)
  • Sie kundenorientierte Apps entwickeln, bei denen die UX-Latenz entscheidend ist (400 ms Solana-Finalität gegenüber 12 Sekunden Ethereum-Finalität)
  • Sie Composability gegenüber modularer Komplexität bevorzugen

Erwägen Sie beides, wenn:

  • Sie Cross-Chain-Infrastruktur aufbauen (Bridges, Aggregatoren, Wallets)
  • Ihre Anwendung über separate High-Value- und High-Frequency-Komponenten verfügt (DeFi-Protokoll + Consumer-Payment-Layer)

Ausblick: 2026 und darüber hinaus

Die Leistungslücke verringert sich, konvergiert jedoch nicht. Pectra hat Ethereum so positioniert, dass L2s auf über 100.000 TPS skalieren können, während Firedancer Solana auf einen Weg in Richtung 1 Million TPS gebracht hat. Beide Chains haben ihre mehrjährigen technischen Roadmaps umgesetzt und stehen nun vor neuen Herausforderungen:

Ethereums Herausforderung: L2-Fragmentierung. Nutzer müssen zwischen Dutzenden von L2s (Arbitrum, Optimism, Base, zkSync, Starknet) überbrücken, was die Liquidität fragmentiert und die UX verkompliziert. Shared Sequencing und native L2-Interoperabilität sind die Prioritäten für 2026–2027, um dieses Problem zu lösen.

Solanas Herausforderung: Dezentralisierung im großen Maßstab beweisen. Firedancer führt Client-Diversität ein, aber Solana muss demonstrieren, dass über 10.000 TPS (und schließlich 1 Million TPS) keine Hardware-Zentralisierung erfordern oder die Zensurresistenz opfern.

Der wahre Gewinner? Entwickler und Nutzer, die endlich glaubwürdige, produktionsreife Optionen sowohl für hochsichere als auch für hochperformante Anwendungen haben. Das Blockchain-Trilemma ist nicht gelöst – es hat sich in zwei spezialisierte Lösungen aufgeteilt.

BlockEden.xyz bietet API-Infrastruktur auf Enterprise-Niveau sowohl für Ethereum (L1 und L2s) als auch für Solana, mit dedizierten Nodes, die für Pectra und Firedancer optimiert sind. Erkunden Sie unseren API-Marktplatz, um auf einer Infrastruktur aufzubauen, die darauf ausgelegt ist, mit beiden Ökosystemen zu skalieren.

Quellen

BNB Chains Fermi-Upgrade: Was 0,45-Sekunden-Blöcke für DeFi, Gaming und Hochfrequenzhandel bedeuten

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Am 14. Januar 2026 wird die BNB Chain den Fermi-Hardfork aktivieren und die Blockzeiten von 0,75 Sekunden auf 0,45 Sekunden senken. Das ist schneller als ein menschliches Blinzeln – und stellt den Höhepunkt einer aggressiven Skalierungs-Roadmap dar, die BSC von einer Chain mit Drei-Sekunden-Blöcken in eines der schnellsten EVM-kompatiblen Netzwerke im Live-Betrieb verwandelt hat.

Die Auswirkungen gehen weit über reines Prestige hinaus. Da die Finalität nun in nur 1,125 Sekunden erreichbar ist und Durchsatzziele von 5.000 DEX-Swaps pro Sekunde angestrebt werden, positioniert sich die BNB Chain als Infrastrukturschicht für Anwendungen, bei denen Millisekunden direkt in Geld – oder verpasste Gelegenheiten – umgerechnet werden.


Die Evolution: Von 3 Sekunden auf 0,45 Sekunden in weniger als einem Jahr

Die Reduzierung der Blockzeit der BNB Chain erfolgte methodisch und konsequent. Hier ist der bisherige Fortschritt:

UpgradeDatumBlockzeitFinalität
Vor dem Upgrade-3,0 Sekunden~7,5 Sekunden
Lorentz-HardforkApril 20251,5 Sekunden~3,75 Sekunden
Maxwell-Hardfork30. Juni 20250,75 Sekunden~1,875 Sekunden
Fermi-Hardfork14. Januar 20260,45 Sekunden~1,125 Sekunden

Jedes Upgrade erforderte sorgfältiges Engineering, um die Netzwerkstabilität aufrechtzuerhalten, während die Leistung verdoppelt oder nahezu verdoppelt wurde. Allein das Maxwell-Upgrade, unterstützt durch BEP-524, BEP-563 und BEP-564, verbesserte das Peer-to-Peer-Messaging zwischen Validatoren, ermöglichte eine schnellere Kommunikation von Blockvorschlägen und schuf ein stabileres Validator-Netzwerk, um das Risiko verpasster Abstimmungen oder Synchronisierungsverzögerungen zu verringern.

Fermi setzt diesen Kurs mit fünf BEPs fort:

  • BEP-590: Erweiterte Abstimmungsregeln für die Stabilität der Fast Finality
  • BEP-619: Die eigentliche Reduzierung des Blockintervalls auf 0,45 Sekunden
  • BEP-592: Nicht-konsensbasierte Zugriffsberechtigungsliste auf Blockebene (Access List)
  • BEP-593: Inkrementeller Snapshot
  • BEP-610: Implementierung von EVM-Super-Instruktionen

Das Ergebnis: Eine Chain, die in der Spitze (5. Oktober 2025) 31 Millionen tägliche Transaktionen verarbeitete, während sie keinerlei Ausfallzeiten verzeichnete und täglich bis zu fünf Billionen Gas bewältigte.


Warum Blöcke unter einer Sekunde wichtig sind: Die DeFi-Perspektive

Für Decentralized Finance (DeFi) ist die Blockzeit nicht nur eine technische Kennzahl – sie ist der Herzschlag jeder Handels-, Liquidations- und Yield-Strategie. Schnellere Blöcke schaffen kumulative Vorteile.

Reduzierter Slippage und bessere Preisfindung

Wenn Blöcke alle 0,45 Sekunden statt alle 3 Sekunden entstehen, aktualisiert sich das Preis-Oracle 6- bis 7-mal häufiger. Für DEX-Trader bedeutet das:

  • Geringere Spreads, da Arbitrageure die Preise schneller angleichen.
  • Reduzierter Slippage bei größeren Aufträgen, da sich das Orderbuch häufiger aktualisiert.
  • Bessere Ausführungsqualität für Retail-Trader, die gegen professionelle Akteure konkurrieren.

Verbesserte Liquidations-Effizienz

Lending-Protokolle wie Venus oder Radiant hängen von rechtzeitigen Liquidationen ab, um die Solvenz zu gewährleisten. Mit 0,45-Sekunden-Blöcken:

  • Liquidations-Bots können fast sofort auf Preisbewegungen reagieren.
  • Das Zeitfenster zwischen der Unterbesicherung einer Position und der Liquidation schrumpft drastisch.
  • Das Risiko von Protokoll-Bad-Debt sinkt, was eine aggressivere Kapitaleffizienz ermöglicht.

MEV-Reduzierung

Hier wird es interessant. Die BNB Chain berichtet von einer Reduzierung des bösartigen MEV um 95 % – insbesondere bei Sandwich-Attacken – durch eine Kombination aus schnelleren Blöcken und den Sicherheitsverbesserungen der Good Will Alliance.

Die Logik ist simpel: Sandwich-Attacken erfordern, dass Bots ausstehende Transaktionen erkennen, sie per Front-Running überholen und dann per Back-Running abschließen. Bei nur 450 Millisekunden zwischen den Blöcken bleibt den Bots weit weniger Zeit, um ausstehende Transaktionen zu erkennen, zu analysieren und auszunutzen. Das Angriffsfenster ist von Sekunden auf Bruchteile einer Sekunde geschrumpft.

Fast Finality verstärkt diesen Vorteil. Bei Bestätigungszeiten unter 2 Sekunden (1,125 Sekunden mit Fermi) verengt sich das Zeitfenster für jegliche Form der Transaktionsmanipulation erheblich.


Gaming und Echtzeitanwendungen: Die neue Grenze

Die Blockzeit von 0,45 Sekunden eröffnet Möglichkeiten, die mit langsameren Chains schlichtweg nicht praktikabel waren.

Reaktionsschnelle In-Game-Ökonomien

Blockchain-Spiele hatten oft mit Latenzzeiten zu kämpfen. Eine Drei-Sekunden-Blockzeit bedeutet eine Verzögerung von mindestens drei Sekunden zwischen Spieleraktion und On-Chain-Bestätigung. Für kompetitive Spiele ist das unspielbar. Für Casual Games ist es nervig.

Bei 0,45 Sekunden:

  • Item-Trades können in weniger als 1,5 Sekunden bestätigt werden (einschließlich Finalität).
  • In-Game-Ökonomien können nahezu in Echtzeit auf Spieleraktionen reagieren.
  • Updates des Spielstatus bei kompetitiven Spielen werden für mehr Spieltypen machbar.

Live-Wetten und Prognosemärkte

Prognosemärkte und Wettanwendungen erfordern eine schnelle Abwicklung. Der Unterschied zwischen 3-Sekunden- und 0,45-Sekunden-Blöcken ist der Unterschied zwischen „erträglich“ und „fühlt sich sofort an“ für Endnutzer. Märkte können:

  • Wetten zeitnäher zum Ausgang von Ereignissen annehmen.
  • Positionen schneller abrechnen.
  • Dynamischere In-Play-Wetterlebnisse ermöglichen.

Hochfrequenz-automatisierte Agenten

Die Infrastruktur ist zunehmend gut für automatisierte Handelssysteme, Arbitrage-Bots und KI-Agenten geeignet, die On-Chain-Strategien ausführen. Die BNB Chain weist explizit darauf hin, dass das Netzwerk für „Hochfrequenz-Handelsbots, MEV-Strategien, Arbitrage-Systeme und Gaming-Anwendungen konzipiert ist, bei denen Mikrosekunden entscheidend sind“.


Die Roadmap für 2026: 1 Gigagas und darüber hinaus

Fermi ist nicht der Endzustand. Die Roadmap 2026 der BNB Chain verfolgt ehrgeizige Ziele:

1 Gigagas pro Sekunde: Eine verzehnfachte Steigerung der Durchsatzkapazität, die darauf ausgelegt ist, bis zu 5.000 DEX-Swaps pro Sekunde zu unterstützen. Damit läge die Rohkapazität der BNB Chain vor den meisten konkurrierenden L1- und vielen L2-Lösungen.

Finalität unter 150 ms: Die längerfristige Vision sieht eine L1 der nächsten Generation mit einer Finalität von unter 150 Millisekunden vor – schneller als die menschliche Wahrnehmung und konkurrenzfähig mit zentralisierten Börsen.

20.000+ TPS für komplexe Transaktionen: Nicht nur einfache Überweisungen, sondern komplexe Smart-Contract-Interaktionen in großem Maßstab.

Native Privatsphäre für über 200 Millionen Nutzer: Eine signifikante Erweiterung der Funktionen zur Wahrung der Privatsphäre auf Netzwerkebene.

Das ausdrückliche Ziel ist es, in Bezug auf die Benutzererfahrung mit „zentralisierten Plattformen zu konkurrieren“ und gleichzeitig dezentrale Garantien aufrechtzuerhalten.


Auswirkungen auf Validatoren und Node-Betreiber

Das Fermi-Upgrade ist nicht umsonst. Schnellere Blöcke bedeuten mehr Arbeit pro Zeiteinheit, was neue Anforderungen für Infrastrukturbetreiber schafft.

Hardware-Anforderungen

Validatoren müssen vor der Aktivierung am 14. Januar auf Version v1.6.4 oder später upgraden. Das Upgrade umfasst:

  • Snapshot-Regenerierung (ca. 5 Stunden auf der Referenz-Hardware der BNB Chain)
  • Aktualisierungen der Log-Indizierung
  • Vorübergehende Leistungseinbußen während des Upgrade-Prozesses

Netzwerkbandbreite

Da Blöcke 40 % schneller ankommen (0,45 s gegenüber 0,75 s), muss das Netzwerk mehr Daten schneller verbreiten. Die verbesserte Peer-to-Peer-Kommunikation von BEP-563 hilft dabei, aber Betreiber sollten mit erhöhten Bandbreitenanforderungen rechnen.

Status-Wachstum (State Growth)

Mehr Transaktionen pro Sekunde bedeuten ein schnelleres Wachstum des Netzwerkstatus. Während das inkrementelle Snapshot-System von BEP-593 dabei hilft, dies zu verwalten, sollten Node-Betreiber langfristig mit erhöhtem Speicherbedarf planen.


Wettbewerbspositionierung: Wo steht die BNB Chain?

Die Landschaft der Sub-Sekunden-Blöcke wird zunehmend dichter:

ChainBlockzeitFinalitätNotizen
BNB Chain (Fermi)0,45 s~1,125 sEVM-kompatibel, 5T+ Gas/Tag bewährt
Solana~0,4 s~12 s (mit Vote-Lag)Höhere theoretische TPS, andere Kompromisse
Sui~0,5 s~0,5 sObjektzentriertes Modell, neueres Ökosystem
Aptos~0,9 s~0,9 sMove-basiert, parallele Ausführung
Avalanche C-Chain~2 s~2 sSubnet-Architektur
Ethereum L1~12 s~15 minAndere Designphilosophie

Der Wettbewerbsvorteil der BNB Chain liegt in der Kombination aus:

  1. EVM-Kompatibilität: Direkte Portierung von Ethereum oder anderen EVM-Chains.
  2. Bewährte Skalierbarkeit: 31 Mio. tägliche Transaktionen, 5T tägliches Gas, null Ausfallzeiten.
  3. Tiefe des Ökosystems: Etablierte DeFi-, Gaming- und Infrastrukturprojekte.
  4. MEV-Abschwächung: 95 % Reduzierung von Sandwich-Angriffen.

Der Kompromiss ist die Zentralisierung. Der Proof of Staked Authority (PoSA)-Konsens der BNB Chain nutzt ein kleineres Validator-Set als vollständig dezentralisierte Netzwerke, was die Geschwindigkeit ermöglicht, aber andere Vertrauensannahmen mit sich bringt.


Was Entwickler wissen sollten

Für Entwickler, die auf der BNB Chain bauen, schafft Fermi sowohl Chancen als auch Anforderungen:

Chancen

  • Latenzempfindliche Anwendungen: Spiele, Handelsbots und Echtzeitanwendungen werden rentabler.
  • Bessere UX: Bestätigungszeiten unter 2 Sekunden ermöglichen reibungslosere Benutzererlebnisse.
  • MEV-resistente Designs: Eine geringere Anfälligkeit für Sandwich-Angriffe vereinfacht einige Protokolldesigns.
  • Höherer Durchsatz: Mehr Transaktionen pro Sekunde bedeuten mehr Nutzer ohne Überlastung.

Anforderungen

  • Annahmen zur Blockproduktion: Bei schnelleren Blöcken muss Code, der von bestimmten Blockzeiten ausgeht, möglicherweise aktualisiert werden.
  • Oracle-Update-Frequenz: Protokolle möchten möglicherweise die schnelleren Blockzeiten für häufigere Preisaktualisierungen nutzen.
  • Gas-Schätzung: Die Dynamik des Block-Gases kann sich durch die schnellere Blockproduktion verschieben.
  • RPC-Infrastruktur: Anwendungen benötigen möglicherweise leistungsstärkere RPC-Anbieter, um mit der schnelleren Blockproduktion Schritt zu halten.

Fazit: Geschwindigkeit als Strategie

Die Entwicklung der BNB Chain von 3-Sekunden- zu 0,45-Sekunden-Blöcken innerhalb von etwa 18 Monaten stellt eine der aggressivsten Skalierungstrajektorien in der produktiven Blockchain-Infrastruktur dar. Das Fermi-Upgrade am 14. Januar 2026 ist der jüngste Schritt in einer Roadmap, die explizit darauf abzielt, bei der Benutzererfahrung mit zentralisierten Plattformen zu konkurrieren.

Für DeFi-Protokolle bedeutet dies engere Märkte, bessere Liquidationen und weniger MEV. Für Gaming-Anwendungen bedeutet es On-Chain-Interaktionen in Fast-Echtzeit. Für Hochfrequenzhändler und automatisierte Systeme werden Vorteile im Mikrosekundenbereich bedeutsam.

Die Frage ist nicht, ob schnellere Blöcke nützlich sind – das sind sie zweifellos. Die Frage ist, ob die Zentralisierungskompromisse der BNB Chain für Nutzer und Entwickler akzeptabel bleiben, während das Netzwerk auf seine Ziele von 1 Gigagas und einer Finalität von unter 150 ms zusteuert.

Für Anwendungen, bei denen Geschwindigkeit wichtiger ist als maximale Dezentralisierung, liefert die BNB Chain überzeugende Argumente. Das Fermi-Upgrade ist der neueste Beleg für diese Strategie.


Referenzen