Direkt zum Hauptinhalt

72 Beiträge getaggt mit „Technologische Innovation“

Technologische Innovationen und Durchbrüche

Alle Tags anzeigen

Web3 Jahresrückblick 2025: 10 Diagramme, die die wahre Geschichte der institutionellen Reifung von Krypto erzählen

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Die gesamte Krypto-Marktkapitalisierung überschritt im Jahr 2025 zum ersten Mal die Marke von 4 Billionen .BitcoinETFsverzeichnetenNettozuflu¨ssevon57,7Milliarden. Bitcoin-ETFs verzeichneten Nettozuflüsse von 57,7 Milliarden . Das monatliche Transaktionsvolumen von Stablecoins erreichte 3,4 Billionen $ – und übertraf damit Visa. Die Tokenisierung von Real-World Assets (RWA) explodierte im Jahresvergleich um 240 %. Und doch war inmitten dieser rekordverdächtigen Zahlen die wichtigste Geschichte des Jahres 2025 nicht der Preis – es war die fundamentale Transformation von Web3 von einem spekulativen Spielplatz in eine Finanzinfrastruktur auf institutionellem Niveau.

Celestias Wettbewerbsvorteil bei der Datenverfügbarkeit: Eine tiefe Analyse

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Als Ethereum-L2s 3,83 proMegabytezahlten,umDatenmittelsBlobszuposten,zahlteEclipseanCelestia0,07pro Megabyte zahlten, um Daten mittels Blobs zu posten, zahlte Eclipse an Celestia 0,07 für dasselbe Megabyte. Das ist kein Tippfehler – 55-mal günstiger, was es Eclipse ermöglichte, über 83 GB an Daten zu posten, ohne die eigene Schatzkammer zu sprengen. Dieser Kostenunterschied ist keine vorübergehende Marktanomalie. Es ist der strukturelle Vorteil einer zweckgebundenen Infrastruktur.

Celestia hat mittlerweile über 160 GB an Rollup-Daten verarbeitet, generiert tägliche Blob-Gebühren, die seit Ende 2024 um das Zehnfache gestiegen sind, und hält einen Marktanteil von etwa 50 % im Bereich der Datenverfügbarkeit (Data Availability). Die Frage ist nicht, ob modulare Datenverfügbarkeit funktioniert – sondern ob Celestia seinen Vorsprung behaupten kann, während EigenDA, Avail und die nativen Blobs von Ethereum um dieselben Rollup-Kunden konkurrieren.

Die Ökonomie der Blobs verstehen: Die Grundlage

Bevor wir die Zahlen von Celestia analysieren, lohnt es sich zu verstehen, was die Datenverfügbarkeit wirtschaftlich von anderen Blockchain-Diensten unterscheidet.

Wofür Rollups tatsächlich bezahlen

Wenn ein Rollup Transaktionen verarbeitet, erzeugt es Statusänderungen (State Changes), die verifizierbar sein müssen. Anstatt dem Rollup-Betreiber zu vertrauen, können Nutzer dies überprüfen, indem sie Transaktionen anhand der Originaldaten erneut ausführen. Dies setzt voraus, dass die Transaktionsdaten verfügbar bleiben – nicht für immer, aber lange genug für Challenges und Verifizierungen.

Traditionelle Rollups posteten diese Daten direkt in die Ethereum-Calldata und zahlten Premiumpreise für die dauerhafte Speicherung auf dem sichersten Ledger der Welt. Die meisten Rollup-Daten benötigen die Verfügbarkeit jedoch nur für ein Challenge-Zeitfenster (typischerweise 7–14 Tage), nicht für die Ewigkeit. Diese Diskrepanz schuf die Chance für spezialisierte Datenverfügbarkeitsschichten (Data Availability Layers).

Celestias PayForBlob-Modell

Das Gebührenmodell von Celestia ist einfach: Rollups zahlen pro Blob basierend auf der Größe und den aktuellen Gaspreisen. Im Gegensatz zu Ausführungsschichten (Execution Layers), in denen Rechenkosten dominieren, geht es bei der Datenverfügbarkeit grundlegend um Bandbreite und Speicherung – Ressourcen, die mit Hardwareverbesserungen berechenbarer skalieren.

Die Ökonomie erzeugt einen Schwungradeffekt (Flywheel): Niedrigere DA-Kosten ermöglichen mehr Rollups, mehr Rollups generieren mehr Gebühreneinnahmen, und die gestiegene Nutzung rechtfertigt Infrastrukturinvestitionen für noch größere Kapazitäten. Celestias aktueller Durchsatz von etwa 1,33 MB / s (8-MB-Blöcke alle 6 Sekunden) stellt eine Kapazität im Frühstadium dar, mit einem klaren Pfad zur 100-fachen Verbesserung.

Die 160-GB-Realität: Wer Celestia nutzt

Die Gesamtzahlen erzählen eine Geschichte schneller Akzeptanz. Seit dem Mainnet-Start wurden über 160 GB an Daten auf Celestia veröffentlicht, wobei das tägliche Datenvolumen im Durchschnitt bei etwa 2,5 GB liegt. Doch die Zusammensetzung dieser Daten offenbart interessantere Muster.

Eclipse: Der Volumen-Spitzenreiter

Eclipse – ein Layer 2, der die virtuelle Maschine von Solana mit dem Settlement auf Ethereum kombiniert – hat über 83 GB an Daten auf Celestia veröffentlicht, mehr als die Hälfte des gesamten Netzwerkvorgangs. Eclipse nutzt Celestia für die Datenverfügbarkeit, während das Settlement auf Ethereum erfolgt, was die modulare Architektur in der Praxis demonstriert.

Das Volumen überrascht angesichts der Designentscheidungen von Eclipse nicht. Die Ausführung der Solana Virtual Machine (SVM) erzeugt mehr Daten als EVM-Äquivalente, und der Fokus von Eclipse auf Hochdurchsatz-Anwendungen (Gaming, DeFi, Social) bedeutet Transaktionsvolumina, die auf Ethereum DA kostenintensiv wären.

Die Enterprise-Kohorte

Über Eclipse hinaus umfasst das Rollup-Ökosystem:

  • Manta Pacific: Über 7 GB gepostet, ein OP-Stack-Rollup, das sich auf ZK-Anwendungen mit Universal-Circuits-Technologie konzentriert
  • Plume Network: Ein auf RWA spezialisierter L2, der Celestia für Transaktionsdaten tokenisierter Vermögenswerte nutzt
  • Derive: On-Chain-Optionen und Handel mit strukturierten Produkten
  • Aevo: Dezentrale Derivatebörse, die Hochfrequenz-Handelsdaten verarbeitet
  • Orderly Network: Cross-Chain-Orderbuch-Infrastruktur

Sechsundzwanzig Rollups bauen nun auf Celestia auf, wobei die wichtigsten Frameworks – Arbitrum Orbit, OP Stack, Polygon CDK – Celestia als DA-Option anbieten. Rollups-as-a-Service-Plattformen wie Conduit und Caldera haben die Celestia-Integration zu einem Standardangebot gemacht.

Wachstum der Gebühreneinnahmen

Ende 2024 generierte Celestia etwa 225 $ pro Tag an Blob-Gebühren. Diese Zahl ist fast um das Zehnfache gestiegen, was sowohl die gestiegene Nutzung als auch die Fähigkeit des Netzwerks widerspiegelt, bei steigender Nachfrage Wert zu schöpfen. Der Gebührenmarkt befindet sich noch in einem frühen Stadium – die Kapazitätsauslastung ist im Vergleich zu getesteten Limits gering –, aber der Wachstumspfad bestätigt das Wirtschaftsmodell.

Kostenvergleich: Celestia vs. die Konkurrenz

Die Datenverfügbarkeit hat sich zu einem wettbewerbsorientierten Markt entwickelt. Das Verständnis der Kostenstrukturen hilft dabei, die Entscheidungen der Rollups nachzuvollziehen.

Celestia vs. Ethereum-Blobs

Ethereums EIP-4844 (Dencun-Upgrade) führte Blob-Transaktionen ein, wodurch die DA-Kosten im Vergleich zu Calldata um über 90 % gesenkt wurden. Celestia bleibt jedoch deutlich günstiger:

MetrikEthereum-BlobsCelestia
Kosten pro MB~ 3,83 $~ 0,07 $
KostenvorteilBasiswert55-mal günstiger
KapazitätBegrenzter Blob-Platz8-MB-Blöcke (skalierbar auf 1 GB)

Für Rollups mit hohem Volumen wie Eclipse ist dieser Unterschied existenziell. Zu Preisen von Ethereum-Blobs hätten die 83 GB an Daten von Eclipse über 300.000 gekostet.AufCelestiakosteteesetwa6.000gekostet. Auf Celestia kostete es etwa 6.000.

Celestia vs. EigenDA

EigenDA bietet ein anderes Wertversprechen: Auf Ethereum ausgerichtete Sicherheit durch Restaking, mit einem behaupteten Durchsatz von 100 MB / s. Die Abwägungen:

AspektCelestiaEigenDA
SicherheitsmodellUnabhängiges Validator-SetEthereum Restaking
Durchsatz1,33 MB / s (8-MB-Blöcke)100 MB / s (behauptet)
ArchitekturBlockchain-basiertData Availability Committee (DAC)
DezentralisierungÖffentliche VerifizierungVertrauensannahmen

Die DAC-Architektur von EigenDA ermöglicht einen höheren Durchsatz, führt jedoch Vertrauensannahmen ein, die vollständig Blockchain-basierte Lösungen vermeiden. Für Teams, die tief in das Ökosystem von Ethereum eingebunden sind, kann die Restaking-Integration von EigenDA die Unabhängigkeit von Celestia überwiegen.

Celestia vs. Avail

Avail positioniert sich als die flexibelste Option für Multichain-Anwendungen:

AspektCelestiaAvail
Kosten pro MBHöherNiedriger
Ökonomische SicherheitHöherNiedriger
Mainnet-Kapazität8-MB-Blöcke4-MB-Blöcke
Test-Kapazität128 MB nachgewiesen128 MB nachgewiesen

Die niedrigeren Kosten von Avail gehen mit einer geringeren ökonomischen Sicherheit einher – ein angemessener Kompromiss für Anwendungen, bei denen die marginalen Kosteneinsparungen wichtiger sind als maximale Sicherheitsgarantien.

Die Skalierungs-Roadmap: Von 1 MB / s zu 1 GB / s

Die aktuelle Kapazität von Celestia – etwa 1,33 MB / s – ist bewusst konservativ gewählt. Das Netzwerk hat in kontrollierten Tests einen dramatisch höheren Durchsatz demonstriert und bietet einen klaren Upgrade-Pfad.

Mammoth-Testergebnisse

Im Oktober 2024 erreichte das Mammoth Mini Devnet 88-MB-Blöcke mit 3-Sekunden-Blockzeiten, was einen Durchsatz von ca. 27 MB / s lieferte – mehr als das 20-fache der aktuellen Mainnet-Kapazität.

Im April 2025 ging das mamo-1 Testnet noch weiter: 128-MB-Blöcke mit 6-Sekunden-Blockzeiten erreichten einen dauerhaften Durchsatz von 21,33 MB / s. Dies entsprach der 16-fachen aktuellen Mainnet-Kapazität und beinhaltete neue Propagationsalgorithmen wie Vacuum!, die für effiziente Datenbewegungen bei großen Blöcken entwickelt wurden.

Fortschritt der Mainnet-Upgrades

Die Skalierung erfolgt schrittweise:

  • Ginger Upgrade (Dezember 2024): Reduzierung der Blockzeiten von 12 Sekunden auf 6 Sekunden
  • 8-MB-Block-Erhöhung (Januar 2025): Verdoppelung der Blockgröße durch On-Chain-Governance
  • Matcha Upgrade (Januar 2026): Ermöglichte 128-MB-Blöcke durch verbesserte Propagationsmechaniken, wodurch die Speicheranforderungen für Nodes um 77 % gesenkt wurden
  • Lotus Upgrade (Juli 2025): V4 Mainnet-Release mit weiteren Verbesserungen für TIA-Halter

Die Roadmap zielt auf Blöcke im Gigabyte-Bereich bis 2030 ab, was eine 1.000-fache Steigerung gegenüber der aktuellen Kapazität darstellt. Ob die Marktnachfrage wächst, um diese Kapazität zu rechtfertigen, bleibt ungewiss, aber der technische Pfad ist klar.

TIA Tokenomics: Wie Wert entsteht

Um die Ökonomie von Celestia zu verstehen, muss man die Rolle von TIA im System verstehen.

Token-Nutzen

TIA erfüllt drei Funktionen:

  1. Blob-Gebühren: Rollups zahlen TIA für die Datenverfügbarkeit (Data Availability)
  2. Staking: Validatoren staken TIA, um das Netzwerk zu sichern und Belohnungen zu verdienen
  3. Governance: Token-Inhaber stimmen über Netzwerkparameter und Upgrades ab

Der Gebührenmechanismus schafft eine direkte Verbindung zwischen der Netzwerknutzung und der Token-Nachfrage. Wenn die Anzahl der Blob-Einreichungen steigt, wird TIA gekauft und ausgegeben, was einen Kaufdruck erzeugt, der proportional zum Nutzen des Netzwerks ist.

Angebotsdynamik

TIA startete mit 1 Milliarde Genesis-Token. Die anfängliche Inflation wurde auf 8 % jährlich festgelegt und sinkt im Laufe der Zeit auf eine finale Inflation von 1,5 %.

Das Matcha-Upgrade im Januar 2026 führte Proof-of-Governance (PoG) ein, wodurch die jährliche Token-Emission von 5 % auf 0,25 % gesenkt wurde. Diese strukturelle Änderung:

  • Reduziert den Verkaufsdruck durch Inflation
  • Richtet Belohnungen an der Governance-Teilnahme aus
  • Stärkt die Werterfassung bei steigender Netzwerknutzung

Zusätzlich kündigte die Celestia Foundation für 2025 ein TIA-Rückkaufprogramm im Wert von 62,5 Millionen $ an, was das umlaufende Angebot weiter reduziert.

Validator-Ökonomie

Mit Wirkung zum Januar 2026 stieg die maximale Validator-Provision von 10 % auf 20 %. Dies trägt den steigenden Betriebskosten der Validatoren Rechnung – insbesondere bei wachsenden Blockgrößen – während gleichzeitig wettbewerbsfähige Staking-Renditen beibehalten werden.

Der Wettbewerbsvorteil: First-Mover oder nachhaltiger Vorteil?

Celestia's Marktanteil von 50 % im DA-Bereich und über 160 GB an geposteten Daten stellen eine klare Traktion dar. Aber Wettbewerbsvorteile (Moats) in der Infrastruktur können schnell erodieren.

Vorteile

Framework-Integration: Jedes größere Rollup-Framework – Arbitrum Orbit, OP Stack, Polygon CDK – unterstützt Celestia als DA-Option. Diese Integration schafft Wechselkosten und verringert die Reibung für neue Rollups.

Nachgewiesene Skalierung: Die 128-MB-Blocktests schaffen Vertrauen in die zukünftige Kapazität, das Wettbewerber in diesem Maße noch nicht demonstriert haben.

Ökonomische Ausrichtung: Die Proof-of-Governance-Tokenomics und Rückkaufprogramme ermöglichen eine stärkere Werterfassung als alternative Modelle.

Herausforderungen

EigenDAs Ethereum-Ausrichtung: Für Teams, die native Ethereum-Sicherheit priorisieren, könnte das Restaking-Modell von EigenDA trotz architektonischer Kompromisse attraktiver sein.

Avails Kostenvorteil: Für kostensensible Anwendungen könnten die niedrigeren Gebühren von Avail die Sicherheitsunterschiede überwiegen.

Ethereums native Verbesserung: Wenn Ethereum die Blob-Kapazität erheblich ausweitet (wie in verschiedenen Roadmap-Diskussionen vorgeschlagen), schrumpft der Kostenvorteil.

Die Frage des Ecosystem Lock-ins

Celestias wahrer Burggraben könnte der Ecosystem Lock-in sein. Die über 83 GB an Daten von Eclipse schaffen eine Pfadabhängigkeit — eine Migration zu einer anderen DA-Layer würde erhebliche Infrastrukturänderungen erfordern. Da immer mehr Rollups ihre Historie auf Celestia akkumulieren, steigen die Wechselkosten.

Was uns die Daten sagen

Celestias Blob-Ökonomie bestätigt die modulare These: Spezialisierte Infrastruktur für Data Availability kann drastisch günstiger sein als Allzweck-L1-Lösungen. Der 55-fache Kostenvorteil gegenüber Ethereum-Blobs ist keine Magie — er ist das Ergebnis einer zweckgebundenen Architektur, die für eine spezifische Funktion optimiert wurde.

Die über 160 GB an geposteten Daten beweisen, dass eine Marktnachfrage besteht. Das 10-fache Wachstum der Gebühreneinnahmen demonstriert die Wertschöpfung. Die Scaling-Roadmap schafft Vertrauen in die zukünftige Kapazität.

Für Rollup-Entwickler ist die Kalkulation einfach: Celestia bietet die am besten getestete und am stärksten integrierte DA-Lösung mit einem klaren Pfad zu Kapazitäten im Gigabyte-Bereich. EigenDA ist sinnvoll für Ethereum-native Projekte, die bereit sind, DAC-Vertrauensannahmen zu akzeptieren. Avail bedient Multichain-Anwendungen, die Flexibilität gegenüber maximaler Sicherheit priorisieren.

Der Markt für Data Availability bietet Platz für mehrere Gewinner, die unterschiedliche Segmente bedienen. Aber Celestias Kombination aus bewährter Skalierung, tiefgreifenden Integrationen und verbesserten Tokenomics positioniert es gut für die kommende Welle der Rollup-Expansion.


Sie bauen Rollups, die eine zuverlässige Data Availability-Infrastruktur benötigen? BlockEden.xyz bietet RPC-Endpunkte für über 30 Netzwerke, einschließlich bedeutender L2s, die auf Celestia DA aufbauen. Erkunden Sie unseren API-Marktplatz, um auf die Infrastruktur zuzugreifen, die Ihr modularer Stack benötigt.

Navigieren durch die Landschaft der Datenschutztechnologien: FHE, ZK und TEE in der Blockchain

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Als Zama im Juni 2025 das erste "Fully Homomorphic Encryption"-Unicorn wurde – mit einer Bewertung von über 1 Milliarde $ – signalisierte dies etwas Größeres als nur den Erfolg eines einzelnen Unternehmens. Die Blockchain-Industrie hatte endlich eine fundamentale Wahrheit akzeptiert: Privatsphäre ist keine Option, sondern Infrastruktur.

Doch hier ist die unangenehme Realität, mit der Entwickler konfrontiert sind: Es gibt keine einzige "beste" Datenschutztechnologie. Fully Homomorphic Encryption (FHE), Zero-Knowledge Proofs (ZK) und Trusted Execution Environments (TEE) lösen jeweils unterschiedliche Probleme mit unterschiedlichen Kompromissen. Eine falsche Wahl beeinträchtigt nicht nur die Leistung – sie kann das, was Sie aufbauen wollen, fundamental gefährden.

Dieser Leitfaden schlüsselt auf, wann welche Technologie eingesetzt werden sollte, welche Kompromisse Sie tatsächlich eingehen und warum die Zukunft wahrscheinlich darin besteht, dass alle drei zusammenarbeiten.

Die Technologielandschaft der Privatsphäre im Jahr 2026

Der Markt für Blockchain-Datenschutz hat sich von Nischenexperimenten zu einer ernsthaften Infrastruktur entwickelt. ZK-basierte Rollups sichern mittlerweile über 28 Milliarden anTotalValueLocked.AlleinderMarktfu¨rZeroKnowledgeKYCsollPrognosenzufolgevon83,6Millionenan Total Value Locked. Allein der Markt für Zero-Knowledge KYC soll Prognosen zufolge von 83,6 Millionen im Jahr 2025 auf 903,5 Millionen $ bis 2032 wachsen – eine durchschnittliche jährliche Wachstumsrate von 40,5 %.

Aber die Marktgröße allein hilft Ihnen nicht bei der Technologiewahl. Zu verstehen, was jeder Ansatz tatsächlich bewirkt, ist der Ausgangspunkt.

Zero-Knowledge Proofs: Beweisen ohne Preisgabe

ZK-Proofs ermöglichen es einer Partei, die Richtigkeit einer Aussage zu beweisen, ohne Informationen über den Inhalt selbst preiszugeben. Sie können beweisen, dass Sie über 18 Jahre alt sind, ohne Ihr Geburtsdatum zu nennen, oder beweisen, dass eine Transaktion gültig ist, ohne den Betrag offenzulegen.

So funktioniert es: Der Prover (Beweiser) erstellt einen kryptografischen Beweis dafür, dass eine Berechnung korrekt durchgeführt wurde. Der Verifier (Prüfer) kann diesen Beweis schnell überprüfen, ohne die Berechnung erneut auszuführen oder die zugrunde liegenden Daten zu sehen.

Der Haken: ZK ist hervorragend darin, Dinge über Daten zu beweisen, die Sie bereits besitzen. Schwierigkeiten bereitet es bei einem geteilten Status (shared state). Sie können beweisen, dass Ihr Guthaben für eine Transaktion ausreicht, aber Sie können ohne zusätzliche Infrastruktur nicht einfach Fragen stellen wie "Wie viele Betrugsfälle gab es netzwerkweit?" oder "Wer hat diese Auktion mit verdeckten Geboten gewonnen?".

Führende Projekte: Aztec ermöglicht hybride öffentliche/private Smart Contracts, bei denen Benutzer wählen können, ob Transaktionen sichtbar sind. zkSync konzentriert sich primär auf Skalierbarkeit mit unternehmensorientierten "Prividiums" für autorisierten Datenschutz. Railgun und Nocturne bieten geschützte Transaktionspools.

Fully Homomorphic Encryption: Rechnen auf verschlüsselten Daten

FHE wird oft als der "Heilige Gral" der Verschlüsselung bezeichnet, da sie Berechnungen auf verschlüsselten Daten ermöglicht, ohne diese jemals entschlüsseln zu müssen. Die Daten bleiben während der Verarbeitung verschlüsselt, und die Ergebnisse bleiben verschlüsselt – nur die autorisierte Partei kann die Ausgabe entschlüsseln.

So funktioniert es: Mathematische Operationen werden direkt auf Chiffretexten ausgeführt. Additionen und Multiplikationen auf verschlüsselten Werten ergeben verschlüsselte Resultate, die nach der Entschlüsselung genau dem entsprechen, was man bei der Berechnung mit Klartext erhalten würde.

Der Haken: Der Rechenaufwand ist massiv. Selbst mit den jüngsten Optimierungen erreichen FHE-basierte Smart Contracts im Inco-Netzwerk je nach Hardware nur 10–30 TPS – Größenordnungen langsamer als die Ausführung im Klartext.

Führende Projekte: Zama bietet die grundlegende Infrastruktur mit FHEVM (ihrer voll homomorphen EVM). Fhenix entwickelt Anwendungslösungen auf Basis der Zama-Technologie und hat den CoFHE-Coprozessor auf Arbitrum bereitgestellt, mit Entschlüsselungsgeschwindigkeiten, die bis zu 50-mal schneller sind als bei konkurrierenden Ansätzen.

Trusted Execution Environments: Hardwarebasierte Isolierung

TEEs schaffen sichere Enklaven innerhalb von Prozessoren, in denen Berechnungen isoliert stattfinden. Daten innerhalb der Enklave bleiben geschützt, selbst wenn das übergeordnete System kompromittiert wird. Im Gegensatz zu kryptografischen Ansätzen verlassen sich TEEs auf Hardware statt auf mathematische Komplexität.

So funktioniert es: Spezialisierte Hardware (Intel SGX, AMD SEV) erstellt isolierte Speicherbereiche. Code und Daten innerhalb der Enklave sind verschlüsselt und für das Betriebssystem, den Hypervisor oder andere Prozesse unzugänglich – selbst mit Root-Zugriff.

Der Haken: Man vertraut den Hardwareherstellern. Jede einzelne kompromittierte Enklave kann Klartext preisgeben, unabhängig davon, wie viele Knoten teilnehmen. Im Jahr 2022 zwang eine kritische SGX-Schwachstelle zu koordinierten Schlüssel-Updates im gesamten Secret Network, was die betriebliche Komplexität hardwareabhängiger Sicherheit verdeutlichte.

Führende Projekte: Secret Network leistete Pionierarbeit bei privaten Smart Contracts mit Intel SGX. Oasis Networks Sapphire ist die erste vertrauliche EVM im Produktivbetrieb und verarbeitet bis zu 10.000 TPS. Phala Network betreibt über 1.000 TEE-Knoten für vertrauliche KI-Workloads.

Die Tradeoff-Matrix: Leistung, Sicherheit und Vertrauen

Das Verständnis der grundlegenden Kompromisse hilft dabei, die Technologie an den jeweiligen Anwendungsfall anzupassen.

Leistung

TechnologieDurchsatzLatenzKosten
TEENahezu nativ (10.000+ TPS)NiedrigNiedrige Betriebskosten
ZKModerat (variiert je nach Implementierung)Höher (Beweiserstellung)Mittel
FHENiedrig (aktuell 10–30 TPS)HochSehr hohe Betriebskosten

TEEs gewinnen bei der reinen Leistung, da sie im Wesentlichen nativen Code im geschützten Speicher ausführen. ZK führt zu einem Overhead bei der Beweiserstellung, aber die Verifizierung ist schnell. FHE erfordert derzeit intensive Berechnungen, die den praktischen Durchsatz einschränken.

Sicherheitsmodell

TechnologieVertrauensannahmePost-QuantumFehlermodus
TEEHardwareherstellerNicht resistentKompromittierung einer einzelnen Enklave legt alle Daten offen
ZKKryptographisch (oft Trusted Setup)Variiert nach SchemaFehler im Beweissystem können unsichtbar bleiben
FHEKryptographisch (gitterbasiert)ResistentRechenintensiv auszunutzen

TEEs erfordern Vertrauen in Intel, AMD oder den jeweiligen Hardwarehersteller – sowie das Vertrauen darauf, dass keine Firmware-Schwachstellen existieren. ZK-Systeme erfordern oft „Trusted Setup“-Zeremonien, obwohl neuere Schemata dies eliminieren. Die gitterbasierte Kryptographie von FHE gilt als quantenresistent, was sie zur stärksten langfristigen Sicherheitswette macht.

Programmierbarkeit

TechnologieKomponierbarkeitZustands-PrivatsphäreFlexibilität
TEEHochVollständigBegrenzt durch Hardware-Verfügbarkeit
ZKBegrenztLokal (clientseitig)Hoch für die Verifizierung
FHEVollständigGlobalBegrenzt durch Performance

ZK zeichnet sich durch lokale Privatsphäre aus – den Schutz Ihrer Eingaben –, hat aber Schwierigkeiten mit dem gemeinsamen Zustand über Benutzer hinweg. FHE behält die volle Komponierbarkeit bei, da auf verschlüsselten Zuständen von jedem gerechnet werden kann, ohne den Inhalt preiszugeben. TEEs bieten eine hohe Programmierbarkeit, sind jedoch auf Umgebungen mit kompatibler Hardware beschränkt.

Die Wahl der richtigen Technologie: Anwendungsfallanalyse

Unterschiedliche Anwendungen erfordern unterschiedliche Kompromisse. Hier erfahren Sie, wie führende Projekte diese Entscheidungen treffen.

DeFi: MEV-Schutz und privater Handel

Herausforderung: Front-Running und Sandwich-Angriffe entziehen DeFi-Nutzern Milliarden, indem sie sichtbare Mempools ausnutzen.

FHE-Lösung: Die vertrauliche Blockchain von Zama ermöglicht Transaktionen, bei denen die Parameter bis zur Blockaufnahme verschlüsselt bleiben. Front-Running wird mathematisch unmöglich – es gibt keine sichtbaren Daten, die ausgenutzt werden könnten. Der Mainnet-Launch im Dezember 2025 beinhaltete den ersten vertraulichen Stablecoin-Transfer mittels cUSDT.

TEE-Lösung: Sapphire vom Oasis Network ermöglicht vertrauliche Smart Contracts für Dark Pools und privates Order-Matching. Die geringere Latenz macht es für Hochfrequenzhandel-Szenarien geeignet, in denen der Rechenaufwand von FHE zu hoch ist.

Wann zu wählen: FHE für Anwendungen, die die stärksten kryptographischen Garantien und globale Zustands-Privatsphäre erfordern. TEE, wenn die Performance-Anforderungen das übersteigen, was FHE liefern kann, und Hardware-Vertrauen akzeptabel ist.

Identität und Nachweise: Datenschutzfreundliches KYC

Herausforderung: Nachweis von Identitätsmerkmalen (Alter, Staatsbürgerschaft, Akkreditierung), ohne Dokumente offenzulegen.

ZK-Lösung: Zero-Knowledge-Nachweise ermöglichen es Nutzern, „KYC bestanden“ zu beweisen, ohne die zugrunde liegenden Dokumente preiszugeben. Dies erfüllt Compliance-Anforderungen und schützt gleichzeitig die Privatsphäre der Nutzer – ein entscheidendes Gleichgewicht angesichts des zunehmenden regulatorischen Drucks.

Warum ZK hier gewinnt: Bei der Identitätsverifizierung geht es grundlegend darum, Aussagen über persönliche Daten zu beweisen. ZK ist dafür prädestiniert: kompakte Beweise, die verifizieren, ohne etwas preiszugeben. Die Verifizierung ist schnell genug für die Echtzeitnutzung.

Vertrauliche KI und sensible Berechnungen

Herausforderung: Verarbeitung sensibler Daten (Gesundheitswesen, Finanzmodelle) ohne Offenlegung gegenüber den Betreibern.

TEE-Lösung: Die TEE-basierte Cloud von Phala Network verarbeitet LLM-Anfragen ohne Plattformzugriff auf die Eingaben. Mit GPU-TEE-Unterstützung (NVIDIA H100 / H200) laufen vertrauliche KI-Workloads mit praktikabler Geschwindigkeit.

FHE-Potenzial: Mit verbesserter Performance ermöglicht FHE Berechnungen, bei denen selbst der Hardware-Betreiber nicht auf Daten zugreifen kann – wodurch die Vertrauensannahme vollständig entfällt. Aktuelle Einschränkungen beschränken dies auf einfachere Berechnungen.

Hybrider Ansatz: Erste Datenverarbeitung in TEEs für Geschwindigkeit, FHE für die sensibelsten Operationen und Erstellung von ZK-Proofs zur Verifizierung der Ergebnisse.

Die Realität der Schwachstellen

Jede Technologie ist in der Produktion bereits gescheitert – das Verständnis der Fehlermodi ist essenziell.

TEE-Fehler

Im Jahr 2022 betrafen kritische SGX-Schwachstellen mehrere Blockchain-Projekte. Secret Network, Phala, Crust und IntegriTEE erforderten koordinierte Patches. Oasis überlebte, da seine Kernsysteme auf dem älteren SGX v1 laufen (nicht betroffen) und für die Sicherheit der Gelder nicht ausschließlich auf die Geheimhaltung der Enklave angewiesen sind.

Lektion: Die TEE-Sicherheit hängt von Hardware ab, die Sie nicht kontrollieren. Defense-in-Depth (Schlüsselrotation, Schwellenwert-Kryptographie, minimale Vertrauensannahmen) ist zwingend erforderlich.

ZK-Fehler

Am 16. April 2025 patchte Solana eine Zero-Day-Schwachstelle in seiner Funktion für vertrauliche Transfers (Confidential Transfers). Der Fehler hätte eine unbegrenzte Token-Erstellung ermöglichen können. Der gefährliche Aspekt von ZK-Fehlern: Wenn Beweise fehlschlagen, geschieht dies unsichtbar. Man kann nicht sehen, was nicht da sein sollte.

Lektion: ZK-Systeme erfordern umfassende formale Verifizierung und Audits. Die Komplexität von Beweissystemen schafft eine Angriffsfläche, die schwer zu erfassen ist.

FHE-Überlegungen

FHE hat noch keine größeren Produktionsausfälle erlebt – primär, weil es sich noch in einer frühen Phase der Implementierung befindet. Das Risikoprofil unterscheidet sich: FHE ist rechenintensiv anzugreifen, aber Implementierungsfehler in komplexen kryptographischen Bibliotheken könnten subtile Schwachstellen ermöglichen.

Lektion: Neuere Technologie bedeutet weniger Praxistests. Die kryptographischen Garantien sind stark, aber die Implementierungsebene bedarf ständiger Überprüfung.

Hybride Architekturen: Die Zukunft ist kein Entweder-Oder

Die anspruchsvollsten Datenschutzsysteme kombinieren mehrere Technologien und nutzen jede dort, wo sie ihre Stärken hat.

ZK + FHE Integration

Benutzerzustände (Kontostände, Präferenzen) werden mit FHE-Verschlüsselung gespeichert. ZK-Proofs verifizieren gültige Zustandsübergänge, ohne verschlüsselte Werte offenzulegen. Dies ermöglicht eine private Ausführung innerhalb skalierbarer L2-Umgebungen – eine Kombination aus der globalen Zustands-Privatsphäre von FHE und der effizienten Verifizierung von ZK.

TEE + ZK Kombination

TEEs verarbeiten sensible Berechnungen mit nahezu nativer Geschwindigkeit. ZK-Proofs verifizieren, dass die TEE-Ausgaben korrekt sind, wodurch die Vertrauensannahme gegenüber einem einzelnen Betreiber entfällt. Falls die TEE kompromittiert wird, würden ungültige Ausgaben die ZK-Verifizierung nicht bestehen.

Wann man was verwendet

Ein praktischer Entscheidungsrahmen:

Wählen Sie TEE, wenn:

  • Die Performance kritisch ist (Hochfrequenzhandel, Echtzeitanwendungen)
  • Hardware-Vertrauen für Ihr Bedrohungsmodell akzeptabel ist
  • Sie große Datenmengen schnell verarbeiten müssen

Wählen Sie ZK, wenn:

  • Sie Aussagen über vom Client gehaltene Daten beweisen
  • Die Verifizierung schnell und kostengünstig sein muss
  • Sie keine globale Zustands-Privatsphäre benötigen

Wählen Sie FHE, wenn:

  • Der globale Zustand verschlüsselt bleiben muss
  • Post-Quanten-Sicherheit erforderlich ist
  • Die Rechenkomplexität für Ihren Anwendungsfall akzeptabel ist

Wählen Sie Hybrid, wenn:

  • Verschiedene Komponenten unterschiedliche Sicherheitsanforderungen haben
  • Sie Performance mit Sicherheitsgarantien abwägen müssen
  • Regulatorische Compliance nachweisbaren Datenschutz erfordert

Was als Nächstes kommt

Vitalik Buterin plädierte kürzlich für standardisierte „Effizienzverhältnisse“ – den Vergleich der kryptografischen Rechenzeit mit der Klartext-Ausführung. Dies spiegelt die Reife der Branche wider: Wir bewegen uns von der Frage „Funktioniert es?“ hin zu „Wie effizient funktioniert es?“.

Die FHE-Performance verbessert sich stetig. Zamas Mainnet im Dezember 2025 beweist die Produktionsreife für einfache Smart Contracts. Mit der Weiterentwicklung der Hardwarebeschleunigung (GPU-Optimierung, kundenspezifische ASICs) wird sich die Durchsatzlücke zu TEEs verringern.

ZK-Systeme werden ausdrucksstärker. Die Noir-Sprache von Aztec ermöglicht komplexe private Logik, die vor Jahren noch unpraktikabel gewesen wäre. Standards konvergieren langsam und ermöglichen die kettenübergreifende Verifizierung von ZK-Credentials.

Die TEE-Vielfalt geht über Intel SGX hinaus. Implementierungen von AMD SEV, ARM TrustZone und RISC-V reduzieren die Abhängigkeit von einem einzelnen Hersteller. Schwellenwert-Kryptografie über mehrere TEE-Anbieter hinweg könnte das Problem des Single-Point-of-Failure lösen.

Der Aufbau der Datenschutz-Infrastruktur findet jetzt statt. Für Entwickler, die datenschutzrelevante Anwendungen erstellen, geht es bei der Wahl nicht darum, die perfekte Technologie zu finden – sondern darum, die Kompromisse gut genug zu verstehen, um sie intelligent zu kombinieren.


Bauen Sie datenschutzfreundliche Anwendungen auf der Blockchain? BlockEden.xyz bietet Hochleistungs-RPC-Endpunkte über 30+ Netzwerke hinweg, einschließlich datenschutzorientierter Chains. Entdecken Sie unseren API-Marktplatz, um auf die Infrastruktur zuzugreifen, die Ihre vertraulichen Anwendungen benötigen.

Die Blockchain-Performance-Revolution: Wie 2025 Skalierbarkeit und Gebühren neu definiert hat

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn sich die Debatten über die Blockchain-Performance von 2021–2023 bereits wie Steinzeit anfühlen würden? Im Jahr 2025 hat die Branche leise eine Schwelle überschritten, von der sowohl Risikokapitalgeber als auch Skeptiker dachten, sie sei noch Jahre entfernt: Mehrere Mainnets verarbeiten mittlerweile routinemäßig Tausende von Transaktionen pro Sekunde, während die Gebühren unter einem Cent bleiben. Die Ära von „Blockchain ist nicht skalierbar“ ist offiziell beendet.

Hier geht es nicht um theoretische Benchmarks oder Testnet-Versprechen. Echte Nutzer, echte Anwendungen und echtes Geld fließen durch Netzwerke, die noch vor zwei Jahren wie Science-Fiction gewirkt hätten. Lassen Sie uns die harten Zahlen hinter der Performance-Revolution der Blockchain untersuchen.

Die neuen TPS-Spitzenreiter: Kein Zweikampf mehr

Die Performance-Landschaft hat sich grundlegend verändert. Während Bitcoin und Ethereum jahrelang die Blockchain-Gespräche dominierten, etablierte 2025 eine neue Generation von Geschwindigkeits-Champions.

Solana stellte am 17. August 2025 den Rekord auf, der Schlagzeilen machte, indem es 107.664 Transaktionen pro Sekunde auf seinem Mainnet verarbeitete – nicht in einem Labor, sondern unter realen Bedingungen. Dies war kein einmaliger Peak; das Netzwerk demonstrierte einen nachhaltig hohen Durchsatz, der jahrelange architektonische Entscheidungen validiert, die Performance priorisierten.

Aber Solanas Erfolg ist nur ein Datenpunkt in einer breiteren Revolution:

  • Aptos hat 13.367 TPS im Mainnet ohne Ausfälle, Verzögerungen oder Gas-Fee-Spitzen demonstriert. Ihre Block-STM Parallel Execution Engine unterstützt theoretisch bis zu 160.000 TPS.
  • Sui hat 297.000 TPS in kontrollierten Tests bewiesen, wobei die Mainnet-Peaks bei typischer Nutzung 822 TPS erreichten und der Mysticeti v2 Konsens eine Latenz von nur 390 ms erzielte.
  • BNB Chain liefert in der Produktion konsistent rund 2.200 TPS, wobei die Hard Forks Lorentz und Maxwell 4x schnellere Blockzeiten ermöglichen.
  • Avalanche verarbeitet 4.500 TPS durch seine einzigartige Subnet-Architektur, die eine horizontale Skalierung über spezialisierte Chains hinweg ermöglicht.

Diese Zahlen stellen eine 10- bis 100-fache Verbesserung gegenüber dem dar, was dieselben Netzwerke im Jahr 2023 erreicht haben. Noch wichtiger ist, dass es sich nicht um theoretische Maximalwerte handelt – es ist beobachtete, überprüfbare Performance unter tatsächlichen Nutzungsbedingungen.

Firedancer: Der Eine-Million-TPS-Client, der alles verändert hat

Der bedeutendste technische Durchbruch des Jahres 2025 war keine neue Blockchain – es war Firedancer, Jump Cryptos vollständige Neuimplementierung des Solana Validator-Clients. Nach drei Jahren Entwicklung ging Firedancer am 12. Dezember 2025 im Mainnet live.

Die Zahlen sind atemberaubend. In Demonstrationen auf der Breakpoint 2024 zeigte Jump's Chief Scientist Kevin Bowers, wie Firedancer über 1 Million Transaktionen pro Sekunde auf Standard-Hardware verarbeitet. Benchmarks zeigten in kontrollierten Tests konsistent 600.000 bis 1.000.000 TPS – 20-mal höher als der nachgewiesene Durchsatz des vorherigen Agave-Clients.

Was macht Firedancer anders? Die Architektur. Im Gegensatz zum monolithischen Design von Agave verwendet Firedancer eine modulare, kachelbasierte Architektur, die Validator-Aufgaben aufteilt, um sie parallel auszuführen. Geschrieben in C statt in Rust, wurde jede Komponente von Grund auf für maximale Performance optimiert.

Die Adoptionskurve spricht für sich. Frankendancer, eine hybride Implementierung, die den Networking-Stack von Firedancer mit der Runtime von Agave kombiniert, läuft nun auf 207 Validatoren, was 20,9 % aller gestakten SOL entspricht – ein Anstieg von nur 8 % im Juni 2025. Dies ist keine experimentelle Software mehr; es ist Infrastruktur, die Milliarden von Dollar sichert.

Das Alpenglow-Upgrade von Solana im September 2025 fügte eine weitere Ebene hinzu, indem die ursprünglichen Proof of History- und TowerBFT-Mechanismen durch die neuen Votor- und Rotor-Systeme ersetzt wurden. Das Ergebnis: 150 ms Block-Finalität und Unterstützung für mehrere gleichzeitige Leader, was eine parallele Ausführung ermöglicht.

Gebühren unter einem Cent: Die stille Revolution von EIP-4844

Während TPS-Zahlen die Schlagzeilen beherrschen, ist die Gebühren-Revolution gleichermaßen transformativ. Ethereums EIP-4844 Upgrade im März 2024 strukturierte grundlegend um, wie Layer-2-Netzwerke für Datenverfügbarkeit bezahlen, und bis 2025 waren die Auswirkungen nicht mehr zu ignorieren.

Der Mechanismus ist elegant: Blob-Transaktionen bieten temporären Datenspeicher für Rollups zu einem Bruchteil der bisherigen Kosten. Wo Layer 2s früher um teuren Calldata-Platz konkurrierten, bieten Blobs eine 18-tägige temporäre Speicherung, die Rollups tatsächlich benötigen.

Die Auswirkungen auf die Gebühren waren unmittelbar und dramatisch:

  • Arbitrum-Gebühren sanken von 0,37 auf0,012auf 0,012 pro Transaktion.
  • Optimism fiel von 0,32 auf0,009auf 0,009.
  • Base erreichte Gebühren von nur 0,01 $.

Dies sind keine Aktionspreise oder subventionierten Transaktionen – es sind nachhaltige Betriebskosten, die durch architektonische Verbesserungen ermöglicht wurden. Ethereum bietet nun effektiv eine 10- bis 100-mal günstigere Datenspeicherung für Layer-2-Lösungen an.

Der Anstieg der Aktivitäten folgte erwartungsgemäß. Base verzeichnete nach dem Upgrade einen Anstieg der täglichen Transaktionen um 319,3 %, Arbitrum stieg um 45,7 % und Optimism um 29,8 %. Nutzer und Entwickler reagierten genau so, wie es die Wirtschaftswissenschaft vorausgesagt hat: Wenn Transaktionen billig genug werden, explodiert die Nutzung.

Das Pectra-Upgrade im Mai 2025 ging noch weiter, indem es den Blob-Durchsatz von 6 auf 9 Blobs pro Block erhöhte und das Gas-Limit auf 37,3 Millionen anhob. Ethereums effektive TPS über Layer 2s übersteigt nun 100.000, wobei die durchschnittlichen Transaktionskosten in L2-Netzwerken auf 0,08 $ gesunken sind.

Die Performance-Lücke in der realen Welt

Hier ist das, was die Benchmarks Ihnen nicht verraten: Theoretische TPS und beobachtete TPS bleiben sehr unterschiedliche Zahlen. Diese Lücke offenbart wichtige Wahrheiten über die Reife der Blockchain.

Betrachten wir Avalanche. Während das Netzwerk theoretisch 4.500 TPS unterstützt, liegt die beobachtete Aktivität im Durchschnitt bei etwa 18 TPS, wobei die C-Chain eher bei 3-4 TPS liegt. Sui demonstriert in Tests 297.000 TPS, erreicht aber im Mainnet Spitzenwerte von 822 TPS.

Dies ist kein Misserfolg – es ist der Beweis für Kapazitätsreserven. Diese Netzwerke können massive Nachfragespitzen ohne Leistungseinbußen bewältigen. Wenn der nächste NFT-Hype oder DeFi-Sommer kommt, wird die Infrastruktur nicht einknicken.

Die praktischen Auswirkungen sind für Entwickler enorm:

  • Gaming-Anwendungen benötigen konsistente niedrige Latenzzeiten mehr als Spitzen-TPS.
  • DeFi-Protokolle erfordern vorhersehbare Gebühren während Phasen hoher Volatilität.
  • Zahlungssysteme verlangen einen zuverlässigen Durchsatz während der Einkaufshochzeiten an Feiertagen.
  • Unternehmensanwendungen benötigen garantierte SLAs, unabhängig von den Netzwerkbedingungen.

Netzwerke mit signifikanten Kapazitätsreserven können diese Garantien bieten. Netzwerke, die nahe an ihrer Kapazitätsgrenze arbeiten, können dies nicht.

Move VM Chains: Der Vorteil der Performance-Architektur

Bei der Untersuchung der Top-Performer des Jahres 2025 zeichnet sich ein Muster ab: Die Programmiersprache Move taucht immer wieder auf. Sowohl Sui als auch Aptos, die von Teams mit Facebook/Diem-Hintergrund entwickelt wurden, nutzen das objektzentrierte Datenmodell von Move für Parallelisierungsvorteile, die in Blockchains mit Account-Modell unmöglich sind.

Die Block-STM-Engine von Aptos demonstriert dies deutlich. Durch die gleichzeitige statt sequentielle Verarbeitung von Transaktionen erreichte das Netzwerk in Spitzenzeiten 326 Millionen erfolgreiche Transaktionen an einem einzigen Tag – bei durchschnittlichen Gebühren von etwa 0,002 $.

Der Ansatz von Sui unterscheidet sich, folgt aber ähnlichen Prinzipien. Das Mysticeti-Konsensprotokoll erreicht eine Latenz von 390 ms, indem es Objekte anstelle von Konten als fundamentale Einheit behandelt. Transaktionen, die nicht dieselben Objekte berühren, werden automatisch parallel ausgeführt.

Beide Netzwerke zogen im Jahr 2025 signifikantes Kapital an. Der BUIDL-Fonds von BlackRock fügte Aptos im Oktober tokenisierte Vermögenswerte im Wert von 500 Millionen $ hinzu, was es zur zweitgrößten BUIDL-Chain macht. Aptos betrieb auch das offizielle digitale Wallet für die Expo 2025 in Osaka, verarbeitete über 558.000 Transaktionen und band mehr als 133.000 Nutzer an – eine praxisnahe Validierung in großem Maßstab.

Was hohe TPS tatsächlich ermöglichen

Was ermöglichen Tausende von TPS über das Prestige hinaus?

Settlement auf institutionellem Niveau: Bei der Verarbeitung von über 2.000 TPS mit Finalität im Sub-Sekunden-Bereich konkurrieren Blockchains direkt mit traditionellen Zahlungsschienen. Die Lorentz- und Maxwell-Upgrades der BNB Chain zielten spezifisch auf ein "Settlement auf Nasdaq-Niveau" für institutionelles DeFi ab.

Wirtschaftlichkeit von Mikrotransaktionen: Bei 0,01 proTransaktionwerdenGescha¨ftsmodelleprofitabel,diebeiGebu¨hrenvon5pro Transaktion werden Geschäftsmodelle profitabel, die bei Gebühren von 5 unmöglich wären. Streaming-Zahlungen, Abrechnungen pro API-Aufruf und granulare Lizenzgebührenverteilung erfordern alle eine Ökonomie im Bereich von Bruchteilen eines Cents.

Synchronisierung von Spielzuständen: Blockchain-Gaming erfordert die Aktualisierung von Spielerzuständen hunderte Male pro Sitzung. Die Performance-Level von 2025 ermöglichen endlich echtes On-Chain-Gaming anstelle der reinen Settlement-Modelle früherer Jahre.

IoT und Sensornetzwerke: Wenn Geräte für Bruchteile eines Cents transagieren können, werden Lieferkettenverfolgung, Umweltüberwachung und Maschine-zu-Maschine-Zahlungen wirtschaftlich rentabel.

Der rote Faden: Die Performance-Verbesserungen von 2025 haben bestehende Anwendungen nicht nur schneller gemacht – sie haben völlig neue Kategorien der Blockchain-Nutzung ermöglicht.

Die Debatte über den Dezentralisierungs-Kompromiss

Kritiker stellen zu Recht fest, dass rohe TPS oft mit einer verringerten Dezentralisierung korrelieren. Solana betreibt weniger Validatoren als Ethereum. Aptos und Sui erfordern teurere Hardware. Diese Kompromisse sind real.

Aber 2025 hat auch gezeigt, dass die binäre Wahl zwischen Geschwindigkeit und Dezentralisierung falsch ist. Das Layer-2-Ökosystem von Ethereum liefert über 100.000 effektive TPS und übernimmt dabei die Sicherheitsgarantien von Ethereum. Firedancer verbessert den Durchsatz von Solana, ohne die Anzahl der Validatoren zu verringern.

Die Branche lernt, sich zu spezialisieren: Settlement-Layer optimieren für Sicherheit, Ausführungs-Layer optimieren für Geschwindigkeit und ordnungsgemäßes Bridging verbindet sie. Dieser modulare Ansatz – Datenverfügbarkeit von Celestia, Ausführung durch Rollups, Settlement auf Ethereum – erreicht Geschwindigkeit, Sicherheit und Dezentralisierung durch Komposition statt durch Kompromisse.

Ausblick: Das Millionen-TPS Mainnet

Wenn 2025 High-TPS-Mainnets als Realität statt als Versprechen etabliert hat, was kommt als Nächstes?

Das Fusaka-Upgrade von Ethereum wird vollständiges Danksharding über PeerDAS einführen, was potenziell Millionen von TPS über Rollups hinweg ermöglicht. Der Produktionseinsatz von Firedancer soll Solana in Richtung seiner getesteten Kapazität von 1 Million TPS treiben. Neue Marktteilnehmer tauchen weiterhin mit neuartigen Architekturen auf.

Noch wichtiger ist, dass die Entwicklererfahrung gereift ist. Das Erstellen von Anwendungen, die Tausende von TPS erfordern, ist kein Forschungsprojekt mehr – es ist Standardpraxis. Das Tooling, die Dokumentation und die Infrastruktur, die die Entwicklung von Hochleistungs-Blockchains im Jahr 2025 unterstützen, wären für einen Entwickler aus dem Jahr 2021 nicht wiederzuerkennen.

Die Frage ist nicht mehr, ob die Blockchain skalieren kann. Die Frage ist, was wir bauen werden, jetzt wo sie es kann.


BlockEden.xyz bietet RPC- und API-Zugang auf Unternehmensniveau für Hochleistungs-Chains wie Sui, Aptos und Solana. Wenn Ihre Anwendung den Durchsatz und die Zuverlässigkeit erfordert, die die Performance-Revolution von 2025 ermöglicht, erkunden Sie unsere Infrastruktur, die für die Blockchain-Entwicklung auf Produktionsniveau konzipiert wurde.

PeerDAS erklärt: Wie Ethereum Daten verifiziert, ohne alles herunterzuladen

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Sie die Existenz eines 500-seitigen Buches verifizieren könnten, ohne eine einzige Seite zu lesen? Genau das hat Ethereum mit PeerDAS gelernt – und es gestaltet im Stillen neu, wie Blockchains skalieren können, ohne die Dezentralisierung zu opfern.

Am 3. Dezember 2025 aktivierte Ethereum das Fusaka-Upgrade und führte PeerDAS (Peer Data Availability Sampling) als Hauptfeature ein. Während sich die meisten Schlagzeilen auf die Senkung der Gebühren für Layer 2-Netzwerke um 40 - 60 % konzentrierten, stellt der zugrunde liegende Mechanismus etwas viel Bedeutenderes dar: einen grundlegenden Wandel in der Art und Weise, wie Blockchain-Nodes die Existenz von Daten beweisen, ohne diese tatsächlich vollständig zu speichern.

Pharos Network: Wie Veteranen der Ant Group die „GPU der Blockchains“ für einen 10 Billionen Dollar schweren RWA-Markt bauen

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Als der ehemalige CTO von Ant Chain und der Chief Security Officer der Web3-Abteilung von Ant Financial eines der weltweit größten Fintech-Unternehmen verließen, um eine Blockchain von Grund auf neu zu entwickeln, horchte die Branche auf. Ihre Wette? Dass der 24 Milliarden Dollar schwere Markt für tokenisierte Real-World Assets (RWA) kurz davor steht, in die Billionen zu explodieren — und bestehende Blockchains nicht darauf vorbereitet sind.

Pharos Network, die hochperformante Layer 1, die sie aufbauen, hat gerade eine Seed-Finanzierungsrunde in Höhe von 8 Millionen Dollar abgeschlossen, angeführt von Lightspeed Faction und Hack VC. Die interessantere Zahl ist jedoch die angekündigte RWA-Pipeline im Wert von 1,5 Milliarden Dollar in Zusammenarbeit mit Ant Digital Technologies, dem Web3-Arm ihres früheren Arbeitgebers. Dies ist kein spekulatives DeFi-Projekt — es ist eine Wette auf eine Infrastruktur auf institutionellem Niveau, die von Experten unterstützt wird, die bereits Finanzsysteme für Milliarden von Transaktionen entwickelt haben.

Die DNA der Ant Group: Bauen für eine Skalierbarkeit, die sie bereits kennen

Alex Zhang, CEO von Pharos, war jahrelang CTO von Ant Chain und überwachte die Blockchain-Infrastruktur, die Transaktionen für Hunderte Millionen Nutzer im Alibaba-Ökosystem verarbeitete. Mitgründer und CTO Meng Wu war für die Sicherheit der Web3-Abteilung von Ant Financial verantwortlich und schützte einige der wertvollsten Finanzinfrastrukturen in Asien.

Ihre Diagnose der aktuellen Blockchain-Landschaft ist ungeschönt: Bestehende Netzwerke wurden nicht für die tatsächlichen Anforderungen der Finanzindustrie konzipiert. Solana optimiert auf Geschwindigkeit, lässt aber die Compliance-Primitiven vermissen, die Institutionen benötigen. Ethereum priorisiert Dezentralisierung, kann aber nicht die Finalität im Sub-Sekunden-Bereich liefern, die Echtzeitzahlungen erfordern. Das „institutionelle Solana“ existiert noch nicht.

Pharos möchte diese Lücke mit einer sogenannten „Full-Stack Parallel Blockchain“ schließen — einem Netzwerk, das von Grund auf für die spezifischen Anforderungen tokenisierter Vermögenswerte, grenzüberschreitender Zahlungen und Enterprise DeFi entwickelt wurde.

Die technische Architektur: Über die sequenzielle Verarbeitung hinaus

Die meisten Blockchains verarbeiten Transaktionen sequenziell, wie eine einzelne Warteschlange in einer Bank. Selbst die jüngsten Upgrades von Ethereum und die parallele Verarbeitung von Solana behandeln die Blockchain als ein vereinheitlichtes System mit fundamentalen Durchsatzgrenzen. Pharos verfolgt einen anderen Ansatz und implementiert eine Optimierung des „Grads der Parallelisierung“ (Degree of Parallelism) — im Wesentlichen wird die Blockchain eher wie eine GPU als eine CPU behandelt.

Das Drei-Schichten-Design:

  • L1-Base: Bietet Datenverfügbarkeit mit Hardwarebeschleunigung und verarbeitet die Rohspeicherung sowie den Abruf von Blockchain-Daten in Geschwindigkeiten, die herkömmliche Netzwerke nicht erreichen können.

  • L1-Core: Implementiert einen neuartigen BFT-Konsens, der es mehreren Validator-Knoten ermöglicht, Transaktionen gleichzeitig vorzuschlagen, zu validieren und zu bestätigen. Im Gegensatz zu klassischen BFT-Implementierungen, die feste Leader-Rollen und rundenbasierte Kommunikation erfordern, arbeiten Pharos-Validatoren parallel.

  • L1-Extension: Ermöglicht „Special Processing Networks“ (SPNs) — maßgeschneiderte Ausführungsumgebungen für spezifische Anwendungsfälle wie Hochfrequenzhandel oder die Ausführung von KI-Modellen. Man kann es sich wie dedizierte Überholspuren für verschiedene Arten von Finanzaktivitäten vorstellen.

Die Execution Engine:

Das Herzstück von Pharos ist sein paralleles Ausführungssystem, das eine LLVM-basierte Konvertierung der Zwischendarstellung mit spekulativer paralleler Verarbeitung kombiniert. Zu den technischen Innovationen gehören:

  • Smart Access List Inference (SALI): Statische und dynamische Analysen zur Identifizierung der Status-Einträge, auf die ein Smart Contract zugreifen wird, wodurch Transaktionen mit nicht überschneidendem Status gleichzeitig ausgeführt werden können.

  • Dual VM Support: Unterstützung sowohl für EVM- als auch für WASM-Virtual-Machines, was die Solidity-Kompatibilität sicherstellt und gleichzeitig eine hochperformante Ausführung für Verträge ermöglicht, die in Rust oder anderen Sprachen geschrieben wurden.

  • Pipelined Block Processing: Inspiriert von superskalaren Prozessoren, wird der Block-Lebenszyklus in parallele Phasen unterteilt — Konsens-Anordnung, Datenbank-Preloading, Ausführung, Merkleisierung und Flushing erfolgen alle gleichzeitig.

Das Ergebnis? Ihr Testnet hat über 30.000 TPS mit Blockzeiten von 0,5 Sekunden demonstriert, wobei die Ziele für das Mainnet bei 50.000 TPS und einer Finalität im Sub-Sekunden-Bereich liegen. Zum Vergleich: Visa verarbeitet im Durchschnitt etwa 1.700 TPS.

Warum RWA-Tokenisierung eine andere Infrastruktur benötigt

Der Markt für tokenisierte Real-World Assets ist von 85 Millionen Dollar im Jahr 2020 auf über 24 Milliarden Dollar bis Mitte 2025 gewachsen — eine 245-fache Steigerung in nur fünf Jahren. McKinsey prognostiziert 2 Billionen Dollar bis 2030; Standard Chartered schätzt 30 Billionen Dollar bis 2034. Einige Analysten erwarten bis zum Ende des Jahrzehnts ein jährliches RWA-Handelsvolumen von 50 Billionen Dollar.

Doch hier liegt die Diskrepanz: Der Großteil dieses Wachstums fand auf Chains statt, die nicht dafür konzipiert wurden. Private Kredite dominieren den aktuellen Markt mit 17 Milliarden Dollar, gefolgt von US-Staatsanleihen mit 7,3 Milliarden Dollar. Dies sind keine spekulativen Token — es sind regulierte Finanzinstrumente, die Folgendes erfordern:

  • Identitätsprüfung, die KYC/AML-Anforderungen über verschiedene Gerichtsbarkeiten hinweg erfüllt
  • Compliance-Primitive, die direkt in die Protokollschicht eingebaut sind und nicht erst nachträglich hinzugefügt werden
  • Abrechnung im Sub-Sekunden-Bereich für Echtzeit-Zahlungsanwendungen
  • Sicherheit auf institutionellem Niveau mit formaler Verifizierung und hardwaregestütztem Schutz

Pharos adressiert diese Anforderungen mit nativer zkDID-Authentifizierung und On-Chain / Off-Chain-Kreditsystemen. Wenn sie davon sprechen, „TradFi und Web3 zu verbinden“, meinen sie den Einbau der Compliance-Schienen direkt in die Infrastruktur selbst.

Die Ant Digital Partnerschaft: 1,5 Milliarden $ in Real Assets

Die strategische Partnerschaft mit ZAN – der Web3-Marke von Ant Digital Technologies – ist nicht nur eine Pressemitteilung. Sie repräsentiert eine Pipeline von 1,5 Milliarden $ an RWA-Vermögenswerten aus dem Bereich der erneuerbaren Energien, die zum Start des Pharos-Mainnets geplant sind.

Die Zusammenarbeit konzentriert sich auf drei Bereiche:

  1. Node-Dienste und Infrastruktur: ZANs Node-Operationen auf Unternehmensebene unterstützen das Validator-Netzwerk von Pharos.
  2. Sicherheit und Hardware-Beschleunigung: Nutzung der Erfahrung von Ant mit hardwaregesicherten Finanzsystemen.
  3. Entwicklung von RWA-Anwendungsfällen: Einbringung tatsächlicher tokenisierter Vermögenswerte – keine hypothetischen – in das Netzwerk vom ersten Tag an.

Das Pharos-Team verfügt über Erfahrung bei der Implementierung von Tokenisierungsprojekten, darunter Xiexin Energy Technology und die Langxin Group. Sie erlernen die RWA-Tokenisierung nicht erst auf Pharos – sie wenden Fachwissen an, das innerhalb eines der weltweit größten Fintech-Ökosysteme entwickelt wurde.

Vom Testnet zum Mainnet: Der Start im 1. Quartal 2026

Pharos startete sein AtlanticOcean-Testnetz mit beeindruckenden Kennzahlen: fast 3 Milliarden Transaktionen in 23 Millionen Blöcken seit Mai, allesamt mit Blockzeiten von 0,5 Sekunden. Das Testnetz führte ein:

  • Hybride parallele Ausführung basierend auf DAG und Block-STM V1
  • Offizielle PoS-Tokenomics mit einem Angebot von 1 Milliarde Token
  • Modulare Architektur, die Konsens-, Ausführungs- und Speicherschichten entkoppelt
  • Integration mit führenden Wallets, einschließlich OKX Wallet und Bitget Wallet

Das Mainnet ist für das 1. Quartal 2026 geplant, zeitgleich mit dem Token Generation Event (TGE). Die Stiftungscharta wird nach dem TGE veröffentlicht und legt den Governance-Rahmen für das fest, was trotz seines institutionellen Fokus ein wahrhaft dezentrales Netzwerk werden soll.

Das Projekt hat über 1,4 Millionen Testnetz-Nutzer angezogen – eine bedeutende Community für ein Pre-Mainnet-Netzwerk, was auf ein starkes Interesse an dem RWA-fokussierten Narrativ hindeutet.

Die Wettbewerbslandschaft: Wo ordnet sich Pharos ein?

Der Bereich der RWA-Tokenisierung wird immer voller. Provenance führt mit über 12 Milliarden anVermo¨genswertenan.EthereumbeherbergtgroßeEmittentenwieBlackRockundOndo.DasCantonNetworkunterstu¨tztvonGoldmanSachs,BNPParibasundDTCCverarbeitetmonatlichu¨ber4Billionenan Vermögenswerten an. Ethereum beherbergt große Emittenten wie BlackRock und Ondo. Das Canton Network – unterstützt von Goldman Sachs, BNP Paribas und DTCC – verarbeitet monatlich über 4 Billionen an tokenisierten Transaktionen.

Pharos’ Positionierung ist klar abgegrenzt:

  • Gegenüber Canton: Canton ist permissioned (zugangsbeschränkt); Pharos strebt eine vertrauenslose Dezentralisierung mit Compliance-Primitiven an.
  • Gegenüber Ethereum: Pharos bietet den 50-fachen Durchsatz mit nativer RWA-Infrastruktur.
  • Gegenüber Solana: Pharos priorisiert institutionelle Compliance gegenüber reinem DeFi-Durchsatz.
  • Gegenüber Plume Network: Beide zielen auf RWA ab, aber Pharos bringt die Enterprise-DNA der Ant Group und eine bestehende Asset-Pipeline mit.

Die Herkunft der Ant Group ist hier von Bedeutung. Der Aufbau einer Finanzinfrastruktur betrifft nicht nur die technische Architektur – es geht darum, regulatorische Anforderungen, institutionelles Risikomanagement und die tatsächlichen Arbeitsabläufe von Finanzdienstleistungen zu verstehen. Das Pharos-Team hat diese Systeme im großen Stil aufgebaut.

Was das für das RWA-Narrativ bedeutet

Die RWA-Tokenisierungs-These ist simpel: Ein Großteil des weltweiten Wertes existiert in illiquiden Vermögenswerten, die von der Abrechnungseffizienz, Programmierbarkeit und globalen Zugänglichkeit der Blockchain profitieren könnten. Immobilien, Privatkredite, Rohstoffe, Infrastruktur – diese Märkte stellen die gesamte Marktkapitalisierung von Kryptowährungen in den Schatten.

Aber die Infrastrukturlücke war real. Die Tokenisierung einer Schatzanweisung (Treasury Bill) auf Ethereum funktioniert; die Tokenisierung von 300 Millionen $ an Vermögenswerten im Bereich erneuerbarer Energien erfordert Compliance-Schienen, Sicherheit auf institutionellem Niveau und einen Durchsatz, der unter realen Transaktionsvolumina nicht zusammenbricht.

Pharos repräsentiert eine neue Kategorie von Blockchain: keine Allzweck-Smart-Contract-Plattform, die auf DeFi-Komponierbarkeit optimiert ist, sondern eine spezialisierte Finanzinfrastrukturschicht, die für die spezifischen Anforderungen tokenisierter Real-World Assets entwickelt wurde.

Ob sie erfolgreich sein werden, hängt von der Ausführung ab – im wahrsten Sinne des Wortes. Können sie 50.000 TPS im Mainnet liefern? Werden Institutionen tatsächlich Vermögenswerte auf dem Netzwerk bereitstellen? Erfüllt der Compliance-Rahmen die Anforderungen der Regulierungsbehörden in verschiedenen Rechtsordnungen?

Die Antworten werden sich im Laufe des Jahres 2026 zeigen. Aber mit 8 Millionen anFinanzierung,einerangeku¨ndigtenAssetPipelinevon1,5Milliardenan Finanzierung, einer angekündigten Asset-Pipeline von 1,5 Milliarden und einem Team, das bereits Finanzsysteme in der Größenordnung der Ant Group aufgebaut hat, verfügt Pharos über die Ressourcen und die Glaubwürdigkeit, um es herauszufinden.


BlockEden.xyz bietet Blockchain-Infrastruktur auf Unternehmensebene für die nächste Generation von Web3-Anwendungen. Da die RWA-Tokenisierung das globale Finanzwesen transformiert, werden zuverlässige Node-Dienste und API-Zugang zu kritischer Infrastruktur. Erkunden Sie unseren API-Marktplatz, um auf Fundamenten aufzubauen, die für Anwendungen auf institutionellem Niveau konzipiert sind.

Polkadots JAM: Neudefinition der Blockchain-Architektur mit RISC-V

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Im April 2025 schlug Vitalik Buterin etwas vor, das ein Jahr zuvor noch als ketzerisch gegolten hätte: den Ersatz der EVM von Ethereum durch RISC-V. Der Vorschlag löste sofortige Debatten aus. Doch was die meisten Kommentatoren übersahen, war, dass Polkadot bereits seit über einem Jahr an genau dieser Architektur gearbeitet hatte – und nur noch Monate von der Einführung in die Produktion entfernt war.

Polkadots JAM (Join-Accumulate Machine) ist nicht einfach nur ein weiteres Blockchain-Upgrade. Es stellt ein grundlegendes Überdenken dessen dar, was eine „Blockchain“ überhaupt bedeutet. Während sich das Weltbild von Ethereum um eine globale virtuelle Maschine dreht, die Transaktionen verarbeitet, eliminiert JAM das Transaktionskonzept auf seiner Kernebene vollständig und ersetzt es durch ein Rechenmodell, das eine Datenverfügbarkeit von 850 MB/s verspricht – das 42-fache der bisherigen Kapazität von Polkadot und das 650-fache der 1,3 MB/s von Ethereum.

Die Auswirkungen gehen weit über Performance-Benchmarks hinaus. JAM ist vielleicht die bisher klarste Formulierung eines Post-Ethereum-Paradigmas für die Blockchain-Architektur.

Das Gray Paper: Gavin Woods dritter Akt

Dr. Gavin Wood schrieb 2014 das Ethereum Yellow Paper und lieferte damit die formale Spezifikation, die Ethereum erst möglich machte. 2016 folgte das Polkadot White Paper, das heterogenes Sharding und Shared Security einführte. Im April 2024 veröffentlichte er auf der Token2049 in Dubai das JAM Gray Paper – und vervollständigte damit eine Trilogie, die die gesamte Geschichte programmierbarer Blockchains umspannt.

Das Gray Paper beschreibt JAM als „eine globale, zustandslose (singleton), erlaubnisfreie Objektumgebung – ähnlich der Smart-Contract-Umgebung von Ethereum – gepaart mit sicherer Sideband-Berechnung, die über ein skalierbares Knotennetzwerk parallelisiert wird.“ Doch das untertreibt den konzeptionellen Wandel.

JAM verbessert nicht nur bestehende Blockchain-Designs. Es stellt die Frage: Was wäre, wenn wir aufhören würden, Blockchains ausschließlich als virtuelle Maschinen zu betrachten?

Das Transaktionsproblem

Traditionelle Blockchains – einschließlich Ethereum – sind im Kern Transaktionsverarbeitungssysteme. Benutzer senden Transaktionen, Validatoren ordnen und führen sie aus, und die Blockchain zeichnet Zustandsänderungen auf. Dieses Modell hat gute Dienste geleistet, bringt jedoch inhärente Einschränkungen mit sich:

  • Sequenzielle Engpässe: Transaktionen müssen geordnet werden, was Durchsatzbeschränkungen schafft.
  • Globaler Statuskonflikt (State Contention): Jede Transaktion berührt potenziell den gemeinsamen Status.
  • Ausführungskopplung: Konsens und Berechnung sind eng miteinander verknüpft.

JAM entkoppelt diese Bereiche durch das, was Wood das „Refine-Accumulate“-Paradigma nennt. Das System arbeitet in zwei Phasen:

Refine: Die Berechnung erfolgt parallel im gesamten Netzwerk. Die Arbeit wird in unabhängige Einheiten unterteilt, die gleichzeitig und ohne Koordination ausgeführt werden können.

Accumulate: Ergebnisse werden gesammelt und im globalen Status zusammengeführt. Nur diese Phase erfordert einen Konsens über die Reihenfolge.

Das Ergebnis ist ein „transaktionsloses“ Kernprotokoll. JAM selbst verarbeitet keine Transaktionen – das erledigen die auf JAM aufgebauten Anwendungen. Diese Trennung ermöglicht es dem Base Layer, sich rein auf sichere, parallele Berechnungen zu konzentrieren.

PolkaVM: Warum RISC-V wichtig ist

Das Herzstück von JAM ist PolkaVM, eine spezialisierte virtuelle Maschine, die auf dem RISC-V-Befehlssatz basiert. Diese Wahl hat tiefgreifende Auswirkungen auf die Blockchain-Berechnung.

Die architektonischen Schulden der EVM

Die EVM von Ethereum wurde 2013–2014 entworfen, noch bevor viele moderne Annahmen über die Blockchain-Ausführung verstanden wurden. Ihre Architektur spiegelt diese Ära wider:

  • Stack-basierte Ausführung: Operationen schieben Werte auf einen unbegrenzten Stack und nehmen sie wieder herunter, was eine komplexe Nachverfolgung erfordert.
  • 256-Bit-Wortbreite: Aus kryptografischer Bequemlichkeit gewählt, aber für die meisten Operationen verschwenderisch.
  • Eindimensionales Gas: Eine einzige Kennzahl versucht, völlig unterschiedliche Rechenressourcen zu bepreisen.
  • Nur Interpretation: EVM-Bytecode kann nicht effizient in nativen Code kompiliert werden.

Diese Designentscheidungen waren als erste Schritte sinnvoll, führen jedoch zu anhaltenden Leistungseinbußen.

Die Vorteile von RISC-V

PolkaVM verfolgt einen grundlegend anderen Ansatz:

Registerbasierte Architektur: Wie moderne CPUs verwendet PolkaVM einen begrenzten Satz an Registern für die Argumentübergabe. Dies entspricht der tatsächlichen Hardware und ermöglicht eine effiziente Übersetzung in native Befehlssätze.

64-Bit-Wortbreite: Moderne Prozessoren arbeiten mit 64 Bit. Die Verwendung einer passenden Wortbreite eliminiert den Overhead bei der Emulation von 256-Bit-Operationen für den Großteil der Berechnungen.

Mehrdimensionales Gas: Verschiedene Ressourcen (Berechnung, Speicherung, Bandbreite) werden unabhängig voneinander bepreist, was die tatsächlichen Kosten besser widerspiegelt und Angriffe durch falsche Preisgestaltung verhindert.

Duale Ausführungsmodi: Code kann zur sofortigen Ausführung interpretiert oder für eine optimierte Leistung JIT-kompiliert (Just-In-Time) werden. Das System wählt den geeigneten Modus basierend auf den Merkmalen der Arbeitslast.

Auswirkungen auf die Performance

Die architektonischen Unterschiede schlagen sich in echten Performance-Gewinnen nieder. Benchmarks zeigen, dass PolkaVM bei arithmetikintensiven Contracts Verbesserungen von mehr als dem 10-fachen gegenüber WebAssembly erzielt – und die EVM ist noch langsamer. Bei komplexen Interaktionen zwischen mehreren Contracts vergrößert sich der Abstand weiter, da die JIT-Kompilierung die Setup-Kosten amortisiert.

Was vielleicht noch wichtiger ist: PolkaVM unterstützt jede Sprache, die nach RISC-V kompiliert werden kann. Während EVM-Entwickler auf Solidity, Vyper und eine Handvoll spezialisierter Sprachen beschränkt sind, PolkaVM öffnet die Tür für Rust, C++ und letztlich jede von LLVM unterstützte Sprache. Dies erweitert den potenziellen Entwicklerkreis drastisch.

Aufrechterhaltung der Developer Experience

Trotz der architektonischen Überholung bewahrt PolkaVM die Kompatibilität mit bestehenden Workflows. Der Revive-Compiler bietet vollständige Solidity-Unterstützung, einschließlich Inline-Assembler. Entwickler können weiterhin Hardhat, Remix und MetaMask verwenden, ohne ihre Prozesse ändern zu müssen.

Das Papermoon-Team demonstrierte diese Kompatibilität durch die erfolgreiche Migration des Uniswap V2-Contract-Codes in das PolkaVM-Testnetz – ein Beweis dafür, dass selbst komplexer, praxiserprobter DeFi-Code ohne Neuschreibungen migriert werden kann.

JAMs Leistungsziele

Die Zahlen, die Wood für JAM prognostiziert, sind nach heutigen Blockchain-Standards atemberaubend.

Datenverfügbarkeit (Data Availability)

JAM strebt eine Datenverfügbarkeit von 850 MB / s an – etwa das 42-Fache der ursprünglichen Polkadot-Kapazität vor den jüngsten Optimierungen und das 650-Fache der 1,3 MB / s von Ethereum. Zum Vergleich: Dies nähert sich dem Durchsatz von Enterprise-Datenbanksystemen an.

Rechenkapazität (Computational Throughput)

Das Gray Paper schätzt, dass JAM bei voller Auslastung etwa 150 Milliarden Gas pro Sekunde erreichen kann. Die Umrechnung von Gas in Transaktionen ist unpräzise, aber der theoretische maximale Durchsatz erreicht basierend auf dem Ziel der Datenverfügbarkeit über 3,4 Millionen TPS.

Validierung in der Praxis

Dies sind keine rein theoretischen Zahlen. Stresstests haben die Architektur bestätigt:

  • Kusama (August 2025): Erreichte 143.000 TPS bei nur 23 % Auslastung
  • Polkadot „Spammening“ (2024): Erreichte 623.000 TPS in kontrollierten Tests

Diese Zahlen stellen den echten Transaktionsdurchsatz dar, nicht optimistische Prognosen oder Testnetzbedingungen, die keine Produktionsumgebungen widerspiegeln.

Entwicklungsstand und Zeitplan

Die JAM-Entwicklung folgt einem strukturierten Meilensteinsystem, wobei 43 Implementierungsteams um einen Preispool von über 60 Millionen US-Dollar (10 Millionen DOT + 100.000 KSM) konkurrieren.

Aktueller Fortschritt (Ende 2025)

Das Ökosystem hat mehrere kritische Meilensteine erreicht:

  • Mehrere Teams haben eine 100%ige Konformität mit den Testvektoren der Web3 Foundation erreicht.
  • Die Entwicklung ist durch die Gray Paper Versionen 0.6.2 bis 0.8.0 vorangeschritten und nähert sich v1.0.
  • Die Konferenz „JAM Experience“ in Lissabon (Mai 2025) brachte Implementierungsteams für eine tiefgreifende technische Zusammenarbeit zusammen.
  • Universitätstouren erreichten über 1.300 Teilnehmer an neun globalen Standorten, darunter Cambridge, die Universität Peking und die Fudan-Universität.

Meilensteinstruktur

Die Teams durchlaufen eine Reihe von Meilensteinen:

  1. IMPORTER (M1): Bestehen von Konformitätstests für Zustandsübergänge (State Transitions) und Importieren von Blöcken.
  2. AUTHORER (M2): Volle Konformität einschließlich Blockproduktion, Networking und Off-Chain-Komponenten.
  3. HALF-SPEED (M3): Erreichen der Performance-Stufe von Kusama, mit Zugang zum „JAM Toaster“ für Tests in vollem Umfang.
  4. FULL-SPEED (M4): Performance-Stufe des Polkadot-Mainnets mit professionellen Sicherheitsaudits.

Mehrere Teams haben M1 abgeschlossen, wobei einige bereits auf M2 hinarbeiten.

Zeitplan bis zum Mainnet

  • Ende 2025: Letzte Gray Paper Überarbeitungen, fortlaufende Meilenstein-Einreichungen, erweiterte Testnetz-Teilnahme.
  • Q1 2026: JAM-Mainnet-Upgrade auf Polkadot nach Genehmigung durch die Governance via OpenGov-Referendum.
  • 2026: Bereitstellung von CoreChain Phase 1, offizielles öffentliches JAM-Testnetz, vollständiger Netzwerkübergang.

Der Governance-Prozess hat bereits eine starke Unterstützung der Community gezeigt. Eine fast einstimmige Abstimmung der DOT-Inhaber im Mai 2024 genehmigte die Richtung des Upgrades.

JAM vs. Ethereum: Ergänzung oder Konkurrenz?

Die Frage, ob JAM ein „Ethereum-Killer“ ist, verkennt die architektonischen Nuancen.

Unterschiedliche Designphilosophien

Ethereum baut auf einem monolithischen Fundament auf. Die EVM bietet eine globale Ausführungsumgebung, und Skalierungslösungen – L2s, Rollups, Sharding – werden darauf aufgesetzt. Dieser Ansatz hat ein riesiges Ökosystem geschaffen, aber auch technische Schulden angehäuft.

JAM hat Modularität im Kern. Die Trennung der Phasen „Refine“ und „Accumulate“, die domänenspezifische Optimierung für die Handhabung von Rollups und der transaktionslose Base Layer spiegeln ein von Grund auf für Skalierbarkeit konzipiertes Design wider.

Konvergente technische Entscheidungen

Trotz unterschiedlicher Ausgangspunkte kommen die Projekte zu ähnlichen Schlussfolgerungen. Vitaliks RISC-V-Vorschlag vom April 2025 erkannte an, dass die Architektur der EVM die langfristige Performance einschränkt. Polkadot hatte die RISC-V-Unterstützung bereits Monate zuvor im Testnetz implementiert.

Diese Konvergenz bestätigt das technische Urteilsvermögen beider Projekte und verdeutlicht gleichzeitig die Lücke in der Ausführung: Polkadot liefert das, was Ethereum vorschlägt.

Realitäten des Ökosystems

Technische Überlegenheit führt nicht automatisch zur Dominanz des Ökosystems. Die Entwickler-Community von Ethereum, die Vielfalt der Anwendungen und die Liquiditätstiefe stellen beträchtliche Netzwerkeffekte dar, die nicht über Nacht repliziert werden können.

Das wahrscheinlichere Ergebnis ist kein Ersatz, sondern eine Spezialisierung. Die Architektur von JAM ist für bestimmte Workloads optimiert – insbesondere für Anwendungen mit hohem Durchsatz und Rollup-Infrastruktur – während Ethereum Vorteile bei der Reife des Ökosystems und der Kapitalbildung behält.

Im Jahr 2026 sehen sie weniger wie Konkurrenten aus, sondern eher wie komplementäre Layer eines Multi-Chain-Internets.

Was JAM für die Blockchain-Architektur bedeutet

Die Bedeutung von JAM geht über Polkadot hinaus. Es stellt die klarste Ausprägung eines Post-EVM-Paradigmas dar, das andere Projekte studieren und selektiv übernehmen werden.

Kernprinzipien

Rechen-Trennung: Die Entkoppelung von Ausführung und Konsens ermöglicht parallele Verarbeitung auf dem Base-Layer, nicht als nachträglicher Einfall.

Domänenspezifische Optimierung: Anstatt eine Allzweck-VM zu bauen und auf Skalierbarkeit zu hoffen, ist JAM gezielt für die Arbeitslasten konzipiert, die Blockchains tatsächlich ausführen.

Hardware-Ausrichtung: Die Verwendung von RISC-V und 64-Bit-Wörtern richtet die Architektur der virtuellen Maschine an physischer Hardware aus und eliminiert so den Emulations-Overhead.

Transaktionsabstraktion: Die Verlagerung der Transaktionsabwicklung auf die Anwendungsebene ermöglicht es dem Protokoll, sich auf Berechnung und Zustandsverwaltung zu konzentrieren.

Auswirkungen auf die Branche

Unabhängig davon, ob JAM kommerziell erfolgreich ist oder scheitert, werden diese architektonischen Entscheidungen das Blockchain-Design des nächsten Jahrzehnts beeinflussen. Das Gray Paper bietet eine formale Spezifikation, die andere Projekte studieren, kritisieren und selektiv implementieren können.

Ethereums RISC-V-Vorschlag zeigt bereits diesen Einfluss. Die Frage ist nicht, ob sich diese Ideen verbreiten werden, sondern wie schnell und in welcher Form.

Der Weg in die Zukunft

JAM stellt Gavin Woods ambitionierteste technische Vision seit Polkadot selbst dar. Der Einsatz entspricht der Ambition: Ein Erfolg würde einen völlig anderen Ansatz für die Blockchain-Architektur validieren, während ein Scheitern Polkadot im Wettbewerb mit neueren L1s ohne ein differenziertes technisches Narrativ zurücklassen würde.

Die nächsten 18 Monate werden zeigen, ob sich die theoretischen Vorteile von JAM in die Produktionsrealität übertragen lassen. Mit 43 Implementierungsteams, einem neunstelligen Preispool und einer klaren Roadmap zum Mainnet verfügt das Projekt über Ressourcen und Dynamik. Es bleibt abzuwarten, ob die Komplexität des Refine-Accumulate-Paradigmas Woods Vision eines „verteilten Computers, der fast jede Art von Aufgabe ausführen kann“, erfüllen kann.

Für Entwickler und Projekte, die Blockchain-Infrastruktur evaluieren, verdient JAM ernsthafte Aufmerksamkeit – nicht als Hype, sondern als technisch fundierter Versuch, Probleme zu lösen, mit denen jede große Blockchain konfrontiert ist. Das Blockchain-als-virtuelle-Maschine-Paradigma hat der Branche ein Jahrzehnt lang gute Dienste geleistet. JAM setzt darauf, dass das nächste Jahrzehnt etwas grundlegend anderes erfordert.


Bauen Sie auf einer Blockchain-Infrastruktur der nächsten Generation? BlockEden.xyz bietet leistungsstarke RPC-Endpunkte im gesamten Polkadot-Ökosystem und über 30 weiteren Netzwerken. Erkunden Sie unseren API-Marktplatz, um auf Infrastruktur der Enterprise-Klasse für Ihre Anwendungen zuzugreifen.

Die Evolution von zkEVMs: Abwägung von Kompatibilität und Performance bei der Skalierung von Ethereum

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Im Jahr 2022 stellte Vitalik Buterin eine einfache Frage, die die nächsten vier Jahre der Ethereum-Skalierung definieren sollte: Wie viel Ethereum-Kompatibilität sind Sie bereit zu opfern, um schnellere Zero-Knowledge-Beweise zu erhalten? Seine Antwort kam in Form eines Klassifizierungssystems mit fünf Typen für zkEVMs, das seitdem zum Industriestandard für die Bewertung dieser kritischen Skalierungslösungen geworden ist.

Springen wir vor ins Jahr 2026, und die Antwort ist nicht mehr so einfach. Die Beweiszeiten sind von 16 Minuten auf 16 Sekunden eingebrochen. Die Kosten sind um das 45-fache gesunken. Mehrere Teams haben eine Echtzeit-Beweisgenerierung demonstriert, die schneller ist als die 12-sekündigen Blockzeiten von Ethereum. Dennoch bleibt der grundlegende Kompromiss bestehen, den Vitalik identifiziert hat – und ihn zu verstehen ist für jeden Entwickler oder jedes Projekt, das vor der Wahl steht, wo es bauen soll, unerlässlich.

Die Vitalik-Klassifizierung: Typ 1 bis 4

Vitaliks Framework kategorisiert zkEVMs entlang eines Spektrums von perfekter Ethereum-Äquivalenz bis hin zu maximaler Beweiseffizienz. Höhere Typennummern bedeuten schnellere Beweise, aber weniger Kompatibilität mit der bestehenden Ethereum-Infrastruktur.

Typ 1: Vollständig Ethereum-äquivalent

Typ 1 zkEVMs ändern nichts an Ethereum. Sie beweisen exakt dieselbe Ausführungsumgebung, die das Ethereum L1 verwendet – dieselben Opcodes, dieselben Datenstrukturen, einfach alles.

Der Vorteil: Perfekte Kompatibilität. Ethereum-Execution-Clients funktionieren wie sie sind. Jedes Tool, jeder Vertrag und jedes Stück Infrastruktur lässt sich direkt übertragen. Dies ist letztlich das, was Ethereum benötigt, um L1 selbst skalierbarer zu machen.

Der Nachteil: Ethereum wurde nicht für Zero-Knowledge-Beweise entwickelt. Die stackbasierte Architektur der EVM ist bekanntermaßen ineffizient für die ZK-Beweisgenerierung. Frühe Typ-1-Implementierungen benötigten Stunden, um einen einzigen Beweis zu generieren.

Führendes Projekt: Taiko strebt Typ-1-Äquivalenz als Based Rollup an und nutzt die Validatoren von Ethereum für das Sequencing, was eine synchrone Komponierbarkeit mit anderen Based Rollups ermöglicht.

Typ 2: Vollständig EVM-äquivalent

Typ 2 zkEVMs behalten die volle EVM-Kompatibilität bei, ändern jedoch interne Darstellungen – wie der Status gespeichert wird, wie Datenstrukturen organisiert sind –, um die Beweisgenerierung zu verbessern.

Der Vorteil: Für Ethereum geschriebene Smart Contracts laufen ohne Modifikation. Die Entwicklererfahrung bleibt identisch. Der Migrationsaufwand geht gegen Null.

Der Nachteil: Block-Explorer und Debugging-Tools müssen möglicherweise angepasst werden. Statusbeweise (State Proofs) funktionieren anders als auf dem Ethereum L1.

Führende Projekte: Scroll und Linea zielen auf Typ-2-Kompatibilität ab und erreichen eine nahezu perfekte EVM-Äquivalenz auf VM-Ebene ohne Transpiler oder benutzerdefinierte Compiler.

Typ 2.5: EVM-äquivalent mit Änderungen der Gaskosten

Typ 2.5 ist ein pragmatischer Mittelweg. Die zkEVM bleibt EVM-kompatibel, erhöht jedoch die Gaskosten für Operationen, deren Beweis in Zero-Knowledge besonders teuer ist.

Der Kompromiss: Da Ethereum ein Gaslimit pro Block hat, bedeutet die Erhöhung der Gaskosten für spezifische Opcodes, dass weniger dieser Opcodes pro Block ausgeführt werden können. Anwendungen funktionieren, aber bestimmte Rechenmuster werden unverhältnismäßig teuer.

Typ 3: Fast EVM-äquivalent

Typ 3 zkEVMs opfern spezifische EVM-Funktionen – oft im Zusammenhang mit Precompiles, der Speicherverwaltung oder der Behandlung von Vertragscode –, um die Beweisgenerierung drastisch zu verbessern.

Der Vorteil: Schnellere Beweise, geringere Kosten, bessere Performance.

Der Nachteil: Einige Ethereum-Anwendungen funktionieren nicht ohne Modifikation. Entwickler müssen möglicherweise Verträge umschreiben, die auf nicht unterstützten Funktionen basieren.

Realitätscheck: Kein Team möchte tatsächlich bei Typ 3 bleiben. Es wird als Übergangsphase verstanden, während die Teams an der komplexen Precompile-Unterstützung arbeiten, die erforderlich ist, um Typ 2.5 oder Typ 2 zu erreichen. Sowohl Scroll als auch Polygon zkEVM agierten als Typ 3, bevor sie auf der Kompatibilitätsleiter aufstiegen.

Typ 4: Kompatibel mit Hochsprachen

Typ-4-Systeme geben die EVM-Kompatibilität auf Bytecode-Ebene vollständig auf. Stattdessen kompilieren sie Solidity oder Vyper in eine benutzerdefinierte VM, die speziell für effiziente ZK-Beweise entwickelt wurde.

Der Vorteil: Schnellste Beweisgenerierung. Niedrigste Kosten. Maximale Performance.

Der Nachteil: Verträge verhalten sich möglicherweise anders. Adressen stimmen eventuell nicht mit Ethereum-Deployments überein. Debugging-Tools erfordern komplette Neuentwicklungen. Die Migration erfordert sorgfältige Tests.

Führende Projekte: zkSync Era und StarkNet repräsentieren den Typ-4-Ansatz. zkSync transpiliert Solidity in benutzerdefinierten Bytecode, der für ZK optimiert ist. StarkNet verwendet Cairo, eine völlig neue Sprache, die auf Beweisbarkeit ausgelegt ist.

Performance-Benchmarks: Wo wir im Jahr 2026 stehen

Die Zahlen haben sich seit Vitaliks ursprünglichem Beitrag dramatisch verändert. Was 2022 theoretisch war, ist 2026 Produktionsrealität.

Beweiszeiten

Frühe zkEVMs benötigten etwa 16 Minuten, um Beweise zu generieren. Aktuelle Implementierungen schließen denselben Prozess in etwa 16 Sekunden ab – eine 60-fache Verbesserung. Mehrere Teams haben eine Beweisgenerierung in weniger als 2 Sekunden demonstriert, was schneller ist als die 12-sekündigen Blockzeiten von Ethereum.

Die Ethereum Foundation hat sich ein ehrgeiziges Ziel gesetzt: 99 % der Mainnet-Blöcke in weniger als 10 Sekunden zu beweisen, unter Einsatz von Hardware im Wert von weniger als 100.000 $ und einem Stromverbrauch von 10 kW. Mehrere Teams haben bereits Fähigkeiten demonstriert, die nahe an diesem Ziel liegen.

Transaktionskosten

Das Dencun-Upgrade im März 2024 (EIP-4844 zur Einführung von „Blobs“) reduzierte die L2-Gebühren um 75–90 %, wodurch alle Rollups dramatisch kosteneffizienter wurden. Aktuelle Benchmarks zeigen:

PlattformTransaktionskostenAnmerkungen
Polygon zkEVM$ 0,00275Pro Transaktion für vollständige Batches
zkSync Era$ 0,00378Mediane Transaktionskosten
Linea$ 0,05–0,15Durchschnittliche Transaktion

Durchsatz

Die reale Performance variiert erheblich je nach Transaktionskomplexität:

PlattformTPS (Komplexes DeFi)Anmerkungen
Polygon zkEVM5,4 tx / sAMM-Swap-Benchmark
zkSync Era71 TPSKomplexe DeFi-Swaps
Theoretisch (Linea)100.000 TPSMit fortgeschrittenem Sharding

Diese Zahlen werden sich weiter verbessern, wenn Hardware-Beschleunigung, Parallelisierung und algorithmische Optimierungen reifen.

Marktadoption: TVL und Entwickler-Traktion

Die zkEVM-Landschaft hat sich um mehrere klare Marktführer konsolidiert, die jeweils unterschiedliche Punkte auf dem Typen-Spektrum repräsentieren:

Aktuelle TVL-Rankings (2025)

  • Scroll: $ 748 Millionen TVL, größte reine zkEVM
  • StarkNet: $ 826 Millionen TVS
  • zkSync Era: $ 569 Millionen TVL, 270+ bereitgestellte dApps
  • Linea: ~ $ 963 Millionen TVS, 400 % + Wachstum bei täglich aktiven Adressen

Das gesamte Layer-2-Ökosystem hat ein TVL von 70 Milliarden US-Dollar erreicht, wobei ZK-Rollups zunehmend Marktanteile gewinnen, da die Beweiskosten (Proving Costs) weiter sinken.

Signale für die Entwickler-Adoption

  • Über 65 % der neuen Smart Contracts im Jahr 2025 wurden auf Layer-2-Netzwerken bereitgestellt
  • zkSync Era zog etwa $ 1,9 Milliarden an tokenisierten Real-World-Assets (RWA) an und sicherte sich damit ~ 25 % des On-Chain-RWA-Marktanteils
  • Layer-2-Netzwerke verarbeiteten im Jahr 2025 schätzungsweise 1,9 Millionen tägliche Transaktionen

Das Abwägen zwischen Kompatibilität und Performance in der Praxis

Das Verständnis der theoretischen Typen ist nützlich, aber entscheidend sind die praktischen Auswirkungen für Entwickler.

Typ 1-2: Keine Migrationsreibung

Für Scroll und Linea (Typ 2) bedeutet Migration buchstäblich null Codeänderungen für die meisten Anwendungen. Stellen Sie denselben Solidity-Bytecode bereit, verwenden Sie dieselben Tools (MetaMask, Hardhat, Remix) und erwarten Sie dasselbe Verhalten.

Bestens geeignet für: Bestehende Ethereum-Anwendungen, die eine nahtlose Migration priorisieren; Projekte, bei denen bewährter, geprüfter Code unverändert bleiben muss; Teams ohne Ressourcen für umfangreiche Tests und Modifikationen.

Typ 3: Sorgfältige Tests erforderlich

Für Polygon zkEVM und ähnliche Typ-3-Implementierungen funktionieren die meisten Anwendungen, aber es existieren Edge-Cases. Bestimmte Precompiles verhalten sich möglicherweise anders oder werden nicht unterstützt.

Bestens geeignet für: Teams mit Ressourcen für eine gründliche Testnet-Validierung; Projekte, die nicht auf exotische EVM-Funktionen angewiesen sind; Anwendungen, die Kosteneffizienz über perfekte Kompatibilität stellen.

Typ 4: Ein anderes mentales Modell

Für zkSync Era und StarkNet unterscheidet sich die Entwicklungserfahrung deutlich von Ethereum:

zkSync Era unterstützt Solidity, transpiliert es jedoch in einen benutzerdefinierten Bytecode. Verträge lassen sich kompilieren und ausführen, aber das Verhalten kann in feinen Details abweichen. Es gibt keine Garantie, dass Adressen mit Ethereum-Bereitstellungen übereinstimmen.

StarkNet verwendet Cairo, was von Entwicklern verlangt, eine völlig neue Sprache zu lernen – allerdings eine, die speziell für beweisbare Berechnungen (provable computation) entwickelt wurde.

Bestens geeignet für: Greenfield-Projekte, die nicht durch bestehenden Code eingeschränkt sind; Anwendungen, bei denen maximale Performance die Investition in Tooling rechtfertigt; Teams, die bereit sind, in spezialisierte Entwicklung und Tests zu investieren.

Sicherheit: Die unverhandelbare Einschränkung

Die Ethereum Foundation führte 2025 klare kryptografische Sicherheitsanforderungen für zkEVM-Entwickler ein:

  • 100-Bit beweisbare Sicherheit bis Mai 2026
  • 128-Bit Sicherheit bis Ende 2026

Diese Anforderungen spiegeln die Realität wider, dass schnellere Beweise nichts bedeuten, wenn die zugrunde liegende Kryptografie nicht absolut sicher ist. Von den Teams wird erwartet, dass sie diese Schwellenwerte unabhängig von ihrer Typ-Klassifizierung erreichen.

Der Fokus auf Sicherheit hat einige Performance-Verbesserungen verlangsamt – die Ethereum Foundation hat sich bis 2026 explizit für Sicherheit vor Geschwindigkeit entschieden –, stellt aber sicher, dass das Fundament für die Massenadoption solide bleibt.

Die Wahl Ihrer zkEVM: Ein Entscheidungsrahmen

Wählen Sie Typ 1-2 (Taiko, Scroll, Linea), wenn:

  • Sie bestehende, kampferprobte Verträge migrieren
  • Audit-Kosten ein Faktor sind (keine erneute Prüfung erforderlich)
  • Ihr Team Ethereum-nativ ist und keine ZK-Expertise besitzt
  • Die Composability mit Ethereum L1 wichtig ist
  • Sie synchrone Interoperabilität mit anderen Based Rollups benötigen

Wählen Sie Typ 3 (Polygon zkEVM), wenn:

  • Sie ein Gleichgewicht zwischen Kompatibilität und Performance suchen
  • Sie in eine gründliche Testnet-Validierung investieren können
  • Kosteneffizienz eine Priorität ist
  • Sie nicht auf exotische EVM-Precompiles angewiesen sind

Wählen Sie Typ 4 (zkSync Era, StarkNet), wenn:

  • Sie neu bauen, ohne Einschränkungen durch Migration
  • Maximale Performance die Investition in Tools rechtfertigt
  • Ihr Anwendungsfall von ZK-nativen Designmustern profitiert
  • Sie über Ressourcen für spezialisierte Entwicklung verfügen

Was als Nächstes kommt

Die Typ-Klassifizierungen werden nicht statisch bleiben. Vitalik bemerkte, dass zkEVM-Projekte „leicht bei Typen mit höheren Nummern beginnen und im Laufe der Zeit zu Typen mit niedrigeren Nummern springen“ können. Wir sehen dies in der Praxis – Projekte, die als Typ 3 starteten, entwickeln sich in Richtung Typ 2, während sie die Implementierung von Precompiles vervollständigen.

Noch interessanter ist: Sollte Ethereum L1 Modifikationen vornehmen, um ZK-freundlicher zu werden, könnten Typ-2- und Typ-3-Implementierungen zu Typ 1 werden, ohne ihren eigenen Code zu ändern.

Das Endziel scheint zunehmend klar: Die Beweiszeiten werden weiter sinken, die Kosten werden weiter fallen und die Unterscheidung zwischen den Typen wird verschwimmen, da Hardware-Beschleunigung und algorithmische Verbesserungen die Performance-Lücke schließen. Die Frage ist nicht, welcher Typ gewinnen wird – sondern wie schnell das gesamte Spektrum zu einer praktischen Äquivalenz konvergiert.

Vorerst bleibt der Rahmen wertvoll. Zu wissen, wo eine zkEVM im Kompatibilitäts-Performance-Spektrum steht, sagt Ihnen, was Sie während der Entwicklung, Bereitstellung und des Betriebs zu erwarten haben. Dieses Wissen ist für jedes Team unerlässlich, das an der ZK-gestützten Zukunft von Ethereum baut.


Bauen Sie auf einer zkEVM-Infrastruktur? BlockEden.xyz bietet hochperformante RPC-Endpunkte über mehrere zkEVM-Chains hinweg, darunter Polygon zkEVM, Scroll und Linea. Erkunden Sie unseren API-Marktplatz, um auf die Infrastrukturschicht zuzugreifen, die Ihre ZK-Anwendungen benötigen.

Der Aufstieg des Governance-Kapitalismus: Wie die 17-Millionen-Dollar-Ablehnung von Curve DAO eine Verschiebung der Machtdynamik signalisiert

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Als die Curve DAO im Dezember 2025 einen CRV-Zuschussantrag in Höhe von 17 Millionen $ von ihrem eigenen Gründer ablehnte, war dies nicht nur eine weitere Governance-Abstimmung. Es war eine Erklärung, dass die Ära der von Gründern kontrollierten DAOs endet – ersetzt durch etwas, das weder Idealisten noch Kritiker voll und ganz vorausgesehen haben: Governance-Kapitalismus, bei dem konzentriertes Kapital und nicht die Stimmung der Community oder die Gründungsteams die entscheidende Macht innehat.

Die Abstimmung endete mit 54,46 % dagegen und 45,54 % dafür. On-Chain-Daten enthüllten die unangenehme Wahrheit: Adressen, die mit Convex Finance und Yearn Finance in Verbindung stehen, machten fast 90 % der gegen den Zuschuss abgegebenen Stimmen aus. Zwei Protokolle, die in ihrem eigenen wirtschaftlichen Interesse handelten, überstimmten den Gründer einer Plattform mit einem TVL von 2,5 Milliarden $.

Die Anatomie einer 17-Millionen-Dollar-Ablehnung

Der Vorschlag schien unkompliziert. Der Gründer von Curve Finance, Michael Egorov, beantragte 17,4 Millionen CRV-Token – im Wert von etwa 6,2 Millionen $ – zur Finanzierung der Swiss Stake AG, einem Team, das seit 2020 die Kern-Codebasis von Curve pflegt. Die Roadmap beinhaltete die Weiterentwicklung von LlamaLend, die Ausweitung der Unterstützung für PT- und LP-Token, die Entwicklung von On-Chain-Forex-Märkten und die Fortsetzung der crvUSD-Entwicklung.

Erst sechzehn Monate zuvor, im August 2024, war ein ähnlicher Antrag auf 21 Millionen CRV-Token (damals 6,3 Millionen $) mit fast 91 % Zustimmung angenommen worden. Was hat sich geändert?

Die Antwort liegt darin, wie sich die Governance-Macht in diesem Zeitraum verschoben hat. Convex Finance kontrolliert nun etwa 53 % aller veCRV – die Vote-Escrowed-Token, die über Governance-Ergebnisse entscheiden. Zusammen mit Yearn Finance und StakeDAO dominieren drei Liquid-Locker-Protokolle den Entscheidungsapparat von Curve. Ihre Stimmen werden von Eigeninteresse geleitet: Die Unterstützung von Vorschlägen, die ihre Bestände verwässern oder Emissionen von ihren bevorzugten Pools weglenken könnten, dient keinem wirtschaftlichen Zweck.

Bei der Ablehnung ging es nicht darum, ob Swiss Stake eine Finanzierung verdient hätte. Es ging darum, wer entscheidet – und welche Anreize diese Entscheidungen antreiben.

Das Vote-Escrow-Paradoxon

Das Governance-Modell von Curve basiert auf Vote-Escrowed-Token (veCRV), einem Mechanismus, der zwei grundlegende Probleme lösen sollte: Liquidität und Engagement. Nutzer sperren CRV für bis zu vier Jahre und erhalten veCRV proportional zur Token-Menge und zur Sperrdauer. Die Theorie war elegant: Langfristige Sperren würden Stakeholder herausfiltern, die eine echte Übereinstimmung mit dem Protokoll aufweisen.

Die Realität wich von der Theorie ab. Liquid Locker wie Convex entstanden, bündelten CRV von Tausenden von Nutzern und sperrten diese dauerhaft, um den Governance-Einfluss zu maximieren. Nutzer erhalten liquide Token (cvxCRV), die ihren Anteil repräsentieren, und erhalten so Zugang zu Curve-Belohnungen ohne die vierjährige Bindung. Convex behält die Governance-Macht.

Das Ergebnis ist ein Konzentrationsmuster, das die Forschung mittlerweile im gesamten DAO-Ökosystem bestätigt. Analysen zeigen, dass weniger als 0,1 % der Governance-Token-Inhaber 90 % der Stimmgewalt in großen DAOs besitzen. Die Top-10-Wähler von Compound kontrollieren 57,86 % der Stimmgewalt. Die Top 10 von Uniswap kontrollieren 44,72 %. Dies sind keine Anomalien – sie sind das vorhersehbare Ergebnis einer Tokenomics, die ohne angemessene Schutzmaßnahmen gegen Konzentration entwickelt wurde.

Die Curve-Ablehnung kristallisierte heraus, was Akademiker „Governance-Kapitalismus“ nennen: Stimmrechte, die an langfristige Sperren gebunden sind, filtern nach großen Kapitalinhabern und langfristigen Spekulanten. Im Laufe der Zeit verlagert sich die Governance von gewöhnlichen Nutzern hin zu Kapitalgruppen, deren Interessen erheblich von der breiteren Community des Protokolls abweichen können.

Die 40-Milliarden-Dollar-Rechenschaftsfrage

Die Einsätze gehen weit über Curve hinaus. Das gesamte DAO-Schatzamt-Vermögen ist von 8,8 Milliarden Anfang2023aufheuteu¨ber40MilliardenAnfang 2023 auf heute über 40 Milliarden angewachsen, mit mehr als 13.000 aktiven DAOs und 5,1 Millionen Governance-Token-Inhabern. Optimism Collective befehligt 5,5 Milliarden ,ArbitrumDAOverwaltet4,4Milliarden, Arbitrum DAO verwaltet 4,4 Milliarden und Uniswap kontrolliert 2,5 Milliarden $ – Zahlen, die mit vielen traditionellen Unternehmen konkurrieren.

Dennoch haben die Rechenschaftsmechanismen nicht mit dem Vermögenswachstum Schritt gehalten. Die Curve-Ablehnung legte ein Muster offen: Token-Inhaber forderten Transparenz darüber, wie frühere Zuweisungen verwendet wurden, bevor sie neue Mittel genehmigten. Einige schlugen vor, zukünftige Zuschüsse in Raten auszuzahlen, um die Marktauswirkungen auf CRV zu verringern. Dies sind grundlegende Praktiken der Corporate Governance, die DAOs bisher weitgehend nicht übernommen haben.

Die Daten sind ernüchternd. Über 60 % der DAO-Vorschläge fehlen konsistente Audit-Dokumentationen. Die Wahlbeteiligung liegt im Durchschnitt bei 17 %, wobei sich die Teilnahme auf die obersten 10 % der Token-Inhaber konzentriert, die 76,2 % der Stimmgewalt kontrollieren. Dies ist keine dezentrale Governance – es ist eine Minderheitenherrschaft mit zusätzlichen Schritten.

Nur 12 % der DAOs setzen derzeit On-Chain-Identitätsmechanismen ein, um die Rechenschaftspflicht zu verbessern. Mehr als 70 % der DAOs mit Schatzämtern über 50 Millionen $ benötigen mehrschichtige Audits, einschließlich Schutz vor Flash-Loans und verzögerten Ausführungstools. Die Infrastruktur existiert; die Einführung hinkt hinterher.

Lösungen, die tatsächlich funktionieren könnten

Das DAO-Ökosystem ist nicht blind für diese Probleme. Quadratic Voting, das zusätzliche Stimmen exponentiell teurer macht, wurde von über 100 DAOs übernommen, darunter Gitcoin und Optimism-basierte Projekte. Die Akzeptanz stieg im Jahr 2025 um 30 %, was dazu beitrug, den Einfluss auszugleichen und die Dominanz von „Whales“ zu verringern.

Untersuchungen schlagen vor, Quadratic Voting mit Vote-Escrow-Mechanismen zu integrieren, was nachweislich Whale-Probleme mildert und gleichzeitig die Resistenz gegen Absprachen aufrechterhält. Ethereum-Layer-2-Lösungen wie Optimism, Arbitrum und Base haben die DAO-Gasgebühren um bis zu 90 % gesenkt, wodurch die Teilnahme für kleinere Inhaber zugänglicher wurde.

Rechtliche Rahmenbedingungen entstehen, um Rechenschaftsstrukturen zu schaffen. Das DUNA-Framework von Wyoming und das im Februar 2025 eingeführte Harmony-Framework bieten Wege für DAOs, eine rechtliche Identität zu etablieren und gleichzeitig den dezentralen Betrieb aufrechtzuerhalten. Staaten wie Vermont, Wyoming und Tennessee haben Gesetze eingeführt, die DAOs als juristische Personen anerkennen.

Meilensteinbasierte Auszahlungsmodelle gewinnen für die Schatzamt-Allokation an Bedeutung. Die Empfänger erhalten die Mittel in Etappen bei Erreichen vordefinierter Ziele, was das Risiko von Fehlallokationen verringert und gleichzeitig die Rechenschaftspflicht sicherstellt – genau das, was die Curve-Token-Inhaber forderten, was dem Vorschlag jedoch fehlte.

Was das Curve-Drama über die Reife von DAOs verrät

Die Ablehnung von Egorovs Vorschlag war kein Versagen der Governance. Es war die Governance, die wie vorgesehen funktionierte – nur nicht wie beabsichtigt. Wenn Protokolle wie Convex systembedingt 53 % der Stimmgewalt akkumulieren, ist ihre Fähigkeit, Gründervorschläge zu überstimmen, kein Fehler. Es ist das logische Ergebnis eines Systems, das Kapitalbindung mit Governance-Autorität gleichsetzt.

Die Frage, vor der reife DAOs stehen, ist nicht, ob konzentrierte Macht existiert – sie existiert und ist messbar. Die Frage ist, ob die aktuellen Mechanismen Whale-Anreize angemessen mit der Gesundheit des Protokolls in Einklang bringen oder ob sie strukturelle Konflikte schaffen, bei denen große Inhaber davon profitieren, produktive Entwicklungen zu blockieren.

Curve bleibt mit einem Total Value Locked von über 2,5 Milliarden $ ein prominenter DeFi-Akteur. Das Protokoll wird nicht zusammenbrechen, weil ein Finanzierungsvorschlag gescheitert ist. Aber der Präzedenzfall ist wichtig. Wenn Liquid Locker genügend veCRV kontrollieren, um jeden Gründervorschlag zu überstimmen, hat sich die Machtdynamik grundlegend verschoben. DAOs, die auf Vote-Escrow-Modellen basieren, stehen vor einer Wahl: Die Governance durch Kapitalkonzentration zu akzeptieren oder die Mechanismen neu zu gestalten, um die Macht breiter zu verteilen.

Am 6. Mai 2025 hob Curve seine Whitelist-Beschränkung für die veCRV-Sperre auf, sodass jede Adresse teilnehmen kann. Die Änderung demokratisierte den Zugang, ging jedoch nicht auf die bereits im System festgeschriebene Konzentration ein. Bestehende Machtungleichgewichte bleiben bestehen, auch wenn die Eintrittsbarrieren fallen.

Der Weg nach vorn

Die 40 Milliarden $ in DAO-Schatzämtern werden sich nicht von selbst verwalten. Die über 10.000 aktiven DAOs werden sich nicht von selbst regieren. Und die 3,3 Millionen Wähler werden nicht spontan Rechenschaftsmechanismen entwickeln, die Minderheits-Stakeholder schützen.

Was die Curve-Ablehnung gezeigt hat, ist, dass DAOs in eine Ära eingetreten sind, in der Governance-Ergebnisse weniger von gemeinschaftlicher Beratung und mehr von der strategischen Positionierung großer Kapitalinhaber abhängen. Das ist nicht per se schlecht – institutionelle Investoren bringen oft Stabilität und langfristiges Denken mit. Aber es widerspricht der Gründungsmythen dezentraler Governance als demokratisierte Kontrolle.

Für Entwickler ist die Lektion klar: Governance-Design bestimmt Governance-Ergebnisse. Vote-Escrow-Modelle konzentrieren die Macht systembedingt. Liquid Locker beschleunigen diese Konzentration. Ohne explizite Mechanismen, die diesen Dynamiken entgegenwirken – Quadratic Voting, Delegationsgrenzen, meilensteinbasierte Finanzierung, identitätsverifizierte Teilnahme –, tendieren DAOs zur Oligarchie, unabhängig von ihren erklärten Werten.

Das Curve-Drama war nicht das Ende der Evolution der DAO-Governance. Es war ein Kontrollpunkt, der zeigt, wo wir tatsächlich stehen: irgendwo zwischen dem dezentralen Ideal und der plutokratischen Realität, auf der Suche nach Mechanismen, die diese Lücke schließen könnten.


Der Aufbau auf dezentraler Infrastruktur erfordert ein Verständnis der Governance-Dynamik, die die Protokollentwicklung prägt. BlockEden.xyz bietet API-Dienste der Enterprise-Klasse über mehr als 20 Blockchains hinweg und hilft Entwicklern beim Erstellen von Anwendungen, die sich in der komplexen Landschaft der DAO-gesteuerten Protokolle zurechtfinden können. Entdecken Sie unseren API-Marktplatz, um auf die Infrastruktur zuzugreifen, die die nächste Generation dezentraler Anwendungen antreibt.