Direkt zum Hauptinhalt

32 Beiträge getaggt mit „Infrastruktur“

Blockchain-Infrastruktur und Node-Services

Alle Tags anzeigen

10 Milliarden Dollar für 6 Stunden eingefroren: Was der jüngste Ausfall von Sui über die institutionelle Reife der Blockchain verrät

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Am 14. Januar 2026 um 14:52 Uhr UTC stellte das Sui-Netzwerk die Produktion von Blöcken ein. Fast sechs Stunden lang waren On-Chain-Werte im Wert von rund 10 Milliarden $ eingefroren – Transaktionen konnten nicht abgewickelt, DeFi-Positionen nicht angepasst werden und Gaming-Anwendungen fielen aus. Es gingen zwar keine Gelder verloren, doch der Vorfall entfachte eine entscheidende Debatte erneut: Können Hochdurchsatz-Blockchains die Zuverlässigkeit bieten, die eine institutionelle Akzeptanz erfordert?

Dies war nicht der erste Stolperstein für Sui. Nach einem Validator-Absturz im November 2024 und einem DDoS-Angriff im Dezember 2025, der die Leistung beeinträchtigte, markiert dieser jüngste Konsensfehler den dritten bedeutenden Vorfall des Netzwerks in etwas mehr als einem Jahr. Währenddessen überstand Solana – einst berüchtigt für Ausfälle – im Dezember 2025 einen 6-Tbps-DDoS-Angriff ohne jegliche Ausfallzeit. Der Kontrast ist eklatant und signalisiert einen grundlegenden Wandel in der Bewertung von Blockchain-Infrastruktur: Geschwindigkeit allein reicht nicht mehr aus.

Die Anatomie eines Konsensfehlers

Die technische Post-Mortem-Analyse offenbart einen Grenzwertfall (Edge Case), der die Komplexität des verteilten Konsenses verdeutlicht. Bestimmte Bedingungen bei der Garbage Collection führten in Kombination mit einem Optimierungspfad dazu, dass Validatoren voneinander abweichende Checkpoint-Kandidaten berechneten. Als mehr als ein Drittel des Stakes widersprüchliche Checkpoint-Digests signierte, kam die Zertifizierung vollständig zum Erliegen.

Hier ist der zeitliche Ablauf der Ereignisse:

  1. Erkennung (14:52 Uhr UTC): Die Blockproduktion und die Erstellung von Checkpoints stoppten. Das Team von Sui markierte das Problem umgehend.

  2. Diagnose (ca. 9 Stunden Analyse): Ingenieure stellten fest, dass Validatoren bei der Handhabung bestimmter widersprüchlicher Transaktionen zu unterschiedlichen Ergebnissen kamen – ein subtiler Fehler in der Verarbeitung von Konsens-Commits.

  3. Entwicklung des Fixes (11:37 Uhr PST): Das Team implementierte einen Patch für die Commit-Logik.

  4. Bereitstellung (12:44 Uhr PST): Nach einem erfolgreichen Canary-Deployment durch die Validatoren von Mysten Labs aktualisierte das gesamte Validator-Set.

  5. Wiederherstellung (20:44 Uhr UTC): Der Dienst wurde wiederhergestellt, etwa 5 Stunden und 52 Minuten nach der Erkennung.

Der Wiederherstellungsprozess erforderte von den Validatoren, fehlerhafte Konsensdaten zu entfernen, den Fix anzuwenden und die Chain ab dem Zeitpunkt der Divergenz erneut abzuspielen. Es funktionierte – aber sechs Stunden sind eine Ewigkeit auf den Finanzmärkten, in denen Millisekunden zählen.

Die Abrechnung mit der Zuverlässigkeit: Von TPS-Kriegen zu Uptime-Kriegen

Jahrelang konzentrierte sich der Wettbewerb zwischen Blockchains auf eine einzige Kennzahl: Transaktionen pro Sekunde (TPS). Solana versprach 65.000 TPS. Sui behauptete, in Tests 297.000 TPS zu erreichen. Das Wettrüsten um den Durchsatz dominierte die Marketing-Narrative und die Aufmerksamkeit der Investoren.

Diese Ära geht zu Ende. Wie ein Analyst bemerkte: „Nach 2025 werden sich die Kernmetriken für den Wettbewerb öffentlicher Chains von ‚Wer ist schneller‘ zu ‚Wer ist stabiler, wer ist berechenbarer‘ verschieben.“

Der Grund dafür ist institutionelles Kapital. Als JPMorgan Asset Management einen tokenisierten Geldmarktfonds im Wert von 100 Millionen aufEthereumauflegte,optimiertensienichtaufGeschwindigkeit,sondernaufSicherheit.AlsBlackRock,FidelityundGrayscaleMilliardeninBitcoinundEthereumETFsinvestierten,dabei31Milliardenauf Ethereum auflegte, optimierten sie nicht auf Geschwindigkeit, sondern auf Sicherheit. Als BlackRock, Fidelity und Grayscale Milliarden in Bitcoin- und Ethereum-ETFs investierten, dabei 31 Milliarden an Nettozuflüssen generierten und ein Handelsvolumen von 880 Milliarden $ abwickelten, wählten sie Chains mit praxiserprobter Zuverlässigkeit gegenüber theoretischen Durchsatzvorteilen.

Wahre Blockchain-Performance wird heute durch das Zusammenspiel von drei Elementen definiert: Durchsatz (Kapazität), Blockzeit (Inklusionsgeschwindigkeit) und Finalität (Unumkehrbarkeit). Die schnellsten Chains sind diejenigen, die alle drei Faktoren in Einklang bringen, aber die wertvollsten Chains sind diejenigen, die dies konsistent tun – unter Angriffen, unter Last und unter Grenzwertbedingungen, die kein Testnetz vorhersieht.

Solanas Rehabilitation der Zuverlässigkeit

Der Vergleich mit Solana ist aufschlussreich. Zwischen 2021 und 2022 erlitt Solana sieben größere Ausfälle, wobei der längste 17 Stunden dauerte, nachdem Bot-Aktivitäten während eines Token-Launches die Validatoren überwältigten. Das Netzwerk wurde zur Zielscheibe von Spott – „Solana ist wieder down“ war ein Dauerwitz in Krypto-Twitter-Kreisen.

Doch das Engineering-Team von Solana reagierte mit strukturellen Änderungen. Sie implementierten das QUIC-Protokoll und Stake-Weighted Quality of Service (SWQoS) und gestalteten grundlegend neu, wie das Netzwerk die Transaktionspriorisierung und Spam-Resistenz handhabt. Der DDoS-Angriff vom Dezember 2025 – ein 6-Tbps-Ansturm, der mit Angriffen auf globale Cloud-Giganten vergleichbar ist – testete diese Verbesserungen. Das Ergebnis: Bestätigungszeiten im Sub-Sekunden-Bereich und eine stabile Latenz während des gesamten Vorfalls.

Diese Resilienz ist nicht nur eine technische Errungenschaft – sie ist das Fundament für institutionelles Vertrauen. Solana führt nun die ETF-Welle mit acht Spot-plus-Staking-ETF-Anträgen an, von denen bis November 2025 sechs Produkte live waren und ein kumuliertes Volumen von über 4,6 Milliarden $ generierten. Der Ruf des Netzwerks hat sich von „schnell, aber fragil“ zu „unter Feuer bewährt“ gewandelt.

Suis Weg in die Zukunft erfordert eine ähnliche Transformation. Die geplanten Änderungen – verbesserte Automatisierung für den Validator-Betrieb, verstärkte Tests für Konsens-Grenzfälle und die Früherkennung von Checkpoint-Inkonsistenzen – sind notwendig, aber schrittweise. Die tiefergehende Frage ist, ob die architektonischen Entscheidungen von Sui von Natur aus mehr Angriffsfläche für Konsensfehler bieten als ausgereifte Alternativen.

Die institutionelle Zuverlässigkeitsschwelle

Was verlangen Institutionen eigentlich? Die Antwort ist klarer geworden, während sich das traditionelle Finanzwesen On-Chain bewegt:

Vorhersehbare Abwicklung (Settlement): Große Verwahrer und Clearing-Stellen betreiben heute hybride Modelle, die Blockchain-Schienen mit herkömmlichen Zahlungs- und Wertpapiernetzwerken verknüpfen. Die Finalität von Transaktionen am selben Tag unter regulierten Kontrollen ist die Basiserwartung.

Operative Prüfbarkeit (Auditierbarkeit): Die institutionelle Abwicklungsinfrastruktur im Jahr 2026 ist durch Präzision und Prüfbarkeit definiert. Jede Transaktion muss rückverfolgbar sein, jeder Fehler erklärbar und jede Wiederherstellung nach regulatorischen Standards dokumentiert werden.

Uptime-Garantien: Traditionelle Finanzinfrastrukturen arbeiten mit einer Erwartung von "Five Nines" (99,999 %) Uptime – das entspricht etwa 5 Minuten Ausfallzeit pro Jahr. Sechs Stunden eingefrorene Vermögenswerte wären für einen traditionellen Verwahrer karrierebeendend.

Kontrollierter Funktionsabbau (Graceful Degradation): Wenn Fehler auftreten, erwarten Institutionen, dass Systeme kontrolliert herunterfahren, anstatt komplett zu stoppen. Eine Blockchain, die bei Konsensstreitigkeiten vollständig einfriert, verletzt dieses Prinzip.

Der 10-Milliarden-Dollar-Freeze von Sui stellt, selbst ohne Kapitalverlust, ein kategorisches Versagen beim dritten Punkt dar. Für Retail-Trader und DeFi-Degens ist eine sechsstündige Pause eine Unannehmlichkeit. Für institutionelle Allokatoren, die Kundenkapital unter Treuepflicht verwalten, ist es ein Ausschlusskriterium, bis das Gegenteil bewiesen ist.

Die entstehende Zuverlässigkeitshierarchie

Basierend auf den Leistungsdaten für 2025–2026 zeichnet sich eine grobe Zuverlässigkeitshierarchie unter den High-Throughput-Chains ab:

Tier 1 – Bewährtes institutionelles Niveau: Ethereum (keine größeren Ausfälle, aber begrenzter Durchsatz), Solana (reformiert mit einer über 18-monatigen sauberen Bilanz)

Tier 2 – Vielversprechend, aber unbewiesen: Base (gestützt durch die Coinbase-Infrastruktur), Arbitrum / Optimism (erben das Sicherheitsmodell von Ethereum)

Tier 3 – Hohes Potenzial, Zuverlässigkeitsfragen: Sui (mehrere Vorfälle), neuere L1s ohne längere Erfolgsbilanz

Diese Hierarchie spiegelt keine technologische Überlegenheit wider – das objektzentrierte Datenmodell von Sui und seine parallelen Verarbeitungsfähigkeiten bleiben wirklich innovativ. Aber Innovation ohne Zuverlässigkeit schafft Technologie, die Institutionen bewundern, aber nicht einsetzen können.

Wie es für Sui weitergeht

Suis Reaktion auf diesen Vorfall wird seinen institutionellen Weg bestimmen. Die unmittelbaren technischen Korrekturen beheben den spezifischen Fehler, aber die größere Herausforderung besteht darin, eine systemische Verbesserung der Zuverlässigkeit zu demonstrieren.

Wichtige Kennzahlen, auf die man achten sollte:

Zeit zwischen Vorfällen: Die Entwicklung von November 2024 → Dezember 2025 → Januar 2026 zeigt eine zunehmende, nicht abnehmende Häufigkeit. Diesen Trend umzukehren ist essenziell.

Verbesserung der Wiederherstellungszeit: Sechs Stunden sind besser als 17 Stunden (Solanas schlechtester Wert), aber das Ziel sollten Minuten sein, nicht Stunden. Automatisierte Failover- und schnellere Konsens-Wiederherstellungsmechanismen müssen entwickelt werden.

Reifung des Validator-Sets: Das Validator-Set von Sui ist kleiner und weniger praxiserprobt als das von Solana. Die Ausweitung der geografischen Verteilung und der operativen Professionalität der Validatoren würde die Resilienz verbessern.

Formale Verifikation: Die Move-Sprache von Sui betont bereits die formale Verifikation für Smart Contracts. Diese Strenge auf den Code der Konsensschicht auszuweiten, könnte Grenzfälle abfangen, bevor sie die Produktion erreichen.

Die gute Nachricht: Das Ökosystem von Sui (DeFi, Gaming, NFTs) zeigte sich widerstandsfähig. Es gingen keine Gelder verloren und die Reaktion der Community war eher konstruktiv als panisch. Der SUI-Token fiel während des Vorfalls um 6 %, brach aber nicht zusammen, was darauf hindeutet, dass der Markt diese Ereignisse eher als Wachstumsschmerzen denn als existenzielle Bedrohungen betrachtet.

Der Zuverlässigkeitsaufschlag in den Märkten von 2026

Die umfassendere Lektion geht über Sui hinaus. Da die Blockchain-Infrastruktur reift, wird Zuverlässigkeit zu einem Differenzierungsmerkmal, das Premium-Bewertungen fordert. Chains, die eine Uptime auf institutionellem Niveau nachweisen können, werden die nächste Welle tokenisierter Vermögenswerte anziehen – Gold, Aktien, geistiges Eigentum und GPUs, von denen der Gründer von OKX Ventures, Jeff Ren, prognostiziert, dass sie 2026 On-Chain gehen werden.

Dies schafft eine strategische Chance für etablierte Chains und eine Herausforderung für neue Marktteilnehmer. Der relativ bescheidene Durchsatz von Ethereum wird zunehmend akzeptabel, da seine Zuverlässigkeit außer Frage steht. Solanas reformierter Ruf öffnet Türen, die während seiner ausfälligen Ära geschlossen waren.

Für Sui und ähnliche High-Throughput-Chains erfordert die Wettbewerbslandschaft von 2026 den Beweis, dass Innovation und Zuverlässigkeit keine Kompromisse sind. Die Technologie, um beides zu erreichen, existiert – die Frage ist, ob die Teams sie implementieren können, bevor die institutionelle Geduld am Ende ist.

Die 10 Milliarden Dollar, die sechs Stunden lang eingefroren waren, gingen nicht verloren, aber auch die Lektion war nicht umsonst: Im institutionellen Zeitalter ist Uptime das ultimative Feature.


Der Aufbau einer zuverlässigen Infrastruktur auf Sui, Ethereum oder anderen High-Throughput-Chains erfordert praxiserprobte RPC-Anbieter, die die Uptime aufrechterhalten, wenn Netzwerke unter Stress stehen. BlockEden.xyz bietet API-Endpunkte der Enterprise-Klasse mit Redundanz und Monitoring, die für institutionelle Anforderungen entwickelt wurden. Entdecken Sie unsere Infrastruktur, um auf Fundamenten zu bauen, die online bleiben.

Die Oracle-Kriege von 2026: Wer wird die Zukunft der Blockchain-Infrastruktur kontrollieren?

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Der Blockchain-Orakel-Markt hat gerade einen Gesamtwert von über 100 Milliarden US-Dollar an abgesicherten Vermögenswerten überschritten – und der Kampf um die Vorherrschaft ist noch lange nicht vorbei. Während Chainlink fast 70 % Marktanteil hält, schreibt eine neue Generation von Herausforderern die Regeln dafür neu, wie Blockchains mit der realen Welt verbunden werden. Mit Latenzzeiten im Sub-Millisekundenbereich, modularen Architekturen und Daten-Feeds in institutioneller Qualität werden die Orakel-Kriege von 2026 entscheiden, wer die kritische Infrastrukturschicht kontrolliert, die DeFi, die RWA-Tokenisierung und die nächste Welle des On-Chain-Finanzwesens antreibt.

Es steht mehr auf dem Spiel als je zuvor

Orakel sind die heimlichen Helden der Blockchain-Infrastruktur. Ohne sie sind Smart Contracts isolierte Computer ohne Kenntnis von Vermögenspreisen, Wetterdaten, Sportergebnissen oder anderen externen Informationen. Doch diese kritische Middleware-Schicht ist zu einem Schlachtfeld geworden, auf dem Milliarden von Dollar – und die Zukunft des dezentralen Finanzwesens – auf dem Spiel stehen.

Preis-Orakel-Manipulationsangriffe verursachten zwischen Januar 2023 und Mai 2025 Verluste von über 165,8 Millionen US-Dollar, was 17,3 % aller größeren DeFi-Exploits ausmacht. Der Angriff auf das Venus-Protokoll auf ZKsync im Februar 2025 zeigte, wie eine einzige anfällige Orakel-Integration innerhalb von Minuten 717.000 US-Dollar abziehen konnte. Wenn Orakel versagen, bluten die Protokolle aus.

Dieses existenzielle Risiko erklärt, warum der Orakel-Markt einige der anspruchsvollsten Akteure des Krypto-Sektors angezogen hat – und warum der Wettbewerb an Intensität gewinnt.

Die Dominanz von Chainlink ist in jeder Hinsicht beeindruckend. Das Netzwerk hat über 100 Milliarden US-Dollar an Gesamtwert abgesichert, mehr als 18 Milliarden verifizierte Nachrichten verarbeitet und ein kumuliertes On-Chain-Transaktionsvolumen von etwa 26 Billionen US-Dollar ermöglicht. Allein auf Ethereum sichert Chainlink 83 % des gesamten von Orakeln abhängigen Wertes ab; auf Base nähert sich dieser Wert 100 %.

Die Zahlen erzählen eine Geschichte institutioneller Akzeptanz, mit der Wettbewerber nur schwer mithalten können. JPMorgan, UBS und SWIFT haben die Chainlink-Infrastruktur für die Abwicklung tokenisierter Vermögenswerte integriert. Coinbase wählte Chainlink aus, um Transfers von Wrapped Assets zu unterstützen. Als TRON Anfang 2025 beschloss, sein WinkLink-Orakel einzustellen, migrierte es zu Chainlink – ein stillschweigendes Geständnis, dass der Aufbau einer Orakel-Infrastruktur schwieriger ist, als es aussieht.

Die Strategie von Chainlink hat sich von der reinen Datenlieferung zu dem entwickelt, was das Unternehmen als „Full-Stack-Plattform für Institutionen“ bezeichnet. Der Start der nativen Integration mit MegaETH im Jahr 2025 markierte den Einstieg in Echtzeit-Orakeldienste und forderte damit direkt den Geschwindigkeitsvorteil von Pyth heraus. In Kombination mit seinem Cross-Chain Interoperability Protocol (CCIP) und Proof-of-Reserve-Systemen positioniert sich Chainlink als Standard-Infrastruktur für institutionelles DeFi.

Doch Dominanz fördert Selbstgefälligkeit – und die Konkurrenz nutzt die Lücken.

Pyth Network: Der Geschwindigkeitsdämon

Wenn Chainlink den ersten Orakel-Krieg durch Dezentralisierung und Zuverlässigkeit gewonnen hat, setzt Pyth darauf, dass der nächste Krieg durch Geschwindigkeit gewonnen wird. Das im ersten Quartal 2025 eingeführte Lazer-Produkt des Netzwerks liefert Preisaktualisierungen in einer Millisekunde – 400-mal schneller als herkömmliche Orakel-Lösungen.

Dies ist keine marginale Verbesserung. Es ist ein Paradigmenwechsel.

Die Architektur von Pyth unterscheidet sich grundlegend vom Push-Modell von Chainlink. Anstatt dass Orakel kontinuierlich Daten auf die Chain pushen (was teuer und langsam ist), verwendet Pyth ein Pull-Modell, bei dem Anwendungen Daten nur bei Bedarf abrufen. First-Party-Datenanbieter – darunter Jump Trading, Wintermute und große Börsen – liefern Preise direkt, anstatt über zwischengeschaltete Aggregatoren.

Das Ergebnis ist ein Netzwerk, das mehr als 1.400 Vermögenswerte auf über 50 Blockchains abdeckt, mit Aktualisierungen im Bereich von unter 400 Millisekunden, selbst bei seinem Standarddienst. Die jüngste Expansion von Pyth in traditionelle Finanzdaten – 85 an der Hongkonger Börse notierte Aktien (3,7 Billionen US-Dollar Marktkapitalisierung) und über 100 ETFs von BlackRock, Vanguard und State Street (8 Billionen US-Dollar an Vermögenswerten) – signalisiert Ambitionen, die weit über Krypto hinausgehen.

Die Integration von Pyth Lazer durch Coinbase International im Jahr 2025 bestätigte die These: Sogar zentralisierte Börsen benötigen dezentrale Orakel-Infrastrukturen, wenn es auf Geschwindigkeit ankommt. Der TVS von Pyth erreichte im ersten Quartal 2025 7,15 Milliarden US-Dollar, wobei der Marktanteil von 10,7 % auf 12,8 % stieg.

Dennoch bringt der Geschwindigkeitsvorteil von Pyth Kompromisse mit sich. Nach eigenem Eingeständnis opfert Lazer für die Leistung „einige Elemente der Dezentralisierung“. Für Protokolle, bei denen Vertrauensminimierung wichtiger als Latenz ist, könnte dieser Kompromiss inakzeptabel sein.

RedStone: Der modulare Herausforderer

Während Chainlink und Pyth um Marktanteile kämpfen, hat sich RedStone still und heimlich zum am schnellsten wachsenden Orakel der Branche entwickelt. Das Projekt skalierte von seiner ersten DeFi-Integration Anfang 2023 auf 9 Milliarden US-Dollar an abgesichertem Gesamtwert bis September 2025 – eine Steigerung von 1.400 % im Vergleich zum Vorjahr.

RedStones Geheimwaffe ist die Modularität. Im Gegensatz zur monolithischen Architektur von Chainlink (die eine Replikation der gesamten Pipeline auf jeder neuen Chain erfordert), entkoppelt das Design von RedStone die Datenerfassung von der Auslieferung. Dies ermöglicht die Bereitstellung auf neuen Chains innerhalb von ein bis zwei Wochen, verglichen mit drei bis vier Monaten bei herkömmlichen Lösungen.

Die Zahlen sind beeindruckend: RedStone unterstützt mittlerweile über 110 Chains, mehr als jeder andere Wettbewerber. Dies schließt Nicht-EVM-Netzwerke wie Solana und Sui ein, sowie das Canton Network – die institutionelle Blockchain, die von großen Finanzinstituten unterstützt wird und bei der RedStone zum ersten primären Orakel-Anbieter wurde.

Die Meilensteine von RedStone im Jahr 2025 lesen sich wie ein strategischer Angriff auf institutionelles Territorium. Die Partnerschaft mit Securitize brachte die RedStone-Infrastruktur zu den tokenisierten Fonds BUIDL von BlackRock und ACRED von Apollo. Die Übernahme von Credora verschmolz DeFi-Kreditratings mit Orakel-Infrastruktur. Die Kalshi-Integration lieferte regulierte US-Prognosemarktdaten über alle unterstützten Chains hinweg.

RedStone Bolt – das Ultra-Low-Latency-Angebot des Projekts – konkurriert bei geschwindigkeitskritischen Anwendungen direkt mit Pyth Lazer. Aber der modulare Ansatz von RedStone ermöglicht es, sowohl Push- als auch Pull-Modelle anzubieten und sich so an die Anforderungen der Protokolle anzupassen, anstatt architektonische Kompromisse zu erzwingen.

Für 2026 hat RedStone Pläne angekündigt, auf 1.000 Chains zu skalieren und KI-gestützte ML-Modelle für dynamische Daten-Feeds und Volatilitätsprognosen zu integrieren. Es ist eine aggressive Roadmap, die RedStone als das Orakel für eine Omnichain-Zukunft positioniert.

API3: Der First-Party-Purist

API3 verfolgt einen philosophisch anderen Ansatz zum Orakel-Problem. Anstatt ein eigenes Knotennetzwerk zu betreiben oder Daten von Drittanbietern zu aggregieren, ermöglicht API3 es traditionellen API-Anbietern, ihre eigenen Orakel-Knoten zu betreiben und Daten direkt on-chain bereitzustellen.

Dieses „First-Party“-Modell eliminiert Intermediäre vollständig. Wenn ein Wetterdienst Daten über API3 bereitstellt, gibt es keine Aggregationsschicht, keine Drittbetreiber von Knoten und keine Möglichkeit zur Manipulation entlang der Lieferkette. Der API-Anbieter ist direkt für die Datengenauigkeit verantwortlich.

Für Unternehmensanwendungen, die regulatorische Compliance und eine klare Datenherkunft erfordern, ist der Ansatz von API3 überzeugend. Finanzinstitute, die Audit-Anforderungen unterliegen, müssen genau wissen, woher ihre Daten stammen – etwas, das traditionelle Orakel-Netzwerke nicht immer garantieren können.

Die verwalteten dAPIs (dezentrale APIs) von API3 verwenden ein Push-Modell ähnlich wie Chainlink, was die Migration für bestehende Protokolle einfach macht. Das Projekt hat eine Nische in IoT-Integrationen und Unternehmensanwendungen besetzt, bei denen die Authentizität der Daten wichtiger ist als die Aktualisierungsfrequenz.

Der Sicherheitsimperativ

Orakel-Sicherheit ist nicht theoretisch – sie ist existenziell. Der wUSDM-Exploit im Februar 2025 zeigte, wie ERC-4626 Vault-Standards in Kombination mit anfälligen Orakel-Integrationen Angriffsvektoren schaffen, die versierte Angreifer bereitwillig ausnutzen.

Das Angriffsmuster ist mittlerweile gut dokumentiert: Flash Loans nutzen, um die Preise in Liquiditätspools vorübergehend zu manipulieren, Orakel ausnutzen, die diese Pools ohne ausreichende Schutzmaßnahmen auslesen, und Werte extrahieren, bevor die Transaktion abgeschlossen ist. Der BonqDAO-Hack – 88 Millionen $ Verlust durch Preismanipulation – bleibt der größte einzelne Orakel-Exploit in der Geschichte.

Die Schadensbegrenzung erfordert eine Tiefenverteidigung (Defense in Depth): Aggregation mehrerer unabhängiger Datenquellen, Implementierung von zeitgewichteten Durchschnittspreisen (TWAP) zur Glättung der Volatilität, Einrichtung von Schutzschaltern (Circuit Breaker) für anomale Preisbewegungen und kontinuierliche Überwachung auf Manipulationsversuche. Protokolle, die die Orakel-Integration als bloßes Häkchen anstatt als sicherheitskritische Designentscheidung behandeln, spielen russisches Roulette mit den Geldern der Nutzer.

Die führenden Orakel haben mit zunehmend anspruchsvollen Sicherheitsmaßnahmen reagiert. Die dezentrale Aggregation von Chainlink, die Verantwortlichkeit der First-Party-Publisher von Pyth und die kryptografischen Beweise von RedStone adressieren alle unterschiedliche Aspekte des Vertrauensproblems. Aber keine Lösung ist perfekt, und das Katz-und-Maus-Spiel zwischen Orakel-Designern und Angreifern geht weiter.

Das institutionelle Neuland

Der wahre Preis in den Orakel-Kriegen ist nicht der DeFi-Marktanteil – es ist die institutionelle Akzeptanz. Da die RWA-Tokenisierung eine Marktkapitalisierung von 62,7 Milliarden $ erreicht (ein Plus von 144 % im Jahr 2026), sind Orakel zu einer kritischen Infrastruktur für die Blockchain-Migration des traditionellen Finanzwesens geworden.

Tokenisierte Vermögenswerte erfordern zuverlässige Off-Chain-Daten: Preisinformationen, Zinssätze, Kapitalmaßnahmen, Proof of Reserves. Diese Daten müssen institutionellen Standards für Genauigkeit, Prüfbarkeit und regulatorische Compliance entsprechen. Das Orakel, das das Vertrauen der Institutionen gewinnt, gewinnt das nächste Jahrzehnt der Finanzinfrastruktur.

Der Vorsprung von Chainlink bei JPMorgan, UBS und SWIFT schafft starke Netzwerkeffekte. Doch die Partnerschaft von RedStone mit Securitize und der Einsatz im Canton Network beweisen, dass die Türen der Institutionen für Herausforderer offen stehen. Die Expansion von Pyth in traditionelle Aktien- und ETF-Daten positioniert das Projekt für die Konvergenz von Krypto- und TradFi-Märkten.

Die MiCA-Verordnung der EU und das „Project Crypto“ der US-Börsenaufsicht SEC beschleunigen diese institutionelle Migration durch regulatorische Klarheit. Orakel, die ihre Compliance-Bereitschaft nachweisen können – klare Datenherkunft, Audit-Trails und Zuverlässigkeit auf institutionellem Niveau –, werden überproportionale Marktanteile gewinnen, wenn das traditionelle Finanzwesen on-chain zieht.

Was als Nächstes kommt

Der Orakel-Markt im Jahr 2026 fragmentiert sich entlang klarer Linien:

Chainlink bleibt die Standardwahl für Protokolle, die praxiserprobte Zuverlässigkeit und institutionelle Glaubwürdigkeit priorisieren. Sein Full-Stack-Ansatz – Daten-Feeds, Cross-Chain-Messaging, Proof of Reserves – schafft Wechselkosten, die den Marktanteil schützen.

Pyth erobert geschwindigkeitskritische Anwendungen, bei denen Millisekunden zählen: Perpetual Futures, Hochfrequenzhandel und Derivate-Protokolle. Sein First-Party-Publisher-Modell und die Erweiterung auf traditionelle Finanzdaten positionieren es für die CeFi-DeFi-Konvergenz.

RedStone spricht die Omnichain-Zukunft an und bietet eine modulare Architektur, die sich an unterschiedliche Protokollanforderungen über mehr als 110 Chains hinweg anpasst. Seine institutionellen Partnerschaften signalisieren Glaubwürdigkeit jenseits der DeFi-Spekulation.

API3 bedient Unternehmensanwendungen, die regulatorische Compliance und direkte Datenherkunft erfordern – eine kleinere, aber vertretbare Nische.

Kein einzelnes Orakel wird alles gewinnen. Der Markt ist groß genug, um mehrere spezialisierte Anbieter zu unterstützen, die jeweils für unterschiedliche Anwendungsfälle optimiert sind. Aber der Wettbewerb wird Innovationen vorantreiben, Kosten senken und letztendlich die Blockchain-Infrastruktur robuster machen.

Für Entwickler ist die Botschaft klar: Die Auswahl des Orakels ist eine architektonische Entscheidung erster Ordnung mit langfristigen Auswirkungen. Wählen Sie basierend auf Ihren spezifischen Anforderungen – Latenz, Dezentralisierung, Chain-Abdeckung, institutionelle Compliance – und nicht nur nach dem Marktanteil.

Für Investoren stellen Orakel-Token gehebelte Wetten auf die Blockchain-Adoption dar. Da immer mehr Wert on-chain fließt, erfasst die Orakel-Infrastruktur einen Teil jeder Transaktion. Die Gewinner werden ihr Wachstum über Jahre hinweg steigern; die Verlierer werden in der Bedeutungslosigkeit verschwinden.

Die Orakel-Kriege von 2026 fangen gerade erst an. Die heute aufgebaute Infrastruktur wird das Finanzsystem von morgen antreiben.


Erstellen Sie DeFi-Anwendungen, die eine zuverlässige Orakel-Infrastruktur erfordern? BlockEden.xyz bietet Blockchain-RPC-Dienste der Enterprise-Klasse mit hoher Verfügbarkeit über mehrere Netzwerke hinweg. Erkunden Sie unseren API-Marktplatz, um Ihre Anwendungen mit praxiserprobter Infrastruktur zu verbinden.

Celestias Wettbewerbsvorteil bei der Datenverfügbarkeit: Eine tiefe Analyse

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Als Ethereum-L2s 3,83 proMegabytezahlten,umDatenmittelsBlobszuposten,zahlteEclipseanCelestia0,07pro Megabyte zahlten, um Daten mittels Blobs zu posten, zahlte Eclipse an Celestia 0,07 für dasselbe Megabyte. Das ist kein Tippfehler – 55-mal günstiger, was es Eclipse ermöglichte, über 83 GB an Daten zu posten, ohne die eigene Schatzkammer zu sprengen. Dieser Kostenunterschied ist keine vorübergehende Marktanomalie. Es ist der strukturelle Vorteil einer zweckgebundenen Infrastruktur.

Celestia hat mittlerweile über 160 GB an Rollup-Daten verarbeitet, generiert tägliche Blob-Gebühren, die seit Ende 2024 um das Zehnfache gestiegen sind, und hält einen Marktanteil von etwa 50 % im Bereich der Datenverfügbarkeit (Data Availability). Die Frage ist nicht, ob modulare Datenverfügbarkeit funktioniert – sondern ob Celestia seinen Vorsprung behaupten kann, während EigenDA, Avail und die nativen Blobs von Ethereum um dieselben Rollup-Kunden konkurrieren.

Die Ökonomie der Blobs verstehen: Die Grundlage

Bevor wir die Zahlen von Celestia analysieren, lohnt es sich zu verstehen, was die Datenverfügbarkeit wirtschaftlich von anderen Blockchain-Diensten unterscheidet.

Wofür Rollups tatsächlich bezahlen

Wenn ein Rollup Transaktionen verarbeitet, erzeugt es Statusänderungen (State Changes), die verifizierbar sein müssen. Anstatt dem Rollup-Betreiber zu vertrauen, können Nutzer dies überprüfen, indem sie Transaktionen anhand der Originaldaten erneut ausführen. Dies setzt voraus, dass die Transaktionsdaten verfügbar bleiben – nicht für immer, aber lange genug für Challenges und Verifizierungen.

Traditionelle Rollups posteten diese Daten direkt in die Ethereum-Calldata und zahlten Premiumpreise für die dauerhafte Speicherung auf dem sichersten Ledger der Welt. Die meisten Rollup-Daten benötigen die Verfügbarkeit jedoch nur für ein Challenge-Zeitfenster (typischerweise 7–14 Tage), nicht für die Ewigkeit. Diese Diskrepanz schuf die Chance für spezialisierte Datenverfügbarkeitsschichten (Data Availability Layers).

Celestias PayForBlob-Modell

Das Gebührenmodell von Celestia ist einfach: Rollups zahlen pro Blob basierend auf der Größe und den aktuellen Gaspreisen. Im Gegensatz zu Ausführungsschichten (Execution Layers), in denen Rechenkosten dominieren, geht es bei der Datenverfügbarkeit grundlegend um Bandbreite und Speicherung – Ressourcen, die mit Hardwareverbesserungen berechenbarer skalieren.

Die Ökonomie erzeugt einen Schwungradeffekt (Flywheel): Niedrigere DA-Kosten ermöglichen mehr Rollups, mehr Rollups generieren mehr Gebühreneinnahmen, und die gestiegene Nutzung rechtfertigt Infrastrukturinvestitionen für noch größere Kapazitäten. Celestias aktueller Durchsatz von etwa 1,33 MB / s (8-MB-Blöcke alle 6 Sekunden) stellt eine Kapazität im Frühstadium dar, mit einem klaren Pfad zur 100-fachen Verbesserung.

Die 160-GB-Realität: Wer Celestia nutzt

Die Gesamtzahlen erzählen eine Geschichte schneller Akzeptanz. Seit dem Mainnet-Start wurden über 160 GB an Daten auf Celestia veröffentlicht, wobei das tägliche Datenvolumen im Durchschnitt bei etwa 2,5 GB liegt. Doch die Zusammensetzung dieser Daten offenbart interessantere Muster.

Eclipse: Der Volumen-Spitzenreiter

Eclipse – ein Layer 2, der die virtuelle Maschine von Solana mit dem Settlement auf Ethereum kombiniert – hat über 83 GB an Daten auf Celestia veröffentlicht, mehr als die Hälfte des gesamten Netzwerkvorgangs. Eclipse nutzt Celestia für die Datenverfügbarkeit, während das Settlement auf Ethereum erfolgt, was die modulare Architektur in der Praxis demonstriert.

Das Volumen überrascht angesichts der Designentscheidungen von Eclipse nicht. Die Ausführung der Solana Virtual Machine (SVM) erzeugt mehr Daten als EVM-Äquivalente, und der Fokus von Eclipse auf Hochdurchsatz-Anwendungen (Gaming, DeFi, Social) bedeutet Transaktionsvolumina, die auf Ethereum DA kostenintensiv wären.

Die Enterprise-Kohorte

Über Eclipse hinaus umfasst das Rollup-Ökosystem:

  • Manta Pacific: Über 7 GB gepostet, ein OP-Stack-Rollup, das sich auf ZK-Anwendungen mit Universal-Circuits-Technologie konzentriert
  • Plume Network: Ein auf RWA spezialisierter L2, der Celestia für Transaktionsdaten tokenisierter Vermögenswerte nutzt
  • Derive: On-Chain-Optionen und Handel mit strukturierten Produkten
  • Aevo: Dezentrale Derivatebörse, die Hochfrequenz-Handelsdaten verarbeitet
  • Orderly Network: Cross-Chain-Orderbuch-Infrastruktur

Sechsundzwanzig Rollups bauen nun auf Celestia auf, wobei die wichtigsten Frameworks – Arbitrum Orbit, OP Stack, Polygon CDK – Celestia als DA-Option anbieten. Rollups-as-a-Service-Plattformen wie Conduit und Caldera haben die Celestia-Integration zu einem Standardangebot gemacht.

Wachstum der Gebühreneinnahmen

Ende 2024 generierte Celestia etwa 225 $ pro Tag an Blob-Gebühren. Diese Zahl ist fast um das Zehnfache gestiegen, was sowohl die gestiegene Nutzung als auch die Fähigkeit des Netzwerks widerspiegelt, bei steigender Nachfrage Wert zu schöpfen. Der Gebührenmarkt befindet sich noch in einem frühen Stadium – die Kapazitätsauslastung ist im Vergleich zu getesteten Limits gering –, aber der Wachstumspfad bestätigt das Wirtschaftsmodell.

Kostenvergleich: Celestia vs. die Konkurrenz

Die Datenverfügbarkeit hat sich zu einem wettbewerbsorientierten Markt entwickelt. Das Verständnis der Kostenstrukturen hilft dabei, die Entscheidungen der Rollups nachzuvollziehen.

Celestia vs. Ethereum-Blobs

Ethereums EIP-4844 (Dencun-Upgrade) führte Blob-Transaktionen ein, wodurch die DA-Kosten im Vergleich zu Calldata um über 90 % gesenkt wurden. Celestia bleibt jedoch deutlich günstiger:

MetrikEthereum-BlobsCelestia
Kosten pro MB~ 3,83 $~ 0,07 $
KostenvorteilBasiswert55-mal günstiger
KapazitätBegrenzter Blob-Platz8-MB-Blöcke (skalierbar auf 1 GB)

Für Rollups mit hohem Volumen wie Eclipse ist dieser Unterschied existenziell. Zu Preisen von Ethereum-Blobs hätten die 83 GB an Daten von Eclipse über 300.000 gekostet.AufCelestiakosteteesetwa6.000gekostet. Auf Celestia kostete es etwa 6.000.

Celestia vs. EigenDA

EigenDA bietet ein anderes Wertversprechen: Auf Ethereum ausgerichtete Sicherheit durch Restaking, mit einem behaupteten Durchsatz von 100 MB / s. Die Abwägungen:

AspektCelestiaEigenDA
SicherheitsmodellUnabhängiges Validator-SetEthereum Restaking
Durchsatz1,33 MB / s (8-MB-Blöcke)100 MB / s (behauptet)
ArchitekturBlockchain-basiertData Availability Committee (DAC)
DezentralisierungÖffentliche VerifizierungVertrauensannahmen

Die DAC-Architektur von EigenDA ermöglicht einen höheren Durchsatz, führt jedoch Vertrauensannahmen ein, die vollständig Blockchain-basierte Lösungen vermeiden. Für Teams, die tief in das Ökosystem von Ethereum eingebunden sind, kann die Restaking-Integration von EigenDA die Unabhängigkeit von Celestia überwiegen.

Celestia vs. Avail

Avail positioniert sich als die flexibelste Option für Multichain-Anwendungen:

AspektCelestiaAvail
Kosten pro MBHöherNiedriger
Ökonomische SicherheitHöherNiedriger
Mainnet-Kapazität8-MB-Blöcke4-MB-Blöcke
Test-Kapazität128 MB nachgewiesen128 MB nachgewiesen

Die niedrigeren Kosten von Avail gehen mit einer geringeren ökonomischen Sicherheit einher – ein angemessener Kompromiss für Anwendungen, bei denen die marginalen Kosteneinsparungen wichtiger sind als maximale Sicherheitsgarantien.

Die Skalierungs-Roadmap: Von 1 MB / s zu 1 GB / s

Die aktuelle Kapazität von Celestia – etwa 1,33 MB / s – ist bewusst konservativ gewählt. Das Netzwerk hat in kontrollierten Tests einen dramatisch höheren Durchsatz demonstriert und bietet einen klaren Upgrade-Pfad.

Mammoth-Testergebnisse

Im Oktober 2024 erreichte das Mammoth Mini Devnet 88-MB-Blöcke mit 3-Sekunden-Blockzeiten, was einen Durchsatz von ca. 27 MB / s lieferte – mehr als das 20-fache der aktuellen Mainnet-Kapazität.

Im April 2025 ging das mamo-1 Testnet noch weiter: 128-MB-Blöcke mit 6-Sekunden-Blockzeiten erreichten einen dauerhaften Durchsatz von 21,33 MB / s. Dies entsprach der 16-fachen aktuellen Mainnet-Kapazität und beinhaltete neue Propagationsalgorithmen wie Vacuum!, die für effiziente Datenbewegungen bei großen Blöcken entwickelt wurden.

Fortschritt der Mainnet-Upgrades

Die Skalierung erfolgt schrittweise:

  • Ginger Upgrade (Dezember 2024): Reduzierung der Blockzeiten von 12 Sekunden auf 6 Sekunden
  • 8-MB-Block-Erhöhung (Januar 2025): Verdoppelung der Blockgröße durch On-Chain-Governance
  • Matcha Upgrade (Januar 2026): Ermöglichte 128-MB-Blöcke durch verbesserte Propagationsmechaniken, wodurch die Speicheranforderungen für Nodes um 77 % gesenkt wurden
  • Lotus Upgrade (Juli 2025): V4 Mainnet-Release mit weiteren Verbesserungen für TIA-Halter

Die Roadmap zielt auf Blöcke im Gigabyte-Bereich bis 2030 ab, was eine 1.000-fache Steigerung gegenüber der aktuellen Kapazität darstellt. Ob die Marktnachfrage wächst, um diese Kapazität zu rechtfertigen, bleibt ungewiss, aber der technische Pfad ist klar.

TIA Tokenomics: Wie Wert entsteht

Um die Ökonomie von Celestia zu verstehen, muss man die Rolle von TIA im System verstehen.

Token-Nutzen

TIA erfüllt drei Funktionen:

  1. Blob-Gebühren: Rollups zahlen TIA für die Datenverfügbarkeit (Data Availability)
  2. Staking: Validatoren staken TIA, um das Netzwerk zu sichern und Belohnungen zu verdienen
  3. Governance: Token-Inhaber stimmen über Netzwerkparameter und Upgrades ab

Der Gebührenmechanismus schafft eine direkte Verbindung zwischen der Netzwerknutzung und der Token-Nachfrage. Wenn die Anzahl der Blob-Einreichungen steigt, wird TIA gekauft und ausgegeben, was einen Kaufdruck erzeugt, der proportional zum Nutzen des Netzwerks ist.

Angebotsdynamik

TIA startete mit 1 Milliarde Genesis-Token. Die anfängliche Inflation wurde auf 8 % jährlich festgelegt und sinkt im Laufe der Zeit auf eine finale Inflation von 1,5 %.

Das Matcha-Upgrade im Januar 2026 führte Proof-of-Governance (PoG) ein, wodurch die jährliche Token-Emission von 5 % auf 0,25 % gesenkt wurde. Diese strukturelle Änderung:

  • Reduziert den Verkaufsdruck durch Inflation
  • Richtet Belohnungen an der Governance-Teilnahme aus
  • Stärkt die Werterfassung bei steigender Netzwerknutzung

Zusätzlich kündigte die Celestia Foundation für 2025 ein TIA-Rückkaufprogramm im Wert von 62,5 Millionen $ an, was das umlaufende Angebot weiter reduziert.

Validator-Ökonomie

Mit Wirkung zum Januar 2026 stieg die maximale Validator-Provision von 10 % auf 20 %. Dies trägt den steigenden Betriebskosten der Validatoren Rechnung – insbesondere bei wachsenden Blockgrößen – während gleichzeitig wettbewerbsfähige Staking-Renditen beibehalten werden.

Der Wettbewerbsvorteil: First-Mover oder nachhaltiger Vorteil?

Celestia's Marktanteil von 50 % im DA-Bereich und über 160 GB an geposteten Daten stellen eine klare Traktion dar. Aber Wettbewerbsvorteile (Moats) in der Infrastruktur können schnell erodieren.

Vorteile

Framework-Integration: Jedes größere Rollup-Framework – Arbitrum Orbit, OP Stack, Polygon CDK – unterstützt Celestia als DA-Option. Diese Integration schafft Wechselkosten und verringert die Reibung für neue Rollups.

Nachgewiesene Skalierung: Die 128-MB-Blocktests schaffen Vertrauen in die zukünftige Kapazität, das Wettbewerber in diesem Maße noch nicht demonstriert haben.

Ökonomische Ausrichtung: Die Proof-of-Governance-Tokenomics und Rückkaufprogramme ermöglichen eine stärkere Werterfassung als alternative Modelle.

Herausforderungen

EigenDAs Ethereum-Ausrichtung: Für Teams, die native Ethereum-Sicherheit priorisieren, könnte das Restaking-Modell von EigenDA trotz architektonischer Kompromisse attraktiver sein.

Avails Kostenvorteil: Für kostensensible Anwendungen könnten die niedrigeren Gebühren von Avail die Sicherheitsunterschiede überwiegen.

Ethereums native Verbesserung: Wenn Ethereum die Blob-Kapazität erheblich ausweitet (wie in verschiedenen Roadmap-Diskussionen vorgeschlagen), schrumpft der Kostenvorteil.

Die Frage des Ecosystem Lock-ins

Celestias wahrer Burggraben könnte der Ecosystem Lock-in sein. Die über 83 GB an Daten von Eclipse schaffen eine Pfadabhängigkeit — eine Migration zu einer anderen DA-Layer würde erhebliche Infrastrukturänderungen erfordern. Da immer mehr Rollups ihre Historie auf Celestia akkumulieren, steigen die Wechselkosten.

Was uns die Daten sagen

Celestias Blob-Ökonomie bestätigt die modulare These: Spezialisierte Infrastruktur für Data Availability kann drastisch günstiger sein als Allzweck-L1-Lösungen. Der 55-fache Kostenvorteil gegenüber Ethereum-Blobs ist keine Magie — er ist das Ergebnis einer zweckgebundenen Architektur, die für eine spezifische Funktion optimiert wurde.

Die über 160 GB an geposteten Daten beweisen, dass eine Marktnachfrage besteht. Das 10-fache Wachstum der Gebühreneinnahmen demonstriert die Wertschöpfung. Die Scaling-Roadmap schafft Vertrauen in die zukünftige Kapazität.

Für Rollup-Entwickler ist die Kalkulation einfach: Celestia bietet die am besten getestete und am stärksten integrierte DA-Lösung mit einem klaren Pfad zu Kapazitäten im Gigabyte-Bereich. EigenDA ist sinnvoll für Ethereum-native Projekte, die bereit sind, DAC-Vertrauensannahmen zu akzeptieren. Avail bedient Multichain-Anwendungen, die Flexibilität gegenüber maximaler Sicherheit priorisieren.

Der Markt für Data Availability bietet Platz für mehrere Gewinner, die unterschiedliche Segmente bedienen. Aber Celestias Kombination aus bewährter Skalierung, tiefgreifenden Integrationen und verbesserten Tokenomics positioniert es gut für die kommende Welle der Rollup-Expansion.


Sie bauen Rollups, die eine zuverlässige Data Availability-Infrastruktur benötigen? BlockEden.xyz bietet RPC-Endpunkte für über 30 Netzwerke, einschließlich bedeutender L2s, die auf Celestia DA aufbauen. Erkunden Sie unseren API-Marktplatz, um auf die Infrastruktur zuzugreifen, die Ihr modularer Stack benötigt.

Navigieren durch die Landschaft der Datenschutztechnologien: FHE, ZK und TEE in der Blockchain

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Als Zama im Juni 2025 das erste "Fully Homomorphic Encryption"-Unicorn wurde – mit einer Bewertung von über 1 Milliarde $ – signalisierte dies etwas Größeres als nur den Erfolg eines einzelnen Unternehmens. Die Blockchain-Industrie hatte endlich eine fundamentale Wahrheit akzeptiert: Privatsphäre ist keine Option, sondern Infrastruktur.

Doch hier ist die unangenehme Realität, mit der Entwickler konfrontiert sind: Es gibt keine einzige "beste" Datenschutztechnologie. Fully Homomorphic Encryption (FHE), Zero-Knowledge Proofs (ZK) und Trusted Execution Environments (TEE) lösen jeweils unterschiedliche Probleme mit unterschiedlichen Kompromissen. Eine falsche Wahl beeinträchtigt nicht nur die Leistung – sie kann das, was Sie aufbauen wollen, fundamental gefährden.

Dieser Leitfaden schlüsselt auf, wann welche Technologie eingesetzt werden sollte, welche Kompromisse Sie tatsächlich eingehen und warum die Zukunft wahrscheinlich darin besteht, dass alle drei zusammenarbeiten.

Die Technologielandschaft der Privatsphäre im Jahr 2026

Der Markt für Blockchain-Datenschutz hat sich von Nischenexperimenten zu einer ernsthaften Infrastruktur entwickelt. ZK-basierte Rollups sichern mittlerweile über 28 Milliarden anTotalValueLocked.AlleinderMarktfu¨rZeroKnowledgeKYCsollPrognosenzufolgevon83,6Millionenan Total Value Locked. Allein der Markt für Zero-Knowledge KYC soll Prognosen zufolge von 83,6 Millionen im Jahr 2025 auf 903,5 Millionen $ bis 2032 wachsen – eine durchschnittliche jährliche Wachstumsrate von 40,5 %.

Aber die Marktgröße allein hilft Ihnen nicht bei der Technologiewahl. Zu verstehen, was jeder Ansatz tatsächlich bewirkt, ist der Ausgangspunkt.

Zero-Knowledge Proofs: Beweisen ohne Preisgabe

ZK-Proofs ermöglichen es einer Partei, die Richtigkeit einer Aussage zu beweisen, ohne Informationen über den Inhalt selbst preiszugeben. Sie können beweisen, dass Sie über 18 Jahre alt sind, ohne Ihr Geburtsdatum zu nennen, oder beweisen, dass eine Transaktion gültig ist, ohne den Betrag offenzulegen.

So funktioniert es: Der Prover (Beweiser) erstellt einen kryptografischen Beweis dafür, dass eine Berechnung korrekt durchgeführt wurde. Der Verifier (Prüfer) kann diesen Beweis schnell überprüfen, ohne die Berechnung erneut auszuführen oder die zugrunde liegenden Daten zu sehen.

Der Haken: ZK ist hervorragend darin, Dinge über Daten zu beweisen, die Sie bereits besitzen. Schwierigkeiten bereitet es bei einem geteilten Status (shared state). Sie können beweisen, dass Ihr Guthaben für eine Transaktion ausreicht, aber Sie können ohne zusätzliche Infrastruktur nicht einfach Fragen stellen wie "Wie viele Betrugsfälle gab es netzwerkweit?" oder "Wer hat diese Auktion mit verdeckten Geboten gewonnen?".

Führende Projekte: Aztec ermöglicht hybride öffentliche/private Smart Contracts, bei denen Benutzer wählen können, ob Transaktionen sichtbar sind. zkSync konzentriert sich primär auf Skalierbarkeit mit unternehmensorientierten "Prividiums" für autorisierten Datenschutz. Railgun und Nocturne bieten geschützte Transaktionspools.

Fully Homomorphic Encryption: Rechnen auf verschlüsselten Daten

FHE wird oft als der "Heilige Gral" der Verschlüsselung bezeichnet, da sie Berechnungen auf verschlüsselten Daten ermöglicht, ohne diese jemals entschlüsseln zu müssen. Die Daten bleiben während der Verarbeitung verschlüsselt, und die Ergebnisse bleiben verschlüsselt – nur die autorisierte Partei kann die Ausgabe entschlüsseln.

So funktioniert es: Mathematische Operationen werden direkt auf Chiffretexten ausgeführt. Additionen und Multiplikationen auf verschlüsselten Werten ergeben verschlüsselte Resultate, die nach der Entschlüsselung genau dem entsprechen, was man bei der Berechnung mit Klartext erhalten würde.

Der Haken: Der Rechenaufwand ist massiv. Selbst mit den jüngsten Optimierungen erreichen FHE-basierte Smart Contracts im Inco-Netzwerk je nach Hardware nur 10–30 TPS – Größenordnungen langsamer als die Ausführung im Klartext.

Führende Projekte: Zama bietet die grundlegende Infrastruktur mit FHEVM (ihrer voll homomorphen EVM). Fhenix entwickelt Anwendungslösungen auf Basis der Zama-Technologie und hat den CoFHE-Coprozessor auf Arbitrum bereitgestellt, mit Entschlüsselungsgeschwindigkeiten, die bis zu 50-mal schneller sind als bei konkurrierenden Ansätzen.

Trusted Execution Environments: Hardwarebasierte Isolierung

TEEs schaffen sichere Enklaven innerhalb von Prozessoren, in denen Berechnungen isoliert stattfinden. Daten innerhalb der Enklave bleiben geschützt, selbst wenn das übergeordnete System kompromittiert wird. Im Gegensatz zu kryptografischen Ansätzen verlassen sich TEEs auf Hardware statt auf mathematische Komplexität.

So funktioniert es: Spezialisierte Hardware (Intel SGX, AMD SEV) erstellt isolierte Speicherbereiche. Code und Daten innerhalb der Enklave sind verschlüsselt und für das Betriebssystem, den Hypervisor oder andere Prozesse unzugänglich – selbst mit Root-Zugriff.

Der Haken: Man vertraut den Hardwareherstellern. Jede einzelne kompromittierte Enklave kann Klartext preisgeben, unabhängig davon, wie viele Knoten teilnehmen. Im Jahr 2022 zwang eine kritische SGX-Schwachstelle zu koordinierten Schlüssel-Updates im gesamten Secret Network, was die betriebliche Komplexität hardwareabhängiger Sicherheit verdeutlichte.

Führende Projekte: Secret Network leistete Pionierarbeit bei privaten Smart Contracts mit Intel SGX. Oasis Networks Sapphire ist die erste vertrauliche EVM im Produktivbetrieb und verarbeitet bis zu 10.000 TPS. Phala Network betreibt über 1.000 TEE-Knoten für vertrauliche KI-Workloads.

Die Tradeoff-Matrix: Leistung, Sicherheit und Vertrauen

Das Verständnis der grundlegenden Kompromisse hilft dabei, die Technologie an den jeweiligen Anwendungsfall anzupassen.

Leistung

TechnologieDurchsatzLatenzKosten
TEENahezu nativ (10.000+ TPS)NiedrigNiedrige Betriebskosten
ZKModerat (variiert je nach Implementierung)Höher (Beweiserstellung)Mittel
FHENiedrig (aktuell 10–30 TPS)HochSehr hohe Betriebskosten

TEEs gewinnen bei der reinen Leistung, da sie im Wesentlichen nativen Code im geschützten Speicher ausführen. ZK führt zu einem Overhead bei der Beweiserstellung, aber die Verifizierung ist schnell. FHE erfordert derzeit intensive Berechnungen, die den praktischen Durchsatz einschränken.

Sicherheitsmodell

TechnologieVertrauensannahmePost-QuantumFehlermodus
TEEHardwareherstellerNicht resistentKompromittierung einer einzelnen Enklave legt alle Daten offen
ZKKryptographisch (oft Trusted Setup)Variiert nach SchemaFehler im Beweissystem können unsichtbar bleiben
FHEKryptographisch (gitterbasiert)ResistentRechenintensiv auszunutzen

TEEs erfordern Vertrauen in Intel, AMD oder den jeweiligen Hardwarehersteller – sowie das Vertrauen darauf, dass keine Firmware-Schwachstellen existieren. ZK-Systeme erfordern oft „Trusted Setup“-Zeremonien, obwohl neuere Schemata dies eliminieren. Die gitterbasierte Kryptographie von FHE gilt als quantenresistent, was sie zur stärksten langfristigen Sicherheitswette macht.

Programmierbarkeit

TechnologieKomponierbarkeitZustands-PrivatsphäreFlexibilität
TEEHochVollständigBegrenzt durch Hardware-Verfügbarkeit
ZKBegrenztLokal (clientseitig)Hoch für die Verifizierung
FHEVollständigGlobalBegrenzt durch Performance

ZK zeichnet sich durch lokale Privatsphäre aus – den Schutz Ihrer Eingaben –, hat aber Schwierigkeiten mit dem gemeinsamen Zustand über Benutzer hinweg. FHE behält die volle Komponierbarkeit bei, da auf verschlüsselten Zuständen von jedem gerechnet werden kann, ohne den Inhalt preiszugeben. TEEs bieten eine hohe Programmierbarkeit, sind jedoch auf Umgebungen mit kompatibler Hardware beschränkt.

Die Wahl der richtigen Technologie: Anwendungsfallanalyse

Unterschiedliche Anwendungen erfordern unterschiedliche Kompromisse. Hier erfahren Sie, wie führende Projekte diese Entscheidungen treffen.

DeFi: MEV-Schutz und privater Handel

Herausforderung: Front-Running und Sandwich-Angriffe entziehen DeFi-Nutzern Milliarden, indem sie sichtbare Mempools ausnutzen.

FHE-Lösung: Die vertrauliche Blockchain von Zama ermöglicht Transaktionen, bei denen die Parameter bis zur Blockaufnahme verschlüsselt bleiben. Front-Running wird mathematisch unmöglich – es gibt keine sichtbaren Daten, die ausgenutzt werden könnten. Der Mainnet-Launch im Dezember 2025 beinhaltete den ersten vertraulichen Stablecoin-Transfer mittels cUSDT.

TEE-Lösung: Sapphire vom Oasis Network ermöglicht vertrauliche Smart Contracts für Dark Pools und privates Order-Matching. Die geringere Latenz macht es für Hochfrequenzhandel-Szenarien geeignet, in denen der Rechenaufwand von FHE zu hoch ist.

Wann zu wählen: FHE für Anwendungen, die die stärksten kryptographischen Garantien und globale Zustands-Privatsphäre erfordern. TEE, wenn die Performance-Anforderungen das übersteigen, was FHE liefern kann, und Hardware-Vertrauen akzeptabel ist.

Identität und Nachweise: Datenschutzfreundliches KYC

Herausforderung: Nachweis von Identitätsmerkmalen (Alter, Staatsbürgerschaft, Akkreditierung), ohne Dokumente offenzulegen.

ZK-Lösung: Zero-Knowledge-Nachweise ermöglichen es Nutzern, „KYC bestanden“ zu beweisen, ohne die zugrunde liegenden Dokumente preiszugeben. Dies erfüllt Compliance-Anforderungen und schützt gleichzeitig die Privatsphäre der Nutzer – ein entscheidendes Gleichgewicht angesichts des zunehmenden regulatorischen Drucks.

Warum ZK hier gewinnt: Bei der Identitätsverifizierung geht es grundlegend darum, Aussagen über persönliche Daten zu beweisen. ZK ist dafür prädestiniert: kompakte Beweise, die verifizieren, ohne etwas preiszugeben. Die Verifizierung ist schnell genug für die Echtzeitnutzung.

Vertrauliche KI und sensible Berechnungen

Herausforderung: Verarbeitung sensibler Daten (Gesundheitswesen, Finanzmodelle) ohne Offenlegung gegenüber den Betreibern.

TEE-Lösung: Die TEE-basierte Cloud von Phala Network verarbeitet LLM-Anfragen ohne Plattformzugriff auf die Eingaben. Mit GPU-TEE-Unterstützung (NVIDIA H100 / H200) laufen vertrauliche KI-Workloads mit praktikabler Geschwindigkeit.

FHE-Potenzial: Mit verbesserter Performance ermöglicht FHE Berechnungen, bei denen selbst der Hardware-Betreiber nicht auf Daten zugreifen kann – wodurch die Vertrauensannahme vollständig entfällt. Aktuelle Einschränkungen beschränken dies auf einfachere Berechnungen.

Hybrider Ansatz: Erste Datenverarbeitung in TEEs für Geschwindigkeit, FHE für die sensibelsten Operationen und Erstellung von ZK-Proofs zur Verifizierung der Ergebnisse.

Die Realität der Schwachstellen

Jede Technologie ist in der Produktion bereits gescheitert – das Verständnis der Fehlermodi ist essenziell.

TEE-Fehler

Im Jahr 2022 betrafen kritische SGX-Schwachstellen mehrere Blockchain-Projekte. Secret Network, Phala, Crust und IntegriTEE erforderten koordinierte Patches. Oasis überlebte, da seine Kernsysteme auf dem älteren SGX v1 laufen (nicht betroffen) und für die Sicherheit der Gelder nicht ausschließlich auf die Geheimhaltung der Enklave angewiesen sind.

Lektion: Die TEE-Sicherheit hängt von Hardware ab, die Sie nicht kontrollieren. Defense-in-Depth (Schlüsselrotation, Schwellenwert-Kryptographie, minimale Vertrauensannahmen) ist zwingend erforderlich.

ZK-Fehler

Am 16. April 2025 patchte Solana eine Zero-Day-Schwachstelle in seiner Funktion für vertrauliche Transfers (Confidential Transfers). Der Fehler hätte eine unbegrenzte Token-Erstellung ermöglichen können. Der gefährliche Aspekt von ZK-Fehlern: Wenn Beweise fehlschlagen, geschieht dies unsichtbar. Man kann nicht sehen, was nicht da sein sollte.

Lektion: ZK-Systeme erfordern umfassende formale Verifizierung und Audits. Die Komplexität von Beweissystemen schafft eine Angriffsfläche, die schwer zu erfassen ist.

FHE-Überlegungen

FHE hat noch keine größeren Produktionsausfälle erlebt – primär, weil es sich noch in einer frühen Phase der Implementierung befindet. Das Risikoprofil unterscheidet sich: FHE ist rechenintensiv anzugreifen, aber Implementierungsfehler in komplexen kryptographischen Bibliotheken könnten subtile Schwachstellen ermöglichen.

Lektion: Neuere Technologie bedeutet weniger Praxistests. Die kryptographischen Garantien sind stark, aber die Implementierungsebene bedarf ständiger Überprüfung.

Hybride Architekturen: Die Zukunft ist kein Entweder-Oder

Die anspruchsvollsten Datenschutzsysteme kombinieren mehrere Technologien und nutzen jede dort, wo sie ihre Stärken hat.

ZK + FHE Integration

Benutzerzustände (Kontostände, Präferenzen) werden mit FHE-Verschlüsselung gespeichert. ZK-Proofs verifizieren gültige Zustandsübergänge, ohne verschlüsselte Werte offenzulegen. Dies ermöglicht eine private Ausführung innerhalb skalierbarer L2-Umgebungen – eine Kombination aus der globalen Zustands-Privatsphäre von FHE und der effizienten Verifizierung von ZK.

TEE + ZK Kombination

TEEs verarbeiten sensible Berechnungen mit nahezu nativer Geschwindigkeit. ZK-Proofs verifizieren, dass die TEE-Ausgaben korrekt sind, wodurch die Vertrauensannahme gegenüber einem einzelnen Betreiber entfällt. Falls die TEE kompromittiert wird, würden ungültige Ausgaben die ZK-Verifizierung nicht bestehen.

Wann man was verwendet

Ein praktischer Entscheidungsrahmen:

Wählen Sie TEE, wenn:

  • Die Performance kritisch ist (Hochfrequenzhandel, Echtzeitanwendungen)
  • Hardware-Vertrauen für Ihr Bedrohungsmodell akzeptabel ist
  • Sie große Datenmengen schnell verarbeiten müssen

Wählen Sie ZK, wenn:

  • Sie Aussagen über vom Client gehaltene Daten beweisen
  • Die Verifizierung schnell und kostengünstig sein muss
  • Sie keine globale Zustands-Privatsphäre benötigen

Wählen Sie FHE, wenn:

  • Der globale Zustand verschlüsselt bleiben muss
  • Post-Quanten-Sicherheit erforderlich ist
  • Die Rechenkomplexität für Ihren Anwendungsfall akzeptabel ist

Wählen Sie Hybrid, wenn:

  • Verschiedene Komponenten unterschiedliche Sicherheitsanforderungen haben
  • Sie Performance mit Sicherheitsgarantien abwägen müssen
  • Regulatorische Compliance nachweisbaren Datenschutz erfordert

Was als Nächstes kommt

Vitalik Buterin plädierte kürzlich für standardisierte „Effizienzverhältnisse“ – den Vergleich der kryptografischen Rechenzeit mit der Klartext-Ausführung. Dies spiegelt die Reife der Branche wider: Wir bewegen uns von der Frage „Funktioniert es?“ hin zu „Wie effizient funktioniert es?“.

Die FHE-Performance verbessert sich stetig. Zamas Mainnet im Dezember 2025 beweist die Produktionsreife für einfache Smart Contracts. Mit der Weiterentwicklung der Hardwarebeschleunigung (GPU-Optimierung, kundenspezifische ASICs) wird sich die Durchsatzlücke zu TEEs verringern.

ZK-Systeme werden ausdrucksstärker. Die Noir-Sprache von Aztec ermöglicht komplexe private Logik, die vor Jahren noch unpraktikabel gewesen wäre. Standards konvergieren langsam und ermöglichen die kettenübergreifende Verifizierung von ZK-Credentials.

Die TEE-Vielfalt geht über Intel SGX hinaus. Implementierungen von AMD SEV, ARM TrustZone und RISC-V reduzieren die Abhängigkeit von einem einzelnen Hersteller. Schwellenwert-Kryptografie über mehrere TEE-Anbieter hinweg könnte das Problem des Single-Point-of-Failure lösen.

Der Aufbau der Datenschutz-Infrastruktur findet jetzt statt. Für Entwickler, die datenschutzrelevante Anwendungen erstellen, geht es bei der Wahl nicht darum, die perfekte Technologie zu finden – sondern darum, die Kompromisse gut genug zu verstehen, um sie intelligent zu kombinieren.


Bauen Sie datenschutzfreundliche Anwendungen auf der Blockchain? BlockEden.xyz bietet Hochleistungs-RPC-Endpunkte über 30+ Netzwerke hinweg, einschließlich datenschutzorientierter Chains. Entdecken Sie unseren API-Marktplatz, um auf die Infrastruktur zuzugreifen, die Ihre vertraulichen Anwendungen benötigen.

JPMorgan Canton Network

· 9 Min. Lesezeit
Dora Noda
Software Engineer

JPMorgan verarbeitet täglich 2 - 3 Milliarden US-Dollar an Blockchain-Transaktionen. Goldman Sachs und BNY Mellon haben gerade tokenisierte Geldmarktfonds auf einer gemeinsamen Infrastruktur eingeführt. Und die DTCC – das Rückgrat der US-Wertpapierabwicklung – erhielt die SEC-Genehmigung zur Tokenisierung von Staatsanleihen auf einer Blockchain, von der die meisten Krypto-Natives noch nie gehört haben. Willkommen im Canton Network, der Antwort der Wall Street auf Ethereum, die im Stillen monatlich 4 Billionen US-Dollar verarbeitet, während öffentliche Chains darüber debattieren, welcher Memecoin als Nächstes gepusht werden soll.

White-Label Stablecoin-Kriege: Wie Plattformen die 10-Milliarden-Dollar-Marge zurückerobern, die Circle und Tether behalten

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Tether erzielte in den ersten drei Quartalen 2025 einen Gewinn von 10 Milliarden US-Dollar. Mit weniger als 200 Mitarbeitern sind das über 65 Millionen US-Dollar Bruttogewinn pro Person – was das Unternehmen zu einem der profitabelsten Unternehmen pro Mitarbeiter weltweit macht.

Circle liegt nicht weit dahinter. Trotz der Teilung von 50 % seiner Reserveeinnahmen mit Coinbase generierte der USDC-Emittent allein im dritten Quartal 2025 740 Millionen US-Dollar und behielt nach den Vertriebskosten eine Marge von 38 %.

Nun stellen sich Plattformen eine offensichtliche Frage: Warum senden wir dieses Geld an Circle und Tether?

Hyperliquid hält fast 6 Milliarden US-Dollar an USDC-Einlagen – etwa 7,5 % aller im Umlauf befindlichen USDC. Bis September 2025 floss jeder Dollar an Zinsen auf diese Einlagen an Circle. Dann führte Hyperliquid USDH ein, seinen eigenen nativen Stablecoin, bei dem 50 % der Reserveerträge an das Protokoll zurückfließen.

Sie sind nicht allein. SoFi wurde die erste US-Nationalbank, die einen Stablecoin auf einer öffentlichen Blockchain ausgab. Coinbase startete eine White-Label-Stablecoin-Infrastruktur. WSPN führte schlüsselfertige Lösungen ein, mit denen Unternehmen in wenigen Wochen eigene Marken-Stablecoins bereitstellen können. Die große Rückeroberung der Stablecoin-Margen hat begonnen.

x402-Protokoll: Wie ein vergessener HTTP-Code zur Zahlungsschiene für 15 Millionen KI-Agenten-Transaktionen wurde

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Seit 28 Jahren lag der HTTP-Statuscode 402 brach in der Protokollspezifikation. „Payment Required“ – ein Platzhalter für eine Zukunft, die nie eintraf. Kreditkarten gewannen. Abonnementmodelle dominierten. Das Internet entwickelte sich ohne native Zahlungen weiter.

Dann begannen KI-Agenten, Dinge kaufen zu müssen.

Im Mai 2025 startete Coinbase x402 – ein Protokoll, das endlich HTTP 402 für sofortige, autonome Stablecoin-Zahlungen aktiviert. Innerhalb weniger Monate verarbeitete x402 15 Millionen Transaktionen. Cloudflare war Mitbegründer der x402 Foundation. Google integrierte es in sein Agentic Payments Protocol. Das Transaktionsvolumen wuchs in einem einzigen Monat um 10.000 %.

Das Timing war kein Zufall. Als sich KI-Agenten von Chatbots zu autonomen Wirtschaftsakteuren entwickelten – die API-Zugriff kaufen, für Rechenleistung bezahlen und Daten erwerben –, legten sie eine fundamentale Lücke offen: Die herkömmliche Zahlungsinfrastruktur setzt menschliche Beteiligung voraus. Kontoerstellung. Authentifizierung. Explizite Genehmigung. Nichts davon funktioniert, wenn Maschinen in Millisekunden Transaktionen durchführen müssen.

x402 behandelt KI-Agenten als erstklassige Wirtschaftsteilnehmer. Und das ändert alles.

Die 500-Milliarden-Dollar-Frage: Warum dezentrale KI-Infrastruktur der Geheimtipp für 2026 ist

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Als Präsident Trump im Januar 2025 das 500 Milliarden Dollar schwere Stargate-Projekt ankündigte – die größte Einzelinvestition in die KI-Infrastruktur in der Geschichte –, zuckten die meisten Krypto-Investoren nur mit den Schultern. Zentralisierte Rechenzentren. Partnerschaften mit Big Tech. Hier gibt es nichts zu sehen.

Sie haben den Kern der Sache völlig verpasst.

Stargate baut nicht nur KI-Infrastruktur auf. Es schafft die Nachfragekurve, die dezentrale KI-Rechenleistung nicht nur rentabel, sondern unverzichtbar machen wird. Während Hyperscaler damit kämpfen, bis 2029 eine Rechenkapazität von 10 Gigawatt bereitzustellen, ist ein paralleles Netzwerk von über 435.000 GPU-Containern bereits live und bietet die gleichen Dienste zu 86 % geringeren Kosten an.

Die Konvergenz von KI und Krypto ist kein bloßes Narrativ. Es ist ein 33 Milliarden Dollar schwerer Markt, der sich verdoppelt, während Sie dies lesen.

Pinatas $8,8 Mio. Umsatz-Meilenstein: Wie aus einem Hackathon-Projekt das Speicher-Rückgrat von Web3 wurde

· 7 Min. Lesezeit
Dora Noda
Software Engineer

Was kostet es, ein einzelnes 200 MB NFT auf Ethereum zu speichern? Etwa 92.000 .SkalierenSiedasaufeineKollektionmit10.000Stu¨ck,undSieblickenaufeineSpeicherrechnungvon2,6Milliarden. Skalieren Sie das auf eine Kollektion mit 10.000 Stück, und Sie blicken auf eine Speicherrechnung von 2,6 Milliarden . Dieses absurde ökonomische Problem ist genau der Grund, warum Pinata – ein Unternehmen, das 2018 auf dem ETH Berlin Hackathon gegründet wurde – heute über 120 Millionen Dateien verarbeitet und bis Ende 2024 einen Umsatz von 8,8 Millionen $ erzielte.

Die Geschichte von Pinata handelt nicht nur vom Wachstum eines einzelnen Unternehmens. Sie ist ein Fenster dazu, wie Web3-Infrastruktur von experimentellen Protokollen zu echten Unternehmen heranreift, die reale Umsätze generieren.