Direkt zum Hauptinhalt

36 Beiträge getaggt mit „blockchain infrastructure“

Blockchain-Infrastrukturdienste

Alle Tags anzeigen

Die Transformation von The Graph im Jahr 2026: Neudefinition der Blockchain-Dateninfrastruktur

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Wenn 37 % Ihrer neuen Nutzer nicht menschlich sind, wissen Sie, dass sich etwas Grundlegendes verschoben hat.

Das ist die Realität, mit der The Graph Anfang 2026 bei der Analyse der Token-API-Adoption konfrontiert war: Mehr als jeder dritte neue Account gehörte KI-Agenten, nicht Entwicklern. Diese autonomen Programme – die DeFi-Liquiditätspools abfragen, tokenisierte Real-World-Assets verfolgen und institutionelle Trades ausführen – verbrauchen Blockchain-Daten mittlerweile in einem Ausmaß, das für menschliche Akteure unmöglich zu bewältigen wäre.

Dies ist kein Zukunftsszenario. Es geschieht jetzt und erzwingt ein komplettes Überdenken der Funktionsweise von Blockchain-Dateninfrastrukturen.

Vom Subgraph-Pionier zum Multi-Service-Datenrückgrat

The Graph hat seinen Ruf auf einer einzigen eleganten Lösung aufgebaut: Subgraphs. Entwickler erstellen benutzerdefinierte Schemata, die On-Chain-Events und Smart-Contract-Zustände indizieren, wodurch dApps präzise Echtzeitdaten abrufen können, ohne eigene Nodes betreiben zu müssen.

Das ist der Grund, warum Sie Ihren DeFi-Portfolio-Kontostand sofort überprüfen oder NFT-Metadaten durchsuchen können, ohne darauf warten zu müssen, dass Blockchain-Abfragen abgeschlossen werden.

Bis Ende 2025 hatte The Graph seit seiner Einführung über 1,5 Billionen Abfragen verarbeitet – ein Meilenstein, der es als größte dezentrale Dateninfrastruktur im Web3 positioniert. Doch das reine Abfragevolumen erzählt nur einen Teil der Geschichte.

Die aussagekräftigere Kennzahl ergab sich im 4. Quartal 2025: 6,4 Milliarden Abfragen pro Quartal, wobei die aktiven Subgraphs mit 15.500 ein Allzeithoch erreichten. Dennoch hatte sich die Erstellung neuer Subgraphs drastisch verlangsamt.

Die Interpretation? Die bestehende Infrastruktur von The Graph bedient ihre aktuellen Nutzer hervorragend, aber die nächste Welle der Adoption erfordert etwas grundlegend anderes.

Hier kommt Horizon ins Spiel, das Protokoll-Upgrade, das im Dezember 2025 live ging und die Weichen für die Transformation von The Graph im Jahr 2026 stellt.

Die Horizon-Architektur: Multi-Service-Infrastruktur für die On-Chain-Ökonomie

Horizon ist kein bloßes Feature-Update. Es ist eine komplette architektonische Neugestaltung, die The Graph von einer Subgraph-fokussierten Plattform in eine Multi-Service-Dateninfrastruktur verwandelt, die in der Lage ist, drei verschiedene Kundensegmente gleichzeitig zu bedienen: Entwickler, KI-Agenten und Institutionen.

Die Architektur führt drei grundlegende Komponenten ein:

Ein Kern-Staking-Protokoll, das die ökonomische Sicherheit auf jeden Datendienst ausweitet, nicht nur auf Subgraphs. Dies ermöglicht es neuen Datenprodukten, das bestehende Netzwerk von The Graph mit über 167.000 Delegatoren und aktiven Indexern zu übernehmen, ohne eigene Sicherheitsmodelle aufbauen zu müssen.

Eine vereinheitlichte Zahlungsschicht, die Gebühren über alle Dienste hinweg abwickelt, eine nahtlose serviceübergreifende Abrechnung ermöglicht und Reibungsverluste für Nutzer verringert, die mehrere Arten von Blockchain-Daten benötigen.

Ein erlaubnisfreies (permissionless) Framework, das die Integration neuer Datendienste ohne Governance-Abstimmungen auf Protokollebene ermöglicht. Jedes Team kann auf der Infrastruktur von The Graph aufbauen, sofern es die technischen Standards erfüllt und GRT-Token zur Absicherung stakt.

Dieser modulare Ansatz löst ein kritisches Problem: Unterschiedliche Anwendungsfälle erfordern unterschiedliche Datenarchitekturen.

Ein DeFi-Trading-Bot benötigt Liquiditäts-Updates im Millisekundenbereich. Ein institutionelles Compliance-Team benötigt SQL-abfragbare Audit-Trails. Eine Wallet-App benötigt vorindizierte Token-Guthaben über Dutzende von Chains hinweg. Vor Horizon hätten diese Anwendungsfälle separate Infrastrukturanbieter erfordert.

Jetzt können sie alle auf The Graph laufen.

Vier Dienste, vier verschiedene Märkte

Die Roadmap von The Graph für 2026 führt vier spezialisierte Datendienste ein, die jeweils auf einen spezifischen Marktbedarf abzielen:

Token-API: Vorindizierte Daten für gängige Abfragen

Die Token-API macht eine benutzerdefinierte Indizierung überflüssig, wenn Sie lediglich Standard-Token-Daten benötigen – Guthaben, Transferhistorien, Kontraktadressen über 10 Chains hinweg. Wallets, Explorer und Analyseplattformen müssen für grundlegende Abfragen keine eigenen Subgraphs mehr bereitstellen.

Hier sind KI-Agenten massiv in Erscheinung getreten. Die 37-prozentige Adoptionsrate durch nicht-menschliche Nutzer spiegelt eine einfache Realität wider: KI-Agenten wollen keine Indexer konfigurieren oder GraphQL-Abfragen schreiben. Sie wollen eine API, die natürliche Sprache versteht und sofort strukturierte Daten liefert.

Die Integration mit dem Model Context Protocol (MCP) ermöglicht es KI-Agenten, Blockchain-Daten über Tools wie Claude, Cursor und ChatGPT ohne Setup-Keys abzufragen. Das x402-Protokoll fügt autonome Zahlungsfunktionen hinzu, sodass Agenten pro Abfrage ohne menschliches Eingreifen bezahlen können.

Tycho: Echtzeit-Liquiditätsverfolgung für DeFi

Tycho streamt Live-Liquiditätsänderungen über dezentrale Börsen hinweg – genau das, was Handelssysteme, Solver und MEV-Bots benötigen. Anstatt Subgraphs alle paar Sekunden abzufragen (Polling), pusht Tycho Updates, sobald sie On-Chain stattfinden.

Für DeFi-Infrastrukturanbieter reduziert dies die Latenz von Sekunden auf Millisekunden. In Hochfrequenz-Handelsumgebungen, in denen eine Verzögerung von 100 ms den Unterschied zwischen Gewinn und Verlust ausmachen kann, wird die Streaming-Architektur von Tycho geschäftskritisch.

Amp: SQL-Datenbank für institutionelle Analysen

Amp repräsentiert den explizitesten Vorstoß von The Graph in Richtung Adoption durch das traditionelle Finanzwesen: eine Blockchain-Datenbank für Unternehmen mit SQL-Zugriff, integrierten Audit-Trails, Lineage-Tracking und On-Premise-Bereitstellungsoptionen.

Das ist nicht für DeFi-"Degens". Es ist für Treasury-Aufsichtsteams, Risikomanagement-Abteilungen und regulierte Zahlungssysteme gedacht, die eine Compliance-fähige Dateninfrastruktur benötigen.

Das "Great Collateral Experiment" der DTCC – ein Pilotprogramm zur Erforschung der Abwicklung tokenisierter Wertpapiere – nutzt bereits Graph-Technologie und validiert damit den institutionellen Anwendungsfall.

SQL-Kompatibilität ist entscheidend. Finanzinstitute verfügen über jahrzehntelange Erfahrung mit Tools, Berichtssystemen und Analysten-Expertise, die auf SQL basieren.

Von ihnen zu verlangen, GraphQL zu lernen, ist aussichtslos. Amp holt sie dort ab, wo sie stehen.

Subgraphs: Das Fundament, das weiterhin zählt

Trotz der neuen Dienste bleiben Subgraphs das Herzstück des Wertversprechens von The Graph. Die über 50.000 aktiven Subgraphs, die nahezu jedes große DeFi-Protokoll unterstützen, stellen eine installierte Basis dar, die Wettbewerber nicht einfach replizieren können.

Im Jahr 2026 vertiefen sich Subgraphs in zweierlei Hinsicht: durch eine erweiterte Multi-Chain-Abdeckung (die mittlerweile über 40 + Blockchains umfasst) und eine engere Integration mit den neuen Diensten.

Ein Entwickler kann einen Subgraph für benutzerdefinierte Logik verwenden und gleichzeitig vorindexierte Token-Daten über die Token API abrufen – das Beste aus beiden Welten.

Cross-Chain-Expansion: GRT-Nutzen über Ethereum hinaus

Jahrelang existierte der GRT-Token von The Graph primär auf dem Ethereum-Mainnet, was Reibungsverluste für Nutzer auf anderen Chains verursachte. Das änderte sich mit der Integration des Cross-Chain Interoperability Protocol (CCIP) von Chainlink, das GRT Ende 2025 auf Arbitrum, Base und Avalanche brachte, wobei Solana für 2026 geplant ist.

Hierbei geht es nicht nur um die Verfügbarkeit von Token. Der Cross-Chain-Nutzen von GRT ermöglicht es Entwicklern auf jeder Chain, Graph-Dienste mit ihren nativen Token zu bezahlen, GRT zu staken, um Datendienste zu sichern, und an Indexer zu delegieren, ohne Assets auf Ethereum verschieben zu müssen.

Die Netzwerkeffekte verstärken sich schnell: Base verarbeitete im 4. Quartal 2025 1,23 Milliarden Abfragen (ein Plus von 11 % gegenüber dem Vorquartal), während Arbitrum mit 31 % das stärkste Wachstum unter den großen Netzwerken verzeichnete. Da L2s weiterhin Transaktionsvolumen vom Ethereum-Mainnet absorbieren, positioniert sich The Graph durch seine Cross-Chain-Strategie so, dass es das gesamte Multi-Chain-Ökosystem bedienen kann.

Das Datenproblem von KI-Agenten: Warum Indexierung entscheidend wird

KI-Agenten stellen eine grundlegend andere Klasse von Blockchain-Nutzern dar. Im Gegensatz zu menschlichen Entwicklern, die Abfragen einmal schreiben und dann bereitstellen, generieren Agenten täglich Tausende von individuellen Abfragen über Dutzende von Datenquellen hinweg.

Betrachten wir einen autonomen DeFi-Yield-Optimierer:

  1. Er fragt aktuelle APYs über Kreditprotokolle hinweg ab (Aave, Compound, Morpho)
  2. Er prüft Gaspreise und Transaktionsstaus
  3. Er überwacht Token-Preis-Feeds von Oracles
  4. Er verfolgt die historische Volatilität zur Risikobewertung
  5. Er verifiziert Sicherheitsprüfungen (Audits) von Smart Contracts
  6. Er führt Rebalancing-Transaktionen aus, sobald die Bedingungen erfüllt sind

Jeder Schritt erfordert strukturierte, indexierte Daten. Das Betreiben eines Full Nodes für jedes Protokoll ist wirtschaftlich nicht machbar. APIs von zentralisierten Anbietern stellen Single Points of Failure und Zensurrisiken dar.

The Graph löst dies durch eine dezentrale, zensurresistente Datenebene, die KI-Agenten programmatisch abfragen können. Das Wirtschaftsmodell funktioniert, weil Agenten pro Abfrage über das x402-Protokoll bezahlen – keine monatlichen Abonnements, keine zu verwaltenden API-Schlüssel, sondern lediglich nutzungsbasierte Abrechnung, die On-Chain abgewickelt wird.

Aus diesem Grund baut Cookie DAO, ein dezentrales Datennetzwerk zur Indexierung von KI-Agenten-Aktivitäten auf Solana, Base und der BNB Chain, auf der Infrastruktur von The Graph auf. Die fragmentierten On-Chain-Aktionen und sozialen Signale, die von Tausenden von Agenten erzeugt werden, benötigen strukturierte Datenfeeds, um nützlich zu sein.

DeFi und RWA: Die Datenanforderungen der tokenisierten Finanzwelt

Die Datenanforderungen von DeFi haben sich drastisch weiterentwickelt. Im Jahr 2021 fragte ein DEX-Aggregator vielleicht grundlegende Token-Preise und Liquiditätspool-Reserven ab. Im Jahr 2026 benötigen institutionelle DeFi-Plattformen:

  • Echtzeit-Besicherungsquoten für Kreditprotokolle
  • Historische Volatilitätsdaten für die Risikomodellierung
  • Cross-Chain-Asset-Preise mit Oracle-Verifizierung
  • Transaktionsherkunft für Compliance-Audits
  • Liquiditätstiefe über mehrere Handelsplätze hinweg für die Handelsausführung

Tokenisierte Real-World-Assets (RWA) fügen eine weitere Komplexitätsebene hinzu. Wenn ein tokenisierter US-Staatsanleihen-Fonds mit einem DeFi-Kreditprotokoll integriert wird (wie es BlackRocks BUIDL mit Uniswap tat), muss die Dateninfrastruktur Folgendes verfolgen:

  • On-Chain-Eigentumsnachweise
  • Rücknahmeanträge und Abwicklungsstatus
  • Regulatorische Compliance-Ereignisse
  • Renditeverteilung an Token-Inhaber
  • Cross-Chain-Bridge-Aktivität

Die Multi-Service-Architektur von The Graph adressiert dies, indem sie RWA-Plattformen ermöglicht, Amp für SQL-Analysen in institutioneller Qualität zu nutzen und gleichzeitig Echtzeit-Updates über Tycho für DeFi-Integrationen zu streamen.

Die Marktchance ist gewaltig: Ripple und BCG prognostizieren, dass tokenisierte RWAs von 0,6 Billionen US-Dollar im Jahr 2025 auf 18,9 Billionen US-Dollar bis 2033 anwachsen werden – eine durchschnittliche jährliche Wachstumsrate von 53 %. Jeder On-Chain tokenisierte Dollar generiert Daten, die indexiert, abgefragt und gemeldet werden müssen.

Netzwerkökonomie: Das Indexer- und Delegatoren-Modell

Die dezentrale Architektur von The Graph beruht auf wirtschaftlichen Anreizen, die drei Interessengruppen aufeinander abstimmen:

Indexer betreiben die Infrastruktur, um Abfragen zu verarbeiten und bereitzustellen, und verdienen dafür Abfragegebühren sowie Indexierungsbelohnungen in GRT-Token. Die Anzahl der aktiven Indexer stieg im 4. Quartal 2025 leicht an, was darauf hindeutet, dass die Betreiber trotz geringerer kurzfristiger Rentabilität aufgrund reduzierter Abfragegebühren engagiert blieben.

Delegatoren staken GRT-Token bei Indexern, um einen Teil der Belohnungen zu verdienen, ohne selbst Infrastruktur zu betreiben. Die über 167.000 + Delegatoren des Netzwerks repräsentieren eine verteilte wirtschaftliche Sicherheit, die Datenzensur extrem teuer macht.

Kuratoren signalisieren durch das Staken von GRT, welche Subgraphs wertvoll sind, und verdienen einen Teil der Abfragegebühren, wenn ihre kuratierten Subgraphs verwendet werden. Dies schafft einen selbstorganisierenden Qualitätsfilter: Hochwertige Subgraphs ziehen Kuratierung an, was Indexer anlockt, was wiederum die Abfrageleistung verbessert.

Das Horizon-Upgrade weitet dieses Modell auf alle Datendienste aus, nicht nur auf Subgraphs. Ein Indexer kann nun Abfragen für die Token API bedienen, Tycho-Liquiditäts-Updates streamen und Amp-Datenbankzugriff gewähren – alles abgesichert durch denselben GRT-Stake.

Dieses Multi-Service-Einnahmemodell ist wichtig, da es das Einkommen der Indexer über Subgraph-Abfragen hinaus diversifiziert. Wenn das Abfragevolumen von KI-Agenten wie prognostiziert skaliert, könnten Indexer, die die Token API bedienen, ein signifikantes Umsatzwachstum verzeichnen, selbst wenn die herkömmliche Subgraph-Nutzung stagniert.

Der institutionelle Keil: Von DeFi zu TradFi

Das DTCC-Pilotprogramm stellt etwas Größeres dar als nur einen einzelnen Anwendungsfall. Es ist der Beweis dafür, dass große Finanzinstitute – in diesem Fall die Organisation, die jährlich Wertpapiertransaktionen im Wert von 2,5 Billiarden $ abwickelt – auf einer öffentlichen Blockchain-Dateninfrastruktur aufbauen werden, wenn diese die regulatorischen Anforderungen erfüllt.

Der Funktionsumfang von Amp zielt direkt auf dieses Segment ab:

  • Herkunftsverfolgung (Lineage tracking): Jeder Datenpunkt lässt sich bis zu seiner On-Chain-Quelle zurückverfolgen, was einen unveränderlichen Audit-Trail schafft.
  • Compliance-Funktionen: Rollenbasierte Zugriffskontrollen, Aufbewahrungsrichtlinien für Daten und Datenschutzkontrollen erfüllen regulatorische Standards.
  • On-Premises-Bereitstellung: Regulierte Einheiten können die Graph-Infrastruktur innerhalb ihres eigenen Sicherheitsbereichs betreiben und dennoch am dezentralen Netzwerk teilnehmen.

Die Strategie spiegelt wider, wie die Einführung von Enterprise-Blockchains verlief: Beginnend mit privaten / permissioned Chains, schrittweise Integration mit öffentlichen Chains, sobald die Compliance-Rahmenwerke ausgereift sind. The Graph positioniert sich als Datenschicht, die in beiden Umgebungen funktioniert.

Wenn große Banken Amp für die Abwicklung tokenisierter Wertpapiere, Blockchain-Analysen für die AML-Compliance oder Echtzeit-Risikoüberwachung einführen, könnte das Abfragevolumen die aktuelle DeFi-Nutzung in den Schatten stellen. Ein einziges großes Institut, das stündlich Compliance-Abfragen über mehrere Chains hinweg durchführt, generiert nachhaltigere Einnahmen als Tausende einzelner Entwickler.

Der Wendepunkt 2026: Ist dies das Jahr von The Graph?

Die Roadmap 2026 von The Graph präsentiert eine klare These: Der aktuelle Token-Preis bewertet die Position des Netzwerks in der aufstrebenden KI-Agenten-Ökonomie und der institutionellen Blockchain-Adoption fundamental falsch.

Das Bullen-Szenario stützt sich auf drei Annahmen:

  1. Das Abfragevolumen von KI-Agenten skaliert signifikant. Wenn die Adoptionsrate von 37 % unter den Nutzern der Token-API einen breiteren Trend widerspiegelt und autonome Agenten zu den Hauptkonsumenten von Blockchain-Daten werden, könnten die Abfragegebühren über das historische Niveau hinaus ansteigen.

  2. Die Multi-Service-Architektur von Horizon treibt das Wachstum der Gebühreneinnahmen voran. Durch die gleichzeitige Bedienung von Entwicklern, Agenten und Institutionen generiert The Graph Einnahmen aus mehreren Kundensegmenten, anstatt sich ausschließlich auf DeFi-Entwickler zu verlassen.

  3. Cross-Chain GRT-Utility über Chainlink CCIP erzeugt eine nachhaltige Nachfrage. Da Nutzer auf Arbitrum, Base, Avalanche und Solana für Graph-Dienste mit gebrücktem GRT bezahlen, steigt die Token-Velocity, während das Angebot begrenzt bleibt.

Das Bären-Szenario argumentiert, dass der Infrastruktur-Burggraben schmaler ist, als es den Anschein hat. Alternative Indexierungslösungen wie Chainstack, BlockXs und Goldsky bieten Hosted-Subgraph-Dienste mit einfacherer Preisgestaltung und schnellerer Einrichtung an. Zentralisierte API-Anbieter wie Alchemy und Infura bündeln den Datenzugriff mit Knoten-Infrastruktur, was Wechselkosten verursacht.

Das Gegenargument: Die dezentrale Architektur von The Graph ist gerade deshalb wichtig, weil KI-Agenten und Institutionen sich nicht auf zentralisierte Datenanbieter verlassen können. KI-Agenten benötigen Zensurresistenz, um die Betriebszeit unter widrigen Bedingungen zu gewährleisten. Institutionen benötigen eine nachweisbare Datenprovenienz, die zentralisierte APIs nicht bieten können.

Die über 50.000 aktiven Subgraphs, über 167.000 Delegatoren und Ökosystem-Integrationen mit praktisch jedem größeren DeFi-Protokoll schaffen einen Netzwerkeffekt, den Wettbewerber nicht nur erreichen, sondern übertreffen müssten.

Warum die Dateninfrastruktur zum Rückgrat der KI-Ökonomie wird

Die Blockchain-Branche war zwischen 2021 und 2023 besessen von Execution Layers: schnellere Layer-1-Lösungen, günstigere Layer-2-Lösungen, skalierbarere Konsensmechanismen.

Das Ergebnis? Transaktionen, die Bruchteile eines Pennys kosten und in Millisekunden abgewickelt werden. Der Engpass hat sich verschoben.

Die Ausführung ist gelöst. Daten sind die neue Einschränkung.

KI-Agenten können Trades ausführen, Portfolios umschichten und Zahlungen autonom abwickeln. Was sie nicht tun können, ist ohne qualitativ hochwertige, indexierte und abfragbare Daten über den On-Chain-Status zu agieren. Der Meilenstein von einer Billion Abfragen bei The Graph spiegelt diese Realität wider: Da Blockchain-Anwendungen immer komplexer werden, wird die Dateninfrastruktur kritischer als der Transaktionsdurchsatz.

Dies spiegelt die Entwicklung der traditionellen Technologie-Infrastruktur wider. Amazon hat den E-Commerce nicht gewonnen, weil es die schnellsten Server hatte – es gewann, weil es die beste Dateninfrastruktur für Bestandsmanagement, Personalisierung und Logistikoptimierung aufbaute. Google hat die Suche nicht gewonnen, weil es den meisten Speicherplatz hatte – es gewann, weil es das Web besser indexierte als jeder andere.

The Graph positioniert sich als das Google der Blockchain-Daten: nicht die einzige Indexierungslösung, aber die Standardinfrastruktur, auf der alles andere aufbaut.

Ob diese Vision Wirklichkeit wird, hängt von der Umsetzung in den nächsten 12 bis 24 Monaten ab. Wenn die Multi-Service-Architektur von Horizon institutionelle Kunden anzieht, wenn das Abfragevolumen von KI-Agenten die Infrastrukturinvestitionen rechtfertigt und wenn die Cross-Chain-Expansion eine nachhaltige GRT-Nachfrage antreibt, könnte 2026 das Jahr sein, in dem The Graph den Übergang von einer „wichtigen DeFi-Infrastruktur“ zum „essenziellen Rückgrat der On-Chain-Ökonomie“ vollzieht.

Die 1,5 Billionen Abfragen sind erst der Anfang.


Erstellen Sie Anwendungen, die auf einer robusten Blockchain-Dateninfrastruktur basieren? BlockEden.xyz bietet leistungsstarken API-Zugriff über mehr als 40 Chains hinweg und ergänzt die dezentrale Indexierung durch Zuverlässigkeit auf Enterprise-Niveau für produktive Web3-Anwendungen.

Visas und Mastercards Stablecoin-Wende: Wenn traditionelle Zahlungssysteme auf Blockchain-Infrastruktur treffen

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Als Visa Ende 2024 bekannt gab, dass sein monatliches Stablecoin-Settlement-Volumen eine annualisierte Run-Rate von über 3,5 Milliarden $ überschritten hatte, war dies nicht bloß ein weiteres Blockchain-Pilotprojekt. Es war ein Signal, dass die weltweit größten Zahlungsnetzwerke die Art und Weise, wie Geld über Grenzen hinweg bewegt wird, grundlegend neu gestalten. Die kühne Prognose von Galaxy Digital – dass mindestens ein großes Kartennetzwerk im Jahr 2026 über 10 % des grenzüberschreitenden Abwicklungsvolumens über Public-Chain-Stablecoins routen wird – ist keine spekulative Wette mehr. Es wird zur infrastrukturellen Realität.

Die Konvergenz vollzieht sich schneller als von den meisten erwartet. Visa wickelt tatsächliche Transaktionen in USDC auf Solana ab. Mastercard führt Live-Kreditkartenabrechnungen auf dem XRP-Ledger mit Ripple durch. Und beide Netzwerke beeilen sich, blockchain-basierte Zahlungen für Endnutzer unsichtbar zu machen und gleichzeitig die Effizienzgewinne zu nutzen, mit denen traditionelle Systeme nicht mithalten können.

Hier geht es nicht darum, die bestehende Zahlungsinfrastruktur zu ersetzen. Es geht darum, Stablecoins direkt in den Settlement-Layer der weltweit vertrauenswürdigsten Zahlungsmarken einzubetten – und die Auswirkungen reichen weit über Krypto hinaus.

Visas Infrastruktur-Schachzug: Vom Pilotprojekt zur Produktion

Visas Ansatz stellt die bisher aggressivste Stablecoin-Integration eines traditionellen Zahlungsnetzwerks dar. Im Januar 2025 startete das Unternehmen das USDC-Settlement in den Vereinigten Staaten und ermöglichte es Issuer- und Acquirer-Partnern, Abrechnungen mit Visa über Circles dollarbasierten Stablecoin vorzunehmen.

Die technische Architektur ist täuschend einfach, aber strategisch tiefgreifend. Die Cross River Bank und die Lead Bank wickeln Transaktionen mit Visa in USDC über die Solana-Blockchain ab – kein privater Permissioned-Ledger, sondern eine öffentliche Layer-1-Blockchain, die Hunderttausende von Transaktionen pro Sekunde verarbeitet. Das Settlement-Framework bietet eine Verfügbarkeit von sieben Tagen, was bedeutet, dass Banken Gelder rund um die Uhr bewegen können, auch an Wochenenden und Feiertagen – eine dramatische Verbesserung gegenüber traditionellen ACH-Systemen, die nur an Werktagen arbeiten.

Aber Visa macht nicht bei Solana halt. Das Unternehmen ist Design-Partner für Arc, die neue, zweckgebundene Layer-1-Blockchain von Circle, die sich derzeit im öffentlichen Testnet befindet. Die Architektur von Arc ist für die Performance und Skalierbarkeit optimiert, die erforderlich sind, um die globalen kommerziellen Aktivitäten von Visa On-Chain zu unterstützen. Sobald Arc an den Start geht, plant Visa, einen Validator-Node zu betreiben – womit einer der weltweit größten Zahlungsabwickler zu einem aktiven Teilnehmer am Blockchain-Konsens wird.

Diese Dual-Chain-Strategie signalisiert das langfristige Engagement von Visa. Solana bietet sofortige Produktionskapazitäten mit bewährtem Durchsatz. Arc bietet eine maßgeschneiderte Umgebung, in der Visa die Protokollentwicklung beeinflussen und sicherstellen kann, dass die Blockchain die institutionellen Anforderungen an Zuverlässigkeit, Compliance und Interoperabilität mit bestehender Zahlungsinfrastruktur erfüllt.

Die Vorteile für Issuer sind greifbar:

  • Schnellere Geldbewegungen eliminieren mehrtägige Settlement-Verzögerungen
  • Automatisierte Treasury-Abläufe reduzieren den Aufwand für den manuellen Abgleich
  • Interoperabilität zwischen blockchain-basierten Zahlungen und traditionellen Systemen schafft Optionen – Banken können Transaktionen über das System routen, das für einen bestimmten Anwendungsfall die beste Wirtschaftlichkeit bietet

Mastercards mehrgleisige Stablecoin-Strategie

Während sich Visa auf die Settlement-Infrastruktur konzentriert, baut Mastercard einen dreistufigen Zahlungs-Stack auf, der Verbraucher, Händler und das institutionelle Settlement gleichzeitig berührt.

Auf der Verbraucherebene kündigte Mastercard im April 2025 an, End-to-End-Stablecoin-Funktionen „von Wallets bis zur Kasse“ zu ermöglichen. Partnerschaften mit krypto-nativen Plattformen wie MetaMask, Crypto.com, OKX und Kraken ermöglichen es nun Millionen von Menschen, Stablecoin-Guthaben an über 150 Millionen Mastercard-Akzeptanzstellen weltweit auszugeben. Die OKX Card, die in Zusammenarbeit mit Mastercard eingeführt wurde, verknüpft Krypto-Handel und Web3-Ausgaben direkt mit dem Händlernetz – ohne zwischengeschalteten Konvertierungsschritt für den Nutzer.

Auf der Händlerseite ermöglicht Mastercard das direkte Settlement in Stablecoins wie USDC, sodass Unternehmen Zahlungen in digitalen Dollar empfangen können, ohne mit Fiat-Währungen in Berührung zu kommen. Dies eliminiert Reibungsverluste beim Devisenhandel und Settlement-Verzögerungen, was besonders wertvoll für den grenzüberschreitenden E-Commerce ist, bei dem traditionelle Kartenabrechnungen Tage dauern und 2-3 % Währungsumrechnungsgebühren verursachen können.

Die technisch ambitionierteste Initiative ist jedoch Mastercards Live-Pilotprojekt mit Ripple, das am 6. November 2025 in Betrieb ging. Echte Kreditkartentransaktionen werden auf dem XRP-Ledger unter Verwendung von RLUSD – Ripples USD-basiertem Stablecoin – abgewickelt. Im Gegensatz zur Settlement-Layer-Integration von Visa testet dieses Pilotprojekt, ob die Blockchain Echtzeit-Autorisierung und Clearing bewältigen kann, nicht nur die Abrechnung am Ende des Tages. Im Erfolgsfall beweist es, dass öffentliche Blockchains die für Point-of-Sale-Transaktionen erforderlichen Antwortzeiten im Sub-Sekunden-Bereich einhalten können.

Die Grundlage dieser Initiativen bildet das Multi-Token Network von Mastercard, eine regulierte Blockchain-Umgebung, in der Banken mit tokenisierten Einlagen und Stablecoins unter bestehenden Compliance-Rahmenbedingungen transagieren können. Das Netzwerk umfasst auch Crypto Credential, eine Identitäts- und Compliance-Ebene, die Blockchain-Adressen an verifizierte Einheiten bindet – und damit das Problem löst, mit wem man transagiert, das erlaubnisfreie Netzwerke lange geplagt hat.

Die Strategie von Mastercard ist abgesichert. Sie unterstützt mehrere Stablecoins (USDC, PYUSD, USDG, FIUSD), mehrere Blockchains (Ethereum, Solana, XRP-Ledger) und mehrere Anwendungsfälle (Verbraucherausgaben, Händler-Settlement, Wallet-Auszahlungen). Die Wette lautet, dass Stablecoins allgegenwärtig werden, die gewinnenden Chains und Formfaktoren jedoch noch ungewiss sind.

Galaxy Digitals 10 %-Schwelle: Warum sie wichtig ist

Die Prognose von Galaxy Digital, dass ein großes Kartennetzwerk im Jahr 2026 mehr als 10 % des grenzüberschreitenden Abrechnungsvolumens über Stablecoins auf öffentlichen Blockchains abwickeln wird, ist aus drei Gründen von Bedeutung:

1. Sie etabliert einen quantifizierbaren Maßstab. „Erforschung der Blockchain“ ist seit 2015 ein gängiger Refrain für Zahlungsnetzwerke. Eine Schwelle von 10 % stellt eine wesentliche Akzeptanz dar – kein Pilotprojekt, sondern ein produktiver Anwendungsfall, der Milliarden von Dollar an realem Transaktionsvolumen verarbeitet.

2. Die Prognose bezieht sich spezifisch auf Stablecoins auf öffentlichen Blockchains, nicht auf private, zugangsbeschränkte Netzwerke. Diese Unterscheidung ist wichtig. Private Blockchains, die von Konsortien kontrolliert werden, bieten inkrementelle Effizienzgewinne, ändern aber das Vertrauensmodell oder die Interoperabilitätsdynamik nicht grundlegend. Öffentliche Blockchains führen erlaubnisfreien Zugang, Programmierbarkeit und Komponierbarkeit ein – Eigenschaften, die völlig neue Finanzprimitive ermöglichen.

3. Galaxy erwartet, dass „die meisten Endnutzer niemals eine Krypto-Schnittstelle sehen werden“. Dies ist die kritische Schwelle für die Benutzerfreundlichkeit. Wenn die Blockchain-Infrastruktur für Verbraucher sichtbar bleibt, beschränkt sich die Akzeptanz auf Krypto-native Nutzer. Wenn sie unsichtbar wird – Nutzer ziehen eine Mastercard durch, Händler erhalten Dollar, aber die Abrechnungsebene läuft auf Solana –, dann erweitert sich der adressierbare Markt auf jeden Karteninhaber und Händler weltweit.

Die Prognose von EY-Parthenon unterstützt die These von Galaxy aus einem anderen Blickwinkel. Die Beratungsfirma schätzt, dass bis 2030 5 – 10 % der grenzüberschreitenden Zahlungen über Stablecoins abgewickelt werden, was einem Wert von 2,1 Billionen bis 4,2 Billionen US-Dollar entspricht. Grenzüberschreitende Zahlungen sind besonders reif für Disruptionen, da herkömmliche Schienen für diese Transaktionen am langsamsten und teuersten sind. SWIFT-Überweisungen können 2 bis 5 Werktage dauern und 25 bis 50 US-Dollar pro Transaktion kosten. Die Stablecoin-Abrechnung auf Solana kostet Bruchteile eines Cents und ist in Sekunden abgeschlossen.

Die annualisierte Run-Rate von Visa in Höhe von 3,5 Milliarden US-Dollar (Stand November 2024) zeigt, dass der Trend real ist. Wenn sich dieses Volumen alle sechs Monate verdoppelt – eine konservative Annahme angesichts exponentieller Krypto-Adoptionskurven –, könnte Visa allein bis Ende 2026 ein jährliches Stablecoin-Abrechnungsvolumen von 50 Milliarden US-Dollar erreichen. Zum Vergleich: Das gesamte Zahlungsvolumen von Visa überstieg im Jahr 2023 10 Billionen US-Dollar. Eine 10 %-Schwelle im grenzüberschreitenden Bereich würde etwa 150 bis 200 Milliarden US-Dollar an Stablecoin-Abrechnungen erfordern – ein ehrgeiziges, aber erreichbares Ziel, wenn sich die institutionelle Akzeptanz beschleunigt.

Technische Architektur: Wie Blockchain auf Zahlungsschienen trifft

Die technische Integration zwischen traditionellen Zahlungsnetzwerken und Blockchain-Stablecoins umfasst drei Ebenen: die Abrechnungsebene (Settlement Layer), die Compliance-Ebene und die Benutzeroberflächenebene (User Interface Layer).

Abrechnungsebene (Settlement Layer): Hier bietet die Blockchain die deutlichsten Vorteile. Traditionelle Zahlungsnetzwerke wickeln Transaktionen über ein komplexes Geflecht aus Korrespondenzbanken, Clearinghäusern und Zentralbanksystemen ab. Die Abrechnung kann 1 bis 3 Werktage dauern, erfordert vorfinanzierte Nostro-Konten in mehreren Währungen und funktioniert nur während der Banköffnungszeiten.

Die Blockchain-Abrechnung ist radikal einfacher. Ein Stablecoin wie USDC existiert als Smart Contract auf Ethereum, Solana oder anderen Chains. Transaktionen sind atomar – entweder erhalten beide Parteien ihre Gelder oder die Transaktion schlägt vollständig fehl. Die Abrechnung ist je nach Blockchain innerhalb von Sekunden bis Minuten final. Und da Blockchains rund um die Uhr in Betrieb sind, gibt es keine Verzögerungen am Wochenende oder an Feiertagen.

Die Integration von Visa mit Solana demonstriert diese Architektur. Wenn die Cross River Bank mit Visa in USDC abrechnet, sendet die Bank USDC-Token an die Blockchain-Adresse von Visa. Visa erhält die Token, aktualisiert die internen Ledger und schreibt der Akzeptanzbank den Betrag gut. Der gesamte Prozess findet on-chain mit kryptografischem Nachweis statt, wodurch Abstimmungsdifferenzen vermieden werden, die im traditionellen Korrespondenzbankwesen üblich sind.

Compliance-Ebene: Das größte Hindernis für die breite Einführung der Blockchain war die Unsicherheit hinsichtlich der Compliance. Zahlungsnetzwerke arbeiten unter strengen regulatorischen Rahmenbedingungen – KYC, AML, Sanktionsprüfung, Transaktionsüberwachung. Öffentliche Blockchains sind pseudonym und erlaubnisfrei, was Reibungsverluste mit regulatorischen Anforderungen verursacht.

Das Crypto Credential von Mastercard löst dieses Problem durch eine Compliance-Überlagerung. Benutzer weisen ihre Identität off-chain durch traditionelle KYC-Prozesse nach. Sobald sie verifiziert sind, erhalten sie einen Blockchain-Nachweis (Credential), der kryptografisch belegt, dass ihre Identität den regulatorischen Standards entspricht, ohne persönliche Daten on-chain preiszugeben. Händler und Zahlungsabwickler können den Nachweis in Echtzeit verifizieren und so sicherstellen, dass alle Parteien die Compliance-Anforderungen erfüllen.

Ähnlich wird der USDC von Circle nur an verifizierte Einheiten ausgegeben, die KYC-Prüfungen bestehen. Während USDC auf öffentlichen Blockchains frei übertragen werden kann, bleiben der On-Ramp (Umtausch von Fiat in USDC) und der Off-Ramp (Einlösen von USDC gegen Fiat) durch die traditionelle Finanz-Compliance beschränkt. Dieses Hybridmodell bewahrt die Effizienz der Blockchain und erfüllt gleichzeitig die regulatorischen Verpflichtungen.

Benutzeroberflächenebene (User Interface Layer): Das letzte Puzzleteil besteht darin, die Blockchain für Endnutzer unsichtbar zu machen. Die Kernkompetenz von Visa und Mastercard ist die Benutzererfahrung – Verbraucher nutzen ihre Karten, ohne über ACH-Netzwerke, Korrespondenzbanken oder Devisenabrechnungen nachzudenken. Das gleiche Prinzip gilt für die Stablecoin-Integration.

Wenn ein Verbraucher mit einer Mastercard-verknüpften Krypto-Wallet bezahlt, erscheint die Transaktion identisch mit einer herkömmlichen Kartenzahlung. Hinter den Kulissen wandelt die Wallet Stablecoins in Fiat um (oder Händler akzeptieren Stablecoins direkt), aber das Bezahlerlebnis bleibt unverändert. Diese Abstraktion ist entscheidend. Von Verbrauchern zu verlangen, Blockchain-Adressen, Gas-Gebühren und private Schlüssel für Wallets zu verwalten, erzeugt Reibung. Eine automatische Abwicklung beseitigt Adoptionsbarrieren.

Die Partnerschaft von Visa mit Circle auf der Arc-Blockchain sieht Pläne für diese Ebene der Integration vor. Arc ist auf die „Leistung und Skalierbarkeit ausgelegt, die erforderlich sind, um die globalen kommerziellen Aktivitäten von Visa on-chain zu unterstützen“ – was einen Transaktionsdurchsatz, Finalitätszeiten und eine Zuverlässigkeit impliziert, die traditionellen Zahlungssystemen entsprechen oder diese übertreffen. Wenn Arc hält, was es verspricht, kann Visa Transaktionen über die Blockchain-Infrastruktur leiten, ohne das Benutzererlebnis zu beeinträchtigen.

Die weitreichenden Auswirkungen auf die Finanzinfrastruktur

Der Stablecoin - Schwenk von Visa und Mastercard ist mehr als nur ein Upgrade des Zahlungsnetzwerks. Es ist ein Signal, dass die Blockchain von einer spekulativen Anlageklasse zu einer institutionellen Infrastruktur übergeht.

Für Banken bietet das Stablecoin - Settlement sofortige Kosteneinsparungen. Die Finanzierung von Nostrokonten bindet Milliarden an brachliegendem Kapital. Das Blockchain - Settlement macht Vorfinanzierungsanforderungen überflüssig – Gelder werden erst dann bewegt, wenn Transaktionen ausgeführt werden. Bei internationalen Zahlungen führt diese Liquiditätseffizienz zu niedrigeren Kosten und einem besseren Treasury - Management.

Für Händler, insbesondere im grenzüberschreitenden E - Commerce, reduziert das Stablecoin - Settlement das Wechselkursrisiko und Verzögerungen bei der Abwicklung. Ein europäischer Händler, der USD - Zahlungen von amerikanischen Kunden akzeptiert, kann USDC sofort erhalten, bei Bedarf in Euro umwandeln und die 2 - 5 - tägigen Abwicklungsfenster vermeiden, die den Cashflow einschränken.

Für Fintech - Plattformen schafft die Integration neue Infrastruktur - Primitive. Sobald Visa und Mastercard das Stablecoin - Settlement unterstützen, kann jedes Fintech mit Kartenausgabekapazitäten Krypto - gebundene Ausgaben anbieten. Dies macht proprietäre Blockchain - Integrationen überflüssig – Fintechs können die Infrastruktur von Visa und Mastercard als Blockchain - Abstraktionsebene nutzen.

Die regulatorische Dimension ist ebenso wichtig. Visa und Mastercard operieren unter den strengsten Compliance - Regelwerken der globalen Finanzwelt. Ihre Befürwortung von Public - Chain - Stablecoins signalisiert den Regulierungsbehörden, dass diese Systeme institutionelle Standards erfüllen können. Der GENIUS Act in den USA, die MiCA - Verordnungen in der EU und Stablecoin - Rahmenwerke in Singapur und Hongkong laufen alle auf klare Regeln hinaus, die konforme Stablecoins als Zahlungsinstrumente und nicht als spekulative Krypto - Assets behandeln.

Diese regulatorische Klarheit schafft in Verbindung mit der Einführung durch große Zahlungsnetzwerke eine positive Rückkopplungsschleife. Wenn sich die Compliance - Rahmenbedingungen festigen, setzen mehr Institutionen Stablecoins ein. Mit zunehmender Akzeptanz gewinnen die Regulierungsbehörden Vertrauen in die Sicherheit und Stabilität der Technologie. Und wenn sich Stablecoins in der Praxis bewähren, steigen die wirtschaftlichen Anreize für die Migration von Altsystemen.

Was passiert mit der traditionellen Zahlungsinfrastruktur?

Der Aufstieg des Stablecoin - Settlements bedeutet nicht das Ende von SWIFT, ACH oder dem Korrespondenzbankwesen – zumindest nicht sofort. Vielmehr entsteht eine parallele Infrastruktur für Transaktionen, die herkömmliche Systeme schlecht bewältigen: grenzüberschreitende Zahlungen, 24 / 7 - Abwicklung, Mikrozahlungen und programmierbares Geld.

Betrachten Sie es als Optionalität. Eine Bank, die mit Visa abrechnet, kann USDC für internationale Transaktionen wählen, die eine sofortige Abwicklung erfordern, während sie für inländische Lohn - und Gehaltszahlungen, bei denen die Geschwindigkeit weniger wichtig ist, das herkömmliche ACH - Verfahren nutzt. Im Laufe der Zeit, mit zunehmender Reife der Blockchain - Infrastruktur, summieren sich die Effizienzgewinne, und der Standard verschiebt sich für einen immer größeren Teil der Transaktionen in Richtung Stablecoin - Settlement.

Die eigentliche Disruption findet nicht auf der Kundenseite statt. Die meisten Karteninhaber werden nicht wissen, ob ihre Transaktion über ACH oder Blockchain abgewickelt wurde. Die Disruption ist institutionell – Banken, Zahlungsabwickler und Treasury - Abteilungen schichten Kapital von Nostrokonten und Korrespondenzbankgebühren in Blockchain - Infrastruktur um. McKinsey schätzt, dass Blockchain - basierte grenzüberschreitende Zahlungen den Finanzinstituten allein bei den Abwicklungskosten jährlich 10 - 15 Milliarden US - Dollar einsparen könnten.

Für die Blockchain - Infrastruktur stellt dies eine Validierung auf höchster Ebene dar. Solana, Ethereum und aufstrebende Chains wie Circles Arc sind keine experimentellen Netzwerke mehr – sie verarbeiten Milliarden an Abwicklungsvolumen für Fortune - 500 - Zahlungsunternehmen. Diese institutionelle Nutzung treibt Netzwerkeffekte voran und zieht Entwickler, Liquidität und Anwendungen an, die die Blockchain weiter als kritische Finanzinfrastruktur festigen.

Der Wendepunkt im Jahr 2026

Wenn die Prognose von Galaxy Digital eintrifft – und die aktuellen Trends deuten darauf hin –, wird 2026 das Jahr sein, in dem Stablecoins den Übergang von der "aufstrebenden Technologie" zur "Mainstream - Abwicklungsinfrastruktur" vollziehen.

Die Weichen sind gestellt. Visa und Mastercard sind über Pilotprojekte hinaus zu Produktionssystemen übergegangen, die reales Transaktionsvolumen verarbeiten. Regulatorische Rahmenbedingungen in wichtigen Rechtsordnungen klären den rechtlichen Status von Stablecoins als Zahlungsinstrumente. Und die wirtschaftlichen Argumente sind unbestreitbar – schnellere Abwicklung, geringere Kosten, besseres Liquiditätsmanagement und 24 / 7 - Verfügbarkeit.

Für die Verbraucher wird die Änderung unsichtbar sein. Karten werden weiterhin durchgezogen, Apps werden weiterhin Zahlungen verarbeiten und Geld wird sich weiterhin bewegen. Aber im Hintergrund wird die Infrastruktur, die diese Transaktionen antreibt, zunehmend auf öffentlichen Blockchains laufen, in Stablecoins abgewickelt werden und kryptografische Nachweise anstelle des Vertrauens in Korrespondenzbanken nutzen.

Für die Blockchain - Branche ist dies der Meilenstein der Legitimität, der lange versprochen, aber selten geliefert wurde. Kein weiteres Whitepaper oder eine Roadmap – tatsächliche Fortune - 500 - Unternehmen, die Public - Chain - Infrastruktur in Billionen - Dollar - Zahlungsnetzwerke einbetten.

Die Kluft zwischen traditionellem Finanzwesen und Krypto schließt sich. Nicht, weil eine Seite gewonnen hat, sondern weil die wertvollsten Eigenschaften beider Seiten – die Effizienz und Transparenz der Blockchain sowie das Vertrauen und die Benutzererfahrung des traditionellen Finanzwesens – zu einer hybriden Infrastruktur verschmelzen, die kein Ökosystem allein hätte aufbauen können.

Der Stablecoin - Schwenk von Visa und Mastercard ist nicht das Ende dieser Konvergenz. Es ist der Anfang.


Quellen:

Die Kluft in der Verwahrungsarchitektur: Warum die meisten Krypto-Verwahrer die US-Bankenstandards nicht erfüllen können

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Hier ist ein Paradoxon, das jedes Institut beunruhigen sollte, das in den Krypto-Bereich einsteigt: Einige der prominentesten Verwahrungsanbieter der Branche – darunter Fireblocks und Copper – können nach den US-Bankenvorschriften rechtlich nicht als qualifizierte Verwahrer fungieren, obwohl sie digitale Vermögenswerte in Milliardenhöhe schützen.

Der Grund? Eine fundamentale architektonische Entscheidung, die im Jahr 2018 innovativ erschien, stellt im Jahr 2026 eine unüberwindbare regulatorische Barriere dar.

Die Technologie, die die Branche spaltete

Der Markt für institutionelle Verwahrung spaltete sich vor Jahren in zwei Lager, von denen jedes auf einen anderen kryptografischen Ansatz zur Sicherung privater Schlüssel setzte.

Multi-Party Computation (MPC) teilt einen privaten Schlüssel in verschlüsselte „Shards“ auf, die über mehrere Parteien verteilt sind. Kein einzelner Shard enthält jemals den vollständigen Schlüssel. Wenn Transaktionen signiert werden müssen, koordinieren sich die Parteien über ein verteiltes Protokoll, um gültige Signaturen zu erzeugen, ohne jemals den vollständigen Schlüssel zu rekonstruieren. Der Reiz ist offensichtlich: Die Eliminierung des „Single Point of Failure“, indem sichergestellt wird, dass keine einzelne Entität jemals die vollständige Kontrolle hat.

Hardware-Sicherheitsmodule (HSMs) hingegen speichern vollständige private Schlüssel in physischen Geräten, die nach FIPS 140-2 Level 3 oder Level 4 zertifiziert sind. Diese sind nicht nur manipulationssicher (tamper-resistant) – sie sind manipulationsreaktiv (tamper-responsive). Wenn Sensoren Bohrungen, Spannungsmanipulationen oder Temperaturextreme erkennen, löscht das HSM sofort alle kryptografischen Materialien selbst, bevor ein Angreifer Schlüssel extrahieren kann. Der gesamte kryptografische Lebenszyklus – Erzeugung, Speicherung, Signierung, Vernichtung – findet innerhalb einer zertifizierten Grenze statt, die strengen Bundesstandards entspricht.

Jahrelang existierten beide Ansätze nebeneinander. MPC-Anbieter betonten die theoretische Unmöglichkeit einer Schlüsselkompromittierung durch Single-Point-Angriffe. HSM-Befürworter verwiesen auf Jahrzehnte bewährter Sicherheit in der Bankeninfrastruktur und eindeutige regulatorische Compliance. Der Markt behandelte sie als gleichermaßen praktikable Alternativen für die institutionelle Verwahrung.

Dann stellten die Aufsichtsbehörden klar, was „qualifizierter Verwahrer“ (Qualified Custodian) tatsächlich bedeutet.

FIPS 140-3: Der Standard, der alles veränderte

Die Federal Information Processing Standards existieren nicht, um Ingenieuren das Leben schwer zu machen. Sie existieren, weil die US-Regierung durch schmerzhafte, geheime Vorfälle gelernt hat, wie kryptografische Module unter gegnerischen Bedingungen versagen.

FIPS 140-3, das im März 2019 FIPS 140-2 ablöste, legt vier Sicherheitsstufen für kryptografische Module fest:

Level 1 erfordert Geräte in Produktionsqualität und extern getestete Algorithmen. Es ist die Basis – notwendig, aber unzureichend für den Schutz hochwertiger Vermögenswerte.

Level 2 fügt Anforderungen für physische Manipulationsnachweise (tamper-evidence) und rollenbasierte Authentifizierung hinzu. Angreifer könnten ein Level 2 Modul erfolgreich kompromittieren, aber sie hinterlassen erkennbare Spuren.

Level 3 verlangt physische Manipulationssicherheit (tamper-resistance) und identitätsbasierte Authentifizierung. Private Schlüssel können nur in verschlüsselter Form ein- oder austreten. Hier werden die Anforderungen teuer in der Implementierung und unmöglich vorzutäuschen. Level 3 Module müssen physische Einbruchsversuche erkennen und darauf reagieren – nicht nur für eine spätere Überprüfung protokollieren.

Level 4 erzwingt manipulationsaktiven Schutz: Das Modul muss Umweltangriffe (Spannungsschwankungen, Temperaturmanipulation, elektromagnetische Störungen) erkennen und sensible Daten sofort vernichten. Eine Multi-Faktor-Authentifizierung wird obligatorisch. Auf dieser Stufe kann die Sicherheitsgrenze staatlichen Angreifern mit physischem Zugriff auf das Gerät widerstehen.

Um den Status eines qualifizierten Verwahrers gemäß den US-Bankenvorschriften zu erhalten, muss eine HSM-Infrastruktur mindestens eine Zertifizierung nach FIPS 140-2 Level 3 nachweisen. Dies ist keine Empfehlung oder Best Practice. Es ist eine harte Anforderung, die vom Office of the Comptroller of the Currency (OCC), der Federal Reserve und den staatlichen Bankenaufsichtsbehörden durchgesetzt wird.

Softwarebasierte MPC-Systeme können definitionsgemäß keine Zertifizierung nach FIPS 140-2 oder 140-3 auf Level 3 oder höher erreichen. Die Zertifizierung gilt für physische kryptografische Module mit Hardware-Manipulationssicherheit – eine Kategorie, in die MPC-Architekturen grundsätzlich nicht passen.

Die Compliance-Lücke bei Fireblocks und Copper

Die Fireblocks Trust Company arbeitet unter einer Trust-Lizenz des Bundesstaates New York, die vom New York Department of Financial Services (NYDFS) reguliert wird. Die Infrastruktur des Unternehmens schützt über 10 Billionen $ an digitalen Vermögenswerten in 300 Millionen Wallets – eine wirklich beeindruckende Leistung, die operative Exzellenz und Marktvertrauen demonstriert.

Aber „qualifizierter Verwahrer“ nach Bundesbankenrecht ist ein spezifischer Fachbegriff mit präzisen Anforderungen. Nationalbanken, Bundessparverbände und staatliche Banken, die Mitglieder des Federal Reserve Systems sind, gelten präsumtiv als qualifizierte Verwahrer. Staatliche Trust-Unternehmen können den Status eines qualifizierten Verwahrers erreichen, wenn sie dieselben Anforderungen erfüllen – einschließlich einer HSM-gestützten Schlüsselverwaltung, die den FIPS-Standards entspricht.

Die Architektur von Fireblocks basiert im Backend auf MPC-Technologie. Das Sicherheitsmodell des Unternehmens teilt Schlüssel auf mehrere Parteien auf und verwendet fortschrittliche kryptografische Protokolle, um das Signieren ohne Rekonstruktion des Schlüssels zu ermöglichen. Für viele Anwendungsfälle – insbesondere den Hochgeschwindigkeitshandel, börsenübergreifende Arbitrage und DeFi-Protokoll-Interaktionen – bietet diese Architektur überzeugende Vorteile gegenüber HSM-basierten Systemen.

Aber sie erfüllt nicht den Standard des qualifizierten Verwahrers auf Bundesebene für die Verwahrung digitaler Vermögenswerte.

Copper steht vor derselben grundlegenden Einschränkung. Die Plattform zeichnet sich dadurch aus, dass sie Fintech-Unternehmen und Börsen eine schnelle Asset-Bewegung und Handelsinfrastruktur bietet. Die Technologie funktioniert. Die Abläufe sind professionell. Das Sicherheitsmodell ist für die beabsichtigten Anwendungsfälle vertretbar.

Keines der beiden Unternehmen verwendet HSMs im Backend. Beide verlassen sich auf MPC-Technologie. Unter aktuellen regulatorischen Auslegungen schließt diese architektonische Entscheidung sie davon aus, als qualifizierte Verwahrer für institutionelle Kunden zu fungieren, die der Bundesbankenaufsicht unterliegen.

Die SEC bestätigte in jüngsten Leitlinien, dass sie keine Durchsetzungsmaßnahmen gegen registrierte Berater oder regulierte Fonds empfehlen wird, die staatliche Trust-Unternehmen als qualifizierte Verwahrer für Krypto-Assets nutzen – aber nur, wenn das staatliche Trust-Unternehmen von seiner Aufsichtsbehörde zur Erbringung von Verwahrungsdienstleistungen ermächtigt ist und dieselben Anforderungen erfüllt, die für traditionelle qualifizierte Verwahrer gelten. Dazu gehört eine FIPS-zertifizierte HSM-Infrastruktur.

Hier geht es nicht darum, dass eine Technologie in absoluten Zahlen „besser“ ist als eine andere. Es geht um regulatorische Definitionen, die geschrieben wurden, als kryptografische Verwahrung HSMs in physisch gesicherten Einrichtungen bedeutete, und die bisher nicht aktualisiert wurden, um softwarebasierte Alternativen zu berücksichtigen.

Anchorage Digitals regulatorischer Burggraben durch die Bundescharter

Im Januar 2021 wurde die Anchorage Digital Bank das erste Krypto-native Unternehmen, das eine nationale Trust-Bank-Charter vom OCC erhielt. Fünf Jahre später ist sie nach wie vor die einzige bundesweit lizenzierte Bank, die sich primär auf die Verwahrung digitaler Vermögenswerte konzentriert.

Die OCC-Charter ist nicht nur ein regulatorischer Erfolg. Sie ist ein Wettbewerbsvorteil (Moat), der mit zunehmender institutioneller Akzeptanz immer wertvoller wird.

Kunden der Anchorage Digital Bank lassen ihre Vermögenswerte unter demselben bundesweiten Regulierungsrahmen verwahren, der auch für JPMorgan Chase und die Bank of New York Mellon gilt. Dies umfasst:

  • Eigenkapitalanforderungen, die sicherstellen sollen, dass die Bank Verluste auffangen kann, ohne die Kundenvermögen zu gefährden
  • Umfassende Compliance-Standards, die durch regelmäßige OCC-Prüfungen durchgesetzt werden
  • Sicherheitsprotokolle, die der bundesstaatlichen Bankenaufsicht unterliegen, einschließlich FIPS-zertifizierter HSM-Infrastruktur
  • SOC 1 und SOC 2 Typ II Zertifizierungen, die effektive interne Kontrollen bestätigen

Auch die betrieblichen Leistungskennzahlen sind von Bedeutung. Anchorage verarbeitet 90 % der Transaktionen in weniger als 20 Minuten — dies ist wettbewerbsfähig mit MPC-basierten Systemen, die theoretisch aufgrund der verteilten Signierung schneller sein sollten. Das Unternehmen hat eine Verwahrungsinfrastruktur aufgebaut, die von Institutionen wie BlackRock für den Betrieb von Spot-Krypto-ETFs ausgewählt wurde — ein Vertrauensbeweis des weltweit größten Vermögensverwalters bei der Einführung regulierter Produkte.

Für regulierte Einheiten — Pensionsfonds, Stiftungen, Versicherungsgesellschaften, registrierte Anlageberater — löst die Bundescharter ein Compliance-Problem, das keine noch so innovative Kryptografie lösen kann. Wenn Vorschriften den Status eines qualifizierten Verwahrers (Qualified Custodian) verlangen und dieser Status eine nach FIPS-Standards validierte HSM-Infrastruktur voraussetzt und nur eine Krypto-native Bank unter direkter OCC-Aufsicht operiert, wird die Entscheidung für die Verwahrung unkompliziert.

Die Chance hybrider Architekturen

Die Landschaft der Verwahrungstechnologie ist nicht statisch. Da Institutionen die regulatorischen Einschränkungen reiner MPC-Lösungen erkennen, entsteht eine neue Generation hybrider Architekturen.

Diese Systeme kombinieren FIPS 140-2 validierte HSMs mit MPC-Protokollen und biometrischen Kontrollen für einen mehrschichtigen Schutz. Das HSM bietet die Grundlage für die regulatorische Compliance und physische Manipulationssicherheit. MPC fügt verteilte Signaturfunktionen hinzu und eliminiert Single Points of Failure. Biometrie stellt sicher, dass Transaktionen selbst bei gültigen Anmeldedaten eine menschliche Verifizierung durch autorisiertes Personal erfordern.

Einige fortschrittliche Verwahrungsplattformen agieren heute „temperaturagnostisch“ — sie sind in der Lage, Vermögenswerte dynamisch zwischen Cold Storage (HSMs in physisch gesicherten Einrichtungen), Warm Storage (HSMs mit schnellerem Zugriff für betriebliche Anforderungen) und Hot Wallets (für den Hochfrequenzhandel, bei dem Millisekunden zählen und regulatorische Anforderungen weniger streng sind) aufzuteilen.

Diese architektonische Flexibilität ist wichtig, da verschiedene Asset-Klassen und Anwendungsfälle unterschiedliche Abwägungen zwischen Sicherheit und Zugänglichkeit erfordern:

  • Langfristige Treasury-Bestände: Maximale Sicherheit in Cold-Storage-HSMs in FIPS Level 4 Einrichtungen, mit mehrtägigen Auszahlungsprozessen und mehreren Genehmigungsschichten
  • ETF-Erstellung/-Rückgabe (Creation/Redemption): Warm-Storage-HSMs, die Transaktionen in institutioneller Größenordnung innerhalb von Stunden verarbeiten können und gleichzeitig die FIPS-Konformität wahren
  • Handelsoperationen: Hot Wallets mit MPC-Signierung für Ausführungen im Sub-Sekunden-Bereich, wobei der Verwahrungsanbieter unter anderen regulatorischen Rahmenbedingungen operiert als qualifizierte Verwahrer

Die entscheidende Erkenntnis ist, dass regulatorische Compliance nicht binär ist. Sie ist kontextabhängig und richtet sich nach der Art der Institution, den gehaltenen Vermögenswerten und dem jeweils geltenden Regulierungssystem.

NIST-Standards und die sich entwickelnde Landschaft im Jahr 2026

Über die FIPS-Zertifizierung hinaus hat sich das National Institute of Standards and Technology (NIST) im Jahr 2026 als Benchmark für Cybersicherheit bei der Verwahrung digitaler Vermögenswerte etabliert.

Finanzinstitute, die Verwahrungsdienstleistungen anbieten, müssen zunehmend betriebliche Anforderungen erfüllen, die am NIST Cybersecurity Framework 2.0 ausgerichtet sind. Dies beinhaltet:

  • Kontinuierliche Überwachung und Bedrohungserkennung in der gesamten Verwahrungsinfrastruktur
  • Incident-Response-Playbooks, die durch regelmäßige Tabletop-Übungen getestet werden
  • Sicherheit der Lieferkette für Hardware- und Softwarekomponenten in Verwahrungssystemen
  • Identitäts- und Zugriffsmanagement nach dem Prinzip der minimalen Rechtevergabe (Least Privilege)

Das Framework von Fireblocks orientiert sich am NIST CSF 2.0 und bietet ein Modell für Banken, die eine Custody-Governance operationalisieren. Die Herausforderung besteht darin, dass die NIST-Konformität zwar notwendig, aber für den Status eines qualifizierten Verwahrers nach Bundesbankenrecht nicht ausreichend ist. Sie ist eine Cybersicherheits-Basislinie, die für alle Verwahrungsanbieter gilt — aber nicht die zugrunde liegende FIPS-Zertifizierungsanforderung für HSM-Infrastrukturen löst.

Als sich die Regulierungen für die Krypto-Verwahrung im Jahr 2026 weiterentwickeln, sehen wir eine klarere Abgrenzung zwischen verschiedenen Regulierungsebenen:

  • OCC-charterte Banken: Volle bundesstaatliche Bankenaufsicht, Status als qualifizierter Verwahrer, HSM-Anforderungen
  • Staatlich lizenzierte Trust-Unternehmen: NYDFS- oder gleichwertige staatliche Regulierung, potenzieller Status als qualifizierter Verwahrer, sofern HSM-gestützt
  • Lizenzierte Verwahrungsanbieter: Erfüllen staatliche Lizenzanforderungen, beanspruchen aber nicht den Status eines qualifizierten Verwahrers
  • Technologieplattformen: Stellen die Verwahrungsinfrastruktur bereit, ohne die Kundenvermögen direkt im eigenen Namen zu halten

Die regulatorische Entwicklung macht die Verwahrung nicht einfacher. Sie schafft spezialisiertere Kategorien, die die Sicherheitsanforderungen an die Risikoprofile der Institutionen anpassen.

Was dies für die institutionelle Adoption bedeutet

Die Spaltung der Verwahrungsarchitektur hat direkte Auswirkungen auf Institutionen, die im Jahr 2026 in digitale Assets investieren:

Für registrierte Anlageberater (RIAs) verlangt die Custody Rule der SEC, dass Kundenvermögen von qualifizierten Verwahrern gehalten werden. Wenn Ihre Fondsstruktur den Status eines qualifizierten Verwahrers erfordert, können MPC-basierte Anbieter — unabhängig von ihren Sicherheitseigenschaften oder ihrer operativen Erfolgsbilanz — diese regulatorische Anforderung nicht erfüllen.

Für öffentliche Pensionsfonds und Stiftungen erfordern treuhänderische Standards oft eine Verwahrung bei Institutionen, die dieselben Sicherheits- und Aufsichtsstandards erfüllen wie traditionelle Asset-Verwahrer. Staatliche Banklizenzen oder bundesweite OCC-Lizenzen werden zur Voraussetzung, was das Feld der tragfähigen Anbieter drastisch einschränkt.

Für Unternehmensschatzämter, die Bitcoin oder Stablecoins akkumulieren, gilt die Anforderung an qualifizierte Verwahrer möglicherweise nicht — wohl aber der Versicherungsschutz. Viele Versicherungspolicen für die Verwahrung auf institutionellem Niveau setzen heute eine FIPS-zertifizierte HSM-Infrastruktur als Bedingung für den Versicherungsschutz voraus. Der Versicherungsmarkt setzt hardwarebasierte Sicherheitsmodulanforderungen effektiv durch, selbst dort, wo Regulatoren sie nicht vorgeschrieben haben.

Für Krypto-native Unternehmen — Börsen, DeFi-Protokolle, Trading-Desks — sieht die Kalkulation anders aus. Geschwindigkeit ist wichtiger als die regulatorische Klassifizierung. Die Fähigkeit, Assets über Chains hinweg zu bewegen und in Smart Contracts zu integrieren, zählt mehr als eine FIPS-Zertifizierung. MPC-basierte Verwahrungsplattformen glänzen in diesen Umgebungen.

Der Fehler besteht darin, Verwahrung als Einheitslösung zu betrachten. Die richtige Architektur hängt ganz davon ab, wer Sie sind, was Sie halten und welcher regulatorische Rahmen gilt.

Der Weg in die Zukunft

Bis 2030 wird sich der Verwahrungsmarkt voraussichtlich in verschiedene Kategorien aufgeteilt haben:

Qualifizierte Verwahrer, die unter bundesweiten OCC-Lizenzen oder gleichwertigen staatlichen Treuhandlizenzen arbeiten, HSM-Infrastruktur nutzen und Institutionen bedienen, die strengen treuhänderischen Standards und Verwahrungsvorschriften unterliegen.

Technologieplattformen, die MPC und andere fortschrittliche kryptografische Techniken nutzen und Anwendungsfälle bedienen, bei denen Geschwindigkeit und Flexibilität wichtiger sind als der Status eines qualifizierten Verwahrers, und die unter Geldtransfer- oder anderen Lizenzrahmen operieren.

Hybrid-Anbieter, die sowohl HSM-gestützte qualifizierte Verwahrung für regulierte Produkte als auch MPC-basierte Lösungen für betriebliche Anforderungen anbieten, sodass Institutionen ihre Assets je nach spezifischen Anforderungen auf verschiedene Sicherheitsmodelle verteilen können.

Die Frage für Institutionen, die im Jahr 2026 in den Krypto-Sektor einsteigen, lautet nicht: „Welcher Verwahrungsanbieter ist der beste?“, sondern: „Welche Verwahrungsarchitektur entspricht unseren regulatorischen Verpflichtungen, unserer Risikotoleranz und unseren betrieblichen Anforderungen?“

Für viele Institutionen weist die Antwort in Richtung staatlich regulierter Verwahrer mit FIPS-zertifizierter HSM-Infrastruktur. Für andere überwiegen die Flexibilität und Geschwindigkeit von MPC-basierten Plattformen gegenüber der Klassifizierung als qualifizierter Verwahrer.

Die Reifung der Branche bedeutet, diese Kompromisse anzuerkennen, anstatt so zu tun, als ob sie nicht existieren würden.

Da sich die Blockchain-Infrastruktur ständig in Richtung institutioneller Standards weiterentwickelt, wird ein zuverlässiger API-Zugang zu verschiedenen Netzwerken für Entwickler unerlässlich. BlockEden.xyz bietet RPC-Endpunkte auf Enterprise-Niveau für alle wichtigen Chains, sodass sich Entwickler auf Anwendungen anstatt auf den Betrieb von Nodes konzentrieren können.

Quellen

Filecoins Onchain-Cloud-Transformation: Vom Cold Storage zur programmierbaren Infrastruktur

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Während AWS $ 23 pro Terabyte monatlich für Standardspeicher berechnet, kostet Filecoin $ 0,19 für die gleiche Kapazität. Doch der Preis allein gewinnt niemals Kriege um die Infrastruktur. Die eigentliche Frage ist, ob dezentralisierter Speicher mit zentralisierten Cloud-Anbietern in den Kennzahlen mithalten kann, auf die es wirklich ankommt: Geschwindigkeit, Zuverlässigkeit und Entwicklererfahrung. Am 18. November 2025 gab Filecoin mit dem Start der Onchain Cloud eine klare Antwort – eine grundlegende Transformation, die 2,1 Exbibytes an Archivspeicher in eine programmierbare, verifizierbare Infrastruktur verwandelt, die für KI-Workloads und Echtzeitanwendungen konzipiert ist.

Dies ist keine schrittweise Verbesserung. Es ist Filecoins Schwenk vom „Blockchain-Speichernetzwerk“ zur „dezentralisierten Cloud-Plattform“, komplett mit automatisierten Zahlungen, kryptografischer Verifizierung und Leistungsgarantien. Nach monatelangen Tests mit über 100 Entwicklerteams startete das Mainnet im Januar 2026 und positionierte Filecoin so, dass es einen bedeutenden Anteil am 12-Milliarden-Dollar-Markt für KI-Infrastruktur erobern kann.

Die Onchain Cloud Architektur: Drei Säulen des programmierbaren Speichers

Filecoin Onchain Cloud führt drei Kerndienste ein, die es Entwicklern gemeinsam ermöglichen, auf einer verifizierbaren, dezentralisierten Infrastruktur aufzubauen, ohne die Komplexität, die traditionell mit Blockchain-Speicher verbunden ist.

Filecoin Warm Storage Service hält Daten online und durch kontinuierliche Onchain-Beweise nachweislich verfügbar. Im Gegensatz zum Cold Archival Storage, der Abrufverzögerungen erfordert, hält Warm Storage die Daten in einem zugänglichen Zustand, während er weiterhin die kryptografische Verifizierung von Filecoin nutzt. Dies adressiert die Haupteinschränkung, die Filecoin bisher auf Backup- und Archivierungsszenarien beschränkte – die Daten waren nicht schnell genug für aktive Workloads.

Filecoin Pay automatisiert nutzungsbasierte Zahlungen durch Smart Contracts und gleicht Transaktionen erst ab, wenn die Bereitstellung Onchain bestätigt wurde. Dies ist eine grundlegende Infrastruktur für Pay-as-you-go-Cloud-Dienste: Zahlungen fließen automatisch, sobald Dienste nachgewiesen sind, wodurch manuelle Rechnungsstellung, Kreditsysteme und Vertrauensannahmen entfallen. Tausende von Zahlungskanälen haben bereits Transaktionen während der Testnet-Phase verarbeitet.

Filecoin Beam ermöglicht gemessene, incentivierte Datenabrufe mit leistungsbasierten Anreizen. Speicheranbieter konkurrieren nicht nur um die Speicherkapazität, sondern auch um die Abrufgeschwindigkeit und Zuverlässigkeit. Dies schafft einen Abrufmarkt, auf dem Anbieter für ihre Leistung belohnt werden, was direkt die historische Schwäche des dezentralisierten Speichers anspricht: unvorhersehbare Abrufzeiten.

Entwickler greifen über das Synapse SDK auf diese Dienste zu, das die Komplexität der direkten Interaktion mit dem Filecoin-Protokoll abstrahiert. Frühe Integrationen kommen von der ERC-8004-Community, dem Ethereum Name Service (ENS), KYVE, Monad, Safe, Akave und Storacha – Projekten, die verifizierbaren Speicher für alles benötigen, vom Blockchain-Zustand bis hin zur dezentralisierten Identität.

Kryptografische Beweise: Das technische Fundament von verifizierbarem Speicher

Was Filecoin von zentralisierten Cloud-Anbietern unterscheidet, ist nicht nur die Dezentralisierung – es ist der kryptografische Beweis, dass Speicherverpflichtungen eingehalten werden. Dies ist wichtig für KI-Trainingsdatensätze, die Herkunftsgarantien benötigen, für stark regulierte Branchen, die Audit-Trails erfordern, und für jede Anwendung, bei der Datenintegrität nicht verhandelbar ist.

Proof-of-Replication (PoRep) erzeugt durch einen rechenintensiven Sealing-Prozess eine eindeutige Kopie der Originaldaten eines Sektors. Dies beweist, dass ein Speicheranbieter eine physisch eindeutige Kopie der Daten des Clients speichert und nicht nur vorgibt, sie zu speichern oder eine einzige Kopie für mehrere Clients verwendet. Der versiegelte Sektor wird einer langsamen Kodierung unterzogen, was es für unehrliche Anbieter unmöglich macht, Daten bei Bedarf zu regenerieren, um Speicher vorzutäuschen.

Der Sealing-Prozess erzeugt einen Multi-SNARK-Beweis und eine Reihe von Verpflichtungen (CommR), die den versiegelten Sektor mit den ursprünglichen unversiegelten Daten verknüpfen. Diese Verpflichtungen sind auf der Blockchain öffentlich verifizierbar und erstellen eine unveränderliche Aufzeichnung von Speicher-Deals.

Proof-of-Spacetime (PoSt) beweist die kontinuierliche Speicherung über die Zeit durch regelmäßige kryptografische Challenges. Speicheranbieter haben eine 30-minütige Frist, um auf WindowPoSt-Herausforderungen zu reagieren, indem sie zk-SNARK-Beweise einreichen, die verifizieren, dass sie immer noch genau die Bytes besitzen, zu deren Speicherung sie sich verpflichtet haben. Dies geschieht kontinuierlich – nicht nur bei der Einleitung eines Speicher-Deals, sondern während seiner gesamten Dauer.

Der Verifizierungsprozess wählt zufällig Blattknoten aus dem kodierten Replikat aus und führt Merkle-Inklusionsbeweise durch, um zu zeigen, dass der Anbieter die spezifischen Bytes hat, die dort sein sollten. Die Anbieter verwenden dann den privat gespeicherten CommRLast, um zu beweisen, dass sie eine Wurzel für das Replikat kennen, die sowohl mit den Inklusionsbeweisen übereinstimmt als auch das öffentlich bekannte CommR ableiten kann. Die letzte Stufe komprimiert diese Beweise in einen einzigen zk-SNARK für eine effiziente Onchain-Verifizierung.

Das Versäumnis, WindowPoSt-Beweise innerhalb des 30-Minuten-Fensters einzureichen, löst Slashing aus: Der Speicheranbieter verliert einen Teil seiner Sicherheiten (die an die Adresse f099 verbrannt werden), und seine Speicherkraft wird reduziert. Dies schafft wirtschaftliche Konsequenzen für Speicherausfälle und richtet die Anreize der Anbieter auf die Netzwerkzuverlässigkeit aus.

Dieses zweistufige Beweissystem – PoRep für die Erstverifizierung, PoSt für die kontinuierliche Validierung – schafft verifizierbaren Speicher, den zentralisierte Clouds schlichtweg nicht bieten können. Wenn AWS sagt, dass sie Ihre Daten speichern, vertrauen Sie auf deren Infrastruktur und rechtliche Vereinbarungen. Wenn Filecoin es sagt, haben Sie einen kryptografischen Beweis, der alle 30 Minuten aktualisiert wird.

KI-Infrastrukturmarkt: Wo dezentraler Speicher auf echten Bedarf trifft

Der Zeitpunkt des Launches der Filecoin Onchain Cloud fällt mit einer grundlegenden Verschiebung der KI-Infrastrukturanforderungen zusammen. Da sich künstliche Intelligenz von einer Forschungsneugier zu einer Produktionsinfrastruktur entwickelt, die ganze Branchen umgestaltet, wird der Speicherbedarf deutlich und massiv.

KI-Modelle benötigen massive Datensätze für das Training. Moderne große Sprachmodelle (LLMs) trainieren auf Hunderten von Milliarden Token. Computer-Vision-Modelle benötigen Millionen von beschrifteten Bildern. Empfehlungssysteme nehmen Verhaltensdaten von Nutzern in großem Umfang auf. Diese Datensätze passen nicht in den lokalen Speicher – sie benötigen Cloud-Infrastruktur. Sie benötigen aber auch Provenienzgarantien: Manipulierte Trainingsdaten erzeugen manipulierte Modelle, und es gibt keinen kryptografischen Weg, die Datenintegrität auf AWS zu verifizieren.

Kontinuierlicher Datenzugriff für Inferenz. Einmal trainiert, benötigen KI-Modelle ständigen Zugriff auf Referenzdaten, um Vorhersagen zu treffen. Retrieval-Augmented Generation (RAG)-Systeme fragen Wissensdatenbanken ab, um die Ausgaben von Sprachmodellen zu fundieren. Echtzeit-Empfehlungs-Engines rufen Nutzerprofile und Artikelkataloge ab. Dies sind keine einmaligen Abrufe – es handelt sich um kontinuierliche, hochfrequente Zugriffsmuster, die schnellen und zuverlässigen Speicher erfordern.

Verifizierbare Datenprovenienz zur Verhinderung von Modell-Poisoning. Wenn ein Finanzinstitut ein Modell zur Betrugserkennung trainiert, muss es wissen, dass die Trainingsdaten nicht manipuliert wurden. Wenn eine Gesundheits-KI Patientenakten analysiert, ist die Herkunft (Provenienz) für Compliance und Haftung von Bedeutung. Die PoRep- und PoSt-Proofs von Filecoin erstellen einen Audit-Trail, den zentralisierter Speicher nicht replizieren kann, ohne vertrauenswürdige Zwischenhändler einzuführen.

Dezentraler Speicher zur Vermeidung von Konzentrationsrisiken. Die Abhängigkeit von einem einzigen Cloud-Anbieter schafft systemische Risiken. AWS-Ausfälle haben bereits erhebliche Teile des Internets lahmgelegt. Störungen bei Google Cloud beeinträchtigen Millionen von Diensten. Für eine KI-Infrastruktur, die kritische Systeme stützt, ist die geografische und organisatorische Verteilung keine philosophische Präferenz, sondern eine Anforderung an das Risikomanagement.

Das Filecoin-Netzwerk hält 2,1 Exbibyte an zugesichertem Speicher mit einer zusätzlichen Rohkapazität von 7,6 EiB. Die Netzwerkauslastung ist auf 36 % gestiegen (gegenüber 32 % im zweiten Quartal 2025), wobei die aktiven gespeicherten Daten bei nahezu 1.110 Petabyte liegen. Im Jahr 2025 wurden rund 2.500 Datensätze aufgenommen, was auf eine stetige Akzeptanz in Unternehmen hindeutet.

Das wirtschaftliche Argument ist überzeugend: Filecoin kostet im Durchschnitt 0,19 proTerabytemonatlich,verglichenmitetwa23pro Terabyte monatlich, verglichen mit etwa 23 bei AWS für die gleiche Kapazität – eine Kostensenkung von 99 %. Aber das eigentliche Wertversprechen ist nicht nur billigerer Speicher. Es ist verifizierbarer Speicher in großem Maßstab mit programmierbarer Infrastruktur, der über entwicklerfreundliche Tools bereitgestellt wird.

Wettbewerb gegen die zentrale Cloud: Wo Filecoin im Jahr 2026 steht

Die Frage ist nicht, ob dezentraler Speicher Vorteile hat – verifizierbare Proofs, Zensurresistenz und Kosteneffizienz liegen auf der Hand. Die Frage ist, ob diese Vorteile schwer genug wiegen, um die verbleibenden Nachteile zu überwinden: vor allem, dass das Speichern und Abrufen bei Filecoin immer noch langsamer und komplexer ist als bei zentralisierten Alternativen.

Performance-Lücke schließt sich, ist aber noch nicht geschlossen. AWS S3 liefert Latenzen im einstelligen Millisekundenbereich für Lesevorgänge. Filecoin Warm Storage und Beam-Abrufe können da – noch – nicht mithalten. Viele Workloads benötigen jedoch keine Millisekunden-Latenz. KI-Trainingsläufe greifen auf große Datensätze in sequenziellen Batch-Lesevorgängen zu. Archivspeicher für Compliance priorisiert die Geschwindigkeit nicht. Content Delivery Networks (CDNs) cachen häufig genutzte Daten unabhängig von der Geschwindigkeit des Ursprungsspeichers.

Das Onchain-Cloud-Upgrade führt eine Finalität von unter einer Minute für Speicherzusagen ein, eine erhebliche Verbesserung gegenüber den früheren mehrstündigen Sealing-Zeiten. Dies konkurriert zwar nicht mit AWS bei latenzkritischen Anwendungen, eröffnet aber neue Anwendungsfälle, die zuvor auf Filecoin unpraktisch waren.

Verbesserung der Developer Experience durch Abstraktion. Die direkte Interaktion mit dem Filecoin-Protokoll erfordert ein Verständnis von Sektoren, Sealing, WindowPoSt-Challenges und Zahlungskanälen – Konzepte, die Entwicklern fremd sind, die an die einfache API von AWS gewöhnt sind: Bucket erstellen, Objekt hochladen, Berechtigungen setzen. Das Synapse SDK abstrahiert diese Komplexität und bietet vertraute Schnittstellen, während es die kryptografische Verifizierung der Proofs im Hintergrund übernimmt.

Die frühe Akzeptanz durch ENS, KYVE, Monad und Safe deutet darauf hin, dass die Developer Experience eine Usability-Schwelle überschritten hat. Dies sind keine Blockchain-nativen Speicherprojekte, die aus ideologischen Gründen mit Filecoin experimentieren – es sind Infrastrukturprojekte mit echtem Speicherbedarf, die verifizierbaren dezentralen Speicher gegenüber zentralisierten Alternativen bevorzugen.

Zuverlässigkeit durch ökonomische Anreize versus vertragliche SLAs. AWS bietet für S3 Standard eine Haltbarkeit von 99,999999999 % (11 Neunen) durch Multi-Region-Replikation und vertragliche Service-Level-Agreements (SLAs). Filecoin erreicht Zuverlässigkeit durch ökonomische Anreize: Speicheranbieter, die WindowPoSt-Challenges nicht bestehen, verlieren Sicherheiten (Collateral) und Speicherkraft. Dies schafft unterschiedliche Risikoprofile – das eine abgesichert durch Unternehmensgarantien, das andere durch kryptografische Proofs und finanzielle Strafen.

Für Anwendungen, die sowohl kryptografische Verifizierung als auch hohe Verfügbarkeit benötigen, umfasst die optimale Architektur wahrscheinlich Filecoin als verifizierbaren Referenzspeicher plus CDN-Caching für schnellen Abruf. Dieser hybride Ansatz nutzt die Stärken von Filecoin (Verifizierbarkeit, Kosten, Dezentralisierung) und mildert gleichzeitig dessen Schwächen (Abrufgeschwindigkeit) durch Edge-Caching.

Marktpositionierung: Kein Ersatz für AWS, sondern Erfüllung anderer Anforderungen. Filecoin wird AWS beim Allzweck-Cloud-Computing nicht ersetzen. Das muss es auch nicht. Der adressierbare Markt sind Anwendungen, bei denen verifizierbarer Speicher, Zensurresistenz oder Dezentralisierung einen Wert bieten, der über Kosteneinsparungen hinausgeht: KI-Trainingsdatensätze mit Provenienzanforderungen, Blockchain-Status, der permanente Verfügbarkeit benötigt, wissenschaftliche Forschungsdaten, die langfristige Integritätsgarantien erfordern, und regulatorisch stark geprägte Branchen, die kryptografische Audit-Trails benötigen.

Der 12-Milliarden-Dollar-Markt für KI-Infrastruktur stellt eine Teilmenge der gesamten Cloud-Ausgaben dar, in der das Wertversprechen von Filecoin am stärksten ist. Selbst die Eroberung von 5 % dieses Marktes würde eine jährliche Speichernachfrage von 600 Millionen Dollar bedeuten – ein bedeutendes Wachstum gegenüber dem aktuellen Nutzungsniveau.

Von 2,1 EiB zur Zukunft der verifizierbaren Infrastruktur

Die gesamte zugesagte Speicherkapazität von Filecoin ist im Laufe des Jahres 2025 tatsächlich zurückgegangen – von 3,8 Exbibyte im ersten Quartal auf 3,3 EiB im zweiten Quartal und 3,0 EiB im dritten Quartal –, da ineffiziente Storage Provider nach dem Netzwerk v27 "Golden Week"-Upgrade ausschieden. Dieser Kapazitätsrückgang bei gleichzeitig steigender Auslastung (von 30 % auf 36 %) deutet auf einen reifenden Markt hin: geringere Gesamtkapazität, aber ein höherer Prozentsatz an bezahltem Speicher.

Das Netzwerk erwartet bis Ende 2025 über 1 Exbibyte an bezahlten Storage-Deals, was einen Übergang von spekulativer Kapazitätsbereitstellung zur tatsächlichen Kundennachfrage darstellt. Das ist wichtiger als reine Kapazitätszahlen – die Auslastung signalisiert echten Mehrwert und nicht nur Miner, die Speicher bereitstellen in der Hoffnung auf künftige Nachfrage.

Die Transformation zur Onchain Cloud positioniert Filecoin für einen anderen Wachstumspfad: nicht die Maximierung der Gesamtspeicherkapazität, sondern die Maximierung der Speicherauslastung durch Dienste, die Entwickler tatsächlich benötigen. Warm Storage, verifizierbares Retrieval und automatisierte Zahlungen adressieren die Barrieren, die Filecoin bisher auf Nischenanwendungen für die Archivierung beschränkt haben.

Die frühe Mainnet-Adoption wird der entscheidende Test sein. Entwicklerteams haben im Testnet getestet, aber Produktions-Deployments mit echten Daten und echten Zahlungen werden zeigen, ob Performance, Zuverlässigkeit und Developer Experience den für Infrastrukturentscheidungen erforderlichen Standards entsprechen. Die Projekte, die bereits experimentieren – ENS für dezentrale Identitätsspeicherung, KYVE für Blockchain-Datenarchive, Safe für Multi-Signature-Wallet-Infrastruktur – lassen auf vorsichtigen Optimismus schließen.

Die Marktchance für KI-Infrastruktur ist real, aber nicht garantiert. Filecoin steht im Wettbewerb mit zentralisierten Cloud-Anbietern, die massive Vorsprünge bei Performance und Entwickler-Ökosystemen haben, sowie dezentralen Speicher-Wettbewerbern wie Arweave (permanenter Speicher) und Storj (performanceorientierte S3-Alternative). Ein Sieg erfordert Umsetzung: Zuverlässigkeit, die Produktionsstandards erfüllt, wettbewerbsfähige Preise bei der Skalierung des Netzwerks sowie die kontinuierliche Verbesserung von Entwickler-Tools und Dokumentationen.

Die Transformation von Filecoin von "Blockchain-Speicher" zu einer "programmierbaren Onchain Cloud" stellt eine notwendige Evolution dar. Die Frage im Jahr 2026 ist nicht, ob dezentraler Speicher theoretische Vorteile hat – die hat er zweifellos. Die Frage ist, ob sich diese Vorteile in Entwickler-Adoption und Kundennachfrage in großem Maßstab übersetzen lassen. Die kryptographischen Beweise sind vorhanden. Die wirtschaftlichen Anreize sind abgestimmt. Jetzt kommt der schwierige Teil: der Aufbau einer Cloud-Plattform, der Entwickler ihre Produktions-Workloads anvertrauen.

BlockEden.xyz bietet Enterprise-Grade-Infrastruktur für Blockchain-Entwickler, die auf verifizierbaren Grundlagen aufbauen. Entdecken Sie unseren API-Marktplatz, um auf die Infrastruktur zuzugreifen, die Sie für langlebige Anwendungen benötigen.

Quellen

Das Datenverfügbarkeits-Rennen 2026: Celestias, EigenDAs und Avails Kampf um die Skalierbarkeit der Blockchain

· 15 Min. Lesezeit
Dora Noda
Software Engineer

Jedes Layer 2, das Sie verwenden, verlässt sich auf eine verborgene Infrastruktur, über die die meisten Benutzer nie nachdenken: Datenverfügbarkeitsschichten (Data Availability Layers). Im Jahr 2026 ist dieses stille Schlachtfeld jedoch zum kritischsten Teil der Blockchain-Skalierbarkeit geworden, wobei drei Giganten — Celestia, EigenDA und Avail — darum wetteifern, Terabits an Rollup-Daten pro Sekunde zu verarbeiten. Der Gewinner erobert nicht nur Marktanteile; er definiert, welche Rollups überleben, wie hoch die Transaktionskosten sind und ob die Blockchain auf Milliarden von Benutzern skaliert werden kann.

Der Einsatz könnte nicht höher sein. Celestia beherrscht rund 50 % des Marktes für Datenverfügbarkeit, nachdem mehr als 160 Gigabyte an Rollup-Daten verarbeitet wurden. Das bevorstehende Matcha-Upgrade im 1. Quartal 2026 wird die Blockgrößen auf 128 MB verdoppeln, während das experimentelle Fibre Blockspace-Protokoll einen beeindruckenden Durchsatz von 1 Terabit pro Sekunde verspricht — das 1.500-fache ihres vorherigen Roadmap-Ziels. In der Zwischenzeit hat EigenDA einen Durchsatz von 100 MB / s unter Verwendung eines Data Availability Committee-Modells erreicht, und Avail hat sich Integrationen mit Arbitrum, Optimism, Polygon, StarkWare und zkSync für seinen Mainnet-Start gesichert.

Dies ist nicht nur ein Infrastrukturwettbewerb — es ist ein Kampf um die grundlegende Ökonomie von Layer 2-Netzwerken. Die Wahl der falschen Datenverfügbarkeitsschicht kann die Kosten um das 55-fache erhöhen und macht den Unterschied zwischen einem florierenden Rollup-Ökosystem und einem, das durch Datengebühren erstickt wird.

Der Flaschenhals der Datenverfügbarkeit: Warum diese Schicht wichtig ist

Um zu verstehen, warum die Datenverfügbarkeit zum wichtigsten Schlachtfeld der Blockchain geworden ist, müssen Sie begreifen, was Rollups eigentlich tun. Layer 2-Rollups wie Arbitrum, Optimism und Base führen Transaktionen off-chain aus, um höhere Geschwindigkeiten und geringere Kosten zu erzielen, und posten dann die Transaktionsdaten an einem sicheren Ort, damit jeder den Zustand der Chain verifizieren kann. Dieser „sichere Ort“ ist die Datenverfügbarkeitsschicht.

Jahrelang diente das Ethereum-Mainnet als Standard-DA-Schicht. Doch als die Nutzung von Rollups explodierte, schuf der begrenzte Blockplatz von Ethereum einen Flaschenhals. Die Gebühren für die Datenverfügbarkeit schossen in Zeiten hoher Nachfrage in die Höhe und zehrten die Kosteneinsparungen auf, die Rollups überhaupt erst attraktiv machten. Die Lösung? Modulare Datenverfügbarkeitsschichten, die speziell darauf ausgelegt sind, massiven Durchsatz bei minimalen Kosten zu bewältigen.

Data Availability Sampling (DAS) ist die bahnbrechende Technologie, die diesen Wandel ermöglicht. Anstatt von jedem Node zu verlangen, ganze Blöcke herunterzuladen, um die Verfügbarkeit zu prüfen, ermöglicht DAS es Light Nodes, probabilistisch zu bestätigen, dass Daten verfügbar sind, indem sie kleine zufällige Segmente abfragen. Je mehr Light Nodes sampeln, desto sicherer kann das Netzwerk die Blockgrößen erhöhen, ohne die Sicherheit zu opfern.

Celestia leistete Pionierarbeit mit diesem Ansatz als erstes modulares Datenverfügbarkeitsnetzwerk, das die Sortierung und Verfügbarkeit von Daten von der Ausführung (Execution) und Abrechnung (Settlement) trennt. Die Architektur ist elegant: Celestia ordnet Transaktionsdaten in „Blobs“ und garantiert deren Verfügbarkeit für einen konfigurierbaren Zeitraum, während Ausführung und Abrechnung auf darüber liegenden Schichten stattfinden. Diese Trennung ermöglicht es jeder Schicht, für ihre spezifische Funktion zu optimieren, anstatt an allen Fronten Kompromisse einzugehen wie monolithische Blockchains.

Bis Mitte 2025 nutzten mehr als 56 Rollups Celestia, darunter 37 im Mainnet und 19 im Testnet. Allein Eclipse hat über 83 Gigabyte über das Netzwerk gepostet. Jedes größere Rollup-Framework — Arbitrum Orbit, OP Stack, Polygon CDK — unterstützt nun Celestia als Option für die Datenverfügbarkeit, was Wechselkosten und Netzwerkeffekte schafft, die den First-Mover-Vorteil von Celestia verstärken.

Celestias Zwei-Säulen-Angriff: Matcha-Upgrade und Fibre Blockspace

Celestia ruht sich nicht auf seinem Marktanteil aus. Das Projekt verfolgt eine zweigleisige Strategie, um seine Dominanz zu festigen: das kurzfristige Matcha-Upgrade, das produktionsreife Skalierbarkeitsverbesserungen bringt, und das experimentelle Fibre Blockspace-Protokoll, das auf einen zukünftigen Durchsatz von 1 Terabit pro Sekunde abzielt.

Matcha-Upgrade: Verdoppelung der Produktionskapazität

Das Matcha-Upgrade (Celestia v6) ist derzeit im Arabica-Testnet live, wobei die Bereitstellung im Mainnet für das 1. Quartal 2026 erwartet wird. Es stellt die größte einzelne Kapazitätserhöhung in der Geschichte von Celestia dar.

Zu den wichtigsten Verbesserungen gehören:

  • 128 MB Blockgröße: CIP-38 führt einen neuen Mechanismus zur Blockfortpflanzung mit hohem Durchsatz ein, der die maximale Blockgröße von 8 MB auf 128 MB erhöht — ein 16-facher Sprung. Die Datengröße des Squares erweitert sich von 128 auf 512, und die maximale Transaktionsgröße wächst von 2 MB auf 8 MB.

  • Reduzierte Speicheranforderungen: CIP-34 verkürzt das minimale Zeitfenster für das Pruning von Celestia-Daten von 30 Tagen auf 7 Tage plus 1 Stunde. Dies senkt die Speicherkosten für Bridge-Nodes bei prognostiziertem Durchsatz von 30 TB auf 7 TB. Für Rollups, die Anwendungen mit hohem Volumen betreiben, führt diese Speicherreduzierung direkt zu niedrigeren Betriebskosten.

  • Optimierung von Light Nodes: CIP-35 führt Pruning für Celestia-Light-Nodes ein, sodass diese nur aktuelle Header anstatt der gesamten Chain-Historie speichern müssen. Die Speicheranforderungen für Light Nodes sinken auf etwa 10 GB, was es machbar macht, Verifizierungs-Nodes auf Consumer-Hardware und mobilen Geräten zu betreiben.

  • Inflationssenkung und Interoperabilität: Über die Skalierbarkeit hinaus senkt Matcha die Protokoll-Inflation von 5 % auf 2,5 %, was TIA potenziell deflationär machen könnte, wenn die Netzwerknutzung steigt. Zudem wird der Token-Filter für IBC und Hyperlane entfernt, was Celestia als Routing-Schicht für beliebige Assets über mehrere Ökosysteme hinweg positioniert.

In Testumgebungen erreichte Celestia im Mammoth Mini Devnet einen Durchsatz von ca. 27 MB / s mit 88 MB Blöcken und im mamo-1 Testnet einen dauerhaften Durchsatz von 21,33 MB / s mit 128 MB Blöcken. Dies sind keine theoretischen Maximalwerte — es sind produktionserprobte Benchmarks, auf die sich Rollups verlassen können, wenn sie für große Skalierung entwerfen.

Fibre Blockspace: Die 1 Tb / s Zukunft

Während sich Matcha auf die kurzfristige Produktionsreife konzentriert, repräsentiert Fibre Blockspace Celestias Moonshot-Vision für den Blockchain-Durchsatz. Das Protokoll ist in der Lage, 1 Terabit pro Sekunde an Blockspace über 500 Nodes hinweg aufrechtzuerhalten – ein Durchsatzniveau, das 1.500 - mal über dem in Celestias vorheriger Roadmap gesetzten Ziel liegt.

Die Kerninnovation ist ZODA, ein neues Kodierungsprotokoll, von dem Celestia behauptet, dass es Daten 881 - mal schneller verarbeitet als KZG-Commitment-basierte Alternativen, die von konkurrierenden DA-Protokollen verwendet werden. In großangelegten Netzwerktests mit 498 über Nordamerika verteilten GCP-Maschinen (jeweils mit 48 - 64 vCPUs, 90 - 128 GB RAM und 34 - 45 Gbit / s Netzwerkverbindungen) demonstrierte das Team erfolgreich einen Durchsatz im Terabit-Bereich.

Fibre richtet sich an Power-User mit einer minimalen Blob-Größe von 256 KB und einem Maximum von 128 MB, optimiert für High-Volume-Rollups und institutionelle Anwendungen, die garantierten Durchsatz benötigen. Der Rollout-Plan ist inkrementell: Fibre wird zuerst im Arabica-Testnet für Experimente von Entwicklern bereitgestellt und geht dann mit schrittweisen Durchsatzsteigerungen ins Mainnet über, während das Protokoll realen Stresstests unterzogen wird.

Was bedeutet 1 Tb / s eigentlich in der Praxis? Bei diesem Durchsatzniveau könnte Celestia theoretisch den Datenbedarf von Tausenden hochaktiver Rollups gleichzeitig bewältigen und alles unterstützen – von Hochfrequenzhandelsplätzen über Echtzeit-Gaming-Welten bis hin zur Koordination von KI-Modelltraining – und das alles, ohne dass der Data Availability Layer zum Flaschenhals wird.

EigenDA und Avail: Verschiedene Philosophien, verschiedene Kompromisse

Während Celestia den Marktanteil dominiert, erarbeiten sich EigenDA und Avail eine eigene Positionierung mit alternativen architektonischen Ansätzen, die verschiedene Anwendungsfälle ansprechen.

EigenDA: Geschwindigkeit durch Restaking

EigenDA, entwickelt vom EigenLayer-Team, hat die V2-Software veröffentlicht, die einen Durchsatz von 100 MB pro Sekunde erreicht – deutlich höher als die aktuelle Mainnet-Performance von Celestia. Das Protokoll nutzt die Restaking-Infrastruktur von EigenLayer, bei der Ethereum-Validatoren ihr gestaktes ETH wiederverwenden, um zusätzliche Dienste einschließlich der Datenverfügbarkeit abzusichern.

Der entscheidende architektonische Unterschied: EigenDA arbeitet als Data Availability Committee (DAC) und nicht als öffentlich verifizierte Blockchain. Diese Designentscheidung eliminiert bestimmte Verifizierungsanforderungen, die blockchainbasierte Lösungen implementieren, wodurch DACs wie EigenDA einen höheren Rohdurchsatz erreichen können, während sie gleichzeitig Vertrauensannahmen einführen, dass die Validatoren im Komitee die Datenverfügbarkeit ehrlich bestätigen.

Für Ethereum-native Projekte, die eine nahtlose Integration in das Ethereum-Ökosystem priorisieren und bereit sind, DAC-Vertrauensannahmen zu akzeptieren, bietet EigenDA ein überzeugendes Nutzenversprechen. Das Shared-Security-Modell mit dem Ethereum-Mainnet schafft eine natürliche Ausrichtung für Rollups, die bereits für das Settlement auf Ethereum setzen. Dieselbe Abhängigkeit wird jedoch zu einer Einschränkung für Projekte, die Souveränität jenseits des Ethereum-Ökosystems anstreben oder die stärkstmöglichen Garantien für die Datenverfügbarkeit benötigen.

Avail: Multichain-Flexibilität

Avail startete sein Mainnet im Jahr 2025 mit einem anderen Fokus: der Optimierung der Datenverfügbarkeit für hochskalierbare und anpassbare Rollups über mehrere Ökosysteme hinweg, nicht nur Ethereum. Das Protokoll kombiniert Validity Proofs, Data Availability Sampling und Erasure Coding mit KZG-Polynomial-Commitments, um das zu liefern, was das Team als „weltklasse Datenverfügbarkeitsgarantien“ bezeichnet.

Der aktuelle Mainnet-Durchsatz von Avail liegt bei 4 MB pro Block, wobei Benchmarks erfolgreiche Steigerungen auf 128 MB pro Block demonstrieren – eine 32 - fache Verbesserung –, ohne die Netzwerk-Liveness oder die Block-Propagationsgeschwindigkeit zu beeinträchtigen. Die Roadmap sieht progressive Durchsatzsteigerungen vor, während das Netzwerk reift.

Der größte Erfolg des Projekts im Jahr 2026 war die Sicherung von Integrationszusagen von fünf großen Layer-2-Projekten: Arbitrum, Optimism, Polygon, StarkWare und zkSync. Avail gibt insgesamt über 70 Partnerschaften an, die von anwendungsspezifischen Blockchains über DeFi-Protokolle bis hin zu Web3-Gaming-Chains reichen. Diese Ökosystem-Breite positioniert Avail als den Data Availability Layer für Multichain-Infrastrukturen, die über verschiedene Settlement-Umgebungen hinweg koordiniert werden müssen.

Avail DA stellt die erste Komponente einer dreiteiligen Architektur dar. Das Team entwickelt Nexus (einen Interoperabilitäts-Layer) und Fusion (einen Sicherheitsnetzwerk-Layer), um eine modulare Full-Stack-Infrastruktur zu schaffen. Diese vertikale Integrationsstrategie spiegelt Celestias Vision wider, mehr als nur Datenverfügbarkeit zu sein – nämlich eine grundlegende Infrastruktur für den gesamten modularen Stack zu werden.

Marktposition und Adaption: Wer gewinnt im Jahr 2026?

Der Markt für Datenverfügbarkeit im Jahr 2026 entwickelt sich zu einer „Winner-takes-most“ - Dynamik, bei der Celestia einen beachtlichen frühen Marktanteil hält, aber in spezifischen Nischen ernsthafte Konkurrenz durch EigenDA und Avail erfährt.

Celestias Marktdominanz:

  • ~ 50 % Marktanteil bei Data-Availability-Diensten
  • 160 + Gigabyte an Rollup-Daten, die über das Netzwerk verarbeitet wurden
  • 56 + Rollups, die die Plattform nutzen (37 im Mainnet, 19 im Testnet)
  • Universelle Unterstützung von Rollup-Frameworks: Arbitrum Orbit, OP Stack und Polygon CDK integrieren Celestia alle als DA-Option

Diese Adaption erzeugt starke Netzwerkeffekte. Da sich immer mehr Rollups für Celestia entscheiden, konzentrieren sich Entwickler-Tools, Dokumentation und Ökosystem-Expertise auf die Plattform. Die Wechselkosten steigen, da Teams Celestia-spezifische Optimierungen in ihre Rollup-Architektur einbauen. Das Ergebnis ist ein Flywheel-Effekt, bei dem Marktanteile weitere Marktanteile generieren.

EigenDAs Ethereum-Ausrichtung:

Die Stärke von EigenDA liegt in der engen Integration mit dem Restaking-Ökosystem von Ethereum. Für Projekte, die sich bereits für das Settlement und die Sicherheit auf Ethereum festgelegt haben, schafft die Hinzufügung von EigenDA als Data Availability Layer einen vertikal integrierten Stack vollständig innerhalb des Ethereum-Universums.

Der Durchsatz von 100 MB / s positioniert EigenDA zudem gut für Hochfrequenzanwendungen, die bereit sind, DAC-Vertrauensannahmen im Austausch für rohe Geschwindigkeit zu akzeptieren.

Die Abhängigkeit von EigenDA von Ethereum-Validatoren schränkt jedoch die Attraktivität für Rollups ein, die Souveränität oder Multichain-Flexibilität anstreben. Projekte, die auf Solana, Cosmos oder anderen Nicht-EVM-Ökosystemen aufbauen, haben wenig Anreiz, für die Datenverfügbarkeit auf Ethereum-Restaking angewiesen zu sein.

Avails Multichain-Strategie:

Die Integrationen von Avail mit Arbitrum, Optimism, Polygon, StarkWare und zkSync stellen wichtige Partnerschaftserfolge dar, aber die tatsächliche Mainnet-Nutzung des Protokolls hinkt den Ankündigungen hinterher.

Der Durchsatz von 4 MB pro Block (gegenüber den aktuellen 8 MB von Celestia und den kommenden 128 MB von Matcha) schafft eine Leistungslücke, die die Wettbewerbsfähigkeit von Avail für High-Volume-Rollups einschränkt.

Avails wahres Differenzierungsmerkmal ist die Multichain-Flexibilität. Da sich die Blockchain-Infrastruktur über Ethereum-L2s, alternative L1s und anwendungsspezifische Chains fragmentiert, wächst der Bedarf an einem neutralen Data Availability Layer, der kein Ökosystem bevorzugt. Avail positioniert sich als diese neutrale Infrastruktur mit Partnerschaften, die sich über mehrere Settlement-Layer und Ausführungsumgebungen erstrecken.

Die Ökonomie der DA-Layer-Wahl:

Die Wahl des falschen Data Availability Layers kann laut Branchenanalysen die Rollup-Kosten um das 55 - fache erhöhen. Dieser Kostenunterschied ergibt sich aus drei Faktoren:

  1. Durchsatzbeschränkungen, die bei Nachfragespitzen zu Datengebührensprüngen führen
  2. Speicheranforderungen, die Rollups dazu zwingen, eine teure Archiv-Infrastruktur zu unterhalten
  3. Wechselkosten, die eine Migration nach der Integration teuer machen

Für Gaming-fokussierte Layer-3-Rollups, die massive Zustandsaktualisierungen generieren, kann die Wahl zwischen Celestias kostengünstiger modularer DA (besonders nach Matcha) gegenüber teureren Alternativen den Unterschied zwischen einer nachhaltigen Ökonomie und dem Verlust von Kapital durch Datengebühren ausmachen. Dies erklärt, warum prognostiziert wird, dass Celestia die Gaming-L3-Adaption im Jahr 2026 dominieren wird.

Der Weg nach vorne: Auswirkungen auf die Rollup-Ökonomie und die Blockchain-Architektur

Die Kriege um die Datenverfügbarkeit im Jahr 2026 stellen mehr als nur einen Wettbewerb um die Infrastruktur dar – sie definieren grundlegende Annahmen darüber neu, wie Blockchains skalieren und wie die Rollup-Ökonomie funktioniert.

Das Matcha-Upgrade von Celestia und die Fibre-Blockspace-Roadmap machen deutlich, dass die Datenverfügbarkeit nicht länger der Flaschenhals für die Skalierbarkeit von Blockchains ist. Mit 128 MB-Blöcken in der Produktion und 1 Tb/s in Tests verschiebt sich die Einschränkung an andere Stellen – hin zur Optimierung des Execution-Layers, dem Management des State-Wachstums und der Cross-Rollup-Interoperabilität. Dies ist ein tiefgreifender Wandel. Jahrelang war die Annahme, dass die Datenverfügbarkeit die Anzahl der gleichzeitig skalierbaren Rollups begrenzen würde. Celestia entkräftet diese Annahme systematisch.

Die Philosophie der modularen Architektur setzt sich durch. Jedes große Rollup-Framework unterstützt mittlerweile austauschbare Data Availability Layer, anstatt eine Abhängigkeit vom Ethereum-Mainnet zu erzwingen. Diese architektonische Entscheidung bestätigt die Kernerkenntnis hinter der Gründung von Celestia: dass monolithische Blockchains, die jeden Node dazu zwingen, alles zu tun, unnötige Kompromisse schaffen, während die modulare Trennung es jeder Schicht ermöglicht, sich unabhängig zu optimieren.

Verschiedene DA-Layer kristallisieren sich um unterschiedliche Anwendungsfälle heraus, anstatt direkt miteinander zu konkurrieren. Celestia bedient Rollups, die Kosteneffizienz, maximale Dezentralisierung und bewährte Produktionsskalierung priorisieren. EigenDA spricht Ethereum-native Projekte an, die bereit sind, DAC-Vertrauensannahmen für einen höheren Durchsatz zu akzeptieren. Avail zielt auf Multichain-Infrastrukturen ab, die eine neutrale Koordination über Ökosysteme hinweg benötigen. Anstatt eines einzelnen Gewinners segmentiert sich der Markt nach architektonischen Prioritäten.

Die Kosten für die Datenverfügbarkeit tendieren gegen Null, was die Geschäftsmodelle von Rollups verändert. Da die Blockgrößen von Celestia wachsen und der Wettbewerb zunimmt, nähern sich die Grenzkosten für das Posten von Daten vernachlässigbaren Werten an. Dies eliminiert einen der größten variablen Kostenfaktoren im Rollup-Betrieb und verschiebt die Wirtschaftlichkeit hin zu fixen Infrastrukturkosten (Sequencer, Prover, State-Storage) statt transaktionsbezogener DA-Gebühren. Rollups können sich zunehmend auf Innovationen bei der Ausführung konzentrieren, anstatt sich über Daten-Flaschenhälse Gedanken zu machen.

Das nächste Kapitel der Blockchain-Skalierung handelt nicht davon, ob Rollups Zugang zu erschwinglicher Datenverfügbarkeit haben – Celestias Matcha-Upgrade und die Fibre-Roadmap machen dies unumgänglich. Die Frage ist, welche Anwendungen möglich werden, wenn Daten nicht mehr die Einschränkung sind. Hochfrequenzhandelsplätze, die vollständig on-chain laufen. Massive Multiplayer-Gaming-Welten mit persistentem Zustand. KI-Modellkoordination über dezentrale Rechennetzwerke. Diese Anwendungen waren wirtschaftlich nicht machbar, als die Datenverfügbarkeit den Durchsatz begrenzte und die Kosten unvorhersehbar in die Höhe trieb. Jetzt ist die Infrastruktur vorhanden, um sie in großem Maßstab zu unterstützen.

Für Blockchain-Entwickler im Jahr 2026 ist die Wahl des Data Availability Layers so entscheidend geworden, wie es die Wahl des L1 im Jahr 2020 war. Celestias Marktposition, die produktionserprobte Skalierbarkeits-Roadmap und die Ökosystem-Integrationen machen es zum sicheren Standard. EigenDA bietet einen höheren Durchsatz für Ethereum-ausgerichtete Projekte, die DAC-Vertrauensmodelle akzeptieren. Avail bietet Multichain-Flexibilität für Teams, die über Ökosysteme hinweg koordinieren. Alle drei haben lebensfähige Wege vor sich – aber Celestias Marktanteil von 50 %, das Matcha-Upgrade und die Fibre-Vision positionieren das Projekt so, dass es definiert, was „Datenverfügbarkeit in großem Maßstab“ für die nächste Generation der Blockchain-Infrastruktur bedeutet.

Quellen

Nillions Blacklight geht live: Wie ERC-8004 die Vertrauensschicht für autonome KI-Agenten aufbaut

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Am 2. Februar 2026 machte die Ökonomie der KI-Agenten einen entscheidenden Schritt nach vorne. Nillion startete Blacklight, einen Verification Layer, der den ERC-8004-Standard implementiert, um eine der dringlichsten Fragen der Blockchain zu lösen: Wie vertraut man einem KI-Agenten, dem man noch nie begegnet ist?

Die Antwort ist nicht ein einfacher Reputation Score oder ein zentralisiertes Register. Es ist ein fünfstufiger Verifizierungsprozess, der durch kryptografische Beweise, programmierbare Audits und ein Netzwerk von gemeinschaftlich betriebenen Nodes gestützt wird. Da autonome Agenten zunehmend Trades ausführen, Treasuries verwalten und Cross-Chain-Aktivitäten koordinieren, stellt Blacklight die Infrastruktur dar, die eine trustless KI-Koordination in großem Maßstab ermöglicht.

Das Vertrauensproblem, das KI-Agenten nicht alleine lösen können

Die Zahlen sprechen für sich. KI-Agenten tragen mittlerweile 30 % des Handelsvolumens von Polymarket bei, verwalten DeFi-Yield-Strategien über mehrere Protokolle hinweg und führen autonom komplexe Workflows aus. Aber es gibt einen grundlegenden Engpass: Wie verifizieren Agenten die Vertrauenswürdigkeit des jeweils anderen ohne bestehende Beziehungen?

Traditionelle Systeme verlassen sich auf zentrale Instanzen, die Credentials ausstellen. Das Versprechen von Web3 ist ein anderes – trustless Verifizierung durch Kryptografie und Konsens. Doch bis ERC-8004 gab es keinen standardisierten Weg für Agenten, ihre Authentizität zu beweisen, ihr Verhalten zu verfolgen oder ihre Entscheidungslogik On-Chain zu validieren.

Dies ist kein rein theoretisches Problem. Wie Davide Crapis erklärt: „ERC-8004 ermöglicht dezentrale Interaktionen von KI-Agenten, etabliert trustless Handel und verbessert Reputationssysteme auf Ethereum.“ Ohne diesen Standard bleibt der Handel von Agent zu Agent auf geschlossene Systeme beschränkt oder erfordert manuelle Aufsicht – was den Zweck der Autonomie zunichtemacht.

ERC-8004: Die Trust-Infrastruktur aus drei Registern

Der ERC-8004-Standard, der am 29. Januar 2026 im Ethereum-Mainnet live ging, etabliert einen modularen Trust Layer durch drei On-Chain-Register:

Identity Registry: Nutzt ERC-721, um portable Agenten-Identifikatoren bereitzustellen. Jeder Agent erhält einen Non-Fungible Token, der seine einzigartige On-Chain-Identität repräsentiert, was eine plattformübergreifende Erkennung ermöglicht und Identitäts-Spoofing verhindert.

Reputation Registry: Sammelt standardisiertes Feedback und Bewertungen. Im Gegensatz zu zentralisierten Bewertungssystemen wird das Feedback On-Chain mit kryptografischen Signaturen aufgezeichnet, wodurch ein unveränderlicher Audit-Trail entsteht. Jeder kann diese Historie durchsuchen und eigene Reputationsalgorithmen erstellen.

Validation Registry: Unterstützt die kryptografische und ökonomische Verifizierung der Arbeit von Agenten. Hier finden programmierbare Audits statt – Validatoren können Berechnungen erneut ausführen, Zero-Knowledge-Proofs verifizieren oder Trusted Execution Environments (TEEs) nutzen, um zu bestätigen, dass ein Agent korrekt gehandelt hat.

Die Brillanz von ERC-8004 liegt in seinem unvoreingenommenen Design. Wie die technische Spezifikation anmerkt, unterstützt der Standard verschiedene Validierungstechniken: „Stake-gesicherte Neuausführung von Aufgaben (inspiriert von Systemen wie EigenLayer), Verifizierung von Zero-Knowledge Machine Learning (zkML) Proofs und Attestierungen von Trusted Execution Environments.“

Diese Flexibilität ist wichtig. Ein DeFi-Arbitrage-Agent könnte zkML-Proofs verwenden, um seine Handelslogik zu verifizieren, ohne Alpha preiszugeben. Ein Supply-Chain-Agent könnte TEE-Attestierungen nutzen, um zu beweisen, dass er korrekt auf Real-World-Daten zugegriffen hat. Ein Cross-Chain-Bridge-Agent könnte auf krypto-ökonomische Validierung mit Slashing setzen, um eine ehrliche Ausführung zu gewährleisten.

Blacklights fünfstufiger Verifizierungsprozess

Nillions Implementierung von ERC-8004 auf Blacklight fügt eine entscheidende Ebene hinzu: gemeinschaftlich betriebene Verifizierungs-Nodes. So funktioniert der Prozess:

1. Agenten-Registrierung: Ein Agent registriert seine Identität in der Identity Registry und erhält ein ERC-721 NFT. Dies erstellt einen eindeutigen On-Chain-Identifikator, der an den öffentlichen Schlüssel des Agenten gebunden ist.

2. Initiierung der Verifizierungsanfrage: Wenn ein Agent eine Aktion ausführt, die eine Validierung erfordert (z. B. Ausführung eines Trades, Überweisung von Geldern oder Aktualisierung des Status), sendet er eine Verifizierungsanfrage an Blacklight.

3. Zuweisung des Komitees: Das Protokoll von Blacklight weist zufällig ein Komitee aus Verifizierungs-Nodes zu, um die Anfrage zu prüfen. Diese Nodes werden von Community-Mitgliedern betrieben, die 70.000 NIL-Token staken, wodurch Anreize für die Netzwerkintegrität geschaffen werden.

4. Node-Prüfungen: Komitee-Mitglieder führen die Berechnung erneut aus oder validieren kryptografische Proofs. Wenn Validatoren fehlerhaftes Verhalten feststellen, können sie den Stake des Agenten kürzen (in Systemen, die krypto-ökonomische Validierung nutzen) oder die Identität in der Reputation Registry markieren.

5. On-Chain-Reporting: Die Ergebnisse werden On-Chain veröffentlicht. Die Validation Registry zeichnet auf, ob die Arbeit des Agenten verifiziert wurde, und schafft so einen permanenten Ausführungsbeweis. Die Reputation Registry wird entsprechend aktualisiert.

Dieser Prozess erfolgt asynchron und nicht blockierend, was bedeutet, dass Agenten bei Routineaufgaben nicht auf die Verifizierung warten müssen – aber bei risikoreichen Aktionen (große Überweisungen, Cross-Chain-Operationen) kann eine Vorab-Validierung erforderlich sein.

Programmierbare Audits: Jenseits von binärem Vertrauen

Das ehrgeizigste Feature von Blacklight ist die „programmierbare Verifizierung“ – die Fähigkeit zu prüfen, wie ein Agent Entscheidungen trifft, und nicht nur, was er tut.

Betrachten wir einen DeFi-Agenten, der eine Treasury verwaltet. Traditionelle Audits verifizieren, dass Gelder korrekt bewegt wurden. Programmierbare Audits verifizieren:

  • Konsistenz der Entscheidungslogik: Hat der Agent seine angegebene Investmentstrategie befolgt oder ist er davon abgewichen?
  • Ausführung mehrstufiger Workflows: Wenn der Agent Portfolios über drei Chains hinweg umschichten sollte, hat er alle Schritte abgeschlossen?
  • Sicherheitsbeschränkungen: Hat der Agent Gas-Limits, Slippage-Toleranzen und Exposure-Obergrenzen eingehalten?

Dies ist möglich, da die Validation Registry von ERC-8004 beliebige Proof-Systeme unterstützt. Ein Agent kann sich on-chain auf einen Entscheidungsalgorithmus festlegen (z. B. ein Hash seiner neuronalen Netzwerkgewichtungen oder ein zk-SNARK-Schaltkreis, der seine Logik darstellt) und dann beweisen, dass jede Aktion diesem Algorithmus entspricht, ohne proprietäre Details offenzulegen.

Nillions Roadmap zielt explizit auf diese Anwendungsfälle ab: „Nillion plant, die Fähigkeiten von Blacklight auf die ‚programmierbare Verifizierung‘ auszuweiten, was dezentrale Audits komplexer Verhaltensweisen wie die Konsistenz der Entscheidungslogik von Agenten, die Ausführung mehrstufiger Workflows und Sicherheitsbeschränkungen ermöglicht.“

Dies verschiebt die Verifizierung von reaktiv (Fehler im Nachhinein finden) zu proaktiv (korrektes Verhalten durch Design erzwingen).

Blind Computation: Privatsphäre trifft auf Verifizierung

Nillions zugrunde liegende Technologie – Nil Message Compute (NMC) – fügt der Agenten-Verifizierung eine Datenschutz-Dimension hinzu. Im Gegensatz zu herkömmlichen Blockchains, bei denen alle Daten öffentlich sind, ermöglicht Nillions „Blind Computation“ Operationen auf verschlüsselten Daten ohne Entschlüsselung.

Warum das für Agenten wichtig ist: Ein KI-Agent muss möglicherweise seine Handelsstrategie verifizieren, ohne sein Alpha an Konkurrenten preiszugeben. Oder er muss beweisen, dass er korrekt auf vertrauliche medizinische Unterlagen zugegriffen hat, ohne Patientendaten offenzulegen. Oder er muss die Einhaltung regulatorischer Auflagen nachweisen, ohne proprietäre Geschäftslogik zu enthüllen.

Nillions NMC erreicht dies durch Multi-Party Computation (MPC), bei der Nodes gemeinsam „Blinding Factors“ generieren – korrelierte Zufälligkeit, die zur Verschlüsselung von Daten verwendet wird. Wie DAIC Capital erklärt: „Nodes generieren die wichtigste Netzwerkressource, die für die Datenverarbeitung benötigt wird – eine Art korrelierte Zufälligkeit, die als Blinding Factor bezeichnet wird. Dabei speichert jeder Node seinen Anteil am Blinding Factor sicher und verteilt das Vertrauen quantensicher über das Netzwerk.“

Diese Architektur ist von Grund auf quantenresistent. Selbst wenn ein Quantencomputer die heutige Elliptische-Kurven-Kryptographie knackt, bleiben verteilte Blinding Factors sicher, da kein einzelner Node über genügend Informationen verfügt, um Daten zu entschlüsseln.

Für KI-Agenten bedeutet dies, dass die Verifizierung nicht auf Kosten der Vertraulichkeit geht. Ein Agent kann beweisen, dass er eine Aufgabe korrekt ausgeführt hat, während er seine Methoden, Datenquellen und Entscheidungslogik privat hält.

Der 4,3 Milliarden $ Infrastruktur-Ansatz der Agent-Economy

Der Start von Blacklight erfolgt zu einem Zeitpunkt, an dem der Blockchain-KI-Sektor in ein Hyperwachstum eintritt. Es wird prognostiziert, dass der Markt von 680 Millionen (2025)auf4,3Milliarden(2025) auf 4,3 Milliarden (2034) mit einer CAGR von 22,9 % wachsen wird, während der breitere Markt für Confidential Computing bis 2032 ein Volumen von 350 Milliarden $ erreicht.

Aber Nillion setzt nicht nur auf die Marktexpansion – es positioniert sich als kritische Infrastruktur. Der Engpass der Agent-Economy ist nicht Rechenleistung oder Speicherplatz, sondern Vertrauen in großem Maßstab. Wie der Ausblick von KuCoin für 2026 anmerkt, gestalten drei Haupttrends die KI-Identität und den Wertefluss neu:

Agent-Wrapping-Agent-Systeme: Agenten, die sich mit anderen Agenten koordinieren, um komplexe mehrstufige Aufgaben auszuführen. Dies erfordert standardisierte Identität und Verifizierung – genau das, was ERC-8004 bietet.

KYA (Know Your Agent): Finanzielle Infrastruktur, die Agenten-Credentials verlangt. Regulierungsbehörden werden keine autonomen Agenten zulassen, die Gelder verwalten, ohne dass ein Beweis für korrektes Verhalten vorliegt. Die programmierbaren Audits von Blacklight adressieren dies direkt.

Nano-Zahlungen: Agenten müssen Mikrozahlungen effizient abwickeln. Das x402-Zahlungsprotokoll, das im Januar 2026 über 20 Millionen Transaktionen verarbeitete, ergänzt ERC-8004, indem es die Abwicklung übernimmt, während Blacklight für das Vertrauen sorgt.

Zusammen erreichten diese Standards innerhalb weniger Wochen nacheinander die Produktionsreife – ein Durchbruch in der Koordination, der die Reifung der Infrastruktur signalisiert.

Ethereums Agent-zentrierte Zukunft

Die Einführung von ERC-8004 geht weit über Nillion hinaus. Seit Anfang 2026 haben mehrere Projekte den Standard integriert:

  • Oasis Network: Implementierung von ERC-8004 für Confidential Computing mit TEE-basierter Validierung
  • The Graph: Unterstützung von ERC-8004 und x402 zur Ermöglichung verifizierbarer Agenten-Interaktionen in der dezentralen Indexierung
  • MetaMask: Erforschung von Agent-Wallets mit integrierter ERC-8004-Identität
  • Coinbase: Integration von ERC-8004 für institutionelle Verwahrungslösungen für Agenten

Diese schnelle Akzeptanz spiegelt einen breiteren Wandel in Ethereums Roadmap wider. Vitalik Buterin hat wiederholt betont, dass die Rolle der Blockchain zunehmend „nur noch die Rohrleitungen“ für KI-Agenten wird – nicht die Ebene für Endverbraucher, sondern die Vertrauensinfrastruktur, die autonome Koordination ermöglicht.

Nillions Blacklight beschleunigt diese Vision, indem es die Verifizierung programmierbar, datenschutzfreundlich und dezentral macht. Anstatt sich auf zentralisierte Orakel oder menschliche Prüfer zu verlassen, können Agenten ihre Korrektheit kryptographisch beweisen.

Was als nächstes kommt: Mainnet-Integration und Ökosystem-Erweiterung

Die 2026 Roadmap von Nillion priorisiert Ethereum-Kompatibilität und nachhaltige Dezentralisierung. Die Ethereum-Bridge ging im Februar 2026 live, gefolgt von nativen Smart Contracts für Staking und Blind Computation.

Community-Mitglieder, die 70.000 NIL-Token staken, können Blacklight-Verifizierungs-Nodes betreiben und Belohnungen verdienen, während sie die Netzwerkintegrität aufrechterhalten. Dieses Design spiegelt die Validator-Ökonomie von Ethereum wider, fügt jedoch eine verifizierungsspezifische Rolle hinzu.

Die nächsten Meilensteine umfassen:

  • Erweiterte zkML-Unterstützung: Integration mit Projekten wie Modulus Labs zur Verifizierung von KI-Inferenzen On-Chain
  • Cross-Chain-Verifizierung: Ermöglichung von Blacklight, Agenten zu verifizieren, die über Ethereum, Cosmos und Solana hinweg agieren
  • Institutionelle Partnerschaften: Kooperationen mit Coinbase und Alibaba Cloud für den Einsatz von Enterprise-Agenten
  • Tools für regulatorische Compliance: Entwicklung von KYA-Frameworks (Know Your Agent) für die Einführung im Finanzdienstleistungssektor

Vielleicht am wichtigsten ist, dass Nillion nilGPT entwickelt — einen vollständig privaten KI-Chatbot, der demonstriert, wie Blind Computation vertrauliche Agenten-Interaktionen ermöglicht. Dies ist nicht nur eine Demo; es ist eine Blaupause für Agenten, die sensible Daten im Gesundheitswesen, im Finanzwesen und im öffentlichen Sektor verarbeiten.

Das Endgame der trustlosen Koordination

Der Start von Blacklight markiert einen Wendepunkt für die Agent-Ökonomie. Vor ERC-8004 operierten Agenten in Silos — vertrauenswürdig innerhalb ihrer eigenen Ökosysteme, aber unfähig, sich ohne menschliche Vermittler plattformübergreifend zu koordinieren. Nach ERC-8004 können Agenten die Identität des jeweils anderen verifizieren, das Verhalten des anderen prüfen und Zahlungen autonom abwickeln.

Dies erschließt völlig neue Kategorien von Anwendungen:

  • Dezentrale Hedgefonds: Agenten, die Portfolios über verschiedene Chains hinweg verwalten, mit verifizierbaren Investmentstrategien und transparenten Performance-Audits
  • Autonome Lieferketten: Agenten, die Logistik, Zahlungen und Compliance ohne zentrale Aufsicht koordinieren
  • KI-gestützte DAOs: Organisationen, die von Agenten gesteuert werden, die auf Basis einer kryptografisch verifizierten Entscheidungslogik abstimmen, Vorschläge machen und diese ausführen
  • Protokollübergreifendes Liquiditätsmanagement: Agenten, die Vermögenswerte über DeFi-Protokolle hinweg mit programmierbaren Risikobeschränkungen umschichten

Der rote Faden? Alle erfordern trustlose Koordination — die Fähigkeit von Agenten, ohne bestehende Beziehungen oder zentrale Vertrauensanker zusammenzuarbeiten.

Nillions Blacklight bietet genau das. Durch die Kombination der Identitäts- und Reputationsinfrastruktur von ERC-8004 mit programmierbarer Verifizierung und Blind Computation schafft es eine Vertrauensebene, die skalierbar genug für die bevorstehende Billionen-Agenten-Ökonomie ist.

Da die Blockchain zum Grundgerüst für KI-Agenten und das globale Finanzwesen wird, ist die Frage nicht, ob wir eine Verifizierungsinfrastruktur benötigen — sondern wer sie baut und ob sie dezentralisiert ist oder von einigen wenigen Gatekeepern kontrolliert wird. Die von der Community betriebenen Nodes und der offene Standard von Blacklight sprechen für Letzteres.

Das Zeitalter der autonomen On-Chain-Akteure ist angebrochen. Die Infrastruktur ist live. Die einzige offene Frage ist, was darauf aufgebaut wird.


Quellen:

Pharos Networks Mainnet im Q1 2026: Wie Blockchain-Veteranen der Ant Group den 10 Billionen Dollar schweren RealFi Layer aufbauen

· 19 Min. Lesezeit
Dora Noda
Software Engineer

Als der ehemalige Ant Group CTO Alex Zhang und sein Blockchain-Engineering-Team das Unternehmen im Juli 2024 verließen, schlossen sie sich keinem anderen Fintech-Giganten an. Sie entwickelten das Pharos Network — eine Layer-1-Blockchain, die auf die Konvergenz von traditionellem Finanzwesen und DeFi abzielt, mit einem einzigen Fokus: der Erschließung des Marktes für Real-World Assets (RWA) im Wert von $ 10 Billionen, der für 2030 prognostiziert wird.

Pharos ist nicht einfach nur ein weiterer EVM-Klon, der geringfügig schnellere Transaktionen verspricht. Es handelt sich um eine zweckgebundene Infrastruktur für „RealFi“ (Real-World Finance) — Blockchain-Systeme, die direkt an materielle Vermögenswerte wie Privatkredite, tokenisierte Staatsanleihen, Immobilien und Unternehmensanleihen gebunden sind. Die technische Grundlage: 30.000 TPS mit einer Finalität von unter einer Sekunde, angetrieben durch Smart Access List Inferring (SALI) — eine neuartige Engine zur parallelen Ausführung, die statisch oder dynamisch Status-Zugriffsmuster ableitet, um disjunkte Transaktionen gleichzeitig auszuführen.

Mit einer Seed-Finanzierung von 8Millionen](https://www.theblock.co/post/325246/layer1blockchainpharosseedfunding)vonLightspeedFactionundHackVC,einem[RealFiInkubatorimWertvon8 Millionen](https://www.theblock.co/post/325246/layer-1-blockchain-pharos-seed-funding) von Lightspeed Faction und Hack VC, einem [RealFi-Inkubator im Wert von 10 Millionen, der von Draper Dragon unterstützt wird, und einem bevorstehenden Mainnet-Launch im ersten Quartal 2026, repräsentiert Pharos die Wette, dass die Migration des institutionellen Finanzwesens auf die Blockchain nicht auf den L2s von Ethereum oder der Hochgeschwindigkeitsinfrastruktur von Solana stattfinden wird — sondern auf einer Compliance-orientierten, RWA-optimierten Chain, die von dem Team entworfen wurde, das die Ant Chain aufgebaut hat, die Blockchain hinter Alibabas jährlichem Bruttowarenvolumen (GMV) von über $ 2 Billionen.

Die RealFi-These: Warum bis 2030 $ 10 Billionen On-Chain wandern

RealFi ist keine Krypto-Spekulation — es ist die Tokenisierung des Finanzwesens selbst. Der Sektor steht derzeit bei 17,6Milliarden,mitPrognosen,diebis203017,6 Milliarden, mit Prognosen, die bis 2030 10 Billionen erreichen — ein 54-facher Wachstumsfaktor. Zwei Kräfte treiben dies voran:

Tokenisierung von Privatkrediten: Traditionelle Privatkreditmärkte (Kredite an mittelständische Unternehmen, Immobilienfinanzierung, Asset-Backed Lending) sind undurchsichtig, illiquide und nur für akkreditierte Institutionen zugänglich. Die Tokenisierung transformiert diese in programmierbare, rund um die Uhr handelbare Instrumente. Investoren können ihre Beteiligungen fraktionalisieren, Positionen sofort verlassen und die Renditeverteilung über Smart Contracts automatisieren. Über 90 % des RWA-Wachstums im Jahr 2025 stammten aus Privatkrediten.

Tokenisierte Staatsanleihen und institutionelle Liquidität: Stablecoins haben $ 300 Milliarden an On-Chain-Liquidität freigesetzt, aber sie sind lediglich USD-gedeckte Schuldscheine. Tokenisierte US-Staatsanleihen (wie der BUIDL-Fonds von BlackRock) bringen renditebringende Staatsschulden auf die Chain. Institutionen können DeFi-Positionen mit AAA-bewerteten Assets besichern, risikofreie Renditen erzielen und Trades in Minuten statt in T + 2 abwickeln. Dies ist die Brücke, die institutionelles Kapital — Pensionsfonds, Stiftungen, Staatsfonds — zur Blockchain bringt.

Der Flaschenhals? Bestehende Chains sind nicht für RWA-Workflows ausgelegt. Der Base-Layer von Ethereum ist zu langsam und teuer für den Hochfrequenzhandel. Solana fehlen integrierte Compliance-Primitive. L2s fragmentieren die Liquidität. RWA-Anwendungen benötigen:

  • Finalität von unter einer Sekunde für Abrechnungen in Echtzeit (entsprechend den TradFi-Erwartungen)
  • Parallele Ausführung, um Tausende von gleichzeitigen Asset-Transfers ohne Überlastung zu bewältigen
  • Modulare Compliance, die es erlaubt, dass zugangsbeschränkte Assets (z. B. Anleihen nur für akkreditierte Investoren) neben erlaubnisfreiem DeFi existieren
  • Interoperabilität mit traditionellen Finanzsystemen (SWIFT, ACH, Wertpapierverwahrstellen)

Pharos wurde vom ersten Tag an so konzipiert, dass es diese Anforderungen erfüllt. Die Erfahrung des Teams bei der Tokenisierung realer Vermögenswerte bei der Ant Group — Projekte wie Xiexin Energy Technology und die Langxin Group RWA — floss in jede Designentscheidung ein.

SALI: Überdenken der parallelen Ausführung für Finanzmärkte

Blockchains haben Schwierigkeiten mit der Parallelisierung, da Transaktionen oft kollidieren — zwei Überweisungen, die dasselbe Konto betreffen, können nicht gleichzeitig ausgeführt werden, ohne Doppelnutzungen (Double-Spends) oder einen inkonsistenten Status zu verursachen. Traditionelle Chains serialisieren kollidierende Transaktionen, was zu Engpässen führt.

Pharos löst dies mit Smart Access List Inferring (SALI) — einer Methode, um statisch oder dynamisch abzuleiten, auf welche Statuseinträge ein Vertrag zugreifen wird. Dies ermöglicht es der Execution-Engine, Transaktionen mit disjunkten Zugriffsmustern zu gruppieren und sie ohne Konflikte parallel auszuführen.

So funktioniert SALI:

Statische Analyse (Inferenz zur Kompilierzeit): Bei Standard-ERC-20-Transfers ist die Logik des Smart Contracts deterministisch. Ein Transfer von Alice zu Bob betrifft nur balances[Alice] und balances[Bob]. SALI analysiert den Contract-Code vor der Ausführung und erstellt eine Zugriffsliste: [Alices Guthaben, Bobs Guthaben]. Wenn eine andere Transaktion Carol und Dave betrifft, laufen diese beiden Transfers parallel — kein Konflikt.

Dynamische Inferenz (Laufzeit-Profiling): Komplexe Verträge (wie AMM-Pools oder Lending-Protokolle) haben Status-Zugriffsmuster, die von Laufzeitdaten abhängen. SALI nutzt spekulative Ausführung: Die Transaktion wird vorläufig ausgeführt, die aufgerufenen Speicherplätze werden aufgezeichnet und bei erkannten Konflikten wird die Ausführung parallel erneut versucht. Dies ähnelt der optimistischen Nebenläufigkeitskontrolle in Datenbanken.

Konfliktlösung und Transaktionsreihenfolge: Wenn Konflikte auftreten (z. B. zwei Benutzer tauschen im selben Pool im Uniswap-Stil), greift SALI bei kollidierenden Transaktionen auf die serielle Ausführung zurück, während nicht überschneidende Transaktionen weiterhin parallelisiert werden. Dies ist wesentlich effizienter als alles zu serialisieren.

Das Ergebnis: 30.000 TPS mit einer Finalität von unter einer Sekunde. Zum Vergleich: Ethereum verarbeitet ca. 15 TPS (Base-Layer), Solana erreicht Spitzenwerte von ca. 65.000 TPS, verfügt aber nicht über EVM-Kompatibilität, und die meisten EVM-L2s erreichen maximal 2.000 bis 5.000 TPS. Pharos erreicht die Geschwindigkeit von Solana bei gleichzeitiger Beibehaltung der EVM-Kompatibilität — entscheidend für die institutionelle Akzeptanz, da die meiste DeFi-Infrastruktur (Aave, Uniswap, Curve) EVM-native ist.

Die Vorteile von SALI werden bei RWA-Anwendungsfällen deutlich:

  • Tokenisierter Anleihehandel: Eine Unternehmensanleihe-Emission kann Tausende von gleichzeitigen Käufen / Verkäufen über verschiedene Tranchen hinweg umfassen. SALI parallelisiert Trades in Tranche A, während Trades in Tranche B gleichzeitig ausgeführt werden — kein Warten auf sequentielle Abrechnungen.
  • Automatisierte Portfolio-Umschichtung: Eine DAO, die ein diversifiziertes RWA-Portfolio (Immobilien, Rohstoffe, Privatkredite) verwaltet, kann Umschichtungen über mehr als 20 Vermögenswerte gleichzeitig ausführen, anstatt Transaktionen zu bündeln.
  • Grenzüberschreitende Zahlungen: Pharos kann Hunderte von internationalen Überweisungen parallel abwickeln, wobei jede unterschiedliche Sender-Empfänger-Paare betrifft, ohne dass eine Überlastung der Blockchain die Finalität verzögert.

Dies ist nicht theoretisch. Die Ant Chain verarbeitete jährlich über 1 Milliarde Transaktionen für Alibabas Supply-Chain-Finanzierung und die Abwicklung des grenzüberschreitenden Handels. Das Pharos-Team bringt diese praxiserprobte Ausführungskompetenz in die öffentliche Blockchain ein.

Dual-VM-Architektur: EVM + WASM für maximale Kompatibilität

Pharos unterstützt sowohl die Ethereum Virtual Machine (EVM) als auch WebAssembly (WASM) – eine Dual-VM-Architektur, die es Entwicklern ermöglicht, Solidity-Contracts (EVM) oder hochperformante Rust/C++-Contracts (WASM) auf derselben Chain bereitzustellen.

Warum ist das für RWA wichtig?

EVM-Kompatibilität zieht bestehende DeFi-Ökosysteme an: Die meisten institutionellen DeFi-Integrationen (institutionelle Kreditvergabe von Aave, Uniswap-Liquiditätspools, Compound-Kreditaufnahme) laufen auf Solidity. Wenn Pharos Entwickler zwingen würde, Verträge in einer neuen Sprache neu zu schreiben, würde die Akzeptanz stagnieren. Durch die Unterstützung von EVM übernimmt Pharos das gesamte Ethereum-Tooling-Ökosystem – MetaMask, Explorer im Etherscan-Stil, Hardhat-Deployment-Skripte.

WASM ermöglicht performancekritische Finanzanwendungen: Hochfrequenzhandels-Bots, algorithmische Market Maker und Echtzeit-Risiko-Engines benötigen eine tiefergehende Kontrolle, als Solidity sie bietet. WASM lässt sich in naturnahen Maschinencode kompilieren und bietet bei rechenintensiven Aufgaben eine 10- bis 100-fache Geschwindigkeitssteigerung gegenüber EVM-Bytecode. Institutionelle Händler, die anspruchsvolle Strategien einsetzen, können die Ausführung in Rust optimieren und dennoch mit der EVM-basierten Liquidität interagieren.

Modulare Compliance über WASM-Contracts: Finanzvorschriften variieren je nach Rechtsraum (SEC-Regeln unterscheiden sich von MiCA, die sich wiederum von der SFC in Hongkong unterscheiden). Pharos ermöglicht es, Compliance-Logik – KYC-Prüfungen, Verifizierung akkreditierter Investoren, geografische Beschränkungen – als WASM-Module zu implementieren, die in EVM-Contracts integriert werden können. Eine tokenisierte Anleihe kann die Bedingung „nur für akkreditierte US-Investoren“ erzwingen, ohne dass die Compliance in jedes DeFi-Protokoll fest einprogrammiert werden muss.

Dieses Dual-VM-Design spiegelt den Ansatz von Polkadot wider, ist jedoch für den Finanzbereich optimiert. Während Polkadot auf allgemeine chainübergreifende Interoperabilität abzielt, fokussiert sich Pharos auf RWA-spezifische Workflows: Custody-Integrationen, Garantien für die Finalität der Abrechnung (Settlement Finality) und regulatorisches Reporting.

Modulare Architektur: Anwendungsspezifische Netzwerke (SPNs)

Pharos führt Subnet-ähnliche partitionierte Netzwerke (SPNs) ein – anwendungsspezifische Chains, die eng mit dem Pharos-Mainnet verbunden sind und gleichzeitig unabhängig operieren. Jedes SPN verfügt über:

  • Eine eigene Execution Engine (EVM oder WASM)
  • Ein eigenes Validator-Set (für erlaubnispflichtige Assets, die zugelassene Node-Betreiber erfordern)
  • Eigene Restaking-Anreize (Validatoren können Belohnungen sowohl aus Mainnet- als auch aus SPN-Gebühren verdienen)
  • Eine eigene Governance (tokengewichtete Abstimmung oder DAO-basierte Entscheidungsfindung)

SPNs lösen ein kritisches RWA-Problem: regulatorische Isolation. Ein tokenisierter US-Treasury-Fonds erfordert SEC-Compliance – nur akkreditierte Investoren, keine Privacy-Coins, vollständiges AML/KYC. Aber erlaubnisfreies DeFi (wie ein öffentlicher Uniswap-Fork) kann diese Regeln nicht erzwingen. Wenn beide auf derselben monolithischen Chain laufen, kommt es zu einem Compliance-Leck – ein Nutzer könnte ein reguliertes Asset in ein nicht konformes Protokoll übertragen.

Pharos' SPN-Modell ermöglicht:

Erlaubnispflichtiges SPN für regulierte Assets: Das SPN für tokenisierte Staatsanleihen (Treasuries) verfügt über eine Whitelist von Validatoren (z. B. Coinbase Custody, Fireblocks, BitGo). Nur KYC-verifizierte Wallets können Transaktionen durchführen. Die Governance des SPN wird vom Asset-Emittenten (z. B. BlackRock) und den Regulierungsbehörden kontrolliert.

Erlaubnisfreies Mainnet für öffentliches DeFi: Das Pharos-Mainnet bleibt offen – jeder kann Verträge bereitstellen, Token handeln oder Liquidität bereitstellen. Kein KYC erforderlich.

Bridge zwischen SPNs und Mainnet: Ein reguliertes SPN kann spezifische Assets (z. B. renditetragende Stablecoins, die mit Staatsanleihen besichert sind) über eine auf Compliance geprüfte Bridge für das Mainnet zugänglich machen. Dies ermöglicht Kapitaleffizienz: Institutionen bringen Liquidität aus der erlaubnispflichtigen Welt in das erlaubnisfreie DeFi, jedoch nur über geprüfte, regulierte Wege.

Diese Architektur ähnelt den App-Chains von Cosmos, ist jedoch mit integrierter Finanz-Compliance ausgestattet. Die Subnets von Avalanche bieten eine ähnliche Isolation, aber Pharos fügt Restaking-Anreize hinzu – Validatoren sichern sowohl das Mainnet als auch die SPNs und verdienen so kumulierte Belohnungen. Diese ökonomische Ausrichtung gewährleistet eine robuste Sicherheit für hochwertige RWA-Anwendungen.

Der 10-Millionen-Dollar-RealFi-Inkubator: Aufbau des Application Layers

Infrastruktur allein treibt die Akzeptanz nicht voran – Anwendungen tun es. Pharos hat "Native to Pharos" ins Leben gerufen, einen Inkubator mit über 10 Millionen Dollar Volumen, der von Draper Dragon, Lightspeed Faction, Hack VC und Centrifuge unterstützt wird. Das Programm richtet sich an Teams in der Frühphase, die RWA-fokussierte DeFi-Anwendungen entwickeln, wobei Projekten Vorrang eingeräumt wird, die Folgendes nutzen:

Tiefe parallele Ausführung: Anwendungen, die den Durchsatz von SALI nutzen – wie Hochfrequenzhandelsplätze, automatisierte Portfoliomanager oder Echtzeit-Settlement-Layer.

Modulares Compliance-Design: Tools, die die SPN-Architektur von Pharos für die regulatorisch konforme Emission von Vermögenswerten integrieren – man denke an Anleiheplattformen, die eine Verifizierung für akkreditierte Investoren erfordern.

Grenzüberschreitende Zahlungsinfrastruktur: Stablecoin-Schienen, Remittance-Protokolle (Überweisungen) oder Händler-Abrechnungssysteme, die die Finalität von Pharos im Subsekundenbereich nutzen.

Die Fokusbereiche der ersten Kohorte offenbaren die These von Pharos:

Tokenisierte Privatkredite: Plattformen, die den Bruchteilseigentum an Unternehmenskrediten, Immobilienhypotheken oder Handelsfinanzierungen ermöglichen. Hier fand 90 % des RWA-Wachstums im Jahr 2025 statt – Pharos möchte diese Vertikale besetzen.

Institutionelle DeFi-Primitiven: Lending-Protokolle für RWA-Sicherheiten (z. B. Kredite gegen tokenisierte Staatsanleihen), Derivatemärkte für Rohstoffe oder Liquiditätspools für Unternehmensanleihen.

Compliance-as-a-Service (CaaS): Middleware, die es anderen Chains ermöglicht, sich an die Compliance-Infrastruktur von Pharos anzubinden – man denke an Chainalysis für AML, aber on-chain und kryptografisch verifizierbar.

Die Beteiligung von Centrifuge ist strategisch – sie leisteten Pionierarbeit bei On-Chain-Privatkrediten mit über 500 Millionen Dollar an finanzierten Vermögenswerten. Die Integration der Kreditinfrastruktur von Centrifuge mit der Hochdurchsatz-Ausführung von Pharos schafft einen beeindruckenden RealFi-Stack.

Das Erbe der Ant Group: Warum dieses Team wichtig ist

Die Glaubwürdigkeit von Pharos resultiert aus seinem Hintergrund. Alex Zhang, CEO von Pharos, war zuvor CTO der Ant Chain – dort beaufsichtigte er Blockchain-Systeme, die über 1 Milliarde Transaktionen jährlich für das Ökosystem von Alibaba verarbeiteten. Die Ant Chain treibt Folgendes an:

  • Lieferkettenfinanzierung: Automatisierung von Rechnungs-Factoring und Handelsfinanzierung für kleine Unternehmen
  • Grenzüberschreitende Überweisungen: Abwicklung zwischen Alipay und internationalen Partnern
  • Digitale Identität: Blockchain-basiertes KYC für Finanzdienstleistungen

Dies ist keine akademische Blockchain-Forschung – es handelt sich um eine Infrastruktur auf Produktionsniveau, die ein jährliches Transaktionsvolumen von über 2 Billionen $ unterstützt. Das Kernteam von Pharos hat bereits während seiner Zeit bei der Ant Group reale Vermögenswerte (RWAs) tokenisiert, wie beispielsweise Xiexin Energy Technology und die Langxin Group. Dies verschaffte ihnen praktische Erfahrung in der regulatorischen Navigation, der Integration von Verwahrstellen (Custody) und institutionellen Arbeitsabläufen.

Weitere Teammitglieder kommen von Solana (Hochleistungsausführung), Ripple (grenzüberschreitende Zahlungen) und OKX (Infrastruktur auf Börsenniveau). Diese Mischung – regulatorische TradFi-Expertise trifft auf Krypto-natives Performance-Engineering – ist selten. Die meisten RWA-Projekte sind entweder:

  • TradFi-nativ: Starke Compliance, aber schlechte UX (langsame Finalität, hohe Gebühren, keine Komponierbarkeit)
  • Krypto-nativ: Schnell und permissionless, aber regulatorisch schwierig (Institutionen können nicht eingebunden werden)

Pharos schlägt die Brücke zwischen beiden Welten. Das Team weiß, wie man SEC-Registrierungen erfüllt (Erfahrung der Ant Chain), einen Konsens mit hohem Durchsatz entwirft (Solana-Hintergrund) und eine Integration in bestehende Finanzsysteme realisiert (Ripples Zahlungsnetzwerke).

Mainnet-Zeitplan und Token Generation Event (TGE)

Pharos plant den Start seines Mainnets und das TGE für das erste Quartal 2026. Das Testnet ist bereits live, wobei Entwickler RWA-Anwendungen erstellen und die parallele Ausführung von SALI unter Stress testen.

Wichtige Meilensteine:

Mainnet-Launch im Q1 2026: Volle EVM- + WASM-Unterstützung, SALI-optimierte Ausführung und erste SPN-Bereitstellungen für regulierte Vermögenswerte.

Token Generation Event (TGE): Der PHAROS-Token wird folgenden Zwecken dienen:

  • Staking-Sicherheiten für Validatoren, die das Mainnet und die SPNs sichern
  • Governance-Rechte für Protokoll-Upgrades und die Genehmigung von SPNs
  • Zahlung von Gebühren für die Transaktionsverarbeitung (ähnlich wie ETH auf Ethereum)
  • Restaking-Belohnungen für Validatoren, die sowohl am Mainnet als auch an anwendungsspezifischen Netzwerken teilnehmen

Bereitstellungen der Inkubator-Kohorte: Die erste Gruppe von „Pharos-nativen“ Projekten, die auf dem Mainnet starten – voraussichtlich einschließlich tokenisierter Kreditplattformen, Compliance-Tools und DeFi-Primitiven für RWAs.

Institutionelle Partnerschaften: Integrationen mit Custody-Anbietern (BitGo, Fireblocks), Compliance-Plattformen (Chainalysis, Elliptic) und Asset-Originatoren (Private-Credit-Fonds, Immobilien-Tokenisierer).

Der Zeitpunkt passt zu den breiteren Markttrends. Bernsteins Ausblick für 2026 prognostiziert, dass das Stablecoin-Angebot 420 Milliarden erreichenwirdundsichderRWATVLauf80Milliardenerreichen wird und sich der RWA-TVL auf 80 Milliarden verdoppelt – Pharos positioniert sich als die Infrastruktur, die dieses Wachstum auffängt.

Die Wettbewerbslandschaft: Pharos vs. Ethereum L2s, Solana und Cosmos

Pharos tritt in einen hart umkämpften Markt ein. Wie schneidet es im Vergleich zur bestehenden RWA-Infrastruktur ab?

Ethereum L2s (Arbitrum, Optimism, Base): Starke Entwickler-Ökosysteme und EVM-Kompatibilität, aber die meisten L2s priorisieren Skalierbarkeit gegenüber Compliance. Ihnen fehlen native regulatorische Primitiven – die Ausgabe von zulassungsbeschränkten Assets erfordert benutzerdefinierte Smart-Contract-Logik, was zu einer Fragmentierung der Standards führt. Die SPN-Architektur von Pharos standardisiert Compliance auf der Protokollebene.

Solana: Unübertroffener Durchsatz (65.000 TPS), aber keine native EVM-Unterstützung – Entwickler müssen Solidity-Contracts in Rust umschreiben. Institutionelle DeFi-Teams werden EVM-Tools nicht aufgeben. Pharos bietet Solana-ähnliche Geschwindigkeit bei gleichzeitiger EVM-Kompatibilität und senkt so die Migrationsbarrieren.

Avalanche Subnets: Ähnliche modulare Architektur wie die SPNs von Pharos, aber Avalanche positioniert sich als Allzweck-Lösung. Pharos ist laserfokussiert auf RWA – jede Designentscheidung (SALI-Parallelisierung, Dual-VM, Compliance-Module) ist für Finanzmärkte optimiert. Spezialisierung könnte dort zu institutioneller Akzeptanz führen, wo Allzweck-Chains an ihre Grenzen stoßen.

Cosmos App-Chains: Starke Interoperabilität via IBC (Inter-Blockchain Communication), aber Cosmos-Chains sind fragmentiert – Liquidität aggregiert sich nicht auf natürliche Weise. Das Modell von Pharos aus Mainnet + SPN hält die Liquidität vereint und ermöglicht gleichzeitig regulatorische Isolierung. Die Kapitaleffizienz ist höher.

Polymesh: Eine Compliance-fokussierte Blockchain für Wertpapiere, aber Polymesh opfert die Komponierbarkeit – es ist ein geschlossenes System („Walled Garden“) für tokenisierte Aktien. Pharos balanciert Compliance (über SPNs) mit DeFi-Komponierbarkeit (über das erlaubnisfreie Mainnet). Institutionen können auf dezentrale Liquidität zugreifen, ohne regulatorische Rahmenbedingungen verlassen zu müssen.

Der Vorteil von Pharos ist die zweckgebundene RealFi-Architektur. Ethereum L2s rüsten Compliance nachträglich auf Systeme nach, die für Dezentralisierung konzipiert wurden. Pharos integriert Compliance direkt in die Konsensschicht – was sie für regulierte Vermögenswerte günstiger, schneller und zuverlässiger macht.

Risiken und offene Fragen

Die Ambitionen von Pharos sind kühn, doch es zeichnen sich mehrere Risiken ab:

Regulatorische Unsicherheit: Die RWA-Tokenisierung bleibt in den meisten Rechtsordnungen rechtlich unklar. Falls die SEC gegen tokenisierte Wertpapiere vorgeht oder die MiCA-Regulierungen der EU übermäßig restriktiv werden, könnte das auf Compliance ausgerichtete Design von Pharos zu einer Belastung werden – Regulatoren könnten zentralisierte Kontrollpunkte fordern, die im Widerspruch zum Dezentralisierungs-Ethos der Blockchain stehen.

Liquiditätsfragmentierung: SPNs lösen das Problem der regulatorischen Isolierung, riskieren jedoch eine Fragmentierung der Liquidität. Wenn der Großteil des institutionellen Kapitals auf zugangsbeschränkten SPNs mit begrenzten Bridges zum Mainnet verbleibt, können DeFi-Protokolle nicht effizient auf dieses Kapital zugreifen. Pharos muss ein Gleichgewicht zwischen Compliance und Kapitalgeschwindigkeit finden.

Dezentralisierung der Validatoren: Die parallele Ausführung von SALI erfordert Hochleistungs-Nodes. Wenn sich nur Enterprise-Validatoren (Coinbase, Binance, Fireblocks) die Hardware leisten können, riskiert Pharos, zu einer Konsortium-Chain zu werden – wodurch die Zensurresistenz und die erlaubnisfreien (permissionless) Eigenschaften der Blockchain verloren gehen.

Wettbewerb durch etablierte TradFi-Akteure: Das Canton Network von JPMorgan, die Digital Asset Platform von Goldman Sachs und die Blockchain-Initiativen von BNY Mellon bauen private, zugangsbeschränkte RWA-Infrastrukturen auf. Wenn Institutionen die Zusammenarbeit mit vertrauenswürdigen TradFi-Marken gegenüber krypto-nativen Chains bevorzugen, könnte das öffentliche Blockchain-Modell von Pharos Schwierigkeiten haben, Fuß zu fassen.

Zeitplan für die Einführung: Der Aufbau des 10-Billionen-$-RWA-Marktes dauert Jahre – vielleicht Jahrzehnte. Das Mainnet von Pharos startet im 1. Quartal 2026, aber eine flächendeckende institutionelle Akzeptanz (Pensionsfonds, die Portfolios tokenisieren, Zentralbanken, die Blockchain-Settlement nutzen) wird nicht über Nacht eintreten. Kann Pharos die Entwicklung und das Community-Momentum durch eine potenziell lange Adoptionskurve aufrechterhalten?

Dies sind keine fatalen Fehler – es sind Herausforderungen, denen jede RWA-Blockchain gegenübersteht. Die Herkunft von Pharos aus der Ant Group und der institutionelle Fokus geben dem Projekt eine reelle Chance, aber die Umsetzung wird über den Erfolg entscheiden.

Die 10-Billionen-$-Frage: Kann Pharos die Zukunft von RealFi erobern?

Die These von Pharos ist simpel: Das reale Finanzwesen migriert On-Chain, und die Infrastruktur, die diese Migration vorantreibt, muss institutionelle Anforderungen erfüllen – Geschwindigkeit, Compliance und Interoperabilität mit Legacy-Systemen. Bestehende Chains scheitern an einem oder mehreren dieser Tests. Ethereum ist zu langsam. Solana fehlen Compliance-Primitive. L2s fragmentieren die Liquidität. Cosmos-Chains kämpfen mit der regulatorischen Standardisierung.

Pharos wurde entwickelt, um diese Probleme zu lösen. Die SALI-Parallelisierung liefert einen Durchsatz auf TradFi-Niveau. SPNs ermöglichen modulare Compliance. Die Dual-VM-Architektur maximiert die Akzeptanz durch Entwickler. Das Team der Ant Group bringt praxiserprobte Expertise ein. Und der 10-Millionen-$-Inkubator fördert ein Ökosystem an Anwendungen.

Wenn die Prognose eines 10-Billionen-$-RWA-Marktes eintritt, positioniert sich Pharos als der Layer, der diesen Wert einfängt. Der Mainnet-Launch im 1. Quartal 2026 wird zeigen, ob die Blockchain-Veteranen der Ant Group ihren TradFi-Erfolg in der dezentralen Welt wiederholen können – oder ob die Zukunft von RealFi dem ständig wachsenden L2-Ökosystem von Ethereum gehört.

Das Rennen um den 10-Billionen-$-RealFi-Markt hat begonnen. Pharos ist gerade in die Startaufstellung gerückt.


Quellen:

Consensys IPO 2026: Wie das Wall-Street-Debüt von MetaMask die Investitionen in die Ethereum-Infrastruktur neu gestalten wird

· 15 Min. Lesezeit
Dora Noda
Software Engineer

Die Mauern zwischen Krypto-Natives und dem traditionellen Finanzwesen werden bald deutlich dünner werden. Consensys, das Software-Kraftzentrum hinter MetaMask und Infura, hat JPMorgan Chase und Goldman Sachs beauftragt, den wohl bedeutendsten Blockchain-Börsengang des Jahres 2026 zu leiten. Dies ist nicht einfach nur ein weiteres Tech-Unternehmen, das an die Börse geht – es ist der direkte Einstieg der Wall Street in die Kerninfrastruktur von Ethereum über Eigenkapital, und die Auswirkungen reichen weit über ein einzelnes Aktiensymbol hinaus.

Ein Jahrzehnt lang agierte Consensys im Schatten der Infrastrukturebene von Kryptowährungen – jenem wenig glanzvollen, aber unverzichtbaren „Leitungssystem“, das täglich Millionen von Blockchain-Interaktionen ermöglicht. Heute, da MetaMask 30 Millionen monatlich aktive Nutzer zählt und Infura täglich über 10 Milliarden API-Anfragen verarbeitet, bereitet sich das Unternehmen darauf vor, sich von einem Risikokapital-finanzierten Krypto-Pionier in ein börsennotiertes Unternehmen mit einem potenziellen Wert von über 10 Milliarden $ zu verwandeln.

Vom Ethereum-Mitbegründer zu den öffentlichen Märkten

Gegründet im Jahr 2014 von Joseph Lubin, einem der ursprünglichen Mitbegründer von Ethereum, hat Consensys über ein Jahrzehnt damit verbracht, die unsichtbare Infrastrukturschicht von Web3 aufzubauen. Während Kleinanleger Memecoins und DeFi-Renditen nachjagten, konstruierte Consensys im Stillen die Werkzeuge, die diese Aktivitäten erst möglich machten.

Die letzte Finanzierungsrunde des Unternehmens im März 2022 brachte 450 Millionen beieinerPostMoneyBewertungvon7Milliardenbei einer Post-Money-Bewertung von 7 Milliarden ein, angeführt von ParaFi Capital. Der Handel am Sekundärmarkt deutet jedoch darauf hin, dass die aktuellen Bewertungen bereits 10 Milliarden $ überschritten haben – ein Aufschlag, der sowohl die Marktbeherrschung des Unternehmens als auch den strategischen Zeitpunkt seines Börsendebüts widerspiegelt.

Die Entscheidung, mit JPMorgan und Goldman Sachs zusammenzuarbeiten, ist nicht nur symbolischer Natur. Diese Titanen der Wall Street verleihen dem Unternehmen Glaubwürdigkeit bei institutionellen Anlegern, die Krypto gegenüber skeptisch bleiben, aber Infrastrukturmodelle verstehen. JPMorgan verfügt über umfassende Blockchain-Erfahrung durch seine Onyx-Abteilung und das Canton Network, während Goldman im Stillen eine Plattform für digitale Vermögenswerte für institutionelle Kunden aufgebaut hat.

MetaMask: Der Browser des Web3

MetaMask ist nicht nur eine Wallet – es ist zum De-facto-Tor zu Ethereum und dem breiteren Web3-Ökosystem geworden. Mit über 30 Millionen monatlich aktiven Nutzern Mitte 2025, was einem Anstieg von 55 % in nur vier Monaten gegenüber 19 Millionen im September 2024 entspricht, hat MetaMask das erreicht, was nur wenige Krypto-Produkte von sich behaupten können: einen echten Product-Market-Fit jenseits von Spekulationen.

Die Zahlen erzählen die Geschichte der globalen Reichweite von Web3. Allein auf Nigeria entfallen 12,7 % der Nutzerbasis von MetaMask, während die Wallet mittlerweile 11 Blockchains unterstützt, einschließlich neuer Erweiterungen wie dem Sei Network. Dies ist kein Projekt für eine einzelne Chain – es ist die Infrastruktur für eine Multi-Chain-Zukunft.

Jüngste Produktentwicklungen deuten auf die Monetarisierungsstrategie von Consensys im Vorfeld des Börsengangs hin. Joseph Lubin bestätigte, dass ein nativer MASK-Token in Entwicklung ist, zusammen mit Plänen zur Einführung des Handels mit Perpetual Futures innerhalb der Wallet und eines Belohnungsprogramms für Nutzer. Diese Schritte deuten darauf hin, dass Consensys mehrere Einnahmequellen vorbereitet, um die Bewertungen am öffentlichen Markt zu rechtfertigen.

Der wahre Wert von MetaMask liegt jedoch in seinen Netzwerkeffekten. Jeder dApp-Entwickler setzt standardmäßig auf MetaMask-Kompatibilität. Jede neue Blockchain wünscht sich eine MetaMask-Integration. Die Wallet ist zum Chrome-Browser des Web3 geworden – allgegenwärtig, unverzichtbar und ohne außerordentlichen Aufwand fast unmöglich zu verdrängen.

Infura: Die unsichtbare Infrastrukturschicht

Während MetaMask die Schlagzeilen beherrscht, stellt Infura für institutionelle Anleger den wichtigsten Vermögenswert von Consensys dar. Der Ethereum-API-Infrastrukturdienst unterstützt 430.000 Entwickler und verarbeitet ein jährliches On-Chain-ETH-Transaktionsvolumen von über 1 Billion $.

Die verblüffende Realität ist: 80–90 % des gesamten Krypto-Ökosystems verlassen sich auf die Infrastruktur von Infura, einschließlich MetaMask selbst. Als Infura im November 2020 einen Ausfall erlitt, waren große Börsen wie Binance und Bithumb gezwungen, Ethereum-Auszahlungen zu stoppen. Dieser Single Point of Failure wurde zu einem Single Point of Value – das Unternehmen, das Infura am Laufen hält, hält im Wesentlichen den Zugang zu Ethereum aufrecht.

Infura verarbeitet über 10 Milliarden API-Anfragen pro Tag und stellt die Node-Infrastruktur bereit, deren Eigenbetrieb sich die meisten Projekte nicht leisten können. Das Aufsetzen und Warten von Ethereum-Nodes erfordert technisches Fachwissen, ständige Überwachung und erhebliche Investitionsausgaben. Infura abstrahiert diese gesamte Komplexität und ermöglicht es Entwicklern, sich auf den Bau von Anwendungen zu konzentrieren, anstatt die Infrastruktur zu warten.

Für traditionelle Investoren, die den Börsengang bewerten, ist Infura der Vermögenswert, der einem traditionellen SaaS-Geschäft am ähnlichsten ist. Es verfügt über vorhersehbare Unternehmensverträge, eine nutzungsbasierte Preisgestaltung und einen treuen Kundenstamm, der ohne den Dienst buchstäblich nicht funktionieren kann. Dies ist die „langweilige“ Infrastruktur, die die Wall Street versteht.

Linea: Die Layer-2-Wildcard

Consensys betreibt auch Linea, ein auf Ethereum aufgebautes Layer-2-Skalierungsnetzwerk. Obwohl Linea weniger ausgereift ist als MetaMask oder Infura, repräsentiert es die Wette des Unternehmens auf die Skalierungs-Roadmap von Ethereum und positioniert Consensys so, dass es am Wert der L2-Ökonomie partizipiert.

Layer-2-Netzwerke sind für die Nutzbarkeit von Ethereum entscheidend geworden, da sie Tausende von Transaktionen pro Sekunde zu einem Bruchteil der Kosten des Mainnets verarbeiten. Base, Arbitrum und Optimism wickeln zusammen über 90 % des Layer-2-Transaktionsvolumens ab – doch Linea hat durch seine Integration mit MetaMask und Infura strategische Vorteile.

Jeder MetaMask-Nutzer ist ein potenzieller Linea-Nutzer. Jeder Infura-Kunde ist ein natürlicher Linea-Entwickler. Diese vertikale Integration verschafft Consensys Vertriebsvorteile, die unabhängigen L2-Netzwerken fehlen, auch wenn die Umsetzung in einem wettbewerbsintensiven Marktumfeld der entscheidende Faktor bleibt.

Grünes Licht von der Regulierung

Timing ist in der Finanzwelt entscheidend, und Consensys hat seinen Moment sorgfältig gewählt. Die Entscheidung der SEC, ihr Durchsetzungsverfahren gegen das Unternehmen Anfang 2025 einzustellen, beseitigte das größte einzelne Hindernis für einen Börsengang.

Die SEC hatte Consensys im Juni 2024 verklagt und behauptet, dass die Staking - Dienste von MetaMask – die seit Januar 2023 Liquid Staking über Lido und Rocket Pool anboten – nicht registrierte Wertpapierangebote darstellten. Der Fall zog sich über acht Monate hin, bevor die Behörde zustimmte, ihn nach Führungswechseln bei der SEC unter Kommissar Mark Uyeda einzustellen.

Dieser Vergleich tat mehr, als nur eine rechtliche Hürde zu nehmen. Er schuf einen regulatorischen Präzedenzfall dafür, dass Wallet - basierte Staking - Dienste, wenn sie ordnungsgemäß strukturiert sind, nicht automatisch gegen Wertpapiergesetze verstoßen. Für die Nutzerbasis von MetaMask und die IPO - Aussichten von Consensys war diese Klarheit die Rechtskosten wert.

Auch das allgemeinere regulatorische Umfeld hat sich gewandelt. Die Fortschritte des GENIUS Acts bei der Stablecoin - Regulierung, die wachsende Rolle der CFTC bei der Aufsicht über digitale Vermögenswerte und der maßvollere Ansatz der SEC unter neuer Führung haben ein Fenster für Krypto - Unternehmen geöffnet, um ohne ständiges regulatorisches Risiko in die öffentlichen Märkte einzutreten.

Warum TradFi ein Ethereum - Engagement sucht

Bitcoin - ETFs haben die meiste Aufmerksamkeit erregt und verwalten ein Vermögen von über 123 Milliarden US - Dollar, wobei allein IBIT von BlackRock über 70 Milliarden US - Dollar hält. Ethereum - ETFs sind gefolgt, wenn auch mit weniger Aufsehen. Beide Produkte stehen jedoch vor einer grundlegenden Einschränkung: Sie bieten ein Engagement in Token, nicht in die Unternehmen, die auf den Protokollen aufbauen.

Hier wird der Börsengang von Consensys strategisch wichtig. Traditionelle Anleger können nun am Wachstum des Ethereum - Ökosystems über Eigenkapital statt über den Besitz von Token teilhaben. Keine Kopfschmerzen bei der Verwahrung. Keine Verwaltung privater Schlüssel. Keine Erklärungsnot gegenüber der Compliance, warum man Kryptowährungen hält. Einfach nur Anteile an einem Unternehmen mit Umsatz, Mitarbeitern und erkennbaren Kennzahlen.

Für institutionelle Anleger, die internen Beschränkungen für den direkten Besitz von Kryptowährungen unterliegen, bietet die Aktie von Consensys einen Proxy für den Erfolg von Ethereum. Wenn Ethereum mehr Transaktionen verarbeitet, nutzen mehr Entwickler Infura. Wenn die Web3 - Adoption wächst, laden mehr Nutzer MetaMask herunter. Der Umsatz des Unternehmens sollte theoretisch mit der Netzwerkaktivität korrelieren, ohne die Volatilität der Token - Preise.

Dieses eigenkapitalbasierte Engagement ist besonders wichtig für Pensionsfonds, Versicherungsgesellschaften und andere institutionelle Akteure mit strengen Mandaten gegen Kryptowährungsbestände, aber mit Appetit auf Wachstum in der Infrastruktur für digitale Vermögenswerte.

Die Krypto - IPO - Welle von 2026

Consensys ist nicht allein mit dem Blick auf die öffentlichen Märkte. Circle, Kraken und der Hardware - Wallet - Hersteller Ledger haben alle IPO - Pläne signalisiert und damit das geschaffen, was einige Analysten als die „große Krypto - Institutionalisierung“ von 2026 bezeichnen.

Berichten zufolge strebt Ledger eine Bewertung von 4 Milliarden US - Dollar bei einer Notierung in New York an. Circle, der Herausgeber des Stablecoins USDC, hatte zuvor eine SPAC - Fusion beantragt, die scheiterte, bleibt aber entschlossen, an die Börse zu gehen. Kraken hat sich nach der Übernahme von NinjaTrader für 1,5 Milliarden US - Dollar als Full - Stack - Finanzplattform positioniert, die bereit für die öffentlichen Märkte ist.

Doch Consensys verfügt über einzigartige Vorteile. Der Bekanntheitsgrad der Verbrauchermarke MetaMask stellt den von auf Unternehmen fokussierten Wettbewerbern in den Schatten. Die Infrastruktur - Bindung von Infura schafft vorhersehbare Einnahmequellen. Und die Verbindung zu Ethereum – durch Lubins Status als Mitbegründer und das jahrzehntelante Engagement des Unternehmens beim Aufbau des Ökosystems – verleiht Consensys ein Narrativ, das über Krypto - Kreise hinaus Resonanz findet.

Das Timing spiegelt auch den Reifungszyklus von Krypto wider. Das vierjährige Halving - Muster von Bitcoin mag am Ende sein, wie Bernstein und Pantera Capital argumentieren, und wurde durch kontinuierliche institutionelle Zuflüsse und die Einführung von Stablecoins ersetzt. In diesem neuen Regime ziehen Infrastrukturunternehmen mit dauerhaften Geschäftsmodellen Kapital an, während spekulative Token - Projekte zu kämpfen haben.

Bewertungsfragen und die Realität der Einnahmen

Das große Thema bei der IPO - Roadshow werden Umsatz und Rentabilität sein. Consensys hat sich über seine Finanzen bedeckt gehalten, aber Branchenschätzungen deuten darauf hin, dass das Unternehmen jährlich hunderte Millionen an Einnahmen generiert, primär aus Infura - Unternehmensverträgen und MetaMask - Transaktionsgebühren.

MetaMask monetarisiert über Token - Swaps – das Unternehmen behält einen kleinen Prozentsatz jedes Swaps ein, der über den im Wallet integrierten Börsen - Aggregator ausgeführt wird. Mit Millionen von monatlich aktiven Nutzern und steigenden Transaktionsvolumina skaliert dieser passive Einkommensstrom automatisch.

Infura arbeitet nach einem Freemium - Modell: kostenlose Stufen für Entwickler, die gerade erst anfangen, kostenpflichtige Stufen für Produktionsanwendungen und maßgeschneiderte Unternehmensverträge für Großprojekte. Die Beständigkeit von Infrastruktur bedeutet hohe Bruttomargen, sobald Kunden integriert sind – der Wechsel des Infrastrukturanbieters mitten im Projekt ist kostspielig und riskant.

Dennoch bleiben Fragen offen. Wie schneidet die Bewertung von Consensys im Vergleich zu traditionellen SaaS - Unternehmen mit ähnlichen Umsatzmultiplikatoren ab? Was passiert, wenn Ethereum Marktanteile an Solana verliert, das mit seinen Leistungsvorteilen das Interesse von Institutionen geweckt hat? Kann MetaMask seine Dominanz behaupten, während der Wettbewerb durch Coinbase Wallet, Phantom und andere zunimmt?

Zweitmarkt - Bewertungen von über 10 Milliarden US - Dollar deuten darauf hin, dass Anleger ein erhebliches Wachstum einpreisen. Der Börsengang wird Consensys dazu zwingen, diese Zahlen mit harten Daten zu rechtfertigen, nicht nur mit krypto - nativem Enthusiasmus.

Was dies für die Blockchain-Infrastruktur bedeutet

Wenn der Börsengang (IPO) von Consensys gelingt, validiert dies ein Geschäftsmodell, dessen Beweis weite Teile der Krypto-Welt bisher schuldig geblieben sind: der Aufbau nachhaltiger, profitabler Infrastrukturunternehmen auf öffentlichen Blockchains. Viel zu lange existierten Krypto-Unternehmen in einer Grauzone – zu experimentell für traditionelle Risikokapitalgeber, zu zentralisiert für Krypto-Puristen.

Öffentliche Märkte verlangen Transparenz, vorhersehbare Einnahmen und Governance-Standards. Ein erfolgreicher Consensys-Börsengang würde demonstrieren, dass Blockchain-Infrastrukturunternehmen diese Standards erfüllen können, während sie gleichzeitig die Versprechen von Web3 einlösen.

Dies ist für das gesamte Ökosystem von Bedeutung. BlockEden.xyz und andere Infrastrukturanbieter konkurrieren in einem Markt, in dem Kunden oft standardmäßig auf kostenlose Tarife zurückgreifen oder hinterfragen, ob Blockchain-APIs Premium-Preise rechtfertigen. Ein börsennotiertes Consensys mit offengelegten Margen und Wachstumsraten würde Benchmarks für die Branche setzen.

Noch wichtiger ist, dass es Kapital und Talente anziehen würde. Entwickler und Führungskräfte, die eine Karriere im Blockchain-Bereich in Erwägung ziehen, werden die Aktienperformance von Consensys als Signal betrachten. Risikokapitalgeber, die Infrastruktur-Startups bewerten, werden die Bewertungsmultiplikatoren von Consensys als Vergleichswerte heranziehen. Die Validierung durch den öffentlichen Markt schafft Netzwerkeffekte in der gesamten Branche.

Der Weg bis Mitte 2026

Der Zeitplan für den Börsengang deutet auf eine Notierung Mitte 2026 hin, obwohl die genauen Daten noch variabel bleiben. Consensys wird seine Finanzen finalisieren, aufsichtsrechtliche Einreichungen abschließen, Roadshows durchführen und sich durch die Marktbedingungen navigieren müssen, die zum Zeitpunkt des Angebots herrschen.

Die aktuelle Marktdynamik ist gemischt. Bitcoin stürzte kürzlich von einem Allzeithoch von 126.000 $ auf 74.000 $ ab, infolge von Trumps Zollpolitik und Kevin Warshs Nominierung für die Fed, was Liquidationen von über 2,56 Milliarden $ auslöste. Ethereum hat Schwierigkeiten, sich gegenüber den Leistungsvorteilen von Solana und der institutionellen Neuausrichtung zu behaupten.

Infrastruktur-Investments verhalten sich jedoch oft anders als Token-Märkte. Investoren, die Consensys bewerten, werden nicht auf die Preisbewegung von ETH wetten – sie werden beurteilen, ob die Web3-Adoption anhält, unabhängig davon, welcher Layer 1 Marktanteile gewinnt. MetaMask unterstützt 11 Chains. Infura bedient zunehmend Multi-Chain-Entwickler. Das Unternehmen hat sich als kettenagnostische Infrastruktur positioniert.

Die Wahl von JPMorgan und Goldman Sachs als Haupt-Underwriter deutet darauf hin, dass Consensys eine starke institutionelle Nachfrage erwartet. Diese Banken würden keine Ressourcen für ein Angebot bereitstellen, von dem sie bezweifeln, dass es bedeutendes Kapital anziehen kann. Ihre Beteiligung bringt auch Vertriebsnetzwerke mit sich, die Pensionsfonds, Staatsfonds und Family Offices erreichen, die selten direkt mit Krypto in Berührung kommen.

Jenseits des Börsenkürzels

Wenn Consensys den Handel unter dem gewählten Kürzel aufnimmt, gehen die Auswirkungen über den Erfolg eines einzelnen Unternehmens hinaus. Dies ist ein Test dafür, ob die Blockchain-Infrastruktur den Übergang von Risikokapital-finanzierten Experimenten zu börsennotierter Beständigkeit schaffen kann.

Für Ethereum ist es die Bestätigung, dass das Ökosystem Milliarden-Dollar-Unternehmen jenseits von Token-Spekulationen hervorbringen kann. Für die Krypto-Branche im Allgemeinen ist es der Beweis, dass die Branche über Boom-Bust-Zyklen hinaus zu nachhaltigen Geschäftsmodellen reift. Und für Web3-Entwickler ist es ein Signal, dass der Aufbau von Infrastruktur – die unspektakuläre Arbeit im Hintergrund hinter glanzvollen dApps – generationenübergreifenden Wohlstand schaffen kann.

Der Börsengang wirft auch schwierige Fragen zur Dezentralisierung auf. Kann ein Unternehmen, das so viel vom Benutzerzugang und der Infrastruktur von Ethereum kontrolliert, wirklich mit dem dezentralen Ethos von Krypto in Einklang gebracht werden? Die Dominanz von MetaMask und die zentralisierten Knoten von Infura stellen Single Points of Failure in einem System dar, das darauf ausgelegt ist, diese zu eliminieren.

Diese Spannungen werden sich vor dem Börsengang nicht auflösen, aber sie werden sichtbarer werden, sobald Consensys den Aktionären Bericht erstattet und dem Druck der Quartalszahlen ausgesetzt ist. Aktiengesellschaften optimieren auf Wachstum und Profitabilität, was manchmal im Widerspruch zur Dezentralisierung auf Protokollebene steht.

Das Fazit: Infrastruktur wird investierbar

Der Börsengang von Consensys repräsentiert mehr als nur den Weg eines Unternehmens vom Krypto-Startup an die öffentlichen Märkte. Es ist der Moment, in dem sich die Blockchain-Infrastruktur von einer spekulativen Technologie in investierbare Vermögenswerte verwandelt, die das traditionelle Finanzwesen verstehen, bewerten und in Portfolios integrieren kann.

JPMorgan und Goldman Sachs führen keine Angebote an, bei denen sie ein Scheitern erwarten. Die Bewertung von über 10 Milliarden $ spiegelt den echten Glauben wider, dass die Nutzerbasis von MetaMask, die Infrastrukturdominanz von Infura und die fortschreitende Adoption von Ethereum dauerhaften Wert schaffen. Ob sich dieser Glaube als richtig erweist, wird von der Umsetzung, den Marktbedingungen und dem kontinuierlichen Wachstum von Web3 jenseits von Hype-Zyklen abhängen.

Für Entwickler, die auf Ethereum aufbauen, bietet der Börsengang eine Bestätigung. Für Investoren, die ein Engagement jenseits der Token-Volatilität suchen, bietet er ein Instrument. Und für die Blockchain-Branche im Allgemeinen markiert er einen weiteren Schritt in Richtung Legitimität in den Augen des traditionellen Finanzwesens.

Die Frage ist nicht, ob Consensys an die Börse gehen wird – das scheint entschieden. Die Frage ist, ob seine Performance am öffentlichen Markt die nächste Generation von Blockchain-Infrastrukturunternehmen ermutigen oder entmutigen wird, denselben Weg einzuschlagen.

Der Aufbau einer zuverlässigen Blockchain-Infrastruktur erfordert mehr als nur Code – er verlangt eine robuste, skalierbare Architektur, der Unternehmen vertrauen. BlockEden.xyz bietet Enterprise-Grade-Knoteninfrastruktur für Entwickler, die auf Ethereum, Sui, Aptos und anderen führenden Chains aufbauen, mit der Zuverlässigkeit und Leistung, die Produktionsanwendungen erfordern.

Quellen

Sicherheitskrise bei Cold Wallets: Wie die monatelangen Vorbereitungsangriffe der Lazarus-Gruppe die stärksten Krypto-Verteidigungen besiegen

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Ihre Cold Wallet ist nicht so sicher, wie Sie denken. Im Jahr 2025 machten Infrastrukturangriffe — die auf private Schlüssel, Wallet-Systeme und die Menschen, die sie verwalten, abzielen — 76 % aller gestohlenen Kryptowährungen aus, was sich in nur 45 Vorfällen auf insgesamt 2,2 Milliarden US-Dollar belief. Die Lazarus-Gruppe, die staatlich geförderte Hacker-Einheit Nordkoreas, hat ein Playbook perfektioniert, das die traditionelle Cold-Storage-Sicherheit fast bedeutungslos macht: monatelange Infiltrationskampagnen, die auf Menschen statt auf Code abzielen.