Direkt zum Hauptinhalt

25 Beiträge getaggt mit „blockchain infrastructure“

Blockchain-Infrastrukturdienste

Alle Tags anzeigen

Die Kluft in der Verwahrungsarchitektur: Warum die meisten Krypto-Verwahrer die US-Bankenstandards nicht erfüllen können

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Hier ist ein Paradoxon, das jedes Institut beunruhigen sollte, das in den Krypto-Bereich einsteigt: Einige der prominentesten Verwahrungsanbieter der Branche – darunter Fireblocks und Copper – können nach den US-Bankenvorschriften rechtlich nicht als qualifizierte Verwahrer fungieren, obwohl sie digitale Vermögenswerte in Milliardenhöhe schützen.

Der Grund? Eine fundamentale architektonische Entscheidung, die im Jahr 2018 innovativ erschien, stellt im Jahr 2026 eine unüberwindbare regulatorische Barriere dar.

Die Technologie, die die Branche spaltete

Der Markt für institutionelle Verwahrung spaltete sich vor Jahren in zwei Lager, von denen jedes auf einen anderen kryptografischen Ansatz zur Sicherung privater Schlüssel setzte.

Multi-Party Computation (MPC) teilt einen privaten Schlüssel in verschlüsselte „Shards“ auf, die über mehrere Parteien verteilt sind. Kein einzelner Shard enthält jemals den vollständigen Schlüssel. Wenn Transaktionen signiert werden müssen, koordinieren sich die Parteien über ein verteiltes Protokoll, um gültige Signaturen zu erzeugen, ohne jemals den vollständigen Schlüssel zu rekonstruieren. Der Reiz ist offensichtlich: Die Eliminierung des „Single Point of Failure“, indem sichergestellt wird, dass keine einzelne Entität jemals die vollständige Kontrolle hat.

Hardware-Sicherheitsmodule (HSMs) hingegen speichern vollständige private Schlüssel in physischen Geräten, die nach FIPS 140-2 Level 3 oder Level 4 zertifiziert sind. Diese sind nicht nur manipulationssicher (tamper-resistant) – sie sind manipulationsreaktiv (tamper-responsive). Wenn Sensoren Bohrungen, Spannungsmanipulationen oder Temperaturextreme erkennen, löscht das HSM sofort alle kryptografischen Materialien selbst, bevor ein Angreifer Schlüssel extrahieren kann. Der gesamte kryptografische Lebenszyklus – Erzeugung, Speicherung, Signierung, Vernichtung – findet innerhalb einer zertifizierten Grenze statt, die strengen Bundesstandards entspricht.

Jahrelang existierten beide Ansätze nebeneinander. MPC-Anbieter betonten die theoretische Unmöglichkeit einer Schlüsselkompromittierung durch Single-Point-Angriffe. HSM-Befürworter verwiesen auf Jahrzehnte bewährter Sicherheit in der Bankeninfrastruktur und eindeutige regulatorische Compliance. Der Markt behandelte sie als gleichermaßen praktikable Alternativen für die institutionelle Verwahrung.

Dann stellten die Aufsichtsbehörden klar, was „qualifizierter Verwahrer“ (Qualified Custodian) tatsächlich bedeutet.

FIPS 140-3: Der Standard, der alles veränderte

Die Federal Information Processing Standards existieren nicht, um Ingenieuren das Leben schwer zu machen. Sie existieren, weil die US-Regierung durch schmerzhafte, geheime Vorfälle gelernt hat, wie kryptografische Module unter gegnerischen Bedingungen versagen.

FIPS 140-3, das im März 2019 FIPS 140-2 ablöste, legt vier Sicherheitsstufen für kryptografische Module fest:

Level 1 erfordert Geräte in Produktionsqualität und extern getestete Algorithmen. Es ist die Basis – notwendig, aber unzureichend für den Schutz hochwertiger Vermögenswerte.

Level 2 fügt Anforderungen für physische Manipulationsnachweise (tamper-evidence) und rollenbasierte Authentifizierung hinzu. Angreifer könnten ein Level 2 Modul erfolgreich kompromittieren, aber sie hinterlassen erkennbare Spuren.

Level 3 verlangt physische Manipulationssicherheit (tamper-resistance) und identitätsbasierte Authentifizierung. Private Schlüssel können nur in verschlüsselter Form ein- oder austreten. Hier werden die Anforderungen teuer in der Implementierung und unmöglich vorzutäuschen. Level 3 Module müssen physische Einbruchsversuche erkennen und darauf reagieren – nicht nur für eine spätere Überprüfung protokollieren.

Level 4 erzwingt manipulationsaktiven Schutz: Das Modul muss Umweltangriffe (Spannungsschwankungen, Temperaturmanipulation, elektromagnetische Störungen) erkennen und sensible Daten sofort vernichten. Eine Multi-Faktor-Authentifizierung wird obligatorisch. Auf dieser Stufe kann die Sicherheitsgrenze staatlichen Angreifern mit physischem Zugriff auf das Gerät widerstehen.

Um den Status eines qualifizierten Verwahrers gemäß den US-Bankenvorschriften zu erhalten, muss eine HSM-Infrastruktur mindestens eine Zertifizierung nach FIPS 140-2 Level 3 nachweisen. Dies ist keine Empfehlung oder Best Practice. Es ist eine harte Anforderung, die vom Office of the Comptroller of the Currency (OCC), der Federal Reserve und den staatlichen Bankenaufsichtsbehörden durchgesetzt wird.

Softwarebasierte MPC-Systeme können definitionsgemäß keine Zertifizierung nach FIPS 140-2 oder 140-3 auf Level 3 oder höher erreichen. Die Zertifizierung gilt für physische kryptografische Module mit Hardware-Manipulationssicherheit – eine Kategorie, in die MPC-Architekturen grundsätzlich nicht passen.

Die Compliance-Lücke bei Fireblocks und Copper

Die Fireblocks Trust Company arbeitet unter einer Trust-Lizenz des Bundesstaates New York, die vom New York Department of Financial Services (NYDFS) reguliert wird. Die Infrastruktur des Unternehmens schützt über 10 Billionen $ an digitalen Vermögenswerten in 300 Millionen Wallets – eine wirklich beeindruckende Leistung, die operative Exzellenz und Marktvertrauen demonstriert.

Aber „qualifizierter Verwahrer“ nach Bundesbankenrecht ist ein spezifischer Fachbegriff mit präzisen Anforderungen. Nationalbanken, Bundessparverbände und staatliche Banken, die Mitglieder des Federal Reserve Systems sind, gelten präsumtiv als qualifizierte Verwahrer. Staatliche Trust-Unternehmen können den Status eines qualifizierten Verwahrers erreichen, wenn sie dieselben Anforderungen erfüllen – einschließlich einer HSM-gestützten Schlüsselverwaltung, die den FIPS-Standards entspricht.

Die Architektur von Fireblocks basiert im Backend auf MPC-Technologie. Das Sicherheitsmodell des Unternehmens teilt Schlüssel auf mehrere Parteien auf und verwendet fortschrittliche kryptografische Protokolle, um das Signieren ohne Rekonstruktion des Schlüssels zu ermöglichen. Für viele Anwendungsfälle – insbesondere den Hochgeschwindigkeitshandel, börsenübergreifende Arbitrage und DeFi-Protokoll-Interaktionen – bietet diese Architektur überzeugende Vorteile gegenüber HSM-basierten Systemen.

Aber sie erfüllt nicht den Standard des qualifizierten Verwahrers auf Bundesebene für die Verwahrung digitaler Vermögenswerte.

Copper steht vor derselben grundlegenden Einschränkung. Die Plattform zeichnet sich dadurch aus, dass sie Fintech-Unternehmen und Börsen eine schnelle Asset-Bewegung und Handelsinfrastruktur bietet. Die Technologie funktioniert. Die Abläufe sind professionell. Das Sicherheitsmodell ist für die beabsichtigten Anwendungsfälle vertretbar.

Keines der beiden Unternehmen verwendet HSMs im Backend. Beide verlassen sich auf MPC-Technologie. Unter aktuellen regulatorischen Auslegungen schließt diese architektonische Entscheidung sie davon aus, als qualifizierte Verwahrer für institutionelle Kunden zu fungieren, die der Bundesbankenaufsicht unterliegen.

Die SEC bestätigte in jüngsten Leitlinien, dass sie keine Durchsetzungsmaßnahmen gegen registrierte Berater oder regulierte Fonds empfehlen wird, die staatliche Trust-Unternehmen als qualifizierte Verwahrer für Krypto-Assets nutzen – aber nur, wenn das staatliche Trust-Unternehmen von seiner Aufsichtsbehörde zur Erbringung von Verwahrungsdienstleistungen ermächtigt ist und dieselben Anforderungen erfüllt, die für traditionelle qualifizierte Verwahrer gelten. Dazu gehört eine FIPS-zertifizierte HSM-Infrastruktur.

Hier geht es nicht darum, dass eine Technologie in absoluten Zahlen „besser“ ist als eine andere. Es geht um regulatorische Definitionen, die geschrieben wurden, als kryptografische Verwahrung HSMs in physisch gesicherten Einrichtungen bedeutete, und die bisher nicht aktualisiert wurden, um softwarebasierte Alternativen zu berücksichtigen.

Anchorage Digitals regulatorischer Burggraben durch die Bundescharter

Im Januar 2021 wurde die Anchorage Digital Bank das erste Krypto-native Unternehmen, das eine nationale Trust-Bank-Charter vom OCC erhielt. Fünf Jahre später ist sie nach wie vor die einzige bundesweit lizenzierte Bank, die sich primär auf die Verwahrung digitaler Vermögenswerte konzentriert.

Die OCC-Charter ist nicht nur ein regulatorischer Erfolg. Sie ist ein Wettbewerbsvorteil (Moat), der mit zunehmender institutioneller Akzeptanz immer wertvoller wird.

Kunden der Anchorage Digital Bank lassen ihre Vermögenswerte unter demselben bundesweiten Regulierungsrahmen verwahren, der auch für JPMorgan Chase und die Bank of New York Mellon gilt. Dies umfasst:

  • Eigenkapitalanforderungen, die sicherstellen sollen, dass die Bank Verluste auffangen kann, ohne die Kundenvermögen zu gefährden
  • Umfassende Compliance-Standards, die durch regelmäßige OCC-Prüfungen durchgesetzt werden
  • Sicherheitsprotokolle, die der bundesstaatlichen Bankenaufsicht unterliegen, einschließlich FIPS-zertifizierter HSM-Infrastruktur
  • SOC 1 und SOC 2 Typ II Zertifizierungen, die effektive interne Kontrollen bestätigen

Auch die betrieblichen Leistungskennzahlen sind von Bedeutung. Anchorage verarbeitet 90 % der Transaktionen in weniger als 20 Minuten — dies ist wettbewerbsfähig mit MPC-basierten Systemen, die theoretisch aufgrund der verteilten Signierung schneller sein sollten. Das Unternehmen hat eine Verwahrungsinfrastruktur aufgebaut, die von Institutionen wie BlackRock für den Betrieb von Spot-Krypto-ETFs ausgewählt wurde — ein Vertrauensbeweis des weltweit größten Vermögensverwalters bei der Einführung regulierter Produkte.

Für regulierte Einheiten — Pensionsfonds, Stiftungen, Versicherungsgesellschaften, registrierte Anlageberater — löst die Bundescharter ein Compliance-Problem, das keine noch so innovative Kryptografie lösen kann. Wenn Vorschriften den Status eines qualifizierten Verwahrers (Qualified Custodian) verlangen und dieser Status eine nach FIPS-Standards validierte HSM-Infrastruktur voraussetzt und nur eine Krypto-native Bank unter direkter OCC-Aufsicht operiert, wird die Entscheidung für die Verwahrung unkompliziert.

Die Chance hybrider Architekturen

Die Landschaft der Verwahrungstechnologie ist nicht statisch. Da Institutionen die regulatorischen Einschränkungen reiner MPC-Lösungen erkennen, entsteht eine neue Generation hybrider Architekturen.

Diese Systeme kombinieren FIPS 140-2 validierte HSMs mit MPC-Protokollen und biometrischen Kontrollen für einen mehrschichtigen Schutz. Das HSM bietet die Grundlage für die regulatorische Compliance und physische Manipulationssicherheit. MPC fügt verteilte Signaturfunktionen hinzu und eliminiert Single Points of Failure. Biometrie stellt sicher, dass Transaktionen selbst bei gültigen Anmeldedaten eine menschliche Verifizierung durch autorisiertes Personal erfordern.

Einige fortschrittliche Verwahrungsplattformen agieren heute „temperaturagnostisch“ — sie sind in der Lage, Vermögenswerte dynamisch zwischen Cold Storage (HSMs in physisch gesicherten Einrichtungen), Warm Storage (HSMs mit schnellerem Zugriff für betriebliche Anforderungen) und Hot Wallets (für den Hochfrequenzhandel, bei dem Millisekunden zählen und regulatorische Anforderungen weniger streng sind) aufzuteilen.

Diese architektonische Flexibilität ist wichtig, da verschiedene Asset-Klassen und Anwendungsfälle unterschiedliche Abwägungen zwischen Sicherheit und Zugänglichkeit erfordern:

  • Langfristige Treasury-Bestände: Maximale Sicherheit in Cold-Storage-HSMs in FIPS Level 4 Einrichtungen, mit mehrtägigen Auszahlungsprozessen und mehreren Genehmigungsschichten
  • ETF-Erstellung/-Rückgabe (Creation/Redemption): Warm-Storage-HSMs, die Transaktionen in institutioneller Größenordnung innerhalb von Stunden verarbeiten können und gleichzeitig die FIPS-Konformität wahren
  • Handelsoperationen: Hot Wallets mit MPC-Signierung für Ausführungen im Sub-Sekunden-Bereich, wobei der Verwahrungsanbieter unter anderen regulatorischen Rahmenbedingungen operiert als qualifizierte Verwahrer

Die entscheidende Erkenntnis ist, dass regulatorische Compliance nicht binär ist. Sie ist kontextabhängig und richtet sich nach der Art der Institution, den gehaltenen Vermögenswerten und dem jeweils geltenden Regulierungssystem.

NIST-Standards und die sich entwickelnde Landschaft im Jahr 2026

Über die FIPS-Zertifizierung hinaus hat sich das National Institute of Standards and Technology (NIST) im Jahr 2026 als Benchmark für Cybersicherheit bei der Verwahrung digitaler Vermögenswerte etabliert.

Finanzinstitute, die Verwahrungsdienstleistungen anbieten, müssen zunehmend betriebliche Anforderungen erfüllen, die am NIST Cybersecurity Framework 2.0 ausgerichtet sind. Dies beinhaltet:

  • Kontinuierliche Überwachung und Bedrohungserkennung in der gesamten Verwahrungsinfrastruktur
  • Incident-Response-Playbooks, die durch regelmäßige Tabletop-Übungen getestet werden
  • Sicherheit der Lieferkette für Hardware- und Softwarekomponenten in Verwahrungssystemen
  • Identitäts- und Zugriffsmanagement nach dem Prinzip der minimalen Rechtevergabe (Least Privilege)

Das Framework von Fireblocks orientiert sich am NIST CSF 2.0 und bietet ein Modell für Banken, die eine Custody-Governance operationalisieren. Die Herausforderung besteht darin, dass die NIST-Konformität zwar notwendig, aber für den Status eines qualifizierten Verwahrers nach Bundesbankenrecht nicht ausreichend ist. Sie ist eine Cybersicherheits-Basislinie, die für alle Verwahrungsanbieter gilt — aber nicht die zugrunde liegende FIPS-Zertifizierungsanforderung für HSM-Infrastrukturen löst.

Als sich die Regulierungen für die Krypto-Verwahrung im Jahr 2026 weiterentwickeln, sehen wir eine klarere Abgrenzung zwischen verschiedenen Regulierungsebenen:

  • OCC-charterte Banken: Volle bundesstaatliche Bankenaufsicht, Status als qualifizierter Verwahrer, HSM-Anforderungen
  • Staatlich lizenzierte Trust-Unternehmen: NYDFS- oder gleichwertige staatliche Regulierung, potenzieller Status als qualifizierter Verwahrer, sofern HSM-gestützt
  • Lizenzierte Verwahrungsanbieter: Erfüllen staatliche Lizenzanforderungen, beanspruchen aber nicht den Status eines qualifizierten Verwahrers
  • Technologieplattformen: Stellen die Verwahrungsinfrastruktur bereit, ohne die Kundenvermögen direkt im eigenen Namen zu halten

Die regulatorische Entwicklung macht die Verwahrung nicht einfacher. Sie schafft spezialisiertere Kategorien, die die Sicherheitsanforderungen an die Risikoprofile der Institutionen anpassen.

Was dies für die institutionelle Adoption bedeutet

Die Spaltung der Verwahrungsarchitektur hat direkte Auswirkungen auf Institutionen, die im Jahr 2026 in digitale Assets investieren:

Für registrierte Anlageberater (RIAs) verlangt die Custody Rule der SEC, dass Kundenvermögen von qualifizierten Verwahrern gehalten werden. Wenn Ihre Fondsstruktur den Status eines qualifizierten Verwahrers erfordert, können MPC-basierte Anbieter — unabhängig von ihren Sicherheitseigenschaften oder ihrer operativen Erfolgsbilanz — diese regulatorische Anforderung nicht erfüllen.

Für öffentliche Pensionsfonds und Stiftungen erfordern treuhänderische Standards oft eine Verwahrung bei Institutionen, die dieselben Sicherheits- und Aufsichtsstandards erfüllen wie traditionelle Asset-Verwahrer. Staatliche Banklizenzen oder bundesweite OCC-Lizenzen werden zur Voraussetzung, was das Feld der tragfähigen Anbieter drastisch einschränkt.

Für Unternehmensschatzämter, die Bitcoin oder Stablecoins akkumulieren, gilt die Anforderung an qualifizierte Verwahrer möglicherweise nicht — wohl aber der Versicherungsschutz. Viele Versicherungspolicen für die Verwahrung auf institutionellem Niveau setzen heute eine FIPS-zertifizierte HSM-Infrastruktur als Bedingung für den Versicherungsschutz voraus. Der Versicherungsmarkt setzt hardwarebasierte Sicherheitsmodulanforderungen effektiv durch, selbst dort, wo Regulatoren sie nicht vorgeschrieben haben.

Für Krypto-native Unternehmen — Börsen, DeFi-Protokolle, Trading-Desks — sieht die Kalkulation anders aus. Geschwindigkeit ist wichtiger als die regulatorische Klassifizierung. Die Fähigkeit, Assets über Chains hinweg zu bewegen und in Smart Contracts zu integrieren, zählt mehr als eine FIPS-Zertifizierung. MPC-basierte Verwahrungsplattformen glänzen in diesen Umgebungen.

Der Fehler besteht darin, Verwahrung als Einheitslösung zu betrachten. Die richtige Architektur hängt ganz davon ab, wer Sie sind, was Sie halten und welcher regulatorische Rahmen gilt.

Der Weg in die Zukunft

Bis 2030 wird sich der Verwahrungsmarkt voraussichtlich in verschiedene Kategorien aufgeteilt haben:

Qualifizierte Verwahrer, die unter bundesweiten OCC-Lizenzen oder gleichwertigen staatlichen Treuhandlizenzen arbeiten, HSM-Infrastruktur nutzen und Institutionen bedienen, die strengen treuhänderischen Standards und Verwahrungsvorschriften unterliegen.

Technologieplattformen, die MPC und andere fortschrittliche kryptografische Techniken nutzen und Anwendungsfälle bedienen, bei denen Geschwindigkeit und Flexibilität wichtiger sind als der Status eines qualifizierten Verwahrers, und die unter Geldtransfer- oder anderen Lizenzrahmen operieren.

Hybrid-Anbieter, die sowohl HSM-gestützte qualifizierte Verwahrung für regulierte Produkte als auch MPC-basierte Lösungen für betriebliche Anforderungen anbieten, sodass Institutionen ihre Assets je nach spezifischen Anforderungen auf verschiedene Sicherheitsmodelle verteilen können.

Die Frage für Institutionen, die im Jahr 2026 in den Krypto-Sektor einsteigen, lautet nicht: „Welcher Verwahrungsanbieter ist der beste?“, sondern: „Welche Verwahrungsarchitektur entspricht unseren regulatorischen Verpflichtungen, unserer Risikotoleranz und unseren betrieblichen Anforderungen?“

Für viele Institutionen weist die Antwort in Richtung staatlich regulierter Verwahrer mit FIPS-zertifizierter HSM-Infrastruktur. Für andere überwiegen die Flexibilität und Geschwindigkeit von MPC-basierten Plattformen gegenüber der Klassifizierung als qualifizierter Verwahrer.

Die Reifung der Branche bedeutet, diese Kompromisse anzuerkennen, anstatt so zu tun, als ob sie nicht existieren würden.

Da sich die Blockchain-Infrastruktur ständig in Richtung institutioneller Standards weiterentwickelt, wird ein zuverlässiger API-Zugang zu verschiedenen Netzwerken für Entwickler unerlässlich. BlockEden.xyz bietet RPC-Endpunkte auf Enterprise-Niveau für alle wichtigen Chains, sodass sich Entwickler auf Anwendungen anstatt auf den Betrieb von Nodes konzentrieren können.

Quellen

Filecoins Onchain-Cloud-Transformation: Vom Cold Storage zur programmierbaren Infrastruktur

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Während AWS $ 23 pro Terabyte monatlich für Standardspeicher berechnet, kostet Filecoin $ 0,19 für die gleiche Kapazität. Doch der Preis allein gewinnt niemals Kriege um die Infrastruktur. Die eigentliche Frage ist, ob dezentralisierter Speicher mit zentralisierten Cloud-Anbietern in den Kennzahlen mithalten kann, auf die es wirklich ankommt: Geschwindigkeit, Zuverlässigkeit und Entwicklererfahrung. Am 18. November 2025 gab Filecoin mit dem Start der Onchain Cloud eine klare Antwort – eine grundlegende Transformation, die 2,1 Exbibytes an Archivspeicher in eine programmierbare, verifizierbare Infrastruktur verwandelt, die für KI-Workloads und Echtzeitanwendungen konzipiert ist.

Dies ist keine schrittweise Verbesserung. Es ist Filecoins Schwenk vom „Blockchain-Speichernetzwerk“ zur „dezentralisierten Cloud-Plattform“, komplett mit automatisierten Zahlungen, kryptografischer Verifizierung und Leistungsgarantien. Nach monatelangen Tests mit über 100 Entwicklerteams startete das Mainnet im Januar 2026 und positionierte Filecoin so, dass es einen bedeutenden Anteil am 12-Milliarden-Dollar-Markt für KI-Infrastruktur erobern kann.

Die Onchain Cloud Architektur: Drei Säulen des programmierbaren Speichers

Filecoin Onchain Cloud führt drei Kerndienste ein, die es Entwicklern gemeinsam ermöglichen, auf einer verifizierbaren, dezentralisierten Infrastruktur aufzubauen, ohne die Komplexität, die traditionell mit Blockchain-Speicher verbunden ist.

Filecoin Warm Storage Service hält Daten online und durch kontinuierliche Onchain-Beweise nachweislich verfügbar. Im Gegensatz zum Cold Archival Storage, der Abrufverzögerungen erfordert, hält Warm Storage die Daten in einem zugänglichen Zustand, während er weiterhin die kryptografische Verifizierung von Filecoin nutzt. Dies adressiert die Haupteinschränkung, die Filecoin bisher auf Backup- und Archivierungsszenarien beschränkte – die Daten waren nicht schnell genug für aktive Workloads.

Filecoin Pay automatisiert nutzungsbasierte Zahlungen durch Smart Contracts und gleicht Transaktionen erst ab, wenn die Bereitstellung Onchain bestätigt wurde. Dies ist eine grundlegende Infrastruktur für Pay-as-you-go-Cloud-Dienste: Zahlungen fließen automatisch, sobald Dienste nachgewiesen sind, wodurch manuelle Rechnungsstellung, Kreditsysteme und Vertrauensannahmen entfallen. Tausende von Zahlungskanälen haben bereits Transaktionen während der Testnet-Phase verarbeitet.

Filecoin Beam ermöglicht gemessene, incentivierte Datenabrufe mit leistungsbasierten Anreizen. Speicheranbieter konkurrieren nicht nur um die Speicherkapazität, sondern auch um die Abrufgeschwindigkeit und Zuverlässigkeit. Dies schafft einen Abrufmarkt, auf dem Anbieter für ihre Leistung belohnt werden, was direkt die historische Schwäche des dezentralisierten Speichers anspricht: unvorhersehbare Abrufzeiten.

Entwickler greifen über das Synapse SDK auf diese Dienste zu, das die Komplexität der direkten Interaktion mit dem Filecoin-Protokoll abstrahiert. Frühe Integrationen kommen von der ERC-8004-Community, dem Ethereum Name Service (ENS), KYVE, Monad, Safe, Akave und Storacha – Projekten, die verifizierbaren Speicher für alles benötigen, vom Blockchain-Zustand bis hin zur dezentralisierten Identität.

Kryptografische Beweise: Das technische Fundament von verifizierbarem Speicher

Was Filecoin von zentralisierten Cloud-Anbietern unterscheidet, ist nicht nur die Dezentralisierung – es ist der kryptografische Beweis, dass Speicherverpflichtungen eingehalten werden. Dies ist wichtig für KI-Trainingsdatensätze, die Herkunftsgarantien benötigen, für stark regulierte Branchen, die Audit-Trails erfordern, und für jede Anwendung, bei der Datenintegrität nicht verhandelbar ist.

Proof-of-Replication (PoRep) erzeugt durch einen rechenintensiven Sealing-Prozess eine eindeutige Kopie der Originaldaten eines Sektors. Dies beweist, dass ein Speicheranbieter eine physisch eindeutige Kopie der Daten des Clients speichert und nicht nur vorgibt, sie zu speichern oder eine einzige Kopie für mehrere Clients verwendet. Der versiegelte Sektor wird einer langsamen Kodierung unterzogen, was es für unehrliche Anbieter unmöglich macht, Daten bei Bedarf zu regenerieren, um Speicher vorzutäuschen.

Der Sealing-Prozess erzeugt einen Multi-SNARK-Beweis und eine Reihe von Verpflichtungen (CommR), die den versiegelten Sektor mit den ursprünglichen unversiegelten Daten verknüpfen. Diese Verpflichtungen sind auf der Blockchain öffentlich verifizierbar und erstellen eine unveränderliche Aufzeichnung von Speicher-Deals.

Proof-of-Spacetime (PoSt) beweist die kontinuierliche Speicherung über die Zeit durch regelmäßige kryptografische Challenges. Speicheranbieter haben eine 30-minütige Frist, um auf WindowPoSt-Herausforderungen zu reagieren, indem sie zk-SNARK-Beweise einreichen, die verifizieren, dass sie immer noch genau die Bytes besitzen, zu deren Speicherung sie sich verpflichtet haben. Dies geschieht kontinuierlich – nicht nur bei der Einleitung eines Speicher-Deals, sondern während seiner gesamten Dauer.

Der Verifizierungsprozess wählt zufällig Blattknoten aus dem kodierten Replikat aus und führt Merkle-Inklusionsbeweise durch, um zu zeigen, dass der Anbieter die spezifischen Bytes hat, die dort sein sollten. Die Anbieter verwenden dann den privat gespeicherten CommRLast, um zu beweisen, dass sie eine Wurzel für das Replikat kennen, die sowohl mit den Inklusionsbeweisen übereinstimmt als auch das öffentlich bekannte CommR ableiten kann. Die letzte Stufe komprimiert diese Beweise in einen einzigen zk-SNARK für eine effiziente Onchain-Verifizierung.

Das Versäumnis, WindowPoSt-Beweise innerhalb des 30-Minuten-Fensters einzureichen, löst Slashing aus: Der Speicheranbieter verliert einen Teil seiner Sicherheiten (die an die Adresse f099 verbrannt werden), und seine Speicherkraft wird reduziert. Dies schafft wirtschaftliche Konsequenzen für Speicherausfälle und richtet die Anreize der Anbieter auf die Netzwerkzuverlässigkeit aus.

Dieses zweistufige Beweissystem – PoRep für die Erstverifizierung, PoSt für die kontinuierliche Validierung – schafft verifizierbaren Speicher, den zentralisierte Clouds schlichtweg nicht bieten können. Wenn AWS sagt, dass sie Ihre Daten speichern, vertrauen Sie auf deren Infrastruktur und rechtliche Vereinbarungen. Wenn Filecoin es sagt, haben Sie einen kryptografischen Beweis, der alle 30 Minuten aktualisiert wird.

KI-Infrastrukturmarkt: Wo dezentraler Speicher auf echten Bedarf trifft

Der Zeitpunkt des Launches der Filecoin Onchain Cloud fällt mit einer grundlegenden Verschiebung der KI-Infrastrukturanforderungen zusammen. Da sich künstliche Intelligenz von einer Forschungsneugier zu einer Produktionsinfrastruktur entwickelt, die ganze Branchen umgestaltet, wird der Speicherbedarf deutlich und massiv.

KI-Modelle benötigen massive Datensätze für das Training. Moderne große Sprachmodelle (LLMs) trainieren auf Hunderten von Milliarden Token. Computer-Vision-Modelle benötigen Millionen von beschrifteten Bildern. Empfehlungssysteme nehmen Verhaltensdaten von Nutzern in großem Umfang auf. Diese Datensätze passen nicht in den lokalen Speicher – sie benötigen Cloud-Infrastruktur. Sie benötigen aber auch Provenienzgarantien: Manipulierte Trainingsdaten erzeugen manipulierte Modelle, und es gibt keinen kryptografischen Weg, die Datenintegrität auf AWS zu verifizieren.

Kontinuierlicher Datenzugriff für Inferenz. Einmal trainiert, benötigen KI-Modelle ständigen Zugriff auf Referenzdaten, um Vorhersagen zu treffen. Retrieval-Augmented Generation (RAG)-Systeme fragen Wissensdatenbanken ab, um die Ausgaben von Sprachmodellen zu fundieren. Echtzeit-Empfehlungs-Engines rufen Nutzerprofile und Artikelkataloge ab. Dies sind keine einmaligen Abrufe – es handelt sich um kontinuierliche, hochfrequente Zugriffsmuster, die schnellen und zuverlässigen Speicher erfordern.

Verifizierbare Datenprovenienz zur Verhinderung von Modell-Poisoning. Wenn ein Finanzinstitut ein Modell zur Betrugserkennung trainiert, muss es wissen, dass die Trainingsdaten nicht manipuliert wurden. Wenn eine Gesundheits-KI Patientenakten analysiert, ist die Herkunft (Provenienz) für Compliance und Haftung von Bedeutung. Die PoRep- und PoSt-Proofs von Filecoin erstellen einen Audit-Trail, den zentralisierter Speicher nicht replizieren kann, ohne vertrauenswürdige Zwischenhändler einzuführen.

Dezentraler Speicher zur Vermeidung von Konzentrationsrisiken. Die Abhängigkeit von einem einzigen Cloud-Anbieter schafft systemische Risiken. AWS-Ausfälle haben bereits erhebliche Teile des Internets lahmgelegt. Störungen bei Google Cloud beeinträchtigen Millionen von Diensten. Für eine KI-Infrastruktur, die kritische Systeme stützt, ist die geografische und organisatorische Verteilung keine philosophische Präferenz, sondern eine Anforderung an das Risikomanagement.

Das Filecoin-Netzwerk hält 2,1 Exbibyte an zugesichertem Speicher mit einer zusätzlichen Rohkapazität von 7,6 EiB. Die Netzwerkauslastung ist auf 36 % gestiegen (gegenüber 32 % im zweiten Quartal 2025), wobei die aktiven gespeicherten Daten bei nahezu 1.110 Petabyte liegen. Im Jahr 2025 wurden rund 2.500 Datensätze aufgenommen, was auf eine stetige Akzeptanz in Unternehmen hindeutet.

Das wirtschaftliche Argument ist überzeugend: Filecoin kostet im Durchschnitt 0,19 proTerabytemonatlich,verglichenmitetwa23pro Terabyte monatlich, verglichen mit etwa 23 bei AWS für die gleiche Kapazität – eine Kostensenkung von 99 %. Aber das eigentliche Wertversprechen ist nicht nur billigerer Speicher. Es ist verifizierbarer Speicher in großem Maßstab mit programmierbarer Infrastruktur, der über entwicklerfreundliche Tools bereitgestellt wird.

Wettbewerb gegen die zentrale Cloud: Wo Filecoin im Jahr 2026 steht

Die Frage ist nicht, ob dezentraler Speicher Vorteile hat – verifizierbare Proofs, Zensurresistenz und Kosteneffizienz liegen auf der Hand. Die Frage ist, ob diese Vorteile schwer genug wiegen, um die verbleibenden Nachteile zu überwinden: vor allem, dass das Speichern und Abrufen bei Filecoin immer noch langsamer und komplexer ist als bei zentralisierten Alternativen.

Performance-Lücke schließt sich, ist aber noch nicht geschlossen. AWS S3 liefert Latenzen im einstelligen Millisekundenbereich für Lesevorgänge. Filecoin Warm Storage und Beam-Abrufe können da – noch – nicht mithalten. Viele Workloads benötigen jedoch keine Millisekunden-Latenz. KI-Trainingsläufe greifen auf große Datensätze in sequenziellen Batch-Lesevorgängen zu. Archivspeicher für Compliance priorisiert die Geschwindigkeit nicht. Content Delivery Networks (CDNs) cachen häufig genutzte Daten unabhängig von der Geschwindigkeit des Ursprungsspeichers.

Das Onchain-Cloud-Upgrade führt eine Finalität von unter einer Minute für Speicherzusagen ein, eine erhebliche Verbesserung gegenüber den früheren mehrstündigen Sealing-Zeiten. Dies konkurriert zwar nicht mit AWS bei latenzkritischen Anwendungen, eröffnet aber neue Anwendungsfälle, die zuvor auf Filecoin unpraktisch waren.

Verbesserung der Developer Experience durch Abstraktion. Die direkte Interaktion mit dem Filecoin-Protokoll erfordert ein Verständnis von Sektoren, Sealing, WindowPoSt-Challenges und Zahlungskanälen – Konzepte, die Entwicklern fremd sind, die an die einfache API von AWS gewöhnt sind: Bucket erstellen, Objekt hochladen, Berechtigungen setzen. Das Synapse SDK abstrahiert diese Komplexität und bietet vertraute Schnittstellen, während es die kryptografische Verifizierung der Proofs im Hintergrund übernimmt.

Die frühe Akzeptanz durch ENS, KYVE, Monad und Safe deutet darauf hin, dass die Developer Experience eine Usability-Schwelle überschritten hat. Dies sind keine Blockchain-nativen Speicherprojekte, die aus ideologischen Gründen mit Filecoin experimentieren – es sind Infrastrukturprojekte mit echtem Speicherbedarf, die verifizierbaren dezentralen Speicher gegenüber zentralisierten Alternativen bevorzugen.

Zuverlässigkeit durch ökonomische Anreize versus vertragliche SLAs. AWS bietet für S3 Standard eine Haltbarkeit von 99,999999999 % (11 Neunen) durch Multi-Region-Replikation und vertragliche Service-Level-Agreements (SLAs). Filecoin erreicht Zuverlässigkeit durch ökonomische Anreize: Speicheranbieter, die WindowPoSt-Challenges nicht bestehen, verlieren Sicherheiten (Collateral) und Speicherkraft. Dies schafft unterschiedliche Risikoprofile – das eine abgesichert durch Unternehmensgarantien, das andere durch kryptografische Proofs und finanzielle Strafen.

Für Anwendungen, die sowohl kryptografische Verifizierung als auch hohe Verfügbarkeit benötigen, umfasst die optimale Architektur wahrscheinlich Filecoin als verifizierbaren Referenzspeicher plus CDN-Caching für schnellen Abruf. Dieser hybride Ansatz nutzt die Stärken von Filecoin (Verifizierbarkeit, Kosten, Dezentralisierung) und mildert gleichzeitig dessen Schwächen (Abrufgeschwindigkeit) durch Edge-Caching.

Marktpositionierung: Kein Ersatz für AWS, sondern Erfüllung anderer Anforderungen. Filecoin wird AWS beim Allzweck-Cloud-Computing nicht ersetzen. Das muss es auch nicht. Der adressierbare Markt sind Anwendungen, bei denen verifizierbarer Speicher, Zensurresistenz oder Dezentralisierung einen Wert bieten, der über Kosteneinsparungen hinausgeht: KI-Trainingsdatensätze mit Provenienzanforderungen, Blockchain-Status, der permanente Verfügbarkeit benötigt, wissenschaftliche Forschungsdaten, die langfristige Integritätsgarantien erfordern, und regulatorisch stark geprägte Branchen, die kryptografische Audit-Trails benötigen.

Der 12-Milliarden-Dollar-Markt für KI-Infrastruktur stellt eine Teilmenge der gesamten Cloud-Ausgaben dar, in der das Wertversprechen von Filecoin am stärksten ist. Selbst die Eroberung von 5 % dieses Marktes würde eine jährliche Speichernachfrage von 600 Millionen Dollar bedeuten – ein bedeutendes Wachstum gegenüber dem aktuellen Nutzungsniveau.

Von 2,1 EiB zur Zukunft der verifizierbaren Infrastruktur

Die gesamte zugesagte Speicherkapazität von Filecoin ist im Laufe des Jahres 2025 tatsächlich zurückgegangen – von 3,8 Exbibyte im ersten Quartal auf 3,3 EiB im zweiten Quartal und 3,0 EiB im dritten Quartal –, da ineffiziente Storage Provider nach dem Netzwerk v27 "Golden Week"-Upgrade ausschieden. Dieser Kapazitätsrückgang bei gleichzeitig steigender Auslastung (von 30 % auf 36 %) deutet auf einen reifenden Markt hin: geringere Gesamtkapazität, aber ein höherer Prozentsatz an bezahltem Speicher.

Das Netzwerk erwartet bis Ende 2025 über 1 Exbibyte an bezahlten Storage-Deals, was einen Übergang von spekulativer Kapazitätsbereitstellung zur tatsächlichen Kundennachfrage darstellt. Das ist wichtiger als reine Kapazitätszahlen – die Auslastung signalisiert echten Mehrwert und nicht nur Miner, die Speicher bereitstellen in der Hoffnung auf künftige Nachfrage.

Die Transformation zur Onchain Cloud positioniert Filecoin für einen anderen Wachstumspfad: nicht die Maximierung der Gesamtspeicherkapazität, sondern die Maximierung der Speicherauslastung durch Dienste, die Entwickler tatsächlich benötigen. Warm Storage, verifizierbares Retrieval und automatisierte Zahlungen adressieren die Barrieren, die Filecoin bisher auf Nischenanwendungen für die Archivierung beschränkt haben.

Die frühe Mainnet-Adoption wird der entscheidende Test sein. Entwicklerteams haben im Testnet getestet, aber Produktions-Deployments mit echten Daten und echten Zahlungen werden zeigen, ob Performance, Zuverlässigkeit und Developer Experience den für Infrastrukturentscheidungen erforderlichen Standards entsprechen. Die Projekte, die bereits experimentieren – ENS für dezentrale Identitätsspeicherung, KYVE für Blockchain-Datenarchive, Safe für Multi-Signature-Wallet-Infrastruktur – lassen auf vorsichtigen Optimismus schließen.

Die Marktchance für KI-Infrastruktur ist real, aber nicht garantiert. Filecoin steht im Wettbewerb mit zentralisierten Cloud-Anbietern, die massive Vorsprünge bei Performance und Entwickler-Ökosystemen haben, sowie dezentralen Speicher-Wettbewerbern wie Arweave (permanenter Speicher) und Storj (performanceorientierte S3-Alternative). Ein Sieg erfordert Umsetzung: Zuverlässigkeit, die Produktionsstandards erfüllt, wettbewerbsfähige Preise bei der Skalierung des Netzwerks sowie die kontinuierliche Verbesserung von Entwickler-Tools und Dokumentationen.

Die Transformation von Filecoin von "Blockchain-Speicher" zu einer "programmierbaren Onchain Cloud" stellt eine notwendige Evolution dar. Die Frage im Jahr 2026 ist nicht, ob dezentraler Speicher theoretische Vorteile hat – die hat er zweifellos. Die Frage ist, ob sich diese Vorteile in Entwickler-Adoption und Kundennachfrage in großem Maßstab übersetzen lassen. Die kryptographischen Beweise sind vorhanden. Die wirtschaftlichen Anreize sind abgestimmt. Jetzt kommt der schwierige Teil: der Aufbau einer Cloud-Plattform, der Entwickler ihre Produktions-Workloads anvertrauen.

BlockEden.xyz bietet Enterprise-Grade-Infrastruktur für Blockchain-Entwickler, die auf verifizierbaren Grundlagen aufbauen. Entdecken Sie unseren API-Marktplatz, um auf die Infrastruktur zuzugreifen, die Sie für langlebige Anwendungen benötigen.

Quellen

Das Datenverfügbarkeits-Rennen 2026: Celestias, EigenDAs und Avails Kampf um die Skalierbarkeit der Blockchain

· 15 Min. Lesezeit
Dora Noda
Software Engineer

Jedes Layer 2, das Sie verwenden, verlässt sich auf eine verborgene Infrastruktur, über die die meisten Benutzer nie nachdenken: Datenverfügbarkeitsschichten (Data Availability Layers). Im Jahr 2026 ist dieses stille Schlachtfeld jedoch zum kritischsten Teil der Blockchain-Skalierbarkeit geworden, wobei drei Giganten — Celestia, EigenDA und Avail — darum wetteifern, Terabits an Rollup-Daten pro Sekunde zu verarbeiten. Der Gewinner erobert nicht nur Marktanteile; er definiert, welche Rollups überleben, wie hoch die Transaktionskosten sind und ob die Blockchain auf Milliarden von Benutzern skaliert werden kann.

Der Einsatz könnte nicht höher sein. Celestia beherrscht rund 50 % des Marktes für Datenverfügbarkeit, nachdem mehr als 160 Gigabyte an Rollup-Daten verarbeitet wurden. Das bevorstehende Matcha-Upgrade im 1. Quartal 2026 wird die Blockgrößen auf 128 MB verdoppeln, während das experimentelle Fibre Blockspace-Protokoll einen beeindruckenden Durchsatz von 1 Terabit pro Sekunde verspricht — das 1.500-fache ihres vorherigen Roadmap-Ziels. In der Zwischenzeit hat EigenDA einen Durchsatz von 100 MB / s unter Verwendung eines Data Availability Committee-Modells erreicht, und Avail hat sich Integrationen mit Arbitrum, Optimism, Polygon, StarkWare und zkSync für seinen Mainnet-Start gesichert.

Dies ist nicht nur ein Infrastrukturwettbewerb — es ist ein Kampf um die grundlegende Ökonomie von Layer 2-Netzwerken. Die Wahl der falschen Datenverfügbarkeitsschicht kann die Kosten um das 55-fache erhöhen und macht den Unterschied zwischen einem florierenden Rollup-Ökosystem und einem, das durch Datengebühren erstickt wird.

Der Flaschenhals der Datenverfügbarkeit: Warum diese Schicht wichtig ist

Um zu verstehen, warum die Datenverfügbarkeit zum wichtigsten Schlachtfeld der Blockchain geworden ist, müssen Sie begreifen, was Rollups eigentlich tun. Layer 2-Rollups wie Arbitrum, Optimism und Base führen Transaktionen off-chain aus, um höhere Geschwindigkeiten und geringere Kosten zu erzielen, und posten dann die Transaktionsdaten an einem sicheren Ort, damit jeder den Zustand der Chain verifizieren kann. Dieser „sichere Ort“ ist die Datenverfügbarkeitsschicht.

Jahrelang diente das Ethereum-Mainnet als Standard-DA-Schicht. Doch als die Nutzung von Rollups explodierte, schuf der begrenzte Blockplatz von Ethereum einen Flaschenhals. Die Gebühren für die Datenverfügbarkeit schossen in Zeiten hoher Nachfrage in die Höhe und zehrten die Kosteneinsparungen auf, die Rollups überhaupt erst attraktiv machten. Die Lösung? Modulare Datenverfügbarkeitsschichten, die speziell darauf ausgelegt sind, massiven Durchsatz bei minimalen Kosten zu bewältigen.

Data Availability Sampling (DAS) ist die bahnbrechende Technologie, die diesen Wandel ermöglicht. Anstatt von jedem Node zu verlangen, ganze Blöcke herunterzuladen, um die Verfügbarkeit zu prüfen, ermöglicht DAS es Light Nodes, probabilistisch zu bestätigen, dass Daten verfügbar sind, indem sie kleine zufällige Segmente abfragen. Je mehr Light Nodes sampeln, desto sicherer kann das Netzwerk die Blockgrößen erhöhen, ohne die Sicherheit zu opfern.

Celestia leistete Pionierarbeit mit diesem Ansatz als erstes modulares Datenverfügbarkeitsnetzwerk, das die Sortierung und Verfügbarkeit von Daten von der Ausführung (Execution) und Abrechnung (Settlement) trennt. Die Architektur ist elegant: Celestia ordnet Transaktionsdaten in „Blobs“ und garantiert deren Verfügbarkeit für einen konfigurierbaren Zeitraum, während Ausführung und Abrechnung auf darüber liegenden Schichten stattfinden. Diese Trennung ermöglicht es jeder Schicht, für ihre spezifische Funktion zu optimieren, anstatt an allen Fronten Kompromisse einzugehen wie monolithische Blockchains.

Bis Mitte 2025 nutzten mehr als 56 Rollups Celestia, darunter 37 im Mainnet und 19 im Testnet. Allein Eclipse hat über 83 Gigabyte über das Netzwerk gepostet. Jedes größere Rollup-Framework — Arbitrum Orbit, OP Stack, Polygon CDK — unterstützt nun Celestia als Option für die Datenverfügbarkeit, was Wechselkosten und Netzwerkeffekte schafft, die den First-Mover-Vorteil von Celestia verstärken.

Celestias Zwei-Säulen-Angriff: Matcha-Upgrade und Fibre Blockspace

Celestia ruht sich nicht auf seinem Marktanteil aus. Das Projekt verfolgt eine zweigleisige Strategie, um seine Dominanz zu festigen: das kurzfristige Matcha-Upgrade, das produktionsreife Skalierbarkeitsverbesserungen bringt, und das experimentelle Fibre Blockspace-Protokoll, das auf einen zukünftigen Durchsatz von 1 Terabit pro Sekunde abzielt.

Matcha-Upgrade: Verdoppelung der Produktionskapazität

Das Matcha-Upgrade (Celestia v6) ist derzeit im Arabica-Testnet live, wobei die Bereitstellung im Mainnet für das 1. Quartal 2026 erwartet wird. Es stellt die größte einzelne Kapazitätserhöhung in der Geschichte von Celestia dar.

Zu den wichtigsten Verbesserungen gehören:

  • 128 MB Blockgröße: CIP-38 führt einen neuen Mechanismus zur Blockfortpflanzung mit hohem Durchsatz ein, der die maximale Blockgröße von 8 MB auf 128 MB erhöht — ein 16-facher Sprung. Die Datengröße des Squares erweitert sich von 128 auf 512, und die maximale Transaktionsgröße wächst von 2 MB auf 8 MB.

  • Reduzierte Speicheranforderungen: CIP-34 verkürzt das minimale Zeitfenster für das Pruning von Celestia-Daten von 30 Tagen auf 7 Tage plus 1 Stunde. Dies senkt die Speicherkosten für Bridge-Nodes bei prognostiziertem Durchsatz von 30 TB auf 7 TB. Für Rollups, die Anwendungen mit hohem Volumen betreiben, führt diese Speicherreduzierung direkt zu niedrigeren Betriebskosten.

  • Optimierung von Light Nodes: CIP-35 führt Pruning für Celestia-Light-Nodes ein, sodass diese nur aktuelle Header anstatt der gesamten Chain-Historie speichern müssen. Die Speicheranforderungen für Light Nodes sinken auf etwa 10 GB, was es machbar macht, Verifizierungs-Nodes auf Consumer-Hardware und mobilen Geräten zu betreiben.

  • Inflationssenkung und Interoperabilität: Über die Skalierbarkeit hinaus senkt Matcha die Protokoll-Inflation von 5 % auf 2,5 %, was TIA potenziell deflationär machen könnte, wenn die Netzwerknutzung steigt. Zudem wird der Token-Filter für IBC und Hyperlane entfernt, was Celestia als Routing-Schicht für beliebige Assets über mehrere Ökosysteme hinweg positioniert.

In Testumgebungen erreichte Celestia im Mammoth Mini Devnet einen Durchsatz von ca. 27 MB / s mit 88 MB Blöcken und im mamo-1 Testnet einen dauerhaften Durchsatz von 21,33 MB / s mit 128 MB Blöcken. Dies sind keine theoretischen Maximalwerte — es sind produktionserprobte Benchmarks, auf die sich Rollups verlassen können, wenn sie für große Skalierung entwerfen.

Fibre Blockspace: Die 1 Tb / s Zukunft

Während sich Matcha auf die kurzfristige Produktionsreife konzentriert, repräsentiert Fibre Blockspace Celestias Moonshot-Vision für den Blockchain-Durchsatz. Das Protokoll ist in der Lage, 1 Terabit pro Sekunde an Blockspace über 500 Nodes hinweg aufrechtzuerhalten – ein Durchsatzniveau, das 1.500 - mal über dem in Celestias vorheriger Roadmap gesetzten Ziel liegt.

Die Kerninnovation ist ZODA, ein neues Kodierungsprotokoll, von dem Celestia behauptet, dass es Daten 881 - mal schneller verarbeitet als KZG-Commitment-basierte Alternativen, die von konkurrierenden DA-Protokollen verwendet werden. In großangelegten Netzwerktests mit 498 über Nordamerika verteilten GCP-Maschinen (jeweils mit 48 - 64 vCPUs, 90 - 128 GB RAM und 34 - 45 Gbit / s Netzwerkverbindungen) demonstrierte das Team erfolgreich einen Durchsatz im Terabit-Bereich.

Fibre richtet sich an Power-User mit einer minimalen Blob-Größe von 256 KB und einem Maximum von 128 MB, optimiert für High-Volume-Rollups und institutionelle Anwendungen, die garantierten Durchsatz benötigen. Der Rollout-Plan ist inkrementell: Fibre wird zuerst im Arabica-Testnet für Experimente von Entwicklern bereitgestellt und geht dann mit schrittweisen Durchsatzsteigerungen ins Mainnet über, während das Protokoll realen Stresstests unterzogen wird.

Was bedeutet 1 Tb / s eigentlich in der Praxis? Bei diesem Durchsatzniveau könnte Celestia theoretisch den Datenbedarf von Tausenden hochaktiver Rollups gleichzeitig bewältigen und alles unterstützen – von Hochfrequenzhandelsplätzen über Echtzeit-Gaming-Welten bis hin zur Koordination von KI-Modelltraining – und das alles, ohne dass der Data Availability Layer zum Flaschenhals wird.

EigenDA und Avail: Verschiedene Philosophien, verschiedene Kompromisse

Während Celestia den Marktanteil dominiert, erarbeiten sich EigenDA und Avail eine eigene Positionierung mit alternativen architektonischen Ansätzen, die verschiedene Anwendungsfälle ansprechen.

EigenDA: Geschwindigkeit durch Restaking

EigenDA, entwickelt vom EigenLayer-Team, hat die V2-Software veröffentlicht, die einen Durchsatz von 100 MB pro Sekunde erreicht – deutlich höher als die aktuelle Mainnet-Performance von Celestia. Das Protokoll nutzt die Restaking-Infrastruktur von EigenLayer, bei der Ethereum-Validatoren ihr gestaktes ETH wiederverwenden, um zusätzliche Dienste einschließlich der Datenverfügbarkeit abzusichern.

Der entscheidende architektonische Unterschied: EigenDA arbeitet als Data Availability Committee (DAC) und nicht als öffentlich verifizierte Blockchain. Diese Designentscheidung eliminiert bestimmte Verifizierungsanforderungen, die blockchainbasierte Lösungen implementieren, wodurch DACs wie EigenDA einen höheren Rohdurchsatz erreichen können, während sie gleichzeitig Vertrauensannahmen einführen, dass die Validatoren im Komitee die Datenverfügbarkeit ehrlich bestätigen.

Für Ethereum-native Projekte, die eine nahtlose Integration in das Ethereum-Ökosystem priorisieren und bereit sind, DAC-Vertrauensannahmen zu akzeptieren, bietet EigenDA ein überzeugendes Nutzenversprechen. Das Shared-Security-Modell mit dem Ethereum-Mainnet schafft eine natürliche Ausrichtung für Rollups, die bereits für das Settlement auf Ethereum setzen. Dieselbe Abhängigkeit wird jedoch zu einer Einschränkung für Projekte, die Souveränität jenseits des Ethereum-Ökosystems anstreben oder die stärkstmöglichen Garantien für die Datenverfügbarkeit benötigen.

Avail: Multichain-Flexibilität

Avail startete sein Mainnet im Jahr 2025 mit einem anderen Fokus: der Optimierung der Datenverfügbarkeit für hochskalierbare und anpassbare Rollups über mehrere Ökosysteme hinweg, nicht nur Ethereum. Das Protokoll kombiniert Validity Proofs, Data Availability Sampling und Erasure Coding mit KZG-Polynomial-Commitments, um das zu liefern, was das Team als „weltklasse Datenverfügbarkeitsgarantien“ bezeichnet.

Der aktuelle Mainnet-Durchsatz von Avail liegt bei 4 MB pro Block, wobei Benchmarks erfolgreiche Steigerungen auf 128 MB pro Block demonstrieren – eine 32 - fache Verbesserung –, ohne die Netzwerk-Liveness oder die Block-Propagationsgeschwindigkeit zu beeinträchtigen. Die Roadmap sieht progressive Durchsatzsteigerungen vor, während das Netzwerk reift.

Der größte Erfolg des Projekts im Jahr 2026 war die Sicherung von Integrationszusagen von fünf großen Layer-2-Projekten: Arbitrum, Optimism, Polygon, StarkWare und zkSync. Avail gibt insgesamt über 70 Partnerschaften an, die von anwendungsspezifischen Blockchains über DeFi-Protokolle bis hin zu Web3-Gaming-Chains reichen. Diese Ökosystem-Breite positioniert Avail als den Data Availability Layer für Multichain-Infrastrukturen, die über verschiedene Settlement-Umgebungen hinweg koordiniert werden müssen.

Avail DA stellt die erste Komponente einer dreiteiligen Architektur dar. Das Team entwickelt Nexus (einen Interoperabilitäts-Layer) und Fusion (einen Sicherheitsnetzwerk-Layer), um eine modulare Full-Stack-Infrastruktur zu schaffen. Diese vertikale Integrationsstrategie spiegelt Celestias Vision wider, mehr als nur Datenverfügbarkeit zu sein – nämlich eine grundlegende Infrastruktur für den gesamten modularen Stack zu werden.

Marktposition und Adaption: Wer gewinnt im Jahr 2026?

Der Markt für Datenverfügbarkeit im Jahr 2026 entwickelt sich zu einer „Winner-takes-most“ - Dynamik, bei der Celestia einen beachtlichen frühen Marktanteil hält, aber in spezifischen Nischen ernsthafte Konkurrenz durch EigenDA und Avail erfährt.

Celestias Marktdominanz:

  • ~ 50 % Marktanteil bei Data-Availability-Diensten
  • 160 + Gigabyte an Rollup-Daten, die über das Netzwerk verarbeitet wurden
  • 56 + Rollups, die die Plattform nutzen (37 im Mainnet, 19 im Testnet)
  • Universelle Unterstützung von Rollup-Frameworks: Arbitrum Orbit, OP Stack und Polygon CDK integrieren Celestia alle als DA-Option

Diese Adaption erzeugt starke Netzwerkeffekte. Da sich immer mehr Rollups für Celestia entscheiden, konzentrieren sich Entwickler-Tools, Dokumentation und Ökosystem-Expertise auf die Plattform. Die Wechselkosten steigen, da Teams Celestia-spezifische Optimierungen in ihre Rollup-Architektur einbauen. Das Ergebnis ist ein Flywheel-Effekt, bei dem Marktanteile weitere Marktanteile generieren.

EigenDAs Ethereum-Ausrichtung:

Die Stärke von EigenDA liegt in der engen Integration mit dem Restaking-Ökosystem von Ethereum. Für Projekte, die sich bereits für das Settlement und die Sicherheit auf Ethereum festgelegt haben, schafft die Hinzufügung von EigenDA als Data Availability Layer einen vertikal integrierten Stack vollständig innerhalb des Ethereum-Universums.

Der Durchsatz von 100 MB / s positioniert EigenDA zudem gut für Hochfrequenzanwendungen, die bereit sind, DAC-Vertrauensannahmen im Austausch für rohe Geschwindigkeit zu akzeptieren.

Die Abhängigkeit von EigenDA von Ethereum-Validatoren schränkt jedoch die Attraktivität für Rollups ein, die Souveränität oder Multichain-Flexibilität anstreben. Projekte, die auf Solana, Cosmos oder anderen Nicht-EVM-Ökosystemen aufbauen, haben wenig Anreiz, für die Datenverfügbarkeit auf Ethereum-Restaking angewiesen zu sein.

Avails Multichain-Strategie:

Die Integrationen von Avail mit Arbitrum, Optimism, Polygon, StarkWare und zkSync stellen wichtige Partnerschaftserfolge dar, aber die tatsächliche Mainnet-Nutzung des Protokolls hinkt den Ankündigungen hinterher.

Der Durchsatz von 4 MB pro Block (gegenüber den aktuellen 8 MB von Celestia und den kommenden 128 MB von Matcha) schafft eine Leistungslücke, die die Wettbewerbsfähigkeit von Avail für High-Volume-Rollups einschränkt.

Avails wahres Differenzierungsmerkmal ist die Multichain-Flexibilität. Da sich die Blockchain-Infrastruktur über Ethereum-L2s, alternative L1s und anwendungsspezifische Chains fragmentiert, wächst der Bedarf an einem neutralen Data Availability Layer, der kein Ökosystem bevorzugt. Avail positioniert sich als diese neutrale Infrastruktur mit Partnerschaften, die sich über mehrere Settlement-Layer und Ausführungsumgebungen erstrecken.

Die Ökonomie der DA-Layer-Wahl:

Die Wahl des falschen Data Availability Layers kann laut Branchenanalysen die Rollup-Kosten um das 55 - fache erhöhen. Dieser Kostenunterschied ergibt sich aus drei Faktoren:

  1. Durchsatzbeschränkungen, die bei Nachfragespitzen zu Datengebührensprüngen führen
  2. Speicheranforderungen, die Rollups dazu zwingen, eine teure Archiv-Infrastruktur zu unterhalten
  3. Wechselkosten, die eine Migration nach der Integration teuer machen

Für Gaming-fokussierte Layer-3-Rollups, die massive Zustandsaktualisierungen generieren, kann die Wahl zwischen Celestias kostengünstiger modularer DA (besonders nach Matcha) gegenüber teureren Alternativen den Unterschied zwischen einer nachhaltigen Ökonomie und dem Verlust von Kapital durch Datengebühren ausmachen. Dies erklärt, warum prognostiziert wird, dass Celestia die Gaming-L3-Adaption im Jahr 2026 dominieren wird.

Der Weg nach vorne: Auswirkungen auf die Rollup-Ökonomie und die Blockchain-Architektur

Die Kriege um die Datenverfügbarkeit im Jahr 2026 stellen mehr als nur einen Wettbewerb um die Infrastruktur dar – sie definieren grundlegende Annahmen darüber neu, wie Blockchains skalieren und wie die Rollup-Ökonomie funktioniert.

Das Matcha-Upgrade von Celestia und die Fibre-Blockspace-Roadmap machen deutlich, dass die Datenverfügbarkeit nicht länger der Flaschenhals für die Skalierbarkeit von Blockchains ist. Mit 128 MB-Blöcken in der Produktion und 1 Tb/s in Tests verschiebt sich die Einschränkung an andere Stellen – hin zur Optimierung des Execution-Layers, dem Management des State-Wachstums und der Cross-Rollup-Interoperabilität. Dies ist ein tiefgreifender Wandel. Jahrelang war die Annahme, dass die Datenverfügbarkeit die Anzahl der gleichzeitig skalierbaren Rollups begrenzen würde. Celestia entkräftet diese Annahme systematisch.

Die Philosophie der modularen Architektur setzt sich durch. Jedes große Rollup-Framework unterstützt mittlerweile austauschbare Data Availability Layer, anstatt eine Abhängigkeit vom Ethereum-Mainnet zu erzwingen. Diese architektonische Entscheidung bestätigt die Kernerkenntnis hinter der Gründung von Celestia: dass monolithische Blockchains, die jeden Node dazu zwingen, alles zu tun, unnötige Kompromisse schaffen, während die modulare Trennung es jeder Schicht ermöglicht, sich unabhängig zu optimieren.

Verschiedene DA-Layer kristallisieren sich um unterschiedliche Anwendungsfälle heraus, anstatt direkt miteinander zu konkurrieren. Celestia bedient Rollups, die Kosteneffizienz, maximale Dezentralisierung und bewährte Produktionsskalierung priorisieren. EigenDA spricht Ethereum-native Projekte an, die bereit sind, DAC-Vertrauensannahmen für einen höheren Durchsatz zu akzeptieren. Avail zielt auf Multichain-Infrastrukturen ab, die eine neutrale Koordination über Ökosysteme hinweg benötigen. Anstatt eines einzelnen Gewinners segmentiert sich der Markt nach architektonischen Prioritäten.

Die Kosten für die Datenverfügbarkeit tendieren gegen Null, was die Geschäftsmodelle von Rollups verändert. Da die Blockgrößen von Celestia wachsen und der Wettbewerb zunimmt, nähern sich die Grenzkosten für das Posten von Daten vernachlässigbaren Werten an. Dies eliminiert einen der größten variablen Kostenfaktoren im Rollup-Betrieb und verschiebt die Wirtschaftlichkeit hin zu fixen Infrastrukturkosten (Sequencer, Prover, State-Storage) statt transaktionsbezogener DA-Gebühren. Rollups können sich zunehmend auf Innovationen bei der Ausführung konzentrieren, anstatt sich über Daten-Flaschenhälse Gedanken zu machen.

Das nächste Kapitel der Blockchain-Skalierung handelt nicht davon, ob Rollups Zugang zu erschwinglicher Datenverfügbarkeit haben – Celestias Matcha-Upgrade und die Fibre-Roadmap machen dies unumgänglich. Die Frage ist, welche Anwendungen möglich werden, wenn Daten nicht mehr die Einschränkung sind. Hochfrequenzhandelsplätze, die vollständig on-chain laufen. Massive Multiplayer-Gaming-Welten mit persistentem Zustand. KI-Modellkoordination über dezentrale Rechennetzwerke. Diese Anwendungen waren wirtschaftlich nicht machbar, als die Datenverfügbarkeit den Durchsatz begrenzte und die Kosten unvorhersehbar in die Höhe trieb. Jetzt ist die Infrastruktur vorhanden, um sie in großem Maßstab zu unterstützen.

Für Blockchain-Entwickler im Jahr 2026 ist die Wahl des Data Availability Layers so entscheidend geworden, wie es die Wahl des L1 im Jahr 2020 war. Celestias Marktposition, die produktionserprobte Skalierbarkeits-Roadmap und die Ökosystem-Integrationen machen es zum sicheren Standard. EigenDA bietet einen höheren Durchsatz für Ethereum-ausgerichtete Projekte, die DAC-Vertrauensmodelle akzeptieren. Avail bietet Multichain-Flexibilität für Teams, die über Ökosysteme hinweg koordinieren. Alle drei haben lebensfähige Wege vor sich – aber Celestias Marktanteil von 50 %, das Matcha-Upgrade und die Fibre-Vision positionieren das Projekt so, dass es definiert, was „Datenverfügbarkeit in großem Maßstab“ für die nächste Generation der Blockchain-Infrastruktur bedeutet.

Quellen

Nillions Blacklight geht live: Wie ERC-8004 die Vertrauensschicht für autonome KI-Agenten aufbaut

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Am 2. Februar 2026 machte die Ökonomie der KI-Agenten einen entscheidenden Schritt nach vorne. Nillion startete Blacklight, einen Verification Layer, der den ERC-8004-Standard implementiert, um eine der dringlichsten Fragen der Blockchain zu lösen: Wie vertraut man einem KI-Agenten, dem man noch nie begegnet ist?

Die Antwort ist nicht ein einfacher Reputation Score oder ein zentralisiertes Register. Es ist ein fünfstufiger Verifizierungsprozess, der durch kryptografische Beweise, programmierbare Audits und ein Netzwerk von gemeinschaftlich betriebenen Nodes gestützt wird. Da autonome Agenten zunehmend Trades ausführen, Treasuries verwalten und Cross-Chain-Aktivitäten koordinieren, stellt Blacklight die Infrastruktur dar, die eine trustless KI-Koordination in großem Maßstab ermöglicht.

Das Vertrauensproblem, das KI-Agenten nicht alleine lösen können

Die Zahlen sprechen für sich. KI-Agenten tragen mittlerweile 30 % des Handelsvolumens von Polymarket bei, verwalten DeFi-Yield-Strategien über mehrere Protokolle hinweg und führen autonom komplexe Workflows aus. Aber es gibt einen grundlegenden Engpass: Wie verifizieren Agenten die Vertrauenswürdigkeit des jeweils anderen ohne bestehende Beziehungen?

Traditionelle Systeme verlassen sich auf zentrale Instanzen, die Credentials ausstellen. Das Versprechen von Web3 ist ein anderes – trustless Verifizierung durch Kryptografie und Konsens. Doch bis ERC-8004 gab es keinen standardisierten Weg für Agenten, ihre Authentizität zu beweisen, ihr Verhalten zu verfolgen oder ihre Entscheidungslogik On-Chain zu validieren.

Dies ist kein rein theoretisches Problem. Wie Davide Crapis erklärt: „ERC-8004 ermöglicht dezentrale Interaktionen von KI-Agenten, etabliert trustless Handel und verbessert Reputationssysteme auf Ethereum.“ Ohne diesen Standard bleibt der Handel von Agent zu Agent auf geschlossene Systeme beschränkt oder erfordert manuelle Aufsicht – was den Zweck der Autonomie zunichtemacht.

ERC-8004: Die Trust-Infrastruktur aus drei Registern

Der ERC-8004-Standard, der am 29. Januar 2026 im Ethereum-Mainnet live ging, etabliert einen modularen Trust Layer durch drei On-Chain-Register:

Identity Registry: Nutzt ERC-721, um portable Agenten-Identifikatoren bereitzustellen. Jeder Agent erhält einen Non-Fungible Token, der seine einzigartige On-Chain-Identität repräsentiert, was eine plattformübergreifende Erkennung ermöglicht und Identitäts-Spoofing verhindert.

Reputation Registry: Sammelt standardisiertes Feedback und Bewertungen. Im Gegensatz zu zentralisierten Bewertungssystemen wird das Feedback On-Chain mit kryptografischen Signaturen aufgezeichnet, wodurch ein unveränderlicher Audit-Trail entsteht. Jeder kann diese Historie durchsuchen und eigene Reputationsalgorithmen erstellen.

Validation Registry: Unterstützt die kryptografische und ökonomische Verifizierung der Arbeit von Agenten. Hier finden programmierbare Audits statt – Validatoren können Berechnungen erneut ausführen, Zero-Knowledge-Proofs verifizieren oder Trusted Execution Environments (TEEs) nutzen, um zu bestätigen, dass ein Agent korrekt gehandelt hat.

Die Brillanz von ERC-8004 liegt in seinem unvoreingenommenen Design. Wie die technische Spezifikation anmerkt, unterstützt der Standard verschiedene Validierungstechniken: „Stake-gesicherte Neuausführung von Aufgaben (inspiriert von Systemen wie EigenLayer), Verifizierung von Zero-Knowledge Machine Learning (zkML) Proofs und Attestierungen von Trusted Execution Environments.“

Diese Flexibilität ist wichtig. Ein DeFi-Arbitrage-Agent könnte zkML-Proofs verwenden, um seine Handelslogik zu verifizieren, ohne Alpha preiszugeben. Ein Supply-Chain-Agent könnte TEE-Attestierungen nutzen, um zu beweisen, dass er korrekt auf Real-World-Daten zugegriffen hat. Ein Cross-Chain-Bridge-Agent könnte auf krypto-ökonomische Validierung mit Slashing setzen, um eine ehrliche Ausführung zu gewährleisten.

Blacklights fünfstufiger Verifizierungsprozess

Nillions Implementierung von ERC-8004 auf Blacklight fügt eine entscheidende Ebene hinzu: gemeinschaftlich betriebene Verifizierungs-Nodes. So funktioniert der Prozess:

1. Agenten-Registrierung: Ein Agent registriert seine Identität in der Identity Registry und erhält ein ERC-721 NFT. Dies erstellt einen eindeutigen On-Chain-Identifikator, der an den öffentlichen Schlüssel des Agenten gebunden ist.

2. Initiierung der Verifizierungsanfrage: Wenn ein Agent eine Aktion ausführt, die eine Validierung erfordert (z. B. Ausführung eines Trades, Überweisung von Geldern oder Aktualisierung des Status), sendet er eine Verifizierungsanfrage an Blacklight.

3. Zuweisung des Komitees: Das Protokoll von Blacklight weist zufällig ein Komitee aus Verifizierungs-Nodes zu, um die Anfrage zu prüfen. Diese Nodes werden von Community-Mitgliedern betrieben, die 70.000 NIL-Token staken, wodurch Anreize für die Netzwerkintegrität geschaffen werden.

4. Node-Prüfungen: Komitee-Mitglieder führen die Berechnung erneut aus oder validieren kryptografische Proofs. Wenn Validatoren fehlerhaftes Verhalten feststellen, können sie den Stake des Agenten kürzen (in Systemen, die krypto-ökonomische Validierung nutzen) oder die Identität in der Reputation Registry markieren.

5. On-Chain-Reporting: Die Ergebnisse werden On-Chain veröffentlicht. Die Validation Registry zeichnet auf, ob die Arbeit des Agenten verifiziert wurde, und schafft so einen permanenten Ausführungsbeweis. Die Reputation Registry wird entsprechend aktualisiert.

Dieser Prozess erfolgt asynchron und nicht blockierend, was bedeutet, dass Agenten bei Routineaufgaben nicht auf die Verifizierung warten müssen – aber bei risikoreichen Aktionen (große Überweisungen, Cross-Chain-Operationen) kann eine Vorab-Validierung erforderlich sein.

Programmierbare Audits: Jenseits von binärem Vertrauen

Das ehrgeizigste Feature von Blacklight ist die „programmierbare Verifizierung“ – die Fähigkeit zu prüfen, wie ein Agent Entscheidungen trifft, und nicht nur, was er tut.

Betrachten wir einen DeFi-Agenten, der eine Treasury verwaltet. Traditionelle Audits verifizieren, dass Gelder korrekt bewegt wurden. Programmierbare Audits verifizieren:

  • Konsistenz der Entscheidungslogik: Hat der Agent seine angegebene Investmentstrategie befolgt oder ist er davon abgewichen?
  • Ausführung mehrstufiger Workflows: Wenn der Agent Portfolios über drei Chains hinweg umschichten sollte, hat er alle Schritte abgeschlossen?
  • Sicherheitsbeschränkungen: Hat der Agent Gas-Limits, Slippage-Toleranzen und Exposure-Obergrenzen eingehalten?

Dies ist möglich, da die Validation Registry von ERC-8004 beliebige Proof-Systeme unterstützt. Ein Agent kann sich on-chain auf einen Entscheidungsalgorithmus festlegen (z. B. ein Hash seiner neuronalen Netzwerkgewichtungen oder ein zk-SNARK-Schaltkreis, der seine Logik darstellt) und dann beweisen, dass jede Aktion diesem Algorithmus entspricht, ohne proprietäre Details offenzulegen.

Nillions Roadmap zielt explizit auf diese Anwendungsfälle ab: „Nillion plant, die Fähigkeiten von Blacklight auf die ‚programmierbare Verifizierung‘ auszuweiten, was dezentrale Audits komplexer Verhaltensweisen wie die Konsistenz der Entscheidungslogik von Agenten, die Ausführung mehrstufiger Workflows und Sicherheitsbeschränkungen ermöglicht.“

Dies verschiebt die Verifizierung von reaktiv (Fehler im Nachhinein finden) zu proaktiv (korrektes Verhalten durch Design erzwingen).

Blind Computation: Privatsphäre trifft auf Verifizierung

Nillions zugrunde liegende Technologie – Nil Message Compute (NMC) – fügt der Agenten-Verifizierung eine Datenschutz-Dimension hinzu. Im Gegensatz zu herkömmlichen Blockchains, bei denen alle Daten öffentlich sind, ermöglicht Nillions „Blind Computation“ Operationen auf verschlüsselten Daten ohne Entschlüsselung.

Warum das für Agenten wichtig ist: Ein KI-Agent muss möglicherweise seine Handelsstrategie verifizieren, ohne sein Alpha an Konkurrenten preiszugeben. Oder er muss beweisen, dass er korrekt auf vertrauliche medizinische Unterlagen zugegriffen hat, ohne Patientendaten offenzulegen. Oder er muss die Einhaltung regulatorischer Auflagen nachweisen, ohne proprietäre Geschäftslogik zu enthüllen.

Nillions NMC erreicht dies durch Multi-Party Computation (MPC), bei der Nodes gemeinsam „Blinding Factors“ generieren – korrelierte Zufälligkeit, die zur Verschlüsselung von Daten verwendet wird. Wie DAIC Capital erklärt: „Nodes generieren die wichtigste Netzwerkressource, die für die Datenverarbeitung benötigt wird – eine Art korrelierte Zufälligkeit, die als Blinding Factor bezeichnet wird. Dabei speichert jeder Node seinen Anteil am Blinding Factor sicher und verteilt das Vertrauen quantensicher über das Netzwerk.“

Diese Architektur ist von Grund auf quantenresistent. Selbst wenn ein Quantencomputer die heutige Elliptische-Kurven-Kryptographie knackt, bleiben verteilte Blinding Factors sicher, da kein einzelner Node über genügend Informationen verfügt, um Daten zu entschlüsseln.

Für KI-Agenten bedeutet dies, dass die Verifizierung nicht auf Kosten der Vertraulichkeit geht. Ein Agent kann beweisen, dass er eine Aufgabe korrekt ausgeführt hat, während er seine Methoden, Datenquellen und Entscheidungslogik privat hält.

Der 4,3 Milliarden $ Infrastruktur-Ansatz der Agent-Economy

Der Start von Blacklight erfolgt zu einem Zeitpunkt, an dem der Blockchain-KI-Sektor in ein Hyperwachstum eintritt. Es wird prognostiziert, dass der Markt von 680 Millionen (2025)auf4,3Milliarden(2025) auf 4,3 Milliarden (2034) mit einer CAGR von 22,9 % wachsen wird, während der breitere Markt für Confidential Computing bis 2032 ein Volumen von 350 Milliarden $ erreicht.

Aber Nillion setzt nicht nur auf die Marktexpansion – es positioniert sich als kritische Infrastruktur. Der Engpass der Agent-Economy ist nicht Rechenleistung oder Speicherplatz, sondern Vertrauen in großem Maßstab. Wie der Ausblick von KuCoin für 2026 anmerkt, gestalten drei Haupttrends die KI-Identität und den Wertefluss neu:

Agent-Wrapping-Agent-Systeme: Agenten, die sich mit anderen Agenten koordinieren, um komplexe mehrstufige Aufgaben auszuführen. Dies erfordert standardisierte Identität und Verifizierung – genau das, was ERC-8004 bietet.

KYA (Know Your Agent): Finanzielle Infrastruktur, die Agenten-Credentials verlangt. Regulierungsbehörden werden keine autonomen Agenten zulassen, die Gelder verwalten, ohne dass ein Beweis für korrektes Verhalten vorliegt. Die programmierbaren Audits von Blacklight adressieren dies direkt.

Nano-Zahlungen: Agenten müssen Mikrozahlungen effizient abwickeln. Das x402-Zahlungsprotokoll, das im Januar 2026 über 20 Millionen Transaktionen verarbeitete, ergänzt ERC-8004, indem es die Abwicklung übernimmt, während Blacklight für das Vertrauen sorgt.

Zusammen erreichten diese Standards innerhalb weniger Wochen nacheinander die Produktionsreife – ein Durchbruch in der Koordination, der die Reifung der Infrastruktur signalisiert.

Ethereums Agent-zentrierte Zukunft

Die Einführung von ERC-8004 geht weit über Nillion hinaus. Seit Anfang 2026 haben mehrere Projekte den Standard integriert:

  • Oasis Network: Implementierung von ERC-8004 für Confidential Computing mit TEE-basierter Validierung
  • The Graph: Unterstützung von ERC-8004 und x402 zur Ermöglichung verifizierbarer Agenten-Interaktionen in der dezentralen Indexierung
  • MetaMask: Erforschung von Agent-Wallets mit integrierter ERC-8004-Identität
  • Coinbase: Integration von ERC-8004 für institutionelle Verwahrungslösungen für Agenten

Diese schnelle Akzeptanz spiegelt einen breiteren Wandel in Ethereums Roadmap wider. Vitalik Buterin hat wiederholt betont, dass die Rolle der Blockchain zunehmend „nur noch die Rohrleitungen“ für KI-Agenten wird – nicht die Ebene für Endverbraucher, sondern die Vertrauensinfrastruktur, die autonome Koordination ermöglicht.

Nillions Blacklight beschleunigt diese Vision, indem es die Verifizierung programmierbar, datenschutzfreundlich und dezentral macht. Anstatt sich auf zentralisierte Orakel oder menschliche Prüfer zu verlassen, können Agenten ihre Korrektheit kryptographisch beweisen.

Was als nächstes kommt: Mainnet-Integration und Ökosystem-Erweiterung

Die 2026 Roadmap von Nillion priorisiert Ethereum-Kompatibilität und nachhaltige Dezentralisierung. Die Ethereum-Bridge ging im Februar 2026 live, gefolgt von nativen Smart Contracts für Staking und Blind Computation.

Community-Mitglieder, die 70.000 NIL-Token staken, können Blacklight-Verifizierungs-Nodes betreiben und Belohnungen verdienen, während sie die Netzwerkintegrität aufrechterhalten. Dieses Design spiegelt die Validator-Ökonomie von Ethereum wider, fügt jedoch eine verifizierungsspezifische Rolle hinzu.

Die nächsten Meilensteine umfassen:

  • Erweiterte zkML-Unterstützung: Integration mit Projekten wie Modulus Labs zur Verifizierung von KI-Inferenzen On-Chain
  • Cross-Chain-Verifizierung: Ermöglichung von Blacklight, Agenten zu verifizieren, die über Ethereum, Cosmos und Solana hinweg agieren
  • Institutionelle Partnerschaften: Kooperationen mit Coinbase und Alibaba Cloud für den Einsatz von Enterprise-Agenten
  • Tools für regulatorische Compliance: Entwicklung von KYA-Frameworks (Know Your Agent) für die Einführung im Finanzdienstleistungssektor

Vielleicht am wichtigsten ist, dass Nillion nilGPT entwickelt — einen vollständig privaten KI-Chatbot, der demonstriert, wie Blind Computation vertrauliche Agenten-Interaktionen ermöglicht. Dies ist nicht nur eine Demo; es ist eine Blaupause für Agenten, die sensible Daten im Gesundheitswesen, im Finanzwesen und im öffentlichen Sektor verarbeiten.

Das Endgame der trustlosen Koordination

Der Start von Blacklight markiert einen Wendepunkt für die Agent-Ökonomie. Vor ERC-8004 operierten Agenten in Silos — vertrauenswürdig innerhalb ihrer eigenen Ökosysteme, aber unfähig, sich ohne menschliche Vermittler plattformübergreifend zu koordinieren. Nach ERC-8004 können Agenten die Identität des jeweils anderen verifizieren, das Verhalten des anderen prüfen und Zahlungen autonom abwickeln.

Dies erschließt völlig neue Kategorien von Anwendungen:

  • Dezentrale Hedgefonds: Agenten, die Portfolios über verschiedene Chains hinweg verwalten, mit verifizierbaren Investmentstrategien und transparenten Performance-Audits
  • Autonome Lieferketten: Agenten, die Logistik, Zahlungen und Compliance ohne zentrale Aufsicht koordinieren
  • KI-gestützte DAOs: Organisationen, die von Agenten gesteuert werden, die auf Basis einer kryptografisch verifizierten Entscheidungslogik abstimmen, Vorschläge machen und diese ausführen
  • Protokollübergreifendes Liquiditätsmanagement: Agenten, die Vermögenswerte über DeFi-Protokolle hinweg mit programmierbaren Risikobeschränkungen umschichten

Der rote Faden? Alle erfordern trustlose Koordination — die Fähigkeit von Agenten, ohne bestehende Beziehungen oder zentrale Vertrauensanker zusammenzuarbeiten.

Nillions Blacklight bietet genau das. Durch die Kombination der Identitäts- und Reputationsinfrastruktur von ERC-8004 mit programmierbarer Verifizierung und Blind Computation schafft es eine Vertrauensebene, die skalierbar genug für die bevorstehende Billionen-Agenten-Ökonomie ist.

Da die Blockchain zum Grundgerüst für KI-Agenten und das globale Finanzwesen wird, ist die Frage nicht, ob wir eine Verifizierungsinfrastruktur benötigen — sondern wer sie baut und ob sie dezentralisiert ist oder von einigen wenigen Gatekeepern kontrolliert wird. Die von der Community betriebenen Nodes und der offene Standard von Blacklight sprechen für Letzteres.

Das Zeitalter der autonomen On-Chain-Akteure ist angebrochen. Die Infrastruktur ist live. Die einzige offene Frage ist, was darauf aufgebaut wird.


Quellen:

Pharos Networks Mainnet im Q1 2026: Wie Blockchain-Veteranen der Ant Group den 10 Billionen Dollar schweren RealFi Layer aufbauen

· 19 Min. Lesezeit
Dora Noda
Software Engineer

Als der ehemalige Ant Group CTO Alex Zhang und sein Blockchain-Engineering-Team das Unternehmen im Juli 2024 verließen, schlossen sie sich keinem anderen Fintech-Giganten an. Sie entwickelten das Pharos Network — eine Layer-1-Blockchain, die auf die Konvergenz von traditionellem Finanzwesen und DeFi abzielt, mit einem einzigen Fokus: der Erschließung des Marktes für Real-World Assets (RWA) im Wert von $ 10 Billionen, der für 2030 prognostiziert wird.

Pharos ist nicht einfach nur ein weiterer EVM-Klon, der geringfügig schnellere Transaktionen verspricht. Es handelt sich um eine zweckgebundene Infrastruktur für „RealFi“ (Real-World Finance) — Blockchain-Systeme, die direkt an materielle Vermögenswerte wie Privatkredite, tokenisierte Staatsanleihen, Immobilien und Unternehmensanleihen gebunden sind. Die technische Grundlage: 30.000 TPS mit einer Finalität von unter einer Sekunde, angetrieben durch Smart Access List Inferring (SALI) — eine neuartige Engine zur parallelen Ausführung, die statisch oder dynamisch Status-Zugriffsmuster ableitet, um disjunkte Transaktionen gleichzeitig auszuführen.

Mit einer Seed-Finanzierung von 8Millionen](https://www.theblock.co/post/325246/layer1blockchainpharosseedfunding)vonLightspeedFactionundHackVC,einem[RealFiInkubatorimWertvon8 Millionen](https://www.theblock.co/post/325246/layer-1-blockchain-pharos-seed-funding) von Lightspeed Faction und Hack VC, einem [RealFi-Inkubator im Wert von 10 Millionen, der von Draper Dragon unterstützt wird, und einem bevorstehenden Mainnet-Launch im ersten Quartal 2026, repräsentiert Pharos die Wette, dass die Migration des institutionellen Finanzwesens auf die Blockchain nicht auf den L2s von Ethereum oder der Hochgeschwindigkeitsinfrastruktur von Solana stattfinden wird — sondern auf einer Compliance-orientierten, RWA-optimierten Chain, die von dem Team entworfen wurde, das die Ant Chain aufgebaut hat, die Blockchain hinter Alibabas jährlichem Bruttowarenvolumen (GMV) von über $ 2 Billionen.

Die RealFi-These: Warum bis 2030 $ 10 Billionen On-Chain wandern

RealFi ist keine Krypto-Spekulation — es ist die Tokenisierung des Finanzwesens selbst. Der Sektor steht derzeit bei 17,6Milliarden,mitPrognosen,diebis203017,6 Milliarden, mit Prognosen, die bis 2030 10 Billionen erreichen — ein 54-facher Wachstumsfaktor. Zwei Kräfte treiben dies voran:

Tokenisierung von Privatkrediten: Traditionelle Privatkreditmärkte (Kredite an mittelständische Unternehmen, Immobilienfinanzierung, Asset-Backed Lending) sind undurchsichtig, illiquide und nur für akkreditierte Institutionen zugänglich. Die Tokenisierung transformiert diese in programmierbare, rund um die Uhr handelbare Instrumente. Investoren können ihre Beteiligungen fraktionalisieren, Positionen sofort verlassen und die Renditeverteilung über Smart Contracts automatisieren. Über 90 % des RWA-Wachstums im Jahr 2025 stammten aus Privatkrediten.

Tokenisierte Staatsanleihen und institutionelle Liquidität: Stablecoins haben $ 300 Milliarden an On-Chain-Liquidität freigesetzt, aber sie sind lediglich USD-gedeckte Schuldscheine. Tokenisierte US-Staatsanleihen (wie der BUIDL-Fonds von BlackRock) bringen renditebringende Staatsschulden auf die Chain. Institutionen können DeFi-Positionen mit AAA-bewerteten Assets besichern, risikofreie Renditen erzielen und Trades in Minuten statt in T + 2 abwickeln. Dies ist die Brücke, die institutionelles Kapital — Pensionsfonds, Stiftungen, Staatsfonds — zur Blockchain bringt.

Der Flaschenhals? Bestehende Chains sind nicht für RWA-Workflows ausgelegt. Der Base-Layer von Ethereum ist zu langsam und teuer für den Hochfrequenzhandel. Solana fehlen integrierte Compliance-Primitive. L2s fragmentieren die Liquidität. RWA-Anwendungen benötigen:

  • Finalität von unter einer Sekunde für Abrechnungen in Echtzeit (entsprechend den TradFi-Erwartungen)
  • Parallele Ausführung, um Tausende von gleichzeitigen Asset-Transfers ohne Überlastung zu bewältigen
  • Modulare Compliance, die es erlaubt, dass zugangsbeschränkte Assets (z. B. Anleihen nur für akkreditierte Investoren) neben erlaubnisfreiem DeFi existieren
  • Interoperabilität mit traditionellen Finanzsystemen (SWIFT, ACH, Wertpapierverwahrstellen)

Pharos wurde vom ersten Tag an so konzipiert, dass es diese Anforderungen erfüllt. Die Erfahrung des Teams bei der Tokenisierung realer Vermögenswerte bei der Ant Group — Projekte wie Xiexin Energy Technology und die Langxin Group RWA — floss in jede Designentscheidung ein.

SALI: Überdenken der parallelen Ausführung für Finanzmärkte

Blockchains haben Schwierigkeiten mit der Parallelisierung, da Transaktionen oft kollidieren — zwei Überweisungen, die dasselbe Konto betreffen, können nicht gleichzeitig ausgeführt werden, ohne Doppelnutzungen (Double-Spends) oder einen inkonsistenten Status zu verursachen. Traditionelle Chains serialisieren kollidierende Transaktionen, was zu Engpässen führt.

Pharos löst dies mit Smart Access List Inferring (SALI) — einer Methode, um statisch oder dynamisch abzuleiten, auf welche Statuseinträge ein Vertrag zugreifen wird. Dies ermöglicht es der Execution-Engine, Transaktionen mit disjunkten Zugriffsmustern zu gruppieren und sie ohne Konflikte parallel auszuführen.

So funktioniert SALI:

Statische Analyse (Inferenz zur Kompilierzeit): Bei Standard-ERC-20-Transfers ist die Logik des Smart Contracts deterministisch. Ein Transfer von Alice zu Bob betrifft nur balances[Alice] und balances[Bob]. SALI analysiert den Contract-Code vor der Ausführung und erstellt eine Zugriffsliste: [Alices Guthaben, Bobs Guthaben]. Wenn eine andere Transaktion Carol und Dave betrifft, laufen diese beiden Transfers parallel — kein Konflikt.

Dynamische Inferenz (Laufzeit-Profiling): Komplexe Verträge (wie AMM-Pools oder Lending-Protokolle) haben Status-Zugriffsmuster, die von Laufzeitdaten abhängen. SALI nutzt spekulative Ausführung: Die Transaktion wird vorläufig ausgeführt, die aufgerufenen Speicherplätze werden aufgezeichnet und bei erkannten Konflikten wird die Ausführung parallel erneut versucht. Dies ähnelt der optimistischen Nebenläufigkeitskontrolle in Datenbanken.

Konfliktlösung und Transaktionsreihenfolge: Wenn Konflikte auftreten (z. B. zwei Benutzer tauschen im selben Pool im Uniswap-Stil), greift SALI bei kollidierenden Transaktionen auf die serielle Ausführung zurück, während nicht überschneidende Transaktionen weiterhin parallelisiert werden. Dies ist wesentlich effizienter als alles zu serialisieren.

Das Ergebnis: 30.000 TPS mit einer Finalität von unter einer Sekunde. Zum Vergleich: Ethereum verarbeitet ca. 15 TPS (Base-Layer), Solana erreicht Spitzenwerte von ca. 65.000 TPS, verfügt aber nicht über EVM-Kompatibilität, und die meisten EVM-L2s erreichen maximal 2.000 bis 5.000 TPS. Pharos erreicht die Geschwindigkeit von Solana bei gleichzeitiger Beibehaltung der EVM-Kompatibilität — entscheidend für die institutionelle Akzeptanz, da die meiste DeFi-Infrastruktur (Aave, Uniswap, Curve) EVM-native ist.

Die Vorteile von SALI werden bei RWA-Anwendungsfällen deutlich:

  • Tokenisierter Anleihehandel: Eine Unternehmensanleihe-Emission kann Tausende von gleichzeitigen Käufen / Verkäufen über verschiedene Tranchen hinweg umfassen. SALI parallelisiert Trades in Tranche A, während Trades in Tranche B gleichzeitig ausgeführt werden — kein Warten auf sequentielle Abrechnungen.
  • Automatisierte Portfolio-Umschichtung: Eine DAO, die ein diversifiziertes RWA-Portfolio (Immobilien, Rohstoffe, Privatkredite) verwaltet, kann Umschichtungen über mehr als 20 Vermögenswerte gleichzeitig ausführen, anstatt Transaktionen zu bündeln.
  • Grenzüberschreitende Zahlungen: Pharos kann Hunderte von internationalen Überweisungen parallel abwickeln, wobei jede unterschiedliche Sender-Empfänger-Paare betrifft, ohne dass eine Überlastung der Blockchain die Finalität verzögert.

Dies ist nicht theoretisch. Die Ant Chain verarbeitete jährlich über 1 Milliarde Transaktionen für Alibabas Supply-Chain-Finanzierung und die Abwicklung des grenzüberschreitenden Handels. Das Pharos-Team bringt diese praxiserprobte Ausführungskompetenz in die öffentliche Blockchain ein.

Dual-VM-Architektur: EVM + WASM für maximale Kompatibilität

Pharos unterstützt sowohl die Ethereum Virtual Machine (EVM) als auch WebAssembly (WASM) – eine Dual-VM-Architektur, die es Entwicklern ermöglicht, Solidity-Contracts (EVM) oder hochperformante Rust/C++-Contracts (WASM) auf derselben Chain bereitzustellen.

Warum ist das für RWA wichtig?

EVM-Kompatibilität zieht bestehende DeFi-Ökosysteme an: Die meisten institutionellen DeFi-Integrationen (institutionelle Kreditvergabe von Aave, Uniswap-Liquiditätspools, Compound-Kreditaufnahme) laufen auf Solidity. Wenn Pharos Entwickler zwingen würde, Verträge in einer neuen Sprache neu zu schreiben, würde die Akzeptanz stagnieren. Durch die Unterstützung von EVM übernimmt Pharos das gesamte Ethereum-Tooling-Ökosystem – MetaMask, Explorer im Etherscan-Stil, Hardhat-Deployment-Skripte.

WASM ermöglicht performancekritische Finanzanwendungen: Hochfrequenzhandels-Bots, algorithmische Market Maker und Echtzeit-Risiko-Engines benötigen eine tiefergehende Kontrolle, als Solidity sie bietet. WASM lässt sich in naturnahen Maschinencode kompilieren und bietet bei rechenintensiven Aufgaben eine 10- bis 100-fache Geschwindigkeitssteigerung gegenüber EVM-Bytecode. Institutionelle Händler, die anspruchsvolle Strategien einsetzen, können die Ausführung in Rust optimieren und dennoch mit der EVM-basierten Liquidität interagieren.

Modulare Compliance über WASM-Contracts: Finanzvorschriften variieren je nach Rechtsraum (SEC-Regeln unterscheiden sich von MiCA, die sich wiederum von der SFC in Hongkong unterscheiden). Pharos ermöglicht es, Compliance-Logik – KYC-Prüfungen, Verifizierung akkreditierter Investoren, geografische Beschränkungen – als WASM-Module zu implementieren, die in EVM-Contracts integriert werden können. Eine tokenisierte Anleihe kann die Bedingung „nur für akkreditierte US-Investoren“ erzwingen, ohne dass die Compliance in jedes DeFi-Protokoll fest einprogrammiert werden muss.

Dieses Dual-VM-Design spiegelt den Ansatz von Polkadot wider, ist jedoch für den Finanzbereich optimiert. Während Polkadot auf allgemeine chainübergreifende Interoperabilität abzielt, fokussiert sich Pharos auf RWA-spezifische Workflows: Custody-Integrationen, Garantien für die Finalität der Abrechnung (Settlement Finality) und regulatorisches Reporting.

Modulare Architektur: Anwendungsspezifische Netzwerke (SPNs)

Pharos führt Subnet-ähnliche partitionierte Netzwerke (SPNs) ein – anwendungsspezifische Chains, die eng mit dem Pharos-Mainnet verbunden sind und gleichzeitig unabhängig operieren. Jedes SPN verfügt über:

  • Eine eigene Execution Engine (EVM oder WASM)
  • Ein eigenes Validator-Set (für erlaubnispflichtige Assets, die zugelassene Node-Betreiber erfordern)
  • Eigene Restaking-Anreize (Validatoren können Belohnungen sowohl aus Mainnet- als auch aus SPN-Gebühren verdienen)
  • Eine eigene Governance (tokengewichtete Abstimmung oder DAO-basierte Entscheidungsfindung)

SPNs lösen ein kritisches RWA-Problem: regulatorische Isolation. Ein tokenisierter US-Treasury-Fonds erfordert SEC-Compliance – nur akkreditierte Investoren, keine Privacy-Coins, vollständiges AML/KYC. Aber erlaubnisfreies DeFi (wie ein öffentlicher Uniswap-Fork) kann diese Regeln nicht erzwingen. Wenn beide auf derselben monolithischen Chain laufen, kommt es zu einem Compliance-Leck – ein Nutzer könnte ein reguliertes Asset in ein nicht konformes Protokoll übertragen.

Pharos' SPN-Modell ermöglicht:

Erlaubnispflichtiges SPN für regulierte Assets: Das SPN für tokenisierte Staatsanleihen (Treasuries) verfügt über eine Whitelist von Validatoren (z. B. Coinbase Custody, Fireblocks, BitGo). Nur KYC-verifizierte Wallets können Transaktionen durchführen. Die Governance des SPN wird vom Asset-Emittenten (z. B. BlackRock) und den Regulierungsbehörden kontrolliert.

Erlaubnisfreies Mainnet für öffentliches DeFi: Das Pharos-Mainnet bleibt offen – jeder kann Verträge bereitstellen, Token handeln oder Liquidität bereitstellen. Kein KYC erforderlich.

Bridge zwischen SPNs und Mainnet: Ein reguliertes SPN kann spezifische Assets (z. B. renditetragende Stablecoins, die mit Staatsanleihen besichert sind) über eine auf Compliance geprüfte Bridge für das Mainnet zugänglich machen. Dies ermöglicht Kapitaleffizienz: Institutionen bringen Liquidität aus der erlaubnispflichtigen Welt in das erlaubnisfreie DeFi, jedoch nur über geprüfte, regulierte Wege.

Diese Architektur ähnelt den App-Chains von Cosmos, ist jedoch mit integrierter Finanz-Compliance ausgestattet. Die Subnets von Avalanche bieten eine ähnliche Isolation, aber Pharos fügt Restaking-Anreize hinzu – Validatoren sichern sowohl das Mainnet als auch die SPNs und verdienen so kumulierte Belohnungen. Diese ökonomische Ausrichtung gewährleistet eine robuste Sicherheit für hochwertige RWA-Anwendungen.

Der 10-Millionen-Dollar-RealFi-Inkubator: Aufbau des Application Layers

Infrastruktur allein treibt die Akzeptanz nicht voran – Anwendungen tun es. Pharos hat "Native to Pharos" ins Leben gerufen, einen Inkubator mit über 10 Millionen Dollar Volumen, der von Draper Dragon, Lightspeed Faction, Hack VC und Centrifuge unterstützt wird. Das Programm richtet sich an Teams in der Frühphase, die RWA-fokussierte DeFi-Anwendungen entwickeln, wobei Projekten Vorrang eingeräumt wird, die Folgendes nutzen:

Tiefe parallele Ausführung: Anwendungen, die den Durchsatz von SALI nutzen – wie Hochfrequenzhandelsplätze, automatisierte Portfoliomanager oder Echtzeit-Settlement-Layer.

Modulares Compliance-Design: Tools, die die SPN-Architektur von Pharos für die regulatorisch konforme Emission von Vermögenswerten integrieren – man denke an Anleiheplattformen, die eine Verifizierung für akkreditierte Investoren erfordern.

Grenzüberschreitende Zahlungsinfrastruktur: Stablecoin-Schienen, Remittance-Protokolle (Überweisungen) oder Händler-Abrechnungssysteme, die die Finalität von Pharos im Subsekundenbereich nutzen.

Die Fokusbereiche der ersten Kohorte offenbaren die These von Pharos:

Tokenisierte Privatkredite: Plattformen, die den Bruchteilseigentum an Unternehmenskrediten, Immobilienhypotheken oder Handelsfinanzierungen ermöglichen. Hier fand 90 % des RWA-Wachstums im Jahr 2025 statt – Pharos möchte diese Vertikale besetzen.

Institutionelle DeFi-Primitiven: Lending-Protokolle für RWA-Sicherheiten (z. B. Kredite gegen tokenisierte Staatsanleihen), Derivatemärkte für Rohstoffe oder Liquiditätspools für Unternehmensanleihen.

Compliance-as-a-Service (CaaS): Middleware, die es anderen Chains ermöglicht, sich an die Compliance-Infrastruktur von Pharos anzubinden – man denke an Chainalysis für AML, aber on-chain und kryptografisch verifizierbar.

Die Beteiligung von Centrifuge ist strategisch – sie leisteten Pionierarbeit bei On-Chain-Privatkrediten mit über 500 Millionen Dollar an finanzierten Vermögenswerten. Die Integration der Kreditinfrastruktur von Centrifuge mit der Hochdurchsatz-Ausführung von Pharos schafft einen beeindruckenden RealFi-Stack.

Das Erbe der Ant Group: Warum dieses Team wichtig ist

Die Glaubwürdigkeit von Pharos resultiert aus seinem Hintergrund. Alex Zhang, CEO von Pharos, war zuvor CTO der Ant Chain – dort beaufsichtigte er Blockchain-Systeme, die über 1 Milliarde Transaktionen jährlich für das Ökosystem von Alibaba verarbeiteten. Die Ant Chain treibt Folgendes an:

  • Lieferkettenfinanzierung: Automatisierung von Rechnungs-Factoring und Handelsfinanzierung für kleine Unternehmen
  • Grenzüberschreitende Überweisungen: Abwicklung zwischen Alipay und internationalen Partnern
  • Digitale Identität: Blockchain-basiertes KYC für Finanzdienstleistungen

Dies ist keine akademische Blockchain-Forschung – es handelt sich um eine Infrastruktur auf Produktionsniveau, die ein jährliches Transaktionsvolumen von über 2 Billionen $ unterstützt. Das Kernteam von Pharos hat bereits während seiner Zeit bei der Ant Group reale Vermögenswerte (RWAs) tokenisiert, wie beispielsweise Xiexin Energy Technology und die Langxin Group. Dies verschaffte ihnen praktische Erfahrung in der regulatorischen Navigation, der Integration von Verwahrstellen (Custody) und institutionellen Arbeitsabläufen.

Weitere Teammitglieder kommen von Solana (Hochleistungsausführung), Ripple (grenzüberschreitende Zahlungen) und OKX (Infrastruktur auf Börsenniveau). Diese Mischung – regulatorische TradFi-Expertise trifft auf Krypto-natives Performance-Engineering – ist selten. Die meisten RWA-Projekte sind entweder:

  • TradFi-nativ: Starke Compliance, aber schlechte UX (langsame Finalität, hohe Gebühren, keine Komponierbarkeit)
  • Krypto-nativ: Schnell und permissionless, aber regulatorisch schwierig (Institutionen können nicht eingebunden werden)

Pharos schlägt die Brücke zwischen beiden Welten. Das Team weiß, wie man SEC-Registrierungen erfüllt (Erfahrung der Ant Chain), einen Konsens mit hohem Durchsatz entwirft (Solana-Hintergrund) und eine Integration in bestehende Finanzsysteme realisiert (Ripples Zahlungsnetzwerke).

Mainnet-Zeitplan und Token Generation Event (TGE)

Pharos plant den Start seines Mainnets und das TGE für das erste Quartal 2026. Das Testnet ist bereits live, wobei Entwickler RWA-Anwendungen erstellen und die parallele Ausführung von SALI unter Stress testen.

Wichtige Meilensteine:

Mainnet-Launch im Q1 2026: Volle EVM- + WASM-Unterstützung, SALI-optimierte Ausführung und erste SPN-Bereitstellungen für regulierte Vermögenswerte.

Token Generation Event (TGE): Der PHAROS-Token wird folgenden Zwecken dienen:

  • Staking-Sicherheiten für Validatoren, die das Mainnet und die SPNs sichern
  • Governance-Rechte für Protokoll-Upgrades und die Genehmigung von SPNs
  • Zahlung von Gebühren für die Transaktionsverarbeitung (ähnlich wie ETH auf Ethereum)
  • Restaking-Belohnungen für Validatoren, die sowohl am Mainnet als auch an anwendungsspezifischen Netzwerken teilnehmen

Bereitstellungen der Inkubator-Kohorte: Die erste Gruppe von „Pharos-nativen“ Projekten, die auf dem Mainnet starten – voraussichtlich einschließlich tokenisierter Kreditplattformen, Compliance-Tools und DeFi-Primitiven für RWAs.

Institutionelle Partnerschaften: Integrationen mit Custody-Anbietern (BitGo, Fireblocks), Compliance-Plattformen (Chainalysis, Elliptic) und Asset-Originatoren (Private-Credit-Fonds, Immobilien-Tokenisierer).

Der Zeitpunkt passt zu den breiteren Markttrends. Bernsteins Ausblick für 2026 prognostiziert, dass das Stablecoin-Angebot 420 Milliarden erreichenwirdundsichderRWATVLauf80Milliardenerreichen wird und sich der RWA-TVL auf 80 Milliarden verdoppelt – Pharos positioniert sich als die Infrastruktur, die dieses Wachstum auffängt.

Die Wettbewerbslandschaft: Pharos vs. Ethereum L2s, Solana und Cosmos

Pharos tritt in einen hart umkämpften Markt ein. Wie schneidet es im Vergleich zur bestehenden RWA-Infrastruktur ab?

Ethereum L2s (Arbitrum, Optimism, Base): Starke Entwickler-Ökosysteme und EVM-Kompatibilität, aber die meisten L2s priorisieren Skalierbarkeit gegenüber Compliance. Ihnen fehlen native regulatorische Primitiven – die Ausgabe von zulassungsbeschränkten Assets erfordert benutzerdefinierte Smart-Contract-Logik, was zu einer Fragmentierung der Standards führt. Die SPN-Architektur von Pharos standardisiert Compliance auf der Protokollebene.

Solana: Unübertroffener Durchsatz (65.000 TPS), aber keine native EVM-Unterstützung – Entwickler müssen Solidity-Contracts in Rust umschreiben. Institutionelle DeFi-Teams werden EVM-Tools nicht aufgeben. Pharos bietet Solana-ähnliche Geschwindigkeit bei gleichzeitiger EVM-Kompatibilität und senkt so die Migrationsbarrieren.

Avalanche Subnets: Ähnliche modulare Architektur wie die SPNs von Pharos, aber Avalanche positioniert sich als Allzweck-Lösung. Pharos ist laserfokussiert auf RWA – jede Designentscheidung (SALI-Parallelisierung, Dual-VM, Compliance-Module) ist für Finanzmärkte optimiert. Spezialisierung könnte dort zu institutioneller Akzeptanz führen, wo Allzweck-Chains an ihre Grenzen stoßen.

Cosmos App-Chains: Starke Interoperabilität via IBC (Inter-Blockchain Communication), aber Cosmos-Chains sind fragmentiert – Liquidität aggregiert sich nicht auf natürliche Weise. Das Modell von Pharos aus Mainnet + SPN hält die Liquidität vereint und ermöglicht gleichzeitig regulatorische Isolierung. Die Kapitaleffizienz ist höher.

Polymesh: Eine Compliance-fokussierte Blockchain für Wertpapiere, aber Polymesh opfert die Komponierbarkeit – es ist ein geschlossenes System („Walled Garden“) für tokenisierte Aktien. Pharos balanciert Compliance (über SPNs) mit DeFi-Komponierbarkeit (über das erlaubnisfreie Mainnet). Institutionen können auf dezentrale Liquidität zugreifen, ohne regulatorische Rahmenbedingungen verlassen zu müssen.

Der Vorteil von Pharos ist die zweckgebundene RealFi-Architektur. Ethereum L2s rüsten Compliance nachträglich auf Systeme nach, die für Dezentralisierung konzipiert wurden. Pharos integriert Compliance direkt in die Konsensschicht – was sie für regulierte Vermögenswerte günstiger, schneller und zuverlässiger macht.

Risiken und offene Fragen

Die Ambitionen von Pharos sind kühn, doch es zeichnen sich mehrere Risiken ab:

Regulatorische Unsicherheit: Die RWA-Tokenisierung bleibt in den meisten Rechtsordnungen rechtlich unklar. Falls die SEC gegen tokenisierte Wertpapiere vorgeht oder die MiCA-Regulierungen der EU übermäßig restriktiv werden, könnte das auf Compliance ausgerichtete Design von Pharos zu einer Belastung werden – Regulatoren könnten zentralisierte Kontrollpunkte fordern, die im Widerspruch zum Dezentralisierungs-Ethos der Blockchain stehen.

Liquiditätsfragmentierung: SPNs lösen das Problem der regulatorischen Isolierung, riskieren jedoch eine Fragmentierung der Liquidität. Wenn der Großteil des institutionellen Kapitals auf zugangsbeschränkten SPNs mit begrenzten Bridges zum Mainnet verbleibt, können DeFi-Protokolle nicht effizient auf dieses Kapital zugreifen. Pharos muss ein Gleichgewicht zwischen Compliance und Kapitalgeschwindigkeit finden.

Dezentralisierung der Validatoren: Die parallele Ausführung von SALI erfordert Hochleistungs-Nodes. Wenn sich nur Enterprise-Validatoren (Coinbase, Binance, Fireblocks) die Hardware leisten können, riskiert Pharos, zu einer Konsortium-Chain zu werden – wodurch die Zensurresistenz und die erlaubnisfreien (permissionless) Eigenschaften der Blockchain verloren gehen.

Wettbewerb durch etablierte TradFi-Akteure: Das Canton Network von JPMorgan, die Digital Asset Platform von Goldman Sachs und die Blockchain-Initiativen von BNY Mellon bauen private, zugangsbeschränkte RWA-Infrastrukturen auf. Wenn Institutionen die Zusammenarbeit mit vertrauenswürdigen TradFi-Marken gegenüber krypto-nativen Chains bevorzugen, könnte das öffentliche Blockchain-Modell von Pharos Schwierigkeiten haben, Fuß zu fassen.

Zeitplan für die Einführung: Der Aufbau des 10-Billionen-$-RWA-Marktes dauert Jahre – vielleicht Jahrzehnte. Das Mainnet von Pharos startet im 1. Quartal 2026, aber eine flächendeckende institutionelle Akzeptanz (Pensionsfonds, die Portfolios tokenisieren, Zentralbanken, die Blockchain-Settlement nutzen) wird nicht über Nacht eintreten. Kann Pharos die Entwicklung und das Community-Momentum durch eine potenziell lange Adoptionskurve aufrechterhalten?

Dies sind keine fatalen Fehler – es sind Herausforderungen, denen jede RWA-Blockchain gegenübersteht. Die Herkunft von Pharos aus der Ant Group und der institutionelle Fokus geben dem Projekt eine reelle Chance, aber die Umsetzung wird über den Erfolg entscheiden.

Die 10-Billionen-$-Frage: Kann Pharos die Zukunft von RealFi erobern?

Die These von Pharos ist simpel: Das reale Finanzwesen migriert On-Chain, und die Infrastruktur, die diese Migration vorantreibt, muss institutionelle Anforderungen erfüllen – Geschwindigkeit, Compliance und Interoperabilität mit Legacy-Systemen. Bestehende Chains scheitern an einem oder mehreren dieser Tests. Ethereum ist zu langsam. Solana fehlen Compliance-Primitive. L2s fragmentieren die Liquidität. Cosmos-Chains kämpfen mit der regulatorischen Standardisierung.

Pharos wurde entwickelt, um diese Probleme zu lösen. Die SALI-Parallelisierung liefert einen Durchsatz auf TradFi-Niveau. SPNs ermöglichen modulare Compliance. Die Dual-VM-Architektur maximiert die Akzeptanz durch Entwickler. Das Team der Ant Group bringt praxiserprobte Expertise ein. Und der 10-Millionen-$-Inkubator fördert ein Ökosystem an Anwendungen.

Wenn die Prognose eines 10-Billionen-$-RWA-Marktes eintritt, positioniert sich Pharos als der Layer, der diesen Wert einfängt. Der Mainnet-Launch im 1. Quartal 2026 wird zeigen, ob die Blockchain-Veteranen der Ant Group ihren TradFi-Erfolg in der dezentralen Welt wiederholen können – oder ob die Zukunft von RealFi dem ständig wachsenden L2-Ökosystem von Ethereum gehört.

Das Rennen um den 10-Billionen-$-RealFi-Markt hat begonnen. Pharos ist gerade in die Startaufstellung gerückt.


Quellen:

Consensys IPO 2026: Wie das Wall-Street-Debüt von MetaMask die Investitionen in die Ethereum-Infrastruktur neu gestalten wird

· 15 Min. Lesezeit
Dora Noda
Software Engineer

Die Mauern zwischen Krypto-Natives und dem traditionellen Finanzwesen werden bald deutlich dünner werden. Consensys, das Software-Kraftzentrum hinter MetaMask und Infura, hat JPMorgan Chase und Goldman Sachs beauftragt, den wohl bedeutendsten Blockchain-Börsengang des Jahres 2026 zu leiten. Dies ist nicht einfach nur ein weiteres Tech-Unternehmen, das an die Börse geht – es ist der direkte Einstieg der Wall Street in die Kerninfrastruktur von Ethereum über Eigenkapital, und die Auswirkungen reichen weit über ein einzelnes Aktiensymbol hinaus.

Ein Jahrzehnt lang agierte Consensys im Schatten der Infrastrukturebene von Kryptowährungen – jenem wenig glanzvollen, aber unverzichtbaren „Leitungssystem“, das täglich Millionen von Blockchain-Interaktionen ermöglicht. Heute, da MetaMask 30 Millionen monatlich aktive Nutzer zählt und Infura täglich über 10 Milliarden API-Anfragen verarbeitet, bereitet sich das Unternehmen darauf vor, sich von einem Risikokapital-finanzierten Krypto-Pionier in ein börsennotiertes Unternehmen mit einem potenziellen Wert von über 10 Milliarden $ zu verwandeln.

Vom Ethereum-Mitbegründer zu den öffentlichen Märkten

Gegründet im Jahr 2014 von Joseph Lubin, einem der ursprünglichen Mitbegründer von Ethereum, hat Consensys über ein Jahrzehnt damit verbracht, die unsichtbare Infrastrukturschicht von Web3 aufzubauen. Während Kleinanleger Memecoins und DeFi-Renditen nachjagten, konstruierte Consensys im Stillen die Werkzeuge, die diese Aktivitäten erst möglich machten.

Die letzte Finanzierungsrunde des Unternehmens im März 2022 brachte 450 Millionen beieinerPostMoneyBewertungvon7Milliardenbei einer Post-Money-Bewertung von 7 Milliarden ein, angeführt von ParaFi Capital. Der Handel am Sekundärmarkt deutet jedoch darauf hin, dass die aktuellen Bewertungen bereits 10 Milliarden $ überschritten haben – ein Aufschlag, der sowohl die Marktbeherrschung des Unternehmens als auch den strategischen Zeitpunkt seines Börsendebüts widerspiegelt.

Die Entscheidung, mit JPMorgan und Goldman Sachs zusammenzuarbeiten, ist nicht nur symbolischer Natur. Diese Titanen der Wall Street verleihen dem Unternehmen Glaubwürdigkeit bei institutionellen Anlegern, die Krypto gegenüber skeptisch bleiben, aber Infrastrukturmodelle verstehen. JPMorgan verfügt über umfassende Blockchain-Erfahrung durch seine Onyx-Abteilung und das Canton Network, während Goldman im Stillen eine Plattform für digitale Vermögenswerte für institutionelle Kunden aufgebaut hat.

MetaMask: Der Browser des Web3

MetaMask ist nicht nur eine Wallet – es ist zum De-facto-Tor zu Ethereum und dem breiteren Web3-Ökosystem geworden. Mit über 30 Millionen monatlich aktiven Nutzern Mitte 2025, was einem Anstieg von 55 % in nur vier Monaten gegenüber 19 Millionen im September 2024 entspricht, hat MetaMask das erreicht, was nur wenige Krypto-Produkte von sich behaupten können: einen echten Product-Market-Fit jenseits von Spekulationen.

Die Zahlen erzählen die Geschichte der globalen Reichweite von Web3. Allein auf Nigeria entfallen 12,7 % der Nutzerbasis von MetaMask, während die Wallet mittlerweile 11 Blockchains unterstützt, einschließlich neuer Erweiterungen wie dem Sei Network. Dies ist kein Projekt für eine einzelne Chain – es ist die Infrastruktur für eine Multi-Chain-Zukunft.

Jüngste Produktentwicklungen deuten auf die Monetarisierungsstrategie von Consensys im Vorfeld des Börsengangs hin. Joseph Lubin bestätigte, dass ein nativer MASK-Token in Entwicklung ist, zusammen mit Plänen zur Einführung des Handels mit Perpetual Futures innerhalb der Wallet und eines Belohnungsprogramms für Nutzer. Diese Schritte deuten darauf hin, dass Consensys mehrere Einnahmequellen vorbereitet, um die Bewertungen am öffentlichen Markt zu rechtfertigen.

Der wahre Wert von MetaMask liegt jedoch in seinen Netzwerkeffekten. Jeder dApp-Entwickler setzt standardmäßig auf MetaMask-Kompatibilität. Jede neue Blockchain wünscht sich eine MetaMask-Integration. Die Wallet ist zum Chrome-Browser des Web3 geworden – allgegenwärtig, unverzichtbar und ohne außerordentlichen Aufwand fast unmöglich zu verdrängen.

Infura: Die unsichtbare Infrastrukturschicht

Während MetaMask die Schlagzeilen beherrscht, stellt Infura für institutionelle Anleger den wichtigsten Vermögenswert von Consensys dar. Der Ethereum-API-Infrastrukturdienst unterstützt 430.000 Entwickler und verarbeitet ein jährliches On-Chain-ETH-Transaktionsvolumen von über 1 Billion $.

Die verblüffende Realität ist: 80–90 % des gesamten Krypto-Ökosystems verlassen sich auf die Infrastruktur von Infura, einschließlich MetaMask selbst. Als Infura im November 2020 einen Ausfall erlitt, waren große Börsen wie Binance und Bithumb gezwungen, Ethereum-Auszahlungen zu stoppen. Dieser Single Point of Failure wurde zu einem Single Point of Value – das Unternehmen, das Infura am Laufen hält, hält im Wesentlichen den Zugang zu Ethereum aufrecht.

Infura verarbeitet über 10 Milliarden API-Anfragen pro Tag und stellt die Node-Infrastruktur bereit, deren Eigenbetrieb sich die meisten Projekte nicht leisten können. Das Aufsetzen und Warten von Ethereum-Nodes erfordert technisches Fachwissen, ständige Überwachung und erhebliche Investitionsausgaben. Infura abstrahiert diese gesamte Komplexität und ermöglicht es Entwicklern, sich auf den Bau von Anwendungen zu konzentrieren, anstatt die Infrastruktur zu warten.

Für traditionelle Investoren, die den Börsengang bewerten, ist Infura der Vermögenswert, der einem traditionellen SaaS-Geschäft am ähnlichsten ist. Es verfügt über vorhersehbare Unternehmensverträge, eine nutzungsbasierte Preisgestaltung und einen treuen Kundenstamm, der ohne den Dienst buchstäblich nicht funktionieren kann. Dies ist die „langweilige“ Infrastruktur, die die Wall Street versteht.

Linea: Die Layer-2-Wildcard

Consensys betreibt auch Linea, ein auf Ethereum aufgebautes Layer-2-Skalierungsnetzwerk. Obwohl Linea weniger ausgereift ist als MetaMask oder Infura, repräsentiert es die Wette des Unternehmens auf die Skalierungs-Roadmap von Ethereum und positioniert Consensys so, dass es am Wert der L2-Ökonomie partizipiert.

Layer-2-Netzwerke sind für die Nutzbarkeit von Ethereum entscheidend geworden, da sie Tausende von Transaktionen pro Sekunde zu einem Bruchteil der Kosten des Mainnets verarbeiten. Base, Arbitrum und Optimism wickeln zusammen über 90 % des Layer-2-Transaktionsvolumens ab – doch Linea hat durch seine Integration mit MetaMask und Infura strategische Vorteile.

Jeder MetaMask-Nutzer ist ein potenzieller Linea-Nutzer. Jeder Infura-Kunde ist ein natürlicher Linea-Entwickler. Diese vertikale Integration verschafft Consensys Vertriebsvorteile, die unabhängigen L2-Netzwerken fehlen, auch wenn die Umsetzung in einem wettbewerbsintensiven Marktumfeld der entscheidende Faktor bleibt.

Grünes Licht von der Regulierung

Timing ist in der Finanzwelt entscheidend, und Consensys hat seinen Moment sorgfältig gewählt. Die Entscheidung der SEC, ihr Durchsetzungsverfahren gegen das Unternehmen Anfang 2025 einzustellen, beseitigte das größte einzelne Hindernis für einen Börsengang.

Die SEC hatte Consensys im Juni 2024 verklagt und behauptet, dass die Staking - Dienste von MetaMask – die seit Januar 2023 Liquid Staking über Lido und Rocket Pool anboten – nicht registrierte Wertpapierangebote darstellten. Der Fall zog sich über acht Monate hin, bevor die Behörde zustimmte, ihn nach Führungswechseln bei der SEC unter Kommissar Mark Uyeda einzustellen.

Dieser Vergleich tat mehr, als nur eine rechtliche Hürde zu nehmen. Er schuf einen regulatorischen Präzedenzfall dafür, dass Wallet - basierte Staking - Dienste, wenn sie ordnungsgemäß strukturiert sind, nicht automatisch gegen Wertpapiergesetze verstoßen. Für die Nutzerbasis von MetaMask und die IPO - Aussichten von Consensys war diese Klarheit die Rechtskosten wert.

Auch das allgemeinere regulatorische Umfeld hat sich gewandelt. Die Fortschritte des GENIUS Acts bei der Stablecoin - Regulierung, die wachsende Rolle der CFTC bei der Aufsicht über digitale Vermögenswerte und der maßvollere Ansatz der SEC unter neuer Führung haben ein Fenster für Krypto - Unternehmen geöffnet, um ohne ständiges regulatorisches Risiko in die öffentlichen Märkte einzutreten.

Warum TradFi ein Ethereum - Engagement sucht

Bitcoin - ETFs haben die meiste Aufmerksamkeit erregt und verwalten ein Vermögen von über 123 Milliarden US - Dollar, wobei allein IBIT von BlackRock über 70 Milliarden US - Dollar hält. Ethereum - ETFs sind gefolgt, wenn auch mit weniger Aufsehen. Beide Produkte stehen jedoch vor einer grundlegenden Einschränkung: Sie bieten ein Engagement in Token, nicht in die Unternehmen, die auf den Protokollen aufbauen.

Hier wird der Börsengang von Consensys strategisch wichtig. Traditionelle Anleger können nun am Wachstum des Ethereum - Ökosystems über Eigenkapital statt über den Besitz von Token teilhaben. Keine Kopfschmerzen bei der Verwahrung. Keine Verwaltung privater Schlüssel. Keine Erklärungsnot gegenüber der Compliance, warum man Kryptowährungen hält. Einfach nur Anteile an einem Unternehmen mit Umsatz, Mitarbeitern und erkennbaren Kennzahlen.

Für institutionelle Anleger, die internen Beschränkungen für den direkten Besitz von Kryptowährungen unterliegen, bietet die Aktie von Consensys einen Proxy für den Erfolg von Ethereum. Wenn Ethereum mehr Transaktionen verarbeitet, nutzen mehr Entwickler Infura. Wenn die Web3 - Adoption wächst, laden mehr Nutzer MetaMask herunter. Der Umsatz des Unternehmens sollte theoretisch mit der Netzwerkaktivität korrelieren, ohne die Volatilität der Token - Preise.

Dieses eigenkapitalbasierte Engagement ist besonders wichtig für Pensionsfonds, Versicherungsgesellschaften und andere institutionelle Akteure mit strengen Mandaten gegen Kryptowährungsbestände, aber mit Appetit auf Wachstum in der Infrastruktur für digitale Vermögenswerte.

Die Krypto - IPO - Welle von 2026

Consensys ist nicht allein mit dem Blick auf die öffentlichen Märkte. Circle, Kraken und der Hardware - Wallet - Hersteller Ledger haben alle IPO - Pläne signalisiert und damit das geschaffen, was einige Analysten als die „große Krypto - Institutionalisierung“ von 2026 bezeichnen.

Berichten zufolge strebt Ledger eine Bewertung von 4 Milliarden US - Dollar bei einer Notierung in New York an. Circle, der Herausgeber des Stablecoins USDC, hatte zuvor eine SPAC - Fusion beantragt, die scheiterte, bleibt aber entschlossen, an die Börse zu gehen. Kraken hat sich nach der Übernahme von NinjaTrader für 1,5 Milliarden US - Dollar als Full - Stack - Finanzplattform positioniert, die bereit für die öffentlichen Märkte ist.

Doch Consensys verfügt über einzigartige Vorteile. Der Bekanntheitsgrad der Verbrauchermarke MetaMask stellt den von auf Unternehmen fokussierten Wettbewerbern in den Schatten. Die Infrastruktur - Bindung von Infura schafft vorhersehbare Einnahmequellen. Und die Verbindung zu Ethereum – durch Lubins Status als Mitbegründer und das jahrzehntelante Engagement des Unternehmens beim Aufbau des Ökosystems – verleiht Consensys ein Narrativ, das über Krypto - Kreise hinaus Resonanz findet.

Das Timing spiegelt auch den Reifungszyklus von Krypto wider. Das vierjährige Halving - Muster von Bitcoin mag am Ende sein, wie Bernstein und Pantera Capital argumentieren, und wurde durch kontinuierliche institutionelle Zuflüsse und die Einführung von Stablecoins ersetzt. In diesem neuen Regime ziehen Infrastrukturunternehmen mit dauerhaften Geschäftsmodellen Kapital an, während spekulative Token - Projekte zu kämpfen haben.

Bewertungsfragen und die Realität der Einnahmen

Das große Thema bei der IPO - Roadshow werden Umsatz und Rentabilität sein. Consensys hat sich über seine Finanzen bedeckt gehalten, aber Branchenschätzungen deuten darauf hin, dass das Unternehmen jährlich hunderte Millionen an Einnahmen generiert, primär aus Infura - Unternehmensverträgen und MetaMask - Transaktionsgebühren.

MetaMask monetarisiert über Token - Swaps – das Unternehmen behält einen kleinen Prozentsatz jedes Swaps ein, der über den im Wallet integrierten Börsen - Aggregator ausgeführt wird. Mit Millionen von monatlich aktiven Nutzern und steigenden Transaktionsvolumina skaliert dieser passive Einkommensstrom automatisch.

Infura arbeitet nach einem Freemium - Modell: kostenlose Stufen für Entwickler, die gerade erst anfangen, kostenpflichtige Stufen für Produktionsanwendungen und maßgeschneiderte Unternehmensverträge für Großprojekte. Die Beständigkeit von Infrastruktur bedeutet hohe Bruttomargen, sobald Kunden integriert sind – der Wechsel des Infrastrukturanbieters mitten im Projekt ist kostspielig und riskant.

Dennoch bleiben Fragen offen. Wie schneidet die Bewertung von Consensys im Vergleich zu traditionellen SaaS - Unternehmen mit ähnlichen Umsatzmultiplikatoren ab? Was passiert, wenn Ethereum Marktanteile an Solana verliert, das mit seinen Leistungsvorteilen das Interesse von Institutionen geweckt hat? Kann MetaMask seine Dominanz behaupten, während der Wettbewerb durch Coinbase Wallet, Phantom und andere zunimmt?

Zweitmarkt - Bewertungen von über 10 Milliarden US - Dollar deuten darauf hin, dass Anleger ein erhebliches Wachstum einpreisen. Der Börsengang wird Consensys dazu zwingen, diese Zahlen mit harten Daten zu rechtfertigen, nicht nur mit krypto - nativem Enthusiasmus.

Was dies für die Blockchain-Infrastruktur bedeutet

Wenn der Börsengang (IPO) von Consensys gelingt, validiert dies ein Geschäftsmodell, dessen Beweis weite Teile der Krypto-Welt bisher schuldig geblieben sind: der Aufbau nachhaltiger, profitabler Infrastrukturunternehmen auf öffentlichen Blockchains. Viel zu lange existierten Krypto-Unternehmen in einer Grauzone – zu experimentell für traditionelle Risikokapitalgeber, zu zentralisiert für Krypto-Puristen.

Öffentliche Märkte verlangen Transparenz, vorhersehbare Einnahmen und Governance-Standards. Ein erfolgreicher Consensys-Börsengang würde demonstrieren, dass Blockchain-Infrastrukturunternehmen diese Standards erfüllen können, während sie gleichzeitig die Versprechen von Web3 einlösen.

Dies ist für das gesamte Ökosystem von Bedeutung. BlockEden.xyz und andere Infrastrukturanbieter konkurrieren in einem Markt, in dem Kunden oft standardmäßig auf kostenlose Tarife zurückgreifen oder hinterfragen, ob Blockchain-APIs Premium-Preise rechtfertigen. Ein börsennotiertes Consensys mit offengelegten Margen und Wachstumsraten würde Benchmarks für die Branche setzen.

Noch wichtiger ist, dass es Kapital und Talente anziehen würde. Entwickler und Führungskräfte, die eine Karriere im Blockchain-Bereich in Erwägung ziehen, werden die Aktienperformance von Consensys als Signal betrachten. Risikokapitalgeber, die Infrastruktur-Startups bewerten, werden die Bewertungsmultiplikatoren von Consensys als Vergleichswerte heranziehen. Die Validierung durch den öffentlichen Markt schafft Netzwerkeffekte in der gesamten Branche.

Der Weg bis Mitte 2026

Der Zeitplan für den Börsengang deutet auf eine Notierung Mitte 2026 hin, obwohl die genauen Daten noch variabel bleiben. Consensys wird seine Finanzen finalisieren, aufsichtsrechtliche Einreichungen abschließen, Roadshows durchführen und sich durch die Marktbedingungen navigieren müssen, die zum Zeitpunkt des Angebots herrschen.

Die aktuelle Marktdynamik ist gemischt. Bitcoin stürzte kürzlich von einem Allzeithoch von 126.000 $ auf 74.000 $ ab, infolge von Trumps Zollpolitik und Kevin Warshs Nominierung für die Fed, was Liquidationen von über 2,56 Milliarden $ auslöste. Ethereum hat Schwierigkeiten, sich gegenüber den Leistungsvorteilen von Solana und der institutionellen Neuausrichtung zu behaupten.

Infrastruktur-Investments verhalten sich jedoch oft anders als Token-Märkte. Investoren, die Consensys bewerten, werden nicht auf die Preisbewegung von ETH wetten – sie werden beurteilen, ob die Web3-Adoption anhält, unabhängig davon, welcher Layer 1 Marktanteile gewinnt. MetaMask unterstützt 11 Chains. Infura bedient zunehmend Multi-Chain-Entwickler. Das Unternehmen hat sich als kettenagnostische Infrastruktur positioniert.

Die Wahl von JPMorgan und Goldman Sachs als Haupt-Underwriter deutet darauf hin, dass Consensys eine starke institutionelle Nachfrage erwartet. Diese Banken würden keine Ressourcen für ein Angebot bereitstellen, von dem sie bezweifeln, dass es bedeutendes Kapital anziehen kann. Ihre Beteiligung bringt auch Vertriebsnetzwerke mit sich, die Pensionsfonds, Staatsfonds und Family Offices erreichen, die selten direkt mit Krypto in Berührung kommen.

Jenseits des Börsenkürzels

Wenn Consensys den Handel unter dem gewählten Kürzel aufnimmt, gehen die Auswirkungen über den Erfolg eines einzelnen Unternehmens hinaus. Dies ist ein Test dafür, ob die Blockchain-Infrastruktur den Übergang von Risikokapital-finanzierten Experimenten zu börsennotierter Beständigkeit schaffen kann.

Für Ethereum ist es die Bestätigung, dass das Ökosystem Milliarden-Dollar-Unternehmen jenseits von Token-Spekulationen hervorbringen kann. Für die Krypto-Branche im Allgemeinen ist es der Beweis, dass die Branche über Boom-Bust-Zyklen hinaus zu nachhaltigen Geschäftsmodellen reift. Und für Web3-Entwickler ist es ein Signal, dass der Aufbau von Infrastruktur – die unspektakuläre Arbeit im Hintergrund hinter glanzvollen dApps – generationenübergreifenden Wohlstand schaffen kann.

Der Börsengang wirft auch schwierige Fragen zur Dezentralisierung auf. Kann ein Unternehmen, das so viel vom Benutzerzugang und der Infrastruktur von Ethereum kontrolliert, wirklich mit dem dezentralen Ethos von Krypto in Einklang gebracht werden? Die Dominanz von MetaMask und die zentralisierten Knoten von Infura stellen Single Points of Failure in einem System dar, das darauf ausgelegt ist, diese zu eliminieren.

Diese Spannungen werden sich vor dem Börsengang nicht auflösen, aber sie werden sichtbarer werden, sobald Consensys den Aktionären Bericht erstattet und dem Druck der Quartalszahlen ausgesetzt ist. Aktiengesellschaften optimieren auf Wachstum und Profitabilität, was manchmal im Widerspruch zur Dezentralisierung auf Protokollebene steht.

Das Fazit: Infrastruktur wird investierbar

Der Börsengang von Consensys repräsentiert mehr als nur den Weg eines Unternehmens vom Krypto-Startup an die öffentlichen Märkte. Es ist der Moment, in dem sich die Blockchain-Infrastruktur von einer spekulativen Technologie in investierbare Vermögenswerte verwandelt, die das traditionelle Finanzwesen verstehen, bewerten und in Portfolios integrieren kann.

JPMorgan und Goldman Sachs führen keine Angebote an, bei denen sie ein Scheitern erwarten. Die Bewertung von über 10 Milliarden $ spiegelt den echten Glauben wider, dass die Nutzerbasis von MetaMask, die Infrastrukturdominanz von Infura und die fortschreitende Adoption von Ethereum dauerhaften Wert schaffen. Ob sich dieser Glaube als richtig erweist, wird von der Umsetzung, den Marktbedingungen und dem kontinuierlichen Wachstum von Web3 jenseits von Hype-Zyklen abhängen.

Für Entwickler, die auf Ethereum aufbauen, bietet der Börsengang eine Bestätigung. Für Investoren, die ein Engagement jenseits der Token-Volatilität suchen, bietet er ein Instrument. Und für die Blockchain-Branche im Allgemeinen markiert er einen weiteren Schritt in Richtung Legitimität in den Augen des traditionellen Finanzwesens.

Die Frage ist nicht, ob Consensys an die Börse gehen wird – das scheint entschieden. Die Frage ist, ob seine Performance am öffentlichen Markt die nächste Generation von Blockchain-Infrastrukturunternehmen ermutigen oder entmutigen wird, denselben Weg einzuschlagen.

Der Aufbau einer zuverlässigen Blockchain-Infrastruktur erfordert mehr als nur Code – er verlangt eine robuste, skalierbare Architektur, der Unternehmen vertrauen. BlockEden.xyz bietet Enterprise-Grade-Knoteninfrastruktur für Entwickler, die auf Ethereum, Sui, Aptos und anderen führenden Chains aufbauen, mit der Zuverlässigkeit und Leistung, die Produktionsanwendungen erfordern.

Quellen

Sicherheitskrise bei Cold Wallets: Wie die monatelangen Vorbereitungsangriffe der Lazarus-Gruppe die stärksten Krypto-Verteidigungen besiegen

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Ihre Cold Wallet ist nicht so sicher, wie Sie denken. Im Jahr 2025 machten Infrastrukturangriffe — die auf private Schlüssel, Wallet-Systeme und die Menschen, die sie verwalten, abzielen — 76 % aller gestohlenen Kryptowährungen aus, was sich in nur 45 Vorfällen auf insgesamt 2,2 Milliarden US-Dollar belief. Die Lazarus-Gruppe, die staatlich geförderte Hacker-Einheit Nordkoreas, hat ein Playbook perfektioniert, das die traditionelle Cold-Storage-Sicherheit fast bedeutungslos macht: monatelange Infiltrationskampagnen, die auf Menschen statt auf Code abzielen.

Ethereums BPO-2 Upgrade: Eine neue Ära der parametrischen Skalierbarkeit

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was passiert, wenn eine Blockchain beschließt, nicht durch eine Neuerfindung, sondern einfach durch das Aufdrehen der Regler zu skalieren? Am 7. Januar 2026 aktivierte Ethereum BPO-2 – den zweiten „Blob Parameters Only“-Fork – und schloss damit die letzte Phase des Fusaka-Upgrades geräuschlos ab. Das Ergebnis: eine Kapazitätserweiterung um 40 %, die die Layer-2-Gebühren über Nacht um bis zu 90 % senkte. Dies war keine prunkvolle Protokollüberholung. Es war chirurgische Präzision, die bewies, dass die Skalierbarkeit von Ethereum nun parametrisch und nicht mehr prozedural ist.

Das BPO-2-Upgrade: Zahlen, die zählen

BPO-2 erhöhte das Blob-Ziel von Ethereum von 10 auf 14 und das maximale Blob-Limit von 15 auf 21. Jeder Blob enthält 128 Kilobyte an Daten, was bedeutet, dass ein einzelner Block nun etwa 2,6 – 2,7 Megabyte an Blob-Daten transportieren kann – gegenüber etwa 1,9 MB vor dem Fork.

Zum Hintergrund: Blobs sind Datenpakete, die Rollups auf Ethereum veröffentlichen. Sie ermöglichen es Layer-2-Netzwerken wie Arbitrum, Base und Optimism, Transaktionen außerhalb der Chain zu verarbeiten und gleichzeitig die Sicherheitsgarantien von Ethereum zu übernehmen. Wenn der Blob-Speicher knapp ist, konkurrieren Rollups um Kapazität, was die Kosten in die Höhe treibt. BPO-2 hat diesen Druck gemildert.

Der Zeitplan: Der dreiphasige Rollout von Fusaka

Das Upgrade fand nicht isoliert statt. Es war die letzte Phase des methodischen Deployments von Fusaka:

  • 3. Dezember 2025: Aktivierung des Fusaka-Mainnets, Einführung von PeerDAS (Peer Data Availability Sampling)
  • 9. Dezember 2025: BPO-1 erhöhte das Blob-Ziel auf 10 und das Maximum auf 15
  • 7. Januar 2026: BPO-2 steigerte das Ziel auf 14 und das Maximum auf 21

Dieser gestufte Ansatz ermöglichte es den Entwicklern, den Zustand des Netzwerks zwischen jeder Erhöhung zu überwachen, um sicherzustellen, dass Home-Node-Betreiber die gestiegenen Bandbreitenanforderungen bewältigen konnten.

Warum „Ziel“ und „Limit“ unterschiedlich sind

Das Verständnis der Unterscheidung zwischen Blob-Ziel (Target) und Blob-Limit ist entscheidend, um die Gebührenmechanik von Ethereum zu begreifen.

Das Blob-Limit (21) stellt die harte Obergrenze dar – die absolute maximale Anzahl von Blobs, die in einem einzigen Block enthalten sein können. Das Blob-Ziel (14) ist der Gleichgewichtspunkt, den das Protokoll über die Zeit beizubehalten versucht.

Wenn die tatsächliche Blob-Nutzung das Ziel überschreitet, steigen die Base Fees (Grundgebühren), um den Überverbrauch einzudämmen. Wenn die Nutzung unter das Ziel fällt, sinken die Gebühren, um mehr Aktivität anzureizen. Diese dynamische Anpassung schafft einen selbstregulierenden Markt:

  • Volle Blobs: Die Base Fee steigt um ca. 8,2 %
  • Keine Blobs: Die Base Fee sinkt um ca. 14,5 %

Diese Asymmetrie ist beabsichtigt. Sie ermöglicht es den Gebühren, in Zeiten geringer Nachfrage schnell zu sinken, während sie bei hoher Nachfrage allmählicher steigen, was Preissprünge verhindert, die die Ökonomie der Rollups destabilisieren könnten.

Die Auswirkungen auf die Gebühren: Echte Zahlen aus echten Netzwerken

Die Transaktionskosten auf Layer 2 sind seit dem Deployment von Fusaka um 40 – 90 % eingebrochen. Die Zahlen sprechen für sich:

NetzwerkDurchschnittliche Gebühr nach BPO-2Vergleich mit Ethereum Mainnet
Base$ 0,000116$ 0,3139
Arbitrum~$ 0,001$ 0,3139
Optimism~$ 0,001$ 0,3139

Die medianen Blob-Gebühren sind auf bis zu $ 0,0000000005 pro Blob gefallen – was für praktische Zwecke effektiv kostenlos ist. Für Endnutzer bedeutet dies nahezu Nullkosten für Swaps, Transfers, NFT-Mints und Gaming-Transaktionen.

Wie sich Rollups angepasst haben

Führende Rollups haben ihre Abläufe umstrukturiert, um die Blob-Effizienz zu maximieren:

  • Optimism hat seinen Batcher aktualisiert, um sich primär auf Blobs statt auf Calldata zu verlassen, wodurch die Kosten für die Datenverfügbarkeit um mehr als die Hälfte gesenkt wurden.
  • zkSync hat seine Proof-Submission-Pipeline überarbeitet, um Status-Updates in weniger, größere Blobs zu komprimieren, was die Frequenz der Veröffentlichungen reduziert.
  • Arbitrum hat sich auf sein ArbOS Dia-Upgrade (Q1 2026) vorbereitet, das mit Fusaka-Unterstützung reibungslosere Gebühren und einen höheren Durchsatz einführt.

Seit der Einführung von EIP-4844 wurden über 950.000 Blobs auf Ethereum gepostet. Optimistische Rollups verzeichneten eine Reduzierung der Calldata-Nutzung um 81 %, was beweist, dass das Blob-Modell wie vorgesehen funktioniert.

Der Weg zu 128 Blobs: Was als Nächstes kommt

BPO-2 ist ein Zwischenziel, kein Endpunkt. Die Roadmap von Ethereum sieht eine Zukunft vor, in der Blöcke 128 oder mehr Blobs pro Slot enthalten – eine Verachtfachung gegenüber dem aktuellen Stand.

PeerDAS: Die technische Grundlage

PeerDAS (EIP-7594) ist das Netzwerkprotokoll, das eine aggressive Blob-Skalierung erst möglich macht. Anstatt von jedem Node zu verlangen, jeden Blob herunterzuladen, nutzt PeerDAS das Data Availability Sampling, um die Datenintegrität zu verifizieren, während nur eine Teilmenge heruntergeladen wird.

So funktioniert es:

  1. Erweiterte Blob-Daten werden in 128 Teile, sogenannte Columns (Spalten), unterteilt.
  2. Jeder Node nimmt an mindestens 8 zufällig ausgewählten Column-Subnetzen teil.
  3. Der Empfang von 8 der 128 Spalten (etwa 12,5 % der Daten) ist mathematisch ausreichend, um die vollständige Datenverfügbarkeit zu beweisen.
  4. Erasure Coding stellt sicher, dass das Original selbst dann rekonstruiert werden kann, wenn einige Daten fehlen.

Dieser Ansatz ermöglicht eine theoretische 8-fache Skalierung des Datendurchsatzes, während die Anforderungen an die Nodes für Home-Betreiber bewältigbar bleiben.

Der Zeitplan für die Blob-Skalierung

PhaseBlob-ZielMax. BlobsStatus
Dencun (März 2024)36Abgeschlossen
Pectra (Mai 2025)69Abgeschlossen
BPO-1 (Dezember 2025)1015Abgeschlossen
BPO-2 (Januar 2026)1421Abgeschlossen
BPO-3/4 (2026)Noch offen72+Geplant
Langfristig128+128+Roadmap

In einem kürzlich abgehaltenen Call der All-Core-Devs wurde ein „spekulativer Zeitplan“ diskutiert, der nach Ende Februar alle zwei Wochen zusätzliche BPO-Forks beinhalten könnte, um ein Ziel von 72 Blobs zu erreichen. Ob dieser aggressive Zeitplan umgesetzt wird, hängt von den Daten der Netzwerküberwachung ab.

Glamsterdam: Der nächste große Meilenstein

Über die BPO-Forks hinausgehend ist das kombinierte Glamsterdam-Upgrade (Glam für die Konsensschicht, Amsterdam für die Ausführungsschicht) derzeit für Q2 / Q3 2026 geplant. Es verspricht noch drastischere Verbesserungen:

  • Block Access Lists (BALs): Dynamische Gas-Limits, die eine parallele Transaktionsverarbeitung ermöglichen.
  • Enshrined Proposer-Builder Separation (ePBS): On-Chain-Protokoll zur Trennung der Rollen bei der Blockerstellung, das mehr Zeit für die Block-Propagierung bietet.
  • Erhöhung des Gas-Limits: Potenziell bis zu 200 Millionen, was eine „perfekte parallele Verarbeitung“ ermöglicht.

Vitalik Buterin prognostizierte, dass das späte Jahr 2026 aufgrund von BALs und ePBS „große, nicht von ZK-EVM abhängige Erhöhungen des Gas-Limits“ bringen wird. Diese Änderungen könnten den nachhaltigen Durchsatz im gesamten Layer-2-Ökosystem auf über 100.000 + TPS steigern.

Was BPO-2 über die Strategie von Ethereum verrät

Das BPO-Fork-Modell stellt einen philosophischen Wandel in der Herangehensweise von Ethereum an Upgrades dar. Anstatt mehrere komplexe Änderungen in monolithische Hard-Forks zu bündeln, isoliert der BPO-Ansatz Anpassungen einzelner Variablen, die schnell bereitgestellt und bei Problemen rückgängig gemacht werden können.

„Der BPO2-Fork unterstreicht, dass die Skalierbarkeit von Ethereum jetzt parametrisch und nicht mehr prozedural ist“, bemerkte ein Entwickler. „Der Blob-Speicher ist noch weit von der Sättigung entfernt, und das Netzwerk kann den Durchsatz einfach durch Feinabstimmung der Kapazität erweitern.“

Diese Beobachtung hat weitreichende Konsequenzen:

  1. Vorhersehbare Skalierung: Rollups können den Kapazitätsbedarf planen, da sie wissen, dass Ethereum den Blob-Speicher weiter ausbauen wird.
  2. Reduziertes Risiko: Isolierte Parameteränderungen minimieren das Risiko kaskadierender Fehler.
  3. Schnellere Iteration: BPO-Forks können in Wochen statt in Monaten erfolgen.
  4. Datengesteuerte Entscheidungen: Jede Erhöhung liefert reale Daten für den nächsten Schritt.

Die Ökonomie: Wer profitiert?

Die Nutznießer von BPO-2 gehen über die Endnutzer hinaus, die von günstigeren Transaktionen profitieren:

Rollup-Betreiber

Niedrigere Kosten für das Posten von Daten verbessern die Einheitenökonomie für jedes Rollup. Netzwerke, die zuvor mit geringen Margen arbeiteten, haben nun Spielraum für Investitionen in Nutzerakquise, Entwickler-Tools und das Wachstum des Ökosystems.

Anwendungsentwickler

Transaktionskosten im Sub-Cent-Bereich ermöglichen Anwendungsfälle, die zuvor unwirtschaftlich waren: Mikrozahlungen, High-Frequency-Gaming, soziale Anwendungen mit On-Chain-Status und IoT-Integrationen.

Ethereum-Validatoren

Ein erhöhter Blob-Durchsatz bedeutet mehr Gesamtgebühren, selbst wenn die Gebühren pro Blob sinken. Das Netzwerk verarbeitet mehr Wert und erhält die Anreize für Validatoren aufrecht, während gleichzeitig die Benutzererfahrung verbessert wird.

Das breitere Ökosystem

Günstigere Datenverfügbarkeit auf Ethereum macht alternative DA-Layer für Rollups, die Sicherheit priorisieren, weniger attraktiv. Dies stärkt die Position von Ethereum im Zentrum des modularen Blockchain-Stacks.

Herausforderungen und Überlegungen

BPO-2 ist nicht ohne Kompromisse:

Anforderungen an Nodes

Während PeerDAS die Bandbreitenanforderungen durch Sampling reduziert, fordern erhöhte Blob-Zahlen den Node-Betreibern dennoch mehr ab. Der stufenweise Rollout zielt darauf ab, Engpässe zu identifizieren, bevor sie kritisch werden, aber Home-Operator mit begrenzter Bandbreite könnten Schwierigkeiten bekommen, wenn die Blob-Zahlen auf 72 oder 128 steigen.

MEV-Dynamik

Mehr Blobs bedeuten mehr Möglichkeiten zur MEV-Extraktion über Rollup-Transaktionen hinweg. Das ePBS-Upgrade in Glamsterdam zielt darauf ab, dies zu adressieren, aber in der Übergangszeit könnte die MEV-Aktivität zunehmen.

Volatilität des Blob-Speichers

Bei Nachfragespitzen können die Blob-Gebühren immer noch schnell ansteigen. Die Erhöhung um 8,2 % pro vollem Block bedeutet, dass eine anhaltend hohe Nachfrage zu einem exponentiellen Gebührenwachstum führt. Zukünftige BPO-Forks müssen die Kapazitätserweiterung gegen diese Volatilität abwägen.

Fazit: Skalierung in Etappen

BPO-2 zeigt, dass eine sinnvolle Skalierung nicht immer revolutionäre Durchbrüche erfordert. Manchmal ergeben sich die effektivsten Verbesserungen aus der sorgfältigen Kalibrierung bestehender Systeme.

Die Blob-Kapazität von Ethereum ist von maximal 6 bei Dencun auf 21 bei BPO-2 gestiegen – eine Steigerung von 250 % in weniger als zwei Jahren. Die Layer-2-Gebühren sind um Größenordnungen gesunken. Und die Roadmap zu 128 + Blobs deutet darauf hin, dass dies erst der Anfang ist.

Für Rollups ist die Botschaft klar: Die Datenverfügbarkeitsschicht von Ethereum wird skaliert, um die Nachfrage zu decken. Für die Nutzer wird das Ergebnis zunehmend unsichtbar: Transaktionen, die Bruchteile von Cents kosten, in Sekunden finalisiert werden und durch die am meisten praxiserprobte Smart-Contract-Plattform gesichert sind.

Die parametrische Ära der Ethereum-Skalierung ist angebrochen. BPO-2 ist der Beweis dafür, dass es manchmal ausreicht, am richtigen Knopf zu drehen.


Bauen Sie auf der wachsenden Blob-Kapazität von Ethereum auf? BlockEden.xyz bietet RPC-Dienste in Enterprise-Qualität für Ethereum und sein Layer-2-Ökosystem, einschließlich Arbitrum, Optimism und Base. Entdecken Sie unseren API-Marktplatz, um sich mit der Infrastruktur zu verbinden, die die nächste Generation skalierbarer Anwendungen antreibt.

Prividium: Die Lücke im Datenschutz für die institutionelle Blockchain-Adoption schließen

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Banken umkreisen die Blockchain seit einem Jahrzehnt, fasziniert von ihrem Versprechen, aber abgeschreckt durch ein grundlegendes Problem: Öffentliche Ledger legen alles offen. Handelsstrategien, Kundenportfolios, Kontrahentenbeziehungen – auf einer traditionellen Blockchain ist alles für Wettbewerber, Aufsichtsbehörden und jeden anderen Beobachter sichtbar. Das ist keine regulatorische Zimperlichkeit. Es ist operativer Selbstmord.

Prividium von ZKsync ändert die Gleichung. Durch die Kombination von Zero-Knowledge-Kryptografie mit den Sicherheitsgarantien von Ethereum schafft Prividium private Ausführungsumgebungen, in denen Institutionen endlich mit der benötigten Vertraulichkeit agieren können, während sie weiterhin von den Transparenzvorteilen der Blockchain profitieren – aber nur dort, wo sie es wünschen.

Die Privatsphäre-Lücke, die die Einführung in Unternehmen blockierte

„Die Krypto-Adoption in Unternehmen wurde nicht nur durch regulatorische Unsicherheit, sondern auch durch fehlende Infrastruktur blockiert“, erklärte Alex Gluchowski, CEO von ZKsync, in einer Roadmap-Ankündigung im Januar 2026. „Systeme konnten sensible Daten nicht schützen, die Leistung bei Spitzenlast nicht garantieren oder innerhalb realer Governance- und Compliance-Beschränkungen operieren.“

Das Problem ist nicht, dass Banken den Wert der Blockchain nicht verstehen. Sie führen seit Jahren Experimente durch. Aber jede öffentliche Blockchain erzwingt einen faustischen Pakt: Man gewinnt die Vorteile gemeinsam genutzter Ledger und verliert die Vertraulichkeit, die wettbewerbsfähiges Handeln erst möglich macht. Eine Bank, die ihre Handelspositionen an einen öffentlichen Mempool sendet, wird nicht lange wettbewerbsfähig bleiben.

Diese Lücke hat eine Spaltung verursacht. Öffentliche Chains wickeln Krypto für Endnutzer ab. Private, zugangsbeschränkte (permissioned) Chains wickeln institutionelle Operationen ab. Diese beiden Welten interagieren selten, was zu Liquiditätsfragmentierung und den Nachteilen beider Ansätze führt – isolierte Systeme, die die Netzwerkeffekte der Blockchain nicht nutzen können.

Wie Prividium tatsächlich funktioniert

Prividium verfolgt einen anderen Ansatz. Es läuft als vollständig private ZKsync-Chain – komplett mit eigenem Sequencer, Prover und eigener Datenbank – innerhalb der eigenen Infrastruktur oder Cloud einer Institution. Alle Transaktionsdaten und die Geschäftslogik bleiben vollständig außerhalb der öffentlichen Blockchain.

Aber hier liegt die entscheidende Innovation: Jedes Batch von Transaktionen wird weiterhin durch Zero-Knowledge-Proofs verifiziert und auf Ethereum verankert. Die öffentliche Blockchain sieht niemals, was passiert ist, aber sie garantiert kryptografisch, dass alles, was geschah, den Regeln entsprach.

Die Architektur gliedert sich in mehrere Komponenten:

Proxy-RPC-Layer: Jede Interaktion – von Nutzern, Anwendungen, Block-Explorern oder Bridge-Operationen – durchläuft einen einzigen Einstiegspunkt, der rollenbasierte Berechtigungen erzwingt. Dies ist keine Sicherheit auf Konfigurationsdateiebene; es ist eine Zugriffskontrolle auf Protokollebene, die in Unternehmensidentitätssysteme wie Okta SSO integriert ist.

Private Ausführung: Transaktionen werden innerhalb der Grenzen der Institution ausgeführt. Salden, Kontrahenten und Geschäftslogik bleiben für externe Beobachter unsichtbar. Nur Status-Commitments und Zero-Knowledge-Proofs erreichen Ethereum.

ZKsync Gateway: Diese Komponente empfängt Proofs und veröffentlicht Commitments auf Ethereum, was eine manipulationssichere Verifizierung ohne Offenlegung von Daten ermöglicht. Die kryptografische Bindung stellt sicher, dass niemand – nicht einmal die Institution, die die Chain betreibt – die Transaktionshistorie fälschen kann.

Das System verwendet ZK-STARKs anstelle von Pairing-basierten Proofs, was aus zwei Gründen wichtig ist: kein Trusted Setup und Quantenresistenz. Institutionen, die Infrastrukturen für einen jahrzehntelangen Betrieb aufbauen, legen auf beides Wert.

Leistung, die mit dem traditionellen Finanzwesen mithält

Eine private Blockchain, die institutionelle Transaktionsvolumina nicht bewältigen kann, ist nicht nützlich. Prividium strebt über 10.000 + Transaktionen pro Sekunde pro Chain an, wobei das Atlas-Upgrade auf 15.000 + TPS, eine Finalität im Sub-Sekunden-Bereich und Proof-Kosten von etwa 0,0001 $ pro Transfer abzielt.

Diese Zahlen sind wichtig, da traditionelle Finanzsysteme – Echtzeit-Bruttoabrechnungen, Wertpapier-Clearing, Zahlungsnetzwerke – in vergleichbaren Größenordnungen arbeiten. Eine Blockchain, die Institutionen zwingt, alles in langsame Blöcke zu bündeln, kann die bestehende Infrastruktur nicht ersetzen; sie würde lediglich Reibungsverluste verursachen.

Die Leistung resultiert aus der engen Integration von Ausführung und Beweiserstellung (Proving). Anstatt ZK-Proofs als nachträglichen Zusatz zur Blockchain zu betrachten, entwirft Prividium die Ausführungsumgebung und das Proving-System gemeinsam, um den Overhead für die Privatsphäre zu minimieren.

Deutsche Bank, UBS und die echten Unternehmenskunden

Reden ist im Bereich Enterprise Blockchain billig. Was zählt, ist, ob echte Institutionen tatsächlich darauf aufbauen. Hier verzeichnet Prividium eine bemerkenswerte Adoption.

Die Deutsche Bank gab Ende 2024 bekannt, dass sie ihre eigene Layer 2-Blockchain auf Basis der ZKsync-Technologie aufbauen werde, die 2025 an den Start geht. Die Bank nutzt die Plattform für DAMA 2 (Digital Assets Management Access), eine Multi-Chain-Initiative, die tokenisierte Fondsverwaltung für mehr als 24 Finanzinstitute unterstützt. Das Projekt ermöglicht es Asset Managern, Token-Emittenten und Anlageberatern, tokenisierte Vermögenswerte mit auf Privatsphäre optimierten Smart Contracts zu erstellen und zu verwalten.

UBS schloss einen Proof-of-Concept mit ZKsync für ihr Produkt Key4 Gold ab, das es Schweizer Kunden ermöglicht, über eine zugangsbeschränkte Blockchain Bruchteilsinvestitionen in Gold zu tätigen. Die Bank prüft eine geografische Ausweitung des Angebots. „Unser PoC mit ZKsync hat gezeigt, dass Layer 2-Netzwerke und die ZK-Technologie das Potenzial haben, die Herausforderungen in den Bereichen Skalierbarkeit, Privatsphäre und Interoperabilität zu lösen“, so Christoph Puhr, Digital Assets Lead bei UBS.

ZKsync berichtet von Kooperationen mit über 30 großen globalen Institutionen, darunter Citi, Mastercard und zwei Zentralbanken. „2026 ist das Jahr, in dem ZKsync von grundlegenden Implementierungen zu sichtbarer Skalierung übergeht“, schrieb Gluchowski und prognostizierte, dass mehrere regulierte Finanzinstitute Produktionssysteme einführen würden, die „Endnutzer in zweistelliger Millionenhöhe statt in Tausenden bedienen“.

Prividium vs. Canton Network vs. Secret Network

Prividium ist nicht der einzige Ansatz für institutionelle Blockchain - Privatsphäre. Das Verständnis der Alternativen verdeutlicht, was jeden Ansatz einzigartig macht.

Canton Network, entwickelt von ehemaligen Goldman Sachs - und DRW - Ingenieuren, geht einen anderen Weg. Anstelle von Zero - Knowledge - Proofs verwendet Canton eine „ Privatsphäre auf Untertransaktionsebene “ — Smart Contracts stellen sicher, dass jede Partei nur die für sie relevanten Transaktionskomponenten sieht. Das Netzwerk verarbeitet bereits ein jährliches tokenisiertes Volumen von über 4 Billionen $ , was es zu einer der wirtschaftlich aktivsten Blockchains nach realem Durchsatz macht.

Canton läuft auf Daml, einer speziell entwickelten Smart - Contract - Sprache, die auf realen Konzepten von Rechten und Pflichten basiert. Dies macht sie natürlich für Finanz - Workflows, erfordert jedoch das Erlernen einer neuen Sprache, anstatt vorhandenes Solidity - Fachwissen zu nutzen. Das Netzwerk ist „ public permissioned “ — offene Konnektivität mit Zugangskontrollen, aber nicht an ein öffentliches L1 gebunden.

Secret Network nähert sich der Privatsphäre über Trusted Execution Environments ( TEEs ) an — geschützte Hardware - Enklaven, in denen Code selbst vor Node - Betreibern privat ausgeführt wird. Das Netzwerk ist seit 2020 live, vollständig Open - Source und erlaubnisfrei ( permissionless ) und lässt sich über IBC in das Cosmos - Ökosystem integrieren.

Der TEE - basierte Ansatz von Secret bringt jedoch andere Vertrauensannahmen mit sich als ZK - Proofs. TEEs hängen von der Sicherheit des Hardwareherstellers ab und waren bereits mit der Offenlegung von Schwachstellen konfrontiert. Für Institutionen kann der erlaubnisfreie Charakter je nach Compliance - Anforderungen ein Vorteil oder ein Nachteil sein.

Das Hauptunterscheidungsmerkmal: Prividium kombiniert EVM - Kompatibilität ( vorhandenes Solidity - Wissen funktioniert ), Ethereum - Sicherheit ( das vertrauenswürdigste L1 ), ZK - basierte Privatsphäre ( keine vertrauenswürdige Hardware ) und die Integration von Unternehmensidentitäten ( SSO , rollenbasierter Zugriff ) in einem einzigen Paket. Canton bietet ausgereifte Finanz - Tools, erfordert jedoch Daml - Expertise. Secret bietet standardmäßig Privatsphäre, jedoch mit anderen Vertrauensannahmen.

Der MiCA - Faktor: Warum der Zeitpunkt 2026 entscheidend ist

Europäische Institutionen stehen vor einem Wendepunkt. MiCA ( Markets in Crypto - Assets Regulation ) trat im Dezember 2024 vollständig in Kraft, wobei die umfassende Einhaltung bis Juli 2026 erforderlich ist. Die Verordnung verlangt robuste AML / KYC - Verfahren, die Trennung von Kundenvermögen und eine „ Travel Rule “ , die Herkunfts - und Begünstigteninformationen für alle Krypto - Transfers ohne Mindestschwellenwert vorschreibt.

Dies schafft sowohl Druck als auch Chancen. Die Compliance - Anforderungen beenden jede verbleibende Fantasie, dass Institutionen auf öffentlichen Chains ohne Privatsphäre - Infrastruktur agieren können — allein die Travel Rule würde Transaktionsdetails offenlegen, die einen wettbewerbsfähigen Betrieb unmöglich machen. Aber MiCA bietet auch regulatorische Klarheit, die die Unsicherheit darüber beseitigt, ob Krypto - Operationen zulässig sind.

Das Design von Prividium adressiert diese Anforderungen direkt. Selektive Offenlegung unterstützt Sanktionsprüfungen, Proof of Reserves und regulatorische Verifizierungen auf Anfrage — und das alles, ohne vertrauliche Geschäftsdaten preiszugeben. Rollenbasierte Zugriffskontrollen machen AML / KYC auf Protokollebene durchsetzbar. Und die Verankerung in Ethereum bietet die von den Regulierungsbehörden geforderte Prüfbarkeit, während die tatsächlichen Abläufe privat bleiben.

Das Timing erklärt, warum mehrere Banken bereits jetzt bauen, anstatt zu warten. Der regulatorische Rahmen steht fest. Die Technologie ist ausgereift. First Mover etablieren die Infrastruktur, während die Konkurrenz noch Proof of Concepts durchführt.

Die Entwicklung von der Privacy - Engine zum vollständigen Banking - Stack

Prividium begann als „ Privacy - Engine “ — eine Möglichkeit, Transaktionsdetails zu verbergen. Die Roadmap für 2026 offenbart eine ehrgeizigere Vision: die Entwicklung zu einem vollständigen Banking - Stack.

Dies bedeutet die Integration von Privatsphäre in jede Ebene des institutionellen Betriebs: Zugriffskontrolle, Transaktionsgenehmigung, Audit und Berichterstattung. Anstatt Privatsphäre nachträglich an bestehende Systeme anzudocken, ist Prividium so konzipiert, dass Privatsphäre zum Standard für Unternehmensanwendungen wird.

Die Ausführungsumgebung übernimmt Tokenisierung, Abwicklungen und Automatisierung innerhalb der institutionellen Infrastruktur. Ein dedizierter Prover und Sequencer laufen unter der Kontrolle der Institution. Der ZK Stack entwickelt sich von einem Framework für einzelne Chains zu einem „ orchestrierten System aus öffentlichen und privaten Netzwerken “ mit nativer Cross - Chain - Konnektivität.

Diese Orchestrierung ist für institutionelle Anwendungsfälle wichtig. Eine Bank könnte private Kredite auf einer Prividium - Chain tokenisieren, Stablecoins auf einer anderen ausgeben und muss Vermögenswerte zwischen ihnen bewegen. Das ZKsync - Ökosystem ermöglicht dies ohne externe Bridges oder Custodians — Zero - Knowledge - Proofs übernehmen die Cross - Chain - Verifizierung mit kryptografischen Garantien.

Vier unverzichtbare Kriterien für institutionelle Blockchains

Die ZKsync - Roadmap für 2026 identifiziert vier Standards, die jedes institutionelle Produkt erfüllen muss:

  1. Privatsphäre standardmäßig: Kein optionales Feature, sondern der Standardbetriebsmodus
  2. Deterministische Kontrolle: Institutionen müssen genau wissen, wie sich Systeme unter allen Bedingungen verhalten
  3. Verifizierbares Risikomanagement: Compliance muss beweisbar sein, nicht nur behauptet
  4. Native Anbindung an globale Märkte: Integration in die bestehende Finanzinfrastruktur

Dies sind keine Marketing - Schlagworte. Sie beschreiben die Lücke zwischen dem krypto - nativen Blockchain - Design — optimiert für Dezentralisierung und Zensurresistenz — und dem, was regulierte Institutionen tatsächlich benötigen. Prividium stellt die Antwort von ZKsync auf jede dieser Anforderungen dar.

Was dies für die Blockchain-Infrastruktur bedeutet

Die institutionelle Datenschutzebene schafft Infrastrukturmöglichkeiten jenseits einzelner Banken. Settlement, Clearing, Identitätsprüfung, Compliance-Prüfung – all dies erfordert eine Blockchain-Infrastruktur, die den Anforderungen von Unternehmen entspricht.

Für Infrastrukturanbieter stellt dies eine neue Kategorie der Nachfrage dar. Die Retail-DeFi-These – Millionen einzelner Nutzer, die mit erlaubnisfreien Protokollen interagieren – ist ein Markt. Die institutionelle These – regulierte Einheiten, die private Chains mit öffentlicher Chain-Konnektivität betreiben – ist ein anderer. Sie haben unterschiedliche Anforderungen, eine unterschiedliche Ökonomie und unterschiedliche Wettbewerbsdynamiken.

BlockEden.xyz bietet RPC-Infrastruktur auf Enterprise-Niveau für EVM-kompatible Chains einschließlich ZKsync. Während sich die institutionelle Blockchain-Adoption beschleunigt, bietet unser API-Marktplatz die Node-Infrastruktur, die Unternehmensanwendungen für Entwicklung und Produktion benötigen.

Der Wendepunkt 2026

Prividium ist mehr als nur ein Produkt-Launch. Es markiert eine Verschiebung dessen, was für die institutionelle Blockchain-Adoption möglich ist. Die fehlende Infrastruktur, die die Adoption in Unternehmen blockiert hat – Datenschutz, Performance, Compliance, Governance – ist nun vorhanden.

„Wir erwarten, dass mehrere regulierte Finanzinstitute, Marktinfrastrukturanbieter und große Unternehmen Produktionssysteme auf ZKsync einführen werden“, schrieb Gluchowski und beschrieb eine Zukunft, in der die institutionelle Blockchain vom Proof-of-Concept zur Produktion, von Tausenden von Nutzern zu Zehnmillionen und vom Experimentieren zur Infrastruktur übergeht.

Ob Prividium speziell das Rennen um den institutionellen Datenschutz gewinnt, ist weniger wichtig als die Tatsache, dass das Rennen begonnen hat. Banken haben einen Weg gefunden, Blockchains zu nutzen, ohne sich preiszugeben. Das ändert alles.


Diese Analyse fasst öffentliche Informationen über die Architektur und Adoption von Prividium zusammen. Enterprise-Blockchain bleibt ein sich entwickelndes Feld, in dem sich technische Kapazitäten und institutionelle Anforderungen kontinuierlich weiterentwickeln.