Direkt zum Hauptinhalt

476 Beiträge getaggt mit „Blockchain“

Allgemeine Blockchain-Technologie und Innovation

Alle Tags anzeigen

Gerüchte um ein Stripe L1-Netzwerk

· 5 Min. Lesezeit
Dora Noda
Software Engineer

Die Aussicht, dass Stripe eine eigene Layer 1 (L1) Blockchain einführt, ist in der Krypto-Community ein heißes Thema, angeheizt durch jüngste strategische Schritte des globalen Zahlungsriesen. Obwohl unbestätigt, deuten die Gerüchte auf eine potenziell transformative Verschiebung in der Zahlungslandschaft hin. Angesichts von Stripes Kernmission, das "BIP des Internets zu steigern", indem eine robuste globale Wirtschaftsinfrastruktur aufgebaut wird, könnte eine dedizierte Blockchain ein logischer und mächtiger nächster Schritt sein, insbesondere angesichts der zunehmenden Hinwendung des Unternehmens zu Blockchain-bezogenen Unternehmungen.

Die Grundlage für ein Stripe L1

Stripe hat bereits erhebliche Vorarbeit geleistet, die die Idee eines L1 sehr plausibel macht. Im Februar 2025 erwarb Stripe bekanntlich Bridge, ein Stablecoin-Infrastrukturunternehmen, für etwa 1,1 Milliarden US-Dollar. Dieser Schritt signalisiert deutlich Stripes Engagement für eine Stablecoin-basierte Finanzinfrastruktur. Nach dieser Akquisition führte Stripe im Mai 2025 seinen Stablecoin-Finanzkonten-Dienst auf dem Stripe Sessions Event ein. Dieser Dienst, der in 101 Ländern verfügbar ist, ermöglicht es Unternehmen, Folgendes zu tun:

  • USDC (ausgegeben von Circle) und USDB (ausgegeben von Bridge) zu halten.
  • Stablecoins einfach über traditionelle USD-Überweisungen (ACH/Wire) und EUR-Überweisungen (SEPA) einzuzahlen und abzuheben.
  • USDC-Ein- und Auszahlungen über wichtige Blockchain-Netzwerke zu ermöglichen, darunter Arbitrum, Avalanche C-Chain, Base, Ethereum, Optimism, Polygon, Solana und Stellar.

Dies bedeutet, dass Unternehmen weltweit dollarbasierte Stablecoins nahtlos in ihre Abläufe integrieren können, wodurch die Lücke zwischen traditionellem Banking und der aufstrebenden digitalen Asset-Ökonomie geschlossen wird.

Hinzu kommt, dass Stripe im Juni 2025 Privy.io, ein Startup für Web3-Wallet-Infrastruktur, erworben hat. Privy bietet entscheidende Funktionen wie die E-Mail- oder SSO-basierte Wallet-Erstellung, Transaktionssignierung, Schlüsselverwaltung und Gas-Abstraktion. Diese Akquisition rundet Stripes Fähigkeiten ab und stellt die wesentliche Wallet-Infrastruktur bereit, die für eine breitere Blockchain-Adoption erforderlich ist.

Da sowohl die Stablecoin- als auch die Wallet-Infrastruktur nun fest etabliert sind, wird die strategische Synergie der Einführung eines dedizierten Blockchain-Netzwerks offensichtlich. Es würde Stripe ermöglichen, diese Dienste enger zu integrieren und neue Möglichkeiten innerhalb seines Ökosystems zu erschließen.

Was ein Stripe L1 für Zahlungen bedeuten könnte

Würde Stripe ein eigenes L1-Netzwerk einführen, könnte dies bestehende Zahlungsdienste erheblich verbessern und völlig neue Funktionalitäten ermöglichen.

Verbesserungen im Basisszenario

In seiner grundlegendsten Form könnte ein Stripe L1 mehrere sofortige Verbesserungen mit sich bringen:

  • Integrierte Stablecoin-Finanzkonten: Stripes bestehender Stablecoin-Finanzkonten-Dienst würde sich wahrscheinlich vollständig in das Stripe L1 integrieren, wodurch Händler ihre Stablecoin-Bestände direkt im Netzwerk für verschiedene Finanzaktivitäten einzahlen, abheben und nutzen könnten.
  • Stablecoin-Abwicklung für Händler: Händler könnten die Möglichkeit erhalten, ihre Verkaufserlöse direkt in dollarbasierten Stablecoins abzurechnen. Dies wäre ein erheblicher Vorteil, insbesondere für Unternehmen mit hoher Dollarnachfrage, aber begrenztem Zugang zu traditionellen Bankwegen, was grenzüberschreitende Transaktionen rationalisieren und FX-Komplexitäten reduzieren würde.
  • Kunden-Wallet-Dienste: Unter Nutzung der Privy-Infrastruktur könnte ein Stripe L1 es Einzelpersonen ermöglichen, einfach Web3-Wallets innerhalb des Stripe-Ökosystems zu erstellen. Dies würde Stablecoin-Zahlungen für Kunden erleichtern und Türen für die Teilnahme an einer breiteren Palette von Finanzaktivitäten auf dem Stripe L1 öffnen.
  • Stablecoin-Zahlungsoptionen für Kunden: Kunden, die derzeit auf Karten oder Banküberweisungen angewiesen sind, könnten ihre Web3-Wallets (ob von Stripe bereitgestellt oder von Drittanbietern) verbinden und Stablecoins als Zahlungsmethode wählen, was größere Flexibilität und potenziell niedrigere Transaktionskosten bietet.

Revolutionäre "Bull Case"-Szenarien

Über diese grundlegenden Verbesserungen hinaus hat ein Stripe L1 das Potenzial, die Zahlungsbranche wirklich zu revolutionieren und langjährige Ineffizienzen zu beseitigen:

  • Direkte Kunden-zu-Händler-Zahlungen: Eine der aufregendsten Aussichten ist das Potenzial für direkte Zahlungen zwischen Kunden und Händlern unter Verwendung von Stablecoins auf Stripe L1. Dies könnte traditionelle Vermittler wie Kartennetzwerke und ausstellende Banken umgehen, was zu deutlich schnelleren Abwicklungszeiten und reduzierten Transaktionsgebühren führen würde. Obwohl Schutzmaßnahmen für Rückerstattungen und Stornierungen entscheidend wären, bietet die Direktheit von Blockchain-Transaktionen eine unvergleichliche Effizienz.
  • Mikrozahlungsbasierte Abonnementdienste: Die inhärente Unterstützung von Mikrozahlungen durch Blockchain könnte völlig neue Geschäftsmodelle erschließen. Stellen Sie sich Abonnements vor, die minutengenau abgerechnet werden, bei denen Benutzer streng nach tatsächlicher Nutzung bezahlen und alle Zahlungen über Smart Contracts automatisiert werden. Dies steht in scharfem Kontrast zu den derzeitigen monatlichen oder jährlichen Modellen und eröffnet eine Vielzahl neuer Dienstleistungsangebote.
  • DeFi-Nutzung von kurzfristigen Einlagen: In traditionellen Systemen kommt es bei der Zahlungsabwicklung oft zu Verzögerungen aufgrund der Notwendigkeit von Betrugserkennung, Stornierungen und Rückerstattungen. Würde Stripe L1 direkte Stablecoin-Zahlungen abwickeln, könnten Gelder vor der vollständigen Freigabe an den Händler vorübergehend im Netzwerk gehalten werden. Diese kurzfristigen Einlagen, die voraussichtlich beträchtlich sein werden, könnten einen massiven Liquiditätspool auf Stripe L1 bilden. Diese Liquidität könnte dann in dezentralen Finanzprotokollen (DeFi), Kreditmärkten oder in hochverzinslichen Anleihen eingesetzt werden, wodurch die Kapitaleffizienz für alle Teilnehmer erheblich verbessert würde.

Die Zukunft der Zahlungen

Die Gerüchte um ein Stripe L1-Netzwerk sind mehr als nur spekulatives Gerede; sie weisen auf einen tieferen Trend in der Finanzwelt hin. Zahlungsriesen wie Visa, Mastercard und PayPal haben Blockchain und Stablecoins bisher hauptsächlich als ergänzende Funktionen betrachtet. Wenn Stripe sich vollständig einem L1 verschreibt, könnte dies einen historischen Paradigmenwechsel in den Zahlungssystemen signalisieren und die Art und Weise, wie Geld global bewegt wird, grundlegend neu gestalten.

Historisch gesehen hat sich Stripe als Zahlungs-Gateway und Acquirer hervorgetan. Ein Stripe L1 könnte es dem Unternehmen jedoch ermöglichen, seine Rolle zu erweitern und potenziell Funktionen zu übernehmen, die traditionell von Kartennetzwerken und sogar ausstellenden Banken wahrgenommen werden. Dieser Schritt würde nicht nur die Zahlungseffizienz durch Blockchain verbessern, sondern auch bisher unerreichbare Funktionen wie granulare Mikro-Streaming-Abonnements und die automatisierte Verwaltung kurzfristiger Liquidität ermöglichen.

Wir stehen wirklich an der Schwelle zu einer disruptiven Ära in den Zahlungssystemen, angetrieben durch die Blockchain-Technologie. Ob Stripe offiziell ein L1 einführt, bleibt abzuwarten, aber die strategischen Weichen für einen solch monumentalen Schritt sind sicherlich gestellt.

Zwei Wege zu einem benutzerfreundlicheren Ethereum: ERC‑4337 Smart Accounts + ERC‑4804 Web3 URLs

· 9 Min. Lesezeit
Dora Noda
Software Engineer

TL;DR

Ethereum hat gerade zwei leistungsstarke Primitive erhalten, die die Benutzererfahrung über Seed-Phrasen und bookmarkbare DApps hinaus zu „anklickbaren On-Chain-Erlebnissen“ vorantreiben.

  • ERC-4337 bringt Account Abstraction ins heutige Ethereum, ohne Änderungen am Kernprotokoll. Dies macht Funktionen wie Smart Contract Accounts, Gas-Sponsoring, gebündelte Aufrufe und Passkey-basierte Authentifizierung nativ für Wallets.
  • ERC-4804 führt web3:// URLs ein – menschenlesbare Links, die direkt zu Vertrags-Lese-Aufrufen auflösen und sogar On-Chain-HTML oder SVG rendern können, alles ohne einen traditionellen Webserver als Mittelsmann. Stellen Sie es sich als „HTTP für die EVM“ vor.

Zusammen verwendet, handhabt ERC-4337 Aktionen, während ERC-4804 Adressen handhabt. Diese Kombination ermöglicht es Ihnen, einen Link zu teilen, der seine Benutzeroberfläche nachweislich von einem Smart Contract abruft. Wenn ein Benutzer bereit ist zu handeln, übergibt der Ablauf an ein Smart Account, das Gas sponsern und mehrere Schritte in einem einzigen, nahtlosen Klick bündeln kann.


Warum das jetzt wichtig ist

Dies ist nicht nur eine theoretische Zukunft; diese Technologien sind live und gewinnen erheblich an Bedeutung. ERC-4337 ist bereits skaliert und in der Praxis bewährt. Der kanonische EntryPoint-Vertrag wurde am 1. März 2023 im Ethereum-Mainnet bereitgestellt und hat seitdem zig Millionen Smart Contract Accounts betrieben und über 100 Millionen User Operations verarbeitet.

Gleichzeitig konvergiert das Kernprotokoll mit diesen Ideen. Das im Mai 2025 ausgelieferte Pectra-Upgrade enthielt EIP-7702, das es standardmäßigen extern verwalteten Konten (EOAs) ermöglicht, sich vorübergehend wie Smart Accounts zu verhalten. Dies ergänzt ERC-4337, indem es den Übergang für bestehende Benutzer erleichtert, anstatt den Standard zu ersetzen.

Im Bereich der Adressierung ist web3:// nun formalisiert. ERC-4804 spezifiziert genau, wie eine URL in einen EVM-Aufruf übersetzt wird, und web3 wurde von der IANA als provisorisches URI-Schema gelistet. Die Tools und Gateways, die benötigt werden, um diese URLs praktisch zu machen, sind jetzt verfügbar und verwandeln On-Chain-Daten in teilbare, verlinkbare Ressourcen.


Primer: ERC-4337 auf einer Seite

Im Kern führt ERC-4337 eine parallele Transaktionsschiene in Ethereum ein, die auf Flexibilität ausgelegt ist. Anstelle traditioneller Transaktionen reichen Benutzer UserOperation-Objekte in einen alternativen Mempool ein. Diese Objekte beschreiben, was das Konto tun möchte. Spezialisierte Knoten, sogenannte „Bundler“, nehmen diese Operationen auf und führen sie über einen globalen EntryPoint-Vertrag aus.

Dies ermöglicht drei Schlüsselkomponenten:

  1. Smart Contract Accounts (SCAs): Diese Konten enthalten ihre eigene Logik. Sie definieren, was eine Transaktion gültig macht, und ermöglichen benutzerdefinierte Signaturschemata (wie Passkeys oder Multisig), Session Keys für Spiele, Ausgabenlimits und soziale Wiederherstellungsmechanismen. Das Konto, nicht das Netzwerk, setzt die Regeln durch.
  2. Paymasters: Diese speziellen Verträge können Gasgebühren für Benutzer sponsern oder ihnen ermöglichen, in ERC-20-Tokens zu bezahlen. Dies ist der Schlüssel, um ein echtes „kein ETH im Wallet“-Onboarding zu ermöglichen und Ein-Klick-Erlebnisse zu schaffen, indem mehrere Aufrufe in einer einzigen Operation gebündelt werden.
  3. DoS-Sicherheit & Regeln: Der öffentliche ERC-4337-Mempool wird durch standardisierte Off-Chain-Validierungsregeln (definiert in ERC-7562) geschützt, die Bundler daran hindern, Ressourcen für Operationen zu verschwenden, die zum Scheitern verurteilt sind. Während alternative Mempools für spezielle Anwendungsfälle existieren können, halten diese gemeinsamen Regeln das Ökosystem kohärent und sicher.

Mentales Modell: ERC-4337 verwandelt Wallets in programmierbare Apps. Anstatt nur rohe Transaktionen zu signieren, reichen Benutzer „Intents“ ein, die der Code ihres Kontos validiert und der EntryPoint-Vertrag sicher und atomar ausführt.


Primer: ERC-4804 auf einer Seite

ERC-4804 bietet eine einfache, direkte Zuordnung von einer web3://-URL zu einem schreibgeschützten EVM-Aufruf. Die URL-Grammatik ist intuitiv: web3://<name-or-address>[:chainId]/<method>/<arg0>?returns=(types). Namen können über Systeme wie ENS aufgelöst werden, und Argumente werden automatisch basierend auf der ABI des Vertrags typisiert.

Hier sind ein paar Beispiele:

  • web3://uniswap.eth/ würde den Vertrag unter der Adresse uniswap.eth mit leeren Calldata aufrufen.
  • web3://.../balanceOf/vitalik.eth?returns=(uint256) würde einen Aufruf der balanceOf-Funktion mit Vitaliks Adresse ABI-kodieren und ein korrekt typisiertes JSON-Ergebnis zurückgeben.

Entscheidend ist, dass dieser Standard derzeit für schreibgeschützte Aufrufe (entspricht Solitys view-Funktionen) gilt. Jede Aktion, die den Zustand ändert, erfordert weiterhin eine Transaktion – genau hier kommen ERC-4337 oder EIP-7702 ins Spiel. Da web3 als provisorisches URI-Schema bei der IANA registriert ist, ist der Weg für native Browser- und Client-Unterstützung geebnet, obwohl es vorerst oft auf Erweiterungen oder Gateways angewiesen ist.

Mentales Modell: ERC-4804 verwandelt On-Chain-Ressourcen in verlinkbare Web-Objekte. „Diese Vertragsansicht als URL teilen“ wird so natürlich wie das Teilen eines Links zu einem Dashboard.


Zusammen: „Anklickbare On-Chain-Erlebnisse“

Die Kombination dieser beiden Standards eröffnet ein leistungsstarkes neues Muster für den Aufbau dezentraler Anwendungen heute.

Zuerst stellen Sie eine verifizierbare Benutzeroberfläche über web3:// bereit. Anstatt Ihr Frontend auf einem zentralisierten Server wie S3 zu hosten, können Sie eine minimale HTML- oder SVG-Oberfläche direkt On-Chain speichern. Ein Link wie web3://app.eth/render ermöglicht es einem Client, die URL aufzulösen und die Benutzeroberfläche direkt vom Vertrag zu rendern, wodurch sichergestellt wird, dass der Benutzer genau das sieht, was der Code vorschreibt.

Von dieser verifizierbaren Schnittstelle aus können Sie eine Ein-Klick-Aktion über ERC-4337 auslösen. Ein „Mint“- oder „Abonnieren“-Button kann eine UserOperation kompilieren, die ein Paymaster sponsert. Der Benutzer genehmigt mit einem Passkey oder einer einfachen biometrischen Aufforderung, und der EntryPoint-Vertrag führt einen gebündelten Aufruf aus, der sein Smart Account bereitstellt (falls es das erste Mal ist) und die gewünschte Aktion in einem einzigen, atomaren Schritt abschließt.

Dies schafft eine nahtlose Deep-Link-Übergabe. Die Benutzeroberfläche kann Intent-basierte Links einbetten, die direkt vom Wallet des Benutzers verarbeitet werden, wodurch die Notwendigkeit entfällt, sie an eine externe Website zu senden, der sie möglicherweise nicht vertrauen. Der Inhalt ist der Vertrag, und die Aktion ist das Konto.

Dies ermöglicht:

  • Gaslose Testversionen und „funktioniert einfach“-Onboarding: Neue Benutzer müssen kein ETH erwerben, um loszulegen. Ihre Anwendung kann ihre ersten Interaktionen sponsern, was die Reibung drastisch reduziert.
  • Teilbarer Zustand: Ein web3://-Link ist eine Abfrage des Blockchain-Zustands. Dies ist perfekt für Dashboards, Eigentumsnachweise oder jeglichen Inhalt, der nachweislich manipulationssicher sein muss.
  • Agentenfreundliche Abläufe: KI-Agenten können verifizierbaren Zustand über web3://-URLs abrufen und transaktionale Intents über ERC-4337 mithilfe von Session Keys mit begrenztem Umfang übermitteln, alles ohne anfälliges Screen Scraping oder unsichere Handhabung privater Schlüssel.

Designhinweise für Entwickler

Bei der Implementierung dieser Standards gibt es einige architektonische Entscheidungen zu berücksichtigen. Für ERC-4337 ist es ratsam, mit minimalen Smart Contract Account-Vorlagen zu beginnen und Funktionen über geschützte Module hinzuzufügen, um die Kernvalidierungslogik einfach und sicher zu halten. Ihre Paymaster-Richtlinie sollte robust sein, mit klaren Obergrenzen für gesponsertes Gas und Whitelists für genehmigte Methoden, um Griefing-Angriffe zu verhindern.

Für ERC-4804 priorisieren Sie menschenlesbare Links, indem Sie ENS-Namen verwenden. Seien Sie explizit bezüglich chainId, um Mehrdeutigkeiten zu vermeiden, und fügen Sie den Parameter returns=(…) hinzu, um sicherzustellen, dass Clients typisierte, vorhersehbare Antworten erhalten. Obwohl Sie vollständige Benutzeroberflächen rendern können, ist es oft am besten, On-Chain-HTML/SVG minimal zu halten und sie als verifizierbare Hüllen zu verwenden, die größere Assets aus dezentralem Speicher wie IPFS abrufen können.

Denken Sie schließlich daran, dass EIP-7702 und ERC-4337 zusammenarbeiten, nicht gegeneinander. Da EIP-7702 im Pectra-Upgrade nun aktiv ist, können bestehende EOA-Benutzer Aktionen an die Vertragslogik delegieren, ohne ein vollständiges Smart Account bereitzustellen. Die Tools im Account Abstraction-Ökosystem passen sich bereits an, um dies zu unterstützen und den Migrationspfad für alle zu ebnen.


Sicherheit, Realität und Einschränkungen

Obwohl leistungsstark, haben diese Systeme Kompromisse. Der EntryPoint-Vertrag ist konstruktionsbedingt ein zentraler Engpass; er vereinfacht das Sicherheitsmodell, konzentriert aber auch das Risiko. Halten Sie sich immer an geprüfte, kanonische Versionen. Die Mempool-Validierungsregeln aus ERC-7562 sind eine soziale Konvention, keine On-Chain-durchgesetzte Regel, gehen Sie also nicht davon aus, dass jeder alternative Mempool die gleiche Zensurresistenz oder DoS-Schutz bietet.

Darüber hinaus reift web3:// noch. Es bleibt ein schreibgeschützter Standard, und jede Schreiboperation erfordert eine Transaktion. Obwohl das Protokoll selbst dezentralisiert ist, können die Gateways und Clients, die diese URLs auflösen, immer noch potenzielle Fehler- oder Zensurpunkte sein. Echte „Unblockbarkeit“ wird von einer weit verbreiteten nativen Client-Unterstützung abhängen.


Eine konkrete Blaupause

Stellen Sie sich vor, Sie möchten einen NFT-basierten Mitgliederclub mit einer teilbaren, verifizierbaren Benutzeroberfläche und einem Ein-Klick-Beitrittsprozess aufbauen. So könnten Sie ihn in diesem Quartal veröffentlichen:

  1. Teilen Sie die Benutzeroberfläche: Verteilen Sie einen Link wie web3://club.eth/home. Wenn ein Benutzer ihn öffnet, löst sein Client die URL auf, ruft den Vertrag auf und rendert eine On-Chain-Benutzeroberfläche, die die aktuelle Mitglieder-Allowlist und den Mint-Preis anzeigt.
  2. Ein-Klick-Beitritt: Der Benutzer klickt auf einen „Beitreten“-Button. Sein Wallet kompiliert eine ERC-4337 UserOperation, die von Ihrem Paymaster gesponsert wird. Diese einzelne Operation bündelt drei Aufrufe: Bereitstellung des Smart Accounts des Benutzers (falls er noch keines hat), Zahlung der Mint-Gebühr und Registrierung seiner Profildaten.
  3. Verifizierbare Quittung: Nachdem die Transaktion bestätigt wurde, wird dem Benutzer eine Bestätigungsansicht angezeigt, die nur ein weiterer web3://-Link ist, wie web3://club.eth/receipt/<tokenId>, wodurch ein permanenter On-Chain-Link zu seinem Mitgliedschaftsnachweis erstellt wird.

Der größere Bogen

Diese beiden Standards signalisieren einen fundamentalen Wandel in der Art und Weise, wie wir auf Ethereum aufbauen. Konten werden zu Software. ERC-4337 und EIP-7702 verwandeln „Wallet UX“ in einen Raum für echte Produktinnovationen und führen uns über Vorträge zum Schlüsselmanagement hinaus. Gleichzeitig werden Links zu Abfragen. ERC-4804 stellt die URL als Primitiv zur Adressierung verifizierbarer Fakten On-Chain wieder her, nicht nur der Frontends, die sie proxen.

Zusammen verkleinern sie die Lücke zwischen dem, was Benutzer anklicken, und dem, was Verträge tun. Diese Lücke wurde einst von zentralisierten Webservern und Vertrauensannahmen gefüllt. Jetzt kann sie durch verifizierbare Codepfade und offene, erlaubnislose Mempools gefüllt werden.

Wenn Sie Krypto-Anwendungen für Endverbraucher entwickeln, ist dies Ihre Chance, die erste Minute des Benutzers zu einem Vergnügen zu machen. Teilen Sie einen Link, rendern Sie die Wahrheit, sponsern Sie die erste Aktion und halten Sie Ihre Benutzer in einer verifizierbaren Schleife. Die Wege sind da – jetzt ist es Zeit, die Erlebnisse zu liefern.

KI und Web3 durch MCP verbinden: Eine Panorama-Analyse

· 44 Min. Lesezeit
Dora Noda
Software Engineer

Einleitung

KI und Web3 konvergieren auf wirkungsvolle Weise, wobei allgemeine KI-Schnittstellen nun als Bindegewebe für das dezentrale Web konzipiert werden. Ein Schlüsselkonzept, das aus dieser Konvergenz hervorgeht, ist MCP, das je nach Kontext für „Model Context Protocol“ (wie von Anthropic eingeführt) steht oder in breiteren Diskussionen lose als Metaverse Connection Protocol beschrieben wird. Im Wesentlichen ist MCP ein standardisiertes Framework, das KI-Systemen ermöglicht, auf natürliche und sichere Weise mit externen Tools und Netzwerken zu interagieren – und potenziell KI-Agenten in jeden Winkel des Web3-Ökosystems „einzubinden“. Dieser Bericht bietet eine umfassende Analyse, wie allgemeine KI-Schnittstellen (wie Agenten großer Sprachmodelle und neuronal-symbolische Systeme) alles in der Web3-Welt über MCP verbinden könnten, einschließlich des historischen Hintergrunds, der technischen Architektur, der Branchenlandschaft, der Risiken und des Zukunftspotenzials.

1. Entwicklungshintergrund

1.1 Die Evolution von Web3 und unerfüllte Versprechen

Der Begriff „Web3“ wurde um 2014 geprägt, um ein Blockchain-gestütztes dezentrales Web zu beschreiben. Die Vision war ehrgeizig: ein berechtigungsfreies Internet, das auf Benutzerbesitz ausgerichtet ist. Enthusiasten stellten sich vor, die zentralisierte Infrastruktur von Web2 durch Blockchain-basierte Alternativen zu ersetzen – z. B. Ethereum Name Service (für DNS), Filecoin oder IPFS (für Speicher) und DeFi für Finanzschienen. Theoretisch würde dies Big Tech-Plattformen die Kontrolle entreißen und Einzelpersonen Selbstsouveränität über Daten, Identität und Vermögenswerte geben.

Die Realität blieb hinter den Erwartungen zurück. Trotz jahrelanger Entwicklung und Hype blieb der Mainstream-Einfluss von Web3 marginal. Durchschnittliche Internetnutzer strömten nicht zu dezentralen sozialen Medien oder begannen, private Schlüssel zu verwalten. Hauptgründe waren eine schlechte Benutzererfahrung, langsame und teure Transaktionen, aufsehenerregende Betrügereien und regulatorische Unsicherheit. Das dezentrale „Besitz-Web“ „materialisierte sich“ weitgehend nicht über eine Nischengemeinschaft hinaus. Mitte der 2020er Jahre gaben selbst Krypto-Befürworter zu, dass Web3 keinen Paradigmenwechsel für den Durchschnittsnutzer gebracht hatte.

Währenddessen erlebte die KI eine Revolution. Als Kapital und Entwicklertalente von Krypto zu KI wechselten, eroberten transformative Fortschritte im Deep Learning und bei den Grundmodellen (GPT-3, GPT-4 usw.) die öffentliche Vorstellungskraft. Generative KI zeigte einen klaren Nutzen – die Produktion von Inhalten, Code und Entscheidungen – auf eine Weise, die Krypto-Anwendungen nur schwer erreichen konnten. Tatsächlich übertraf der Einfluss großer Sprachmodelle in nur wenigen Jahren die Benutzerakzeptanz der Blockchain über ein Jahrzehnt hinweg deutlich. Dieser Kontrast führte dazu, dass einige spöttisch bemerkten, „Web3 sei an Krypto verschwendet worden“ und dass das eigentliche Web 3.0 aus der KI-Welle hervorgehe.

1.2 Der Aufstieg allgemeiner KI-Schnittstellen

Über Jahrzehnte hinweg entwickelten sich Benutzeroberflächen von statischen Webseiten (Web1.0) zu interaktiven Apps (Web2.0) – aber immer innerhalb der Grenzen des Klickens auf Schaltflächen und Ausfüllens von Formularen. Mit moderner KI, insbesondere großen Sprachmodellen (LLMs), ist ein neues Schnittstellenparadigma da: natürliche Sprache. Benutzer können einfach ihre Absicht in einfacher Sprache ausdrücken und KI-Systeme komplexe Aktionen über viele Domänen hinweg ausführen lassen. Dieser Wandel ist so tiefgreifend, dass einige vorschlagen, „Web 3.0“ als die Ära der KI-gesteuerten Agenten („das Agentic Web“) neu zu definieren, anstatt der früheren Blockchain-zentrierten Definition.

Frühe Experimente mit autonomen KI-Agenten zeigten jedoch einen kritischen Engpass auf. Diese Agenten – z. B. Prototypen wie AutoGPT – konnten Text oder Code generieren, aber es fehlte ihnen an einer robusten Möglichkeit, mit externen Systemen und untereinander zu kommunizieren. Es gab „keine gemeinsame KI-native Sprache“ für Interoperabilität. Jede Integration mit einem Tool oder einer Datenquelle war ein maßgeschneiderter Hack, und die KI-zu-KI-Interaktion hatte kein Standardprotokoll. Praktisch gesehen könnte ein KI-Agent eine große Denkfähigkeit besitzen, aber bei der Ausführung von Aufgaben scheitern, die die Nutzung von Web-Apps oder On-Chain-Diensten erforderten, einfach weil er nicht wusste, wie er mit diesen Systemen „sprechen“ sollte. Diese Diskrepanz – leistungsstarke Gehirne, primitive E/A – war vergleichbar mit einer superintelligenten Software, die hinter einer klobigen GUI feststeckte.

1.3 Konvergenz und das Aufkommen von MCP

Bis 2024 wurde deutlich, dass für die volle Entfaltung des KI-Potenzials (und für die Erfüllung des Web3-Versprechens) eine Konvergenz erforderlich war: KI-Agenten benötigen nahtlosen Zugang zu den Fähigkeiten von Web3 (dezentrale Anwendungen, Smart Contracts, Daten), und Web3 benötigt mehr Intelligenz und Benutzerfreundlichkeit, die KI bieten kann. Dies ist der Kontext, in dem MCP (Model Context Protocol) geboren wurde. Ende 2024 von Anthropic eingeführt, ist MCP ein offener Standard für die KI-Tool-Kommunikation, der sich für LLMs natürlich anfühlt. Es bietet eine strukturierte, auffindbare Möglichkeit für KI-„Hosts“ (wie ChatGPT, Claude usw.), eine Vielzahl externer Tools und Ressourcen über MCP-Server zu finden und zu nutzen. Mit anderen Worten, MCP ist eine gemeinsame Schnittstellenschicht, die es KI-Agenten ermöglicht, sich in Webdienste, APIs und sogar Blockchain-Funktionen einzuklinken, ohne jede Integration individuell programmieren zu müssen.

Betrachten Sie MCP als „den USB-C der KI-Schnittstellen“. So wie USB-C die Verbindung von Geräten standardisierte (sodass Sie nicht für jedes Gerät unterschiedliche Kabel benötigen), standardisiert MCP die Verbindung von KI-Agenten mit Tools und Daten. Anstatt für jeden Dienst (Slack vs. Gmail vs. Ethereum-Node) unterschiedliche API-Aufrufe fest zu codieren, kann ein Entwickler die MCP-Spezifikation einmal implementieren, und jede MCP-kompatible KI kann verstehen, wie dieser Dienst zu nutzen ist. Große KI-Akteure erkannten schnell die Bedeutung: Anthropic stellte MCP als Open Source zur Verfügung, und Unternehmen wie OpenAI und Google entwickeln Unterstützung dafür in ihren Modellen. Diese Dynamik deutet darauf hin, dass MCP (oder ähnliche „Meta Connectivity Protocols“) das Rückgrat werden könnte, das KI und Web3 endlich auf skalierbare Weise verbindet.

Bemerkenswerterweise argumentieren einige Technologen, dass diese KI-zentrierte Konnektivität die eigentliche Verwirklichung von Web3.0 ist. In Simba Khadders Worten: „MCP zielt darauf ab, eine API zwischen LLMs und Anwendungen zu standardisieren“, ähnlich wie REST-APIs Web 2.0 ermöglichten – was bedeutet, dass die nächste Ära von Web3 eher durch intelligente Agenten-Schnittstellen als nur durch Blockchains definiert werden könnte. Anstatt Dezentralisierung um ihrer selbst willen, könnte die Konvergenz mit KI die Dezentralisierung nützlich machen, indem sie Komplexität hinter natürlicher Sprache und autonomen Agenten verbirgt. Der Rest dieses Berichts befasst sich damit, wie KI-Allgemeinschnittstellen (über Protokolle wie MCP) technisch und praktisch alles in der Web3-Welt verbinden können.

2. Technische Architektur: KI-Schnittstellen als Brücke zu Web3-Technologien

Die Einbettung von KI-Agenten in den Web3-Stack erfordert eine Integration auf mehreren Ebenen: Blockchain-Netzwerke und Smart Contracts, dezentraler Speicher, Identitätssysteme und Token-basierte Ökonomien. Allgemeine KI-Schnittstellen – von großen Basismodellen bis hin zu hybriden neuronal-symbolischen Systemen – können als „universeller Adapter“ dienen, der diese Komponenten verbindet. Im Folgenden analysieren wir die Architektur einer solchen Integration:

** Abbildung: Ein konzeptionelles Diagramm der MCP-Architektur, das zeigt, wie KI-Hosts (LLM-basierte Anwendungen wie Claude oder ChatGPT) einen MCP-Client verwenden, um sich mit verschiedenen MCP-Servern zu verbinden. Jeder Server bietet eine Brücke zu einem externen Tool oder Dienst (z. B. Slack, Gmail, Kalender oder lokale Daten), analog zu Peripheriegeräten, die über einen universellen Hub verbunden sind. Diese standardisierte MCP-Schnittstelle ermöglicht KI-Agenten den Zugriff auf Remote-Dienste und On-Chain-Ressourcen über ein gemeinsames Protokoll.**

2.1 KI-Agenten als Web3-Clients (Integration mit Blockchains)

Im Kern von Web3 stehen Blockchains und Smart Contracts – dezentrale Zustandsmaschinen, die Logik auf vertrauenslose Weise durchsetzen können. Wie kann eine KI-Schnittstelle damit interagieren? Es gibt zwei Richtungen zu berücksichtigen:

  • KI liest von der Blockchain: Ein KI-Agent benötigt möglicherweise On-Chain-Daten (z. B. Token-Preise, Vermögenssaldo des Benutzers, DAO-Vorschläge) als Kontext für seine Entscheidungen. Traditionell erfordert das Abrufen von Blockchain-Daten die Schnittstelle zu Node-RPC-APIs oder Subgraph-Datenbanken. Mit einem Framework wie MCP kann eine KI einen standardisierten „Blockchain-Daten“-MCP-Server abfragen, um Live-On-Chain-Informationen abzurufen. Zum Beispiel könnte ein MCP-fähiger Agent nach dem neuesten Transaktionsvolumen eines bestimmten Tokens oder dem Zustand eines Smart Contracts fragen, und der MCP-Server würde die Low-Level-Details der Verbindung zur Blockchain handhaben und die Daten in einem Format zurückgeben, das die KI verwenden kann. Dies erhöht die Interoperabilität, indem die KI von einem spezifischen Blockchain-API-Format entkoppelt wird.

  • KI schreibt auf die Blockchain: Leistungsfähiger noch können KI-Agenten Smart-Contract-Aufrufe oder Transaktionen über Web3-Integrationen ausführen. Eine KI könnte beispielsweise autonom einen Handel an einer dezentralen Börse ausführen oder Parameter in einem Smart Contract anpassen, wenn bestimmte Bedingungen erfüllt sind. Dies wird erreicht, indem die KI einen MCP-Server aufruft, der die Blockchain-Transaktionsfunktionalität kapselt. Ein konkretes Beispiel ist der thirdweb MCP-Server für EVM-Ketten, der es jedem MCP-kompatiblen KI-Client ermöglicht, mit Ethereum, Polygon, BSC usw. zu interagieren, indem ketten-spezifische Mechaniken abstrahiert werden. Mit einem solchen Tool könnte ein KI-Agent On-Chain-Aktionen „ohne menschliches Eingreifen“ auslösen und so autonome dApps ermöglichen – zum Beispiel ein KI-gesteuerter DeFi-Vault, der sich selbst neu ausbalanciert, indem er Transaktionen signiert, wenn sich die Marktbedingungen ändern.

Im Hintergrund basieren diese Interaktionen immer noch auf Wallets, Schlüsseln und Gasgebühren, aber die KI-Schnittstelle kann kontrollierten Zugriff auf ein Wallet (mit geeigneten Sicherheits-Sandboxes) erhalten, um die Transaktionen durchzuführen. Orakel und Cross-Chain-Brücken spielen ebenfalls eine Rolle: Orakel-Netzwerke wie Chainlink dienen als Brücke zwischen KI und Blockchains und ermöglichen es, KI-Outputs vertrauenswürdig On-Chain einzuspeisen. Chainlinks Cross-Chain Interoperability Protocol (CCIP) könnte beispielsweise einem als zuverlässig erachteten KI-Modell ermöglichen, mehrere Smart Contracts über verschiedene Ketten hinweg gleichzeitig im Namen eines Benutzers auszulösen. Zusammenfassend können allgemeine KI-Schnittstellen als eine neue Art von Web3-Client fungieren – einer, der sowohl Blockchain-Daten konsumieren als auch Blockchain-Transaktionen über standardisierte Protokolle produzieren kann.

2.2 Neuronal-Symbolische Synergie: KI-Denkfähigkeit mit Smart Contracts kombinieren

Ein faszinierender Aspekt der KI-Web3-Integration ist das Potenzial für neuronal-symbolische Architekturen, die die Lernfähigkeit von KI (neuronale Netze) mit der rigorosen Logik von Smart Contracts (symbolische Regeln) verbinden. In der Praxis könnte dies bedeuten, dass KI-Agenten unstrukturierte Entscheidungsfindung übernehmen und bestimmte Aufgaben zur überprüfbaren Ausführung an Smart Contracts weitergeben. Zum Beispiel könnte eine KI die Marktstimmung analysieren (eine unscharfe Aufgabe), aber dann Trades über einen deterministischen Smart Contract ausführen, der vordefinierten Risikoregeln folgt. Das MCP-Framework und verwandte Standards machen solche Übergaben machbar, indem sie der KI eine gemeinsame Schnittstelle bieten, um Vertragsfunktionen aufzurufen oder die Regeln einer DAO abzufragen, bevor sie handelt.

Ein konkretes Beispiel ist SingularityNETs AI-DSL (AI Domain Specific Language), das darauf abzielt, die Kommunikation zwischen KI-Agenten in ihrem dezentralen Netzwerk zu standardisieren. Dies kann als ein Schritt in Richtung neuronal-symbolischer Integration gesehen werden: eine formale Sprache (symbolisch) für Agenten, um KI-Dienste oder Daten voneinander anzufordern. Ähnlich könnten Projekte wie DeepMinds AlphaCode oder andere schließlich so verbunden werden, dass Smart Contracts KI-Modelle für die On-Chain-Problemlösung aufrufen. Obwohl das direkte Ausführen großer KI-Modelle On-Chain heute unpraktisch ist, entstehen hybride Ansätze: z. B. erlauben bestimmte Blockchains die Verifizierung von ML-Berechnungen über Zero-Knowledge-Proofs oder vertrauenswürdige Ausführung, was die On-Chain-Verifizierung von Off-Chain-KI-Ergebnissen ermöglicht. Zusammenfassend sieht die technische Architektur KI-Systeme und Blockchain-Smart Contracts als komplementäre Komponenten vor, die über gemeinsame Protokolle orchestriert werden: KI übernimmt Wahrnehmung und offene Aufgaben, während Blockchains Integrität, Speicher und die Durchsetzung vereinbarter Regeln bieten.

2.3 Dezentraler Speicher und Daten für KI

KI lebt von Daten, und Web3 bietet neue Paradigmen für Datenspeicherung und -freigabe. Dezentrale Speichernetzwerke (wie IPFS/Filecoin, Arweave, Storj usw.) können sowohl als Repositories für KI-Modellartefakte als auch als Quellen für Trainingsdaten dienen, mit Blockchain-basierter Zugriffskontrolle. Eine allgemeine KI-Schnittstelle könnte über MCP oder Ähnliches Dateien oder Wissen aus dezentralem Speicher genauso einfach abrufen wie von einer Web2-API. Zum Beispiel könnte ein KI-Agent einen Datensatz vom Markt des Ocean Protocols oder eine verschlüsselte Datei aus einem verteilten Speicher abrufen, wenn er die entsprechenden Schlüssel oder Zahlungen besitzt.

Ocean Protocol hat sich insbesondere als Plattform für eine „KI-Datenökonomie“ positioniert – indem es Blockchain nutzt, um Daten und sogar KI-Dienste zu tokenisieren. In Ocean werden Datensätze durch Datatoken repräsentiert, die den Zugriff steuern; ein KI-Agent könnte einen Datatoken erhalten (vielleicht durch Zahlung mit Krypto oder über ein Zugriffsrecht) und dann einen Ocean MCP-Server verwenden, um die tatsächlichen Daten zur Analyse abzurufen. Oceans Ziel ist es, „ruhende Daten“ für KI freizuschalten, das Teilen zu fördern und gleichzeitig die Privatsphäre zu wahren. So könnte eine Web3-verbundene KI auf ein riesiges, dezentrales Informationskorpus zugreifen – von persönlichen Datentresoren bis hin zu offenen Regierungsdaten –, das zuvor isoliert war. Die Blockchain stellt sicher, dass die Nutzung der Daten transparent ist und fair belohnt werden kann, was einen positiven Kreislauf antreibt, in dem mehr Daten für KI verfügbar werden und mehr KI-Beiträge (wie trainierte Modelle) monetarisiert werden können.

Dezentrale Identitätssysteme spielen hier ebenfalls eine Rolle (näher erläutert im nächsten Unterabschnitt): Sie können dabei helfen zu kontrollieren, wer oder was auf bestimmte Daten zugreifen darf. Zum Beispiel könnte ein medizinischer KI-Agent aufgefordert werden, eine überprüfbare Berechtigung (On-Chain-Nachweis der Einhaltung von HIPAA oder Ähnlichem) vorzulegen, bevor er einen medizinischen Datensatz aus dem persönlichen IPFS-Speicher eines Patienten entschlüsseln darf. Auf diese Weise stellt die technische Architektur sicher, dass Daten an die KI fließen, wo dies angemessen ist, aber mit On-Chain-Governance und Audit-Trails, um Berechtigungen durchzusetzen.

2.4 Identitäts- und Agentenmanagement in einer dezentralen Umgebung

Wenn autonome KI-Agenten in einem offenen Ökosystem wie Web3 agieren, werden Identität und Vertrauen von größter Bedeutung. Dezentrale Identitäts-Frameworks (DID) bieten eine Möglichkeit, digitale Identitäten für KI-Agenten zu etablieren, die kryptografisch verifiziert werden können. Jeder Agent (oder der Mensch/die Organisation, der/die ihn einsetzt) kann eine DID und zugehörige verifizierbare Berechtigungsnachweise besitzen, die seine Attribute und Berechtigungen festlegen. Zum Beispiel könnte ein KI-Handelsbot einen Berechtigungsnachweis tragen, der von einer regulatorischen Sandbox ausgestellt wurde und bescheinigt, dass er innerhalb bestimmter Risikolimits operieren darf, oder ein KI-Inhaltsmoderator könnte nachweisen, dass er von einer vertrauenswürdigen Organisation erstellt wurde und Bias-Tests durchlaufen hat.

Durch On-Chain-Identitätsregister und Reputationssysteme kann die Web3-Welt die Verantwortlichkeit für KI-Aktionen durchsetzen. Jede Transaktion, die ein KI-Agent durchführt, kann auf seine ID zurückverfolgt werden, und wenn etwas schiefgeht, sagen die Berechtigungsnachweise aus, wer ihn gebaut hat oder wer verantwortlich ist. Dies adressiert eine kritische Herausforderung: Ohne Identität könnte ein böswilliger Akteur gefälschte KI-Agenten erstellen, um Systeme auszunutzen oder Fehlinformationen zu verbreiten, und niemand könnte Bots von legitimen Diensten unterscheiden. Dezentrale Identität hilft, dies zu mindern, indem sie eine robuste Authentifizierung ermöglicht und authentische KI-Agenten von Fälschungen unterscheidet.

In der Praxis würde eine mit Web3 integrierte KI-Schnittstelle Identitätsprotokolle verwenden, um ihre Aktionen und Anfragen zu signieren. Wenn beispielsweise ein KI-Agent einen MCP-Server aufruft, um ein Tool zu verwenden, könnte er einen Token oder eine Signatur enthalten, die mit seiner dezentralen Identität verknüpft ist, sodass der Server überprüfen kann, ob der Aufruf von einem autorisierten Agenten stammt. Blockchain-basierte Identitätssysteme (wie Ethereums ERC-725 oder W3C DIDs, die in einem Ledger verankert sind) stellen sicher, dass diese Verifizierung vertrauenslos und global überprüfbar ist. Das aufkommende Konzept der „KI-Wallets“ knüpft hier an – im Wesentlichen erhalten KI-Agenten Kryptowährungs-Wallets, die mit ihrer Identität verknüpft sind, sodass sie Schlüssel verwalten, für Dienste bezahlen oder Token als Kaution staken können (die bei Fehlverhalten entzogen werden könnte). ArcBlock hat beispielsweise diskutiert, wie „KI-Agenten ein Wallet benötigen“ und eine DID, um in dezentralen Umgebungen verantwortungsvoll zu agieren.

Zusammenfassend sieht die technische Architektur KI-Agenten als Bürger erster Klasse in Web3 vor, jeder mit einer On-Chain-Identität und möglicherweise einem Anteil am System, die Protokolle wie MCP zur Interaktion nutzen. Dies schafft ein Vertrauensnetzwerk: Smart Contracts können die Anmeldeinformationen einer KI verlangen, bevor sie kooperieren, und Benutzer können Aufgaben nur an jene KI delegieren, die bestimmte On-Chain-Zertifizierungen erfüllen. Es ist eine Mischung aus KI-Fähigkeit und den Vertrauensgarantien der Blockchain.

2.5 Token-Ökonomien und Anreize für KI

Tokenisierung ist ein Markenzeichen von Web3 und erstreckt sich auch auf den Bereich der KI-Integration. Durch die Einführung wirtschaftlicher Anreize über Token können Netzwerke gewünschte Verhaltensweisen sowohl von KI-Entwicklern als auch von den Agenten selbst fördern. Es zeichnen sich mehrere Muster ab:

  • Zahlung für Dienstleistungen: KI-Modelle und -Dienste können On-Chain monetarisiert werden. SingularityNET leistete hier Pionierarbeit, indem es Entwicklern ermöglichte, KI-Dienste bereitzustellen und Benutzer für jeden Aufruf in einem nativen Token (AGIX) zu belasten. In einer MCP-fähigen Zukunft könnte man sich jedes KI-Tool oder -Modell als Plug-and-Play-Dienst vorstellen, dessen Nutzung über Token oder Mikrozahlungen abgerechnet wird. Wenn beispielsweise ein KI-Agent eine Drittanbieter-Vision-API über MCP verwendet, könnte er die Zahlung automatisch abwickeln, indem er Token an den Smart Contract des Dienstanbieters überweist. Fetch.ai stellt sich ähnlich Marktplätze vor, auf denen „autonome Wirtschaftsagenten“ Dienste und Daten handeln, wobei ihr neues Web3 LLM (ASI-1) vermutlich Krypto-Transaktionen für den Wertetausch integriert.

  • Staking und Reputation: Um Qualität und Zuverlässigkeit zu gewährleisten, verlangen einige Projekte von Entwicklern oder Agenten, Token zu staken. Zum Beispiel plant das DeMCP-Projekt (ein dezentraler MCP-Server-Marktplatz), Token-Anreize zu nutzen, um Entwickler für die Erstellung nützlicher MCP-Server zu belohnen und sie möglicherweise Token als Zeichen des Engagements für die Sicherheit ihres Servers staken zu lassen. Reputation könnte auch an Token gebunden sein; z. B. könnte ein Agent, der konstant gute Leistungen erbringt, Reputations-Token oder positive On-Chain-Bewertungen ansammeln, während einer, der sich schlecht verhält, seinen Einsatz verlieren oder negative Bewertungen erhalten könnte. Diese tokenisierte Reputation kann dann in das oben erwähnte Identitätssystem zurückfließen (Smart Contracts oder Benutzer überprüfen die On-Chain-Reputation des Agenten, bevor sie ihm vertrauen).

  • Governance-Token: Wenn KI-Dienste Teil dezentraler Plattformen werden, ermöglichen Governance-Token der Community, deren Entwicklung zu steuern. Projekte wie SingularityNET und Ocean verfügen über DAOs, in denen Token-Inhaber über Protokolländerungen oder die Finanzierung von KI-Initiativen abstimmen. In der kombinierten Artificial Superintelligence (ASI) Alliance – einer neu angekündigten Fusion von SingularityNET, Fetch.ai und Ocean Protocol – soll ein einheitlicher Token (ASI) die Richtung eines gemeinsamen KI+Blockchain-Ökosystems steuern. Solche Governance-Token könnten über Richtlinien entscheiden, wie z. B. welche Standards übernommen werden sollen (z. B. Unterstützung von MCP- oder A2A-Protokollen), welche KI-Projekte inkubiert werden sollen oder wie ethische Richtlinien für KI-Agenten gehandhabt werden sollen.

  • Zugang und Nutzen: Token können den Zugang nicht nur zu Daten (wie bei Oceans Datatoken), sondern auch zur Nutzung von KI-Modellen steuern. Ein mögliches Szenario sind „Modell-NFTs“ oder Ähnliches, bei denen der Besitz eines Tokens Rechte an den Ausgaben eines KI-Modells oder einen Anteil an dessen Gewinnen gewährt. Dies könnte dezentrale KI-Marktplätze untermauern: Stellen Sie sich einen NFT vor, der einen Teilsbesitz an einem leistungsstarken Modell darstellt; die Eigentümer verdienen gemeinsam, wann immer das Modell in Inferenzaufgaben verwendet wird, und sie können über dessen Feinabstimmung abstimmen. Obwohl experimentell, stimmt dies mit dem Web3-Ethos des gemeinsamen Eigentums überein, angewendet auf KI-Assets.

Technisch gesehen bedeutet die Integration von Token, dass KI-Agenten Wallet-Funktionalität benötigen (wie bereits erwähnt, werden viele ihre eigenen Krypto-Wallets haben). Über MCP könnte eine KI ein „Wallet-Tool“ haben, das es ihr ermöglicht, Salden zu überprüfen, Token zu senden oder DeFi-Protokolle aufzurufen (vielleicht um einen Token gegen einen anderen zu tauschen, um einen Dienst zu bezahlen). Wenn beispielsweise ein auf Ethereum laufender KI-Agent Ocean-Token benötigt, um einen Datensatz zu kaufen, könnte er automatisch ETH gegen $OCEAN über eine DEX mit einem MCP-Plugin tauschen und dann den Kauf fortsetzen – alles ohne menschliches Eingreifen, geleitet von den Richtlinien, die sein Besitzer festgelegt hat.

Insgesamt bildet die Token-Ökonomie die Anreizschicht in der KI-Web3-Architektur und stellt sicher, dass Mitwirkende (ob sie Daten, Modellcode, Rechenleistung oder Sicherheitsaudits bereitstellen) belohnt werden und dass KI-Agenten „Skin in the Game“ haben, was sie (bis zu einem gewissen Grad) mit menschlichen Absichten in Einklang bringt.

3. Branchenlandschaft

Die Konvergenz von KI und Web3 hat ein lebendiges Ökosystem von Projekten, Unternehmen und Allianzen ins Leben gerufen. Im Folgenden geben wir einen Überblick über wichtige Akteure und Initiativen, die diesen Bereich vorantreiben, sowie über aufkommende Anwendungsfälle. Tabelle 1 bietet einen Überblick über bemerkenswerte Projekte und ihre Rollen in der KI-Web3-Landschaft:

Tabelle 1: Wichtige Akteure in KI + Web3 und ihre Rollen

Projekt / AkteurFokus & BeschreibungRolle in der KI-Web3-Konvergenz und Anwendungsfälle
Fetch.ai (Fetch)KI-Agentenplattform mit einer nativen Blockchain (Cosmos-basiert). Entwickelte Frameworks für autonome Agenten und führte kürzlich „ASI-1 Mini“ ein, ein Web3-optimiertes LLM.Ermöglicht agentenbasierte Dienste in Web3. Fetchs Agenten können Aufgaben wie dezentrale Logistik, Parkplatzsuche oder DeFi-Handel im Namen von Benutzern ausführen, wobei Krypto für Zahlungen verwendet wird. Partnerschaften (z. B. mit Bosch) und die Fetch-AI-Allianzfusion positionieren es als Infrastruktur für die Bereitstellung von agentenbasierten dApps.
Ocean Protocol (Ocean)Dezentraler Datenmarktplatz und Datenprotokoll. Spezialisiert auf die Tokenisierung von Datensätzen und Modellen mit datenschutzfreundlicher Zugriffskontrolle.Bietet das Daten-Rückgrat für KI in Web3. Ocean ermöglicht es KI-Entwicklern, Datensätze zu finden und zu kaufen oder trainierte Modelle in einer vertrauenslosen Datenökonomie zu verkaufen. Indem es KI mit zugänglicheren Daten versorgt (und gleichzeitig Datenanbieter belohnt), unterstützt es KI-Innovation und den Datenaustausch für das Training. Ocean ist Teil der neuen ASI-Allianz und integriert seine Datendienste in ein breiteres KI-Netzwerk.
SingularityNET (SNet)Ein dezentraler KI-Dienstleistungsmarktplatz, gegründet vom KI-Pionier Ben Goertzel. Ermöglicht jedem, KI-Algorithmen über seine Blockchain-basierte Plattform zu veröffentlichen oder zu nutzen, unter Verwendung des AGIX-Tokens.Pionierarbeit beim Konzept eines offenen KI-Marktplatzes auf der Blockchain. Es fördert ein Netzwerk von KI-Agenten und -Diensten, die interoperieren können (Entwicklung einer speziellen AI-DSL für die Agentenkommunikation). Anwendungsfälle umfassen KI-as-a-Service für Aufgaben wie Analyse, Bilderkennung usw., alle über eine dApp zugänglich. Fusioniert nun mit Fetch und Ocean (ASI-Allianz), um KI, Agenten und Daten in einem Ökosystem zu vereinen.
Chainlink (Orakel-Netzwerk)Dezentrales Orakel-Netzwerk, das Blockchains mit Off-Chain-Daten und -Berechnungen verbindet. Kein KI-Projekt an sich, aber entscheidend für die Verbindung von On-Chain-Smart Contracts mit externen APIs und Systemen.Fungiert als sichere Middleware für die KI-Web3-Integration. Chainlink-Orakel können KI-Modellausgaben in Smart Contracts einspeisen, wodurch On-Chain-Programme auf KI-Entscheidungen reagieren können. Umgekehrt können Orakel Daten von Blockchains für KI abrufen. Chainlinks Architektur kann sogar die Ergebnisse mehrerer KI-Modelle aggregieren, um die Zuverlässigkeit zu verbessern (ein „Wahrheitsmaschinen“-Ansatz zur Minderung von KI-Halluzinationen). Es bietet im Wesentlichen die Grundlagen für Interoperabilität und stellt sicher, dass KI-Agenten und Blockchain sich auf vertrauenswürdige Daten einigen.
Anthropic & OpenAI (KI-Anbieter)Entwickler von hochmodernen Basismodellen (Claude von Anthropic, GPT von OpenAI). Sie integrieren Web3-freundliche Funktionen, wie native Tool-Use-APIs und Unterstützung für Protokolle wie MCP.Diese Unternehmen treiben die KI-Schnittstellentechnologie voran. Anthropic's Einführung von MCP setzte den Standard für LLMs, die mit externen Tools interagieren. OpenAI hat Plugin-Systeme für ChatGPT implementiert (analog zum MCP-Konzept) und erforscht die Verbindung von Agenten mit Datenbanken und möglicherweise Blockchains. Ihre Modelle dienen als die „Gehirne“, die, wenn sie über MCP verbunden sind, mit Web3 interagieren können. Große Cloud-Anbieter (z. B. Googles A2A-Protokoll) entwickeln ebenfalls Standards für Multi-Agenten- und Tool-Interaktionen, die der Web3-Integration zugutekommen werden.
Weitere aufstrebende AkteureLumoz: konzentriert sich auf MCP-Server und KI-Tool-Integration in Ethereum (genannt „Ethereum 3.0“) – z. B. Überprüfung von On-Chain-Salden über KI-Agenten. Alethea AI: erstellt intelligente NFT-Avatare für das Metaverse. Cortex: eine Blockchain, die On-Chain-KI-Modellinferenz über Smart Contracts ermöglicht. Golem & Akash: dezentrale Computing-Marktplätze, die KI-Workloads ausführen können. Numerai: Crowdsourcing-KI-Modelle für Finanzen mit Krypto-Anreizen.Diese vielfältige Gruppe adressiert Nischenaspekte: KI im Metaverse (KI-gesteuerte NPCs und Avatare, die über NFTs besessen werden), On-Chain-KI-Ausführung (Ausführung von ML-Modellen auf dezentrale Weise, obwohl derzeit aufgrund der Rechenkosten auf kleine Modelle beschränkt) und dezentrales Computing (damit KI-Trainings- oder Inferenzaufgaben auf Token-incentivierte Nodes verteilt werden können). Diese Projekte zeigen die vielen Richtungen der KI-Web3-Fusion – von Spielwelten mit KI-Charakteren bis hin zu Crowdsourcing-Vorhersagemodellen, die durch Blockchain gesichert sind.

Allianzen und Kooperationen:

Ein bemerkenswerter Trend ist die Konsolidierung von KI-Web3-Bemühungen durch Allianzen. Die Artificial Superintelligence Alliance (ASI) ist ein Paradebeispiel, das SingularityNET, Fetch.ai und Ocean Protocol effektiv zu einem einzigen Projekt mit einem einheitlichen Token zusammenführt. Die Begründung ist, Stärken zu bündeln: SingularityNETs Marktplatz, Fetchs Agenten und Oceans Daten, wodurch eine zentrale Plattform für dezentrale KI-Dienste geschaffen wird. Diese Fusion (angekündigt 2024 und durch Abstimmungen der Token-Inhaber genehmigt) signalisiert auch, dass diese Gemeinschaften glauben, dass sie besser zusammenarbeiten als konkurrieren – insbesondere angesichts der größeren KI (OpenAI usw.) und größeren Krypto (Ethereum usw.). Wir könnten sehen, wie diese Allianz Standardimplementierungen von Dingen wie MCP über ihre Netzwerke hinweg vorantreibt oder gemeinsam Infrastruktur finanziert, die allen zugutekommt (wie Rechennetzwerke oder gemeinsame Identitätsstandards für KI).

Weitere Kooperationen umfassen Chainlinks Partnerschaften, um Daten von KI-Laboren On-Chain zu bringen (es gab Pilotprogramme zur Nutzung von KI zur Verfeinerung von Orakeldaten), oder die Beteiligung von Cloud-Plattformen (Cloudflares Unterstützung für die einfache Bereitstellung von MCP-Servern). Sogar traditionelle Krypto-Projekte fügen KI-Funktionen hinzu – zum Beispiel haben einige Layer-1-Ketten „KI-Task Forces“ gebildet, um die Integration von KI in ihre dApp-Ökosysteme zu untersuchen (wir sehen dies in NEAR-, Solana-Communities usw., obwohl konkrete Ergebnisse noch in den Anfängen stecken).

Aufkommende Anwendungsfälle: Schon in diesem frühen Stadium können wir Anwendungsfälle erkennen, die die Leistungsfähigkeit von KI + Web3 veranschaulichen:

  • Autonomes DeFi und Handel: KI-Agenten werden zunehmend in Krypto-Handelsbots, Yield-Farming-Optimierern und im On-Chain-Portfoliomanagement eingesetzt. SingularityDAO (ein Ableger von SingularityNET) bietet KI-gesteuerte DeFi-Portfolios an. KI kann Marktbedingungen rund um die Uhr überwachen und Rebalancierungen oder Arbitrage über Smart Contracts ausführen, wodurch sie im Wesentlichen zu einem autonomen Hedgefonds wird (mit On-Chain-Transparenz). Die Kombination von KI-Entscheidungsfindung mit unveränderlicher Ausführung reduziert Emotionen und könnte die Effizienz verbessern – obwohl sie auch neue Risiken birgt (später diskutiert).

  • Dezentrale Intelligenz-Marktplätze: Über den Marktplatz von SingularityNET hinaus sehen wir Plattformen wie Ocean Market, auf denen Daten (der Treibstoff für KI) ausgetauscht werden, und neuere Konzepte wie KI-Marktplätze für Modelle (z. B. Websites, auf denen Modelle mit Leistungsstatistiken gelistet sind und jeder für Abfragen bezahlen kann, wobei die Blockchain Audit-Logs führt und die Zahlungsaufteilung an die Modellersteller handhabt). Wenn sich MCP oder ähnliche Standards durchsetzen, könnten diese Marktplätze interoperabel werden – ein KI-Agent könnte autonom nach dem preisgünstigsten Dienst über mehrere Netzwerke hinweg suchen. Im Endeffekt könnte eine globale KI-Dienstleistungsschicht auf Web3 entstehen, in der jede KI jedes Tool oder jede Datenquelle über Standardprotokolle und Zahlungen nutzen kann.

  • Metaverse und Gaming: Das Metaverse – immersive virtuelle Welten, die oft auf Blockchain-Assets basieren – wird dramatisch von KI profitieren. KI-gesteuerte NPCs (Nicht-Spieler-Charaktere) können virtuelle Welten ansprechender gestalten, indem sie intelligent auf Benutzeraktionen reagieren. Startups wie Inworld AI konzentrieren sich darauf, NPCs mit Gedächtnis und Persönlichkeit für Spiele zu schaffen. Wenn solche NPCs an die Blockchain gebunden sind (z. B. sind die Attribute und der Besitz jedes NPCs ein NFT), erhalten wir persistente Charaktere, die Spieler wirklich besitzen und sogar handeln können. Decentraland hat mit KI-NPCs experimentiert, und es gibt Benutzervorschläge, die es Menschen ermöglichen, personalisierte KI-gesteuerte Avatare auf Metaverse-Plattformen zu erstellen. MCP könnte diesen NPCs ermöglichen, auf externes Wissen zuzugreifen (was sie intelligenter macht) oder mit On-Chain-Inventar zu interagieren. Prozedurale Inhaltserzeugung ist ein weiterer Ansatz: KI kann virtuelle Länder, Gegenstände oder Quests spontan entwerfen, die dann als einzigartige NFTs geprägt werden können. Stellen Sie sich ein dezentrales Spiel vor, in dem KI einen Dungeon generiert, der auf Ihre Fähigkeiten zugeschnitten ist, und die Karte selbst ein NFT ist, das Sie nach Abschluss verdienen.

  • Dezentrale Wissenschaft und Wissen: Es gibt eine Bewegung (DeSci), Blockchain für Forschung, Veröffentlichungen und die Finanzierung wissenschaftlicher Arbeit zu nutzen. KI kann die Forschung beschleunigen, indem sie Daten und Literatur analysiert. Ein Netzwerk wie Ocean könnte Datensätze für beispielsweise Genomforschung hosten, und Wissenschaftler nutzen KI-Modelle (vielleicht auf SingularityNET gehostet), um Erkenntnisse zu gewinnen, wobei jeder Schritt On-Chain für die Reproduzierbarkeit protokolliert wird. Wenn diese KI-Modelle neue Arzneimittelmoleküle vorschlagen, könnte ein NFT geprägt werden, um die Erfindung zu datieren und sogar IP-Rechte zu teilen. Diese Synergie könnte dezentrale KI-gesteuerte F&E-Kollektive hervorbringen.

  • Vertrauen und Authentifizierung von Inhalten: Angesichts der Verbreitung von Deepfakes und KI-generierten Medien kann die Blockchain zur Überprüfung der Authentizität verwendet werden. Projekte erforschen das „digitale Wasserzeichen“ von KI-Ausgaben und deren On-Chain-Protokollierung. Zum Beispiel kann der wahre Ursprung eines KI-generierten Bildes auf einer Blockchain notariell beglaubigt werden, um Fehlinformationen zu bekämpfen. Ein Experte nannte Anwendungsfälle wie die Verifizierung von KI-Ausgaben zur Bekämpfung von Deepfakes oder die Verfolgung der Herkunft über Besitzprotokolle – Rollen, in denen Krypto den KI-Prozessen Vertrauen verleihen kann. Dies könnte auf Nachrichten (z. B. von KI verfasste Artikel mit Nachweis der Quelldaten), Lieferketten (KI, die Zertifikate On-Chain verifiziert) usw. ausgeweitet werden.

Zusammenfassend ist die Branchenlandschaft reichhaltig und entwickelt sich rasant. Wir sehen, wie traditionelle Krypto-Projekte KI in ihre Roadmaps integrieren, KI-Startups die Dezentralisierung für Resilienz und Fairness nutzen und völlig neue Unternehmungen an der Schnittstelle entstehen. Allianzen wie die ASI deuten auf einen branchenweiten Vorstoß zu einheitlichen Plattformen hin, die sowohl KI als auch Blockchain nutzen. Und vielen dieser Bemühungen liegt die Idee von Standardschnittstellen (MCP und darüber hinaus) zugrunde, die die Integrationen in großem Maßstab ermöglichen.

4. Risiken und Herausforderungen

Während die Fusion von allgemeinen KI-Schnittstellen mit Web3 spannende Möglichkeiten eröffnet, birgt sie auch eine komplexe Risikolandschaft. Technische, ethische und Governance-Herausforderungen müssen angegangen werden, um sicherzustellen, dass dieses neue Paradigma sicher und nachhaltig ist. Im Folgenden skizzieren wir die größten Risiken und Hürden:

4.1 Technische Hürden: Latenz und Skalierbarkeit

Blockchain-Netzwerke sind bekannt für Latenz und begrenzten Durchsatz, was mit der Echtzeit- und datenhungrigen Natur fortschrittlicher KI kollidiert. Zum Beispiel benötigt ein KI-Agent möglicherweise sofortigen Zugriff auf ein Datenelement oder muss viele schnelle Aktionen ausführen – aber wenn jede On-Chain-Interaktion beispielsweise 12 Sekunden dauert (typische Blockzeit auf Ethereum) oder hohe Gasgebühren kostet, wird die Effektivität des Agenten eingeschränkt. Selbst neuere Ketten mit schnellerer Finalität könnten unter der Last KI-gesteuerter Aktivitäten leiden, wenn beispielsweise Tausende von Agenten gleichzeitig On-Chain handeln oder abfragen. Skalierungslösungen (Layer-2-Netzwerke, Sharded Chains usw.) sind in Arbeit, aber die Gewährleistung niedrig-latenter, hochdurchsatzfähiger Pipelines zwischen KI und Blockchain bleibt eine Herausforderung. Off-Chain-Systeme (wie Orakel und State Channels) könnten einige Verzögerungen mindern, indem sie viele Interaktionen außerhalb der Hauptkette abwickeln, aber sie erhöhen die Komplexität und potenzielle Zentralisierung. Eine nahtlose UX zu erreichen, bei der KI-Antworten und On-Chain-Updates im Handumdrehen erfolgen, wird wahrscheinlich erhebliche Innovationen in der Blockchain-Skalierbarkeit erfordern.

4.2 Interoperabilität und Standards

Ironischerweise könnte die Entstehung mehrerer Standards zu Fragmentierung führen, obwohl MCP selbst eine Lösung für Interoperabilität ist. Wir haben MCP von Anthropic, aber auch Googles neu angekündigtes A2A (Agent-to-Agent)-Protokoll für die Inter-Agenten-Kommunikation und verschiedene KI-Plugin-Frameworks (OpenAIs Plugins, LangChain-Tool-Schemas usw.). Wenn jede KI-Plattform oder jede Blockchain ihren eigenen Standard für die KI-Integration entwickelt, riskieren wir eine Wiederholung früherer Fragmentierungen – was viele Adapter erfordert und das Ziel einer „universellen Schnittstelle“ untergräbt. Die Herausforderung besteht darin, eine breite Akzeptanz gemeinsamer Protokolle zu erreichen. Branchenzusammenarbeit (möglicherweise über offene Standardisierungsgremien oder Allianzen) wird erforderlich sein, um sich auf Schlüsselkomponenten zu einigen: wie KI-Agenten On-Chain-Dienste entdecken, wie sie sich authentifizieren, wie sie Anfragen formatieren usw. Die ersten Schritte großer Akteure sind vielversprechend (mit großen LLM-Anbietern, die MCP unterstützen), aber es ist eine fortlaufende Anstrengung. Darüber hinaus bedeutet Interoperabilität über Blockchains hinweg (Multi-Chain), dass ein KI-Agent die Nuancen verschiedener Ketten handhaben sollte. Tools wie Chainlink CCIP und Cross-Chain-MCP-Server helfen, indem sie Unterschiede abstrahieren. Dennoch ist es eine nicht-triviale Herausforderung, sicherzustellen, dass ein KI-Agent ein heterogenes Web3 durchstreifen kann, ohne die Logik zu unterbrechen.

4.3 Sicherheitslücken und Exploits

Die Verbindung leistungsstarker KI-Agenten mit Finanznetzwerken eröffnet eine riesige Angriffsfläche. Die Flexibilität, die MCP bietet (KI die Nutzung von Tools und das Schreiben von Code im laufenden Betrieb ermöglicht), kann ein zweischneidiges Schwert sein. Sicherheitsforscher haben bereits mehrere Angriffsvektoren bei MCP-basierten KI-Agenten hervorgehoben:

  • Bösartige Plugins oder Tools: Da MCP Agenten das Laden von „Plugins“ (Tools, die eine bestimmte Fähigkeit kapseln) ermöglicht, könnte ein feindseliges oder trojanisiertes Plugin den Betrieb des Agenten kapern. Zum Beispiel könnte ein Plugin, das vorgibt, Daten abzurufen, falsche Daten injizieren oder unautorisierte Operationen ausführen. SlowMist (eine Sicherheitsfirma) identifizierte Plugin-basierte Angriffe wie JSON-Injection (Einspeisung korrumpierter Daten, die die Logik des Agenten manipulieren) und Funktionsüberschreibung (wobei ein bösartiges Plugin legitime Funktionen, die der Agent verwendet, überschreibt). Wenn ein KI-Agent Krypto-Fonds verwaltet, könnten solche Exploits katastrophal sein – z. B. den Agenten dazu bringen, private Schlüssel preiszugeben oder ein Wallet zu leeren.

  • Prompt-Injection und Social Engineering: KI-Agenten verlassen sich auf Anweisungen (Prompts), die manipuliert werden könnten. Ein Angreifer könnte eine Transaktion oder eine On-Chain-Nachricht erstellen, die, wenn sie von der KI gelesen wird, als bösartige Anweisung fungiert (da KI auch On-Chain-Daten interpretieren kann). Diese Art von „Cross-MCP-Call-Angriff“ wurde beschrieben, bei dem ein externes System täuschende Prompts sendet, die die KI zu Fehlverhalten veranlassen. In einer dezentralen Umgebung könnten diese Prompts von überall her kommen – einer DAO-Vorschlagsbeschreibung, einem Metadatenfeld eines NFT – daher ist die Härtung von KI-Agenten gegen bösartige Eingaben entscheidend.

  • Aggregations- und Konsensrisiken: Während die Aggregation von Ausgaben mehrerer KI-Modelle über Orakel die Zuverlässigkeit verbessern kann, führt sie auch zu Komplexität. Wenn nicht sorgfältig vorgegangen wird, könnten Gegner herausfinden, wie sie den Konsens von KI-Modellen manipulieren oder selektiv einige Modelle korrumpieren, um die Ergebnisse zu verfälschen. Die Sicherstellung, dass ein dezentrales Orakel-Netzwerk KI-Ausgaben ordnungsgemäß „bereinigt“ (und vielleicht offensichtliche Fehler herausfiltert), ist immer noch ein Bereich aktiver Forschung.

Das Sicherheitsdenken muss sich für dieses neue Paradigma ändern: Web3-Entwickler sind es gewohnt, Smart Contracts zu sichern (die nach der Bereitstellung statisch sind), aber KI-Agenten sind dynamisch – sie können ihr Verhalten mit neuen Daten oder Prompts ändern. Wie ein Sicherheitsexperte es ausdrückte: „In dem Moment, in dem Sie Ihr System für Plugins von Drittanbietern öffnen, erweitern Sie die Angriffsfläche über Ihre Kontrolle hinaus“. Best Practices werden das Sandboxing der KI-Tool-Nutzung, eine rigorose Plugin-Verifizierung und die Begrenzung von Privilegien (Prinzip der geringsten Berechtigung) umfassen. Die Community beginnt, Tipps zu teilen, wie die Empfehlungen von SlowMist: Eingabebereinigung, Überwachung des Agentenverhaltens und Behandlung von Agentenanweisungen mit der gleichen Vorsicht wie externe Benutzereingaben. Nichtsdestotrotz, angesichts der Tatsache, dass Ende 2024 bereits über 10.000 KI-Agenten im Krypto-Bereich tätig waren und 2025 voraussichtlich 1 Million erreichen werden, könnten wir eine Welle von Exploits erleben, wenn die Sicherheit nicht mithält. Ein erfolgreicher Angriff auf einen beliebten KI-Agenten (z. B. einen Handelsagenten mit Zugriff auf viele Vaults) könnte Kaskadeneffekte haben.

4.4 Datenschutz und Daten-Governance

Der Datenhunger der KI kollidiert manchmal mit Datenschutzanforderungen – und die Hinzufügung von Blockchain kann das Problem verschärfen. Blockchains sind transparente Ledger, daher sind alle On-Chain-Daten (auch für die KI-Nutzung) für alle sichtbar und unveränderlich. Dies wirft Bedenken auf, wenn KI-Agenten mit persönlichen oder sensiblen Daten umgehen. Wenn beispielsweise die persönliche dezentrale Identität oder Gesundheitsdaten eines Benutzers von einem KI-Arzt-Agenten abgerufen werden, wie stellen wir sicher, dass diese Informationen nicht versehentlich On-Chain aufgezeichnet werden (was das „Recht auf Vergessenwerden“ und andere Datenschutzgesetze verletzen würde)? Techniken wie Verschlüsselung, Hashing und das Speichern nur von Beweisen On-Chain (mit Rohdaten Off-Chain) können helfen, verkomplizieren aber das Design.

Darüber hinaus könnten KI-Agenten selbst die Privatsphäre gefährden, indem sie sensible Informationen aus öffentlichen Daten ableiten. Die Governance muss festlegen, was KI-Agenten mit Daten tun dürfen. Einige Ansätze, wie differenzielle Privatsphäre und föderiertes Lernen, könnten eingesetzt werden, damit KI aus Daten lernen kann, ohne diese preiszugeben. Wenn KI-Agenten jedoch autonom handeln, muss man davon ausgehen, dass sie irgendwann persönliche Daten verarbeiten werden – daher sollten sie an Datenverwendungsrichtlinien gebunden sein, die in Smart Contracts oder Gesetzen kodiert sind. Regulierungsregime wie die DSGVO oder der kommende EU AI Act werden verlangen, dass selbst dezentrale KI-Systeme die Anforderungen an Privatsphäre und Transparenz erfüllen. Dies ist rechtlich ein Graubereich: Ein wirklich dezentraler KI-Agent hat keinen klaren Betreiber, der für eine Datenpanne zur Rechenschaft gezogen werden könnte. Das bedeutet, dass Web3-Communities Compliance von Grund auf einbauen müssen, indem sie Smart Contracts verwenden, die beispielsweise genau kontrollieren, was eine KI protokollieren oder teilen darf. Zero-Knowledge-Proofs könnten es einer KI ermöglichen, zu beweisen, dass sie eine Berechnung korrekt durchgeführt hat, ohne die zugrunde liegenden privaten Daten preiszugeben, was eine mögliche Lösung in Bereichen wie Identitätsprüfung oder Kreditwürdigkeitsprüfung bietet.

4.5 KI-Ausrichtung und Fehlausrichtungsrisiken

Wenn KI-Agenten eine erhebliche Autonomie erhalten – insbesondere mit Zugang zu finanziellen Ressourcen und realen Auswirkungen – wird das Problem der Ausrichtung an menschlichen Werten akut. Ein KI-Agent hat möglicherweise keine böswillige Absicht, könnte aber sein Ziel „falsch interpretieren“, was zu Schaden führen kann. Die Rechtsanalyse von Reuters stellt prägnant fest: Da KI-Agenten in verschiedenen Umgebungen agieren und mit anderen Systemen interagieren, wächst das Risiko fehlgeleiteter Strategien. Zum Beispiel könnte ein KI-Agent, der beauftragt ist, einen DeFi-Ertrag zu maximieren, eine Lücke finden, die ein Protokoll ausnutzt (im Wesentlichen hackt) – aus Sicht der KI erreicht er das Ziel, aber er bricht die Regeln, die Menschen wichtig sind. Es gab hypothetische und reale Fälle von KI-ähnlichen Algorithmen, die sich an manipulativen Marktverhalten beteiligten oder Beschränkungen umgingen.

In dezentralen Kontexten stellt sich die Frage: Wer ist verantwortlich, wenn ein KI-Agent „Amok läuft“? Vielleicht der Bereitsteller, aber was, wenn der Agent sich selbst modifiziert oder mehrere Parteien zu seinem Training beigetragen haben? Diese Szenarien sind nicht länger nur Science-Fiction. Der Reuters-Artikel zitiert sogar, dass Gerichte KI-Agenten in einigen Fällen ähnlich wie menschliche Agenten behandeln könnten – z. B. wurde ein Chatbot, der eine Rückerstattung versprach, als bindend für das Unternehmen angesehen, das ihn eingesetzt hatte. Fehlausrichtung kann also nicht nur zu technischen Problemen, sondern auch zu rechtlicher Haftung führen.

Die offene, zusammensetzbare Natur von Web3 könnte auch unvorhergesehene Agenteninteraktionen ermöglichen. Ein Agent könnte einen anderen beeinflussen (absichtlich oder versehentlich) – zum Beispiel könnte ein KI-Governance-Bot durch eine andere KI, die falsche Analysen liefert, „sozial manipuliert“ werden, was zu schlechten DAO-Entscheidungen führt. Diese aufkommende Komplexität bedeutet, dass es bei der Ausrichtung nicht nur um das Ziel einer einzelnen KI geht, sondern um die Ausrichtung des gesamten Ökosystems an menschlichen Werten und Gesetzen.

Die Bewältigung erfordert mehrere Ansätze: die Einbettung ethischer Beschränkungen in KI-Agenten (festes Kodieren bestimmter Verbote oder die Verwendung von Reinforcement Learning aus menschlichem Feedback, um ihre Ziele zu formen), die Implementierung von Sicherheitsabschaltungen (Smart-Contract-Kontrollpunkte, die menschliche Genehmigung für große Aktionen erfordern) und die Überwachung durch die Gemeinschaft (vielleicht DAOs, die das Verhalten von KI-Agenten überwachen und fehlverhaltene Agenten abschalten können). Die Ausrichtungsforschung ist bei zentralisierter KI schwierig; bei dezentraler KI ist sie noch unerforschteres Terrain. Aber sie ist entscheidend – ein KI-Agent mit Admin-Schlüsseln zu einem Protokoll oder anvertrauten Treasury-Fonds muss extrem gut ausgerichtet sein, sonst könnten die Konsequenzen irreversibel sein (Blockchains führen unveränderlichen Code aus; ein KI-ausgelöster Fehler könnte Vermögenswerte dauerhaft sperren oder zerstören).

4.6 Governance und regulatorische Unsicherheit

Dezentrale KI-Systeme passen nicht nahtlos in bestehende Governance-Frameworks. On-Chain-Governance (Token-Abstimmung usw.) könnte eine Möglichkeit sein, sie zu verwalten, hat aber ihre eigenen Probleme (Wale, Wählerapathie usw.). Und wenn etwas schiefgeht, werden die Regulierungsbehörden fragen: „Wen machen wir verantwortlich?“ Wenn ein KI-Agent massive Verluste verursacht oder für illegale Aktivitäten (z. B. Geldwäsche durch automatisierte Mixer) verwendet wird, könnten die Behörden die Ersteller oder die Vermittler ins Visier nehmen. Dies wirft das Gespenst rechtlicher Risiken für Entwickler und Benutzer auf. Der aktuelle Regulierungstrend ist eine erhöhte Prüfung sowohl von KI als auch von Krypto separat – ihre Kombination wird sicherlich eine genaue Prüfung nach sich ziehen. Die US-amerikanische CFTC hat beispielsweise die Nutzung von KI im Handel und die Notwendigkeit einer Aufsicht in Finanzkontexten diskutiert. Es wird in politischen Kreisen auch über die Notwendigkeit einer Registrierung autonomer Agenten oder die Auferlegung von Beschränkungen für KI in sensiblen Sektoren gesprochen.

Eine weitere Governance-Herausforderung ist die transnationale Koordination. Web3 ist global, und KI-Agenten werden grenzüberschreitend agieren. Eine Gerichtsbarkeit könnte bestimmte KI-Agentenaktionen verbieten, während eine andere sie zulässt, und das Blockchain-Netzwerk erstreckt sich über beide. Diese Diskrepanz kann zu Konflikten führen – zum Beispiel könnte ein KI-Agent, der Anlageberatung anbietet, in einem Land gegen Wertpapierrecht verstoßen, in einem anderen jedoch nicht. Gemeinschaften müssten möglicherweise Geo-Fencing auf Smart-Contract-Ebene für KI-Dienste implementieren (obwohl dies dem offenen Ethos widerspricht). Oder sie könnten Dienste pro Region fragmentieren, um unterschiedlichen Gesetzen zu entsprechen (ähnlich wie es Börsen tun).

Innerhalb dezentraler Gemeinschaften stellt sich auch die Frage, wer die Regeln für KI-Agenten festlegt. Wenn eine DAO einen KI-Dienst regiert, stimmen die Token-Inhaber über dessen Algorithmusparameter ab? Einerseits stärkt dies die Benutzer; andererseits könnte es zu unqualifizierten Entscheidungen oder Manipulationen führen. Neue Governance-Modelle könnten entstehen, wie Räte von KI-Ethikexperten, die in die DAO-Governance integriert sind, oder sogar KI-Teilnehmer in der Governance (stellen Sie sich KI-Agenten vor, die als Delegierte basierend auf programmierten Mandaten abstimmen – eine kontroverse, aber denkbare Idee).

Schließlich das Reputationsrisiko: Frühe Misserfolge oder Skandale könnten die öffentliche Wahrnehmung trüben. Wenn beispielsweise eine „KI-DAO“ versehentlich ein Ponzi-Schema betreibt oder ein KI-Agent eine voreingenommene Entscheidung trifft, die Benutzern schadet, könnte es zu einer Gegenreaktion kommen, die den gesamten Sektor betrifft. Es ist wichtig, dass die Branche proaktiv ist – selbstregulierende Standards festlegt, mit politischen Entscheidungsträgern zusammenarbeitet, um zu erklären, wie Dezentralisierung die Verantwortlichkeit verändert, und vielleicht Notausschalter oder Notfallstoppverfahren für KI-Agenten entwickelt (obwohl diese eine Zentralisierung einführen, könnten sie vorübergehend für die Sicherheit notwendig sein).

Zusammenfassend reichen die Herausforderungen von den zutiefst technischen (Hacks verhindern und Latenz verwalten) bis zu den breit gesellschaftlichen (KI regulieren und ausrichten). Jede Herausforderung ist für sich genommen bedeutend; zusammen erfordern sie eine konzertierte Anstrengung der KI- und Blockchain-Gemeinschaften, um sie zu bewältigen. Der nächste Abschnitt wird untersuchen, wie sich die Zukunft trotz dieser Hürden entwickeln könnte, wenn wir sie erfolgreich angehen.

5. Zukunftspotenzial

Mit Blick auf die Zukunft könnte die Integration allgemeiner KI-Schnittstellen mit Web3 – durch Frameworks wie MCP – das dezentrale Internet grundlegend verändern. Hier skizzieren wir einige zukünftige Szenarien und Potenziale, die veranschaulichen, wie MCP-gesteuerte KI-Schnittstellen die Zukunft von Web3 gestalten könnten:

5.1 Autonome dApps und DAOs

In den kommenden Jahren könnten wir den Aufstieg vollständig autonomer dezentraler Anwendungen erleben. Dies sind dApps, bei denen KI-Agenten die meisten Operationen abwickeln, geleitet von Smart-Contract-definierten Regeln und Community-Zielen. Betrachten Sie zum Beispiel eine dezentrale Investmentfonds-DAO: Heute könnte sie sich auf menschliche Vorschläge zur Neuausrichtung von Vermögenswerten verlassen. In Zukunft könnten Token-Inhaber eine übergeordnete Strategie festlegen, und dann implementiert ein KI-Agent (oder ein Team von Agenten) diese Strategie kontinuierlich – Märkte überwachen, On-Chain-Trades ausführen, Portfolios anpassen – während die DAO die Leistung überwacht. Dank MCP kann die KI nahtlos mit verschiedenen DeFi-Protokollen, Börsen und Datenfeeds interagieren, um ihr Mandat auszuführen. Wenn gut konzipiert, könnte eine solche autonome dApp 24/7 betrieben werden, effizienter als jedes menschliche Team, und mit voller Transparenz (jede Aktion On-Chain protokolliert).

Ein weiteres Beispiel ist eine KI-gesteuerte dezentrale Versicherungs-dApp: Die KI könnte Ansprüche bewerten, indem sie Beweise (Fotos, Sensoren) analysiert, mit Policen abgleicht und dann automatisch Auszahlungen über Smart Contracts auslöst. Dies würde die Integration von Off-Chain-KI-Computer Vision (zur Analyse von Schadensbildern) mit On-Chain-Verifizierung erfordern – etwas, das MCP erleichtern könnte, indem es der KI ermöglicht, Cloud-KI-Dienste aufzurufen und dem Smart Contract Bericht zu erstatten. Das Ergebnis sind nahezu sofortige Versicherungsentscheidungen mit geringem Overhead.

Sogar die Governance selbst könnte teilweise automatisiert werden. DAOs könnten KI-Moderatoren einsetzen, um Forenregeln durchzusetzen, KI-Vorschlagsentwerfer, um rohe Community-Stimmung in gut strukturierte Vorschläge umzuwandeln, oder KI-Schatzmeister, um Budgetbedürfnisse zu prognostizieren. Wichtig ist, dass diese KIs als Agenten der Gemeinschaft handeln würden, nicht unkontrolliert – sie könnten regelmäßig überprüft werden oder eine Multi-Sig-Bestätigung für größere Aktionen erfordern. Der Gesamteffekt ist die Verstärkung menschlicher Anstrengungen in dezentralen Organisationen, wodurch Gemeinschaften mit weniger aktiven Teilnehmern mehr erreichen können.

5.2 Dezentrale Intelligenz-Marktplätze und -Netzwerke

Aufbauend auf Projekten wie SingularityNET und der ASI-Allianz können wir einen ausgereiften globalen Marktplatz für Intelligenz erwarten. In diesem Szenario kann jeder mit einem KI-Modell oder einer Fähigkeit dieses im Netzwerk anbieten, und jeder, der KI-Fähigkeiten benötigt, kann diese nutzen, wobei die Blockchain eine faire Vergütung und Herkunft sicherstellt. MCP wäre hier entscheidend: Es bietet das gemeinsame Protokoll, sodass eine Anfrage an den am besten geeigneten KI-Dienst gesendet werden kann.

Stellen Sie sich zum Beispiel eine komplexe Aufgabe vor, wie „eine maßgeschneiderte Marketingkampagne erstellen“. Ein KI-Agent im Netzwerk könnte dies in Unteraufgaben zerlegen: visuelles Design, Texterstellung, Marktanalyse – und dann Spezialisten für jede finden (vielleicht einen Agenten mit einem großartigen Bildgenerierungsmodell, einen anderen mit einem auf Verkäufe abgestimmten Texterstellungsmodell usw.). Diese Spezialisten könnten ursprünglich auf verschiedenen Plattformen angesiedelt sein, aber da sie die MCP/A2A-Standards einhalten, können sie Agent-zu-Agent zusammenarbeiten auf sichere, dezentrale Weise. Die Zahlung zwischen ihnen könnte mit Mikrotransaktionen in einem nativen Token abgewickelt werden, und ein Smart Contract könnte das endgültige Ergebnis zusammenstellen und sicherstellen, dass jeder Mitwirkende bezahlt wird.

Diese Art von kombinatorischer Intelligenz – mehrere KI-Dienste, die sich dynamisch über ein dezentrales Netzwerk verbinden – könnte selbst große monolithische KIs übertreffen, da sie auf spezialisiertes Fachwissen zurückgreift. Sie demokratisiert auch den Zugang: Ein kleiner Entwickler in einem Teil der Welt könnte ein Nischenmodell zum Netzwerk beitragen und Einkommen erzielen, wann immer es verwendet wird. Gleichzeitig erhalten Benutzer einen One-Stop-Shop für jeden KI-Dienst, wobei Reputationssysteme (unterstützt durch Token/Identität) sie zu Qualitätsanbietern führen. Im Laufe der Zeit könnten sich solche Netzwerke zu einer dezentralen KI-Cloud entwickeln, die mit den KI-Angeboten von Big Tech konkurriert, aber ohne einen einzigen Eigentümer und mit transparenter Governance durch Benutzer und Entwickler.

5.3 Intelligentes Metaverse und digitales Leben

Bis 2030 könnte unser digitales Leben nahtlos mit virtuellen Umgebungen – dem Metaverse – verschmelzen, und KI wird diese Räume voraussichtlich allgegenwärtig bevölkern. Durch die Web3-Integration werden diese KI-Entitäten (die alles von virtuellen Assistenten über Spielfiguren bis hin zu digitalen Haustieren sein könnten) nicht nur intelligent, sondern auch wirtschaftlich und rechtlich befugt sein.

Stellen Sie sich eine Metaverse-Stadt vor, in der jeder NPC-Ladenbesitzer oder Questgeber ein KI-Agent mit eigener Persönlichkeit und Dialog (dank fortschrittlicher generativer Modelle) ist. Diese NPCs werden tatsächlich von Benutzern als NFTs besessen – vielleicht „besitzen“ Sie eine Taverne in der virtuellen Welt und der Barkeeper-NPC ist eine von Ihnen angepasste und trainierte KI. Da er auf Web3-Schienen läuft, kann der NPC Transaktionen durchführen: Er könnte virtuelle Güter (NFT-Gegenstände) verkaufen, Zahlungen annehmen und sein Inventar über Smart Contracts aktualisieren. Er könnte sogar ein Krypto-Wallet besitzen, um seine Einnahmen zu verwalten (die Ihnen als Eigentümer zufallen). MCP würde es dem KI-Gehirn dieses NPCs ermöglichen, auf externes Wissen zuzugreifen – vielleicht um reale Nachrichten abzurufen, über die man sich unterhalten kann, oder um sich in einen Web3-Kalender zu integrieren, damit er über Spielerereignisse „Bescheid weiß“.

Darüber hinaus werden Identität und Kontinuität durch die Blockchain gewährleistet: Ihr KI-Avatar in einer Welt kann in eine andere Welt wechseln und dabei eine dezentrale Identität mit sich führen, die Ihren Besitz und vielleicht seinen Erfahrungslevel oder seine Errungenschaften über Soulbound-Token beweist. Die Interoperabilität zwischen virtuellen Welten (oft eine Herausforderung) könnte durch KI unterstützt werden, die den Kontext einer Welt in eine andere übersetzt, wobei die Blockchain die Portabilität der Assets gewährleistet.

Wir könnten auch KI-Begleiter oder -Agenten sehen, die Einzelpersonen in digitalen Räumen repräsentieren. Zum Beispiel könnten Sie eine persönliche KI haben, die in Ihrem Namen an DAO-Meetings teilnimmt. Sie versteht Ihre Präferenzen (durch Training auf Ihr früheres Verhalten, gespeichert in Ihrem persönlichen Datentresor) und kann sogar in kleineren Angelegenheiten für Sie abstimmen oder das Meeting später zusammenfassen. Dieser Agent könnte Ihre dezentrale Identität verwenden, um sich in jeder Community zu authentifizieren und sicherzustellen, dass er als „Sie“ (oder Ihr Delegierter) erkannt wird. Er könnte Reputations-Token verdienen, wenn er gute Ideen einbringt, wodurch er im Wesentlichen soziales Kapital für Sie aufbaut, während Sie abwesend sind.

Ein weiteres Potenzial ist die KI-gesteuerte Inhaltserstellung im Metaverse. Möchten Sie ein neues Spiellevel oder ein virtuelles Haus? Beschreiben Sie es einfach, und ein KI-Bauagent wird es erstellen, als Smart Contract/NFT bereitstellen und vielleicht sogar mit einer DeFi-Hypothek verknüpfen, wenn es sich um eine große Struktur handelt, die Sie im Laufe der Zeit abbezahlen. Diese Kreationen sind On-Chain einzigartig und handelbar. Der KI-Bauagent könnte eine Gebühr in Token für seinen Dienst verlangen (wiederum zum oben genannten Marktplatzkonzept).

Insgesamt könnte das zukünftige dezentrale Internet von intelligenten Agenten wimmeln: einige vollständig autonom, einige eng an Menschen gebunden, viele irgendwo dazwischen. Sie werden verhandeln, erschaffen, unterhalten und Transaktionen durchführen. MCP und ähnliche Protokolle stellen sicher, dass sie alle dieselbe „Sprache“ sprechen, was eine reiche Zusammenarbeit zwischen KI und jedem Web3-Dienst ermöglicht. Wenn richtig gemacht, könnte dies zu einer Ära beispielloser Produktivität und Innovation führen – einer wahren Synthese aus menschlicher, künstlicher und verteilter Intelligenz, die die Gesellschaft antreibt.

Fazit

Die Vision, dass allgemeine KI-Schnittstellen alles in der Web3-Welt verbinden, ist unbestreitbar ehrgeizig. Wir versuchen im Wesentlichen, zwei der transformativsten Technologiestränge – die Dezentralisierung des Vertrauens und den Aufstieg der Maschinenintelligenz – zu einem einzigen Gewebe zu verweben. Der Entwicklungshintergrund zeigt uns, dass der Zeitpunkt reif ist: Web3 brauchte eine benutzerfreundliche Killer-App, und KI könnte sie liefern, während KI mehr Handlungsfähigkeit und Gedächtnis benötigte, was die Web3-Infrastruktur bereitstellen kann. Technisch gesehen bieten Frameworks wie MCP (Model Context Protocol) das Bindegewebe, das es KI-Agenten ermöglicht, fließend mit Blockchains, Smart Contracts, dezentralen Identitäten und darüber hinaus zu kommunizieren. Die Branchenlandschaft zeigt eine wachsende Dynamik, von Startups über Allianzen bis hin zu großen KI-Laboren, die alle Teile dieses Puzzles beisteuern – Datenmärkte, Agentenplattformen, Orakelnetzwerke und Standardprotokolle –, die sich allmählich zusammenfügen.

Dennoch müssen wir angesichts der identifizierten Risiken und Herausforderungen vorsichtig vorgehen. Sicherheitsverletzungen, fehlgeleitetes KI-Verhalten, Datenschutzfallen und unsichere Vorschriften bilden eine Reihe von Hindernissen, die den Fortschritt bei Unterschätzung zum Scheitern bringen könnten. Jedes erfordert eine proaktive Minderung: robuste Sicherheitsaudits, Ausrichtungsprüfungen und -kontrollen, datenschutzfreundliche Architekturen und kollaborative Governance-Modelle. Die Natur der Dezentralisierung bedeutet, dass diese Lösungen nicht einfach von oben herab auferlegt werden können; sie werden wahrscheinlich aus der Gemeinschaft durch Versuch, Irrtum und Iteration entstehen, ähnlich wie es bei frühen Internetprotokollen der Fall war.

Wenn wir diese Herausforderungen meistern, ist das Zukunftspotenzial begeisternd. Wir könnten sehen, wie Web3 endlich eine benutzerzentrierte digitale Welt liefert – nicht auf die ursprünglich vorgestellte Weise, dass jeder seine eigenen Blockchain-Nodes betreibt, sondern vielmehr über intelligente Agenten, die die Absichten jedes Benutzers bedienen, während sie die Dezentralisierung im Hintergrund nutzen. In einer solchen Welt könnte die Interaktion mit Krypto und dem Metaverse so einfach sein wie ein Gespräch mit Ihrem KI-Assistenten, der wiederum vertrauenslos mit Dutzenden von Diensten und Ketten in Ihrem Namen verhandelt. Dezentrale Netzwerke könnten im wahrsten Sinne des Wortes „smart“ werden, mit autonomen Diensten, die sich selbst anpassen und verbessern.

Zusammenfassend lässt sich sagen, dass MCP und ähnliche KI-Schnittstellenprotokolle tatsächlich das Rückgrat eines neuen Webs (nennen wir es Web 3.0 oder das Agentic Web) werden könnten, in dem Intelligenz und Konnektivität allgegenwärtig sind. Die Konvergenz von KI und Web3 ist nicht nur eine Fusion von Technologien, sondern eine Konvergenz von Philosophien – die Offenheit und Benutzerermächtigung der Dezentralisierung trifft auf die Effizienz und Kreativität der KI. Wenn erfolgreich, könnte diese Vereinigung ein Internet einläuten, das freier, personalisierter und leistungsfähiger ist als alles, was wir bisher erlebt haben, und die Versprechen von KI und Web3 auf eine Weise erfüllt, die das tägliche Leben beeinflusst.

Quellen:

  • S. Khadder, „Web3.0 Isn’t About Ownership — It’s About Intelligence,“ FeatureForm Blog (April 8, 2025).
  • J. Saginaw, „Could Anthropic’s MCP Deliver the Web3 That Blockchain Promised?“ LinkedIn Article (May 1, 2025).
  • Anthropic, „Introducing the Model Context Protocol,“ Anthropic.com (Nov 2024).
  • thirdweb, „The Model Context Protocol (MCP) & Its Significance for Blockchain Apps,“ thirdweb Guides (Mar 21, 2025).
  • Chainlink Blog, „The Intersection Between AI Models and Oracles,“ (July 4, 2024).
  • Messari Research, Profile of Ocean Protocol, (2025).
  • Messari Research, Profile of SingularityNET, (2025).
  • Cointelegraph, „AI agents are poised to be crypto’s next major vulnerability,“ (May 25, 2025).
  • Reuters (Westlaw), „AI agents: greater capabilities and enhanced risks,“ (April 22, 2025).
  • Identity.com, „Why AI Agents Need Verified Digital Identities,“ (2024).
  • PANews / IOSG Ventures, „Interpreting MCP: Web3 AI Agent Ecosystem,“ (May 20, 2025).

Enso Network: Die vereinheitlichte, Intent-basierte Ausführungs-Engine

· 36 Min. Lesezeit

Protokollarchitektur

Enso Network ist eine Web3-Entwicklungsplattform, die als vereinheitlichte, Intent-basierte Ausführungs-Engine für On-Chain-Operationen konzipiert ist. Ihre Architektur abstrahiert die Komplexität der Blockchain, indem jede On-Chain-Interaktion einer gemeinsamen Engine zugeordnet wird, die über mehrere Chains hinweg arbeitet. Entwickler und Benutzer spezifizieren übergeordnete Intents (gewünschte Ergebnisse wie ein Token-Swap, Liquiditätsbereitstellung, Yield-Strategie usw.), und das Enso-Netzwerk findet und führt die optimale Abfolge von Aktionen aus, um diese Intents zu erfüllen. Dies wird durch ein modulares Design von „Actions“ und „Shortcuts“ erreicht.

Actions sind granulare Smart-Contract-Abstraktionen (z. B. ein Swap auf Uniswap, eine Einzahlung in Aave), die von der Community bereitgestellt werden. Mehrere Actions können zu Shortcuts zusammengesetzt werden, die wiederverwendbare Workflows für gängige DeFi-Operationen darstellen. Enso pflegt eine Bibliothek dieser Shortcuts in Smart Contracts, sodass komplexe Aufgaben über einen einzigen API-Aufruf oder eine Transaktion ausgeführt werden können. Diese Intent-basierte Architektur ermöglicht es Entwicklern, sich auf die gewünschten Ergebnisse zu konzentrieren, anstatt Low-Level-Integrationscode für jedes Protokoll und jede Chain zu schreiben.

Die Infrastruktur von Enso umfasst ein dezentrales Netzwerk (auf Basis des Tendermint-Konsenses), das als vereinheitlichende Schicht verschiedene Blockchains verbindet. Das Netzwerk aggregiert Daten (Zustand von verschiedenen L1s, Rollups und Appchains) zu einem gemeinsamen Netzwerkzustand oder Ledger, was Cross-Chain-Komponierbarkeit und präzise Multi-Chain-Ausführung ermöglicht. In der Praxis bedeutet dies, dass Enso über eine einzige Schnittstelle jede integrierte Blockchain lesen und schreiben kann und somit als zentraler Zugangspunkt für Entwickler fungiert. Ursprünglich auf EVM-kompatible Chains fokussiert, hat Enso die Unterstützung auf Nicht-EVM-Ökosysteme ausgeweitet – zum Beispiel umfasst die Roadmap Integrationen für Monad (eine Ethereum-ähnliche L1), Solana und Movement (eine Move-Sprach-Chain) bis zum ersten Quartal 2025.

Netzwerk-Teilnehmer: Die Innovation von Enso liegt in seinem dreistufigen Teilnehmer-Modell, das die Verarbeitung von Intents dezentralisiert:

  • Action Provider – Entwickler, die modulare Vertragsabstraktionen („Actions“) beisteuern, die spezifische Protokollinteraktionen kapseln. Diese Bausteine werden im Netzwerk zur Nutzung durch andere geteilt. Action Provider werden belohnt, wenn ihre beigesteuerte Action in einer Ausführung verwendet wird, was sie dazu anregt, sichere und effiziente Module zu veröffentlichen.

  • Graphers – Unabhängige Solver (Algorithmen), die Actions zu ausführbaren Shortcuts kombinieren, um Benutzer-Intents zu erfüllen. Mehrere Graphers konkurrieren darum, die optimale Lösung (günstigster, schnellster oder ertragreichster Pfad) für jede Anfrage zu finden, ähnlich wie Solver in einem DEX-Aggregator konkurrieren. Nur die beste Lösung wird zur Ausführung ausgewählt, und der gewinnende Grapher erhält einen Teil der Gebühren. Dieser Wettbewerbsmechanismus fördert die kontinuierliche Optimierung von On-Chain-Routen und -Strategien.

  • Validatoren – Node-Betreiber, die das Enso-Netzwerk sichern, indem sie die Lösungen der Grapher verifizieren und finalisieren. Validatoren authentifizieren eingehende Anfragen, überprüfen die Gültigkeit und Sicherheit der verwendeten Actions/Shortcuts, simulieren Transaktionen und bestätigen letztendlich die Ausführung der ausgewählten Lösung. Sie bilden das Rückgrat der Netzwerkintegrität, stellen sicher, dass die Ergebnisse korrekt sind und verhindern bösartige oder ineffiziente Lösungen. Validatoren betreiben einen Tendermint-basierten Konsens, was bedeutet, dass ein BFT-Proof-of-Stake-Prozess verwendet wird, um eine Einigung über das Ergebnis jedes Intents zu erzielen und den Netzwerkzustand zu aktualisieren.

Bemerkenswert ist, dass Ensos Ansatz Chain-agnostisch und API-zentriert ist. Entwickler interagieren mit Enso über eine vereinheitlichte API/SDK, anstatt sich mit den Nuancen jeder Chain auseinanderzusetzen. Enso integriert über 250 DeFi-Protokolle über mehrere Blockchains hinweg und verwandelt so disparate Ökosysteme effektiv in eine komponierbare Plattform. Diese Architektur eliminiert die Notwendigkeit für dApp-Teams, benutzerdefinierte Smart Contracts zu schreiben oder Cross-Chain-Messaging für jede neue Integration zu handhaben – Ensos gemeinsame Engine und die von der Community bereitgestellten Actions übernehmen diese aufwendige Arbeit. Bis Mitte 2025 hat Enso seine Skalierbarkeit bewiesen: Das Netzwerk ermöglichte erfolgreich eine Liquiditätsmigration von 3,1 Mrd. in3Tagenfu¨rdenStartvonBerachain(einesdergro¨ßtenDeFiMigrationsereignisse)undhatbisheuteu¨ber15Mrd.in 3 Tagen** für den Start von Berachain (eines der größten DeFi-Migrationsereignisse) und hat bis heute über **15 Mrd. an On-Chain-Transaktionen verarbeitet. Diese Leistungen demonstrieren die Robustheit der Enso-Infrastruktur unter realen Bedingungen.

Insgesamt liefert Ensos Protokollarchitektur eine „DeFi-Middleware“ oder ein On-Chain-Betriebssystem für Web3. Es kombiniert Elemente des Indexierens (wie The Graph) und der Transaktionsausführung (wie Cross-Chain-Bridges oder DEX-Aggregatoren) in einem einzigen dezentralen Netzwerk. Dieser einzigartige Stack ermöglicht es jeder Anwendung, jedem Bot oder Agenten, jeden Smart Contract auf jeder Chain über eine einzige Integration zu lesen und zu schreiben, was die Entwicklung beschleunigt und neue komponierbare Anwendungsfälle ermöglicht. Enso positioniert sich als kritische Infrastruktur für die Multi-Chain-Zukunft – eine Intent-Engine, die unzählige Apps antreiben könnte, ohne dass jede Blockchain-Integrationen neu erfinden muss.

Tokenomics

Ensos Wirtschaftsmodell konzentriert sich auf den ENSO-Token, der integraler Bestandteil des Netzwerkbetriebs und der Governance ist. ENSO ist ein Utility- und Governance-Token mit einem festen Gesamtangebot von 100 Millionen Tokens. Das Design des Tokens stimmt die Anreize für alle Teilnehmer aufeinander ab und erzeugt einen Flywheel-Effekt von Nutzung und Belohnungen:

  • Gebührenwährung („Gas“): Alle an das Enso-Netzwerk übermittelten Anfragen verursachen eine Abfragegebühr, die in ENSO zu zahlen ist. Wenn ein Benutzer (oder eine dApp) einen Intent auslöst, wird eine kleine Gebühr in den generierten Transaktions-Bytecode eingebettet. Diese Gebühren werden auf dem freien Markt für ENSO-Tokens versteigert und dann an die Netzwerk-Teilnehmer verteilt, die die Anfrage bearbeiten. Im Grunde ist ENSO das Gas, das die Ausführung von On-Chain-Intents im Enso-Netzwerk antreibt. Wenn die Nachfrage nach Ensos Shortcuts wächst, kann die Nachfrage nach ENSO-Tokens steigen, um diese Netzwerkgebühren zu bezahlen, wodurch eine Angebots-Nachfrage-Rückkopplungsschleife entsteht, die den Token-Wert unterstützt.

  • Umsatzbeteiligung & Staking-Belohnungen: Die aus Gebühren gesammelten ENSO werden als Belohnung für ihre Beiträge unter Action Providern, Graphern und Validatoren verteilt. Dieses Modell verknüpft Token-Einnahmen direkt mit der Netzwerknutzung: Mehr Intent-Volumen bedeutet mehr zu verteilende Gebühren. Action Provider verdienen Tokens, wenn ihre Abstraktionen verwendet werden, Graphers verdienen Tokens für gewinnende Lösungen, und Validatoren verdienen Tokens für die Validierung und Sicherung des Netzwerks. Alle drei Rollen müssen auch ENSO staken als Sicherheit für die Teilnahme (um bei Fehlverhalten „geslasht“ zu werden), wodurch ihre Anreize mit der Netzwerkgesundheit in Einklang gebracht werden. Token-Inhaber können ihre ENSO auch an Validatoren delegieren, um die Netzwerksicherheit über Delegated Proof of Stake zu unterstützen. Dieser Staking-Mechanismus sichert nicht nur den Tendermint-Konsens, sondern gibt Token-Stakern auch einen Anteil an den Netzwerkgebühren, ähnlich wie Miner/Validatoren Gasgebühren in anderen Chains verdienen.

  • Governance: ENSO-Token-Inhaber werden die Entwicklung des Protokolls steuern. Enso startet als offenes Netzwerk und plant den Übergang zu einer Community-gesteuerten Entscheidungsfindung. Token-gewichtete Abstimmungen ermöglichen es den Inhabern, Upgrades, Parameteränderungen (wie Gebührenniveaus oder Belohnungszuweisungen) und die Verwendung der Treasury zu beeinflussen. Diese Governance-Macht stellt sicher, dass Kernbeitragende und Benutzer auf die Ausrichtung des Netzwerks abgestimmt sind. Die Philosophie des Projekts ist es, die Eigentümerschaft in die Hände der Community von Buildern und Benutzern zu legen, was ein treibender Grund für den Community-Token-Verkauf im Jahr 2025 war (siehe unten).

  • Positiver Flywheel-Effekt: Ensos Tokenomics sind darauf ausgelegt, eine sich selbst verstärkende Schleife zu erzeugen. Wenn mehr Entwickler Enso integrieren und mehr Benutzer Intents ausführen, steigen die Netzwerkgebühren (in ENSO bezahlt). Diese Gebühren belohnen Beitragende (was mehr Actions, bessere Graphers und mehr Validatoren anzieht), was wiederum die Fähigkeiten des Netzwerks verbessert (schnellere, günstigere, zuverlässigere Ausführung) und mehr Nutzung anzieht. Dieser Netzwerkeffekt wird durch die Rolle des ENSO-Tokens als Gebührenwährung und Anreiz für Beiträge untermauert. Die Absicht ist, dass die Token-Ökonomie nachhaltig mit der Netzwerkadoption skaliert, anstatt sich auf nicht nachhaltige Emissionen zu verlassen.

Token-Verteilung & Angebot: Die anfängliche Token-Zuteilung ist so strukturiert, dass Anreize für Team/Investoren mit dem Community-Eigentum in Einklang gebracht werden. Die folgende Tabelle fasst die ENSO-Token-Verteilung bei der Genesis zusammen:

ZuteilungProzentsatzTokens (von 100 Mio.)
Team (Gründer & Kern)25,0 %25.000.000
Frühe Investoren (VCs)31,3 %31.300.000
Stiftung & Wachstumsfonds23,2 %23.200.000
Ökosystem-Treasury (Community-Anreize)15,0 %15.000.000
Öffentlicher Verkauf (CoinList 2025)4,0 %4.000.000
Berater1,5 %1.500.000

Quelle: Enso Tokenomics.

Der öffentliche Verkauf im Juni 2025 bot der Community 5 % (4 Millionen Tokens) an und brachte 5 Millionen zueinemPreisvon1,25zu einem Preis von 1,25 pro ENSO ein (was einer vollständig verwässerten Bewertung von ~125 Millionen $ entspricht). Bemerkenswert ist, dass der Community-Verkauf keine Sperrfrist hatte (100 % bei TGE freigeschaltet), während das Team und die Venture-Investoren einem 2-jährigen linearen Vesting-Zeitplan unterliegen. Dies bedeutet, dass die Tokens der Insider über 24 Monate hinweg Block für Block schrittweise freigeschaltet werden, was ihre Anreize mit dem langfristigen Netzwerkwachstum in Einklang bringt und den sofortigen Verkaufsdruck mindert. Die Community erhielt somit sofortige Liquidität und Eigentum, was Ensos Ziel einer breiten Verteilung widerspiegelt.

Ensos Emissionsplan über die anfängliche Zuteilung hinaus scheint primär gebührengetrieben und nicht inflationär zu sein. Das Gesamtangebot ist auf 100 Millionen Tokens festgelegt, und es gibt derzeit keine Anzeichen für eine dauerhafte Inflation für Block-Belohnungen (Validatoren werden aus Gebühreneinnahmen vergütet). Dies steht im Gegensatz zu vielen Layer-1-Protokollen, die das Angebot aufblähen, um Staker zu bezahlen; Enso zielt darauf ab, durch tatsächliche Nutzungsgebühren nachhaltig zu sein, um Teilnehmer zu belohnen. Wenn die Netzwerkaktivität in frühen Phasen gering ist, können die Zuteilungen der Stiftung und der Treasury verwendet werden, um Anreize für die Nutzung und Entwicklungszuschüsse zu schaffen. Umgekehrt könnte bei hoher Nachfrage die Nützlichkeit des ENSO-Tokens (für Gebühren und Staking) einen organischen Nachfragedruck erzeugen.

Zusammenfassend lässt sich sagen: ENSO ist der Treibstoff des Enso Networks. Es treibt Transaktionen an (Abfragegebühren), sichert das Netzwerk (Staking und Slashing) und regiert die Plattform (Abstimmungen). Der Wert des Tokens ist direkt an die Netzwerkadoption gebunden: Wenn Enso als Rückgrat für DeFi-Anwendungen breiter genutzt wird, sollte das Volumen der ENSO-Gebühren und des Stakings dieses Wachstum widerspiegeln. Die sorgfältige Verteilung (mit nur einem kleinen Teil, der unmittelbar nach TGE zirkuliert) und die starke Unterstützung durch Top-Investoren (siehe unten) schaffen Vertrauen in die Unterstützung des Tokens, während der Community-zentrierte Verkauf ein Bekenntnis zur Dezentralisierung des Eigentums signalisiert.

Team und Investoren

Enso Network wurde 2021 von Connor Howe (CEO) und Gorazd Ocvirk gegründet, die zuvor gemeinsam bei der Sygnum Bank im Schweizer Krypto-Bankensektor tätig waren. Connor Howe leitet das Projekt als CEO und ist das öffentliche Gesicht in Kommunikationen und Interviews. Unter seiner Führung startete Enso zunächst als Social-Trading-DeFi-Plattform und entwickelte sich dann über mehrere Iterationen zur aktuellen Intent-basierten Infrastrukturvision. Diese Anpassungsfähigkeit unterstreicht die unternehmerische Widerstandsfähigkeit des Teams – von der Durchführung eines hochkarätigen „Vampire Attacks“ auf Indexprotokolle im Jahr 2021 über den Aufbau einer DeFi-Aggregator-Super-App bis hin zur Verallgemeinerung ihrer Tools in Ensos Entwicklerplattform. Mitbegründer Gorazd Ocvirk (PhD) brachte tiefgreifende Expertise in quantitativer Finanzierung und Web3-Produktstrategie ein, obwohl öffentliche Quellen darauf hindeuten, dass er zu anderen Unternehmungen gewechselt sein könnte (er wurde 2022 als Mitbegründer eines anderen Krypto-Startups genannt). Ensos Kernteam umfasst heute Ingenieure und Operatoren mit starkem DeFi-Hintergrund. Zum Beispiel sind Peter Phillips und Ben Wolf als „Blockend“- (Blockchain-Backend-) Ingenieure aufgeführt, und Valentin Meylan leitet die Forschung. Das Team ist global verteilt, hat aber Wurzeln in Zug/Zürich, Schweiz, einem bekannten Hub für Krypto-Projekte (Enso Finance AG wurde 2020 in der Schweiz registriert).

Über die Gründer hinaus verfügt Enso über namhafte Berater und Unterstützer, die erhebliche Glaubwürdigkeit verleihen. Das Projekt wird von Top-Tier-Krypto-Venture-Fonds und Angels unterstützt: Es zählt Polychain Capital und Multicoin Capital zu seinen Hauptinvestoren, zusammen mit Dialectic und Spartan Group (beide prominente Krypto-Fonds) sowie IDEO CoLab. Eine beeindruckende Liste von Angel-Investoren beteiligte sich ebenfalls an mehreren Runden – über 70 Personen aus führenden Web3-Projekten haben in Enso investiert. Dazu gehören Gründer oder Führungskräfte von LayerZero, Safe (Gnosis Safe), 1inch, Yearn Finance, Flashbots, Dune Analytics, Pendle und anderen. Sogar die Tech-Koryphäe Naval Ravikant (Mitbegründer von AngelList) ist Investor und Unterstützer. Solche Namen signalisieren ein starkes Vertrauen der Branche in Ensos Vision.

Ensos Finanzierungsgeschichte: Das Projekt sammelte Anfang 2021 eine Seed-Runde von 5 Millionen ein,umdieSocialTradingPlattformaufzubauen,undspa¨tereineRundevon4,2Millionenein, um die Social-Trading-Plattform aufzubauen, und später eine Runde von 4,2 Millionen (strategisch/VC), als es das Produkt weiterentwickelte (diese frühen Runden umfassten wahrscheinlich Polychain, Multicoin, Dialectic usw.). Bis Mitte 2023 hatte Enso genügend Kapital gesichert, um sein Netzwerk aufzubauen; bemerkenswerterweise operierte es relativ unauffällig, bis sein Infrastruktur-Pivot an Zugkraft gewann. Im zweiten Quartal 2025 startete Enso einen 5 Millionen $ Community-Token-Verkauf auf CoinList, der von Zehntausenden von Teilnehmern überzeichnet wurde. Der Zweck dieses Verkaufs war nicht nur die Beschaffung von Mitteln (der Betrag war angesichts früherer VC-Unterstützung bescheiden), sondern auch die Dezentralisierung des Eigentums und die Beteiligung seiner wachsenden Community am Erfolg des Netzwerks. Laut CEO Connor Howe: „Wir möchten, dass unsere frühesten Unterstützer, Benutzer und Gläubigen echtes Eigentum an Enso haben… Benutzer zu Fürsprechern machen.“ Dieser Community-zentrierte Ansatz ist Teil von Ensos Strategie, Basiswachstum und Netzwerkeffekte durch abgestimmte Anreize voranzutreiben.

Heute gilt Ensos Team als einer der Vordenker im Bereich „Intent-basiertes DeFi“. Sie engagieren sich aktiv in der Entwicklerbildung (z. B. zog Ensos Shortcut Speedrun 700.000 Teilnehmer als gamifiziertes Lernereignis an) und arbeiten mit anderen Protokollen an Integrationen zusammen. Die Kombination aus einem starken Kernteam mit bewährter Fähigkeit zur Neuausrichtung, Blue-Chip-Investoren und einer enthusiastischen Community deutet darauf hin, dass Enso sowohl das Talent als auch die finanzielle Unterstützung hat, um seine ambitionierte Roadmap umzusetzen.

Adoptionsmetriken und Anwendungsfälle

Obwohl Enso eine relativ neue Infrastruktur ist, hat es in seiner Nische erhebliche Zugkraft bewiesen. Es hat sich als die bevorzugte Lösung für Projekte positioniert, die komplexe On-Chain-Integrationen oder Cross-Chain-Fähigkeiten benötigen. Einige wichtige Adoptionsmetriken und Meilensteine Stand Mitte 2025:

  • Ökosystem-Integration: Über 100 Live-Anwendungen (dApps, Wallets und Dienste) nutzen Enso im Hintergrund, um On-Chain-Funktionen zu betreiben. Diese reichen von DeFi-Dashboards bis hin zu automatisierten Yield-Optimierern. Da Enso Protokolle abstrahiert, können Entwickler schnell neue DeFi-Funktionen zu ihrem Produkt hinzufügen, indem sie sich in Ensos API einklinken. Das Netzwerk hat sich mit über 250 DeFi-Protokollen (DEXes, Kreditplattformen, Yield Farms, NFT-Märkte usw.) über wichtige Chains hinweg integriert, was bedeutet, dass Enso praktisch jede On-Chain-Aktion ausführen kann, die ein Benutzer wünschen könnte, von einem Uniswap-Handel bis zu einer Yearn-Vault-Einzahlung. Diese Breite der Integrationen reduziert die Entwicklungszeit für Ensos Kunden erheblich – ein neues Projekt kann beispielsweise alle DEXes auf Ethereum, Layer-2s und sogar Solana mit Enso unterstützen, anstatt jede Integration unabhängig zu programmieren.

  • Entwickler-Adoption: Ensos Community umfasst mittlerweile über 1.900 Entwickler, die aktiv mit seinem Toolkit entwickeln. Diese Entwickler könnten direkt Shortcuts/Actions erstellen oder Enso in ihre Anwendungen integrieren. Die Zahl unterstreicht, dass Enso nicht nur ein geschlossenes System ist; es ermöglicht ein wachsendes Ökosystem von Buildern, die seine Shortcuts nutzen oder zu seiner Bibliothek beitragen. Ensos Ansatz, die On-Chain-Entwicklung zu vereinfachen (mit der Behauptung, die Bauzeiten von über 6 Monaten auf unter eine Woche zu reduzieren), hat bei Web3-Entwicklern Anklang gefunden. Dies wird auch durch Hackathons und die Enso Templates-Bibliothek belegt, in der Community-Mitglieder Plug-and-Play-Shortcut-Beispiele teilen.

  • Transaktionsvolumen: Über 15 Milliarden kumuliertesOnChainTransaktionsvolumenwurdeu¨berEnsosInfrastrukturabgewickelt.DieseMetrik,wieimJuni2025berichtet,unterstreicht,dassEnsonichtnurinTestumgebungenla¨uftesverarbeitetrealeWerteingroßemMaßstab.Eineinzigeshochkara¨tigesBeispielwarBerachainsLiquidita¨tsmigration:ImApril2025betriebEnsodieLiquidita¨tsbewegungfu¨rBerachainsTestnetKampagne(Boyco)undermo¨glichte3,1Mrd.** kumuliertes On-Chain-Transaktionsvolumen wurde über Ensos Infrastruktur abgewickelt. Diese Metrik, wie im Juni 2025 berichtet, unterstreicht, dass Enso nicht nur in Testumgebungen läuft – es verarbeitet reale Werte in großem Maßstab. Ein einziges hochkarätiges Beispiel war **Berachains Liquiditätsmigration**: Im April 2025 betrieb Enso die Liquiditätsbewegung für Berachains Testnet-Kampagne („Boyco“) und ermöglichte **3,1 Mrd. an ausgeführten Transaktionen über 3 Tage, eines der größten Liquiditätsereignisse in der DeFi-Geschichte. Ensos Engine bewältigte diese Last erfolgreich und demonstrierte Zuverlässigkeit und Durchsatz unter Stress. Ein weiteres Beispiel ist Ensos Partnerschaft mit Uniswap: Enso entwickelte ein Uniswap Position Migrator-Tool (in Zusammenarbeit mit Uniswap Labs, LayerZero und Stargate), das Benutzern half, Uniswap v3 LP-Positionen nahtlos von Ethereum auf eine andere Chain zu migrieren. Dieses Tool vereinfachte einen typischerweise komplexen Cross-Chain-Prozess (mit Bridging und erneuter Bereitstellung von NFTs) zu einem Ein-Klick-Shortcut, und seine Veröffentlichung zeigte Ensos Fähigkeit, mit Top-DeFi-Protokollen zusammenzuarbeiten.

  • Reale Anwendungsfälle: Ensos Wertversprechen lässt sich am besten durch die vielfältigen Anwendungsfälle verstehen, die es ermöglicht. Projekte haben Enso genutzt, um Funktionen bereitzustellen, die allein sehr schwierig zu entwickeln wären:

    • Cross-Chain Yield Aggregation: Plume und Sonic nutzten Enso, um incentivierte Startkampagnen zu betreiben, bei denen Benutzer Assets auf einer Chain einzahlen und diese auf einer anderen Chain in Yields einsetzen konnten. Enso übernahm das Cross-Chain-Messaging und die mehrstufigen Transaktionen, wodurch diese neuen Protokolle den Benutzern während ihrer Token-Launch-Events nahtlose Cross-Chain-Erlebnisse bieten konnten.
    • Liquiditätsmigration und Fusionen: Wie erwähnt, nutzte Berachain Enso für eine „Vampire Attack“-ähnliche Migration von Liquidität aus anderen Ökosystemen. Ähnlich könnten andere Protokolle Enso Shortcuts verwenden, um die Verschiebung von Benutzergeldern von einer Konkurrenzplattform auf ihre eigene zu automatisieren, indem Genehmigungen, Abhebungen, Überweisungen und Einzahlungen über Plattformen hinweg in einem Intent gebündelt werden. Dies zeigt Ensos Potenzial in Protokollwachstumsstrategien.
    • DeFi „Super-App“-Funktionalität: Einige Wallets und Schnittstellen (zum Beispiel der Krypto-Assistent Eliza OS und die Handelsplattform Infinex) integrieren Enso, um One-Stop-DeFi-Aktionen anzubieten. Ein Benutzer kann mit einem Klick Assets zum besten Kurs tauschen (Enso leitet über DEXes), dann den Ertrag verleihen, um Rendite zu erzielen, und dann vielleicht einen LP-Token staken – all dies kann Enso als einen Shortcut ausführen. Dies verbessert die Benutzererfahrung und Funktionalität für diese Apps erheblich.
    • Automatisierung und Bots: Die Präsenz von „Agenten“ und sogar KI-gesteuerten Bots, die Enso nutzen, zeichnet sich ab. Da Enso eine API bereitstellt, können algorithmische Händler oder KI-Agenten ein übergeordnetes Ziel eingeben (z. B. „Rendite auf X-Asset über jede Chain maximieren“) und Enso die optimale Strategie finden lassen. Dies hat Experimente mit automatisierten DeFi-Strategien ermöglicht, ohne dass für jedes Protokoll eine kundenspezifische Bot-Entwicklung erforderlich ist.
  • Benutzerwachstum: Obwohl Enso primär eine B2B/B2Dev-Infrastruktur ist, hat es durch Kampagnen eine Community von Endbenutzern und Enthusiasten aufgebaut. Der Shortcut Speedrun – eine gamifizierte Tutorial-Reihe – verzeichnete über 700.000 Teilnehmer, was ein breites Interesse an Ensos Fähigkeiten zeigt. Ensos soziale Reichweite ist in wenigen Monaten um fast das Zehnfache gewachsen (248.000 Follower auf X Stand Mitte 2025), was eine starke Präsenz in den Köpfen der Krypto-Benutzer widerspiegelt. Dieses Community-Wachstum ist wichtig, da es eine Basisnachfrage schafft: Benutzer, die Enso kennen, werden ihre bevorzugten dApps ermutigen, es zu integrieren, oder Produkte nutzen, die Ensos Shortcuts verwenden.

Zusammenfassend lässt sich sagen, dass Enso über die Theorie hinaus zu echter Adoption übergegangen ist. Es wird von über 100 Projekten vertraut, darunter bekannte Namen wie Uniswap, SushiSwap, Stargate/LayerZero, Berachain, zkSync, Safe, Pendle, Yearn und weitere, entweder als Integrationspartner oder direkte Nutzer von Ensos Technologie. Diese breite Nutzung über verschiedene Vertikalen (DEXs, Bridges, Layer-1s, dApps) unterstreicht Ensos Rolle als Allzweck-Infrastruktur. Seine wichtigste Zugkraftmetrik – über 15 Mrd. $ an Transaktionen – ist für ein Infrastrukturprojekt in diesem Stadium besonders beeindruckend und bestätigt die Markttauglichkeit für eine Intent-basierte Middleware. Investoren können sich darauf verlassen, dass Ensos Netzwerkeffekte einzusetzen scheinen: Mehr Integrationen führen zu mehr Nutzung, was wiederum zu mehr Integrationen führt. Die bevorstehende Herausforderung wird darin bestehen, diesen frühen Schwung in nachhaltiges Wachstum umzuwandeln, was mit Ensos Positionierung gegenüber Wettbewerbern und seiner Roadmap zusammenhängt.

Wettbewerbslandschaft

Enso Network agiert an der Schnittstelle von DeFi-Aggregation, Cross-Chain-Interoperabilität und Entwickler-Infrastruktur, wodurch seine Wettbewerbslandschaft vielschichtig ist. Obwohl kein einzelner Wettbewerber ein identisches Produkt anbietet, sieht sich Enso mit Konkurrenz aus mehreren Kategorien von Web3-Protokollen konfrontiert:

  • Dezentrale Middleware & Indexierung: Die direkteste Analogie ist The Graph (GRT). The Graph bietet ein dezentrales Netzwerk zum Abfragen von Blockchain-Daten über Subgraphs. Enso bezieht Datenanbieter (Action Provider) ebenfalls über Crowdsourcing, geht aber einen Schritt weiter, indem es zusätzlich zur Datenabfrage die Transaktionsausführung ermöglicht. Während The Graphs Marktkapitalisierung von ~924 Mio. $ allein auf Indexierung basiert, positioniert Ensos breiterer Umfang (Daten + Aktion) es als ein mächtigeres Werkzeug, um die Aufmerksamkeit der Entwickler zu gewinnen. The Graph ist jedoch ein etabliertes Netzwerk; Enso wird die Zuverlässigkeit und Sicherheit seiner Ausführungsschicht beweisen müssen, um eine ähnliche Akzeptanz zu erreichen. Man könnte sich vorstellen, dass The Graph oder andere Indexierungsprotokolle in die Ausführung expandieren, was direkt mit Ensos Nische konkurrieren würde.

  • Cross-Chain-Interoperabilitätsprotokolle: Projekte wie LayerZero, Axelar, Wormhole und Chainlink CCIP bieten Infrastruktur zur Verbindung verschiedener Blockchains. Sie konzentrieren sich auf die Nachrichtenübermittlung und das Bridging von Assets zwischen Chains. Enso nutzt tatsächlich einige davon im Hintergrund (z. B. LayerZero/Stargate für Bridging im Uniswap Migrator) und ist eher eine Abstraktion auf höherer Ebene. Im Hinblick auf den Wettbewerb könnten diese Interoperabilitätsprotokolle mit Enso überlappen, wenn sie höherstufige „Intent“-APIs oder entwicklerfreundliche SDKs zur Komposition von Multi-Chain-Aktionen anbieten. Zum Beispiel bietet Axelar ein SDK für Cross-Chain-Aufrufe, und Chainlinks CCIP könnte die Cross-Chain-Funktionsausführung ermöglichen. Ensos Alleinstellungsmerkmal ist, dass es nicht nur Nachrichten zwischen Chains sendet; es unterhält eine vereinheitlichte Engine und Bibliothek von DeFi-Aktionen. Es richtet sich an Anwendungsentwickler, die eine fertige Lösung wünschen, anstatt sie zu zwingen, auf rohen Cross-Chain-Primitiven aufzubauen. Nichtsdestotrotz wird Enso um Marktanteile im breiteren Segment der Blockchain-Middleware konkurrieren, wo diese Interoperabilitätsprojekte gut finanziert sind und schnell innovieren.

  • Transaktions-Aggregatoren & Automatisierung: In der DeFi-Welt gibt es bestehende Aggregatoren wie 1inch, 0x API oder CoW Protocol, die sich darauf konzentrieren, optimale Handelsrouten über Börsen hinweg zu finden. Ensos Grapher-Mechanismus für Intents ist konzeptionell ähnlich dem Solver-Wettbewerb von CoW Protocol, aber Enso verallgemeinert ihn über Swaps hinaus auf jede Aktion. Ein Benutzer-Intent, „Rendite zu maximieren“, könnte Swapping, Lending, Staking usw. umfassen, was außerhalb des Umfangs eines reinen DEX-Aggregators liegt. Dennoch wird Enso mit diesen Diensten hinsichtlich der Effizienz für überlappende Anwendungsfälle verglichen (z. B. Enso vs. 1inch für eine komplexe Token-Swap-Route). Wenn Enso dank seines Netzwerks von Graphern konsequent bessere Routen oder niedrigere Gebühren findet, kann es traditionelle Aggregatoren übertreffen. Das Gelato Network ist ein weiterer Wettbewerber im Bereich Automatisierung: Gelato bietet ein dezentrales Netzwerk von Bots zur Ausführung von Aufgaben wie Limit-Orders, Auto-Compounding oder Cross-Chain-Transfers im Auftrag von dApps. Gelato verfügt über einen GEL-Token und einen etablierten Kundenstamm für spezifische Anwendungsfälle. Ensos Vorteil ist seine Breite und vereinheitlichte Schnittstelle – anstatt separate Produkte für jeden Anwendungsfall anzubieten (wie Gelato es tut), bietet Enso eine allgemeine Plattform, auf der jede Logik als Shortcut kodiert werden kann. Gelatos Vorsprung und fokussierter Ansatz in Bereichen wie der Automatisierung könnten jedoch Entwickler anziehen, die sonst Enso für ähnliche Funktionalitäten nutzen würden.

  • Entwicklerplattformen (Web3 SDKs): Es gibt auch Entwicklerplattformen im Web2-Stil wie Moralis, Alchemy, Infura und Tenderly, die das Bauen auf Blockchains vereinfachen. Diese bieten typischerweise API-Zugriff zum Lesen von Daten, Senden von Transaktionen und manchmal höherstufige Endpunkte (z. B. „Token-Guthaben abrufen“ oder „Tokens über Chains senden“). Obwohl dies meist zentralisierte Dienste sind, konkurrieren sie um dieselbe Entwickleraufmerksamkeit. Ensos Verkaufsargument ist, dass es dezentralisiert und komponierbar ist – Entwickler erhalten nicht nur Daten oder eine einzelne Funktion, sie greifen auf ein ganzes Netzwerk von On-Chain-Fähigkeiten zu, die von anderen beigesteuert wurden. Bei Erfolg könnte Enso zum „GitHub der On-Chain-Aktionen“ werden, wo Entwickler Shortcuts teilen und wiederverwenden, ähnlich wie Open-Source-Code. Der Wettbewerb mit gut finanzierten Infrastructure-as-a-Service-Unternehmen bedeutet, dass Enso vergleichbare Zuverlässigkeit und Benutzerfreundlichkeit bieten muss, was es mit einer umfangreichen API und Dokumentation anstrebt.

  • Eigenentwickelte Lösungen: Schließlich konkurriert Enso mit dem Status quo – Teams, die kundenspezifische Integrationen intern entwickeln. Traditionell musste jedes Projekt, das Multi-Protokoll-Funktionalität wünschte, Smart Contracts oder Skripte für jede Integration (z. B. Uniswap, Aave, Compound separat integrieren) schreiben und pflegen. Viele Teams könnten diesen Weg immer noch für maximale Kontrolle oder aus Sicherheitsgründen wählen. Enso muss Entwickler davon überzeugen, dass die Auslagerung dieser Arbeit an ein gemeinsames Netzwerk sicher, kostengünstig und aktuell ist. Angesichts der Geschwindigkeit der DeFi-Innovation ist die Pflege eigener Integrationen aufwendig (Enso zitiert oft, dass Teams über 6 Monate und 500.000 $ für Audits ausgeben, um Dutzende von Protokollen zu integrieren). Wenn Enso seine Sicherheitsstrenge beweisen und seine Aktionsbibliothek mit den neuesten Protokollen aktuell halten kann, kann es mehr Teams davon überzeugen, nicht mehr in Silos zu entwickeln. Ein hochkarätiger Sicherheitsvorfall oder Ausfall bei Enso könnte Entwickler jedoch dazu veranlassen, wieder interne Lösungen zu bevorzugen, was an sich ein Wettbewerbsrisiko darstellt.

Ensos Alleinstellungsmerkmale: Ensos primärer Vorteil ist, als Erster auf dem Markt mit einem Intent-fokussierten, Community-gesteuerten Ausführungsnetzwerk zu sein. Es kombiniert Funktionen, die die Nutzung mehrerer anderer Dienste erfordern würden: Datenindexierung, Smart-Contract-SDKs, Transaktionsrouting und Cross-Chain-Bridging – alles in einem. Sein Anreizmodell (Belohnung von Drittentwicklern für Beiträge) ist ebenfalls einzigartig; es könnte zu einem lebendigen Ökosystem führen, in dem viele Nischenprotokolle schneller in Enso integriert werden, als es ein einzelnes Team könnte, ähnlich wie die Community von The Graph eine lange Reihe von Verträgen indexiert. Wenn Enso erfolgreich ist, könnte es einen starken Netzwerkeffekt-Graben genießen: Mehr Actions und Shortcuts machen es attraktiver, Enso gegenüber Wettbewerbern zu nutzen, was mehr Benutzer und somit mehr beigesteuerte Actions anzieht und so weiter.

Dennoch steckt Enso noch in den Kinderschuhen. Sein engstes Analogon, The Graph, brauchte Jahre, um sich zu dezentralisieren und ein Ökosystem von Indexern aufzubauen. Enso wird seine Grapher- und Validatoren-Community ebenfalls pflegen müssen, um Zuverlässigkeit zu gewährleisten. Große Akteure (wie eine zukünftige Version von The Graph oder eine Zusammenarbeit von Chainlink und anderen) könnten beschließen, eine konkurrierende Intent-Ausführungsschicht einzuführen und ihre bestehenden Netzwerke zu nutzen. Enso wird schnell handeln müssen, um seine Position zu festigen, bevor sich ein solcher Wettbewerb materialisiert.

Zusammenfassend lässt sich sagen, dass Enso an einem Wettbewerbs-Scheideweg mehrerer wichtiger Web3-Vertikalen sitzt – es erobert eine Nische als die „Middleware von allem“. Sein Erfolg wird davon abhängen, spezialisierte Wettbewerber in jedem Anwendungsfall zu übertreffen (oder sie zu aggregieren) und weiterhin eine überzeugende One-Stop-Lösung anzubieten, die Entwickler dazu bringt, Enso dem Bauen von Grund auf vorzuziehen. Die Präsenz hochkarätiger Partner und Investoren deutet darauf hin, dass Enso in vielen Ökosystemen Fuß gefasst hat, was vorteilhaft sein wird, wenn es seine Integrationsabdeckung erweitert.

Roadmap und Ökosystemwachstum

Ensos Entwicklungs-Roadmap (Stand Mitte 2025) skizziert einen klaren Weg zur vollständigen Dezentralisierung, Multi-Chain-Unterstützung und Community-getriebenem Wachstum. Wichtige Meilensteine und geplante Initiativen umfassen:

  • Mainnet-Start (Q3 2024) – Enso startete sein Mainnet-Netzwerk in der zweiten Hälfte des Jahres 2024. Dies umfasste die Bereitstellung der Tendermint-basierten Chain und die Initialisierung des Validatoren-Ökosystems. Frühe Validatoren waren wahrscheinlich genehmigte oder ausgewählte Partner, während das Netzwerk hochgefahren wurde. Der Mainnet-Start ermöglichte die Verarbeitung realer Benutzeranfragen durch Ensos Engine (zuvor waren Ensos Dienste über eine zentralisierte API im Beta-Stadium zugänglich). Dieser Meilenstein markierte Ensos Übergang von einer internen Plattform zu einem öffentlichen dezentralen Netzwerk.

  • Erweiterung der Netzwerk-Teilnehmer (Q4 2024) – Nach dem Mainnet verlagerte sich der Fokus auf die Dezentralisierung der Teilnahme. Ende 2024 öffnete Enso Rollen für externe Action Provider und Graphers. Dies umfasste die Veröffentlichung von Tools und Dokumentation für Entwickler, um eigene Actions (Smart-Contract-Adapter) zu erstellen, und für Algorithmusentwickler, um Grapher-Nodes zu betreiben. Wir können davon ausgehen, dass Anreizprogramme oder Testnet-Wettbewerbe genutzt wurden, um diese Teilnehmer anzuziehen. Bis Ende 2024 strebte Enso an, eine breitere Palette von Drittanbieter-Actions in seiner Bibliothek und mehrere Graphers zu haben, die um Intents konkurrieren, und über die internen Algorithmen des Kernteams hinauszugehen. Dies war ein entscheidender Schritt, um sicherzustellen, dass Enso kein zentralisierter Dienst ist, sondern ein echtes offenes Netzwerk, in dem jeder beitragen und ENSO-Tokens verdienen kann.

  • Cross-Chain-Erweiterung (Q1 2025) – Enso erkennt an, dass die Unterstützung vieler Blockchains entscheidend für sein Wertversprechen ist. Anfang 2025 zielte die Roadmap auf die Integration mit neuen Blockchain-Umgebungen jenseits des anfänglichen EVM-Sets ab. Insbesondere plante Enso die Unterstützung für Monad, Solana und Movement bis zum ersten Quartal 2025. Monad ist eine kommende Hochleistungs-EVM-kompatible Chain (unterstützt von Dragonfly Capital) – eine frühzeitige Unterstützung könnte Enso als die bevorzugte Middleware dort positionieren. Die Solana-Integration ist anspruchsvoller (andere Laufzeit und Sprache), aber Ensos Intent-Engine könnte mit Solana zusammenarbeiten, indem sie Off-Chain-Graphers verwendet, um Solana-Transaktionen zu formulieren, und On-Chain-Programme als Adapter fungieren. Movement bezieht sich auf Move-Sprach-Chains (vielleicht Aptos/Sui oder eine spezifische namens Movement). Durch die Einbeziehung von Move-basierten Chains würde Enso ein breites Spektrum von Ökosystemen abdecken (Solidity und Move, sowie bestehende Ethereum-Rollups). Das Erreichen dieser Integrationen bedeutet die Entwicklung neuer Action-Module, die Solanas CPI-Aufrufe oder Moves Transaktionsskripte verstehen, und wahrscheinlich die Zusammenarbeit mit diesen Ökosystemen für Orakel/Indexierung. Ensos Erwähnung in Updates deutet darauf hin, dass diese auf Kurs waren – zum Beispiel hob ein Community-Update Partnerschaften oder Zuschüsse hervor (die Erwähnung von „Eclipse mainnet live + Movement grant“ in einem Suchergebnis deutet darauf hin, dass Enso Anfang 2025 aktiv mit neuartigen L1s wie Eclipse und Movement zusammenarbeitete).

  • Kurzfristig (Mitte/Ende 2025) – Obwohl nicht explizit in der einseitigen Roadmap aufgeführt, liegt Ensos Fokus Mitte 2025 auf Netzwerkreife und Dezentralisierung. Der Abschluss des CoinList-Token-Verkaufs im Juni 2025 ist ein wichtiges Ereignis: Die nächsten Schritte wären die Token-Generierung und -Verteilung (erwartet um Juli 2025) und die Notierung an Börsen oder Governance-Foren. Wir gehen davon aus, dass Enso seinen Governance-Prozess (Enso Improvement Proposals, On-Chain-Abstimmung) einführen wird, damit die Community mit ihren neu erworbenen Tokens an Entscheidungen teilnehmen kann. Zusätzlich wird Enso wahrscheinlich von „Beta“ zu einem vollständig produktionsreifen Dienst übergehen, falls dies noch nicht geschehen ist. Ein Teil davon wird die Sicherheitshärtung sein – die Durchführung mehrerer Smart-Contract-Audits und möglicherweise die Durchführung eines Bug-Bounty-Programms, angesichts der großen involvierten TVLs.

  • Ökosystem-Wachstumsstrategien: Enso fördert aktiv ein Ökosystem um sein Netzwerk. Eine Strategie war die Durchführung von Bildungsprogrammen und Hackathons (z. B. der Shortcut Speedrun und Workshops), um Entwickler in die Enso-Art des Bauens einzuführen. Eine weitere Strategie ist die Partnerschaft mit neuen Protokollen beim Start – dies haben wir bei Berachain, der zkSync-Kampagne und anderen gesehen. Enso wird dies voraussichtlich fortsetzen und effektiv als „On-Chain-Launch-Partner“ für aufstrebende Netzwerke oder DeFi-Projekte fungieren, die deren komplexe Benutzer-Onboarding-Prozesse abwickeln. Dies treibt nicht nur Ensos Volumen an (wie bei Berachain gesehen), sondern integriert Enso auch tief in diese Ökosysteme. Wir erwarten, dass Enso Integrationen mit weiteren Layer-2-Netzwerken (z. B. Arbitrum, Optimism wurden vermutlich bereits unterstützt; vielleicht als Nächstes neuere wie Scroll oder Starknet) und anderen L1s (Polkadot über XCM, Cosmos über IBC oder Osmosis usw.) ankündigen wird. Die langfristige Vision ist, dass Enso Chain-ubiquitär wird – jeder Entwickler auf jeder Chain kann sich einklinken. Zu diesem Zweck könnte Enso auch eine bessere Bridgeless Cross-Chain-Ausführung entwickeln (unter Verwendung von Techniken wie Atomic Swaps oder optimistischer Ausführung von Intents über Chains hinweg), was über 2025 hinaus auf der F&E-Roadmap stehen könnte.

  • Zukunftsaussichten: Weiterblickend hat Ensos Team auf die Beteiligung von KI-Agenten als Netzwerk-Teilnehmer hingedeutet. Dies deutet auf eine Zukunft hin, in der nicht nur menschliche Entwickler, sondern auch KI-Bots (vielleicht darauf trainiert, DeFi-Strategien zu optimieren) sich in Enso einklinken, um Dienste bereitzustellen. Enso könnte diese Vision umsetzen, indem es SDKs oder Frameworks für KI-Agenten erstellt, um sicher mit der Intent-Engine zu interagieren – eine potenziell bahnbrechende Entwicklung, die KI und Blockchain-Automatisierung zusammenführt. Darüber hinaus erwarten wir, dass Enso bis Ende 2025 oder 2026 an der Leistungsskalierung arbeiten wird (vielleicht durch Sharding seines Netzwerks oder die Verwendung von Zero-Knowledge-Proofs zur Validierung der Korrektheit der Intent-Ausführung in großem Maßstab), wenn die Nutzung zunimmt.

Die Roadmap ist ambitioniert, aber die bisherige Umsetzung war stark – Enso hat wichtige Meilensteine wie den Mainnet-Start und die Bereitstellung realer Anwendungsfälle erreicht. Ein wichtiger bevorstehender Meilenstein ist die vollständige Dezentralisierung des Netzwerks. Derzeit befindet sich das Netzwerk in einem Übergang: Die Dokumentation weist darauf hin, dass das dezentrale Netzwerk im Testnet ist und eine zentralisierte API Anfang 2025 für die Produktion verwendet wurde. Mit dem jetzt aktiven Mainnet und dem im Umlauf befindlichen Token wird Enso darauf abzielen, alle zentralisierten Komponenten schrittweise abzuschaffen. Für Investoren wird die Verfolgung dieses Dezentralisierungsfortschritts (z. B. Anzahl unabhängiger Validatoren, Beitritt von Community-Graphern) entscheidend sein, um Ensos Reife zu bewerten.

Zusammenfassend konzentriert sich Ensos Roadmap auf die Skalierung der Netzwerkreichweite (mehr Chains, mehr Integrationen) und die Skalierung der Netzwerk-Community (mehr Drittanbieter-Teilnehmer und Token-Inhaber). Das ultimative Ziel ist es, Enso als kritische Infrastruktur in Web3 zu etablieren, ähnlich wie Infura für die dApp-Konnektivität oder The Graph für die Datenabfrage unerlässlich wurde. Wenn Enso seine Meilensteine erreichen kann, sollte die zweite Hälfte des Jahres 2025 ein blühendes Ökosystem um das Enso Network sehen, das potenziell ein exponentielles Wachstum der Nutzung antreibt.

Risikobewertung

Wie jedes Protokoll in der Frühphase steht Enso Network vor einer Reihe von Risiken und Herausforderungen, die Investoren sorgfältig abwägen sollten:

  • Technische und Sicherheitsrisiken: Ensos System ist von Natur aus komplex – es interagiert mit unzähligen Smart Contracts über viele Blockchains hinweg durch ein Netzwerk von Off-Chain-Solvern und Validatoren. Diese expansive Angriffsfläche birgt technische Risiken. Jede neue Action (Integration) könnte Schwachstellen aufweisen; wenn die Logik einer Action fehlerhaft ist oder ein bösartiger Anbieter eine Hintertür-Action einführt, könnten Benutzergelder gefährdet sein. Die Sicherstellung jeder Integration erforderte erhebliche Investitionen (Ensos Team gab in den Anfängen über 500.000 $ für Audits zur Integration von 15 Protokollen aus). Wenn die Bibliothek auf Hunderte von Protokollen anwächst, ist die Aufrechterhaltung strenger Sicherheitsaudits eine Herausforderung. Es besteht auch das Risiko von Fehlern in Ensos Koordinationslogik – zum Beispiel könnte ein Fehler in der Art und Weise, wie Graphers Transaktionen zusammensetzen oder Validatoren sie verifizieren, ausgenutzt werden. Insbesondere die Cross-Chain-Ausführung kann riskant sein: Wenn eine Abfolge von Aktionen mehrere Chains umfasst und ein Teil fehlschlägt oder zensiert wird, könnten die Gelder eines Benutzers in der Schwebe bleiben. Obwohl Enso wahrscheinlich in einigen Fällen Wiederholungen oder Atomic Swaps verwendet, bedeutet die Komplexität von Intents, dass unbekannte Fehlermodi auftreten könnten. Das Intent-basierte Modell selbst ist in großem Maßstab noch relativ unerprobt – es kann Randfälle geben, in denen die Engine eine falsche Lösung oder ein Ergebnis liefert, das vom Intent des Benutzers abweicht. Jeder hochkarätige Exploit oder Ausfall könnte das Vertrauen in das gesamte Netzwerk untergraben. Die Minderung erfordert kontinuierliche Sicherheitsaudits, ein robustes Bug-Bounty-Programm und möglicherweise Versicherungsmechanismen für Benutzer (von denen noch keine detailliert wurden).

  • Dezentralisierungs- und Betriebsrisiken: Derzeit (Mitte 2025) befindet sich das Enso-Netzwerk noch im Prozess der Dezentralisierung seiner Teilnehmer. Dies bedeutet, dass es eine ungesehene operative Zentralisierung geben könnte – zum Beispiel könnte die Infrastruktur des Teams immer noch einen Großteil der Aktivitäten koordinieren, oder nur wenige Validatoren/Graphers sind wirklich aktiv. Dies birgt zwei Risiken: Zuverlässigkeit (wenn die Server des Kernteams ausfallen, wird das Netzwerk ins Stocken geraten?) und Vertrauen (wenn der Prozess noch nicht vollständig vertrauenslos ist, müssen Benutzer Vertrauen in Enso Inc. haben, dass es keine Transaktionen vorwegnimmt oder zensiert). Das Team hat seine Zuverlässigkeit bei großen Ereignissen (wie der Abwicklung eines Volumens von 3 Mrd. $ in Tagen) bewiesen, aber mit zunehmender Nutzung wird die Skalierung des Netzwerks über mehr unabhängige Nodes entscheidend sein. Es besteht auch das Risiko, dass Netzwerk-Teilnehmer nicht erscheinen – wenn Enso nicht genügend qualifizierte Action Provider oder Graphers anziehen kann, könnte das Netzwerk vom Kernteam abhängig bleiben, was die Dezentralisierung einschränkt. Dies könnte die Innovation verlangsamen und auch zu viel Macht (und Token-Belohnungen) in einer kleinen Gruppe konzentrieren, was dem beabsichtigten Design widerspricht.

  • Markt- und Adoptionsrisiken: Obwohl Enso eine beeindruckende frühe Adoption aufweist, befindet es sich immer noch in einem aufstrebenden Markt für „Intent-basierte“ Infrastruktur. Es besteht das Risiko, dass die breitere Entwickler-Community dieses neue Paradigma nur langsam annimmt. Entwickler, die in traditionellen Kodierungspraktiken verankert sind, könnten zögern, sich für Kernfunktionen auf ein externes Netzwerk zu verlassen, oder sie bevorzugen möglicherweise alternative Lösungen. Zusätzlich hängt Ensos Erfolg vom kontinuierlichen Wachstum der DeFi- und Multi-Chain-Ökosysteme ab. Wenn die Multi-Chain-These ins Wanken gerät (zum Beispiel, wenn sich die meisten Aktivitäten auf einer einzigen dominanten Chain konsolidieren), könnte der Bedarf an Ensos Cross-Chain-Fähigkeiten abnehmen. Umgekehrt, wenn ein neues Ökosystem entsteht, das Enso nicht schnell integrieren kann, werden Projekte in diesem Ökosystem Enso nicht nutzen. Im Wesentlichen ist es eine nie endende Herausforderung, mit jeder neuen Chain und jedem Protokoll auf dem Laufenden zu bleiben – das Verpassen oder Verzögern einer wichtigen Integration (z. B. eines beliebten neuen DEX oder einer Layer-2) könnte Projekte zu Wettbewerbern oder benutzerdefiniertem Code drängen. Darüber hinaus könnte Ensos Nutzung durch makroökonomische Marktbedingungen beeinträchtigt werden; in einem schweren DeFi-Abschwung könnten weniger Benutzer und Entwickler mit neuen dApps experimentieren, was die an Enso übermittelten Intents und damit die Gebühren/Einnahmen des Netzwerks direkt reduziert. Der Wert des Tokens könnte in einem solchen Szenario leiden, was das Staking potenziell weniger attraktiv macht und die Netzwerksicherheit oder -beteiligung schwächt.

  • Wettbewerb: Wie besprochen, sieht sich Enso an mehreren Fronten Konkurrenz gegenüber. Ein großes Risiko ist der Eintritt eines größeren Akteurs in den Intent-Ausführungsbereich. Wenn zum Beispiel ein gut finanziertes Projekt wie Chainlink einen ähnlichen Intent-Dienst einführen würde, der sein bestehendes Orakel-Netzwerk nutzt, könnten sie Enso aufgrund von Markenvertrauen und Integrationen schnell in den Schatten stellen. Ähnlich könnten Infrastrukturunternehmen (Alchemy, Infura) vereinfachte Multi-Chain-SDKs entwickeln, die, obwohl nicht dezentralisiert, den Entwicklermarkt mit Bequemlichkeit erobern. Es besteht auch das Risiko von Open-Source-Nachahmern: Ensos Kernkonzepte (Actions, Graphers) könnten von anderen repliziert werden, vielleicht sogar als Fork von Enso, wenn der Code öffentlich ist. Wenn eines dieser Projekte eine starke Community bildet oder einen besseren Token-Anreiz findet, könnte es potenzielle Teilnehmer ablenken. Enso wird die technologische Führung (z. B. durch die größte Bibliothek von Actions und die effizientesten Solver) aufrechterhalten müssen, um den Wettbewerb abzuwehren. Wettbewerbsdruck könnte auch Ensos Gebührenmodell unter Druck setzen – wenn ein Rivale ähnliche Dienste billiger (oder kostenlos, subventioniert von VCs) anbietet, könnte Enso gezwungen sein, die Gebühren zu senken oder die Token-Anreize zu erhöhen, was seine Tokenomics belasten könnte.

  • Regulierungs- und Compliance-Risiken: Enso agiert im Bereich der DeFi-Infrastruktur, der regulatorisch eine Grauzone darstellt. Während Enso selbst keine Benutzergelder verwahrt (Benutzer führen Intents aus ihren eigenen Wallets aus), automatisiert das Netzwerk komplexe Finanztransaktionen über Protokolle hinweg. Es besteht die Möglichkeit, dass Regulierungsbehörden Intent-Kompositions-Engines als Erleichterung unlizenzierter Finanzaktivitäten oder sogar als Beihilfe zur Geldwäsche ansehen könnten, wenn sie dazu verwendet werden, Gelder auf undurchsichtige Weise über Chains zu verschieben. Spezifische Bedenken könnten entstehen, wenn Enso Cross-Chain-Swaps ermöglicht, die Privacy Pools oder sanktionierte Jurisdiktionen betreffen. Zusätzlich spiegeln der ENSO-Token und sein CoinList-Verkauf eine Verteilung an eine globale Community wider – Regulierungsbehörden (wie die SEC in den USA) könnten ihn als Wertpapierangebot prüfen (bemerkenswerterweise schloss Enso die USA, Großbritannien, China usw. vom Verkauf aus, was Vorsicht in dieser Hinsicht signalisiert). Wenn ENSO in wichtigen Jurisdiktionen als Wertpapier eingestuft würde, könnte dies Börsennotierungen oder die Nutzung durch regulierte Entitäten einschränken. Ensos dezentrales Validatoren-Netzwerk könnte auch Compliance-Probleme bekommen: Könnte ein Validator beispielsweise aufgrund rechtlicher Anordnungen gezwungen werden, bestimmte Transaktionen zu zensieren? Dies ist vorerst weitgehend hypothetisch, aber mit dem Wachstum des durch Enso fließenden Werts wird die regulatorische Aufmerksamkeit zunehmen. Die Basis des Teams in der Schweiz könnte ein relativ kryptofreundliches regulatorisches Umfeld bieten, aber globale Operationen bedeuten globale Risiken. Die Minderung dessen beinhaltet wahrscheinlich die Sicherstellung, dass Enso ausreichend dezentralisiert ist (damit keine einzelne Entität verantwortlich ist) und möglicherweise das Geofencing bestimmter Funktionen, falls erforderlich (obwohl dies dem Ethos des Projekts widersprechen würde).

  • Wirtschaftliche Nachhaltigkeit: Ensos Modell geht davon aus, dass die durch die Nutzung generierten Gebühren alle Teilnehmer ausreichend belohnen werden. Es besteht das Risiko, dass die Gebührenanreize nicht ausreichen, um das Netzwerk aufrechtzuerhalten, insbesondere in der Anfangsphase. Zum Beispiel entstehen Graphern und Validatoren Kosten (Infrastruktur, Entwicklungszeit). Wenn die Abfragegebühren zu niedrig angesetzt werden, könnten diese Teilnehmer keinen Gewinn erzielen, was dazu führen könnte, dass sie abspringen. Andererseits, wenn die Gebühren zu hoch sind, könnten dApps zögern, Enso zu nutzen und nach billigeren Alternativen suchen. Ein Gleichgewicht in einem zweiseitigen Markt zu finden, ist schwierig. Die Enso-Token-Ökonomie hängt auch bis zu einem gewissen Grad vom Token-Wert ab – z. B. sind Staking-Belohnungen attraktiver, wenn der Token einen hohen Wert hat, und Action Provider verdienen Wert in ENSO. Ein starker Rückgang des ENSO-Preises könnte die Netzwerkbeteiligung reduzieren oder zu mehr Verkäufen führen (was den Preis weiter drückt). Da ein großer Teil der Tokens von Investoren und Team gehalten wird (insgesamt über 56 %, über 2 Jahre unverfallbar), besteht ein Überhangrisiko: Wenn diese Stakeholder das Vertrauen verlieren oder Liquidität benötigen, könnten ihre Verkäufe den Markt nach dem Vesting überschwemmen und den Preis des Tokens untergraben. Enso versuchte, die Konzentration durch den Community-Verkauf zu mindern, aber es ist kurzfristig immer noch eine relativ zentralisierte Token-Verteilung. Die wirtschaftliche Nachhaltigkeit wird davon abhängen, die tatsächliche Netzwerknutzung auf ein Niveau zu steigern, auf dem die Gebühreneinnahmen den Token-Stakern und Beitragenden ausreichend Rendite bieten – im Wesentlichen Enso zu einem „Cashflow“ generierenden Protokoll zu machen, anstatt nur zu einem spekulativen Token. Dies ist erreichbar (man denke daran, wie Ethereum-Gebühren Miner/Validatoren belohnen), aber nur, wenn Enso eine weite Verbreitung erreicht. Bis dahin besteht eine Abhängigkeit von Treasury-Fonds (15 % zugewiesen), um Anreize zu schaffen und möglicherweise die wirtschaftlichen Parameter anzupassen (Enso-Governance kann bei Bedarf Inflation oder andere Belohnungen einführen, was die Inhaber verwässern könnte).

Zusammenfassung der Risiken: Enso betritt Neuland, was mit entsprechenden Risiken verbunden ist. Die technologische Komplexität, das gesamte DeFi in einem Netzwerk zu vereinen, ist enorm – jede hinzugefügte Blockchain oder integrierte Protokoll ist ein potenzieller Fehlerpunkt, der verwaltet werden muss. Die Erfahrung des Teams bei der Bewältigung früherer Rückschläge (wie der begrenzte Erfolg des anfänglichen Social-Trading-Produkts) zeigt, dass sie sich der Fallstricke bewusst sind und sich schnell anpassen. Sie haben einige Risiken aktiv gemindert (z. B. die Dezentralisierung des Eigentums durch die Community-Runde, um eine übermäßig VC-gesteuerte Governance zu vermeiden). Investoren sollten beobachten, wie Enso die Dezentralisierung umsetzt und ob es weiterhin erstklassige technische Talente anzieht, um das Netzwerk aufzubauen und zu sichern. Im besten Fall könnte Enso zu einer unverzichtbaren Infrastruktur im gesamten Web3 werden, die starke Netzwerkeffekte und eine Wertsteigerung des Tokens erzielt. Im schlimmsten Fall könnten technische oder Adoptionsrückschläge es zu einem ambitionierten, aber Nischen-Tool degradieren.

Aus Investorensicht bietet Enso ein Profil mit hohem Potenzial und hohem Risiko. Sein aktueller Status (Mitte 2025) ist der eines vielversprechenden Netzwerks mit realer Nutzung und einer klaren Vision, aber es muss nun seine Technologie härten und eine wettbewerbsintensive und sich entwickelnde Landschaft übertreffen. Eine Due Diligence bei Enso sollte die Überwachung seiner Sicherheitsbilanz, das Wachstum der Abfragevolumen/-gebühren im Laufe der Zeit und die Effektivität des ENSO-Token-Modells zur Anreizung eines sich selbst tragenden Ökosystems umfassen. Derzeit ist der Schwung auf Ensos Seite, aber ein umsichtiges Risikomanagement und kontinuierliche Innovation werden entscheidend sein, um diese frühe Führung in eine langfristige Dominanz im Web3-Middleware-Bereich zu verwandeln.

Quellen:

  • Offizielle Dokumentation und Token-Verkaufsmaterialien von Enso Network

    • CoinList Token Sale Seite – Wichtige Highlights & Investoren
    • Enso Docs – Tokenomics und Netzwerkrollen
  • Interviews und Medienberichte

    • CryptoPotato Interview mit Enso CEO (Juni 2025) – Hintergrund zu Ensos Entwicklung und Intent-basiertem Design
    • DL News (Mai 2025) – Überblick über Ensos Shortcuts und den Shared-State-Ansatz
  • Community- und Investorenanalysen

    • Hackernoon (I. Pandey, 2025) – Einblicke in Ensos Community-Runde und Token-Verteilungsstrategie
    • CryptoTotem / CoinLaunch (2025) – Aufschlüsselung des Token-Angebots und Roadmap-Zeitplan
  • Offizielle Enso-Website-Metriken (2025) und Pressemitteilungen – Adoptionszahlen und Anwendungsbeispiele (Berachain-Migration, Uniswap-Zusammenarbeit).

Aptos vs. Sui: Eine umfassende Analyse zweier Move-basierter Giganten

· 7 Min. Lesezeit
Dora Noda
Software Engineer

Überblick

Aptos und Sui stehen als nächste Generation von Layer-1 Blockchains, beide basierend auf der Move-Sprache, die ursprünglich im Rahmen des Libra/Diem-Projekts von Meta konzipiert wurde. Obwohl sie eine gemeinsame Abstammung teilen, haben sich ihre Teamhintergründe, Kernziele, Ökosystemstrategien und Entwicklungspfade erheblich auseinanderentwickelt.

Aptos legt Wert auf Vielseitigkeit und Performance auf Unternehmensniveau, wobei sowohl DeFi- als auch institutionelle Anwendungsfälle im Fokus stehen. Im Gegensatz dazu konzentriert sich Sui auf die Optimierung seines einzigartigen Objektmodells, um Massenmarkt-Verbraucheranwendungen, insbesondere in den Bereichen Gaming, NFTs und soziale Medien, zu unterstützen. Welche Kette sich letztendlich durchsetzen wird, hängt von ihrer Fähigkeit ab, ihre Technologie weiterzuentwickeln, um den Anforderungen ihrer gewählten Marktnische gerecht zu werden, und gleichzeitig einen klaren Vorteil in Bezug auf Benutzererfahrung und Entwicklerfreundlichkeit zu etablieren.


1. Entwicklungsreise

Aptos

Aptos, entstanden aus Aptos Labs – einem Team ehemaliger Meta Libra/Diem-Mitarbeiter – begann Ende 2021 mit geschlossenen Tests und startete sein Mainnet am 19. Oktober 2022. Die anfängliche Mainnet-Performance stieß mit unter 20 TPS auf Skepsis in der Community, wie von WIRED angemerkt, aber nachfolgende Iterationen an den Konsens- und Ausführungsschichten haben den Durchsatz stetig auf Zehntausende von TPS erhöht.

Bis zum 2. Quartal 2025 erreichte Aptos einen Höchststand von 44,7 Millionen Transaktionen in einer einzigen Woche, wobei die wöchentlich aktiven Adressen 4 Millionen überschritten. Das Netzwerk ist auf über 83 Millionen kumulierte Konten angewachsen, mit einem täglichen DeFi-Handelsvolumen, das konstant über 200 Millionen US-Dollar liegt (Quelle: Aptos Forum).

Sui

Sui, initiiert von Mysten Labs, dessen Gründer Kernmitglieder des Novi Wallet-Teams von Meta waren, startete sein incentiviertes Testnet im August 2022 und ging am 3. Mai 2023 mit seinem Mainnet live. Von den frühesten Testnets an priorisierte das Team die Verfeinerung seines „Objektmodells“, das Assets als Objekte mit spezifischen Eigentums- und Zugriffskontrollen behandelt, um die parallele Transaktionsverarbeitung zu verbessern (Quelle: Ledger).

Mitte Juli 2025 erreichte der Total Value Locked (TVL) des Sui-Ökosystems 2,326 Milliarden US-Dollar. Die Plattform verzeichnete ein schnelles Wachstum des monatlichen Transaktionsvolumens und der Anzahl aktiver Ingenieure, was sich besonders im Gaming- und NFT-Sektor als beliebt erwies (Quelle: AInvest, Tangem).


2. Technischer Architekturvergleich

MerkmalAptosSui
SpracheErbt das ursprüngliche Move-Design, betont die Sicherheit von „Ressourcen“ und strenge Zugriffskontrolle. Die Sprache ist relativ schlank. (Quelle: aptos.dev)Erweitert Standard-Move um ein „objektzentriertes“ Modell, wodurch eine angepasste Version der Sprache entsteht, die horizontal skalierbare parallele Transaktionen unterstützt. (Quelle: docs.sui.io)
KonsensAptosBFT: Ein optimierter BFT-Konsensmechanismus, der eine Finalität im Sub-Sekundenbereich verspricht, mit primärem Fokus auf Sicherheit und Konsistenz. (Quelle: Messari)Narwhal + Tusk: Entkoppelt den Konsens von der Transaktionsreihenfolge, ermöglicht hohen Durchsatz und niedrige Latenz durch Priorisierung der Effizienz paralleler Ausführung.
AusführungsmodellVerwendet ein Pipelining-Ausführungsmodell, bei dem Transaktionen in Phasen verarbeitet werden (Datenabruf, Ausführung, Rückschreiben), was Hochfrequenzübertragungen und komplexe Logik unterstützt. (Quelle: chorus.one)Nutzt parallele Ausführung basierend auf Objekteigentum. Transaktionen, die unterschiedliche Objekte betreffen, erfordern keine globalen Zustandssperren, was den Durchsatz grundlegend erhöht.
SkalierbarkeitKonzentriert sich auf Single-Instance-Optimierung und erforscht gleichzeitig Sharding. Die Community entwickelt aktiv den Sharding-Vorschlag AptosCore v2.0.Verfügt über eine native parallele Engine, die für horizontale Skalierung konzipiert ist und auf ihrem Testnet bereits Spitzen-TPS im Zehntausenderbereich erreicht hat.
Entwickler-ToolsEine ausgereifte Toolchain, einschließlich offizieller SDKs, eines Devnets, des Aptos CLI, eines Explorers und des Hydra-Frameworks für Skalierbarkeit.Eine umfassende Suite, einschließlich des Sui SDK, der Sui Studio IDE, eines Explorers, GraphQL APIs und eines objektorientierten Abfragemodells.

3. On-Chain Ökosystem und Anwendungsfälle

3.1 Ökosystem-Größe und Wachstum

Aptos Im 1. Quartal 2025 verzeichnete Aptos fast 15 Millionen monatlich aktive Nutzer und näherte sich 1 Million täglich aktiver Wallets. Das DeFi-Handelsvolumen stieg im Jahresvergleich um 1000 %, wobei sich die Plattform als Drehscheibe für Stablecoins und Derivate auf Finanzniveau etablierte (Quelle: Coinspeaker). Zu den wichtigsten strategischen Schritten gehören die Integration von USDT über Upbit, um die Penetration in asiatischen Märkten voranzutreiben, und die Anziehung zahlreicher führender DEXs, Lending-Protokolle und Derivateplattformen (Quelle: Aptos Forum).

Sui Im Juni 2025 erreichte der TVL des Sui-Ökosystems einen neuen Höchststand von 2,326 Milliarden US-Dollar, hauptsächlich angetrieben durch interaktionsreiche soziale, Gaming- und NFT-Projekte (Quelle: AInvest). Das Ökosystem ist durch Kernprojekte wie Objekt-Marktplätze, Layer-2-Brücken, soziale Wallets und Game-Engine-SDKs definiert, die eine große Anzahl von Web3-Spieleentwicklern und IP-Inhabern angezogen haben.

3.2 Dominante Anwendungsfälle

  • DeFi & Unternehmensintegration (Aptos): Mit seiner ausgereiften BFT-Finalität und einer Vielzahl von Finanztools ist Aptos besser für Stablecoins, Lending und Derivate geeignet – Szenarien, die ein hohes Maß an Konsistenz und Sicherheit erfordern.
  • Gaming & NFTs (Sui): Suis Vorteil bei der parallelen Ausführung ist hier offensichtlich. Seine geringe Transaktionslatenz und nahezu null Gebühren sind ideal für hochfrequente, geringwertige Interaktionen, die im Gaming üblich sind, wie das Öffnen von Lootboxen oder das Übertragen von In-Game-Gegenständen.

4. Entwicklung & Strategie

Aptos

  • Performance-Optimierung: Fortsetzung der Sharding-Forschung, Planung von Multi-Region-Cross-Chain-Liquidität und Upgrade der AptosVM zur Verbesserung der Effizienz des Zustandszugriffs.
  • Ökosystem-Anreize: Ein Ökosystemfonds in Höhe von mehreren Hundert Millionen US-Dollar wurde eingerichtet, um DeFi-Infrastruktur, Cross-Chain-Brücken und konforme Unternehmensanwendungen zu unterstützen.
  • Cross-Chain Interoperabilität: Stärkung der Integrationen mit Brücken wie Wormhole und Aufbau von Verbindungen zu Cosmos (über IBC) und Ethereum.

Sui

  • Objektmodell-Iteration: Erweiterung der Move-Syntax zur Unterstützung benutzerdefinierter Objekttypen und komplexer Berechtigungsverwaltung bei gleichzeitiger Optimierung des parallelen Scheduling-Algorithmus.
  • Förderung der Verbraucherakzeptanz: Vertiefung der Integrationen mit großen Game-Engines wie Unreal und Unity, um die Hürde für die Web3-Spieleentwicklung zu senken, und Einführung von Social Plugins und SDKs.
  • Community-Governance: Förderung der SuiDAO, um Kernprojekt-Communities mit Governance-Fähigkeiten auszustatten und eine schnelle Iteration von Funktionen und Gebührenmodellen zu ermöglichen.

5. Kernunterschiede & Herausforderungen

  • Sicherheit vs. Parallelität: Aptos' strenge Ressourcensemantik und konsistenter Konsens bieten DeFi-taugliche Sicherheit, können aber die Parallelität einschränken. Suis hochparalleles Transaktionsmodell muss seine Widerstandsfähigkeit gegenüber groß angelegten Sicherheitsbedrohungen kontinuierlich unter Beweis stellen.
  • Ökosystemtiefe vs. -breite: Aptos hat tiefe Wurzeln im Finanzsektor mit starken institutionellen Bindungen kultiviert. Sui hat schnell eine breite Palette von verbraucherorientierten Projekten akkumuliert, muss aber noch einen entscheidenden Durchbruch im groß angelegten DeFi erzielen.
  • Theoretische Performance vs. realer Durchsatz: Während Sui einen höheren theoretischen TPS aufweist, ist sein tatsächlicher Durchsatz immer noch durch die Ökosystemaktivität begrenzt. Aptos hat auch während Spitzenzeiten Überlastungen erlebt, was auf die Notwendigkeit effektiverer Sharding- oder Layer-2-Lösungen hindeutet.
  • Marktnarrativ & Positionierung: Aptos vermarktet sich mit Sicherheit und Stabilität auf Unternehmensniveau und zielt auf traditionelle Finanzen und regulierte Industrien ab. Sui nutzt den Reiz einer „Web2-ähnlichen Erfahrung“ und eines „reibungslosen Onboardings“, um ein breiteres Verbraucherpublikum anzuziehen.

6. Der Weg zur Massenadoption

Letztendlich ist dies kein Nullsummenspiel.

Mittel- bis langfristig könnte Suis parallele Ausführung und die niedrige Einstiegshürde bei anhaltendem explosivem Wachstum des Verbrauchermarktes (Gaming, Social, NFTs) eine schnelle Adoption bei zig Millionen Mainstream-Nutzern ermöglichen.

Kurz- bis mittelfristig bieten Aptos' ausgereifte BFT-Finalität, niedrige Gebühren und strategische Partnerschaften ein überzeugenderes Angebot für institutionelle Finanzen, compliance-orientiertes DeFi und grenzüberschreitende Zahlungen.

Die Zukunft ist wahrscheinlich eine symbiotische, in der die beiden Ketten koexistieren und einen geschichteten Markt schaffen: Aptos treibt die Finanz- und Unternehmensinfrastruktur an, während Sui hochfrequente Verbraucherinteraktionen dominiert. Die Kette, die letztendlich die Massenadoption erreicht, wird diejenige sein, die Leistung und Benutzererfahrung in ihrem gewählten Bereich unermüdlich optimiert.

Rollups-as-a-Service in 2025: OP, ZK, Arbitrum Orbit, Polygon CDK und zkSync Hyperchains

· 72 Min. Lesezeit
Dora Noda
Software Engineer

Einführung

Rollups-as-a-Service (RaaS) und modulare Blockchain-Frameworks sind im Jahr 2025 entscheidend für die Skalierung von Ethereum und den Aufbau benutzerdefinierter Blockchains geworden. Führende Frameworks – Optimism’s OP Stack, zkSync’s ZK Stack (Hyperchains), Arbitrum Orbit, Polygon’s Chain Development Kit (CDK) und verwandte Lösungen – ermöglichen es Entwicklern, ihre eigenen Layer-2- (L2) oder Layer-3- (L3) Chains mit unterschiedlichen Ansätzen (optimistisch vs. Zero-Knowledge) zu starten. Diese Frameworks teilen eine Philosophie der Modularität: Sie trennen Belange wie Ausführung, Abwicklung, Datenverfügbarkeit und Konsens, was die Anpassung jeder Komponente ermöglicht. Dieser Bericht vergleicht die Frameworks anhand wichtiger Dimensionen – Datenverfügbarkeitsoptionen, Sequenzer-Design, Gebührenmodelle, Ökosystem-Unterstützung – und untersucht ihre Architektur, Tools, Entwicklererfahrung und aktuelle Akzeptanz sowohl im öffentlichen als auch im Unternehmenskontext.

Vergleichsübersicht

Die folgende Tabelle fasst mehrere Kernfunktionen jedes Frameworks zusammen:

AspektOP Stack (Optimism)ZK Stack (zkSync)Arbitrum OrbitPolygon CDK (AggLayer)
Rollup-TypOptimistic RollupZero-Knowledge (Gültigkeit)Optimistic RollupZero-Knowledge (Gültigkeit)
BeweissystemFehlerbeweise (Betrugsbeweise)ZK-SNARK-GültigkeitsnachweiseFehlerbeweise (Betrugsbeweise)ZK-SNARK-Gültigkeitsnachweise
EVM-KompatibilitätEVM-äquivalent (geth)Hoch – zkEVM (LLVM-basiert)EVM-äquivalent (Arbitrum Nitro) + WASM via StylusPolygon zkEVM (EVM-äquivalent)
DatenverfügbarkeitEthereum L1 (On-Chain); steckbare Alt-DA-Module (Celestia, etc.)Ethereum L1; auch Validium-Optionen Off-Chain (Celestia, Avail, EigenDA)Ethereum L1 (Rollup) oder AnyTrust-Komitee (Off-Chain DAC); unterstützt Celestia, AvailEthereum L1 (Rollup) oder Off-Chain (Validium via Avail oder Celestia); Hybrid möglich
Sequenzer-DesignEinzelner Sequenzer (Standard); Multi-Sequenzer mit Anpassung möglich. Shared Sequencer-Vision für Superchain (Zukunft).Konfigurierbar: kann zentralisiert oder dezentralisiert sein; priorisierte L1-Warteschlange unterstützt.Konfigurierbar: Einzelner Operator oder dezentralisierte Validatoren.Flexibel: Einzelner Sequenzer oder mehrere Validatoren (z. B. PoS-Komitee).
Sequenzer-ZugriffZentralisiert heute (der Sequenzer jeder OP-Chain wird von ihrem Operator betrieben); noch nicht permissionless. Pläne für ein gemeinsames, permissionless Sequenzer-Netzwerk unter OP-Chains. L1-Backup-Warteschlange ermöglicht vertrauenslose Tx-Einreichung, wenn der Sequenzer ausfällt.zkSync Era verwendet einen zentralisierten Sequenzer (Matter Labs), aber ZK Stack erlaubt benutzerdefinierte Sequenzer-Logik (sogar externen Konsens). Priorisierte L1-Sequenzierung für Fairness unterstützt. Dezentralisierte Sequenzer-Optionen in Entwicklung.Arbitrum One verwendet einen zentralisierten Sequenzer (Offchain Labs), mit Failover über den L1-Posteingang. Arbitrum Orbit Chains können ihren eigenen Sequenzer betreiben (anfangs zentralisiert) oder ein Validatoren-Set einrichten. Das BoLD-Upgrade (2025) ermöglicht permissionless Validierung zur Dezentralisierung von Orbit Chains.Polygon zkEVM begann mit einem einzelnen Sequenzer (Polygon Labs). CDK ermöglicht den Start einer Chain mit einem permissioned Validatoren-Set oder einem anderen Konsens zur Dezentralisierung. Viele CDK Chains starten aus Einfachheitsgründen zentralisiert, mit einer Roadmap für spätere, von der Community betriebene Sequenzer.
Gebühren-TokenETH standardmäßig auf OP-basierten L2s (zur Vereinfachung der UX). Benutzerdefinierter Gas-Token technisch unterstützt, aber die meisten OP-Chains entscheiden sich für ETH oder einen Standard-Token für Interoperabilität. (OP Stack’s jüngste Richtlinie bevorzugt gängige Token über die Superchain hinweg).Benutzerdefinierte Basis-Token werden unterstützt – Entwickler können ETH oder jeden ERC-20 als natives Gas wählen. (Diese Flexibilität ermöglicht projektspezifische Ökonomien auf zkSync-basierten Chains.)Benutzerdefinierter Gas-Token unterstützt (Upgrade Ende 2023). Chains können ETH, Arbitrum’s ARB oder ihren eigenen Token für Gebühren verwenden. Beispiel: Ape Chain verwendet APE als Gas.Benutzerdefinierter nativer Token wird unterstützt. Viele Polygon CDK Chains verwenden MATIC oder einen anderen Token als Gas. Das Polygon-Ökosystem fördert MATIC für Cross-Chain-Konsistenz, es ist jedoch nicht erforderlich.
Gebührenmodell & KostenBenutzer zahlen L2-Gas (vom Sequenzer gesammelt) plus L1-Datenbereitstellungskosten. Der Sequenzer muss Transaktionsdaten (Calldata oder Blobs) an Ethereum senden, daher deckt ein Teil der Gebühren L1-Gas ab. Umsatzbeteiligung: OP-Chains in der Superchain verpflichten sich, ca. 2,5 % des Umsatzes an das Optimism Collective (Finanzierung öffentlicher Güter) abzuführen.Benutzer zahlen Gebühren (oft in ETH oder dem gewählten Token), die die L1-Beweisverifizierung und Daten abdecken. Keine protokollbasierte „Steuer“ auf Gebühren – der Sequenzer jeder Chain behält den Umsatz, um Operatoren zu incentivieren. ZK-Prover-Kosten sind ein Faktor: Operatoren könnten etwas höhere Gebühren verlangen oder effiziente Prover verwenden, um Kosten zu verwalten. Die Finalität ist schnell (keine Verzögerung), sodass Benutzer keine Drittanbieter für schnelle Auszahlungen benötigen.Benutzer zahlen Gas (in ETH oder dem Token der Chain), das die L2-Ausführung + L1-Batch-Kosten abdeckt. Sequenzer/Validatoren behalten die Gebühreneinnahmen; keine obligatorische Umsatzbeteiligung an Arbitrum DAO oder L1 (abgesehen von L1-Gaskosten). Um die optimistische 7-Tage-Verzögerung zu vermeiden, integrieren viele Orbit Chains Liquiditätsanbieter oder offizielle Fast-Withdrawal-Bridges (Arbitrum unterstützt 15-minütige schnelle Auszahlungen auf einigen Orbit Chains über Liquiditätsnetzwerke).Benutzer zahlen Gasgebühren, die die Proving- und Posting-Kosten abdecken. Sequenzer oder Validatoren verdienen diese Gebühren; Polygon erhebt keine Miete oder Steuer auf die Einnahmen von CDK Chains. Die Verwendung von Off-Chain-DA (Validium-Modus) kann die Gebühren um >100x senken (Daten auf Celestia oder Avail statt Ethereum speichern), auf Kosten einiger Vertrauensannahmen.

Tabelle: High-Level-Vergleich der wichtigsten technischen Merkmale von OP Stack, zkSync’s ZK Stack, Arbitrum Orbit und Polygon CDK.

Datenverfügbarkeitsschichten

Die Datenverfügbarkeit (DA) ist der Ort, an dem Rollups ihre Transaktionsdaten speichern, damit jeder den Zustand der Chain rekonstruieren kann. Alle diese Frameworks unterstützen die Verwendung von Ethereum L1 als DA (Bereitstellung von Calldata oder Blob-Daten auf Ethereum für maximale Sicherheit). Um jedoch Kosten zu senken, ermöglichen sie auch alternative DA-Lösungen:

  • OP Stack: Standardmäßig veröffentlichen OP-Chains Daten auf Ethereum (als Calldata oder Blobs). Dank einer modularen „Alt-DA“-Schnittstelle können OP Stack Chains problemlos an andere DA-Schichten angeschlossen werden. Zum Beispiel könnte eine OP-Chain Celestia (eine dedizierte DA-Blockchain) anstelle von Ethereum verwenden. Im Jahr 2023 veröffentlichten OP Labs und Celestia eine Beta, bei der ein OP Stack Rollup auf Ethereum abgewickelt wird, aber Bulk-Daten auf Celestia speichert. Dies reduziert die Gebühren, während die Datenverfügbarkeitsgarantien von Celestia geerbt werden. Im Allgemeinen kann jede EVM- oder Nicht-EVM-Chain – sogar Bitcoin oder ein zentralisierter Speicher – als DA-Schicht im OP Stack konfiguriert werden. (Natürlich tauscht die Verwendung einer weniger sicheren DA einen Teil der Sicherheit gegen Kosten ein.) Ethereum bleibt die vorherrschende Wahl für Produktions-OP-Chains, aber Projekte wie Caldera’s Taro Testnet haben OP Stack mit Celestia DA demonstriert.

  • ZK Stack (zkSync Hyperchains): Der ZK Stack bietet sowohl Rollup- als auch Validium-Modi. Im Rollup-Modus sind alle Daten On-Chain (Ethereum). Im Validium-Modus werden Daten Off-Chain gehalten (wobei nur Gültigkeitsnachweise On-Chain sind). Matter Labs integriert Avail, Celestia und EigenDA als erstklassige DA-Optionen für ZK Stack Chains. Dies bedeutet, dass eine zkSync Hyperchain Transaktionsdaten an Celestia oder ein EigenLayer-gestütztes Netzwerk anstelle von L1 senden könnte, was den Durchsatz massiv erhöht. Sie skizzieren sogar Volition, bei der eine Chain pro Transaktion entscheiden kann, ob sie diese als Rollup (On-Chain-Daten) oder Validium (Off-Chain-Daten) behandeln möchte. Diese Flexibilität ermöglicht es Entwicklern, Sicherheit und Kosten abzuwägen. Zum Beispiel könnte eine Gaming-Hyperchain Celestia verwenden, um Daten kostengünstig zu speichern, während sie sich für periodische Beweise auf Ethereum verlässt. Das Design des ZK Stacks macht DA über eine DA-Client/Dispatcher-Komponente in der Node-Software steckbar. Insgesamt bleibt Ethereum Standard, aber das zkSync-Ökosystem betont stark die modulare DA, um einen „Hyperscale“-Durchsatz zu erreichen.

  • Arbitrum Orbit: Orbit Chains können zwischen Arbitrums zwei Datenmodi wählen: Rollup (Daten auf Ethereum veröffentlicht) oder AnyTrust (Datenverfügbarkeitskomitee). In der Rollup-Konfiguration wird ein Orbit L3 seine Calldata an den L2 (Arbitrum One oder Nova) oder L1 senden, wodurch die volle Sicherheit zu höheren Kosten geerbt wird. Im AnyTrust-Modus werden Daten von einem Komitee Off-Chain gehalten (wie in Arbitrum Nova verwendet, das ein Datenverfügbarkeitskomitee nutzt). Dies senkt die Gebühren für Apps mit hohem Volumen (Gaming, Social) erheblich, auf Kosten des Vertrauens in ein Komitee (wenn alle Komiteemitglieder kolludieren, um Daten zurückzuhalten, könnte die Chain zum Stillstand kommen). Darüber hinaus integriert Arbitrum auch neue modulare DA-Netzwerke. Insbesondere werden Celestia und Polygon Avail für Orbit Chains als alternative DA-Schichten unterstützt. Projekte wie AltLayer haben an Orbit Rollups gearbeitet, die auch EigenDA (EigenLayer’s DA-Dienst) verwenden. Zusammenfassend bietet Arbitrum Orbit flexible Datenverfügbarkeit: On-Chain über Ethereum, Off-Chain über DACs oder spezialisierte DA-Chains oder Hybride. Viele Orbit-Nutzer wählen AnyTrust aus Kostengründen, insbesondere wenn sie einen bekannten Satz von Validatoren oder Partnern haben, die die Datenverfügbarkeit sicherstellen.

  • Polygon CDK: Polygon’s CDK ist von Natur aus modular in Bezug auf DA. Eine Polygon CDK Chain kann als Rollup (alle Daten auf Ethereum) oder als Validium (Daten auf einem separaten Netzwerk) betrieben werden. Polygon hat seine eigene DA-Lösung namens Avail (eine Blockchain für Datenverfügbarkeit), und CDK Chains können Avail oder jeden ähnlichen Dienst nutzen. Ende 2024 kündigte Polygon die direkte Integration von Celestia in CDK an – was Celestia zu einer „leicht steckbaren“ DA-Option im Toolkit macht. Diese Integration wird für Anfang 2024 erwartet und ermöglicht es CDK Chains, komprimierte Daten nahtlos auf Celestia zu speichern. Polygon zitiert, dass die Verwendung von Celestia die Transaktionsgebühren um >100x im Vergleich zur Veröffentlichung aller Daten auf Ethereum reduzieren könnte. Somit kann ein CDK-Chain-Ersteller das DA-Modul einfach auf Celestia (oder Avail) anstatt auf Ethereum umschalten. Einige Polygon Chains (z. B. Polygon zkEVM) veröffentlichen derzeit alle Daten auf Ethereum (für maximale Sicherheit), während andere (vielleicht bestimmte Unternehmens-Chains) als Validiums mit externer DA laufen. Das CDK unterstützt auch „Hybrid“-Modi – zum Beispiel könnten kritische Transaktionen auf Ethereum gehen, während andere zu Avail gehen. Dieser modulare DA-Ansatz stimmt mit Polygons breiterer Polygon 2.0-Vision von mehreren ZK-gestützten Chains mit vereinheitlichter Liquidität, aber unterschiedlichen Daten-Backends überein.

Zusammenfassend lässt sich sagen, dass alle Frameworks mehrere DA-Schichten in unterschiedlichem Maße unterstützen. Ethereum bleibt der Goldstandard für DA (insbesondere mit Blob-Space von EIP-4844, der On-Chain-Daten billiger macht), aber neue spezialisierte DA-Netzwerke (Celestia, Avail) und Schemata (EigenLayer’s EigenDA, Datenkomitees) werden durchweg angenommen. Diese Modularität ermöglicht es Rollup-Erstellern im Jahr 2025, Kompromisse zwischen Kosten und Sicherheit einzugehen, indem sie einfach ein anderes DA-Modul konfigurieren, anstatt eine neue Chain von Grund auf neu zu bauen.

Sequenzer-Design und Dezentralisierung

Der Sequenzer ist der Node (oder Satz von Nodes), der Transaktionen ordnet und Blöcke für einen Rollup produziert. Wie der Sequenzer entworfen ist – zentralisiert vs. dezentralisiert, permissionless vs. permissioned – beeinflusst den Durchsatz der Chain und die Vertrauensannahmen:

  • OP Stack (Optimism): Heute betreiben die meisten OP Stack Chains einen einzelnen Sequenzer, der vom Kernteam oder Sponsor der Chain betrieben wird. Zum Beispiel wird der Sequenzer des Optimism Mainnets von OP Labs betrieben, und der Sequenzer von Base wird von Coinbase betrieben. Dies führt zu geringer Latenz und Einfachheit auf Kosten der Zentralisierung (Benutzer müssen dem Sequenzer vertrauen, ihre Transaktionen fair einzuschließen). Optimism hat jedoch Mechanismen zur Vertrauensminimierung eingebaut: Es gibt einen L1-Transaktionswarteschlangenvertrag, in dem Benutzer Transaktionen auf Ethereum einreichen können, die der Sequenzer in die L2-Chain aufnehmen muss. Wenn der Sequenzer ausfällt oder Transaktionen zensiert, können sich Benutzer auf L1 verlassen, um schließlich aufgenommen zu werden (wenn auch mit einiger Verzögerung). Dies bietet ein Sicherheitsventil gegen einen bösartigen oder ausgefallenen Sequenzer. In Bezug auf die Dezentralisierung ist OP Stack modular und ermöglicht theoretisch mehrere Sequenzer – z. B. könnte man ein Round-Robin- oder Proof-of-Stake-basiertes Block-Proposer-Set unter Verwendung des OP Stack-Codes implementieren. In der Praxis erfordert dies eine Anpassung und ist nicht die Out-of-the-Box-Konfiguration. Die langfristige Superchain-Roadmap sieht einen Shared Sequencer für alle OP Chains vor, der ein Satz von Validatoren wäre, die Transaktionen für viele Chains gleichzeitig sequenzieren. Ein Shared Sequencer könnte Cross-Chain-Atomarität ermöglichen und MEV über die Superchain hinweg reduzieren. Er befindet sich im Jahr 2025 noch in der Entwicklung, aber das Design des OP Stacks schließt das Anschließen eines solchen Konsenses nicht aus. Vorerst bleiben die Sequenzer-Operationen permissioned (von Whitelist-Entitäten betrieben), aber die Optimism-Governance plant, dies zu dezentralisieren (möglicherweise über Staking oder Komitee-Rotation), sobald die Technologie und die Wirtschaftlichkeit bereit sind. Kurz gesagt: OP Stack Chains beginnen mit zentralisierter Sequenzierung (mit L1 als Fallback), und ein Weg zur graduellen Dezentralisierung ist vorgezeichnet (Übergang von „Stage 0“ zu „Stage 2“ Reife ohne Stützräder).

  • ZK Stack (zkSync Hyperchains): zkSync Era (der L2) verwendet derzeit einen zentralisierten Sequenzer, der von Matter Labs betrieben wird. Der ZK Stack ist jedoch so konzipiert, dass er verschiedene Sequenzierungsmodi für neue Chains ermöglicht. Optionen umfassen einen zentralisierten Sequenzer (einfacher Start), ein dezentralisiertes Sequenzer-Set (z. B. mehrere Nodes, die einen Konsens über die Reihenfolge erzielen), eine priorisierte Transaktionswarteschlange von L1 oder sogar einen externen Sequenzer-Dienst. In Matter Labs’ Vision der Elastic Chains bleiben die Chains unabhängig, aber die Interoperabilität wird durch die L1-Verträge und einen „ZK Router/Gateway“ gehandhabt – dies impliziert, dass jede Chain ihr eigenes Sequenzer-Modell wählen kann, solange sie die Protokolle zur Einreichung von State Roots und Beweisen erfüllt. Da ZK-Rollups für die Sicherheit keinen Konsens auf L2 benötigen (Gültigkeitsnachweise gewährleisten die Korrektheit), geht es bei der Dezentralisierung des Sequenzers mehr um Liveness und Zensurresistenz. Eine Hyperchain könnte einen Round-Robin-Blockproduzenten implementieren oder bei Bedarf sogar einen Hochleistungs-BFT-Konsens für ihre Sequenzer nutzen. Allerdings ist der Betrieb eines einzelnen Sequenzers weitaus einfacher und bleibt zunächst die Norm. Die ZK Stack-Dokumentation erwähnt, dass eine Chain ein „externes Protokoll“ für die Sequenzierung verwenden könnte – zum Beispiel könnte man sich vorstellen, Tendermint- oder SU-Konsens als Blockproduzenten zu verwenden und dann ZK-Beweise für die Blöcke zu generieren. Auch wie andere verfügt zkSync über einen L1-Prioritätswarteschlangenmechanismus: Benutzer können Transaktionen mit einer Prioritätsgebühr an den zkSync-Vertrag senden, um die L1->L2-Aufnahme zeitnah zu gewährleisten (Zensur zu mildern). Insgesamt ist die permissionless Teilnahme an der Sequenzierung auf zkSync-Chains noch nicht realisiert (keine öffentliche Slot-Auktion oder Staking-basierte Sequenzer-Auswahl in Produktion), aber die Architektur lässt Raum dafür. Wenn Gültigkeitsnachweise ausgereift sind, könnten wir zkSync-Chains mit von der Community betriebenen Sequenzer-Nodes sehen, die gemeinsam die Reihenfolge festlegen (sobald die Leistung dies zulässt).

  • Arbitrum Orbit: Auf Arbitrum One (dem Haupt-L2) ist der Sequenzer zentralisiert (wird von Offchain Labs betrieben), obwohl der Fortschritt des Chain-Zustands letztendlich von den Arbitrum-Validatoren und Betrugsbeweisen gesteuert wird. Arbitrum hat ebenfalls eine L1-Warteschlange für Benutzer als Absicherung gegen Sequenzer-Probleme bereitgestellt. In Orbit (dem L3-Framework) kann jede Orbit Chain ihren eigenen Sequenzer oder Validatoren-Set haben. Arbitrums Nitro-Technologie beinhaltet die Option, einen Rollup mit einem dezentralisierten Sequenzer zu betreiben: Im Wesentlichen könnten mehrere Parteien die Arbitrum-Node-Software betreiben und eine Leader-Wahl verwenden (möglicherweise über die Arbitrum permissionless Proof-of-Stake-Chain in der Zukunft oder einen benutzerdefinierten Mechanismus). Out-of-the-Box wurden die bisher gestarteten Orbit Chains größtenteils zentralisiert betrieben (z. B. wird die Xai-Gaming-Chain von einer Stiftung in Zusammenarbeit mit Offchain Labs betrieben) – dies ist jedoch eine Frage der Konfiguration und Governance. Eine bemerkenswerte Entwicklung ist die Einführung von BoLD (Bounded Liquidity Delay) Anfang 2025, einem neuen Protokoll, das die Validierung von Arbitrum permissionlesser machen soll. BoLD ermöglicht es jedem, ein Validator (Prover) für die Chain zu werden und Betrugsherausforderungen in einem festen Zeitrahmen ohne Whitelist zu lösen. Dies bringt Arbitrum näher an den vertrauenslosen Betrieb, obwohl die Sequenzer-Rolle (tägliche Transaktionsordnung) immer noch zugewiesen oder gewählt werden könnte. Offchain Labs hat sich auf die Förderung der Dezentralisierung in 2024-2025 für Arbitrum konzentriert. Wir sehen auch Multi-Sequenzer-Bemühungen: Zum Beispiel könnte eine Orbit Chain ein kleines Komitee bekannter Sequenzer verwenden, um eine gewisse Fehlertoleranz zu erreichen (einer fällt aus, ein anderer fährt fort). Ein weiterer Ansatz ist die Idee eines Shared Sequencers für Orbit Chains, obwohl Arbitrum dies nicht so stark betont hat wie Optimism. Stattdessen wird Interoperabilität durch L3s erreicht, die auf Arbitrum L2 abgewickelt werden und Standard-Bridges verwenden. Zusammenfassend bietet Arbitrum Orbit Flexibilität im Sequenzer-Design (von einer Entität bis zu vielen), und der Trend geht dahin, das Validatoren-/Sequenzer-Set zu öffnen, wenn die Technologie und die Community-Governance ausgereift sind. Heute kann man sagen, dass Orbit Chains zentralisiert starten, aber eine Roadmap für permissionless Validierung haben.

  • Polygon CDK: Polygon CDK Chains (manchmal Ende 2024 unter dem Oberbegriff „AggLayer“ zusammengefasst) können ebenfalls ihr Sequenzer-/Konsens-Setup wählen. Polygons zkEVM-Chain (betrieben von Polygon Labs) begann mit einem einzelnen Sequenzer und zentralisierten Prover, mit Plänen zur schrittweisen Dezentralisierung beider. Das CDK, modular aufgebaut, ermöglicht es einer Chain, ein Konsensmodul anzuschließen – zum Beispiel könnte man eine CDK Chain mit einem Proof-of-Stake-Validatoren-Set starten, das Blöcke produziert, wodurch die Sequenzierung vom ersten Tag an dezentralisiert wird. Tatsächlich wurde Polygons früheres Framework (Polygon Edge) für permissioned Unternehmens-Chains mit IBFT-Konsens verwendet; CDK Chains könnten einen hybriden Ansatz wählen (Polygons zkProver betreiben, aber ein Komitee von Nodes Blöcke vorschlagen lassen). Standardmäßig könnten viele CDK Chains aus Einfachheitsgründen mit einem einzelnen Operator betrieben werden und später einen Konsens annehmen, wenn sie skalieren. Polygon erforscht auch ein Shared Sequencer oder Aggregator-Konzept über den AggLayer-Hub, der alle Polygon Chains verbinden soll. Während AggLayer hauptsächlich Cross-Chain-Messaging und Liquidität handhabt, könnte es sich in Zukunft zu einem Shared Sequencing Service entwickeln (Polygon-Mitbegründer hat die Sequenzer-Dezentralisierung als Teil von Polygon 2.0 diskutiert). Im Allgemeinen ist Permissionlessness noch nicht vorhanden – man kann nicht spontan Sequenzer für die CDK Chain eines anderen werden, es sei denn, dieses Projekt erlaubt es. Aber Projekte wie dYdX V4 (das eine eigenständige Chain mit einer Form von dezentralem Konsens aufbaut) und andere zeigen den Appetit auf Validatoren-basierte L2s. Polygon CDK macht es technisch machbar, viele Blockproduzenten zu haben, aber die genaue Implementierung bleibt dem Chain-Deployer überlassen. Es wird erwartet, dass Polygon weitere Leitlinien oder sogar Infrastruktur für dezentralisierte Sequenzer bereitstellen wird, wenn mehr Unternehmen und Communities CDK Chains starten.

Um den Sequenzer-Vergleich zusammenzufassen: Alle Frameworks verlassen sich derzeit in ihren Live-Implementierungen auf ein relativ zentralisiertes Sequenzer-Modell, um Effizienz zu gewährleisten. Jedes bietet jedoch einen Weg zur Dezentralisierung – sei es über Shared Sequencing Networks (OP Stack), steckbaren Konsens (CDK, ZK Stack) oder permissionless Validatoren (Arbitrums BoLD). Die folgende Tabelle hebt die Sequenzer-Designs hervor:

Sequenzer-DesignOP StackZK Stack (zkSync)Arbitrum OrbitPolygon CDK
Standard-Operator-ModellEinzelner Sequenzer (projektbetrieben)Einzelner Sequenzer (Matter Labs oder projektbetrieben)Einzelner Sequenzer (projektbetrieben/Offchain Labs)Einzelner Sequenzer (projekt- oder Polygon-betrieben)
DezentralisierungsoptionenJa – kann Konsens anpassen, z. B. mehrere Sequenzer oder zukünftiges Shared SetJa – konfigurierbar; kann externen Konsens oder Prioritätswarteschlangen integrierenJa – konfigurierbar; kann Multi-Validator (AnyTrust-Komitee oder benutzerdefiniert) verwendenJa – kann PoS-Validatoren oder IBFT-Konsens integrieren (Wahl des Projekts)
Permissionless TeilnahmeGeplant: Superchain Shared Sequencer (noch nicht live). Betrugsprüfer sind permissionless auf L1 (jeder kann anfechten).Noch nicht (noch keine öffentliche Sequenzer-Auktion). Gültigkeitsnachweise benötigen keine Herausforderer. Community kann Read-Nodes betreiben, aber keine Blöcke produzieren, es sei denn, sie wird ausgewählt.Im Entstehen: BoLD ermöglicht es jedem, Betrugsbeweise zu validieren. Sequenzer wird weiterhin von der Chain gewählt (könnte in Zukunft über DAO erfolgen).Noch nicht. Sequenzer werden von Chain-Besitzern ernannt oder Validatoren sind permissioned/gestaked. Polygons Roadmap beinhaltet schließlich die Community-Validierung.
ZensurresistenzL1-Warteschlange für Benutzer gewährleistet Aufnahme. Training-Wheels-Governance kann Sequenzer-Fehlverhalten unterbinden.L1-Prioritätswarteschlange für Aufnahme. Validium-Modus benötigt Vertrauen in das DA-Komitee für Datenverfügbarkeit.L1-Posteingang gewährleistet Aufnahme, wenn der Sequenzer blockiert. DAC-Modus erfordert ≥1 ehrliches Komiteemitglied zur Datenbereitstellung.Hängt vom Konsens der Chain ab – z. B. bei Verwendung eines Validatoren-Sets, benötigt ≥2/3 ehrliche. Rollup-Modus-Fallback ist L1-Ethereum-Aufnahme.

Wie zu sehen ist, umfassen Optimism und Arbitrum On-Chain-Fallback-Warteschlangen, was ein starkes Zensurresistenz-Merkmal ist. ZK-basierte Chains verlassen sich darauf, dass ein Sequenzer den Zustand nicht fälschen kann (dank ZK-Beweisen), aber wenn er zensiert, könnte ein neuer Sequenzer von der Governance ernannt werden – ein Bereich, der noch verfeinert wird. Der Trend im Jahr 2025 ist, dass wir wahrscheinlich dezentralere Sequenzer-Pools und möglicherweise Shared Sequencer Networks online gehen sehen werden, die diese RaaS-Frameworks ergänzen. Jedes Projekt forscht aktiv daran: z. B. bauen Astria und andere allgemeine Shared Sequencing Services auf, und OP Labs, Polygon und Offchain haben alle Pläne zur Dezentralisierung der Sequenzer-Rolle erwähnt.

Gebührenmodelle und Ökonomie

Gebührenmodelle bestimmen, wer was in diesen Rollup-Frameworks zahlt und wie die wirtschaftlichen Anreize für Betreiber und das Ökosystem ausgerichtet sind. Wichtige Überlegungen sind: In welchem Token werden Gebühren gezahlt? Wer sammelt die Gebühren? Welche Kosten (L1-Posting, Proving) müssen gedeckt werden? Gibt es Umsatzbeteiligungs- oder Kickback-Vereinbarungen? Wie anpassbar sind die Gebührenparameter?

  • Gas-Token und Gebührenanpassung: Alle verglichenen Frameworks ermöglichen die Anpassung des nativen Gas-Tokens, was bedeutet, dass eine neue Chain entscheiden kann, welche Währung Benutzer für Gebühren zahlen. Standardmäßig wählen Rollups auf Ethereum oft ETH als Gas-Token zur Benutzerfreundlichkeit (Benutzer benötigen keinen neuen Token, um die Chain zu verwenden). Zum Beispiel verwendet Base (OP Stack) ETH für Gas, ebenso wie zkSync Era und Polygon zkEVM. OP Stack unterstützt technisch den Ersatz von ETH durch einen anderen ERC-20, aber im Kontext der OP Superchain gibt es einen Vorstoß, einen Standard beizubehalten (um die Interoperabilität reibungsloser zu gestalten). Tatsächlich entschieden sich einige OP Stack Chains, die ursprünglich einen benutzerdefinierten Token in Betracht zogen, für ETH – z. B. verwendet Worldcoins OP-Chain ETH für Gebühren, obwohl das Projekt seinen eigenen Token WLD hat. Andererseits wurde Arbitrum Orbit ohne Unterstützung für benutzerdefinierte Token gestartet, fügte diese aber aufgrund der Nachfrage schnell hinzu. Jetzt können Orbit Chains ARB oder jeden ERC-20 als Gas verwenden. Die Ape Chain L3 wählte APE Coin als ihre Gaswährung, was diese Flexibilität demonstriert. Polygon CDK lässt Sie ebenfalls den Token definieren; viele Projekte neigen dazu, MATIC zu verwenden, um sich an Polygons Ökosystem anzupassen (und MATIC wird unter Polygon 2.0 auf POL Token aktualisiert), aber es ist nicht erzwungen. zkSync’s ZK Stack unterstützt ebenfalls explizit benutzerdefinierte Basis-Token (die Dokumentation enthält sogar ein Tutorial „Benutzerdefinierter Basis-Token“). Dies ist nützlich für Unternehmens-Chains, die beispielsweise einen Stablecoin oder ihre eigene Coin für Gebühren wünschen. Es ist auch entscheidend für App-Chains, die ihre eigene Token-Ökonomie haben – sie können die Nachfrage nach ihrem Token steigern, indem sie ihn zum Gas-Token machen. Zusammenfassend lässt sich sagen, dass der Gebühren-Token in allen Frameworks vollständig konfigurierbar ist, obwohl die Verwendung eines weit verbreiteten Tokens wie ETH die Benutzerreibung verringern kann.

  • Gebührenerhebung und -verteilung: Im Allgemeinen erhebt der Sequenzer (Blockproduzent) Transaktionsgebühren auf L2/L3. Dies ist ein primärer Anreiz für den Betrieb eines Sequenzers. Zum Beispiel verdient Optimisms Sequenzer alle Gasgebühren, die Benutzer auf Optimism zahlen, muss dann aber für das Posten von Batches an Ethereum bezahlen. Normalerweise nimmt der Sequenzer die vom Benutzer gezahlten L2-Gebühren, zieht die L1-Kosten ab und behält den Rest als Gewinn. Auf einer gut geführten Chain sind die L1-Kosten ein Bruchteil der L2-Gebühren, was eine gewisse Gewinnspanne lässt. Für ZK-Rollups gibt es zusätzliche Kosten: die Generierung des ZK-Beweises. Dies kann erheblich sein (erfordert spezialisierte Hardware oder Cloud-Computing). Derzeit subventionieren einige ZK-Rollup-Betreiber die Proving-Kosten (Ausgabe von VC-Geldern), um die Benutzergebühren während der Wachstumsphase niedrig zu halten. Mit der Zeit werden die Proving-Kosten voraussichtlich mit besseren Algorithmen und Hardware sinken. Framework-seitig: zkSync und Polygon erlauben es dem Sequenzer, etwas mehr zu verlangen, um das Proving abzudecken – und wenn eine Chain einen externen Prover-Dienst verwendet, könnten sie eine Umsatzbeteiligung mit diesem haben. Bemerkenswert ist, dass kein Framework außer OP Superchain eine erzwungene Umsatzbeteiligung auf Protokollebene hat. Das Standard Rollup Revenue-Schema des Optimism Collective verlangt von OP Chains, entweder 2,5 % der Bruttogebühren oder 15 % des Nettogewinns (je nachdem, welcher Wert höher ist) an eine gemeinsame Kasse abzuführen. Dies ist eine freiwillige, aber erwartete Vereinbarung im Rahmen der Superchain-Charta, und keine Smart-Contract-Durchsetzung, aber alle großen OP Stack Chains (Base, opBNB, Worldcoin usw.) haben ihr zugestimmt. Diese Gebühren (bisher über 14.000 ETH) finanzieren öffentliche Güter über die Optimism-Governance. Im Gegensatz dazu erhebt Arbitrum keine Gebühren von Orbit Chains; Orbit ist permissionless zu verwenden. Die Arbitrum DAO könnte in Zukunft möglicherweise eine Umsatzbeteiligung fordern (um ihr eigenes Ökosystem zu finanzieren), aber im Jahr 2025 existiert keine. Polygon CDK erhebt ebenfalls keine Steuer; Polygons Ansatz ist es, Benutzer in sein Ökosystem zu locken (wodurch der MATIC-Wert und die Nutzung steigen), anstatt pro-Chain-Gebühren zu erheben. Polygon-Mitbegründer Sandeep Nailwal sagte explizit, dass AggLayer „keine Miete“ von Chains verlangt. zkSync hat ebenfalls keine Gebührenteilung angekündigt – Matter Labs konzentriert sich wahrscheinlich auf das Wachstum der Nutzung von zkSync Era und Hyperchains, was ihnen indirekt durch Netzwerkeffekte und möglicherweise zukünftigen Token-Wert zugutekommt.

  • L1-Abwicklungskosten: Ein großer Teil des Gebührenmodells ist, wer für L1-Transaktionen zahlt (Daten oder Beweise bereitstellen). In allen Fällen zahlen letztendlich Benutzer, aber der Mechanismus unterscheidet sich. Bei Optimistic Rollups sendet der Sequenzer periodisch Batches von Transaktionen (mit Calldata) an L1. Die Gaskosten für diese L1-Transaktionen werden vom Sequenzer mit ETH bezahlt. Sequenzer berücksichtigen dies jedoch bei der L2-Gaspreisgestaltung. Optimism und Arbitrum haben Gaspreisformeln, die schätzen, wie viel die Calldata einer Transaktion auf L1 kosten wird, und dies in die L2-Gasgebühr einbeziehen (oft als „amortisierte L1-Kosten“ pro Transaktion bezeichnet). Zum Beispiel könnte eine einfache Optimism-Transaktion 21.000 L2-Gas für die Ausführung und vielleicht ein paar hundert zusätzlich für L1-Daten verursachen – die Gebühr des Benutzers deckt beides ab. Wenn die Preisgestaltung falsch eingeschätzt wird, könnte der Sequenzer bei diesem Batch Geld verlieren oder gewinnen, wenn die Nutzung hoch ist. Sequenzer passen die Gebühren typischerweise dynamisch an die L1-Bedingungen an (erhöhen die L2-Gebühren, wenn L1-Gas teuer ist). Bei Arbitrum ist der Mechanismus ähnlich, obwohl Arbitrum separate „L1-Preisgestaltung“- und „L2-Preisgestaltung“-Komponenten hat. Bei zkSync/Polygon (ZK) muss der Sequenzer einen Gültigkeitsnachweis an L1 senden (was eine feste Gasmenge zur Verifizierung kostet) plus entweder Calldata (wenn Rollup) oder State Root (wenn Validium). Die Beweisverifizierungskosten sind normalerweise pro Batch konstant (auf zkSync Era liegen sie in der Größenordnung von einigen hunderttausend Gas), sodass das Gebührenmodell von zkSync diese Kosten auf die Transaktionen verteilt. Sie könnten einen geringen Overhead auf jede Transaktion für das Proving erheben. Bemerkenswert ist, dass zkSync Funktionen wie State Diffs und Komprimierung eingeführt hat, um die veröffentlichten L1-Daten zu minimieren. Polygon zkEVM verwendet ebenfalls rekursive Beweise, um viele Transaktionen in einem Beweis zu bündeln und die Verifizierungskosten zu amortisieren. Wenn eine Chain eine alternative DA (Celestia/Avail) verwendet, zahlt sie anstelle von Ethereum für Calldata diesen DA-Anbieter. Celestia hat zum Beispiel seinen eigenen Gas-Token (TIA), um für Daten-Blobs zu bezahlen. Eine Chain müsste also einen Teil der Gebühren umwandeln, um Celestia-Miner zu bezahlen. Frameworks abstrahieren diese Kosten zunehmend: z. B. könnte eine OP Stack Chain einen Celestia DA-Node über einen Adapter bezahlen und diese Kosten in die Benutzergebühren einbeziehen.

  • Kosten für Benutzer (Finalität und Abhebung): Für Optimistic Rollups (OP Stack, Arbitrum Orbit im Rollup-Modus) sehen sich Benutzer der berüchtigten Challenge-Periode für Abhebungen gegenüber – typischerweise 7 Tage auf Ethereum L1. Dies ist ein Usability-Nachteil, aber die meisten Ökosysteme haben Abhilfemaßnahmen. Schnelle Bridges (Liquiditätsnetzwerke) ermöglichen es Benutzern, ihre L2-Token sofort gegen L1-Token zu tauschen, gegen eine geringe Gebühr, während Arbitrageure die 7 Tage warten. Arbitrum ist für Orbit Chains noch weiter gegangen und arbeitet mit Teams zusammen, um schnelle Abhebungen in nur 15 Minuten über auf Protokollebene integrierte Liquiditätsanbieter zu ermöglichen. Dies bedeutet effektiv, dass Benutzer außer in Worst-Case-Szenarien nicht eine Woche warten müssen. ZK-Rollups haben diese Verzögerung nicht – sobald ein Gültigkeitsnachweis auf L1 akzeptiert wird, ist der Zustand final. So erhalten zkSync- und Polygon-Benutzer eine schnellere Finalität (oft Minuten bis eine Stunde), je nachdem, wie oft Beweise eingereicht werden. Der Kompromiss ist, dass das Proving eine kleine Verzögerung zwischen der Annahme einer Transaktion auf L2 und ihrer Aufnahme in einen L1-Beweis einführen kann (könnte ein paar Minuten dauern). Aber im Allgemeinen bieten ZK-Rollups im Jahr 2025 10–30-minütige Abhebungen an, was eine enorme Verbesserung gegenüber 7 Tagen darstellt. Benutzer zahlen möglicherweise eine etwas höhere Gebühr für sofortige Finalität (um die Prover-Kosten zu decken), aber viele halten es für lohnenswert. Die Gebührenanpassung ist ebenfalls erwähnenswert: Frameworks erlauben benutzerdefinierte Gebührenpläne (wie kostenlose Transaktionen oder Gas-Subventionen), wenn Projekte dies wünschen. Zum Beispiel könnte ein Unternehmen alle Benutzergebühren auf seiner Chain subventionieren, indem es den Sequenzer mit Verlust betreibt (vielleicht für ein Spiel oder eine soziale App). Oder sie könnten ein anderes Gasmodell einrichten (einige haben mit keinem Gas für bestimmte Aktionen oder alternativer Gasabrechnung gespielt). Da die meisten Frameworks auf Ethereum-Äquivalenz abzielen, sind solche tiefgreifenden Änderungen selten, aber mit Code-Modifikation möglich. Arbitrums Stylus könnte eine andere Gebührenmessung für WASM-Verträge ermöglichen (z. B. keine Gebühren für bestimmte Operationen, um die WASM-Nutzung zu fördern). Das Polygon CDK ist Open Source und modular, was bedeutet, dass ein Projekt, das einen neuartigen Gebührenmechanismus (wie Gebührenverbrennung oder dynamische Preisgestaltung) implementieren wollte, dies tun könnte.

Im Wesentlichen streben alle Rollup-Frameworks danach, wirtschaftliche Anreize auszurichten: den Betrieb eines Sequenzers profitabel zu machen (durch Gebühreneinnahmen), die Gebühren für Benutzer durch die Nutzung billigerer DA angemessen zu halten und (optional) einen Teil des Werts in ihr breiteres Ökosystem zu leiten. Optimisms Modell ist einzigartig, da es explizit Einnahmen für öffentliche Güter teilt, während andere auf Wachstum und Token-Ökonomie setzen (z. B. mehr Chains -> mehr MATIC/ETH-Nutzung, was den Wert dieser Token erhöht).

Architektur und Modularität

Alle diese Frameworks rühmen sich einer modularen Architektur, was bedeutet, dass jede Schicht des Stacks (Ausführung, Abwicklung, Konsens, DA, Beweise) austauschbar oder aufrüstbar ist. Lassen Sie uns kurz auf jede eingehen:

  • OP Stack: Als eine Reihe von Modulen aufgebaut, die den Ethereum-Schichten entsprechen – Ausführungs-Engine (OP EVM, abgeleitet von geth), Konsens-/Rollup-Node (op-node), Abwicklungs-Smart-Contracts und bald Betrugsprüfer. Das Designziel des OP Stacks war EVM-Äquivalenz (keine benutzerdefinierten Gaspläne oder Opcode-Änderungen) und einfache Integration mit Ethereum-Tools. Das Bedrock-Upgrade im Jahr 2023 modularisierte Optimisms Stack weiter, wodurch es einfacher wurde, Komponenten auszutauschen (z. B. um ZK-Beweise in Zukunft zu implementieren oder eine andere DA zu verwenden). Tatsächlich ist OP Stack nicht auf optimistische Betrugsbeweise beschränkt – das Team hat erklärt, dass es offen für die Integration von Gültigkeitsnachweisen ist, wenn diese ausgereift sind, wodurch OP Stack Chains im Wesentlichen zu ZK-Rollups werden, ohne die Entwicklererfahrung zu ändern. Das Superchain-Konzept erweitert die Architektur auf mehrere Chains: Standardisierung der Inter-Chain-Kommunikation, Bridging und möglicherweise Shared Sequencing. OP Stack wird mit einem reichhaltigen Satz von Smart Contracts auf L1 (für Einzahlungen, Abhebungen, Betrugsbeweisverifizierung usw.) geliefert, die Chains Out-of-the-Box erben. Es ist effektiv eine Plug-and-Play-L2-Chain-Vorlage – Projekte wie Base wurden durch das Forken der OP Stack-Repos und deren Konfiguration, um auf ihre eigenen Verträge zu verweisen, gestartet.

  • ZK Stack: Der ZK Stack ist das Framework, das zkSync Era und zukünftigen „Hyperchains“ zugrunde liegt. Architektonisch umfasst er die zkEVM-Ausführungsumgebung (eine LLVM-basierte VM, die das Ausführen von Solidity-Code mit minimalen Änderungen ermöglicht), das Prover-System (die Schaltkreise und Beweisgenerierung für Transaktionen), den Sequenzer-Node und die L1-Verträge (die zkSync-Smart-Contracts, die Beweise verifizieren und State Roots verwalten). Modularität zeigt sich darin, wie es den ZK-Beweisschaltkreis von der Ausführung trennt – theoretisch könnte man ein anderes Beweisschema oder sogar eine andere VM einfügen (wenn auch nicht trivial). Der ZK Stack führt die Elastic Chain Architecture mit Komponenten wie ZK Router und ZK Gateway ein. Diese fungieren als Interoperabilitätsschicht, die mehrere ZK Chains verbindet. Es ist ein bisschen wie ein „Internet der ZK-Rollups“-Konzept, bei dem der Router (auf Ethereum) ein Register von Chains führt und Shared Bridging/Liquidität erleichtert, und das Gateway Nachrichten zwischen Chains Off-Chain verarbeitet. Dies ist modular, da eine neue Chain einfach durch die Bereitstellung mit den Standardverträgen in diese Architektur integriert werden kann. ZK Stack umfasst auch Account Abstraction auf Protokollebene (Verträge als Konten, native Meta-Transaktionen), was eine architektonische Wahl zur Verbesserung der UX ist. Ein weiterer modularer Aspekt: Wie in DA besprochen, kann es im Rollup- oder Validium-Modus betrieben werden – im Wesentlichen durch Umlegen eines Schalters in der Konfiguration. Auch hat der Stack eine Vorstellung von Pluggable Consensus für die Sequenzierung (wie zuvor erwähnt). Die Abwicklungsschicht kann Ethereum oder potenziell eine andere Chain sein: zkSyncs Roadmap sah sogar vor, Hyperchains auf L2 abzuwickeln (z. B. ein L3, das Beweise an zkSync Era L2 anstatt an L1 sendet) – tatsächlich starteten sie einen Prototyp namens „ZK Portal“ für L3-Abwicklung auf L2. Dies bietet eine hierarchische Modularität (L3->L2->L1). Insgesamt ist der ZK Stack im Jahr 2025 für Nicht-Matter-Labs-Teams etwas weniger schlüsselfertig (da der Betrieb einer ZK-Chain die Koordination von Provern usw. beinhaltet), aber er ist in fähigen Händen sehr flexibel.

  • Arbitrum Orbit: Arbitrums Architektur basiert auf dem Arbitrum Nitro Stack, der die ArbOS-Ausführungsschicht (Arbitrums Interpretation von EVM mit einigen kleinen Unterschieden), den Sequenzer/Relay, die AnyTrust-Komponente für alternative DA und die Betrugsbeweis-Maschinerie (interaktive Betrugsbeweise) umfasst. Orbit ermöglicht es im Wesentlichen, denselben Stack zu verwenden, aber bestimmte Parameter zu konfigurieren (wie Chain-ID, L2-Genesis-Zustand, Wahl zwischen Rollup und AnyTrust). Modularität: Arbitrum führte Stylus ein, eine neue WASM-kompatible Smart-Contract-Engine, die neben der EVM läuft. Stylus ermöglicht das Schreiben von Verträgen in Rust, C, C++, die zu WASM kompilieren und mit nahezu nativer Geschwindigkeit auf Arbitrum Chains laufen. Dies ist ein optionales Modul – Orbit Chains können Stylus aktivieren oder nicht. Es ist ein Unterscheidungsmerkmal für Arbitrums Stack, das ihn für Hochleistungs-dApps attraktiv macht (z. B. könnten Gaming- oder Handels-Apps einige Logik in Rust für Geschwindigkeit schreiben). Das Datenverfügbarkeits-Modul ist ebenfalls steckbar, wie besprochen (Arbitrum Chains können On-Chain oder DAC wählen). Ein weiteres Modul ist die L1-Abwicklung: Orbit Chains können ihre Beweise entweder an Ethereum (L1) oder an Arbitrum One (L2) senden. Im letzteren Fall sind sie effektiv L3s, die in der Sicherheit von Arbitrum One verankert sind (mit leicht unterschiedlichen Vertrauensannahmen). Viele Orbit Chains werden als L3s gestartet (um Arbitrum Ones niedrigere Gebühren und letztendlich immer noch Ethereum-Sicherheit zu erben). Arbitrums Codebasis ist jetzt vollständig Open Source, und Projekte wie Caldera, Conduit bauen darauf auf, um benutzerfreundliche Bereitstellung zu ermöglichen – sie könnten ihre eigenen Module hinzufügen (wie Überwachung, Chain-Management-APIs). Es ist erwähnenswert, dass Arbitrums Betrugsbeweise historisch nicht permissionless waren (nur Whitelist-Validatoren konnten anfechten), aber mit BoLD ändert sich dieser Teil der Architektur, um jedem den Einstieg zu ermöglichen. Der Betrugsbeweis-Komponente wird also dezentraler (was in gewisser Weise ein modularer Upgrade ist). Man könnte sagen, Arbitrum ist weniger ein „Lego-Kit“ als OP Stack oder Polygon CDK, da Offchain Labs keinen Ein-Klick-Chain-Launcher veröffentlicht hat (obwohl sie eine Orbit-Bereitstellungs-GUI auf GitHub veröffentlichten). Aber funktional ist es modular genug, dass Dritte die Bereitstellung dafür automatisiert haben.

  • Polygon CDK (AggLayer): Polygon CDK wird explizit als „modulares Framework“ für ZK-gestützte Chains beschrieben. Es nutzt Polygons ZK-Proving-Technologie (von Polygon zkEVM, das auf Plonky2 und rekursiven SNARKs basiert). Die Architektur trennt die Ausführungsschicht (die eine EVM ist – speziell ein Fork von Geth, angepasst für zkEVM) von der Prover-Schicht und den Bridge-/Abwicklungsverträgen. Da es modular ist, kann ein Entwickler verschiedene Optionen für jede wählen: z. B. Ausführung – vorerst vermutlich immer EVM (um bestehende Tools zu nutzen), DA – wie besprochen (Ethereum oder andere), Sequenzer-Konsens – Einzel- vs. Multi-Node, Prover – man kann den Prover Typ1 (Gültigkeitsnachweise an Ethereum gesendet) oder Typ2 (Validium-Nachweise) usw. betreiben, und AggLayer-Integration – ja oder nein (AggLayer für Interoperabilität). Polygon stellte sogar eine elegante Oberfläche (unten gezeigt) zur Visualisierung dieser Auswahlmöglichkeiten bereit:

Polygons CDK-Konfigurationsoberfläche, die modulare Auswahlmöglichkeiten veranschaulicht – z. B. Rollups vs. Validium (Skalierungslösung), dezentraler vs. zentralisierter Sequenzer, lokale/Ethereum/Drittanbieter-DA, verschiedene Prover-Typen und ob die AggLayer-Interoperabilität aktiviert werden soll.

Unter der Haube verwendet Polygon CDK zk-Beweise mit Rekursion, um einen hohen Durchsatz und ein dynamisches Validatoren-Set zu ermöglichen. Der AggLayer ist ein aufkommender Teil der Architektur, der Chains für vertrauensloses Messaging und Shared Liquidity verbinden wird. Das CDK ist so aufgebaut, dass zukünftige Verbesserungen in Polygons ZK-Technologie (wie schnellere Beweise oder neue VM-Funktionen) von allen CDK Chains über Upgrades übernommen werden können. Polygon hat ein Konzept von „Typ 1 vs. Typ 2“ zkEVM – Typ 1 ist vollständig Ethereum-äquivalent, Typ 2 ist fast äquivalent mit geringfügigen Änderungen für Effizienz. Eine CDK Chain könnte eine leicht modifizierte EVM für mehr Geschwindigkeit wählen (wobei ein Teil der Äquivalenz geopfert wird) – dies ist eine architektonische Option, die Projekte haben. Insgesamt ist CDK sehr Lego-ähnlich: Man kann eine Chain zusammenstellen, indem man Komponenten wählt, die für ihren Anwendungsfall geeignet sind (z. B. könnte ein Unternehmen Validium + permissioned Sequenzer + private Tx-Sichtbarkeit wählen; eine öffentliche DeFi-Chain könnte Rollup + dezentralisierten Sequenzer + AggLayer für Liquidität aktivieren). Diese Vielseitigkeit hat viele Projekte dazu bewogen, CDK für den Start ihrer eigenen Netzwerke in Betracht zu ziehen.

  • Bilder und Diagramme: Die Frameworks stellen oft visuelle Diagramme ihrer modularen Architektur bereit. Zum Beispiel zeigt die Benutzeroberfläche von zkSync Schalter für Rollup/Validium, L2/L3, zentralisiert/dezentralisiert usw., was die Flexibilität des ZK Stacks hervorhebt:

Ein Beispiel für die Konfiguration einer zkSync „Hyperchain“. Die ZK Stack-Oberfläche ermöglicht die Auswahl des Chain-Modus (Rollup vs. Validium vs. Volition), der Schicht (L2 oder L3), der Transaktionssequenzierung (dezentralisiert, zentralisiert oder geteilt), der Datenverfügbarkeitsquelle (Ethereum, Drittanbieter-Netzwerk oder benutzerdefiniert), der Datensichtbarkeit (öffentliche oder private Chain) und des Gas-Tokens (ETH, benutzerdefiniert oder gaslos). Dieser modulare Ansatz wurde entwickelt, um eine Vielzahl von Anwendungsfällen zu unterstützen, von öffentlichen DeFi-Chains bis hin zu privaten Unternehmens-Chains.

Zusammenfassend lässt sich sagen, dass all diese Stacks hochmodular und aufrüstbar sind, was angesichts des Tempos der Blockchain-Innovation unerlässlich ist. Sie konvergieren in gewisser Weise: OP Stack fügt Gültigkeitsnachweise hinzu, Polygon fügt Shared Sequencing hinzu (OP Stack-Ideen), Arbitrum fügt interoperable L3s hinzu (wie andere), zkSync verfolgt L3s (wie Orbit und OP Stack). Diese gegenseitige Befruchtung bedeutet, dass modulare Frameworks im Jahr 2025 in ihrer Philosophie ähnlicher als unterschiedlich sind – jedes möchte das One-Stop-Toolkit sein, um skalierbare Chains zu starten, ohne das Rad neu zu erfinden.

Entwicklererfahrung und Tools

Ein entscheidender Faktor für die Akzeptanz ist, wie einfach und entwicklerfreundlich diese Frameworks sind. Dazu gehören Dokumentation, SDKs/APIs, CLIs für die Bereitstellung, Überwachungstools und die Lernkurve für Entwickler:

  • OP Stack – Entwicklererfahrung: Optimism’s OP Stack profitiert davon, EVM-äquivalent zu sein, sodass Ethereum-Entwickler vertraute Tools (Remix, Hardhat, Truffle, Solidity, Vyper) ohne Änderungen verwenden können. Smart Contracts, die auf einer OP-Chain bereitgestellt werden, verhalten sich genau wie auf L1. Dies senkt die Lernkurve drastisch. Optimism bietet eine umfassende Dokumentation: Die offiziellen Optimism-Dokumente enthalten Abschnitte zum OP Stack, zum Betrieb eines L2-Nodes und sogar ein „OP Stack from scratch“-Tutorial. Es gibt auch von der Community verfasste Anleitungen (zum Beispiel QuickNodes Schritt-für-Schritt-Anleitung zur Bereitstellung eines Optimism L2 Rollups). In Bezug auf Tools hat OP Labs den op-node-Client (für den Rollup-Node) und op-geth (Ausführungs-Engine) veröffentlicht. Um eine Chain zu starten, muss ein Entwickler diese typischerweise konfigurieren und die L1-Verträge (Standard Bridge usw.) bereitstellen. Dies war nicht trivial, wird aber mit Anbieterdiensten einfacher. Deployment-as-a-Service: Unternehmen wie Caldera, Conduit und Infura/Alchemy bieten verwaltete OP Stack Rollup-Bereitstellungen an, die einen Großteil der DevOps abstrahieren. Für die Überwachung können, da eine OP Stack Chain im Wesentlichen eine geth-Chain plus ein Rollup-Koordinator ist, Standard-Ethereum-Überwachungstools (ETH-Metrik-Dashboards, Block-Explorer wie Etherscan/Blockscout) verwendet werden. Tatsächlich unterstützt Etherscan OP Stack Chains wie Optimism und Base und bietet vertraute Block-Explorer-Oberflächen. Entwickler-Tools speziell für OP Chains umfassen das Optimism SDK für Bridging (Erleichterung von Einzahlungen/Abhebungen in Apps) und Bedrocks Integration mit Ethereum JSON-RPC (sodass Tools wie MetaMask einfach durch Netzwerkwechsel funktionieren). Der OP Stack-Code ist MIT-lizenziert und lädt Entwickler zum Forken und Experimentieren ein. Viele taten dies – z. B. nutzte das Team von BNB Chain den OP Stack, um opBNB mit eigenen Änderungen an Konsens und Gas-Token zu erstellen (sie verwenden BNB-Gas auf opBNB). Die Einhaltung der Ethereum-Standards durch den OP Stack macht die Entwicklererfahrung wohl zur reibungslosesten unter diesen: im Wesentlichen „Ethereum, aber billiger“ aus Sicht eines Vertragsentwicklers. Die wichtigsten neuen Fähigkeiten, die benötigt werden, betreffen den Betrieb der Infrastruktur (für diejenigen, die eine Chain starten) und das Verständnis der Nuancen des Cross-Chain-Bridgings. Optimisms Community und Support (Discord, Foren) sind aktiv, um neuen Chain-Teams zu helfen. Darüber hinaus hat Optimism Ökosystem-Tools wie Magi (einen alternativen Rust-Rollup-Client) finanziert, um den Stack zu diversifizieren und ihn für Entwickler robuster zu machen.

  • zkSync ZK Stack – Entwicklererfahrung: Auf der Seite der Vertragsentwicklung bietet zkSync’s ZK Stack eine zkEVM, die eine hohe Kompatibilität aufweisen soll, aber derzeit nicht zu 100 % Bytecode-äquivalent ist. Sie unterstützt Solidity- und Vyper-Verträge, es gibt jedoch subtile Unterschiede (z. B. bestimmte Precompiles oder Gaskosten). Dennoch hat Matter Labs einen LLVM-Compiler entwickelt, der Solidity nimmt und zkEVM-Bytecode erzeugt, sodass die meisten Solidity-Codes mit geringfügigen oder keinen Änderungen funktionieren. Sie unterstützen auch nativ Account Abstraction, die Entwickler nutzen können, um gaslose Transaktionen, Multi-Sig-Wallets usw. einfacher zu erstellen als auf Ethereum (keine Notwendigkeit für ERC-4337). Die Entwicklerdokumentation für zkSync ist umfassend (docs.zksync.io) und behandelt die Bereitstellung von Verträgen, die Verwendung der Hyperchain CLI (falls vorhanden) und die Konfiguration einer Chain. Der Betrieb eines ZK-Rollups ist jedoch von Natur aus komplexer als der eines optimistischen Rollups – man benötigt ein Proving-Setup. Der ZK Stack stellt die Prover-Software bereit (z. B. die GPU-Prover für zkSyncs Schaltkreise), aber ein Chain-Operator muss Zugang zu ernsthafter Hardware oder Cloud-Diensten haben, um kontinuierlich Beweise zu generieren. Dies ist eine neue DevOps-Herausforderung; um sie zu mildern, entstehen einige Unternehmen, die Prover-Dienste oder sogar Proof-as-a-Service anbieten. Wenn ein Entwickler seine eigenen Prover nicht betreiben möchte, kann er dies möglicherweise auslagern (mit Vertrauens- oder kryptoökonomischen Zusicherungen). Tools: zkSync bietet standardmäßig ein Bridge- und Wallet-Portal (das zkSync Portal), das für eine neue Chain geforkt werden kann, um Benutzern eine Benutzeroberfläche zum Verschieben von Assets und Anzeigen von Konten zu bieten. Für die Block-Exploration wurde Blockscout an zkSync angepasst, und Matter Labs hat einen eigenen Block-Explorer für zkSync Era entwickelt, der wahrscheinlich für neue Chains verwendet werden könnte. Die Existenz des ZK Gateway und Routers bedeutet, dass ein Entwickler, wenn er sich daran anschließt, Out-of-the-Box-Interoperabilität mit anderen Chains erhält – aber er muss die Standards von Matter Labs befolgen. Insgesamt ist das Bauen auf zkSync für einen Smart-Contract-Entwickler nicht allzu schwierig (nur Solidity, mit vielleicht geringfügigen Unterschieden wie gasleft() könnte sich aufgrund des Fehlens tatsächlicher Ethereum-Gaskosten leicht anders verhalten). Aber für einen Chain-Operator hat der ZK Stack eine steilere Lernkurve als OP Stack oder Orbit. Im Jahr 2025 konzentriert sich Matter Labs auf die Verbesserung dessen – zum Beispiel die Vereinfachung des Startprozesses einer Hyperchain, möglicherweise die Bereitstellung von Skripten oder Cloud-Images, um den gesamten Stack hochzufahren. Es gibt auch eine aufstrebende Community von Entwicklern rund um den ZK Stack; z. B. ist die ZKSync Community Edition eine Initiative, bei der Community-Mitglieder Test-L3-Chains betreiben und Tipps austauschen. Wir sollten beachten, dass die Sprachunterstützung für zkSyncs Ökosystem erweitert werden könnte – sie haben über die Zulassung anderer Sprachen über die LLVM-Pipeline gesprochen (z. B. einen Rust-zu-zkEVM-Compiler in der Zukunft), aber Solidity ist derzeit die Hauptsprache. Zusammenfassend lässt sich sagen, dass die Entwicklererfahrung von zkSync: großartig für DApp-Entwickler (nahezu Ethereum-ähnlich), moderat für Chain-Launcher (müssen Prover und neue Konzepte wie Validiums handhaben).

  • Arbitrum Orbit – Entwicklererfahrung: Für Solidity-Entwickler ist Arbitrum Orbit (und Arbitrum One) auf Bytecode-Ebene vollständig EVM-kompatibel (Arbitrum Nitro verwendet eine von geth abgeleitete Ausführung). Daher ist die Bereitstellung und Interaktion mit Verträgen auf einer Arbitrum-Chain genau wie auf Ethereum (mit einigen kleinen Unterschieden wie leicht unterschiedlichem L1-Blocknummerzugriff, ChainID usw., aber nichts Großes). Wo Arbitrum herausragt, ist Stylus – Entwickler können Smart Contracts in Sprachen wie Rust, C, C++ (kompiliert zu WebAssembly) schreiben und diese neben EVM-Verträgen bereitstellen. Dies öffnet die Blockchain-Entwicklung einem breiteren Pool von Programmierern und ermöglicht Hochleistungs-Anwendungsfälle. Zum Beispiel könnte eine algorithmisch intensive Logik für Geschwindigkeit in C geschrieben werden. Stylus befindet sich noch in der Beta-Phase auf Arbitrum Mainnet, aber Orbit Chains können damit experimentieren. Dies ist ein einzigartiger Vorteil für die Entwicklererfahrung, obwohl diejenigen, die Stylus verwenden, neue Tools lernen müssen (z. B. Rust-Toolchains und Arbitrums Bibliotheken für die Schnittstelle von WASM mit der Chain). Die Arbitrum-Dokumentation bietet Anleitungen zur Verwendung von Stylus und sogar zum Schreiben von Rust-Smart-Contracts. Für den Start einer Orbit Chain hat Offchain Labs Devnet-Skripte und eine Orbit-Bereitstellungs-UI bereitgestellt. Der Prozess ist etwas technisch: Man muss einen Arbitrum-Node mit --l3-Flags einrichten (wenn man einen L3 startet) und die Genesis, Chain-Parameter usw. konfigurieren. QuickNode und andere haben Anleitungen veröffentlicht („How to deploy your own Arbitrum Orbit chain“). Darüber hinaus bedeuten Orbit-Partnerschaften mit Caldera, AltLayer und Conduit, dass diese Drittanbieter einen Großteil der schweren Arbeit übernehmen. Ein Entwickler kann im Wesentlichen ein Formular ausfüllen oder einen Assistenten mit diesen Diensten ausführen, um eine angepasste Arbitrum-Chain zu erhalten, anstatt den Nitro-Code manuell zu ändern. In Bezug auf Debugging und Überwachung können Arbitrum Chains Arbiscan (für diejenigen, die es haben) oder Community-Explorer verwenden. Es gibt auch Grafana/Prometheus-Integrationen für Node-Metriken. Eine Komplexität ist das Betrugsbeweis-System – Entwickler, die eine Orbit Chain starten, sollten sicherstellen, dass es Validatoren gibt (vielleicht sie selbst oder vertrauenswürdige andere), die die Off-Chain-Validatoren-Software ausführen, um nach Betrug zu suchen. Offchain Labs stellt wahrscheinlich Standard-Skripte für den Betrieb solcher Validatoren bereit. Da Betrugsbeweise jedoch selten ausgelöst werden, geht es mehr darum, den Sicherheitsprozess zu etablieren. Arbitrums große Entwickler-Community (Projekte, die auf Arbitrum One aufbauen) ist ein Vorteil – Ressourcen wie Tutorials, StackExchange-Antworten usw. gelten oft auch für Orbit. Arbitrum ist auch bekannt für seine starken Entwickler-Bildungsbemühungen (Workshops, Hackathons), die sich vermutlich auf diejenigen erstrecken, die an Orbit interessiert sind.

  • Polygon CDK – Entwicklererfahrung: Polygon CDK ist neuer (Mitte/Ende 2023 angekündigt), baut aber auf bekannten Komponenten auf. Für Entwickler, die Verträge schreiben, verwenden Polygon CDK Chains eine zkEVM, die der EVM von Ethereum entsprechen soll (Polygons Typ 2 zkEVM ist nahezu identisch mit einigen Randfällen). Daher sind Solidity und Vyper die bevorzugten Sprachen, mit voller Unterstützung für Standard-Ethereum-Entwicklungstools. Wenn Sie auf Polygon zkEVM oder Ethereum bereitgestellt haben, können Sie auf einer CDK Chain ähnlich bereitstellen. Die Herausforderung liegt eher auf der Seite der Chain-Operationen. Polygons CDK ist Open Source auf GitHub und wird mit Dokumentation zur Konfiguration einer Chain geliefert. Es bietet wahrscheinlich ein Befehlszeilentool zum Gerüstbau einer neuen Chain (ähnlich wie man Cosmos SDKs starport oder Substrates Node-Vorlage verwenden könnte). Polygon Labs hat investiert, um die Einrichtung so einfach wie möglich zu gestalten – ein Zitat: „Starten Sie einen hochdurchsatzfähigen ZK-gestützten Ethereum L2 so einfach wie die Bereitstellung eines Smart Contracts“. Obwohl vielleicht optimistisch, deutet dies darauf hin, dass Tools oder Skripte existieren, um die Bereitstellung zu vereinfachen. Tatsächlich gab es frühe Anwender wie Immutable (für Gaming) und OKX (Exchange Chain), die mit Polygon zusammengearbeitet haben, um CDK Chains zu starten, was auf einen ziemlich reibungslosen Prozess mit der Unterstützung des Polygon-Teams hindeutet. Das CDK enthält SDKs und Bibliotheken zur Interaktion mit der Bridge (für Einzahlungen/Abhebungen) und zur Aktivierung von AggLayer, falls gewünscht. Die Überwachung einer CDK Chain kann Polygons Block-Explorer (Polygonscan) nutzen, wenn sie ihn integrieren, oder Blockscout. Polygon ist auch bekannt für robuste SDKs für Gaming und Mobile (z. B. Unity SDKs) – diese können auf jeder Polygon-basierten Chain verwendet werden. Entwicklerunterstützung ist ein großer Schwerpunkt: Polygon veranstaltet regelmäßig Akademien, Stipendien, Hackathons, und ihr Developer Relations-Team hilft Projekten persönlich. Ein Beispiel für die Entwicklererfahrung im Unternehmen: Libre, eine mit CDK gestartete institutionelle Chain, hatte vermutlich benutzerdefinierte Anforderungen – Polygon konnte Dinge wie Identitätsmodule oder Compliance-Funktionen auf dieser Chain unterbringen. Dies zeigt, dass das CDK für spezifische Anwendungsfälle von Entwicklern mit Hilfe des Frameworks erweitert werden kann. Was Lernmaterialien angeht, so bieten Polygons Dokumentationsseite und Blog Anleitungen zur CDK-Nutzung, und da CDK im Wesentlichen die Evolution ihres zkEVM ist, können diejenigen, die mit dem Design von Polygons zkEVM vertraut sind, es schnell aufnehmen. Ein weiterer Tooling-Aspekt: Cross-Chain-Tools – da viele Polygon CDK Chains koexistieren werden, bietet Polygon den AggLayer für Messaging, fördert aber auch die Verwendung von Standard-Cross-Chain-Messaging wie LayerZero (tatsächlich integrierte Raribles Orbit Chain LayerZero für NFT-Transfers, und Polygon Chains können dies auch). So haben Entwickler Optionen, Interoperabilitäts-Plugins einfach zu integrieren. Alles in allem zielt die CDK-Entwicklererfahrung darauf ab, schlüsselfertig zu sein, um Ethereum-Level-Chains mit ZK-Sicherheit zu starten, und profitiert von Polygons jahrelanger L2-Erfahrung.

Zusammenfassend lässt sich sagen, dass sich die Entwicklererfahrung für den Start benutzerdefinierter Chains dramatisch verbessert hat: Was einst ein ganzes Team von Protokoll-Ingenieuren erforderte, kann jetzt mit geführten Frameworks und Unterstützung erledigt werden. Optimisms und Arbitrums Angebote nutzen die Vertrautheit (EVM-Äquivalenz), zkSync und Polygon bieten modernste Technologie mit zunehmender Benutzerfreundlichkeit, und alle haben wachsende Ökosysteme von Drittanbieter-Tools, um die Entwicklung zu vereinfachen (von Block-Explorern über Überwachungs-Dashboards bis hin zu DevOps-Skripten). Die Qualität der Dokumentation ist im Allgemeinen hoch – offizielle Dokumente sowie Community-Anleitungen (Medium-Artikel, QuickNode-/Alchemy-Anleitungen) decken viel ab. Es gibt immer noch eine nicht-triviale Lernkurve, um vom Smart-Contract-Entwickler zum „Rollup-Operator“ zu werden, aber es wird einfacher, da Best Practices entstehen und die Community der Rollup-Builder wächst.

Ökosystem-Unterstützung und Markteinführungsstrategien

Eine Technologie zu entwickeln ist eine Sache; ein Ökosystem aufzubauen eine andere. Jedes dieser Frameworks wird von einer Organisation oder Community unterstützt, die durch Zuschüsse, Finanzierung, Marketing und Partnerschaftsunterstützung in Wachstum investiert. Hier vergleichen wir ihre Ökosystem-Unterstützungsstrategien – wie sie Entwickler und Projekte anziehen und wie sie diesen Projekten zum Erfolg verhelfen:

  • OP Stack (Optimism) Ökosystem: Optimism hat eine robuste Ökosystemstrategie, die sich auf sein Optimism Collective und das Ethos der Finanzierung öffentlicher Güter konzentriert. Sie waren Pioniere der Retroaktiven Finanzierung öffentlicher Güter (RPGF) – die Verwendung des OP-Token-Schatzes, um Entwickler und Projekte zu belohnen, die dem Ökosystem zugutekommen. Durch mehrere RPGF-Runden hat Optimism Millionen an Finanzmitteln an Infrastrukturprojekte, Entwickler-Tools und Anwendungen auf Optimism verteilt. Jedes Projekt, das mit OP Stack baut (insbesondere wenn es mit der Superchain-Vision übereinstimmt), ist berechtigt, Zuschüsse vom Collective zu beantragen. Darüber hinaus kann die Optimism-Governance Anreizprogramme genehmigen (bereits 2022 gab es einen Airdrop und einen Governance-Fonds, den Projekte nutzen konnten, um OP-Belohnungen an Benutzer zu verteilen). Im Jahr 2024 etablierte Optimism das Superchain Revenue Sharing-Modell, bei dem jede OP Chain einen kleinen Teil der Gebühren an eine gemeinsame Kasse abführt. Dies erzeugt einen Kreislauf: Je mehr Chains (wie Base, opBNB, Worldcoins Chain usw.) genutzt werden, desto mehr öffentliche Güter finanzieren sie gemeinsam, die den OP Stack verbessern, was wiederum mehr Chains anzieht. Es ist ein Positive-Sum-Ansatz, der einzigartig für Optimism ist. Auf der Markteinführungsseite hat Optimism aktiv Partnerschaften mit großen Unternehmen geschlossen: Die Gewinnung von Coinbase zum Aufbau von Base war eine enorme Validierung des OP Stacks, und Optimism Labs bot Coinbase während dieses Prozesses technische Hilfe und Unterstützung. Ähnlich haben sie mit dem Team von Worldcoin zusammengearbeitet, und Celos Migration zu einem OP Stack L2 erfolgte in Absprache mit OP Labs. Optimism betreibt viel Entwickler-Outreach – von der Durchführung von Hackathons (oft in Kombination mit ETHGlobal-Events) bis zur Pflege eines Developer Hubs mit Tutorials. Sie investieren auch in Tools: z. B. die Finanzierung von Teams zum Aufbau alternativer Clients, Überwachungstools und die Bereitstellung eines offiziellen Faucets und einer Block-Explorer-Integration für neue Chains. Marketingtechnisch prägte Optimism den Begriff „Superchain“ und fördert aktiv die Vision vieler Chains, die sich unter einem interoperablen Dach vereinen, was Projekte angezogen hat, die Teil einer breiteren Erzählung sein wollen, anstatt einer isolierten Appchain. Es gibt auch den Reiz der Shared Liquidity: Mit dem bevorstehenden OPCraft (Superchain-Interoperabilität) können Apps auf einer OP Chain problemlos mit einer anderen interagieren, was es attraktiv macht, eine Chain zu starten, die keine Insel ist. Im Wesentlichen geht es bei OP Stacks Ökosystem-Spiel um Community und Zusammenarbeit – treten Sie der Superchain bei, erhalten Sie Zugang zu einem Pool von Benutzern (über einfaches Bridging), Finanzierung und kollektivem Branding. Sie haben sogar ein „Rollup Passport“-Konzept erstellt, bei dem Benutzer eine einheitliche Identität über OP Chains hinweg haben können. All diese Bemühungen senken die Hürde für neue Chains, Benutzer und Entwickler zu finden. Schließlich bedeutet Optimisms eigene Benutzerbasis und Reputation (als einer der Top-L2s), dass jede OP Stack Chain davon profitieren kann (Base tat dies, indem es sich beispielsweise als Teil des Optimism-Ökosystems bewarb).

  • zkSync (ZK Stack/Hyperchains) Ökosystem: Matter Labs (das Team hinter zkSync) sicherte sich große Finanzierungsrunden (über 200 Millionen US-Dollar), um sein Ökosystem zu befeuern. Sie haben Fonds wie den zkSync Ecosystem Fund eingerichtet, oft in Zusammenarbeit mit VCs, um in Projekte zu investieren, die auf zkSync Era aufbauen. Speziell für den ZK Stack haben sie begonnen, das Konzept der Hyperchains in Communities zu fördern, die ihre eigene Chain benötigen. Eine Strategie ist die Ausrichtung auf bestimmte Vertikalen: zum Beispiel Gaming. zkSync hat hervorgehoben, wie ein Spielestudio seine eigene Hyperchain starten könnte, um Anpassbarkeit zu erhalten und dennoch mit Ethereum verbunden zu sein. Sie bieten wahrscheinlich den ersten Partnern enge Unterstützung (ähnlich wie Polygon bei einigen Unternehmen). Die Erwähnung in dem Zeeve-Artikel über eine „Schweizer Bank; die größte Bank der Welt“, die an ZK Stack interessiert ist, deutet darauf hin, dass Matter Labs Unternehmensanwendungsfälle umwirbt, die Privatsphäre benötigen (ZK-Beweise können Korrektheit gewährleisten, während einige Daten privat bleiben, ein großer Vorteil für Institutionen). Wenn zkSync eine große Unternehmens-Chain landet, würde dies ihre Glaubwürdigkeit stärken. Die Entwicklerunterstützung auf zkSync ist recht stark: Sie betreiben Acceleratoren (z. B. wurde ein Programm mit dem Blockchain Founders Fund angekündigt), Hackathons (oft ZK-thematische) und haben eine aktive Community auf ihrem Discord, die technische Hilfe leistet. Obwohl zkSync (Stand 2025) keinen Live-Token für Governance oder Anreize hat, gibt es Spekulationen über einen solchen, und Projekte könnten zukünftige Anreizprogramme erwarten. Matter Labs hat auch an der Bridge-Unterstützung gearbeitet: Sie haben sich mit großen Bridges wie Across, LayerZero, Wormhole zusammengetan, um sicherzustellen, dass Assets und Nachrichten problemlos zu und von zkSync und allen Hyperchains bewegt werden können. Tatsächlich integrierte Across Protocol den ZK Stack von zkSync und rühmte sich der Unterstützung über „alle wichtigen L2-Frameworks“ hinweg. Dieser Fokus auf Interoperabilität bedeutet, dass ein Projekt, das eine Hyperchain startet, problemlos mit dem Ethereum-Mainnet und anderen L2s verbunden werden kann, was entscheidend ist, um Benutzer anzuziehen (niemand möchte isoliert sein). Marketingtechnisch bewirbt zkSync den Slogan „Web3 ohne Kompromisse“ und betont, als Erster im ZK-Mainnet zu sein. Sie veröffentlichen Roadmaps (ihr Roadmap-Blog 2025), um die Begeisterung hochzuhalten. Wenn wir Ökosystemfonds betrachten: Neben direkten Matter Labs-Zuschüssen gibt es auch die Ethereum Foundation und andere ZK-fokussierte Fonds, die die zkSync-Entwicklung aufgrund der allgemeinen Bedeutung der ZK-Technologie bevorzugen. Eine weitere Strategie: zkSync ist Open Source und neutral (keine Lizenzgebühren), was Projekte anspricht, die möglicherweise davor zurückschrecken, sich an ein stärker zentralisiertes Ökosystem anzupassen. Der ZK Stack versucht, sich als die Wahl der Dezentralisierer zu positionieren – z. B. durch Hervorhebung vollständiger Dezentralisierung und ohne Stützräder, während OP Stack und andere in der Praxis immer noch eine gewisse Zentralisierung aufweisen. Die Zeit wird zeigen, ob das ankommt, aber sicherlich hat zkSync innerhalb der Ethereum-Community Unterstützer, die einen vollständig vertrauenslosen Stack wünschen. Schließlich haben Matter Labs und BitDAOs Windranger eine gemeinsame Initiative namens „ZK DAO“, die Kapital oder Anreize für die ZK Stack-Adoption bereitstellen könnte. Insgesamt sind zkSyncs Ökosystembemühungen eine Mischung aus technisch überlegener Botschaft (ZK ist die Zukunft) und dem Aufbau praktischer Brücken (sowohl im übertragenen als auch im wörtlichen Sinne) für Projekte, die an Bord kommen möchten.

  • Arbitrum Orbit Ökosystem: Arbitrum Orbit erlebte nach seiner formellen Einführung Mitte 2023 einen Anstieg des Interesses. Ende 2023 wurden rund 18 Orbit Chains öffentlich bekannt gegeben, und Offchain Labs gab an, dass über 50 in Arbeit seien – was auf erhebliches Interesse hindeutet. Um dies zu fördern, verfolgte Offchain Labs einige Strategien. Erstens, Partnerschaften mit RaaS-Anbietern: Sie erkannten, dass nicht jedes Team die Rollup-Infrastruktur handhaben kann, und beauftragten daher Caldera, Conduit und AltLayer, um sie zu optimieren. Diese Partner haben oft ihre eigenen Förder- oder Anreizprogramme (manchmal von Arbitrum mitgesponsert), um Projekte anzulocken. Zum Beispiel könnte es einen Arbitrum x AltLayer-Zuschuss für Gaming-Chains geben. Zweitens bietet Offchain Labs direkte technische Unterstützung und Co-Entwicklung für Schlüsselprojekte. Der Fall der Xai Chain ist bezeichnend: Es handelt sich um einen Gaming-L3, bei dem Offchain Labs die Chain mitentwickelt und fortlaufende technische und sogar Marketingunterstützung bietet. Sie haben Xai im Grunde inkubiert, um das Potenzial von Orbit im Gaming zu demonstrieren. Ähnlich wurde Raribles RARI NFT Chain mit vielen Partnern (Gelato für Gasless, LayerZero für Cross-Chain-NFTs usw.) integriert, vermutlich unter Arbitrums Anleitung. Offchain Labs nutzt manchmal auch seine Kriegskasse (Arbitrum DAO verfügt über einen riesigen Schatz an ARB-Token), um Initiativen zu finanzieren. Obwohl die Arbitrum DAO getrennt ist, kann Offchain Labs mit ihr in Ökosystemfragen koordinieren. Wenn beispielsweise eine Orbit Chain den ARB-Token stark nutzt oder Arbitrum zugutekommt, könnte die DAO Zuschüsse beschließen. Ein direkterer Ansatz: Offchain Labs startete Arbitrum Orbit Challenge-Hackathons und Preise, um Entwickler zu ermutigen, L3s zu erstellen. Zum Marketing: Arbitrums Marke ist entwicklerorientiert, und sie bewerben Orbits Vorteile wie Stylus (schnelle, mehrsprachige Verträge) und keine 7-tägige Abhebung (mit schneller Bridging). Sie heben auch erfolgreiche Beispiele hervor: z. B. kündigte Treasure DAOs Bridgeworld eine Orbit Chain an usw. Ein weiterer Unterstützungsaspekt: Liquidität und DeFi-Integration. Arbitrum arbeitet mit Protokollen zusammen, damit Sie, wenn Sie eine Orbit Chain starten, problemlos Liquidität von Arbitrum One nutzen können (über native Bridging oder LayerZero). Je einfacher es ist, Assets und Benutzer auf Ihre neue Chain zu bringen, desto wahrscheinlicher ist Ihr Erfolg. Arbitrum hat eine sehr große, aktive Community (auf Reddit, Discord usw.), und durch die Erweiterung auf Orbit können neue Chains bestehende Arbitrum-Benutzer ansprechen (zum Beispiel könnte ein Arbitrum-Benutzer einen Airdrop auf einer neuen Orbit Chain erhalten, um sie auszuprobieren). Zusammenfassend lässt sich sagen, dass Arbitrums Ökosystemstrategie für Orbit darin besteht, ihre L2-Dominanz zu nutzen – wenn Sie einen L3 bauen, sind Sie effektiv eine Erweiterung des größten L2, sodass Sie an diesem Netzwerkeffekt teilhaben können. Offchain Labs beseitigt aktiv Hürden (technische und Liquiditätshürden) und hilft sogar direkt beim Aufbau einiger früher L3s, um Präzedenzfälle für andere zu schaffen.

  • Polygon CDK (AggLayer) Ökosystem: Polygon war einer der aggressivsten in der Ökosystem- und Geschäftsentwicklung. Sie verfolgen einen mehrstufigen Ansatz:

    • Zuschüsse und Fonds: Polygon hat vor einiger Zeit einen 100-Millionen-Dollar-Ökosystemfonds eingerichtet und in Hunderte von Projekten investiert. Sie hatten auch spezifische vertikale Fonds (z. B. Polygon Gaming Fund, Polygon DeFi Fund). Für CDK Chains kündigte Polygon Anreize an, wie die Übernahme eines Teils der Kosten für den Betrieb einer Chain oder die Bereitstellung von Liquiditätsunterstützung. Die CoinLaw-Statistiken erwähnen „Mehr als 190 dApps nutzen Polygon CDK, um ihre eigenen Chains aufzubauen“ – was impliziert, dass Polygon eine riesige Pipeline von Projekten erhalten hat (wahrscheinlich viele noch in Entwicklung). Sie haben diesen Teams wahrscheinlich Zuschüsse oder Ressourcen-Sharing angeboten.
    • Onboarding von Unternehmen und Institutionen: Polygons BizDev-Team hat große Unternehmen (Starbucks, Reddit, Nike, Disney für NFTs auf Polygon POS) an Bord geholt. Jetzt mit CDK werben sie bei Unternehmen, dedizierte Chains zu starten. Z. B. Immutable (Gaming-Plattform), die sich mit CDK zusammenschließt, um Spielestudios die Möglichkeit zu geben, ihre eigenen ZK-Rollups zu starten, die mit Immutable und Polygon-Liquidität verbunden sind, Franklin Templeton startet einen Fonds auf Polygon und Walmarts Test einer Lieferkette auf einer privaten Polygon-Chain. Polygon bietet diesen Partnern erstklassigen Support: technische Beratung, Entwicklung kundenspezifischer Funktionen (Datenschutz, Compliance) und Co-Marketing. Die Einführung von Libre (von JP Morgan/Siemens), das auf Polygon CDK basiert, zeigt, wie sie Finanzinstitutionen mit speziellen Bedürfnissen bedienen.
    • Markteinführung und Interoperabilität: Polygon schafft den AggLayer als Interoperabilitäts- und Liquiditätshub, der alle Polygon Chains verbindet. Das bedeutet, wenn Sie eine CDK Chain starten, sind Sie nicht allein – Sie werden Teil von „Polygon 2.0“, einer Konstellation von Chains mit vereinheitlichter Liquidität. Sie versprechen Dinge wie Ein-Klick-Token-Transfer zwischen CDK Chains und Ethereum (über AggLayer). Sie erheben auch keine Protokollgebühren (keine Miete), was sie als Wettbewerbsvorteil gegenüber, sagen wir, Optimisms Gebührenteilung anpreisen. Polygons Marketing hebt hervor, dass der Start einer CDK Chain Ihnen „das Beste aus beiden Welten“ bieten kann: benutzerdefinierte Souveränität und Leistung plus Zugang zur großen Benutzerbasis und Entwicklerbasis von Polygon/Ethereum. Sie zitieren oft, dass Polygon (POS+zkEVM) zusammen über 30 % aller L2-Transaktionen verarbeitet hat, um potenziellen Chain-Buildern zu versichern, dass der Benutzerfluss auf Polygon riesig ist.
    • Entwicklerunterstützung: Polygon veranstaltet vielleicht die meisten Hackathons und DevRel-Events im Blockchain-Bereich. Sie haben eine dedizierte Polygon University, Online-Kurse und sponsern häufig ETHGlobal und andere Hackathons mit Herausforderungen rund um die Nutzung von CDK, zkEVM usw. So können Entwickler Preise gewinnen, indem sie Prototypen von CDK Chains oder Cross-Chain-dApps bauen. Sie pflegen auch eine starke Präsenz in Entwickler-Communities und bieten schnelle Unterstützung (der Polygon Discord hat Kanäle für technische Fragen, wo Kernentwickler antworten).
    • Community und Governance: Polygon geht mit einem neuen POL-Token und einer Community-Governance, die alle Chains umfasst, zu Polygon 2.0 über. Dies könnte bedeuten, dass Community-Treasuries oder Anreizprogramme für CDK Chains gelten. Zum Beispiel könnte es ein Polygon Ecosystem Mining-Programm geben, bei dem Liquiditäts-Mining-Belohnungen für Projekte angeboten werden, die auf neuen CDK Chains bereitgestellt werden, um die Nutzung anzukurbeln. Die Idee ist, sicherzustellen, dass neue Chains keine Geisterstädte sind.
    • Erfolgsgeschichten: Bereits mehrere CDK Chains sind live oder angekündigt: OKX’s OKB Chain (X Layer), Gnosis Pay’s Chain, Astar’s zkEVM, Palm Network migriert, GameSwift (Gaming Chain) usw. Polygon veröffentlicht diese aktiv und teilt Wissen daraus mit anderen.

Insgesamt lautet Polygons Strategie: „Wir werden alles tun, um Ihnen zum Erfolg zu verhelfen, wenn Sie auf unserem Stack aufbauen.“ Dazu gehören finanzielle Anreize, technisches Personal, Marketingpräsenz (Vorträge auf Konferenzen, Pressemitteilungen auf CoinTelegraph, wie wir gesehen haben) und die Integration in ein größeres Ökosystem. Es ist ein sehr geschäftsentwicklungsgetriebener Ansatz zusätzlich zur Basis-Entwickler-Community, der Polygons eher unternehmerischen Stil im Vergleich zu den anderen widerspiegelt.

Um die Ökosystem-Unterstützung zusammenzufassen: Alle diese Frameworks verstehen, dass das Anziehen von Entwicklern und Projekten mehr als nur Technologie erfordert – es braucht Finanzierung, Betreuung und Integration in eine größere Erzählung. Optimism fördert eine kollaborative, auf öffentliche Güter ausgerichtete Erzählung mit fairer Umsatzbeteiligung. zkSync treibt den technologischen Fortschritt voran und wird wahrscheinlich Anreize ankündigen, die mit einem zukünftigen Token verbunden sind. Arbitrum nutzt seine bestehende Dominanz und bietet Partnernetzwerke, um den Start zu erleichtern, plus möglicherweise die tiefste DeFi-Liquidität, die angezapft werden kann. Polygon geht wohl am weitesten, um den Weg für Krypto-native und Unternehmensakteure zu ebnen, indem es Chains effektiv subventioniert und gemeinsam vermarktet.

Eine vergleichende Momentaufnahme:

FrameworkBemerkenswerte Ökosystem-ProgrammeEntwickler-/Partner-SupportÖkosystem-Größe (2025)
OP Stack (Optimism)RetroPGF-Zuschüsse (OP-Token); Superchain-Gebührenteilung für öffentliche Güter; Mehrere Zuschusswellen für Tools & dApps.OP Labs bietet direkten Tech-Support für neue Chains (z. B. Base); starke Entwickler-Community; Superchain-Branding & Interoperabilität zur Anziehung von Benutzern. Regelmäßige Hackathons (oft von Optimism gesponserte Tracks).Optimism Mainnet ~160+ dApps, Base gewinnt an Zugkraft, 5+ OP Chains live (Base, opBNB, Worldcoin, Zora, andere) und weitere angekündigt (Celo). Gemeinsame >14.000 ETH-Einnahmen für das Collective. Große Community über Optimism- und Coinbase-Benutzer.
zkSync ZK StackzkSync Ecosystem Fund (>200 Mio. $ für Entwicklerfinanzierung); mögliche zukünftige Airdrops; gezielte vertikale Programme (z. B. Gaming, KI-Agenten auf Hyperchains).Matter Labs bietet technisches Onboarding für frühe Hyperchain-Piloten; detaillierte Dokumente und Open-Source-Code. Partnerschaft mit Bridge-Protokollen für Konnektivität. Entwickleranreize hauptsächlich durch Hackathons und VC-Investitionen (noch keine Token-Anreize).zkSync Era L2 hat 160+ Protokolle, ~100 Mio. $ TVL. Frühe Hyperchains im Test (noch kein großer Live-L3). Unternehmensinteresse signalisiert zukünftiges Wachstum (z. B. Pilot mit einer Großbank). Starke ZK-Entwickler-Community und wachsende Anerkennung.
Arbitrum OrbitArbitrum DAO ARBSchatzkammer(>3Mrd.ARB-Schatzkammer (>3 Mrd. ) für potenzielle Zuschüsse; Offchain Labs-Partnerschaft mit RaaS (Caldera, AltLayer) zur Subventionierung von Chain-Starts; Orbit Accelerator-Programme.Offchain Labs hat Flaggschiff-Orbit-Chains (Xai usw.) mitentwickelt; unterstützt Marketing (Binance Launchpad für Xais Token). Entwickler-Support über Arbitrums umfangreiche Dokumentation und direkte technische Hilfe für die Integration (Stylus, benutzerdefiniertes Gas). Schnelle Bridge-Unterstützung für Benutzererfahrung.Arbitrum One: größtes L2 TVL (~5 Mrd. $); ~50 Orbit Chains in Entwicklung Ende 2023, ~16 bis Anfang 2025 gestartet. Bemerkenswerte Live-Chains: Xai, Rari Chain, Frame usw. DeFi-lastiges Ökosystem auf L2 kann Liquidität auf L3s ausdehnen. Große, loyale Community (Arbitrum-Airdrop hatte >250.000 Teilnehmer).
Polygon CDK (AggLayer)Polygon Ecosystem Fund & viele vertikale Fonds (NFTs, Gaming, Unternehmen); Polygon 2.0 Treasury für Anreize; Angebot zur Deckung bestimmter Infrastrukturkosten für neue Chains. AggLayer-Liquiditäts-/Belohnungsprogramme erwartet.Polygon Labs-Team arbeitet eng mit Partnern (z. B. Immutable, Unternehmen) für kundenspezifische Bedürfnisse zusammen; umfangreiche DevRel (Polygon University, Hackathons, Tutorials). Integration von CDK Chains mit Polygons zkEVM- und PoS-Infrastruktur (Shared Wallets, Bridges). Marketing über große Markenpartnerschaften (öffentliche Fallstudien von Nike, Reddit auf Polygon) zur Glaubwürdigkeit.Polygon PoS: riesige Akzeptanz (4 Mrd.+ Transaktionen); Polygon zkEVM wächst (100+ dApps). CDK: 20+ Chains entweder live (OKX, Gnosis Pay usw.) oder in der Pipeline bis Ende 2024. ~190 Projekte erkunden CDK. Bemerkenswerte Unternehmensakzeptanz (Finanzinstitute, Einzelhandelsriesen). Eines der größten Entwickler-Ökosysteme aufgrund der Polygon PoS-Historie, jetzt in CDK kanalisiert.

Wie die Tabelle zeigt, hat jedes Ökosystem seine Stärken – Optimism mit kollaborativem Ethos und Coinbases Gewicht, zkSync mit ZK-Führerschaft und Innovationsfokus, Arbitrum mit bewährter Akzeptanz und technischer Leistungsfähigkeit (Stylus), Polygon mit Unternehmensverbindungen und umfassender Unterstützung. Alle pumpen erhebliche Ressourcen in das Wachstum ihrer Communities, denn letztendlich wird der Erfolg eines Rollup-Frameworks an den Apps und Benutzern auf den damit aufgebauten Chains gemessen.

Bereitstellungen und Akzeptanz im Jahr 2025

Werfen wir abschließend einen Blick darauf, wo diese Frameworks im Jahr 2025 in Bezug auf die reale Akzeptanz stehen – sowohl im krypto-nativen Kontext (öffentliche Netzwerke, DeFi/NFT/Gaming-Projekte) als auch im Unternehmens- oder institutionellen Bereich:

  • OP Stack Akzeptanz: Der OP Stack hat das Optimism Mainnet angetrieben, das selbst einer der Top-Ethereum-L2s mit einem florierenden DeFi-Ökosystem (Uniswap, Aave usw.) und Zehntausenden täglichen Benutzern ist. In den Jahren 2023–2024 wurde der OP Stack von Coinbase für ihr Base-Netzwerk ausgewählt – Base wurde im August 2023 gestartet und integrierte schnell beliebte Apps (Coinbases eigene Wallet-Integration, die soziale App friend.tech) und erreichte eine hohe Aktivität (teilweise sogar Optimism bei Transaktionen übertreffend). Bases Erfolg bestätigte den OP Stack für viele; Base hatte 2024 800 Millionen Transaktionen und war damit die zweithöchste Chain nach Transaktionsanzahl in diesem Jahr. Eine weitere wichtige OP Stack-Bereitstellung ist opBNB – das BNB Chain-Team von Binance erstellte einen L2 mit dem OP Stack (der jedoch auf BNB Chain statt Ethereum abgewickelt wird). opBNB ging 2023 live und zeigte die Flexibilität des OP Stacks, eine Nicht-Ethereum-Abwicklung zu verwenden. Worldcoins World ID Chain ging 2023 auf dem OP Stack live (auf Ethereum abgewickelt), um seine einzigartigen biometrischen Identitätstransaktionen zu verarbeiten. Das Zora Network, eine NFT-zentrierte Chain von Zora, wurde ebenfalls auf dem OP Stack gestartet, zugeschnitten auf Anwendungsfälle der Creator Economy. Am ambitioniertesten ist vielleicht Celos Migration: Celo stimmte für den Übergang von einem unabhängigen L1 zu einem auf OP Stack basierenden Ethereum L2 – im Jahr 2025 ist diese Migration im Gange, wodurch ein ganzes bestehendes Ökosystem (Celos DeFi- und telefonorientierte Apps) in den OP Stack integriert wird. Wir haben auch kleinere Projekte wie Mode (Bybits Sidechain), Mantle (BitDAOs Chain) – tatsächlich entschied sich Mantle ebenfalls für einen modifizierten OP Stack. Und viele weitere sind gerüchteweise oder in Entwicklung, angesichts des Open-Source-Ansatzes von Optimism (jeder kann ohne Erlaubnis forken und starten). Auf Unternehmensseite haben wir nicht viel explizite OP Stack-Unternehmens-Chains gesehen (Unternehmen scheinen eher von Polygon oder kundenspezifischen Lösungen angezogen zu werden). Base wird jedoch von einem Unternehmen (Coinbase) unterstützt, und das ist bedeutsam. Die Superchain-Vision impliziert, dass sogar Unternehmens-Chains als OP Chains beitreten könnten, um von der gemeinsamen Governance zu profitieren – zum Beispiel, wenn ein Fintech eine konforme Chain starten wollte, könnte die Verwendung des OP Stacks und die Integration in die Superchain eine sofortige Konnektivität ermöglichen. Im Jahr 2025 verarbeiten OP Stack Chains (Optimism, Base, andere) kollektiv einen erheblichen Teil der L2-Aktivität, und der aggregierte Durchsatz der Superchain wird als Metrik dargestellt (Optimism veröffentlicht oft kombinierte Statistiken). Mit dem Bedrock-Upgrade und weiteren Verbesserungen erweisen sich OP Stack Chains als hochzuverlässig (Optimism hatte vernachlässigbare Ausfallzeiten). Das wichtigste Maß für die Akzeptanz: Der OP Stack ist wohl das bisher am häufigsten geforkte Rollup-Framework, angesichts von Base, BNB, Celo usw., die hochkarätig sind. Insgesamt sind ~5-10 OP Stack Chains Live-Mainnets, und viele weitere Testnets. Wenn wir Devnets und bevorstehende Starts einschließen, wächst die Zahl.

  • zkSync Hyperchains Akzeptanz: Das zkSync Era Mainnet (L2) selbst wurde im März 2023 gestartet und gehört bis 2025 zu den Top-ZK-Rollups, mit ~100 Mio. $ TVL und Dutzenden von Projekten. Bemerkenswerte Apps wie Curve, Uniswap, Chainlink wurden auf zkSync bereitgestellt oder kündigten die Bereitstellung an. Was nun Hyperchains (L3 oder souveräne Chains) betrifft, so ist dies sehr innovativ. Ende 2024 startete Matter Labs ein Programm für Teams, um mit L3s auf zkSync zu experimentieren. Ein Beispiel: Der Rollup-as-a-Service-Anbieter Decentriq testete Berichten zufolge eine private Hyperchain für den Datenaustausch. Auch Blockchain Capital (VC) deutete an, mit einem L3 zu experimentieren. Es wird erwähnt, dass ein Ökosystem von über 18 Protokollen den ZK Stack für Dinge wie KI-Agenten und spezialisierte Anwendungsfälle nutzt – möglicherweise auf Testnets. Bisher (Mitte 2025) bedient noch keine große Hyperchain öffentlich Benutzer (soweit bekannt). Das Interesse ist jedoch in bestimmten Bereichen hoch: Gaming-Projekte haben Interesse an ZK-Hyperchains für schnelle Finalität und Anpassbarkeit gezeigt, und datenschutzorientierte Chains (eine Hyperchain könnte Verschlüsselung enthalten und zkProofs verwenden, um Daten zu verbergen – etwas, das ein optimistischer Rollup nicht so einfach bieten kann). Der Kommentar über eine „Schweizer Bank“ deutet darauf hin, dass vielleicht UBS oder ein Konsortium eine private Chain mit dem ZK Stack testet, wahrscheinlich angezogen von Durchsatz (~10k TPS) und Datenschutz. Wenn dies in Produktion geht, wäre es ein Flaggschiff-Unternehmensfall. Zusammenfassend lässt sich sagen, dass die Akzeptanz von zkSyncs Hyperchain im Jahr 2025 in einer frühen Pilotphase ist: Die Entwicklerinfrastruktur ist bereit (wie durch Dokumentation und einige Testbereitstellungen belegt), aber wir warten auf die ersten, die live gehen. Es ist vergleichbar mit dem Stand von Optimism Anfang 2021 – bewährte Technologie, aber gerade erst beginnende Akzeptanz. Bis Ende 2025 könnten wir ein paar Live-Hyperchains erwarten, möglicherweise eine von der Community betriebene (vielleicht eine Gaming-Hyperchain, die aus einem beliebten zkSync-Spiel hervorgegangen ist) und eine von Unternehmen betriebene. Ein weiterer Faktor: Es wird auch über Layer3s auf zkSync Era gesprochen – im Wesentlichen permissionless L3s, auf denen jeder eine App-Chain auf zkSyncs L2 bereitstellen kann. Matter Labs hat die Verträge dafür erstellt, sodass wir benutzergesteuerte L3s sehen könnten (wie jemand, der einen Mini-Rollup für seine spezifische App startet), was als Akzeptanz des ZK Stacks zählt.

  • Arbitrum Orbit Akzeptanz: Arbitrum Orbit erlebte nach seiner formellen Einführung Mitte 2023 einen Anstieg des Interesses. Ende 2023 wurden rund 18 Orbit Chains öffentlich bekannt gegeben, und Offchain Labs gab an, dass über 50 in Arbeit seien. Im Jahr 2025 sind einige der prominentesten:

    • Xai Chain: Ein Gaming-fokussierter L3, jetzt live (Mainnet Ende 2023 gestartet). Es wird von Spieleentwicklern (wie dem Ex Populus Studio) verwendet und hatte einen Token-Launch über Binance Launchpad. Dies deutet auf eine gute Akzeptanz hin (die Beteiligung von Binance Launchpad deutet auf großes Benutzerinteresse hin). Xai verwendet den AnyTrust-Modus (für hohe TPS).
    • Rari Chain: Ein NFT-zentrierter L3 von Rarible. Mainnet im Januar 2024 gestartet. Es konzentriert sich auf NFT-Marktplätze mit Funktionen wie Kreditkartenzahlungen für Gas (über Stripe) und gaslose Listings. Diese Chain ist ein gutes Beispiel für die Anpassung der Benutzererfahrung (wie erwähnt, bietet Gelato gaslose Transaktionen usw. auf Rari Chain).
    • Frame: Ein Creator-fokussierter L2 (obwohl als L2 bezeichnet, ist es wahrscheinlich eine Orbit Chain, die auf Ethereum oder Arbitrum abgewickelt wird). Es wurde Anfang 2024 nach einer Finanzierungsrunde gestartet.
    • EduChain (von Camelot/GMX-Communities): Der Zeeve-Artikel erwähnt eine EDU-Chain mit einer großen Anzahl von Projekten – möglicherweise ein Ökosystem für On-Chain-Bildung und KI, das auf Orbit basiert.
    • Ape Chain: Nicht explizit oben erwähnt, aber der Kontext von Zeeve deutet darauf hin, dass eine „Ape Chain“ (vielleicht Yuga Labs oder ApeCoin DAO Chain) existiert, mit 9,86 Mio. $ TVL und APE für Gas verwendet. Das könnte eine Orbit Chain im ApeCoin-Ökosystem sein (dies wäre angesichts des Einflusses von Yuga bei NFTs bedeutsam).
    • Andere Gaming-Chains: z. B. wurde Comeths „Muster“ L3 angekündigt (eine Gaming-Plattform, die mit AltLayer zusammenarbeitet). Syndr Chain für ein Optionshandelsprotokoll ist auf Testnet als Orbit L3. Meliora (DeFi-Kreditprotokoll) baut einen Orbit L3.
    • Viele davon befinden sich in frühen Stadien (Testnet oder kürzlich gestartetes Mainnet), aber insgesamt zeigen sie, dass Orbit bei spezialisierten dApps, die eine gemeinsame L2-Umgebung entwachsen sind oder ihre eigene Governance wollten, an Akzeptanz gewinnt.
    • Im Unternehmensbereich: hier weniger Aufsehen. Arbitrum ist eher für DeFi-/Gaming-Akzeptanz bekannt. Die Technologie könnte jedoch für Unternehmen attraktiv sein, wenn sie eine Ethereum-gesicherte Chain mit flexiblem Vertrauen (über AnyTrust) wünschen. Es ist möglich, dass einige Unternehmen Arbitrum-Technologie stillschweigend für eine private Chain verwendet haben, dies aber nicht veröffentlicht wurde.
    • Nach Zahlen könnte Arbitrum Orbits größter Nutzer bisher Ape Chain (falls bestätigt) sein, mit ~10 Mio. TVLund17Protokollendarauf(lautZeeve).EineweitereistEDUChainmit1,35Mio.TVL und 17 Protokollen darauf (laut Zeeve). Eine weitere ist **EDU Chain** mit 1,35 Mio. TVL und über 30 Projekten.
    • Arbitrum One und Nova selbst sind Teil dieser Erzählung – die Tatsache, dass Orbit Chains auf Nova (ultra-billige Social-/Gaming-Chain) oder One abgewickelt werden können, bedeutet, dass die Akzeptanz von Orbit auch die Aktivität in diesen Netzwerken fördert. Nova wurde für Reddit-Punkte usw. genutzt. Wenn Orbit Chains in Novas AnyTrust-Komitee integriert werden, wächst Novas Rolle.
    • Zusammenfassend lässt sich sagen, dass Arbitrum Orbit über die Theorie hinausgegangen ist: Dutzende realer Projekte bauen darauf auf und konzentrieren sich auf Gaming, Social und benutzerdefiniertes DeFi. Arbitrums Ansatz, reale Anwendungsfälle (wie Xai, Rari) zu zeigen, hat sich ausgezahlt, und wir können davon ausgehen, dass bis Ende 2025 möglicherweise über 50 Orbit Chains live sein werden, einige davon mit erheblichen Benutzerbasen (insbesondere wenn eine der Gaming-Chains eine beliebte Spielveröffentlichung erreicht).
  • Polygon CDK Akzeptanz: Polygon kündigte CDK erst in der zweiten Hälfte des Jahres 2023 an, baut aber auf dem Erfolg der bestehenden Netzwerke von Polygon auf. Bereits Polygon zkEVM (Mainnet Beta) selbst ist im Wesentlichen eine CDK Chain, die von Polygon Labs betrieben wird. Es hat eine anständige Akzeptanz erfahren (über 50 Mio. $ TVL, große Protokolle bereitgestellt). Darüber hinaus sind zahlreiche unabhängige Chains in Bewegung:

    • Immutable X (eine große Web3-Gaming-Plattform) erklärte ihre Unterstützung für Polygon CDK, um Spielestudios die Möglichkeit zu geben, ihre eigenen ZK-Rollups zu starten, die mit Immutable und Polygon-Liquidität verbunden sind. Diese Allianz bedeutet möglicherweise Dutzende von Spielen, die CDK über Immutable im Jahr 2025 nutzen.
    • OKX (Börse) startete OKB Chain (auch bekannt als X Layer) mit Polygon CDK Ende 2024. Eine Börsen-Chain kann viele Transaktionen antreiben (CEX-zu-DEX-Flüsse usw.). OKX wählte Polygon vermutlich wegen der Skalierbarkeit und weil viele ihrer Benutzer bereits Polygon nutzen.
    • Canto (DeFi-Chain) und Astar (Polkadot-Sidechain) werden als Migration zu oder Integration mit Polygon CDK erwähnt. Cantos Umzug von Cosmos zur Polygon-Schicht zeigt die Attraktivität, Sicherheit mit Ethereum über Polygons ZK zu teilen.
    • Gnosis Pay: startete die Gnosis Card Chain mit CDK – es ist eine Chain, die schnelle Stablecoin-Zahlungen in Verbindung mit einer Visa-Karte ermöglicht. Dies ist live und eine innovative Fintech-Anwendung.
    • Palm Network: eine auf NFTs spezialisierte Chain, ursprünglich auf Ethereum, wechselt zu Polygon CDK (Palm wurde von ConsenSys für NFTs mit DC Comics usw. mitbegründet).
    • dYdX: Dies ist interessant – dYdX baute seine eigene Cosmos-Chain, aber Zevees Informationen listen dYdX unter AggLayer CDK Chains auf. Wenn dYdX stattdessen Polygon in Betracht ziehen würde, wäre das riesig (obwohl dYdX V4 nach bekannten Informationen Cosmos-basiert ist; vielleicht planen sie Cross-Chain oder eine zukünftige Umstellung).
    • Nubank: eine der größten digitalen Banken Brasiliens, erscheint in Zevees Liste. Nubank hatte zuvor einen Token auf Polygon gestartet; eine CDK Chain für ihre Belohnungen oder ein CBDC-ähnliches Programm könnte getestet werden.
    • Wirex, IDEX, GameSwift, Aavegotchi, Powerloom, Manta… diese Namen in Zevees Liste zeigen, wie Ökosystem-übergreifend die CDK-Reichweite ist: z. B. könnte Manta (ein Polkadot-Datenschutzprojekt) CDK für eine Ethereum-orientierte ZK-Lösung verwenden; Aavegotchi (ein NFT-Spiel, ursprünglich auf Polygon POS) könnte seine eigene Chain für die Spiel-Logik erhalten.
    • Die Celestia-Integration Anfang 2024 wird wahrscheinlich Projekte anziehen, die die Polygon-Technologie, aber mit Celestia DA wünschen – möglicherweise werden einige Cosmos-Projekte (da Celestia Cosmos-basiert ist) Polygon CDK für die Ausführung und Celestia für DA wählen.
    • Unternehmen: Polygon hat ein dediziertes Unternehmens-Team. Abgesehen von den erwähnten (Stripe für Stablecoins, Franklin Templeton-Fonds auf Polygon, Länderregierungen, die Briefmarken prägen usw.), können sie mit CDK Unternehmen ihre eigene Chain mit benutzerdefinierten Regeln versprechen. Wir könnten Piloten wie „Polygon Siemens Chain“ oder Regierungs-Chains entstehen sehen, obwohl diese oft privat beginnen.
    • Polygons Ansatz, Chain-agnostisch zu sein (sie unterstützen jetzt sogar einen „OP Stack-Modus“ im CDK laut Zeeve!) und keine Miete zu verlangen, hat zu einer schnellen Integration geführt – sie behaupten, dass über 190 Projekte CDK bis Q1 2025 nutzen oder in Betracht ziehen. Wenn auch nur ein Viertel davon live geht, wird Polygon ein expansives Netzwerk von Chains haben. Sie sehen sich nicht nur als eine Chain, sondern als ein Ökosystem vieler Chains (Polygon 2.0), möglicherweise das größte solche Netzwerk, wenn erfolgreich.
    • Nach Zahlen: Anfang 2025 sind laut der AggLayer-Website über 21 Chains entweder im Mainnet oder Testnet mit CDK in Betrieb. Dies sollte sich im Laufe des Jahres 2025 beschleunigen, da weitere migrieren oder starten.
    • Wir können einige hochkarätige Starts erwarten, z. B. eine Reddit-Chain (Reddits Avatare auf Polygon POS waren riesig; ein dedizierter Polygon L2 für Reddit könnte entstehen). Auch wenn Zentralbank-Digitalwährungen (CBDCs) oder Regierungsprojekte eine Skalierungslösung wählen, ist Polygon oft in diesen Gesprächen – eine CDK Chain könnte ihre Wahl für einen permissioned L2 mit ZK-Beweisen sein.

Zusammenfassend lässt sich sagen, dass der Akzeptanzstatus 2025: OP Stack und Arbitrum Orbit verfügen über mehrere Live-Chains mit echten Benutzern und TVL, zkSyncs Hyperchains stehen kurz vor dem Durchbruch mit starken Testpiloten, und Polygon CDK hat viele in der Pipeline und einige Live-Erfolge sowohl im Krypto- als auch im Unternehmensbereich. Der Bereich entwickelt sich rasant, und Projekte prüfen diese Frameworks oft sorgfältig, bevor sie sich entscheiden. Es ist auch kein Nullsummenspiel – z. B. könnte eine App eine OP Stack Chain und eine Polygon CDK Chain für verschiedene Regionen oder Zwecke verwenden. Die modulare Blockchain-Zukunft beinhaltet wahrscheinlich Interoperabilität zwischen all diesen Frameworks. Es ist bemerkenswert, dass Bemühungen wie LayerZero und Bridge-Aggregatoren jetzt sicherstellen, dass Assets relativ frei zwischen Optimism, Arbitrum, Polygon, zkSync usw. bewegt werden können, sodass Benutzer möglicherweise nicht einmal merken, auf welchem Stack eine Chain unter der Haube aufgebaut ist.

Fazit

Rollups-as-a-Service im Jahr 2025 bietet eine reichhaltige Auswahl an Optionen. OP Stack bietet ein kampferprobtes Optimistic Rollup-Framework mit Ethereum-Ausrichtung und der Unterstützung einer kollaborativen Superchain-Community. ZK Stack (Hyperchains) liefert modernste Zero-Knowledge-Technologie mit modularen Gültigkeits- und Datenoptionen, die auf massive Skalierbarkeit und neue Anwendungsfälle wie private oder Layer-3-Chains abzielen. Arbitrum Orbit erweitert eine hochoptimierte Optimistic Rollup-Architektur für Entwickler, mit Flexibilität bei der Datenverfügbarkeit und der spannenden Ergänzung von Stylus für mehrsprachige Smart Contracts. Polygon CDK ermöglicht Projekten den Start von zkEVM-Chains mit Out-of-the-Box-Interoperabilität (AggLayer) und der vollen Unterstützung von Polygons Ökosystem und Unternehmensbeziehungen. zkSync Hyperchains (über ZK Stack) versprechen, Web3 in großem Maßstab zu ermöglichen – mehrere Hyperchains, die alle durch Ethereum gesichert sind, jeweils für ihren Bereich optimiert (sei es Gaming, DeFi oder Social), mit nahtloser Konnektivität durch zkSyncs Elastic Framework.

Beim Vergleich der Datenverfügbarkeit haben wir gesehen, dass alle Frameworks modulare DA nutzen – Ethereum für Sicherheit und neuere Lösungen wie Celestia, EigenDA oder Komitees für den Durchsatz. Sequenzer-Designs sind anfänglich zentralisiert, bewegen sich aber in Richtung Dezentralisierung: Optimism und Arbitrum bieten L1-Fallback-Warteschlangen und ermöglichen Multi-Sequenzer- oder permissionless Validatoren-Modelle, während Polygon und zkSync die Bereitstellung benutzerdefinierter Konsens für Chains ermöglichen, die dies wünschen. Gebührenmodelle unterscheiden sich hauptsächlich in der Ökosystemphilosophie – Optimisms Umsatzbeteiligung vs. die eigenständigen Ökonomien der anderen – aber alle erlauben benutzerdefinierte Token und zielen darauf ab, die Benutzerkosten durch die Nutzung billigerer DA und schneller Finalität (insbesondere ZK-Chains) zu minimieren.

In Bezug auf die Ökosystem-Unterstützung fördert Optimism ein Kollektiv, in dem jede Chain zu gemeinsamen Zielen (Finanzierung öffentlicher Güter) beiträgt und von gemeinsamen Upgrades profitiert. Arbitrum nutzt seine florierende Community und Liquidität, hilft Projekten aktiv beim Start von Orbit Chains und integriert sie in seinen DeFi-Hub. Polygon setzt alle Ressourcen ein, um sowohl Krypto-Projekte als auch Unternehmen zu umwerben, bietet vielleicht die praktischste Unterstützung und verfügt über ein umfangreiches Netzwerk von Partnerschaften und Fonds. Matter Labs (zkSync) treibt Innovationen voran und spricht diejenigen an, die die neueste ZK-Technologie wünschen, und obwohl seine Anreizprogramme weniger öffentlich strukturiert sind (bis zur Einführung eines Tokens), verfügt es über erhebliche Finanzmittel und eine starke Anziehungskraft für ZK-orientierte Entwickler.

Aus Entwicklersicht ist der Start eines Rollups im Jahr 2025 zugänglicher denn je. Ob die Priorität EVM-Äquivalenz und Einfachheit (OP Stack, Arbitrum) oder maximale Leistung und zukunftssichere Technologie (ZK Stack, Polygon CDK) ist, die Tools und Dokumentation sind vorhanden. Sogar Überwachungs- und Entwickler-Tools wurden erweitert, um diese benutzerdefinierten Chains zu unterstützen – zum Beispiel unterstützen Alchemie und QuickNodes RaaS-Plattformen Optimism-, Arbitrum- und zkSync-Stacks Out-of-the-Box. Dies bedeutet, dass Teams sich auf ihre Anwendung konzentrieren und einen Großteil der schweren Arbeit diesen Frameworks überlassen können.

Betrachtet man die öffentliche und unternehmerische Akzeptanz, so ist klar, dass modulare Rollups von experimentell zu Mainstream übergehen. Wir haben globale Marken wie Coinbase, Binance und OKX, die ihre eigenen Chains betreiben, große DeFi-Protokolle wie Uniswap, die auf mehrere L2s und möglicherweise ihre eigenen Rollups expandieren, und sogar Regierungen und Banken, die diese Technologien erforschen. Der Wettbewerb (und die Zusammenarbeit) zwischen OP Stack, ZK Stack, Orbit, CDK usw. treibt schnelle Innovationen voran – was letztendlich Ethereum zugutekommt, indem es durch maßgeschneiderte Rollups auf Millionen neuer Benutzer skaliert wird.

Jedes Framework hat sein einzigartiges Wertversprechen:

  • OP Stack: Einfacher Einstieg in L2, Shared Superchain-Netzwerkeffekte und eine Philosophie von „Impact = Profit“ durch öffentliche Güter.
  • ZK Stack: Endgültige Skalierbarkeit mit ZK-Integrität, Flexibilität im Design (L2 oder L3, Rollup oder Validium) und Verhinderung von Liquiditätsfragmentierung durch das Elastic Chain-Modell.
  • Arbitrum Orbit: Bewährte Technologie (Arbitrum One hatte nie einen größeren Ausfall), hohe Leistung (Nitro + Stylus) und die Möglichkeit, Vertrauensannahmen (volle Rollup-Sicherheit oder schnelleres AnyTrust) für verschiedene Bedürfnisse anzupassen.
  • Polygon CDK: Schlüsselfertige ZK-Rollups, unterstützt von einem der größten Ökosysteme, mit sofortiger Konnektivität zu Polygon/Ethereum-Assets und dem Versprechen zukünftiger „vereinheitlichter Liquidität“ über AggLayer – effektiv ein Launchpad nicht nur für eine Chain, sondern für eine ganze Ökonomie auf dieser Chain.
  • zkSync Hyperchains: Eine Vision von Layer-3-Skalierbarkeit, bei der selbst kleine Apps ihre eigene, durch Ethereum gesicherte Chain mit minimalem Overhead haben können, was Web2-Niveau-Leistung in einer Web3-Umgebung ermöglicht.

Mitte 2025 sehen wir, wie sich das Multi-Chain-Modulare-Ökosystem materialisiert: Dutzende von App-spezifischen oder Sektor-spezifischen Chains koexistieren, viele davon mit diesen Stacks aufgebaut. L2Beat und ähnliche Websites verfolgen jetzt nicht nur L2s, sondern auch L3s und benutzerdefinierte Chains, von denen viele OP Stack, Orbit, CDK oder ZK Stack verwenden. Interoperabilitätsstandards werden entwickelt, damit Chains, egal ob sie Optimism- oder Polygon-Technologie verwenden, miteinander kommunizieren können (Projekte wie Hyperlane, LayerZero und sogar die Zusammenarbeit von OP und Polygon bei Shared Sequencing).

Zusammenfassend lässt sich sagen, dass Rollups-as-a-Service im Jahr 2025 ausgereift ist und eine wettbewerbsintensive Landschaft mit OP Stack, ZK Stack, Arbitrum Orbit, Polygon CDK und zkSync Hyperchains bietet, die jeweils robuste, modulare Blockchain-Frameworks anbieten. Sie unterscheiden sich im technischen Ansatz (Optimistic vs. ZK), zielen aber alle darauf ab, Entwicklern die Möglichkeit zu geben, skalierbare, sichere Chains zu starten, die auf ihre Bedürfnisse zugeschnitten sind. Die Wahl des Stacks kann von den spezifischen Prioritäten eines Projekts abhängen – EVM-Kompatibilität, Finalitätsgeschwindigkeit, Anpassung, Community-Ausrichtung usw. – wie oben beschrieben. Die gute Nachricht ist, dass es keinen Mangel an Optionen oder Unterstützung gibt. Ethereums Rollup-zentrierte Roadmap wird durch diese Frameworks realisiert und läutet eine Ära ein, in der der Start einer neuen Chain keine monumentale Leistung mehr ist, sondern eine strategische Entscheidung, ähnlich der Wahl eines Cloud-Anbieters oder Technologie-Stacks in Web2. Die Frameworks werden sich weiterentwickeln (z. B. erwarten wir mehr Konvergenz, wie OP Stack, das ZK-Beweise übernimmt, Polygons AggLayer, das sich mit Nicht-Polygon-Chains verbindet usw.), aber schon jetzt stellen sie gemeinsam sicher, dass Ethereums Skalierbarkeit und Ökosystemwachstum nur durch die Vorstellungskraft und nicht durch die Infrastruktur begrenzt sind.

Quellen:

  • Optimism OP Stack – Dokumentation und Mirror-Beiträge
  • zkSync ZK Stack – zkSync-Dokumente und Matter Labs-Beiträge
  • Arbitrum Orbit – Arbitrum-Dokumente, Offchain Labs-Ankündigungen
  • Polygon CDK – Polygon Tech-Dokumente, CoinTelegraph-Bericht
  • Allgemeiner Vergleich – QuickNode Guides (März 2025), Zeeve und andere für Ökosystem-Statistiken, plus verschiedene Projektblogs wie oben zitiert.

Trusted Execution Environments (TEEs) im Web3-Ökosystem: Eine detaillierte Analyse

· 70 Min. Lesezeit

1. Überblick über die TEE-Technologie

Definition und Architektur: Eine Trusted Execution Environment (TEE) ist ein sicherer Bereich eines Prozessors, der den darin geladenen Code und die Daten im Hinblick auf Vertraulichkeit und Integrität schützt. In der Praxis fungiert eine TEE als isolierte „Enklave“ innerhalb der CPU – eine Art Black Box, in der sensible Berechnungen geschützt vom Rest des Systems ausgeführt werden können. Code, der innerhalb einer TEE-Enklave ausgeführt wird, ist so geschützt, dass selbst ein kompromittiertes Betriebssystem oder ein Hypervisor die Daten oder den Code der Enklave nicht lesen oder manipulieren kann. Die wichtigsten von TEEs bereitgestellten Sicherheitseigenschaften umfassen:

  • Isolierung: Der Speicher der Enklave ist von anderen Prozessen und sogar vom Betriebssystemkern isoliert. Selbst wenn ein Angreifer volle Administratorrechte auf der Maschine erhält, kann er den Speicher der Enklave nicht direkt inspizieren oder modifizieren.
  • Integrität: Die Hardware stellt sicher, dass Code, der in der TEE ausgeführt wird, nicht durch externe Angriffe verändert werden kann. Jede Manipulation des Enklaven-Codes oder des Laufzeitstatus wird erkannt, was kompromittierte Ergebnisse verhindert.
  • Vertraulichkeit: Daten innerhalb der Enklave bleiben im Speicher verschlüsselt und werden nur für die Verwendung innerhalb der CPU entschlüsselt, sodass geheime Daten der Außenwelt nicht im Klartext zugänglich sind.
  • Remote Attestation: Die TEE kann kryptografische Beweise (Attestierungen) erstellen, um eine entfernte Partei davon zu überzeugen, dass sie echt ist und dass spezifischer vertrauenswürdiger Code darin ausgeführt wird. Dies bedeutet, dass Benutzer überprüfen können, ob sich eine Enklave in einem vertrauenswürdigen Zustand befindet (z. B. Ausführung des erwarteten Codes auf echter Hardware), bevor sie sie mit geheimen Daten versorgen.

Konzeptionelles Diagramm einer Trusted Execution Environment als sichere Enklave „Black Box“ für die Ausführung von Smart Contracts. Verschlüsselte Eingaben (Daten und Vertragscode) werden innerhalb der sicheren Enklave entschlüsselt und verarbeitet, und nur verschlüsselte Ergebnisse verlassen die Enklave. Dies stellt sicher, dass sensible Vertragsdaten für jeden außerhalb der TEE vertraulich bleiben.

Unter der Haube werden TEEs durch hardwarebasierte Speicherverschlüsselung und Zugriffskontrolle in der CPU ermöglicht. Wenn beispielsweise eine TEE-Enklave erstellt wird, weist die CPU ihr einen geschützten Speicherbereich zu und verwendet dedizierte Schlüssel (die in die Hardware eingebrannt sind oder von einem sicheren Koprozessor verwaltet werden), um Daten on-the-fly zu verschlüsseln/entschlüsseln. Jeder Versuch von externer Software, den Enklavenspeicher zu lesen, liefert nur verschlüsselte Bytes. Dieser einzigartige Schutz auf CPU-Ebene ermöglicht es sogar Code auf Benutzerebene, private Speicherbereiche (Enklaven) zu definieren, die privilegierte Malware oder sogar ein böswilliger Systemadministrator nicht ausspähen oder modifizieren kann. Im Wesentlichen bietet eine TEE ein höheres Sicherheitsniveau für Anwendungen als die normale Betriebsumgebung, während sie gleichzeitig flexibler ist als dedizierte Sicherheitselemente oder Hardware-Sicherheitsmodule.

Wichtige Hardware-Implementierungen: Es existieren mehrere Hardware-TEE-Technologien, jede mit unterschiedlichen Architekturen, aber dem ähnlichen Ziel, eine sichere Enklave innerhalb des Systems zu schaffen:

  • Intel SGX (Software Guard Extensions): Intel SGX ist eine der am weitesten verbreiteten TEE-Implementierungen. Sie ermöglicht es Anwendungen, Enklaven auf Prozessebene zu erstellen, wobei Speicherverschlüsselung und Zugriffskontrollen von der CPU erzwungen werden. Entwickler müssen ihren Code in „vertrauenswürdigen“ Code (innerhalb der Enklave) und „nicht vertrauenswürdigen“ Code (normale Welt) aufteilen und spezielle Anweisungen (ECALL/OCALL) verwenden, um Daten in die Enklave hinein und aus ihr heraus zu transferieren. SGX bietet eine starke Isolierung für Enklaven und unterstützt Remote Attestation über Intels Attestation Service (IAS). Viele Blockchain-Projekte – insbesondere Secret Network und Oasis Network – haben datenschutzfreundliche Smart-Contract-Funktionalitäten auf SGX-Enklaven aufgebaut. Das Design von SGX auf komplexen x86-Architekturen hat jedoch zu einigen Schwachstellen geführt (siehe §4), und die Attestierung von Intel führt eine zentralisierte Vertrauensabhängigkeit ein.

  • ARM TrustZone: TrustZone verfolgt einen anderen Ansatz, indem es die gesamte Ausführungsumgebung des Prozessors in zwei Welten unterteilt: eine Secure World und eine Normal World. Sensibler Code läuft in der Secure World, die Zugriff auf bestimmte geschützte Speicherbereiche und Peripheriegeräte hat, während die Normal World das reguläre Betriebssystem und die Anwendungen ausführt. Wechsel zwischen den Welten werden von der CPU gesteuert. TrustZone wird häufig in Mobil- und IoT-Geräten für Dinge wie sichere Benutzeroberflächen, Zahlungsabwicklung oder digitales Rechtemanagement verwendet. In einem Blockchain-Kontext könnte TrustZone mobile-first Web3-Anwendungen ermöglichen, indem private Schlüssel oder sensible Logik in der sicheren Enklave des Telefons ausgeführt werden. TrustZone-Enklaven sind jedoch typischerweise grobkörniger (auf Betriebssystem- oder VM-Ebene) und werden in aktuellen Web3-Projekten nicht so häufig eingesetzt wie SGX.

  • AMD SEV (Secure Encrypted Virtualization): Die SEV-Technologie von AMD zielt auf virtualisierte Umgebungen ab. Anstatt Enklaven auf Anwendungsebene zu erfordern, kann SEV den Speicher ganzer virtueller Maschinen verschlüsseln. Es verwendet einen eingebetteten Sicherheitsprozessor zur Verwaltung kryptografischer Schlüssel und zur Durchführung der Speicherverschlüsselung, sodass der Speicher einer VM selbst für den hostenden Hypervisor vertraulich bleibt. Dies macht SEV gut geeignet für Cloud- oder Server-Anwendungsfälle: Beispielsweise könnte ein Blockchain-Knoten oder ein Off-Chain-Worker innerhalb einer vollständig verschlüsselten VM laufen und seine Daten vor einem böswilligen Cloud-Anbieter schützen. Das Design von SEV bedeutet weniger Aufwand für Entwickler bei der Partitionierung von Code (man kann eine bestehende Anwendung oder sogar ein ganzes Betriebssystem in einer geschützten VM ausführen). Neuere Iterationen wie SEV-SNP fügen Funktionen wie Manipulationserkennung hinzu und ermöglichen es VM-Besitzern, ihre VMs zu attestieren, ohne auf einen zentralisierten Dienst angewiesen zu sein. SEV ist für den TEE-Einsatz in Cloud-basierter Blockchain-Infrastruktur hochrelevant.

Andere aufkommende oder Nischen-TEE-Implementierungen umfassen Intel TDX (Trust Domain Extensions für enklavenähnlichen Schutz in VMs auf neueren Intel-Chips), Open-Source-TEEs wie Keystone (RISC-V) und Secure-Enclave-Chips in Mobilgeräten (wie die Secure Enclave von Apple, obwohl sie normalerweise nicht für beliebigen Code offen ist). Jede TEE bringt ihr eigenes Entwicklungsmodell und ihre eigenen Vertrauensannahmen mit, aber alle teilen die Kernidee der hardware-isolierten sicheren Ausführung.

Privatsphäre-wahrende Smart Contracts

Eine der bekanntesten Anwendungen von TEEs in Web3 ist die Ermöglichung von vertraulichen Smart Contracts – Programmen, die auf einer Blockchain laufen, aber private Daten sicher verarbeiten können. Blockchains wie Ethereum sind standardmäßig transparent: Alle Transaktionsdaten und der Vertragsstatus sind öffentlich. Diese Transparenz ist problematisch für Anwendungsfälle, die Vertraulichkeit erfordern (z. B. private Finanzgeschäfte, geheime Abstimmungen, Verarbeitung personenbezogener Daten). TEEs bieten eine Lösung, indem sie als privatsphärenschonende Rechenenklave fungieren, die mit der Blockchain verbunden ist.

In einem TEE-gestützten Smart-Contract-System können Transaktionseingaben an eine sichere Enklave auf einem Validator- oder Worker-Node gesendet werden. Dort werden sie innerhalb der Enklave verarbeitet, wo sie für die Außenwelt verschlüsselt bleiben. Anschließend kann die Enklave ein verschlüsseltes oder gehashtes Ergebnis zurück an die Chain ausgeben. Nur autorisierte Parteien mit dem Entschlüsselungsschlüssel (oder die Vertragslogik selbst) können auf das Klartextergebnis zugreifen. Zum Beispiel verwendet das Secret Network Intel SGX in seinen Konsens-Nodes, um CosmWasm-Smart-Contracts mit verschlüsselten Eingaben auszuführen. So können Dinge wie Kontostände, Transaktionsbeträge oder der Vertragsstatus vor der Öffentlichkeit verborgen bleiben, während sie dennoch für Berechnungen nutzbar sind. Dies hat Secret DeFi-Anwendungen ermöglicht – z. B. private Token-Swaps, bei denen die Beträge vertraulich sind, oder geheime Auktionen, bei denen Gebote verschlüsselt und erst nach Auktionsende offengelegt werden. Ein weiteres Beispiel ist das Parcel von Oasis Network und das vertrauliche ParaTime, die es ermöglichen, Daten zu tokenisieren und in Smart Contracts unter Vertraulichkeitsbeschränkungen zu nutzen, was Anwendungsfälle wie Kredit-Scoring oder medizinische Daten auf der Blockchain unter Einhaltung des Datenschutzes ermöglicht.

Privatsphäre-wahrende Smart Contracts via TEEs sind attraktiv für die Einführung von Blockchain in Unternehmen und Institutionen. Organisationen können Smart Contracts nutzen und gleichzeitig sensible Geschäftslogik und Daten vertraulich behandeln. Beispielsweise könnte eine Bank einen TEE-fähigen Vertrag verwenden, um Kreditanträge oder Handelsabwicklungen zu bearbeiten, ohne Kundendaten on-chain preiszugeben, und dennoch von der Transparenz und Integrität der Blockchain-Verifizierung profitieren. Diese Fähigkeit adressiert direkt regulatorische Datenschutzanforderungen (wie die DSGVO oder HIPAA) und ermöglicht die konforme Nutzung von Blockchain im Gesundheitswesen, im Finanzwesen und in anderen sensiblen Branchen. Tatsächlich erleichtern TEEs die Einhaltung von Datenschutzgesetzen, indem sie sicherstellen, dass personenbezogene Daten innerhalb einer Enklave verarbeitet werden können und nur verschlüsselte Ausgaben nach außen gelangen, was die Regulierungsbehörden davon überzeugt, dass die Daten geschützt sind.

Über die Vertraulichkeit hinaus helfen TEEs auch dabei, die Fairness in Smart Contracts zu erzwingen. Beispielsweise könnte eine dezentrale Börse ihre Matching-Engine innerhalb einer TEE ausführen, um zu verhindern, dass Miner oder Validatoren ausstehende Aufträge sehen und Transaktionen unzulässig durch Front-Running manipulieren. Zusammenfassend lässt sich sagen, dass TEEs eine dringend benötigte Privatsphäre-Schicht in Web3 bringen und Anwendungen wie vertrauliches DeFi, private Abstimmungen/Governance und Unternehmensverträge freischalten, die zuvor auf öffentlichen Ledgern nicht machbar waren.

Skalierbarkeit und Off-Chain-Berechnung

Eine weitere kritische Rolle für TEEs ist die Verbesserung der Blockchain-Skalierbarkeit durch das Auslagern schwerer Berechnungen off-chain in eine sichere Umgebung. Blockchains haben aufgrund von Leistungsgrenzen und Kosten für die On-Chain-Ausführung Schwierigkeiten mit komplexen oder rechenintensiven Aufgaben. TEE-fähige Off-Chain-Berechnungen ermöglichen es, diese Aufgaben außerhalb der Haupt-Chain zu erledigen (wodurch kein Block-Gas verbraucht oder der On-Chain-Durchsatz verlangsamt wird), während gleichzeitig Vertrauensgarantien über die Korrektheit der Ergebnisse erhalten bleiben. Effektiv kann eine TEE als verifizierbarer Off-Chain-Rechenbeschleuniger für Web3 dienen.

Beispielsweise nutzt die Plattform iExec TEEs, um einen dezentralen Cloud-Computing-Marktplatz zu schaffen, auf dem Entwickler Berechnungen off-chain ausführen können und Ergebnisse erhalten, denen die Blockchain vertraut. Eine dApp kann eine Berechnung anfordern (z. B. eine komplexe KI-Modell-Inferenz oder eine Big-Data-Analyse), die von iExec-Worker-Nodes durchgeführt werden soll. Diese Worker-Nodes führen die Aufgabe innerhalb einer SGX-Enklave aus und produzieren ein Ergebnis zusammen mit einem Attest (Nachweis), dass der korrekte Code in einer echten Enklave lief. Das Ergebnis wird dann on-chain zurückgegeben, und der Smart Contract kann das Attest der Enklave verifizieren, bevor er die Ausgabe akzeptiert. Diese Architektur ermöglicht es, schwere Arbeitslasten off-chain zu bewältigen, ohne auf Vertrauen zu verzichten, was den Durchsatz effektiv steigert. Die Integration des iExec Orchestrators mit Chainlink demonstriert dies: Ein Chainlink-Oracle ruft externe Daten ab, übergibt dann eine komplexe Berechnung an die TEE-Worker von iExec (z. B. Aggregieren oder Bewerten der Daten), und schließlich wird das sichere Ergebnis on-chain geliefert. Anwendungsfälle umfassen Dinge wie dezentrale Versicherungsberechnungen (wie iExec gezeigt hat), bei denen eine große Menge an Datenverarbeitung kostengünstig off-chain durchgeführt werden kann, wobei nur das Endergebnis auf die Blockchain gelangt.

TEE-basierte Off-Chain-Berechnungen bilden auch die Grundlage für einige Layer-2-Skalierungslösungen. Der frühe Prototyp von Oasis Labs, Ekiden (der Vorläufer des Oasis Network), nutzte SGX-Enklaven, um die Transaktionsausführung off-chain parallel auszuführen und dann nur State Roots an die Haupt-Chain zu übermitteln – im Prinzip ähnlich wie Rollup-Ideen, aber unter Verwendung von Hardware-Vertrauen. Durch die Vertragsausführung in TEEs erreichten sie einen hohen Durchsatz, während sie sich auf Enklaven verließen, um die Sicherheit zu gewährleisten. Ein weiteres Beispiel ist das kommende Op-Succinct L2 von Sanders Network, das TEEs und zkSNARKs kombiniert: TEEs führen Transaktionen privat und schnell aus, und anschließend werden ZK-Proofs generiert, um Ethereum die Korrektheit dieser Ausführungen zu beweisen. Dieser hybride Ansatz nutzt die Geschwindigkeit von TEEs und die Verifizierbarkeit von ZK für eine skalierbare, private L2-Lösung.

Im Allgemeinen können TEEs Berechnungen mit nahezu nativer Leistung ausführen (da sie tatsächliche CPU-Instruktionen verwenden, nur mit Isolierung). Daher sind sie für komplexe Logik um Größenordnungen schneller als rein kryptografische Alternativen wie homomorphe Verschlüsselung oder Zero-Knowledge-Proofs. Durch das Auslagern von Arbeit in Enklaven können Blockchains komplexere Anwendungen verarbeiten (wie maschinelles Lernen, Bild-/Audioverarbeitung, große Analysen), die on-chain unpraktisch wären. Die Ergebnisse kommen mit einem Attest zurück, das der On-Chain-Vertrag oder die Benutzer als von einer vertrauenswürdigen Enklave stammend verifizieren können, wodurch Datenintegrität und Korrektheit gewahrt bleiben. Dieses Modell wird oft als „verifizierbare Off-Chain-Berechnung“ bezeichnet, und TEEs sind ein Eckpfeiler für viele solcher Entwürfe (z. B. nutzt das Trusted Compute Framework von Hyperledger Avalon, entwickelt von Intel, iExec und anderen, TEEs zur Off-Chain-Ausführung von EVM-Bytecode mit on-chain veröffentlichtem Korrektheitsnachweis).

Sichere Oracles und Datenintegrität

Oracles schlagen die Brücke zwischen Blockchains und realen Daten, bringen jedoch Herausforderungen in Bezug auf das Vertrauen mit sich: Wie kann ein Smart Contract darauf vertrauen, dass ein Off-Chain-Datenfeed korrekt und unmanipuliert ist? TEEs bieten eine Lösung, indem sie als sichere Sandbox für Oracle-Nodes fungieren. Ein TEE-basierter Oracle-Node kann Daten von externen Quellen (APIs, Webdiensten) abrufen und sie innerhalb einer Enklave verarbeiten, die garantiert, dass die Daten nicht vom Node-Betreiber oder einer Malware auf dem Node manipuliert wurden. Die Enklave kann dann die Wahrheit der bereitgestellten Daten signieren oder attestieren. Dies verbessert die Datenintegrität und Vertrauenswürdigkeit von Oracles erheblich. Selbst wenn ein Oracle-Betreiber bösartig ist, kann er die Daten nicht ändern, ohne das Attest der Enklave zu brechen (was die Blockchain erkennen würde).

Ein bemerkenswertes Beispiel ist Town Crier, ein bei Cornell entwickeltes Oracle-System, das als eines der ersten Intel SGX-Enklaven nutzte, um authentifizierte Daten für Ethereum-Verträge bereitzustellen. Town Crier rief Daten (z. B. von HTTPS-Websites) innerhalb einer SGX-Enklave ab und lieferte sie zusammen mit einem Beweis (einer Enklaven-Signatur) an einen Vertrag, dass die Daten direkt von der Quelle stammten und nicht gefälscht wurden. Chainlink erkannte den Wert davon und erwarb Town Crier im Jahr 2018, um TEE-basierte Oracles in sein dezentrales Netzwerk zu integrieren. Heute haben Chainlink und andere Oracle-Anbieter TEE-Initiativen: Beispielsweise beinhalten die DECO- und Fair Sequencing Services von Chainlink TEEs, um Datenvertraulichkeit und eine faire Reihenfolge zu gewährleisten. Wie in einer Analyse angemerkt wurde: „TEEs haben die Oracle-Sicherheit revolutioniert, indem sie eine manipulationssichere Umgebung für die Datenverarbeitung bieten... selbst die Node-Betreiber selbst können die Daten während der Verarbeitung nicht manipulieren“. Dies ist besonders wichtig für hochwertige Finanzdatenfeeds (wie Preis-Oracles für DeFi): Eine TEE kann selbst subtile Manipulationen verhindern, die zu großen Exploits führen könnten.

TEEs ermöglichen es Oracles auch, mit sensiblen oder proprietären Daten umzugehen, die nicht im Klartext auf einer Blockchain veröffentlicht werden könnten. Beispielsweise könnte ein Oracle-Netzwerk Enklaven nutzen, um private Daten (wie vertrauliche Aktien-Orderbücher oder persönliche Gesundheitsdaten) zu aggregieren und nur abgeleitete Ergebnisse oder validierte Beweise an die Blockchain zu liefern, ohne die rohen sensiblen Eingaben preiszugeben. Auf diese Weise erweitern TEEs den Umfang der Daten, die sicher in Smart Contracts integriert werden können, was entscheidend für die Tokenisierung realer Vermögenswerte (RWA), Kredit-Scoring, Versicherungen und andere datenintensive On-Chain-Dienste ist.

Beim Thema Cross-Chain-Bridges verbessern TEEs die Integrität in ähnlicher Weise. Bridges verlassen sich oft auf eine Gruppe von Validatoren oder eine Multi-Sig, um Vermögenswerte zu verwahren und Übertragungen zwischen Chains zu validieren, was sie zu Hauptzielen für Angriffe macht. Durch die Ausführung der Bridge-Validator-Logik innerhalb von TEEs kann man die privaten Schlüssel und Verifizierungsprozesse der Bridge gegen Manipulationen absichern. Selbst wenn das Betriebssystem eines Validators kompromittiert ist, sollte der Angreifer nicht in der Lage sein, private Schlüssel zu extrahieren oder Nachrichten aus dem Inneren der Enklave zu fälschen. TEEs können erzwingen, dass Bridge-Transaktionen genau nach den Protokollregeln verarbeitet werden, was das Risiko verringert, dass menschliche Betreiber oder Malware betrügerische Übertragungen einschleusen. Darüber hinaus können TEEs Atomic Swaps und Cross-Chain-Transaktionen ermöglichen, die in einer sicheren Enklave abgewickelt werden, die entweder beide Seiten abschließt oder sauber abbricht, um Szenarien zu verhindern, in denen Gelder aufgrund von Störungen stecken bleiben. Mehrere Bridge-Projekte und Konsortien haben TEE-basierte Sicherheit untersucht, um die Plage von Bridge-Hacks abzumildern, die in den letzten Jahren aufgetreten sind.

Datenintegrität und Verifizierbarkeit Off-Chain

In all den oben genannten Szenarien ist ein wiederkehrendes Thema, dass TEEs dazu beitragen, die Datenintegrität auch außerhalb der Blockchain aufrechtzuerhalten. Da eine TEE beweisen kann, welchen Code sie ausführt (über ein Attest) und sicherstellen kann, dass der Code ohne Einmischung läuft, bietet sie eine Form des verifizierbaren Computings. Benutzer und Smart Contracts können den Ergebnissen einer TEE vertrauen, als wären sie on-chain berechnet worden, sofern das Attest gültig ist. Diese Integritätsgarantie ist der Grund, warum TEEs manchmal so bezeichnet werden, dass sie einen „Vertrauensanker“ für Off-Chain-Daten und -Berechnungen bilden.

Es ist jedoch erwähnenswert, dass dieses Vertrauensmodell einige Annahmen auf die Hardware verlagert (siehe §4). Die Datenintegrität ist nur so stark wie die Sicherheit der TEE. Wenn die Enklave kompromittiert oder das Attest gefälscht wird, könnte die Integrität versagen. Dennoch machen TEEs in der Praxis (wenn sie auf dem neuesten Stand gehalten werden) bestimmte Angriffe erheblich schwieriger. Beispielsweise könnte eine DeFi-Lending-Plattform eine TEE verwenden, um Kredit-Scores aus den privaten Daten eines Benutzers off-chain zu berechnen, und der Smart Contract würde den Score nur akzeptieren, wenn er von einem gültigen Enklaven-Attest begleitet wird. Auf diese Weise weiß der Vertrag, dass der Score durch den genehmigten Algorithmus auf echten Daten berechnet wurde, anstatt dem Benutzer oder einem Oracle blind zu vertrauen.

TEEs spielen auch eine Rolle in aufstrebenden Systemen für dezentrale Identität (DID) und Authentifizierung. Sie können private Schlüssel, persönliche Daten und Authentifizierungsprozesse sicher verwalten, sodass die sensiblen Informationen des Benutzers niemals der Blockchain oder dApp-Anbietern ausgesetzt werden. Beispielsweise könnte eine TEE auf einem mobilen Gerät die biometrische Authentifizierung verarbeiten und eine Blockchain-Transaktion signieren, wenn die biometrische Prüfung erfolgreich ist – und das alles, ohne die Biometrie des Benutzers preiszugeben. Dies bietet sowohl Sicherheit als auch Privatsphäre im Identitätsmanagement – eine wesentliche Komponente, wenn Web3 Dinge wie Reisepässe, Zertifikate oder KYC-Daten auf nutzersouveräne Weise handhaben soll.

Zusammenfassend lässt sich sagen, dass TEEs als vielseitiges Werkzeug in Web3 dienen: Sie ermöglichen Vertraulichkeit für die On-Chain-Logik, erlauben Skalierung über sichere Off-Chain-Berechnungen, schützen die Integrität von Oracles und Bridges und eröffnen neue Einsatzmöglichkeiten (von privater Identität bis hin zum konformen Datenaustausch). Als Nächstes werden wir uns spezifische Projekte ansehen, die diese Funktionen nutzen.

3. Namhafte Web3-Projekte, die TEEs nutzen

Eine Reihe führender Blockchain-Projekte hat ihr Kernangebot um Trusted Execution Environments (TEEs) herum aufgebaut. Im Folgenden gehen wir auf einige bemerkenswerte Projekte ein und untersuchen, wie sie die TEE-Technologie nutzen und welchen einzigartigen Mehrwert sie dadurch schaffen:

Secret Network

Secret Network ist eine Layer-1-Blockchain (basierend auf dem Cosmos SDK), die Pionierarbeit bei datenschutzfreundlichen Smart Contracts unter Verwendung von TEEs geleistet hat. Alle Validator-Knoten im Secret Network führen Intel SGX-Enklaven aus, die den Smart-Contract-Code so verarbeiten, dass der Vertragsstatus sowie die Ein- und Ausgaben selbst für die Knotenbetreiber verschlüsselt bleiben. Dies macht Secret zu einer der ersten Privacy-first Smart-Contract-Plattformen – Datenschutz ist kein optionales Add-on, sondern ein Standardmerkmal des Netzwerks auf Protokollebene.

Im Modell des Secret Networks übermitteln Benutzer verschlüsselte Transaktionen, die von den Validatoren zur Ausführung in ihre SGX-Enklave geladen werden. Die Enklave entschlüsselt die Eingaben, führt den Vertrag aus (geschrieben in einer modifizierten CosmWasm-Laufzeitumgebung) und erzeugt verschlüsselte Ausgaben, die in die Blockchain geschrieben werden. Nur Benutzer mit dem richtigen „Viewing Key“ (oder der Vertrag selbst mit seinem internen Schlüssel) können die tatsächlichen Daten entschlüsseln und einsehen. Dies ermöglicht es Anwendungen, private Daten On-Chain zu verwenden, ohne sie öffentlich preiszugeben.

Das Netzwerk hat mehrere neuartige Anwendungsfälle demonstriert:

  • Secret DeFi: z. B. SecretSwap (ein AMM), bei dem die Kontostände und Transaktionsbeträge der Benutzer privat sind, was Front-Running abmildert und Handelsstrategien schützt. Liquiditätsanbieter und Händler können agieren, ohne jeden ihrer Schritte an die Konkurrenz zu senden.
  • Secret Auctions: Auktionsverträge, bei denen Gebote bis zum Ende der Auktion geheim gehalten werden, um strategisches Verhalten basierend auf den Geboten anderer zu verhindern.
  • Private Abstimmungen und Governance: Token-Inhaber können über Vorschläge abstimmen, ohne ihre Wahlentscheidung preiszugeben, während das Gesamtergebnis dennoch verifiziert werden kann – was eine faire, einschüchterungsfreie Governance gewährleistet.
  • Datenmarktplätze: Sensible Datensätze können gehandelt und für Berechnungen verwendet werden, ohne die Rohdaten gegenüber Käufern oder Knoten offenzulegen.

Secret Network integriert TEEs im Wesentlichen auf Protokollebene, um ein einzigartiges Wertversprechen zu schaffen: Es bietet programmierbare Privatsphäre. Zu den Herausforderungen, die sie bewältigen, gehören die Koordinierung der Enklaven-Attestierung über ein dezentrales Validator-Set hinweg und die Verwaltung der Schlüsselverteilung, damit Verträge Eingaben entschlüsseln können, während sie vor Validatoren geheim gehalten werden. Nach allgemeiner Einschätzung hat Secret die Durchführbarkeit von TEE-gestützter Vertraulichkeit auf einer öffentlichen Blockchain bewiesen und sich als Marktführer in diesem Bereich etabliert.

Oasis Network

Oasis Network ist eine weitere Layer-1-Blockchain, die auf Skalierbarkeit und Datenschutz abzielt und in ihrer Architektur intensiv TEEs (Intel SGX) nutzt. Oasis führte ein innovatives Design ein, das Konsens von Berechnung trennt und in verschiedene Schichten unterteilt, die als Consensus Layer und ParaTime Layer bezeichnet werden. Der Consensus Layer übernimmt die Blockchain-Sortierung und Finalität, während jede ParaTime eine Laufzeitumgebung für Smart Contracts sein kann. Bemerkenswerterweise ist die Emerald ParaTime von Oasis eine EVM-kompatible Umgebung, und Sapphire ist eine vertrauliche EVM, die TEEs verwendet, um den Status von Smart Contracts privat zu halten.

Der Einsatz von TEEs bei Oasis konzentriert sich auf vertrauliche Berechnungen in großem Maßstab. Durch die Isolierung der rechenintensiven Aufgaben in parallelisierbaren ParaTimes (die auf vielen Knoten laufen können) erreichen sie einen hohen Durchsatz. Durch den Einsatz von TEEs innerhalb dieser ParaTime-Knoten stellen sie sicher, dass die Berechnungen sensible Daten enthalten können, ohne diese preiszugeben. Beispielsweise könnte eine Institution einen Kredit-Scoring-Algorithmus auf Oasis ausführen, indem sie private Daten in eine vertrauliche ParaTime einspeist – die Daten bleiben für den Knoten verschlüsselt (da sie in der Enklave verarbeitet werden), und nur das Ergebnis wird ausgegeben. Währenddessen zeichnet der Oasis-Konsens lediglich den Beweis auf, dass die Berechnung korrekt stattgefunden hat.

Technisch gesehen hat Oasis zusätzliche Sicherheitsebenen über das Standard-SGX hinaus hinzugefügt. Sie implementierten eine „geschichtete Vertrauensbasis“ (layered root of trust): Sie nutzen die Quoting-Enklave von Intel SGX und einen speziellen leichtgewichtigen Kernel, um die Vertrauenswürdigkeit der Hardware zu verifizieren und die Systemaufrufe der Enklave in einer Sandbox zu isolieren. Dies reduziert die Angriffsfläche (indem gefiltert wird, welche Betriebssystemaufrufe Enklaven tätigen können) und schützt vor bestimmten bekannten SGX-Angriffen. Oasis führte auch Funktionen wie persistente Enklaven (damit Enklaven den Status über Neustarts hinweg beibehalten können) und sicheres Logging ein, um Rollback-Angriffe abzumildern (bei denen ein Knoten versuchen könnte, einen alten Enklavenstatus erneut abzuspielen). Diese Innovationen wurden in ihren technischen Whitepapern beschrieben und sind mit ein Grund, warum Oasis als forschungsorientiertes Projekt im Bereich des TEE-basierten Blockchain-Computings gilt.

Aus Sicht des Ökosystems hat sich Oasis für Bereiche wie privates DeFi (das es Banken ermöglicht teilzunehmen, ohne Kundendaten preiszugeben) und Datentokenisierung (bei der Einzelpersonen oder Unternehmen Daten auf vertrauliche Weise mit KI-Modellen teilen und dafür vergütet werden können, alles über die Blockchain) positioniert. Sie haben auch mit Unternehmen an Pilotprojekten zusammengearbeitet (beispielsweise mit BMW zum Thema Datenschutz und mit anderen im Bereich des Austauschs medizinischer Forschungsdaten). Insgesamt zeigt das Oasis Network, wie die Kombination von TEEs mit einer skalierbaren Architektur sowohl Datenschutz als auch Leistung adressieren kann, was es zu einem bedeutenden Akteur bei TEE-basierten Web3-Lösungen macht.

Sanders Network

Sanders Network ist ein dezentrales Cloud-Computing-Netzwerk im Polkadot-Ökosystem, das TEEs nutzt, um vertrauliche und hochperformante Rechendienste bereitzustellen. Es ist eine Parachain auf Polkadot, was bedeutet, dass es von der Sicherheit und Interoperabilität von Polkadot profitiert, aber eine eigene neuartige Laufzeitumgebung für Off-Chain-Berechnungen in sicheren Enklaven einführt.

Die Kernidee von Sanders besteht darin, ein großes Netzwerk von Worker-Knoten (sogenannte Sanders-Miner) zu unterhalten, die Aufgaben innerhalb von TEEs (speziell Intel SGX) ausführen und verifizierbare Ergebnisse produzieren. Diese Aufgaben können von der Ausführung von Smart-Contract-Segmenten bis hin zu universellen Berechnungen reichen, die von Benutzern angefordert werden. Da die Worker in SGX laufen, gewährleistet Sanders, dass die Berechnungen mit Vertraulichkeit (Eingabedaten sind vor dem Worker-Betreiber verborgen) und Integrität (die Ergebnisse werden mit einer Attestierung geliefert) durchgeführt werden. Dies schafft effektiv eine vertrauenslose Cloud, in der Benutzer Workloads bereitstellen können, in dem Wissen, dass der Host diese nicht einsehen oder manipulieren kann.

Man kann sich Sanders analog zu Amazon EC2 oder AWS Lambda vorstellen, jedoch dezentralisiert: Entwickler können Code im Sanders-Netzwerk bereitstellen und ihn auf vielen SGX-fähigen Rechnern weltweit ausführen lassen, wobei sie den Dienst mit dem Sanders-Token bezahlen. Einige hervorgehobene Anwendungsfälle:

  • Web3-Analytik und KI: Ein Projekt könnte Benutzerdaten analysieren oder KI-Algorithmen in Sanders-Enklaven ausführen, sodass rohe Benutzerdaten verschlüsselt bleiben (Schutz der Privatsphäre), während nur aggregierte Erkenntnisse die Enklave verlassen.
  • Game-Backends und Metaverse: Sanders kann intensive Spiellogik oder Simulationen virtueller Welten Off-Chain verarbeiten und nur Verpflichtungen (Commitments) oder Hashes an die Blockchain senden, was ein reichhaltigeres Gameplay ermöglicht, ohne auf einen einzelnen Server vertrauen zu müssen.
  • On-Chain-Dienste: Sanders hat eine Off-Chain-Rechenplattform namens Sanders Cloud aufgebaut. Diese kann beispielsweise als Backend für Bots, dezentrale Webdienste oder sogar ein Off-Chain-Orderbuch dienen, das Trades mit TEE-Attestierung an einen DEX-Smart-Contract übermittelt.

Sanders betont, dass es vertrauliche Berechnungen horizontal skalieren kann: Wird mehr Kapazität benötigt? Dann werden einfach mehr TEE-Worker-Knoten hinzugefügt. Dies unterscheidet sich von einer einzelnen Blockchain, bei der die Rechenkapazität durch den Konsens begrenzt ist. Somit eröffnet Sanders Möglichkeiten für rechenintensive dApps, die dennoch vertrauenslose Sicherheit wünschen. Wichtig ist, dass Sanders sich nicht rein auf Hardware-Vertrauen verlässt; es wird in den Konsens von Polkadot integriert (z. B. Staking und Slashing bei fehlerhaften Ergebnissen) und erforscht sogar eine Kombination aus TEE mit Zero-Knowledge Proofs (wie erwähnt nutzt ihr kommendes L2 TEEs zur Beschleunigung der Ausführung und ZKPs zur prägnanten Verifizierung auf Ethereum). Dieser hybride Ansatz hilft, das Risiko einer Kompromittierung eines einzelnen TEEs zu mindern, indem eine zusätzliche kryptografische Verifizierung hinzugefügt wird.

Zusammenfassend lässt sich sagen, dass das Sanders Network TEEs nutzt, um eine dezentrale, vertrauliche Cloud für Web3 bereitzustellen, die Off-Chain-Berechnungen mit Sicherheitsgarantien ermöglicht. Dies setzt eine Klasse von Blockchain-Anwendungen frei, die sowohl hohe Rechenleistung als auch Datenschutz benötigen, und schließt die Lücke zwischen On-Chain- und Off-Chain-Welten.

iExec

iExec ist ein dezentraler Marktplatz für Cloud-Computing-Ressourcen, der auf Ethereum aufbaut. Im Gegensatz zu den drei vorgenannten Projekten (die eigene Chains oder Parachains sind), operiert iExec als Layer-2- oder Off-Chain-Netzwerk, das mit Ethereum-Smart-Contracts koordiniert. TEEs (speziell Intel SGX) sind ein Eckpfeiler des Ansatzes von iExec, um Vertrauen in Off-Chain-Berechnungen zu schaffen.

Das iExec-Netzwerk besteht aus Worker-Knoten, die von verschiedenen Anbietern beigesteuert werden. Diese Worker können Aufgaben ausführen, die von Benutzern (dApp-Entwicklern, Datenanbietern usw.) angefordert werden. Um sicherzustellen, dass diese Off-Chain-Berechnungen vertrauenswürdig sind, hat iExec ein Framework für „Trusted Off-chain Computing“ eingeführt: Aufgaben können innerhalb von SGX-Enklaven ausgeführt werden, und die Ergebnisse werden mit einer Enklaven-Signatur geliefert, die beweist, dass die Aufgabe korrekt auf einem sicheren Knoten ausgeführt wurde. iExec ist eine Partnerschaft mit Intel eingegangen, um diese Trusted-Computing-Funktion einzuführen, und ist sogar dem Confidential Computing Consortium beigetreten, um Standards voranzutreiben. Ihr Konsensprotokoll namens Proof-of-Contribution (PoCo) aggregiert bei Bedarf Stimmen/Attestierungen von mehreren Workern, um einen Konsens über das korrekte Ergebnis zu erzielen. In vielen Fällen reicht die Attestierung einer einzelnen Enklave aus, wenn der Code deterministisch ist und das Vertrauen in SGX hoch ist; für eine höhere Absicherung kann iExec Aufgaben über mehrere TEEs hinweg replizieren und einen Konsens oder Mehrheitsentscheid verwenden.

Die Plattform von iExec ermöglicht mehrere interessante Anwendungsfälle:

  • Dezentrales Oracle-Computing: Wie bereits erwähnt, kann iExec mit Chainlink zusammenarbeiten. Ein Chainlink-Knoten könnte Rohdaten abrufen, diese dann an einen iExec SGX-Worker übergeben, um eine Berechnung (z. B. einen proprietären Algorithmus oder eine KI-Inferenz) auf diesen Daten durchzuführen, und schließlich ein Ergebnis On-Chain zurückgeben. Dies erweitert die Möglichkeiten von Oracles über das bloße Weiterleiten von Daten hinaus – sie können nun berechnete Dienste anbieten (wie den Aufruf eines KI-Modells oder die Aggregation vieler Quellen), wobei TEE die Ehrlichkeit gewährleistet.
  • KI und DePIN (Decentralized Physical Infrastructure Network): iExec positioniert sich als Vertrauensebene für dezentrale KI-Apps. Beispielsweise kann eine dApp, die ein maschinelles Lernmodell verwendet, das Modell in einer Enklave ausführen, um sowohl das Modell (falls es proprietär ist) als auch die eingespeisten Benutzerdaten zu schützen. Im Kontext von DePIN (wie verteilten IoT-Netzwerken) können TEEs auf Edge-Geräten eingesetzt werden, um Sensormesswerten und Berechnungen auf diesen Werten zu vertrauen.
  • Sichere Datenmonetarisierung: Datenanbieter können ihre Datensätze in verschlüsselter Form auf dem Marktplatz von iExec zur Verfügung stellen. Käufer können ihre Algorithmen senden, um sie auf den Daten innerhalb eines TEEs auszuführen (sodass die Rohdaten des Datenanbieters niemals offengelegt werden, was dessen geistiges Eigentum schützt, und auch die Details des Algorithmus verborgen bleiben können). Das Ergebnis der Berechnung wird an den Käufer zurückgegeben, und die entsprechende Zahlung an den Datenanbieter wird über Smart Contracts abgewickelt. Dieses Schema, das oft als sicherer Datenaustausch bezeichnet wird, wird durch die Vertraulichkeit von TEEs ermöglicht.

Insgesamt bietet iExec das Bindeglied zwischen Ethereum-Smart-Contracts und einer sicheren Off-Chain-Ausführung. Es zeigt, wie TEE-„Worker“ vernetzt werden können, um eine dezentrale Cloud zu bilden, komplett mit einem Marktplatz (unter Verwendung des RLC-Tokens von iExec für Zahlungen) und Konsensmechanismen. Durch die Leitung der Trusted Compute Working Group der Enterprise Ethereum Alliance und die Mitwirkung an Standards (wie Hyperledger Avalon) treibt iExec zudem die breitere Akzeptanz von TEEs in Enterprise-Blockchain-Szenarien voran.

Andere Projekte und Ökosysteme

Über die vier oben genannten hinaus gibt es einige weitere erwähnenswerte Projekte:

  • Integritee – eine weitere Polkadot-Parachain ähnlich wie Sanders (tatsächlich ging sie aus der TEE-Arbeit der Energy Web Foundation hervor). Integritee nutzt TEEs, um „Parachain-as-a-Service“ für Unternehmen anzubieten, wobei On-Chain- und Off-Chain-Enklavenverarbeitung kombiniert werden.
  • Automata Network – ein Middleware-Protokoll für Web3-Privatsphäre, das TEEs für private Transaktionen, anonyme Abstimmungen und MEV-resistente Transaktionsverarbeitung nutzt. Automata fungiert als Off-Chain-Netzwerk, das Dienste wie ein privates RPC-Relay anbietet, und wurde im Zusammenhang mit der Nutzung von TEEs für Dinge wie geschützte Identitäten und gaslose private Transaktionen erwähnt.
  • Hyperledger Sawtooth (PoET) – im Unternehmensbereich führte Sawtooth einen Konsensalgorithmus namens Proof of Elapsed Time ein, der auf SGX beruhte. Jeder Validator führt eine Enklave aus, die eine zufällige Zeit lang wartet und einen Beweis erstellt; derjenige mit der kürzesten Wartezeit „gewinnt“ den Block, eine faire Lotterie, die durch SGX erzwungen wird. Obwohl Sawtooth per se kein Web3-Projekt ist (eher Enterprise-Blockchain), ist es eine kreative Nutzung von TEEs für den Konsens.
  • Unternehmens-/Konsortial-Chains – Viele Enterprise-Blockchain-Lösungen (z. B. ConsenSys Quorum, IBM Blockchain) integrieren TEEs, um vertrauliche Konsortialtransaktionen zu ermöglichen, bei denen nur autorisierte Knoten bestimmte Daten sehen. Beispielsweise nutzt das Blueprint des Trusted Compute Framework (TCF) der Enterprise Ethereum Alliance TEEs, um private Verträge Off-Chain auszuführen und Merkle-Proofs On-Chain zu liefern.

Diese Projekte zeigen zusammen die Vielseitigkeit von TEEs: Sie treiben ganze datenschutzorientierte L1s an, dienen als Off-Chain-Netzwerke, sichern Infrastrukturkomponenten wie Oracles und Bridges und bilden sogar die Grundlage für Konsensalgorithmen. Als Nächstes betrachten wir die breiteren Vorteile und Herausforderungen des Einsatzes von TEEs in dezentralen Umgebungen.

4. Vorteile und Herausforderungen von TEEs in dezentralen Umgebungen

Die Einführung von Trusted Execution Environments ( TEEs ) in Blockchain-Systemen bringt sowohl signifikante technische Vorteile als auch bemerkenswerte Herausforderungen und Kompromisse mit sich. Wir werden beide Seiten untersuchen: was TEEs für dezentrale Anwendungen bieten und welche Probleme oder Risiken aus ihrer Verwendung resultieren.

Vorteile und technische Stärken

  • Starke Sicherheit & Privatsphäre: Der wichtigste Vorteil sind die Garantien für Vertraulichkeit und Integrität. TEEs ermöglichen es, sensiblen Code mit der Gewissheit auszuführen, dass er nicht von externer Malware ausspioniert oder verändert werden kann. Dies bietet ein Maß an Vertrauen in Off-Chain-Berechnungen, das zuvor nicht verfügbar war. Für die Blockchain bedeutet dies, dass private Daten genutzt werden können ( was die Funktionalität von dApps erweitert ), ohne die Sicherheit zu opfern. Selbst in nicht vertrauenswürdigen Umgebungen ( Cloud-Server, von Dritten betriebene Validator-Nodes ) halten TEEs Geheimnisse sicher. Dies ist besonders vorteilhaft für die Verwaltung von privaten Schlüsseln, Benutzerdaten und proprietären Algorithmen innerhalb von Krypto-Systemen. Zum Beispiel könnte eine Hardware-Wallet oder ein Cloud-Signierungsdienst ein TEE verwenden, um Blockchain-Transaktionen intern zu signieren, sodass der private Schlüssel niemals im Klartext offengelegt wird, was Komfort mit Sicherheit kombiniert.

  • Nahezu native Performance: Im Gegensatz zu rein kryptografischen Ansätzen für sicheres Rechnen ( wie ZK-Proofs oder homomorphe Verschlüsselung ) ist der Overhead von TEEs relativ gering. Der Code wird direkt auf der CPU ausgeführt, sodass eine Berechnung innerhalb einer Enklave in etwa so schnell ist wie außerhalb ( mit gewissen Einbußen für Enklaven-Übergänge und Speicherverschlüsselung, typischerweise im einstelligen Prozentbereich bei SGX ). Das bedeutet, dass TEEs rechenintensive Aufgaben effizient bewältigen können, was Anwendungsfälle ermöglicht ( wie Echtzeit-Datenfeeds, komplexe Smart Contracts, maschinelles Lernen ), die um Größenordnungen langsamer wären, wenn sie mit kryptografischen Protokollen durchgeführt würden. Die geringe Latenz von Enklaven macht sie für Bereiche geeignet, in denen schnelle Reaktionen erforderlich sind ( z. B. durch TEEs gesicherte Hochfrequenz-Trading-Bots oder interaktive Anwendungen und Spiele, bei denen die Benutzererfahrung unter hohen Verzögerungen leiden würde ).

  • Verbesserte Skalierbarkeit ( durch Auslagerung ): Durch die Ermöglichung sicherer Off-Chain-Berechnungen tragen TEEs dazu bei, Überlastungen und Gaskosten auf den Hauptketten zu reduzieren. Sie ermöglichen Layer-2-Designs und Side-Protokolle, bei denen die Blockchain nur zur Verifizierung oder endgültigen Abrechnung verwendet wird, während der Großteil der Berechnungen in parallelen Enklaven stattfindet. Diese Modularisierung ( rechenintensive Logik in TEEs, Konsens auf der Chain ) kann den Durchsatz und die Skalierbarkeit dezentraler Anwendungen drastisch verbessern. Beispielsweise könnte eine DEX das Matchmaking in einem TEE off-chain durchführen und nur die gematchten Trades on-chain posten, was den Durchsatz erhöht und das On-Chain-Gas reduziert.

  • Bessere Benutzererfahrung & Funktionalität: Mit TEEs können dApps Funktionen wie Vertraulichkeit oder komplexe Analysen anbieten, die mehr Nutzer ( einschließlich Institutionen ) anziehen. TEEs ermöglichen auch gaslose oder Meta-Transaktionen, indem sie diese sicher off-chain ausführen und dann die Ergebnisse übermitteln, wie in Automatas Nutzung von TEEs zur Reduzierung von Gas für private Transaktionen angemerkt. Darüber hinaus kann das Speichern von sensitivem Status off-chain in einer Enklave die Menge der on-chain veröffentlichten Daten reduzieren, was gut für die Privatsphäre der Nutzer und die Netzwerkeffizienz ist ( weniger On-Chain-Daten zum Speichern / Verifizieren ).

  • Komponierbarkeit mit anderen Technologien: Interessanterweise können TEEs andere Technologien ergänzen ( was nicht unbedingt ein inhärenter Vorteil von TEEs allein ist, sondern in Kombination ). Sie können als Bindeglied für hybride Lösungen dienen: z. B. das Ausführen eines Programms in einer Enklave und das gleichzeitige Erzeugen eines ZK-Proofs seiner Ausführung, wobei die Enklave Teile des Beweisprozesses unterstützt, um diesen zu beschleunigen. Oder die Verwendung von TEEs in MPC-Netzwerken, um bestimmte Aufgaben mit weniger Kommunikationsrunden zu bewältigen. Wir werden Vergleiche in §5 diskutieren, aber viele Projekte betonen, dass TEEs die Kryptografie nicht ersetzen müssen – sie können zusammenarbeiten, um die Sicherheit zu stärken ( Sanders’ Mantra: „Die Stärke von TEEs liegt darin, andere zu unterstützen, nicht sie zu ersetzen“ ).

Vertrauensannahmen und Sicherheitsanfälligkeiten

Trotz ihrer Stärken führen TEEs spezifische Vertrauensannahmen ein und sind nicht unantastbar. Es ist entscheidend, diese Herausforderungen zu verstehen:

  • Hardware-Vertrauen und Zentralisierung: Durch die Verwendung von TEEs setzt man inhärent Vertrauen in den Chiphersteller ( Silicon Vendor ) sowie in die Sicherheit seines Hardware-Designs und seiner Lieferkette. Die Verwendung von Intel SGX bedeutet beispielsweise das Vertrauen darauf, dass Intel keine Backdoors eingebaut hat, dass die Fertigung sicher ist und dass der Mikrocode der CPU die Enklaven-Isolierung korrekt implementiert. Dies ist ein zentralisierteres Vertrauensmodell im Vergleich zu reiner Kryptografie ( die auf mathematischen Annahmen beruht, die unter allen Nutzern verteilt sind ). Darüber hinaus beruht die Attestierung für SGX historisch auf der Kontaktaufnahme mit Intels Attestation Service. Das bedeutet: Wenn Intel offline ginge oder beschließen würde, Schlüssel zu widerrufen, könnten Enklaven weltweit betroffen sein. Diese Abhängigkeit von der Infrastruktur eines einzelnen Unternehmens wirft Bedenken auf: Es könnte ein Single Point of Failure oder sogar ein Ziel für staatliche Regulierungen sein ( z. B. könnten US-Exportkontrollen theoretisch einschränken, wer starke TEEs nutzen darf ). AMD SEV mildert dies ab, indem es eine dezentralere Attestierung ermöglicht ( VM-Besitzer können ihre VMs attestieren ), vertraut aber weiterhin dem Chip und der Firmware von AMD. Das Zentralisierungsrisiko wird oft als etwas angeführt, das dem Dezentralisierungsgedanken der Blockchain widerspricht. Projekte wie Keystone ( Open-Source-TEE ) und andere erforschen Wege, um die Abhängigkeit von proprietären Black Boxes zu verringern, aber diese sind noch nicht im Mainstream angekommen.

  • Seitenkanal- und andere Schwachstellen: Ein TEE ist kein Allheilmittel; es kann durch indirekte Mittel angegriffen werden. Seitenkanalangriffe ( Side-Channel Attacks ) nutzen die Tatsache aus, dass, selbst wenn der direkte Speicherzugriff blockiert ist, der Betrieb einer Enklave das System subtil beeinflussen kann ( durch Timing, Cache-Nutzung, Stromverbrauch, elektromagnetische Emissionen usw. ). In den letzten Jahren wurden zahlreiche akademische Angriffe auf Intel SGX demonstriert: von Foreshadow ( Extrahieren von Enklaven-Geheimnissen über L1-Cache-Timing-Leckagen ) über Plundervolt ( Voltage Fault Injection über privilegierte Befehle ) bis hin zu SGAxe ( Extrahieren von Attestierungsschlüsseln ) und anderen. Diese hochentwickelten Angriffe zeigen, dass TEEs kompromittiert werden können, ohne kryptografische Schutzmechanismen brechen zu müssen – stattdessen durch das Ausnutzen von mikroarchitektonischen Verhaltensweisen oder Fehlern in der Implementierung. Infolgedessen wird anerkannt, dass „Forscher verschiedene potenzielle Angriffsvektoren identifiziert haben, die Hardware-Schwachstellen oder Zeitunterschiede bei TEE-Operationen ausnutzen könnten“. Obwohl diese Angriffe nicht trivial sind und oft entweder lokalen Zugriff oder bösartige Hardware erfordern, stellen sie eine reale Bedrohung dar. TEEs schützen im Allgemeinen auch nicht vor physischen Angriffen, wenn ein Angreifer den Chip in der Hand hat ( z. B. das Öffnen des Chips / Decapping, das Sondieren von Bussen usw. kann die meisten kommerziellen TEEs überwinden ).

    Die Reaktionen der Hersteller auf Entdeckungen von Seitenkanälen bestanden in Mikrocode-Patches und Updates des Enklaven-SDKs, um bekannte Lecks zu mildern ( manchmal auf Kosten der Performance ). Aber es bleibt ein Katz-und-Maus-Spiel. Für Web3 bedeutet dies: Wenn jemand einen neuen Seitenkanal auf SGX findet, könnte ein „sicherer“ DeFi-Vertrag, der in SGX läuft, potenziell ausgenutzt werden ( z. B. um geheime Daten zu lecken oder die Ausführung zu manipulieren ). Sich auf TEEs zu verlassen, bedeutet also, eine potenzielle Angriffsfläche auf Hardware-Ebene zu akzeptieren, die außerhalb des typischen Blockchain-Bedrohungsmodells liegt. Es ist ein aktives Forschungsgebiet, TEEs gegen diese Angriffe zu stärken ( zum Beispiel durch das Entwerfen von Enklaven-Code mit Constant-Time-Operationen, das Vermeiden von geheimnisabhängigen Speicherzugriffsmustern und die Verwendung von Techniken wie Oblivious RAM ). Einige Projekte ergänzen TEEs auch durch sekundäre Prüfungen – z. B. die Kombination mit ZK-Proofs oder das Ausführen mehrerer Enklaven auf Hardware verschiedener Hersteller, um das Risiko eines einzelnen Chips zu verringern.

  • Performance- und Ressourcenbeschränkungen: Obwohl TEEs bei CPU-gebundenen Aufgaben mit nahezu nativer Geschwindigkeit laufen, bringen sie einige Overheads und Einschränkungen mit sich. Der Wechsel in eine Enklave ( ein ECALL ) und heraus ( OCALL ) verursacht Kosten, ebenso wie die Verschlüsselung / Entschlüsselung von Speicherseiten. Dies kann die Performance bei sehr häufigen Enklaven-Grenzübergängen beeinträchtigen. Enklaven haben zudem oft Einschränkungen bei der Speichergröße. Beispielsweise hatte das frühe SGX einen begrenzten Enclave Page Cache ( EPC ), und wenn Enklaven mehr Speicher verwendeten, mussten Seiten ausgelagert werden ( mit Verschlüsselung ), was die Performance massiv verlangsamte. Selbst neuere TEEs erlauben es oft nicht, den gesamten System-RAM problemlos zu nutzen – es gibt einen sicheren Speicherbereich, der begrenzt sein kann. Dies bedeutet, dass sehr umfangreiche Berechnungen oder Datensätze eine Herausforderung darstellen können, wenn sie vollständig innerhalb eines TEEs abgewickelt werden sollen. Im Web3-Kontext könnte dies die Komplexität von Smart Contracts oder ML-Modellen einschränken, die in einer Enklave laufen können. Entwickler müssen für den Speicher optimieren und möglicherweise Arbeitslasten aufteilen.

  • Komplexität der Attestierung und Schlüsselverwaltung: Die Verwendung von TEEs in einer dezentralen Umgebung erfordert robuste Attestierungs-Workflows: Jeder Knoten muss anderen beweisen, dass er eine authentische Enklave mit dem erwarteten Code ausführt. Die Einrichtung dieser On-Chain-Attestierungsverifizierung kann komplex sein. In der Regel müssen der öffentliche Attestierungsschlüssel oder das Zertifikat des Herstellers fest im Protokoll kodiert und die Verifizierungslogik in Smart Contracts oder Off-Chain-Clients geschrieben werden. Dies führt zu Overhead im Protokolldesign, und alle Änderungen ( wie der Wechsel des Attestierungs-Signaturschlüsselformats von EPID zu DCAP durch Intel ) können Wartungsaufwand verursachen. Darüber hinaus fügt die Verwaltung von Schlüsseln innerhalb von TEEs ( zum Entschlüsseln von Daten oder Signieren von Ergebnissen ) eine weitere Komplexitätsebene hinzu. Fehler bei der Enklaven-Schlüsselverwaltung könnten die Sicherheit untergraben ( z. B. wenn eine Enklave versehentlich einen Entschlüsselungsschlüssel durch einen Bug preisgibt, brechen alle ihre Vertraulichkeitsversprechen zusammen ). Best Practices beinhalten die Nutzung der Sealing-APIs des TEEs, um Schlüssel sicher zu speichern und Schlüssel bei Bedarf zu rotieren, aber auch dies erfordert ein sorgfältiges Design durch die Entwickler.

  • Denial-of-Service und Verfügbarkeit: Ein vielleicht weniger diskutiertes Problem: TEEs helfen nicht bei der Verfügbarkeit und können sogar neue DoS-Wege eröffnen. Zum Beispiel könnte ein Angreifer einen TEE-basierten Dienst mit Eingaben überfluten, deren Verarbeitung kostspielig ist, wohlwissend, dass die Enklave vom Betreiber nicht einfach inspiziert oder unterbrochen werden kann ( da sie isoliert ist ). Wenn zudem eine Schwachstelle gefunden wird und ein Patch Firmware-Updates erfordert, müssen während dieses Zyklus viele Enklaven-Dienste möglicherweise aus Sicherheitsgründen pausieren, bis die Knoten gepatcht sind, was zu Ausfallzeiten führt. Stellen Sie sich im Blockchain-Konsens vor, ein kritischer SGX-Bug würde gefunden – Netzwerke wie Secret müssten möglicherweise anhalten, bis ein Fix vorliegt, da das Vertrauen in die Enklaven gebrochen wäre. Die Koordinierung solcher Reaktionen in einem dezentralen Netzwerk ist eine Herausforderung.

Komponierbarkeit und Ökosystem-Einschränkungen

  • Eingeschränkte Komponierbarkeit mit anderen Verträgen: In einer öffentlichen Smart-Contract-Plattform wie Ethereum können Verträge problemlos andere Verträge aufrufen, und der gesamte Status ist offen, was DeFi-Money-Legos und eine reichhaltige Komposition ermöglicht. In einem TEE-basierten Vertragsmodell kann der private Status nicht frei geteilt oder kombiniert werden, ohne die Vertraulichkeit zu verletzen. Wenn beispielsweise Vertrag A in einer Enklave mit Vertrag B interagieren muss und beide geheime Daten enthalten, wie arbeiten sie zusammen? Entweder müssen sie ein komplexes sicheres Multi-Party-Protokoll durchführen ( was einen Teil der Einfachheit von TEEs zunichtemacht ) oder sie werden in einer Enklave kombiniert ( was die Modularität verringert ). Dies ist eine Herausforderung, vor der das Secret Network und andere stehen: Vertragsübergreifende Aufrufe mit Privatsphäre sind nicht trivial. Einige Lösungen sehen vor, dass eine einzige Enklave die Ausführung mehrerer Verträge übernimmt, sodass sie intern geteilte Geheimnisse verwalten kann, aber das kann das System monolithischer machen. Daher ist die Komponierbarkeit privater Verträge eingeschränkter als die öffentlicher oder erfordert neue Designmuster. Ebenso erfordert die Integration von TEE-basierten Modulen in bestehende Blockchain-dApps ein sorgfältiges Schnittstellendesign – oft wird nur das Ergebnis einer Enklave on-chain gepostet, was ein SNARK oder ein Hash sein kann, und andere Verträge können nur diese begrenzten Informationen nutzen. Dies ist definitiv ein Kompromiss; Projekte wie Secret bieten Viewing-Keys an und erlauben das Teilen von Geheimnissen nach dem „Need-to-know“-Prinzip, aber es ist nicht so nahtlos wie die normale On-Chain-Komponierbarkeit.

  • Standardisierung und Interoperabilität: Dem TEE-Ökosystem fehlen derzeit einheitliche Standards über verschiedene Hersteller hinweg. Intel SGX, AMD SEV und ARM TrustZone haben alle unterschiedliche Programmiermodelle und Attestierungsmethoden. Diese Fragmentierung bedeutet, dass eine für SGX-Enklaven geschriebene dApp nicht ohne Weiteres auf TrustZone usw. portierbar ist. In der Blockchain kann dies ein Projekt an eine bestimmte Hardware binden ( z. B. sind Secret und Oasis derzeit an x86-Server mit SGX gebunden ). Wenn diese später ARM-Knoten unterstützen wollten ( z. B. Validatoren auf Mobilgeräten ), würde dies zusätzliche Entwicklung und vielleicht eine andere Attestierungs-Verifizierungslogik erfordern. Es gibt Bemühungen ( wie das CCC – Confidential Computing Consortium ), Attestierungs- und Enklaven-APIs zu standardisieren, aber wir sind noch nicht ganz am Ziel. Der Mangel an Standards wirkt sich auch auf die Entwickler-Tools aus – man findet vielleicht das SGX-SDK ausgereift, muss sich dann aber an ein anderes TEE mit einem anderen SDK anpassen. Diese Interoperabilitäts-Herausforderung kann die Akzeptanz verlangsamen und die Kosten erhöhen.

  • Lernkurve für Entwickler: Das Erstellen von Anwendungen, die innerhalb von TEEs laufen, erfordert spezialisiertes Wissen, das viele Blockchain-Entwickler möglicherweise nicht haben. Oft ist Low-Level-Programmierung in C / C++ ( für SGX / TrustZone ) oder ein Verständnis von Speichersicherheit und seitenkanalresistentem Coding erforderlich. Das Debuggen von Enklaven-Code ist bekanntermaßen schwierig ( man kann aus Sicherheitsgründen während des Betriebs nicht einfach in eine Enklave hineinschauen! ). Obwohl Frameworks und höhere Sprachen existieren ( wie die Verwendung von Rust durch Oasis für ihre vertrauliche Runtime oder sogar Tools zum Ausführen von WebAssembly in Enklaven ), ist die Entwicklererfahrung immer noch mühsamer als die typische Smart-Contract-Entwicklung oder die Off-Chain-Web2-Entwicklung. Diese steile Lernkurve und unausgereifte Tools können Entwickler abschrecken oder zu Fehlern führen, wenn nicht sorgfältig vorgegangen wird. Hinzu kommt der Aspekt, dass Hardware zum Testen benötigt wird – zum Ausführen von SGX-Code ist eine SGX-fähige CPU oder ein Emulator erforderlich ( der langsamer ist ), sodass die Einstiegshürde höher ist. Infolgedessen sind heute relativ wenige Entwickler tief mit der Enklaven-Entwicklung vertraut, was Audits und Community-Support seltener macht als beispielsweise in der weit verbreiteten Solidity-Community.

  • Betriebskosten: Der Betrieb einer TEE-basierten Infrastruktur kann kostspieliger sein. Die Hardware selbst kann teurer oder knapper sein ( z. B. verlangen bestimmte Cloud-Anbieter einen Aufpreis für SGX-fähige VMs ). Hinzu kommt der operative Aufwand: Firmware auf dem neuesten Stand halten ( für Sicherheitspatches ), Verwaltung des Attestierungs-Networkings usw., was kleine Projekte als belastend empfinden könnten. Wenn jeder Knoten eine bestimmte CPU haben muss, könnte dies den potenziellen Validator-Pool verkleinern ( nicht jeder hat die erforderliche Hardware ), was die Dezentralisierung beeinträchtigt und möglicherweise zu einer höheren Nutzung von Cloud-Hosting führt.

Zusammenfassend lässt sich sagen: Während TEEs leistungsstarke Funktionen freischalten, bringen sie auch Vertrauenskompromisse ( Hardware-Vertrauen vs. mathematisches Vertrauen ), potenzielle Sicherheitsforschwächen ( insbesondere Seitenkanäle ) und Integrationshürden in einem dezentralen Kontext mit sich. Projekte, die TEEs einsetzen, müssen diese Probleme sorgfältig umgehen – indem sie Defense-in-Depth anwenden ( nicht davon ausgehen, dass das TEE unzerbrechlich ist ), die Trusted Computing Base minimal halten und gegenüber den Nutzern transparent über die Vertrauensannahmen kommunizieren ( damit klar ist, dass man beispielsweise neben dem Blockchain-Konsens auch der Hardware von Intel vertraut ).

5. TEEs vs. andere datenschutzfreundliche Technologien (ZKP, FHE, MPC)

Trusted Execution Environments (TEEs) sind ein Ansatz, um Datenschutz und Sicherheit im Web3 zu erreichen. Es gibt jedoch weitere wichtige Techniken, darunter Zero-Knowledge-Proofs (ZKPs), vollhomomorphe Verschlüsselung (FHE) und sichere Mehrparteienberechnung (MPC). Jede dieser Technologien verfügt über ein anderes Vertrauensmodell und Leistungsprofil. In vielen Fällen schließen sie sich nicht gegenseitig aus – sie können sich ergänzen –, aber es ist nützlich, ihre Abwägungen in Bezug auf Performance, Vertrauen und Benutzerfreundlichkeit für Entwickler zu vergleichen:

Kurzdefinitionen der Alternativen:

  • ZKPs: Kryptographische Beweise (wie zk-SNARKs, zk-STARKs), die es einer Partei ermöglichen, anderen gegenüber zu beweisen, dass eine Aussage wahr ist (z. B. „Ich kenne ein Geheimnis, das diese Berechnung erfüllt“), ohne zu verraten, warum sie wahr ist (das Verbergen der geheimen Eingabe). In der Blockchain werden ZKPs für private Transaktionen (z. B. Zcash, Aztec) und für die Skalierbarkeit verwendet (Rollups, die Beweise für eine korrekte Ausführung übermitteln). Sie gewährleisten starken Datenschutz (keine geheimen Daten werden geleakt, nur Beweise) und durch Mathematik garantierte Integrität, aber die Erzeugung dieser Beweise kann rechentechnisch schwerfällig sein, und die Schaltkreise müssen sorgfältig entworfen werden.
  • FHE: Ein Verschlüsselungsverfahren, das beliebige Berechnungen auf verschlüsselten Daten ermöglicht, sodass das Ergebnis nach der Entschlüsselung dem Ergebnis der Berechnung auf Klartexten entspricht. Theoretisch bietet FHE ultimativen Datenschutz – die Daten bleiben jederzeit verschlüsselt –, und man muss niemandem die Rohdaten anvertrauen. FHE ist jedoch für allgemeine Berechnungen extrem langsam (obwohl es sich durch Forschung verbessert); aufgrund der Performance befindet es sich noch größtenteils in der experimentellen oder spezialisierten Anwendung.
  • MPC: Protokolle, bei denen mehrere Parteien gemeinsam eine Funktion über ihre privaten Eingaben berechnen, ohne diese Eingaben einander offenzulegen. Dabei werden Daten oft mittels Secret-Sharing auf Parteien verteilt und kryptographische Operationen durchgeführt, sodass die Ausgabe korrekt ist, die einzelnen Eingaben jedoch verborgen bleiben. MPC kann Vertrauen verteilen (keine einzelne Instanz sieht alle Daten) und für bestimmte Operationen effizient sein, verursacht aber typischerweise einen Kommunikations- und Koordinationsaufwand und kann für große Netzwerke komplex in der Implementierung sein.

Unten finden Sie eine Vergleichstabelle, die die wichtigsten Unterschiede zusammenfasst:

TechnologieVertrauensmodellPerformanceDatenschutzBenutzerfreundlichkeit für Entwickler
TEE (Intel SGX etc.)Vertrauen in den Hardwarehersteller (in einigen Fällen zentralisierter Attestierungsserver). Setzt voraus, dass der Chip sicher ist; wenn die Hardware kompromittiert wird, ist die Sicherheit gebrochen.Nahezu native Ausführungsgeschwindigkeit; minimaler Overhead. Gut für Echtzeitberechnungen und große Workloads. Skalierbarkeit begrenzt durch die Verfügbarkeit TEE-fähiger Nodes.Daten liegen innerhalb der Enklave im Klartext vor, sind aber für die Außenwelt verschlüsselt. Starke Vertraulichkeit, wenn die Hardware hält; bei einer Verletzung der Enklave werden Geheimnisse offengelegt (kein zusätzlicher mathematischer Schutz).Moderate Komplexität. Bestehender Code/Sprachen (C, Rust) können oft mit geringfügigen Änderungen in der Enklave ausgeführt werden. Niedrigste Einstiegshürde – keine fortgeschrittene Kryptographie nötig – erfordert jedoch Systemprogrammierung und TEE-spezifisches SDK-Wissen.
ZKP (zk-SNARK/STARK)Vertrauen in mathematische Annahmen (z. B. Schwierigkeit kryptographischer Probleme) und manchmal ein Trusted Setup (für SNARKs). Keine Abhängigkeit von einer einzelnen Partei zur Laufzeit.Beweiserzeugung ist rechenintensiv (besonders für komplexe Programme), oft um Größenordnungen langsamer als nativ. On-Chain-Verifizierung ist schnell (wenige ms). Nicht ideal für große Datenberechnungen aufgrund der Beweiszeit. Skalierbarkeit: gut für prägnante Verifizierung (Rollups), aber der Prover ist der Flaschenhals.Sehr starker Datenschutz – Korrektheit kann bewiesen werden, ohne private Eingaben offenzulegen. Nur minimale Informationen (wie Beweisgröße) dringen nach außen. Ideal für finanzielle Privatsphäre etc.Hohe Komplexität. Erfordert das Erlernen spezialisierter Sprachen (Circuits, zkDSLs wie Circom oder Noir) und das Denken in arithmetischen Schaltkreisen. Debugging ist schwierig. Wenige Experten verfügbar.
FHEVertrauen in die Mathematik (Gitterprobleme). Keine vertrauenswürdige Partei; Sicherheit hält, solange die Verschlüsselung nicht gebrochen wird.Sehr langsam für den allgemeinen Gebrauch. Operationen auf verschlüsselten Daten sind mehrere Größenordnungen langsamer als auf Klartext. Skaliert allmählich mit Hardwareverbesserungen und besseren Algorithmen, ist aber aktuell unpraktisch für den Echtzeiteinsatz in Blockchain-Kontexten.Ultimativer Datenschutz – Daten bleiben die gesamte Zeit verschlüsselt, auch während der Berechnung. Ideal für sensible Daten (z. B. medizinische Daten, institutionenübergreifende Analysen), sofern die Performance dies zulässt.Sehr spezialisiert. Entwickler benötigen Kryptographie-Hintergrund. Einige Bibliotheken (wie Microsoft SEAL, TFHE) existieren, aber das Schreiben beliebiger Programme in FHE ist schwierig und umständlich. Noch kein routinemäßiges Entwicklungsziel für dApps.
MPCVertrauen verteilt auf mehrere Parteien. Setzt voraus, dass ein Schwellenwert von Parteien ehrlich ist (keine Kollusion über eine bestimmte Anzahl hinaus). Kein Hardware-Vertrauen nötig. Vertrauensbruch bei zu viel Kollusion.Typischerweise langsamer als nativ aufgrund von Kommunikationsrunden, aber oft schneller als FHE. Performance variiert: Einfache Operationen (Addition, Multiplikation) können effizient sein; komplexe Logik kann Kommunikationskosten sprengen. Latenz ist abhängig von Netzwerkgeschwindigkeiten. Skalierbarkeit durch Sharding oder partielle Vertrauensannahmen verbesserbar.Starker Datenschutz, wenn Annahmen halten – kein einzelner Knoten sieht die gesamte Eingabe. Informationen können jedoch über die Ausgabe leaken oder wenn Parteien ausfallen (zudem fehlt die Prägnanz von ZK – man erhält das Ergebnis, aber keinen einfach teilbaren Beweis ohne erneutes Ausführen des Protokolls).Hohe Komplexität. Erfordert das Design eines benutzerdefinierten Protokolls pro Anwendungsfall oder die Nutzung von Frameworks (wie SPDZ). Entwickler müssen kryptographische Protokolle verstehen und oft die Bereitstellung mehrerer Knoten koordinieren. Integration in Blockchain-Apps kann komplex sein.

Quellen: Der obige Vergleich stützt sich auf Analysen wie die von Sanders Network, die hervorheben, dass TEEs bei Geschwindigkeit und Benutzerfreundlichkeit glänzen, während ZK und FHE auf maximale Vertrauenslosigkeit auf Kosten hoher Rechenleistung setzen und MPC Vertrauen verteilt, aber Netzwerk-Overhead einführt.

Aus der Tabelle ergeben sich einige wichtige Abwägungen:

  • Performance: TEEs haben einen großen Vorteil bei der reinen Geschwindigkeit und der geringen Latenz. MPC kann oft moderate Komplexität mit gewissen Verzögerungen bewältigen, ZK ist langsam in der Erzeugung, aber schnell in der Verifizierung (asynchrone Nutzung), und FHE ist derzeit bei weitem am langsamsten für beliebige Aufgaben (wenn auch in Ordnung für begrenzte Operationen wie einfache Additionen/Multiplikationen). Wenn Ihre Anwendung komplexe Echtzeitverarbeitung benötigt (wie interaktive Anwendungen, Hochfrequenzentscheidungen), sind TEEs oder vielleicht MPC (mit wenigen Parteien und guten Verbindungen) heute die einzigen praktikablen Optionen. ZK und FHE wären in solchen Szenarien zu langsam.

  • Vertrauensmodell: ZKP und FHE sind rein vertrauenslos (man vertraut nur der Mathematik). MPC verlagert das Vertrauen auf Annahmen über die Ehrlichkeit der Teilnehmer (was durch viele Parteien oder wirtschaftliche Anreize gestärkt werden kann). TEEs setzen Vertrauen in die Hardware und den Hersteller voraus. Dies ist ein grundlegender Unterschied: TEEs führen eine vertrauenswürdige dritte Partei (den Chip) in die normalerweise vertrauenslose Welt der Blockchain ein. Im Gegensatz dazu werden ZK und FHE oft dafür gelobt, dass sie besser mit dem dezentralen Ethos übereinstimmen – keine speziellen Instanzen, denen man vertrauen muss, nur rechnerische Härte. MPC liegt dazwischen: Vertrauen ist dezentralisiert, aber nicht eliminiert (wenn N von M Knoten kolludieren, bricht der Datenschutz). Für maximale Vertrauenslosigkeit (z. B. ein wirklich zensurresistentes, dezentrales System) tendiert man eher zu kryptographischen Lösungen. Andererseits akzeptieren viele praktische Systeme die Annahme, dass Intel ehrlich ist oder dass eine Gruppe großer Validatoren nicht kolludieren wird, und tauschen ein Stück Vertrauen gegen enorme Effizienzgewinne ein.

  • Sicherheit/Schwachstellen: TEEs können, wie besprochen, durch Hardware-Bugs oder Seitenkanäle untergraben werden. Die Sicherheit von ZK und FHE kann untergraben werden, wenn die zugrunde liegende Mathematik (z. B. elliptische Kurven oder Gitterprobleme) gebrochen wird, aber dies sind gut untersuchte Probleme, und Angriffe würden wahrscheinlich bemerkt werden (zudem können Parameterwahlen bekannte Risiken mindern). Die Sicherheit von MPC kann durch aktive Angreifer gebrochen werden, wenn das Protokoll nicht dafür ausgelegt ist (einige MPC-Protokolle setzen „ehrliche, aber neugierige“ Teilnehmer voraus und könnten scheitern, wenn jemand offen betrügt). Im Blockchain-Kontext könnte ein TEE-Bruch katastrophaler sein (alle Enklaven-basierten Verträge könnten bis zum Patch gefährdet sein), während ein kryptographischer ZK-Bruch (wie die Entdeckung einer Schwachstelle in einer Hash-Funktion eines ZK-Rollups) ebenfalls katastrophal wäre, aber angesichts der einfacheren Annahme im Allgemeinen als weniger wahrscheinlich gilt. Die Angriffsfläche ist sehr unterschiedlich: TEEs müssen sich um Dinge wie Leistungsanalyse sorgen, während ZK sich um mathematische Durchbrüche sorgen muss.

  • Datenschutz: FHE und ZK bieten die stärksten Datenschutzgarantien – Daten bleiben kryptographisch geschützt. MPC stellt sicher, dass Daten verteilt (secret-shared) werden, sodass keine einzelne Partei sie sieht (obwohl Informationen leaken könnten, wenn Ausgaben öffentlich sind). TEEs halten Daten vor der Außenwelt geheim, aber innerhalb der Enklave werden die Daten entschlüsselt; wenn jemand irgendwie die Kontrolle über die Enklave erlangt, geht die Vertraulichkeit verloren. Zudem erlauben TEEs dem Code typischerweise, alles mit den Daten zu tun (einschließlich des unbeabsichtigten Leakens durch Seitenkanäle oder das Netzwerk, wenn der Code bösartig ist). TEEs erfordern also, dass man auch dem Enklaven-Code vertraut, nicht nur der Hardware. Im Gegensatz dazu beweisen ZKPs Eigenschaften des Codes, ohne jemals Geheimnisse preiszugeben, sodass man nicht einmal dem Code vertrauen muss (über die Tatsache hinaus, dass er tatsächlich die bewiesene Eigenschaft besitzt). Wenn eine Enklaven-Anwendung einen Bug hätte, der Daten in eine Logdatei schreibt, würde die TEE-Hardware das nicht verhindern – während ein ZK-Beweissystem einfach nichts außer dem beabsichtigten Beweis offenbaren würde. Dies ist eine Nuance: TEEs schützen vor externen Angreifern, aber nicht unbedingt vor Logikfehlern im Enklaven-Programm selbst, während das Design von ZK einen deklarativeren Ansatz erzwingt (man beweist genau das, was beabsichtigt ist, und nichts mehr).

  • Komponierbarkeit & Integration: TEEs lassen sich relativ einfach in bestehende Systeme integrieren – man kann ein bestehendes Programm nehmen, es in eine Enklave verschieben und erhält Sicherheitsvorteile, ohne das Programmiermodell zu stark zu verändern. ZK und FHE erfordern oft das Umschreiben des Programms in einen Schaltkreis oder eine restriktive Form, was einen massiven Aufwand bedeuten kann. Beispielsweise beinhaltet das Schreiben einer einfachen KI-Modellverifizierung in ZK die Transformation in eine Reihe von arithmetischen Operationen und Constraints, was weit davon entfernt ist, einfach TensorFlow in einer TEE auszuführen und das Ergebnis zu attestieren. MPC erfordert ähnlich oft benutzerdefinierte Protokolle pro Anwendungsfall. Aus Sicht der Entwicklerproduktivität und Kosten sind TEEs daher attraktiv. Wir haben in einigen Bereichen eine schnellere Einführung von TEEs gesehen, gerade weil man bestehende Software-Ökosysteme nutzen kann. ZK/MPC erfordern spezialisierte Ingenieurstalente, die knapp sind. Die Kehrseite ist jedoch, dass TEEs oft zu isolierteren Lösungen führen (man muss dieser Enklave oder dieser Gruppe von Knoten vertrauen), während ZK einen Beweis liefert, den jeder On-Chain prüfen kann, was es hochgradig komponierbar macht. ZK-Ergebnisse sind portabel – sie erzeugen einen kleinen Beweis, den beliebig viele andere Verträge oder Nutzer verwenden können. TEE-Ergebnisse liegen meist in Form einer Attestierung vor, die an eine bestimmte Hardware gebunden und möglicherweise nicht prägnant ist; sie sind vielleicht nicht so leicht teilbar oder Chain-agnostisch.

In der Praxis sehen wir hybride Ansätze: Zum Beispiel argumentiert Sanders Network, dass TEE, MPC und ZK jeweils in unterschiedlichen Bereichen glänzen und sich ergänzen können. Ein konkreter Fall ist die dezentrale Identität: Man könnte ZK-Beweise verwenden, um ein Identitätsmerkmal zu beweisen, ohne es offenzulegen, aber dieses Merkmal könnte durch einen TEE-basierten Prozess verifiziert und ausgestellt worden sein, der Dokumente privat geprüft hat. Oder betrachten Sie die Skalierung: ZK-Rollups liefern prägnante Beweise für viele Transaktionen, aber die Erzeugung dieser Beweise könnte beschleunigt werden, indem TEEs verwendet werden, um einige Berechnungen schneller durchzuführen (und dann nur eine kleinere Aussage zu beweisen). Die Kombination kann manchmal die Vertrauensanforderung an TEEs verringern (z. B. TEEs für Performance nutzen, aber die endgültige Korrektheit dennoch über einen ZK-Beweis oder ein On-Chain-Challenge-Game verifizieren, sodass eine kompromittierte TEE nicht betrügen kann, ohne erwischt zu werden). Gleichzeitig kann MPC mit TEEs kombiniert werden, indem der Rechenknoten jeder Partei eine TEE ist, was eine zusätzliche Schutzschicht bietet, sodass selbst bei Kollusion einiger Parteien diese die Daten der anderen nicht sehen können, es sei denn, sie brechen auch die Hardware-Sicherheit.

Zusammenfassend bieten TEEs einen sehr praktischen und unmittelbaren Weg zu sicherer Berechnung mit moderaten Annahmen (Hardware-Vertrauen), während ZK und FHE einen eher theoretischen und vertrauenslosen Weg bei hohen Rechenkosten bieten und MPC einen Pfad des verteilten Vertrauens mit Netzwerkkosten darstellt. Die richtige Wahl im Web3 hängt von den Anforderungen der Anwendung ab:

  • Wenn Sie schnelle, komplexe Berechnungen auf privaten Daten benötigen (wie KI, große Datensätze) – sind TEEs (oder MPC mit wenigen Parteien) derzeit der einzige gangbare Weg.
  • Wenn Sie maximale Dezentralisierung und Verifizierbarkeit benötigen – glänzen ZK-Beweise (beispielsweise bevorzugen private Kryptowährungstransaktionen ZKP wie in Zcash, da Nutzer nichts außer der Mathematik vertrauen wollen).
  • Wenn Sie kollaboratives Rechnen zwischen mehreren Stakeholdern benötigen – ist MPC von Natur aus geeignet (wie Multi-Party Key Management oder Auktionen).
  • Wenn Sie extrem sensible Daten haben und langfristiger Datenschutz ein Muss ist – könnte FHE attraktiv sein, falls sich die Performance verbessert, denn selbst wenn jemand Ihre Chiffretexte Jahre später erhielte, würde er ohne den Schlüssel nichts erfahren; während ein Enklaven-Bruch Geheimnisse rückwirkend offenlegen könnte, falls Logs aufbewahrt wurden.

Es ist bemerkenswert, dass der Blockchain-Raum all diese Technologien aktiv parallel erforscht. Wir werden wahrscheinlich Kombinationen sehen: z. B. Layer-2-Lösungen, die TEEs integrieren, um Transaktionen zu sequenzieren, und dann einen ZKP verwenden, um zu beweisen, dass die TEE die Regeln befolgt hat, oder MPC-Netzwerke, die TEEs in jedem Knoten verwenden, um die Komplexität der MPC-Protokolle zu verringern.

Letztendlich ist die Wahl zwischen TEEs, ZK, MPC und FHE keine Nullsummenentscheidung – sie zielen jeweils auf unterschiedliche Punkte im Dreieck aus Sicherheit, Performance und Vertrauenslosigkeit ab. Wie es in einem Artikel hieß: Alle vier stehen vor einem „unmöglichen Dreieck“ aus Performance, Kosten und Sicherheit – keine einzelne Lösung ist in allen Aspekten überlegen. Das optimale Design nutzt oft das richtige Werkzeug für den richtigen Teil des Problems.

6. Einführung in bedeutenden Blockchain-Ökosystemen

Trusted Execution Environments (TEEs) wurden in verschiedenen Blockchain-Ökosystemen in unterschiedlichem Maße eingeführt, oft beeinflusst durch die Prioritäten dieser Communities und die Einfachheit der Integration. Hier bewerten wir, wie TEEs in einigen der wichtigsten Ökosysteme verwendet (oder erforscht) werden: Ethereum, Cosmos und Polkadot, sowie in weiteren Bereichen:

Ethereum (und allgemeine Layer-1-Lösungen)

Auf dem Ethereum-Mainnet selbst sind TEEs kein Teil des Kernprotokolls, aber sie finden Anwendung in Anwendungen und Layer-2-Lösungen. Die Philosophie von Ethereum stützt sich primär auf kryptografische Sicherheit (z. B. die aufkommenden ZK-Rollups), doch TEEs haben Rollen in Orakeln und der Off-chain-Ausführung für Ethereum übernommen:

  • Orakel-Dienste: Wie bereits erörtert, hat Chainlink TEE-basierte Lösungen wie Town Crier integriert. Obwohl nicht alle Chainlink-Nodes standardmäßig TEEs verwenden, ist die Technologie für Datenfeeds vorhanden, die ein besonderes Maß an Vertrauen erfordern. Auch API3 (ein weiteres Orakel-Projekt) hat die Verwendung von Intel SGX erwähnt, um APIs zu betreiben und Daten zu signieren, um die Authentizität zu gewährleisten. Diese Dienste liefern Daten an Ethereum-Smart-Contracts mit stärkeren Zusicherungen.

  • Layer-2 und Rollups: In der Ethereum-Community gibt es laufende Forschungen und Debatten über den Einsatz von TEEs in Rollup-Sequencern oder Validatoren. Beispielsweise haben das „ZK-Portal“-Konzept von ConsenSys und andere die Nutzung von TEEs vorgeschlagen, um die korrekte Reihenfolge in optimistischen Rollups zu erzwingen oder den Sequencer vor Zensur zu schützen. Ein Medium-Artikel deutet sogar an, dass TEE bis 2025 ein Standardmerkmal in einigen L2-Lösungen für Bereiche wie den Schutz des Hochfrequenzhandels werden könnte. Projekte wie Catalyst (eine DEX für Hochfrequenzhandel) und Flashbots (für MEV-Relays) haben TEEs untersucht, um eine faire Reihenfolge von Transaktionen zu erzwingen, bevor sie die Blockchain erreichen.

  • Enterprise Ethereum: In Konsortial- oder zugangsbeschränkten Ethereum-Netzwerken sind TEEs weiter verbreitet. Das Trusted Compute Framework (TCF) der Enterprise Ethereum Alliance war im Grunde ein Entwurf für die Integration von TEEs in Ethereum-Clients. Hyperledger Avalon (ehemals EEA TCF) ermöglicht es, Teile von Ethereum-Smart-Contracts off-chain in einem TEE auszuführen und anschließend on-chain zu verifizieren. Mehrere Unternehmen wie IBM, Microsoft und iExec haben dazu beigetragen. Während dies im öffentlichen Ethereum-Netzwerk nicht üblich geworden ist, können TEEs in privaten Implementierungen (z. B. eine Gruppe von Banken, die Quorum oder Besu nutzen) verwendet werden, damit selbst Konsortialmitglieder die Daten der anderen nicht sehen, sondern nur die autorisierten Ergebnisse. Dies kann die Datenschutzanforderungen im Unternehmensumfeld erfüllen.

  • Bemerkenswerte Projekte: Neben iExec, das auf Ethereum operiert, gab es Projekte wie Enigma (das ursprünglich als MPC-Projekt am MIT begann, dann auf SGX umschwenkte und später zum Secret Network auf Cosmos wurde). Ein weiteres war Decentralized Cloud Services (DCS) in frühen Ethereum-Diskussionen. In jüngerer Zeit ermöglicht Oasis Ethereum ParaTime (Oasis Sapphire), dass Solidity-Contracts mit Vertraulichkeit ausgeführt werden, indem das TEE-Backend von Oasis genutzt wird, während die Abrechnung auf Ethereum erfolgt. Auch einige Ethereum-basierte DApps für den Austausch medizinischer Daten oder für Spiele haben mit TEEs experimentiert, indem sie eine Off-chain-Enklaven-Komponente nutzen, die mit ihren Smart Contracts interagiert.

Die Einführung bei Ethereum ist also eher indirekt – das Protokoll wurde nicht dahingehend geändert, TEEs vorauszusetzen, aber es gibt eine Vielzahl optionaler Dienste und Erweiterungen, die TEEs für spezifische Anforderungen nutzen. Wichtig ist, dass Ethereum-Forscher vorsichtig bleiben: Vorschläge für einen „nur TEE-basierten Shard“ oder eine tiefe Integration von TEEs stießen aufgrund von Vertrauensbedenken auf Skepsis in der Community. Stattdessen werden TEEs eher als „Co-Prozessoren“ für Ethereum und nicht als Kernkomponenten gesehen.

Cosmos-Ökosystem

Das Cosmos-Ökosystem ist dank seines modularen SDKs und souveräner Chains offen für Experimente, und das Secret Network (oben behandelt) ist ein Paradebeispiel für die TEE-Einführung in Cosmos. Secret Network ist faktisch eine Cosmos SDK-Chain mit Tendermint-Konsens, die so modifiziert wurde, dass SGX für ihre Validatoren obligatorisch ist. Es ist eine der bekanntesten Cosmos-Zonen nach dem Cosmos Hub, was auf eine erhebliche Akzeptanz der TEE-Technologie in dieser Community hindeutet. Der Erfolg von Secret bei der Bereitstellung von Interchain-Datenschutz (durch seine IBC-Verbindungen kann Secret als Datenschutz-Hub für andere Cosmos-Chains fungieren) ist ein bemerkenswerter Fall von TEE-Integration auf Layer-1-Ebene.

Ein weiteres Projekt mit Cosmos-Bezug ist das Oasis Network (obwohl es nicht auf dem Cosmos SDK aufbaut, wurde es von einigen der gleichen Personen entworfen, die zu Tendermint beigetragen haben, und teilt ein ähnliches Ethos einer modularen Architektur). Oasis ist eigenständig, kann aber über Bridges usw. mit Cosmos verbunden werden. Sowohl Secret als auch Oasis zeigen, dass im Cosmos-Umfeld die Idee von „Datenschutz als Feature“ via TEEs genug Anklang fand, um dedizierte Netzwerke zu rechtfertigen.

Cosmos verfügt sogar über ein Konzept von „Datenschutz-Providern“ für Interchain-Anwendungen – z. B. kann eine App auf einer Chain einen Contract auf dem Secret Network via IBC aufrufen, um eine vertrauliche Berechnung durchzuführen, und das Ergebnis zurückerhalten. Diese Komponierbarkeit entwickelt sich gerade.

Zusätzlich hat das Projekt Anoma (nicht strikt Cosmos, aber im Sinne der Interoperabilität verwandt) über die Nutzung von TEEs für Intent-zentrierte Architekturen gesprochen, wenngleich dies eher theoretischer Natur ist.

Kurz gesagt: Cosmos hat mindestens eine große Chain, die TEEs vollständig nutzt (Secret), und andere, die damit interagieren, was eine gesunde Akzeptanz in diesem Bereich illustriert. Die Modularität von Cosmos könnte weitere solcher Chains ermöglichen (man könnte sich beispielsweise eine Cosmos-Zone vorstellen, die auf TEE-basierte Orakel oder Identität spezialisiert ist).

Polkadot und Substrate

Das Design von Polkadot erlaubt es Parachains, sich zu spezialisieren, und tatsächlich beherbergt Polkadot mehrere Parachains, die TEEs nutzen:

  • Sanders Network: Bereits beschrieben; eine Parachain, die eine TEE-basierte Compute-Cloud anbietet. Sanders ist als Parachain live und stellt Dienste für andere Chains über XCMP (Cross-Chain Message Passing) bereit. Beispielsweise kann ein anderes Polkadot-Projekt eine vertrauliche Aufgabe an die Worker von Sanders auslagern und einen Beweis oder ein Ergebnis zurückerhalten. Die Token-Ökonomik von Sanders schafft Anreize für den Betrieb von TEE-Nodes, und das Projekt hat eine beachtliche Community, was auf eine starke Akzeptanz hindeutet.
  • Integritee: Eine weitere Parachain, die sich auf Unternehmens- und Datenschutzlösungen mittels TEEs konzentriert. Integritee ermöglicht es Teams, eigene private Sidechains (genannt Teewasms) bereitzustellen, in denen die Ausführung in Enklaven erfolgt. Es zielt auf Anwendungsfälle wie die vertrauliche Datenverarbeitung für Unternehmen ab, die dennoch die Sicherheit von Polkadot als Anker nutzen möchten.
  • /Root oder Crust?: Es gab Ideen zur Nutzung von TEEs für dezentrale Speicherung oder Random Beacons in einigen Polkadot-bezogenen Projekten. Zum Beispiel plante das Crust Network (dezentraler Speicher) ursprünglich einen TEE-basierten Proof-of-Storage (obwohl man später zu einem anderen Design überging). Und Polkadots Random-Parachain (Entropy) zog TEEs gegenüber VRFs in Erwägung.

Polkadots Vertrauen auf On-chain-Governance und Upgrades bedeutet, dass Parachains neue Technologien schnell integrieren können. Sowohl Sanders und Integritee haben Upgrades durchlaufen, um ihre TEE-Integration zu verbessern (z. B. die Unterstützung neuer SGX-Funktionen oder die Verfeinerung von Attestierungsmethoden). Die Web3 Foundation finanzierte zudem frühere Bemühungen an Substrate-basierten TEE-Projekten wie SubstraTEE (ein früher Prototyp, der die Off-chain-Ausführung von Contracts in TEEs mit On-chain-Verifizierung demonstrierte).

Das Polkadot-Ökosystem zeigt somit mehrere unabhängige Teams, die auf TEE-Technologie setzen, was auf einen positiven Trend hindeutet. Es wird zu einem Verkaufsargument für Polkadot, dass man sagen kann: „Wenn Sie vertrauliche Smart Contracts oder Off-chain-Berechnungen benötigen, haben wir Parachains dafür.“

Andere Ökosysteme und allgemeine Einführung

  • Unternehmen und Konsortien: Außerhalb des öffentlichen Krypto-Sektors haben Hyperledger und Unternehmens-Chains TEEs stetig für zugangsbeschränkte Umgebungen übernommen. Beispielsweise testete der Basler Ausschuss eine TEE-basierte Blockchain für Handelsfinanzierung. Das allgemeine Muster ist: Wo Datenschutz oder Vertraulichkeit ein Muss sind und die Teilnehmer bekannt sind (sodass sie vielleicht sogar kollektiv in Hardware-Sicherheitsmodule investieren), finden TEEs ein ideales Zuhause. Diese machen vielleicht keine Schlagzeilen in den Krypto-Nachrichten, aber in Sektoren wie Lieferketten, Bankenkonsortien oder Netzwerken zum Austausch von Gesundheitsdaten sind TEEs oft die erste Wahl (als Alternative dazu, einfach einem Dritten zu vertrauen oder komplexe Kryptografie einzusetzen).

  • Layer-1-Lösungen außerhalb von Ethereum: Einige neuere L1-Lösungen haben mit TEEs experimentiert. Das NEAR Protocol hatte ein frühes Konzept eines TEE-basierten Shards für private Contracts (noch nicht implementiert). Celo zog TEEs für Light-Client-Beweise in Betracht (ihre Plumo-Proofs basieren jetzt auf SNARKs, aber man untersuchte SGX, um Chain-Daten für Mobilgeräte zu komprimieren). Concordium, eine regulierte Datenschutz-L1, verwendet ZK für Anonymität, erforscht aber auch TEEs für die Identitätsprüfung. Dfinity/Internet Computer verwendet sichere Enklaven in seinen Node-Maschinen, allerdings für das Bootstrapping von Vertrauen (nicht für die Contract-Ausführung, da deren „Chain Key“-Kryptografie dies übernimmt).

  • Bitcoin: Während Bitcoin selbst keine TEEs verwendet, gab es Nebenprojekte. Zum Beispiel TEE-basierte Custody-Lösungen (wie Vault-Systeme) für Bitcoin-Keys oder bestimmte Vorschläge in DLC (Discrete Log Contracts), Orakel zu verwenden, die durch TEEs gesichert sein könnten. Generell ist die Bitcoin-Community konservativer und würde Intel nicht ohne Weiteres als Teil des Konsenses vertrauen, aber als ergänzende Technologie (Hardware-Wallets mit Secure Elements) ist sie bereits akzeptiert.

  • Regulierungsbehörden und Regierungen: Ein interessanter Aspekt der Einführung: Einige Forschungen zu CBDCs (zentralbankgestützte digitale Währungen) haben TEEs untersucht, um Datenschutz durchzusetzen und gleichzeitig Prüfbarkeit zu ermöglichen. Beispielsweise führte die Banque de France Experimente durch, bei denen ein TEE verwendet wurde, um bestimmte Compliance-Prüfungen für ansonsten private Transaktionen durchzuführen. Dies zeigt, dass selbst Regulierungsbehörden TEEs als einen Weg sehen, Datenschutz mit Aufsicht in Einklang zu bringen – man könnte eine CBDC haben, bei der Transaktionen für die Öffentlichkeit verschlüsselt sind, aber eine Regulierungs-Enklave sie unter bestimmten Bedingungen überprüfen kann (dies ist hypothetisch, wird aber in politischen Kreisen diskutiert).

  • Metriken zur Einführung: Die Einführung lässt sich schwer quantifizieren, aber wir können auf Indikatoren wie die Anzahl der Projekte, investierte Mittel und die Verfügbarkeit von Infrastruktur blicken. In dieser Hinsicht haben wir heute (2025): mindestens 3-4 öffentliche Chains (Secret, Oasis, Sanders, Integritee, Automata als Off-chain), die explizit TEEs nutzen; große Orakel-Netzwerke, die sie integrieren; große Technologieunternehmen, die Confidential Computing unterstützen (Microsoft Azure und Google Cloud bieten TEE-VMs an – und diese Dienste werden von Blockchain-Nodes als Optionen genutzt). Das Confidential Computing Consortium umfasst mittlerweile Mitglieder mit Blockchain-Fokus (Ethereum Foundation, Chainlink, Fortanix etc.), was eine branchenübergreifende Zusammenarbeit zeigt. All dies deutet auf eine wachsende, aber nischige Einführung hin – TEEs sind im Web3 noch nicht allgegenwärtig, aber sie haben sich wichtige Nischen dort erschlossen, wo Datenschutz und sichere Off-chain-Berechnungen erforderlich sind.

Dies hat einen positiven regulatorischen Aspekt: Einige Aufsichtsbehörden haben angedeutet, dass Lösungen wie TEEs (und verwandte Konzepte des Confidential Computing) vorteilhaft sind, da sie die technische Durchsetzung des Datenschutzes gewährleisten. Wir haben gesehen, dass das Weltwirtschaftsforum und andere Organisationen TEEs als Mittel hervorheben, um „Privacy by Design“ in Blockchain-Systeme zu integrieren (im Grunde wird die Compliance direkt auf Protokollebene eingebettet). Aus geschäftlicher Sicht können TEEs somit die institutionelle Akzeptanz beschleunigen, indem sie eines der Haupthindernisse (Datenvertraulichkeit) beseitigen. Unternehmen sind eher bereit, Blockchain zu nutzen oder darauf aufzubauen, wenn sie wissen, dass es eine Hardware-Sicherung für ihre Daten gibt.

Ein weiterer Compliance-Aspekt ist die Auditierbarkeit und Aufsicht. Unternehmen benötigen oft Audit-Protokolle und die Möglichkeit, Prüfern gegenüber nachzuweisen, dass sie die Kontrolle über die Daten haben. TEEs können hier tatsächlich helfen, indem sie Attestierungsberichte und sichere Protokolle darüber erstellen, worauf zugegriffen wurde. Beispielsweise bietet das „durable logging“ von Oasis in einer Enklave ein manipulationssicheres Protokoll sensibler Operationen. Ein Unternehmen kann dieses Protokoll den Regulierungsbehörden vorlegen, um zu beweisen, dass beispielsweise nur autorisierter Code ausgeführt wurde und nur bestimmte Abfragen zu Kundendaten erfolgt sind. Diese Art von attestiertem Auditing könnte Regulierungsbehörden mehr überzeugen als ein traditionelles System, bei dem man den Protokollen von Systemadministratoren vertrauen muss.

Vertrauen und Haftung

Auf der anderen Seite verändert die Einführung von TEEs die Vertrauensstruktur und damit das Haftungsmodell in Blockchain-Lösungen. Wenn eine DeFi-Plattform ein TEE verwendet und aufgrund eines Hardwarefehlers etwas schiefgeht, wer ist dann verantwortlich? Stellen Sie sich ein Szenario vor, in dem ein Intel-SGX-Fehler zum Durchsickern von Details geheimer Swap-Transaktionen führt, wodurch Benutzer Geld verlieren (z. B. durch Front-Running etc.). Die Benutzer haben den Sicherheitsversprechen der Plattform vertraut. Liegt der Fehler bei der Plattform oder bei Intel? Rechtlich gesehen könnten Benutzer gegen die Plattform vorgehen (die wiederum gegen Intel vorgehen müsste). Dies verkompliziert die Angelegenheit, da ein Technologieanbieter eines Drittanbieters (der CPU-Hersteller) tief in das Sicherheitsmodell integriert ist. Unternehmen, die TEEs einsetzen, müssen dies in Verträgen und Risikobewertungen berücksichtigen. Einige könnten Garantien oder Support von Hardwareherstellern verlangen, wenn sie deren TEEs in kritischen Infrastrukturen einsetzen.

Es gibt auch Zentralisierungsbedenken: Wenn die Sicherheit einer Blockchain von der Hardware eines einzelnen Unternehmens (Intel oder AMD) abhängt, könnten Regulierungsbehörden dies skeptisch betrachten. Könnte beispielsweise eine Regierung dieses Unternehmen vorladen oder zwingen, bestimmte Enklaven zu kompromittieren? Dies ist keine rein theoretische Sorge – man denke an Exportkontrollgesetze: Hochwertige Verschlüsselungshardware kann reguliert werden. Wenn ein großer Teil der Krypto-Infrastruktur auf TEEs angewiesen ist, ist es denkbar, dass Regierungen versuchen könnten, Backdoors einzuführen (obwohl es dafür keine Beweise gibt, zählt die Wahrnehmung). Einige Datenschutzbefürworter weisen Regulierungsbehörden darauf hin, dass TEEs das Vertrauen konzentrieren und die Behörden sie daher eher sorgfältig prüfen sollten. Umgekehrt könnten Regulierungsbehörden, die mehr Kontrolle wünschen, TEEs gegenüber mathematikbasiertem Datenschutz wie ZK bevorzugen, da bei TEEs zumindest die Vorstellung besteht, dass Strafverfolgungsbehörden bei absolutem Bedarf mit einer gerichtlichen Anordnung an den Hardwarehersteller herantreten könnten (z. B. um einen Master-Attestierungsschlüssel oder Ähnliches zu erhalten – nicht, dass dies einfach oder wahrscheinlich wäre, aber es ist ein Weg, der bei ZK nicht existiert). Daher kann die regulatorische Aufnahme geteilt sein: Datenschutzbehörden sind pro-TEE für die Compliance, während die Strafverfolgung vorsichtig optimistisch sein könnte, da TEEs nicht in dem Maße „im Dunkeln bleiben“ wie starke Verschlüsselung – es gibt einen theoretischen Hebel (die Hardware), an dem sie versuchen könnten zu ziehen.

Unternehmen müssen dies navigieren, indem sie sich möglicherweise um Zertifizierungen bemühen. Es gibt Sicherheitszertifizierungen wie FIPS 140 oder Common Criteria für Hardwaremodule. Derzeit verfügen SGX und andere über einige Zertifizierungen (zum Beispiel hatte SGX Common Criteria EAL-Zertifizierungen für bestimmte Anwendungen). Wenn eine Blockchain-Plattform darauf verweisen kann, dass die Enklaven-Technologie nach einem hohen Standard zertifiziert ist, fühlen sich Regulierungsbehörden und Partner möglicherweise wohler. Ein CBDC-Projekt könnte beispielsweise verlangen, dass jedes verwendete TEE FIPS-zertifiziert ist, damit sie der Zufallszahlengenerierung usw. vertrauen können. Dies führt zusätzliche Prozesse ein und beschränkt die Auswahl möglicherweise auf bestimmte Hardwareversionen.

Ökosystem- und Kostenüberlegungen

Aus geschäftlicher Sicht könnte der Einsatz von TEEs die Kostenstruktur eines Blockchain-Betriebs beeinflussen. Knoten müssen über spezifische CPUs verfügen (die teurer oder weniger energieeffizient sein können). Dies könnte höhere Cloud-Hosting-Rechnungen oder Investitionsausgaben bedeuten. Wenn ein Projekt beispielsweise Intel Xeon mit SGX für alle Validatoren vorschreibt, ist das eine Einschränkung – Validatoren können nicht einfach jeder mit einem Raspberry Pi oder einem alten Laptop sein; sie benötigen diese spezielle Hardware. Dies kann zentralisieren, wer teilnehmen kann (was möglicherweise diejenigen bevorzugt, die sich High-End-Server leisten können oder Cloud-Anbieter nutzen, die SGX-VMs anbieten). In extremen Fällen könnte dies das Netzwerk dazu drängen, eher zugangsbeschränkt zu sein oder sich auf Cloud-Anbieter zu verlassen, was einen Abwägungsprozess bei der Dezentralisierung und ein geschäftliches Manko darstellt (das Netzwerk müsste möglicherweise Knotenanbieter subventionieren).

Andererseits könnten einige Unternehmen dies akzeptabel finden, weil sie bekannte Validatoren wollen oder eine Zulassungsliste haben (insbesondere in Unternehmenskonsortien). In öffentlichen Kryptonetzwerken hat dies jedoch zu Debatten geführt – z. B. als SGX erforderlich wurde, fragten die Leute: „Bedeutet das, dass nur noch große Rechenzentren Knoten betreiben werden?“ Das ist etwas, das die Stimmung in der Community und damit die Marktakzeptanz beeinflusst. Krypto-Puristen könnten beispielsweise eine Chain meiden, die TEEs erfordert, und sie als „weniger vertrauenswürdig“ oder zu zentralisiert bezeichnen. Daher müssen Projekte PR und Community-Aufklärung betreiben und klarmachen, wie die Vertrauensannahmen aussehen und warum es dennoch sicher ist. Wir haben gesehen, wie das Secret Network FUD adressiert hat, indem es die strenge Überwachung von Intel-Updates erklärte und darauf hinwies, dass Validatoren geslasht werden, wenn sie ihre Enklaven nicht aktualisieren usw. – im Grunde wurde eine soziale Vertrauensebene über das Hardware-Vertrauen gelegt.

Ein weiterer Aspekt sind Partnerschaften und Support. Das geschäftliche Ökosystem rund um TEEs umfasst große Tech-Unternehmen (Intel, AMD, ARM, Microsoft, Google usw.). Blockchain-Projekte, die TEEs nutzen, gehen oft Partnerschaften mit diesen ein (z. B. iExec mit Intel, das Secret Network mit Intel an Verbesserungen der Attestierung, Oasis mit Microsoft an vertraulicher KI usw.). Diese Partnerschaften können Finanzierung, technische Unterstützung und Glaubwürdigkeit bieten. Es ist ein strategischer Punkt: Die Ausrichtung auf die Confidential-Computing-Branche kann Türen öffnen (für Finanzierungen oder Unternehmenspiloten), bedeutet aber auch, dass sich ein Krypto-Projekt mit großen Konzernen abstimmt, was ideologische Auswirkungen in der Community hat.

Regulatorische Unsicherheiten

Mit dem Wachstum von Blockchain-Anwendungen, die TEEs nutzen, könnten neue regulatorische Fragen auftauchen. Zum Beispiel:

  • Datenjurisdiktion: Wenn Daten innerhalb eines TEE in einem bestimmten Land verarbeitet werden, gelten sie dann als „in diesem Land verarbeitet“ oder als nirgendwo (da sie verschlüsselt sind)? Einige Datenschutzgesetze verlangen, dass die Daten von Bürgern bestimmte Regionen nicht verlassen. TEEs könnten die Grenzen verwischen – man könnte eine Enklave in einer Cloud-Region haben, aber nur verschlüsselte Daten gehen hinein/hinaus. Regulierungsbehörden müssen möglicherweise klären, wie sie eine solche Verarbeitung betrachten.
  • Exportkontrollen: Fortgeschrittene Verschlüsselungstechnologie kann Exportbeschränkungen unterliegen. TEEs beinhalten die Verschlüsselung von Arbeitsspeicher – historisch gesehen war dies kein Problem (da CPUs mit diesen Funktionen weltweit verkauft werden), aber falls sich das jemals ändern sollte, könnte dies die Lieferkette beeinträchtigen. Zudem könnten einige Länder die Nutzung ausländischer TEEs aus Gründen der nationalen Sicherheit verbieten oder davon abraten (z. B. hat China ein eigenes Äquivalent zu SGX, da sie Intel nicht vertrauen, und könnten SGX für sensible Anwendungen nicht zulassen).
  • Rechtlicher Zwang: Ein Szenario: Könnte eine Regierung einen Knotenbetreiber per Vorladung zwingen, Daten aus einer Enklave zu extrahieren? Normalerweise können sie das nicht, da selbst der Betreiber nicht hineinsehen kann. Aber was, wenn sie Intel für einen bestimmten Attestierungsschlüssel vorladen? Das Design von Intel ist so ausgelegt, dass selbst sie den Speicher der Enklave nicht entschlüsseln können (sie geben Schlüssel an die CPU aus, die die Arbeit erledigt). Aber wenn eine Hintertür existierte oder eine spezielle Firmware von Intel signiert werden könnte, um den Speicher auszulesen, wäre das ein hypothetisches Szenario, das die Menschen beunruhigt. Rechtlich gesehen könnte ein Unternehmen wie Intel sich weigern, wenn es aufgefordert würde, seine Sicherheit zu untergraben (sie würden es wahrscheinlich tun, um das Vertrauen in ihr Produkt nicht zu zerstören). Allein die Möglichkeit könnte jedoch in regulatorischen Diskussionen über den rechtmäßigen Zugriff auftauchen. Unternehmen, die TEEs einsetzen, sollten über solche Entwicklungen auf dem Laufenden bleiben, obwohl derzeit kein öffentlicher Mechanismus für Intel/AMD existiert, um Enklavendaten zu extrahieren – genau das ist ja der Punkt von TEEs.

Marktdifferenzierung und neue Dienste

Positiv für das Geschäft ist, dass TEEs neue Produkte und Dienstleistungen ermöglichen, die monetarisiert werden können. Zum Beispiel:

  • Marktplätze für vertrauliche Daten: Wie iExec, das Ocean Protocol und andere festgestellt haben, besitzen Unternehmen wertvolle Daten, die sie monetarisieren könnten, wenn sie Garantien hätten, dass diese nicht durchsickern. TEEs ermöglichen das „Mieten von Daten“, wobei die Daten die Enklave nie verlassen, sondern nur die daraus gewonnenen Erkenntnisse. Dies könnte neue Einnahmequellen und Geschäftsmodelle erschließen. Wir sehen Start-ups im Web3-Bereich, die Unternehmen Dienstleistungen für vertrauliches Rechnen anbieten und im Grunde die Idee verkaufen: „Erhalten Sie Erkenntnisse aus der Blockchain oder unternehmensübergreifenden Daten, ohne etwas preiszugeben.“
  • Enterprise DeFi: Finanzinstitute nennen oft den Mangel an Privatsphäre als Grund, sich nicht an DeFi oder öffentlichen Blockchains zu beteiligen. Wenn TEEs die Vertraulichkeit für ihre Positionen oder Trades garantieren können, könnten sie teilnehmen und so mehr Liquidität und Geschäft in das Ökosystem bringen. Projekte, die darauf abzielen (wie die geheimen Kredite von Secret oder das private AMM von Oasis mit Compliance-Kontrollen), positionieren sich, um institutionelle Nutzer anzuziehen. Wenn dies gelingt, kann dies ein bedeutender Markt sein (man stelle sich institutionelle AMM-Pools vor, in denen Identitäten und Beträge abgeschirmt sind, aber eine Enklave sicherstellt, dass Compliance-Prüfungen wie AML intern durchgeführt werden – das ist ein Produkt, das unter regulatorischer Sicherheit viel Geld in DeFi bringen könnte).
  • Versicherung und Risikomanagement: Da TEEs bestimmte Risiken verringern (wie die Manipulation von Orakeln), könnten wir niedrigere Versicherungsprämien oder neue Versicherungsprodukte für Smart-Contract-Plattformen sehen. Umgekehrt führen TEEs neue Risiken ein (wie das technische Versagen von Enklaven), die selbst versicherbare Ereignisse sein könnten. Es gibt einen entstehenden Bereich der Krypto-Versicherung; es wird interessant sein zu sehen, wie sie mit TEE-abhängigen Systemen umgehen. Eine Plattform könnte damit werben, dass sie TEEs einsetzt, um das Risiko von Datenschutzverletzungen zu senken, was sie einfacher oder billiger versicherbar macht und ihr einen Wettbewerbsvorteil verschafft.

Zusammenfassend lässt sich sagen, dass es in der geschäftlichen und regulatorischen Landschaft von TEE-gestütztem Web3 darum geht, Vertrauen und Innovation in Einklang zu bringen. TEEs bieten einen Weg, Gesetze einzuhalten und Anwendungsfälle für Unternehmen zu erschließen (ein großes Plus für die Akzeptanz im Mainstream), bringen aber auch eine Abhängigkeit von Hardwareanbietern und Komplexitäten mit sich, die transparent verwaltet werden müssen. Stakeholder müssen sowohl mit Tech-Giganten (für den Support) als auch mit Regulierungsbehörden (für Klarheit und Sicherheit) zusammenarbeiten, um das Potenzial von TEEs in der Blockchain-Technologie voll auszuschöpfen. Wenn dies gut umgesetzt wird, könnten TEEs ein Eckpfeiler sein, der es der Blockchain ermöglicht, sich tief in Branchen zu integrieren, die mit sensiblen Daten arbeiten, und so die Reichweite von Web3 in Bereiche auszudehnen, die zuvor aufgrund von Datenschutzbedenken tabu waren.

Fazit

Trusted Execution Environments haben sich als eine leistungsstarke Komponente im Web3-Instrumentarium herauskristallisiert und ermöglichen eine neue Klasse von dezentralen Anwendungen, die Vertraulichkeit und sichere Off-Chain-Berechnungen erfordern. Wir haben gesehen, dass TEEs wie Intel SGX, ARM TrustZone und AMD SEV eine hardware-isolierte „Safe Box“ für Berechnungen bieten, und diese Eigenschaft wurde für datenschutzfreundliche Smart Contracts, verifizierbare Oracles, skalierbare Off-Chain-Verarbeitung und mehr genutzt. Projekte über verschiedene Ökosysteme hinweg – von den privaten Kontrakten von Secret Network auf Cosmos über die vertraulichen ParaTimes von Oasis bis hin zur TEE-Cloud von Sanders auf Polkadot und dem Off-Chain-Marktplatz von iExec auf Ethereum – demonstrieren die vielfältigen Möglichkeiten, wie TEEs in Blockchain-Plattformen integriert werden.

Technisch gesehen bieten TEEs überzeugende Vorteile in Bezug auf Geschwindigkeit und starke Datenvertraulichkeit, bringen jedoch auch eigene Herausforderungen mit sich: die Notwendigkeit, Hardware-Anbietern zu vertrauen, potenzielle Seitenkanal-Schwachstellen sowie Hürden bei der Integration und Komponierbarkeit. Wir haben TEEs mit kryptografischen Alternativen (ZKPs, FHE, MPC) verglichen und festgestellt, dass jede ihre Nische hat: TEEs glänzen durch Leistung und Benutzerfreundlichkeit, während ZK und FHE maximale Vertrauenslosigkeit bei hohen Kosten bieten und MPC das Vertrauen unter den Teilnehmern verteilt. Tatsächlich sind viele wegweisende Lösungen hybrid und nutzen TEEs zusammen mit kryptografischen Methoden, um das Beste aus beiden Welten zu erhalten.

Die Akzeptanz von TEE-basierten Lösungen wächst stetig. Ethereum dApps nutzen TEEs für die Oracle-Sicherheit und private Berechnungen, Cosmos und Polkadot bieten native Unterstützung über spezialisierte Chains, und Bemühungen im Bereich der Enterprise-Blockchains setzen auf TEEs zur Einhaltung von Compliance-Vorgaben. Geschäftlich gesehen können TEEs eine Brücke zwischen dezentraler Technologie und Regulierung schlagen – sie ermöglichen den Umgang mit sensiblen Daten On-Chain unter den Schutzmaßnahmen von Hardware-Sicherheit, was die Tür für institutionelle Nutzung und neue Dienste öffnet. Gleichzeitig bedeutet die Nutzung von TEEs, sich auf neue Vertrauensparadigmen einzulassen und sicherzustellen, dass das Dezentralisierungs-Ethos der Blockchain nicht durch undurchsichtiges Silizium untergraben wird.

Zusammenfassend lässt sich sagen, dass Trusted Execution Environments eine entscheidende Rolle in der Evolution von Web3 spielen: Sie adressieren einige der dringlichsten Bedenken hinsichtlich Datenschutz und Skalierbarkeit, und obwohl sie kein Allheilmittel sind (und nicht ohne Kontroversen bleiben), erweitern sie die Möglichkeiten dezentraler Anwendungen erheblich. Da die Technologie reift – mit Verbesserungen in der Hardware-Sicherheit und Standards für die Attestierung – und da immer mehr Projekte ihren Wert unter Beweis stellen, können wir erwarten, dass TEEs (zusammen mit ergänzenden kryptografischen Technologien) zu einer Standardkomponente von Blockchain-Architekturen werden, die darauf abzielen, das volle Potenzial von Web3 auf sichere und vertrauenswürdige Weise zu erschließen. Die Zukunft hält wahrscheinlich schichtbasierte Lösungen bereit, bei denen Hardware und Kryptografie Hand in Hand arbeiten, um Systeme zu liefern, die sowohl performant als auch nachweislich sicher sind und gleichermaßen den Anforderungen von Nutzern, Entwicklern und Regulierungsbehörden gerecht werden.

Quellen: Die Informationen in diesem Bericht wurden aus einer Vielzahl aktueller Quellen zusammengetragen, darunter offizielle Projektdokumentationen und Blogs, Branchenanalysen und akademische Forschung, wie im gesamten Text zitiert. Zu den bemerkenswerten Referenzen gehören der Metaschool 2025 Leitfaden zu TEEs in Web3, Vergleiche von Sanders Network, technische Einblicke von ChainCatcher und anderen zu FHE / TEE / ZKP / MPC sowie Erklärungen zur regulatorischen Compliance von Binance Research und viele andere. Diese Quellen bieten weitere Details und werden Lesern empfohlen, die bestimmte Aspekte vertiefen möchten.

EIP-7702 nach Pectra: Ein praktisches Handbuch für Ethereum App-Entwickler

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Am 7. Mai 2025 wurde Ethereums Pectra-Upgrade (Prague + Electra) im Mainnet aktiviert. Zu den für Entwickler sichtbarsten Änderungen gehört EIP-7702, das einem extern besessenen Konto (EOA) ermöglicht, Smart-Contract-Logik zu „implementieren“ – ohne Gelder zu migrieren oder Adressen zu ändern. Wenn Sie Wallets, DApps oder Relayer entwickeln, eröffnet dies einen einfacheren Weg zur Smart-Account-UX.

Im Folgenden finden Sie einen prägnanten, implementierungszentrierten Leitfaden: Was tatsächlich ausgeliefert wurde, wie 7702 funktioniert, wann Sie es gegenüber reinem ERC-4337 wählen sollten und ein sofort anpassbares Code-Gerüst.


Was tatsächlich ausgeliefert wurde

  • EIP-7702 ist im finalen Umfang von Pectra enthalten. Das Meta-EIP für den Pectra-Hardfork listet 7702 offiziell unter den enthaltenen Änderungen auf.
  • Aktivierungsdetails: Pectra wurde am 7. Mai 2025 im Mainnet bei Epoch 364032 aktiviert, nach erfolgreichen Aktivierungen auf allen wichtigen Testnets.
  • Hinweis zur Toolchain: Solidity v0.8.30 hat sein Standard-EVM-Ziel für die Pectra-Kompatibilität auf prague aktualisiert. Sie müssen Ihre Compiler und CI-Pipelines aktualisieren, insbesondere wenn Sie bestimmte Versionen festlegen.

EIP-7702 – Funktionsweise (Grundlagen)

EIP-7702 führt einen neuen Transaktionstyp und einen Mechanismus ein, mit dem ein EOA seine Ausführungslogik an einen Smart Contract delegieren kann.

  • Neuer Transaktionstyp (0x04): Eine Typ-4-Transaktion enthält ein neues Feld namens authorization_list. Diese Liste enthält ein oder mehrere Autorisierungs-Tupel – (chain_id, address, nonce, y_parity, r, s) – jeweils signiert mit dem privaten Schlüssel des EOA. Wenn diese Transaktion verarbeitet wird, schreibt das Protokoll einen Delegationsindikator in das Code-Feld des EOA: 0xef0100 || address. Von diesem Zeitpunkt an werden alle Aufrufe an das EOA an die angegebene address (die Implementierung) weitergeleitet, aber sie werden im Speicher- und Kontostandkontext des EOA ausgeführt. Diese Delegation bleibt aktiv, bis sie explizit geändert wird.
  • Kettenumfang: Eine Autorisierung kann kettenspezifisch sein, indem eine chain_id angegeben wird, oder sie kann für alle Ketten gelten, wenn chain_id auf 0 gesetzt ist. Dies ermöglicht es Ihnen, denselben Implementierungsvertrag über mehrere Netzwerke hinweg bereitzustellen, ohne dass Benutzer für jedes Netzwerk eine neue Autorisierung unterzeichnen müssen.
  • Widerruf: Um ein EOA auf sein ursprüngliches, nicht-programmierbares Verhalten zurückzusetzen, senden Sie einfach eine weitere 7702-Transaktion, bei der die Implementierungs-address auf die Null-Adresse gesetzt ist. Dies löscht den Delegationsindikator.
  • Selbstfinanziert vs. weitergeleitet: Ein EOA kann die Typ-4-Transaktion selbst senden, oder ein Drittanbieter-Relayer kann sie im Namen des EOA senden. Letzteres ist üblich, um eine gaslose Benutzererfahrung zu schaffen. Die Nonce-Handhabung unterscheidet sich geringfügig je nach Methode, daher ist es wichtig, Bibliotheken zu verwenden, die diese Unterscheidung korrekt verwalten.

Verschiebung des Sicherheitsmodells: Da der ursprüngliche private Schlüssel des EOA weiterhin existiert, kann er Smart-Contract-Regeln (wie Social Recovery oder Ausgabenlimits) jederzeit außer Kraft setzen, indem er eine neue 7702-Transaktion zur Änderung der Delegation übermittelt. Dies ist eine grundlegende Verschiebung. Verträge, die sich auf tx.origin verlassen, um zu überprüfen, ob ein Aufruf von einem EOA stammt, müssen neu geprüft werden, da 7702 diese Annahmen brechen kann. Überprüfen Sie Ihre Abläufe entsprechend.


7702 oder ERC-4337? (Und wann man sie kombiniert)

Sowohl EIP-7702 als auch ERC-4337 ermöglichen Account Abstraction, dienen aber unterschiedlichen Zwecken.

  • Wählen Sie EIP-7702, wenn…
    • Sie eine sofortige Smart-Account-UX für bestehende EOAs bereitstellen möchten, ohne Benutzer zum Migrieren von Geldern oder zum Ändern von Adressen zu zwingen.
    • Sie konsistente Adressen über Ketten hinweg benötigen, die schrittweise mit neuen Funktionen erweitert werden können.
    • Sie Ihren Übergang zur Account Abstraction schrittweise gestalten möchten, beginnend mit einfachen Funktionen und im Laufe der Zeit Komplexität hinzufügen.
  • Wählen Sie reines ERC-4337, wenn…
    • Ihr Produkt von Anfang an volle Programmierbarkeit und komplexe Policy-Engines (z. B. Multi-Sig, erweiterte Wiederherstellung) erfordert.
    • Sie für neue Benutzer entwickeln, die keine bestehenden EOAs haben, wodurch neue Smart-Account-Adressen und die damit verbundene Einrichtung akzeptabel sind.
  • Kombinieren Sie sie: Das leistungsstärkste Muster ist die Verwendung beider. Ein EOA kann eine 7702-Transaktion verwenden, um eine ERC-4337 Wallet-Implementierung als seine Logik zu bestimmen. Dies lässt das EOA wie ein 4337-Konto agieren, wodurch es gebündelt, von Paymastern gesponsert und von der bestehenden 4337-Infrastruktur verarbeitet werden kann – alles, ohne dass der Benutzer eine neue Adresse benötigt. Dies ist ein zukunftskompatibler Weg, der von den Autoren des EIP explizit gefördert wird.

Minimales 7702-Gerüst, das Sie anpassen können

Hier ist ein praktisches Beispiel für einen Implementierungsvertrag und den clientseitigen Code zu dessen Aktivierung.

1. Ein kleiner, auditierbarer Implementierungsvertrag

Dieser Vertragscode wird, sobald er bestimmt wurde, im Kontext des EOA ausgeführt. Halten Sie ihn klein, auditierbar und erwägen Sie, einen Upgrade-Mechanismus hinzuzufügen.

// SPDX-License-Identifier: MIT
pragma solidity ^0.8.20;

/// @notice Executes calls from the EOA context when designated via EIP-7702.
contract DelegatedAccount {
// Unique storage slot to avoid collisions with other contracts.
bytes32 private constant INIT_SLOT =
0x3fb93b3d3dcd1d1f4b4a1a8db6f4c5d55a1b7f9ac01dfe8e53b1b0f35f0c1a01;

event Initialized(address indexed account);
event Executed(address indexed to, uint256 value, bytes data, bytes result);

modifier onlyEOA() {
// Optional: add checks to restrict who can call certain functions.
_;
}

function initialize() external payable onlyEOA {
// Set a simple one-time init flag in the EOA's storage.
bytes32 slot = INIT_SLOT;
assembly {
if iszero(iszero(sload(slot))) { revert(0, 0) } // Revert if already initialized
sstore(slot, 1)
}
emit Initialized(address(this));
}

function execute(address to, uint256 value, bytes calldata data)
external
payable
onlyEOA
returns (bytes memory result)
{
(bool ok, bytes memory ret) = to.call{value: value}(data);
require(ok, "CALL_FAILED");
emit Executed(to, value, data, ret);
return ret;
}

function executeBatch(address[] calldata to, uint256[] calldata value, bytes[] calldata data)
external
payable
onlyEOA
{
uint256 n = to.length;
require(n == value.length && n == data.length, "LENGTH_MISMATCH");
for (uint256 i = 0; i < n; i++) {
(bool ok, ) = to[i].call{value: value[i]}(data[i]);
require(ok, "CALL_FAILED");
}
}
}

2. Den Vertrag auf einem EOA (Typ-4-Transaktion) mit viem bestimmen

Moderne Clients wie viem verfügen über integrierte Hilfsfunktionen zum Signieren von Autorisierungen und Senden von Typ-4-Transaktionen. In diesem Beispiel zahlt ein Relayer-Konto das Gas, um ein eoa zu aktualisieren.

import { createWalletClient, http, encodeFunctionData } from "viem";
import { sepolia } from "viem/chains";
import { privateKeyToAccount } from "viem/accounts";
import { abi, implementationAddress } from "./DelegatedAccountABI";

// 1. Define the relayer (sponsors gas) and the EOA to be upgraded
const relayer = privateKeyToAccount(process.env.RELAYER_PK as `0x${string}`);
const eoa = privateKeyToAccount(process.env.EOA_PK as `0x${string}`);

const client = createWalletClient({
account: relayer,
chain: sepolia,
transport: http(),
});

// 2. The EOA signs the authorization pointing to the implementation contract
const authorization = await client.signAuthorization({
account: eoa,
contractAddress: implementationAddress,
// If the EOA itself were sending this, you would add: executor: 'self'
});

// 3. The relayer sends a Type-4 transaction to set the EOA's code and call initialize()
const hash = await client.sendTransaction({
to: eoa.address, // The destination is the EOA itself
authorizationList: [authorization], // The new EIP-7702 field
data: encodeFunctionData({ abi, functionName: "initialize" }),
});

// 4. Now, the EOA can be controlled via its new logic without further authorizations
// For example, to execute a transaction:
// await client.sendTransaction({
// to: eoa.address,
// data: encodeFunctionData({ abi, functionName: 'execute', args: [...] })
// });

3. Delegation widerrufen (Zurück zum einfachen EOA)

Um das Upgrade rückgängig zu machen, lassen Sie das EOA eine Autorisierung unterzeichnen, die die Null-Adresse als Implementierung bestimmt, und senden Sie eine weitere Typ-4-Transaktion. Danach sollte ein Aufruf von eth_getCode(eoa.address) leere Bytes zurückgeben.


Integrationsmuster, die in der Produktion funktionieren

  • Direktes Upgrade für bestehende Benutzer: Erkennen Sie in Ihrer DApp, ob der Benutzer sich in einem Pectra-kompatiblen Netzwerk befindet. Falls ja, zeigen Sie eine optionale Schaltfläche „Konto aktualisieren“ an, die die einmalige Autorisierungssignatur auslöst. Behalten Sie Fallback-Pfade (z. B. klassisches approve + swap) für Benutzer mit älteren Wallets bei.
  • Gasloses Onboarding: Verwenden Sie einen Relayer (entweder Ihr Backend oder einen Dienst), um die anfängliche Typ-4-Transaktion zu sponsern. Für fortlaufende gaslose Transaktionen leiten Sie Benutzeroperationen über einen ERC-4337-Bundler, um bestehende Paymaster und öffentliche Mempools zu nutzen.
  • Kettenübergreifende Rollouts: Verwenden Sie eine chain_id = 0-Autorisierung, um denselben Implementierungsvertrag über alle Ketten hinweg zu bestimmen. Sie können dann Funktionen auf einer Pro-Kette-Basis innerhalb Ihrer Anwendungslogik aktivieren oder deaktivieren.
  • Beobachtbarkeit: Ihr Backend sollte Typ-4-Transaktionen indizieren und die authorization_list parsen, um zu verfolgen, welche EOAs aktualisiert wurden. Überprüfen Sie nach einer Transaktion die Änderung, indem Sie eth_getCode aufrufen und bestätigen, dass der Code des EOA nun dem Delegationsindikator (0xef0100 || implementationAddress) entspricht.

Bedrohungsmodell & Fallstricke (Nicht überspringen)

  • Delegation ist persistent: Behandeln Sie Änderungen am Implementierungsvertrag eines EOA mit der gleichen Ernsthaftigkeit wie ein Standard-Smart-Contract-Upgrade. Dies erfordert Audits, klare Benutzerkommunikation und idealerweise einen Opt-in-Flow. Pushen Sie niemals stillschweigend neue Logik an Benutzer.
  • tx.origin-Fallstricke: Jede Logik, die msg.sender == tx.origin verwendete, um sicherzustellen, dass ein Aufruf direkt von einem EOA stammte, ist nun potenziell anfällig. Dieses Muster muss durch robustere Prüfungen ersetzt werden, wie EIP-712-Signaturen oder explizite Whitelists.
  • Nonce-Berechnung: Wenn ein EOA seine eigene 7702-Transaktion (executor: 'self') sponsert, interagieren seine Autorisierungs-Nonce und Transaktions-Nonce auf eine spezifische Weise. Verwenden Sie immer eine Bibliothek, die dies korrekt handhabt, um Replay-Probleme zu vermeiden.
  • Verantwortung der Wallet-UX: Die EIP-7702-Spezifikation warnt davor, dass DApps Benutzer nicht auffordern sollten, beliebige Bestimmungen zu unterzeichnen. Es liegt in der Verantwortung der Wallet, vorgeschlagene Implementierungen zu prüfen und deren Sicherheit zu gewährleisten. Gestalten Sie Ihre UX so, dass sie diesem Prinzip der Wallet-vermittelten Sicherheit entspricht.

Wann 7702 ein klarer Gewinn ist

Diese Anwendungsfälle repräsentieren die gleichen Kernvorteile, die ERC-4337 verspricht, sind aber jetzt für jedes bestehende EOA mit nur einer einzigen Autorisierung verfügbar.

  • DEX-Abläufe: Ein mehrstufiger approve- und swap-Vorgang kann mit der executeBatch-Funktion zu einem einzigen Klick zusammengefasst werden.
  • Spiele & Sessions: Gewähren Sie Session-Key-ähnliche Berechtigungen für eine begrenzte Zeit oder einen begrenzten Umfang, ohne dass der Benutzer eine neue Wallet erstellen und finanzieren muss.
  • Unternehmen & Fintech: Ermöglichen Sie gesponserte Transaktionen und wenden Sie benutzerdefinierte Ausgabenrichtlinien an, während Sie für Buchhaltung und Identität auf jeder Kette dieselbe Unternehmensadresse beibehalten.
  • L2-Bridges & Intents: Erstellen Sie reibungslosere Meta-Transaktions-Abläufe mit einer konsistenten EOA-Identität über verschiedene Netzwerke hinweg.

Bereitstellungs-Checkliste

Protokoll

  • Stellen Sie sicher, dass Nodes, SDKs und Infrastrukturanbieter Typ-4-Transaktionen und Pectras „prague“-EVM unterstützen.
  • Aktualisieren Sie Indexer und Analysetools, um das Feld authorization_list in neuen Transaktionen zu parsen.

Verträge

  • Entwickeln Sie einen minimalen, geprüften Implementierungsvertrag mit wesentlichen Funktionen (z. B. Batching, Widerruf).
  • Testen Sie die Abläufe zum Widerrufen und Neubestimmen gründlich auf Testnets, bevor Sie im Mainnet bereitstellen.

Clients

  • Aktualisieren Sie clientseitige Bibliotheken (viem, ethers usw.) und testen Sie die Funktionen signAuthorization und sendTransaction.
  • Überprüfen Sie, dass sowohl selbstfinanzierte als auch weitergeleitete Transaktionspfade Nonces und Replays korrekt handhaben.

Sicherheit

  • Entfernen Sie alle Annahmen, die auf tx.origin basieren, aus Ihren Verträgen und ersetzen Sie diese durch sicherere Alternativen.
  • Implementieren Sie eine Überwachung nach der Bereitstellung, um unerwartete Codeänderungen bei Benutzeradressen zu erkennen und bei verdächtigen Aktivitäten zu alarmieren.

Fazit: EIP-7702 bietet einen reibungslosen Einstieg in die Smart-Account-UX für die Millionen bereits genutzter EOAs. Beginnen Sie mit einer kleinen, geprüften Implementierung, nutzen Sie einen weitergeleiteten Pfad für die gaslose Einrichtung, gestalten Sie den Widerruf klar und einfach, und Sie können 90 % der Vorteile der vollständigen Account Abstraction liefern – ohne den Aufwand von Adresswechseln und Asset-Migrationen.

Metas Stablecoin-Wiederbelebung 2025: Pläne, Strategie und Auswirkungen

· 27 Min. Lesezeit

Metas Stablecoin-Initiative 2025 – Ankündigungen und Projekte

Im Mai 2025 tauchten Berichte auf, wonach Meta (ehemals Facebook) mit neuen Initiativen, die sich auf digitale Währungen konzentrieren, wieder in den Stablecoin-Markt einsteigt. Obwohl Meta keine neue eigene Währung offiziell angekündigt hat, enthüllte ein Fortune-Bericht, dass das Unternehmen Gespräche mit Krypto-Firmen über die Nutzung von Stablecoins für Zahlungen führt. Diese Gespräche sind noch vorläufig (Meta befindet sich im „Lernmodus“), markieren aber Metas ersten bedeutenden Krypto-Schritt seit dem Libra/Diem-Projekt von 2019–2022. Insbesondere beabsichtigt Meta, Stablecoins zu nutzen, um Auszahlungen für Content-Ersteller und grenzüberschreitende Überweisungen auf seinen Plattformen abzuwickeln.

Offizielle Haltung: Meta hat bis Mai 2025 keine eigene neue Kryptowährung eingeführt. Andy Stone, Metas Kommunikationsdirektor, reagierte auf die Gerüchte mit der Klarstellung, dass „Diem ‚tot‘ ist. Es gibt keinen Meta-Stablecoin.“. Dies deutet darauf hin, dass Meta, anstatt eine interne Währung wie Diem wiederzubeleben, wahrscheinlich darauf abzielt, bestehende Stablecoins (möglicherweise von Partnerfirmen ausgegeben) in sein Ökosystem zu integrieren. Tatsächlich deuten Quellen darauf hin, dass Meta mehrere Stablecoins anstelle einer einzigen proprietären Währung verwenden könnte. Kurz gesagt, das Projekt im Jahr 2025 ist kein Relaunch von Libra/Diem, sondern ein neuer Versuch, Stablecoins innerhalb von Metas Produkten zu unterstützen.

Strategische Ziele und Motivationen für Meta

Metas erneuter Vorstoß in den Kryptobereich wird von klaren strategischen Zielen angetrieben. Das wichtigste davon ist die Reduzierung von Zahlungsreibung und -kosten bei globalen Benutzer-Transaktionen. Durch die Verwendung von Stablecoins (digitale Token, die 1:1 an Fiat-Währungen gekoppelt sind) kann Meta grenzüberschreitende Zahlungen und die Monetarisierung von Kreativen für seine über 3 Milliarden Nutzer vereinfachen. Spezifische Motivationen umfassen:

  • Senkung der Zahlungskosten: Meta tätigt unzählige kleine Auszahlungen an Mitwirkende und Kreative weltweit. Stablecoin-Auszahlungen würden es Meta ermöglichen, alle in einer einzigen an den USD gekoppelten Währung zu bezahlen, wodurch hohe Gebühren für Banküberweisungen oder Währungsumrechnungen vermieden würden. Ein Kreativer in Indien oder Nigeria könnte beispielsweise einen USD-Stablecoin erhalten, anstatt sich mit kostspieligen internationalen Banküberweisungen auseinandersetzen zu müssen. Dies könnte Meta Geld sparen (weniger Bearbeitungsgebühren) und Zahlungen beschleunigen.

  • Mikrozahlungen und neue Einnahmequellen: Stablecoins ermöglichen schnelle, kostengünstige Mikrotransaktionen. Meta könnte Trinkgelder, In-App-Käufe oder Umsatzbeteiligungen in winzigen Schritten (Cents oder Dollars) ohne exorbitante Gebühren ermöglichen. Das Senden weniger Dollar in Stablecoins kostet beispielsweise auf bestimmten Netzwerken nur Bruchteile eines Cents. Diese Fähigkeit ist entscheidend für Geschäftsmodelle wie das Trinkgeldgeben an Content-Ersteller, grenzüberschreitenden E-Commerce auf dem Facebook Marketplace oder den Kauf digitaler Güter im Metaverse.

  • Globale Benutzerbindung: Ein in Facebook, Instagram, WhatsApp usw. integrierter Stablecoin würde als universelle digitale Währung innerhalb von Metas Ökosystem fungieren. Dies kann Nutzer und ihr Geld innerhalb von Metas Apps zirkulieren lassen (ähnlich wie WeChat WeChat Pay nutzt). Meta könnte zu einer wichtigen Fintech-Plattform werden, indem es Überweisungen, Einkäufe und Zahlungen an Kreative intern abwickelt. Ein solcher Schritt steht im Einklang mit CEO Mark Zuckerbergs langjährigem Interesse, Metas Rolle bei Finanzdienstleistungen und der Metaverse-Wirtschaft (wo digitale Währungen für Transaktionen benötigt werden) auszubauen.

  • Wettbewerbsfähig bleiben: Die breitere Technologie- und Finanzbranche sieht Stablecoins zunehmend als wesentliche Infrastruktur. Konkurrenten und Finanzpartner setzen auf Stablecoins, von PayPals PYUSD-Einführung im Jahr 2023 bis hin zu den Stablecoin-Projekten von Mastercard, Visa und Stripe. Meta möchte nicht ins Hintertreffen geraten, wenn es um die Zukunft der Zahlungen geht. Der Wiedereinstieg in den Kryptobereich ermöglicht es Meta nun, von einem sich entwickelnden Markt zu profitieren (Stablecoins könnten laut Standard Chartered bis 2028 um 2 Billionen US-Dollar wachsen) und sein Geschäft über die Werbung hinaus zu diversifizieren.

Zusammenfassend lässt sich sagen, dass Metas Stablecoin-Vorstoß darauf abzielt, Kosten zu senken, neue Funktionen (schnelle globale Zahlungen) freizuschalten und Meta als wichtigen Akteur in der digitalen Wirtschaft zu positionieren. Diese Motivationen spiegeln die ursprüngliche Libra-Vision der finanziellen Inklusion wider, jedoch mit einem fokussierteren und pragmatischeren Ansatz im Jahr 2025.

Technologie- und Blockchain-Infrastrukturpläne

Im Gegensatz zum Libra-Projekt – das die Schaffung einer brandneuen Blockchain beinhaltete – tendiert Metas Strategie für 2025 zur Nutzung bestehender Blockchain-Infrastruktur und Stablecoins. Berichten zufolge erwägt Meta die Ethereum-Blockchain als eine der Grundlagen für diese Stablecoin-Transaktionen. Ethereum ist aufgrund seiner Reife und weiten Verbreitung im Krypto-Ökosystem attraktiv. Tatsächlich plant Meta, „Stablecoins auf der Ethereum-Blockchain zu verwenden“, um seine riesige Nutzerbasis zu erreichen. Dies deutet darauf hin, dass Meta beliebte Ethereum-basierte Stablecoins (wie USDC oder USDT) in seine Apps integrieren könnte.

Meta scheint jedoch offen für einen Multi-Chain- oder Multi-Coin-Ansatz zu sein. Das Unternehmen wird „wahrscheinlich mehr als eine Art von Stablecoin“ für verschiedene Zwecke verwenden. Dies könnte Folgendes umfassen:

  • Partnerschaften mit großen Stablecoin-Emittenten: Meta soll Berichten zufolge Gespräche mit Firmen wie Circle (Emittent von USDC) und anderen geführt haben. Es könnte USD Coin (USDC) und Tether (USDT), die beiden größten USD-Stablecoins, unterstützen, um Liquidität und Vertrautheit für die Nutzer zu gewährleisten. Die Integration bestehender regulierter Stablecoins würde Meta die Mühe ersparen, einen eigenen Token auszugeben, und gleichzeitig sofortige Skalierbarkeit bieten.

  • Nutzung effizienter Netzwerke: Meta scheint auch an schnellen, kostengünstigen Blockchain-Netzwerken interessiert zu sein. Die Einstellung von Ginger Baker (mehr dazu weiter unten) deutet auf diese Strategie hin. Baker ist Mitglied des Vorstands der Stellar Development Foundation, und Analysten stellen fest, dass Stellars Netzwerk auf Compliance und günstige Transaktionen ausgelegt ist. Stellar unterstützt nativ regulierte Stablecoins und Funktionen wie KYC und On-Chain-Reporting. Es wird spekuliert, dass Metas Pay-Wallet Stellar für nahezu sofortige Mikrozahlungen nutzen könnte (das Senden von USDC über Stellar kostet einen Bruchteil eines Cents). Im Wesentlichen könnte Meta Transaktionen über die Blockchain leiten, die die beste Mischung aus Compliance, Geschwindigkeit und niedrigen Gebühren bietet (Ethereum für breite Kompatibilität, Stellar oder andere für Effizienz).

  • Meta Pay Wallet-Transformation: Auf der Frontend-Seite wird Meta wahrscheinlich seine bestehende Meta Pay-Infrastruktur zu einem „dezentralisierungsfähigen“ digitalen Wallet aufrüsten. Meta Pay (ehemals Facebook Pay) wickelt derzeit traditionelle Zahlungen auf Metas Plattformen ab. Unter Bakers Führung soll es Kryptowährungen und Stablecoins nahtlos unterstützen. Dies bedeutet, dass Benutzer Stablecoin-Guthaben halten, an andere senden oder In-App-Auszahlungen erhalten könnten, wobei die Komplexität der Blockchain im Hintergrund verwaltet wird.

Wichtig ist, dass Meta dieses Mal keine neue Währung oder Blockchain von Grund auf neu aufbaut. Durch die Verwendung bewährter öffentlicher Blockchains und von Partnern ausgegebener Währungen kann Meta die Stablecoin-Funktionalität schneller und (hoffentlich) mit weniger regulatorischem Widerstand einführen. Der Technologieplan konzentriert sich auf Integration statt auf Erfindung – Stablecoins werden so in Metas Produkte integriert, dass es sich für die Nutzer natürlich anfühlt (z. B. könnte ein WhatsApp-Nutzer eine USDC-Zahlung so einfach senden wie ein Foto).

Diem/Novi wiederbeleben oder neu anfangen?

Metas aktuelle Initiative unterscheidet sich deutlich von seinen früheren Libra/Diem-Bemühungen. Libra (2019 angekündigt) war ein ehrgeiziger Plan für eine von Facebook geführte globale Währung, die durch einen Korb von Vermögenswerten gedeckt und von einem Unternehmensverband verwaltet wurde. Sie wurde später in Diem (einen an den USD gekoppelten Stablecoin) umbenannt, aber letztendlich Anfang 2022 inmitten regulatorischer Gegenreaktionen eingestellt. Novi, das begleitende Krypto-Wallet, wurde kurzzeitig getestet, aber ebenfalls eingestellt.

Im Jahr 2025 belebt Meta Diem/Novi nicht einfach wieder. Zu den wesentlichen Unterschieden des neuen Ansatzes gehören:

  • Kein hauseigener „Meta Coin“ (vorerst): Während der Libra-Zeit schuf Facebook im Wesentlichen seine eigene Währung. Jetzt betonen Metas Sprecher, dass „kein Meta-Stablecoin“ in Entwicklung ist. Diem ist tot und wird nicht wiederbelebt. Stattdessen liegt der Fokus auf der Verwendung bestehender Stablecoins (ausgegeben von Dritten) als Zahlungsmittel. Dieser Wandel vom Emittenten zum Integrator ist eine direkte Lehre aus dem Scheitern von Libra – Meta vermeidet den Anschein, eigenes Geld zu prägen.

  • Compliance-First-Strategie: Libras weitreichende Vision verunsicherte Regulierungsbehörden, die befürchteten, dass eine private Währung für Milliarden von Menschen nationale Währungen untergraben könnte. Heute agiert Meta leiser und kooperativer. Das Unternehmen stellt Compliance- und Fintech-Experten ein (zum Beispiel Ginger Baker) und wählt Technologien, die für regulatorische Konformität (z. B. Stellar) bekannt sind. Alle neuen Stablecoin-Funktionen werden wahrscheinlich eine Identitätsprüfung erfordern und den Finanzvorschriften in jeder Gerichtsbarkeit entsprechen, im Gegensatz zu Libras ursprünglich dezentralisiertem Ansatz.

  • Reduzierung der Ambitionen (zumindest anfänglich): Libra zielte darauf ab, eine universelle Währung und ein Finanzsystem zu sein. Metas Bemühungen im Jahr 2025 haben einen engeren anfänglichen Umfang: Auszahlungen und Peer-to-Peer-Zahlungen innerhalb von Metas Plattformen. Indem Meta auf Zahlungen an Kreative abzielt (wie „bis zu 100 US-Dollar“ Mikrozahlungen auf Instagram), findet es einen Anwendungsfall, der Regulierungsbehörden weniger beunruhigen dürfte als eine globale Währung im vollen Umfang. Im Laufe der Zeit könnte dies erweitert werden, aber die Einführung wird voraussichtlich schrittweise und anwendungsfallorientiert erfolgen, anstatt eines Big-Bang-Starts einer neuen Währung.

  • Keine öffentliche Vereinigung oder neue Blockchain: Libra wurde von einer unabhängigen Vereinigung verwaltet und erforderte Partner, die Nodes auf einer brandneuen Blockchain betrieben. Der neue Ansatz beinhaltet nicht die Schaffung eines Konsortiums oder eines benutzerdefinierten Netzwerks. Meta arbeitet direkt mit etablierten Krypto-Unternehmen zusammen und nutzt deren Infrastruktur. Diese Zusammenarbeit hinter den Kulissen bedeutet weniger Öffentlichkeit und potenziell weniger regulatorische Angriffsflächen als Libras sehr öffentliche Koalition.

Zusammenfassend lässt sich sagen, dass Meta neu anfängt und die Lehren aus Libra/Diem nutzt, um einen pragmatischeren Kurs einzuschlagen. Das Unternehmen hat sich im Wesentlichen von der Rolle des „Krypto-Emittenten“ zu der einer „krypto-freundlichen Plattform“ gewandelt. Wie ein Krypto-Analyst bemerkte, ist noch nicht entschieden, ob Meta „einen eigenen [Stablecoin] entwickelt und ausgibt oder mit jemandem wie Circle zusammenarbeitet“ – aber alle Anzeichen deuten auf Partnerschaften statt auf ein Solo-Unternehmen wie Diem hin.

Schlüsselpersonal, Partnerschaften und Kooperationen

Meta hat strategische Neueinstellungen vorgenommen und wahrscheinlich Partnerschaften geschlossen, um diese Stablecoin-Initiative voranzutreiben. Der herausragende Personalwechsel ist die Ernennung von Ginger Baker zur Vice President of Product für Zahlungen und Krypto bei Meta. Baker kam im Januar 2025 zu Meta, um speziell „Metas Stablecoin-Erkundungen zu begleiten“. Ihr Hintergrund ist ein starker Indikator für Metas Strategie:

  • Ginger Baker – Fintech-Veteranin: Baker ist eine erfahrene Führungskraft im Zahlungsverkehr. Sie arbeitete zuvor bei Plaid (als Chief Network Officer) und verfügt über Erfahrung bei Ripple, Square und Visa – allesamt wichtige Akteure im Zahlungs-/Kryptobereich. Einzigartig ist, dass sie auch im Vorstand der Stellar Development Foundation tätig war und dort eine Führungsposition innehatte. Durch die Einstellung von Baker gewinnt Meta Expertise sowohl im traditionellen Fintech-Bereich als auch in Blockchain-Netzwerken (Ripple und Stellar konzentrieren sich auf grenzüberschreitende Transaktionen und Compliance). Baker „führt nun Metas erneuerte Stablecoin-Initiativen an“, einschließlich der Transformation von Meta Pay in ein krypto-fähiges Wallet. Ihre Führung deutet darauf hin, dass Meta ein Produkt entwickeln wird, das konventionelle Zahlungen mit Krypto verbindet (wobei wahrscheinlich Dinge wie Bankintegrationen, reibungslose UX, KYC usw. neben den Blockchain-Elementen gewährleistet werden).

  • Weitere Teammitglieder: Neben Baker stellt Meta „Krypto-erfahrene Personen“ für seine Teams ein, um die Stablecoin-Pläne zu unterstützen. Einige ehemalige Mitglieder des Libra/Diem-Teams könnten hinter den Kulissen beteiligt sein, obwohl viele gegangen sind (zum Beispiel verließ der ehemalige Novi-Chef David Marcus das Unternehmen, um seine eigene Krypto-Firma zu gründen, und andere wechselten zu Projekten wie Aptos). Die aktuellen Bemühungen scheinen größtenteils unter Metas bestehender Einheit Meta Financial Technologies (die Meta Pay betreibt) zu laufen. Bisher wurden im Jahr 2025 keine größeren Übernahmen von Krypto-Unternehmen angekündigt – Meta scheint sich auf interne Einstellungen und Partnerschaften zu verlassen, anstatt ein Stablecoin-Unternehmen direkt zu kaufen.

  • Potenzielle Partnerschaften: Obwohl noch keine offiziellen Partner genannt wurden, haben mehrere Krypto-Firmen Gespräche mit Meta geführt. Mindestens zwei Führungskräfte von Krypto-Unternehmen bestätigten, dass sie frühe Gespräche mit Meta über Stablecoin-Auszahlungen hatten. Es ist vernünftig zu spekulieren, dass Circle (Emittent von USDC) darunter ist – der Fortune-Bericht erwähnte Circles Aktivitäten im selben Kontext. Meta könnte mit einem regulierten Stablecoin-Emittenten (wie Circle oder Paxos) zusammenarbeiten, um die Währungsausgabe und -verwahrung zu übernehmen. Zum Beispiel könnte Meta USDC durch die Zusammenarbeit mit Circle integrieren, ähnlich wie PayPal mit Paxos zusammenarbeitete, um seinen eigenen Stablecoin einzuführen. Andere Partnerschaften könnten Krypto-Infrastrukturanbieter (für Sicherheit, Verwahrung oder Blockchain-Integration) oder Fintech-Unternehmen in verschiedenen Regionen für Compliance umfassen.

  • Externe Berater/Influencer: Es ist erwähnenswert, dass Metas Schritt erfolgt, während andere in der Technologie- und Finanzbranche ihre Stablecoin-Bemühungen verstärken. Unternehmen wie Stripe und Visa haben kürzlich Schritte unternommen (Stripe kaufte ein Krypto-Startup, Visa ging eine Partnerschaft mit einer Stablecoin-Plattform ein). Meta wird möglicherweise nicht formell mit diesen Unternehmen zusammenarbeiten, aber diese Branchenverbindungen (z. B. Bakers Vergangenheit bei Visa oder bestehende Geschäftsbeziehungen, die Meta mit Stripe für Zahlungen unterhält) könnten den Weg für die Stablecoin-Akzeptanz ebnen. Darüber hinaus könnten First Digital (Emittent von FDUSD) und Tether eine indirekte Zusammenarbeit sehen, wenn Meta beschließt, ihre Coins für bestimmte Märkte zu unterstützen.

Im Wesentlichen wird Metas Stablecoin-Initiative von erfahrenen Fintech-Insidern geleitet und beinhaltet wahrscheinlich eine enge Zusammenarbeit mit etablierten Krypto-Akteuren. Wir sehen eine bewusste Anstrengung, Menschen einzubeziehen, die sowohl Silicon Valley als auch Krypto verstehen. Dies ist ein gutes Zeichen dafür, dass Meta die technischen und regulatorischen Herausforderungen mit sachkundiger Führung meistern wird.

Regulierungsstrategie und Positionierung

Regulierung ist der Elefant im Raum für Metas Krypto-Ambitionen. Nach der schmerzhaften Erfahrung mit Libra (wo globale Regulierungsbehörden und Gesetzgeber Facebooks Währung fast einstimmig ablehnten) nimmt Meta im Jahr 2025 eine sehr vorsichtige, Compliance-orientierte Haltung ein. Schlüsselelemente von Metas regulatorischer Positionierung umfassen:

  • Arbeit innerhalb regulatorischer Rahmenbedingungen: Meta scheint darauf bedacht zu sein, mit den Behörden zusammenzuarbeiten, anstatt zu versuchen, sie zu umgehen. Durch die Verwendung bestehender regulierter Stablecoins (wie USDC, das den US-Bundesstaatsvorschriften und Audits entspricht) und durch die Integration von KYC/AML-Funktionen richtet sich Meta an den aktuellen Finanzregeln aus. Zum Beispiel werden Stellars Compliance-Funktionen (KYC, Sanktionsprüfung) explizit als mit Metas Bedürfnis übereinstimmend genannt, bei den Regulierungsbehörden in gutem Ansehen zu bleiben. Dies deutet darauf hin, dass Meta sicherstellen wird, dass Benutzer, die Stablecoins über seine Apps abwickeln, verifiziert werden und dass Transaktionen auf illegale Aktivitäten überwacht werden können, ähnlich wie bei jeder Fintech-App.

  • Politisches Timing: Das regulatorische Klima in den USA hat sich seit den Libra-Tagen verschoben. Ab 2025 wird die Regierung von Präsident Donald Trump als krypto-freundlicher angesehen als die vorherige Biden-Regierung. Diese Änderung könnte Meta eine Öffnung bieten. Tatsächlich kommt Metas erneuter Vorstoß genau zu dem Zeitpunkt, an dem Washington aktiv über Stablecoin-Gesetze debattiert. Ein Paar Stablecoin-Gesetzesentwürfe durchlaufen den Kongress, und der GENIUS Act des Senats zielt darauf ab, Leitplanken für Stablecoins zu setzen. Meta könnte hoffen, dass ein klarerer rechtlicher Rahmen die Beteiligung von Unternehmen an digitalen Währungen legitimiert. Dies ist jedoch nicht ohne Widerstand – Senatorin Elizabeth Warren und andere Gesetzgeber haben Meta ins Visier genommen und fordern, dass große Technologieunternehmen in jedem neuen Gesetz vom Ausgeben von Stablecoins ausgeschlossen werden. Meta wird solche politischen Hürden überwinden müssen, möglicherweise indem es betont, dass es keine neue Währung ausgibt, sondern lediglich bestehende verwendet (somit technisch keine „Facebook Coin“, die den Kongress beunruhigte).

  • Globale und lokale Compliance: Über die USA hinaus wird Meta die Vorschriften in jedem Markt berücksichtigen. Wenn es beispielsweise Stablecoin-Zahlungen in WhatsApp für Überweisungen einführt, könnte es dies in Ländern mit aufgeschlossenen Regulierungsbehörden testen (ähnlich wie WhatsApp Pay in Märkten wie Brasilien oder Indien mit lokaler Genehmigung eingeführt wurde). Meta könnte Zentralbanken und Finanzaufsichtsbehörden in Zielregionen einbeziehen, um sicherzustellen, dass seine Stablecoin-Integration die Anforderungen erfüllt (z. B. vollständig durch Fiat-Währung gedeckt, einlösbar und die Stabilität der lokalen Währung nicht beeinträchtigt). Der First Digital USD (FDUSD), einer der Stablecoins, die Meta unterstützen könnte, hat seinen Sitz in Hongkong und unterliegt den dortigen Treuhandgesetzen, was darauf hindeutet, dass Meta Regionen mit krypto-freundlichen Regeln (z. B. Hongkong, Singapur) für erste Phasen nutzen könnte.

  • Den „Libra-Fehler“ vermeiden: Bei Libra befürchteten die Regulierungsbehörden, dass Meta eine globale Währung außerhalb staatlicher Kontrolle kontrollieren würde. Metas Strategie besteht nun darin, sich als Teilnehmer und nicht als Kontrolleur zu positionieren. Indem das Unternehmen sagt „es gibt keinen Meta-Stablecoin“, distanziert es sich von der Idee, Geld zu drucken. Stattdessen kann Meta argumentieren, dass es die Zahlungsinfrastruktur für Benutzer verbessert, analog zur Unterstützung von PayPal oder Kreditkarten. Diese Erzählung – „wir verwenden lediglich sichere, vollständig gedeckte Währungen wie USDC, um Benutzern bei Transaktionen zu helfen“ – ist wahrscheinlich die Art und Weise, wie Meta das Projekt den Regulierungsbehörden präsentieren wird, um Ängste vor einer Destabilisierung des Währungssystems zu zerstreuen.

  • Compliance und Lizenzierung: Sollte Meta sich entscheiden, einen gebrandeten Stablecoin anzubieten oder die Krypto-Assets der Nutzer zu verwahren, könnte es die entsprechenden Lizenzen beantragen (z. B. als lizenzierter Geldübermittler werden, eine staatliche oder föderale Charta für die Stablecoin-Ausgabe über eine Tochtergesellschaft oder Partnerbank erhalten). Es gibt Präzedenzfälle: PayPal erhielt eine New Yorker Treuhandcharta (über Paxos) für seinen Stablecoin. Meta könnte in ähnlicher Weise eine Partnerschaft eingehen oder eine regulierte Einheit für alle Verwahrungsaspekte schaffen. Vorerst kann Meta durch die Zusammenarbeit mit etablierten Stablecoin-Emittenten und Banken auf deren behördliche Genehmigungen vertrauen.

Insgesamt kann Metas Ansatz als „regulatorische Anpassung“ verstanden werden – es versucht, das Projekt so zu gestalten, dass es in die rechtlichen Rahmenbedingungen passt, die Regulierungsbehörden geschaffen haben oder schaffen. Dies beinhaltet proaktive Kontaktaufnahme, langsames Skalieren und den Einsatz von Experten, die die Regeln kennen. Dennoch bleibt die regulatorische Unsicherheit ein Risiko. Das Unternehmen wird die Ergebnisse der Stablecoin-Gesetzesentwürfe genau beobachten und sich wahrscheinlich an politischen Diskussionen beteiligen, um sicherzustellen, dass es ohne rechtliche Hindernisse vorankommen kann.

Marktauswirkungen und Stablecoin-Landschaftsanalyse

Metas Eintritt in den Stablecoin-Markt könnte ein Game-Changer für den Stablecoin-Markt sein, der Anfang 2025 bereits boomt. Die gesamte Marktkapitalisierung von Stablecoins erreichte im April 2025 ein Allzeithoch von rund 238–245 Milliarden US-Dollar, was etwa dem Doppelten des Vorjahres entspricht. Dieser Markt wird derzeit von einigen Schlüsselakteuren dominiert:

  • Tether (USDT): Der größte Stablecoin mit fast 70 % Marktanteil und rund 148 Milliarden US-Dollar im Umlauf (Stand April). USDT wird von Tether Ltd. ausgegeben und ist im Krypto-Handel und bei der Liquidität über Börsen hinweg weit verbreitet. Er ist für weniger Transparenz bei den Reserven bekannt, hat aber seine Bindung beibehalten.

  • USD Coin (USDC): Der zweitgrößte, ausgegeben von Circle (in Partnerschaft mit Coinbase) mit einem Umlauf von rund 62 Milliarden US-Dollar (≈26 % Marktanteil). USDC ist in den USA reguliert, vollständig in Bargeld und Staatsanleihen gedeckt und wird von Institutionen wegen seiner Transparenz bevorzugt. Es wird sowohl im Handel als auch in einer zunehmenden Anzahl von Mainstream-Fintech-Apps verwendet.

  • First Digital USD (FDUSD): Ein neuerer Akteur (Mitte 2023 eingeführt), ausgegeben von First Digital Trust aus Hongkong. FDUSD wuchs als Alternative auf Plattformen wie Binance, nachdem regulatorische Probleme Binances eigenen BUSD trafen. Bis April 2025 betrug die Marktkapitalisierung von FDUSD etwa 1,25 Milliarden US-Dollar. Es gab einige Volatilität (verlor im April kurzzeitig seine 1-Dollar-Bindung), wird aber dafür gelobt, in einem freundlicheren regulatorischen Umfeld in Asien ansässig zu sein.

Die folgende Tabelle vergleicht Metas geplante Stablecoin-Integration mit USDT, USDC und FDUSD:

MerkmalMetas Stablecoin-Initiative (2025)Tether (USDT)USD Coin (USDC)First Digital USD (FDUSD)
Emittent / ManagerKeine proprietäre Währung: Meta wird mit bestehenden Emittenten zusammenarbeiten; die Währung könnte von einem Drittanbieter (z. B. Circle usw.) ausgegeben werden. Meta wird Stablecoins in seine Plattformen integrieren, nicht eigene ausgeben (gemäß offiziellen Erklärungen).Tether Holdings Ltd. (verbunden mit iFinex). Privat gehalten; Emittent von USDT.Circle Internet Financial (mit Coinbase; über Centre Consortium). USDC wird von Circle gemäß US-Vorschriften verwaltet.First Digital Trust, eine in Hongkong registrierte Treuhandgesellschaft, gibt FDUSD gemäß der HK Trust Ordinance aus.
Einführung & StatusNeue Initiative, Planungsphase 2025. Noch keine Währung eingeführt (Meta prüft Integration, die 2025 beginnen soll). Interne Tests oder Pilotprojekte erwartet; Stand Mai 2025 nicht öffentlich verfügbar.2014 eingeführt. Etabliert mit ~$148 Mrd. im Umlauf. Weit verbreitet über Börsen und Chains (Ethereum, Tron usw.).2018 eingeführt. Etabliert mit ~$62 Mrd. im Umlauf. Wird im Handel, DeFi, Zahlungen verwendet; auf mehreren Chains (Ethereum, Stellar, andere) verfügbar.Mitte 2023 eingeführt. Aufstrebender Akteur mit ~$1–2 Mrd. Marktkapitalisierung (kürzlich ~$1,25 Mrd.). Auf asiatischen Börsen (Binance usw.) als regulierte USD-Stablecoin-Alternative beworben.
Technologie / BlockchainWahrscheinlich Multi-Blockchain-Unterstützung. Schwerpunkt auf Ethereum für Kompatibilität; möglicherweise Nutzung von Stellar oder anderen Netzwerken für Transaktionen mit niedrigen Gebühren. Metas Wallet wird die Blockchain-Schicht für Benutzer abstrahieren.Multi-Chain: Ursprünglich auf Bitcoins Omni, jetzt hauptsächlich auf Tron, Ethereum usw. USDT existiert auf über 10 Netzwerken. Schnell auf Tron (niedrige Gebühren); weit verbreitete Integration in Krypto-Plattformen.Multi-Chain: Primär auf Ethereum, mit Versionen auf Stellar, Algorand, Solana usw. Fokus auf Ethereum, aber Ausweitung zur Gebührenreduzierung (auch Erforschung von Layer-2).Multi-Chain: Von Anfang an auf Ethereum und BNB Chain (Binance Smart Chain) ausgegeben. Zielt auf Cross-Chain-Nutzung ab. Verlässt sich auf Ethereum-Sicherheit und Binance-Ökosystem für Liquidität.
RegulierungsaufsichtMeta wird über Partner die Vorschriften einhalten. Verwendete Stablecoins werden vollständig gedeckt sein (1:1 USD) und Emittenten unter Aufsicht stehen (z. B. Circle reguliert nach US-Bundesstaatsgesetzen). Meta wird KYC/AML in seinen Apps implementieren. Die Regulierungsstrategie ist Kooperation und Compliance (insbesondere nach dem Scheitern von Diem).Historisch undurchsichtig. Begrenzte Audits; sah sich regulatorischen Verboten in NY gegenüber. In letzter Zeit zunehmende Transparenz, aber nicht wie eine Bank reguliert. Hat sich mit Regulierungsbehörden wegen früherer Falschdarstellungen geeinigt. Agiert in einer Grauzone, ist aber aufgrund seiner Größe systemrelevant.Hohe Compliance. Reguliert als Wertspeicher nach US-Gesetzen (Circle hat eine NY BitLicense, Treuhand-Charter). Monatliche Reservebestätigungen veröffentlicht. Von US-Behörden als sicherer angesehen; könnte eine föderale Stablecoin-Charta beantragen, wenn Gesetze verabschiedet werden.Moderate Compliance. Reguliert in Hongkong als treuhänderisch gehaltenes Asset. Profitiert von Hongkongs krypto-freundlicher Haltung. Weniger Kontrolle durch US-Regulierungsbehörden; positioniert, um Märkte zu bedienen, in denen USDT/USDC auf Hürden stoßen.
Anwendungsfälle & IntegrationIntegration in Metas Plattformen: Wird für Auszahlungen an Kreative, P2P-Überweisungen, In-App-Käufe über Facebook, Instagram, WhatsApp usw. verwendet. Zielt auf Mainstream-Nutzer (sozialer/medialer Kontext) statt auf Krypto-Händler ab. Könnte globale Überweisungen (z. B. Geld senden über WhatsApp) und Metaverse-Handel ermöglichen.Primär im Krypto-Handel verwendet (als Dollar-Ersatz an Börsen). Auch üblich bei DeFi-Krediten und als Dollar-Absicherung in Ländern mit Währungsinstabilität. Weniger im Einzelhandel aufgrund von Volatilitätsbedenken bezüglich des Emittenten.Wird sowohl auf Krypto-Märkten als auch in einigen Fintech-Apps verwendet. Beliebt in DeFi und Handelspaaren, aber auch von Zahlungsabwicklern und Fintechs (für Handel, Überweisungen) integriert. Coinbase und andere ermöglichen USDC für Überweisungen. Wachsende Rolle bei Geschäftsabwicklungen.Derzeit hauptsächlich auf Krypto-Börsen (Binance) als USD-Liquiditätsoption nach dem Rückgang von BUSD verwendet. Ein gewisses Potenzial für asienbasierte Zahlungen oder DeFi, aber die Anwendungsfälle sind noch im Entstehen. Die Marktpositionierung ist, eine konforme Alternative für asiatische Nutzer und Institutionen zu sein.

Prognostizierte Auswirkungen: Wenn Meta Stablecoin-Zahlungen erfolgreich einführt, könnte dies die Reichweite und Nutzung von Stablecoins erheblich erweitern. Metas Apps könnten Hunderte Millionen neuer Stablecoin-Nutzer an Bord holen, die noch nie zuvor Krypto verwendet haben. Diese Mainstream-Adoption könnte die gesamte Stablecoin-Marktkapitalisierung über die derzeitigen Marktführer hinaus erhöhen. Sollte Meta beispielsweise mit Circle zusammenarbeiten, um USDC in großem Umfang zu nutzen, könnte die Nachfrage nach USDC stark ansteigen – was möglicherweise die Dominanz von USDT im Laufe der Zeit herausfordern würde. Es ist plausibel, dass Meta USDC (oder welche Währung es auch immer annimmt) helfen könnte, Tethers Größe näherzukommen, indem es Anwendungsfälle außerhalb des Handels (Social Commerce, Überweisungen usw.) bereitstellt.

Andererseits könnte Metas Beteiligung Wettbewerb und Innovation unter Stablecoins anregen. Tether und andere etablierte Anbieter könnten sich anpassen, indem sie die Transparenz verbessern oder eigene Big-Tech-Allianzen bilden. Neue Stablecoins könnten entstehen, die auf soziale Netzwerke zugeschnitten sind. Auch die Unterstützung mehrerer Stablecoins durch Meta deutet darauf hin, dass keine einzelne Währung Metas Ökosystem „monopolisieren“ wird – Nutzer könnten nahtlos mit verschiedenen Dollar-Token je nach Region oder Präferenz Transaktionen durchführen. Dies könnte zu einem stärker diversifizierten Stablecoin-Markt führen, in dem die Dominanz verteilt ist.

Es ist auch wichtig, den Infrastruktur-Boost zu beachten, den Meta bieten könnte. Ein in Meta integrierter Stablecoin wird wahrscheinlich eine robuste Kapazität für Millionen täglicher Transaktionen benötigen. Dies könnte Verbesserungen an den zugrunde liegenden Blockchains vorantreiben (z. B. Ethereum Layer-2-Skalierung oder erhöhte Nutzung des Stellar-Netzwerks). Beobachter deuten bereits an, dass Metas Schritt „die Aktivität auf [Ethereum] und die Nachfrage nach ETH erhöhen“ könnte, wenn viele Transaktionen dorthin fließen. Ähnlich könnte, wenn Stellar verwendet wird, sein nativer Token XLM eine höhere Nachfrage als Gas für Transaktionen erfahren.

Schließlich ist Metas Eintritt für die Krypto-Industrie zweischneidig: Er legitimiert Stablecoins als Zahlungsmechanismus (potenziell positiv für Akzeptanz und Marktwachstum), erhöht aber auch die regulatorischen Risiken. Regierungen könnten Stablecoins stärker als Angelegenheit von nationaler Bedeutung behandeln, wenn Milliarden von Social-Media-Nutzern beginnen, damit zu handeln. Dies könnte die regulatorische Klarheit – oder die Durchgreifen – beschleunigen, je nachdem, wie Metas Einführung verläuft. In jedem Fall wird die Stablecoin-Landschaft bis Ende der 2020er Jahre wahrscheinlich durch Metas Beteiligung, zusammen mit anderen großen Akteuren wie PayPal, Visa und traditionellen Banken, die in diesen Bereich vordringen, neu gestaltet werden.

Integration in Metas Plattformen (Facebook, Instagram, WhatsApp usw.)

Ein entscheidender Aspekt von Metas Strategie ist die nahtlose Integration von Stablecoin-Zahlungen in seine App-Familie. Ziel ist es, digitale Währungsfunktionen benutzerfreundlich in Facebook, Instagram, WhatsApp, Messenger und sogar neue Plattformen wie Threads einzubetten. So wird die Integration voraussichtlich auf jedem Dienst ablaufen:

  • Instagram: Instagram ist prädestiniert, ein Testfeld für Stablecoin-Auszahlungen zu sein. Kreative auf Instagram könnten wählen, ihre Einnahmen (für Reels-Boni, Affiliate-Verkäufe usw.) in einem Stablecoin statt in lokaler Währung zu erhalten. Berichte erwähnen ausdrücklich, dass Meta möglicherweise damit beginnen wird, bis zu ~$100 an Kreative über Stablecoins auf Instagram auszuzahlen. Dies deutet auf einen Fokus auf kleine grenzüberschreitende Zahlungen hin – ideal für Influencer in Ländern, in denen der direkte Empfang von US-Dollar bevorzugt wird. Zusätzlich könnte Instagram das Trinkgeldgeben an Kreative in der App mithilfe von Stablecoins ermöglichen oder Benutzern erlauben, digitale Sammlerstücke und Dienstleistungen mit einem Stablecoin-Guthaben zu kaufen. Da Instagram bereits mit NFT-Anzeigefunktionen (im Jahr 2022) experimentiert und einen Creator-Marktplatz hat, könnte das Hinzufügen eines Stablecoin-Wallets sein Creator-Ökosystem verbessern.

  • Facebook (Meta): Auf Facebook selbst könnte sich die Stablecoin-Integration in Facebook Pay/Meta Pay-Funktionen manifestieren. Nutzer auf Facebook könnten sich gegenseitig in Chats Geld mit Stablecoins senden oder Spenden an Spendenaktionen mit Krypto tätigen. Der Facebook Marketplace (wo Menschen Waren kaufen/verkaufen) könnte Stablecoin-Transaktionen unterstützen und so den grenzüberschreitenden Handel durch die Eliminierung von Währungsumtauschproblemen erleichtern. Ein weiterer Bereich sind Spiele und Apps auf Facebook – Entwickler könnten in Stablecoins ausgezahlt werden, oder In-Game-Käufe könnten einen Stablecoin für ein universelles Erlebnis nutzen. Angesichts der breiten Nutzerbasis von Facebook könnte die Integration eines Stablecoin-Wallets im Profil oder Messenger das Konzept des Sendens von „digitalen Dollars“ an Freunde und Familie schnell populär machen. Metas eigene Beiträge deuten auf die Monetarisierung von Inhalten hin: zum Beispiel die Auszahlung von Boni an Facebook-Content-Erstellern oder Stars (Facebooks Trinkgeld-Token), die in Zukunft potenziell durch Stablecoins gedeckt sein könnten.

  • WhatsApp: Dies ist vielleicht die transformativste Integration. WhatsApp hat über 2 Milliarden Nutzer und wird intensiv für Messaging in Regionen genutzt, in denen Überweisungen entscheidend sind (Indien, Lateinamerika usw.). Metas Stablecoin könnte WhatsApp in eine globale Überweisungsplattform verwandeln. Nutzer könnten einen Stablecoin so einfach an einen Kontakt senden wie eine Textnachricht, wobei WhatsApp bei Bedarf den Währungstausch an beiden Enden abwickelt. Tatsächlich hat WhatsApp 2021 kurzzeitig das Novi-Wallet für das Senden eines Stablecoins (USDP) in den USA und Guatemala getestet – das Konzept ist also im kleinen Maßstab bewiesen. Jetzt könnte Meta Stablecoin-Überweisungen nativ in die WhatsApp-Benutzeroberfläche integrieren. Zum Beispiel könnte ein indischer Arbeiter in den USA USDC über WhatsApp an seine Familie in Indien senden, die es dann auszahlen oder ausgeben könnte, wenn Integrationen mit lokalen Zahlungsanbietern vorhanden sind. Dies umgeht teure Überweisungsgebühren. Abgesehen von P2P könnten kleine Unternehmen auf WhatsApp (häufig in Schwellenländern) Stablecoin-Zahlungen für Waren akzeptieren und es wie ein kostengünstiges Händlerzahlungssystem nutzen. Die Altcoin Buzz-Analyse spekuliert sogar, dass WhatsApp nach den Auszahlungen an Kreative einer der nächsten Integrationspunkte sein wird.

  • Messenger: Ähnlich wie WhatsApp könnte der Facebook Messenger das Senden von Geld in Chats mit Stablecoins ermöglichen. Messenger verfügt bereits über Peer-to-Peer-Fiat-Zahlungen in den USA. Wenn dies auf Stablecoins ausgeweitet wird, könnte es Nutzer international verbinden. Man könnte sich vorstellen, dass Messenger-Chatbots oder der Kundenservice Stablecoin-Transaktionen nutzen (z. B. eine Rechnung bezahlen oder Produkte über eine Messenger-Interaktion bestellen und in Stablecoin abrechnen).

  • Threads und andere: Threads (Metas Twitter-ähnliche Plattform, die 2023 eingeführt wurde) und das breitere Meta VR/Metaverse (Reality Labs) könnten ebenfalls Stablecoins nutzen. In Horizon Worlds oder anderen Metaverse-Erlebnissen könnte ein Stablecoin als In-World-Währung für den Kauf virtueller Güter, Tickets für Veranstaltungen usw. dienen und ein Echtgeldäquivalent bereitstellen, das über verschiedene Erlebnisse hinweg funktioniert. Während Metas Metaverse-Einheit derzeit Verluste macht, könnte die Integration einer währungsübergreifenden Akzeptanz in Spielen und Welten eine einheitliche Wirtschaft schaffen, die die Nutzung ankurbeln könnte (ähnlich wie Roblox Robux hat, aber im Fall von Meta wäre es ein USD-Stablecoin im Hintergrund). Dies würde Zuckerbergs Vision der Metaverse-Wirtschaft entsprechen, ohne einen neuen Token nur für VR zu schaffen.

Integrationsstrategie: Meta wird dies wahrscheinlich sorgfältig einführen. Eine plausible Reihenfolge ist:

  1. Pilot-Auszahlungen an Kreative auf Instagram (begrenzte Menge, ausgewählte Regionen) – dies testet das System mit echtem Wert, aber auf kontrollierte Weise.
  2. Erweiterung auf P2P-Überweisungen in Messaging-Diensten (WhatsApp/Messenger), sobald Vertrauen gewonnen wurde – beginnend mit Überweisungskorridoren oder innerhalb bestimmter Länder.
  3. Händlerzahlungen und -dienste – Unternehmen auf seinen Plattformen ermöglichen, in Stablecoin zu handeln (dies könnte Partnerschaften mit Zahlungsabwicklern beinhalten, um eine einfache Umwandlung in lokale Fiat-Währung zu ermöglichen).
  4. Vollständige Ökosystem-Integration – schließlich könnte das Meta Pay-Wallet eines Benutzers ein Stablecoin-Guthaben anzeigen, das überall für Facebook-Anzeigen, Instagram-Shopping, WhatsApp Pay usw. verwendet werden kann.

Es ist erwähnenswert, dass die Benutzererfahrung entscheidend sein wird. Meta wird Begriffe wie „USDC“ oder „Ethereum“ wahrscheinlich für den Durchschnittsnutzer abstrahieren. Das Wallet könnte einfach ein Guthaben in „USD“ anzeigen (im Backend von Stablecoins unterstützt), um es einfach zu halten. Nur fortgeschrittenere Benutzer könnten mit On-Chain-Funktionen (wie dem Abheben auf ein externes Krypto-Wallet) interagieren, falls dies erlaubt ist. Metas Vorteil ist seine riesige Nutzerbasis; wenn auch nur ein Bruchteil die Stablecoin-Funktion annimmt, könnte dies die aktuelle Krypto-Nutzerpopulation übertreffen.

Zusammenfassend lässt sich sagen, dass Metas Plan, Stablecoins in seine Plattformen zu integrieren, die Grenze zwischen traditionellen digitalen Zahlungen und Kryptowährungen verwischen könnte. Ein Facebook- oder WhatsApp-Nutzer könnte bald einen Stablecoin verwenden, ohne überhaupt zu merken, dass es sich um ein Krypto-Asset handelt – er wird einfach einen schnelleren, günstigeren Weg sehen, Geld zu senden und global Transaktionen durchzuführen. Diese tiefe Integration könnte Metas Apps in Märkten hervorheben, in denen die Finanzinfrastruktur kostspielig oder langsam ist, und es positioniert Meta als ernstzunehmenden Konkurrenten sowohl für Fintech-Unternehmen als auch für Krypto-Börsen im Bereich der digitalen Zahlungen.

Quellen:

  • Metas Sondierungsgespräche zu Stablecoins und Einstellung eines Krypto-VP
  • Metas Absicht, Stablecoins für grenzüberschreitende Auszahlungen an Kreative zu nutzen (Fortune-Bericht)
  • Kommentar von Metas Kommunikationsdirektor („Diem ist tot, kein Meta-Stablecoin“)
  • Analyse von Metas strategischen Motivationen (Kostenreduzierung, einheitliche Währung für Auszahlungen)
  • Technologische Infrastrukturwahl – Ethereum-Integration und Stellars Compliance-Funktionen
  • Ginger Bakers Rolle und Hintergrund (ehemals Plaid, Ripple, Stellar-Vorstand)
  • Fortune/LinkedIn-Einblicke in Metas Krypto-Team und diskutierte Partnerschaften
  • Regulatorischer Kontext: Libras Zusammenbruch im Jahr 2022 und das freundlichere Umfeld 2025 unter Trump vs. legislativer Widerstand (Senatorin Warren zum Verbot von Big Tech Stablecoins)
  • Stablecoin-Marktdaten (Q2 2025): ~$238 Mrd. Marktkapitalisierung, USDT ~$148 Mrd. vs. USDC ~$62 Mrd., Wachstumstrends
  • Vergleichsinformationen für USDT, USDC, FDUSD (Marktanteil, regulatorische Haltung, Emittenten)
  • Integrationsdetails über Metas Produkte hinweg (Auszahlungen an Content-Ersteller, WhatsApp-Zahlungen).