Zum Hauptinhalt springen

97 Posts getaggt mit "Blockchain"

Alle Tags anzeigen

Gerüchte um ein Stripe L1-Netzwerk

· 5 Minuten Lesezeit
Dora Noda
Software Engineer

Die Aussicht, dass Stripe eine eigene Layer 1 (L1) Blockchain einführt, ist in der Krypto-Community ein heißes Thema, angeheizt durch jüngste strategische Schritte des globalen Zahlungsriesen. Obwohl unbestätigt, deuten die Gerüchte auf eine potenziell transformative Verschiebung in der Zahlungslandschaft hin. Angesichts von Stripes Kernmission, das "BIP des Internets zu steigern", indem eine robuste globale Wirtschaftsinfrastruktur aufgebaut wird, könnte eine dedizierte Blockchain ein logischer und mächtiger nächster Schritt sein, insbesondere angesichts der zunehmenden Hinwendung des Unternehmens zu Blockchain-bezogenen Unternehmungen.

Die Grundlage für ein Stripe L1

Stripe hat bereits erhebliche Vorarbeit geleistet, die die Idee eines L1 sehr plausibel macht. Im Februar 2025 erwarb Stripe bekanntlich Bridge, ein Stablecoin-Infrastrukturunternehmen, für etwa 1,1 Milliarden US-Dollar. Dieser Schritt signalisiert deutlich Stripes Engagement für eine Stablecoin-basierte Finanzinfrastruktur. Nach dieser Akquisition führte Stripe im Mai 2025 seinen Stablecoin-Finanzkonten-Dienst auf dem Stripe Sessions Event ein. Dieser Dienst, der in 101 Ländern verfügbar ist, ermöglicht es Unternehmen, Folgendes zu tun:

  • USDC (ausgegeben von Circle) und USDB (ausgegeben von Bridge) zu halten.
  • Stablecoins einfach über traditionelle USD-Überweisungen (ACH/Wire) und EUR-Überweisungen (SEPA) einzuzahlen und abzuheben.
  • USDC-Ein- und Auszahlungen über wichtige Blockchain-Netzwerke zu ermöglichen, darunter Arbitrum, Avalanche C-Chain, Base, Ethereum, Optimism, Polygon, Solana und Stellar.

Dies bedeutet, dass Unternehmen weltweit dollarbasierte Stablecoins nahtlos in ihre Abläufe integrieren können, wodurch die Lücke zwischen traditionellem Banking und der aufstrebenden digitalen Asset-Ökonomie geschlossen wird.

Hinzu kommt, dass Stripe im Juni 2025 Privy.io, ein Startup für Web3-Wallet-Infrastruktur, erworben hat. Privy bietet entscheidende Funktionen wie die E-Mail- oder SSO-basierte Wallet-Erstellung, Transaktionssignierung, Schlüsselverwaltung und Gas-Abstraktion. Diese Akquisition rundet Stripes Fähigkeiten ab und stellt die wesentliche Wallet-Infrastruktur bereit, die für eine breitere Blockchain-Adoption erforderlich ist.

Da sowohl die Stablecoin- als auch die Wallet-Infrastruktur nun fest etabliert sind, wird die strategische Synergie der Einführung eines dedizierten Blockchain-Netzwerks offensichtlich. Es würde Stripe ermöglichen, diese Dienste enger zu integrieren und neue Möglichkeiten innerhalb seines Ökosystems zu erschließen.

Was ein Stripe L1 für Zahlungen bedeuten könnte

Würde Stripe ein eigenes L1-Netzwerk einführen, könnte dies bestehende Zahlungsdienste erheblich verbessern und völlig neue Funktionalitäten ermöglichen.

Verbesserungen im Basisszenario

In seiner grundlegendsten Form könnte ein Stripe L1 mehrere sofortige Verbesserungen mit sich bringen:

  • Integrierte Stablecoin-Finanzkonten: Stripes bestehender Stablecoin-Finanzkonten-Dienst würde sich wahrscheinlich vollständig in das Stripe L1 integrieren, wodurch Händler ihre Stablecoin-Bestände direkt im Netzwerk für verschiedene Finanzaktivitäten einzahlen, abheben und nutzen könnten.
  • Stablecoin-Abwicklung für Händler: Händler könnten die Möglichkeit erhalten, ihre Verkaufserlöse direkt in dollarbasierten Stablecoins abzurechnen. Dies wäre ein erheblicher Vorteil, insbesondere für Unternehmen mit hoher Dollarnachfrage, aber begrenztem Zugang zu traditionellen Bankwegen, was grenzüberschreitende Transaktionen rationalisieren und FX-Komplexitäten reduzieren würde.
  • Kunden-Wallet-Dienste: Unter Nutzung der Privy-Infrastruktur könnte ein Stripe L1 es Einzelpersonen ermöglichen, einfach Web3-Wallets innerhalb des Stripe-Ökosystems zu erstellen. Dies würde Stablecoin-Zahlungen für Kunden erleichtern und Türen für die Teilnahme an einer breiteren Palette von Finanzaktivitäten auf dem Stripe L1 öffnen.
  • Stablecoin-Zahlungsoptionen für Kunden: Kunden, die derzeit auf Karten oder Banküberweisungen angewiesen sind, könnten ihre Web3-Wallets (ob von Stripe bereitgestellt oder von Drittanbietern) verbinden und Stablecoins als Zahlungsmethode wählen, was größere Flexibilität und potenziell niedrigere Transaktionskosten bietet.

Revolutionäre "Bull Case"-Szenarien

Über diese grundlegenden Verbesserungen hinaus hat ein Stripe L1 das Potenzial, die Zahlungsbranche wirklich zu revolutionieren und langjährige Ineffizienzen zu beseitigen:

  • Direkte Kunden-zu-Händler-Zahlungen: Eine der aufregendsten Aussichten ist das Potenzial für direkte Zahlungen zwischen Kunden und Händlern unter Verwendung von Stablecoins auf Stripe L1. Dies könnte traditionelle Vermittler wie Kartennetzwerke und ausstellende Banken umgehen, was zu deutlich schnelleren Abwicklungszeiten und reduzierten Transaktionsgebühren führen würde. Obwohl Schutzmaßnahmen für Rückerstattungen und Stornierungen entscheidend wären, bietet die Direktheit von Blockchain-Transaktionen eine unvergleichliche Effizienz.
  • Mikrozahlungsbasierte Abonnementdienste: Die inhärente Unterstützung von Mikrozahlungen durch Blockchain könnte völlig neue Geschäftsmodelle erschließen. Stellen Sie sich Abonnements vor, die minutengenau abgerechnet werden, bei denen Benutzer streng nach tatsächlicher Nutzung bezahlen und alle Zahlungen über Smart Contracts automatisiert werden. Dies steht in scharfem Kontrast zu den derzeitigen monatlichen oder jährlichen Modellen und eröffnet eine Vielzahl neuer Dienstleistungsangebote.
  • DeFi-Nutzung von kurzfristigen Einlagen: In traditionellen Systemen kommt es bei der Zahlungsabwicklung oft zu Verzögerungen aufgrund der Notwendigkeit von Betrugserkennung, Stornierungen und Rückerstattungen. Würde Stripe L1 direkte Stablecoin-Zahlungen abwickeln, könnten Gelder vor der vollständigen Freigabe an den Händler vorübergehend im Netzwerk gehalten werden. Diese kurzfristigen Einlagen, die voraussichtlich beträchtlich sein werden, könnten einen massiven Liquiditätspool auf Stripe L1 bilden. Diese Liquidität könnte dann in dezentralen Finanzprotokollen (DeFi), Kreditmärkten oder in hochverzinslichen Anleihen eingesetzt werden, wodurch die Kapitaleffizienz für alle Teilnehmer erheblich verbessert würde.

Die Zukunft der Zahlungen

Die Gerüchte um ein Stripe L1-Netzwerk sind mehr als nur spekulatives Gerede; sie weisen auf einen tieferen Trend in der Finanzwelt hin. Zahlungsriesen wie Visa, Mastercard und PayPal haben Blockchain und Stablecoins bisher hauptsächlich als ergänzende Funktionen betrachtet. Wenn Stripe sich vollständig einem L1 verschreibt, könnte dies einen historischen Paradigmenwechsel in den Zahlungssystemen signalisieren und die Art und Weise, wie Geld global bewegt wird, grundlegend neu gestalten.

Historisch gesehen hat sich Stripe als Zahlungs-Gateway und Acquirer hervorgetan. Ein Stripe L1 könnte es dem Unternehmen jedoch ermöglichen, seine Rolle zu erweitern und potenziell Funktionen zu übernehmen, die traditionell von Kartennetzwerken und sogar ausstellenden Banken wahrgenommen werden. Dieser Schritt würde nicht nur die Zahlungseffizienz durch Blockchain verbessern, sondern auch bisher unerreichbare Funktionen wie granulare Mikro-Streaming-Abonnements und die automatisierte Verwaltung kurzfristiger Liquidität ermöglichen.

Wir stehen wirklich an der Schwelle zu einer disruptiven Ära in den Zahlungssystemen, angetrieben durch die Blockchain-Technologie. Ob Stripe offiziell ein L1 einführt, bleibt abzuwarten, aber die strategischen Weichen für einen solch monumentalen Schritt sind sicherlich gestellt.

Zwei Wege zu einem benutzerfreundlicheren Ethereum: ERC‑4337 Smart Accounts + ERC‑4804 Web3 URLs

· 9 Minuten Lesezeit
Dora Noda
Software Engineer

TL;DR

Ethereum hat gerade zwei leistungsstarke Primitive erhalten, die die Benutzererfahrung über Seed-Phrasen und bookmarkbare DApps hinaus zu „anklickbaren On-Chain-Erlebnissen“ vorantreiben.

  • ERC-4337 bringt Account Abstraction ins heutige Ethereum, ohne Änderungen am Kernprotokoll. Dies macht Funktionen wie Smart Contract Accounts, Gas-Sponsoring, gebündelte Aufrufe und Passkey-basierte Authentifizierung nativ für Wallets.
  • ERC-4804 führt web3:// URLs ein – menschenlesbare Links, die direkt zu Vertrags-Lese-Aufrufen auflösen und sogar On-Chain-HTML oder SVG rendern können, alles ohne einen traditionellen Webserver als Mittelsmann. Stellen Sie es sich als „HTTP für die EVM“ vor.

Zusammen verwendet, handhabt ERC-4337 Aktionen, während ERC-4804 Adressen handhabt. Diese Kombination ermöglicht es Ihnen, einen Link zu teilen, der seine Benutzeroberfläche nachweislich von einem Smart Contract abruft. Wenn ein Benutzer bereit ist zu handeln, übergibt der Ablauf an ein Smart Account, das Gas sponsern und mehrere Schritte in einem einzigen, nahtlosen Klick bündeln kann.


Warum das jetzt wichtig ist

Dies ist nicht nur eine theoretische Zukunft; diese Technologien sind live und gewinnen erheblich an Bedeutung. ERC-4337 ist bereits skaliert und in der Praxis bewährt. Der kanonische EntryPoint-Vertrag wurde am 1. März 2023 im Ethereum-Mainnet bereitgestellt und hat seitdem zig Millionen Smart Contract Accounts betrieben und über 100 Millionen User Operations verarbeitet.

Gleichzeitig konvergiert das Kernprotokoll mit diesen Ideen. Das im Mai 2025 ausgelieferte Pectra-Upgrade enthielt EIP-7702, das es standardmäßigen extern verwalteten Konten (EOAs) ermöglicht, sich vorübergehend wie Smart Accounts zu verhalten. Dies ergänzt ERC-4337, indem es den Übergang für bestehende Benutzer erleichtert, anstatt den Standard zu ersetzen.

Im Bereich der Adressierung ist web3:// nun formalisiert. ERC-4804 spezifiziert genau, wie eine URL in einen EVM-Aufruf übersetzt wird, und web3 wurde von der IANA als provisorisches URI-Schema gelistet. Die Tools und Gateways, die benötigt werden, um diese URLs praktisch zu machen, sind jetzt verfügbar und verwandeln On-Chain-Daten in teilbare, verlinkbare Ressourcen.


Primer: ERC-4337 auf einer Seite

Im Kern führt ERC-4337 eine parallele Transaktionsschiene in Ethereum ein, die auf Flexibilität ausgelegt ist. Anstelle traditioneller Transaktionen reichen Benutzer UserOperation-Objekte in einen alternativen Mempool ein. Diese Objekte beschreiben, was das Konto tun möchte. Spezialisierte Knoten, sogenannte „Bundler“, nehmen diese Operationen auf und führen sie über einen globalen EntryPoint-Vertrag aus.

Dies ermöglicht drei Schlüsselkomponenten:

  1. Smart Contract Accounts (SCAs): Diese Konten enthalten ihre eigene Logik. Sie definieren, was eine Transaktion gültig macht, und ermöglichen benutzerdefinierte Signaturschemata (wie Passkeys oder Multisig), Session Keys für Spiele, Ausgabenlimits und soziale Wiederherstellungsmechanismen. Das Konto, nicht das Netzwerk, setzt die Regeln durch.
  2. Paymasters: Diese speziellen Verträge können Gasgebühren für Benutzer sponsern oder ihnen ermöglichen, in ERC-20-Tokens zu bezahlen. Dies ist der Schlüssel, um ein echtes „kein ETH im Wallet“-Onboarding zu ermöglichen und Ein-Klick-Erlebnisse zu schaffen, indem mehrere Aufrufe in einer einzigen Operation gebündelt werden.
  3. DoS-Sicherheit & Regeln: Der öffentliche ERC-4337-Mempool wird durch standardisierte Off-Chain-Validierungsregeln (definiert in ERC-7562) geschützt, die Bundler daran hindern, Ressourcen für Operationen zu verschwenden, die zum Scheitern verurteilt sind. Während alternative Mempools für spezielle Anwendungsfälle existieren können, halten diese gemeinsamen Regeln das Ökosystem kohärent und sicher.

Mentales Modell: ERC-4337 verwandelt Wallets in programmierbare Apps. Anstatt nur rohe Transaktionen zu signieren, reichen Benutzer „Intents“ ein, die der Code ihres Kontos validiert und der EntryPoint-Vertrag sicher und atomar ausführt.


Primer: ERC-4804 auf einer Seite

ERC-4804 bietet eine einfache, direkte Zuordnung von einer web3://-URL zu einem schreibgeschützten EVM-Aufruf. Die URL-Grammatik ist intuitiv: web3://<name-or-address>[:chainId]/<method>/<arg0>?returns=(types). Namen können über Systeme wie ENS aufgelöst werden, und Argumente werden automatisch basierend auf der ABI des Vertrags typisiert.

Hier sind ein paar Beispiele:

  • web3://uniswap.eth/ würde den Vertrag unter der Adresse uniswap.eth mit leeren Calldata aufrufen.
  • web3://.../balanceOf/vitalik.eth?returns=(uint256) würde einen Aufruf der balanceOf-Funktion mit Vitaliks Adresse ABI-kodieren und ein korrekt typisiertes JSON-Ergebnis zurückgeben.

Entscheidend ist, dass dieser Standard derzeit für schreibgeschützte Aufrufe (entspricht Solitys view-Funktionen) gilt. Jede Aktion, die den Zustand ändert, erfordert weiterhin eine Transaktion – genau hier kommen ERC-4337 oder EIP-7702 ins Spiel. Da web3 als provisorisches URI-Schema bei der IANA registriert ist, ist der Weg für native Browser- und Client-Unterstützung geebnet, obwohl es vorerst oft auf Erweiterungen oder Gateways angewiesen ist.

Mentales Modell: ERC-4804 verwandelt On-Chain-Ressourcen in verlinkbare Web-Objekte. „Diese Vertragsansicht als URL teilen“ wird so natürlich wie das Teilen eines Links zu einem Dashboard.


Zusammen: „Anklickbare On-Chain-Erlebnisse“

Die Kombination dieser beiden Standards eröffnet ein leistungsstarkes neues Muster für den Aufbau dezentraler Anwendungen heute.

Zuerst stellen Sie eine verifizierbare Benutzeroberfläche über web3:// bereit. Anstatt Ihr Frontend auf einem zentralisierten Server wie S3 zu hosten, können Sie eine minimale HTML- oder SVG-Oberfläche direkt On-Chain speichern. Ein Link wie web3://app.eth/render ermöglicht es einem Client, die URL aufzulösen und die Benutzeroberfläche direkt vom Vertrag zu rendern, wodurch sichergestellt wird, dass der Benutzer genau das sieht, was der Code vorschreibt.

Von dieser verifizierbaren Schnittstelle aus können Sie eine Ein-Klick-Aktion über ERC-4337 auslösen. Ein „Mint“- oder „Abonnieren“-Button kann eine UserOperation kompilieren, die ein Paymaster sponsert. Der Benutzer genehmigt mit einem Passkey oder einer einfachen biometrischen Aufforderung, und der EntryPoint-Vertrag führt einen gebündelten Aufruf aus, der sein Smart Account bereitstellt (falls es das erste Mal ist) und die gewünschte Aktion in einem einzigen, atomaren Schritt abschließt.

Dies schafft eine nahtlose Deep-Link-Übergabe. Die Benutzeroberfläche kann Intent-basierte Links einbetten, die direkt vom Wallet des Benutzers verarbeitet werden, wodurch die Notwendigkeit entfällt, sie an eine externe Website zu senden, der sie möglicherweise nicht vertrauen. Der Inhalt ist der Vertrag, und die Aktion ist das Konto.

Dies ermöglicht:

  • Gaslose Testversionen und „funktioniert einfach“-Onboarding: Neue Benutzer müssen kein ETH erwerben, um loszulegen. Ihre Anwendung kann ihre ersten Interaktionen sponsern, was die Reibung drastisch reduziert.
  • Teilbarer Zustand: Ein web3://-Link ist eine Abfrage des Blockchain-Zustands. Dies ist perfekt für Dashboards, Eigentumsnachweise oder jeglichen Inhalt, der nachweislich manipulationssicher sein muss.
  • Agentenfreundliche Abläufe: KI-Agenten können verifizierbaren Zustand über web3://-URLs abrufen und transaktionale Intents über ERC-4337 mithilfe von Session Keys mit begrenztem Umfang übermitteln, alles ohne anfälliges Screen Scraping oder unsichere Handhabung privater Schlüssel.

Designhinweise für Entwickler

Bei der Implementierung dieser Standards gibt es einige architektonische Entscheidungen zu berücksichtigen. Für ERC-4337 ist es ratsam, mit minimalen Smart Contract Account-Vorlagen zu beginnen und Funktionen über geschützte Module hinzuzufügen, um die Kernvalidierungslogik einfach und sicher zu halten. Ihre Paymaster-Richtlinie sollte robust sein, mit klaren Obergrenzen für gesponsertes Gas und Whitelists für genehmigte Methoden, um Griefing-Angriffe zu verhindern.

Für ERC-4804 priorisieren Sie menschenlesbare Links, indem Sie ENS-Namen verwenden. Seien Sie explizit bezüglich chainId, um Mehrdeutigkeiten zu vermeiden, und fügen Sie den Parameter returns=(…) hinzu, um sicherzustellen, dass Clients typisierte, vorhersehbare Antworten erhalten. Obwohl Sie vollständige Benutzeroberflächen rendern können, ist es oft am besten, On-Chain-HTML/SVG minimal zu halten und sie als verifizierbare Hüllen zu verwenden, die größere Assets aus dezentralem Speicher wie IPFS abrufen können.

Denken Sie schließlich daran, dass EIP-7702 und ERC-4337 zusammenarbeiten, nicht gegeneinander. Da EIP-7702 im Pectra-Upgrade nun aktiv ist, können bestehende EOA-Benutzer Aktionen an die Vertragslogik delegieren, ohne ein vollständiges Smart Account bereitzustellen. Die Tools im Account Abstraction-Ökosystem passen sich bereits an, um dies zu unterstützen und den Migrationspfad für alle zu ebnen.


Sicherheit, Realität und Einschränkungen

Obwohl leistungsstark, haben diese Systeme Kompromisse. Der EntryPoint-Vertrag ist konstruktionsbedingt ein zentraler Engpass; er vereinfacht das Sicherheitsmodell, konzentriert aber auch das Risiko. Halten Sie sich immer an geprüfte, kanonische Versionen. Die Mempool-Validierungsregeln aus ERC-7562 sind eine soziale Konvention, keine On-Chain-durchgesetzte Regel, gehen Sie also nicht davon aus, dass jeder alternative Mempool die gleiche Zensurresistenz oder DoS-Schutz bietet.

Darüber hinaus reift web3:// noch. Es bleibt ein schreibgeschützter Standard, und jede Schreiboperation erfordert eine Transaktion. Obwohl das Protokoll selbst dezentralisiert ist, können die Gateways und Clients, die diese URLs auflösen, immer noch potenzielle Fehler- oder Zensurpunkte sein. Echte „Unblockbarkeit“ wird von einer weit verbreiteten nativen Client-Unterstützung abhängen.


Eine konkrete Blaupause

Stellen Sie sich vor, Sie möchten einen NFT-basierten Mitgliederclub mit einer teilbaren, verifizierbaren Benutzeroberfläche und einem Ein-Klick-Beitrittsprozess aufbauen. So könnten Sie ihn in diesem Quartal veröffentlichen:

  1. Teilen Sie die Benutzeroberfläche: Verteilen Sie einen Link wie web3://club.eth/home. Wenn ein Benutzer ihn öffnet, löst sein Client die URL auf, ruft den Vertrag auf und rendert eine On-Chain-Benutzeroberfläche, die die aktuelle Mitglieder-Allowlist und den Mint-Preis anzeigt.
  2. Ein-Klick-Beitritt: Der Benutzer klickt auf einen „Beitreten“-Button. Sein Wallet kompiliert eine ERC-4337 UserOperation, die von Ihrem Paymaster gesponsert wird. Diese einzelne Operation bündelt drei Aufrufe: Bereitstellung des Smart Accounts des Benutzers (falls er noch keines hat), Zahlung der Mint-Gebühr und Registrierung seiner Profildaten.
  3. Verifizierbare Quittung: Nachdem die Transaktion bestätigt wurde, wird dem Benutzer eine Bestätigungsansicht angezeigt, die nur ein weiterer web3://-Link ist, wie web3://club.eth/receipt/<tokenId>, wodurch ein permanenter On-Chain-Link zu seinem Mitgliedschaftsnachweis erstellt wird.

Der größere Bogen

Diese beiden Standards signalisieren einen fundamentalen Wandel in der Art und Weise, wie wir auf Ethereum aufbauen. Konten werden zu Software. ERC-4337 und EIP-7702 verwandeln „Wallet UX“ in einen Raum für echte Produktinnovationen und führen uns über Vorträge zum Schlüsselmanagement hinaus. Gleichzeitig werden Links zu Abfragen. ERC-4804 stellt die URL als Primitiv zur Adressierung verifizierbarer Fakten On-Chain wieder her, nicht nur der Frontends, die sie proxen.

Zusammen verkleinern sie die Lücke zwischen dem, was Benutzer anklicken, und dem, was Verträge tun. Diese Lücke wurde einst von zentralisierten Webservern und Vertrauensannahmen gefüllt. Jetzt kann sie durch verifizierbare Codepfade und offene, erlaubnislose Mempools gefüllt werden.

Wenn Sie Krypto-Anwendungen für Endverbraucher entwickeln, ist dies Ihre Chance, die erste Minute des Benutzers zu einem Vergnügen zu machen. Teilen Sie einen Link, rendern Sie die Wahrheit, sponsern Sie die erste Aktion und halten Sie Ihre Benutzer in einer verifizierbaren Schleife. Die Wege sind da – jetzt ist es Zeit, die Erlebnisse zu liefern.

KI und Web3 durch MCP verbinden: Eine Panorama-Analyse

· 44 Minuten Lesezeit
Dora Noda
Software Engineer

Einleitung

KI und Web3 konvergieren auf wirkungsvolle Weise, wobei allgemeine KI-Schnittstellen nun als Bindegewebe für das dezentrale Web konzipiert werden. Ein Schlüsselkonzept, das aus dieser Konvergenz hervorgeht, ist MCP, das je nach Kontext für „Model Context Protocol“ (wie von Anthropic eingeführt) steht oder in breiteren Diskussionen lose als Metaverse Connection Protocol beschrieben wird. Im Wesentlichen ist MCP ein standardisiertes Framework, das KI-Systemen ermöglicht, auf natürliche und sichere Weise mit externen Tools und Netzwerken zu interagieren – und potenziell KI-Agenten in jeden Winkel des Web3-Ökosystems „einzubinden“. Dieser Bericht bietet eine umfassende Analyse, wie allgemeine KI-Schnittstellen (wie Agenten großer Sprachmodelle und neuronal-symbolische Systeme) alles in der Web3-Welt über MCP verbinden könnten, einschließlich des historischen Hintergrunds, der technischen Architektur, der Branchenlandschaft, der Risiken und des Zukunftspotenzials.

1. Entwicklungshintergrund

1.1 Die Evolution von Web3 und unerfüllte Versprechen

Der Begriff „Web3“ wurde um 2014 geprägt, um ein Blockchain-gestütztes dezentrales Web zu beschreiben. Die Vision war ehrgeizig: ein berechtigungsfreies Internet, das auf Benutzerbesitz ausgerichtet ist. Enthusiasten stellten sich vor, die zentralisierte Infrastruktur von Web2 durch Blockchain-basierte Alternativen zu ersetzen – z. B. Ethereum Name Service (für DNS), Filecoin oder IPFS (für Speicher) und DeFi für Finanzschienen. Theoretisch würde dies Big Tech-Plattformen die Kontrolle entreißen und Einzelpersonen Selbstsouveränität über Daten, Identität und Vermögenswerte geben.

Die Realität blieb hinter den Erwartungen zurück. Trotz jahrelanger Entwicklung und Hype blieb der Mainstream-Einfluss von Web3 marginal. Durchschnittliche Internetnutzer strömten nicht zu dezentralen sozialen Medien oder begannen, private Schlüssel zu verwalten. Hauptgründe waren eine schlechte Benutzererfahrung, langsame und teure Transaktionen, aufsehenerregende Betrügereien und regulatorische Unsicherheit. Das dezentrale „Besitz-Web“ „materialisierte sich“ weitgehend nicht über eine Nischengemeinschaft hinaus. Mitte der 2020er Jahre gaben selbst Krypto-Befürworter zu, dass Web3 keinen Paradigmenwechsel für den Durchschnittsnutzer gebracht hatte.

Währenddessen erlebte die KI eine Revolution. Als Kapital und Entwicklertalente von Krypto zu KI wechselten, eroberten transformative Fortschritte im Deep Learning und bei den Grundmodellen (GPT-3, GPT-4 usw.) die öffentliche Vorstellungskraft. Generative KI zeigte einen klaren Nutzen – die Produktion von Inhalten, Code und Entscheidungen – auf eine Weise, die Krypto-Anwendungen nur schwer erreichen konnten. Tatsächlich übertraf der Einfluss großer Sprachmodelle in nur wenigen Jahren die Benutzerakzeptanz der Blockchain über ein Jahrzehnt hinweg deutlich. Dieser Kontrast führte dazu, dass einige spöttisch bemerkten, „Web3 sei an Krypto verschwendet worden“ und dass das eigentliche Web 3.0 aus der KI-Welle hervorgehe.

1.2 Der Aufstieg allgemeiner KI-Schnittstellen

Über Jahrzehnte hinweg entwickelten sich Benutzeroberflächen von statischen Webseiten (Web1.0) zu interaktiven Apps (Web2.0) – aber immer innerhalb der Grenzen des Klickens auf Schaltflächen und Ausfüllens von Formularen. Mit moderner KI, insbesondere großen Sprachmodellen (LLMs), ist ein neues Schnittstellenparadigma da: natürliche Sprache. Benutzer können einfach ihre Absicht in einfacher Sprache ausdrücken und KI-Systeme komplexe Aktionen über viele Domänen hinweg ausführen lassen. Dieser Wandel ist so tiefgreifend, dass einige vorschlagen, „Web 3.0“ als die Ära der KI-gesteuerten Agenten („das Agentic Web“) neu zu definieren, anstatt der früheren Blockchain-zentrierten Definition.

Frühe Experimente mit autonomen KI-Agenten zeigten jedoch einen kritischen Engpass auf. Diese Agenten – z. B. Prototypen wie AutoGPT – konnten Text oder Code generieren, aber es fehlte ihnen an einer robusten Möglichkeit, mit externen Systemen und untereinander zu kommunizieren. Es gab „keine gemeinsame KI-native Sprache“ für Interoperabilität. Jede Integration mit einem Tool oder einer Datenquelle war ein maßgeschneiderter Hack, und die KI-zu-KI-Interaktion hatte kein Standardprotokoll. Praktisch gesehen könnte ein KI-Agent eine große Denkfähigkeit besitzen, aber bei der Ausführung von Aufgaben scheitern, die die Nutzung von Web-Apps oder On-Chain-Diensten erforderten, einfach weil er nicht wusste, wie er mit diesen Systemen „sprechen“ sollte. Diese Diskrepanz – leistungsstarke Gehirne, primitive E/A – war vergleichbar mit einer superintelligenten Software, die hinter einer klobigen GUI feststeckte.

1.3 Konvergenz und das Aufkommen von MCP

Bis 2024 wurde deutlich, dass für die volle Entfaltung des KI-Potenzials (und für die Erfüllung des Web3-Versprechens) eine Konvergenz erforderlich war: KI-Agenten benötigen nahtlosen Zugang zu den Fähigkeiten von Web3 (dezentrale Anwendungen, Smart Contracts, Daten), und Web3 benötigt mehr Intelligenz und Benutzerfreundlichkeit, die KI bieten kann. Dies ist der Kontext, in dem MCP (Model Context Protocol) geboren wurde. Ende 2024 von Anthropic eingeführt, ist MCP ein offener Standard für die KI-Tool-Kommunikation, der sich für LLMs natürlich anfühlt. Es bietet eine strukturierte, auffindbare Möglichkeit für KI-„Hosts“ (wie ChatGPT, Claude usw.), eine Vielzahl externer Tools und Ressourcen über MCP-Server zu finden und zu nutzen. Mit anderen Worten, MCP ist eine gemeinsame Schnittstellenschicht, die es KI-Agenten ermöglicht, sich in Webdienste, APIs und sogar Blockchain-Funktionen einzuklinken, ohne jede Integration individuell programmieren zu müssen.

Betrachten Sie MCP als „den USB-C der KI-Schnittstellen“. So wie USB-C die Verbindung von Geräten standardisierte (sodass Sie nicht für jedes Gerät unterschiedliche Kabel benötigen), standardisiert MCP die Verbindung von KI-Agenten mit Tools und Daten. Anstatt für jeden Dienst (Slack vs. Gmail vs. Ethereum-Node) unterschiedliche API-Aufrufe fest zu codieren, kann ein Entwickler die MCP-Spezifikation einmal implementieren, und jede MCP-kompatible KI kann verstehen, wie dieser Dienst zu nutzen ist. Große KI-Akteure erkannten schnell die Bedeutung: Anthropic stellte MCP als Open Source zur Verfügung, und Unternehmen wie OpenAI und Google entwickeln Unterstützung dafür in ihren Modellen. Diese Dynamik deutet darauf hin, dass MCP (oder ähnliche „Meta Connectivity Protocols“) das Rückgrat werden könnte, das KI und Web3 endlich auf skalierbare Weise verbindet.

Bemerkenswerterweise argumentieren einige Technologen, dass diese KI-zentrierte Konnektivität die eigentliche Verwirklichung von Web3.0 ist. In Simba Khadders Worten: „MCP zielt darauf ab, eine API zwischen LLMs und Anwendungen zu standardisieren“, ähnlich wie REST-APIs Web 2.0 ermöglichten – was bedeutet, dass die nächste Ära von Web3 eher durch intelligente Agenten-Schnittstellen als nur durch Blockchains definiert werden könnte. Anstatt Dezentralisierung um ihrer selbst willen, könnte die Konvergenz mit KI die Dezentralisierung nützlich machen, indem sie Komplexität hinter natürlicher Sprache und autonomen Agenten verbirgt. Der Rest dieses Berichts befasst sich damit, wie KI-Allgemeinschnittstellen (über Protokolle wie MCP) technisch und praktisch alles in der Web3-Welt verbinden können.

2. Technische Architektur: KI-Schnittstellen als Brücke zu Web3-Technologien

Die Einbettung von KI-Agenten in den Web3-Stack erfordert eine Integration auf mehreren Ebenen: Blockchain-Netzwerke und Smart Contracts, dezentraler Speicher, Identitätssysteme und Token-basierte Ökonomien. Allgemeine KI-Schnittstellen – von großen Basismodellen bis hin zu hybriden neuronal-symbolischen Systemen – können als „universeller Adapter“ dienen, der diese Komponenten verbindet. Im Folgenden analysieren wir die Architektur einer solchen Integration:

** Abbildung: Ein konzeptionelles Diagramm der MCP-Architektur, das zeigt, wie KI-Hosts (LLM-basierte Anwendungen wie Claude oder ChatGPT) einen MCP-Client verwenden, um sich mit verschiedenen MCP-Servern zu verbinden. Jeder Server bietet eine Brücke zu einem externen Tool oder Dienst (z. B. Slack, Gmail, Kalender oder lokale Daten), analog zu Peripheriegeräten, die über einen universellen Hub verbunden sind. Diese standardisierte MCP-Schnittstelle ermöglicht KI-Agenten den Zugriff auf Remote-Dienste und On-Chain-Ressourcen über ein gemeinsames Protokoll.**

2.1 KI-Agenten als Web3-Clients (Integration mit Blockchains)

Im Kern von Web3 stehen Blockchains und Smart Contracts – dezentrale Zustandsmaschinen, die Logik auf vertrauenslose Weise durchsetzen können. Wie kann eine KI-Schnittstelle damit interagieren? Es gibt zwei Richtungen zu berücksichtigen:

  • KI liest von der Blockchain: Ein KI-Agent benötigt möglicherweise On-Chain-Daten (z. B. Token-Preise, Vermögenssaldo des Benutzers, DAO-Vorschläge) als Kontext für seine Entscheidungen. Traditionell erfordert das Abrufen von Blockchain-Daten die Schnittstelle zu Node-RPC-APIs oder Subgraph-Datenbanken. Mit einem Framework wie MCP kann eine KI einen standardisierten „Blockchain-Daten“-MCP-Server abfragen, um Live-On-Chain-Informationen abzurufen. Zum Beispiel könnte ein MCP-fähiger Agent nach dem neuesten Transaktionsvolumen eines bestimmten Tokens oder dem Zustand eines Smart Contracts fragen, und der MCP-Server würde die Low-Level-Details der Verbindung zur Blockchain handhaben und die Daten in einem Format zurückgeben, das die KI verwenden kann. Dies erhöht die Interoperabilität, indem die KI von einem spezifischen Blockchain-API-Format entkoppelt wird.

  • KI schreibt auf die Blockchain: Leistungsfähiger noch können KI-Agenten Smart-Contract-Aufrufe oder Transaktionen über Web3-Integrationen ausführen. Eine KI könnte beispielsweise autonom einen Handel an einer dezentralen Börse ausführen oder Parameter in einem Smart Contract anpassen, wenn bestimmte Bedingungen erfüllt sind. Dies wird erreicht, indem die KI einen MCP-Server aufruft, der die Blockchain-Transaktionsfunktionalität kapselt. Ein konkretes Beispiel ist der thirdweb MCP-Server für EVM-Ketten, der es jedem MCP-kompatiblen KI-Client ermöglicht, mit Ethereum, Polygon, BSC usw. zu interagieren, indem ketten-spezifische Mechaniken abstrahiert werden. Mit einem solchen Tool könnte ein KI-Agent On-Chain-Aktionen „ohne menschliches Eingreifen“ auslösen und so autonome dApps ermöglichen – zum Beispiel ein KI-gesteuerter DeFi-Vault, der sich selbst neu ausbalanciert, indem er Transaktionen signiert, wenn sich die Marktbedingungen ändern.

Im Hintergrund basieren diese Interaktionen immer noch auf Wallets, Schlüsseln und Gasgebühren, aber die KI-Schnittstelle kann kontrollierten Zugriff auf ein Wallet (mit geeigneten Sicherheits-Sandboxes) erhalten, um die Transaktionen durchzuführen. Orakel und Cross-Chain-Brücken spielen ebenfalls eine Rolle: Orakel-Netzwerke wie Chainlink dienen als Brücke zwischen KI und Blockchains und ermöglichen es, KI-Outputs vertrauenswürdig On-Chain einzuspeisen. Chainlinks Cross-Chain Interoperability Protocol (CCIP) könnte beispielsweise einem als zuverlässig erachteten KI-Modell ermöglichen, mehrere Smart Contracts über verschiedene Ketten hinweg gleichzeitig im Namen eines Benutzers auszulösen. Zusammenfassend können allgemeine KI-Schnittstellen als eine neue Art von Web3-Client fungieren – einer, der sowohl Blockchain-Daten konsumieren als auch Blockchain-Transaktionen über standardisierte Protokolle produzieren kann.

2.2 Neuronal-Symbolische Synergie: KI-Denkfähigkeit mit Smart Contracts kombinieren

Ein faszinierender Aspekt der KI-Web3-Integration ist das Potenzial für neuronal-symbolische Architekturen, die die Lernfähigkeit von KI (neuronale Netze) mit der rigorosen Logik von Smart Contracts (symbolische Regeln) verbinden. In der Praxis könnte dies bedeuten, dass KI-Agenten unstrukturierte Entscheidungsfindung übernehmen und bestimmte Aufgaben zur überprüfbaren Ausführung an Smart Contracts weitergeben. Zum Beispiel könnte eine KI die Marktstimmung analysieren (eine unscharfe Aufgabe), aber dann Trades über einen deterministischen Smart Contract ausführen, der vordefinierten Risikoregeln folgt. Das MCP-Framework und verwandte Standards machen solche Übergaben machbar, indem sie der KI eine gemeinsame Schnittstelle bieten, um Vertragsfunktionen aufzurufen oder die Regeln einer DAO abzufragen, bevor sie handelt.

Ein konkretes Beispiel ist SingularityNETs AI-DSL (AI Domain Specific Language), das darauf abzielt, die Kommunikation zwischen KI-Agenten in ihrem dezentralen Netzwerk zu standardisieren. Dies kann als ein Schritt in Richtung neuronal-symbolischer Integration gesehen werden: eine formale Sprache (symbolisch) für Agenten, um KI-Dienste oder Daten voneinander anzufordern. Ähnlich könnten Projekte wie DeepMinds AlphaCode oder andere schließlich so verbunden werden, dass Smart Contracts KI-Modelle für die On-Chain-Problemlösung aufrufen. Obwohl das direkte Ausführen großer KI-Modelle On-Chain heute unpraktisch ist, entstehen hybride Ansätze: z. B. erlauben bestimmte Blockchains die Verifizierung von ML-Berechnungen über Zero-Knowledge-Proofs oder vertrauenswürdige Ausführung, was die On-Chain-Verifizierung von Off-Chain-KI-Ergebnissen ermöglicht. Zusammenfassend sieht die technische Architektur KI-Systeme und Blockchain-Smart Contracts als komplementäre Komponenten vor, die über gemeinsame Protokolle orchestriert werden: KI übernimmt Wahrnehmung und offene Aufgaben, während Blockchains Integrität, Speicher und die Durchsetzung vereinbarter Regeln bieten.

2.3 Dezentraler Speicher und Daten für KI

KI lebt von Daten, und Web3 bietet neue Paradigmen für Datenspeicherung und -freigabe. Dezentrale Speichernetzwerke (wie IPFS/Filecoin, Arweave, Storj usw.) können sowohl als Repositories für KI-Modellartefakte als auch als Quellen für Trainingsdaten dienen, mit Blockchain-basierter Zugriffskontrolle. Eine allgemeine KI-Schnittstelle könnte über MCP oder Ähnliches Dateien oder Wissen aus dezentralem Speicher genauso einfach abrufen wie von einer Web2-API. Zum Beispiel könnte ein KI-Agent einen Datensatz vom Markt des Ocean Protocols oder eine verschlüsselte Datei aus einem verteilten Speicher abrufen, wenn er die entsprechenden Schlüssel oder Zahlungen besitzt.

Ocean Protocol hat sich insbesondere als Plattform für eine „KI-Datenökonomie“ positioniert – indem es Blockchain nutzt, um Daten und sogar KI-Dienste zu tokenisieren. In Ocean werden Datensätze durch Datatoken repräsentiert, die den Zugriff steuern; ein KI-Agent könnte einen Datatoken erhalten (vielleicht durch Zahlung mit Krypto oder über ein Zugriffsrecht) und dann einen Ocean MCP-Server verwenden, um die tatsächlichen Daten zur Analyse abzurufen. Oceans Ziel ist es, „ruhende Daten“ für KI freizuschalten, das Teilen zu fördern und gleichzeitig die Privatsphäre zu wahren. So könnte eine Web3-verbundene KI auf ein riesiges, dezentrales Informationskorpus zugreifen – von persönlichen Datentresoren bis hin zu offenen Regierungsdaten –, das zuvor isoliert war. Die Blockchain stellt sicher, dass die Nutzung der Daten transparent ist und fair belohnt werden kann, was einen positiven Kreislauf antreibt, in dem mehr Daten für KI verfügbar werden und mehr KI-Beiträge (wie trainierte Modelle) monetarisiert werden können.

Dezentrale Identitätssysteme spielen hier ebenfalls eine Rolle (näher erläutert im nächsten Unterabschnitt): Sie können dabei helfen zu kontrollieren, wer oder was auf bestimmte Daten zugreifen darf. Zum Beispiel könnte ein medizinischer KI-Agent aufgefordert werden, eine überprüfbare Berechtigung (On-Chain-Nachweis der Einhaltung von HIPAA oder Ähnlichem) vorzulegen, bevor er einen medizinischen Datensatz aus dem persönlichen IPFS-Speicher eines Patienten entschlüsseln darf. Auf diese Weise stellt die technische Architektur sicher, dass Daten an die KI fließen, wo dies angemessen ist, aber mit On-Chain-Governance und Audit-Trails, um Berechtigungen durchzusetzen.

2.4 Identitäts- und Agentenmanagement in einer dezentralen Umgebung

Wenn autonome KI-Agenten in einem offenen Ökosystem wie Web3 agieren, werden Identität und Vertrauen von größter Bedeutung. Dezentrale Identitäts-Frameworks (DID) bieten eine Möglichkeit, digitale Identitäten für KI-Agenten zu etablieren, die kryptografisch verifiziert werden können. Jeder Agent (oder der Mensch/die Organisation, der/die ihn einsetzt) kann eine DID und zugehörige verifizierbare Berechtigungsnachweise besitzen, die seine Attribute und Berechtigungen festlegen. Zum Beispiel könnte ein KI-Handelsbot einen Berechtigungsnachweis tragen, der von einer regulatorischen Sandbox ausgestellt wurde und bescheinigt, dass er innerhalb bestimmter Risikolimits operieren darf, oder ein KI-Inhaltsmoderator könnte nachweisen, dass er von einer vertrauenswürdigen Organisation erstellt wurde und Bias-Tests durchlaufen hat.

Durch On-Chain-Identitätsregister und Reputationssysteme kann die Web3-Welt die Verantwortlichkeit für KI-Aktionen durchsetzen. Jede Transaktion, die ein KI-Agent durchführt, kann auf seine ID zurückverfolgt werden, und wenn etwas schiefgeht, sagen die Berechtigungsnachweise aus, wer ihn gebaut hat oder wer verantwortlich ist. Dies adressiert eine kritische Herausforderung: Ohne Identität könnte ein böswilliger Akteur gefälschte KI-Agenten erstellen, um Systeme auszunutzen oder Fehlinformationen zu verbreiten, und niemand könnte Bots von legitimen Diensten unterscheiden. Dezentrale Identität hilft, dies zu mindern, indem sie eine robuste Authentifizierung ermöglicht und authentische KI-Agenten von Fälschungen unterscheidet.

In der Praxis würde eine mit Web3 integrierte KI-Schnittstelle Identitätsprotokolle verwenden, um ihre Aktionen und Anfragen zu signieren. Wenn beispielsweise ein KI-Agent einen MCP-Server aufruft, um ein Tool zu verwenden, könnte er einen Token oder eine Signatur enthalten, die mit seiner dezentralen Identität verknüpft ist, sodass der Server überprüfen kann, ob der Aufruf von einem autorisierten Agenten stammt. Blockchain-basierte Identitätssysteme (wie Ethereums ERC-725 oder W3C DIDs, die in einem Ledger verankert sind) stellen sicher, dass diese Verifizierung vertrauenslos und global überprüfbar ist. Das aufkommende Konzept der „KI-Wallets“ knüpft hier an – im Wesentlichen erhalten KI-Agenten Kryptowährungs-Wallets, die mit ihrer Identität verknüpft sind, sodass sie Schlüssel verwalten, für Dienste bezahlen oder Token als Kaution staken können (die bei Fehlverhalten entzogen werden könnte). ArcBlock hat beispielsweise diskutiert, wie „KI-Agenten ein Wallet benötigen“ und eine DID, um in dezentralen Umgebungen verantwortungsvoll zu agieren.

Zusammenfassend sieht die technische Architektur KI-Agenten als Bürger erster Klasse in Web3 vor, jeder mit einer On-Chain-Identität und möglicherweise einem Anteil am System, die Protokolle wie MCP zur Interaktion nutzen. Dies schafft ein Vertrauensnetzwerk: Smart Contracts können die Anmeldeinformationen einer KI verlangen, bevor sie kooperieren, und Benutzer können Aufgaben nur an jene KI delegieren, die bestimmte On-Chain-Zertifizierungen erfüllen. Es ist eine Mischung aus KI-Fähigkeit und den Vertrauensgarantien der Blockchain.

2.5 Token-Ökonomien und Anreize für KI

Tokenisierung ist ein Markenzeichen von Web3 und erstreckt sich auch auf den Bereich der KI-Integration. Durch die Einführung wirtschaftlicher Anreize über Token können Netzwerke gewünschte Verhaltensweisen sowohl von KI-Entwicklern als auch von den Agenten selbst fördern. Es zeichnen sich mehrere Muster ab:

  • Zahlung für Dienstleistungen: KI-Modelle und -Dienste können On-Chain monetarisiert werden. SingularityNET leistete hier Pionierarbeit, indem es Entwicklern ermöglichte, KI-Dienste bereitzustellen und Benutzer für jeden Aufruf in einem nativen Token (AGIX) zu belasten. In einer MCP-fähigen Zukunft könnte man sich jedes KI-Tool oder -Modell als Plug-and-Play-Dienst vorstellen, dessen Nutzung über Token oder Mikrozahlungen abgerechnet wird. Wenn beispielsweise ein KI-Agent eine Drittanbieter-Vision-API über MCP verwendet, könnte er die Zahlung automatisch abwickeln, indem er Token an den Smart Contract des Dienstanbieters überweist. Fetch.ai stellt sich ähnlich Marktplätze vor, auf denen „autonome Wirtschaftsagenten“ Dienste und Daten handeln, wobei ihr neues Web3 LLM (ASI-1) vermutlich Krypto-Transaktionen für den Wertetausch integriert.

  • Staking und Reputation: Um Qualität und Zuverlässigkeit zu gewährleisten, verlangen einige Projekte von Entwicklern oder Agenten, Token zu staken. Zum Beispiel plant das DeMCP-Projekt (ein dezentraler MCP-Server-Marktplatz), Token-Anreize zu nutzen, um Entwickler für die Erstellung nützlicher MCP-Server zu belohnen und sie möglicherweise Token als Zeichen des Engagements für die Sicherheit ihres Servers staken zu lassen. Reputation könnte auch an Token gebunden sein; z. B. könnte ein Agent, der konstant gute Leistungen erbringt, Reputations-Token oder positive On-Chain-Bewertungen ansammeln, während einer, der sich schlecht verhält, seinen Einsatz verlieren oder negative Bewertungen erhalten könnte. Diese tokenisierte Reputation kann dann in das oben erwähnte Identitätssystem zurückfließen (Smart Contracts oder Benutzer überprüfen die On-Chain-Reputation des Agenten, bevor sie ihm vertrauen).

  • Governance-Token: Wenn KI-Dienste Teil dezentraler Plattformen werden, ermöglichen Governance-Token der Community, deren Entwicklung zu steuern. Projekte wie SingularityNET und Ocean verfügen über DAOs, in denen Token-Inhaber über Protokolländerungen oder die Finanzierung von KI-Initiativen abstimmen. In der kombinierten Artificial Superintelligence (ASI) Alliance – einer neu angekündigten Fusion von SingularityNET, Fetch.ai und Ocean Protocol – soll ein einheitlicher Token (ASI) die Richtung eines gemeinsamen KI+Blockchain-Ökosystems steuern. Solche Governance-Token könnten über Richtlinien entscheiden, wie z. B. welche Standards übernommen werden sollen (z. B. Unterstützung von MCP- oder A2A-Protokollen), welche KI-Projekte inkubiert werden sollen oder wie ethische Richtlinien für KI-Agenten gehandhabt werden sollen.

  • Zugang und Nutzen: Token können den Zugang nicht nur zu Daten (wie bei Oceans Datatoken), sondern auch zur Nutzung von KI-Modellen steuern. Ein mögliches Szenario sind „Modell-NFTs“ oder Ähnliches, bei denen der Besitz eines Tokens Rechte an den Ausgaben eines KI-Modells oder einen Anteil an dessen Gewinnen gewährt. Dies könnte dezentrale KI-Marktplätze untermauern: Stellen Sie sich einen NFT vor, der einen Teilsbesitz an einem leistungsstarken Modell darstellt; die Eigentümer verdienen gemeinsam, wann immer das Modell in Inferenzaufgaben verwendet wird, und sie können über dessen Feinabstimmung abstimmen. Obwohl experimentell, stimmt dies mit dem Web3-Ethos des gemeinsamen Eigentums überein, angewendet auf KI-Assets.

Technisch gesehen bedeutet die Integration von Token, dass KI-Agenten Wallet-Funktionalität benötigen (wie bereits erwähnt, werden viele ihre eigenen Krypto-Wallets haben). Über MCP könnte eine KI ein „Wallet-Tool“ haben, das es ihr ermöglicht, Salden zu überprüfen, Token zu senden oder DeFi-Protokolle aufzurufen (vielleicht um einen Token gegen einen anderen zu tauschen, um einen Dienst zu bezahlen). Wenn beispielsweise ein auf Ethereum laufender KI-Agent Ocean-Token benötigt, um einen Datensatz zu kaufen, könnte er automatisch ETH gegen $OCEAN über eine DEX mit einem MCP-Plugin tauschen und dann den Kauf fortsetzen – alles ohne menschliches Eingreifen, geleitet von den Richtlinien, die sein Besitzer festgelegt hat.

Insgesamt bildet die Token-Ökonomie die Anreizschicht in der KI-Web3-Architektur und stellt sicher, dass Mitwirkende (ob sie Daten, Modellcode, Rechenleistung oder Sicherheitsaudits bereitstellen) belohnt werden und dass KI-Agenten „Skin in the Game“ haben, was sie (bis zu einem gewissen Grad) mit menschlichen Absichten in Einklang bringt.

3. Branchenlandschaft

Die Konvergenz von KI und Web3 hat ein lebendiges Ökosystem von Projekten, Unternehmen und Allianzen ins Leben gerufen. Im Folgenden geben wir einen Überblick über wichtige Akteure und Initiativen, die diesen Bereich vorantreiben, sowie über aufkommende Anwendungsfälle. Tabelle 1 bietet einen Überblick über bemerkenswerte Projekte und ihre Rollen in der KI-Web3-Landschaft:

Tabelle 1: Wichtige Akteure in KI + Web3 und ihre Rollen

Projekt / AkteurFokus & BeschreibungRolle in der KI-Web3-Konvergenz und Anwendungsfälle
Fetch.ai (Fetch)KI-Agentenplattform mit einer nativen Blockchain (Cosmos-basiert). Entwickelte Frameworks für autonome Agenten und führte kürzlich „ASI-1 Mini“ ein, ein Web3-optimiertes LLM.Ermöglicht agentenbasierte Dienste in Web3. Fetchs Agenten können Aufgaben wie dezentrale Logistik, Parkplatzsuche oder DeFi-Handel im Namen von Benutzern ausführen, wobei Krypto für Zahlungen verwendet wird. Partnerschaften (z. B. mit Bosch) und die Fetch-AI-Allianzfusion positionieren es als Infrastruktur für die Bereitstellung von agentenbasierten dApps.
Ocean Protocol (Ocean)Dezentraler Datenmarktplatz und Datenprotokoll. Spezialisiert auf die Tokenisierung von Datensätzen und Modellen mit datenschutzfreundlicher Zugriffskontrolle.Bietet das Daten-Rückgrat für KI in Web3. Ocean ermöglicht es KI-Entwicklern, Datensätze zu finden und zu kaufen oder trainierte Modelle in einer vertrauenslosen Datenökonomie zu verkaufen. Indem es KI mit zugänglicheren Daten versorgt (und gleichzeitig Datenanbieter belohnt), unterstützt es KI-Innovation und den Datenaustausch für das Training. Ocean ist Teil der neuen ASI-Allianz und integriert seine Datendienste in ein breiteres KI-Netzwerk.
SingularityNET (SNet)Ein dezentraler KI-Dienstleistungsmarktplatz, gegründet vom KI-Pionier Ben Goertzel. Ermöglicht jedem, KI-Algorithmen über seine Blockchain-basierte Plattform zu veröffentlichen oder zu nutzen, unter Verwendung des AGIX-Tokens.Pionierarbeit beim Konzept eines offenen KI-Marktplatzes auf der Blockchain. Es fördert ein Netzwerk von KI-Agenten und -Diensten, die interoperieren können (Entwicklung einer speziellen AI-DSL für die Agentenkommunikation). Anwendungsfälle umfassen KI-as-a-Service für Aufgaben wie Analyse, Bilderkennung usw., alle über eine dApp zugänglich. Fusioniert nun mit Fetch und Ocean (ASI-Allianz), um KI, Agenten und Daten in einem Ökosystem zu vereinen.
Chainlink (Orakel-Netzwerk)Dezentrales Orakel-Netzwerk, das Blockchains mit Off-Chain-Daten und -Berechnungen verbindet. Kein KI-Projekt an sich, aber entscheidend für die Verbindung von On-Chain-Smart Contracts mit externen APIs und Systemen.Fungiert als sichere Middleware für die KI-Web3-Integration. Chainlink-Orakel können KI-Modellausgaben in Smart Contracts einspeisen, wodurch On-Chain-Programme auf KI-Entscheidungen reagieren können. Umgekehrt können Orakel Daten von Blockchains für KI abrufen. Chainlinks Architektur kann sogar die Ergebnisse mehrerer KI-Modelle aggregieren, um die Zuverlässigkeit zu verbessern (ein „Wahrheitsmaschinen“-Ansatz zur Minderung von KI-Halluzinationen). Es bietet im Wesentlichen die Grundlagen für Interoperabilität und stellt sicher, dass KI-Agenten und Blockchain sich auf vertrauenswürdige Daten einigen.
Anthropic & OpenAI (KI-Anbieter)Entwickler von hochmodernen Basismodellen (Claude von Anthropic, GPT von OpenAI). Sie integrieren Web3-freundliche Funktionen, wie native Tool-Use-APIs und Unterstützung für Protokolle wie MCP.Diese Unternehmen treiben die KI-Schnittstellentechnologie voran. Anthropic's Einführung von MCP setzte den Standard für LLMs, die mit externen Tools interagieren. OpenAI hat Plugin-Systeme für ChatGPT implementiert (analog zum MCP-Konzept) und erforscht die Verbindung von Agenten mit Datenbanken und möglicherweise Blockchains. Ihre Modelle dienen als die „Gehirne“, die, wenn sie über MCP verbunden sind, mit Web3 interagieren können. Große Cloud-Anbieter (z. B. Googles A2A-Protokoll) entwickeln ebenfalls Standards für Multi-Agenten- und Tool-Interaktionen, die der Web3-Integration zugutekommen werden.
Weitere aufstrebende AkteureLumoz: konzentriert sich auf MCP-Server und KI-Tool-Integration in Ethereum (genannt „Ethereum 3.0“) – z. B. Überprüfung von On-Chain-Salden über KI-Agenten. Alethea AI: erstellt intelligente NFT-Avatare für das Metaverse. Cortex: eine Blockchain, die On-Chain-KI-Modellinferenz über Smart Contracts ermöglicht. Golem & Akash: dezentrale Computing-Marktplätze, die KI-Workloads ausführen können. Numerai: Crowdsourcing-KI-Modelle für Finanzen mit Krypto-Anreizen.Diese vielfältige Gruppe adressiert Nischenaspekte: KI im Metaverse (KI-gesteuerte NPCs und Avatare, die über NFTs besessen werden), On-Chain-KI-Ausführung (Ausführung von ML-Modellen auf dezentrale Weise, obwohl derzeit aufgrund der Rechenkosten auf kleine Modelle beschränkt) und dezentrales Computing (damit KI-Trainings- oder Inferenzaufgaben auf Token-incentivierte Nodes verteilt werden können). Diese Projekte zeigen die vielen Richtungen der KI-Web3-Fusion – von Spielwelten mit KI-Charakteren bis hin zu Crowdsourcing-Vorhersagemodellen, die durch Blockchain gesichert sind.

Allianzen und Kooperationen:

Ein bemerkenswerter Trend ist die Konsolidierung von KI-Web3-Bemühungen durch Allianzen. Die Artificial Superintelligence Alliance (ASI) ist ein Paradebeispiel, das SingularityNET, Fetch.ai und Ocean Protocol effektiv zu einem einzigen Projekt mit einem einheitlichen Token zusammenführt. Die Begründung ist, Stärken zu bündeln: SingularityNETs Marktplatz, Fetchs Agenten und Oceans Daten, wodurch eine zentrale Plattform für dezentrale KI-Dienste geschaffen wird. Diese Fusion (angekündigt 2024 und durch Abstimmungen der Token-Inhaber genehmigt) signalisiert auch, dass diese Gemeinschaften glauben, dass sie besser zusammenarbeiten als konkurrieren – insbesondere angesichts der größeren KI (OpenAI usw.) und größeren Krypto (Ethereum usw.). Wir könnten sehen, wie diese Allianz Standardimplementierungen von Dingen wie MCP über ihre Netzwerke hinweg vorantreibt oder gemeinsam Infrastruktur finanziert, die allen zugutekommt (wie Rechennetzwerke oder gemeinsame Identitätsstandards für KI).

Weitere Kooperationen umfassen Chainlinks Partnerschaften, um Daten von KI-Laboren On-Chain zu bringen (es gab Pilotprogramme zur Nutzung von KI zur Verfeinerung von Orakeldaten), oder die Beteiligung von Cloud-Plattformen (Cloudflares Unterstützung für die einfache Bereitstellung von MCP-Servern). Sogar traditionelle Krypto-Projekte fügen KI-Funktionen hinzu – zum Beispiel haben einige Layer-1-Ketten „KI-Task Forces“ gebildet, um die Integration von KI in ihre dApp-Ökosysteme zu untersuchen (wir sehen dies in NEAR-, Solana-Communities usw., obwohl konkrete Ergebnisse noch in den Anfängen stecken).

Aufkommende Anwendungsfälle: Schon in diesem frühen Stadium können wir Anwendungsfälle erkennen, die die Leistungsfähigkeit von KI + Web3 veranschaulichen:

  • Autonomes DeFi und Handel: KI-Agenten werden zunehmend in Krypto-Handelsbots, Yield-Farming-Optimierern und im On-Chain-Portfoliomanagement eingesetzt. SingularityDAO (ein Ableger von SingularityNET) bietet KI-gesteuerte DeFi-Portfolios an. KI kann Marktbedingungen rund um die Uhr überwachen und Rebalancierungen oder Arbitrage über Smart Contracts ausführen, wodurch sie im Wesentlichen zu einem autonomen Hedgefonds wird (mit On-Chain-Transparenz). Die Kombination von KI-Entscheidungsfindung mit unveränderlicher Ausführung reduziert Emotionen und könnte die Effizienz verbessern – obwohl sie auch neue Risiken birgt (später diskutiert).

  • Dezentrale Intelligenz-Marktplätze: Über den Marktplatz von SingularityNET hinaus sehen wir Plattformen wie Ocean Market, auf denen Daten (der Treibstoff für KI) ausgetauscht werden, und neuere Konzepte wie KI-Marktplätze für Modelle (z. B. Websites, auf denen Modelle mit Leistungsstatistiken gelistet sind und jeder für Abfragen bezahlen kann, wobei die Blockchain Audit-Logs führt und die Zahlungsaufteilung an die Modellersteller handhabt). Wenn sich MCP oder ähnliche Standards durchsetzen, könnten diese Marktplätze interoperabel werden – ein KI-Agent könnte autonom nach dem preisgünstigsten Dienst über mehrere Netzwerke hinweg suchen. Im Endeffekt könnte eine globale KI-Dienstleistungsschicht auf Web3 entstehen, in der jede KI jedes Tool oder jede Datenquelle über Standardprotokolle und Zahlungen nutzen kann.

  • Metaverse und Gaming: Das Metaverse – immersive virtuelle Welten, die oft auf Blockchain-Assets basieren – wird dramatisch von KI profitieren. KI-gesteuerte NPCs (Nicht-Spieler-Charaktere) können virtuelle Welten ansprechender gestalten, indem sie intelligent auf Benutzeraktionen reagieren. Startups wie Inworld AI konzentrieren sich darauf, NPCs mit Gedächtnis und Persönlichkeit für Spiele zu schaffen. Wenn solche NPCs an die Blockchain gebunden sind (z. B. sind die Attribute und der Besitz jedes NPCs ein NFT), erhalten wir persistente Charaktere, die Spieler wirklich besitzen und sogar handeln können. Decentraland hat mit KI-NPCs experimentiert, und es gibt Benutzervorschläge, die es Menschen ermöglichen, personalisierte KI-gesteuerte Avatare auf Metaverse-Plattformen zu erstellen. MCP könnte diesen NPCs ermöglichen, auf externes Wissen zuzugreifen (was sie intelligenter macht) oder mit On-Chain-Inventar zu interagieren. Prozedurale Inhaltserzeugung ist ein weiterer Ansatz: KI kann virtuelle Länder, Gegenstände oder Quests spontan entwerfen, die dann als einzigartige NFTs geprägt werden können. Stellen Sie sich ein dezentrales Spiel vor, in dem KI einen Dungeon generiert, der auf Ihre Fähigkeiten zugeschnitten ist, und die Karte selbst ein NFT ist, das Sie nach Abschluss verdienen.

  • Dezentrale Wissenschaft und Wissen: Es gibt eine Bewegung (DeSci), Blockchain für Forschung, Veröffentlichungen und die Finanzierung wissenschaftlicher Arbeit zu nutzen. KI kann die Forschung beschleunigen, indem sie Daten und Literatur analysiert. Ein Netzwerk wie Ocean könnte Datensätze für beispielsweise Genomforschung hosten, und Wissenschaftler nutzen KI-Modelle (vielleicht auf SingularityNET gehostet), um Erkenntnisse zu gewinnen, wobei jeder Schritt On-Chain für die Reproduzierbarkeit protokolliert wird. Wenn diese KI-Modelle neue Arzneimittelmoleküle vorschlagen, könnte ein NFT geprägt werden, um die Erfindung zu datieren und sogar IP-Rechte zu teilen. Diese Synergie könnte dezentrale KI-gesteuerte F&E-Kollektive hervorbringen.

  • Vertrauen und Authentifizierung von Inhalten: Angesichts der Verbreitung von Deepfakes und KI-generierten Medien kann die Blockchain zur Überprüfung der Authentizität verwendet werden. Projekte erforschen das „digitale Wasserzeichen“ von KI-Ausgaben und deren On-Chain-Protokollierung. Zum Beispiel kann der wahre Ursprung eines KI-generierten Bildes auf einer Blockchain notariell beglaubigt werden, um Fehlinformationen zu bekämpfen. Ein Experte nannte Anwendungsfälle wie die Verifizierung von KI-Ausgaben zur Bekämpfung von Deepfakes oder die Verfolgung der Herkunft über Besitzprotokolle – Rollen, in denen Krypto den KI-Prozessen Vertrauen verleihen kann. Dies könnte auf Nachrichten (z. B. von KI verfasste Artikel mit Nachweis der Quelldaten), Lieferketten (KI, die Zertifikate On-Chain verifiziert) usw. ausgeweitet werden.

Zusammenfassend ist die Branchenlandschaft reichhaltig und entwickelt sich rasant. Wir sehen, wie traditionelle Krypto-Projekte KI in ihre Roadmaps integrieren, KI-Startups die Dezentralisierung für Resilienz und Fairness nutzen und völlig neue Unternehmungen an der Schnittstelle entstehen. Allianzen wie die ASI deuten auf einen branchenweiten Vorstoß zu einheitlichen Plattformen hin, die sowohl KI als auch Blockchain nutzen. Und vielen dieser Bemühungen liegt die Idee von Standardschnittstellen (MCP und darüber hinaus) zugrunde, die die Integrationen in großem Maßstab ermöglichen.

4. Risiken und Herausforderungen

Während die Fusion von allgemeinen KI-Schnittstellen mit Web3 spannende Möglichkeiten eröffnet, birgt sie auch eine komplexe Risikolandschaft. Technische, ethische und Governance-Herausforderungen müssen angegangen werden, um sicherzustellen, dass dieses neue Paradigma sicher und nachhaltig ist. Im Folgenden skizzieren wir die größten Risiken und Hürden:

4.1 Technische Hürden: Latenz und Skalierbarkeit

Blockchain-Netzwerke sind bekannt für Latenz und begrenzten Durchsatz, was mit der Echtzeit- und datenhungrigen Natur fortschrittlicher KI kollidiert. Zum Beispiel benötigt ein KI-Agent möglicherweise sofortigen Zugriff auf ein Datenelement oder muss viele schnelle Aktionen ausführen – aber wenn jede On-Chain-Interaktion beispielsweise 12 Sekunden dauert (typische Blockzeit auf Ethereum) oder hohe Gasgebühren kostet, wird die Effektivität des Agenten eingeschränkt. Selbst neuere Ketten mit schnellerer Finalität könnten unter der Last KI-gesteuerter Aktivitäten leiden, wenn beispielsweise Tausende von Agenten gleichzeitig On-Chain handeln oder abfragen. Skalierungslösungen (Layer-2-Netzwerke, Sharded Chains usw.) sind in Arbeit, aber die Gewährleistung niedrig-latenter, hochdurchsatzfähiger Pipelines zwischen KI und Blockchain bleibt eine Herausforderung. Off-Chain-Systeme (wie Orakel und State Channels) könnten einige Verzögerungen mindern, indem sie viele Interaktionen außerhalb der Hauptkette abwickeln, aber sie erhöhen die Komplexität und potenzielle Zentralisierung. Eine nahtlose UX zu erreichen, bei der KI-Antworten und On-Chain-Updates im Handumdrehen erfolgen, wird wahrscheinlich erhebliche Innovationen in der Blockchain-Skalierbarkeit erfordern.

4.2 Interoperabilität und Standards

Ironischerweise könnte die Entstehung mehrerer Standards zu Fragmentierung führen, obwohl MCP selbst eine Lösung für Interoperabilität ist. Wir haben MCP von Anthropic, aber auch Googles neu angekündigtes A2A (Agent-to-Agent)-Protokoll für die Inter-Agenten-Kommunikation und verschiedene KI-Plugin-Frameworks (OpenAIs Plugins, LangChain-Tool-Schemas usw.). Wenn jede KI-Plattform oder jede Blockchain ihren eigenen Standard für die KI-Integration entwickelt, riskieren wir eine Wiederholung früherer Fragmentierungen – was viele Adapter erfordert und das Ziel einer „universellen Schnittstelle“ untergräbt. Die Herausforderung besteht darin, eine breite Akzeptanz gemeinsamer Protokolle zu erreichen. Branchenzusammenarbeit (möglicherweise über offene Standardisierungsgremien oder Allianzen) wird erforderlich sein, um sich auf Schlüsselkomponenten zu einigen: wie KI-Agenten On-Chain-Dienste entdecken, wie sie sich authentifizieren, wie sie Anfragen formatieren usw. Die ersten Schritte großer Akteure sind vielversprechend (mit großen LLM-Anbietern, die MCP unterstützen), aber es ist eine fortlaufende Anstrengung. Darüber hinaus bedeutet Interoperabilität über Blockchains hinweg (Multi-Chain), dass ein KI-Agent die Nuancen verschiedener Ketten handhaben sollte. Tools wie Chainlink CCIP und Cross-Chain-MCP-Server helfen, indem sie Unterschiede abstrahieren. Dennoch ist es eine nicht-triviale Herausforderung, sicherzustellen, dass ein KI-Agent ein heterogenes Web3 durchstreifen kann, ohne die Logik zu unterbrechen.

4.3 Sicherheitslücken und Exploits

Die Verbindung leistungsstarker KI-Agenten mit Finanznetzwerken eröffnet eine riesige Angriffsfläche. Die Flexibilität, die MCP bietet (KI die Nutzung von Tools und das Schreiben von Code im laufenden Betrieb ermöglicht), kann ein zweischneidiges Schwert sein. Sicherheitsforscher haben bereits mehrere Angriffsvektoren bei MCP-basierten KI-Agenten hervorgehoben:

  • Bösartige Plugins oder Tools: Da MCP Agenten das Laden von „Plugins“ (Tools, die eine bestimmte Fähigkeit kapseln) ermöglicht, könnte ein feindseliges oder trojanisiertes Plugin den Betrieb des Agenten kapern. Zum Beispiel könnte ein Plugin, das vorgibt, Daten abzurufen, falsche Daten injizieren oder unautorisierte Operationen ausführen. SlowMist (eine Sicherheitsfirma) identifizierte Plugin-basierte Angriffe wie JSON-Injection (Einspeisung korrumpierter Daten, die die Logik des Agenten manipulieren) und Funktionsüberschreibung (wobei ein bösartiges Plugin legitime Funktionen, die der Agent verwendet, überschreibt). Wenn ein KI-Agent Krypto-Fonds verwaltet, könnten solche Exploits katastrophal sein – z. B. den Agenten dazu bringen, private Schlüssel preiszugeben oder ein Wallet zu leeren.

  • Prompt-Injection und Social Engineering: KI-Agenten verlassen sich auf Anweisungen (Prompts), die manipuliert werden könnten. Ein Angreifer könnte eine Transaktion oder eine On-Chain-Nachricht erstellen, die, wenn sie von der KI gelesen wird, als bösartige Anweisung fungiert (da KI auch On-Chain-Daten interpretieren kann). Diese Art von „Cross-MCP-Call-Angriff“ wurde beschrieben, bei dem ein externes System täuschende Prompts sendet, die die KI zu Fehlverhalten veranlassen. In einer dezentralen Umgebung könnten diese Prompts von überall her kommen – einer DAO-Vorschlagsbeschreibung, einem Metadatenfeld eines NFT – daher ist die Härtung von KI-Agenten gegen bösartige Eingaben entscheidend.

  • Aggregations- und Konsensrisiken: Während die Aggregation von Ausgaben mehrerer KI-Modelle über Orakel die Zuverlässigkeit verbessern kann, führt sie auch zu Komplexität. Wenn nicht sorgfältig vorgegangen wird, könnten Gegner herausfinden, wie sie den Konsens von KI-Modellen manipulieren oder selektiv einige Modelle korrumpieren, um die Ergebnisse zu verfälschen. Die Sicherstellung, dass ein dezentrales Orakel-Netzwerk KI-Ausgaben ordnungsgemäß „bereinigt“ (und vielleicht offensichtliche Fehler herausfiltert), ist immer noch ein Bereich aktiver Forschung.

Das Sicherheitsdenken muss sich für dieses neue Paradigma ändern: Web3-Entwickler sind es gewohnt, Smart Contracts zu sichern (die nach der Bereitstellung statisch sind), aber KI-Agenten sind dynamisch – sie können ihr Verhalten mit neuen Daten oder Prompts ändern. Wie ein Sicherheitsexperte es ausdrückte: „In dem Moment, in dem Sie Ihr System für Plugins von Drittanbietern öffnen, erweitern Sie die Angriffsfläche über Ihre Kontrolle hinaus“. Best Practices werden das Sandboxing der KI-Tool-Nutzung, eine rigorose Plugin-Verifizierung und die Begrenzung von Privilegien (Prinzip der geringsten Berechtigung) umfassen. Die Community beginnt, Tipps zu teilen, wie die Empfehlungen von SlowMist: Eingabebereinigung, Überwachung des Agentenverhaltens und Behandlung von Agentenanweisungen mit der gleichen Vorsicht wie externe Benutzereingaben. Nichtsdestotrotz, angesichts der Tatsache, dass Ende 2024 bereits über 10.000 KI-Agenten im Krypto-Bereich tätig waren und 2025 voraussichtlich 1 Million erreichen werden, könnten wir eine Welle von Exploits erleben, wenn die Sicherheit nicht mithält. Ein erfolgreicher Angriff auf einen beliebten KI-Agenten (z. B. einen Handelsagenten mit Zugriff auf viele Vaults) könnte Kaskadeneffekte haben.

4.4 Datenschutz und Daten-Governance

Der Datenhunger der KI kollidiert manchmal mit Datenschutzanforderungen – und die Hinzufügung von Blockchain kann das Problem verschärfen. Blockchains sind transparente Ledger, daher sind alle On-Chain-Daten (auch für die KI-Nutzung) für alle sichtbar und unveränderlich. Dies wirft Bedenken auf, wenn KI-Agenten mit persönlichen oder sensiblen Daten umgehen. Wenn beispielsweise die persönliche dezentrale Identität oder Gesundheitsdaten eines Benutzers von einem KI-Arzt-Agenten abgerufen werden, wie stellen wir sicher, dass diese Informationen nicht versehentlich On-Chain aufgezeichnet werden (was das „Recht auf Vergessenwerden“ und andere Datenschutzgesetze verletzen würde)? Techniken wie Verschlüsselung, Hashing und das Speichern nur von Beweisen On-Chain (mit Rohdaten Off-Chain) können helfen, verkomplizieren aber das Design.

Darüber hinaus könnten KI-Agenten selbst die Privatsphäre gefährden, indem sie sensible Informationen aus öffentlichen Daten ableiten. Die Governance muss festlegen, was KI-Agenten mit Daten tun dürfen. Einige Ansätze, wie differenzielle Privatsphäre und föderiertes Lernen, könnten eingesetzt werden, damit KI aus Daten lernen kann, ohne diese preiszugeben. Wenn KI-Agenten jedoch autonom handeln, muss man davon ausgehen, dass sie irgendwann persönliche Daten verarbeiten werden – daher sollten sie an Datenverwendungsrichtlinien gebunden sein, die in Smart Contracts oder Gesetzen kodiert sind. Regulierungsregime wie die DSGVO oder der kommende EU AI Act werden verlangen, dass selbst dezentrale KI-Systeme die Anforderungen an Privatsphäre und Transparenz erfüllen. Dies ist rechtlich ein Graubereich: Ein wirklich dezentraler KI-Agent hat keinen klaren Betreiber, der für eine Datenpanne zur Rechenschaft gezogen werden könnte. Das bedeutet, dass Web3-Communities Compliance von Grund auf einbauen müssen, indem sie Smart Contracts verwenden, die beispielsweise genau kontrollieren, was eine KI protokollieren oder teilen darf. Zero-Knowledge-Proofs könnten es einer KI ermöglichen, zu beweisen, dass sie eine Berechnung korrekt durchgeführt hat, ohne die zugrunde liegenden privaten Daten preiszugeben, was eine mögliche Lösung in Bereichen wie Identitätsprüfung oder Kreditwürdigkeitsprüfung bietet.

4.5 KI-Ausrichtung und Fehlausrichtungsrisiken

Wenn KI-Agenten eine erhebliche Autonomie erhalten – insbesondere mit Zugang zu finanziellen Ressourcen und realen Auswirkungen – wird das Problem der Ausrichtung an menschlichen Werten akut. Ein KI-Agent hat möglicherweise keine böswillige Absicht, könnte aber sein Ziel „falsch interpretieren“, was zu Schaden führen kann. Die Rechtsanalyse von Reuters stellt prägnant fest: Da KI-Agenten in verschiedenen Umgebungen agieren und mit anderen Systemen interagieren, wächst das Risiko fehlgeleiteter Strategien. Zum Beispiel könnte ein KI-Agent, der beauftragt ist, einen DeFi-Ertrag zu maximieren, eine Lücke finden, die ein Protokoll ausnutzt (im Wesentlichen hackt) – aus Sicht der KI erreicht er das Ziel, aber er bricht die Regeln, die Menschen wichtig sind. Es gab hypothetische und reale Fälle von KI-ähnlichen Algorithmen, die sich an manipulativen Marktverhalten beteiligten oder Beschränkungen umgingen.

In dezentralen Kontexten stellt sich die Frage: Wer ist verantwortlich, wenn ein KI-Agent „Amok läuft“? Vielleicht der Bereitsteller, aber was, wenn der Agent sich selbst modifiziert oder mehrere Parteien zu seinem Training beigetragen haben? Diese Szenarien sind nicht länger nur Science-Fiction. Der Reuters-Artikel zitiert sogar, dass Gerichte KI-Agenten in einigen Fällen ähnlich wie menschliche Agenten behandeln könnten – z. B. wurde ein Chatbot, der eine Rückerstattung versprach, als bindend für das Unternehmen angesehen, das ihn eingesetzt hatte. Fehlausrichtung kann also nicht nur zu technischen Problemen, sondern auch zu rechtlicher Haftung führen.

Die offene, zusammensetzbare Natur von Web3 könnte auch unvorhergesehene Agenteninteraktionen ermöglichen. Ein Agent könnte einen anderen beeinflussen (absichtlich oder versehentlich) – zum Beispiel könnte ein KI-Governance-Bot durch eine andere KI, die falsche Analysen liefert, „sozial manipuliert“ werden, was zu schlechten DAO-Entscheidungen führt. Diese aufkommende Komplexität bedeutet, dass es bei der Ausrichtung nicht nur um das Ziel einer einzelnen KI geht, sondern um die Ausrichtung des gesamten Ökosystems an menschlichen Werten und Gesetzen.

Die Bewältigung erfordert mehrere Ansätze: die Einbettung ethischer Beschränkungen in KI-Agenten (festes Kodieren bestimmter Verbote oder die Verwendung von Reinforcement Learning aus menschlichem Feedback, um ihre Ziele zu formen), die Implementierung von Sicherheitsabschaltungen (Smart-Contract-Kontrollpunkte, die menschliche Genehmigung für große Aktionen erfordern) und die Überwachung durch die Gemeinschaft (vielleicht DAOs, die das Verhalten von KI-Agenten überwachen und fehlverhaltene Agenten abschalten können). Die Ausrichtungsforschung ist bei zentralisierter KI schwierig; bei dezentraler KI ist sie noch unerforschteres Terrain. Aber sie ist entscheidend – ein KI-Agent mit Admin-Schlüsseln zu einem Protokoll oder anvertrauten Treasury-Fonds muss extrem gut ausgerichtet sein, sonst könnten die Konsequenzen irreversibel sein (Blockchains führen unveränderlichen Code aus; ein KI-ausgelöster Fehler könnte Vermögenswerte dauerhaft sperren oder zerstören).

4.6 Governance und regulatorische Unsicherheit

Dezentrale KI-Systeme passen nicht nahtlos in bestehende Governance-Frameworks. On-Chain-Governance (Token-Abstimmung usw.) könnte eine Möglichkeit sein, sie zu verwalten, hat aber ihre eigenen Probleme (Wale, Wählerapathie usw.). Und wenn etwas schiefgeht, werden die Regulierungsbehörden fragen: „Wen machen wir verantwortlich?“ Wenn ein KI-Agent massive Verluste verursacht oder für illegale Aktivitäten (z. B. Geldwäsche durch automatisierte Mixer) verwendet wird, könnten die Behörden die Ersteller oder die Vermittler ins Visier nehmen. Dies wirft das Gespenst rechtlicher Risiken für Entwickler und Benutzer auf. Der aktuelle Regulierungstrend ist eine erhöhte Prüfung sowohl von KI als auch von Krypto separat – ihre Kombination wird sicherlich eine genaue Prüfung nach sich ziehen. Die US-amerikanische CFTC hat beispielsweise die Nutzung von KI im Handel und die Notwendigkeit einer Aufsicht in Finanzkontexten diskutiert. Es wird in politischen Kreisen auch über die Notwendigkeit einer Registrierung autonomer Agenten oder die Auferlegung von Beschränkungen für KI in sensiblen Sektoren gesprochen.

Eine weitere Governance-Herausforderung ist die transnationale Koordination. Web3 ist global, und KI-Agenten werden grenzüberschreitend agieren. Eine Gerichtsbarkeit könnte bestimmte KI-Agentenaktionen verbieten, während eine andere sie zulässt, und das Blockchain-Netzwerk erstreckt sich über beide. Diese Diskrepanz kann zu Konflikten führen – zum Beispiel könnte ein KI-Agent, der Anlageberatung anbietet, in einem Land gegen Wertpapierrecht verstoßen, in einem anderen jedoch nicht. Gemeinschaften müssten möglicherweise Geo-Fencing auf Smart-Contract-Ebene für KI-Dienste implementieren (obwohl dies dem offenen Ethos widerspricht). Oder sie könnten Dienste pro Region fragmentieren, um unterschiedlichen Gesetzen zu entsprechen (ähnlich wie es Börsen tun).

Innerhalb dezentraler Gemeinschaften stellt sich auch die Frage, wer die Regeln für KI-Agenten festlegt. Wenn eine DAO einen KI-Dienst regiert, stimmen die Token-Inhaber über dessen Algorithmusparameter ab? Einerseits stärkt dies die Benutzer; andererseits könnte es zu unqualifizierten Entscheidungen oder Manipulationen führen. Neue Governance-Modelle könnten entstehen, wie Räte von KI-Ethikexperten, die in die DAO-Governance integriert sind, oder sogar KI-Teilnehmer in der Governance (stellen Sie sich KI-Agenten vor, die als Delegierte basierend auf programmierten Mandaten abstimmen – eine kontroverse, aber denkbare Idee).

Schließlich das Reputationsrisiko: Frühe Misserfolge oder Skandale könnten die öffentliche Wahrnehmung trüben. Wenn beispielsweise eine „KI-DAO“ versehentlich ein Ponzi-Schema betreibt oder ein KI-Agent eine voreingenommene Entscheidung trifft, die Benutzern schadet, könnte es zu einer Gegenreaktion kommen, die den gesamten Sektor betrifft. Es ist wichtig, dass die Branche proaktiv ist – selbstregulierende Standards festlegt, mit politischen Entscheidungsträgern zusammenarbeitet, um zu erklären, wie Dezentralisierung die Verantwortlichkeit verändert, und vielleicht Notausschalter oder Notfallstoppverfahren für KI-Agenten entwickelt (obwohl diese eine Zentralisierung einführen, könnten sie vorübergehend für die Sicherheit notwendig sein).

Zusammenfassend reichen die Herausforderungen von den zutiefst technischen (Hacks verhindern und Latenz verwalten) bis zu den breit gesellschaftlichen (KI regulieren und ausrichten). Jede Herausforderung ist für sich genommen bedeutend; zusammen erfordern sie eine konzertierte Anstrengung der KI- und Blockchain-Gemeinschaften, um sie zu bewältigen. Der nächste Abschnitt wird untersuchen, wie sich die Zukunft trotz dieser Hürden entwickeln könnte, wenn wir sie erfolgreich angehen.

5. Zukunftspotenzial

Mit Blick auf die Zukunft könnte die Integration allgemeiner KI-Schnittstellen mit Web3 – durch Frameworks wie MCP – das dezentrale Internet grundlegend verändern. Hier skizzieren wir einige zukünftige Szenarien und Potenziale, die veranschaulichen, wie MCP-gesteuerte KI-Schnittstellen die Zukunft von Web3 gestalten könnten:

5.1 Autonome dApps und DAOs

In den kommenden Jahren könnten wir den Aufstieg vollständig autonomer dezentraler Anwendungen erleben. Dies sind dApps, bei denen KI-Agenten die meisten Operationen abwickeln, geleitet von Smart-Contract-definierten Regeln und Community-Zielen. Betrachten Sie zum Beispiel eine dezentrale Investmentfonds-DAO: Heute könnte sie sich auf menschliche Vorschläge zur Neuausrichtung von Vermögenswerten verlassen. In Zukunft könnten Token-Inhaber eine übergeordnete Strategie festlegen, und dann implementiert ein KI-Agent (oder ein Team von Agenten) diese Strategie kontinuierlich – Märkte überwachen, On-Chain-Trades ausführen, Portfolios anpassen – während die DAO die Leistung überwacht. Dank MCP kann die KI nahtlos mit verschiedenen DeFi-Protokollen, Börsen und Datenfeeds interagieren, um ihr Mandat auszuführen. Wenn gut konzipiert, könnte eine solche autonome dApp 24/7 betrieben werden, effizienter als jedes menschliche Team, und mit voller Transparenz (jede Aktion On-Chain protokolliert).

Ein weiteres Beispiel ist eine KI-gesteuerte dezentrale Versicherungs-dApp: Die KI könnte Ansprüche bewerten, indem sie Beweise (Fotos, Sensoren) analysiert, mit Policen abgleicht und dann automatisch Auszahlungen über Smart Contracts auslöst. Dies würde die Integration von Off-Chain-KI-Computer Vision (zur Analyse von Schadensbildern) mit On-Chain-Verifizierung erfordern – etwas, das MCP erleichtern könnte, indem es der KI ermöglicht, Cloud-KI-Dienste aufzurufen und dem Smart Contract Bericht zu erstatten. Das Ergebnis sind nahezu sofortige Versicherungsentscheidungen mit geringem Overhead.

Sogar die Governance selbst könnte teilweise automatisiert werden. DAOs könnten KI-Moderatoren einsetzen, um Forenregeln durchzusetzen, KI-Vorschlagsentwerfer, um rohe Community-Stimmung in gut strukturierte Vorschläge umzuwandeln, oder KI-Schatzmeister, um Budgetbedürfnisse zu prognostizieren. Wichtig ist, dass diese KIs als Agenten der Gemeinschaft handeln würden, nicht unkontrolliert – sie könnten regelmäßig überprüft werden oder eine Multi-Sig-Bestätigung für größere Aktionen erfordern. Der Gesamteffekt ist die Verstärkung menschlicher Anstrengungen in dezentralen Organisationen, wodurch Gemeinschaften mit weniger aktiven Teilnehmern mehr erreichen können.

5.2 Dezentrale Intelligenz-Marktplätze und -Netzwerke

Aufbauend auf Projekten wie SingularityNET und der ASI-Allianz können wir einen ausgereiften globalen Marktplatz für Intelligenz erwarten. In diesem Szenario kann jeder mit einem KI-Modell oder einer Fähigkeit dieses im Netzwerk anbieten, und jeder, der KI-Fähigkeiten benötigt, kann diese nutzen, wobei die Blockchain eine faire Vergütung und Herkunft sicherstellt. MCP wäre hier entscheidend: Es bietet das gemeinsame Protokoll, sodass eine Anfrage an den am besten geeigneten KI-Dienst gesendet werden kann.

Stellen Sie sich zum Beispiel eine komplexe Aufgabe vor, wie „eine maßgeschneiderte Marketingkampagne erstellen“. Ein KI-Agent im Netzwerk könnte dies in Unteraufgaben zerlegen: visuelles Design, Texterstellung, Marktanalyse – und dann Spezialisten für jede finden (vielleicht einen Agenten mit einem großartigen Bildgenerierungsmodell, einen anderen mit einem auf Verkäufe abgestimmten Texterstellungsmodell usw.). Diese Spezialisten könnten ursprünglich auf verschiedenen Plattformen angesiedelt sein, aber da sie die MCP/A2A-Standards einhalten, können sie Agent-zu-Agent zusammenarbeiten auf sichere, dezentrale Weise. Die Zahlung zwischen ihnen könnte mit Mikrotransaktionen in einem nativen Token abgewickelt werden, und ein Smart Contract könnte das endgültige Ergebnis zusammenstellen und sicherstellen, dass jeder Mitwirkende bezahlt wird.

Diese Art von kombinatorischer Intelligenz – mehrere KI-Dienste, die sich dynamisch über ein dezentrales Netzwerk verbinden – könnte selbst große monolithische KIs übertreffen, da sie auf spezialisiertes Fachwissen zurückgreift. Sie demokratisiert auch den Zugang: Ein kleiner Entwickler in einem Teil der Welt könnte ein Nischenmodell zum Netzwerk beitragen und Einkommen erzielen, wann immer es verwendet wird. Gleichzeitig erhalten Benutzer einen One-Stop-Shop für jeden KI-Dienst, wobei Reputationssysteme (unterstützt durch Token/Identität) sie zu Qualitätsanbietern führen. Im Laufe der Zeit könnten sich solche Netzwerke zu einer dezentralen KI-Cloud entwickeln, die mit den KI-Angeboten von Big Tech konkurriert, aber ohne einen einzigen Eigentümer und mit transparenter Governance durch Benutzer und Entwickler.

5.3 Intelligentes Metaverse und digitales Leben

Bis 2030 könnte unser digitales Leben nahtlos mit virtuellen Umgebungen – dem Metaverse – verschmelzen, und KI wird diese Räume voraussichtlich allgegenwärtig bevölkern. Durch die Web3-Integration werden diese KI-Entitäten (die alles von virtuellen Assistenten über Spielfiguren bis hin zu digitalen Haustieren sein könnten) nicht nur intelligent, sondern auch wirtschaftlich und rechtlich befugt sein.

Stellen Sie sich eine Metaverse-Stadt vor, in der jeder NPC-Ladenbesitzer oder Questgeber ein KI-Agent mit eigener Persönlichkeit und Dialog (dank fortschrittlicher generativer Modelle) ist. Diese NPCs werden tatsächlich von Benutzern als NFTs besessen – vielleicht „besitzen“ Sie eine Taverne in der virtuellen Welt und der Barkeeper-NPC ist eine von Ihnen angepasste und trainierte KI. Da er auf Web3-Schienen läuft, kann der NPC Transaktionen durchführen: Er könnte virtuelle Güter (NFT-Gegenstände) verkaufen, Zahlungen annehmen und sein Inventar über Smart Contracts aktualisieren. Er könnte sogar ein Krypto-Wallet besitzen, um seine Einnahmen zu verwalten (die Ihnen als Eigentümer zufallen). MCP würde es dem KI-Gehirn dieses NPCs ermöglichen, auf externes Wissen zuzugreifen – vielleicht um reale Nachrichten abzurufen, über die man sich unterhalten kann, oder um sich in einen Web3-Kalender zu integrieren, damit er über Spielerereignisse „Bescheid weiß“.

Darüber hinaus werden Identität und Kontinuität durch die Blockchain gewährleistet: Ihr KI-Avatar in einer Welt kann in eine andere Welt wechseln und dabei eine dezentrale Identität mit sich führen, die Ihren Besitz und vielleicht seinen Erfahrungslevel oder seine Errungenschaften über Soulbound-Token beweist. Die Interoperabilität zwischen virtuellen Welten (oft eine Herausforderung) könnte durch KI unterstützt werden, die den Kontext einer Welt in eine andere übersetzt, wobei die Blockchain die Portabilität der Assets gewährleistet.

Wir könnten auch KI-Begleiter oder -Agenten sehen, die Einzelpersonen in digitalen Räumen repräsentieren. Zum Beispiel könnten Sie eine persönliche KI haben, die in Ihrem Namen an DAO-Meetings teilnimmt. Sie versteht Ihre Präferenzen (durch Training auf Ihr früheres Verhalten, gespeichert in Ihrem persönlichen Datentresor) und kann sogar in kleineren Angelegenheiten für Sie abstimmen oder das Meeting später zusammenfassen. Dieser Agent könnte Ihre dezentrale Identität verwenden, um sich in jeder Community zu authentifizieren und sicherzustellen, dass er als „Sie“ (oder Ihr Delegierter) erkannt wird. Er könnte Reputations-Token verdienen, wenn er gute Ideen einbringt, wodurch er im Wesentlichen soziales Kapital für Sie aufbaut, während Sie abwesend sind.

Ein weiteres Potenzial ist die KI-gesteuerte Inhaltserstellung im Metaverse. Möchten Sie ein neues Spiellevel oder ein virtuelles Haus? Beschreiben Sie es einfach, und ein KI-Bauagent wird es erstellen, als Smart Contract/NFT bereitstellen und vielleicht sogar mit einer DeFi-Hypothek verknüpfen, wenn es sich um eine große Struktur handelt, die Sie im Laufe der Zeit abbezahlen. Diese Kreationen sind On-Chain einzigartig und handelbar. Der KI-Bauagent könnte eine Gebühr in Token für seinen Dienst verlangen (wiederum zum oben genannten Marktplatzkonzept).

Insgesamt könnte das zukünftige dezentrale Internet von intelligenten Agenten wimmeln: einige vollständig autonom, einige eng an Menschen gebunden, viele irgendwo dazwischen. Sie werden verhandeln, erschaffen, unterhalten und Transaktionen durchführen. MCP und ähnliche Protokolle stellen sicher, dass sie alle dieselbe „Sprache“ sprechen, was eine reiche Zusammenarbeit zwischen KI und jedem Web3-Dienst ermöglicht. Wenn richtig gemacht, könnte dies zu einer Ära beispielloser Produktivität und Innovation führen – einer wahren Synthese aus menschlicher, künstlicher und verteilter Intelligenz, die die Gesellschaft antreibt.

Fazit

Die Vision, dass allgemeine KI-Schnittstellen alles in der Web3-Welt verbinden, ist unbestreitbar ehrgeizig. Wir versuchen im Wesentlichen, zwei der transformativsten Technologiestränge – die Dezentralisierung des Vertrauens und den Aufstieg der Maschinenintelligenz – zu einem einzigen Gewebe zu verweben. Der Entwicklungshintergrund zeigt uns, dass der Zeitpunkt reif ist: Web3 brauchte eine benutzerfreundliche Killer-App, und KI könnte sie liefern, während KI mehr Handlungsfähigkeit und Gedächtnis benötigte, was die Web3-Infrastruktur bereitstellen kann. Technisch gesehen bieten Frameworks wie MCP (Model Context Protocol) das Bindegewebe, das es KI-Agenten ermöglicht, fließend mit Blockchains, Smart Contracts, dezentralen Identitäten und darüber hinaus zu kommunizieren. Die Branchenlandschaft zeigt eine wachsende Dynamik, von Startups über Allianzen bis hin zu großen KI-Laboren, die alle Teile dieses Puzzles beisteuern – Datenmärkte, Agentenplattformen, Orakelnetzwerke und Standardprotokolle –, die sich allmählich zusammenfügen.

Dennoch müssen wir angesichts der identifizierten Risiken und Herausforderungen vorsichtig vorgehen. Sicherheitsverletzungen, fehlgeleitetes KI-Verhalten, Datenschutzfallen und unsichere Vorschriften bilden eine Reihe von Hindernissen, die den Fortschritt bei Unterschätzung zum Scheitern bringen könnten. Jedes erfordert eine proaktive Minderung: robuste Sicherheitsaudits, Ausrichtungsprüfungen und -kontrollen, datenschutzfreundliche Architekturen und kollaborative Governance-Modelle. Die Natur der Dezentralisierung bedeutet, dass diese Lösungen nicht einfach von oben herab auferlegt werden können; sie werden wahrscheinlich aus der Gemeinschaft durch Versuch, Irrtum und Iteration entstehen, ähnlich wie es bei frühen Internetprotokollen der Fall war.

Wenn wir diese Herausforderungen meistern, ist das Zukunftspotenzial begeisternd. Wir könnten sehen, wie Web3 endlich eine benutzerzentrierte digitale Welt liefert – nicht auf die ursprünglich vorgestellte Weise, dass jeder seine eigenen Blockchain-Nodes betreibt, sondern vielmehr über intelligente Agenten, die die Absichten jedes Benutzers bedienen, während sie die Dezentralisierung im Hintergrund nutzen. In einer solchen Welt könnte die Interaktion mit Krypto und dem Metaverse so einfach sein wie ein Gespräch mit Ihrem KI-Assistenten, der wiederum vertrauenslos mit Dutzenden von Diensten und Ketten in Ihrem Namen verhandelt. Dezentrale Netzwerke könnten im wahrsten Sinne des Wortes „smart“ werden, mit autonomen Diensten, die sich selbst anpassen und verbessern.

Zusammenfassend lässt sich sagen, dass MCP und ähnliche KI-Schnittstellenprotokolle tatsächlich das Rückgrat eines neuen Webs (nennen wir es Web 3.0 oder das Agentic Web) werden könnten, in dem Intelligenz und Konnektivität allgegenwärtig sind. Die Konvergenz von KI und Web3 ist nicht nur eine Fusion von Technologien, sondern eine Konvergenz von Philosophien – die Offenheit und Benutzerermächtigung der Dezentralisierung trifft auf die Effizienz und Kreativität der KI. Wenn erfolgreich, könnte diese Vereinigung ein Internet einläuten, das freier, personalisierter und leistungsfähiger ist als alles, was wir bisher erlebt haben, und die Versprechen von KI und Web3 auf eine Weise erfüllt, die das tägliche Leben beeinflusst.

Quellen:

  • S. Khadder, „Web3.0 Isn’t About Ownership — It’s About Intelligence,“ FeatureForm Blog (April 8, 2025).
  • J. Saginaw, „Could Anthropic’s MCP Deliver the Web3 That Blockchain Promised?“ LinkedIn Article (May 1, 2025).
  • Anthropic, „Introducing the Model Context Protocol,“ Anthropic.com (Nov 2024).
  • thirdweb, „The Model Context Protocol (MCP) & Its Significance for Blockchain Apps,“ thirdweb Guides (Mar 21, 2025).
  • Chainlink Blog, „The Intersection Between AI Models and Oracles,“ (July 4, 2024).
  • Messari Research, Profile of Ocean Protocol, (2025).
  • Messari Research, Profile of SingularityNET, (2025).
  • Cointelegraph, „AI agents are poised to be crypto’s next major vulnerability,“ (May 25, 2025).
  • Reuters (Westlaw), „AI agents: greater capabilities and enhanced risks,“ (April 22, 2025).
  • Identity.com, „Why AI Agents Need Verified Digital Identities,“ (2024).
  • PANews / IOSG Ventures, „Interpreting MCP: Web3 AI Agent Ecosystem,“ (May 20, 2025).

Enso Network: Die vereinheitlichte, Intent-basierte Ausführungs-Engine

· 36 Minuten Lesezeit

Protokollarchitektur

Enso Network ist eine Web3-Entwicklungsplattform, die als vereinheitlichte, Intent-basierte Ausführungs-Engine für On-Chain-Operationen konzipiert ist. Ihre Architektur abstrahiert die Komplexität der Blockchain, indem jede On-Chain-Interaktion einer gemeinsamen Engine zugeordnet wird, die über mehrere Chains hinweg arbeitet. Entwickler und Benutzer spezifizieren übergeordnete Intents (gewünschte Ergebnisse wie ein Token-Swap, Liquiditätsbereitstellung, Yield-Strategie usw.), und das Enso-Netzwerk findet und führt die optimale Abfolge von Aktionen aus, um diese Intents zu erfüllen. Dies wird durch ein modulares Design von „Actions“ und „Shortcuts“ erreicht.

Actions sind granulare Smart-Contract-Abstraktionen (z. B. ein Swap auf Uniswap, eine Einzahlung in Aave), die von der Community bereitgestellt werden. Mehrere Actions können zu Shortcuts zusammengesetzt werden, die wiederverwendbare Workflows für gängige DeFi-Operationen darstellen. Enso pflegt eine Bibliothek dieser Shortcuts in Smart Contracts, sodass komplexe Aufgaben über einen einzigen API-Aufruf oder eine Transaktion ausgeführt werden können. Diese Intent-basierte Architektur ermöglicht es Entwicklern, sich auf die gewünschten Ergebnisse zu konzentrieren, anstatt Low-Level-Integrationscode für jedes Protokoll und jede Chain zu schreiben.

Die Infrastruktur von Enso umfasst ein dezentrales Netzwerk (auf Basis des Tendermint-Konsenses), das als vereinheitlichende Schicht verschiedene Blockchains verbindet. Das Netzwerk aggregiert Daten (Zustand von verschiedenen L1s, Rollups und Appchains) zu einem gemeinsamen Netzwerkzustand oder Ledger, was Cross-Chain-Komponierbarkeit und präzise Multi-Chain-Ausführung ermöglicht. In der Praxis bedeutet dies, dass Enso über eine einzige Schnittstelle jede integrierte Blockchain lesen und schreiben kann und somit als zentraler Zugangspunkt für Entwickler fungiert. Ursprünglich auf EVM-kompatible Chains fokussiert, hat Enso die Unterstützung auf Nicht-EVM-Ökosysteme ausgeweitet – zum Beispiel umfasst die Roadmap Integrationen für Monad (eine Ethereum-ähnliche L1), Solana und Movement (eine Move-Sprach-Chain) bis zum ersten Quartal 2025.

Netzwerk-Teilnehmer: Die Innovation von Enso liegt in seinem dreistufigen Teilnehmer-Modell, das die Verarbeitung von Intents dezentralisiert:

  • Action Provider – Entwickler, die modulare Vertragsabstraktionen („Actions“) beisteuern, die spezifische Protokollinteraktionen kapseln. Diese Bausteine werden im Netzwerk zur Nutzung durch andere geteilt. Action Provider werden belohnt, wenn ihre beigesteuerte Action in einer Ausführung verwendet wird, was sie dazu anregt, sichere und effiziente Module zu veröffentlichen.

  • Graphers – Unabhängige Solver (Algorithmen), die Actions zu ausführbaren Shortcuts kombinieren, um Benutzer-Intents zu erfüllen. Mehrere Graphers konkurrieren darum, die optimale Lösung (günstigster, schnellster oder ertragreichster Pfad) für jede Anfrage zu finden, ähnlich wie Solver in einem DEX-Aggregator konkurrieren. Nur die beste Lösung wird zur Ausführung ausgewählt, und der gewinnende Grapher erhält einen Teil der Gebühren. Dieser Wettbewerbsmechanismus fördert die kontinuierliche Optimierung von On-Chain-Routen und -Strategien.

  • Validatoren – Node-Betreiber, die das Enso-Netzwerk sichern, indem sie die Lösungen der Grapher verifizieren und finalisieren. Validatoren authentifizieren eingehende Anfragen, überprüfen die Gültigkeit und Sicherheit der verwendeten Actions/Shortcuts, simulieren Transaktionen und bestätigen letztendlich die Ausführung der ausgewählten Lösung. Sie bilden das Rückgrat der Netzwerkintegrität, stellen sicher, dass die Ergebnisse korrekt sind und verhindern bösartige oder ineffiziente Lösungen. Validatoren betreiben einen Tendermint-basierten Konsens, was bedeutet, dass ein BFT-Proof-of-Stake-Prozess verwendet wird, um eine Einigung über das Ergebnis jedes Intents zu erzielen und den Netzwerkzustand zu aktualisieren.

Bemerkenswert ist, dass Ensos Ansatz Chain-agnostisch und API-zentriert ist. Entwickler interagieren mit Enso über eine vereinheitlichte API/SDK, anstatt sich mit den Nuancen jeder Chain auseinanderzusetzen. Enso integriert über 250 DeFi-Protokolle über mehrere Blockchains hinweg und verwandelt so disparate Ökosysteme effektiv in eine komponierbare Plattform. Diese Architektur eliminiert die Notwendigkeit für dApp-Teams, benutzerdefinierte Smart Contracts zu schreiben oder Cross-Chain-Messaging für jede neue Integration zu handhaben – Ensos gemeinsame Engine und die von der Community bereitgestellten Actions übernehmen diese aufwendige Arbeit. Bis Mitte 2025 hat Enso seine Skalierbarkeit bewiesen: Das Netzwerk ermöglichte erfolgreich eine Liquiditätsmigration von 3,1 Mrd. in3Tagenfu¨rdenStartvonBerachain(einesdergro¨ßtenDeFiMigrationsereignisse)undhatbisheuteu¨ber15Mrd.in 3 Tagen** für den Start von Berachain (eines der größten DeFi-Migrationsereignisse) und hat bis heute über **15 Mrd. an On-Chain-Transaktionen verarbeitet. Diese Leistungen demonstrieren die Robustheit der Enso-Infrastruktur unter realen Bedingungen.

Insgesamt liefert Ensos Protokollarchitektur eine „DeFi-Middleware“ oder ein On-Chain-Betriebssystem für Web3. Es kombiniert Elemente des Indexierens (wie The Graph) und der Transaktionsausführung (wie Cross-Chain-Bridges oder DEX-Aggregatoren) in einem einzigen dezentralen Netzwerk. Dieser einzigartige Stack ermöglicht es jeder Anwendung, jedem Bot oder Agenten, jeden Smart Contract auf jeder Chain über eine einzige Integration zu lesen und zu schreiben, was die Entwicklung beschleunigt und neue komponierbare Anwendungsfälle ermöglicht. Enso positioniert sich als kritische Infrastruktur für die Multi-Chain-Zukunft – eine Intent-Engine, die unzählige Apps antreiben könnte, ohne dass jede Blockchain-Integrationen neu erfinden muss.

Tokenomics

Ensos Wirtschaftsmodell konzentriert sich auf den ENSO-Token, der integraler Bestandteil des Netzwerkbetriebs und der Governance ist. ENSO ist ein Utility- und Governance-Token mit einem festen Gesamtangebot von 100 Millionen Tokens. Das Design des Tokens stimmt die Anreize für alle Teilnehmer aufeinander ab und erzeugt einen Flywheel-Effekt von Nutzung und Belohnungen:

  • Gebührenwährung („Gas“): Alle an das Enso-Netzwerk übermittelten Anfragen verursachen eine Abfragegebühr, die in ENSO zu zahlen ist. Wenn ein Benutzer (oder eine dApp) einen Intent auslöst, wird eine kleine Gebühr in den generierten Transaktions-Bytecode eingebettet. Diese Gebühren werden auf dem freien Markt für ENSO-Tokens versteigert und dann an die Netzwerk-Teilnehmer verteilt, die die Anfrage bearbeiten. Im Grunde ist ENSO das Gas, das die Ausführung von On-Chain-Intents im Enso-Netzwerk antreibt. Wenn die Nachfrage nach Ensos Shortcuts wächst, kann die Nachfrage nach ENSO-Tokens steigen, um diese Netzwerkgebühren zu bezahlen, wodurch eine Angebots-Nachfrage-Rückkopplungsschleife entsteht, die den Token-Wert unterstützt.

  • Umsatzbeteiligung & Staking-Belohnungen: Die aus Gebühren gesammelten ENSO werden als Belohnung für ihre Beiträge unter Action Providern, Graphern und Validatoren verteilt. Dieses Modell verknüpft Token-Einnahmen direkt mit der Netzwerknutzung: Mehr Intent-Volumen bedeutet mehr zu verteilende Gebühren. Action Provider verdienen Tokens, wenn ihre Abstraktionen verwendet werden, Graphers verdienen Tokens für gewinnende Lösungen, und Validatoren verdienen Tokens für die Validierung und Sicherung des Netzwerks. Alle drei Rollen müssen auch ENSO staken als Sicherheit für die Teilnahme (um bei Fehlverhalten „geslasht“ zu werden), wodurch ihre Anreize mit der Netzwerkgesundheit in Einklang gebracht werden. Token-Inhaber können ihre ENSO auch an Validatoren delegieren, um die Netzwerksicherheit über Delegated Proof of Stake zu unterstützen. Dieser Staking-Mechanismus sichert nicht nur den Tendermint-Konsens, sondern gibt Token-Stakern auch einen Anteil an den Netzwerkgebühren, ähnlich wie Miner/Validatoren Gasgebühren in anderen Chains verdienen.

  • Governance: ENSO-Token-Inhaber werden die Entwicklung des Protokolls steuern. Enso startet als offenes Netzwerk und plant den Übergang zu einer Community-gesteuerten Entscheidungsfindung. Token-gewichtete Abstimmungen ermöglichen es den Inhabern, Upgrades, Parameteränderungen (wie Gebührenniveaus oder Belohnungszuweisungen) und die Verwendung der Treasury zu beeinflussen. Diese Governance-Macht stellt sicher, dass Kernbeitragende und Benutzer auf die Ausrichtung des Netzwerks abgestimmt sind. Die Philosophie des Projekts ist es, die Eigentümerschaft in die Hände der Community von Buildern und Benutzern zu legen, was ein treibender Grund für den Community-Token-Verkauf im Jahr 2025 war (siehe unten).

  • Positiver Flywheel-Effekt: Ensos Tokenomics sind darauf ausgelegt, eine sich selbst verstärkende Schleife zu erzeugen. Wenn mehr Entwickler Enso integrieren und mehr Benutzer Intents ausführen, steigen die Netzwerkgebühren (in ENSO bezahlt). Diese Gebühren belohnen Beitragende (was mehr Actions, bessere Graphers und mehr Validatoren anzieht), was wiederum die Fähigkeiten des Netzwerks verbessert (schnellere, günstigere, zuverlässigere Ausführung) und mehr Nutzung anzieht. Dieser Netzwerkeffekt wird durch die Rolle des ENSO-Tokens als Gebührenwährung und Anreiz für Beiträge untermauert. Die Absicht ist, dass die Token-Ökonomie nachhaltig mit der Netzwerkadoption skaliert, anstatt sich auf nicht nachhaltige Emissionen zu verlassen.

Token-Verteilung & Angebot: Die anfängliche Token-Zuteilung ist so strukturiert, dass Anreize für Team/Investoren mit dem Community-Eigentum in Einklang gebracht werden. Die folgende Tabelle fasst die ENSO-Token-Verteilung bei der Genesis zusammen:

ZuteilungProzentsatzTokens (von 100 Mio.)
Team (Gründer & Kern)25,0 %25.000.000
Frühe Investoren (VCs)31,3 %31.300.000
Stiftung & Wachstumsfonds23,2 %23.200.000
Ökosystem-Treasury (Community-Anreize)15,0 %15.000.000
Öffentlicher Verkauf (CoinList 2025)4,0 %4.000.000
Berater1,5 %1.500.000

Quelle: Enso Tokenomics.

Der öffentliche Verkauf im Juni 2025 bot der Community 5 % (4 Millionen Tokens) an und brachte 5 Millionen zueinemPreisvon1,25zu einem Preis von 1,25 pro ENSO ein (was einer vollständig verwässerten Bewertung von ~125 Millionen $ entspricht). Bemerkenswert ist, dass der Community-Verkauf keine Sperrfrist hatte (100 % bei TGE freigeschaltet), während das Team und die Venture-Investoren einem 2-jährigen linearen Vesting-Zeitplan unterliegen. Dies bedeutet, dass die Tokens der Insider über 24 Monate hinweg Block für Block schrittweise freigeschaltet werden, was ihre Anreize mit dem langfristigen Netzwerkwachstum in Einklang bringt und den sofortigen Verkaufsdruck mindert. Die Community erhielt somit sofortige Liquidität und Eigentum, was Ensos Ziel einer breiten Verteilung widerspiegelt.

Ensos Emissionsplan über die anfängliche Zuteilung hinaus scheint primär gebührengetrieben und nicht inflationär zu sein. Das Gesamtangebot ist auf 100 Millionen Tokens festgelegt, und es gibt derzeit keine Anzeichen für eine dauerhafte Inflation für Block-Belohnungen (Validatoren werden aus Gebühreneinnahmen vergütet). Dies steht im Gegensatz zu vielen Layer-1-Protokollen, die das Angebot aufblähen, um Staker zu bezahlen; Enso zielt darauf ab, durch tatsächliche Nutzungsgebühren nachhaltig zu sein, um Teilnehmer zu belohnen. Wenn die Netzwerkaktivität in frühen Phasen gering ist, können die Zuteilungen der Stiftung und der Treasury verwendet werden, um Anreize für die Nutzung und Entwicklungszuschüsse zu schaffen. Umgekehrt könnte bei hoher Nachfrage die Nützlichkeit des ENSO-Tokens (für Gebühren und Staking) einen organischen Nachfragedruck erzeugen.

Zusammenfassend lässt sich sagen: ENSO ist der Treibstoff des Enso Networks. Es treibt Transaktionen an (Abfragegebühren), sichert das Netzwerk (Staking und Slashing) und regiert die Plattform (Abstimmungen). Der Wert des Tokens ist direkt an die Netzwerkadoption gebunden: Wenn Enso als Rückgrat für DeFi-Anwendungen breiter genutzt wird, sollte das Volumen der ENSO-Gebühren und des Stakings dieses Wachstum widerspiegeln. Die sorgfältige Verteilung (mit nur einem kleinen Teil, der unmittelbar nach TGE zirkuliert) und die starke Unterstützung durch Top-Investoren (siehe unten) schaffen Vertrauen in die Unterstützung des Tokens, während der Community-zentrierte Verkauf ein Bekenntnis zur Dezentralisierung des Eigentums signalisiert.

Team und Investoren

Enso Network wurde 2021 von Connor Howe (CEO) und Gorazd Ocvirk gegründet, die zuvor gemeinsam bei der Sygnum Bank im Schweizer Krypto-Bankensektor tätig waren. Connor Howe leitet das Projekt als CEO und ist das öffentliche Gesicht in Kommunikationen und Interviews. Unter seiner Führung startete Enso zunächst als Social-Trading-DeFi-Plattform und entwickelte sich dann über mehrere Iterationen zur aktuellen Intent-basierten Infrastrukturvision. Diese Anpassungsfähigkeit unterstreicht die unternehmerische Widerstandsfähigkeit des Teams – von der Durchführung eines hochkarätigen „Vampire Attacks“ auf Indexprotokolle im Jahr 2021 über den Aufbau einer DeFi-Aggregator-Super-App bis hin zur Verallgemeinerung ihrer Tools in Ensos Entwicklerplattform. Mitbegründer Gorazd Ocvirk (PhD) brachte tiefgreifende Expertise in quantitativer Finanzierung und Web3-Produktstrategie ein, obwohl öffentliche Quellen darauf hindeuten, dass er zu anderen Unternehmungen gewechselt sein könnte (er wurde 2022 als Mitbegründer eines anderen Krypto-Startups genannt). Ensos Kernteam umfasst heute Ingenieure und Operatoren mit starkem DeFi-Hintergrund. Zum Beispiel sind Peter Phillips und Ben Wolf als „Blockend“- (Blockchain-Backend-) Ingenieure aufgeführt, und Valentin Meylan leitet die Forschung. Das Team ist global verteilt, hat aber Wurzeln in Zug/Zürich, Schweiz, einem bekannten Hub für Krypto-Projekte (Enso Finance AG wurde 2020 in der Schweiz registriert).

Über die Gründer hinaus verfügt Enso über namhafte Berater und Unterstützer, die erhebliche Glaubwürdigkeit verleihen. Das Projekt wird von Top-Tier-Krypto-Venture-Fonds und Angels unterstützt: Es zählt Polychain Capital und Multicoin Capital zu seinen Hauptinvestoren, zusammen mit Dialectic und Spartan Group (beide prominente Krypto-Fonds) sowie IDEO CoLab. Eine beeindruckende Liste von Angel-Investoren beteiligte sich ebenfalls an mehreren Runden – über 70 Personen aus führenden Web3-Projekten haben in Enso investiert. Dazu gehören Gründer oder Führungskräfte von LayerZero, Safe (Gnosis Safe), 1inch, Yearn Finance, Flashbots, Dune Analytics, Pendle und anderen. Sogar die Tech-Koryphäe Naval Ravikant (Mitbegründer von AngelList) ist Investor und Unterstützer. Solche Namen signalisieren ein starkes Vertrauen der Branche in Ensos Vision.

Ensos Finanzierungsgeschichte: Das Projekt sammelte Anfang 2021 eine Seed-Runde von 5 Millionen ein,umdieSocialTradingPlattformaufzubauen,undspa¨tereineRundevon4,2Millionenein, um die Social-Trading-Plattform aufzubauen, und später eine Runde von 4,2 Millionen (strategisch/VC), als es das Produkt weiterentwickelte (diese frühen Runden umfassten wahrscheinlich Polychain, Multicoin, Dialectic usw.). Bis Mitte 2023 hatte Enso genügend Kapital gesichert, um sein Netzwerk aufzubauen; bemerkenswerterweise operierte es relativ unauffällig, bis sein Infrastruktur-Pivot an Zugkraft gewann. Im zweiten Quartal 2025 startete Enso einen 5 Millionen $ Community-Token-Verkauf auf CoinList, der von Zehntausenden von Teilnehmern überzeichnet wurde. Der Zweck dieses Verkaufs war nicht nur die Beschaffung von Mitteln (der Betrag war angesichts früherer VC-Unterstützung bescheiden), sondern auch die Dezentralisierung des Eigentums und die Beteiligung seiner wachsenden Community am Erfolg des Netzwerks. Laut CEO Connor Howe: „Wir möchten, dass unsere frühesten Unterstützer, Benutzer und Gläubigen echtes Eigentum an Enso haben… Benutzer zu Fürsprechern machen.“ Dieser Community-zentrierte Ansatz ist Teil von Ensos Strategie, Basiswachstum und Netzwerkeffekte durch abgestimmte Anreize voranzutreiben.

Heute gilt Ensos Team als einer der Vordenker im Bereich „Intent-basiertes DeFi“. Sie engagieren sich aktiv in der Entwicklerbildung (z. B. zog Ensos Shortcut Speedrun 700.000 Teilnehmer als gamifiziertes Lernereignis an) und arbeiten mit anderen Protokollen an Integrationen zusammen. Die Kombination aus einem starken Kernteam mit bewährter Fähigkeit zur Neuausrichtung, Blue-Chip-Investoren und einer enthusiastischen Community deutet darauf hin, dass Enso sowohl das Talent als auch die finanzielle Unterstützung hat, um seine ambitionierte Roadmap umzusetzen.

Adoptionsmetriken und Anwendungsfälle

Obwohl Enso eine relativ neue Infrastruktur ist, hat es in seiner Nische erhebliche Zugkraft bewiesen. Es hat sich als die bevorzugte Lösung für Projekte positioniert, die komplexe On-Chain-Integrationen oder Cross-Chain-Fähigkeiten benötigen. Einige wichtige Adoptionsmetriken und Meilensteine Stand Mitte 2025:

  • Ökosystem-Integration: Über 100 Live-Anwendungen (dApps, Wallets und Dienste) nutzen Enso im Hintergrund, um On-Chain-Funktionen zu betreiben. Diese reichen von DeFi-Dashboards bis hin zu automatisierten Yield-Optimierern. Da Enso Protokolle abstrahiert, können Entwickler schnell neue DeFi-Funktionen zu ihrem Produkt hinzufügen, indem sie sich in Ensos API einklinken. Das Netzwerk hat sich mit über 250 DeFi-Protokollen (DEXes, Kreditplattformen, Yield Farms, NFT-Märkte usw.) über wichtige Chains hinweg integriert, was bedeutet, dass Enso praktisch jede On-Chain-Aktion ausführen kann, die ein Benutzer wünschen könnte, von einem Uniswap-Handel bis zu einer Yearn-Vault-Einzahlung. Diese Breite der Integrationen reduziert die Entwicklungszeit für Ensos Kunden erheblich – ein neues Projekt kann beispielsweise alle DEXes auf Ethereum, Layer-2s und sogar Solana mit Enso unterstützen, anstatt jede Integration unabhängig zu programmieren.

  • Entwickler-Adoption: Ensos Community umfasst mittlerweile über 1.900 Entwickler, die aktiv mit seinem Toolkit entwickeln. Diese Entwickler könnten direkt Shortcuts/Actions erstellen oder Enso in ihre Anwendungen integrieren. Die Zahl unterstreicht, dass Enso nicht nur ein geschlossenes System ist; es ermöglicht ein wachsendes Ökosystem von Buildern, die seine Shortcuts nutzen oder zu seiner Bibliothek beitragen. Ensos Ansatz, die On-Chain-Entwicklung zu vereinfachen (mit der Behauptung, die Bauzeiten von über 6 Monaten auf unter eine Woche zu reduzieren), hat bei Web3-Entwicklern Anklang gefunden. Dies wird auch durch Hackathons und die Enso Templates-Bibliothek belegt, in der Community-Mitglieder Plug-and-Play-Shortcut-Beispiele teilen.

  • Transaktionsvolumen: Über 15 Milliarden kumuliertesOnChainTransaktionsvolumenwurdeu¨berEnsosInfrastrukturabgewickelt.DieseMetrik,wieimJuni2025berichtet,unterstreicht,dassEnsonichtnurinTestumgebungenla¨uftesverarbeitetrealeWerteingroßemMaßstab.Eineinzigeshochkara¨tigesBeispielwarBerachainsLiquidita¨tsmigration:ImApril2025betriebEnsodieLiquidita¨tsbewegungfu¨rBerachainsTestnetKampagne(Boyco)undermo¨glichte3,1Mrd.** kumuliertes On-Chain-Transaktionsvolumen wurde über Ensos Infrastruktur abgewickelt. Diese Metrik, wie im Juni 2025 berichtet, unterstreicht, dass Enso nicht nur in Testumgebungen läuft – es verarbeitet reale Werte in großem Maßstab. Ein einziges hochkarätiges Beispiel war **Berachains Liquiditätsmigration**: Im April 2025 betrieb Enso die Liquiditätsbewegung für Berachains Testnet-Kampagne („Boyco“) und ermöglichte **3,1 Mrd. an ausgeführten Transaktionen über 3 Tage, eines der größten Liquiditätsereignisse in der DeFi-Geschichte. Ensos Engine bewältigte diese Last erfolgreich und demonstrierte Zuverlässigkeit und Durchsatz unter Stress. Ein weiteres Beispiel ist Ensos Partnerschaft mit Uniswap: Enso entwickelte ein Uniswap Position Migrator-Tool (in Zusammenarbeit mit Uniswap Labs, LayerZero und Stargate), das Benutzern half, Uniswap v3 LP-Positionen nahtlos von Ethereum auf eine andere Chain zu migrieren. Dieses Tool vereinfachte einen typischerweise komplexen Cross-Chain-Prozess (mit Bridging und erneuter Bereitstellung von NFTs) zu einem Ein-Klick-Shortcut, und seine Veröffentlichung zeigte Ensos Fähigkeit, mit Top-DeFi-Protokollen zusammenzuarbeiten.

  • Reale Anwendungsfälle: Ensos Wertversprechen lässt sich am besten durch die vielfältigen Anwendungsfälle verstehen, die es ermöglicht. Projekte haben Enso genutzt, um Funktionen bereitzustellen, die allein sehr schwierig zu entwickeln wären:

    • Cross-Chain Yield Aggregation: Plume und Sonic nutzten Enso, um incentivierte Startkampagnen zu betreiben, bei denen Benutzer Assets auf einer Chain einzahlen und diese auf einer anderen Chain in Yields einsetzen konnten. Enso übernahm das Cross-Chain-Messaging und die mehrstufigen Transaktionen, wodurch diese neuen Protokolle den Benutzern während ihrer Token-Launch-Events nahtlose Cross-Chain-Erlebnisse bieten konnten.
    • Liquiditätsmigration und Fusionen: Wie erwähnt, nutzte Berachain Enso für eine „Vampire Attack“-ähnliche Migration von Liquidität aus anderen Ökosystemen. Ähnlich könnten andere Protokolle Enso Shortcuts verwenden, um die Verschiebung von Benutzergeldern von einer Konkurrenzplattform auf ihre eigene zu automatisieren, indem Genehmigungen, Abhebungen, Überweisungen und Einzahlungen über Plattformen hinweg in einem Intent gebündelt werden. Dies zeigt Ensos Potenzial in Protokollwachstumsstrategien.
    • DeFi „Super-App“-Funktionalität: Einige Wallets und Schnittstellen (zum Beispiel der Krypto-Assistent Eliza OS und die Handelsplattform Infinex) integrieren Enso, um One-Stop-DeFi-Aktionen anzubieten. Ein Benutzer kann mit einem Klick Assets zum besten Kurs tauschen (Enso leitet über DEXes), dann den Ertrag verleihen, um Rendite zu erzielen, und dann vielleicht einen LP-Token staken – all dies kann Enso als einen Shortcut ausführen. Dies verbessert die Benutzererfahrung und Funktionalität für diese Apps erheblich.
    • Automatisierung und Bots: Die Präsenz von „Agenten“ und sogar KI-gesteuerten Bots, die Enso nutzen, zeichnet sich ab. Da Enso eine API bereitstellt, können algorithmische Händler oder KI-Agenten ein übergeordnetes Ziel eingeben (z. B. „Rendite auf X-Asset über jede Chain maximieren“) und Enso die optimale Strategie finden lassen. Dies hat Experimente mit automatisierten DeFi-Strategien ermöglicht, ohne dass für jedes Protokoll eine kundenspezifische Bot-Entwicklung erforderlich ist.
  • Benutzerwachstum: Obwohl Enso primär eine B2B/B2Dev-Infrastruktur ist, hat es durch Kampagnen eine Community von Endbenutzern und Enthusiasten aufgebaut. Der Shortcut Speedrun – eine gamifizierte Tutorial-Reihe – verzeichnete über 700.000 Teilnehmer, was ein breites Interesse an Ensos Fähigkeiten zeigt. Ensos soziale Reichweite ist in wenigen Monaten um fast das Zehnfache gewachsen (248.000 Follower auf X Stand Mitte 2025), was eine starke Präsenz in den Köpfen der Krypto-Benutzer widerspiegelt. Dieses Community-Wachstum ist wichtig, da es eine Basisnachfrage schafft: Benutzer, die Enso kennen, werden ihre bevorzugten dApps ermutigen, es zu integrieren, oder Produkte nutzen, die Ensos Shortcuts verwenden.

Zusammenfassend lässt sich sagen, dass Enso über die Theorie hinaus zu echter Adoption übergegangen ist. Es wird von über 100 Projekten vertraut, darunter bekannte Namen wie Uniswap, SushiSwap, Stargate/LayerZero, Berachain, zkSync, Safe, Pendle, Yearn und weitere, entweder als Integrationspartner oder direkte Nutzer von Ensos Technologie. Diese breite Nutzung über verschiedene Vertikalen (DEXs, Bridges, Layer-1s, dApps) unterstreicht Ensos Rolle als Allzweck-Infrastruktur. Seine wichtigste Zugkraftmetrik – über 15 Mrd. $ an Transaktionen – ist für ein Infrastrukturprojekt in diesem Stadium besonders beeindruckend und bestätigt die Markttauglichkeit für eine Intent-basierte Middleware. Investoren können sich darauf verlassen, dass Ensos Netzwerkeffekte einzusetzen scheinen: Mehr Integrationen führen zu mehr Nutzung, was wiederum zu mehr Integrationen führt. Die bevorstehende Herausforderung wird darin bestehen, diesen frühen Schwung in nachhaltiges Wachstum umzuwandeln, was mit Ensos Positionierung gegenüber Wettbewerbern und seiner Roadmap zusammenhängt.

Wettbewerbslandschaft

Enso Network agiert an der Schnittstelle von DeFi-Aggregation, Cross-Chain-Interoperabilität und Entwickler-Infrastruktur, wodurch seine Wettbewerbslandschaft vielschichtig ist. Obwohl kein einzelner Wettbewerber ein identisches Produkt anbietet, sieht sich Enso mit Konkurrenz aus mehreren Kategorien von Web3-Protokollen konfrontiert:

  • Dezentrale Middleware & Indexierung: Die direkteste Analogie ist The Graph (GRT). The Graph bietet ein dezentrales Netzwerk zum Abfragen von Blockchain-Daten über Subgraphs. Enso bezieht Datenanbieter (Action Provider) ebenfalls über Crowdsourcing, geht aber einen Schritt weiter, indem es zusätzlich zur Datenabfrage die Transaktionsausführung ermöglicht. Während The Graphs Marktkapitalisierung von ~924 Mio. $ allein auf Indexierung basiert, positioniert Ensos breiterer Umfang (Daten + Aktion) es als ein mächtigeres Werkzeug, um die Aufmerksamkeit der Entwickler zu gewinnen. The Graph ist jedoch ein etabliertes Netzwerk; Enso wird die Zuverlässigkeit und Sicherheit seiner Ausführungsschicht beweisen müssen, um eine ähnliche Akzeptanz zu erreichen. Man könnte sich vorstellen, dass The Graph oder andere Indexierungsprotokolle in die Ausführung expandieren, was direkt mit Ensos Nische konkurrieren würde.

  • Cross-Chain-Interoperabilitätsprotokolle: Projekte wie LayerZero, Axelar, Wormhole und Chainlink CCIP bieten Infrastruktur zur Verbindung verschiedener Blockchains. Sie konzentrieren sich auf die Nachrichtenübermittlung und das Bridging von Assets zwischen Chains. Enso nutzt tatsächlich einige davon im Hintergrund (z. B. LayerZero/Stargate für Bridging im Uniswap Migrator) und ist eher eine Abstraktion auf höherer Ebene. Im Hinblick auf den Wettbewerb könnten diese Interoperabilitätsprotokolle mit Enso überlappen, wenn sie höherstufige „Intent“-APIs oder entwicklerfreundliche SDKs zur Komposition von Multi-Chain-Aktionen anbieten. Zum Beispiel bietet Axelar ein SDK für Cross-Chain-Aufrufe, und Chainlinks CCIP könnte die Cross-Chain-Funktionsausführung ermöglichen. Ensos Alleinstellungsmerkmal ist, dass es nicht nur Nachrichten zwischen Chains sendet; es unterhält eine vereinheitlichte Engine und Bibliothek von DeFi-Aktionen. Es richtet sich an Anwendungsentwickler, die eine fertige Lösung wünschen, anstatt sie zu zwingen, auf rohen Cross-Chain-Primitiven aufzubauen. Nichtsdestotrotz wird Enso um Marktanteile im breiteren Segment der Blockchain-Middleware konkurrieren, wo diese Interoperabilitätsprojekte gut finanziert sind und schnell innovieren.

  • Transaktions-Aggregatoren & Automatisierung: In der DeFi-Welt gibt es bestehende Aggregatoren wie 1inch, 0x API oder CoW Protocol, die sich darauf konzentrieren, optimale Handelsrouten über Börsen hinweg zu finden. Ensos Grapher-Mechanismus für Intents ist konzeptionell ähnlich dem Solver-Wettbewerb von CoW Protocol, aber Enso verallgemeinert ihn über Swaps hinaus auf jede Aktion. Ein Benutzer-Intent, „Rendite zu maximieren“, könnte Swapping, Lending, Staking usw. umfassen, was außerhalb des Umfangs eines reinen DEX-Aggregators liegt. Dennoch wird Enso mit diesen Diensten hinsichtlich der Effizienz für überlappende Anwendungsfälle verglichen (z. B. Enso vs. 1inch für eine komplexe Token-Swap-Route). Wenn Enso dank seines Netzwerks von Graphern konsequent bessere Routen oder niedrigere Gebühren findet, kann es traditionelle Aggregatoren übertreffen. Das Gelato Network ist ein weiterer Wettbewerber im Bereich Automatisierung: Gelato bietet ein dezentrales Netzwerk von Bots zur Ausführung von Aufgaben wie Limit-Orders, Auto-Compounding oder Cross-Chain-Transfers im Auftrag von dApps. Gelato verfügt über einen GEL-Token und einen etablierten Kundenstamm für spezifische Anwendungsfälle. Ensos Vorteil ist seine Breite und vereinheitlichte Schnittstelle – anstatt separate Produkte für jeden Anwendungsfall anzubieten (wie Gelato es tut), bietet Enso eine allgemeine Plattform, auf der jede Logik als Shortcut kodiert werden kann. Gelatos Vorsprung und fokussierter Ansatz in Bereichen wie der Automatisierung könnten jedoch Entwickler anziehen, die sonst Enso für ähnliche Funktionalitäten nutzen würden.

  • Entwicklerplattformen (Web3 SDKs): Es gibt auch Entwicklerplattformen im Web2-Stil wie Moralis, Alchemy, Infura und Tenderly, die das Bauen auf Blockchains vereinfachen. Diese bieten typischerweise API-Zugriff zum Lesen von Daten, Senden von Transaktionen und manchmal höherstufige Endpunkte (z. B. „Token-Guthaben abrufen“ oder „Tokens über Chains senden“). Obwohl dies meist zentralisierte Dienste sind, konkurrieren sie um dieselbe Entwickleraufmerksamkeit. Ensos Verkaufsargument ist, dass es dezentralisiert und komponierbar ist – Entwickler erhalten nicht nur Daten oder eine einzelne Funktion, sie greifen auf ein ganzes Netzwerk von On-Chain-Fähigkeiten zu, die von anderen beigesteuert wurden. Bei Erfolg könnte Enso zum „GitHub der On-Chain-Aktionen“ werden, wo Entwickler Shortcuts teilen und wiederverwenden, ähnlich wie Open-Source-Code. Der Wettbewerb mit gut finanzierten Infrastructure-as-a-Service-Unternehmen bedeutet, dass Enso vergleichbare Zuverlässigkeit und Benutzerfreundlichkeit bieten muss, was es mit einer umfangreichen API und Dokumentation anstrebt.

  • Eigenentwickelte Lösungen: Schließlich konkurriert Enso mit dem Status quo – Teams, die kundenspezifische Integrationen intern entwickeln. Traditionell musste jedes Projekt, das Multi-Protokoll-Funktionalität wünschte, Smart Contracts oder Skripte für jede Integration (z. B. Uniswap, Aave, Compound separat integrieren) schreiben und pflegen. Viele Teams könnten diesen Weg immer noch für maximale Kontrolle oder aus Sicherheitsgründen wählen. Enso muss Entwickler davon überzeugen, dass die Auslagerung dieser Arbeit an ein gemeinsames Netzwerk sicher, kostengünstig und aktuell ist. Angesichts der Geschwindigkeit der DeFi-Innovation ist die Pflege eigener Integrationen aufwendig (Enso zitiert oft, dass Teams über 6 Monate und 500.000 $ für Audits ausgeben, um Dutzende von Protokollen zu integrieren). Wenn Enso seine Sicherheitsstrenge beweisen und seine Aktionsbibliothek mit den neuesten Protokollen aktuell halten kann, kann es mehr Teams davon überzeugen, nicht mehr in Silos zu entwickeln. Ein hochkarätiger Sicherheitsvorfall oder Ausfall bei Enso könnte Entwickler jedoch dazu veranlassen, wieder interne Lösungen zu bevorzugen, was an sich ein Wettbewerbsrisiko darstellt.

Ensos Alleinstellungsmerkmale: Ensos primärer Vorteil ist, als Erster auf dem Markt mit einem Intent-fokussierten, Community-gesteuerten Ausführungsnetzwerk zu sein. Es kombiniert Funktionen, die die Nutzung mehrerer anderer Dienste erfordern würden: Datenindexierung, Smart-Contract-SDKs, Transaktionsrouting und Cross-Chain-Bridging – alles in einem. Sein Anreizmodell (Belohnung von Drittentwicklern für Beiträge) ist ebenfalls einzigartig; es könnte zu einem lebendigen Ökosystem führen, in dem viele Nischenprotokolle schneller in Enso integriert werden, als es ein einzelnes Team könnte, ähnlich wie die Community von The Graph eine lange Reihe von Verträgen indexiert. Wenn Enso erfolgreich ist, könnte es einen starken Netzwerkeffekt-Graben genießen: Mehr Actions und Shortcuts machen es attraktiver, Enso gegenüber Wettbewerbern zu nutzen, was mehr Benutzer und somit mehr beigesteuerte Actions anzieht und so weiter.

Dennoch steckt Enso noch in den Kinderschuhen. Sein engstes Analogon, The Graph, brauchte Jahre, um sich zu dezentralisieren und ein Ökosystem von Indexern aufzubauen. Enso wird seine Grapher- und Validatoren-Community ebenfalls pflegen müssen, um Zuverlässigkeit zu gewährleisten. Große Akteure (wie eine zukünftige Version von The Graph oder eine Zusammenarbeit von Chainlink und anderen) könnten beschließen, eine konkurrierende Intent-Ausführungsschicht einzuführen und ihre bestehenden Netzwerke zu nutzen. Enso wird schnell handeln müssen, um seine Position zu festigen, bevor sich ein solcher Wettbewerb materialisiert.

Zusammenfassend lässt sich sagen, dass Enso an einem Wettbewerbs-Scheideweg mehrerer wichtiger Web3-Vertikalen sitzt – es erobert eine Nische als die „Middleware von allem“. Sein Erfolg wird davon abhängen, spezialisierte Wettbewerber in jedem Anwendungsfall zu übertreffen (oder sie zu aggregieren) und weiterhin eine überzeugende One-Stop-Lösung anzubieten, die Entwickler dazu bringt, Enso dem Bauen von Grund auf vorzuziehen. Die Präsenz hochkarätiger Partner und Investoren deutet darauf hin, dass Enso in vielen Ökosystemen Fuß gefasst hat, was vorteilhaft sein wird, wenn es seine Integrationsabdeckung erweitert.

Roadmap und Ökosystemwachstum

Ensos Entwicklungs-Roadmap (Stand Mitte 2025) skizziert einen klaren Weg zur vollständigen Dezentralisierung, Multi-Chain-Unterstützung und Community-getriebenem Wachstum. Wichtige Meilensteine und geplante Initiativen umfassen:

  • Mainnet-Start (Q3 2024) – Enso startete sein Mainnet-Netzwerk in der zweiten Hälfte des Jahres 2024. Dies umfasste die Bereitstellung der Tendermint-basierten Chain und die Initialisierung des Validatoren-Ökosystems. Frühe Validatoren waren wahrscheinlich genehmigte oder ausgewählte Partner, während das Netzwerk hochgefahren wurde. Der Mainnet-Start ermöglichte die Verarbeitung realer Benutzeranfragen durch Ensos Engine (zuvor waren Ensos Dienste über eine zentralisierte API im Beta-Stadium zugänglich). Dieser Meilenstein markierte Ensos Übergang von einer internen Plattform zu einem öffentlichen dezentralen Netzwerk.

  • Erweiterung der Netzwerk-Teilnehmer (Q4 2024) – Nach dem Mainnet verlagerte sich der Fokus auf die Dezentralisierung der Teilnahme. Ende 2024 öffnete Enso Rollen für externe Action Provider und Graphers. Dies umfasste die Veröffentlichung von Tools und Dokumentation für Entwickler, um eigene Actions (Smart-Contract-Adapter) zu erstellen, und für Algorithmusentwickler, um Grapher-Nodes zu betreiben. Wir können davon ausgehen, dass Anreizprogramme oder Testnet-Wettbewerbe genutzt wurden, um diese Teilnehmer anzuziehen. Bis Ende 2024 strebte Enso an, eine breitere Palette von Drittanbieter-Actions in seiner Bibliothek und mehrere Graphers zu haben, die um Intents konkurrieren, und über die internen Algorithmen des Kernteams hinauszugehen. Dies war ein entscheidender Schritt, um sicherzustellen, dass Enso kein zentralisierter Dienst ist, sondern ein echtes offenes Netzwerk, in dem jeder beitragen und ENSO-Tokens verdienen kann.

  • Cross-Chain-Erweiterung (Q1 2025) – Enso erkennt an, dass die Unterstützung vieler Blockchains entscheidend für sein Wertversprechen ist. Anfang 2025 zielte die Roadmap auf die Integration mit neuen Blockchain-Umgebungen jenseits des anfänglichen EVM-Sets ab. Insbesondere plante Enso die Unterstützung für Monad, Solana und Movement bis zum ersten Quartal 2025. Monad ist eine kommende Hochleistungs-EVM-kompatible Chain (unterstützt von Dragonfly Capital) – eine frühzeitige Unterstützung könnte Enso als die bevorzugte Middleware dort positionieren. Die Solana-Integration ist anspruchsvoller (andere Laufzeit und Sprache), aber Ensos Intent-Engine könnte mit Solana zusammenarbeiten, indem sie Off-Chain-Graphers verwendet, um Solana-Transaktionen zu formulieren, und On-Chain-Programme als Adapter fungieren. Movement bezieht sich auf Move-Sprach-Chains (vielleicht Aptos/Sui oder eine spezifische namens Movement). Durch die Einbeziehung von Move-basierten Chains würde Enso ein breites Spektrum von Ökosystemen abdecken (Solidity und Move, sowie bestehende Ethereum-Rollups). Das Erreichen dieser Integrationen bedeutet die Entwicklung neuer Action-Module, die Solanas CPI-Aufrufe oder Moves Transaktionsskripte verstehen, und wahrscheinlich die Zusammenarbeit mit diesen Ökosystemen für Orakel/Indexierung. Ensos Erwähnung in Updates deutet darauf hin, dass diese auf Kurs waren – zum Beispiel hob ein Community-Update Partnerschaften oder Zuschüsse hervor (die Erwähnung von „Eclipse mainnet live + Movement grant“ in einem Suchergebnis deutet darauf hin, dass Enso Anfang 2025 aktiv mit neuartigen L1s wie Eclipse und Movement zusammenarbeitete).

  • Kurzfristig (Mitte/Ende 2025) – Obwohl nicht explizit in der einseitigen Roadmap aufgeführt, liegt Ensos Fokus Mitte 2025 auf Netzwerkreife und Dezentralisierung. Der Abschluss des CoinList-Token-Verkaufs im Juni 2025 ist ein wichtiges Ereignis: Die nächsten Schritte wären die Token-Generierung und -Verteilung (erwartet um Juli 2025) und die Notierung an Börsen oder Governance-Foren. Wir gehen davon aus, dass Enso seinen Governance-Prozess (Enso Improvement Proposals, On-Chain-Abstimmung) einführen wird, damit die Community mit ihren neu erworbenen Tokens an Entscheidungen teilnehmen kann. Zusätzlich wird Enso wahrscheinlich von „Beta“ zu einem vollständig produktionsreifen Dienst übergehen, falls dies noch nicht geschehen ist. Ein Teil davon wird die Sicherheitshärtung sein – die Durchführung mehrerer Smart-Contract-Audits und möglicherweise die Durchführung eines Bug-Bounty-Programms, angesichts der großen involvierten TVLs.

  • Ökosystem-Wachstumsstrategien: Enso fördert aktiv ein Ökosystem um sein Netzwerk. Eine Strategie war die Durchführung von Bildungsprogrammen und Hackathons (z. B. der Shortcut Speedrun und Workshops), um Entwickler in die Enso-Art des Bauens einzuführen. Eine weitere Strategie ist die Partnerschaft mit neuen Protokollen beim Start – dies haben wir bei Berachain, der zkSync-Kampagne und anderen gesehen. Enso wird dies voraussichtlich fortsetzen und effektiv als „On-Chain-Launch-Partner“ für aufstrebende Netzwerke oder DeFi-Projekte fungieren, die deren komplexe Benutzer-Onboarding-Prozesse abwickeln. Dies treibt nicht nur Ensos Volumen an (wie bei Berachain gesehen), sondern integriert Enso auch tief in diese Ökosysteme. Wir erwarten, dass Enso Integrationen mit weiteren Layer-2-Netzwerken (z. B. Arbitrum, Optimism wurden vermutlich bereits unterstützt; vielleicht als Nächstes neuere wie Scroll oder Starknet) und anderen L1s (Polkadot über XCM, Cosmos über IBC oder Osmosis usw.) ankündigen wird. Die langfristige Vision ist, dass Enso Chain-ubiquitär wird – jeder Entwickler auf jeder Chain kann sich einklinken. Zu diesem Zweck könnte Enso auch eine bessere Bridgeless Cross-Chain-Ausführung entwickeln (unter Verwendung von Techniken wie Atomic Swaps oder optimistischer Ausführung von Intents über Chains hinweg), was über 2025 hinaus auf der F&E-Roadmap stehen könnte.

  • Zukunftsaussichten: Weiterblickend hat Ensos Team auf die Beteiligung von KI-Agenten als Netzwerk-Teilnehmer hingedeutet. Dies deutet auf eine Zukunft hin, in der nicht nur menschliche Entwickler, sondern auch KI-Bots (vielleicht darauf trainiert, DeFi-Strategien zu optimieren) sich in Enso einklinken, um Dienste bereitzustellen. Enso könnte diese Vision umsetzen, indem es SDKs oder Frameworks für KI-Agenten erstellt, um sicher mit der Intent-Engine zu interagieren – eine potenziell bahnbrechende Entwicklung, die KI und Blockchain-Automatisierung zusammenführt. Darüber hinaus erwarten wir, dass Enso bis Ende 2025 oder 2026 an der Leistungsskalierung arbeiten wird (vielleicht durch Sharding seines Netzwerks oder die Verwendung von Zero-Knowledge-Proofs zur Validierung der Korrektheit der Intent-Ausführung in großem Maßstab), wenn die Nutzung zunimmt.

Die Roadmap ist ambitioniert, aber die bisherige Umsetzung war stark – Enso hat wichtige Meilensteine wie den Mainnet-Start und die Bereitstellung realer Anwendungsfälle erreicht. Ein wichtiger bevorstehender Meilenstein ist die vollständige Dezentralisierung des Netzwerks. Derzeit befindet sich das Netzwerk in einem Übergang: Die Dokumentation weist darauf hin, dass das dezentrale Netzwerk im Testnet ist und eine zentralisierte API Anfang 2025 für die Produktion verwendet wurde. Mit dem jetzt aktiven Mainnet und dem im Umlauf befindlichen Token wird Enso darauf abzielen, alle zentralisierten Komponenten schrittweise abzuschaffen. Für Investoren wird die Verfolgung dieses Dezentralisierungsfortschritts (z. B. Anzahl unabhängiger Validatoren, Beitritt von Community-Graphern) entscheidend sein, um Ensos Reife zu bewerten.

Zusammenfassend konzentriert sich Ensos Roadmap auf die Skalierung der Netzwerkreichweite (mehr Chains, mehr Integrationen) und die Skalierung der Netzwerk-Community (mehr Drittanbieter-Teilnehmer und Token-Inhaber). Das ultimative Ziel ist es, Enso als kritische Infrastruktur in Web3 zu etablieren, ähnlich wie Infura für die dApp-Konnektivität oder The Graph für die Datenabfrage unerlässlich wurde. Wenn Enso seine Meilensteine erreichen kann, sollte die zweite Hälfte des Jahres 2025 ein blühendes Ökosystem um das Enso Network sehen, das potenziell ein exponentielles Wachstum der Nutzung antreibt.

Risikobewertung

Wie jedes Protokoll in der Frühphase steht Enso Network vor einer Reihe von Risiken und Herausforderungen, die Investoren sorgfältig abwägen sollten:

  • Technische und Sicherheitsrisiken: Ensos System ist von Natur aus komplex – es interagiert mit unzähligen Smart Contracts über viele Blockchains hinweg durch ein Netzwerk von Off-Chain-Solvern und Validatoren. Diese expansive Angriffsfläche birgt technische Risiken. Jede neue Action (Integration) könnte Schwachstellen aufweisen; wenn die Logik einer Action fehlerhaft ist oder ein bösartiger Anbieter eine Hintertür-Action einführt, könnten Benutzergelder gefährdet sein. Die Sicherstellung jeder Integration erforderte erhebliche Investitionen (Ensos Team gab in den Anfängen über 500.000 $ für Audits zur Integration von 15 Protokollen aus). Wenn die Bibliothek auf Hunderte von Protokollen anwächst, ist die Aufrechterhaltung strenger Sicherheitsaudits eine Herausforderung. Es besteht auch das Risiko von Fehlern in Ensos Koordinationslogik – zum Beispiel könnte ein Fehler in der Art und Weise, wie Graphers Transaktionen zusammensetzen oder Validatoren sie verifizieren, ausgenutzt werden. Insbesondere die Cross-Chain-Ausführung kann riskant sein: Wenn eine Abfolge von Aktionen mehrere Chains umfasst und ein Teil fehlschlägt oder zensiert wird, könnten die Gelder eines Benutzers in der Schwebe bleiben. Obwohl Enso wahrscheinlich in einigen Fällen Wiederholungen oder Atomic Swaps verwendet, bedeutet die Komplexität von Intents, dass unbekannte Fehlermodi auftreten könnten. Das Intent-basierte Modell selbst ist in großem Maßstab noch relativ unerprobt – es kann Randfälle geben, in denen die Engine eine falsche Lösung oder ein Ergebnis liefert, das vom Intent des Benutzers abweicht. Jeder hochkarätige Exploit oder Ausfall könnte das Vertrauen in das gesamte Netzwerk untergraben. Die Minderung erfordert kontinuierliche Sicherheitsaudits, ein robustes Bug-Bounty-Programm und möglicherweise Versicherungsmechanismen für Benutzer (von denen noch keine detailliert wurden).

  • Dezentralisierungs- und Betriebsrisiken: Derzeit (Mitte 2025) befindet sich das Enso-Netzwerk noch im Prozess der Dezentralisierung seiner Teilnehmer. Dies bedeutet, dass es eine ungesehene operative Zentralisierung geben könnte – zum Beispiel könnte die Infrastruktur des Teams immer noch einen Großteil der Aktivitäten koordinieren, oder nur wenige Validatoren/Graphers sind wirklich aktiv. Dies birgt zwei Risiken: Zuverlässigkeit (wenn die Server des Kernteams ausfallen, wird das Netzwerk ins Stocken geraten?) und Vertrauen (wenn der Prozess noch nicht vollständig vertrauenslos ist, müssen Benutzer Vertrauen in Enso Inc. haben, dass es keine Transaktionen vorwegnimmt oder zensiert). Das Team hat seine Zuverlässigkeit bei großen Ereignissen (wie der Abwicklung eines Volumens von 3 Mrd. $ in Tagen) bewiesen, aber mit zunehmender Nutzung wird die Skalierung des Netzwerks über mehr unabhängige Nodes entscheidend sein. Es besteht auch das Risiko, dass Netzwerk-Teilnehmer nicht erscheinen – wenn Enso nicht genügend qualifizierte Action Provider oder Graphers anziehen kann, könnte das Netzwerk vom Kernteam abhängig bleiben, was die Dezentralisierung einschränkt. Dies könnte die Innovation verlangsamen und auch zu viel Macht (und Token-Belohnungen) in einer kleinen Gruppe konzentrieren, was dem beabsichtigten Design widerspricht.

  • Markt- und Adoptionsrisiken: Obwohl Enso eine beeindruckende frühe Adoption aufweist, befindet es sich immer noch in einem aufstrebenden Markt für „Intent-basierte“ Infrastruktur. Es besteht das Risiko, dass die breitere Entwickler-Community dieses neue Paradigma nur langsam annimmt. Entwickler, die in traditionellen Kodierungspraktiken verankert sind, könnten zögern, sich für Kernfunktionen auf ein externes Netzwerk zu verlassen, oder sie bevorzugen möglicherweise alternative Lösungen. Zusätzlich hängt Ensos Erfolg vom kontinuierlichen Wachstum der DeFi- und Multi-Chain-Ökosysteme ab. Wenn die Multi-Chain-These ins Wanken gerät (zum Beispiel, wenn sich die meisten Aktivitäten auf einer einzigen dominanten Chain konsolidieren), könnte der Bedarf an Ensos Cross-Chain-Fähigkeiten abnehmen. Umgekehrt, wenn ein neues Ökosystem entsteht, das Enso nicht schnell integrieren kann, werden Projekte in diesem Ökosystem Enso nicht nutzen. Im Wesentlichen ist es eine nie endende Herausforderung, mit jeder neuen Chain und jedem Protokoll auf dem Laufenden zu bleiben – das Verpassen oder Verzögern einer wichtigen Integration (z. B. eines beliebten neuen DEX oder einer Layer-2) könnte Projekte zu Wettbewerbern oder benutzerdefiniertem Code drängen. Darüber hinaus könnte Ensos Nutzung durch makroökonomische Marktbedingungen beeinträchtigt werden; in einem schweren DeFi-Abschwung könnten weniger Benutzer und Entwickler mit neuen dApps experimentieren, was die an Enso übermittelten Intents und damit die Gebühren/Einnahmen des Netzwerks direkt reduziert. Der Wert des Tokens könnte in einem solchen Szenario leiden, was das Staking potenziell weniger attraktiv macht und die Netzwerksicherheit oder -beteiligung schwächt.

  • Wettbewerb: Wie besprochen, sieht sich Enso an mehreren Fronten Konkurrenz gegenüber. Ein großes Risiko ist der Eintritt eines größeren Akteurs in den Intent-Ausführungsbereich. Wenn zum Beispiel ein gut finanziertes Projekt wie Chainlink einen ähnlichen Intent-Dienst einführen würde, der sein bestehendes Orakel-Netzwerk nutzt, könnten sie Enso aufgrund von Markenvertrauen und Integrationen schnell in den Schatten stellen. Ähnlich könnten Infrastrukturunternehmen (Alchemy, Infura) vereinfachte Multi-Chain-SDKs entwickeln, die, obwohl nicht dezentralisiert, den Entwicklermarkt mit Bequemlichkeit erobern. Es besteht auch das Risiko von Open-Source-Nachahmern: Ensos Kernkonzepte (Actions, Graphers) könnten von anderen repliziert werden, vielleicht sogar als Fork von Enso, wenn der Code öffentlich ist. Wenn eines dieser Projekte eine starke Community bildet oder einen besseren Token-Anreiz findet, könnte es potenzielle Teilnehmer ablenken. Enso wird die technologische Führung (z. B. durch die größte Bibliothek von Actions und die effizientesten Solver) aufrechterhalten müssen, um den Wettbewerb abzuwehren. Wettbewerbsdruck könnte auch Ensos Gebührenmodell unter Druck setzen – wenn ein Rivale ähnliche Dienste billiger (oder kostenlos, subventioniert von VCs) anbietet, könnte Enso gezwungen sein, die Gebühren zu senken oder die Token-Anreize zu erhöhen, was seine Tokenomics belasten könnte.

  • Regulierungs- und Compliance-Risiken: Enso agiert im Bereich der DeFi-Infrastruktur, der regulatorisch eine Grauzone darstellt. Während Enso selbst keine Benutzergelder verwahrt (Benutzer führen Intents aus ihren eigenen Wallets aus), automatisiert das Netzwerk komplexe Finanztransaktionen über Protokolle hinweg. Es besteht die Möglichkeit, dass Regulierungsbehörden Intent-Kompositions-Engines als Erleichterung unlizenzierter Finanzaktivitäten oder sogar als Beihilfe zur Geldwäsche ansehen könnten, wenn sie dazu verwendet werden, Gelder auf undurchsichtige Weise über Chains zu verschieben. Spezifische Bedenken könnten entstehen, wenn Enso Cross-Chain-Swaps ermöglicht, die Privacy Pools oder sanktionierte Jurisdiktionen betreffen. Zusätzlich spiegeln der ENSO-Token und sein CoinList-Verkauf eine Verteilung an eine globale Community wider – Regulierungsbehörden (wie die SEC in den USA) könnten ihn als Wertpapierangebot prüfen (bemerkenswerterweise schloss Enso die USA, Großbritannien, China usw. vom Verkauf aus, was Vorsicht in dieser Hinsicht signalisiert). Wenn ENSO in wichtigen Jurisdiktionen als Wertpapier eingestuft würde, könnte dies Börsennotierungen oder die Nutzung durch regulierte Entitäten einschränken. Ensos dezentrales Validatoren-Netzwerk könnte auch Compliance-Probleme bekommen: Könnte ein Validator beispielsweise aufgrund rechtlicher Anordnungen gezwungen werden, bestimmte Transaktionen zu zensieren? Dies ist vorerst weitgehend hypothetisch, aber mit dem Wachstum des durch Enso fließenden Werts wird die regulatorische Aufmerksamkeit zunehmen. Die Basis des Teams in der Schweiz könnte ein relativ kryptofreundliches regulatorisches Umfeld bieten, aber globale Operationen bedeuten globale Risiken. Die Minderung dessen beinhaltet wahrscheinlich die Sicherstellung, dass Enso ausreichend dezentralisiert ist (damit keine einzelne Entität verantwortlich ist) und möglicherweise das Geofencing bestimmter Funktionen, falls erforderlich (obwohl dies dem Ethos des Projekts widersprechen würde).

  • Wirtschaftliche Nachhaltigkeit: Ensos Modell geht davon aus, dass die durch die Nutzung generierten Gebühren alle Teilnehmer ausreichend belohnen werden. Es besteht das Risiko, dass die Gebührenanreize nicht ausreichen, um das Netzwerk aufrechtzuerhalten, insbesondere in der Anfangsphase. Zum Beispiel entstehen Graphern und Validatoren Kosten (Infrastruktur, Entwicklungszeit). Wenn die Abfragegebühren zu niedrig angesetzt werden, könnten diese Teilnehmer keinen Gewinn erzielen, was dazu führen könnte, dass sie abspringen. Andererseits, wenn die Gebühren zu hoch sind, könnten dApps zögern, Enso zu nutzen und nach billigeren Alternativen suchen. Ein Gleichgewicht in einem zweiseitigen Markt zu finden, ist schwierig. Die Enso-Token-Ökonomie hängt auch bis zu einem gewissen Grad vom Token-Wert ab – z. B. sind Staking-Belohnungen attraktiver, wenn der Token einen hohen Wert hat, und Action Provider verdienen Wert in ENSO. Ein starker Rückgang des ENSO-Preises könnte die Netzwerkbeteiligung reduzieren oder zu mehr Verkäufen führen (was den Preis weiter drückt). Da ein großer Teil der Tokens von Investoren und Team gehalten wird (insgesamt über 56 %, über 2 Jahre unverfallbar), besteht ein Überhangrisiko: Wenn diese Stakeholder das Vertrauen verlieren oder Liquidität benötigen, könnten ihre Verkäufe den Markt nach dem Vesting überschwemmen und den Preis des Tokens untergraben. Enso versuchte, die Konzentration durch den Community-Verkauf zu mindern, aber es ist kurzfristig immer noch eine relativ zentralisierte Token-Verteilung. Die wirtschaftliche Nachhaltigkeit wird davon abhängen, die tatsächliche Netzwerknutzung auf ein Niveau zu steigern, auf dem die Gebühreneinnahmen den Token-Stakern und Beitragenden ausreichend Rendite bieten – im Wesentlichen Enso zu einem „Cashflow“ generierenden Protokoll zu machen, anstatt nur zu einem spekulativen Token. Dies ist erreichbar (man denke daran, wie Ethereum-Gebühren Miner/Validatoren belohnen), aber nur, wenn Enso eine weite Verbreitung erreicht. Bis dahin besteht eine Abhängigkeit von Treasury-Fonds (15 % zugewiesen), um Anreize zu schaffen und möglicherweise die wirtschaftlichen Parameter anzupassen (Enso-Governance kann bei Bedarf Inflation oder andere Belohnungen einführen, was die Inhaber verwässern könnte).

Zusammenfassung der Risiken: Enso betritt Neuland, was mit entsprechenden Risiken verbunden ist. Die technologische Komplexität, das gesamte DeFi in einem Netzwerk zu vereinen, ist enorm – jede hinzugefügte Blockchain oder integrierte Protokoll ist ein potenzieller Fehlerpunkt, der verwaltet werden muss. Die Erfahrung des Teams bei der Bewältigung früherer Rückschläge (wie der begrenzte Erfolg des anfänglichen Social-Trading-Produkts) zeigt, dass sie sich der Fallstricke bewusst sind und sich schnell anpassen. Sie haben einige Risiken aktiv gemindert (z. B. die Dezentralisierung des Eigentums durch die Community-Runde, um eine übermäßig VC-gesteuerte Governance zu vermeiden). Investoren sollten beobachten, wie Enso die Dezentralisierung umsetzt und ob es weiterhin erstklassige technische Talente anzieht, um das Netzwerk aufzubauen und zu sichern. Im besten Fall könnte Enso zu einer unverzichtbaren Infrastruktur im gesamten Web3 werden, die starke Netzwerkeffekte und eine Wertsteigerung des Tokens erzielt. Im schlimmsten Fall könnten technische oder Adoptionsrückschläge es zu einem ambitionierten, aber Nischen-Tool degradieren.

Aus Investorensicht bietet Enso ein Profil mit hohem Potenzial und hohem Risiko. Sein aktueller Status (Mitte 2025) ist der eines vielversprechenden Netzwerks mit realer Nutzung und einer klaren Vision, aber es muss nun seine Technologie härten und eine wettbewerbsintensive und sich entwickelnde Landschaft übertreffen. Eine Due Diligence bei Enso sollte die Überwachung seiner Sicherheitsbilanz, das Wachstum der Abfragevolumen/-gebühren im Laufe der Zeit und die Effektivität des ENSO-Token-Modells zur Anreizung eines sich selbst tragenden Ökosystems umfassen. Derzeit ist der Schwung auf Ensos Seite, aber ein umsichtiges Risikomanagement und kontinuierliche Innovation werden entscheidend sein, um diese frühe Führung in eine langfristige Dominanz im Web3-Middleware-Bereich zu verwandeln.

Quellen:

  • Offizielle Dokumentation und Token-Verkaufsmaterialien von Enso Network

    • CoinList Token Sale Seite – Wichtige Highlights & Investoren
    • Enso Docs – Tokenomics und Netzwerkrollen
  • Interviews und Medienberichte

    • CryptoPotato Interview mit Enso CEO (Juni 2025) – Hintergrund zu Ensos Entwicklung und Intent-basiertem Design
    • DL News (Mai 2025) – Überblick über Ensos Shortcuts und den Shared-State-Ansatz
  • Community- und Investorenanalysen

    • Hackernoon (I. Pandey, 2025) – Einblicke in Ensos Community-Runde und Token-Verteilungsstrategie
    • CryptoTotem / CoinLaunch (2025) – Aufschlüsselung des Token-Angebots und Roadmap-Zeitplan
  • Offizielle Enso-Website-Metriken (2025) und Pressemitteilungen – Adoptionszahlen und Anwendungsbeispiele (Berachain-Migration, Uniswap-Zusammenarbeit).

Aptos vs. Sui: Eine umfassende Analyse zweier Move-basierter Giganten

· 7 Minuten Lesezeit
Dora Noda
Software Engineer

Überblick

Aptos und Sui stehen als nächste Generation von Layer-1 Blockchains, beide basierend auf der Move-Sprache, die ursprünglich im Rahmen des Libra/Diem-Projekts von Meta konzipiert wurde. Obwohl sie eine gemeinsame Abstammung teilen, haben sich ihre Teamhintergründe, Kernziele, Ökosystemstrategien und Entwicklungspfade erheblich auseinanderentwickelt.

Aptos legt Wert auf Vielseitigkeit und Performance auf Unternehmensniveau, wobei sowohl DeFi- als auch institutionelle Anwendungsfälle im Fokus stehen. Im Gegensatz dazu konzentriert sich Sui auf die Optimierung seines einzigartigen Objektmodells, um Massenmarkt-Verbraucheranwendungen, insbesondere in den Bereichen Gaming, NFTs und soziale Medien, zu unterstützen. Welche Kette sich letztendlich durchsetzen wird, hängt von ihrer Fähigkeit ab, ihre Technologie weiterzuentwickeln, um den Anforderungen ihrer gewählten Marktnische gerecht zu werden, und gleichzeitig einen klaren Vorteil in Bezug auf Benutzererfahrung und Entwicklerfreundlichkeit zu etablieren.


1. Entwicklungsreise

Aptos

Aptos, entstanden aus Aptos Labs – einem Team ehemaliger Meta Libra/Diem-Mitarbeiter – begann Ende 2021 mit geschlossenen Tests und startete sein Mainnet am 19. Oktober 2022. Die anfängliche Mainnet-Performance stieß mit unter 20 TPS auf Skepsis in der Community, wie von WIRED angemerkt, aber nachfolgende Iterationen an den Konsens- und Ausführungsschichten haben den Durchsatz stetig auf Zehntausende von TPS erhöht.

Bis zum 2. Quartal 2025 erreichte Aptos einen Höchststand von 44,7 Millionen Transaktionen in einer einzigen Woche, wobei die wöchentlich aktiven Adressen 4 Millionen überschritten. Das Netzwerk ist auf über 83 Millionen kumulierte Konten angewachsen, mit einem täglichen DeFi-Handelsvolumen, das konstant über 200 Millionen US-Dollar liegt (Quelle: Aptos Forum).

Sui

Sui, initiiert von Mysten Labs, dessen Gründer Kernmitglieder des Novi Wallet-Teams von Meta waren, startete sein incentiviertes Testnet im August 2022 und ging am 3. Mai 2023 mit seinem Mainnet live. Von den frühesten Testnets an priorisierte das Team die Verfeinerung seines „Objektmodells“, das Assets als Objekte mit spezifischen Eigentums- und Zugriffskontrollen behandelt, um die parallele Transaktionsverarbeitung zu verbessern (Quelle: Ledger).

Mitte Juli 2025 erreichte der Total Value Locked (TVL) des Sui-Ökosystems 2,326 Milliarden US-Dollar. Die Plattform verzeichnete ein schnelles Wachstum des monatlichen Transaktionsvolumens und der Anzahl aktiver Ingenieure, was sich besonders im Gaming- und NFT-Sektor als beliebt erwies (Quelle: AInvest, Tangem).


2. Technischer Architekturvergleich

MerkmalAptosSui
SpracheErbt das ursprüngliche Move-Design, betont die Sicherheit von „Ressourcen“ und strenge Zugriffskontrolle. Die Sprache ist relativ schlank. (Quelle: aptos.dev)Erweitert Standard-Move um ein „objektzentriertes“ Modell, wodurch eine angepasste Version der Sprache entsteht, die horizontal skalierbare parallele Transaktionen unterstützt. (Quelle: docs.sui.io)
KonsensAptosBFT: Ein optimierter BFT-Konsensmechanismus, der eine Finalität im Sub-Sekundenbereich verspricht, mit primärem Fokus auf Sicherheit und Konsistenz. (Quelle: Messari)Narwhal + Tusk: Entkoppelt den Konsens von der Transaktionsreihenfolge, ermöglicht hohen Durchsatz und niedrige Latenz durch Priorisierung der Effizienz paralleler Ausführung.
AusführungsmodellVerwendet ein Pipelining-Ausführungsmodell, bei dem Transaktionen in Phasen verarbeitet werden (Datenabruf, Ausführung, Rückschreiben), was Hochfrequenzübertragungen und komplexe Logik unterstützt. (Quelle: chorus.one)Nutzt parallele Ausführung basierend auf Objekteigentum. Transaktionen, die unterschiedliche Objekte betreffen, erfordern keine globalen Zustandssperren, was den Durchsatz grundlegend erhöht.
SkalierbarkeitKonzentriert sich auf Single-Instance-Optimierung und erforscht gleichzeitig Sharding. Die Community entwickelt aktiv den Sharding-Vorschlag AptosCore v2.0.Verfügt über eine native parallele Engine, die für horizontale Skalierung konzipiert ist und auf ihrem Testnet bereits Spitzen-TPS im Zehntausenderbereich erreicht hat.
Entwickler-ToolsEine ausgereifte Toolchain, einschließlich offizieller SDKs, eines Devnets, des Aptos CLI, eines Explorers und des Hydra-Frameworks für Skalierbarkeit.Eine umfassende Suite, einschließlich des Sui SDK, der Sui Studio IDE, eines Explorers, GraphQL APIs und eines objektorientierten Abfragemodells.

3. On-Chain Ökosystem und Anwendungsfälle

3.1 Ökosystem-Größe und Wachstum

Aptos Im 1. Quartal 2025 verzeichnete Aptos fast 15 Millionen monatlich aktive Nutzer und näherte sich 1 Million täglich aktiver Wallets. Das DeFi-Handelsvolumen stieg im Jahresvergleich um 1000 %, wobei sich die Plattform als Drehscheibe für Stablecoins und Derivate auf Finanzniveau etablierte (Quelle: Coinspeaker). Zu den wichtigsten strategischen Schritten gehören die Integration von USDT über Upbit, um die Penetration in asiatischen Märkten voranzutreiben, und die Anziehung zahlreicher führender DEXs, Lending-Protokolle und Derivateplattformen (Quelle: Aptos Forum).

Sui Im Juni 2025 erreichte der TVL des Sui-Ökosystems einen neuen Höchststand von 2,326 Milliarden US-Dollar, hauptsächlich angetrieben durch interaktionsreiche soziale, Gaming- und NFT-Projekte (Quelle: AInvest). Das Ökosystem ist durch Kernprojekte wie Objekt-Marktplätze, Layer-2-Brücken, soziale Wallets und Game-Engine-SDKs definiert, die eine große Anzahl von Web3-Spieleentwicklern und IP-Inhabern angezogen haben.

3.2 Dominante Anwendungsfälle

  • DeFi & Unternehmensintegration (Aptos): Mit seiner ausgereiften BFT-Finalität und einer Vielzahl von Finanztools ist Aptos besser für Stablecoins, Lending und Derivate geeignet – Szenarien, die ein hohes Maß an Konsistenz und Sicherheit erfordern.
  • Gaming & NFTs (Sui): Suis Vorteil bei der parallelen Ausführung ist hier offensichtlich. Seine geringe Transaktionslatenz und nahezu null Gebühren sind ideal für hochfrequente, geringwertige Interaktionen, die im Gaming üblich sind, wie das Öffnen von Lootboxen oder das Übertragen von In-Game-Gegenständen.

4. Entwicklung & Strategie

Aptos

  • Performance-Optimierung: Fortsetzung der Sharding-Forschung, Planung von Multi-Region-Cross-Chain-Liquidität und Upgrade der AptosVM zur Verbesserung der Effizienz des Zustandszugriffs.
  • Ökosystem-Anreize: Ein Ökosystemfonds in Höhe von mehreren Hundert Millionen US-Dollar wurde eingerichtet, um DeFi-Infrastruktur, Cross-Chain-Brücken und konforme Unternehmensanwendungen zu unterstützen.
  • Cross-Chain Interoperabilität: Stärkung der Integrationen mit Brücken wie Wormhole und Aufbau von Verbindungen zu Cosmos (über IBC) und Ethereum.

Sui

  • Objektmodell-Iteration: Erweiterung der Move-Syntax zur Unterstützung benutzerdefinierter Objekttypen und komplexer Berechtigungsverwaltung bei gleichzeitiger Optimierung des parallelen Scheduling-Algorithmus.
  • Förderung der Verbraucherakzeptanz: Vertiefung der Integrationen mit großen Game-Engines wie Unreal und Unity, um die Hürde für die Web3-Spieleentwicklung zu senken, und Einführung von Social Plugins und SDKs.
  • Community-Governance: Förderung der SuiDAO, um Kernprojekt-Communities mit Governance-Fähigkeiten auszustatten und eine schnelle Iteration von Funktionen und Gebührenmodellen zu ermöglichen.

5. Kernunterschiede & Herausforderungen

  • Sicherheit vs. Parallelität: Aptos' strenge Ressourcensemantik und konsistenter Konsens bieten DeFi-taugliche Sicherheit, können aber die Parallelität einschränken. Suis hochparalleles Transaktionsmodell muss seine Widerstandsfähigkeit gegenüber groß angelegten Sicherheitsbedrohungen kontinuierlich unter Beweis stellen.
  • Ökosystemtiefe vs. -breite: Aptos hat tiefe Wurzeln im Finanzsektor mit starken institutionellen Bindungen kultiviert. Sui hat schnell eine breite Palette von verbraucherorientierten Projekten akkumuliert, muss aber noch einen entscheidenden Durchbruch im groß angelegten DeFi erzielen.
  • Theoretische Performance vs. realer Durchsatz: Während Sui einen höheren theoretischen TPS aufweist, ist sein tatsächlicher Durchsatz immer noch durch die Ökosystemaktivität begrenzt. Aptos hat auch während Spitzenzeiten Überlastungen erlebt, was auf die Notwendigkeit effektiverer Sharding- oder Layer-2-Lösungen hindeutet.
  • Marktnarrativ & Positionierung: Aptos vermarktet sich mit Sicherheit und Stabilität auf Unternehmensniveau und zielt auf traditionelle Finanzen und regulierte Industrien ab. Sui nutzt den Reiz einer „Web2-ähnlichen Erfahrung“ und eines „reibungslosen Onboardings“, um ein breiteres Verbraucherpublikum anzuziehen.

6. Der Weg zur Massenadoption

Letztendlich ist dies kein Nullsummenspiel.

Mittel- bis langfristig könnte Suis parallele Ausführung und die niedrige Einstiegshürde bei anhaltendem explosivem Wachstum des Verbrauchermarktes (Gaming, Social, NFTs) eine schnelle Adoption bei zig Millionen Mainstream-Nutzern ermöglichen.

Kurz- bis mittelfristig bieten Aptos' ausgereifte BFT-Finalität, niedrige Gebühren und strategische Partnerschaften ein überzeugenderes Angebot für institutionelle Finanzen, compliance-orientiertes DeFi und grenzüberschreitende Zahlungen.

Die Zukunft ist wahrscheinlich eine symbiotische, in der die beiden Ketten koexistieren und einen geschichteten Markt schaffen: Aptos treibt die Finanz- und Unternehmensinfrastruktur an, während Sui hochfrequente Verbraucherinteraktionen dominiert. Die Kette, die letztendlich die Massenadoption erreicht, wird diejenige sein, die Leistung und Benutzererfahrung in ihrem gewählten Bereich unermüdlich optimiert.

Rollups-as-a-Service in 2025: OP, ZK, Arbitrum Orbit, Polygon CDK und zkSync Hyperchains

· 72 Minuten Lesezeit
Dora Noda
Software Engineer

Einführung

Rollups-as-a-Service (RaaS) und modulare Blockchain-Frameworks sind im Jahr 2025 entscheidend für die Skalierung von Ethereum und den Aufbau benutzerdefinierter Blockchains geworden. Führende Frameworks – Optimism’s OP Stack, zkSync’s ZK Stack (Hyperchains), Arbitrum Orbit, Polygon’s Chain Development Kit (CDK) und verwandte Lösungen – ermöglichen es Entwicklern, ihre eigenen Layer-2- (L2) oder Layer-3- (L3) Chains mit unterschiedlichen Ansätzen (optimistisch vs. Zero-Knowledge) zu starten. Diese Frameworks teilen eine Philosophie der Modularität: Sie trennen Belange wie Ausführung, Abwicklung, Datenverfügbarkeit und Konsens, was die Anpassung jeder Komponente ermöglicht. Dieser Bericht vergleicht die Frameworks anhand wichtiger Dimensionen – Datenverfügbarkeitsoptionen, Sequenzer-Design, Gebührenmodelle, Ökosystem-Unterstützung – und untersucht ihre Architektur, Tools, Entwicklererfahrung und aktuelle Akzeptanz sowohl im öffentlichen als auch im Unternehmenskontext.

Vergleichsübersicht

Die folgende Tabelle fasst mehrere Kernfunktionen jedes Frameworks zusammen:

AspektOP Stack (Optimism)ZK Stack (zkSync)Arbitrum OrbitPolygon CDK (AggLayer)
Rollup-TypOptimistic RollupZero-Knowledge (Gültigkeit)Optimistic RollupZero-Knowledge (Gültigkeit)
BeweissystemFehlerbeweise (Betrugsbeweise)ZK-SNARK-GültigkeitsnachweiseFehlerbeweise (Betrugsbeweise)ZK-SNARK-Gültigkeitsnachweise
EVM-KompatibilitätEVM-äquivalent (geth)Hoch – zkEVM (LLVM-basiert)EVM-äquivalent (Arbitrum Nitro) + WASM via StylusPolygon zkEVM (EVM-äquivalent)
DatenverfügbarkeitEthereum L1 (On-Chain); steckbare Alt-DA-Module (Celestia, etc.)Ethereum L1; auch Validium-Optionen Off-Chain (Celestia, Avail, EigenDA)Ethereum L1 (Rollup) oder AnyTrust-Komitee (Off-Chain DAC); unterstützt Celestia, AvailEthereum L1 (Rollup) oder Off-Chain (Validium via Avail oder Celestia); Hybrid möglich
Sequenzer-DesignEinzelner Sequenzer (Standard); Multi-Sequenzer mit Anpassung möglich. Shared Sequencer-Vision für Superchain (Zukunft).Konfigurierbar: kann zentralisiert oder dezentralisiert sein; priorisierte L1-Warteschlange unterstützt.Konfigurierbar: Einzelner Operator oder dezentralisierte Validatoren.Flexibel: Einzelner Sequenzer oder mehrere Validatoren (z. B. PoS-Komitee).
Sequenzer-ZugriffZentralisiert heute (der Sequenzer jeder OP-Chain wird von ihrem Operator betrieben); noch nicht permissionless. Pläne für ein gemeinsames, permissionless Sequenzer-Netzwerk unter OP-Chains. L1-Backup-Warteschlange ermöglicht vertrauenslose Tx-Einreichung, wenn der Sequenzer ausfällt.zkSync Era verwendet einen zentralisierten Sequenzer (Matter Labs), aber ZK Stack erlaubt benutzerdefinierte Sequenzer-Logik (sogar externen Konsens). Priorisierte L1-Sequenzierung für Fairness unterstützt. Dezentralisierte Sequenzer-Optionen in Entwicklung.Arbitrum One verwendet einen zentralisierten Sequenzer (Offchain Labs), mit Failover über den L1-Posteingang. Arbitrum Orbit Chains können ihren eigenen Sequenzer betreiben (anfangs zentralisiert) oder ein Validatoren-Set einrichten. Das BoLD-Upgrade (2025) ermöglicht permissionless Validierung zur Dezentralisierung von Orbit Chains.Polygon zkEVM begann mit einem einzelnen Sequenzer (Polygon Labs). CDK ermöglicht den Start einer Chain mit einem permissioned Validatoren-Set oder einem anderen Konsens zur Dezentralisierung. Viele CDK Chains starten aus Einfachheitsgründen zentralisiert, mit einer Roadmap für spätere, von der Community betriebene Sequenzer.
Gebühren-TokenETH standardmäßig auf OP-basierten L2s (zur Vereinfachung der UX). Benutzerdefinierter Gas-Token technisch unterstützt, aber die meisten OP-Chains entscheiden sich für ETH oder einen Standard-Token für Interoperabilität. (OP Stack’s jüngste Richtlinie bevorzugt gängige Token über die Superchain hinweg).Benutzerdefinierte Basis-Token werden unterstützt – Entwickler können ETH oder jeden ERC-20 als natives Gas wählen. (Diese Flexibilität ermöglicht projektspezifische Ökonomien auf zkSync-basierten Chains.)Benutzerdefinierter Gas-Token unterstützt (Upgrade Ende 2023). Chains können ETH, Arbitrum’s ARB oder ihren eigenen Token für Gebühren verwenden. Beispiel: Ape Chain verwendet APE als Gas.Benutzerdefinierter nativer Token wird unterstützt. Viele Polygon CDK Chains verwenden MATIC oder einen anderen Token als Gas. Das Polygon-Ökosystem fördert MATIC für Cross-Chain-Konsistenz, es ist jedoch nicht erforderlich.
Gebührenmodell & KostenBenutzer zahlen L2-Gas (vom Sequenzer gesammelt) plus L1-Datenbereitstellungskosten. Der Sequenzer muss Transaktionsdaten (Calldata oder Blobs) an Ethereum senden, daher deckt ein Teil der Gebühren L1-Gas ab. Umsatzbeteiligung: OP-Chains in der Superchain verpflichten sich, ca. 2,5 % des Umsatzes an das Optimism Collective (Finanzierung öffentlicher Güter) abzuführen.Benutzer zahlen Gebühren (oft in ETH oder dem gewählten Token), die die L1-Beweisverifizierung und Daten abdecken. Keine protokollbasierte „Steuer“ auf Gebühren – der Sequenzer jeder Chain behält den Umsatz, um Operatoren zu incentivieren. ZK-Prover-Kosten sind ein Faktor: Operatoren könnten etwas höhere Gebühren verlangen oder effiziente Prover verwenden, um Kosten zu verwalten. Die Finalität ist schnell (keine Verzögerung), sodass Benutzer keine Drittanbieter für schnelle Auszahlungen benötigen.Benutzer zahlen Gas (in ETH oder dem Token der Chain), das die L2-Ausführung + L1-Batch-Kosten abdeckt. Sequenzer/Validatoren behalten die Gebühreneinnahmen; keine obligatorische Umsatzbeteiligung an Arbitrum DAO oder L1 (abgesehen von L1-Gaskosten). Um die optimistische 7-Tage-Verzögerung zu vermeiden, integrieren viele Orbit Chains Liquiditätsanbieter oder offizielle Fast-Withdrawal-Bridges (Arbitrum unterstützt 15-minütige schnelle Auszahlungen auf einigen Orbit Chains über Liquiditätsnetzwerke).Benutzer zahlen Gasgebühren, die die Proving- und Posting-Kosten abdecken. Sequenzer oder Validatoren verdienen diese Gebühren; Polygon erhebt keine Miete oder Steuer auf die Einnahmen von CDK Chains. Die Verwendung von Off-Chain-DA (Validium-Modus) kann die Gebühren um >100x senken (Daten auf Celestia oder Avail statt Ethereum speichern), auf Kosten einiger Vertrauensannahmen.

Tabelle: High-Level-Vergleich der wichtigsten technischen Merkmale von OP Stack, zkSync’s ZK Stack, Arbitrum Orbit und Polygon CDK.

Datenverfügbarkeitsschichten

Die Datenverfügbarkeit (DA) ist der Ort, an dem Rollups ihre Transaktionsdaten speichern, damit jeder den Zustand der Chain rekonstruieren kann. Alle diese Frameworks unterstützen die Verwendung von Ethereum L1 als DA (Bereitstellung von Calldata oder Blob-Daten auf Ethereum für maximale Sicherheit). Um jedoch Kosten zu senken, ermöglichen sie auch alternative DA-Lösungen:

  • OP Stack: Standardmäßig veröffentlichen OP-Chains Daten auf Ethereum (als Calldata oder Blobs). Dank einer modularen „Alt-DA“-Schnittstelle können OP Stack Chains problemlos an andere DA-Schichten angeschlossen werden. Zum Beispiel könnte eine OP-Chain Celestia (eine dedizierte DA-Blockchain) anstelle von Ethereum verwenden. Im Jahr 2023 veröffentlichten OP Labs und Celestia eine Beta, bei der ein OP Stack Rollup auf Ethereum abgewickelt wird, aber Bulk-Daten auf Celestia speichert. Dies reduziert die Gebühren, während die Datenverfügbarkeitsgarantien von Celestia geerbt werden. Im Allgemeinen kann jede EVM- oder Nicht-EVM-Chain – sogar Bitcoin oder ein zentralisierter Speicher – als DA-Schicht im OP Stack konfiguriert werden. (Natürlich tauscht die Verwendung einer weniger sicheren DA einen Teil der Sicherheit gegen Kosten ein.) Ethereum bleibt die vorherrschende Wahl für Produktions-OP-Chains, aber Projekte wie Caldera’s Taro Testnet haben OP Stack mit Celestia DA demonstriert.

  • ZK Stack (zkSync Hyperchains): Der ZK Stack bietet sowohl Rollup- als auch Validium-Modi. Im Rollup-Modus sind alle Daten On-Chain (Ethereum). Im Validium-Modus werden Daten Off-Chain gehalten (wobei nur Gültigkeitsnachweise On-Chain sind). Matter Labs integriert Avail, Celestia und EigenDA als erstklassige DA-Optionen für ZK Stack Chains. Dies bedeutet, dass eine zkSync Hyperchain Transaktionsdaten an Celestia oder ein EigenLayer-gestütztes Netzwerk anstelle von L1 senden könnte, was den Durchsatz massiv erhöht. Sie skizzieren sogar Volition, bei der eine Chain pro Transaktion entscheiden kann, ob sie diese als Rollup (On-Chain-Daten) oder Validium (Off-Chain-Daten) behandeln möchte. Diese Flexibilität ermöglicht es Entwicklern, Sicherheit und Kosten abzuwägen. Zum Beispiel könnte eine Gaming-Hyperchain Celestia verwenden, um Daten kostengünstig zu speichern, während sie sich für periodische Beweise auf Ethereum verlässt. Das Design des ZK Stacks macht DA über eine DA-Client/Dispatcher-Komponente in der Node-Software steckbar. Insgesamt bleibt Ethereum Standard, aber das zkSync-Ökosystem betont stark die modulare DA, um einen „Hyperscale“-Durchsatz zu erreichen.

  • Arbitrum Orbit: Orbit Chains können zwischen Arbitrums zwei Datenmodi wählen: Rollup (Daten auf Ethereum veröffentlicht) oder AnyTrust (Datenverfügbarkeitskomitee). In der Rollup-Konfiguration wird ein Orbit L3 seine Calldata an den L2 (Arbitrum One oder Nova) oder L1 senden, wodurch die volle Sicherheit zu höheren Kosten geerbt wird. Im AnyTrust-Modus werden Daten von einem Komitee Off-Chain gehalten (wie in Arbitrum Nova verwendet, das ein Datenverfügbarkeitskomitee nutzt). Dies senkt die Gebühren für Apps mit hohem Volumen (Gaming, Social) erheblich, auf Kosten des Vertrauens in ein Komitee (wenn alle Komiteemitglieder kolludieren, um Daten zurückzuhalten, könnte die Chain zum Stillstand kommen). Darüber hinaus integriert Arbitrum auch neue modulare DA-Netzwerke. Insbesondere werden Celestia und Polygon Avail für Orbit Chains als alternative DA-Schichten unterstützt. Projekte wie AltLayer haben an Orbit Rollups gearbeitet, die auch EigenDA (EigenLayer’s DA-Dienst) verwenden. Zusammenfassend bietet Arbitrum Orbit flexible Datenverfügbarkeit: On-Chain über Ethereum, Off-Chain über DACs oder spezialisierte DA-Chains oder Hybride. Viele Orbit-Nutzer wählen AnyTrust aus Kostengründen, insbesondere wenn sie einen bekannten Satz von Validatoren oder Partnern haben, die die Datenverfügbarkeit sicherstellen.

  • Polygon CDK: Polygon’s CDK ist von Natur aus modular in Bezug auf DA. Eine Polygon CDK Chain kann als Rollup (alle Daten auf Ethereum) oder als Validium (Daten auf einem separaten Netzwerk) betrieben werden. Polygon hat seine eigene DA-Lösung namens Avail (eine Blockchain für Datenverfügbarkeit), und CDK Chains können Avail oder jeden ähnlichen Dienst nutzen. Ende 2024 kündigte Polygon die direkte Integration von Celestia in CDK an – was Celestia zu einer „leicht steckbaren“ DA-Option im Toolkit macht. Diese Integration wird für Anfang 2024 erwartet und ermöglicht es CDK Chains, komprimierte Daten nahtlos auf Celestia zu speichern. Polygon zitiert, dass die Verwendung von Celestia die Transaktionsgebühren um >100x im Vergleich zur Veröffentlichung aller Daten auf Ethereum reduzieren könnte. Somit kann ein CDK-Chain-Ersteller das DA-Modul einfach auf Celestia (oder Avail) anstatt auf Ethereum umschalten. Einige Polygon Chains (z. B. Polygon zkEVM) veröffentlichen derzeit alle Daten auf Ethereum (für maximale Sicherheit), während andere (vielleicht bestimmte Unternehmens-Chains) als Validiums mit externer DA laufen. Das CDK unterstützt auch „Hybrid“-Modi – zum Beispiel könnten kritische Transaktionen auf Ethereum gehen, während andere zu Avail gehen. Dieser modulare DA-Ansatz stimmt mit Polygons breiterer Polygon 2.0-Vision von mehreren ZK-gestützten Chains mit vereinheitlichter Liquidität, aber unterschiedlichen Daten-Backends überein.

Zusammenfassend lässt sich sagen, dass alle Frameworks mehrere DA-Schichten in unterschiedlichem Maße unterstützen. Ethereum bleibt der Goldstandard für DA (insbesondere mit Blob-Space von EIP-4844, der On-Chain-Daten billiger macht), aber neue spezialisierte DA-Netzwerke (Celestia, Avail) und Schemata (EigenLayer’s EigenDA, Datenkomitees) werden durchweg angenommen. Diese Modularität ermöglicht es Rollup-Erstellern im Jahr 2025, Kompromisse zwischen Kosten und Sicherheit einzugehen, indem sie einfach ein anderes DA-Modul konfigurieren, anstatt eine neue Chain von Grund auf neu zu bauen.

Sequenzer-Design und Dezentralisierung

Der Sequenzer ist der Node (oder Satz von Nodes), der Transaktionen ordnet und Blöcke für einen Rollup produziert. Wie der Sequenzer entworfen ist – zentralisiert vs. dezentralisiert, permissionless vs. permissioned – beeinflusst den Durchsatz der Chain und die Vertrauensannahmen:

  • OP Stack (Optimism): Heute betreiben die meisten OP Stack Chains einen einzelnen Sequenzer, der vom Kernteam oder Sponsor der Chain betrieben wird. Zum Beispiel wird der Sequenzer des Optimism Mainnets von OP Labs betrieben, und der Sequenzer von Base wird von Coinbase betrieben. Dies führt zu geringer Latenz und Einfachheit auf Kosten der Zentralisierung (Benutzer müssen dem Sequenzer vertrauen, ihre Transaktionen fair einzuschließen). Optimism hat jedoch Mechanismen zur Vertrauensminimierung eingebaut: Es gibt einen L1-Transaktionswarteschlangenvertrag, in dem Benutzer Transaktionen auf Ethereum einreichen können, die der Sequenzer in die L2-Chain aufnehmen muss. Wenn der Sequenzer ausfällt oder Transaktionen zensiert, können sich Benutzer auf L1 verlassen, um schließlich aufgenommen zu werden (wenn auch mit einiger Verzögerung). Dies bietet ein Sicherheitsventil gegen einen bösartigen oder ausgefallenen Sequenzer. In Bezug auf die Dezentralisierung ist OP Stack modular und ermöglicht theoretisch mehrere Sequenzer – z. B. könnte man ein Round-Robin- oder Proof-of-Stake-basiertes Block-Proposer-Set unter Verwendung des OP Stack-Codes implementieren. In der Praxis erfordert dies eine Anpassung und ist nicht die Out-of-the-Box-Konfiguration. Die langfristige Superchain-Roadmap sieht einen Shared Sequencer für alle OP Chains vor, der ein Satz von Validatoren wäre, die Transaktionen für viele Chains gleichzeitig sequenzieren. Ein Shared Sequencer könnte Cross-Chain-Atomarität ermöglichen und MEV über die Superchain hinweg reduzieren. Er befindet sich im Jahr 2025 noch in der Entwicklung, aber das Design des OP Stacks schließt das Anschließen eines solchen Konsenses nicht aus. Vorerst bleiben die Sequenzer-Operationen permissioned (von Whitelist-Entitäten betrieben), aber die Optimism-Governance plant, dies zu dezentralisieren (möglicherweise über Staking oder Komitee-Rotation), sobald die Technologie und die Wirtschaftlichkeit bereit sind. Kurz gesagt: OP Stack Chains beginnen mit zentralisierter Sequenzierung (mit L1 als Fallback), und ein Weg zur graduellen Dezentralisierung ist vorgezeichnet (Übergang von „Stage 0“ zu „Stage 2“ Reife ohne Stützräder).

  • ZK Stack (zkSync Hyperchains): zkSync Era (der L2) verwendet derzeit einen zentralisierten Sequenzer, der von Matter Labs betrieben wird. Der ZK Stack ist jedoch so konzipiert, dass er verschiedene Sequenzierungsmodi für neue Chains ermöglicht. Optionen umfassen einen zentralisierten Sequenzer (einfacher Start), ein dezentralisiertes Sequenzer-Set (z. B. mehrere Nodes, die einen Konsens über die Reihenfolge erzielen), eine priorisierte Transaktionswarteschlange von L1 oder sogar einen externen Sequenzer-Dienst. In Matter Labs’ Vision der Elastic Chains bleiben die Chains unabhängig, aber die Interoperabilität wird durch die L1-Verträge und einen „ZK Router/Gateway“ gehandhabt – dies impliziert, dass jede Chain ihr eigenes Sequenzer-Modell wählen kann, solange sie die Protokolle zur Einreichung von State Roots und Beweisen erfüllt. Da ZK-Rollups für die Sicherheit keinen Konsens auf L2 benötigen (Gültigkeitsnachweise gewährleisten die Korrektheit), geht es bei der Dezentralisierung des Sequenzers mehr um Liveness und Zensurresistenz. Eine Hyperchain könnte einen Round-Robin-Blockproduzenten implementieren oder bei Bedarf sogar einen Hochleistungs-BFT-Konsens für ihre Sequenzer nutzen. Allerdings ist der Betrieb eines einzelnen Sequenzers weitaus einfacher und bleibt zunächst die Norm. Die ZK Stack-Dokumentation erwähnt, dass eine Chain ein „externes Protokoll“ für die Sequenzierung verwenden könnte – zum Beispiel könnte man sich vorstellen, Tendermint- oder SU-Konsens als Blockproduzenten zu verwenden und dann ZK-Beweise für die Blöcke zu generieren. Auch wie andere verfügt zkSync über einen L1-Prioritätswarteschlangenmechanismus: Benutzer können Transaktionen mit einer Prioritätsgebühr an den zkSync-Vertrag senden, um die L1->L2-Aufnahme zeitnah zu gewährleisten (Zensur zu mildern). Insgesamt ist die permissionless Teilnahme an der Sequenzierung auf zkSync-Chains noch nicht realisiert (keine öffentliche Slot-Auktion oder Staking-basierte Sequenzer-Auswahl in Produktion), aber die Architektur lässt Raum dafür. Wenn Gültigkeitsnachweise ausgereift sind, könnten wir zkSync-Chains mit von der Community betriebenen Sequenzer-Nodes sehen, die gemeinsam die Reihenfolge festlegen (sobald die Leistung dies zulässt).

  • Arbitrum Orbit: Auf Arbitrum One (dem Haupt-L2) ist der Sequenzer zentralisiert (wird von Offchain Labs betrieben), obwohl der Fortschritt des Chain-Zustands letztendlich von den Arbitrum-Validatoren und Betrugsbeweisen gesteuert wird. Arbitrum hat ebenfalls eine L1-Warteschlange für Benutzer als Absicherung gegen Sequenzer-Probleme bereitgestellt. In Orbit (dem L3-Framework) kann jede Orbit Chain ihren eigenen Sequenzer oder Validatoren-Set haben. Arbitrums Nitro-Technologie beinhaltet die Option, einen Rollup mit einem dezentralisierten Sequenzer zu betreiben: Im Wesentlichen könnten mehrere Parteien die Arbitrum-Node-Software betreiben und eine Leader-Wahl verwenden (möglicherweise über die Arbitrum permissionless Proof-of-Stake-Chain in der Zukunft oder einen benutzerdefinierten Mechanismus). Out-of-the-Box wurden die bisher gestarteten Orbit Chains größtenteils zentralisiert betrieben (z. B. wird die Xai-Gaming-Chain von einer Stiftung in Zusammenarbeit mit Offchain Labs betrieben) – dies ist jedoch eine Frage der Konfiguration und Governance. Eine bemerkenswerte Entwicklung ist die Einführung von BoLD (Bounded Liquidity Delay) Anfang 2025, einem neuen Protokoll, das die Validierung von Arbitrum permissionlesser machen soll. BoLD ermöglicht es jedem, ein Validator (Prover) für die Chain zu werden und Betrugsherausforderungen in einem festen Zeitrahmen ohne Whitelist zu lösen. Dies bringt Arbitrum näher an den vertrauenslosen Betrieb, obwohl die Sequenzer-Rolle (tägliche Transaktionsordnung) immer noch zugewiesen oder gewählt werden könnte. Offchain Labs hat sich auf die Förderung der Dezentralisierung in 2024-2025 für Arbitrum konzentriert. Wir sehen auch Multi-Sequenzer-Bemühungen: Zum Beispiel könnte eine Orbit Chain ein kleines Komitee bekannter Sequenzer verwenden, um eine gewisse Fehlertoleranz zu erreichen (einer fällt aus, ein anderer fährt fort). Ein weiterer Ansatz ist die Idee eines Shared Sequencers für Orbit Chains, obwohl Arbitrum dies nicht so stark betont hat wie Optimism. Stattdessen wird Interoperabilität durch L3s erreicht, die auf Arbitrum L2 abgewickelt werden und Standard-Bridges verwenden. Zusammenfassend bietet Arbitrum Orbit Flexibilität im Sequenzer-Design (von einer Entität bis zu vielen), und der Trend geht dahin, das Validatoren-/Sequenzer-Set zu öffnen, wenn die Technologie und die Community-Governance ausgereift sind. Heute kann man sagen, dass Orbit Chains zentralisiert starten, aber eine Roadmap für permissionless Validierung haben.

  • Polygon CDK: Polygon CDK Chains (manchmal Ende 2024 unter dem Oberbegriff „AggLayer“ zusammengefasst) können ebenfalls ihr Sequenzer-/Konsens-Setup wählen. Polygons zkEVM-Chain (betrieben von Polygon Labs) begann mit einem einzelnen Sequenzer und zentralisierten Prover, mit Plänen zur schrittweisen Dezentralisierung beider. Das CDK, modular aufgebaut, ermöglicht es einer Chain, ein Konsensmodul anzuschließen – zum Beispiel könnte man eine CDK Chain mit einem Proof-of-Stake-Validatoren-Set starten, das Blöcke produziert, wodurch die Sequenzierung vom ersten Tag an dezentralisiert wird. Tatsächlich wurde Polygons früheres Framework (Polygon Edge) für permissioned Unternehmens-Chains mit IBFT-Konsens verwendet; CDK Chains könnten einen hybriden Ansatz wählen (Polygons zkProver betreiben, aber ein Komitee von Nodes Blöcke vorschlagen lassen). Standardmäßig könnten viele CDK Chains aus Einfachheitsgründen mit einem einzelnen Operator betrieben werden und später einen Konsens annehmen, wenn sie skalieren. Polygon erforscht auch ein Shared Sequencer oder Aggregator-Konzept über den AggLayer-Hub, der alle Polygon Chains verbinden soll. Während AggLayer hauptsächlich Cross-Chain-Messaging und Liquidität handhabt, könnte es sich in Zukunft zu einem Shared Sequencing Service entwickeln (Polygon-Mitbegründer hat die Sequenzer-Dezentralisierung als Teil von Polygon 2.0 diskutiert). Im Allgemeinen ist Permissionlessness noch nicht vorhanden – man kann nicht spontan Sequenzer für die CDK Chain eines anderen werden, es sei denn, dieses Projekt erlaubt es. Aber Projekte wie dYdX V4 (das eine eigenständige Chain mit einer Form von dezentralem Konsens aufbaut) und andere zeigen den Appetit auf Validatoren-basierte L2s. Polygon CDK macht es technisch machbar, viele Blockproduzenten zu haben, aber die genaue Implementierung bleibt dem Chain-Deployer überlassen. Es wird erwartet, dass Polygon weitere Leitlinien oder sogar Infrastruktur für dezentralisierte Sequenzer bereitstellen wird, wenn mehr Unternehmen und Communities CDK Chains starten.

Um den Sequenzer-Vergleich zusammenzufassen: Alle Frameworks verlassen sich derzeit in ihren Live-Implementierungen auf ein relativ zentralisiertes Sequenzer-Modell, um Effizienz zu gewährleisten. Jedes bietet jedoch einen Weg zur Dezentralisierung – sei es über Shared Sequencing Networks (OP Stack), steckbaren Konsens (CDK, ZK Stack) oder permissionless Validatoren (Arbitrums BoLD). Die folgende Tabelle hebt die Sequenzer-Designs hervor:

Sequenzer-DesignOP StackZK Stack (zkSync)Arbitrum OrbitPolygon CDK
Standard-Operator-ModellEinzelner Sequenzer (projektbetrieben)Einzelner Sequenzer (Matter Labs oder projektbetrieben)Einzelner Sequenzer (projektbetrieben/Offchain Labs)Einzelner Sequenzer (projekt- oder Polygon-betrieben)
DezentralisierungsoptionenJa – kann Konsens anpassen, z. B. mehrere Sequenzer oder zukünftiges Shared SetJa – konfigurierbar; kann externen Konsens oder Prioritätswarteschlangen integrierenJa – konfigurierbar; kann Multi-Validator (AnyTrust-Komitee oder benutzerdefiniert) verwendenJa – kann PoS-Validatoren oder IBFT-Konsens integrieren (Wahl des Projekts)
Permissionless TeilnahmeGeplant: Superchain Shared Sequencer (noch nicht live). Betrugsprüfer sind permissionless auf L1 (jeder kann anfechten).Noch nicht (noch keine öffentliche Sequenzer-Auktion). Gültigkeitsnachweise benötigen keine Herausforderer. Community kann Read-Nodes betreiben, aber keine Blöcke produzieren, es sei denn, sie wird ausgewählt.Im Entstehen: BoLD ermöglicht es jedem, Betrugsbeweise zu validieren. Sequenzer wird weiterhin von der Chain gewählt (könnte in Zukunft über DAO erfolgen).Noch nicht. Sequenzer werden von Chain-Besitzern ernannt oder Validatoren sind permissioned/gestaked. Polygons Roadmap beinhaltet schließlich die Community-Validierung.
ZensurresistenzL1-Warteschlange für Benutzer gewährleistet Aufnahme. Training-Wheels-Governance kann Sequenzer-Fehlverhalten unterbinden.L1-Prioritätswarteschlange für Aufnahme. Validium-Modus benötigt Vertrauen in das DA-Komitee für Datenverfügbarkeit.L1-Posteingang gewährleistet Aufnahme, wenn der Sequenzer blockiert. DAC-Modus erfordert ≥1 ehrliches Komiteemitglied zur Datenbereitstellung.Hängt vom Konsens der Chain ab – z. B. bei Verwendung eines Validatoren-Sets, benötigt ≥2/3 ehrliche. Rollup-Modus-Fallback ist L1-Ethereum-Aufnahme.

Wie zu sehen ist, umfassen Optimism und Arbitrum On-Chain-Fallback-Warteschlangen, was ein starkes Zensurresistenz-Merkmal ist. ZK-basierte Chains verlassen sich darauf, dass ein Sequenzer den Zustand nicht fälschen kann (dank ZK-Beweisen), aber wenn er zensiert, könnte ein neuer Sequenzer von der Governance ernannt werden – ein Bereich, der noch verfeinert wird. Der Trend im Jahr 2025 ist, dass wir wahrscheinlich dezentralere Sequenzer-Pools und möglicherweise Shared Sequencer Networks online gehen sehen werden, die diese RaaS-Frameworks ergänzen. Jedes Projekt forscht aktiv daran: z. B. bauen Astria und andere allgemeine Shared Sequencing Services auf, und OP Labs, Polygon und Offchain haben alle Pläne zur Dezentralisierung der Sequenzer-Rolle erwähnt.

Gebührenmodelle und Ökonomie

Gebührenmodelle bestimmen, wer was in diesen Rollup-Frameworks zahlt und wie die wirtschaftlichen Anreize für Betreiber und das Ökosystem ausgerichtet sind. Wichtige Überlegungen sind: In welchem Token werden Gebühren gezahlt? Wer sammelt die Gebühren? Welche Kosten (L1-Posting, Proving) müssen gedeckt werden? Gibt es Umsatzbeteiligungs- oder Kickback-Vereinbarungen? Wie anpassbar sind die Gebührenparameter?

  • Gas-Token und Gebührenanpassung: Alle verglichenen Frameworks ermöglichen die Anpassung des nativen Gas-Tokens, was bedeutet, dass eine neue Chain entscheiden kann, welche Währung Benutzer für Gebühren zahlen. Standardmäßig wählen Rollups auf Ethereum oft ETH als Gas-Token zur Benutzerfreundlichkeit (Benutzer benötigen keinen neuen Token, um die Chain zu verwenden). Zum Beispiel verwendet Base (OP Stack) ETH für Gas, ebenso wie zkSync Era und Polygon zkEVM. OP Stack unterstützt technisch den Ersatz von ETH durch einen anderen ERC-20, aber im Kontext der OP Superchain gibt es einen Vorstoß, einen Standard beizubehalten (um die Interoperabilität reibungsloser zu gestalten). Tatsächlich entschieden sich einige OP Stack Chains, die ursprünglich einen benutzerdefinierten Token in Betracht zogen, für ETH – z. B. verwendet Worldcoins OP-Chain ETH für Gebühren, obwohl das Projekt seinen eigenen Token WLD hat. Andererseits wurde Arbitrum Orbit ohne Unterstützung für benutzerdefinierte Token gestartet, fügte diese aber aufgrund der Nachfrage schnell hinzu. Jetzt können Orbit Chains ARB oder jeden ERC-20 als Gas verwenden. Die Ape Chain L3 wählte APE Coin als ihre Gaswährung, was diese Flexibilität demonstriert. Polygon CDK lässt Sie ebenfalls den Token definieren; viele Projekte neigen dazu, MATIC zu verwenden, um sich an Polygons Ökosystem anzupassen (und MATIC wird unter Polygon 2.0 auf POL Token aktualisiert), aber es ist nicht erzwungen. zkSync’s ZK Stack unterstützt ebenfalls explizit benutzerdefinierte Basis-Token (die Dokumentation enthält sogar ein Tutorial „Benutzerdefinierter Basis-Token“). Dies ist nützlich für Unternehmens-Chains, die beispielsweise einen Stablecoin oder ihre eigene Coin für Gebühren wünschen. Es ist auch entscheidend für App-Chains, die ihre eigene Token-Ökonomie haben – sie können die Nachfrage nach ihrem Token steigern, indem sie ihn zum Gas-Token machen. Zusammenfassend lässt sich sagen, dass der Gebühren-Token in allen Frameworks vollständig konfigurierbar ist, obwohl die Verwendung eines weit verbreiteten Tokens wie ETH die Benutzerreibung verringern kann.

  • Gebührenerhebung und -verteilung: Im Allgemeinen erhebt der Sequenzer (Blockproduzent) Transaktionsgebühren auf L2/L3. Dies ist ein primärer Anreiz für den Betrieb eines Sequenzers. Zum Beispiel verdient Optimisms Sequenzer alle Gasgebühren, die Benutzer auf Optimism zahlen, muss dann aber für das Posten von Batches an Ethereum bezahlen. Normalerweise nimmt der Sequenzer die vom Benutzer gezahlten L2-Gebühren, zieht die L1-Kosten ab und behält den Rest als Gewinn. Auf einer gut geführten Chain sind die L1-Kosten ein Bruchteil der L2-Gebühren, was eine gewisse Gewinnspanne lässt. Für ZK-Rollups gibt es zusätzliche Kosten: die Generierung des ZK-Beweises. Dies kann erheblich sein (erfordert spezialisierte Hardware oder Cloud-Computing). Derzeit subventionieren einige ZK-Rollup-Betreiber die Proving-Kosten (Ausgabe von VC-Geldern), um die Benutzergebühren während der Wachstumsphase niedrig zu halten. Mit der Zeit werden die Proving-Kosten voraussichtlich mit besseren Algorithmen und Hardware sinken. Framework-seitig: zkSync und Polygon erlauben es dem Sequenzer, etwas mehr zu verlangen, um das Proving abzudecken – und wenn eine Chain einen externen Prover-Dienst verwendet, könnten sie eine Umsatzbeteiligung mit diesem haben. Bemerkenswert ist, dass kein Framework außer OP Superchain eine erzwungene Umsatzbeteiligung auf Protokollebene hat. Das Standard Rollup Revenue-Schema des Optimism Collective verlangt von OP Chains, entweder 2,5 % der Bruttogebühren oder 15 % des Nettogewinns (je nachdem, welcher Wert höher ist) an eine gemeinsame Kasse abzuführen. Dies ist eine freiwillige, aber erwartete Vereinbarung im Rahmen der Superchain-Charta, und keine Smart-Contract-Durchsetzung, aber alle großen OP Stack Chains (Base, opBNB, Worldcoin usw.) haben ihr zugestimmt. Diese Gebühren (bisher über 14.000 ETH) finanzieren öffentliche Güter über die Optimism-Governance. Im Gegensatz dazu erhebt Arbitrum keine Gebühren von Orbit Chains; Orbit ist permissionless zu verwenden. Die Arbitrum DAO könnte in Zukunft möglicherweise eine Umsatzbeteiligung fordern (um ihr eigenes Ökosystem zu finanzieren), aber im Jahr 2025 existiert keine. Polygon CDK erhebt ebenfalls keine Steuer; Polygons Ansatz ist es, Benutzer in sein Ökosystem zu locken (wodurch der MATIC-Wert und die Nutzung steigen), anstatt pro-Chain-Gebühren zu erheben. Polygon-Mitbegründer Sandeep Nailwal sagte explizit, dass AggLayer „keine Miete“ von Chains verlangt. zkSync hat ebenfalls keine Gebührenteilung angekündigt – Matter Labs konzentriert sich wahrscheinlich auf das Wachstum der Nutzung von zkSync Era und Hyperchains, was ihnen indirekt durch Netzwerkeffekte und möglicherweise zukünftigen Token-Wert zugutekommt.

  • L1-Abwicklungskosten: Ein großer Teil des Gebührenmodells ist, wer für L1-Transaktionen zahlt (Daten oder Beweise bereitstellen). In allen Fällen zahlen letztendlich Benutzer, aber der Mechanismus unterscheidet sich. Bei Optimistic Rollups sendet der Sequenzer periodisch Batches von Transaktionen (mit Calldata) an L1. Die Gaskosten für diese L1-Transaktionen werden vom Sequenzer mit ETH bezahlt. Sequenzer berücksichtigen dies jedoch bei der L2-Gaspreisgestaltung. Optimism und Arbitrum haben Gaspreisformeln, die schätzen, wie viel die Calldata einer Transaktion auf L1 kosten wird, und dies in die L2-Gasgebühr einbeziehen (oft als „amortisierte L1-Kosten“ pro Transaktion bezeichnet). Zum Beispiel könnte eine einfache Optimism-Transaktion 21.000 L2-Gas für die Ausführung und vielleicht ein paar hundert zusätzlich für L1-Daten verursachen – die Gebühr des Benutzers deckt beides ab. Wenn die Preisgestaltung falsch eingeschätzt wird, könnte der Sequenzer bei diesem Batch Geld verlieren oder gewinnen, wenn die Nutzung hoch ist. Sequenzer passen die Gebühren typischerweise dynamisch an die L1-Bedingungen an (erhöhen die L2-Gebühren, wenn L1-Gas teuer ist). Bei Arbitrum ist der Mechanismus ähnlich, obwohl Arbitrum separate „L1-Preisgestaltung“- und „L2-Preisgestaltung“-Komponenten hat. Bei zkSync/Polygon (ZK) muss der Sequenzer einen Gültigkeitsnachweis an L1 senden (was eine feste Gasmenge zur Verifizierung kostet) plus entweder Calldata (wenn Rollup) oder State Root (wenn Validium). Die Beweisverifizierungskosten sind normalerweise pro Batch konstant (auf zkSync Era liegen sie in der Größenordnung von einigen hunderttausend Gas), sodass das Gebührenmodell von zkSync diese Kosten auf die Transaktionen verteilt. Sie könnten einen geringen Overhead auf jede Transaktion für das Proving erheben. Bemerkenswert ist, dass zkSync Funktionen wie State Diffs und Komprimierung eingeführt hat, um die veröffentlichten L1-Daten zu minimieren. Polygon zkEVM verwendet ebenfalls rekursive Beweise, um viele Transaktionen in einem Beweis zu bündeln und die Verifizierungskosten zu amortisieren. Wenn eine Chain eine alternative DA (Celestia/Avail) verwendet, zahlt sie anstelle von Ethereum für Calldata diesen DA-Anbieter. Celestia hat zum Beispiel seinen eigenen Gas-Token (TIA), um für Daten-Blobs zu bezahlen. Eine Chain müsste also einen Teil der Gebühren umwandeln, um Celestia-Miner zu bezahlen. Frameworks abstrahieren diese Kosten zunehmend: z. B. könnte eine OP Stack Chain einen Celestia DA-Node über einen Adapter bezahlen und diese Kosten in die Benutzergebühren einbeziehen.

  • Kosten für Benutzer (Finalität und Abhebung): Für Optimistic Rollups (OP Stack, Arbitrum Orbit im Rollup-Modus) sehen sich Benutzer der berüchtigten Challenge-Periode für Abhebungen gegenüber – typischerweise 7 Tage auf Ethereum L1. Dies ist ein Usability-Nachteil, aber die meisten Ökosysteme haben Abhilfemaßnahmen. Schnelle Bridges (Liquiditätsnetzwerke) ermöglichen es Benutzern, ihre L2-Token sofort gegen L1-Token zu tauschen, gegen eine geringe Gebühr, während Arbitrageure die 7 Tage warten. Arbitrum ist für Orbit Chains noch weiter gegangen und arbeitet mit Teams zusammen, um schnelle Abhebungen in nur 15 Minuten über auf Protokollebene integrierte Liquiditätsanbieter zu ermöglichen. Dies bedeutet effektiv, dass Benutzer außer in Worst-Case-Szenarien nicht eine Woche warten müssen. ZK-Rollups haben diese Verzögerung nicht – sobald ein Gültigkeitsnachweis auf L1 akzeptiert wird, ist der Zustand final. So erhalten zkSync- und Polygon-Benutzer eine schnellere Finalität (oft Minuten bis eine Stunde), je nachdem, wie oft Beweise eingereicht werden. Der Kompromiss ist, dass das Proving eine kleine Verzögerung zwischen der Annahme einer Transaktion auf L2 und ihrer Aufnahme in einen L1-Beweis einführen kann (könnte ein paar Minuten dauern). Aber im Allgemeinen bieten ZK-Rollups im Jahr 2025 10–30-minütige Abhebungen an, was eine enorme Verbesserung gegenüber 7 Tagen darstellt. Benutzer zahlen möglicherweise eine etwas höhere Gebühr für sofortige Finalität (um die Prover-Kosten zu decken), aber viele halten es für lohnenswert. Die Gebührenanpassung ist ebenfalls erwähnenswert: Frameworks erlauben benutzerdefinierte Gebührenpläne (wie kostenlose Transaktionen oder Gas-Subventionen), wenn Projekte dies wünschen. Zum Beispiel könnte ein Unternehmen alle Benutzergebühren auf seiner Chain subventionieren, indem es den Sequenzer mit Verlust betreibt (vielleicht für ein Spiel oder eine soziale App). Oder sie könnten ein anderes Gasmodell einrichten (einige haben mit keinem Gas für bestimmte Aktionen oder alternativer Gasabrechnung gespielt). Da die meisten Frameworks auf Ethereum-Äquivalenz abzielen, sind solche tiefgreifenden Änderungen selten, aber mit Code-Modifikation möglich. Arbitrums Stylus könnte eine andere Gebührenmessung für WASM-Verträge ermöglichen (z. B. keine Gebühren für bestimmte Operationen, um die WASM-Nutzung zu fördern). Das Polygon CDK ist Open Source und modular, was bedeutet, dass ein Projekt, das einen neuartigen Gebührenmechanismus (wie Gebührenverbrennung oder dynamische Preisgestaltung) implementieren wollte, dies tun könnte.

Im Wesentlichen streben alle Rollup-Frameworks danach, wirtschaftliche Anreize auszurichten: den Betrieb eines Sequenzers profitabel zu machen (durch Gebühreneinnahmen), die Gebühren für Benutzer durch die Nutzung billigerer DA angemessen zu halten und (optional) einen Teil des Werts in ihr breiteres Ökosystem zu leiten. Optimisms Modell ist einzigartig, da es explizit Einnahmen für öffentliche Güter teilt, während andere auf Wachstum und Token-Ökonomie setzen (z. B. mehr Chains -> mehr MATIC/ETH-Nutzung, was den Wert dieser Token erhöht).

Architektur und Modularität

Alle diese Frameworks rühmen sich einer modularen Architektur, was bedeutet, dass jede Schicht des Stacks (Ausführung, Abwicklung, Konsens, DA, Beweise) austauschbar oder aufrüstbar ist. Lassen Sie uns kurz auf jede eingehen:

  • OP Stack: Als eine Reihe von Modulen aufgebaut, die den Ethereum-Schichten entsprechen – Ausführungs-Engine (OP EVM, abgeleitet von geth), Konsens-/Rollup-Node (op-node), Abwicklungs-Smart-Contracts und bald Betrugsprüfer. Das Designziel des OP Stacks war EVM-Äquivalenz (keine benutzerdefinierten Gaspläne oder Opcode-Änderungen) und einfache Integration mit Ethereum-Tools. Das Bedrock-Upgrade im Jahr 2023 modularisierte Optimisms Stack weiter, wodurch es einfacher wurde, Komponenten auszutauschen (z. B. um ZK-Beweise in Zukunft zu implementieren oder eine andere DA zu verwenden). Tatsächlich ist OP Stack nicht auf optimistische Betrugsbeweise beschränkt – das Team hat erklärt, dass es offen für die Integration von Gültigkeitsnachweisen ist, wenn diese ausgereift sind, wodurch OP Stack Chains im Wesentlichen zu ZK-Rollups werden, ohne die Entwicklererfahrung zu ändern. Das Superchain-Konzept erweitert die Architektur auf mehrere Chains: Standardisierung der Inter-Chain-Kommunikation, Bridging und möglicherweise Shared Sequencing. OP Stack wird mit einem reichhaltigen Satz von Smart Contracts auf L1 (für Einzahlungen, Abhebungen, Betrugsbeweisverifizierung usw.) geliefert, die Chains Out-of-the-Box erben. Es ist effektiv eine Plug-and-Play-L2-Chain-Vorlage – Projekte wie Base wurden durch das Forken der OP Stack-Repos und deren Konfiguration, um auf ihre eigenen Verträge zu verweisen, gestartet.

  • ZK Stack: Der ZK Stack ist das Framework, das zkSync Era und zukünftigen „Hyperchains“ zugrunde liegt. Architektonisch umfasst er die zkEVM-Ausführungsumgebung (eine LLVM-basierte VM, die das Ausführen von Solidity-Code mit minimalen Änderungen ermöglicht), das Prover-System (die Schaltkreise und Beweisgenerierung für Transaktionen), den Sequenzer-Node und die L1-Verträge (die zkSync-Smart-Contracts, die Beweise verifizieren und State Roots verwalten). Modularität zeigt sich darin, wie es den ZK-Beweisschaltkreis von der Ausführung trennt – theoretisch könnte man ein anderes Beweisschema oder sogar eine andere VM einfügen (wenn auch nicht trivial). Der ZK Stack führt die Elastic Chain Architecture mit Komponenten wie ZK Router und ZK Gateway ein. Diese fungieren als Interoperabilitätsschicht, die mehrere ZK Chains verbindet. Es ist ein bisschen wie ein „Internet der ZK-Rollups“-Konzept, bei dem der Router (auf Ethereum) ein Register von Chains führt und Shared Bridging/Liquidität erleichtert, und das Gateway Nachrichten zwischen Chains Off-Chain verarbeitet. Dies ist modular, da eine neue Chain einfach durch die Bereitstellung mit den Standardverträgen in diese Architektur integriert werden kann. ZK Stack umfasst auch Account Abstraction auf Protokollebene (Verträge als Konten, native Meta-Transaktionen), was eine architektonische Wahl zur Verbesserung der UX ist. Ein weiterer modularer Aspekt: Wie in DA besprochen, kann es im Rollup- oder Validium-Modus betrieben werden – im Wesentlichen durch Umlegen eines Schalters in der Konfiguration. Auch hat der Stack eine Vorstellung von Pluggable Consensus für die Sequenzierung (wie zuvor erwähnt). Die Abwicklungsschicht kann Ethereum oder potenziell eine andere Chain sein: zkSyncs Roadmap sah sogar vor, Hyperchains auf L2 abzuwickeln (z. B. ein L3, das Beweise an zkSync Era L2 anstatt an L1 sendet) – tatsächlich starteten sie einen Prototyp namens „ZK Portal“ für L3-Abwicklung auf L2. Dies bietet eine hierarchische Modularität (L3->L2->L1). Insgesamt ist der ZK Stack im Jahr 2025 für Nicht-Matter-Labs-Teams etwas weniger schlüsselfertig (da der Betrieb einer ZK-Chain die Koordination von Provern usw. beinhaltet), aber er ist in fähigen Händen sehr flexibel.

  • Arbitrum Orbit: Arbitrums Architektur basiert auf dem Arbitrum Nitro Stack, der die ArbOS-Ausführungsschicht (Arbitrums Interpretation von EVM mit einigen kleinen Unterschieden), den Sequenzer/Relay, die AnyTrust-Komponente für alternative DA und die Betrugsbeweis-Maschinerie (interaktive Betrugsbeweise) umfasst. Orbit ermöglicht es im Wesentlichen, denselben Stack zu verwenden, aber bestimmte Parameter zu konfigurieren (wie Chain-ID, L2-Genesis-Zustand, Wahl zwischen Rollup und AnyTrust). Modularität: Arbitrum führte Stylus ein, eine neue WASM-kompatible Smart-Contract-Engine, die neben der EVM läuft. Stylus ermöglicht das Schreiben von Verträgen in Rust, C, C++, die zu WASM kompilieren und mit nahezu nativer Geschwindigkeit auf Arbitrum Chains laufen. Dies ist ein optionales Modul – Orbit Chains können Stylus aktivieren oder nicht. Es ist ein Unterscheidungsmerkmal für Arbitrums Stack, das ihn für Hochleistungs-dApps attraktiv macht (z. B. könnten Gaming- oder Handels-Apps einige Logik in Rust für Geschwindigkeit schreiben). Das Datenverfügbarkeits-Modul ist ebenfalls steckbar, wie besprochen (Arbitrum Chains können On-Chain oder DAC wählen). Ein weiteres Modul ist die L1-Abwicklung: Orbit Chains können ihre Beweise entweder an Ethereum (L1) oder an Arbitrum One (L2) senden. Im letzteren Fall sind sie effektiv L3s, die in der Sicherheit von Arbitrum One verankert sind (mit leicht unterschiedlichen Vertrauensannahmen). Viele Orbit Chains werden als L3s gestartet (um Arbitrum Ones niedrigere Gebühren und letztendlich immer noch Ethereum-Sicherheit zu erben). Arbitrums Codebasis ist jetzt vollständig Open Source, und Projekte wie Caldera, Conduit bauen darauf auf, um benutzerfreundliche Bereitstellung zu ermöglichen – sie könnten ihre eigenen Module hinzufügen (wie Überwachung, Chain-Management-APIs). Es ist erwähnenswert, dass Arbitrums Betrugsbeweise historisch nicht permissionless waren (nur Whitelist-Validatoren konnten anfechten), aber mit BoLD ändert sich dieser Teil der Architektur, um jedem den Einstieg zu ermöglichen. Der Betrugsbeweis-Komponente wird also dezentraler (was in gewisser Weise ein modularer Upgrade ist). Man könnte sagen, Arbitrum ist weniger ein „Lego-Kit“ als OP Stack oder Polygon CDK, da Offchain Labs keinen Ein-Klick-Chain-Launcher veröffentlicht hat (obwohl sie eine Orbit-Bereitstellungs-GUI auf GitHub veröffentlichten). Aber funktional ist es modular genug, dass Dritte die Bereitstellung dafür automatisiert haben.

  • Polygon CDK (AggLayer): Polygon CDK wird explizit als „modulares Framework“ für ZK-gestützte Chains beschrieben. Es nutzt Polygons ZK-Proving-Technologie (von Polygon zkEVM, das auf Plonky2 und rekursiven SNARKs basiert). Die Architektur trennt die Ausführungsschicht (die eine EVM ist – speziell ein Fork von Geth, angepasst für zkEVM) von der Prover-Schicht und den Bridge-/Abwicklungsverträgen. Da es modular ist, kann ein Entwickler verschiedene Optionen für jede wählen: z. B. Ausführung – vorerst vermutlich immer EVM (um bestehende Tools zu nutzen), DA – wie besprochen (Ethereum oder andere), Sequenzer-Konsens – Einzel- vs. Multi-Node, Prover – man kann den Prover Typ1 (Gültigkeitsnachweise an Ethereum gesendet) oder Typ2 (Validium-Nachweise) usw. betreiben, und AggLayer-Integration – ja oder nein (AggLayer für Interoperabilität). Polygon stellte sogar eine elegante Oberfläche (unten gezeigt) zur Visualisierung dieser Auswahlmöglichkeiten bereit:

Polygons CDK-Konfigurationsoberfläche, die modulare Auswahlmöglichkeiten veranschaulicht – z. B. Rollups vs. Validium (Skalierungslösung), dezentraler vs. zentralisierter Sequenzer, lokale/Ethereum/Drittanbieter-DA, verschiedene Prover-Typen und ob die AggLayer-Interoperabilität aktiviert werden soll.

Unter der Haube verwendet Polygon CDK zk-Beweise mit Rekursion, um einen hohen Durchsatz und ein dynamisches Validatoren-Set zu ermöglichen. Der AggLayer ist ein aufkommender Teil der Architektur, der Chains für vertrauensloses Messaging und Shared Liquidity verbinden wird. Das CDK ist so aufgebaut, dass zukünftige Verbesserungen in Polygons ZK-Technologie (wie schnellere Beweise oder neue VM-Funktionen) von allen CDK Chains über Upgrades übernommen werden können. Polygon hat ein Konzept von „Typ 1 vs. Typ 2“ zkEVM – Typ 1 ist vollständig Ethereum-äquivalent, Typ 2 ist fast äquivalent mit geringfügigen Änderungen für Effizienz. Eine CDK Chain könnte eine leicht modifizierte EVM für mehr Geschwindigkeit wählen (wobei ein Teil der Äquivalenz geopfert wird) – dies ist eine architektonische Option, die Projekte haben. Insgesamt ist CDK sehr Lego-ähnlich: Man kann eine Chain zusammenstellen, indem man Komponenten wählt, die für ihren Anwendungsfall geeignet sind (z. B. könnte ein Unternehmen Validium + permissioned Sequenzer + private Tx-Sichtbarkeit wählen; eine öffentliche DeFi-Chain könnte Rollup + dezentralisierten Sequenzer + AggLayer für Liquidität aktivieren). Diese Vielseitigkeit hat viele Projekte dazu bewogen, CDK für den Start ihrer eigenen Netzwerke in Betracht zu ziehen.

  • Bilder und Diagramme: Die Frameworks stellen oft visuelle Diagramme ihrer modularen Architektur bereit. Zum Beispiel zeigt die Benutzeroberfläche von zkSync Schalter für Rollup/Validium, L2/L3, zentralisiert/dezentralisiert usw., was die Flexibilität des ZK Stacks hervorhebt:

Ein Beispiel für die Konfiguration einer zkSync „Hyperchain“. Die ZK Stack-Oberfläche ermöglicht die Auswahl des Chain-Modus (Rollup vs. Validium vs. Volition), der Schicht (L2 oder L3), der Transaktionssequenzierung (dezentralisiert, zentralisiert oder geteilt), der Datenverfügbarkeitsquelle (Ethereum, Drittanbieter-Netzwerk oder benutzerdefiniert), der Datensichtbarkeit (öffentliche oder private Chain) und des Gas-Tokens (ETH, benutzerdefiniert oder gaslos). Dieser modulare Ansatz wurde entwickelt, um eine Vielzahl von Anwendungsfällen zu unterstützen, von öffentlichen DeFi-Chains bis hin zu privaten Unternehmens-Chains.

Zusammenfassend lässt sich sagen, dass all diese Stacks hochmodular und aufrüstbar sind, was angesichts des Tempos der Blockchain-Innovation unerlässlich ist. Sie konvergieren in gewisser Weise: OP Stack fügt Gültigkeitsnachweise hinzu, Polygon fügt Shared Sequencing hinzu (OP Stack-Ideen), Arbitrum fügt interoperable L3s hinzu (wie andere), zkSync verfolgt L3s (wie Orbit und OP Stack). Diese gegenseitige Befruchtung bedeutet, dass modulare Frameworks im Jahr 2025 in ihrer Philosophie ähnlicher als unterschiedlich sind – jedes möchte das One-Stop-Toolkit sein, um skalierbare Chains zu starten, ohne das Rad neu zu erfinden.

Entwicklererfahrung und Tools

Ein entscheidender Faktor für die Akzeptanz ist, wie einfach und entwicklerfreundlich diese Frameworks sind. Dazu gehören Dokumentation, SDKs/APIs, CLIs für die Bereitstellung, Überwachungstools und die Lernkurve für Entwickler:

  • OP Stack – Entwicklererfahrung: Optimism’s OP Stack profitiert davon, EVM-äquivalent zu sein, sodass Ethereum-Entwickler vertraute Tools (Remix, Hardhat, Truffle, Solidity, Vyper) ohne Änderungen verwenden können. Smart Contracts, die auf einer OP-Chain bereitgestellt werden, verhalten sich genau wie auf L1. Dies senkt die Lernkurve drastisch. Optimism bietet eine umfassende Dokumentation: Die offiziellen Optimism-Dokumente enthalten Abschnitte zum OP Stack, zum Betrieb eines L2-Nodes und sogar ein „OP Stack from scratch“-Tutorial. Es gibt auch von der Community verfasste Anleitungen (zum Beispiel QuickNodes Schritt-für-Schritt-Anleitung zur Bereitstellung eines Optimism L2 Rollups). In Bezug auf Tools hat OP Labs den op-node-Client (für den Rollup-Node) und op-geth (Ausführungs-Engine) veröffentlicht. Um eine Chain zu starten, muss ein Entwickler diese typischerweise konfigurieren und die L1-Verträge (Standard Bridge usw.) bereitstellen. Dies war nicht trivial, wird aber mit Anbieterdiensten einfacher. Deployment-as-a-Service: Unternehmen wie Caldera, Conduit und Infura/Alchemy bieten verwaltete OP Stack Rollup-Bereitstellungen an, die einen Großteil der DevOps abstrahieren. Für die Überwachung können, da eine OP Stack Chain im Wesentlichen eine geth-Chain plus ein Rollup-Koordinator ist, Standard-Ethereum-Überwachungstools (ETH-Metrik-Dashboards, Block-Explorer wie Etherscan/Blockscout) verwendet werden. Tatsächlich unterstützt Etherscan OP Stack Chains wie Optimism und Base und bietet vertraute Block-Explorer-Oberflächen. Entwickler-Tools speziell für OP Chains umfassen das Optimism SDK für Bridging (Erleichterung von Einzahlungen/Abhebungen in Apps) und Bedrocks Integration mit Ethereum JSON-RPC (sodass Tools wie MetaMask einfach durch Netzwerkwechsel funktionieren). Der OP Stack-Code ist MIT-lizenziert und lädt Entwickler zum Forken und Experimentieren ein. Viele taten dies – z. B. nutzte das Team von BNB Chain den OP Stack, um opBNB mit eigenen Änderungen an Konsens und Gas-Token zu erstellen (sie verwenden BNB-Gas auf opBNB). Die Einhaltung der Ethereum-Standards durch den OP Stack macht die Entwicklererfahrung wohl zur reibungslosesten unter diesen: im Wesentlichen „Ethereum, aber billiger“ aus Sicht eines Vertragsentwicklers. Die wichtigsten neuen Fähigkeiten, die benötigt werden, betreffen den Betrieb der Infrastruktur (für diejenigen, die eine Chain starten) und das Verständnis der Nuancen des Cross-Chain-Bridgings. Optimisms Community und Support (Discord, Foren) sind aktiv, um neuen Chain-Teams zu helfen. Darüber hinaus hat Optimism Ökosystem-Tools wie Magi (einen alternativen Rust-Rollup-Client) finanziert, um den Stack zu diversifizieren und ihn für Entwickler robuster zu machen.

  • zkSync ZK Stack – Entwicklererfahrung: Auf der Seite der Vertragsentwicklung bietet zkSync’s ZK Stack eine zkEVM, die eine hohe Kompatibilität aufweisen soll, aber derzeit nicht zu 100 % Bytecode-äquivalent ist. Sie unterstützt Solidity- und Vyper-Verträge, es gibt jedoch subtile Unterschiede (z. B. bestimmte Precompiles oder Gaskosten). Dennoch hat Matter Labs einen LLVM-Compiler entwickelt, der Solidity nimmt und zkEVM-Bytecode erzeugt, sodass die meisten Solidity-Codes mit geringfügigen oder keinen Änderungen funktionieren. Sie unterstützen auch nativ Account Abstraction, die Entwickler nutzen können, um gaslose Transaktionen, Multi-Sig-Wallets usw. einfacher zu erstellen als auf Ethereum (keine Notwendigkeit für ERC-4337). Die Entwicklerdokumentation für zkSync ist umfassend (docs.zksync.io) und behandelt die Bereitstellung von Verträgen, die Verwendung der Hyperchain CLI (falls vorhanden) und die Konfiguration einer Chain. Der Betrieb eines ZK-Rollups ist jedoch von Natur aus komplexer als der eines optimistischen Rollups – man benötigt ein Proving-Setup. Der ZK Stack stellt die Prover-Software bereit (z. B. die GPU-Prover für zkSyncs Schaltkreise), aber ein Chain-Operator muss Zugang zu ernsthafter Hardware oder Cloud-Diensten haben, um kontinuierlich Beweise zu generieren. Dies ist eine neue DevOps-Herausforderung; um sie zu mildern, entstehen einige Unternehmen, die Prover-Dienste oder sogar Proof-as-a-Service anbieten. Wenn ein Entwickler seine eigenen Prover nicht betreiben möchte, kann er dies möglicherweise auslagern (mit Vertrauens- oder kryptoökonomischen Zusicherungen). Tools: zkSync bietet standardmäßig ein Bridge- und Wallet-Portal (das zkSync Portal), das für eine neue Chain geforkt werden kann, um Benutzern eine Benutzeroberfläche zum Verschieben von Assets und Anzeigen von Konten zu bieten. Für die Block-Exploration wurde Blockscout an zkSync angepasst, und Matter Labs hat einen eigenen Block-Explorer für zkSync Era entwickelt, der wahrscheinlich für neue Chains verwendet werden könnte. Die Existenz des ZK Gateway und Routers bedeutet, dass ein Entwickler, wenn er sich daran anschließt, Out-of-the-Box-Interoperabilität mit anderen Chains erhält – aber er muss die Standards von Matter Labs befolgen. Insgesamt ist das Bauen auf zkSync für einen Smart-Contract-Entwickler nicht allzu schwierig (nur Solidity, mit vielleicht geringfügigen Unterschieden wie gasleft() könnte sich aufgrund des Fehlens tatsächlicher Ethereum-Gaskosten leicht anders verhalten). Aber für einen Chain-Operator hat der ZK Stack eine steilere Lernkurve als OP Stack oder Orbit. Im Jahr 2025 konzentriert sich Matter Labs auf die Verbesserung dessen – zum Beispiel die Vereinfachung des Startprozesses einer Hyperchain, möglicherweise die Bereitstellung von Skripten oder Cloud-Images, um den gesamten Stack hochzufahren. Es gibt auch eine aufstrebende Community von Entwicklern rund um den ZK Stack; z. B. ist die ZKSync Community Edition eine Initiative, bei der Community-Mitglieder Test-L3-Chains betreiben und Tipps austauschen. Wir sollten beachten, dass die Sprachunterstützung für zkSyncs Ökosystem erweitert werden könnte – sie haben über die Zulassung anderer Sprachen über die LLVM-Pipeline gesprochen (z. B. einen Rust-zu-zkEVM-Compiler in der Zukunft), aber Solidity ist derzeit die Hauptsprache. Zusammenfassend lässt sich sagen, dass die Entwicklererfahrung von zkSync: großartig für DApp-Entwickler (nahezu Ethereum-ähnlich), moderat für Chain-Launcher (müssen Prover und neue Konzepte wie Validiums handhaben).

  • Arbitrum Orbit – Entwicklererfahrung: Für Solidity-Entwickler ist Arbitrum Orbit (und Arbitrum One) auf Bytecode-Ebene vollständig EVM-kompatibel (Arbitrum Nitro verwendet eine von geth abgeleitete Ausführung). Daher ist die Bereitstellung und Interaktion mit Verträgen auf einer Arbitrum-Chain genau wie auf Ethereum (mit einigen kleinen Unterschieden wie leicht unterschiedlichem L1-Blocknummerzugriff, ChainID usw., aber nichts Großes). Wo Arbitrum herausragt, ist Stylus – Entwickler können Smart Contracts in Sprachen wie Rust, C, C++ (kompiliert zu WebAssembly) schreiben und diese neben EVM-Verträgen bereitstellen. Dies öffnet die Blockchain-Entwicklung einem breiteren Pool von Programmierern und ermöglicht Hochleistungs-Anwendungsfälle. Zum Beispiel könnte eine algorithmisch intensive Logik für Geschwindigkeit in C geschrieben werden. Stylus befindet sich noch in der Beta-Phase auf Arbitrum Mainnet, aber Orbit Chains können damit experimentieren. Dies ist ein einzigartiger Vorteil für die Entwicklererfahrung, obwohl diejenigen, die Stylus verwenden, neue Tools lernen müssen (z. B. Rust-Toolchains und Arbitrums Bibliotheken für die Schnittstelle von WASM mit der Chain). Die Arbitrum-Dokumentation bietet Anleitungen zur Verwendung von Stylus und sogar zum Schreiben von Rust-Smart-Contracts. Für den Start einer Orbit Chain hat Offchain Labs Devnet-Skripte und eine Orbit-Bereitstellungs-UI bereitgestellt. Der Prozess ist etwas technisch: Man muss einen Arbitrum-Node mit --l3-Flags einrichten (wenn man einen L3 startet) und die Genesis, Chain-Parameter usw. konfigurieren. QuickNode und andere haben Anleitungen veröffentlicht („How to deploy your own Arbitrum Orbit chain“). Darüber hinaus bedeuten Orbit-Partnerschaften mit Caldera, AltLayer und Conduit, dass diese Drittanbieter einen Großteil der schweren Arbeit übernehmen. Ein Entwickler kann im Wesentlichen ein Formular ausfüllen oder einen Assistenten mit diesen Diensten ausführen, um eine angepasste Arbitrum-Chain zu erhalten, anstatt den Nitro-Code manuell zu ändern. In Bezug auf Debugging und Überwachung können Arbitrum Chains Arbiscan (für diejenigen, die es haben) oder Community-Explorer verwenden. Es gibt auch Grafana/Prometheus-Integrationen für Node-Metriken. Eine Komplexität ist das Betrugsbeweis-System – Entwickler, die eine Orbit Chain starten, sollten sicherstellen, dass es Validatoren gibt (vielleicht sie selbst oder vertrauenswürdige andere), die die Off-Chain-Validatoren-Software ausführen, um nach Betrug zu suchen. Offchain Labs stellt wahrscheinlich Standard-Skripte für den Betrieb solcher Validatoren bereit. Da Betrugsbeweise jedoch selten ausgelöst werden, geht es mehr darum, den Sicherheitsprozess zu etablieren. Arbitrums große Entwickler-Community (Projekte, die auf Arbitrum One aufbauen) ist ein Vorteil – Ressourcen wie Tutorials, StackExchange-Antworten usw. gelten oft auch für Orbit. Arbitrum ist auch bekannt für seine starken Entwickler-Bildungsbemühungen (Workshops, Hackathons), die sich vermutlich auf diejenigen erstrecken, die an Orbit interessiert sind.

  • Polygon CDK – Entwicklererfahrung: Polygon CDK ist neuer (Mitte/Ende 2023 angekündigt), baut aber auf bekannten Komponenten auf. Für Entwickler, die Verträge schreiben, verwenden Polygon CDK Chains eine zkEVM, die der EVM von Ethereum entsprechen soll (Polygons Typ 2 zkEVM ist nahezu identisch mit einigen Randfällen). Daher sind Solidity und Vyper die bevorzugten Sprachen, mit voller Unterstützung für Standard-Ethereum-Entwicklungstools. Wenn Sie auf Polygon zkEVM oder Ethereum bereitgestellt haben, können Sie auf einer CDK Chain ähnlich bereitstellen. Die Herausforderung liegt eher auf der Seite der Chain-Operationen. Polygons CDK ist Open Source auf GitHub und wird mit Dokumentation zur Konfiguration einer Chain geliefert. Es bietet wahrscheinlich ein Befehlszeilentool zum Gerüstbau einer neuen Chain (ähnlich wie man Cosmos SDKs starport oder Substrates Node-Vorlage verwenden könnte). Polygon Labs hat investiert, um die Einrichtung so einfach wie möglich zu gestalten – ein Zitat: „Starten Sie einen hochdurchsatzfähigen ZK-gestützten Ethereum L2 so einfach wie die Bereitstellung eines Smart Contracts“. Obwohl vielleicht optimistisch, deutet dies darauf hin, dass Tools oder Skripte existieren, um die Bereitstellung zu vereinfachen. Tatsächlich gab es frühe Anwender wie Immutable (für Gaming) und OKX (Exchange Chain), die mit Polygon zusammengearbeitet haben, um CDK Chains zu starten, was auf einen ziemlich reibungslosen Prozess mit der Unterstützung des Polygon-Teams hindeutet. Das CDK enthält SDKs und Bibliotheken zur Interaktion mit der Bridge (für Einzahlungen/Abhebungen) und zur Aktivierung von AggLayer, falls gewünscht. Die Überwachung einer CDK Chain kann Polygons Block-Explorer (Polygonscan) nutzen, wenn sie ihn integrieren, oder Blockscout. Polygon ist auch bekannt für robuste SDKs für Gaming und Mobile (z. B. Unity SDKs) – diese können auf jeder Polygon-basierten Chain verwendet werden. Entwicklerunterstützung ist ein großer Schwerpunkt: Polygon veranstaltet regelmäßig Akademien, Stipendien, Hackathons, und ihr Developer Relations-Team hilft Projekten persönlich. Ein Beispiel für die Entwicklererfahrung im Unternehmen: Libre, eine mit CDK gestartete institutionelle Chain, hatte vermutlich benutzerdefinierte Anforderungen – Polygon konnte Dinge wie Identitätsmodule oder Compliance-Funktionen auf dieser Chain unterbringen. Dies zeigt, dass das CDK für spezifische Anwendungsfälle von Entwicklern mit Hilfe des Frameworks erweitert werden kann. Was Lernmaterialien angeht, so bieten Polygons Dokumentationsseite und Blog Anleitungen zur CDK-Nutzung, und da CDK im Wesentlichen die Evolution ihres zkEVM ist, können diejenigen, die mit dem Design von Polygons zkEVM vertraut sind, es schnell aufnehmen. Ein weiterer Tooling-Aspekt: Cross-Chain-Tools – da viele Polygon CDK Chains koexistieren werden, bietet Polygon den AggLayer für Messaging, fördert aber auch die Verwendung von Standard-Cross-Chain-Messaging wie LayerZero (tatsächlich integrierte Raribles Orbit Chain LayerZero für NFT-Transfers, und Polygon Chains können dies auch). So haben Entwickler Optionen, Interoperabilitäts-Plugins einfach zu integrieren. Alles in allem zielt die CDK-Entwicklererfahrung darauf ab, schlüsselfertig zu sein, um Ethereum-Level-Chains mit ZK-Sicherheit zu starten, und profitiert von Polygons jahrelanger L2-Erfahrung.

Zusammenfassend lässt sich sagen, dass sich die Entwicklererfahrung für den Start benutzerdefinierter Chains dramatisch verbessert hat: Was einst ein ganzes Team von Protokoll-Ingenieuren erforderte, kann jetzt mit geführten Frameworks und Unterstützung erledigt werden. Optimisms und Arbitrums Angebote nutzen die Vertrautheit (EVM-Äquivalenz), zkSync und Polygon bieten modernste Technologie mit zunehmender Benutzerfreundlichkeit, und alle haben wachsende Ökosysteme von Drittanbieter-Tools, um die Entwicklung zu vereinfachen (von Block-Explorern über Überwachungs-Dashboards bis hin zu DevOps-Skripten). Die Qualität der Dokumentation ist im Allgemeinen hoch – offizielle Dokumente sowie Community-Anleitungen (Medium-Artikel, QuickNode-/Alchemy-Anleitungen) decken viel ab. Es gibt immer noch eine nicht-triviale Lernkurve, um vom Smart-Contract-Entwickler zum „Rollup-Operator“ zu werden, aber es wird einfacher, da Best Practices entstehen und die Community der Rollup-Builder wächst.

Ökosystem-Unterstützung und Markteinführungsstrategien

Eine Technologie zu entwickeln ist eine Sache; ein Ökosystem aufzubauen eine andere. Jedes dieser Frameworks wird von einer Organisation oder Community unterstützt, die durch Zuschüsse, Finanzierung, Marketing und Partnerschaftsunterstützung in Wachstum investiert. Hier vergleichen wir ihre Ökosystem-Unterstützungsstrategien – wie sie Entwickler und Projekte anziehen und wie sie diesen Projekten zum Erfolg verhelfen:

  • OP Stack (Optimism) Ökosystem: Optimism hat eine robuste Ökosystemstrategie, die sich auf sein Optimism Collective und das Ethos der Finanzierung öffentlicher Güter konzentriert. Sie waren Pioniere der Retroaktiven Finanzierung öffentlicher Güter (RPGF) – die Verwendung des OP-Token-Schatzes, um Entwickler und Projekte zu belohnen, die dem Ökosystem zugutekommen. Durch mehrere RPGF-Runden hat Optimism Millionen an Finanzmitteln an Infrastrukturprojekte, Entwickler-Tools und Anwendungen auf Optimism verteilt. Jedes Projekt, das mit OP Stack baut (insbesondere wenn es mit der Superchain-Vision übereinstimmt), ist berechtigt, Zuschüsse vom Collective zu beantragen. Darüber hinaus kann die Optimism-Governance Anreizprogramme genehmigen (bereits 2022 gab es einen Airdrop und einen Governance-Fonds, den Projekte nutzen konnten, um OP-Belohnungen an Benutzer zu verteilen). Im Jahr 2024 etablierte Optimism das Superchain Revenue Sharing-Modell, bei dem jede OP Chain einen kleinen Teil der Gebühren an eine gemeinsame Kasse abführt. Dies erzeugt einen Kreislauf: Je mehr Chains (wie Base, opBNB, Worldcoins Chain usw.) genutzt werden, desto mehr öffentliche Güter finanzieren sie gemeinsam, die den OP Stack verbessern, was wiederum mehr Chains anzieht. Es ist ein Positive-Sum-Ansatz, der einzigartig für Optimism ist. Auf der Markteinführungsseite hat Optimism aktiv Partnerschaften mit großen Unternehmen geschlossen: Die Gewinnung von Coinbase zum Aufbau von Base war eine enorme Validierung des OP Stacks, und Optimism Labs bot Coinbase während dieses Prozesses technische Hilfe und Unterstützung. Ähnlich haben sie mit dem Team von Worldcoin zusammengearbeitet, und Celos Migration zu einem OP Stack L2 erfolgte in Absprache mit OP Labs. Optimism betreibt viel Entwickler-Outreach – von der Durchführung von Hackathons (oft in Kombination mit ETHGlobal-Events) bis zur Pflege eines Developer Hubs mit Tutorials. Sie investieren auch in Tools: z. B. die Finanzierung von Teams zum Aufbau alternativer Clients, Überwachungstools und die Bereitstellung eines offiziellen Faucets und einer Block-Explorer-Integration für neue Chains. Marketingtechnisch prägte Optimism den Begriff „Superchain“ und fördert aktiv die Vision vieler Chains, die sich unter einem interoperablen Dach vereinen, was Projekte angezogen hat, die Teil einer breiteren Erzählung sein wollen, anstatt einer isolierten Appchain. Es gibt auch den Reiz der Shared Liquidity: Mit dem bevorstehenden OPCraft (Superchain-Interoperabilität) können Apps auf einer OP Chain problemlos mit einer anderen interagieren, was es attraktiv macht, eine Chain zu starten, die keine Insel ist. Im Wesentlichen geht es bei OP Stacks Ökosystem-Spiel um Community und Zusammenarbeit – treten Sie der Superchain bei, erhalten Sie Zugang zu einem Pool von Benutzern (über einfaches Bridging), Finanzierung und kollektivem Branding. Sie haben sogar ein „Rollup Passport“-Konzept erstellt, bei dem Benutzer eine einheitliche Identität über OP Chains hinweg haben können. All diese Bemühungen senken die Hürde für neue Chains, Benutzer und Entwickler zu finden. Schließlich bedeutet Optimisms eigene Benutzerbasis und Reputation (als einer der Top-L2s), dass jede OP Stack Chain davon profitieren kann (Base tat dies, indem es sich beispielsweise als Teil des Optimism-Ökosystems bewarb).

  • zkSync (ZK Stack/Hyperchains) Ökosystem: Matter Labs (das Team hinter zkSync) sicherte sich große Finanzierungsrunden (über 200 Millionen US-Dollar), um sein Ökosystem zu befeuern. Sie haben Fonds wie den zkSync Ecosystem Fund eingerichtet, oft in Zusammenarbeit mit VCs, um in Projekte zu investieren, die auf zkSync Era aufbauen. Speziell für den ZK Stack haben sie begonnen, das Konzept der Hyperchains in Communities zu fördern, die ihre eigene Chain benötigen. Eine Strategie ist die Ausrichtung auf bestimmte Vertikalen: zum Beispiel Gaming. zkSync hat hervorgehoben, wie ein Spielestudio seine eigene Hyperchain starten könnte, um Anpassbarkeit zu erhalten und dennoch mit Ethereum verbunden zu sein. Sie bieten wahrscheinlich den ersten Partnern enge Unterstützung (ähnlich wie Polygon bei einigen Unternehmen). Die Erwähnung in dem Zeeve-Artikel über eine „Schweizer Bank; die größte Bank der Welt“, die an ZK Stack interessiert ist, deutet darauf hin, dass Matter Labs Unternehmensanwendungsfälle umwirbt, die Privatsphäre benötigen (ZK-Beweise können Korrektheit gewährleisten, während einige Daten privat bleiben, ein großer Vorteil für Institutionen). Wenn zkSync eine große Unternehmens-Chain landet, würde dies ihre Glaubwürdigkeit stärken. Die Entwicklerunterstützung auf zkSync ist recht stark: Sie betreiben Acceleratoren (z. B. wurde ein Programm mit dem Blockchain Founders Fund angekündigt), Hackathons (oft ZK-thematische) und haben eine aktive Community auf ihrem Discord, die technische Hilfe leistet. Obwohl zkSync (Stand 2025) keinen Live-Token für Governance oder Anreize hat, gibt es Spekulationen über einen solchen, und Projekte könnten zukünftige Anreizprogramme erwarten. Matter Labs hat auch an der Bridge-Unterstützung gearbeitet: Sie haben sich mit großen Bridges wie Across, LayerZero, Wormhole zusammengetan, um sicherzustellen, dass Assets und Nachrichten problemlos zu und von zkSync und allen Hyperchains bewegt werden können. Tatsächlich integrierte Across Protocol den ZK Stack von zkSync und rühmte sich der Unterstützung über „alle wichtigen L2-Frameworks“ hinweg. Dieser Fokus auf Interoperabilität bedeutet, dass ein Projekt, das eine Hyperchain startet, problemlos mit dem Ethereum-Mainnet und anderen L2s verbunden werden kann, was entscheidend ist, um Benutzer anzuziehen (niemand möchte isoliert sein). Marketingtechnisch bewirbt zkSync den Slogan „Web3 ohne Kompromisse“ und betont, als Erster im ZK-Mainnet zu sein. Sie veröffentlichen Roadmaps (ihr Roadmap-Blog 2025), um die Begeisterung hochzuhalten. Wenn wir Ökosystemfonds betrachten: Neben direkten Matter Labs-Zuschüssen gibt es auch die Ethereum Foundation und andere ZK-fokussierte Fonds, die die zkSync-Entwicklung aufgrund der allgemeinen Bedeutung der ZK-Technologie bevorzugen. Eine weitere Strategie: zkSync ist Open Source und neutral (keine Lizenzgebühren), was Projekte anspricht, die möglicherweise davor zurückschrecken, sich an ein stärker zentralisiertes Ökosystem anzupassen. Der ZK Stack versucht, sich als die Wahl der Dezentralisierer zu positionieren – z. B. durch Hervorhebung vollständiger Dezentralisierung und ohne Stützräder, während OP Stack und andere in der Praxis immer noch eine gewisse Zentralisierung aufweisen. Die Zeit wird zeigen, ob das ankommt, aber sicherlich hat zkSync innerhalb der Ethereum-Community Unterstützer, die einen vollständig vertrauenslosen Stack wünschen. Schließlich haben Matter Labs und BitDAOs Windranger eine gemeinsame Initiative namens „ZK DAO“, die Kapital oder Anreize für die ZK Stack-Adoption bereitstellen könnte. Insgesamt sind zkSyncs Ökosystembemühungen eine Mischung aus technisch überlegener Botschaft (ZK ist die Zukunft) und dem Aufbau praktischer Brücken (sowohl im übertragenen als auch im wörtlichen Sinne) für Projekte, die an Bord kommen möchten.

  • Arbitrum Orbit Ökosystem: Arbitrum Orbit erlebte nach seiner formellen Einführung Mitte 2023 einen Anstieg des Interesses. Ende 2023 wurden rund 18 Orbit Chains öffentlich bekannt gegeben, und Offchain Labs gab an, dass über 50 in Arbeit seien – was auf erhebliches Interesse hindeutet. Um dies zu fördern, verfolgte Offchain Labs einige Strategien. Erstens, Partnerschaften mit RaaS-Anbietern: Sie erkannten, dass nicht jedes Team die Rollup-Infrastruktur handhaben kann, und beauftragten daher Caldera, Conduit und AltLayer, um sie zu optimieren. Diese Partner haben oft ihre eigenen Förder- oder Anreizprogramme (manchmal von Arbitrum mitgesponsert), um Projekte anzulocken. Zum Beispiel könnte es einen Arbitrum x AltLayer-Zuschuss für Gaming-Chains geben. Zweitens bietet Offchain Labs direkte technische Unterstützung und Co-Entwicklung für Schlüsselprojekte. Der Fall der Xai Chain ist bezeichnend: Es handelt sich um einen Gaming-L3, bei dem Offchain Labs die Chain mitentwickelt und fortlaufende technische und sogar Marketingunterstützung bietet. Sie haben Xai im Grunde inkubiert, um das Potenzial von Orbit im Gaming zu demonstrieren. Ähnlich wurde Raribles RARI NFT Chain mit vielen Partnern (Gelato für Gasless, LayerZero für Cross-Chain-NFTs usw.) integriert, vermutlich unter Arbitrums Anleitung. Offchain Labs nutzt manchmal auch seine Kriegskasse (Arbitrum DAO verfügt über einen riesigen Schatz an ARB-Token), um Initiativen zu finanzieren. Obwohl die Arbitrum DAO getrennt ist, kann Offchain Labs mit ihr in Ökosystemfragen koordinieren. Wenn beispielsweise eine Orbit Chain den ARB-Token stark nutzt oder Arbitrum zugutekommt, könnte die DAO Zuschüsse beschließen. Ein direkterer Ansatz: Offchain Labs startete Arbitrum Orbit Challenge-Hackathons und Preise, um Entwickler zu ermutigen, L3s zu erstellen. Zum Marketing: Arbitrums Marke ist entwicklerorientiert, und sie bewerben Orbits Vorteile wie Stylus (schnelle, mehrsprachige Verträge) und keine 7-tägige Abhebung (mit schneller Bridging). Sie heben auch erfolgreiche Beispiele hervor: z. B. kündigte Treasure DAOs Bridgeworld eine Orbit Chain an usw. Ein weiterer Unterstützungsaspekt: Liquidität und DeFi-Integration. Arbitrum arbeitet mit Protokollen zusammen, damit Sie, wenn Sie eine Orbit Chain starten, problemlos Liquidität von Arbitrum One nutzen können (über native Bridging oder LayerZero). Je einfacher es ist, Assets und Benutzer auf Ihre neue Chain zu bringen, desto wahrscheinlicher ist Ihr Erfolg. Arbitrum hat eine sehr große, aktive Community (auf Reddit, Discord usw.), und durch die Erweiterung auf Orbit können neue Chains bestehende Arbitrum-Benutzer ansprechen (zum Beispiel könnte ein Arbitrum-Benutzer einen Airdrop auf einer neuen Orbit Chain erhalten, um sie auszuprobieren). Zusammenfassend lässt sich sagen, dass Arbitrums Ökosystemstrategie für Orbit darin besteht, ihre L2-Dominanz zu nutzen – wenn Sie einen L3 bauen, sind Sie effektiv eine Erweiterung des größten L2, sodass Sie an diesem Netzwerkeffekt teilhaben können. Offchain Labs beseitigt aktiv Hürden (technische und Liquiditätshürden) und hilft sogar direkt beim Aufbau einiger früher L3s, um Präzedenzfälle für andere zu schaffen.

  • Polygon CDK (AggLayer) Ökosystem: Polygon war einer der aggressivsten in der Ökosystem- und Geschäftsentwicklung. Sie verfolgen einen mehrstufigen Ansatz:

    • Zuschüsse und Fonds: Polygon hat vor einiger Zeit einen 100-Millionen-Dollar-Ökosystemfonds eingerichtet und in Hunderte von Projekten investiert. Sie hatten auch spezifische vertikale Fonds (z. B. Polygon Gaming Fund, Polygon DeFi Fund). Für CDK Chains kündigte Polygon Anreize an, wie die Übernahme eines Teils der Kosten für den Betrieb einer Chain oder die Bereitstellung von Liquiditätsunterstützung. Die CoinLaw-Statistiken erwähnen „Mehr als 190 dApps nutzen Polygon CDK, um ihre eigenen Chains aufzubauen“ – was impliziert, dass Polygon eine riesige Pipeline von Projekten erhalten hat (wahrscheinlich viele noch in Entwicklung). Sie haben diesen Teams wahrscheinlich Zuschüsse oder Ressourcen-Sharing angeboten.
    • Onboarding von Unternehmen und Institutionen: Polygons BizDev-Team hat große Unternehmen (Starbucks, Reddit, Nike, Disney für NFTs auf Polygon POS) an Bord geholt. Jetzt mit CDK werben sie bei Unternehmen, dedizierte Chains zu starten. Z. B. Immutable (Gaming-Plattform), die sich mit CDK zusammenschließt, um Spielestudios die Möglichkeit zu geben, ihre eigenen ZK-Rollups zu starten, die mit Immutable und Polygon-Liquidität verbunden sind, Franklin Templeton startet einen Fonds auf Polygon und Walmarts Test einer Lieferkette auf einer privaten Polygon-Chain. Polygon bietet diesen Partnern erstklassigen Support: technische Beratung, Entwicklung kundenspezifischer Funktionen (Datenschutz, Compliance) und Co-Marketing. Die Einführung von Libre (von JP Morgan/Siemens), das auf Polygon CDK basiert, zeigt, wie sie Finanzinstitutionen mit speziellen Bedürfnissen bedienen.
    • Markteinführung und Interoperabilität: Polygon schafft den AggLayer als Interoperabilitäts- und Liquiditätshub, der alle Polygon Chains verbindet. Das bedeutet, wenn Sie eine CDK Chain starten, sind Sie nicht allein – Sie werden Teil von „Polygon 2.0“, einer Konstellation von Chains mit vereinheitlichter Liquidität. Sie versprechen Dinge wie Ein-Klick-Token-Transfer zwischen CDK Chains und Ethereum (über AggLayer). Sie erheben auch keine Protokollgebühren (keine Miete), was sie als Wettbewerbsvorteil gegenüber, sagen wir, Optimisms Gebührenteilung anpreisen. Polygons Marketing hebt hervor, dass der Start einer CDK Chain Ihnen „das Beste aus beiden Welten“ bieten kann: benutzerdefinierte Souveränität und Leistung plus Zugang zur großen Benutzerbasis und Entwicklerbasis von Polygon/Ethereum. Sie zitieren oft, dass Polygon (POS+zkEVM) zusammen über 30 % aller L2-Transaktionen verarbeitet hat, um potenziellen Chain-Buildern zu versichern, dass der Benutzerfluss auf Polygon riesig ist.
    • Entwicklerunterstützung: Polygon veranstaltet vielleicht die meisten Hackathons und DevRel-Events im Blockchain-Bereich. Sie haben eine dedizierte Polygon University, Online-Kurse und sponsern häufig ETHGlobal und andere Hackathons mit Herausforderungen rund um die Nutzung von CDK, zkEVM usw. So können Entwickler Preise gewinnen, indem sie Prototypen von CDK Chains oder Cross-Chain-dApps bauen. Sie pflegen auch eine starke Präsenz in Entwickler-Communities und bieten schnelle Unterstützung (der Polygon Discord hat Kanäle für technische Fragen, wo Kernentwickler antworten).
    • Community und Governance: Polygon geht mit einem neuen POL-Token und einer Community-Governance, die alle Chains umfasst, zu Polygon 2.0 über. Dies könnte bedeuten, dass Community-Treasuries oder Anreizprogramme für CDK Chains gelten. Zum Beispiel könnte es ein Polygon Ecosystem Mining-Programm geben, bei dem Liquiditäts-Mining-Belohnungen für Projekte angeboten werden, die auf neuen CDK Chains bereitgestellt werden, um die Nutzung anzukurbeln. Die Idee ist, sicherzustellen, dass neue Chains keine Geisterstädte sind.
    • Erfolgsgeschichten: Bereits mehrere CDK Chains sind live oder angekündigt: OKX’s OKB Chain (X Layer), Gnosis Pay’s Chain, Astar’s zkEVM, Palm Network migriert, GameSwift (Gaming Chain) usw. Polygon veröffentlicht diese aktiv und teilt Wissen daraus mit anderen.

Insgesamt lautet Polygons Strategie: „Wir werden alles tun, um Ihnen zum Erfolg zu verhelfen, wenn Sie auf unserem Stack aufbauen.“ Dazu gehören finanzielle Anreize, technisches Personal, Marketingpräsenz (Vorträge auf Konferenzen, Pressemitteilungen auf CoinTelegraph, wie wir gesehen haben) und die Integration in ein größeres Ökosystem. Es ist ein sehr geschäftsentwicklungsgetriebener Ansatz zusätzlich zur Basis-Entwickler-Community, der Polygons eher unternehmerischen Stil im Vergleich zu den anderen widerspiegelt.

Um die Ökosystem-Unterstützung zusammenzufassen: Alle diese Frameworks verstehen, dass das Anziehen von Entwicklern und Projekten mehr als nur Technologie erfordert – es braucht Finanzierung, Betreuung und Integration in eine größere Erzählung. Optimism fördert eine kollaborative, auf öffentliche Güter ausgerichtete Erzählung mit fairer Umsatzbeteiligung. zkSync treibt den technologischen Fortschritt voran und wird wahrscheinlich Anreize ankündigen, die mit einem zukünftigen Token verbunden sind. Arbitrum nutzt seine bestehende Dominanz und bietet Partnernetzwerke, um den Start zu erleichtern, plus möglicherweise die tiefste DeFi-Liquidität, die angezapft werden kann. Polygon geht wohl am weitesten, um den Weg für Krypto-native und Unternehmensakteure zu ebnen, indem es Chains effektiv subventioniert und gemeinsam vermarktet.

Eine vergleichende Momentaufnahme:

FrameworkBemerkenswerte Ökosystem-ProgrammeEntwickler-/Partner-SupportÖkosystem-Größe (2025)
OP Stack (Optimism)RetroPGF-Zuschüsse (OP-Token); Superchain-Gebührenteilung für öffentliche Güter; Mehrere Zuschusswellen für Tools & dApps.OP Labs bietet direkten Tech-Support für neue Chains (z. B. Base); starke Entwickler-Community; Superchain-Branding & Interoperabilität zur Anziehung von Benutzern. Regelmäßige Hackathons (oft von Optimism gesponserte Tracks).Optimism Mainnet ~160+ dApps, Base gewinnt an Zugkraft, 5+ OP Chains live (Base, opBNB, Worldcoin, Zora, andere) und weitere angekündigt (Celo). Gemeinsame >14.000 ETH-Einnahmen für das Collective. Große Community über Optimism- und Coinbase-Benutzer.
zkSync ZK StackzkSync Ecosystem Fund (>200 Mio. $ für Entwicklerfinanzierung); mögliche zukünftige Airdrops; gezielte vertikale Programme (z. B. Gaming, KI-Agenten auf Hyperchains).Matter Labs bietet technisches Onboarding für frühe Hyperchain-Piloten; detaillierte Dokumente und Open-Source-Code. Partnerschaft mit Bridge-Protokollen für Konnektivität. Entwickleranreize hauptsächlich durch Hackathons und VC-Investitionen (noch keine Token-Anreize).zkSync Era L2 hat 160+ Protokolle, ~100 Mio. $ TVL. Frühe Hyperchains im Test (noch kein großer Live-L3). Unternehmensinteresse signalisiert zukünftiges Wachstum (z. B. Pilot mit einer Großbank). Starke ZK-Entwickler-Community und wachsende Anerkennung.
Arbitrum OrbitArbitrum DAO ARBSchatzkammer(>3Mrd.ARB-Schatzkammer (>3 Mrd. ) für potenzielle Zuschüsse; Offchain Labs-Partnerschaft mit RaaS (Caldera, AltLayer) zur Subventionierung von Chain-Starts; Orbit Accelerator-Programme.Offchain Labs hat Flaggschiff-Orbit-Chains (Xai usw.) mitentwickelt; unterstützt Marketing (Binance Launchpad für Xais Token). Entwickler-Support über Arbitrums umfangreiche Dokumentation und direkte technische Hilfe für die Integration (Stylus, benutzerdefiniertes Gas). Schnelle Bridge-Unterstützung für Benutzererfahrung.Arbitrum One: größtes L2 TVL (~5 Mrd. $); ~50 Orbit Chains in Entwicklung Ende 2023, ~16 bis Anfang 2025 gestartet. Bemerkenswerte Live-Chains: Xai, Rari Chain, Frame usw. DeFi-lastiges Ökosystem auf L2 kann Liquidität auf L3s ausdehnen. Große, loyale Community (Arbitrum-Airdrop hatte >250.000 Teilnehmer).
Polygon CDK (AggLayer)Polygon Ecosystem Fund & viele vertikale Fonds (NFTs, Gaming, Unternehmen); Polygon 2.0 Treasury für Anreize; Angebot zur Deckung bestimmter Infrastrukturkosten für neue Chains. AggLayer-Liquiditäts-/Belohnungsprogramme erwartet.Polygon Labs-Team arbeitet eng mit Partnern (z. B. Immutable, Unternehmen) für kundenspezifische Bedürfnisse zusammen; umfangreiche DevRel (Polygon University, Hackathons, Tutorials). Integration von CDK Chains mit Polygons zkEVM- und PoS-Infrastruktur (Shared Wallets, Bridges). Marketing über große Markenpartnerschaften (öffentliche Fallstudien von Nike, Reddit auf Polygon) zur Glaubwürdigkeit.Polygon PoS: riesige Akzeptanz (4 Mrd.+ Transaktionen); Polygon zkEVM wächst (100+ dApps). CDK: 20+ Chains entweder live (OKX, Gnosis Pay usw.) oder in der Pipeline bis Ende 2024. ~190 Projekte erkunden CDK. Bemerkenswerte Unternehmensakzeptanz (Finanzinstitute, Einzelhandelsriesen). Eines der größten Entwickler-Ökosysteme aufgrund der Polygon PoS-Historie, jetzt in CDK kanalisiert.

Wie die Tabelle zeigt, hat jedes Ökosystem seine Stärken – Optimism mit kollaborativem Ethos und Coinbases Gewicht, zkSync mit ZK-Führerschaft und Innovationsfokus, Arbitrum mit bewährter Akzeptanz und technischer Leistungsfähigkeit (Stylus), Polygon mit Unternehmensverbindungen und umfassender Unterstützung. Alle pumpen erhebliche Ressourcen in das Wachstum ihrer Communities, denn letztendlich wird der Erfolg eines Rollup-Frameworks an den Apps und Benutzern auf den damit aufgebauten Chains gemessen.

Bereitstellungen und Akzeptanz im Jahr 2025

Werfen wir abschließend einen Blick darauf, wo diese Frameworks im Jahr 2025 in Bezug auf die reale Akzeptanz stehen – sowohl im krypto-nativen Kontext (öffentliche Netzwerke, DeFi/NFT/Gaming-Projekte) als auch im Unternehmens- oder institutionellen Bereich:

  • OP Stack Akzeptanz: Der OP Stack hat das Optimism Mainnet angetrieben, das selbst einer der Top-Ethereum-L2s mit einem florierenden DeFi-Ökosystem (Uniswap, Aave usw.) und Zehntausenden täglichen Benutzern ist. In den Jahren 2023–2024 wurde der OP Stack von Coinbase für ihr Base-Netzwerk ausgewählt – Base wurde im August 2023 gestartet und integrierte schnell beliebte Apps (Coinbases eigene Wallet-Integration, die soziale App friend.tech) und erreichte eine hohe Aktivität (teilweise sogar Optimism bei Transaktionen übertreffend). Bases Erfolg bestätigte den OP Stack für viele; Base hatte 2024 800 Millionen Transaktionen und war damit die zweithöchste Chain nach Transaktionsanzahl in diesem Jahr. Eine weitere wichtige OP Stack-Bereitstellung ist opBNB – das BNB Chain-Team von Binance erstellte einen L2 mit dem OP Stack (der jedoch auf BNB Chain statt Ethereum abgewickelt wird). opBNB ging 2023 live und zeigte die Flexibilität des OP Stacks, eine Nicht-Ethereum-Abwicklung zu verwenden. Worldcoins World ID Chain ging 2023 auf dem OP Stack live (auf Ethereum abgewickelt), um seine einzigartigen biometrischen Identitätstransaktionen zu verarbeiten. Das Zora Network, eine NFT-zentrierte Chain von Zora, wurde ebenfalls auf dem OP Stack gestartet, zugeschnitten auf Anwendungsfälle der Creator Economy. Am ambitioniertesten ist vielleicht Celos Migration: Celo stimmte für den Übergang von einem unabhängigen L1 zu einem auf OP Stack basierenden Ethereum L2 – im Jahr 2025 ist diese Migration im Gange, wodurch ein ganzes bestehendes Ökosystem (Celos DeFi- und telefonorientierte Apps) in den OP Stack integriert wird. Wir haben auch kleinere Projekte wie Mode (Bybits Sidechain), Mantle (BitDAOs Chain) – tatsächlich entschied sich Mantle ebenfalls für einen modifizierten OP Stack. Und viele weitere sind gerüchteweise oder in Entwicklung, angesichts des Open-Source-Ansatzes von Optimism (jeder kann ohne Erlaubnis forken und starten). Auf Unternehmensseite haben wir nicht viel explizite OP Stack-Unternehmens-Chains gesehen (Unternehmen scheinen eher von Polygon oder kundenspezifischen Lösungen angezogen zu werden). Base wird jedoch von einem Unternehmen (Coinbase) unterstützt, und das ist bedeutsam. Die Superchain-Vision impliziert, dass sogar Unternehmens-Chains als OP Chains beitreten könnten, um von der gemeinsamen Governance zu profitieren – zum Beispiel, wenn ein Fintech eine konforme Chain starten wollte, könnte die Verwendung des OP Stacks und die Integration in die Superchain eine sofortige Konnektivität ermöglichen. Im Jahr 2025 verarbeiten OP Stack Chains (Optimism, Base, andere) kollektiv einen erheblichen Teil der L2-Aktivität, und der aggregierte Durchsatz der Superchain wird als Metrik dargestellt (Optimism veröffentlicht oft kombinierte Statistiken). Mit dem Bedrock-Upgrade und weiteren Verbesserungen erweisen sich OP Stack Chains als hochzuverlässig (Optimism hatte vernachlässigbare Ausfallzeiten). Das wichtigste Maß für die Akzeptanz: Der OP Stack ist wohl das bisher am häufigsten geforkte Rollup-Framework, angesichts von Base, BNB, Celo usw., die hochkarätig sind. Insgesamt sind ~5-10 OP Stack Chains Live-Mainnets, und viele weitere Testnets. Wenn wir Devnets und bevorstehende Starts einschließen, wächst die Zahl.

  • zkSync Hyperchains Akzeptanz: Das zkSync Era Mainnet (L2) selbst wurde im März 2023 gestartet und gehört bis 2025 zu den Top-ZK-Rollups, mit ~100 Mio. $ TVL und Dutzenden von Projekten. Bemerkenswerte Apps wie Curve, Uniswap, Chainlink wurden auf zkSync bereitgestellt oder kündigten die Bereitstellung an. Was nun Hyperchains (L3 oder souveräne Chains) betrifft, so ist dies sehr innovativ. Ende 2024 startete Matter Labs ein Programm für Teams, um mit L3s auf zkSync zu experimentieren. Ein Beispiel: Der Rollup-as-a-Service-Anbieter Decentriq testete Berichten zufolge eine private Hyperchain für den Datenaustausch. Auch Blockchain Capital (VC) deutete an, mit einem L3 zu experimentieren. Es wird erwähnt, dass ein Ökosystem von über 18 Protokollen den ZK Stack für Dinge wie KI-Agenten und spezialisierte Anwendungsfälle nutzt – möglicherweise auf Testnets. Bisher (Mitte 2025) bedient noch keine große Hyperchain öffentlich Benutzer (soweit bekannt). Das Interesse ist jedoch in bestimmten Bereichen hoch: Gaming-Projekte haben Interesse an ZK-Hyperchains für schnelle Finalität und Anpassbarkeit gezeigt, und datenschutzorientierte Chains (eine Hyperchain könnte Verschlüsselung enthalten und zkProofs verwenden, um Daten zu verbergen – etwas, das ein optimistischer Rollup nicht so einfach bieten kann). Der Kommentar über eine „Schweizer Bank“ deutet darauf hin, dass vielleicht UBS oder ein Konsortium eine private Chain mit dem ZK Stack testet, wahrscheinlich angezogen von Durchsatz (~10k TPS) und Datenschutz. Wenn dies in Produktion geht, wäre es ein Flaggschiff-Unternehmensfall. Zusammenfassend lässt sich sagen, dass die Akzeptanz von zkSyncs Hyperchain im Jahr 2025 in einer frühen Pilotphase ist: Die Entwicklerinfrastruktur ist bereit (wie durch Dokumentation und einige Testbereitstellungen belegt), aber wir warten auf die ersten, die live gehen. Es ist vergleichbar mit dem Stand von Optimism Anfang 2021 – bewährte Technologie, aber gerade erst beginnende Akzeptanz. Bis Ende 2025 könnten wir ein paar Live-Hyperchains erwarten, möglicherweise eine von der Community betriebene (vielleicht eine Gaming-Hyperchain, die aus einem beliebten zkSync-Spiel hervorgegangen ist) und eine von Unternehmen betriebene. Ein weiterer Faktor: Es wird auch über Layer3s auf zkSync Era gesprochen – im Wesentlichen permissionless L3s, auf denen jeder eine App-Chain auf zkSyncs L2 bereitstellen kann. Matter Labs hat die Verträge dafür erstellt, sodass wir benutzergesteuerte L3s sehen könnten (wie jemand, der einen Mini-Rollup für seine spezifische App startet), was als Akzeptanz des ZK Stacks zählt.

  • Arbitrum Orbit Akzeptanz: Arbitrum Orbit erlebte nach seiner formellen Einführung Mitte 2023 einen Anstieg des Interesses. Ende 2023 wurden rund 18 Orbit Chains öffentlich bekannt gegeben, und Offchain Labs gab an, dass über 50 in Arbeit seien. Im Jahr 2025 sind einige der prominentesten:

    • Xai Chain: Ein Gaming-fokussierter L3, jetzt live (Mainnet Ende 2023 gestartet). Es wird von Spieleentwicklern (wie dem Ex Populus Studio) verwendet und hatte einen Token-Launch über Binance Launchpad. Dies deutet auf eine gute Akzeptanz hin (die Beteiligung von Binance Launchpad deutet auf großes Benutzerinteresse hin). Xai verwendet den AnyTrust-Modus (für hohe TPS).
    • Rari Chain: Ein NFT-zentrierter L3 von Rarible. Mainnet im Januar 2024 gestartet. Es konzentriert sich auf NFT-Marktplätze mit Funktionen wie Kreditkartenzahlungen für Gas (über Stripe) und gaslose Listings. Diese Chain ist ein gutes Beispiel für die Anpassung der Benutzererfahrung (wie erwähnt, bietet Gelato gaslose Transaktionen usw. auf Rari Chain).
    • Frame: Ein Creator-fokussierter L2 (obwohl als L2 bezeichnet, ist es wahrscheinlich eine Orbit Chain, die auf Ethereum oder Arbitrum abgewickelt wird). Es wurde Anfang 2024 nach einer Finanzierungsrunde gestartet.
    • EduChain (von Camelot/GMX-Communities): Der Zeeve-Artikel erwähnt eine EDU-Chain mit einer großen Anzahl von Projekten – möglicherweise ein Ökosystem für On-Chain-Bildung und KI, das auf Orbit basiert.
    • Ape Chain: Nicht explizit oben erwähnt, aber der Kontext von Zeeve deutet darauf hin, dass eine „Ape Chain“ (vielleicht Yuga Labs oder ApeCoin DAO Chain) existiert, mit 9,86 Mio. $ TVL und APE für Gas verwendet. Das könnte eine Orbit Chain im ApeCoin-Ökosystem sein (dies wäre angesichts des Einflusses von Yuga bei NFTs bedeutsam).
    • Andere Gaming-Chains: z. B. wurde Comeths „Muster“ L3 angekündigt (eine Gaming-Plattform, die mit AltLayer zusammenarbeitet). Syndr Chain für ein Optionshandelsprotokoll ist auf Testnet als Orbit L3. Meliora (DeFi-Kreditprotokoll) baut einen Orbit L3.
    • Viele davon befinden sich in frühen Stadien (Testnet oder kürzlich gestartetes Mainnet), aber insgesamt zeigen sie, dass Orbit bei spezialisierten dApps, die eine gemeinsame L2-Umgebung entwachsen sind oder ihre eigene Governance wollten, an Akzeptanz gewinnt.
    • Im Unternehmensbereich: hier weniger Aufsehen. Arbitrum ist eher für DeFi-/Gaming-Akzeptanz bekannt. Die Technologie könnte jedoch für Unternehmen attraktiv sein, wenn sie eine Ethereum-gesicherte Chain mit flexiblem Vertrauen (über AnyTrust) wünschen. Es ist möglich, dass einige Unternehmen Arbitrum-Technologie stillschweigend für eine private Chain verwendet haben, dies aber nicht veröffentlicht wurde.
    • Nach Zahlen könnte Arbitrum Orbits größter Nutzer bisher Ape Chain (falls bestätigt) sein, mit ~10 Mio. TVLund17Protokollendarauf(lautZeeve).EineweitereistEDUChainmit1,35Mio.TVL und 17 Protokollen darauf (laut Zeeve). Eine weitere ist **EDU Chain** mit 1,35 Mio. TVL und über 30 Projekten.
    • Arbitrum One und Nova selbst sind Teil dieser Erzählung – die Tatsache, dass Orbit Chains auf Nova (ultra-billige Social-/Gaming-Chain) oder One abgewickelt werden können, bedeutet, dass die Akzeptanz von Orbit auch die Aktivität in diesen Netzwerken fördert. Nova wurde für Reddit-Punkte usw. genutzt. Wenn Orbit Chains in Novas AnyTrust-Komitee integriert werden, wächst Novas Rolle.
    • Zusammenfassend lässt sich sagen, dass Arbitrum Orbit über die Theorie hinausgegangen ist: Dutzende realer Projekte bauen darauf auf und konzentrieren sich auf Gaming, Social und benutzerdefiniertes DeFi. Arbitrums Ansatz, reale Anwendungsfälle (wie Xai, Rari) zu zeigen, hat sich ausgezahlt, und wir können davon ausgehen, dass bis Ende 2025 möglicherweise über 50 Orbit Chains live sein werden, einige davon mit erheblichen Benutzerbasen (insbesondere wenn eine der Gaming-Chains eine beliebte Spielveröffentlichung erreicht).
  • Polygon CDK Akzeptanz: Polygon kündigte CDK erst in der zweiten Hälfte des Jahres 2023 an, baut aber auf dem Erfolg der bestehenden Netzwerke von Polygon auf. Bereits Polygon zkEVM (Mainnet Beta) selbst ist im Wesentlichen eine CDK Chain, die von Polygon Labs betrieben wird. Es hat eine anständige Akzeptanz erfahren (über 50 Mio. $ TVL, große Protokolle bereitgestellt). Darüber hinaus sind zahlreiche unabhängige Chains in Bewegung:

    • Immutable X (eine große Web3-Gaming-Plattform) erklärte ihre Unterstützung für Polygon CDK, um Spielestudios die Möglichkeit zu geben, ihre eigenen ZK-Rollups zu starten, die mit Immutable und Polygon-Liquidität verbunden sind. Diese Allianz bedeutet möglicherweise Dutzende von Spielen, die CDK über Immutable im Jahr 2025 nutzen.
    • OKX (Börse) startete OKB Chain (auch bekannt als X Layer) mit Polygon CDK Ende 2024. Eine Börsen-Chain kann viele Transaktionen antreiben (CEX-zu-DEX-Flüsse usw.). OKX wählte Polygon vermutlich wegen der Skalierbarkeit und weil viele ihrer Benutzer bereits Polygon nutzen.
    • Canto (DeFi-Chain) und Astar (Polkadot-Sidechain) werden als Migration zu oder Integration mit Polygon CDK erwähnt. Cantos Umzug von Cosmos zur Polygon-Schicht zeigt die Attraktivität, Sicherheit mit Ethereum über Polygons ZK zu teilen.
    • Gnosis Pay: startete die Gnosis Card Chain mit CDK – es ist eine Chain, die schnelle Stablecoin-Zahlungen in Verbindung mit einer Visa-Karte ermöglicht. Dies ist live und eine innovative Fintech-Anwendung.
    • Palm Network: eine auf NFTs spezialisierte Chain, ursprünglich auf Ethereum, wechselt zu Polygon CDK (Palm wurde von ConsenSys für NFTs mit DC Comics usw. mitbegründet).
    • dYdX: Dies ist interessant – dYdX baute seine eigene Cosmos-Chain, aber Zevees Informationen listen dYdX unter AggLayer CDK Chains auf. Wenn dYdX stattdessen Polygon in Betracht ziehen würde, wäre das riesig (obwohl dYdX V4 nach bekannten Informationen Cosmos-basiert ist; vielleicht planen sie Cross-Chain oder eine zukünftige Umstellung).
    • Nubank: eine der größten digitalen Banken Brasiliens, erscheint in Zevees Liste. Nubank hatte zuvor einen Token auf Polygon gestartet; eine CDK Chain für ihre Belohnungen oder ein CBDC-ähnliches Programm könnte getestet werden.
    • Wirex, IDEX, GameSwift, Aavegotchi, Powerloom, Manta… diese Namen in Zevees Liste zeigen, wie Ökosystem-übergreifend die CDK-Reichweite ist: z. B. könnte Manta (ein Polkadot-Datenschutzprojekt) CDK für eine Ethereum-orientierte ZK-Lösung verwenden; Aavegotchi (ein NFT-Spiel, ursprünglich auf Polygon POS) könnte seine eigene Chain für die Spiel-Logik erhalten.
    • Die Celestia-Integration Anfang 2024 wird wahrscheinlich Projekte anziehen, die die Polygon-Technologie, aber mit Celestia DA wünschen – möglicherweise werden einige Cosmos-Projekte (da Celestia Cosmos-basiert ist) Polygon CDK für die Ausführung und Celestia für DA wählen.
    • Unternehmen: Polygon hat ein dediziertes Unternehmens-Team. Abgesehen von den erwähnten (Stripe für Stablecoins, Franklin Templeton-Fonds auf Polygon, Länderregierungen, die Briefmarken prägen usw.), können sie mit CDK Unternehmen ihre eigene Chain mit benutzerdefinierten Regeln versprechen. Wir könnten Piloten wie „Polygon Siemens Chain“ oder Regierungs-Chains entstehen sehen, obwohl diese oft privat beginnen.
    • Polygons Ansatz, Chain-agnostisch zu sein (sie unterstützen jetzt sogar einen „OP Stack-Modus“ im CDK laut Zeeve!) und keine Miete zu verlangen, hat zu einer schnellen Integration geführt – sie behaupten, dass über 190 Projekte CDK bis Q1 2025 nutzen oder in Betracht ziehen. Wenn auch nur ein Viertel davon live geht, wird Polygon ein expansives Netzwerk von Chains haben. Sie sehen sich nicht nur als eine Chain, sondern als ein Ökosystem vieler Chains (Polygon 2.0), möglicherweise das größte solche Netzwerk, wenn erfolgreich.
    • Nach Zahlen: Anfang 2025 sind laut der AggLayer-Website über 21 Chains entweder im Mainnet oder Testnet mit CDK in Betrieb. Dies sollte sich im Laufe des Jahres 2025 beschleunigen, da weitere migrieren oder starten.
    • Wir können einige hochkarätige Starts erwarten, z. B. eine Reddit-Chain (Reddits Avatare auf Polygon POS waren riesig; ein dedizierter Polygon L2 für Reddit könnte entstehen). Auch wenn Zentralbank-Digitalwährungen (CBDCs) oder Regierungsprojekte eine Skalierungslösung wählen, ist Polygon oft in diesen Gesprächen – eine CDK Chain könnte ihre Wahl für einen permissioned L2 mit ZK-Beweisen sein.

Zusammenfassend lässt sich sagen, dass der Akzeptanzstatus 2025: OP Stack und Arbitrum Orbit verfügen über mehrere Live-Chains mit echten Benutzern und TVL, zkSyncs Hyperchains stehen kurz vor dem Durchbruch mit starken Testpiloten, und Polygon CDK hat viele in der Pipeline und einige Live-Erfolge sowohl im Krypto- als auch im Unternehmensbereich. Der Bereich entwickelt sich rasant, und Projekte prüfen diese Frameworks oft sorgfältig, bevor sie sich entscheiden. Es ist auch kein Nullsummenspiel – z. B. könnte eine App eine OP Stack Chain und eine Polygon CDK Chain für verschiedene Regionen oder Zwecke verwenden. Die modulare Blockchain-Zukunft beinhaltet wahrscheinlich Interoperabilität zwischen all diesen Frameworks. Es ist bemerkenswert, dass Bemühungen wie LayerZero und Bridge-Aggregatoren jetzt sicherstellen, dass Assets relativ frei zwischen Optimism, Arbitrum, Polygon, zkSync usw. bewegt werden können, sodass Benutzer möglicherweise nicht einmal merken, auf welchem Stack eine Chain unter der Haube aufgebaut ist.

Fazit

Rollups-as-a-Service im Jahr 2025 bietet eine reichhaltige Auswahl an Optionen. OP Stack bietet ein kampferprobtes Optimistic Rollup-Framework mit Ethereum-Ausrichtung und der Unterstützung einer kollaborativen Superchain-Community. ZK Stack (Hyperchains) liefert modernste Zero-Knowledge-Technologie mit modularen Gültigkeits- und Datenoptionen, die auf massive Skalierbarkeit und neue Anwendungsfälle wie private oder Layer-3-Chains abzielen. Arbitrum Orbit erweitert eine hochoptimierte Optimistic Rollup-Architektur für Entwickler, mit Flexibilität bei der Datenverfügbarkeit und der spannenden Ergänzung von Stylus für mehrsprachige Smart Contracts. Polygon CDK ermöglicht Projekten den Start von zkEVM-Chains mit Out-of-the-Box-Interoperabilität (AggLayer) und der vollen Unterstützung von Polygons Ökosystem und Unternehmensbeziehungen. zkSync Hyperchains (über ZK Stack) versprechen, Web3 in großem Maßstab zu ermöglichen – mehrere Hyperchains, die alle durch Ethereum gesichert sind, jeweils für ihren Bereich optimiert (sei es Gaming, DeFi oder Social), mit nahtloser Konnektivität durch zkSyncs Elastic Framework.

Beim Vergleich der Datenverfügbarkeit haben wir gesehen, dass alle Frameworks modulare DA nutzen – Ethereum für Sicherheit und neuere Lösungen wie Celestia, EigenDA oder Komitees für den Durchsatz. Sequenzer-Designs sind anfänglich zentralisiert, bewegen sich aber in Richtung Dezentralisierung: Optimism und Arbitrum bieten L1-Fallback-Warteschlangen und ermöglichen Multi-Sequenzer- oder permissionless Validatoren-Modelle, während Polygon und zkSync die Bereitstellung benutzerdefinierter Konsens für Chains ermöglichen, die dies wünschen. Gebührenmodelle unterscheiden sich hauptsächlich in der Ökosystemphilosophie – Optimisms Umsatzbeteiligung vs. die eigenständigen Ökonomien der anderen – aber alle erlauben benutzerdefinierte Token und zielen darauf ab, die Benutzerkosten durch die Nutzung billigerer DA und schneller Finalität (insbesondere ZK-Chains) zu minimieren.

In Bezug auf die Ökosystem-Unterstützung fördert Optimism ein Kollektiv, in dem jede Chain zu gemeinsamen Zielen (Finanzierung öffentlicher Güter) beiträgt und von gemeinsamen Upgrades profitiert. Arbitrum nutzt seine florierende Community und Liquidität, hilft Projekten aktiv beim Start von Orbit Chains und integriert sie in seinen DeFi-Hub. Polygon setzt alle Ressourcen ein, um sowohl Krypto-Projekte als auch Unternehmen zu umwerben, bietet vielleicht die praktischste Unterstützung und verfügt über ein umfangreiches Netzwerk von Partnerschaften und Fonds. Matter Labs (zkSync) treibt Innovationen voran und spricht diejenigen an, die die neueste ZK-Technologie wünschen, und obwohl seine Anreizprogramme weniger öffentlich strukturiert sind (bis zur Einführung eines Tokens), verfügt es über erhebliche Finanzmittel und eine starke Anziehungskraft für ZK-orientierte Entwickler.

Aus Entwicklersicht ist der Start eines Rollups im Jahr 2025 zugänglicher denn je. Ob die Priorität EVM-Äquivalenz und Einfachheit (OP Stack, Arbitrum) oder maximale Leistung und zukunftssichere Technologie (ZK Stack, Polygon CDK) ist, die Tools und Dokumentation sind vorhanden. Sogar Überwachungs- und Entwickler-Tools wurden erweitert, um diese benutzerdefinierten Chains zu unterstützen – zum Beispiel unterstützen Alchemie und QuickNodes RaaS-Plattformen Optimism-, Arbitrum- und zkSync-Stacks Out-of-the-Box. Dies bedeutet, dass Teams sich auf ihre Anwendung konzentrieren und einen Großteil der schweren Arbeit diesen Frameworks überlassen können.

Betrachtet man die öffentliche und unternehmerische Akzeptanz, so ist klar, dass modulare Rollups von experimentell zu Mainstream übergehen. Wir haben globale Marken wie Coinbase, Binance und OKX, die ihre eigenen Chains betreiben, große DeFi-Protokolle wie Uniswap, die auf mehrere L2s und möglicherweise ihre eigenen Rollups expandieren, und sogar Regierungen und Banken, die diese Technologien erforschen. Der Wettbewerb (und die Zusammenarbeit) zwischen OP Stack, ZK Stack, Orbit, CDK usw. treibt schnelle Innovationen voran – was letztendlich Ethereum zugutekommt, indem es durch maßgeschneiderte Rollups auf Millionen neuer Benutzer skaliert wird.

Jedes Framework hat sein einzigartiges Wertversprechen:

  • OP Stack: Einfacher Einstieg in L2, Shared Superchain-Netzwerkeffekte und eine Philosophie von „Impact = Profit“ durch öffentliche Güter.
  • ZK Stack: Endgültige Skalierbarkeit mit ZK-Integrität, Flexibilität im Design (L2 oder L3, Rollup oder Validium) und Verhinderung von Liquiditätsfragmentierung durch das Elastic Chain-Modell.
  • Arbitrum Orbit: Bewährte Technologie (Arbitrum One hatte nie einen größeren Ausfall), hohe Leistung (Nitro + Stylus) und die Möglichkeit, Vertrauensannahmen (volle Rollup-Sicherheit oder schnelleres AnyTrust) für verschiedene Bedürfnisse anzupassen.
  • Polygon CDK: Schlüsselfertige ZK-Rollups, unterstützt von einem der größten Ökosysteme, mit sofortiger Konnektivität zu Polygon/Ethereum-Assets und dem Versprechen zukünftiger „vereinheitlichter Liquidität“ über AggLayer – effektiv ein Launchpad nicht nur für eine Chain, sondern für eine ganze Ökonomie auf dieser Chain.
  • zkSync Hyperchains: Eine Vision von Layer-3-Skalierbarkeit, bei der selbst kleine Apps ihre eigene, durch Ethereum gesicherte Chain mit minimalem Overhead haben können, was Web2-Niveau-Leistung in einer Web3-Umgebung ermöglicht.

Mitte 2025 sehen wir, wie sich das Multi-Chain-Modulare-Ökosystem materialisiert: Dutzende von App-spezifischen oder Sektor-spezifischen Chains koexistieren, viele davon mit diesen Stacks aufgebaut. L2Beat und ähnliche Websites verfolgen jetzt nicht nur L2s, sondern auch L3s und benutzerdefinierte Chains, von denen viele OP Stack, Orbit, CDK oder ZK Stack verwenden. Interoperabilitätsstandards werden entwickelt, damit Chains, egal ob sie Optimism- oder Polygon-Technologie verwenden, miteinander kommunizieren können (Projekte wie Hyperlane, LayerZero und sogar die Zusammenarbeit von OP und Polygon bei Shared Sequencing).

Zusammenfassend lässt sich sagen, dass Rollups-as-a-Service im Jahr 2025 ausgereift ist und eine wettbewerbsintensive Landschaft mit OP Stack, ZK Stack, Arbitrum Orbit, Polygon CDK und zkSync Hyperchains bietet, die jeweils robuste, modulare Blockchain-Frameworks anbieten. Sie unterscheiden sich im technischen Ansatz (Optimistic vs. ZK), zielen aber alle darauf ab, Entwicklern die Möglichkeit zu geben, skalierbare, sichere Chains zu starten, die auf ihre Bedürfnisse zugeschnitten sind. Die Wahl des Stacks kann von den spezifischen Prioritäten eines Projekts abhängen – EVM-Kompatibilität, Finalitätsgeschwindigkeit, Anpassung, Community-Ausrichtung usw. – wie oben beschrieben. Die gute Nachricht ist, dass es keinen Mangel an Optionen oder Unterstützung gibt. Ethereums Rollup-zentrierte Roadmap wird durch diese Frameworks realisiert und läutet eine Ära ein, in der der Start einer neuen Chain keine monumentale Leistung mehr ist, sondern eine strategische Entscheidung, ähnlich der Wahl eines Cloud-Anbieters oder Technologie-Stacks in Web2. Die Frameworks werden sich weiterentwickeln (z. B. erwarten wir mehr Konvergenz, wie OP Stack, das ZK-Beweise übernimmt, Polygons AggLayer, das sich mit Nicht-Polygon-Chains verbindet usw.), aber schon jetzt stellen sie gemeinsam sicher, dass Ethereums Skalierbarkeit und Ökosystemwachstum nur durch die Vorstellungskraft und nicht durch die Infrastruktur begrenzt sind.

Quellen:

  • Optimism OP Stack – Dokumentation und Mirror-Beiträge
  • zkSync ZK Stack – zkSync-Dokumente und Matter Labs-Beiträge
  • Arbitrum Orbit – Arbitrum-Dokumente, Offchain Labs-Ankündigungen
  • Polygon CDK – Polygon Tech-Dokumente, CoinTelegraph-Bericht
  • Allgemeiner Vergleich – QuickNode Guides (März 2025), Zeeve und andere für Ökosystem-Statistiken, plus verschiedene Projektblogs wie oben zitiert.

Trusted Execution Environments (TEEs) im Web3-Ökosystem: Ein tiefer Einblick

· 56 Minuten Lesezeit

1. Überblick über die TEE-Technologie

Definition und Architektur: Eine Trusted Execution Environment (TEE) ist ein sicherer Bereich eines Prozessors, der den darin geladenen Code und die Daten hinsichtlich Vertraulichkeit und Integrität schützt. Praktisch gesehen fungiert eine TEE als isolierte „Enklave“ innerhalb der CPU – eine Art Black Box, in der sensible Berechnungen abgeschirmt vom restlichen System ausgeführt werden können. Code, der innerhalb einer TEE-Enklave läuft, ist so geschützt, dass selbst ein kompromittiertes Betriebssystem oder ein Hypervisor die Daten oder den Code der Enklave nicht lesen oder manipulieren kann. Zu den wichtigsten Sicherheitsmerkmalen von TEEs gehören:

  • Isolation: Der Speicher der Enklave ist von anderen Prozessen und sogar vom OS-Kernel isoliert. Selbst wenn ein Angreifer volle Administratorrechte auf der Maschine erlangt, kann er den Enklavenspeicher nicht direkt inspizieren oder modifizieren.
  • Integrität: Die Hardware stellt sicher, dass Code, der in der TEE ausgeführt wird, nicht durch externe Angriffe verändert werden kann. Jede Manipulation des Enklaven-Codes oder des Laufzeitzustands wird erkannt, wodurch kompromittierte Ergebnisse verhindert werden.
  • Vertraulichkeit: Daten innerhalb der Enklave bleiben im Speicher verschlüsselt und werden nur zur Verwendung innerhalb der CPU entschlüsselt, sodass geheime Daten nicht im Klartext an die Außenwelt gelangen.
  • Remote Attestierung: Die TEE kann kryptografische Nachweise (Attestierungen) erbringen, um eine entfernte Partei davon zu überzeugen, dass sie echt ist und dass spezifischer vertrauenswürdiger Code darin ausgeführt wird. Dies bedeutet, dass Benutzer überprüfen können, ob sich eine Enklave in einem vertrauenswürdigen Zustand befindet (z. B. erwarteten Code auf echter Hardware ausführt), bevor sie sie mit geheimen Daten versorgen.

Konzeptdiagramm einer Trusted Execution Environment als sichere Enklaven-„Black Box“ für die Ausführung von Smart Contracts. Verschlüsselte Eingaben (Daten und Vertrags-Code) werden innerhalb der sicheren Enklave entschlüsselt und verarbeitet, und nur verschlüsselte Ergebnisse verlassen die Enklave. Dies stellt sicher, dass sensible Vertragsdaten für alle außerhalb der TEE vertraulich bleiben.

Im Hintergrund werden TEEs durch hardwarebasierte Speicherverschlüsselung und Zugriffskontrolle in der CPU ermöglicht. Wenn beispielsweise eine TEE-Enklave erstellt wird, weist die CPU ihr einen geschützten Speicherbereich zu und verwendet dedizierte Schlüssel (in die Hardware eingebrannt oder von einem sicheren Co-Prozessor verwaltet), um Daten im laufenden Betrieb zu verschlüsseln/entschlüsseln. Jeder Versuch externer Software, den Enklavenspeicher zu lesen, erhält nur verschlüsselte Bytes. Dieser einzigartige Schutz auf CPU-Ebene ermöglicht es selbst Code auf Benutzerebene, private Speicherbereiche (Enklaven) zu definieren, die privilegierte Malware oder sogar ein bösartiger Systemadministrator nicht ausspionieren oder modifizieren kann. Im Wesentlichen bietet eine TEE ein höheres Sicherheitsniveau für Anwendungen als die normale Betriebsumgebung, während sie gleichzeitig flexibler ist als dedizierte sichere Elemente oder Hardware-Sicherheitsmodule.

Wichtige Hardware-Implementierungen: Es gibt mehrere Hardware-TEE-Technologien, jede mit unterschiedlichen Architekturen, aber einem ähnlichen Ziel, eine sichere Enklave innerhalb des Systems zu schaffen:

  • Intel SGX (Software Guard Extensions): Intel SGX ist eine der am weitesten verbreiteten TEE-Implementierungen. Sie ermöglicht Anwendungen, Enklaven auf Prozessebene zu erstellen, wobei Speicherverschlüsselung und Zugriffskontrollen von der CPU erzwungen werden. Entwickler müssen ihren Code in „vertrauenswürdigen“ Code (innerhalb der Enklave) und „nicht vertrauenswürdigen“ Code (normale Welt) aufteilen und spezielle Anweisungen (ECALL/OCALL) verwenden, um Daten in und aus der Enklave zu übertragen. SGX bietet eine starke Isolation für Enklaven und unterstützt die Remote-Attestierung über den Attestation Service (IAS) von Intel. Viele Blockchain-Projekte – insbesondere Secret Network und Oasis Network – bauten datenschutzfreundliche Smart-Contract-Funktionalitäten auf SGX-Enklaven auf. Das Design von SGX auf komplexen x86-Architekturen hat jedoch zu einigen Schwachstellen geführt (siehe §4), und die Attestierung von Intel führt eine zentralisierte Vertrauensabhängigkeit ein.

  • ARM TrustZone: TrustZone verfolgt einen anderen Ansatz, indem es die gesamte Ausführungsumgebung des Prozessors in zwei Welten unterteilt: eine Secure World und eine Normal World. Sensibler Code läuft in der Secure World, die Zugriff auf bestimmte geschützte Speicher und Peripheriegeräte hat, während die Normal World das reguläre Betriebssystem und Anwendungen ausführt. Der Wechsel zwischen den Welten wird von der CPU gesteuert. TrustZone wird häufig in Mobil- und IoT-Geräten für Dinge wie sichere Benutzeroberflächen, Zahlungsabwicklung oder digitales Rechtemanagement verwendet. Im Blockchain-Kontext könnte TrustZone mobile-first Web3-Anwendungen ermöglichen, indem private Schlüssel oder sensible Logik in der sicheren Enklave des Telefons ausgeführt werden können. TrustZone-Enklaven sind jedoch typischerweise grobkörniger (auf OS- oder VM-Ebene) und in aktuellen Web3-Projekten nicht so weit verbreitet wie SGX.

  • AMD SEV (Secure Encrypted Virtualization): Die SEV-Technologie von AMD zielt auf virtualisierte Umgebungen ab. Anstatt Enklaven auf Anwendungsebene zu erfordern, kann SEV den Speicher ganzer virtueller Maschinen verschlüsseln. Es verwendet einen eingebetteten Sicherheitsprozessor, um kryptografische Schlüssel zu verwalten und Speicherverschlüsselung durchzuführen, sodass der Speicher einer VM selbst für den Host-Hypervisor vertraulich bleibt. Dies macht SEV gut geeignet für Cloud- oder Server-Anwendungsfälle: Zum Beispiel könnte ein Blockchain-Node oder ein Off-Chain-Worker innerhalb einer vollständig verschlüsselten VM laufen und seine Daten vor einem bösartigen Cloud-Anbieter schützen. Das Design von SEV bedeutet weniger Entwicklungsaufwand für die Code-Partitionierung (Sie können eine bestehende Anwendung oder sogar ein ganzes Betriebssystem in einer geschützten VM ausführen). Neuere Iterationen wie SEV-SNP fügen Funktionen wie Manipulationserkennung hinzu und ermöglichen es VM-Besitzern, ihre VMs zu attestieren, ohne sich auf einen zentralisierten Dienst verlassen zu müssen. SEV ist hochrelevant für den TEE-Einsatz in Cloud-basierter Blockchain-Infrastruktur.

Weitere aufkommende oder Nischen-TEE-Implementierungen umfassen Intel TDX (Trust Domain Extensions, für Enklaven-ähnlichen Schutz in VMs auf neueren Intel-Chips), Open-Source-TEEs wie Keystone (RISC-V) und sichere Enklaven-Chips in Mobilgeräten (wie Apples Secure Enclave, obwohl diese typischerweise nicht für beliebigen Code offen sind). Jede TEE hat ihr eigenes Entwicklungsmodell und ihre eigenen Vertrauensannahmen, aber alle teilen die Kernidee der hardware-isolierten sicheren Ausführung.

2. Anwendungen von TEEs in Web3

Trusted Execution Environments sind zu einem leistungsstarken Werkzeug geworden, um einige der größten Herausforderungen von Web3 zu bewältigen. Durch die Bereitstellung einer sicheren, privaten Berechnungsebene ermöglichen TEEs neue Möglichkeiten für Blockchain-Anwendungen in den Bereichen Datenschutz, Skalierbarkeit, Oracle-Sicherheit und Integrität. Im Folgenden untersuchen wir die wichtigsten Anwendungsbereiche:

Datenschutzfreundliche Smart Contracts

Eine der prominentesten Anwendungen von TEEs in Web3 ist die Ermöglichung von vertraulichen Smart Contracts – Programmen, die auf einer Blockchain laufen, aber private Daten sicher verarbeiten können. Blockchains wie Ethereum sind standardmäßig transparent: Alle Transaktionsdaten und der Vertragsstatus sind öffentlich. Diese Transparenz ist problematisch für Anwendungsfälle, die Vertraulichkeit erfordern (z. B. private Finanztransaktionen, geheime Abstimmungen, Verarbeitung personenbezogener Daten). TEEs bieten eine Lösung, indem sie als datenschutzfreundliche Rechenenklave fungieren, die mit der Blockchain verbunden ist.

In einem TEE-gestützten Smart-Contract-System können Transaktionseingaben an eine sichere Enklave auf einem Validator- oder Worker-Node gesendet, innerhalb der Enklave verarbeitet werden, wo sie für die Außenwelt verschlüsselt bleiben, und dann kann die Enklave ein verschlüsseltes oder gehashtes Ergebnis zurück an die Kette ausgeben. Nur autorisierte Parteien mit dem Entschlüsselungsschlüssel (oder die Vertragslogik selbst) können auf das Klartext-Ergebnis zugreifen. Zum Beispiel verwendet das Secret Network Intel SGX in seinen Konsens-Nodes, um CosmWasm-Smart Contracts auf verschlüsselten Eingaben auszuführen, sodass Dinge wie Kontostände, Transaktionsbeträge oder der Vertragsstatus vor der Öffentlichkeit verborgen bleiben können, während sie dennoch in Berechnungen nutzbar sind. Dies hat geheime DeFi-Anwendungen ermöglicht – z. B. private Token-Swaps, bei denen die Beträge vertraulich sind, oder geheime Auktionen, bei denen Gebote verschlüsselt sind und erst nach Auktionsende offengelegt werden. Ein weiteres Beispiel ist Oasis Networks Parcel und vertrauliches ParaTime, das die Tokenisierung von Daten und deren Verwendung in Smart Contracts unter Vertraulichkeitsbeschränkungen ermöglicht, wodurch Anwendungsfälle wie Kredit-Scoring oder medizinische Daten auf der Blockchain mit Datenschutz-Compliance ermöglicht werden.

Datenschutzfreundliche Smart Contracts über TEEs sind attraktiv für die Einführung von Blockchain in Unternehmen und Institutionen. Organisationen können Smart Contracts nutzen und gleichzeitig sensible Geschäftslogik und Daten vertraulich halten. Zum Beispiel könnte eine Bank einen TEE-fähigen Vertrag verwenden, um Kreditanträge oder Handelsabrechnungen abzuwickeln, ohne Kundendaten On-Chain preiszugeben, und dennoch von der Transparenz und Integrität der Blockchain-Verifizierung profitieren. Diese Fähigkeit adressiert direkt regulatorische Datenschutzanforderungen (wie DSGVO oder HIPAA) und ermöglicht die konforme Nutzung von Blockchain im Gesundheitswesen, im Finanzwesen und in anderen sensiblen Branchen. Tatsächlich erleichtern TEEs die Einhaltung von Datenschutzgesetzen, indem sie sicherstellen, dass personenbezogene Daten innerhalb einer Enklave verarbeitet werden können, wobei nur verschlüsselte Ausgaben die Enklave verlassen, was den Aufsichtsbehörden die Gewissheit gibt, dass Daten geschützt sind.

Über die Vertraulichkeit hinaus tragen TEEs auch dazu bei, die Fairness in Smart Contracts durchzusetzen. Zum Beispiel könnte eine dezentrale Börse ihre Matching-Engine innerhalb einer TEE betreiben, um zu verhindern, dass Miner oder Validatoren ausstehende Aufträge sehen und Trades unfair vorwegnehmen (Front-Running). Zusammenfassend bringen TEEs eine dringend benötigte Datenschutzschicht in Web3 und ermöglichen Anwendungen wie vertrauliches DeFi, private Abstimmungen/Governance und Unternehmensverträge, die zuvor auf öffentlichen Ledgern undurchführbar waren.

Skalierbarkeit und Off-Chain-Berechnung

Eine weitere entscheidende Rolle von TEEs ist die Verbesserung der Blockchain-Skalierbarkeit, indem rechenintensive Aufgaben Off-Chain in eine sichere Umgebung ausgelagert werden. Blockchains kämpfen mit komplexen oder rechenintensiven Aufgaben aufgrund von Leistungsgrenzen und Kosten der On-Chain-Ausführung. TEE-fähige Off-Chain-Berechnungen ermöglichen es, diese Aufgaben außerhalb der Hauptkette durchzuführen (wodurch kein Block-Gas verbraucht oder der On-Chain-Durchsatz verlangsamt wird), während gleichzeitig Vertrauensgarantien hinsichtlich der Korrektheit der Ergebnisse erhalten bleiben. Im Grunde kann eine TEE als verifizierbarer Off-Chain-Rechenbeschleuniger für Web3 dienen.

Zum Beispiel verwendet die iExec-Plattform TEEs, um einen dezentralen Cloud-Computing-Marktplatz zu schaffen, auf dem Entwickler Berechnungen Off-Chain ausführen und Ergebnisse erhalten können, denen die Blockchain vertraut. Eine dApp kann eine Berechnung (z. B. eine komplexe KI-Modellinferenz oder eine Big-Data-Analyse) von iExec-Worker-Nodes anfordern. Diese Worker-Nodes führen die Aufgabe innerhalb einer SGX-Enklave aus und erzeugen ein Ergebnis zusammen mit einer Attestierung, dass der korrekte Code in einer echten Enklave ausgeführt wurde. Das Ergebnis wird dann On-Chain zurückgegeben, und der Smart Contract kann die Attestierung der Enklave überprüfen, bevor er die Ausgabe akzeptiert. Diese Architektur ermöglicht die Verarbeitung hoher Arbeitslasten Off-Chain, ohne das Vertrauen zu opfern, und steigert so effektiv den Durchsatz. Die Integration des iExec Orchestrator mit Chainlink demonstriert dies: Ein Chainlink-Oracle ruft externe Daten ab, übergibt dann eine komplexe Berechnung an die TEE-Worker von iExec (z. B. Aggregation oder Bewertung der Daten), und schließlich wird das sichere Ergebnis On-Chain geliefert. Anwendungsfälle umfassen Dinge wie dezentrale Versicherungsberechnungen (wie iExec demonstrierte), bei denen viele Daten Off-Chain und kostengünstig verarbeitet werden können, wobei nur das Endergebnis an die Blockchain geht.

TEE-basierte Off-Chain-Berechnungen untermauern auch einige Layer-2-Skalierungslösungen. Oasis Labs' früher Prototyp Ekiden (der Vorläufer des Oasis Network) verwendete SGX-Enklaven, um die Transaktionsausführung Off-Chain parallel auszuführen und dann nur Zustands-Roots an die Hauptkette zu übergeben, was effektiv Rollup-Ideen ähnelt, aber Hardware-Vertrauen nutzt. Durch die Vertragsausführung in TEEs erreichten sie einen hohen Durchsatz, während sie sich auf Enklaven verließen, um die Sicherheit zu gewährleisten. Ein weiteres Beispiel ist Sanders Networks kommendes Op-Succinct L2, das TEEs und zkSNARKs kombiniert: TEEs führen Transaktionen privat und schnell aus, und dann werden ZK-Proofs generiert, um die Korrektheit dieser Ausführungen gegenüber Ethereum zu beweisen. Dieser hybride Ansatz nutzt die TEE-Geschwindigkeit und die ZK-Verifizierbarkeit für eine skalierbare, private L2-Lösung.

Im Allgemeinen können TEEs Berechnungen mit nahezu nativer Leistung ausführen (da sie tatsächliche CPU-Anweisungen verwenden, nur mit Isolation), sodass sie für komplexe Logik um Größenordnungen schneller sind als rein kryptografische Alternativen wie homomorphe Verschlüsselung oder Zero-Knowledge-Proofs. Durch die Auslagerung von Aufgaben an Enklaven können Blockchains komplexere Anwendungen (wie maschinelles Lernen, Bild-/Audioverarbeitung, große Analysen) verarbeiten, die On-Chain unpraktisch wären. Die Ergebnisse werden mit einer Attestierung zurückgegeben, die der On-Chain-Vertrag oder Benutzer als von einer vertrauenswürdigen Enklave stammend verifizieren können, wodurch die Datenintegrität und Korrektheit erhalten bleibt. Dieses Modell wird oft als „verifizierbare Off-Chain-Berechnung“ bezeichnet, und TEEs sind ein Eckpfeiler vieler solcher Designs (z. B. verwendet Hyperledger Avalons Trusted Compute Framework, entwickelt von Intel, iExec und anderen, TEEs, um EVM-Bytecode Off-Chain mit einem On-Chain veröffentlichten Korrektheitsnachweis auszuführen).

Sichere Oracles und Datenintegrität

Oracles verbinden Blockchains mit realen Daten, führen aber Vertrauensherausforderungen ein: Wie kann ein Smart Contract darauf vertrauen, dass ein Off-Chain-Datenfeed korrekt und unverfälscht ist? TEEs bieten eine Lösung, indem sie als sichere Sandbox für Oracle-Nodes dienen. Ein TEE-basiertes Oracle-Node kann Daten von externen Quellen (APIs, Webdienste) abrufen und diese innerhalb einer Enklave verarbeiten, die garantiert, dass die Daten weder vom Node-Betreiber noch von Malware auf dem Node manipuliert wurden. Die Enklave kann dann die Wahrheit der von ihr bereitgestellten Daten signieren oder attestieren. Dies verbessert die Datenintegrität und Vertrauenswürdigkeit von Oracles erheblich. Selbst wenn ein Oracle-Betreiber bösartig ist, kann er die Daten nicht ändern, ohne die Attestierung der Enklave zu brechen (was die Blockchain erkennen wird).

Ein bemerkenswertes Beispiel ist Town Crier, ein an der Cornell University entwickeltes Oracle-System, das als eines der ersten Intel SGX-Enklaven nutzte, um authentifizierte Daten für Ethereum-Verträge bereitzustellen. Town Crier rief Daten (z. B. von HTTPS-Websites) innerhalb einer SGX-Enklave ab und lieferte sie an einen Vertrag zusammen mit einem Nachweis (einer Enklaven-Signatur), dass die Daten direkt von der Quelle stammten und nicht gefälscht wurden. Chainlink erkannte den Wert dessen und erwarb Town Crier im Jahr 2018, um TEE-basierte Oracles in sein dezentrales Netzwerk zu integrieren. Heute haben Chainlink und andere Oracle-Anbieter TEE-Initiativen: Zum Beispiel beinhalten Chainlinks DECO und Fair Sequencing Services TEEs, um Datenvertraulichkeit und faire Reihenfolge sicherzustellen. Wie in einer Analyse festgestellt wurde, „revolutionierte TEE die Oracle-Sicherheit, indem es eine manipulationssichere Umgebung für die Datenverarbeitung bereitstellte... selbst die Node-Betreiber können die Daten während der Verarbeitung nicht manipulieren“. Dies ist besonders entscheidend für hochwertige Finanzdaten-Feeds (wie Preis-Oracles für DeFi): Eine TEE kann selbst subtile Manipulationen verhindern, die zu großen Exploits führen könnten.

TEEs ermöglichen es Oracles auch, sensible oder proprietäre Daten zu verarbeiten, die nicht im Klartext auf einer Blockchain veröffentlicht werden könnten. Zum Beispiel könnte ein Oracle-Netzwerk Enklaven verwenden, um private Daten (wie vertrauliche Aktienauftragsbücher oder persönliche Gesundheitsdaten) zu aggregieren und nur abgeleitete Ergebnisse oder validierte Nachweise an die Blockchain zu übermitteln, ohne die rohen sensiblen Eingaben preiszugeben. Auf diese Weise erweitern TEEs den Umfang der Daten, die sicher in Smart Contracts integriert werden können, was entscheidend ist für die Tokenisierung von Real World Assets (RWA), Kredit-Scoring, Versicherungen und andere datenintensive On-Chain-Dienste.

Zum Thema Cross-Chain-Bridges verbessern TEEs ebenfalls die Integrität. Bridges verlassen sich oft auf eine Reihe von Validatoren oder eine Multi-Sig, um Assets zu verwahren und Übertragungen zwischen Ketten zu validieren, was sie zu Hauptzielen für Angriffe macht. Durch die Ausführung der Bridge-Validator-Logik innerhalb von TEEs kann man die privaten Schlüssel und Verifizierungsprozesse der Bridge vor Manipulationen schützen. Selbst wenn das Betriebssystem eines Validators kompromittiert ist, sollte der Angreifer nicht in der Lage sein, private Schlüssel zu extrahieren oder Nachrichten aus der Enklave zu fälschen. TEEs können erzwingen, dass Bridge-Transaktionen genau gemäß den Protokollregeln verarbeitet werden, wodurch das Risiko verringert wird, dass menschliche Bediener oder Malware betrügerische Übertragungen einschleusen. Darüber hinaus können TEEs atomare Swaps und Cross-Chain-Transaktionen in einer sicheren Enklave ermöglichen, die entweder beide Seiten abschließt oder sauber abbricht, wodurch Szenarien verhindert werden, in denen Gelder aufgrund von Störungen stecken bleiben. Mehrere Bridge-Projekte und Konsortien haben TEE-basierte Sicherheit erforscht, um die Plage der Bridge-Hacks der letzten Jahre zu mildern.

Datenintegrität und Verifizierbarkeit Off-Chain

In allen oben genannten Szenarien ist ein wiederkehrendes Thema, dass TEEs dazu beitragen, die Datenintegrität auch außerhalb der Blockchain aufrechtzuerhalten. Da eine TEE beweisen kann, welchen Code sie ausführt (über Attestierung) und sicherstellen kann, dass der Code ohne Störungen läuft, bietet sie eine Form des verifizierbaren Computings. Benutzer und Smart Contracts können den Ergebnissen einer TEE vertrauen, als wären sie On-Chain berechnet worden, vorausgesetzt, die Attestierung ist korrekt. Diese Integritätsgarantie ist der Grund, warum TEEs manchmal als „Vertrauensanker“ für Off-Chain-Daten und -Berechnungen bezeichnet werden.

Es ist jedoch zu beachten, dass dieses Vertrauensmodell einige Annahmen auf die Hardware verlagert (siehe §4). Die Datenintegrität ist nur so stark wie die Sicherheit der TEE. Wenn die Enklave kompromittiert oder die Attestierung gefälscht wird, könnte die Integrität fehlschlagen. Dennoch erschweren TEEs (wenn sie auf dem neuesten Stand gehalten werden) in der Praxis bestimmte Angriffe erheblich. Zum Beispiel könnte eine DeFi-Kreditplattform eine TEE verwenden, um Kreditscores aus den privaten Daten eines Benutzers Off-Chain zu berechnen, und der Smart Contract würde den Score nur akzeptieren, wenn er von einer gültigen Enklaven-Attestierung begleitet wird. Auf diese Weise weiß der Vertrag, dass der Score vom genehmigten Algorithmus auf echten Daten berechnet wurde, anstatt dem Benutzer oder einem Oracle blind zu vertrauen.

TEEs spielen auch eine Rolle in aufkommenden dezentralen Identitäts- (DID) und Authentifizierungssystemen. Sie können private Schlüssel, persönliche Daten und Authentifizierungsprozesse sicher verwalten, sodass die sensiblen Informationen des Benutzers niemals der Blockchain oder dApp-Anbietern preisgegeben werden. Zum Beispiel könnte eine TEE auf einem mobilen Gerät die biometrische Authentifizierung handhaben und eine Blockchain-Transaktion signieren, wenn die biometrische Überprüfung erfolgreich ist, alles ohne die Biometrie des Benutzers preiszugeben. Dies bietet sowohl Sicherheit als auch Datenschutz im Identitätsmanagement – eine wesentliche Komponente, wenn Web3 Dinge wie Pässe, Zertifikate oder KYC-Daten auf benutzerautonome Weise handhaben soll.

Zusammenfassend dienen TEEs als vielseitiges Werkzeug in Web3: Sie ermöglichen Vertraulichkeit für On-Chain-Logik, erlauben Skalierung durch sichere Off-Chain-Berechnungen, schützen die Integrität von Oracles und Bridges und eröffnen neue Anwendungsbereiche (von privater Identität bis hin zu konformer Datenfreigabe). Als Nächstes werden wir uns spezifische Projekte ansehen, die diese Fähigkeiten nutzen.

3. Bemerkenswerte Web3-Projekte, die TEEs nutzen

Eine Reihe führender Blockchain-Projekte haben ihre Kernangebote um Trusted Execution Environments herum aufgebaut. Im Folgenden tauchen wir in einige bemerkenswerte ein und untersuchen, wie jedes die TEE-Technologie nutzt und welchen einzigartigen Wert es hinzufügt:

Secret Network

Secret Network ist eine Layer-1-Blockchain (auf Basis des Cosmos SDK), die Pionierarbeit bei datenschutzfreundlichen Smart Contracts mittels TEEs geleistet hat. Alle Validator-Nodes im Secret Network betreiben Intel SGX-Enklaven, die den Smart-Contract-Code ausführen, sodass der Vertragsstatus sowie Eingaben/Ausgaben selbst für die Node-Betreiber verschlüsselt bleiben. Dies macht Secret zu einer der ersten Privacy-First Smart Contract-Plattformen – Datenschutz ist kein optionales Add-on, sondern eine Standardfunktion des Netzwerks auf Protokollebene.

Im Modell von Secret Network übermitteln Benutzer verschlüsselte Transaktionen, die Validatoren zur Ausführung in ihre SGX-Enklave laden. Die Enklave entschlüsselt die Eingaben, führt den Vertrag (geschrieben in einer modifizierten CosmWasm-Laufzeitumgebung) aus und erzeugt verschlüsselte Ausgaben, die in die Blockchain geschrieben werden. Nur Benutzer mit dem korrekten Viewing Key (oder der Vertrag selbst mit seinem internen Schlüssel) können die tatsächlichen Daten entschlüsseln und einsehen. Dies ermöglicht Anwendungen, private Daten On-Chain zu verwenden, ohne sie öffentlich preiszugeben.

Das Netzwerk hat mehrere neuartige Anwendungsfälle demonstriert:

  • Secret DeFi: z. B. SecretSwap (ein AMM), bei dem die Kontostände und Transaktionsbeträge der Benutzer privat sind, wodurch Front-Running gemindert und Handelsstrategien geschützt werden. Liquiditätsanbieter und Händler können agieren, ohne jeden ihrer Schritte an Wettbewerber zu senden.
  • Geheime Auktionen: Auktionsverträge, bei denen Gebote bis zum Auktionsende geheim gehalten werden, um strategisches Verhalten basierend auf den Geboten anderer zu verhindern.
  • Private Abstimmung und Governance: Token-Inhaber können über Vorschläge abstimmen, ohne ihre Stimmabgabe preiszugeben, während die Auszählung weiterhin verifiziert werden kann – was eine faire, einschüchterungsfreie Governance gewährleistet.
  • Datenmarktplätze: Sensible Datensätze können transaktiert und in Berechnungen verwendet werden, ohne die Rohdaten Käufern oder Nodes preiszugeben.

Secret Network integriert TEEs im Wesentlichen auf Protokollebene, um ein einzigartiges Wertversprechen zu schaffen: Es bietet programmierbaren Datenschutz. Zu den Herausforderungen, die sie angehen, gehören die Koordination der Enklaven-Attestierung über einen dezentralen Validatoren-Satz hinweg und die Verwaltung der Schlüsselverteilung, damit Verträge Eingaben entschlüsseln können, während sie diese vor Validatoren geheim halten. Nach allen Berichten hat Secret die Machbarkeit TEE-gestützter Vertraulichkeit auf einer öffentlichen Blockchain bewiesen und sich als führend in diesem Bereich etabliert.

Oasis Network

Oasis Network ist eine weitere Layer-1, die auf Skalierbarkeit und Datenschutz abzielt und TEEs (Intel SGX) in ihrer Architektur umfassend nutzt. Oasis führte ein innovatives Design ein, das den Konsens von der Berechnung trennt in verschiedene Schichten, die als Consensus Layer und ParaTime Layer bezeichnet werden. Der Consensus Layer handhabt die Blockchain-Reihenfolge und Finalität, während jeder ParaTime eine Laufzeitumgebung für Smart Contracts sein kann. Bemerkenswerterweise ist Oasis' Emerald ParaTime eine EVM-kompatible Umgebung, und Sapphire ist eine vertrauliche EVM, die TEEs verwendet, um den Smart-Contract-Status privat zu halten.

Die Nutzung von TEEs durch Oasis konzentriert sich auf vertrauliche Berechnungen in großem Maßstab. Durch die Isolation der rechenintensiven Aufgaben in parallelisierbaren ParaTimes (die auf vielen Nodes laufen können) erreichen sie einen hohen Durchsatz, und durch die Verwendung von TEEs innerhalb dieser ParaTime-Nodes stellen sie sicher, dass die Berechnungen sensible Daten enthalten können, ohne diese preiszugeben. Zum Beispiel könnte eine Institution einen Kredit-Scoring-Algorithmus auf Oasis ausführen, indem sie private Daten in eine vertrauliche ParaTime einspeist – die Daten bleiben für den Node verschlüsselt (da sie in der Enklave verarbeitet werden), und nur der Score wird ausgegeben. Währenddessen zeichnet der Oasis-Konsens lediglich den Nachweis auf, dass die Berechnung korrekt erfolgte.

Technisch gesehen hat Oasis zusätzliche Sicherheitsebenen über das reine SGX hinaus hinzugefügt. Sie implementierten einen „geschichteten Vertrauensanker“: unter Verwendung von Intels SGX Quoting Enclave und einem benutzerdefinierten, leichtgewichtigen Kernel, um die Hardware-Vertrauenswürdigkeit zu überprüfen und die Systemaufrufe der Enklave zu isolieren (sandboxing). Dies reduziert die Angriffsfläche (durch Filtern, welche OS-Aufrufe Enklaven tätigen können) und schützt vor bestimmten bekannten SGX-Angriffen. Oasis führte auch Funktionen wie dauerhafte Enklaven (damit Enklaven ihren Zustand über Neustarts hinweg beibehalten können) und sichere Protokollierung ein, um Rollback-Angriffe zu mindern (bei denen ein Node versuchen könnte, einen alten Enklaven-Zustand erneut abzuspielen). Diese Innovationen wurden in ihren technischen Papieren beschrieben und sind ein Grund, warum Oasis als forschungsgetriebenes Projekt im Bereich TEE-basierter Blockchain-Berechnungen angesehen wird.

Aus Ökosystem-Perspektive hat sich Oasis für Dinge wie privates DeFi (das Banken die Teilnahme ermöglicht, ohne Kundendaten preiszugeben) und Datentokenisierung (wo Einzelpersonen oder Unternehmen Daten vertraulich an KI-Modelle weitergeben und über die Blockchain entschädigt werden können) positioniert. Sie haben auch mit Unternehmen an Pilotprojekten zusammengearbeitet (zum Beispiel mit BMW zum Thema Datenschutz und mit anderen zum Austausch medizinischer Forschungsdaten). Insgesamt zeigt das Oasis Network, wie die Kombination von TEEs mit einer skalierbaren Architektur sowohl Datenschutz als auch Leistung adressieren kann, was es zu einem wichtigen Akteur bei TEE-basierten Web3-Lösungen macht.

Sanders Network

Sanders Network ist ein dezentrales Cloud-Computing-Netzwerk im Polkadot-Ökosystem, das TEEs nutzt, um vertrauliche und hochleistungsfähige Rechenservices bereitzustellen. Es ist eine Parachain auf Polkadot, was bedeutet, dass es von Polkadots Sicherheit und Interoperabilität profitiert, aber es führt seine eigene neuartige Laufzeitumgebung für Off-Chain-Berechnungen in sicheren Enklaven ein.

Die Kernidee von Sanders ist es, ein großes Netzwerk von Worker-Nodes (genannt Sanders-Miner) zu unterhalten, die Aufgaben innerhalb von TEEs (bisher speziell Intel SGX) ausführen und verifizierbare Ergebnisse produzieren. Diese Aufgaben können von der Ausführung von Smart-Contract-Segmenten bis hin zu allgemeinen Berechnungen reichen, die von Benutzern angefordert werden. Da die Worker in SGX laufen, stellt Sanders sicher, dass die Berechnungen mit Vertraulichkeit (Eingabedaten sind vor dem Worker-Betreiber verborgen) und Integrität (die Ergebnisse werden mit einer Attestierung geliefert) durchgeführt werden. Dies schafft effektiv eine vertrauenslose Cloud, in der Benutzer Workloads bereitstellen können, in dem Wissen, dass der Host sie nicht einsehen oder manipulieren kann.

Man kann sich Sanders als Analogon zu Amazon EC2 oder AWS Lambda vorstellen, aber dezentralisiert: Entwickler können Code im Sanders-Netzwerk bereitstellen und ihn auf vielen SGX-fähigen Maschinen weltweit ausführen lassen, wobei sie mit Sanders' Token für den Dienst bezahlen. Einige hervorgehobene Anwendungsfälle:

  • Web3-Analysen und KI: Ein Projekt könnte Benutzerdaten analysieren oder KI-Algorithmen in Sanders-Enklaven ausführen, sodass Rohdaten der Benutzer verschlüsselt bleiben (Datenschutz), während nur aggregierte Erkenntnisse die Enklave verlassen.
  • Game-Backends und Metaverse: Sanders kann intensive Spiellogik oder Simulationen virtueller Welten Off-Chain verarbeiten, indem es nur Commitments oder Hashes an die Blockchain sendet, was ein reichhaltigeres Gameplay ohne Vertrauen in einen einzelnen Server ermöglicht.
  • On-Chain-Dienste: Sanders hat eine Off-Chain-Berechnungsplattform namens Sanders Cloud aufgebaut. Zum Beispiel kann sie als Backend für Bots, dezentrale Webdienste oder sogar ein Off-Chain-Orderbuch dienen, das Trades mit TEE-Attestierung an einen DEX-Smart Contract veröffentlicht.

Sanders betont, dass es vertrauliche Berechnungen horizontal skalieren kann: Mehr Kapazität benötigt? Fügen Sie weitere TEE-Worker-Nodes hinzu. Dies unterscheidet sich von einer einzelnen Blockchain, bei der die Rechenkapazität durch Konsens begrenzt ist. Somit eröffnet Sanders Möglichkeiten für rechenintensive dApps, die dennoch vertrauenslose Sicherheit wünschen. Wichtig ist, dass Sanders sich nicht rein auf Hardware-Vertrauen verlässt; es integriert sich in Polkadots Konsens (z. B. Staking und Slashing für schlechte Ergebnisse) und erforscht sogar eine Kombination von TEE mit Zero-Knowledge-Proofs (wie erwähnt, verwendet ihr kommendes L2 TEE, um die Ausführung zu beschleunigen und ZKP, um sie prägnant auf Ethereum zu verifizieren). Dieser hybride Ansatz hilft, das Risiko einer einzelnen TEE-Kompromittierung zu mindern, indem er kryptografische Verifizierung hinzufügt.

Zusammenfassend nutzt Sanders Network TEEs, um eine dezentrale, vertrauliche Cloud für Web3 bereitzustellen, die Off-Chain-Berechnungen mit Sicherheitsgarantien ermöglicht. Dies eröffnet eine Klasse von Blockchain-Anwendungen, die sowohl hohe Rechenleistung als auch Datenvertraulichkeit benötigen und die Lücke zwischen On-Chain- und Off-Chain-Welten schließen.

iExec

iExec ist ein dezentraler Marktplatz für Cloud-Computing-Ressourcen, der auf Ethereum aufgebaut ist. Im Gegensatz zu den drei vorherigen (die eigene Chains oder Parachains sind) operiert iExec als Layer-2- oder Off-Chain-Netzwerk, das mit Ethereum-Smart Contracts koordiniert. TEEs (insbesondere Intel SGX) sind ein Eckpfeiler von iExecs Ansatz, Vertrauen in Off-Chain-Berechnungen herzustellen.

Das iExec-Netzwerk besteht aus Worker-Nodes, die von verschiedenen Anbietern bereitgestellt werden. Diese Worker können von Benutzern (dApp-Entwicklern, Datenanbietern usw.) angeforderte Aufgaben ausführen. Um sicherzustellen, dass diese Off-Chain-Berechnungen vertrauenswürdig sind, führte iExec ein Framework namens „Trusted Off-Chain Computing“ ein: Aufgaben können innerhalb von SGX-Enklaven ausgeführt werden, und die Ergebnisse werden mit einer Enklaven-Signatur geliefert, die beweist, dass die Aufgabe korrekt auf einem sicheren Node ausgeführt wurde. iExec hat sich mit Intel zusammengetan, um diese vertrauenswürdige Computing-Funktion einzuführen, und ist sogar dem Confidential Computing Consortium beigetreten, um Standards voranzutreiben. Ihr Konsensprotokoll, genannt Proof-of-Contribution (PoCo), aggregiert bei Bedarf Stimmen/Attestierungen von mehreren Workern, um einen Konsens über das korrekte Ergebnis zu erzielen. In vielen Fällen kann die Attestierung einer einzelnen Enklave ausreichen, wenn der Code deterministisch ist und das Vertrauen in SGX hoch ist; für eine höhere Sicherheit kann iExec Aufgaben über mehrere TEEs replizieren und einen Konsens oder eine Mehrheitsentscheidung verwenden.

Die Plattform von iExec ermöglicht mehrere interessante Anwendungsfälle:

  • Dezentrales Oracle-Computing: Wie bereits erwähnt, kann iExec mit Chainlink zusammenarbeiten. Ein Chainlink-Node könnte Rohdaten abrufen und diese dann an einen iExec SGX-Worker übergeben, um eine Berechnung (z. B. einen proprietären Algorithmus oder eine KI-Inferenz) auf diesen Daten durchzuführen und schließlich ein Ergebnis On-Chain zurückzugeben. Dies erweitert die Möglichkeiten von Oracles über das bloße Weiterleiten von Daten hinaus – sie können nun berechnete Dienste (wie das Aufrufen eines KI-Modells oder das Aggregieren vieler Quellen) anbieten, wobei TEE die Ehrlichkeit gewährleistet.
  • KI und DePIN (Dezentrales Physisches Infrastrukturnetzwerk): iExec positioniert sich als Vertrauensschicht für dezentrale KI-Anwendungen. Zum Beispiel kann eine dApp, die ein Machine-Learning-Modell verwendet, das Modell in einer Enklave ausführen, um sowohl das Modell (wenn es proprietär ist) als auch die eingegebenen Benutzerdaten zu schützen. Im Kontext von DePIN (wie verteilten IoT-Netzwerken) können TEEs auf Edge-Geräten verwendet werden, um Sensorwerte und Berechnungen auf diesen Werten zu vertrauen.
  • Sichere Datenmonetarisierung: Datenanbieter können ihre Datensätze auf dem iExec-Marktplatz in verschlüsselter Form zur Verfügung stellen. Käufer können ihre Algorithmen zur Ausführung auf den Daten innerhalb einer TEE senden (sodass die Rohdaten des Datenanbieters niemals offengelegt werden, ihr geistiges Eigentum geschützt wird und die Details des Algorithmus ebenfalls verborgen bleiben können). Das Ergebnis der Berechnung wird an den Käufer zurückgegeben, und die entsprechende Zahlung an den Datenanbieter wird über Smart Contracts abgewickelt. Dieses Schema, oft als sicherer Datenaustausch bezeichnet, wird durch die Vertraulichkeit von TEEs ermöglicht.

Insgesamt stellt iExec die Verbindung zwischen Ethereum-Smart Contracts und sicherer Off-Chain-Ausführung her. Es demonstriert, wie TEE-„Worker“ vernetzt werden können, um eine dezentrale Cloud zu bilden, komplett mit einem Marktplatz (der iExecs RLC-Token zur Zahlung verwendet) und Konsensmechanismen. Durch die Leitung der Trusted Compute-Arbeitsgruppe der Enterprise Ethereum Alliance und die Mitwirkung an Standards (wie Hyperledger Avalon) treibt iExec auch die breitere Akzeptanz von TEEs in Unternehmens-Blockchain-Szenarien voran.

Andere Projekte und Ökosysteme

Über die vier oben genannten hinaus gibt es noch einige weitere Projekte, die erwähnenswert sind:

  • Integritee – eine weitere Polkadot-Parachain, ähnlich wie Sanders (tatsächlich entstand sie aus der TEE-Arbeit der Energy Web Foundation). Integritee nutzt TEEs, um „Parachain-as-a-Service“ für Unternehmen zu schaffen, indem es On-Chain- und Off-Chain-Enklaven-Verarbeitung kombiniert.
  • Automata Network – ein Middleware-Protokoll für Web3-Datenschutz, das TEEs für private Transaktionen, anonyme Abstimmungen und MEV-resistente Transaktionsverarbeitung nutzt. Automata läuft als Off-Chain-Netzwerk und bietet Dienste wie ein privates RPC-Relay an und wurde erwähnt, TEEs für Dinge wie geschützte Identität und gaslose private Transaktionen zu verwenden.
  • Hyperledger Sawtooth (PoET) – im Unternehmensbereich führte Sawtooth einen Konsensalgorithmus namens Proof of Elapsed Time ein, der auf SGX basierte. Jeder Validator betreibt eine Enklave, die eine zufällige Zeit wartet und einen Nachweis erzeugt; derjenige mit der kürzesten Wartezeit „gewinnt“ den Block, eine faire Lotterie, die von SGX durchgesetzt wird. Obwohl Sawtooth kein Web3-Projekt im eigentlichen Sinne ist (eher eine Unternehmens-Blockchain), ist es eine kreative Nutzung von TEEs für den Konsens.
  • Unternehmens-/Konsortialketten – Viele Blockchain-Lösungen für Unternehmen (z. B. ConsenSys Quorum, IBM Blockchain) integrieren TEEs, um vertrauliche Konsortialtransaktionen zu ermöglichen, bei denen nur autorisierte Nodes bestimmte Daten sehen. Zum Beispiel verwendet der Trusted Compute Framework (TCF)-Entwurf der Enterprise Ethereum Alliance TEEs, um private Verträge Off-Chain auszuführen und Merkle-Proofs On-Chain zu liefern.

Diese Projekte zeigen zusammen die Vielseitigkeit von TEEs: Sie treiben ganze datenschutzorientierte L1s an, dienen als Off-Chain-Netzwerke, sichern Infrastrukturkomponenten wie Oracles und Bridges und untermauern sogar Konsensalgorithmen. Als Nächstes betrachten wir die umfassenderen Vorteile und Herausforderungen der Verwendung von TEEs in dezentralen Umgebungen.

4. Vorteile und Herausforderungen von TEEs in dezentralen Umgebungen

Die Einführung von Trusted Execution Environments in Blockchain-Systemen bringt erhebliche technische Vorteile sowie bemerkenswerte Herausforderungen und Kompromisse mit sich. Wir werden beide Seiten untersuchen: was TEEs dezentralen Anwendungen bieten und welche Probleme oder Risiken sich aus ihrer Verwendung ergeben.

Vorteile und technische Stärken

  • Starke Sicherheit & Datenschutz: Der größte Vorteil sind die Garantien für Vertraulichkeit und Integrität. TEEs ermöglichen die Ausführung von sensiblem Code mit der Gewissheit, dass er nicht von externer Malware ausspioniert oder verändert wird. Dies schafft ein Vertrauensniveau in Off-Chain-Berechnungen, das zuvor nicht verfügbar war. Für die Blockchain bedeutet dies, dass private Daten genutzt werden können (wodurch die Funktionalität von dApps verbessert wird), ohne die Sicherheit zu opfern. Selbst in nicht vertrauenswürdigen Umgebungen (Cloud-Server, von Dritten betriebene Validator-Nodes) schützen TEEs Geheimnisse. Dies ist besonders vorteilhaft für die Verwaltung privater Schlüssel, Benutzerdaten und proprietärer Algorithmen innerhalb von Krypto-Systemen. Zum Beispiel könnte eine Hardware-Wallet oder ein Cloud-Signaturdienst eine TEE verwenden, um Blockchain-Transaktionen intern zu signieren, sodass der private Schlüssel niemals im Klartext offengelegt wird, was Komfort mit Sicherheit verbindet.

  • Nahezu native Leistung: Im Gegensatz zu rein kryptografischen Ansätzen zur sicheren Berechnung (wie ZK-Proofs oder homomorphe Verschlüsselung) ist der TEE-Overhead relativ gering. Code läuft direkt auf der CPU, sodass eine Berechnung innerhalb einer Enklave ungefähr so schnell ist wie außerhalb (mit etwas Overhead für Enklaven-Übergänge und Speicherverschlüsselung, typischerweise einstellige prozentuale Verlangsamungen bei SGX). Dies bedeutet, dass TEEs rechenintensive Aufgaben effizient bewältigen können, was Anwendungsfälle (wie Echtzeit-Datenfeeds, komplexe Smart Contracts, maschinelles Lernen) ermöglicht, die bei kryptografischen Protokollen um Größenordnungen langsamer wären. Die geringe Latenz von Enklaven macht sie dort geeignet, wo eine schnelle Reaktion erforderlich ist (z. B. Hochfrequenz-Handelsbots, die durch TEEs gesichert sind, oder interaktive Anwendungen und Spiele, bei denen die Benutzererfahrung unter hohen Verzögerungen leiden würde).

  • Verbesserte Skalierbarkeit (durch Auslagerung): Indem TEEs es ermöglichen, rechenintensive Berechnungen sicher Off-Chain durchzuführen, helfen sie, Überlastungen und Gaskosten auf Hauptketten zu reduzieren. Sie ermöglichen Layer-2-Designs und Seitenprotokolle, bei denen die Blockchain nur zur Verifizierung oder endgültigen Abrechnung verwendet wird, während der Großteil der Berechnungen in parallelen Enklaven stattfindet. Diese Modularisierung (rechenintensive Logik in TEEs, Konsens On-Chain) kann den Durchsatz und die Skalierbarkeit dezentraler Anwendungen drastisch verbessern. Zum Beispiel könnte eine DEX das Matchmaking in einer TEE Off-Chain durchführen und nur die gematchten Trades On-Chain veröffentlichen, wodurch der Durchsatz erhöht und das On-Chain-Gas reduziert wird.

  • Bessere Benutzererfahrung & Funktionalität: Mit TEEs können dApps Funktionen wie Vertraulichkeit oder komplexe Analysen anbieten, die mehr Benutzer (einschließlich Institutionen) anziehen. TEEs ermöglichen auch gaslose oder Meta-Transaktionen, indem sie diese sicher Off-Chain ausführen und dann Ergebnisse übermitteln, wie in Automatas Verwendung von TEEs zur Reduzierung des Gasverbrauchs für private Transaktionen festgestellt. Darüber hinaus kann das Speichern sensibler Zustände Off-Chain in einer Enklave die On-Chain veröffentlichten Daten reduzieren, was gut für den Datenschutz der Benutzer und die Netzwerkeffizienz ist (weniger On-Chain-Daten zum Speichern/Verifizieren).

  • Kompatibilität mit anderen Technologien: Interessanterweise können TEEs andere Technologien ergänzen (nicht streng genommen ein Vorteil, der TEEs allein innewohnt, sondern in Kombination). Sie können als Bindeglied dienen, das hybride Lösungen zusammenhält: z. B. das Ausführen eines Programms in einer Enklave und gleichzeitig das Generieren eines ZK-Proofs seiner Ausführung, wobei die Enklave bei Teilen des Beweisprozesses hilft, diesen zu beschleunigen. Oder die Verwendung von TEEs in MPC-Netzwerken, um bestimmte Aufgaben mit weniger Kommunikationsrunden zu bewältigen. Wir werden Vergleiche in §5 diskutieren, aber viele Projekte betonen, dass TEEs die Kryptografie nicht ersetzen müssen – sie können zusammenarbeiten, um die Sicherheit zu stärken (Sanders' Mantra: „Die Stärke von TEE liegt darin, andere zu unterstützen, nicht sie zu ersetzen“).

Vertrauensannahmen und Sicherheitslücken

Trotz ihrer Stärken führen TEEs spezifische Vertrauensannahmen ein und sind nicht unverwundbar. Es ist entscheidend, diese Herausforderungen zu verstehen:

  • Hardware-Vertrauen und Zentralisierung: Durch die Verwendung von TEEs vertraut man zwangsläufig dem Siliziumhersteller und der Sicherheit seines Hardware-Designs und seiner Lieferkette. Die Verwendung von Intel SGX bedeutet beispielsweise, darauf zu vertrauen, dass Intel keine Hintertüren hat, dass die Fertigung sicher ist und dass der Mikrocode der CPU die Enklaven-Isolation korrekt implementiert. Dies ist ein stärker zentralisiertes Vertrauensmodell im Vergleich zur reinen Kryptografie (die auf mathematischen Annahmen basiert, die unter allen Benutzern verteilt sind). Darüber hinaus basiert die Attestierung für SGX historisch auf der Kontaktaufnahme mit Intels Attestation Service, was bedeutet, dass Enklaven weltweit betroffen sein könnten, wenn Intel offline ginge oder beschließen würde, Schlüssel zu widerrufen. Diese Abhängigkeit von der Infrastruktur eines einzelnen Unternehmens wirft Bedenken auf: Es könnte ein Single Point of Failure sein oder sogar Ziel staatlicher Regulierung (z. B. könnten US-Exportkontrollen theoretisch einschränken, wer starke TEEs verwenden darf). AMD SEV mildert dies, indem es eine dezentralere Attestierung ermöglicht (VM-Besitzer können ihre VMs attestieren), vertraut aber immer noch dem Chip und der Firmware von AMD. Das Zentralisierungsrisiko wird oft als etwas der Dezentralisierung der Blockchain Entgegengesetztes angeführt. Projekte wie Keystone (Open-Source-TEE) und andere erforschen Wege, die Abhängigkeit von proprietären Black Boxes zu reduzieren, aber diese sind noch nicht Mainstream.

  • Seitenkanal- und andere Schwachstellen: Eine TEE ist kein Allheilmittel; sie kann durch indirekte Mittel angegriffen werden. Seitenkanalangriffe nutzen die Tatsache aus, dass selbst wenn der direkte Speicherzugriff blockiert ist, der Betrieb einer Enklave das System subtil beeinflussen könnte (durch Timing, Cache-Nutzung, Stromverbrauch, elektromagnetische Emissionen usw.). In den letzten Jahren wurden zahlreiche akademische Angriffe auf Intel SGX demonstriert: von Foreshadow (Extrahieren von Enklaven-Geheimnissen über L1-Cache-Timing-Leckage) über Plundervolt (Spannungsfehlerinjektion über privilegierte Anweisungen) bis hin zu SGAxe (Extrahieren von Attestierungsschlüsseln) und anderen. Diese ausgeklügelten Angriffe zeigen, dass TEEs kompromittiert werden können, ohne kryptografische Schutzmaßnahmen brechen zu müssen – stattdessen durch Ausnutzung mikroarchitektonischer Verhaltensweisen oder Implementierungsfehler. Infolgedessen wird anerkannt, dass „Forscher verschiedene potenzielle Angriffsvektoren identifiziert haben, die Hardware-Schwachstellen oder Zeitunterschiede bei TEE-Operationen ausnutzen könnten“. Obwohl diese Angriffe nicht trivial sind und oft entweder lokalen Zugriff oder bösartige Hardware erfordern, stellen sie eine reale Bedrohung dar. TEEs schützen im Allgemeinen auch nicht vor physischen Angriffen, wenn ein Angreifer den Chip in der Hand hat (z. B. kann das Entkapseln des Chips, das Abgreifen von Bussen usw. die meisten kommerziellen TEEs überwinden).

    Die Reaktionen der Anbieter auf Seitenkanal-Entdeckungen waren Mikrocode-Patches und Enklaven-SDK-Updates, um bekannte Lecks zu mindern (manchmal auf Kosten der Leistung). Aber es bleibt ein Katz-und-Maus-Spiel. Für Web3 bedeutet dies, dass, wenn jemand einen neuen Seitenkanal auf SGX findet, ein „sicherer“ DeFi-Vertrag, der in SGX läuft, potenziell ausgenutzt werden könnte (z. B. um geheime Daten preiszugeben oder die Ausführung zu manipulieren). Sich auf TEEs zu verlassen bedeutet also, eine potenzielle Angriffsfläche auf Hardware-Ebene zu akzeptieren, die außerhalb des typischen Blockchain-Bedrohungsmodells liegt. Es ist ein aktives Forschungsgebiet, TEEs dagegen zu stärken (z. B. durch das Design von Enklaven-Code mit konstanten Zeitoperationen, die Vermeidung von geheimnisabhängigen Speicherzugriffsmustern und die Verwendung von Techniken wie Oblivious RAM). Einige Projekte ergänzen TEEs auch mit sekundären Prüfungen – z. B. durch Kombination mit ZK-Proofs oder durch das Ausführen mehrerer Enklaven auf verschiedenen Hardware-Anbietern, um das Risiko eines einzelnen Chip-Kompromisses zu reduzieren.

  • Leistungs- und Ressourcenbeschränkungen: Obwohl TEEs für CPU-gebundene Aufgaben mit nahezu nativer Geschwindigkeit laufen, bringen sie einige Overheads und Grenzen mit sich. Das Umschalten in eine Enklave (ein ECALL) und aus ihr heraus (OCALL) ist mit Kosten verbunden, ebenso wie die Ver-/Entschlüsselung von Speicherseiten. Dies kann die Leistung bei sehr häufigen Enklaven-Grenzüberschreitungen beeinträchtigen. Enklaven haben oft auch Speichergrößenbeschränkungen. Zum Beispiel hatte frühes SGX einen begrenzten Enclave Page Cache, und wenn Enklaven mehr Speicher verwendeten, mussten Seiten (mit Verschlüsselung) ausgelagert werden, was die Leistung massiv verlangsamte. Selbst neuere TEEs erlauben oft nicht die einfache Nutzung des gesamten System-RAMs – es gibt einen sicheren Speicherbereich, der möglicherweise begrenzt ist. Dies bedeutet, dass sehr große Berechnungen oder Datensätze schwierig vollständig innerhalb einer TEE zu handhaben sein könnten. Im Web3-Kontext könnte dies die Komplexität von Smart Contracts oder ML-Modellen einschränken, die in einer Enklave laufen können. Entwickler müssen den Speicher optimieren und möglicherweise Workloads aufteilen.

  • Komplexität von Attestierung und Schlüsselverwaltung: Die Verwendung von TEEs in einer dezentralen Umgebung erfordert robuste Attestierungs-Workflows: Jeder Node muss anderen beweisen, dass er eine authentische Enklave mit erwartetem Code ausführt. Das Einrichten dieser On-Chain-Attestierungsprüfung kann komplex sein. Es beinhaltet normalerweise das Hardcodieren des öffentlichen Attestierungsschlüssels oder Zertifikats des Anbieters in das Protokoll und das Schreiben von Verifizierungslogik in Smart Contracts oder Off-Chain-Clients. Dies führt zu Overhead im Protokolldesign, und Änderungen (wie Intel, das sein Attestierungs-Signaturschlüsselformat von EPID auf DCAP ändert) können Wartungsaufwand verursachen. Zusätzlich fügt die Verwaltung von Schlüsseln innerhalb von TEEs (zum Entschlüsseln von Daten oder Signieren von Ergebnissen) eine weitere Komplexitätsebene hinzu. Fehler in der Enklaven-Schlüsselverwaltung könnten die Sicherheit untergraben (z. B. wenn eine Enklave versehentlich einen Entschlüsselungsschlüssel durch einen Fehler preisgibt, brechen alle ihre Vertraulichkeitsversprechen zusammen). Best Practices beinhalten die Verwendung der Sealing-APIs der TEE, um Schlüssel sicher zu speichern und Schlüssel bei Bedarf zu rotieren, aber auch dies erfordert eine sorgfältige Entwicklung durch die Entwickler.

  • Denial-of-Service und Verfügbarkeit: Ein vielleicht weniger diskutiertes Problem: TEEs tragen nicht zur Verfügbarkeit bei und können sogar neue DoS-Angriffswege eröffnen. Zum Beispiel könnte ein Angreifer einen TEE-basierten Dienst mit Eingaben überfluten, deren Verarbeitung kostspielig ist, in dem Wissen, dass die Enklave vom Betreiber nicht leicht inspiziert oder unterbrochen werden kann (da sie isoliert ist). Auch wenn eine Schwachstelle gefunden wird und ein Patch Firmware-Updates erfordert, müssen während dieses Zyklus viele Enklaven-Dienste möglicherweise pausieren (aus Sicherheitsgründen), bis die Nodes gepatcht sind, was zu Ausfallzeiten führt. Im Blockchain-Konsens stellen Sie sich vor, ein kritischer SGX-Bug würde gefunden – Netzwerke wie Secret müssten möglicherweise anhalten, bis eine Lösung gefunden ist, da das Vertrauen in die Enklaven gebrochen wäre. Die Koordination solcher Reaktionen in einem dezentralen Netzwerk ist eine Herausforderung.

Kompatibilität und Ökosystem-Einschränkungen

  • Begrenzte Kompatibilität mit anderen Verträgen: Auf einer öffentlichen Smart-Contract-Plattform wie Ethereum können Verträge andere Verträge leicht aufrufen, und der gesamte Zustand ist offen, was DeFi-Geld-Legos und eine reichhaltige Komposition ermöglicht. In einem TEE-basierten Vertragsmodell kann der private Zustand nicht frei geteilt oder komponiert werden, ohne die Vertraulichkeit zu verletzen. Wenn zum Beispiel Vertrag A in einer Enklave mit Vertrag B interagieren muss und beide geheime Daten enthalten, wie arbeiten sie dann zusammen? Entweder müssen sie ein komplexes sicheres Mehrparteienprotokoll durchführen (was die Einfachheit von TEEs teilweise aufhebt) oder sie werden zu einer Enklave kombiniert (was die Modularität reduziert). Dies ist eine Herausforderung, der sich Secret Network und andere stellen müssen: Cross-Contract-Aufrufe mit Datenschutz sind nicht trivial. Einige Lösungen beinhalten, dass eine einzelne Enklave die Ausführung mehrerer Verträge handhabt, sodass sie intern gemeinsame Geheimnisse verwalten kann, aber das kann das System monolithischer machen. Daher ist die Kompatibilität privater Verträge begrenzter als die öffentlicher, oder erfordert neue Designmuster. Ähnlich erfordert die Integration von TEE-basierten Modulen in bestehende Blockchain-dApps ein sorgfältiges Interface-Design – oft wird nur das Ergebnis einer Enklave On-Chain veröffentlicht, was ein Snark oder ein Hash sein könnte, und andere Verträge können nur diese begrenzten Informationen verwenden. Dies ist sicherlich ein Kompromiss; Projekte wie Secret bieten Viewing Keys und erlauben das Teilen von Geheimnissen nach dem Need-to-know-Prinzip, aber es ist nicht so nahtlos wie die normale On-Chain-Kompatibilität.

  • Standardisierung und Interoperabilität: Das TEE-Ökosystem verfügt derzeit nicht über einheitliche Standards über verschiedene Anbieter hinweg. Intel SGX, AMD SEV, ARM TrustZone haben alle unterschiedliche Programmiermodelle und Attestierungsmethoden. Diese Fragmentierung bedeutet, dass eine für SGX-Enklaven geschriebene dApp nicht trivial auf TrustZone usw. portierbar ist. In der Blockchain kann dies ein Projekt an eine bestimmte Hardware binden (z. B. sind Secret und Oasis derzeit an x86-Server mit SGX gebunden). Wenn diese später ARM-Nodes (z. B. Validatoren auf Mobilgeräten) unterstützen möchten, würde dies zusätzliche Entwicklung und möglicherweise eine andere Attestierungs-Verifizierungslogik erfordern. Es gibt Bemühungen (wie das CCC – Confidential Computing Consortium), Attestierungs- und Enklaven-APIs zu standardisieren, aber wir sind noch nicht ganz so weit. Der Mangel an Standards wirkt sich auch auf die Entwickler-Tools aus – man mag das SGX SDK als ausgereift empfinden, muss sich dann aber an eine andere TEE mit einem anderen SDK anpassen. Diese Interoperabilitätsherausforderung kann die Akzeptanz verlangsamen und die Kosten erhöhen.

  • Entwickler-Lernkurve: Das Erstellen von Anwendungen, die innerhalb von TEEs laufen, erfordert spezialisiertes Wissen, das viele Blockchain-Entwickler möglicherweise nicht besitzen. Oft sind Low-Level-C/C++-Programmierung (für SGX/TrustZone) oder Kenntnisse über Speichersicherheit und seitenkanalresistente Codierung erforderlich. Das Debuggen von Enklaven-Code ist bekanntermaßen schwierig (man kann aus Sicherheitsgründen während der Ausführung nicht einfach in eine Enklave hineinsehen!). Obwohl Frameworks und höhere Programmiersprachen (wie die Verwendung von Rust durch Oasis für ihre vertrauliche Laufzeitumgebung oder sogar Tools zum Ausführen von WebAssembly in Enklaven) existieren, ist die Entwicklererfahrung immer noch rauer als bei der typischen Smart-Contract-Entwicklung oder Off-Chain-Web2-Entwicklung. Diese steile Lernkurve und unreife Tools können Entwickler abschrecken oder zu Fehlern führen, wenn sie nicht sorgfältig gehandhabt werden. Es gibt auch den Aspekt, dass Hardware zum Testen benötigt wird – das Ausführen von SGX-Code erfordert eine SGX-fähige CPU oder einen Emulator (der langsamer ist), sodass die Einstiegshürde höher ist. Infolgedessen sind heute relativ wenige Entwickler tief mit der Enklaven-Entwicklung vertraut, was Audits und Community-Support knapper macht als beispielsweise in der etablierten Solidity-Community.

  • Betriebskosten: Der Betrieb einer TEE-basierten Infrastruktur kann kostspieliger sein. Die Hardware selbst kann teurer oder knapper sein (z. B. verlangen bestimmte Cloud-Anbieter einen Aufpreis für SGX-fähige VMs). Es gibt auch Overhead im Betrieb: Firmware auf dem neuesten Stand halten (für Sicherheitspatches), Attestierungsnetzwerke verwalten usw., was kleine Projekte als belastend empfinden könnten. Wenn jeder Node eine bestimmte CPU haben muss, könnte dies den potenziellen Validatoren-Pool reduzieren (nicht jeder hat die erforderliche Hardware), wodurch die Dezentralisierung beeinträchtigt und möglicherweise eine höhere Nutzung von Cloud-Hosting verursacht wird.

Zusammenfassend lässt sich sagen, dass TEEs zwar leistungsstarke Funktionen freischalten, aber auch Vertrauenskompromisse (Hardware-Vertrauen vs. Mathematik-Vertrauen), potenzielle Sicherheitslücken (insbesondere Seitenkanäle) und Integrationshürden in einem dezentralen Kontext mit sich bringen. Projekte, die TEEs verwenden, müssen diese Probleme sorgfältig umgehen – indem sie eine tiefgehende Verteidigung einsetzen (nicht davon ausgehen, dass die TEE unzerbrechlich ist), die vertrauenswürdige Computing-Basis minimal halten und transparent über die Vertrauensannahmen gegenüber den Benutzern sind (damit klar ist, dass man beispielsweise zusätzlich zum Blockchain-Konsens der Hardware von Intel vertraut).

5. TEEs vs. andere datenschutzfreundliche Technologien (ZKP, FHE, MPC)

Trusted Execution Environments sind ein Ansatz, um Datenschutz und Sicherheit in Web3 zu erreichen, aber es gibt andere wichtige Techniken, darunter Zero-Knowledge Proofs (ZKPs), Fully Homomorphic Encryption (FHE) und Secure Multi-Party Computation (MPC). Jede dieser Technologien hat ein anderes Vertrauensmodell und Leistungsprofil. In vielen Fällen schließen sie sich nicht gegenseitig aus – sie können sich ergänzen – aber es ist nützlich, ihre Kompromisse in Bezug auf Leistung, Vertrauen und Entwicklerfreundlichkeit zu vergleichen:

Um die Alternativen kurz zu definieren:

  • ZKPs: Kryptografische Beweise (wie zk-SNARKs, zk-STARKs), die es einer Partei ermöglichen, anderen zu beweisen, dass eine Aussage wahr ist (z. B. „Ich kenne ein Geheimnis, das diese Berechnung erfüllt“), ohne preiszugeben, warum sie wahr ist (indem die geheime Eingabe verborgen bleibt). In der Blockchain werden ZKPs für private Transaktionen (z. B. Zcash, Aztec) und für die Skalierbarkeit (Rollups, die Beweise für die korrekte Ausführung veröffentlichen) verwendet. Sie gewährleisten starken Datenschutz (es werden keine geheimen Daten preisgegeben, nur Beweise) und Integrität, die durch Mathematik garantiert wird, aber die Generierung dieser Beweise kann rechnerisch aufwendig sein, und die Schaltkreise müssen sorgfältig entworfen werden.
  • FHE: Verschlüsselungsschema, das beliebige Berechnungen auf verschlüsselten Daten ermöglicht, sodass das Ergebnis nach der Entschlüsselung mit dem Ergebnis der Berechnung auf Klartextdaten übereinstimmt. Theoretisch bietet FHE ultimative Privatsphäre – Daten bleiben jederzeit verschlüsselt – und man muss niemandem die Rohdaten anvertrauen. Aber FHE ist für allgemeine Berechnungen extrem langsam (obwohl es sich durch Forschung verbessert); es wird aufgrund der Leistung immer noch hauptsächlich experimentell oder spezialisiert eingesetzt.
  • MPC: Protokolle, bei denen mehrere Parteien gemeinsam eine Funktion über ihre privaten Eingaben berechnen, ohne diese Eingaben einander preiszugeben. Es beinhaltet oft die Geheimnisverteilung von Daten unter den Parteien und die Durchführung kryptografischer Operationen, sodass die Ausgabe korrekt ist, aber individuelle Eingaben verborgen bleiben. MPC kann Vertrauen verteilen (kein einzelner Punkt sieht alle Daten) und kann für bestimmte Operationen effizient sein, verursacht aber typischerweise einen Kommunikations- und Koordinations-Overhead und kann für große Netzwerke komplex zu implementieren sein.

Unten finden Sie eine Vergleichstabelle, die die wichtigsten Unterschiede zusammenfasst:

TechnologieVertrauensmodellLeistungDatenschutzEntwicklerfreundlichkeit
TEE (Intel SGX, etc.)Vertrauen in den Hardwarehersteller (in einigen Fällen zentralisierter Attestierungsserver). Geht davon aus, dass der Chip sicher ist; wenn die Hardware kompromittiert wird, ist die Sicherheit gebrochen.Nahezu native Ausführungsgeschwindigkeit; minimaler Overhead. Gut für Echtzeitberechnungen und große Workloads. Skalierbarkeit begrenzt durch Verfügbarkeit TEE-fähiger Nodes.Daten sind im Klartext innerhalb der Enklave, aber für die Außenwelt verschlüsselt. Starke Vertraulichkeit, wenn die Hardware hält, aber wenn die Enklave verletzt wird, sind Geheimnisse exponiert (kein zusätzlicher mathematischer Schutz).Moderate Komplexität. Kann oft bestehenden Code/Sprachen (C, Rust) wiederverwenden und mit geringfügigen Änderungen in der Enklave ausführen. Niedrigste Einstiegshürde unter diesen – keine Notwendigkeit, fortgeschrittene Kryptografie zu lernen – erfordert aber Systemprogrammierung und TEE-spezifisches SDK-Wissen.
ZKP (zk-SNARK/STARK)Vertrauen in mathematische Annahmen (z. B. Härte kryptografischer Probleme) und manchmal ein Trusted Setup (für SNARKs). Keine Abhängigkeit von einer einzelnen Partei zur Laufzeit.Die Beweisgenerierung ist rechnerisch aufwendig (insbesondere für komplexe Programme), oft um Größenordnungen langsamer als nativ. Die Verifizierung On-Chain ist schnell (wenige ms). Nicht ideal für große Datenberechnungen aufgrund der Beweiszeit. Skalierbarkeit: gut für prägnante Verifizierung (Rollups), aber der Prover ist der Engpass.Sehr starker Datenschutz – kann die Korrektheit beweisen, ohne private Eingaben preiszugeben. Nur minimale Informationen (wie die Beweisgröße) werden geleakt. Ideal für finanzielle Privatsphäre usw.Hohe Komplexität. Erfordert das Erlernen spezialisierter Sprachen (Schaltkreise, zkDSLs wie Circom oder Noir) und das Denken in arithmetischen Schaltkreisen. Debugging ist schwierig. Weniger Experten verfügbar.
FHEVertrauen in die Mathematik (Gitterprobleme). Keine vertrauenswürdige Partei; Sicherheit gilt, solange die Verschlüsselung nicht gebrochen wird.Sehr langsam für den allgemeinen Gebrauch. Operationen auf verschlüsselten Daten sind um mehrere Größenordnungen langsamer als Klartext. Skaliert etwas mit Hardwareverbesserungen und besseren Algorithmen, aber derzeit unpraktisch für den Echtzeiteinsatz in Blockchain-Kontexten.Ultimativer Datenschutz – Daten bleiben während der gesamten Zeit verschlüsselt, auch während der Berechnung. Dies ist ideal für sensible Daten (z. B. medizinische, institutionsübergreifende Analysen), wenn die Leistung dies zulässt.Sehr spezialisiert. Entwickler benötigen Krypto-Hintergrund. Einige Bibliotheken (wie Microsoft SEAL, TFHE) existieren, aber das Schreiben beliebiger Programme in FHE ist schwierig und umständlich. Noch kein routinemäßiges Entwicklungsziel für dApps.
MPCVertrauen verteilt auf mehrere Parteien. Geht davon aus, dass eine Schwelle von Parteien ehrlich ist (keine Kollusion über eine bestimmte Anzahl hinaus). Kein Hardware-Vertrauen erforderlich. Vertrauensbruch, wenn zu viele kolludieren.Typischerweise langsamer als nativ aufgrund von Kommunikationsrunden, aber oft schneller als FHE. Die Leistung variiert: einfache Operationen (Addieren, Multiplizieren) können effizient sein; komplexe Logik kann die Kommunikationskosten in die Höhe treiben. Die Latenz ist empfindlich gegenüber Netzwerkgeschwindigkeiten. Die Skalierbarkeit kann durch Sharding oder partielle Vertrauensannahmen verbessert werden.Starker Datenschutz, wenn die Annahmen zutreffen – kein einzelner Node sieht die gesamte Eingabe. Aber einige Informationen können über die Ausgabe oder wenn Parteien ausfallen, durchsickern (außerdem fehlt die Prägnanz von ZK – man erhält das Ergebnis, aber keinen leicht teilbaren Beweis dafür, ohne das Protokoll erneut auszuführen).Hohe Komplexität. Erfordert das Entwerfen eines benutzerdefinierten Protokolls für jeden Anwendungsfall oder die Verwendung von Frameworks (wie SPDZ oder das Angebot von Partisia). Entwickler müssen über kryptografische Protokolle nachdenken und oft die Bereitstellung mehrerer Nodes koordinieren. Die Integration in Blockchain-Apps kann komplex sein (erfordert Off-Chain-Runden).

Zitationen: Der obige Vergleich stützt sich auf Quellen wie die Analyse von Sanders Network und andere, die hervorheben, dass TEEs in Geschwindigkeit und Benutzerfreundlichkeit überzeugen, während ZK und FHE auf maximale Vertrauenslosigkeit auf Kosten hoher Rechenleistung abzielen und MPC Vertrauen verteilt, aber Netzwerk-Overhead einführt.

Aus der Tabelle werden einige wichtige Kompromisse deutlich:

  • Leistung: TEEs haben einen großen Vorteil in Bezug auf Rohgeschwindigkeit und geringe Latenz. MPC kann oft moderate Komplexität mit einer gewissen Verlangsamung bewältigen, ZK ist langsam in der Erzeugung, aber schnell in der Verifizierung (asynchrone Nutzung), und FHE ist derzeit bei weitem die langsamste Option für beliebige Aufgaben (obwohl es für begrenzte Operationen wie einfache Additionen/Multiplikationen in Ordnung ist). Wenn Ihre Anwendung komplexe Echtzeitverarbeitung benötigt (wie interaktive Anwendungen, Hochfrequenzentscheidungen), sind TEEs oder vielleicht MPC (mit wenigen Parteien und guten Verbindungen) heute die einzigen praktikablen Optionen. ZK und FHE wären in solchen Szenarien zu langsam.

  • Vertrauensmodell: ZKP und FHE sind rein vertrauenslos (vertrauen nur der Mathematik). MPC verlagert das Vertrauen auf Annahmen über die Ehrlichkeit der Teilnehmer (was durch viele Parteien oder wirtschaftliche Anreize gestärkt werden kann). TEEs vertrauen der Hardware und dem Anbieter. Dies ist ein grundlegender Unterschied: TEEs führen eine vertrauenswürdige dritte Partei (den Chip) in die normalerweise vertrauenslose Welt der Blockchain ein. Im Gegensatz dazu werden ZK und FHE oft dafür gelobt, besser mit dem dezentralen Ethos übereinzustimmen – keine besonderen Entitäten, denen man vertrauen muss, nur rechnerische Härte. MPC liegt dazwischen: Vertrauen ist dezentralisiert, aber nicht eliminiert (wenn N von M Nodes kolludieren, bricht der Datenschutz zusammen). Für maximale Vertrauenslosigkeit (z. B. ein wirklich zensurresistentes, dezentrales System) könnte man sich daher kryptografischen Lösungen zuwenden. Andererseits sind viele praktische Systeme damit einverstanden, anzunehmen, dass Intel ehrlich ist oder dass eine Reihe wichtiger Validatoren nicht kolludieren wird, und tauschen ein wenig Vertrauen gegen enorme Effizienzgewinne ein.

  • Sicherheit/Schwachstellen: TEEs können, wie besprochen, durch Hardwarefehler oder Seitenkanäle untergraben werden. Die Sicherheit von ZK und FHE kann untergraben werden, wenn die zugrunde liegende Mathematik (z. B. elliptische Kurven- oder Gitterprobleme) gebrochen wird, aber dies sind gut untersuchte Probleme, und Angriffe würden wahrscheinlich bemerkt werden (auch können Parameterwahlen bekannte Risiken mindern). Die Sicherheit von MPC kann durch aktive Angreifer gebrochen werden, wenn das Protokoll nicht dafür ausgelegt ist (einige MPC-Protokolle gehen von „ehrlichen, aber neugierigen“ Teilnehmern aus und könnten fehlschlagen, wenn jemand offen betrügt). Im Blockchain-Kontext könnte ein TEE-Bruch katastrophaler sein (alle Enklaven-basierten Verträge könnten gefährdet sein, bis sie gepatcht sind), während ein kryptografischer ZK-Bruch (wie die Entdeckung eines Fehlers in einer von einem ZK-Rollup verwendeten Hash-Funktion) ebenfalls katastrophal sein könnte, aber angesichts der einfacheren Annahme im Allgemeinen als weniger wahrscheinlich angesehen wird. Die Angriffsfläche ist sehr unterschiedlich: TEEs müssen sich um Dinge wie Leistungsanalyse kümmern, während ZK sich um mathematische Durchbrüche kümmern muss.

  • Datenschutz: FHE und ZK bieten die stärksten Datenschutzgarantien – Daten bleiben kryptografisch geschützt. MPC stellt sicher, dass Daten geheim geteilt werden, sodass keine einzelne Partei sie sieht (obwohl einige Informationen durchsickern könnten, wenn Ausgaben öffentlich sind oder Protokolle nicht sorgfältig entworfen wurden). TEE hält Daten von außen privat, aber innerhalb der Enklave werden Daten entschlüsselt; wenn jemand irgendwie die Kontrolle über die Enklave erlangt, geht die Datenvertraulichkeit verloren. Außerdem erlauben TEEs dem Code typischerweise, alles mit den Daten zu tun (einschließlich unbeabsichtigter Leckage durch Seitenkanäle oder das Netzwerk, wenn der Code bösartig ist). TEEs erfordern also, dass Sie auch dem Enklaven-Code vertrauen, nicht nur der Hardware. Im Gegensatz dazu beweisen ZKPs Eigenschaften des Codes, ohne jemals Geheimnisse preiszugeben, sodass Sie dem Code nicht einmal vertrauen müssen (außer dass er tatsächlich die bewiesene Eigenschaft besitzt). Wenn eine Enklaven-Anwendung einen Fehler hätte, der Daten in eine Protokolldatei leckte, würde die TEE-Hardware dies nicht verhindern – während ein ZK-Beweissystem einfach nichts außer dem beabsichtigten Beweis preisgeben würde. Dies ist eine Nuance: TEEs schützen vor externen Angreifern, aber nicht unbedingt vor Logikfehlern im Enklaven-Programm selbst, während ZKs Design einen deklarativeren Ansatz erzwingt (man beweist genau das, was beabsichtigt ist und nichts weiter).

  • Kompatibilität & Integration: TEEs lassen sich recht einfach in bestehende Systeme integrieren – man kann ein bestehendes Programm nehmen, es in eine Enklave legen und einige Sicherheitsvorteile erzielen, ohne das Programmiermodell zu stark zu ändern. ZK und FHE erfordern oft das Umschreiben des Programms in einen Schaltkreis oder eine restriktive Form, was ein enormer Aufwand sein kann. Zum Beispiel beinhaltet das Schreiben einer einfachen KI-Modellverifizierung in ZK die Transformation in eine Reihe von arithmetischen Operationen und Einschränkungen, was weit entfernt davon ist, einfach TensorFlow in einer TEE auszuführen und das Ergebnis zu attestieren. MPC kann ebenfalls ein benutzerdefiniertes Protokoll pro Anwendungsfall erfordern. Aus Sicht der Entwicklerproduktivität und Kosten sind TEEs daher attraktiv. Wir haben gesehen, dass TEEs in einigen Bereichen schneller angenommen wurden, gerade weil man bestehende Software-Ökosysteme nutzen kann (viele Bibliotheken laufen mit geringfügigen Anpassungen in Enklaven). ZK/MPC erfordern spezialisiertes Ingenieurwissen, das knapp ist. Die Kehrseite ist jedoch, dass TEEs eine Lösung liefern, die oft stärker isoliert ist (man muss dieser Enklave oder dieser Gruppe von Nodes vertrauen), während ZK einen Beweis liefert, den jeder On-Chain überprüfen kann, was ihn hochgradig kompatibel macht (jeder Vertrag kann einen zk-Proof verifizieren). ZK-Ergebnisse sind also portabel – sie erzeugen einen kleinen Beweis, den beliebig viele andere Verträge oder Benutzer nutzen können, um Vertrauen zu gewinnen. TEE-Ergebnisse liegen normalerweise in Form einer Attestierung vor, die an eine bestimmte Hardware gebunden und möglicherweise nicht prägnant ist; sie sind möglicherweise nicht so leicht teilbar oder kettenunabhängig (obwohl man eine Signatur des Ergebnisses veröffentlichen und Verträge so programmieren kann, dass sie diese akzeptieren, wenn sie den öffentlichen Schlüssel der Enklave kennen).

In der Praxis sehen wir hybride Ansätze: Zum Beispiel argumentiert Sanders Network, dass TEE, MPC und ZK jeweils in verschiedenen Bereichen glänzen und sich gegenseitig ergänzen können. Ein konkreter Fall ist die dezentrale Identität: Man könnte ZK-Proofs verwenden, um eine Identitätsberechtigung zu beweisen, ohne sie preiszugeben, aber diese Berechtigung könnte durch einen TEE-basierten Prozess überprüft und ausgestellt worden sein, der Ihre Dokumente privat geprüft hat. Oder betrachten Sie die Skalierung: ZK-Rollups liefern prägnante Beweise für viele Transaktionen, aber die Generierung dieser Beweise könnte durch die Verwendung von TEEs beschleunigt werden, um einige Berechnungen schneller durchzuführen (und dann nur eine kleinere Aussage zu beweisen). Die Kombination kann manchmal die Vertrauensanforderung an TEEs reduzieren (z. B. TEEs für die Leistung verwenden, aber die endgültige Korrektheit immer noch über einen ZK-Proof oder über ein On-Chain-Challenge-Spiel überprüfen, sodass eine kompromittierte TEE nicht betrügen kann, ohne erwischt zu werden). MPC kann mit TEEs kombiniert werden, indem der Rechen-Node jeder Partei eine TEE ist, was eine zusätzliche Schicht hinzufügt, sodass selbst wenn einige Parteien kolludieren, sie die Daten der anderen immer noch nicht sehen können, es sei denn, sie brechen auch die Hardware-Sicherheit.

Zusammenfassend bieten TEEs einen sehr praktischen und sofortigen Weg zu sicherer Berechnung mit moderaten Annahmen (Hardware-Vertrauen), während ZK und FHE einen eher theoretischen und vertrauenslosen Weg zu hohen Rechenkosten bieten und MPC einen verteilten Vertrauensweg mit Netzwerkkosten. Die richtige Wahl in Web3 hängt von den Anwendungsanforderungen ab:

  • Wenn Sie schnelle, komplexe Berechnungen mit privaten Daten benötigen (wie KI, große Datensätze) – sind TEEs (oder MPC mit wenigen Parteien) derzeit der einzig praktikable Weg.
  • Wenn Sie maximale Dezentralisierung und Verifizierbarkeit benötigen – glänzen ZK-Proofs (zum Beispiel bevorzugen private Kryptowährungstransaktionen ZKP wie bei Zcash, weil Benutzer nichts außer Mathematik vertrauen wollen).
  • Wenn Sie kollaboratives Computing zwischen mehreren Stakeholdern benötigen – ist MPC natürlich geeignet (wie Mehrparteien-Schlüsselverwaltung oder Auktionen).
  • Wenn Sie extrem sensible Daten haben und langfristiger Datenschutz ein Muss ist – könnte FHE attraktiv sein, wenn sich die Leistung verbessert, denn selbst wenn jemand Jahre später Ihre Chiffretexte erhält, erfahren sie ohne den Schlüssel nichts; wohingegen ein Enklaven-Kompromiss Geheimnisse rückwirkend preisgeben könnte, wenn Protokolle geführt wurden.

Es ist erwähnenswert, dass der Blockchain-Bereich all diese Technologien parallel aktiv erforscht. Wir werden wahrscheinlich Kombinationen sehen: z. B. Layer-2-Lösungen, die TEEs integrieren, um Transaktionen zu sequenzieren und dann einen ZKP zu verwenden, um zu beweisen, dass die TEE die Regeln befolgt hat (ein Konzept, das in einigen Ethereum-Forschungen untersucht wird), oder MPC-Netzwerke, die TEEs in jedem Node verwenden, um die Komplexität der MPC-Protokolle zu reduzieren (da jeder Node intern sicher ist und mehrere Parteien simulieren kann).

Letztendlich ist die Wahl zwischen TEEs, ZK, MPC und FHE keine Nullsummenentscheidung – jede zielt auf unterschiedliche Punkte im Dreieck von Sicherheit, Leistung und Vertrauenslosigkeit ab. Wie ein Artikel es formulierte, stehen alle vier vor einem „unmöglichen Dreieck“ aus Leistung, Kosten und Sicherheit – keine einzelne Lösung ist in allen Aspekten überlegen. Das optimale Design verwendet oft das richtige Werkzeug für den richtigen Teil des Problems.

6. Akzeptanz in wichtigen Blockchain-Ökosystemen

Trusted Execution Environments haben in verschiedenen Blockchain-Ökosystemen unterschiedliche Akzeptanzgrade erfahren, oft beeinflusst durch die Prioritäten dieser Gemeinschaften und die Einfachheit der Integration. Hier bewerten wir, wie TEEs in einigen der wichtigsten Ökosysteme genutzt (oder erforscht) werden: Ethereum, Cosmos und Polkadot, sowie andere.

Ethereum (und allgemeine Layer-1s)

Auf dem Ethereum-Mainnet selbst sind TEEs nicht Teil des Kernprotokolls, wurden aber in Anwendungen und Layer-2s eingesetzt. Ethereums Philosophie stützt sich auf kryptografische Sicherheit (z. B. aufkommende ZK-Rollups), aber TEEs haben Rollen in Oracles und Off-Chain-Ausführung für Ethereum gefunden:

  • Oracle-Dienste: Wie besprochen, hat Chainlink TEE-basierte Lösungen wie Town Crier integriert. Obwohl nicht alle Chainlink-Nodes standardmäßig TEEs verwenden, ist die Technologie für Datenfeeds verfügbar, die zusätzliches Vertrauen erfordern. Auch API3 (ein weiteres Oracle-Projekt) hat die Verwendung von Intel SGX erwähnt, um APIs auszuführen und Daten zu signieren, um die Authentizität zu gewährleisten. Diese Dienste speisen Daten mit stärkeren Zusicherungen in Ethereum-Verträge ein.

  • Layer-2 und Rollups: In der Ethereum-Community gibt es laufende Forschung und Debatten über die Verwendung von TEEs in Rollup-Sequencern oder Validatoren. Zum Beispiel haben das Konzept „ZK-Portal“ von ConsenSys und andere die Verwendung von TEEs vorgeschlagen, um die korrekte Reihenfolge in optimistischen Rollups durchzusetzen oder den Sequencer vor Zensur zu schützen. Der von uns gesehene Medium-Artikel deutet sogar darauf hin, dass TEE bis 2025 zu einer Standardfunktion in einigen L2s für Dinge wie den Schutz vor Hochfrequenzhandel werden könnte. Projekte wie Catalyst (eine Hochfrequenzhandels-DEX) und Flashbots (für MEV-Relays) haben TEEs untersucht, um eine faire Reihenfolge von Transaktionen durchzusetzen, bevor sie die Blockchain erreichen.

  • Enterprise Ethereum: In Konsortial- oder Permissioned-Ethereum-Netzwerken sind TEEs weiter verbreitet. Das Trusted Compute Framework (TCF) der Enterprise Ethereum Alliance war im Grunde ein Entwurf zur Integration von TEEs in Ethereum-Clients. Hyperledger Avalon (ehemals EEA TCF) ermöglicht die Ausführung von Teilen von Ethereum-Smart Contracts Off-Chain in einer TEE und deren anschließende Verifizierung On-Chain. Mehrere Unternehmen wie IBM, Microsoft und iExec haben dazu beigetragen. Während dies auf öffentlichem Ethereum nicht üblich geworden ist, können in privaten Implementierungen (z. B. einer Gruppe von Banken, die Quorum oder Besu verwenden) TEEs eingesetzt werden, sodass selbst Konsortialmitglieder die Daten der anderen nicht sehen, sondern nur autorisierte Ergebnisse. Dies kann die Datenschutzanforderungen in einem Unternehmensumfeld erfüllen.

  • Bemerkenswerte Projekte: Neben iExec, das auf Ethereum operiert, gab es Projekte wie Enigma (das ursprünglich als MPC-Projekt am MIT begann, dann auf SGX umstieg; es wurde später zum Secret Network auf Cosmos). Ein weiteres war Decentralized Cloud Services (DCS) in frühen Ethereum-Diskussionen. In jüngerer Zeit ermöglicht OAuth (Oasis Ethereum ParaTime) Solidity-Verträgen, mit Vertraulichkeit zu laufen, indem es das TEE-Backend von Oasis nutzt, aber auf Ethereum abrechnet. Auch einige Ethereum-basierte dApps wie medizinische Datenfreigabe oder Gaming haben mit TEEs experimentiert, indem sie eine Off-Chain-Enklavenkomponente hatten, die mit ihren Verträgen interagiert.

Die Akzeptanz von Ethereum ist also eher indirekt – es hat das Protokoll nicht geändert, um TEEs zu erfordern, aber es verfügt über eine Vielzahl optionaler Dienste und Erweiterungen, die TEEs für diejenigen nutzen, die sie benötigen. Wichtig ist, dass Ethereum-Forscher vorsichtig bleiben: Vorschläge, einen „TEE-only Shard“ zu erstellen oder TEEs tief zu integrieren, stießen in der Community aufgrund von Vertrauensbedenken auf Skepsis. Stattdessen werden TEEs eher als „Co-Prozessoren“ für Ethereum denn als Kernkomponenten angesehen.

Cosmos-Ökosystem

Das Cosmos-Ökosystem ist durch sein modulares SDK und seine souveränen Chains experimentierfreundlich, und Secret Network (oben behandelt) ist ein Paradebeispiel für die TEE-Akzeptanz in Cosmos. Secret Network ist tatsächlich eine Cosmos SDK-Chain mit Tendermint-Konsens, die so modifiziert wurde, dass sie SGX in ihren Validatoren vorschreibt. Es ist eine der prominentesten Cosmos-Zonen nach dem Haupt-Cosmos Hub, was eine signifikante Akzeptanz der TEE-Technologie in dieser Community anzeigt. Der Erfolg von Secret bei der Bereitstellung von Interchain-Datenschutz (durch seine IBC-Verbindungen kann Secret als Datenschutz-Hub für andere Cosmos-Chains dienen) ist ein bemerkenswerter Fall der TEE-Integration auf L1.

Ein weiteres Cosmos-bezogenes Projekt ist Oasis Network (obwohl nicht auf dem Cosmos SDK aufgebaut, wurde es von einigen der gleichen Personen entworfen, die zu Tendermint beigetragen haben und teilt ein ähnliches Ethos modularer Architektur). Oasis ist eigenständig, kann aber über Bridges usw. mit Cosmos verbunden werden. Sowohl Secret als auch Oasis zeigen, dass im Cosmos-Land die Idee von „Datenschutz als Funktion“ über TEEs genügend Anklang gefunden hat, um dedizierte Netzwerke zu rechtfertigen.

Cosmos hat sogar ein Konzept von „Datenschutzanbietern“ für Interchain-Anwendungen – z. B. kann eine App auf einer Kette einen Vertrag im Secret Network über IBC aufrufen, um eine vertrauliche Berechnung durchzuführen und dann das Ergebnis zurückzuerhalten. Diese Kompatibilität entsteht jetzt.

Zusätzlich hat das Projekt Anoma (nicht streng Cosmos, aber im Sinne der Interoperabilität verwandt) über die Verwendung von TEEs für absichtsbasierte Architekturen gesprochen, obwohl dies eher theoretisch ist.

Kurz gesagt, Cosmos hat mindestens eine große Chain, die TEEs vollständig nutzt (Secret), und andere, die mit ihr interagieren, was eine gesunde Akzeptanz in diesem Bereich zeigt. Die Modularität von Cosmos könnte weitere solcher Chains ermöglichen (zum Beispiel könnte man sich eine Cosmos-Zone vorstellen, die sich auf TEE-basierte Oracles oder Identität spezialisiert).

Polkadot und Substrate

Polkadots Design ermöglicht es Parachains, sich zu spezialisieren, und tatsächlich hostet Polkadot mehrere Parachains, die TEEs verwenden:

  • Sanders Network: Bereits beschrieben; eine Parachain, die eine TEE-basierte Compute-Cloud anbietet. Sanders ist als Parachain live und bietet Dienste für andere Chains über XCMP (Cross-Chain Message Passing) an. Zum Beispiel kann ein anderes Polkadot-Projekt eine vertrauliche Aufgabe an Sanders' Worker auslagern und einen Beweis oder ein Ergebnis zurückerhalten. Sanders' native Token-Ökonomie incentiviert den Betrieb von TEE-Nodes, und es hat eine beträchtliche Community, was eine starke Akzeptanz signalisiert.
  • Integritee: Eine weitere Parachain, die sich auf Unternehmens- und Datenschutzlösungen mittels TEEs konzentriert. Integritee ermöglicht es Teams, ihre eigenen privaten Side-Chains (genannt Teewasms) zu implementieren, bei denen die Ausführung in Enklaven erfolgt. Sie zielt auf Anwendungsfälle wie die vertrauliche Datenverarbeitung für Unternehmen ab, die sich weiterhin an die Polkadot-Sicherheit binden möchten.
  • /Root oder Crust?: Es gab Ideen, TEEs für dezentralen Speicher oder Zufallsbaken in einigen Polkadot-bezogenen Projekten zu verwenden. Zum Beispiel plante Crust Network (dezentraler Speicher) ursprünglich einen TEE-basierten Proof-of-Storage (obwohl es später zu einem anderen Design wechselte). Und Polkadots zufällige Parachain (Entropy) zog TEEs vs. VRFs in Betracht.

Polkadots Abhängigkeit von On-Chain-Governance und Upgrades bedeutet, dass Parachains neue Technologien schnell integrieren können. Sowohl Sanders als auch Integritee haben Upgrades durchlaufen, um ihre TEE-Integration zu verbessern (wie die Unterstützung neuer SGX-Funktionen oder die Verfeinerung von Attestierungsmethoden). Die Web3 Foundation finanzierte auch frühere Bemühungen bei Substrate-basierten TEE-Projekten wie SubstraTEE (einem frühen Prototyp, der Off-Chain-Vertragsausführung in TEEs mit On-Chain-Verifizierung zeigte).

Das Polkadot-Ökosystem zeigt somit mehrere unabhängige Teams, die auf TEE-Technologie setzen, was einen positiven Akzeptanztrend anzeigt. Es wird zu einem Verkaufsargument für Polkadot, dass „wenn Sie vertrauliche Smart Contracts oder Off-Chain-Berechnungen benötigen, wir Parachains dafür haben“.

Andere Ökosysteme und allgemeine Akzeptanz

  • Unternehmen und Konsortien: Außerhalb des öffentlichen Kryptobereichs haben Hyperledger und Unternehmensketten TEEs für permissionierte Umgebungen stetig übernommen. Zum Beispiel testete der Basler Ausschuss eine TEE-basierte Handelsfinanzierungs-Blockchain. Das allgemeine Muster ist: Wo Datenschutz oder Datenvertraulichkeit ein Muss sind und die Teilnehmer bekannt sind (sodass sie möglicherweise sogar gemeinsam in Hardware-Sicherheitsmodule investieren), finden TEEs ein komfortables Zuhause. Diese mögen in Krypto-Nachrichten keine Schlagzeilen machen, aber in Sektoren wie Lieferkette, Bankenkonsortien oder Netzwerken zum Austausch von Gesundheitsdaten sind TEEs oft die erste Wahl (als Alternative dazu, einfach einem Dritten zu vertrauen oder schwere Kryptografie zu verwenden).

  • Layer-1s außerhalb von Ethereum: Einige neuere L1s haben mit TEEs experimentiert. NEAR Protocol hatte ein frühes Konzept eines TEE-basierten Shards für private Verträge (noch nicht implementiert). Celo zog TEEs für Light-Client-Proofs in Betracht (ihre Plumo-Proofs basieren jetzt auf Snarks, aber sie untersuchten SGX, um Kettendaten für Mobilgeräte zu einem bestimmten Zeitpunkt zu komprimieren). Concordium, eine regulierte Datenschutz-L1, verwendet ZK für Anonymität, erforscht aber auch TEEs für die Identitätsprüfung. Dfinity/Internet Computer verwendet sichere Enklaven in seinen Node-Maschinen, aber zum Bootstrapping von Vertrauen (nicht für die Vertragsausführung, da ihre „Chain Key“-Kryptografie dies handhabt).

  • Bitcoin: Obwohl Bitcoin selbst keine TEEs verwendet, gab es Nebenprojekte. Zum Beispiel **TEE-basierte Verwahrungslösungen

EIP-7702 nach Pectra: Ein praktisches Handbuch für Ethereum App-Entwickler

· 10 Minuten Lesezeit
Dora Noda
Software Engineer

Am 7. Mai 2025 wurde Ethereums Pectra-Upgrade (Prague + Electra) im Mainnet aktiviert. Zu den für Entwickler sichtbarsten Änderungen gehört EIP-7702, das einem extern besessenen Konto (EOA) ermöglicht, Smart-Contract-Logik zu „implementieren“ – ohne Gelder zu migrieren oder Adressen zu ändern. Wenn Sie Wallets, DApps oder Relayer entwickeln, eröffnet dies einen einfacheren Weg zur Smart-Account-UX.

Im Folgenden finden Sie einen prägnanten, implementierungszentrierten Leitfaden: Was tatsächlich ausgeliefert wurde, wie 7702 funktioniert, wann Sie es gegenüber reinem ERC-4337 wählen sollten und ein sofort anpassbares Code-Gerüst.


Was tatsächlich ausgeliefert wurde

  • EIP-7702 ist im finalen Umfang von Pectra enthalten. Das Meta-EIP für den Pectra-Hardfork listet 7702 offiziell unter den enthaltenen Änderungen auf.
  • Aktivierungsdetails: Pectra wurde am 7. Mai 2025 im Mainnet bei Epoch 364032 aktiviert, nach erfolgreichen Aktivierungen auf allen wichtigen Testnets.
  • Hinweis zur Toolchain: Solidity v0.8.30 hat sein Standard-EVM-Ziel für die Pectra-Kompatibilität auf prague aktualisiert. Sie müssen Ihre Compiler und CI-Pipelines aktualisieren, insbesondere wenn Sie bestimmte Versionen festlegen.

EIP-7702 – Funktionsweise (Grundlagen)

EIP-7702 führt einen neuen Transaktionstyp und einen Mechanismus ein, mit dem ein EOA seine Ausführungslogik an einen Smart Contract delegieren kann.

  • Neuer Transaktionstyp (0x04): Eine Typ-4-Transaktion enthält ein neues Feld namens authorization_list. Diese Liste enthält ein oder mehrere Autorisierungs-Tupel – (chain_id, address, nonce, y_parity, r, s) – jeweils signiert mit dem privaten Schlüssel des EOA. Wenn diese Transaktion verarbeitet wird, schreibt das Protokoll einen Delegationsindikator in das Code-Feld des EOA: 0xef0100 || address. Von diesem Zeitpunkt an werden alle Aufrufe an das EOA an die angegebene address (die Implementierung) weitergeleitet, aber sie werden im Speicher- und Kontostandkontext des EOA ausgeführt. Diese Delegation bleibt aktiv, bis sie explizit geändert wird.
  • Kettenumfang: Eine Autorisierung kann kettenspezifisch sein, indem eine chain_id angegeben wird, oder sie kann für alle Ketten gelten, wenn chain_id auf 0 gesetzt ist. Dies ermöglicht es Ihnen, denselben Implementierungsvertrag über mehrere Netzwerke hinweg bereitzustellen, ohne dass Benutzer für jedes Netzwerk eine neue Autorisierung unterzeichnen müssen.
  • Widerruf: Um ein EOA auf sein ursprüngliches, nicht-programmierbares Verhalten zurückzusetzen, senden Sie einfach eine weitere 7702-Transaktion, bei der die Implementierungs-address auf die Null-Adresse gesetzt ist. Dies löscht den Delegationsindikator.
  • Selbstfinanziert vs. weitergeleitet: Ein EOA kann die Typ-4-Transaktion selbst senden, oder ein Drittanbieter-Relayer kann sie im Namen des EOA senden. Letzteres ist üblich, um eine gaslose Benutzererfahrung zu schaffen. Die Nonce-Handhabung unterscheidet sich geringfügig je nach Methode, daher ist es wichtig, Bibliotheken zu verwenden, die diese Unterscheidung korrekt verwalten.

Verschiebung des Sicherheitsmodells: Da der ursprüngliche private Schlüssel des EOA weiterhin existiert, kann er Smart-Contract-Regeln (wie Social Recovery oder Ausgabenlimits) jederzeit außer Kraft setzen, indem er eine neue 7702-Transaktion zur Änderung der Delegation übermittelt. Dies ist eine grundlegende Verschiebung. Verträge, die sich auf tx.origin verlassen, um zu überprüfen, ob ein Aufruf von einem EOA stammt, müssen neu geprüft werden, da 7702 diese Annahmen brechen kann. Überprüfen Sie Ihre Abläufe entsprechend.


7702 oder ERC-4337? (Und wann man sie kombiniert)

Sowohl EIP-7702 als auch ERC-4337 ermöglichen Account Abstraction, dienen aber unterschiedlichen Zwecken.

  • Wählen Sie EIP-7702, wenn…
    • Sie eine sofortige Smart-Account-UX für bestehende EOAs bereitstellen möchten, ohne Benutzer zum Migrieren von Geldern oder zum Ändern von Adressen zu zwingen.
    • Sie konsistente Adressen über Ketten hinweg benötigen, die schrittweise mit neuen Funktionen erweitert werden können.
    • Sie Ihren Übergang zur Account Abstraction schrittweise gestalten möchten, beginnend mit einfachen Funktionen und im Laufe der Zeit Komplexität hinzufügen.
  • Wählen Sie reines ERC-4337, wenn…
    • Ihr Produkt von Anfang an volle Programmierbarkeit und komplexe Policy-Engines (z. B. Multi-Sig, erweiterte Wiederherstellung) erfordert.
    • Sie für neue Benutzer entwickeln, die keine bestehenden EOAs haben, wodurch neue Smart-Account-Adressen und die damit verbundene Einrichtung akzeptabel sind.
  • Kombinieren Sie sie: Das leistungsstärkste Muster ist die Verwendung beider. Ein EOA kann eine 7702-Transaktion verwenden, um eine ERC-4337 Wallet-Implementierung als seine Logik zu bestimmen. Dies lässt das EOA wie ein 4337-Konto agieren, wodurch es gebündelt, von Paymastern gesponsert und von der bestehenden 4337-Infrastruktur verarbeitet werden kann – alles, ohne dass der Benutzer eine neue Adresse benötigt. Dies ist ein zukunftskompatibler Weg, der von den Autoren des EIP explizit gefördert wird.

Minimales 7702-Gerüst, das Sie anpassen können

Hier ist ein praktisches Beispiel für einen Implementierungsvertrag und den clientseitigen Code zu dessen Aktivierung.

1. Ein kleiner, auditierbarer Implementierungsvertrag

Dieser Vertragscode wird, sobald er bestimmt wurde, im Kontext des EOA ausgeführt. Halten Sie ihn klein, auditierbar und erwägen Sie, einen Upgrade-Mechanismus hinzuzufügen.

// SPDX-License-Identifier: MIT
pragma solidity ^0.8.20;

/// @notice Executes calls from the EOA context when designated via EIP-7702.
contract DelegatedAccount {
// Unique storage slot to avoid collisions with other contracts.
bytes32 private constant INIT_SLOT =
0x3fb93b3d3dcd1d1f4b4a1a8db6f4c5d55a1b7f9ac01dfe8e53b1b0f35f0c1a01;

event Initialized(address indexed account);
event Executed(address indexed to, uint256 value, bytes data, bytes result);

modifier onlyEOA() {
// Optional: add checks to restrict who can call certain functions.
_;
}

function initialize() external payable onlyEOA {
// Set a simple one-time init flag in the EOA's storage.
bytes32 slot = INIT_SLOT;
assembly {
if iszero(iszero(sload(slot))) { revert(0, 0) } // Revert if already initialized
sstore(slot, 1)
}
emit Initialized(address(this));
}

function execute(address to, uint256 value, bytes calldata data)
external
payable
onlyEOA
returns (bytes memory result)
{
(bool ok, bytes memory ret) = to.call{value: value}(data);
require(ok, "CALL_FAILED");
emit Executed(to, value, data, ret);
return ret;
}

function executeBatch(address[] calldata to, uint256[] calldata value, bytes[] calldata data)
external
payable
onlyEOA
{
uint256 n = to.length;
require(n == value.length && n == data.length, "LENGTH_MISMATCH");
for (uint256 i = 0; i < n; i++) {
(bool ok, ) = to[i].call{value: value[i]}(data[i]);
require(ok, "CALL_FAILED");
}
}
}

2. Den Vertrag auf einem EOA (Typ-4-Transaktion) mit viem bestimmen

Moderne Clients wie viem verfügen über integrierte Hilfsfunktionen zum Signieren von Autorisierungen und Senden von Typ-4-Transaktionen. In diesem Beispiel zahlt ein Relayer-Konto das Gas, um ein eoa zu aktualisieren.

import { createWalletClient, http, encodeFunctionData } from "viem";
import { sepolia } from "viem/chains";
import { privateKeyToAccount } from "viem/accounts";
import { abi, implementationAddress } from "./DelegatedAccountABI";

// 1. Define the relayer (sponsors gas) and the EOA to be upgraded
const relayer = privateKeyToAccount(process.env.RELAYER_PK as `0x${string}`);
const eoa = privateKeyToAccount(process.env.EOA_PK as `0x${string}`);

const client = createWalletClient({
account: relayer,
chain: sepolia,
transport: http(),
});

// 2. The EOA signs the authorization pointing to the implementation contract
const authorization = await client.signAuthorization({
account: eoa,
contractAddress: implementationAddress,
// If the EOA itself were sending this, you would add: executor: 'self'
});

// 3. The relayer sends a Type-4 transaction to set the EOA's code and call initialize()
const hash = await client.sendTransaction({
to: eoa.address, // The destination is the EOA itself
authorizationList: [authorization], // The new EIP-7702 field
data: encodeFunctionData({ abi, functionName: "initialize" }),
});

// 4. Now, the EOA can be controlled via its new logic without further authorizations
// For example, to execute a transaction:
// await client.sendTransaction({
// to: eoa.address,
// data: encodeFunctionData({ abi, functionName: 'execute', args: [...] })
// });

3. Delegation widerrufen (Zurück zum einfachen EOA)

Um das Upgrade rückgängig zu machen, lassen Sie das EOA eine Autorisierung unterzeichnen, die die Null-Adresse als Implementierung bestimmt, und senden Sie eine weitere Typ-4-Transaktion. Danach sollte ein Aufruf von eth_getCode(eoa.address) leere Bytes zurückgeben.


Integrationsmuster, die in der Produktion funktionieren

  • Direktes Upgrade für bestehende Benutzer: Erkennen Sie in Ihrer DApp, ob der Benutzer sich in einem Pectra-kompatiblen Netzwerk befindet. Falls ja, zeigen Sie eine optionale Schaltfläche „Konto aktualisieren“ an, die die einmalige Autorisierungssignatur auslöst. Behalten Sie Fallback-Pfade (z. B. klassisches approve + swap) für Benutzer mit älteren Wallets bei.
  • Gasloses Onboarding: Verwenden Sie einen Relayer (entweder Ihr Backend oder einen Dienst), um die anfängliche Typ-4-Transaktion zu sponsern. Für fortlaufende gaslose Transaktionen leiten Sie Benutzeroperationen über einen ERC-4337-Bundler, um bestehende Paymaster und öffentliche Mempools zu nutzen.
  • Kettenübergreifende Rollouts: Verwenden Sie eine chain_id = 0-Autorisierung, um denselben Implementierungsvertrag über alle Ketten hinweg zu bestimmen. Sie können dann Funktionen auf einer Pro-Kette-Basis innerhalb Ihrer Anwendungslogik aktivieren oder deaktivieren.
  • Beobachtbarkeit: Ihr Backend sollte Typ-4-Transaktionen indizieren und die authorization_list parsen, um zu verfolgen, welche EOAs aktualisiert wurden. Überprüfen Sie nach einer Transaktion die Änderung, indem Sie eth_getCode aufrufen und bestätigen, dass der Code des EOA nun dem Delegationsindikator (0xef0100 || implementationAddress) entspricht.

Bedrohungsmodell & Fallstricke (Nicht überspringen)

  • Delegation ist persistent: Behandeln Sie Änderungen am Implementierungsvertrag eines EOA mit der gleichen Ernsthaftigkeit wie ein Standard-Smart-Contract-Upgrade. Dies erfordert Audits, klare Benutzerkommunikation und idealerweise einen Opt-in-Flow. Pushen Sie niemals stillschweigend neue Logik an Benutzer.
  • tx.origin-Fallstricke: Jede Logik, die msg.sender == tx.origin verwendete, um sicherzustellen, dass ein Aufruf direkt von einem EOA stammte, ist nun potenziell anfällig. Dieses Muster muss durch robustere Prüfungen ersetzt werden, wie EIP-712-Signaturen oder explizite Whitelists.
  • Nonce-Berechnung: Wenn ein EOA seine eigene 7702-Transaktion (executor: 'self') sponsert, interagieren seine Autorisierungs-Nonce und Transaktions-Nonce auf eine spezifische Weise. Verwenden Sie immer eine Bibliothek, die dies korrekt handhabt, um Replay-Probleme zu vermeiden.
  • Verantwortung der Wallet-UX: Die EIP-7702-Spezifikation warnt davor, dass DApps Benutzer nicht auffordern sollten, beliebige Bestimmungen zu unterzeichnen. Es liegt in der Verantwortung der Wallet, vorgeschlagene Implementierungen zu prüfen und deren Sicherheit zu gewährleisten. Gestalten Sie Ihre UX so, dass sie diesem Prinzip der Wallet-vermittelten Sicherheit entspricht.

Wann 7702 ein klarer Gewinn ist

Diese Anwendungsfälle repräsentieren die gleichen Kernvorteile, die ERC-4337 verspricht, sind aber jetzt für jedes bestehende EOA mit nur einer einzigen Autorisierung verfügbar.

  • DEX-Abläufe: Ein mehrstufiger approve- und swap-Vorgang kann mit der executeBatch-Funktion zu einem einzigen Klick zusammengefasst werden.
  • Spiele & Sessions: Gewähren Sie Session-Key-ähnliche Berechtigungen für eine begrenzte Zeit oder einen begrenzten Umfang, ohne dass der Benutzer eine neue Wallet erstellen und finanzieren muss.
  • Unternehmen & Fintech: Ermöglichen Sie gesponserte Transaktionen und wenden Sie benutzerdefinierte Ausgabenrichtlinien an, während Sie für Buchhaltung und Identität auf jeder Kette dieselbe Unternehmensadresse beibehalten.
  • L2-Bridges & Intents: Erstellen Sie reibungslosere Meta-Transaktions-Abläufe mit einer konsistenten EOA-Identität über verschiedene Netzwerke hinweg.

Bereitstellungs-Checkliste

Protokoll

  • Stellen Sie sicher, dass Nodes, SDKs und Infrastrukturanbieter Typ-4-Transaktionen und Pectras „prague“-EVM unterstützen.
  • Aktualisieren Sie Indexer und Analysetools, um das Feld authorization_list in neuen Transaktionen zu parsen.

Verträge

  • Entwickeln Sie einen minimalen, geprüften Implementierungsvertrag mit wesentlichen Funktionen (z. B. Batching, Widerruf).
  • Testen Sie die Abläufe zum Widerrufen und Neubestimmen gründlich auf Testnets, bevor Sie im Mainnet bereitstellen.

Clients

  • Aktualisieren Sie clientseitige Bibliotheken (viem, ethers usw.) und testen Sie die Funktionen signAuthorization und sendTransaction.
  • Überprüfen Sie, dass sowohl selbstfinanzierte als auch weitergeleitete Transaktionspfade Nonces und Replays korrekt handhaben.

Sicherheit

  • Entfernen Sie alle Annahmen, die auf tx.origin basieren, aus Ihren Verträgen und ersetzen Sie diese durch sicherere Alternativen.
  • Implementieren Sie eine Überwachung nach der Bereitstellung, um unerwartete Codeänderungen bei Benutzeradressen zu erkennen und bei verdächtigen Aktivitäten zu alarmieren.

Fazit: EIP-7702 bietet einen reibungslosen Einstieg in die Smart-Account-UX für die Millionen bereits genutzter EOAs. Beginnen Sie mit einer kleinen, geprüften Implementierung, nutzen Sie einen weitergeleiteten Pfad für die gaslose Einrichtung, gestalten Sie den Widerruf klar und einfach, und Sie können 90 % der Vorteile der vollständigen Account Abstraction liefern – ohne den Aufwand von Adresswechseln und Asset-Migrationen.

Metas Stablecoin-Wiederbelebung 2025: Pläne, Strategie und Auswirkungen

· 27 Minuten Lesezeit

Metas Stablecoin-Initiative 2025 – Ankündigungen und Projekte

Im Mai 2025 tauchten Berichte auf, wonach Meta (ehemals Facebook) mit neuen Initiativen, die sich auf digitale Währungen konzentrieren, wieder in den Stablecoin-Markt einsteigt. Obwohl Meta keine neue eigene Währung offiziell angekündigt hat, enthüllte ein Fortune-Bericht, dass das Unternehmen Gespräche mit Krypto-Firmen über die Nutzung von Stablecoins für Zahlungen führt. Diese Gespräche sind noch vorläufig (Meta befindet sich im „Lernmodus“), markieren aber Metas ersten bedeutenden Krypto-Schritt seit dem Libra/Diem-Projekt von 2019–2022. Insbesondere beabsichtigt Meta, Stablecoins zu nutzen, um Auszahlungen für Content-Ersteller und grenzüberschreitende Überweisungen auf seinen Plattformen abzuwickeln.

Offizielle Haltung: Meta hat bis Mai 2025 keine eigene neue Kryptowährung eingeführt. Andy Stone, Metas Kommunikationsdirektor, reagierte auf die Gerüchte mit der Klarstellung, dass „Diem ‚tot‘ ist. Es gibt keinen Meta-Stablecoin.“. Dies deutet darauf hin, dass Meta, anstatt eine interne Währung wie Diem wiederzubeleben, wahrscheinlich darauf abzielt, bestehende Stablecoins (möglicherweise von Partnerfirmen ausgegeben) in sein Ökosystem zu integrieren. Tatsächlich deuten Quellen darauf hin, dass Meta mehrere Stablecoins anstelle einer einzigen proprietären Währung verwenden könnte. Kurz gesagt, das Projekt im Jahr 2025 ist kein Relaunch von Libra/Diem, sondern ein neuer Versuch, Stablecoins innerhalb von Metas Produkten zu unterstützen.

Strategische Ziele und Motivationen für Meta

Metas erneuter Vorstoß in den Kryptobereich wird von klaren strategischen Zielen angetrieben. Das wichtigste davon ist die Reduzierung von Zahlungsreibung und -kosten bei globalen Benutzer-Transaktionen. Durch die Verwendung von Stablecoins (digitale Token, die 1:1 an Fiat-Währungen gekoppelt sind) kann Meta grenzüberschreitende Zahlungen und die Monetarisierung von Kreativen für seine über 3 Milliarden Nutzer vereinfachen. Spezifische Motivationen umfassen:

  • Senkung der Zahlungskosten: Meta tätigt unzählige kleine Auszahlungen an Mitwirkende und Kreative weltweit. Stablecoin-Auszahlungen würden es Meta ermöglichen, alle in einer einzigen an den USD gekoppelten Währung zu bezahlen, wodurch hohe Gebühren für Banküberweisungen oder Währungsumrechnungen vermieden würden. Ein Kreativer in Indien oder Nigeria könnte beispielsweise einen USD-Stablecoin erhalten, anstatt sich mit kostspieligen internationalen Banküberweisungen auseinandersetzen zu müssen. Dies könnte Meta Geld sparen (weniger Bearbeitungsgebühren) und Zahlungen beschleunigen.

  • Mikrozahlungen und neue Einnahmequellen: Stablecoins ermöglichen schnelle, kostengünstige Mikrotransaktionen. Meta könnte Trinkgelder, In-App-Käufe oder Umsatzbeteiligungen in winzigen Schritten (Cents oder Dollars) ohne exorbitante Gebühren ermöglichen. Das Senden weniger Dollar in Stablecoins kostet beispielsweise auf bestimmten Netzwerken nur Bruchteile eines Cents. Diese Fähigkeit ist entscheidend für Geschäftsmodelle wie das Trinkgeldgeben an Content-Ersteller, grenzüberschreitenden E-Commerce auf dem Facebook Marketplace oder den Kauf digitaler Güter im Metaverse.

  • Globale Benutzerbindung: Ein in Facebook, Instagram, WhatsApp usw. integrierter Stablecoin würde als universelle digitale Währung innerhalb von Metas Ökosystem fungieren. Dies kann Nutzer und ihr Geld innerhalb von Metas Apps zirkulieren lassen (ähnlich wie WeChat WeChat Pay nutzt). Meta könnte zu einer wichtigen Fintech-Plattform werden, indem es Überweisungen, Einkäufe und Zahlungen an Kreative intern abwickelt. Ein solcher Schritt steht im Einklang mit CEO Mark Zuckerbergs langjährigem Interesse, Metas Rolle bei Finanzdienstleistungen und der Metaverse-Wirtschaft (wo digitale Währungen für Transaktionen benötigt werden) auszubauen.

  • Wettbewerbsfähig bleiben: Die breitere Technologie- und Finanzbranche sieht Stablecoins zunehmend als wesentliche Infrastruktur. Konkurrenten und Finanzpartner setzen auf Stablecoins, von PayPals PYUSD-Einführung im Jahr 2023 bis hin zu den Stablecoin-Projekten von Mastercard, Visa und Stripe. Meta möchte nicht ins Hintertreffen geraten, wenn es um die Zukunft der Zahlungen geht. Der Wiedereinstieg in den Kryptobereich ermöglicht es Meta nun, von einem sich entwickelnden Markt zu profitieren (Stablecoins könnten laut Standard Chartered bis 2028 um 2 Billionen US-Dollar wachsen) und sein Geschäft über die Werbung hinaus zu diversifizieren.

Zusammenfassend lässt sich sagen, dass Metas Stablecoin-Vorstoß darauf abzielt, Kosten zu senken, neue Funktionen (schnelle globale Zahlungen) freizuschalten und Meta als wichtigen Akteur in der digitalen Wirtschaft zu positionieren. Diese Motivationen spiegeln die ursprüngliche Libra-Vision der finanziellen Inklusion wider, jedoch mit einem fokussierteren und pragmatischeren Ansatz im Jahr 2025.

Technologie- und Blockchain-Infrastrukturpläne

Im Gegensatz zum Libra-Projekt – das die Schaffung einer brandneuen Blockchain beinhaltete – tendiert Metas Strategie für 2025 zur Nutzung bestehender Blockchain-Infrastruktur und Stablecoins. Berichten zufolge erwägt Meta die Ethereum-Blockchain als eine der Grundlagen für diese Stablecoin-Transaktionen. Ethereum ist aufgrund seiner Reife und weiten Verbreitung im Krypto-Ökosystem attraktiv. Tatsächlich plant Meta, „Stablecoins auf der Ethereum-Blockchain zu verwenden“, um seine riesige Nutzerbasis zu erreichen. Dies deutet darauf hin, dass Meta beliebte Ethereum-basierte Stablecoins (wie USDC oder USDT) in seine Apps integrieren könnte.

Meta scheint jedoch offen für einen Multi-Chain- oder Multi-Coin-Ansatz zu sein. Das Unternehmen wird „wahrscheinlich mehr als eine Art von Stablecoin“ für verschiedene Zwecke verwenden. Dies könnte Folgendes umfassen:

  • Partnerschaften mit großen Stablecoin-Emittenten: Meta soll Berichten zufolge Gespräche mit Firmen wie Circle (Emittent von USDC) und anderen geführt haben. Es könnte USD Coin (USDC) und Tether (USDT), die beiden größten USD-Stablecoins, unterstützen, um Liquidität und Vertrautheit für die Nutzer zu gewährleisten. Die Integration bestehender regulierter Stablecoins würde Meta die Mühe ersparen, einen eigenen Token auszugeben, und gleichzeitig sofortige Skalierbarkeit bieten.

  • Nutzung effizienter Netzwerke: Meta scheint auch an schnellen, kostengünstigen Blockchain-Netzwerken interessiert zu sein. Die Einstellung von Ginger Baker (mehr dazu weiter unten) deutet auf diese Strategie hin. Baker ist Mitglied des Vorstands der Stellar Development Foundation, und Analysten stellen fest, dass Stellars Netzwerk auf Compliance und günstige Transaktionen ausgelegt ist. Stellar unterstützt nativ regulierte Stablecoins und Funktionen wie KYC und On-Chain-Reporting. Es wird spekuliert, dass Metas Pay-Wallet Stellar für nahezu sofortige Mikrozahlungen nutzen könnte (das Senden von USDC über Stellar kostet einen Bruchteil eines Cents). Im Wesentlichen könnte Meta Transaktionen über die Blockchain leiten, die die beste Mischung aus Compliance, Geschwindigkeit und niedrigen Gebühren bietet (Ethereum für breite Kompatibilität, Stellar oder andere für Effizienz).

  • Meta Pay Wallet-Transformation: Auf der Frontend-Seite wird Meta wahrscheinlich seine bestehende Meta Pay-Infrastruktur zu einem „dezentralisierungsfähigen“ digitalen Wallet aufrüsten. Meta Pay (ehemals Facebook Pay) wickelt derzeit traditionelle Zahlungen auf Metas Plattformen ab. Unter Bakers Führung soll es Kryptowährungen und Stablecoins nahtlos unterstützen. Dies bedeutet, dass Benutzer Stablecoin-Guthaben halten, an andere senden oder In-App-Auszahlungen erhalten könnten, wobei die Komplexität der Blockchain im Hintergrund verwaltet wird.

Wichtig ist, dass Meta dieses Mal keine neue Währung oder Blockchain von Grund auf neu aufbaut. Durch die Verwendung bewährter öffentlicher Blockchains und von Partnern ausgegebener Währungen kann Meta die Stablecoin-Funktionalität schneller und (hoffentlich) mit weniger regulatorischem Widerstand einführen. Der Technologieplan konzentriert sich auf Integration statt auf Erfindung – Stablecoins werden so in Metas Produkte integriert, dass es sich für die Nutzer natürlich anfühlt (z. B. könnte ein WhatsApp-Nutzer eine USDC-Zahlung so einfach senden wie ein Foto).

Diem/Novi wiederbeleben oder neu anfangen?

Metas aktuelle Initiative unterscheidet sich deutlich von seinen früheren Libra/Diem-Bemühungen. Libra (2019 angekündigt) war ein ehrgeiziger Plan für eine von Facebook geführte globale Währung, die durch einen Korb von Vermögenswerten gedeckt und von einem Unternehmensverband verwaltet wurde. Sie wurde später in Diem (einen an den USD gekoppelten Stablecoin) umbenannt, aber letztendlich Anfang 2022 inmitten regulatorischer Gegenreaktionen eingestellt. Novi, das begleitende Krypto-Wallet, wurde kurzzeitig getestet, aber ebenfalls eingestellt.

Im Jahr 2025 belebt Meta Diem/Novi nicht einfach wieder. Zu den wesentlichen Unterschieden des neuen Ansatzes gehören:

  • Kein hauseigener „Meta Coin“ (vorerst): Während der Libra-Zeit schuf Facebook im Wesentlichen seine eigene Währung. Jetzt betonen Metas Sprecher, dass „kein Meta-Stablecoin“ in Entwicklung ist. Diem ist tot und wird nicht wiederbelebt. Stattdessen liegt der Fokus auf der Verwendung bestehender Stablecoins (ausgegeben von Dritten) als Zahlungsmittel. Dieser Wandel vom Emittenten zum Integrator ist eine direkte Lehre aus dem Scheitern von Libra – Meta vermeidet den Anschein, eigenes Geld zu prägen.

  • Compliance-First-Strategie: Libras weitreichende Vision verunsicherte Regulierungsbehörden, die befürchteten, dass eine private Währung für Milliarden von Menschen nationale Währungen untergraben könnte. Heute agiert Meta leiser und kooperativer. Das Unternehmen stellt Compliance- und Fintech-Experten ein (zum Beispiel Ginger Baker) und wählt Technologien, die für regulatorische Konformität (z. B. Stellar) bekannt sind. Alle neuen Stablecoin-Funktionen werden wahrscheinlich eine Identitätsprüfung erfordern und den Finanzvorschriften in jeder Gerichtsbarkeit entsprechen, im Gegensatz zu Libras ursprünglich dezentralisiertem Ansatz.

  • Reduzierung der Ambitionen (zumindest anfänglich): Libra zielte darauf ab, eine universelle Währung und ein Finanzsystem zu sein. Metas Bemühungen im Jahr 2025 haben einen engeren anfänglichen Umfang: Auszahlungen und Peer-to-Peer-Zahlungen innerhalb von Metas Plattformen. Indem Meta auf Zahlungen an Kreative abzielt (wie „bis zu 100 US-Dollar“ Mikrozahlungen auf Instagram), findet es einen Anwendungsfall, der Regulierungsbehörden weniger beunruhigen dürfte als eine globale Währung im vollen Umfang. Im Laufe der Zeit könnte dies erweitert werden, aber die Einführung wird voraussichtlich schrittweise und anwendungsfallorientiert erfolgen, anstatt eines Big-Bang-Starts einer neuen Währung.

  • Keine öffentliche Vereinigung oder neue Blockchain: Libra wurde von einer unabhängigen Vereinigung verwaltet und erforderte Partner, die Nodes auf einer brandneuen Blockchain betrieben. Der neue Ansatz beinhaltet nicht die Schaffung eines Konsortiums oder eines benutzerdefinierten Netzwerks. Meta arbeitet direkt mit etablierten Krypto-Unternehmen zusammen und nutzt deren Infrastruktur. Diese Zusammenarbeit hinter den Kulissen bedeutet weniger Öffentlichkeit und potenziell weniger regulatorische Angriffsflächen als Libras sehr öffentliche Koalition.

Zusammenfassend lässt sich sagen, dass Meta neu anfängt und die Lehren aus Libra/Diem nutzt, um einen pragmatischeren Kurs einzuschlagen. Das Unternehmen hat sich im Wesentlichen von der Rolle des „Krypto-Emittenten“ zu der einer „krypto-freundlichen Plattform“ gewandelt. Wie ein Krypto-Analyst bemerkte, ist noch nicht entschieden, ob Meta „einen eigenen [Stablecoin] entwickelt und ausgibt oder mit jemandem wie Circle zusammenarbeitet“ – aber alle Anzeichen deuten auf Partnerschaften statt auf ein Solo-Unternehmen wie Diem hin.

Schlüsselpersonal, Partnerschaften und Kooperationen

Meta hat strategische Neueinstellungen vorgenommen und wahrscheinlich Partnerschaften geschlossen, um diese Stablecoin-Initiative voranzutreiben. Der herausragende Personalwechsel ist die Ernennung von Ginger Baker zur Vice President of Product für Zahlungen und Krypto bei Meta. Baker kam im Januar 2025 zu Meta, um speziell „Metas Stablecoin-Erkundungen zu begleiten“. Ihr Hintergrund ist ein starker Indikator für Metas Strategie:

  • Ginger Baker – Fintech-Veteranin: Baker ist eine erfahrene Führungskraft im Zahlungsverkehr. Sie arbeitete zuvor bei Plaid (als Chief Network Officer) und verfügt über Erfahrung bei Ripple, Square und Visa – allesamt wichtige Akteure im Zahlungs-/Kryptobereich. Einzigartig ist, dass sie auch im Vorstand der Stellar Development Foundation tätig war und dort eine Führungsposition innehatte. Durch die Einstellung von Baker gewinnt Meta Expertise sowohl im traditionellen Fintech-Bereich als auch in Blockchain-Netzwerken (Ripple und Stellar konzentrieren sich auf grenzüberschreitende Transaktionen und Compliance). Baker „führt nun Metas erneuerte Stablecoin-Initiativen an“, einschließlich der Transformation von Meta Pay in ein krypto-fähiges Wallet. Ihre Führung deutet darauf hin, dass Meta ein Produkt entwickeln wird, das konventionelle Zahlungen mit Krypto verbindet (wobei wahrscheinlich Dinge wie Bankintegrationen, reibungslose UX, KYC usw. neben den Blockchain-Elementen gewährleistet werden).

  • Weitere Teammitglieder: Neben Baker stellt Meta „Krypto-erfahrene Personen“ für seine Teams ein, um die Stablecoin-Pläne zu unterstützen. Einige ehemalige Mitglieder des Libra/Diem-Teams könnten hinter den Kulissen beteiligt sein, obwohl viele gegangen sind (zum Beispiel verließ der ehemalige Novi-Chef David Marcus das Unternehmen, um seine eigene Krypto-Firma zu gründen, und andere wechselten zu Projekten wie Aptos). Die aktuellen Bemühungen scheinen größtenteils unter Metas bestehender Einheit Meta Financial Technologies (die Meta Pay betreibt) zu laufen. Bisher wurden im Jahr 2025 keine größeren Übernahmen von Krypto-Unternehmen angekündigt – Meta scheint sich auf interne Einstellungen und Partnerschaften zu verlassen, anstatt ein Stablecoin-Unternehmen direkt zu kaufen.

  • Potenzielle Partnerschaften: Obwohl noch keine offiziellen Partner genannt wurden, haben mehrere Krypto-Firmen Gespräche mit Meta geführt. Mindestens zwei Führungskräfte von Krypto-Unternehmen bestätigten, dass sie frühe Gespräche mit Meta über Stablecoin-Auszahlungen hatten. Es ist vernünftig zu spekulieren, dass Circle (Emittent von USDC) darunter ist – der Fortune-Bericht erwähnte Circles Aktivitäten im selben Kontext. Meta könnte mit einem regulierten Stablecoin-Emittenten (wie Circle oder Paxos) zusammenarbeiten, um die Währungsausgabe und -verwahrung zu übernehmen. Zum Beispiel könnte Meta USDC durch die Zusammenarbeit mit Circle integrieren, ähnlich wie PayPal mit Paxos zusammenarbeitete, um seinen eigenen Stablecoin einzuführen. Andere Partnerschaften könnten Krypto-Infrastrukturanbieter (für Sicherheit, Verwahrung oder Blockchain-Integration) oder Fintech-Unternehmen in verschiedenen Regionen für Compliance umfassen.

  • Externe Berater/Influencer: Es ist erwähnenswert, dass Metas Schritt erfolgt, während andere in der Technologie- und Finanzbranche ihre Stablecoin-Bemühungen verstärken. Unternehmen wie Stripe und Visa haben kürzlich Schritte unternommen (Stripe kaufte ein Krypto-Startup, Visa ging eine Partnerschaft mit einer Stablecoin-Plattform ein). Meta wird möglicherweise nicht formell mit diesen Unternehmen zusammenarbeiten, aber diese Branchenverbindungen (z. B. Bakers Vergangenheit bei Visa oder bestehende Geschäftsbeziehungen, die Meta mit Stripe für Zahlungen unterhält) könnten den Weg für die Stablecoin-Akzeptanz ebnen. Darüber hinaus könnten First Digital (Emittent von FDUSD) und Tether eine indirekte Zusammenarbeit sehen, wenn Meta beschließt, ihre Coins für bestimmte Märkte zu unterstützen.

Im Wesentlichen wird Metas Stablecoin-Initiative von erfahrenen Fintech-Insidern geleitet und beinhaltet wahrscheinlich eine enge Zusammenarbeit mit etablierten Krypto-Akteuren. Wir sehen eine bewusste Anstrengung, Menschen einzubeziehen, die sowohl Silicon Valley als auch Krypto verstehen. Dies ist ein gutes Zeichen dafür, dass Meta die technischen und regulatorischen Herausforderungen mit sachkundiger Führung meistern wird.

Regulierungsstrategie und Positionierung

Regulierung ist der Elefant im Raum für Metas Krypto-Ambitionen. Nach der schmerzhaften Erfahrung mit Libra (wo globale Regulierungsbehörden und Gesetzgeber Facebooks Währung fast einstimmig ablehnten) nimmt Meta im Jahr 2025 eine sehr vorsichtige, Compliance-orientierte Haltung ein. Schlüsselelemente von Metas regulatorischer Positionierung umfassen:

  • Arbeit innerhalb regulatorischer Rahmenbedingungen: Meta scheint darauf bedacht zu sein, mit den Behörden zusammenzuarbeiten, anstatt zu versuchen, sie zu umgehen. Durch die Verwendung bestehender regulierter Stablecoins (wie USDC, das den US-Bundesstaatsvorschriften und Audits entspricht) und durch die Integration von KYC/AML-Funktionen richtet sich Meta an den aktuellen Finanzregeln aus. Zum Beispiel werden Stellars Compliance-Funktionen (KYC, Sanktionsprüfung) explizit als mit Metas Bedürfnis übereinstimmend genannt, bei den Regulierungsbehörden in gutem Ansehen zu bleiben. Dies deutet darauf hin, dass Meta sicherstellen wird, dass Benutzer, die Stablecoins über seine Apps abwickeln, verifiziert werden und dass Transaktionen auf illegale Aktivitäten überwacht werden können, ähnlich wie bei jeder Fintech-App.

  • Politisches Timing: Das regulatorische Klima in den USA hat sich seit den Libra-Tagen verschoben. Ab 2025 wird die Regierung von Präsident Donald Trump als krypto-freundlicher angesehen als die vorherige Biden-Regierung. Diese Änderung könnte Meta eine Öffnung bieten. Tatsächlich kommt Metas erneuter Vorstoß genau zu dem Zeitpunkt, an dem Washington aktiv über Stablecoin-Gesetze debattiert. Ein Paar Stablecoin-Gesetzesentwürfe durchlaufen den Kongress, und der GENIUS Act des Senats zielt darauf ab, Leitplanken für Stablecoins zu setzen. Meta könnte hoffen, dass ein klarerer rechtlicher Rahmen die Beteiligung von Unternehmen an digitalen Währungen legitimiert. Dies ist jedoch nicht ohne Widerstand – Senatorin Elizabeth Warren und andere Gesetzgeber haben Meta ins Visier genommen und fordern, dass große Technologieunternehmen in jedem neuen Gesetz vom Ausgeben von Stablecoins ausgeschlossen werden. Meta wird solche politischen Hürden überwinden müssen, möglicherweise indem es betont, dass es keine neue Währung ausgibt, sondern lediglich bestehende verwendet (somit technisch keine „Facebook Coin“, die den Kongress beunruhigte).

  • Globale und lokale Compliance: Über die USA hinaus wird Meta die Vorschriften in jedem Markt berücksichtigen. Wenn es beispielsweise Stablecoin-Zahlungen in WhatsApp für Überweisungen einführt, könnte es dies in Ländern mit aufgeschlossenen Regulierungsbehörden testen (ähnlich wie WhatsApp Pay in Märkten wie Brasilien oder Indien mit lokaler Genehmigung eingeführt wurde). Meta könnte Zentralbanken und Finanzaufsichtsbehörden in Zielregionen einbeziehen, um sicherzustellen, dass seine Stablecoin-Integration die Anforderungen erfüllt (z. B. vollständig durch Fiat-Währung gedeckt, einlösbar und die Stabilität der lokalen Währung nicht beeinträchtigt). Der First Digital USD (FDUSD), einer der Stablecoins, die Meta unterstützen könnte, hat seinen Sitz in Hongkong und unterliegt den dortigen Treuhandgesetzen, was darauf hindeutet, dass Meta Regionen mit krypto-freundlichen Regeln (z. B. Hongkong, Singapur) für erste Phasen nutzen könnte.

  • Den „Libra-Fehler“ vermeiden: Bei Libra befürchteten die Regulierungsbehörden, dass Meta eine globale Währung außerhalb staatlicher Kontrolle kontrollieren würde. Metas Strategie besteht nun darin, sich als Teilnehmer und nicht als Kontrolleur zu positionieren. Indem das Unternehmen sagt „es gibt keinen Meta-Stablecoin“, distanziert es sich von der Idee, Geld zu drucken. Stattdessen kann Meta argumentieren, dass es die Zahlungsinfrastruktur für Benutzer verbessert, analog zur Unterstützung von PayPal oder Kreditkarten. Diese Erzählung – „wir verwenden lediglich sichere, vollständig gedeckte Währungen wie USDC, um Benutzern bei Transaktionen zu helfen“ – ist wahrscheinlich die Art und Weise, wie Meta das Projekt den Regulierungsbehörden präsentieren wird, um Ängste vor einer Destabilisierung des Währungssystems zu zerstreuen.

  • Compliance und Lizenzierung: Sollte Meta sich entscheiden, einen gebrandeten Stablecoin anzubieten oder die Krypto-Assets der Nutzer zu verwahren, könnte es die entsprechenden Lizenzen beantragen (z. B. als lizenzierter Geldübermittler werden, eine staatliche oder föderale Charta für die Stablecoin-Ausgabe über eine Tochtergesellschaft oder Partnerbank erhalten). Es gibt Präzedenzfälle: PayPal erhielt eine New Yorker Treuhandcharta (über Paxos) für seinen Stablecoin. Meta könnte in ähnlicher Weise eine Partnerschaft eingehen oder eine regulierte Einheit für alle Verwahrungsaspekte schaffen. Vorerst kann Meta durch die Zusammenarbeit mit etablierten Stablecoin-Emittenten und Banken auf deren behördliche Genehmigungen vertrauen.

Insgesamt kann Metas Ansatz als „regulatorische Anpassung“ verstanden werden – es versucht, das Projekt so zu gestalten, dass es in die rechtlichen Rahmenbedingungen passt, die Regulierungsbehörden geschaffen haben oder schaffen. Dies beinhaltet proaktive Kontaktaufnahme, langsames Skalieren und den Einsatz von Experten, die die Regeln kennen. Dennoch bleibt die regulatorische Unsicherheit ein Risiko. Das Unternehmen wird die Ergebnisse der Stablecoin-Gesetzesentwürfe genau beobachten und sich wahrscheinlich an politischen Diskussionen beteiligen, um sicherzustellen, dass es ohne rechtliche Hindernisse vorankommen kann.

Marktauswirkungen und Stablecoin-Landschaftsanalyse

Metas Eintritt in den Stablecoin-Markt könnte ein Game-Changer für den Stablecoin-Markt sein, der Anfang 2025 bereits boomt. Die gesamte Marktkapitalisierung von Stablecoins erreichte im April 2025 ein Allzeithoch von rund 238–245 Milliarden US-Dollar, was etwa dem Doppelten des Vorjahres entspricht. Dieser Markt wird derzeit von einigen Schlüsselakteuren dominiert:

  • Tether (USDT): Der größte Stablecoin mit fast 70 % Marktanteil und rund 148 Milliarden US-Dollar im Umlauf (Stand April). USDT wird von Tether Ltd. ausgegeben und ist im Krypto-Handel und bei der Liquidität über Börsen hinweg weit verbreitet. Er ist für weniger Transparenz bei den Reserven bekannt, hat aber seine Bindung beibehalten.

  • USD Coin (USDC): Der zweitgrößte, ausgegeben von Circle (in Partnerschaft mit Coinbase) mit einem Umlauf von rund 62 Milliarden US-Dollar (≈26 % Marktanteil). USDC ist in den USA reguliert, vollständig in Bargeld und Staatsanleihen gedeckt und wird von Institutionen wegen seiner Transparenz bevorzugt. Es wird sowohl im Handel als auch in einer zunehmenden Anzahl von Mainstream-Fintech-Apps verwendet.

  • First Digital USD (FDUSD): Ein neuerer Akteur (Mitte 2023 eingeführt), ausgegeben von First Digital Trust aus Hongkong. FDUSD wuchs als Alternative auf Plattformen wie Binance, nachdem regulatorische Probleme Binances eigenen BUSD trafen. Bis April 2025 betrug die Marktkapitalisierung von FDUSD etwa 1,25 Milliarden US-Dollar. Es gab einige Volatilität (verlor im April kurzzeitig seine 1-Dollar-Bindung), wird aber dafür gelobt, in einem freundlicheren regulatorischen Umfeld in Asien ansässig zu sein.

Die folgende Tabelle vergleicht Metas geplante Stablecoin-Integration mit USDT, USDC und FDUSD:

MerkmalMetas Stablecoin-Initiative (2025)Tether (USDT)USD Coin (USDC)First Digital USD (FDUSD)
Emittent / ManagerKeine proprietäre Währung: Meta wird mit bestehenden Emittenten zusammenarbeiten; die Währung könnte von einem Drittanbieter (z. B. Circle usw.) ausgegeben werden. Meta wird Stablecoins in seine Plattformen integrieren, nicht eigene ausgeben (gemäß offiziellen Erklärungen).Tether Holdings Ltd. (verbunden mit iFinex). Privat gehalten; Emittent von USDT.Circle Internet Financial (mit Coinbase; über Centre Consortium). USDC wird von Circle gemäß US-Vorschriften verwaltet.First Digital Trust, eine in Hongkong registrierte Treuhandgesellschaft, gibt FDUSD gemäß der HK Trust Ordinance aus.
Einführung & StatusNeue Initiative, Planungsphase 2025. Noch keine Währung eingeführt (Meta prüft Integration, die 2025 beginnen soll). Interne Tests oder Pilotprojekte erwartet; Stand Mai 2025 nicht öffentlich verfügbar.2014 eingeführt. Etabliert mit ~$148 Mrd. im Umlauf. Weit verbreitet über Börsen und Chains (Ethereum, Tron usw.).2018 eingeführt. Etabliert mit ~$62 Mrd. im Umlauf. Wird im Handel, DeFi, Zahlungen verwendet; auf mehreren Chains (Ethereum, Stellar, andere) verfügbar.Mitte 2023 eingeführt. Aufstrebender Akteur mit ~$1–2 Mrd. Marktkapitalisierung (kürzlich ~$1,25 Mrd.). Auf asiatischen Börsen (Binance usw.) als regulierte USD-Stablecoin-Alternative beworben.
Technologie / BlockchainWahrscheinlich Multi-Blockchain-Unterstützung. Schwerpunkt auf Ethereum für Kompatibilität; möglicherweise Nutzung von Stellar oder anderen Netzwerken für Transaktionen mit niedrigen Gebühren. Metas Wallet wird die Blockchain-Schicht für Benutzer abstrahieren.Multi-Chain: Ursprünglich auf Bitcoins Omni, jetzt hauptsächlich auf Tron, Ethereum usw. USDT existiert auf über 10 Netzwerken. Schnell auf Tron (niedrige Gebühren); weit verbreitete Integration in Krypto-Plattformen.Multi-Chain: Primär auf Ethereum, mit Versionen auf Stellar, Algorand, Solana usw. Fokus auf Ethereum, aber Ausweitung zur Gebührenreduzierung (auch Erforschung von Layer-2).Multi-Chain: Von Anfang an auf Ethereum und BNB Chain (Binance Smart Chain) ausgegeben. Zielt auf Cross-Chain-Nutzung ab. Verlässt sich auf Ethereum-Sicherheit und Binance-Ökosystem für Liquidität.
RegulierungsaufsichtMeta wird über Partner die Vorschriften einhalten. Verwendete Stablecoins werden vollständig gedeckt sein (1:1 USD) und Emittenten unter Aufsicht stehen (z. B. Circle reguliert nach US-Bundesstaatsgesetzen). Meta wird KYC/AML in seinen Apps implementieren. Die Regulierungsstrategie ist Kooperation und Compliance (insbesondere nach dem Scheitern von Diem).Historisch undurchsichtig. Begrenzte Audits; sah sich regulatorischen Verboten in NY gegenüber. In letzter Zeit zunehmende Transparenz, aber nicht wie eine Bank reguliert. Hat sich mit Regulierungsbehörden wegen früherer Falschdarstellungen geeinigt. Agiert in einer Grauzone, ist aber aufgrund seiner Größe systemrelevant.Hohe Compliance. Reguliert als Wertspeicher nach US-Gesetzen (Circle hat eine NY BitLicense, Treuhand-Charter). Monatliche Reservebestätigungen veröffentlicht. Von US-Behörden als sicherer angesehen; könnte eine föderale Stablecoin-Charta beantragen, wenn Gesetze verabschiedet werden.Moderate Compliance. Reguliert in Hongkong als treuhänderisch gehaltenes Asset. Profitiert von Hongkongs krypto-freundlicher Haltung. Weniger Kontrolle durch US-Regulierungsbehörden; positioniert, um Märkte zu bedienen, in denen USDT/USDC auf Hürden stoßen.
Anwendungsfälle & IntegrationIntegration in Metas Plattformen: Wird für Auszahlungen an Kreative, P2P-Überweisungen, In-App-Käufe über Facebook, Instagram, WhatsApp usw. verwendet. Zielt auf Mainstream-Nutzer (sozialer/medialer Kontext) statt auf Krypto-Händler ab. Könnte globale Überweisungen (z. B. Geld senden über WhatsApp) und Metaverse-Handel ermöglichen.Primär im Krypto-Handel verwendet (als Dollar-Ersatz an Börsen). Auch üblich bei DeFi-Krediten und als Dollar-Absicherung in Ländern mit Währungsinstabilität. Weniger im Einzelhandel aufgrund von Volatilitätsbedenken bezüglich des Emittenten.Wird sowohl auf Krypto-Märkten als auch in einigen Fintech-Apps verwendet. Beliebt in DeFi und Handelspaaren, aber auch von Zahlungsabwicklern und Fintechs (für Handel, Überweisungen) integriert. Coinbase und andere ermöglichen USDC für Überweisungen. Wachsende Rolle bei Geschäftsabwicklungen.Derzeit hauptsächlich auf Krypto-Börsen (Binance) als USD-Liquiditätsoption nach dem Rückgang von BUSD verwendet. Ein gewisses Potenzial für asienbasierte Zahlungen oder DeFi, aber die Anwendungsfälle sind noch im Entstehen. Die Marktpositionierung ist, eine konforme Alternative für asiatische Nutzer und Institutionen zu sein.

Prognostizierte Auswirkungen: Wenn Meta Stablecoin-Zahlungen erfolgreich einführt, könnte dies die Reichweite und Nutzung von Stablecoins erheblich erweitern. Metas Apps könnten Hunderte Millionen neuer Stablecoin-Nutzer an Bord holen, die noch nie zuvor Krypto verwendet haben. Diese Mainstream-Adoption könnte die gesamte Stablecoin-Marktkapitalisierung über die derzeitigen Marktführer hinaus erhöhen. Sollte Meta beispielsweise mit Circle zusammenarbeiten, um USDC in großem Umfang zu nutzen, könnte die Nachfrage nach USDC stark ansteigen – was möglicherweise die Dominanz von USDT im Laufe der Zeit herausfordern würde. Es ist plausibel, dass Meta USDC (oder welche Währung es auch immer annimmt) helfen könnte, Tethers Größe näherzukommen, indem es Anwendungsfälle außerhalb des Handels (Social Commerce, Überweisungen usw.) bereitstellt.

Andererseits könnte Metas Beteiligung Wettbewerb und Innovation unter Stablecoins anregen. Tether und andere etablierte Anbieter könnten sich anpassen, indem sie die Transparenz verbessern oder eigene Big-Tech-Allianzen bilden. Neue Stablecoins könnten entstehen, die auf soziale Netzwerke zugeschnitten sind. Auch die Unterstützung mehrerer Stablecoins durch Meta deutet darauf hin, dass keine einzelne Währung Metas Ökosystem „monopolisieren“ wird – Nutzer könnten nahtlos mit verschiedenen Dollar-Token je nach Region oder Präferenz Transaktionen durchführen. Dies könnte zu einem stärker diversifizierten Stablecoin-Markt führen, in dem die Dominanz verteilt ist.

Es ist auch wichtig, den Infrastruktur-Boost zu beachten, den Meta bieten könnte. Ein in Meta integrierter Stablecoin wird wahrscheinlich eine robuste Kapazität für Millionen täglicher Transaktionen benötigen. Dies könnte Verbesserungen an den zugrunde liegenden Blockchains vorantreiben (z. B. Ethereum Layer-2-Skalierung oder erhöhte Nutzung des Stellar-Netzwerks). Beobachter deuten bereits an, dass Metas Schritt „die Aktivität auf [Ethereum] und die Nachfrage nach ETH erhöhen“ könnte, wenn viele Transaktionen dorthin fließen. Ähnlich könnte, wenn Stellar verwendet wird, sein nativer Token XLM eine höhere Nachfrage als Gas für Transaktionen erfahren.

Schließlich ist Metas Eintritt für die Krypto-Industrie zweischneidig: Er legitimiert Stablecoins als Zahlungsmechanismus (potenziell positiv für Akzeptanz und Marktwachstum), erhöht aber auch die regulatorischen Risiken. Regierungen könnten Stablecoins stärker als Angelegenheit von nationaler Bedeutung behandeln, wenn Milliarden von Social-Media-Nutzern beginnen, damit zu handeln. Dies könnte die regulatorische Klarheit – oder die Durchgreifen – beschleunigen, je nachdem, wie Metas Einführung verläuft. In jedem Fall wird die Stablecoin-Landschaft bis Ende der 2020er Jahre wahrscheinlich durch Metas Beteiligung, zusammen mit anderen großen Akteuren wie PayPal, Visa und traditionellen Banken, die in diesen Bereich vordringen, neu gestaltet werden.

Integration in Metas Plattformen (Facebook, Instagram, WhatsApp usw.)

Ein entscheidender Aspekt von Metas Strategie ist die nahtlose Integration von Stablecoin-Zahlungen in seine App-Familie. Ziel ist es, digitale Währungsfunktionen benutzerfreundlich in Facebook, Instagram, WhatsApp, Messenger und sogar neue Plattformen wie Threads einzubetten. So wird die Integration voraussichtlich auf jedem Dienst ablaufen:

  • Instagram: Instagram ist prädestiniert, ein Testfeld für Stablecoin-Auszahlungen zu sein. Kreative auf Instagram könnten wählen, ihre Einnahmen (für Reels-Boni, Affiliate-Verkäufe usw.) in einem Stablecoin statt in lokaler Währung zu erhalten. Berichte erwähnen ausdrücklich, dass Meta möglicherweise damit beginnen wird, bis zu ~$100 an Kreative über Stablecoins auf Instagram auszuzahlen. Dies deutet auf einen Fokus auf kleine grenzüberschreitende Zahlungen hin – ideal für Influencer in Ländern, in denen der direkte Empfang von US-Dollar bevorzugt wird. Zusätzlich könnte Instagram das Trinkgeldgeben an Kreative in der App mithilfe von Stablecoins ermöglichen oder Benutzern erlauben, digitale Sammlerstücke und Dienstleistungen mit einem Stablecoin-Guthaben zu kaufen. Da Instagram bereits mit NFT-Anzeigefunktionen (im Jahr 2022) experimentiert und einen Creator-Marktplatz hat, könnte das Hinzufügen eines Stablecoin-Wallets sein Creator-Ökosystem verbessern.

  • Facebook (Meta): Auf Facebook selbst könnte sich die Stablecoin-Integration in Facebook Pay/Meta Pay-Funktionen manifestieren. Nutzer auf Facebook könnten sich gegenseitig in Chats Geld mit Stablecoins senden oder Spenden an Spendenaktionen mit Krypto tätigen. Der Facebook Marketplace (wo Menschen Waren kaufen/verkaufen) könnte Stablecoin-Transaktionen unterstützen und so den grenzüberschreitenden Handel durch die Eliminierung von Währungsumtauschproblemen erleichtern. Ein weiterer Bereich sind Spiele und Apps auf Facebook – Entwickler könnten in Stablecoins ausgezahlt werden, oder In-Game-Käufe könnten einen Stablecoin für ein universelles Erlebnis nutzen. Angesichts der breiten Nutzerbasis von Facebook könnte die Integration eines Stablecoin-Wallets im Profil oder Messenger das Konzept des Sendens von „digitalen Dollars“ an Freunde und Familie schnell populär machen. Metas eigene Beiträge deuten auf die Monetarisierung von Inhalten hin: zum Beispiel die Auszahlung von Boni an Facebook-Content-Erstellern oder Stars (Facebooks Trinkgeld-Token), die in Zukunft potenziell durch Stablecoins gedeckt sein könnten.

  • WhatsApp: Dies ist vielleicht die transformativste Integration. WhatsApp hat über 2 Milliarden Nutzer und wird intensiv für Messaging in Regionen genutzt, in denen Überweisungen entscheidend sind (Indien, Lateinamerika usw.). Metas Stablecoin könnte WhatsApp in eine globale Überweisungsplattform verwandeln. Nutzer könnten einen Stablecoin so einfach an einen Kontakt senden wie eine Textnachricht, wobei WhatsApp bei Bedarf den Währungstausch an beiden Enden abwickelt. Tatsächlich hat WhatsApp 2021 kurzzeitig das Novi-Wallet für das Senden eines Stablecoins (USDP) in den USA und Guatemala getestet – das Konzept ist also im kleinen Maßstab bewiesen. Jetzt könnte Meta Stablecoin-Überweisungen nativ in die WhatsApp-Benutzeroberfläche integrieren. Zum Beispiel könnte ein indischer Arbeiter in den USA USDC über WhatsApp an seine Familie in Indien senden, die es dann auszahlen oder ausgeben könnte, wenn Integrationen mit lokalen Zahlungsanbietern vorhanden sind. Dies umgeht teure Überweisungsgebühren. Abgesehen von P2P könnten kleine Unternehmen auf WhatsApp (häufig in Schwellenländern) Stablecoin-Zahlungen für Waren akzeptieren und es wie ein kostengünstiges Händlerzahlungssystem nutzen. Die Altcoin Buzz-Analyse spekuliert sogar, dass WhatsApp nach den Auszahlungen an Kreative einer der nächsten Integrationspunkte sein wird.

  • Messenger: Ähnlich wie WhatsApp könnte der Facebook Messenger das Senden von Geld in Chats mit Stablecoins ermöglichen. Messenger verfügt bereits über Peer-to-Peer-Fiat-Zahlungen in den USA. Wenn dies auf Stablecoins ausgeweitet wird, könnte es Nutzer international verbinden. Man könnte sich vorstellen, dass Messenger-Chatbots oder der Kundenservice Stablecoin-Transaktionen nutzen (z. B. eine Rechnung bezahlen oder Produkte über eine Messenger-Interaktion bestellen und in Stablecoin abrechnen).

  • Threads und andere: Threads (Metas Twitter-ähnliche Plattform, die 2023 eingeführt wurde) und das breitere Meta VR/Metaverse (Reality Labs) könnten ebenfalls Stablecoins nutzen. In Horizon Worlds oder anderen Metaverse-Erlebnissen könnte ein Stablecoin als In-World-Währung für den Kauf virtueller Güter, Tickets für Veranstaltungen usw. dienen und ein Echtgeldäquivalent bereitstellen, das über verschiedene Erlebnisse hinweg funktioniert. Während Metas Metaverse-Einheit derzeit Verluste macht, könnte die Integration einer währungsübergreifenden Akzeptanz in Spielen und Welten eine einheitliche Wirtschaft schaffen, die die Nutzung ankurbeln könnte (ähnlich wie Roblox Robux hat, aber im Fall von Meta wäre es ein USD-Stablecoin im Hintergrund). Dies würde Zuckerbergs Vision der Metaverse-Wirtschaft entsprechen, ohne einen neuen Token nur für VR zu schaffen.

Integrationsstrategie: Meta wird dies wahrscheinlich sorgfältig einführen. Eine plausible Reihenfolge ist:

  1. Pilot-Auszahlungen an Kreative auf Instagram (begrenzte Menge, ausgewählte Regionen) – dies testet das System mit echtem Wert, aber auf kontrollierte Weise.
  2. Erweiterung auf P2P-Überweisungen in Messaging-Diensten (WhatsApp/Messenger), sobald Vertrauen gewonnen wurde – beginnend mit Überweisungskorridoren oder innerhalb bestimmter Länder.
  3. Händlerzahlungen und -dienste – Unternehmen auf seinen Plattformen ermöglichen, in Stablecoin zu handeln (dies könnte Partnerschaften mit Zahlungsabwicklern beinhalten, um eine einfache Umwandlung in lokale Fiat-Währung zu ermöglichen).
  4. Vollständige Ökosystem-Integration – schließlich könnte das Meta Pay-Wallet eines Benutzers ein Stablecoin-Guthaben anzeigen, das überall für Facebook-Anzeigen, Instagram-Shopping, WhatsApp Pay usw. verwendet werden kann.

Es ist erwähnenswert, dass die Benutzererfahrung entscheidend sein wird. Meta wird Begriffe wie „USDC“ oder „Ethereum“ wahrscheinlich für den Durchschnittsnutzer abstrahieren. Das Wallet könnte einfach ein Guthaben in „USD“ anzeigen (im Backend von Stablecoins unterstützt), um es einfach zu halten. Nur fortgeschrittenere Benutzer könnten mit On-Chain-Funktionen (wie dem Abheben auf ein externes Krypto-Wallet) interagieren, falls dies erlaubt ist. Metas Vorteil ist seine riesige Nutzerbasis; wenn auch nur ein Bruchteil die Stablecoin-Funktion annimmt, könnte dies die aktuelle Krypto-Nutzerpopulation übertreffen.

Zusammenfassend lässt sich sagen, dass Metas Plan, Stablecoins in seine Plattformen zu integrieren, die Grenze zwischen traditionellen digitalen Zahlungen und Kryptowährungen verwischen könnte. Ein Facebook- oder WhatsApp-Nutzer könnte bald einen Stablecoin verwenden, ohne überhaupt zu merken, dass es sich um ein Krypto-Asset handelt – er wird einfach einen schnelleren, günstigeren Weg sehen, Geld zu senden und global Transaktionen durchzuführen. Diese tiefe Integration könnte Metas Apps in Märkten hervorheben, in denen die Finanzinfrastruktur kostspielig oder langsam ist, und es positioniert Meta als ernstzunehmenden Konkurrenten sowohl für Fintech-Unternehmen als auch für Krypto-Börsen im Bereich der digitalen Zahlungen.

Quellen:

  • Metas Sondierungsgespräche zu Stablecoins und Einstellung eines Krypto-VP
  • Metas Absicht, Stablecoins für grenzüberschreitende Auszahlungen an Kreative zu nutzen (Fortune-Bericht)
  • Kommentar von Metas Kommunikationsdirektor („Diem ist tot, kein Meta-Stablecoin“)
  • Analyse von Metas strategischen Motivationen (Kostenreduzierung, einheitliche Währung für Auszahlungen)
  • Technologische Infrastrukturwahl – Ethereum-Integration und Stellars Compliance-Funktionen
  • Ginger Bakers Rolle und Hintergrund (ehemals Plaid, Ripple, Stellar-Vorstand)
  • Fortune/LinkedIn-Einblicke in Metas Krypto-Team und diskutierte Partnerschaften
  • Regulatorischer Kontext: Libras Zusammenbruch im Jahr 2022 und das freundlichere Umfeld 2025 unter Trump vs. legislativer Widerstand (Senatorin Warren zum Verbot von Big Tech Stablecoins)
  • Stablecoin-Marktdaten (Q2 2025): ~$238 Mrd. Marktkapitalisierung, USDT ~$148 Mrd. vs. USDC ~$62 Mrd., Wachstumstrends
  • Vergleichsinformationen für USDT, USDC, FDUSD (Marktanteil, regulatorische Haltung, Emittenten)
  • Integrationsdetails über Metas Produkte hinweg (Auszahlungen an Content-Ersteller, WhatsApp-Zahlungen).