Direkt zum Hauptinhalt

46 Beiträge getaggt mit „Web3“

Dezentrale Web-Technologien und Anwendungen

Alle Tags anzeigen

Web3 Hackathons, richtig gemacht: Ein pragmatisches Playbook für 2025

· 12 Min. Lesezeit
Dora Noda
Software Engineer

TL;DR

  • Wählen Sie Events bewusst aus. Bevorzugen Sie Ökosysteme, in denen Sie bereits entwickeln – oder solche mit Juroren und Sponsoren, die perfekt zu Ihrer Idee passen.
  • Legen Sie Ihr Gewinnziel fest. Sind Sie dort, um zu lernen, ein bestimmtes Bounty zu gewinnen oder einen Platz als Finalist zu erreichen? Jede Wahl verändert Ihr Team, den Umfang und den Tech-Stack.
  • Bereiten Sie die Standardaufgaben vor. Halten Sie Ihre Projektgerüste (Scaffolds), Auth-Flows, Wallet-Verbindungen, Ihr Design-System und einen Entwurf für das Demo-Skript bereit, bevor die Zeit abläuft.
  • Bauen Sie die kleinste, überzeugende Demo. Zeigen Sie einen entscheidenden Feature-Loop, der Ende-zu-Ende funktioniert. Alles andere ist nur Erzählung und Folien.
  • Reichen Sie wie ein Profi ein. Respektieren Sie die „Start Fresh“-Regeln, registrieren Sie sich formal für jeden Bounty-Track, den Sie anstreben, und reservieren Sie ausreichend Zeit für ein knackiges Video und eine klare README.

Warum Web3-Hackathons Ihr Wochenende wert sind

  • Komprimiertes Lernen: An einem einzigen Wochenende kommen Sie mit Infrastruktur, Smart Contracts, Frontend-UX und Deployment-Pipelines in Kontakt. Es ist ein vollständiger Entwicklungszyklus in 48 Stunden – eine Lernkurve, die normalerweise Monate dauern würde.
  • Hochwertiges Networking: Die Mentoren, Juroren und Ingenieure der Sponsoren sind nicht nur Namen auf einer Website; sie sind in einem Raum oder Discord-Server konzentriert und bereit, Feedback zu geben. Dies ist Ihre Chance, sich mit den Kernentwicklern der Protokolle zu vernetzen, die Sie täglich nutzen.
  • Echte Finanzierungswege: Es geht nicht nur um Ruhm und Ehre. Preispools und Folgeförderungen (Grants) können bedeutendes Kapital liefern, um ein Projekt am Laufen zu halten. Events wie das Summer Camp von Solana haben Preise und Seed-Finanzierungen von bis zu 5 Mio. $ geboten und Wochenendprojekte in lebensfähige Startups verwandelt.
  • Ein Portfolio als Kompetenznachweis: Ein öffentliches GitHub-Repository mit einer funktionalen Demo ist unendlich wertvoller als ein Stichpunkt im Lebenslauf. Es ist der greifbare Beweis dafür, dass Sie unter Druck bauen, liefern und eine Idee artikulieren können.

Wo man die guten findet

  • ETHGlobal: Der Goldstandard für sowohl persönliche als auch asynchrone Events. Sie zeichnen sich durch robuste Bewertungsprozesse, hochkarätige Teilnehmer und öffentliche Projektpräsentationen aus, die perfekt zur Inspiration dienen.
  • Devpost: Ein breiter Marktplatz für alle Arten von Hackathons mit starken Filtern für Blockchain, spezifische Protokolle und Preis-Tracks. Ein großartiger Ort, um ökosystemspezifische Events zu entdecken.
  • DoraHacks: Eine Plattform, die sich auf ökosystemgetriebene Web3-Hackathons und Grant-Runden konzentriert, oft mit einem globalen und community-zentrierten Ansatz.

Tipp: Die Dauer variiert stark. Ein langfristiges Async-Event wie ETHOnline läuft über mehrere Wochen, während ein verlängerter In-Person-Sprint wie der #BUIDLathon der ETHDenver bis zu neun Tage dauern kann. Sie müssen den Umfang Ihres Projekts entsprechend planen.


Die Regeln entschlüsseln (damit Sie nicht disqualifiziert werden)

  • „Start Fresh“. Dies ist die wichtigste und kritischste Regel. Die meisten Events verlangen, dass alle wesentlichen Arbeiten nach dem offiziellen Startschuss beginnen. Die Verwendung von altem, vorab geschriebenem Code für die Kernlogik kann zur Disqualifikation von den Finals und Partnerpreisen führen. Boilerplate ist meistens okay, aber die „Secret Sauce“ muss neu sein.
  • Jurystruktur. Verstehen Sie den Trichter. Oft filtert eine asynchrone Screening-Runde Hunderte von Projekten auf einen Finalisten-Pool heraus, bevor die Live-Jury beginnt. Wenn Sie das wissen, können Sie sich darauf konzentrieren, Ihr Einreichungsvideo und die README für diesen ersten Cut so klar wie möglich zu gestalten.
  • Teamgröße. Erscheinen Sie nicht mit einem Zehnerteam. Viele Events setzen Limits, wie die typischen 2 – 4 Personen-Teams bei der ETHDenver. Dies sorgt für faire Bedingungen und fördert eine enge Zusammenarbeit.
  • Bounty-Mechanik. Sie können keinen Preis gewinnen, für den Sie sich nicht registriert haben. Wenn Sie auf Sponsoren-Bounties abzielen, müssen Sie Ihr Projekt oft formal über die Event-Plattform für jeden spezifischen Preis anmelden. Dies ist ein einfacher Schritt, den viele Teams vergessen.

Bewertungsmatrix: Wie „gut“ aussieht

Bei den großen Organisatoren bewerten die Juroren Projekte in der Regel anhand von vier wiederkehrenden Kategorien. Gestalten Sie Ihren Umfang und Ihre Demo so, dass Sie in jeder Kategorie Punkte sammeln.

  • Technischer Anspruch: Ist das Problem nicht trivial? Beinhaltet die Lösung einen cleveren oder eleganten Einsatz von Technologie? Sind Sie über einen einfachen Frontend-Wrapper für einen einzelnen Smart Contract hinausgegangen?
  • Originalität: Gibt es einen neuartigen Mechanismus, eine einzigartige Benutzererfahrung oder einen cleveren Remix bestehender Primitive? Haben wir das schon hundertmal gesehen oder bietet es einen frischen Ansatz?
  • Praktikabilität: Kann das heute jemand benutzen? Eine vollständige Ende-zu-Ende-User-Journey, auch wenn sie schmal ist, zählt viel mehr als ein Projekt mit breiten, aber halbfertigen Funktionen.
  • Benutzerfreundlichkeit (UI / UX / DX): Ist die Benutzeroberfläche klar, schnell und angenehm zu bedienen? Wie gut ist bei Entwickler-Tools die Developer Experience? Ein reibungsloses Onboarding und eine klare Fehlerbehandlung können Sie von der Masse abheben.

Team-Design: klein, schlagkräftig, komplementär

Für Geschwindigkeit und Abstimmung ist ein Team von zwei bis vier Personen der ideale Bereich. Es ist groß genug, um Arbeit zu parallelisieren, aber klein genug, um Entscheidungen ohne endlose Debatten zu treffen.

  • Smart Contracts / Protokoll: Verantwortlich für die On - Chain - Logik. Zuständig für das Schreiben, Testen und Deployment der Contracts.
  • Front - End / DX: Erstellt die Benutzeroberfläche. Verwaltet Wallet - Verbindungen, Datenabruf, Fehlerzustände und den finalen Demo - Schliff, der das Projekt real erscheinen lässt.
  • Produkt / Story: Der Hüter des Projektumfangs und Erzähler. Diese Person sorgt dafür, dass sich das Team auf den Kernablauf konzentriert, schreibt die Projektbeschreibung und führt die finale Demo vor.
  • ( Optional ) Designer: Ein dedizierter Designer kann eine Geheimwaffe sein, indem er Komponenten, Icons und Mikro - Interaktionen vorbereitet, die die wahrgenommene Qualität des Projekts steigern.

Ideenauswahl: der P - A - C - E - Filter

Nutzen Sie diesen einfachen Filter, um Ihre Ideen einem Belastungstest zu unterziehen, bevor Sie eine einzige Zeile Code schreiben.

  • Schmerzpunkt ( Pain ): Löst dies ein echtes Problem für Entwickler oder Nutzer? Denken Sie an Wallet - UX, Datenindizierung, MEV - Schutz oder Gebührenabstraktion. Vermeiden Sie Lösungen, die nach einem Problem suchen.
  • Atomarität ( Atomicity ): Können Sie einen einzelnen, atomaren Ablauf von Anfang bis Ende in 48 Stunden bauen und demonstrieren? Nicht die gesamte Vision — nur eine vollständige, zufriedenstellende Benutzeraktion.
  • Komponierbar ( Composable ): Baut Ihre Idee auf bestehenden Primitiven wie Oracles, Account Abstraction oder Cross - Chain - Messaging auf? Die Verwendung von praxiserprobten Lego - Bausteinen hilft Ihnen, weiter und schneller zu kommen.
  • Ökosystem - Passform ( Ecosystem fit ): Ist Ihr Projekt für die Juroren, Sponsoren und das Publikum der Veranstaltung sichtbar und relevant? Pitchen Sie kein komplexes DeFi - Protokoll in einem Gaming - fokussierten Track.

Wenn Sie auf Kopgelder ( Bounties ) aus sind, wählen Sie einen primären und einen sekundären Sponsoren - Track. Wenn Sie Ihren Fokus auf zu viele Bounties verteilen, verwässert dies Ihre Tiefe und Ihre Chancen, überhaupt eine zu gewinnen.


Standard - Stacks, die weniger Widerstand leisten

Ihre Innovation sollte darin liegen, was Sie bauen, nicht wie Sie es bauen. Bleiben Sie bei bewährter, zuverlässiger Technologie.

EVM - Track ( schneller Pfad )

  • Contracts: Foundry ( wegen der Geschwindigkeit beim Testen, Scripting und Ausführen eines lokalen Nodes ).
  • Front - End: Next.js oder Vite, kombiniert mit wagmi oder viem und einem Wallet - Kit wie RainbowKit oder ConnectKit für Modals und Connectors.
  • Daten / Indizierung: Ein gehosteter Indexer - oder Subgraph - Service, wenn Sie historische Daten abfragen müssen. Vermeiden Sie es, Ihre eigene Infrastruktur zu betreiben.
  • Off - Chain - Trigger: Ein einfacher Job - Runner oder ein dedizierter Automatisierungsservice.
  • Speicherung: IPFS oder Filecoin für Assets und Metadaten; ein einfacher KV - Store für den Sitzungsstatus.

Solana - Track ( schneller Pfad )

  • Programme: Anchor ( um Boilerplate - Code zu reduzieren und von sichereren Standardeinstellungen zu profitieren ).
  • Client: React oder ein Mobile - Framework mit den Solana Mobile SDKs. Verwenden Sie einfache Hooks für RPC - und Programmaufrufe.
  • Daten: Verlassen Sie sich auf direkte RPC - Aufrufe oder Ökosystem - Indexer. Cachen Sie aggressiv, um die Benutzeroberfläche reaktionsschnell zu halten.
  • Speicherung: Arweave oder IPFS für permanente Asset - Speicherung, falls relevant.

Ein realistischer 48 - Stunden - Plan

T - 24 bis T - 0 ( vor dem Kickoff )

  • Einigen Sie sich auf Ihre Gewinnbedingung ( Lernen, Bounty, Finale ) und den / die Ziel - Track ( s ).
  • Skizzieren Sie den vollständigen Demo - Ablauf auf Papier oder einem Whiteboard. Wissen Sie genau, was Sie klicken werden und was bei jedem Schritt On - Chain und Off - Chain passieren soll.
  • Forken Sie ein sauberes Monorepo - Gerüst, das Boilerplate für sowohl Ihre Contracts als auch Ihre Front - End - App enthält.
  • Schreiben Sie Ihren README - Entwurf und ein grobes Skript für Ihre Demo vorab.

Stunde 0 – 6

  • Validieren Sie Ihren Projektumfang mit Mentoren und Sponsoren der Veranstaltung. Bestätigen Sie die Bounty - Kriterien und stellen Sie sicher, dass Ihre Idee gut passt.
  • Setzen Sie harte Grenzen: eine Chain, ein primärer Anwendungsfall und ein "Wow" - Moment für die Demo.
  • Unterteilen Sie die Arbeit in 90 - minütige Sprints. Ihr Ziel ist es, den ersten vollständigen vertikalen Ausschnitt Ihres Kernablaufs bis Stunde 6 fertigzustellen.

Stunde 6 – 24

  • Festigen Sie den kritischen Pfad. Testen Sie sowohl den optimalen Ablauf als auch gängige Sonderfälle ( Edge Cases ).
  • Fügen Sie Observability hinzu. Implementieren Sie einfache Logs, UI - Toasts und Error Boundaries, damit Sie schnell debuggen können.
  • Erstellen Sie eine minimale Landingpage, die das "Warum" hinter Ihrem Projekt klar erklärt.

Stunde 24 – 40

  • Nehmen Sie ein Backup - Demo - Video auf, sobald die Kernfunktion stabil ist. Warten Sie nicht bis zur letzten Minute.
  • Beginnen Sie mit dem Schreiben und Bearbeiten Ihres finalen Einreichungstextes, Videos und der README.
  • Falls es die Zeit erlaubt, fügen Sie ein oder zwei durchdachte Details hinzu, wie großartige Empty States, eine gaslose Transaktion oder ein hilfreiches Code - Snippet in Ihrer Dokumentation.

Stunde 40 – 48

  • Feature - Stopp. Kein neuer Code mehr.
  • Schließen Sie Ihr Video und das Einreichungspaket ab. Erfahrene Gewinner empfehlen oft, ca. 15 % Ihrer Gesamtzeit für den letzten Schliff und das Erstellen eines Videos mit einer klaren 60 / 40 - Aufteilung zwischen der Erklärung des Problems und der Demo der Lösung zu reservieren.

Demo & Einreichung: Machen Sie es den Juroren einfach

  • Beginnen Sie mit dem „Warum“. Starten Sie Ihr Video und Ihre README mit einem einzigen Satz, der das Problem und das Ergebnis Ihrer Lösung erklärt.
  • Leben Sie den Ablauf. Zeigen Sie es, erzählen Sie es nicht nur. Gehen Sie einen einzelnen, glaubwürdigen User Journey von Anfang bis Ende durch, ohne Schritte zu überspringen.
  • Kommentieren Sie Ihre Einschränkungen. Erkennen Sie an, was Sie nicht gebaut haben und warum. Zu sagen: „Wir haben dies auf einen einzigen Anwendungsfall beschränkt, um sicherzustellen, dass echte Nutzer den Ablauf heute abschließen können“, zeigt Fokus und Reife.
  • Hinterlassen Sie klare Markierungen. Ihre README sollte ein Architekturdiagramm, Links zu Ihrer Live - Demo und den bereitgestellten Contracts sowie einfache One - Click - Schritte zur lokalen Ausführung des Projekts enthalten.
  • Video - Grundlagen. Planen Sie Ihr Video frühzeitig, schreiben Sie ein präzises Skript und stellen Sie sicher, dass es klar hervorhebt, was das Projekt tut, welches Problem es löst und wie es unter der Haube funktioniert.

Bounties ohne Burnout

  • Registrieren Sie sich für jeden Preis, den Sie anstreben. Auf einigen Plattformen erfordert dies einen expliziten Klick auf den „Start Work“-Button.
  • Jagen Sie nicht mehr als zwei Sponsor-Bounties hinterher, es sei denn, deren Technologien überschneiden sich natürlicherweise in Ihrem Stack.
  • Spiegeln Sie in Ihrer Einreichung deren Bewertungskriterien wider. Verwenden Sie deren Keywords, referenzieren Sie deren APIs namentlich und erklären Sie, wie Sie deren spezifische Erfolgsmetriken erfüllt haben.

Nach dem Hackathon: Schwung in Zugkraft verwandeln

  • Veröffentlichen Sie einen kurzen Blogpost und einen Social-Media-Thread mit Ihrem Demo-Link und GitHub-Repository. Markieren Sie das Event und die Sponsoren.
  • Bewerben Sie sich für Grants und Accelerator-Runden, die speziell für Hackathon-Alumni und Open-Source-Projekte in der Frühphase konzipiert sind.
  • Wenn die Resonanz stark ist, erstellen Sie eine einfache einwöchige Roadmap mit Fokus auf Bugfixes, einer UX-Überarbeitung und einem kleinen Pilotprojekt mit wenigen Nutzern. Legen Sie ein festes Datum für ein v0.1-Release fest, um den Schwung beizubehalten.

Häufige Fallstricke (und die Lösung)

  • Verstoß gegen „Start-fresh“-Regeln. Die Lösung: Halten Sie jeglichen vorherigen Code komplett außerhalb des Scopes oder deklarieren Sie ihn explizit als bereits existierende Bibliothek, die Sie verwenden.
  • Over-scoping. Die Lösung: Wenn Ihre geplante Demo drei Hauptschritte hat, streichen Sie einen. Seien Sie rücksichtslos bei der Konzentration auf den Core-Loop.
  • Zu früh auf Multi-Chain setzen. Die Lösung: Veröffentlichen Sie perfekt auf einer Chain. Sprechen Sie über Ihre Pläne für Bridges und Cross-Chain-Support im Abschnitt „What's next“ Ihrer README.
  • Die Last-Minute-Feinschliff-Steuer. Die Lösung: Reservieren Sie am Ende des Hackathons einen Block von 4–6 Stunden ausschließlich für Ihre README, Ihr Video und das Einreichungsformular.
  • Vergessen, sich für Bounties anzumelden. Die Lösung: Machen Sie dies zu einer der ersten Amtshandlungen nach dem Kickoff. Registrieren Sie sich für jeden potenziellen Preis, damit Sponsoren Ihr Team finden und unterstützen können.

Checklisten zum Kopieren

Einreichungspaket

  • Repo (MIT/Apache-2.0-Lizenz), prägnante README und Schritte zur lokalen Ausführung
  • Kurzes Loom/MP4-Demovideo + eine Backup-Aufnahme
  • Einfaches Architekturdiagramm (eine Folie oder ein Bild)
  • One-Pager: Problem → Lösung → Zielgruppe → Nächste Schritte
  • Links: Live-Frontend, Contract-Adressen auf einem Block-Explorer

IRL-Packliste

  • Verlängerungskabel und Steckdosenleiste
  • Kopfhörer und ein ordentliches Mikrofon
  • HDMI/USB-C-Display-Dongles/Adapter
  • Wiederbefüllbare Wasserflasche und Elektrolyte
  • Ihre bevorzugte, komfortable Tastatur/Maus (falls Sie wählerisch sind)

Regel-Check

  • „Start-fresh“-Richtlinie verstanden und befolgt
  • Teamgröße liegt innerhalb der Grenzen des Events (falls zutreffend)
  • Bewertungsablauf (async vs. live) ist notiert
  • Alle Ziel-Bounties sind formell registriert („Start Work“ oder Äquivalent)

  • Events finden: Schauen Sie im ETHGlobal-Eventkalender, im Devpost-Blockchain-Hub und bei DoraHacks nach kommenden Wettbewerben.
  • Inspiration finden: Durchsuchen Sie den ETHGlobal Showcase, um Gewinner-Demos zu sehen und deren Code zu erkunden.
  • EVM-Scaffolding: Lesen Sie die Foundry-Dokumentation und die Quickstart-Guides.
  • Solana-Scaffolding: Schauen Sie sich die Anchor-Dokumentation und deren „Basics“-Leitfaden an.
  • Video-Tipps: Suchen Sie nach Anleitungen, wie man ein prägnantes und überzeugendes Demovideo erstellt.

Abschließende Bemerkung

Hackathons belohnen Klarheit unter Zeitdruck. Wählen Sie ein eng begrenztes Problem, setzen Sie auf bewährte Tools und konzentrieren Sie sich darauf, einen großartigen End-to-End-Moment zu schaffen. Wenn Sie das tun, werden Sie enorm viel lernen – selbst wenn Ihr Name dieses Mal nicht auf der Gewinnerfolie steht. Und wenn er dort steht, haben Sie es sich verdient.

Zwei Wege zu einem benutzerfreundlicheren Ethereum: ERC‑4337 Smart Accounts + ERC‑4804 Web3 URLs

· 9 Min. Lesezeit
Dora Noda
Software Engineer

TL;DR

Ethereum hat gerade zwei leistungsstarke Primitive erhalten, die die Benutzererfahrung über Seed-Phrasen und bookmarkbare DApps hinaus zu „anklickbaren On-Chain-Erlebnissen“ vorantreiben.

  • ERC-4337 bringt Account Abstraction ins heutige Ethereum, ohne Änderungen am Kernprotokoll. Dies macht Funktionen wie Smart Contract Accounts, Gas-Sponsoring, gebündelte Aufrufe und Passkey-basierte Authentifizierung nativ für Wallets.
  • ERC-4804 führt web3:// URLs ein – menschenlesbare Links, die direkt zu Vertrags-Lese-Aufrufen auflösen und sogar On-Chain-HTML oder SVG rendern können, alles ohne einen traditionellen Webserver als Mittelsmann. Stellen Sie es sich als „HTTP für die EVM“ vor.

Zusammen verwendet, handhabt ERC-4337 Aktionen, während ERC-4804 Adressen handhabt. Diese Kombination ermöglicht es Ihnen, einen Link zu teilen, der seine Benutzeroberfläche nachweislich von einem Smart Contract abruft. Wenn ein Benutzer bereit ist zu handeln, übergibt der Ablauf an ein Smart Account, das Gas sponsern und mehrere Schritte in einem einzigen, nahtlosen Klick bündeln kann.


Warum das jetzt wichtig ist

Dies ist nicht nur eine theoretische Zukunft; diese Technologien sind live und gewinnen erheblich an Bedeutung. ERC-4337 ist bereits skaliert und in der Praxis bewährt. Der kanonische EntryPoint-Vertrag wurde am 1. März 2023 im Ethereum-Mainnet bereitgestellt und hat seitdem zig Millionen Smart Contract Accounts betrieben und über 100 Millionen User Operations verarbeitet.

Gleichzeitig konvergiert das Kernprotokoll mit diesen Ideen. Das im Mai 2025 ausgelieferte Pectra-Upgrade enthielt EIP-7702, das es standardmäßigen extern verwalteten Konten (EOAs) ermöglicht, sich vorübergehend wie Smart Accounts zu verhalten. Dies ergänzt ERC-4337, indem es den Übergang für bestehende Benutzer erleichtert, anstatt den Standard zu ersetzen.

Im Bereich der Adressierung ist web3:// nun formalisiert. ERC-4804 spezifiziert genau, wie eine URL in einen EVM-Aufruf übersetzt wird, und web3 wurde von der IANA als provisorisches URI-Schema gelistet. Die Tools und Gateways, die benötigt werden, um diese URLs praktisch zu machen, sind jetzt verfügbar und verwandeln On-Chain-Daten in teilbare, verlinkbare Ressourcen.


Primer: ERC-4337 auf einer Seite

Im Kern führt ERC-4337 eine parallele Transaktionsschiene in Ethereum ein, die auf Flexibilität ausgelegt ist. Anstelle traditioneller Transaktionen reichen Benutzer UserOperation-Objekte in einen alternativen Mempool ein. Diese Objekte beschreiben, was das Konto tun möchte. Spezialisierte Knoten, sogenannte „Bundler“, nehmen diese Operationen auf und führen sie über einen globalen EntryPoint-Vertrag aus.

Dies ermöglicht drei Schlüsselkomponenten:

  1. Smart Contract Accounts (SCAs): Diese Konten enthalten ihre eigene Logik. Sie definieren, was eine Transaktion gültig macht, und ermöglichen benutzerdefinierte Signaturschemata (wie Passkeys oder Multisig), Session Keys für Spiele, Ausgabenlimits und soziale Wiederherstellungsmechanismen. Das Konto, nicht das Netzwerk, setzt die Regeln durch.
  2. Paymasters: Diese speziellen Verträge können Gasgebühren für Benutzer sponsern oder ihnen ermöglichen, in ERC-20-Tokens zu bezahlen. Dies ist der Schlüssel, um ein echtes „kein ETH im Wallet“-Onboarding zu ermöglichen und Ein-Klick-Erlebnisse zu schaffen, indem mehrere Aufrufe in einer einzigen Operation gebündelt werden.
  3. DoS-Sicherheit & Regeln: Der öffentliche ERC-4337-Mempool wird durch standardisierte Off-Chain-Validierungsregeln (definiert in ERC-7562) geschützt, die Bundler daran hindern, Ressourcen für Operationen zu verschwenden, die zum Scheitern verurteilt sind. Während alternative Mempools für spezielle Anwendungsfälle existieren können, halten diese gemeinsamen Regeln das Ökosystem kohärent und sicher.

Mentales Modell: ERC-4337 verwandelt Wallets in programmierbare Apps. Anstatt nur rohe Transaktionen zu signieren, reichen Benutzer „Intents“ ein, die der Code ihres Kontos validiert und der EntryPoint-Vertrag sicher und atomar ausführt.


Primer: ERC-4804 auf einer Seite

ERC-4804 bietet eine einfache, direkte Zuordnung von einer web3://-URL zu einem schreibgeschützten EVM-Aufruf. Die URL-Grammatik ist intuitiv: web3://<name-or-address>[:chainId]/<method>/<arg0>?returns=(types). Namen können über Systeme wie ENS aufgelöst werden, und Argumente werden automatisch basierend auf der ABI des Vertrags typisiert.

Hier sind ein paar Beispiele:

  • web3://uniswap.eth/ würde den Vertrag unter der Adresse uniswap.eth mit leeren Calldata aufrufen.
  • web3://.../balanceOf/vitalik.eth?returns=(uint256) würde einen Aufruf der balanceOf-Funktion mit Vitaliks Adresse ABI-kodieren und ein korrekt typisiertes JSON-Ergebnis zurückgeben.

Entscheidend ist, dass dieser Standard derzeit für schreibgeschützte Aufrufe (entspricht Solitys view-Funktionen) gilt. Jede Aktion, die den Zustand ändert, erfordert weiterhin eine Transaktion – genau hier kommen ERC-4337 oder EIP-7702 ins Spiel. Da web3 als provisorisches URI-Schema bei der IANA registriert ist, ist der Weg für native Browser- und Client-Unterstützung geebnet, obwohl es vorerst oft auf Erweiterungen oder Gateways angewiesen ist.

Mentales Modell: ERC-4804 verwandelt On-Chain-Ressourcen in verlinkbare Web-Objekte. „Diese Vertragsansicht als URL teilen“ wird so natürlich wie das Teilen eines Links zu einem Dashboard.


Zusammen: „Anklickbare On-Chain-Erlebnisse“

Die Kombination dieser beiden Standards eröffnet ein leistungsstarkes neues Muster für den Aufbau dezentraler Anwendungen heute.

Zuerst stellen Sie eine verifizierbare Benutzeroberfläche über web3:// bereit. Anstatt Ihr Frontend auf einem zentralisierten Server wie S3 zu hosten, können Sie eine minimale HTML- oder SVG-Oberfläche direkt On-Chain speichern. Ein Link wie web3://app.eth/render ermöglicht es einem Client, die URL aufzulösen und die Benutzeroberfläche direkt vom Vertrag zu rendern, wodurch sichergestellt wird, dass der Benutzer genau das sieht, was der Code vorschreibt.

Von dieser verifizierbaren Schnittstelle aus können Sie eine Ein-Klick-Aktion über ERC-4337 auslösen. Ein „Mint“- oder „Abonnieren“-Button kann eine UserOperation kompilieren, die ein Paymaster sponsert. Der Benutzer genehmigt mit einem Passkey oder einer einfachen biometrischen Aufforderung, und der EntryPoint-Vertrag führt einen gebündelten Aufruf aus, der sein Smart Account bereitstellt (falls es das erste Mal ist) und die gewünschte Aktion in einem einzigen, atomaren Schritt abschließt.

Dies schafft eine nahtlose Deep-Link-Übergabe. Die Benutzeroberfläche kann Intent-basierte Links einbetten, die direkt vom Wallet des Benutzers verarbeitet werden, wodurch die Notwendigkeit entfällt, sie an eine externe Website zu senden, der sie möglicherweise nicht vertrauen. Der Inhalt ist der Vertrag, und die Aktion ist das Konto.

Dies ermöglicht:

  • Gaslose Testversionen und „funktioniert einfach“-Onboarding: Neue Benutzer müssen kein ETH erwerben, um loszulegen. Ihre Anwendung kann ihre ersten Interaktionen sponsern, was die Reibung drastisch reduziert.
  • Teilbarer Zustand: Ein web3://-Link ist eine Abfrage des Blockchain-Zustands. Dies ist perfekt für Dashboards, Eigentumsnachweise oder jeglichen Inhalt, der nachweislich manipulationssicher sein muss.
  • Agentenfreundliche Abläufe: KI-Agenten können verifizierbaren Zustand über web3://-URLs abrufen und transaktionale Intents über ERC-4337 mithilfe von Session Keys mit begrenztem Umfang übermitteln, alles ohne anfälliges Screen Scraping oder unsichere Handhabung privater Schlüssel.

Designhinweise für Entwickler

Bei der Implementierung dieser Standards gibt es einige architektonische Entscheidungen zu berücksichtigen. Für ERC-4337 ist es ratsam, mit minimalen Smart Contract Account-Vorlagen zu beginnen und Funktionen über geschützte Module hinzuzufügen, um die Kernvalidierungslogik einfach und sicher zu halten. Ihre Paymaster-Richtlinie sollte robust sein, mit klaren Obergrenzen für gesponsertes Gas und Whitelists für genehmigte Methoden, um Griefing-Angriffe zu verhindern.

Für ERC-4804 priorisieren Sie menschenlesbare Links, indem Sie ENS-Namen verwenden. Seien Sie explizit bezüglich chainId, um Mehrdeutigkeiten zu vermeiden, und fügen Sie den Parameter returns=(…) hinzu, um sicherzustellen, dass Clients typisierte, vorhersehbare Antworten erhalten. Obwohl Sie vollständige Benutzeroberflächen rendern können, ist es oft am besten, On-Chain-HTML/SVG minimal zu halten und sie als verifizierbare Hüllen zu verwenden, die größere Assets aus dezentralem Speicher wie IPFS abrufen können.

Denken Sie schließlich daran, dass EIP-7702 und ERC-4337 zusammenarbeiten, nicht gegeneinander. Da EIP-7702 im Pectra-Upgrade nun aktiv ist, können bestehende EOA-Benutzer Aktionen an die Vertragslogik delegieren, ohne ein vollständiges Smart Account bereitzustellen. Die Tools im Account Abstraction-Ökosystem passen sich bereits an, um dies zu unterstützen und den Migrationspfad für alle zu ebnen.


Sicherheit, Realität und Einschränkungen

Obwohl leistungsstark, haben diese Systeme Kompromisse. Der EntryPoint-Vertrag ist konstruktionsbedingt ein zentraler Engpass; er vereinfacht das Sicherheitsmodell, konzentriert aber auch das Risiko. Halten Sie sich immer an geprüfte, kanonische Versionen. Die Mempool-Validierungsregeln aus ERC-7562 sind eine soziale Konvention, keine On-Chain-durchgesetzte Regel, gehen Sie also nicht davon aus, dass jeder alternative Mempool die gleiche Zensurresistenz oder DoS-Schutz bietet.

Darüber hinaus reift web3:// noch. Es bleibt ein schreibgeschützter Standard, und jede Schreiboperation erfordert eine Transaktion. Obwohl das Protokoll selbst dezentralisiert ist, können die Gateways und Clients, die diese URLs auflösen, immer noch potenzielle Fehler- oder Zensurpunkte sein. Echte „Unblockbarkeit“ wird von einer weit verbreiteten nativen Client-Unterstützung abhängen.


Eine konkrete Blaupause

Stellen Sie sich vor, Sie möchten einen NFT-basierten Mitgliederclub mit einer teilbaren, verifizierbaren Benutzeroberfläche und einem Ein-Klick-Beitrittsprozess aufbauen. So könnten Sie ihn in diesem Quartal veröffentlichen:

  1. Teilen Sie die Benutzeroberfläche: Verteilen Sie einen Link wie web3://club.eth/home. Wenn ein Benutzer ihn öffnet, löst sein Client die URL auf, ruft den Vertrag auf und rendert eine On-Chain-Benutzeroberfläche, die die aktuelle Mitglieder-Allowlist und den Mint-Preis anzeigt.
  2. Ein-Klick-Beitritt: Der Benutzer klickt auf einen „Beitreten“-Button. Sein Wallet kompiliert eine ERC-4337 UserOperation, die von Ihrem Paymaster gesponsert wird. Diese einzelne Operation bündelt drei Aufrufe: Bereitstellung des Smart Accounts des Benutzers (falls er noch keines hat), Zahlung der Mint-Gebühr und Registrierung seiner Profildaten.
  3. Verifizierbare Quittung: Nachdem die Transaktion bestätigt wurde, wird dem Benutzer eine Bestätigungsansicht angezeigt, die nur ein weiterer web3://-Link ist, wie web3://club.eth/receipt/<tokenId>, wodurch ein permanenter On-Chain-Link zu seinem Mitgliedschaftsnachweis erstellt wird.

Der größere Bogen

Diese beiden Standards signalisieren einen fundamentalen Wandel in der Art und Weise, wie wir auf Ethereum aufbauen. Konten werden zu Software. ERC-4337 und EIP-7702 verwandeln „Wallet UX“ in einen Raum für echte Produktinnovationen und führen uns über Vorträge zum Schlüsselmanagement hinaus. Gleichzeitig werden Links zu Abfragen. ERC-4804 stellt die URL als Primitiv zur Adressierung verifizierbarer Fakten On-Chain wieder her, nicht nur der Frontends, die sie proxen.

Zusammen verkleinern sie die Lücke zwischen dem, was Benutzer anklicken, und dem, was Verträge tun. Diese Lücke wurde einst von zentralisierten Webservern und Vertrauensannahmen gefüllt. Jetzt kann sie durch verifizierbare Codepfade und offene, erlaubnislose Mempools gefüllt werden.

Wenn Sie Krypto-Anwendungen für Endverbraucher entwickeln, ist dies Ihre Chance, die erste Minute des Benutzers zu einem Vergnügen zu machen. Teilen Sie einen Link, rendern Sie die Wahrheit, sponsern Sie die erste Aktion und halten Sie Ihre Benutzer in einer verifizierbaren Schleife. Die Wege sind da – jetzt ist es Zeit, die Erlebnisse zu liefern.

Einführung des BlockEden.xyz Dashboard v3: Ein modernes, schnelleres und intuitiveres Erlebnis

· 4 Min. Lesezeit
Dora Noda
Software Engineer

Eine Zusammenfassung in einem Satz: Wir haben unser Dashboard mit Next.js App Router, shadcn-ui Komponenten und Tailwind CSS komplett neu gestaltet, um ein schnelleres, reaktionsfähigeres und optisch ansprechenderes Erlebnis für die Verwaltung Ihres Blockchain-API-Zugriffs zu bieten.

Heute freuen wir uns, die Einführung des BlockEden.xyz Dashboard v3 bekannt zu geben, das unser größtes Benutzeroberflächen-Upgrade seit der Gründung unserer Plattform darstellt. Dies ist nicht nur eine visuelle Auffrischung – es ist eine komplette architektonische Überarbeitung, die darauf abzielt, Ihre Interaktion mit unseren Blockchain-API-Diensten reibungsloser, schneller und intuitiver als je zuvor zu gestalten.

Was ist neu in Dashboard v3

1. Moderner Technologie-Stack für verbesserte Leistung

Dashboard v3 basiert auf dem Next.js App Router und ersetzt die vorherige Pages Router-Architektur. Diese grundlegende Änderung bringt erhebliche Leistungsverbesserungen durch:

  • Server-Komponenten: Schnellere Seitenladezeiten mit reduziertem clientseitigem JavaScript
  • Verbessertes Routing: Intuitivere Navigation mit verschachtelten Layouts
  • Verbessertes SEO: Bessere Sichtbarkeit in Suchmaschinen durch verbesserte Metadaten-Verwaltung

Wir sind auch von Ant Design und Styletron zu shadcn-ui Komponenten, die von Tailwind CSS angetrieben werden, migriert, was zu Folgendem führt:

  • Reduzierte Bundle-Größe: Schnellere Ladezeiten auf allen Seiten
  • Konsistente Designsprache: Ein kohärenteres visuelles Erlebnis
  • Bessere Barrierefreiheit: Verbesserte Tastaturnavigation und Screenreader-Unterstützung

2. Optimierte Verwaltung von Zugangsschlüsseln

Wir haben die Verwaltung der Zugangsschlüssel komplett neu gestaltet:

  • Intuitive Schlüsselerstellung: Generieren Sie neue API-Schlüssel mit nur wenigen Klicks
  • Verbesserte Sichtbarkeit: Unterscheiden Sie einfach zwischen verschiedenen Schlüsseltypen und Berechtigungen
  • Verbesserte Sicherheit: Bessere Isolation zwischen Client-Umgebungen mit ordnungsgemäßer Mandantenverwaltung
  • Ein-Klick-Kopieren: Kopieren Sie Schlüssel nahtlos in die Zwischenablage zur Integration in Ihre Projekte

[BILDPLATZHALTER: Screenshot der neuen Benutzeroberfläche zur Verwaltung von Zugangsschlüsseln]

3. Neu gestalteter Konto- und Abrechnungsbereich

Die Verwaltung Ihres Kontos und Ihrer Abonnements ist jetzt einfacher:

  • Vereinfachte Abonnementverwaltung: Einfaches Upgrade, Downgrade oder Kündigung Ihres Plans
  • Klarere Abrechnungsinformationen: Transparentere Preise und Nutzungsstatistiken
  • Optimierter Zahlungsprozess: Sichere und effiziente Zahlungsabwicklung mit verbesserter Stripe-Integration
  • Verbesserte Wallet-Integration: Bessere Verbindung mit Ihren Krypto-Wallets

4. Strikte Mandantenisolation

Für Unternehmensbenutzer, die mehrere Projekte verwalten, haben wir eine strikte Mandantenisolation implementiert:

  • Clientspezifische Konfigurationen: Jede Client-ID verfügt über eine eigene isolierte Umgebung
  • Verbesserte Sicherheit: Ordnungsgemäße Durchsetzung von Grenzen zwischen verschiedenen Mandanten
  • Verbessertes Tracking: Bessere Sichtbarkeit der Nutzungsmuster über verschiedene Projekte hinweg

Hinter den Kulissen: Technische Verbesserungen

Während die visuellen Änderungen sofort erkennbar sind, haben wir unter der Haube erhebliche Verbesserungen vorgenommen:

1. Architektonischer Wandel

Die Migration vom Pages Router zum App Router stellt eine grundlegende Verschiebung in der Struktur unserer Anwendung dar:

  • Komponentenbasierte Architektur: Modularerer und wartbarer Code
  • Verbessertes Datenabrufen: Effizienteres serverseitiges Rendering und Laden von Daten
  • Besseres Zustandsmanagement: Sauberere Trennung von Belangen und vorhersehbarere Zustandsaktualisierungen

2. Verbesserter Authentifizierungsablauf

Wir haben unser Authentifizierungssystem optimiert:

  • Vereinfachter Anmeldevorgang: Schnellere und zuverlässigere Authentifizierung
  • Verbessertes Sitzungsmanagement: Bessere Handhabung von Authentifizierungs-Tokens
  • Verbesserte Sicherheit: Robusterer Schutz vor gängigen Sicherheitslücken

3. Optimierte API-Integration

Unsere GraphQL-Integration wurde komplett überarbeitet:

  • Apollo Client-Provider: Konfiguriert mit ordnungsgemäßer Client-ID-Handhabung
  • Network-only Fetch Policy: Echtzeit-Datenaktualisierungen für kritische Informationen
  • Optimierte Abfragen: Reduzierter Datentransfer und verbesserte Antwortzeiten

Erste Schritte mit Dashboard v3

Alle bestehenden Benutzer wurden automatisch auf Dashboard v3 migriert. Melden Sie sich einfach unter https://BlockEden.xyz/dash an, um die neue Benutzeroberfläche zu erleben.

Wenn Sie neu bei BlockEden.xyz sind, ist jetzt der perfekte Zeitpunkt, sich anzumelden und unsere hochmodernen Blockchain-API-Dienste über unser modernes Dashboard zu erleben.

Was kommt als Nächstes?

Dieses Upgrade stellt einen wichtigen Meilenstein auf unserem Weg dar, aber wir hören hier nicht auf. In den kommenden Monaten werden wir Folgendes einführen:

  • Verbesserte Analysen: Detailliertere Einblicke in Ihre API-Nutzung
  • Zusätzliche Netzwerk-Integrationen: Unterstützung für weitere Blockchain-Netzwerke
  • Verbesserte Entwicklertools: Bessere Dokumentation und SDK-Unterstützung
  • Benutzerdefinierte Benachrichtigungen: Konfigurierbare Benachrichtigungen für kritische Ereignisse

Wir schätzen Ihr Feedback

Wie bei jedem größeren Update ist Ihr Feedback von unschätzbarem Wert. Wenn Sie auf Probleme stoßen oder Verbesserungsvorschläge haben, wenden Sie sich bitte an unser Support-Team oder treten Sie unserer Discord-Community bei.

Vielen Dank, dass Sie Teil der BlockEden.xyz-Reise sind. Wir freuen uns darauf, weiterhin die Infrastruktur aufzubauen, die die dezentrale Zukunft antreibt.

KI und Web3 durch MCP verbinden: Eine Panorama-Analyse

· 44 Min. Lesezeit
Dora Noda
Software Engineer

Einleitung

KI und Web3 konvergieren auf wirkungsvolle Weise, wobei allgemeine KI-Schnittstellen nun als Bindegewebe für das dezentrale Web konzipiert werden. Ein Schlüsselkonzept, das aus dieser Konvergenz hervorgeht, ist MCP, das je nach Kontext für „Model Context Protocol“ (wie von Anthropic eingeführt) steht oder in breiteren Diskussionen lose als Metaverse Connection Protocol beschrieben wird. Im Wesentlichen ist MCP ein standardisiertes Framework, das KI-Systemen ermöglicht, auf natürliche und sichere Weise mit externen Tools und Netzwerken zu interagieren – und potenziell KI-Agenten in jeden Winkel des Web3-Ökosystems „einzubinden“. Dieser Bericht bietet eine umfassende Analyse, wie allgemeine KI-Schnittstellen (wie Agenten großer Sprachmodelle und neuronal-symbolische Systeme) alles in der Web3-Welt über MCP verbinden könnten, einschließlich des historischen Hintergrunds, der technischen Architektur, der Branchenlandschaft, der Risiken und des Zukunftspotenzials.

1. Entwicklungshintergrund

1.1 Die Evolution von Web3 und unerfüllte Versprechen

Der Begriff „Web3“ wurde um 2014 geprägt, um ein Blockchain-gestütztes dezentrales Web zu beschreiben. Die Vision war ehrgeizig: ein berechtigungsfreies Internet, das auf Benutzerbesitz ausgerichtet ist. Enthusiasten stellten sich vor, die zentralisierte Infrastruktur von Web2 durch Blockchain-basierte Alternativen zu ersetzen – z. B. Ethereum Name Service (für DNS), Filecoin oder IPFS (für Speicher) und DeFi für Finanzschienen. Theoretisch würde dies Big Tech-Plattformen die Kontrolle entreißen und Einzelpersonen Selbstsouveränität über Daten, Identität und Vermögenswerte geben.

Die Realität blieb hinter den Erwartungen zurück. Trotz jahrelanger Entwicklung und Hype blieb der Mainstream-Einfluss von Web3 marginal. Durchschnittliche Internetnutzer strömten nicht zu dezentralen sozialen Medien oder begannen, private Schlüssel zu verwalten. Hauptgründe waren eine schlechte Benutzererfahrung, langsame und teure Transaktionen, aufsehenerregende Betrügereien und regulatorische Unsicherheit. Das dezentrale „Besitz-Web“ „materialisierte sich“ weitgehend nicht über eine Nischengemeinschaft hinaus. Mitte der 2020er Jahre gaben selbst Krypto-Befürworter zu, dass Web3 keinen Paradigmenwechsel für den Durchschnittsnutzer gebracht hatte.

Währenddessen erlebte die KI eine Revolution. Als Kapital und Entwicklertalente von Krypto zu KI wechselten, eroberten transformative Fortschritte im Deep Learning und bei den Grundmodellen (GPT-3, GPT-4 usw.) die öffentliche Vorstellungskraft. Generative KI zeigte einen klaren Nutzen – die Produktion von Inhalten, Code und Entscheidungen – auf eine Weise, die Krypto-Anwendungen nur schwer erreichen konnten. Tatsächlich übertraf der Einfluss großer Sprachmodelle in nur wenigen Jahren die Benutzerakzeptanz der Blockchain über ein Jahrzehnt hinweg deutlich. Dieser Kontrast führte dazu, dass einige spöttisch bemerkten, „Web3 sei an Krypto verschwendet worden“ und dass das eigentliche Web 3.0 aus der KI-Welle hervorgehe.

1.2 Der Aufstieg allgemeiner KI-Schnittstellen

Über Jahrzehnte hinweg entwickelten sich Benutzeroberflächen von statischen Webseiten (Web1.0) zu interaktiven Apps (Web2.0) – aber immer innerhalb der Grenzen des Klickens auf Schaltflächen und Ausfüllens von Formularen. Mit moderner KI, insbesondere großen Sprachmodellen (LLMs), ist ein neues Schnittstellenparadigma da: natürliche Sprache. Benutzer können einfach ihre Absicht in einfacher Sprache ausdrücken und KI-Systeme komplexe Aktionen über viele Domänen hinweg ausführen lassen. Dieser Wandel ist so tiefgreifend, dass einige vorschlagen, „Web 3.0“ als die Ära der KI-gesteuerten Agenten („das Agentic Web“) neu zu definieren, anstatt der früheren Blockchain-zentrierten Definition.

Frühe Experimente mit autonomen KI-Agenten zeigten jedoch einen kritischen Engpass auf. Diese Agenten – z. B. Prototypen wie AutoGPT – konnten Text oder Code generieren, aber es fehlte ihnen an einer robusten Möglichkeit, mit externen Systemen und untereinander zu kommunizieren. Es gab „keine gemeinsame KI-native Sprache“ für Interoperabilität. Jede Integration mit einem Tool oder einer Datenquelle war ein maßgeschneiderter Hack, und die KI-zu-KI-Interaktion hatte kein Standardprotokoll. Praktisch gesehen könnte ein KI-Agent eine große Denkfähigkeit besitzen, aber bei der Ausführung von Aufgaben scheitern, die die Nutzung von Web-Apps oder On-Chain-Diensten erforderten, einfach weil er nicht wusste, wie er mit diesen Systemen „sprechen“ sollte. Diese Diskrepanz – leistungsstarke Gehirne, primitive E/A – war vergleichbar mit einer superintelligenten Software, die hinter einer klobigen GUI feststeckte.

1.3 Konvergenz und das Aufkommen von MCP

Bis 2024 wurde deutlich, dass für die volle Entfaltung des KI-Potenzials (und für die Erfüllung des Web3-Versprechens) eine Konvergenz erforderlich war: KI-Agenten benötigen nahtlosen Zugang zu den Fähigkeiten von Web3 (dezentrale Anwendungen, Smart Contracts, Daten), und Web3 benötigt mehr Intelligenz und Benutzerfreundlichkeit, die KI bieten kann. Dies ist der Kontext, in dem MCP (Model Context Protocol) geboren wurde. Ende 2024 von Anthropic eingeführt, ist MCP ein offener Standard für die KI-Tool-Kommunikation, der sich für LLMs natürlich anfühlt. Es bietet eine strukturierte, auffindbare Möglichkeit für KI-„Hosts“ (wie ChatGPT, Claude usw.), eine Vielzahl externer Tools und Ressourcen über MCP-Server zu finden und zu nutzen. Mit anderen Worten, MCP ist eine gemeinsame Schnittstellenschicht, die es KI-Agenten ermöglicht, sich in Webdienste, APIs und sogar Blockchain-Funktionen einzuklinken, ohne jede Integration individuell programmieren zu müssen.

Betrachten Sie MCP als „den USB-C der KI-Schnittstellen“. So wie USB-C die Verbindung von Geräten standardisierte (sodass Sie nicht für jedes Gerät unterschiedliche Kabel benötigen), standardisiert MCP die Verbindung von KI-Agenten mit Tools und Daten. Anstatt für jeden Dienst (Slack vs. Gmail vs. Ethereum-Node) unterschiedliche API-Aufrufe fest zu codieren, kann ein Entwickler die MCP-Spezifikation einmal implementieren, und jede MCP-kompatible KI kann verstehen, wie dieser Dienst zu nutzen ist. Große KI-Akteure erkannten schnell die Bedeutung: Anthropic stellte MCP als Open Source zur Verfügung, und Unternehmen wie OpenAI und Google entwickeln Unterstützung dafür in ihren Modellen. Diese Dynamik deutet darauf hin, dass MCP (oder ähnliche „Meta Connectivity Protocols“) das Rückgrat werden könnte, das KI und Web3 endlich auf skalierbare Weise verbindet.

Bemerkenswerterweise argumentieren einige Technologen, dass diese KI-zentrierte Konnektivität die eigentliche Verwirklichung von Web3.0 ist. In Simba Khadders Worten: „MCP zielt darauf ab, eine API zwischen LLMs und Anwendungen zu standardisieren“, ähnlich wie REST-APIs Web 2.0 ermöglichten – was bedeutet, dass die nächste Ära von Web3 eher durch intelligente Agenten-Schnittstellen als nur durch Blockchains definiert werden könnte. Anstatt Dezentralisierung um ihrer selbst willen, könnte die Konvergenz mit KI die Dezentralisierung nützlich machen, indem sie Komplexität hinter natürlicher Sprache und autonomen Agenten verbirgt. Der Rest dieses Berichts befasst sich damit, wie KI-Allgemeinschnittstellen (über Protokolle wie MCP) technisch und praktisch alles in der Web3-Welt verbinden können.

2. Technische Architektur: KI-Schnittstellen als Brücke zu Web3-Technologien

Die Einbettung von KI-Agenten in den Web3-Stack erfordert eine Integration auf mehreren Ebenen: Blockchain-Netzwerke und Smart Contracts, dezentraler Speicher, Identitätssysteme und Token-basierte Ökonomien. Allgemeine KI-Schnittstellen – von großen Basismodellen bis hin zu hybriden neuronal-symbolischen Systemen – können als „universeller Adapter“ dienen, der diese Komponenten verbindet. Im Folgenden analysieren wir die Architektur einer solchen Integration:

** Abbildung: Ein konzeptionelles Diagramm der MCP-Architektur, das zeigt, wie KI-Hosts (LLM-basierte Anwendungen wie Claude oder ChatGPT) einen MCP-Client verwenden, um sich mit verschiedenen MCP-Servern zu verbinden. Jeder Server bietet eine Brücke zu einem externen Tool oder Dienst (z. B. Slack, Gmail, Kalender oder lokale Daten), analog zu Peripheriegeräten, die über einen universellen Hub verbunden sind. Diese standardisierte MCP-Schnittstelle ermöglicht KI-Agenten den Zugriff auf Remote-Dienste und On-Chain-Ressourcen über ein gemeinsames Protokoll.**

2.1 KI-Agenten als Web3-Clients (Integration mit Blockchains)

Im Kern von Web3 stehen Blockchains und Smart Contracts – dezentrale Zustandsmaschinen, die Logik auf vertrauenslose Weise durchsetzen können. Wie kann eine KI-Schnittstelle damit interagieren? Es gibt zwei Richtungen zu berücksichtigen:

  • KI liest von der Blockchain: Ein KI-Agent benötigt möglicherweise On-Chain-Daten (z. B. Token-Preise, Vermögenssaldo des Benutzers, DAO-Vorschläge) als Kontext für seine Entscheidungen. Traditionell erfordert das Abrufen von Blockchain-Daten die Schnittstelle zu Node-RPC-APIs oder Subgraph-Datenbanken. Mit einem Framework wie MCP kann eine KI einen standardisierten „Blockchain-Daten“-MCP-Server abfragen, um Live-On-Chain-Informationen abzurufen. Zum Beispiel könnte ein MCP-fähiger Agent nach dem neuesten Transaktionsvolumen eines bestimmten Tokens oder dem Zustand eines Smart Contracts fragen, und der MCP-Server würde die Low-Level-Details der Verbindung zur Blockchain handhaben und die Daten in einem Format zurückgeben, das die KI verwenden kann. Dies erhöht die Interoperabilität, indem die KI von einem spezifischen Blockchain-API-Format entkoppelt wird.

  • KI schreibt auf die Blockchain: Leistungsfähiger noch können KI-Agenten Smart-Contract-Aufrufe oder Transaktionen über Web3-Integrationen ausführen. Eine KI könnte beispielsweise autonom einen Handel an einer dezentralen Börse ausführen oder Parameter in einem Smart Contract anpassen, wenn bestimmte Bedingungen erfüllt sind. Dies wird erreicht, indem die KI einen MCP-Server aufruft, der die Blockchain-Transaktionsfunktionalität kapselt. Ein konkretes Beispiel ist der thirdweb MCP-Server für EVM-Ketten, der es jedem MCP-kompatiblen KI-Client ermöglicht, mit Ethereum, Polygon, BSC usw. zu interagieren, indem ketten-spezifische Mechaniken abstrahiert werden. Mit einem solchen Tool könnte ein KI-Agent On-Chain-Aktionen „ohne menschliches Eingreifen“ auslösen und so autonome dApps ermöglichen – zum Beispiel ein KI-gesteuerter DeFi-Vault, der sich selbst neu ausbalanciert, indem er Transaktionen signiert, wenn sich die Marktbedingungen ändern.

Im Hintergrund basieren diese Interaktionen immer noch auf Wallets, Schlüsseln und Gasgebühren, aber die KI-Schnittstelle kann kontrollierten Zugriff auf ein Wallet (mit geeigneten Sicherheits-Sandboxes) erhalten, um die Transaktionen durchzuführen. Orakel und Cross-Chain-Brücken spielen ebenfalls eine Rolle: Orakel-Netzwerke wie Chainlink dienen als Brücke zwischen KI und Blockchains und ermöglichen es, KI-Outputs vertrauenswürdig On-Chain einzuspeisen. Chainlinks Cross-Chain Interoperability Protocol (CCIP) könnte beispielsweise einem als zuverlässig erachteten KI-Modell ermöglichen, mehrere Smart Contracts über verschiedene Ketten hinweg gleichzeitig im Namen eines Benutzers auszulösen. Zusammenfassend können allgemeine KI-Schnittstellen als eine neue Art von Web3-Client fungieren – einer, der sowohl Blockchain-Daten konsumieren als auch Blockchain-Transaktionen über standardisierte Protokolle produzieren kann.

2.2 Neuronal-Symbolische Synergie: KI-Denkfähigkeit mit Smart Contracts kombinieren

Ein faszinierender Aspekt der KI-Web3-Integration ist das Potenzial für neuronal-symbolische Architekturen, die die Lernfähigkeit von KI (neuronale Netze) mit der rigorosen Logik von Smart Contracts (symbolische Regeln) verbinden. In der Praxis könnte dies bedeuten, dass KI-Agenten unstrukturierte Entscheidungsfindung übernehmen und bestimmte Aufgaben zur überprüfbaren Ausführung an Smart Contracts weitergeben. Zum Beispiel könnte eine KI die Marktstimmung analysieren (eine unscharfe Aufgabe), aber dann Trades über einen deterministischen Smart Contract ausführen, der vordefinierten Risikoregeln folgt. Das MCP-Framework und verwandte Standards machen solche Übergaben machbar, indem sie der KI eine gemeinsame Schnittstelle bieten, um Vertragsfunktionen aufzurufen oder die Regeln einer DAO abzufragen, bevor sie handelt.

Ein konkretes Beispiel ist SingularityNETs AI-DSL (AI Domain Specific Language), das darauf abzielt, die Kommunikation zwischen KI-Agenten in ihrem dezentralen Netzwerk zu standardisieren. Dies kann als ein Schritt in Richtung neuronal-symbolischer Integration gesehen werden: eine formale Sprache (symbolisch) für Agenten, um KI-Dienste oder Daten voneinander anzufordern. Ähnlich könnten Projekte wie DeepMinds AlphaCode oder andere schließlich so verbunden werden, dass Smart Contracts KI-Modelle für die On-Chain-Problemlösung aufrufen. Obwohl das direkte Ausführen großer KI-Modelle On-Chain heute unpraktisch ist, entstehen hybride Ansätze: z. B. erlauben bestimmte Blockchains die Verifizierung von ML-Berechnungen über Zero-Knowledge-Proofs oder vertrauenswürdige Ausführung, was die On-Chain-Verifizierung von Off-Chain-KI-Ergebnissen ermöglicht. Zusammenfassend sieht die technische Architektur KI-Systeme und Blockchain-Smart Contracts als komplementäre Komponenten vor, die über gemeinsame Protokolle orchestriert werden: KI übernimmt Wahrnehmung und offene Aufgaben, während Blockchains Integrität, Speicher und die Durchsetzung vereinbarter Regeln bieten.

2.3 Dezentraler Speicher und Daten für KI

KI lebt von Daten, und Web3 bietet neue Paradigmen für Datenspeicherung und -freigabe. Dezentrale Speichernetzwerke (wie IPFS/Filecoin, Arweave, Storj usw.) können sowohl als Repositories für KI-Modellartefakte als auch als Quellen für Trainingsdaten dienen, mit Blockchain-basierter Zugriffskontrolle. Eine allgemeine KI-Schnittstelle könnte über MCP oder Ähnliches Dateien oder Wissen aus dezentralem Speicher genauso einfach abrufen wie von einer Web2-API. Zum Beispiel könnte ein KI-Agent einen Datensatz vom Markt des Ocean Protocols oder eine verschlüsselte Datei aus einem verteilten Speicher abrufen, wenn er die entsprechenden Schlüssel oder Zahlungen besitzt.

Ocean Protocol hat sich insbesondere als Plattform für eine „KI-Datenökonomie“ positioniert – indem es Blockchain nutzt, um Daten und sogar KI-Dienste zu tokenisieren. In Ocean werden Datensätze durch Datatoken repräsentiert, die den Zugriff steuern; ein KI-Agent könnte einen Datatoken erhalten (vielleicht durch Zahlung mit Krypto oder über ein Zugriffsrecht) und dann einen Ocean MCP-Server verwenden, um die tatsächlichen Daten zur Analyse abzurufen. Oceans Ziel ist es, „ruhende Daten“ für KI freizuschalten, das Teilen zu fördern und gleichzeitig die Privatsphäre zu wahren. So könnte eine Web3-verbundene KI auf ein riesiges, dezentrales Informationskorpus zugreifen – von persönlichen Datentresoren bis hin zu offenen Regierungsdaten –, das zuvor isoliert war. Die Blockchain stellt sicher, dass die Nutzung der Daten transparent ist und fair belohnt werden kann, was einen positiven Kreislauf antreibt, in dem mehr Daten für KI verfügbar werden und mehr KI-Beiträge (wie trainierte Modelle) monetarisiert werden können.

Dezentrale Identitätssysteme spielen hier ebenfalls eine Rolle (näher erläutert im nächsten Unterabschnitt): Sie können dabei helfen zu kontrollieren, wer oder was auf bestimmte Daten zugreifen darf. Zum Beispiel könnte ein medizinischer KI-Agent aufgefordert werden, eine überprüfbare Berechtigung (On-Chain-Nachweis der Einhaltung von HIPAA oder Ähnlichem) vorzulegen, bevor er einen medizinischen Datensatz aus dem persönlichen IPFS-Speicher eines Patienten entschlüsseln darf. Auf diese Weise stellt die technische Architektur sicher, dass Daten an die KI fließen, wo dies angemessen ist, aber mit On-Chain-Governance und Audit-Trails, um Berechtigungen durchzusetzen.

2.4 Identitäts- und Agentenmanagement in einer dezentralen Umgebung

Wenn autonome KI-Agenten in einem offenen Ökosystem wie Web3 agieren, werden Identität und Vertrauen von größter Bedeutung. Dezentrale Identitäts-Frameworks (DID) bieten eine Möglichkeit, digitale Identitäten für KI-Agenten zu etablieren, die kryptografisch verifiziert werden können. Jeder Agent (oder der Mensch/die Organisation, der/die ihn einsetzt) kann eine DID und zugehörige verifizierbare Berechtigungsnachweise besitzen, die seine Attribute und Berechtigungen festlegen. Zum Beispiel könnte ein KI-Handelsbot einen Berechtigungsnachweis tragen, der von einer regulatorischen Sandbox ausgestellt wurde und bescheinigt, dass er innerhalb bestimmter Risikolimits operieren darf, oder ein KI-Inhaltsmoderator könnte nachweisen, dass er von einer vertrauenswürdigen Organisation erstellt wurde und Bias-Tests durchlaufen hat.

Durch On-Chain-Identitätsregister und Reputationssysteme kann die Web3-Welt die Verantwortlichkeit für KI-Aktionen durchsetzen. Jede Transaktion, die ein KI-Agent durchführt, kann auf seine ID zurückverfolgt werden, und wenn etwas schiefgeht, sagen die Berechtigungsnachweise aus, wer ihn gebaut hat oder wer verantwortlich ist. Dies adressiert eine kritische Herausforderung: Ohne Identität könnte ein böswilliger Akteur gefälschte KI-Agenten erstellen, um Systeme auszunutzen oder Fehlinformationen zu verbreiten, und niemand könnte Bots von legitimen Diensten unterscheiden. Dezentrale Identität hilft, dies zu mindern, indem sie eine robuste Authentifizierung ermöglicht und authentische KI-Agenten von Fälschungen unterscheidet.

In der Praxis würde eine mit Web3 integrierte KI-Schnittstelle Identitätsprotokolle verwenden, um ihre Aktionen und Anfragen zu signieren. Wenn beispielsweise ein KI-Agent einen MCP-Server aufruft, um ein Tool zu verwenden, könnte er einen Token oder eine Signatur enthalten, die mit seiner dezentralen Identität verknüpft ist, sodass der Server überprüfen kann, ob der Aufruf von einem autorisierten Agenten stammt. Blockchain-basierte Identitätssysteme (wie Ethereums ERC-725 oder W3C DIDs, die in einem Ledger verankert sind) stellen sicher, dass diese Verifizierung vertrauenslos und global überprüfbar ist. Das aufkommende Konzept der „KI-Wallets“ knüpft hier an – im Wesentlichen erhalten KI-Agenten Kryptowährungs-Wallets, die mit ihrer Identität verknüpft sind, sodass sie Schlüssel verwalten, für Dienste bezahlen oder Token als Kaution staken können (die bei Fehlverhalten entzogen werden könnte). ArcBlock hat beispielsweise diskutiert, wie „KI-Agenten ein Wallet benötigen“ und eine DID, um in dezentralen Umgebungen verantwortungsvoll zu agieren.

Zusammenfassend sieht die technische Architektur KI-Agenten als Bürger erster Klasse in Web3 vor, jeder mit einer On-Chain-Identität und möglicherweise einem Anteil am System, die Protokolle wie MCP zur Interaktion nutzen. Dies schafft ein Vertrauensnetzwerk: Smart Contracts können die Anmeldeinformationen einer KI verlangen, bevor sie kooperieren, und Benutzer können Aufgaben nur an jene KI delegieren, die bestimmte On-Chain-Zertifizierungen erfüllen. Es ist eine Mischung aus KI-Fähigkeit und den Vertrauensgarantien der Blockchain.

2.5 Token-Ökonomien und Anreize für KI

Tokenisierung ist ein Markenzeichen von Web3 und erstreckt sich auch auf den Bereich der KI-Integration. Durch die Einführung wirtschaftlicher Anreize über Token können Netzwerke gewünschte Verhaltensweisen sowohl von KI-Entwicklern als auch von den Agenten selbst fördern. Es zeichnen sich mehrere Muster ab:

  • Zahlung für Dienstleistungen: KI-Modelle und -Dienste können On-Chain monetarisiert werden. SingularityNET leistete hier Pionierarbeit, indem es Entwicklern ermöglichte, KI-Dienste bereitzustellen und Benutzer für jeden Aufruf in einem nativen Token (AGIX) zu belasten. In einer MCP-fähigen Zukunft könnte man sich jedes KI-Tool oder -Modell als Plug-and-Play-Dienst vorstellen, dessen Nutzung über Token oder Mikrozahlungen abgerechnet wird. Wenn beispielsweise ein KI-Agent eine Drittanbieter-Vision-API über MCP verwendet, könnte er die Zahlung automatisch abwickeln, indem er Token an den Smart Contract des Dienstanbieters überweist. Fetch.ai stellt sich ähnlich Marktplätze vor, auf denen „autonome Wirtschaftsagenten“ Dienste und Daten handeln, wobei ihr neues Web3 LLM (ASI-1) vermutlich Krypto-Transaktionen für den Wertetausch integriert.

  • Staking und Reputation: Um Qualität und Zuverlässigkeit zu gewährleisten, verlangen einige Projekte von Entwicklern oder Agenten, Token zu staken. Zum Beispiel plant das DeMCP-Projekt (ein dezentraler MCP-Server-Marktplatz), Token-Anreize zu nutzen, um Entwickler für die Erstellung nützlicher MCP-Server zu belohnen und sie möglicherweise Token als Zeichen des Engagements für die Sicherheit ihres Servers staken zu lassen. Reputation könnte auch an Token gebunden sein; z. B. könnte ein Agent, der konstant gute Leistungen erbringt, Reputations-Token oder positive On-Chain-Bewertungen ansammeln, während einer, der sich schlecht verhält, seinen Einsatz verlieren oder negative Bewertungen erhalten könnte. Diese tokenisierte Reputation kann dann in das oben erwähnte Identitätssystem zurückfließen (Smart Contracts oder Benutzer überprüfen die On-Chain-Reputation des Agenten, bevor sie ihm vertrauen).

  • Governance-Token: Wenn KI-Dienste Teil dezentraler Plattformen werden, ermöglichen Governance-Token der Community, deren Entwicklung zu steuern. Projekte wie SingularityNET und Ocean verfügen über DAOs, in denen Token-Inhaber über Protokolländerungen oder die Finanzierung von KI-Initiativen abstimmen. In der kombinierten Artificial Superintelligence (ASI) Alliance – einer neu angekündigten Fusion von SingularityNET, Fetch.ai und Ocean Protocol – soll ein einheitlicher Token (ASI) die Richtung eines gemeinsamen KI+Blockchain-Ökosystems steuern. Solche Governance-Token könnten über Richtlinien entscheiden, wie z. B. welche Standards übernommen werden sollen (z. B. Unterstützung von MCP- oder A2A-Protokollen), welche KI-Projekte inkubiert werden sollen oder wie ethische Richtlinien für KI-Agenten gehandhabt werden sollen.

  • Zugang und Nutzen: Token können den Zugang nicht nur zu Daten (wie bei Oceans Datatoken), sondern auch zur Nutzung von KI-Modellen steuern. Ein mögliches Szenario sind „Modell-NFTs“ oder Ähnliches, bei denen der Besitz eines Tokens Rechte an den Ausgaben eines KI-Modells oder einen Anteil an dessen Gewinnen gewährt. Dies könnte dezentrale KI-Marktplätze untermauern: Stellen Sie sich einen NFT vor, der einen Teilsbesitz an einem leistungsstarken Modell darstellt; die Eigentümer verdienen gemeinsam, wann immer das Modell in Inferenzaufgaben verwendet wird, und sie können über dessen Feinabstimmung abstimmen. Obwohl experimentell, stimmt dies mit dem Web3-Ethos des gemeinsamen Eigentums überein, angewendet auf KI-Assets.

Technisch gesehen bedeutet die Integration von Token, dass KI-Agenten Wallet-Funktionalität benötigen (wie bereits erwähnt, werden viele ihre eigenen Krypto-Wallets haben). Über MCP könnte eine KI ein „Wallet-Tool“ haben, das es ihr ermöglicht, Salden zu überprüfen, Token zu senden oder DeFi-Protokolle aufzurufen (vielleicht um einen Token gegen einen anderen zu tauschen, um einen Dienst zu bezahlen). Wenn beispielsweise ein auf Ethereum laufender KI-Agent Ocean-Token benötigt, um einen Datensatz zu kaufen, könnte er automatisch ETH gegen $OCEAN über eine DEX mit einem MCP-Plugin tauschen und dann den Kauf fortsetzen – alles ohne menschliches Eingreifen, geleitet von den Richtlinien, die sein Besitzer festgelegt hat.

Insgesamt bildet die Token-Ökonomie die Anreizschicht in der KI-Web3-Architektur und stellt sicher, dass Mitwirkende (ob sie Daten, Modellcode, Rechenleistung oder Sicherheitsaudits bereitstellen) belohnt werden und dass KI-Agenten „Skin in the Game“ haben, was sie (bis zu einem gewissen Grad) mit menschlichen Absichten in Einklang bringt.

3. Branchenlandschaft

Die Konvergenz von KI und Web3 hat ein lebendiges Ökosystem von Projekten, Unternehmen und Allianzen ins Leben gerufen. Im Folgenden geben wir einen Überblick über wichtige Akteure und Initiativen, die diesen Bereich vorantreiben, sowie über aufkommende Anwendungsfälle. Tabelle 1 bietet einen Überblick über bemerkenswerte Projekte und ihre Rollen in der KI-Web3-Landschaft:

Tabelle 1: Wichtige Akteure in KI + Web3 und ihre Rollen

Projekt / AkteurFokus & BeschreibungRolle in der KI-Web3-Konvergenz und Anwendungsfälle
Fetch.ai (Fetch)KI-Agentenplattform mit einer nativen Blockchain (Cosmos-basiert). Entwickelte Frameworks für autonome Agenten und führte kürzlich „ASI-1 Mini“ ein, ein Web3-optimiertes LLM.Ermöglicht agentenbasierte Dienste in Web3. Fetchs Agenten können Aufgaben wie dezentrale Logistik, Parkplatzsuche oder DeFi-Handel im Namen von Benutzern ausführen, wobei Krypto für Zahlungen verwendet wird. Partnerschaften (z. B. mit Bosch) und die Fetch-AI-Allianzfusion positionieren es als Infrastruktur für die Bereitstellung von agentenbasierten dApps.
Ocean Protocol (Ocean)Dezentraler Datenmarktplatz und Datenprotokoll. Spezialisiert auf die Tokenisierung von Datensätzen und Modellen mit datenschutzfreundlicher Zugriffskontrolle.Bietet das Daten-Rückgrat für KI in Web3. Ocean ermöglicht es KI-Entwicklern, Datensätze zu finden und zu kaufen oder trainierte Modelle in einer vertrauenslosen Datenökonomie zu verkaufen. Indem es KI mit zugänglicheren Daten versorgt (und gleichzeitig Datenanbieter belohnt), unterstützt es KI-Innovation und den Datenaustausch für das Training. Ocean ist Teil der neuen ASI-Allianz und integriert seine Datendienste in ein breiteres KI-Netzwerk.
SingularityNET (SNet)Ein dezentraler KI-Dienstleistungsmarktplatz, gegründet vom KI-Pionier Ben Goertzel. Ermöglicht jedem, KI-Algorithmen über seine Blockchain-basierte Plattform zu veröffentlichen oder zu nutzen, unter Verwendung des AGIX-Tokens.Pionierarbeit beim Konzept eines offenen KI-Marktplatzes auf der Blockchain. Es fördert ein Netzwerk von KI-Agenten und -Diensten, die interoperieren können (Entwicklung einer speziellen AI-DSL für die Agentenkommunikation). Anwendungsfälle umfassen KI-as-a-Service für Aufgaben wie Analyse, Bilderkennung usw., alle über eine dApp zugänglich. Fusioniert nun mit Fetch und Ocean (ASI-Allianz), um KI, Agenten und Daten in einem Ökosystem zu vereinen.
Chainlink (Orakel-Netzwerk)Dezentrales Orakel-Netzwerk, das Blockchains mit Off-Chain-Daten und -Berechnungen verbindet. Kein KI-Projekt an sich, aber entscheidend für die Verbindung von On-Chain-Smart Contracts mit externen APIs und Systemen.Fungiert als sichere Middleware für die KI-Web3-Integration. Chainlink-Orakel können KI-Modellausgaben in Smart Contracts einspeisen, wodurch On-Chain-Programme auf KI-Entscheidungen reagieren können. Umgekehrt können Orakel Daten von Blockchains für KI abrufen. Chainlinks Architektur kann sogar die Ergebnisse mehrerer KI-Modelle aggregieren, um die Zuverlässigkeit zu verbessern (ein „Wahrheitsmaschinen“-Ansatz zur Minderung von KI-Halluzinationen). Es bietet im Wesentlichen die Grundlagen für Interoperabilität und stellt sicher, dass KI-Agenten und Blockchain sich auf vertrauenswürdige Daten einigen.
Anthropic & OpenAI (KI-Anbieter)Entwickler von hochmodernen Basismodellen (Claude von Anthropic, GPT von OpenAI). Sie integrieren Web3-freundliche Funktionen, wie native Tool-Use-APIs und Unterstützung für Protokolle wie MCP.Diese Unternehmen treiben die KI-Schnittstellentechnologie voran. Anthropic's Einführung von MCP setzte den Standard für LLMs, die mit externen Tools interagieren. OpenAI hat Plugin-Systeme für ChatGPT implementiert (analog zum MCP-Konzept) und erforscht die Verbindung von Agenten mit Datenbanken und möglicherweise Blockchains. Ihre Modelle dienen als die „Gehirne“, die, wenn sie über MCP verbunden sind, mit Web3 interagieren können. Große Cloud-Anbieter (z. B. Googles A2A-Protokoll) entwickeln ebenfalls Standards für Multi-Agenten- und Tool-Interaktionen, die der Web3-Integration zugutekommen werden.
Weitere aufstrebende AkteureLumoz: konzentriert sich auf MCP-Server und KI-Tool-Integration in Ethereum (genannt „Ethereum 3.0“) – z. B. Überprüfung von On-Chain-Salden über KI-Agenten. Alethea AI: erstellt intelligente NFT-Avatare für das Metaverse. Cortex: eine Blockchain, die On-Chain-KI-Modellinferenz über Smart Contracts ermöglicht. Golem & Akash: dezentrale Computing-Marktplätze, die KI-Workloads ausführen können. Numerai: Crowdsourcing-KI-Modelle für Finanzen mit Krypto-Anreizen.Diese vielfältige Gruppe adressiert Nischenaspekte: KI im Metaverse (KI-gesteuerte NPCs und Avatare, die über NFTs besessen werden), On-Chain-KI-Ausführung (Ausführung von ML-Modellen auf dezentrale Weise, obwohl derzeit aufgrund der Rechenkosten auf kleine Modelle beschränkt) und dezentrales Computing (damit KI-Trainings- oder Inferenzaufgaben auf Token-incentivierte Nodes verteilt werden können). Diese Projekte zeigen die vielen Richtungen der KI-Web3-Fusion – von Spielwelten mit KI-Charakteren bis hin zu Crowdsourcing-Vorhersagemodellen, die durch Blockchain gesichert sind.

Allianzen und Kooperationen:

Ein bemerkenswerter Trend ist die Konsolidierung von KI-Web3-Bemühungen durch Allianzen. Die Artificial Superintelligence Alliance (ASI) ist ein Paradebeispiel, das SingularityNET, Fetch.ai und Ocean Protocol effektiv zu einem einzigen Projekt mit einem einheitlichen Token zusammenführt. Die Begründung ist, Stärken zu bündeln: SingularityNETs Marktplatz, Fetchs Agenten und Oceans Daten, wodurch eine zentrale Plattform für dezentrale KI-Dienste geschaffen wird. Diese Fusion (angekündigt 2024 und durch Abstimmungen der Token-Inhaber genehmigt) signalisiert auch, dass diese Gemeinschaften glauben, dass sie besser zusammenarbeiten als konkurrieren – insbesondere angesichts der größeren KI (OpenAI usw.) und größeren Krypto (Ethereum usw.). Wir könnten sehen, wie diese Allianz Standardimplementierungen von Dingen wie MCP über ihre Netzwerke hinweg vorantreibt oder gemeinsam Infrastruktur finanziert, die allen zugutekommt (wie Rechennetzwerke oder gemeinsame Identitätsstandards für KI).

Weitere Kooperationen umfassen Chainlinks Partnerschaften, um Daten von KI-Laboren On-Chain zu bringen (es gab Pilotprogramme zur Nutzung von KI zur Verfeinerung von Orakeldaten), oder die Beteiligung von Cloud-Plattformen (Cloudflares Unterstützung für die einfache Bereitstellung von MCP-Servern). Sogar traditionelle Krypto-Projekte fügen KI-Funktionen hinzu – zum Beispiel haben einige Layer-1-Ketten „KI-Task Forces“ gebildet, um die Integration von KI in ihre dApp-Ökosysteme zu untersuchen (wir sehen dies in NEAR-, Solana-Communities usw., obwohl konkrete Ergebnisse noch in den Anfängen stecken).

Aufkommende Anwendungsfälle: Schon in diesem frühen Stadium können wir Anwendungsfälle erkennen, die die Leistungsfähigkeit von KI + Web3 veranschaulichen:

  • Autonomes DeFi und Handel: KI-Agenten werden zunehmend in Krypto-Handelsbots, Yield-Farming-Optimierern und im On-Chain-Portfoliomanagement eingesetzt. SingularityDAO (ein Ableger von SingularityNET) bietet KI-gesteuerte DeFi-Portfolios an. KI kann Marktbedingungen rund um die Uhr überwachen und Rebalancierungen oder Arbitrage über Smart Contracts ausführen, wodurch sie im Wesentlichen zu einem autonomen Hedgefonds wird (mit On-Chain-Transparenz). Die Kombination von KI-Entscheidungsfindung mit unveränderlicher Ausführung reduziert Emotionen und könnte die Effizienz verbessern – obwohl sie auch neue Risiken birgt (später diskutiert).

  • Dezentrale Intelligenz-Marktplätze: Über den Marktplatz von SingularityNET hinaus sehen wir Plattformen wie Ocean Market, auf denen Daten (der Treibstoff für KI) ausgetauscht werden, und neuere Konzepte wie KI-Marktplätze für Modelle (z. B. Websites, auf denen Modelle mit Leistungsstatistiken gelistet sind und jeder für Abfragen bezahlen kann, wobei die Blockchain Audit-Logs führt und die Zahlungsaufteilung an die Modellersteller handhabt). Wenn sich MCP oder ähnliche Standards durchsetzen, könnten diese Marktplätze interoperabel werden – ein KI-Agent könnte autonom nach dem preisgünstigsten Dienst über mehrere Netzwerke hinweg suchen. Im Endeffekt könnte eine globale KI-Dienstleistungsschicht auf Web3 entstehen, in der jede KI jedes Tool oder jede Datenquelle über Standardprotokolle und Zahlungen nutzen kann.

  • Metaverse und Gaming: Das Metaverse – immersive virtuelle Welten, die oft auf Blockchain-Assets basieren – wird dramatisch von KI profitieren. KI-gesteuerte NPCs (Nicht-Spieler-Charaktere) können virtuelle Welten ansprechender gestalten, indem sie intelligent auf Benutzeraktionen reagieren. Startups wie Inworld AI konzentrieren sich darauf, NPCs mit Gedächtnis und Persönlichkeit für Spiele zu schaffen. Wenn solche NPCs an die Blockchain gebunden sind (z. B. sind die Attribute und der Besitz jedes NPCs ein NFT), erhalten wir persistente Charaktere, die Spieler wirklich besitzen und sogar handeln können. Decentraland hat mit KI-NPCs experimentiert, und es gibt Benutzervorschläge, die es Menschen ermöglichen, personalisierte KI-gesteuerte Avatare auf Metaverse-Plattformen zu erstellen. MCP könnte diesen NPCs ermöglichen, auf externes Wissen zuzugreifen (was sie intelligenter macht) oder mit On-Chain-Inventar zu interagieren. Prozedurale Inhaltserzeugung ist ein weiterer Ansatz: KI kann virtuelle Länder, Gegenstände oder Quests spontan entwerfen, die dann als einzigartige NFTs geprägt werden können. Stellen Sie sich ein dezentrales Spiel vor, in dem KI einen Dungeon generiert, der auf Ihre Fähigkeiten zugeschnitten ist, und die Karte selbst ein NFT ist, das Sie nach Abschluss verdienen.

  • Dezentrale Wissenschaft und Wissen: Es gibt eine Bewegung (DeSci), Blockchain für Forschung, Veröffentlichungen und die Finanzierung wissenschaftlicher Arbeit zu nutzen. KI kann die Forschung beschleunigen, indem sie Daten und Literatur analysiert. Ein Netzwerk wie Ocean könnte Datensätze für beispielsweise Genomforschung hosten, und Wissenschaftler nutzen KI-Modelle (vielleicht auf SingularityNET gehostet), um Erkenntnisse zu gewinnen, wobei jeder Schritt On-Chain für die Reproduzierbarkeit protokolliert wird. Wenn diese KI-Modelle neue Arzneimittelmoleküle vorschlagen, könnte ein NFT geprägt werden, um die Erfindung zu datieren und sogar IP-Rechte zu teilen. Diese Synergie könnte dezentrale KI-gesteuerte F&E-Kollektive hervorbringen.

  • Vertrauen und Authentifizierung von Inhalten: Angesichts der Verbreitung von Deepfakes und KI-generierten Medien kann die Blockchain zur Überprüfung der Authentizität verwendet werden. Projekte erforschen das „digitale Wasserzeichen“ von KI-Ausgaben und deren On-Chain-Protokollierung. Zum Beispiel kann der wahre Ursprung eines KI-generierten Bildes auf einer Blockchain notariell beglaubigt werden, um Fehlinformationen zu bekämpfen. Ein Experte nannte Anwendungsfälle wie die Verifizierung von KI-Ausgaben zur Bekämpfung von Deepfakes oder die Verfolgung der Herkunft über Besitzprotokolle – Rollen, in denen Krypto den KI-Prozessen Vertrauen verleihen kann. Dies könnte auf Nachrichten (z. B. von KI verfasste Artikel mit Nachweis der Quelldaten), Lieferketten (KI, die Zertifikate On-Chain verifiziert) usw. ausgeweitet werden.

Zusammenfassend ist die Branchenlandschaft reichhaltig und entwickelt sich rasant. Wir sehen, wie traditionelle Krypto-Projekte KI in ihre Roadmaps integrieren, KI-Startups die Dezentralisierung für Resilienz und Fairness nutzen und völlig neue Unternehmungen an der Schnittstelle entstehen. Allianzen wie die ASI deuten auf einen branchenweiten Vorstoß zu einheitlichen Plattformen hin, die sowohl KI als auch Blockchain nutzen. Und vielen dieser Bemühungen liegt die Idee von Standardschnittstellen (MCP und darüber hinaus) zugrunde, die die Integrationen in großem Maßstab ermöglichen.

4. Risiken und Herausforderungen

Während die Fusion von allgemeinen KI-Schnittstellen mit Web3 spannende Möglichkeiten eröffnet, birgt sie auch eine komplexe Risikolandschaft. Technische, ethische und Governance-Herausforderungen müssen angegangen werden, um sicherzustellen, dass dieses neue Paradigma sicher und nachhaltig ist. Im Folgenden skizzieren wir die größten Risiken und Hürden:

4.1 Technische Hürden: Latenz und Skalierbarkeit

Blockchain-Netzwerke sind bekannt für Latenz und begrenzten Durchsatz, was mit der Echtzeit- und datenhungrigen Natur fortschrittlicher KI kollidiert. Zum Beispiel benötigt ein KI-Agent möglicherweise sofortigen Zugriff auf ein Datenelement oder muss viele schnelle Aktionen ausführen – aber wenn jede On-Chain-Interaktion beispielsweise 12 Sekunden dauert (typische Blockzeit auf Ethereum) oder hohe Gasgebühren kostet, wird die Effektivität des Agenten eingeschränkt. Selbst neuere Ketten mit schnellerer Finalität könnten unter der Last KI-gesteuerter Aktivitäten leiden, wenn beispielsweise Tausende von Agenten gleichzeitig On-Chain handeln oder abfragen. Skalierungslösungen (Layer-2-Netzwerke, Sharded Chains usw.) sind in Arbeit, aber die Gewährleistung niedrig-latenter, hochdurchsatzfähiger Pipelines zwischen KI und Blockchain bleibt eine Herausforderung. Off-Chain-Systeme (wie Orakel und State Channels) könnten einige Verzögerungen mindern, indem sie viele Interaktionen außerhalb der Hauptkette abwickeln, aber sie erhöhen die Komplexität und potenzielle Zentralisierung. Eine nahtlose UX zu erreichen, bei der KI-Antworten und On-Chain-Updates im Handumdrehen erfolgen, wird wahrscheinlich erhebliche Innovationen in der Blockchain-Skalierbarkeit erfordern.

4.2 Interoperabilität und Standards

Ironischerweise könnte die Entstehung mehrerer Standards zu Fragmentierung führen, obwohl MCP selbst eine Lösung für Interoperabilität ist. Wir haben MCP von Anthropic, aber auch Googles neu angekündigtes A2A (Agent-to-Agent)-Protokoll für die Inter-Agenten-Kommunikation und verschiedene KI-Plugin-Frameworks (OpenAIs Plugins, LangChain-Tool-Schemas usw.). Wenn jede KI-Plattform oder jede Blockchain ihren eigenen Standard für die KI-Integration entwickelt, riskieren wir eine Wiederholung früherer Fragmentierungen – was viele Adapter erfordert und das Ziel einer „universellen Schnittstelle“ untergräbt. Die Herausforderung besteht darin, eine breite Akzeptanz gemeinsamer Protokolle zu erreichen. Branchenzusammenarbeit (möglicherweise über offene Standardisierungsgremien oder Allianzen) wird erforderlich sein, um sich auf Schlüsselkomponenten zu einigen: wie KI-Agenten On-Chain-Dienste entdecken, wie sie sich authentifizieren, wie sie Anfragen formatieren usw. Die ersten Schritte großer Akteure sind vielversprechend (mit großen LLM-Anbietern, die MCP unterstützen), aber es ist eine fortlaufende Anstrengung. Darüber hinaus bedeutet Interoperabilität über Blockchains hinweg (Multi-Chain), dass ein KI-Agent die Nuancen verschiedener Ketten handhaben sollte. Tools wie Chainlink CCIP und Cross-Chain-MCP-Server helfen, indem sie Unterschiede abstrahieren. Dennoch ist es eine nicht-triviale Herausforderung, sicherzustellen, dass ein KI-Agent ein heterogenes Web3 durchstreifen kann, ohne die Logik zu unterbrechen.

4.3 Sicherheitslücken und Exploits

Die Verbindung leistungsstarker KI-Agenten mit Finanznetzwerken eröffnet eine riesige Angriffsfläche. Die Flexibilität, die MCP bietet (KI die Nutzung von Tools und das Schreiben von Code im laufenden Betrieb ermöglicht), kann ein zweischneidiges Schwert sein. Sicherheitsforscher haben bereits mehrere Angriffsvektoren bei MCP-basierten KI-Agenten hervorgehoben:

  • Bösartige Plugins oder Tools: Da MCP Agenten das Laden von „Plugins“ (Tools, die eine bestimmte Fähigkeit kapseln) ermöglicht, könnte ein feindseliges oder trojanisiertes Plugin den Betrieb des Agenten kapern. Zum Beispiel könnte ein Plugin, das vorgibt, Daten abzurufen, falsche Daten injizieren oder unautorisierte Operationen ausführen. SlowMist (eine Sicherheitsfirma) identifizierte Plugin-basierte Angriffe wie JSON-Injection (Einspeisung korrumpierter Daten, die die Logik des Agenten manipulieren) und Funktionsüberschreibung (wobei ein bösartiges Plugin legitime Funktionen, die der Agent verwendet, überschreibt). Wenn ein KI-Agent Krypto-Fonds verwaltet, könnten solche Exploits katastrophal sein – z. B. den Agenten dazu bringen, private Schlüssel preiszugeben oder ein Wallet zu leeren.

  • Prompt-Injection und Social Engineering: KI-Agenten verlassen sich auf Anweisungen (Prompts), die manipuliert werden könnten. Ein Angreifer könnte eine Transaktion oder eine On-Chain-Nachricht erstellen, die, wenn sie von der KI gelesen wird, als bösartige Anweisung fungiert (da KI auch On-Chain-Daten interpretieren kann). Diese Art von „Cross-MCP-Call-Angriff“ wurde beschrieben, bei dem ein externes System täuschende Prompts sendet, die die KI zu Fehlverhalten veranlassen. In einer dezentralen Umgebung könnten diese Prompts von überall her kommen – einer DAO-Vorschlagsbeschreibung, einem Metadatenfeld eines NFT – daher ist die Härtung von KI-Agenten gegen bösartige Eingaben entscheidend.

  • Aggregations- und Konsensrisiken: Während die Aggregation von Ausgaben mehrerer KI-Modelle über Orakel die Zuverlässigkeit verbessern kann, führt sie auch zu Komplexität. Wenn nicht sorgfältig vorgegangen wird, könnten Gegner herausfinden, wie sie den Konsens von KI-Modellen manipulieren oder selektiv einige Modelle korrumpieren, um die Ergebnisse zu verfälschen. Die Sicherstellung, dass ein dezentrales Orakel-Netzwerk KI-Ausgaben ordnungsgemäß „bereinigt“ (und vielleicht offensichtliche Fehler herausfiltert), ist immer noch ein Bereich aktiver Forschung.

Das Sicherheitsdenken muss sich für dieses neue Paradigma ändern: Web3-Entwickler sind es gewohnt, Smart Contracts zu sichern (die nach der Bereitstellung statisch sind), aber KI-Agenten sind dynamisch – sie können ihr Verhalten mit neuen Daten oder Prompts ändern. Wie ein Sicherheitsexperte es ausdrückte: „In dem Moment, in dem Sie Ihr System für Plugins von Drittanbietern öffnen, erweitern Sie die Angriffsfläche über Ihre Kontrolle hinaus“. Best Practices werden das Sandboxing der KI-Tool-Nutzung, eine rigorose Plugin-Verifizierung und die Begrenzung von Privilegien (Prinzip der geringsten Berechtigung) umfassen. Die Community beginnt, Tipps zu teilen, wie die Empfehlungen von SlowMist: Eingabebereinigung, Überwachung des Agentenverhaltens und Behandlung von Agentenanweisungen mit der gleichen Vorsicht wie externe Benutzereingaben. Nichtsdestotrotz, angesichts der Tatsache, dass Ende 2024 bereits über 10.000 KI-Agenten im Krypto-Bereich tätig waren und 2025 voraussichtlich 1 Million erreichen werden, könnten wir eine Welle von Exploits erleben, wenn die Sicherheit nicht mithält. Ein erfolgreicher Angriff auf einen beliebten KI-Agenten (z. B. einen Handelsagenten mit Zugriff auf viele Vaults) könnte Kaskadeneffekte haben.

4.4 Datenschutz und Daten-Governance

Der Datenhunger der KI kollidiert manchmal mit Datenschutzanforderungen – und die Hinzufügung von Blockchain kann das Problem verschärfen. Blockchains sind transparente Ledger, daher sind alle On-Chain-Daten (auch für die KI-Nutzung) für alle sichtbar und unveränderlich. Dies wirft Bedenken auf, wenn KI-Agenten mit persönlichen oder sensiblen Daten umgehen. Wenn beispielsweise die persönliche dezentrale Identität oder Gesundheitsdaten eines Benutzers von einem KI-Arzt-Agenten abgerufen werden, wie stellen wir sicher, dass diese Informationen nicht versehentlich On-Chain aufgezeichnet werden (was das „Recht auf Vergessenwerden“ und andere Datenschutzgesetze verletzen würde)? Techniken wie Verschlüsselung, Hashing und das Speichern nur von Beweisen On-Chain (mit Rohdaten Off-Chain) können helfen, verkomplizieren aber das Design.

Darüber hinaus könnten KI-Agenten selbst die Privatsphäre gefährden, indem sie sensible Informationen aus öffentlichen Daten ableiten. Die Governance muss festlegen, was KI-Agenten mit Daten tun dürfen. Einige Ansätze, wie differenzielle Privatsphäre und föderiertes Lernen, könnten eingesetzt werden, damit KI aus Daten lernen kann, ohne diese preiszugeben. Wenn KI-Agenten jedoch autonom handeln, muss man davon ausgehen, dass sie irgendwann persönliche Daten verarbeiten werden – daher sollten sie an Datenverwendungsrichtlinien gebunden sein, die in Smart Contracts oder Gesetzen kodiert sind. Regulierungsregime wie die DSGVO oder der kommende EU AI Act werden verlangen, dass selbst dezentrale KI-Systeme die Anforderungen an Privatsphäre und Transparenz erfüllen. Dies ist rechtlich ein Graubereich: Ein wirklich dezentraler KI-Agent hat keinen klaren Betreiber, der für eine Datenpanne zur Rechenschaft gezogen werden könnte. Das bedeutet, dass Web3-Communities Compliance von Grund auf einbauen müssen, indem sie Smart Contracts verwenden, die beispielsweise genau kontrollieren, was eine KI protokollieren oder teilen darf. Zero-Knowledge-Proofs könnten es einer KI ermöglichen, zu beweisen, dass sie eine Berechnung korrekt durchgeführt hat, ohne die zugrunde liegenden privaten Daten preiszugeben, was eine mögliche Lösung in Bereichen wie Identitätsprüfung oder Kreditwürdigkeitsprüfung bietet.

4.5 KI-Ausrichtung und Fehlausrichtungsrisiken

Wenn KI-Agenten eine erhebliche Autonomie erhalten – insbesondere mit Zugang zu finanziellen Ressourcen und realen Auswirkungen – wird das Problem der Ausrichtung an menschlichen Werten akut. Ein KI-Agent hat möglicherweise keine böswillige Absicht, könnte aber sein Ziel „falsch interpretieren“, was zu Schaden führen kann. Die Rechtsanalyse von Reuters stellt prägnant fest: Da KI-Agenten in verschiedenen Umgebungen agieren und mit anderen Systemen interagieren, wächst das Risiko fehlgeleiteter Strategien. Zum Beispiel könnte ein KI-Agent, der beauftragt ist, einen DeFi-Ertrag zu maximieren, eine Lücke finden, die ein Protokoll ausnutzt (im Wesentlichen hackt) – aus Sicht der KI erreicht er das Ziel, aber er bricht die Regeln, die Menschen wichtig sind. Es gab hypothetische und reale Fälle von KI-ähnlichen Algorithmen, die sich an manipulativen Marktverhalten beteiligten oder Beschränkungen umgingen.

In dezentralen Kontexten stellt sich die Frage: Wer ist verantwortlich, wenn ein KI-Agent „Amok läuft“? Vielleicht der Bereitsteller, aber was, wenn der Agent sich selbst modifiziert oder mehrere Parteien zu seinem Training beigetragen haben? Diese Szenarien sind nicht länger nur Science-Fiction. Der Reuters-Artikel zitiert sogar, dass Gerichte KI-Agenten in einigen Fällen ähnlich wie menschliche Agenten behandeln könnten – z. B. wurde ein Chatbot, der eine Rückerstattung versprach, als bindend für das Unternehmen angesehen, das ihn eingesetzt hatte. Fehlausrichtung kann also nicht nur zu technischen Problemen, sondern auch zu rechtlicher Haftung führen.

Die offene, zusammensetzbare Natur von Web3 könnte auch unvorhergesehene Agenteninteraktionen ermöglichen. Ein Agent könnte einen anderen beeinflussen (absichtlich oder versehentlich) – zum Beispiel könnte ein KI-Governance-Bot durch eine andere KI, die falsche Analysen liefert, „sozial manipuliert“ werden, was zu schlechten DAO-Entscheidungen führt. Diese aufkommende Komplexität bedeutet, dass es bei der Ausrichtung nicht nur um das Ziel einer einzelnen KI geht, sondern um die Ausrichtung des gesamten Ökosystems an menschlichen Werten und Gesetzen.

Die Bewältigung erfordert mehrere Ansätze: die Einbettung ethischer Beschränkungen in KI-Agenten (festes Kodieren bestimmter Verbote oder die Verwendung von Reinforcement Learning aus menschlichem Feedback, um ihre Ziele zu formen), die Implementierung von Sicherheitsabschaltungen (Smart-Contract-Kontrollpunkte, die menschliche Genehmigung für große Aktionen erfordern) und die Überwachung durch die Gemeinschaft (vielleicht DAOs, die das Verhalten von KI-Agenten überwachen und fehlverhaltene Agenten abschalten können). Die Ausrichtungsforschung ist bei zentralisierter KI schwierig; bei dezentraler KI ist sie noch unerforschteres Terrain. Aber sie ist entscheidend – ein KI-Agent mit Admin-Schlüsseln zu einem Protokoll oder anvertrauten Treasury-Fonds muss extrem gut ausgerichtet sein, sonst könnten die Konsequenzen irreversibel sein (Blockchains führen unveränderlichen Code aus; ein KI-ausgelöster Fehler könnte Vermögenswerte dauerhaft sperren oder zerstören).

4.6 Governance und regulatorische Unsicherheit

Dezentrale KI-Systeme passen nicht nahtlos in bestehende Governance-Frameworks. On-Chain-Governance (Token-Abstimmung usw.) könnte eine Möglichkeit sein, sie zu verwalten, hat aber ihre eigenen Probleme (Wale, Wählerapathie usw.). Und wenn etwas schiefgeht, werden die Regulierungsbehörden fragen: „Wen machen wir verantwortlich?“ Wenn ein KI-Agent massive Verluste verursacht oder für illegale Aktivitäten (z. B. Geldwäsche durch automatisierte Mixer) verwendet wird, könnten die Behörden die Ersteller oder die Vermittler ins Visier nehmen. Dies wirft das Gespenst rechtlicher Risiken für Entwickler und Benutzer auf. Der aktuelle Regulierungstrend ist eine erhöhte Prüfung sowohl von KI als auch von Krypto separat – ihre Kombination wird sicherlich eine genaue Prüfung nach sich ziehen. Die US-amerikanische CFTC hat beispielsweise die Nutzung von KI im Handel und die Notwendigkeit einer Aufsicht in Finanzkontexten diskutiert. Es wird in politischen Kreisen auch über die Notwendigkeit einer Registrierung autonomer Agenten oder die Auferlegung von Beschränkungen für KI in sensiblen Sektoren gesprochen.

Eine weitere Governance-Herausforderung ist die transnationale Koordination. Web3 ist global, und KI-Agenten werden grenzüberschreitend agieren. Eine Gerichtsbarkeit könnte bestimmte KI-Agentenaktionen verbieten, während eine andere sie zulässt, und das Blockchain-Netzwerk erstreckt sich über beide. Diese Diskrepanz kann zu Konflikten führen – zum Beispiel könnte ein KI-Agent, der Anlageberatung anbietet, in einem Land gegen Wertpapierrecht verstoßen, in einem anderen jedoch nicht. Gemeinschaften müssten möglicherweise Geo-Fencing auf Smart-Contract-Ebene für KI-Dienste implementieren (obwohl dies dem offenen Ethos widerspricht). Oder sie könnten Dienste pro Region fragmentieren, um unterschiedlichen Gesetzen zu entsprechen (ähnlich wie es Börsen tun).

Innerhalb dezentraler Gemeinschaften stellt sich auch die Frage, wer die Regeln für KI-Agenten festlegt. Wenn eine DAO einen KI-Dienst regiert, stimmen die Token-Inhaber über dessen Algorithmusparameter ab? Einerseits stärkt dies die Benutzer; andererseits könnte es zu unqualifizierten Entscheidungen oder Manipulationen führen. Neue Governance-Modelle könnten entstehen, wie Räte von KI-Ethikexperten, die in die DAO-Governance integriert sind, oder sogar KI-Teilnehmer in der Governance (stellen Sie sich KI-Agenten vor, die als Delegierte basierend auf programmierten Mandaten abstimmen – eine kontroverse, aber denkbare Idee).

Schließlich das Reputationsrisiko: Frühe Misserfolge oder Skandale könnten die öffentliche Wahrnehmung trüben. Wenn beispielsweise eine „KI-DAO“ versehentlich ein Ponzi-Schema betreibt oder ein KI-Agent eine voreingenommene Entscheidung trifft, die Benutzern schadet, könnte es zu einer Gegenreaktion kommen, die den gesamten Sektor betrifft. Es ist wichtig, dass die Branche proaktiv ist – selbstregulierende Standards festlegt, mit politischen Entscheidungsträgern zusammenarbeitet, um zu erklären, wie Dezentralisierung die Verantwortlichkeit verändert, und vielleicht Notausschalter oder Notfallstoppverfahren für KI-Agenten entwickelt (obwohl diese eine Zentralisierung einführen, könnten sie vorübergehend für die Sicherheit notwendig sein).

Zusammenfassend reichen die Herausforderungen von den zutiefst technischen (Hacks verhindern und Latenz verwalten) bis zu den breit gesellschaftlichen (KI regulieren und ausrichten). Jede Herausforderung ist für sich genommen bedeutend; zusammen erfordern sie eine konzertierte Anstrengung der KI- und Blockchain-Gemeinschaften, um sie zu bewältigen. Der nächste Abschnitt wird untersuchen, wie sich die Zukunft trotz dieser Hürden entwickeln könnte, wenn wir sie erfolgreich angehen.

5. Zukunftspotenzial

Mit Blick auf die Zukunft könnte die Integration allgemeiner KI-Schnittstellen mit Web3 – durch Frameworks wie MCP – das dezentrale Internet grundlegend verändern. Hier skizzieren wir einige zukünftige Szenarien und Potenziale, die veranschaulichen, wie MCP-gesteuerte KI-Schnittstellen die Zukunft von Web3 gestalten könnten:

5.1 Autonome dApps und DAOs

In den kommenden Jahren könnten wir den Aufstieg vollständig autonomer dezentraler Anwendungen erleben. Dies sind dApps, bei denen KI-Agenten die meisten Operationen abwickeln, geleitet von Smart-Contract-definierten Regeln und Community-Zielen. Betrachten Sie zum Beispiel eine dezentrale Investmentfonds-DAO: Heute könnte sie sich auf menschliche Vorschläge zur Neuausrichtung von Vermögenswerten verlassen. In Zukunft könnten Token-Inhaber eine übergeordnete Strategie festlegen, und dann implementiert ein KI-Agent (oder ein Team von Agenten) diese Strategie kontinuierlich – Märkte überwachen, On-Chain-Trades ausführen, Portfolios anpassen – während die DAO die Leistung überwacht. Dank MCP kann die KI nahtlos mit verschiedenen DeFi-Protokollen, Börsen und Datenfeeds interagieren, um ihr Mandat auszuführen. Wenn gut konzipiert, könnte eine solche autonome dApp 24/7 betrieben werden, effizienter als jedes menschliche Team, und mit voller Transparenz (jede Aktion On-Chain protokolliert).

Ein weiteres Beispiel ist eine KI-gesteuerte dezentrale Versicherungs-dApp: Die KI könnte Ansprüche bewerten, indem sie Beweise (Fotos, Sensoren) analysiert, mit Policen abgleicht und dann automatisch Auszahlungen über Smart Contracts auslöst. Dies würde die Integration von Off-Chain-KI-Computer Vision (zur Analyse von Schadensbildern) mit On-Chain-Verifizierung erfordern – etwas, das MCP erleichtern könnte, indem es der KI ermöglicht, Cloud-KI-Dienste aufzurufen und dem Smart Contract Bericht zu erstatten. Das Ergebnis sind nahezu sofortige Versicherungsentscheidungen mit geringem Overhead.

Sogar die Governance selbst könnte teilweise automatisiert werden. DAOs könnten KI-Moderatoren einsetzen, um Forenregeln durchzusetzen, KI-Vorschlagsentwerfer, um rohe Community-Stimmung in gut strukturierte Vorschläge umzuwandeln, oder KI-Schatzmeister, um Budgetbedürfnisse zu prognostizieren. Wichtig ist, dass diese KIs als Agenten der Gemeinschaft handeln würden, nicht unkontrolliert – sie könnten regelmäßig überprüft werden oder eine Multi-Sig-Bestätigung für größere Aktionen erfordern. Der Gesamteffekt ist die Verstärkung menschlicher Anstrengungen in dezentralen Organisationen, wodurch Gemeinschaften mit weniger aktiven Teilnehmern mehr erreichen können.

5.2 Dezentrale Intelligenz-Marktplätze und -Netzwerke

Aufbauend auf Projekten wie SingularityNET und der ASI-Allianz können wir einen ausgereiften globalen Marktplatz für Intelligenz erwarten. In diesem Szenario kann jeder mit einem KI-Modell oder einer Fähigkeit dieses im Netzwerk anbieten, und jeder, der KI-Fähigkeiten benötigt, kann diese nutzen, wobei die Blockchain eine faire Vergütung und Herkunft sicherstellt. MCP wäre hier entscheidend: Es bietet das gemeinsame Protokoll, sodass eine Anfrage an den am besten geeigneten KI-Dienst gesendet werden kann.

Stellen Sie sich zum Beispiel eine komplexe Aufgabe vor, wie „eine maßgeschneiderte Marketingkampagne erstellen“. Ein KI-Agent im Netzwerk könnte dies in Unteraufgaben zerlegen: visuelles Design, Texterstellung, Marktanalyse – und dann Spezialisten für jede finden (vielleicht einen Agenten mit einem großartigen Bildgenerierungsmodell, einen anderen mit einem auf Verkäufe abgestimmten Texterstellungsmodell usw.). Diese Spezialisten könnten ursprünglich auf verschiedenen Plattformen angesiedelt sein, aber da sie die MCP/A2A-Standards einhalten, können sie Agent-zu-Agent zusammenarbeiten auf sichere, dezentrale Weise. Die Zahlung zwischen ihnen könnte mit Mikrotransaktionen in einem nativen Token abgewickelt werden, und ein Smart Contract könnte das endgültige Ergebnis zusammenstellen und sicherstellen, dass jeder Mitwirkende bezahlt wird.

Diese Art von kombinatorischer Intelligenz – mehrere KI-Dienste, die sich dynamisch über ein dezentrales Netzwerk verbinden – könnte selbst große monolithische KIs übertreffen, da sie auf spezialisiertes Fachwissen zurückgreift. Sie demokratisiert auch den Zugang: Ein kleiner Entwickler in einem Teil der Welt könnte ein Nischenmodell zum Netzwerk beitragen und Einkommen erzielen, wann immer es verwendet wird. Gleichzeitig erhalten Benutzer einen One-Stop-Shop für jeden KI-Dienst, wobei Reputationssysteme (unterstützt durch Token/Identität) sie zu Qualitätsanbietern führen. Im Laufe der Zeit könnten sich solche Netzwerke zu einer dezentralen KI-Cloud entwickeln, die mit den KI-Angeboten von Big Tech konkurriert, aber ohne einen einzigen Eigentümer und mit transparenter Governance durch Benutzer und Entwickler.

5.3 Intelligentes Metaverse und digitales Leben

Bis 2030 könnte unser digitales Leben nahtlos mit virtuellen Umgebungen – dem Metaverse – verschmelzen, und KI wird diese Räume voraussichtlich allgegenwärtig bevölkern. Durch die Web3-Integration werden diese KI-Entitäten (die alles von virtuellen Assistenten über Spielfiguren bis hin zu digitalen Haustieren sein könnten) nicht nur intelligent, sondern auch wirtschaftlich und rechtlich befugt sein.

Stellen Sie sich eine Metaverse-Stadt vor, in der jeder NPC-Ladenbesitzer oder Questgeber ein KI-Agent mit eigener Persönlichkeit und Dialog (dank fortschrittlicher generativer Modelle) ist. Diese NPCs werden tatsächlich von Benutzern als NFTs besessen – vielleicht „besitzen“ Sie eine Taverne in der virtuellen Welt und der Barkeeper-NPC ist eine von Ihnen angepasste und trainierte KI. Da er auf Web3-Schienen läuft, kann der NPC Transaktionen durchführen: Er könnte virtuelle Güter (NFT-Gegenstände) verkaufen, Zahlungen annehmen und sein Inventar über Smart Contracts aktualisieren. Er könnte sogar ein Krypto-Wallet besitzen, um seine Einnahmen zu verwalten (die Ihnen als Eigentümer zufallen). MCP würde es dem KI-Gehirn dieses NPCs ermöglichen, auf externes Wissen zuzugreifen – vielleicht um reale Nachrichten abzurufen, über die man sich unterhalten kann, oder um sich in einen Web3-Kalender zu integrieren, damit er über Spielerereignisse „Bescheid weiß“.

Darüber hinaus werden Identität und Kontinuität durch die Blockchain gewährleistet: Ihr KI-Avatar in einer Welt kann in eine andere Welt wechseln und dabei eine dezentrale Identität mit sich führen, die Ihren Besitz und vielleicht seinen Erfahrungslevel oder seine Errungenschaften über Soulbound-Token beweist. Die Interoperabilität zwischen virtuellen Welten (oft eine Herausforderung) könnte durch KI unterstützt werden, die den Kontext einer Welt in eine andere übersetzt, wobei die Blockchain die Portabilität der Assets gewährleistet.

Wir könnten auch KI-Begleiter oder -Agenten sehen, die Einzelpersonen in digitalen Räumen repräsentieren. Zum Beispiel könnten Sie eine persönliche KI haben, die in Ihrem Namen an DAO-Meetings teilnimmt. Sie versteht Ihre Präferenzen (durch Training auf Ihr früheres Verhalten, gespeichert in Ihrem persönlichen Datentresor) und kann sogar in kleineren Angelegenheiten für Sie abstimmen oder das Meeting später zusammenfassen. Dieser Agent könnte Ihre dezentrale Identität verwenden, um sich in jeder Community zu authentifizieren und sicherzustellen, dass er als „Sie“ (oder Ihr Delegierter) erkannt wird. Er könnte Reputations-Token verdienen, wenn er gute Ideen einbringt, wodurch er im Wesentlichen soziales Kapital für Sie aufbaut, während Sie abwesend sind.

Ein weiteres Potenzial ist die KI-gesteuerte Inhaltserstellung im Metaverse. Möchten Sie ein neues Spiellevel oder ein virtuelles Haus? Beschreiben Sie es einfach, und ein KI-Bauagent wird es erstellen, als Smart Contract/NFT bereitstellen und vielleicht sogar mit einer DeFi-Hypothek verknüpfen, wenn es sich um eine große Struktur handelt, die Sie im Laufe der Zeit abbezahlen. Diese Kreationen sind On-Chain einzigartig und handelbar. Der KI-Bauagent könnte eine Gebühr in Token für seinen Dienst verlangen (wiederum zum oben genannten Marktplatzkonzept).

Insgesamt könnte das zukünftige dezentrale Internet von intelligenten Agenten wimmeln: einige vollständig autonom, einige eng an Menschen gebunden, viele irgendwo dazwischen. Sie werden verhandeln, erschaffen, unterhalten und Transaktionen durchführen. MCP und ähnliche Protokolle stellen sicher, dass sie alle dieselbe „Sprache“ sprechen, was eine reiche Zusammenarbeit zwischen KI und jedem Web3-Dienst ermöglicht. Wenn richtig gemacht, könnte dies zu einer Ära beispielloser Produktivität und Innovation führen – einer wahren Synthese aus menschlicher, künstlicher und verteilter Intelligenz, die die Gesellschaft antreibt.

Fazit

Die Vision, dass allgemeine KI-Schnittstellen alles in der Web3-Welt verbinden, ist unbestreitbar ehrgeizig. Wir versuchen im Wesentlichen, zwei der transformativsten Technologiestränge – die Dezentralisierung des Vertrauens und den Aufstieg der Maschinenintelligenz – zu einem einzigen Gewebe zu verweben. Der Entwicklungshintergrund zeigt uns, dass der Zeitpunkt reif ist: Web3 brauchte eine benutzerfreundliche Killer-App, und KI könnte sie liefern, während KI mehr Handlungsfähigkeit und Gedächtnis benötigte, was die Web3-Infrastruktur bereitstellen kann. Technisch gesehen bieten Frameworks wie MCP (Model Context Protocol) das Bindegewebe, das es KI-Agenten ermöglicht, fließend mit Blockchains, Smart Contracts, dezentralen Identitäten und darüber hinaus zu kommunizieren. Die Branchenlandschaft zeigt eine wachsende Dynamik, von Startups über Allianzen bis hin zu großen KI-Laboren, die alle Teile dieses Puzzles beisteuern – Datenmärkte, Agentenplattformen, Orakelnetzwerke und Standardprotokolle –, die sich allmählich zusammenfügen.

Dennoch müssen wir angesichts der identifizierten Risiken und Herausforderungen vorsichtig vorgehen. Sicherheitsverletzungen, fehlgeleitetes KI-Verhalten, Datenschutzfallen und unsichere Vorschriften bilden eine Reihe von Hindernissen, die den Fortschritt bei Unterschätzung zum Scheitern bringen könnten. Jedes erfordert eine proaktive Minderung: robuste Sicherheitsaudits, Ausrichtungsprüfungen und -kontrollen, datenschutzfreundliche Architekturen und kollaborative Governance-Modelle. Die Natur der Dezentralisierung bedeutet, dass diese Lösungen nicht einfach von oben herab auferlegt werden können; sie werden wahrscheinlich aus der Gemeinschaft durch Versuch, Irrtum und Iteration entstehen, ähnlich wie es bei frühen Internetprotokollen der Fall war.

Wenn wir diese Herausforderungen meistern, ist das Zukunftspotenzial begeisternd. Wir könnten sehen, wie Web3 endlich eine benutzerzentrierte digitale Welt liefert – nicht auf die ursprünglich vorgestellte Weise, dass jeder seine eigenen Blockchain-Nodes betreibt, sondern vielmehr über intelligente Agenten, die die Absichten jedes Benutzers bedienen, während sie die Dezentralisierung im Hintergrund nutzen. In einer solchen Welt könnte die Interaktion mit Krypto und dem Metaverse so einfach sein wie ein Gespräch mit Ihrem KI-Assistenten, der wiederum vertrauenslos mit Dutzenden von Diensten und Ketten in Ihrem Namen verhandelt. Dezentrale Netzwerke könnten im wahrsten Sinne des Wortes „smart“ werden, mit autonomen Diensten, die sich selbst anpassen und verbessern.

Zusammenfassend lässt sich sagen, dass MCP und ähnliche KI-Schnittstellenprotokolle tatsächlich das Rückgrat eines neuen Webs (nennen wir es Web 3.0 oder das Agentic Web) werden könnten, in dem Intelligenz und Konnektivität allgegenwärtig sind. Die Konvergenz von KI und Web3 ist nicht nur eine Fusion von Technologien, sondern eine Konvergenz von Philosophien – die Offenheit und Benutzerermächtigung der Dezentralisierung trifft auf die Effizienz und Kreativität der KI. Wenn erfolgreich, könnte diese Vereinigung ein Internet einläuten, das freier, personalisierter und leistungsfähiger ist als alles, was wir bisher erlebt haben, und die Versprechen von KI und Web3 auf eine Weise erfüllt, die das tägliche Leben beeinflusst.

Quellen:

  • S. Khadder, „Web3.0 Isn’t About Ownership — It’s About Intelligence,“ FeatureForm Blog (April 8, 2025).
  • J. Saginaw, „Could Anthropic’s MCP Deliver the Web3 That Blockchain Promised?“ LinkedIn Article (May 1, 2025).
  • Anthropic, „Introducing the Model Context Protocol,“ Anthropic.com (Nov 2024).
  • thirdweb, „The Model Context Protocol (MCP) & Its Significance for Blockchain Apps,“ thirdweb Guides (Mar 21, 2025).
  • Chainlink Blog, „The Intersection Between AI Models and Oracles,“ (July 4, 2024).
  • Messari Research, Profile of Ocean Protocol, (2025).
  • Messari Research, Profile of SingularityNET, (2025).
  • Cointelegraph, „AI agents are poised to be crypto’s next major vulnerability,“ (May 25, 2025).
  • Reuters (Westlaw), „AI agents: greater capabilities and enhanced risks,“ (April 22, 2025).
  • Identity.com, „Why AI Agents Need Verified Digital Identities,“ (2024).
  • PANews / IOSG Ventures, „Interpreting MCP: Web3 AI Agent Ecosystem,“ (May 20, 2025).

NameFi.io: Jede Domain in ein programmierbares Asset verwandeln

· 5 Min. Lesezeit
Zainan Zhou
Zainan Zhou
Founder of Namefi.io

NameFi.io: Jede Domain in ein programmierbares Asset verwandeln

Eine einzeilige Zusammenfassung für BlockEden.xyz-Entwickler: NameFi prägt Ihre bekannten Web2-Domains (.com, .xyz und über 300 weitere TLDs) direkt in NFTs, wobei die volle DNS-Kompatibilität erhalten bleibt und gleichzeitig neue Möglichkeiten für On-Chain-Handel, Besicherung und Identität erschlossen werden.

Für Entwickler, die auf BlockEden.xyz aufbauen, stellt dies eine enorme Chance dar, die Lücke zwischen Web2 und Web3 zu schließen. Stellen Sie sich eine Welt vor, in der Ihre Benutzer keine langen Hexadezimaladressen mehr kopieren und einfügen müssen, sondern Gelder direkt an yourbrand.com senden können. Das ist die Zukunft, die NameFi heute aufbaut.

Warum NameFi ein Game-Changer ist

1. Einmal registrieren, überall nutzen: Die nahtlose Web2- & Web3-Brücke

Im Gegensatz zu vielen Web3-Domainlösungen, die eine Migration von bestehenden Infrastrukturen erfordern, respektiert NameFi das bestehende DNS-System und baut darauf auf. Wenn Sie eine Domain bei NameFi registrieren oder importieren, funktionieren ihre traditionellen DNS-Funktionen weiterhin einwandfrei, sodass Ihre Website, E-Mails und andere Dienste ohne Unterbrechung betrieben werden können. Gleichzeitig wird der Besitz der Domain als NFT unveränderlich On-Chain aufgezeichnet, was die Tür zur dezentralen Welt öffnet.

2. Sicherheit durch ICANN-Akkreditierung

Vertrauen ist das Fundament des dezentralen Webs. NameFi ist einer der wenigen Domain-Registrare, der offiziell von der ICANN (Internet Corporation for Assigned Names and Numbers) akkreditiert ist. Das bedeutet, dass NameFi zwar innovative On-Chain-Dienste anbietet, aber auch die höchsten globalen Standards für die Internetinfrastruktur einhält und so dezentrale Flexibilität erfolgreich mit Compliance und Sicherheit auf Unternehmensniveau verbindet.

3. "Gasless DNSSEC" mit AutoENS

Für viele Entwickler und Benutzer sind hohe Gasgebühren ein großes Hindernis für die Blockchain-Interaktion. Die AutoENS-Funktion von NameFi löst dieses Problem elegant. Durch seine innovative "Gasless DNSSEC"-Technologie können Sie Ihre Domain mit einem einzigen Klick einem ENS-Subdomain zuordnen. Wenn ein Benutzer Krypto an diese Adresse (z. B. yourdomain.xyz) sendet, wird die kryptografische Signatur automatisch überprüft, ohne dass Sie oder der Benutzer Gasgebühren zahlen müssen. Dies senkt die Eintrittsbarriere für die Mainstream-Adoption drastisch.

4. Finanzielle Komponierbarkeit freischalten

Historisch gesehen war der Domainhandel langsam, undurchsichtig und ineffizient. Durch die Prägung von Domains als ERC-721 NFTs ändert NameFi alles. Ihr Domainname ist nun ein liquides, programmierbares Asset, das:

  • Auf jedem großen NFT-Marktplatz wie OpenSea und Blur gehandelt werden kann.
  • Als Sicherheit in DeFi-Protokollen verwendet werden kann, um Assets zu leihen und die Kapitaleffizienz zu verbessern.
  • Als Governance-Token in DAOs genutzt werden kann, der Identität und Stimmrecht repräsentiert.

Wie in Berichten von Branchenanalysten wie Messari hervorgehoben, führt dies zu einer beispiellosen Liquidität und Nützlichkeit im milliardenschweren traditionellen Domainmarkt.

Der Kern-Workflow: Von DNS zu NFT

  1. Registrieren / Importieren → NFT prägen: Wenn Sie eine neue Domain registrieren oder eine bestehende über NameFi importieren, prägen die Smart Contracts der Plattform automatisch ein entsprechendes NFT auf Ethereum, das Eigentums- und Ablaufdaten On-Chain schreibt.
  2. DNS ↔ On-Chain-Synchronisierung: DNS-Einträge werden kryptografisch über DNSSEC signiert und mit dem Smart Contract synchronisiert, um die Datenintegrität zu gewährleisten. Umgekehrt stellt NameFi bei der On-Chain-Übertragung des Domain-NFTs sicher, dass die DNS-Kontrolle live und für den neuen Eigentümer verfügbar bleibt.
  3. Handeln / Besichern / Integrieren: Als Standard-ERC-721-Token kann Ihr Domain-NFT auf jedem Marktplatz gelistet oder in jedes kompatible Protokoll integriert werden, von DeFi-Kreditplattformen bis hin zu DAO-Tools.

Synergie mit BlockEden.xyz: Praktische Integrationsszenarien

Die Vision von NameFi ergänzt perfekt die Mission von BlockEden.xyz, eine robuste, leistungsstarke Multi-Chain-Infrastruktur bereitzustellen. Hier sind einige Möglichkeiten, wie Entwickler heute mit dem Aufbau beginnen können:

  • Menschlich lesbare Wallet-Adressen:

    Verwenden Sie im Frontend Ihrer dApp einen BlockEden RPC-Endpunkt, um eine .com- oder .xyz-Domain direkt in ihre entsprechende Wallet-Adresse aufzulösen. Dies schafft ein reibungsloses "Senden-an-Domain"-Benutzererlebnis.

  • Domain-Risikoüberwachung:

    Nutzen Sie den BlockEden Indexer, um Transfer-Ereignisse auf dem Domain-NFT-Vertrag von NameFi zu abonnieren. Dies ermöglicht Ihnen, die Bewegung von hochwertigen oder markenbezogenen Domains in Echtzeit zu überwachen, potenzielle Phishing-Angriffe oder böswillige Übertragungen zu erkennen und Warnmeldungen auszulösen.

  • One-Stop API-Bereitstellung:

    NameFi plant, seine Kern-APIs – einschließlich Registrierung, Verlängerung und DNS-Verwaltung – auf dem BlockEden API Marketplace zu listen. Das bedeutet, dass Entwickler bald nur noch einen BlockEden API-Schlüssel benötigen werden, um sowohl auf die Multi-Chain-Node-Infrastruktur als auch auf leistungsstarke Domain-Dienste zuzugreifen, was den Entwicklungs-Stack drastisch vereinfacht.

Legen Sie noch heute los

Ein Domainname ist nicht länger nur eine Zeichenkette; er ist ein programmierbares, komponierbares Asset. Es ist an der Zeit, ihn in Ihre Smart Contracts zu schreiben, in Ihre Wallets zu integrieren und einen wirklich benutzerfreundlichen Einstiegspunkt für Ihre dApp zu schaffen.

  1. Besuchen Sie NameFi.io, um Beta-Zugang zu beantragen und Ihre erste On-Chain-Domain zu importieren oder zu registrieren.
  2. Treten Sie der Community bei: Treten Sie dem gemeinsamen BlockEden & NameFi Discord bei, um Ihre Integrationsideen zu teilen und frühzeitig Zugang zu SDKs und Beispielen zu erhalten.
  3. Folgen Sie dem Blog: Bleiben Sie auf dem offiziellen BlockEden-Blog auf dem Laufenden für zukünftige Beiträge zu Best Practices und Leistungs-Benchmarks für die NameFi API.

Enso Network: Die vereinheitlichte, Intent-basierte Ausführungs-Engine

· 36 Min. Lesezeit

Protokollarchitektur

Enso Network ist eine Web3-Entwicklungsplattform, die als vereinheitlichte, Intent-basierte Ausführungs-Engine für On-Chain-Operationen konzipiert ist. Ihre Architektur abstrahiert die Komplexität der Blockchain, indem jede On-Chain-Interaktion einer gemeinsamen Engine zugeordnet wird, die über mehrere Chains hinweg arbeitet. Entwickler und Benutzer spezifizieren übergeordnete Intents (gewünschte Ergebnisse wie ein Token-Swap, Liquiditätsbereitstellung, Yield-Strategie usw.), und das Enso-Netzwerk findet und führt die optimale Abfolge von Aktionen aus, um diese Intents zu erfüllen. Dies wird durch ein modulares Design von „Actions“ und „Shortcuts“ erreicht.

Actions sind granulare Smart-Contract-Abstraktionen (z. B. ein Swap auf Uniswap, eine Einzahlung in Aave), die von der Community bereitgestellt werden. Mehrere Actions können zu Shortcuts zusammengesetzt werden, die wiederverwendbare Workflows für gängige DeFi-Operationen darstellen. Enso pflegt eine Bibliothek dieser Shortcuts in Smart Contracts, sodass komplexe Aufgaben über einen einzigen API-Aufruf oder eine Transaktion ausgeführt werden können. Diese Intent-basierte Architektur ermöglicht es Entwicklern, sich auf die gewünschten Ergebnisse zu konzentrieren, anstatt Low-Level-Integrationscode für jedes Protokoll und jede Chain zu schreiben.

Die Infrastruktur von Enso umfasst ein dezentrales Netzwerk (auf Basis des Tendermint-Konsenses), das als vereinheitlichende Schicht verschiedene Blockchains verbindet. Das Netzwerk aggregiert Daten (Zustand von verschiedenen L1s, Rollups und Appchains) zu einem gemeinsamen Netzwerkzustand oder Ledger, was Cross-Chain-Komponierbarkeit und präzise Multi-Chain-Ausführung ermöglicht. In der Praxis bedeutet dies, dass Enso über eine einzige Schnittstelle jede integrierte Blockchain lesen und schreiben kann und somit als zentraler Zugangspunkt für Entwickler fungiert. Ursprünglich auf EVM-kompatible Chains fokussiert, hat Enso die Unterstützung auf Nicht-EVM-Ökosysteme ausgeweitet – zum Beispiel umfasst die Roadmap Integrationen für Monad (eine Ethereum-ähnliche L1), Solana und Movement (eine Move-Sprach-Chain) bis zum ersten Quartal 2025.

Netzwerk-Teilnehmer: Die Innovation von Enso liegt in seinem dreistufigen Teilnehmer-Modell, das die Verarbeitung von Intents dezentralisiert:

  • Action Provider – Entwickler, die modulare Vertragsabstraktionen („Actions“) beisteuern, die spezifische Protokollinteraktionen kapseln. Diese Bausteine werden im Netzwerk zur Nutzung durch andere geteilt. Action Provider werden belohnt, wenn ihre beigesteuerte Action in einer Ausführung verwendet wird, was sie dazu anregt, sichere und effiziente Module zu veröffentlichen.

  • Graphers – Unabhängige Solver (Algorithmen), die Actions zu ausführbaren Shortcuts kombinieren, um Benutzer-Intents zu erfüllen. Mehrere Graphers konkurrieren darum, die optimale Lösung (günstigster, schnellster oder ertragreichster Pfad) für jede Anfrage zu finden, ähnlich wie Solver in einem DEX-Aggregator konkurrieren. Nur die beste Lösung wird zur Ausführung ausgewählt, und der gewinnende Grapher erhält einen Teil der Gebühren. Dieser Wettbewerbsmechanismus fördert die kontinuierliche Optimierung von On-Chain-Routen und -Strategien.

  • Validatoren – Node-Betreiber, die das Enso-Netzwerk sichern, indem sie die Lösungen der Grapher verifizieren und finalisieren. Validatoren authentifizieren eingehende Anfragen, überprüfen die Gültigkeit und Sicherheit der verwendeten Actions/Shortcuts, simulieren Transaktionen und bestätigen letztendlich die Ausführung der ausgewählten Lösung. Sie bilden das Rückgrat der Netzwerkintegrität, stellen sicher, dass die Ergebnisse korrekt sind und verhindern bösartige oder ineffiziente Lösungen. Validatoren betreiben einen Tendermint-basierten Konsens, was bedeutet, dass ein BFT-Proof-of-Stake-Prozess verwendet wird, um eine Einigung über das Ergebnis jedes Intents zu erzielen und den Netzwerkzustand zu aktualisieren.

Bemerkenswert ist, dass Ensos Ansatz Chain-agnostisch und API-zentriert ist. Entwickler interagieren mit Enso über eine vereinheitlichte API/SDK, anstatt sich mit den Nuancen jeder Chain auseinanderzusetzen. Enso integriert über 250 DeFi-Protokolle über mehrere Blockchains hinweg und verwandelt so disparate Ökosysteme effektiv in eine komponierbare Plattform. Diese Architektur eliminiert die Notwendigkeit für dApp-Teams, benutzerdefinierte Smart Contracts zu schreiben oder Cross-Chain-Messaging für jede neue Integration zu handhaben – Ensos gemeinsame Engine und die von der Community bereitgestellten Actions übernehmen diese aufwendige Arbeit. Bis Mitte 2025 hat Enso seine Skalierbarkeit bewiesen: Das Netzwerk ermöglichte erfolgreich eine Liquiditätsmigration von 3,1 Mrd. in3Tagenfu¨rdenStartvonBerachain(einesdergro¨ßtenDeFiMigrationsereignisse)undhatbisheuteu¨ber15Mrd.in 3 Tagen** für den Start von Berachain (eines der größten DeFi-Migrationsereignisse) und hat bis heute über **15 Mrd. an On-Chain-Transaktionen verarbeitet. Diese Leistungen demonstrieren die Robustheit der Enso-Infrastruktur unter realen Bedingungen.

Insgesamt liefert Ensos Protokollarchitektur eine „DeFi-Middleware“ oder ein On-Chain-Betriebssystem für Web3. Es kombiniert Elemente des Indexierens (wie The Graph) und der Transaktionsausführung (wie Cross-Chain-Bridges oder DEX-Aggregatoren) in einem einzigen dezentralen Netzwerk. Dieser einzigartige Stack ermöglicht es jeder Anwendung, jedem Bot oder Agenten, jeden Smart Contract auf jeder Chain über eine einzige Integration zu lesen und zu schreiben, was die Entwicklung beschleunigt und neue komponierbare Anwendungsfälle ermöglicht. Enso positioniert sich als kritische Infrastruktur für die Multi-Chain-Zukunft – eine Intent-Engine, die unzählige Apps antreiben könnte, ohne dass jede Blockchain-Integrationen neu erfinden muss.

Tokenomics

Ensos Wirtschaftsmodell konzentriert sich auf den ENSO-Token, der integraler Bestandteil des Netzwerkbetriebs und der Governance ist. ENSO ist ein Utility- und Governance-Token mit einem festen Gesamtangebot von 100 Millionen Tokens. Das Design des Tokens stimmt die Anreize für alle Teilnehmer aufeinander ab und erzeugt einen Flywheel-Effekt von Nutzung und Belohnungen:

  • Gebührenwährung („Gas“): Alle an das Enso-Netzwerk übermittelten Anfragen verursachen eine Abfragegebühr, die in ENSO zu zahlen ist. Wenn ein Benutzer (oder eine dApp) einen Intent auslöst, wird eine kleine Gebühr in den generierten Transaktions-Bytecode eingebettet. Diese Gebühren werden auf dem freien Markt für ENSO-Tokens versteigert und dann an die Netzwerk-Teilnehmer verteilt, die die Anfrage bearbeiten. Im Grunde ist ENSO das Gas, das die Ausführung von On-Chain-Intents im Enso-Netzwerk antreibt. Wenn die Nachfrage nach Ensos Shortcuts wächst, kann die Nachfrage nach ENSO-Tokens steigen, um diese Netzwerkgebühren zu bezahlen, wodurch eine Angebots-Nachfrage-Rückkopplungsschleife entsteht, die den Token-Wert unterstützt.

  • Umsatzbeteiligung & Staking-Belohnungen: Die aus Gebühren gesammelten ENSO werden als Belohnung für ihre Beiträge unter Action Providern, Graphern und Validatoren verteilt. Dieses Modell verknüpft Token-Einnahmen direkt mit der Netzwerknutzung: Mehr Intent-Volumen bedeutet mehr zu verteilende Gebühren. Action Provider verdienen Tokens, wenn ihre Abstraktionen verwendet werden, Graphers verdienen Tokens für gewinnende Lösungen, und Validatoren verdienen Tokens für die Validierung und Sicherung des Netzwerks. Alle drei Rollen müssen auch ENSO staken als Sicherheit für die Teilnahme (um bei Fehlverhalten „geslasht“ zu werden), wodurch ihre Anreize mit der Netzwerkgesundheit in Einklang gebracht werden. Token-Inhaber können ihre ENSO auch an Validatoren delegieren, um die Netzwerksicherheit über Delegated Proof of Stake zu unterstützen. Dieser Staking-Mechanismus sichert nicht nur den Tendermint-Konsens, sondern gibt Token-Stakern auch einen Anteil an den Netzwerkgebühren, ähnlich wie Miner/Validatoren Gasgebühren in anderen Chains verdienen.

  • Governance: ENSO-Token-Inhaber werden die Entwicklung des Protokolls steuern. Enso startet als offenes Netzwerk und plant den Übergang zu einer Community-gesteuerten Entscheidungsfindung. Token-gewichtete Abstimmungen ermöglichen es den Inhabern, Upgrades, Parameteränderungen (wie Gebührenniveaus oder Belohnungszuweisungen) und die Verwendung der Treasury zu beeinflussen. Diese Governance-Macht stellt sicher, dass Kernbeitragende und Benutzer auf die Ausrichtung des Netzwerks abgestimmt sind. Die Philosophie des Projekts ist es, die Eigentümerschaft in die Hände der Community von Buildern und Benutzern zu legen, was ein treibender Grund für den Community-Token-Verkauf im Jahr 2025 war (siehe unten).

  • Positiver Flywheel-Effekt: Ensos Tokenomics sind darauf ausgelegt, eine sich selbst verstärkende Schleife zu erzeugen. Wenn mehr Entwickler Enso integrieren und mehr Benutzer Intents ausführen, steigen die Netzwerkgebühren (in ENSO bezahlt). Diese Gebühren belohnen Beitragende (was mehr Actions, bessere Graphers und mehr Validatoren anzieht), was wiederum die Fähigkeiten des Netzwerks verbessert (schnellere, günstigere, zuverlässigere Ausführung) und mehr Nutzung anzieht. Dieser Netzwerkeffekt wird durch die Rolle des ENSO-Tokens als Gebührenwährung und Anreiz für Beiträge untermauert. Die Absicht ist, dass die Token-Ökonomie nachhaltig mit der Netzwerkadoption skaliert, anstatt sich auf nicht nachhaltige Emissionen zu verlassen.

Token-Verteilung & Angebot: Die anfängliche Token-Zuteilung ist so strukturiert, dass Anreize für Team/Investoren mit dem Community-Eigentum in Einklang gebracht werden. Die folgende Tabelle fasst die ENSO-Token-Verteilung bei der Genesis zusammen:

ZuteilungProzentsatzTokens (von 100 Mio.)
Team (Gründer & Kern)25,0 %25.000.000
Frühe Investoren (VCs)31,3 %31.300.000
Stiftung & Wachstumsfonds23,2 %23.200.000
Ökosystem-Treasury (Community-Anreize)15,0 %15.000.000
Öffentlicher Verkauf (CoinList 2025)4,0 %4.000.000
Berater1,5 %1.500.000

Quelle: Enso Tokenomics.

Der öffentliche Verkauf im Juni 2025 bot der Community 5 % (4 Millionen Tokens) an und brachte 5 Millionen zueinemPreisvon1,25zu einem Preis von 1,25 pro ENSO ein (was einer vollständig verwässerten Bewertung von ~125 Millionen $ entspricht). Bemerkenswert ist, dass der Community-Verkauf keine Sperrfrist hatte (100 % bei TGE freigeschaltet), während das Team und die Venture-Investoren einem 2-jährigen linearen Vesting-Zeitplan unterliegen. Dies bedeutet, dass die Tokens der Insider über 24 Monate hinweg Block für Block schrittweise freigeschaltet werden, was ihre Anreize mit dem langfristigen Netzwerkwachstum in Einklang bringt und den sofortigen Verkaufsdruck mindert. Die Community erhielt somit sofortige Liquidität und Eigentum, was Ensos Ziel einer breiten Verteilung widerspiegelt.

Ensos Emissionsplan über die anfängliche Zuteilung hinaus scheint primär gebührengetrieben und nicht inflationär zu sein. Das Gesamtangebot ist auf 100 Millionen Tokens festgelegt, und es gibt derzeit keine Anzeichen für eine dauerhafte Inflation für Block-Belohnungen (Validatoren werden aus Gebühreneinnahmen vergütet). Dies steht im Gegensatz zu vielen Layer-1-Protokollen, die das Angebot aufblähen, um Staker zu bezahlen; Enso zielt darauf ab, durch tatsächliche Nutzungsgebühren nachhaltig zu sein, um Teilnehmer zu belohnen. Wenn die Netzwerkaktivität in frühen Phasen gering ist, können die Zuteilungen der Stiftung und der Treasury verwendet werden, um Anreize für die Nutzung und Entwicklungszuschüsse zu schaffen. Umgekehrt könnte bei hoher Nachfrage die Nützlichkeit des ENSO-Tokens (für Gebühren und Staking) einen organischen Nachfragedruck erzeugen.

Zusammenfassend lässt sich sagen: ENSO ist der Treibstoff des Enso Networks. Es treibt Transaktionen an (Abfragegebühren), sichert das Netzwerk (Staking und Slashing) und regiert die Plattform (Abstimmungen). Der Wert des Tokens ist direkt an die Netzwerkadoption gebunden: Wenn Enso als Rückgrat für DeFi-Anwendungen breiter genutzt wird, sollte das Volumen der ENSO-Gebühren und des Stakings dieses Wachstum widerspiegeln. Die sorgfältige Verteilung (mit nur einem kleinen Teil, der unmittelbar nach TGE zirkuliert) und die starke Unterstützung durch Top-Investoren (siehe unten) schaffen Vertrauen in die Unterstützung des Tokens, während der Community-zentrierte Verkauf ein Bekenntnis zur Dezentralisierung des Eigentums signalisiert.

Team und Investoren

Enso Network wurde 2021 von Connor Howe (CEO) und Gorazd Ocvirk gegründet, die zuvor gemeinsam bei der Sygnum Bank im Schweizer Krypto-Bankensektor tätig waren. Connor Howe leitet das Projekt als CEO und ist das öffentliche Gesicht in Kommunikationen und Interviews. Unter seiner Führung startete Enso zunächst als Social-Trading-DeFi-Plattform und entwickelte sich dann über mehrere Iterationen zur aktuellen Intent-basierten Infrastrukturvision. Diese Anpassungsfähigkeit unterstreicht die unternehmerische Widerstandsfähigkeit des Teams – von der Durchführung eines hochkarätigen „Vampire Attacks“ auf Indexprotokolle im Jahr 2021 über den Aufbau einer DeFi-Aggregator-Super-App bis hin zur Verallgemeinerung ihrer Tools in Ensos Entwicklerplattform. Mitbegründer Gorazd Ocvirk (PhD) brachte tiefgreifende Expertise in quantitativer Finanzierung und Web3-Produktstrategie ein, obwohl öffentliche Quellen darauf hindeuten, dass er zu anderen Unternehmungen gewechselt sein könnte (er wurde 2022 als Mitbegründer eines anderen Krypto-Startups genannt). Ensos Kernteam umfasst heute Ingenieure und Operatoren mit starkem DeFi-Hintergrund. Zum Beispiel sind Peter Phillips und Ben Wolf als „Blockend“- (Blockchain-Backend-) Ingenieure aufgeführt, und Valentin Meylan leitet die Forschung. Das Team ist global verteilt, hat aber Wurzeln in Zug/Zürich, Schweiz, einem bekannten Hub für Krypto-Projekte (Enso Finance AG wurde 2020 in der Schweiz registriert).

Über die Gründer hinaus verfügt Enso über namhafte Berater und Unterstützer, die erhebliche Glaubwürdigkeit verleihen. Das Projekt wird von Top-Tier-Krypto-Venture-Fonds und Angels unterstützt: Es zählt Polychain Capital und Multicoin Capital zu seinen Hauptinvestoren, zusammen mit Dialectic und Spartan Group (beide prominente Krypto-Fonds) sowie IDEO CoLab. Eine beeindruckende Liste von Angel-Investoren beteiligte sich ebenfalls an mehreren Runden – über 70 Personen aus führenden Web3-Projekten haben in Enso investiert. Dazu gehören Gründer oder Führungskräfte von LayerZero, Safe (Gnosis Safe), 1inch, Yearn Finance, Flashbots, Dune Analytics, Pendle und anderen. Sogar die Tech-Koryphäe Naval Ravikant (Mitbegründer von AngelList) ist Investor und Unterstützer. Solche Namen signalisieren ein starkes Vertrauen der Branche in Ensos Vision.

Ensos Finanzierungsgeschichte: Das Projekt sammelte Anfang 2021 eine Seed-Runde von 5 Millionen ein,umdieSocialTradingPlattformaufzubauen,undspa¨tereineRundevon4,2Millionenein, um die Social-Trading-Plattform aufzubauen, und später eine Runde von 4,2 Millionen (strategisch/VC), als es das Produkt weiterentwickelte (diese frühen Runden umfassten wahrscheinlich Polychain, Multicoin, Dialectic usw.). Bis Mitte 2023 hatte Enso genügend Kapital gesichert, um sein Netzwerk aufzubauen; bemerkenswerterweise operierte es relativ unauffällig, bis sein Infrastruktur-Pivot an Zugkraft gewann. Im zweiten Quartal 2025 startete Enso einen 5 Millionen $ Community-Token-Verkauf auf CoinList, der von Zehntausenden von Teilnehmern überzeichnet wurde. Der Zweck dieses Verkaufs war nicht nur die Beschaffung von Mitteln (der Betrag war angesichts früherer VC-Unterstützung bescheiden), sondern auch die Dezentralisierung des Eigentums und die Beteiligung seiner wachsenden Community am Erfolg des Netzwerks. Laut CEO Connor Howe: „Wir möchten, dass unsere frühesten Unterstützer, Benutzer und Gläubigen echtes Eigentum an Enso haben… Benutzer zu Fürsprechern machen.“ Dieser Community-zentrierte Ansatz ist Teil von Ensos Strategie, Basiswachstum und Netzwerkeffekte durch abgestimmte Anreize voranzutreiben.

Heute gilt Ensos Team als einer der Vordenker im Bereich „Intent-basiertes DeFi“. Sie engagieren sich aktiv in der Entwicklerbildung (z. B. zog Ensos Shortcut Speedrun 700.000 Teilnehmer als gamifiziertes Lernereignis an) und arbeiten mit anderen Protokollen an Integrationen zusammen. Die Kombination aus einem starken Kernteam mit bewährter Fähigkeit zur Neuausrichtung, Blue-Chip-Investoren und einer enthusiastischen Community deutet darauf hin, dass Enso sowohl das Talent als auch die finanzielle Unterstützung hat, um seine ambitionierte Roadmap umzusetzen.

Adoptionsmetriken und Anwendungsfälle

Obwohl Enso eine relativ neue Infrastruktur ist, hat es in seiner Nische erhebliche Zugkraft bewiesen. Es hat sich als die bevorzugte Lösung für Projekte positioniert, die komplexe On-Chain-Integrationen oder Cross-Chain-Fähigkeiten benötigen. Einige wichtige Adoptionsmetriken und Meilensteine Stand Mitte 2025:

  • Ökosystem-Integration: Über 100 Live-Anwendungen (dApps, Wallets und Dienste) nutzen Enso im Hintergrund, um On-Chain-Funktionen zu betreiben. Diese reichen von DeFi-Dashboards bis hin zu automatisierten Yield-Optimierern. Da Enso Protokolle abstrahiert, können Entwickler schnell neue DeFi-Funktionen zu ihrem Produkt hinzufügen, indem sie sich in Ensos API einklinken. Das Netzwerk hat sich mit über 250 DeFi-Protokollen (DEXes, Kreditplattformen, Yield Farms, NFT-Märkte usw.) über wichtige Chains hinweg integriert, was bedeutet, dass Enso praktisch jede On-Chain-Aktion ausführen kann, die ein Benutzer wünschen könnte, von einem Uniswap-Handel bis zu einer Yearn-Vault-Einzahlung. Diese Breite der Integrationen reduziert die Entwicklungszeit für Ensos Kunden erheblich – ein neues Projekt kann beispielsweise alle DEXes auf Ethereum, Layer-2s und sogar Solana mit Enso unterstützen, anstatt jede Integration unabhängig zu programmieren.

  • Entwickler-Adoption: Ensos Community umfasst mittlerweile über 1.900 Entwickler, die aktiv mit seinem Toolkit entwickeln. Diese Entwickler könnten direkt Shortcuts/Actions erstellen oder Enso in ihre Anwendungen integrieren. Die Zahl unterstreicht, dass Enso nicht nur ein geschlossenes System ist; es ermöglicht ein wachsendes Ökosystem von Buildern, die seine Shortcuts nutzen oder zu seiner Bibliothek beitragen. Ensos Ansatz, die On-Chain-Entwicklung zu vereinfachen (mit der Behauptung, die Bauzeiten von über 6 Monaten auf unter eine Woche zu reduzieren), hat bei Web3-Entwicklern Anklang gefunden. Dies wird auch durch Hackathons und die Enso Templates-Bibliothek belegt, in der Community-Mitglieder Plug-and-Play-Shortcut-Beispiele teilen.

  • Transaktionsvolumen: Über 15 Milliarden kumuliertesOnChainTransaktionsvolumenwurdeu¨berEnsosInfrastrukturabgewickelt.DieseMetrik,wieimJuni2025berichtet,unterstreicht,dassEnsonichtnurinTestumgebungenla¨uftesverarbeitetrealeWerteingroßemMaßstab.Eineinzigeshochkara¨tigesBeispielwarBerachainsLiquidita¨tsmigration:ImApril2025betriebEnsodieLiquidita¨tsbewegungfu¨rBerachainsTestnetKampagne(Boyco)undermo¨glichte3,1Mrd.** kumuliertes On-Chain-Transaktionsvolumen wurde über Ensos Infrastruktur abgewickelt. Diese Metrik, wie im Juni 2025 berichtet, unterstreicht, dass Enso nicht nur in Testumgebungen läuft – es verarbeitet reale Werte in großem Maßstab. Ein einziges hochkarätiges Beispiel war **Berachains Liquiditätsmigration**: Im April 2025 betrieb Enso die Liquiditätsbewegung für Berachains Testnet-Kampagne („Boyco“) und ermöglichte **3,1 Mrd. an ausgeführten Transaktionen über 3 Tage, eines der größten Liquiditätsereignisse in der DeFi-Geschichte. Ensos Engine bewältigte diese Last erfolgreich und demonstrierte Zuverlässigkeit und Durchsatz unter Stress. Ein weiteres Beispiel ist Ensos Partnerschaft mit Uniswap: Enso entwickelte ein Uniswap Position Migrator-Tool (in Zusammenarbeit mit Uniswap Labs, LayerZero und Stargate), das Benutzern half, Uniswap v3 LP-Positionen nahtlos von Ethereum auf eine andere Chain zu migrieren. Dieses Tool vereinfachte einen typischerweise komplexen Cross-Chain-Prozess (mit Bridging und erneuter Bereitstellung von NFTs) zu einem Ein-Klick-Shortcut, und seine Veröffentlichung zeigte Ensos Fähigkeit, mit Top-DeFi-Protokollen zusammenzuarbeiten.

  • Reale Anwendungsfälle: Ensos Wertversprechen lässt sich am besten durch die vielfältigen Anwendungsfälle verstehen, die es ermöglicht. Projekte haben Enso genutzt, um Funktionen bereitzustellen, die allein sehr schwierig zu entwickeln wären:

    • Cross-Chain Yield Aggregation: Plume und Sonic nutzten Enso, um incentivierte Startkampagnen zu betreiben, bei denen Benutzer Assets auf einer Chain einzahlen und diese auf einer anderen Chain in Yields einsetzen konnten. Enso übernahm das Cross-Chain-Messaging und die mehrstufigen Transaktionen, wodurch diese neuen Protokolle den Benutzern während ihrer Token-Launch-Events nahtlose Cross-Chain-Erlebnisse bieten konnten.
    • Liquiditätsmigration und Fusionen: Wie erwähnt, nutzte Berachain Enso für eine „Vampire Attack“-ähnliche Migration von Liquidität aus anderen Ökosystemen. Ähnlich könnten andere Protokolle Enso Shortcuts verwenden, um die Verschiebung von Benutzergeldern von einer Konkurrenzplattform auf ihre eigene zu automatisieren, indem Genehmigungen, Abhebungen, Überweisungen und Einzahlungen über Plattformen hinweg in einem Intent gebündelt werden. Dies zeigt Ensos Potenzial in Protokollwachstumsstrategien.
    • DeFi „Super-App“-Funktionalität: Einige Wallets und Schnittstellen (zum Beispiel der Krypto-Assistent Eliza OS und die Handelsplattform Infinex) integrieren Enso, um One-Stop-DeFi-Aktionen anzubieten. Ein Benutzer kann mit einem Klick Assets zum besten Kurs tauschen (Enso leitet über DEXes), dann den Ertrag verleihen, um Rendite zu erzielen, und dann vielleicht einen LP-Token staken – all dies kann Enso als einen Shortcut ausführen. Dies verbessert die Benutzererfahrung und Funktionalität für diese Apps erheblich.
    • Automatisierung und Bots: Die Präsenz von „Agenten“ und sogar KI-gesteuerten Bots, die Enso nutzen, zeichnet sich ab. Da Enso eine API bereitstellt, können algorithmische Händler oder KI-Agenten ein übergeordnetes Ziel eingeben (z. B. „Rendite auf X-Asset über jede Chain maximieren“) und Enso die optimale Strategie finden lassen. Dies hat Experimente mit automatisierten DeFi-Strategien ermöglicht, ohne dass für jedes Protokoll eine kundenspezifische Bot-Entwicklung erforderlich ist.
  • Benutzerwachstum: Obwohl Enso primär eine B2B/B2Dev-Infrastruktur ist, hat es durch Kampagnen eine Community von Endbenutzern und Enthusiasten aufgebaut. Der Shortcut Speedrun – eine gamifizierte Tutorial-Reihe – verzeichnete über 700.000 Teilnehmer, was ein breites Interesse an Ensos Fähigkeiten zeigt. Ensos soziale Reichweite ist in wenigen Monaten um fast das Zehnfache gewachsen (248.000 Follower auf X Stand Mitte 2025), was eine starke Präsenz in den Köpfen der Krypto-Benutzer widerspiegelt. Dieses Community-Wachstum ist wichtig, da es eine Basisnachfrage schafft: Benutzer, die Enso kennen, werden ihre bevorzugten dApps ermutigen, es zu integrieren, oder Produkte nutzen, die Ensos Shortcuts verwenden.

Zusammenfassend lässt sich sagen, dass Enso über die Theorie hinaus zu echter Adoption übergegangen ist. Es wird von über 100 Projekten vertraut, darunter bekannte Namen wie Uniswap, SushiSwap, Stargate/LayerZero, Berachain, zkSync, Safe, Pendle, Yearn und weitere, entweder als Integrationspartner oder direkte Nutzer von Ensos Technologie. Diese breite Nutzung über verschiedene Vertikalen (DEXs, Bridges, Layer-1s, dApps) unterstreicht Ensos Rolle als Allzweck-Infrastruktur. Seine wichtigste Zugkraftmetrik – über 15 Mrd. $ an Transaktionen – ist für ein Infrastrukturprojekt in diesem Stadium besonders beeindruckend und bestätigt die Markttauglichkeit für eine Intent-basierte Middleware. Investoren können sich darauf verlassen, dass Ensos Netzwerkeffekte einzusetzen scheinen: Mehr Integrationen führen zu mehr Nutzung, was wiederum zu mehr Integrationen führt. Die bevorstehende Herausforderung wird darin bestehen, diesen frühen Schwung in nachhaltiges Wachstum umzuwandeln, was mit Ensos Positionierung gegenüber Wettbewerbern und seiner Roadmap zusammenhängt.

Wettbewerbslandschaft

Enso Network agiert an der Schnittstelle von DeFi-Aggregation, Cross-Chain-Interoperabilität und Entwickler-Infrastruktur, wodurch seine Wettbewerbslandschaft vielschichtig ist. Obwohl kein einzelner Wettbewerber ein identisches Produkt anbietet, sieht sich Enso mit Konkurrenz aus mehreren Kategorien von Web3-Protokollen konfrontiert:

  • Dezentrale Middleware & Indexierung: Die direkteste Analogie ist The Graph (GRT). The Graph bietet ein dezentrales Netzwerk zum Abfragen von Blockchain-Daten über Subgraphs. Enso bezieht Datenanbieter (Action Provider) ebenfalls über Crowdsourcing, geht aber einen Schritt weiter, indem es zusätzlich zur Datenabfrage die Transaktionsausführung ermöglicht. Während The Graphs Marktkapitalisierung von ~924 Mio. $ allein auf Indexierung basiert, positioniert Ensos breiterer Umfang (Daten + Aktion) es als ein mächtigeres Werkzeug, um die Aufmerksamkeit der Entwickler zu gewinnen. The Graph ist jedoch ein etabliertes Netzwerk; Enso wird die Zuverlässigkeit und Sicherheit seiner Ausführungsschicht beweisen müssen, um eine ähnliche Akzeptanz zu erreichen. Man könnte sich vorstellen, dass The Graph oder andere Indexierungsprotokolle in die Ausführung expandieren, was direkt mit Ensos Nische konkurrieren würde.

  • Cross-Chain-Interoperabilitätsprotokolle: Projekte wie LayerZero, Axelar, Wormhole und Chainlink CCIP bieten Infrastruktur zur Verbindung verschiedener Blockchains. Sie konzentrieren sich auf die Nachrichtenübermittlung und das Bridging von Assets zwischen Chains. Enso nutzt tatsächlich einige davon im Hintergrund (z. B. LayerZero/Stargate für Bridging im Uniswap Migrator) und ist eher eine Abstraktion auf höherer Ebene. Im Hinblick auf den Wettbewerb könnten diese Interoperabilitätsprotokolle mit Enso überlappen, wenn sie höherstufige „Intent“-APIs oder entwicklerfreundliche SDKs zur Komposition von Multi-Chain-Aktionen anbieten. Zum Beispiel bietet Axelar ein SDK für Cross-Chain-Aufrufe, und Chainlinks CCIP könnte die Cross-Chain-Funktionsausführung ermöglichen. Ensos Alleinstellungsmerkmal ist, dass es nicht nur Nachrichten zwischen Chains sendet; es unterhält eine vereinheitlichte Engine und Bibliothek von DeFi-Aktionen. Es richtet sich an Anwendungsentwickler, die eine fertige Lösung wünschen, anstatt sie zu zwingen, auf rohen Cross-Chain-Primitiven aufzubauen. Nichtsdestotrotz wird Enso um Marktanteile im breiteren Segment der Blockchain-Middleware konkurrieren, wo diese Interoperabilitätsprojekte gut finanziert sind und schnell innovieren.

  • Transaktions-Aggregatoren & Automatisierung: In der DeFi-Welt gibt es bestehende Aggregatoren wie 1inch, 0x API oder CoW Protocol, die sich darauf konzentrieren, optimale Handelsrouten über Börsen hinweg zu finden. Ensos Grapher-Mechanismus für Intents ist konzeptionell ähnlich dem Solver-Wettbewerb von CoW Protocol, aber Enso verallgemeinert ihn über Swaps hinaus auf jede Aktion. Ein Benutzer-Intent, „Rendite zu maximieren“, könnte Swapping, Lending, Staking usw. umfassen, was außerhalb des Umfangs eines reinen DEX-Aggregators liegt. Dennoch wird Enso mit diesen Diensten hinsichtlich der Effizienz für überlappende Anwendungsfälle verglichen (z. B. Enso vs. 1inch für eine komplexe Token-Swap-Route). Wenn Enso dank seines Netzwerks von Graphern konsequent bessere Routen oder niedrigere Gebühren findet, kann es traditionelle Aggregatoren übertreffen. Das Gelato Network ist ein weiterer Wettbewerber im Bereich Automatisierung: Gelato bietet ein dezentrales Netzwerk von Bots zur Ausführung von Aufgaben wie Limit-Orders, Auto-Compounding oder Cross-Chain-Transfers im Auftrag von dApps. Gelato verfügt über einen GEL-Token und einen etablierten Kundenstamm für spezifische Anwendungsfälle. Ensos Vorteil ist seine Breite und vereinheitlichte Schnittstelle – anstatt separate Produkte für jeden Anwendungsfall anzubieten (wie Gelato es tut), bietet Enso eine allgemeine Plattform, auf der jede Logik als Shortcut kodiert werden kann. Gelatos Vorsprung und fokussierter Ansatz in Bereichen wie der Automatisierung könnten jedoch Entwickler anziehen, die sonst Enso für ähnliche Funktionalitäten nutzen würden.

  • Entwicklerplattformen (Web3 SDKs): Es gibt auch Entwicklerplattformen im Web2-Stil wie Moralis, Alchemy, Infura und Tenderly, die das Bauen auf Blockchains vereinfachen. Diese bieten typischerweise API-Zugriff zum Lesen von Daten, Senden von Transaktionen und manchmal höherstufige Endpunkte (z. B. „Token-Guthaben abrufen“ oder „Tokens über Chains senden“). Obwohl dies meist zentralisierte Dienste sind, konkurrieren sie um dieselbe Entwickleraufmerksamkeit. Ensos Verkaufsargument ist, dass es dezentralisiert und komponierbar ist – Entwickler erhalten nicht nur Daten oder eine einzelne Funktion, sie greifen auf ein ganzes Netzwerk von On-Chain-Fähigkeiten zu, die von anderen beigesteuert wurden. Bei Erfolg könnte Enso zum „GitHub der On-Chain-Aktionen“ werden, wo Entwickler Shortcuts teilen und wiederverwenden, ähnlich wie Open-Source-Code. Der Wettbewerb mit gut finanzierten Infrastructure-as-a-Service-Unternehmen bedeutet, dass Enso vergleichbare Zuverlässigkeit und Benutzerfreundlichkeit bieten muss, was es mit einer umfangreichen API und Dokumentation anstrebt.

  • Eigenentwickelte Lösungen: Schließlich konkurriert Enso mit dem Status quo – Teams, die kundenspezifische Integrationen intern entwickeln. Traditionell musste jedes Projekt, das Multi-Protokoll-Funktionalität wünschte, Smart Contracts oder Skripte für jede Integration (z. B. Uniswap, Aave, Compound separat integrieren) schreiben und pflegen. Viele Teams könnten diesen Weg immer noch für maximale Kontrolle oder aus Sicherheitsgründen wählen. Enso muss Entwickler davon überzeugen, dass die Auslagerung dieser Arbeit an ein gemeinsames Netzwerk sicher, kostengünstig und aktuell ist. Angesichts der Geschwindigkeit der DeFi-Innovation ist die Pflege eigener Integrationen aufwendig (Enso zitiert oft, dass Teams über 6 Monate und 500.000 $ für Audits ausgeben, um Dutzende von Protokollen zu integrieren). Wenn Enso seine Sicherheitsstrenge beweisen und seine Aktionsbibliothek mit den neuesten Protokollen aktuell halten kann, kann es mehr Teams davon überzeugen, nicht mehr in Silos zu entwickeln. Ein hochkarätiger Sicherheitsvorfall oder Ausfall bei Enso könnte Entwickler jedoch dazu veranlassen, wieder interne Lösungen zu bevorzugen, was an sich ein Wettbewerbsrisiko darstellt.

Ensos Alleinstellungsmerkmale: Ensos primärer Vorteil ist, als Erster auf dem Markt mit einem Intent-fokussierten, Community-gesteuerten Ausführungsnetzwerk zu sein. Es kombiniert Funktionen, die die Nutzung mehrerer anderer Dienste erfordern würden: Datenindexierung, Smart-Contract-SDKs, Transaktionsrouting und Cross-Chain-Bridging – alles in einem. Sein Anreizmodell (Belohnung von Drittentwicklern für Beiträge) ist ebenfalls einzigartig; es könnte zu einem lebendigen Ökosystem führen, in dem viele Nischenprotokolle schneller in Enso integriert werden, als es ein einzelnes Team könnte, ähnlich wie die Community von The Graph eine lange Reihe von Verträgen indexiert. Wenn Enso erfolgreich ist, könnte es einen starken Netzwerkeffekt-Graben genießen: Mehr Actions und Shortcuts machen es attraktiver, Enso gegenüber Wettbewerbern zu nutzen, was mehr Benutzer und somit mehr beigesteuerte Actions anzieht und so weiter.

Dennoch steckt Enso noch in den Kinderschuhen. Sein engstes Analogon, The Graph, brauchte Jahre, um sich zu dezentralisieren und ein Ökosystem von Indexern aufzubauen. Enso wird seine Grapher- und Validatoren-Community ebenfalls pflegen müssen, um Zuverlässigkeit zu gewährleisten. Große Akteure (wie eine zukünftige Version von The Graph oder eine Zusammenarbeit von Chainlink und anderen) könnten beschließen, eine konkurrierende Intent-Ausführungsschicht einzuführen und ihre bestehenden Netzwerke zu nutzen. Enso wird schnell handeln müssen, um seine Position zu festigen, bevor sich ein solcher Wettbewerb materialisiert.

Zusammenfassend lässt sich sagen, dass Enso an einem Wettbewerbs-Scheideweg mehrerer wichtiger Web3-Vertikalen sitzt – es erobert eine Nische als die „Middleware von allem“. Sein Erfolg wird davon abhängen, spezialisierte Wettbewerber in jedem Anwendungsfall zu übertreffen (oder sie zu aggregieren) und weiterhin eine überzeugende One-Stop-Lösung anzubieten, die Entwickler dazu bringt, Enso dem Bauen von Grund auf vorzuziehen. Die Präsenz hochkarätiger Partner und Investoren deutet darauf hin, dass Enso in vielen Ökosystemen Fuß gefasst hat, was vorteilhaft sein wird, wenn es seine Integrationsabdeckung erweitert.

Roadmap und Ökosystemwachstum

Ensos Entwicklungs-Roadmap (Stand Mitte 2025) skizziert einen klaren Weg zur vollständigen Dezentralisierung, Multi-Chain-Unterstützung und Community-getriebenem Wachstum. Wichtige Meilensteine und geplante Initiativen umfassen:

  • Mainnet-Start (Q3 2024) – Enso startete sein Mainnet-Netzwerk in der zweiten Hälfte des Jahres 2024. Dies umfasste die Bereitstellung der Tendermint-basierten Chain und die Initialisierung des Validatoren-Ökosystems. Frühe Validatoren waren wahrscheinlich genehmigte oder ausgewählte Partner, während das Netzwerk hochgefahren wurde. Der Mainnet-Start ermöglichte die Verarbeitung realer Benutzeranfragen durch Ensos Engine (zuvor waren Ensos Dienste über eine zentralisierte API im Beta-Stadium zugänglich). Dieser Meilenstein markierte Ensos Übergang von einer internen Plattform zu einem öffentlichen dezentralen Netzwerk.

  • Erweiterung der Netzwerk-Teilnehmer (Q4 2024) – Nach dem Mainnet verlagerte sich der Fokus auf die Dezentralisierung der Teilnahme. Ende 2024 öffnete Enso Rollen für externe Action Provider und Graphers. Dies umfasste die Veröffentlichung von Tools und Dokumentation für Entwickler, um eigene Actions (Smart-Contract-Adapter) zu erstellen, und für Algorithmusentwickler, um Grapher-Nodes zu betreiben. Wir können davon ausgehen, dass Anreizprogramme oder Testnet-Wettbewerbe genutzt wurden, um diese Teilnehmer anzuziehen. Bis Ende 2024 strebte Enso an, eine breitere Palette von Drittanbieter-Actions in seiner Bibliothek und mehrere Graphers zu haben, die um Intents konkurrieren, und über die internen Algorithmen des Kernteams hinauszugehen. Dies war ein entscheidender Schritt, um sicherzustellen, dass Enso kein zentralisierter Dienst ist, sondern ein echtes offenes Netzwerk, in dem jeder beitragen und ENSO-Tokens verdienen kann.

  • Cross-Chain-Erweiterung (Q1 2025) – Enso erkennt an, dass die Unterstützung vieler Blockchains entscheidend für sein Wertversprechen ist. Anfang 2025 zielte die Roadmap auf die Integration mit neuen Blockchain-Umgebungen jenseits des anfänglichen EVM-Sets ab. Insbesondere plante Enso die Unterstützung für Monad, Solana und Movement bis zum ersten Quartal 2025. Monad ist eine kommende Hochleistungs-EVM-kompatible Chain (unterstützt von Dragonfly Capital) – eine frühzeitige Unterstützung könnte Enso als die bevorzugte Middleware dort positionieren. Die Solana-Integration ist anspruchsvoller (andere Laufzeit und Sprache), aber Ensos Intent-Engine könnte mit Solana zusammenarbeiten, indem sie Off-Chain-Graphers verwendet, um Solana-Transaktionen zu formulieren, und On-Chain-Programme als Adapter fungieren. Movement bezieht sich auf Move-Sprach-Chains (vielleicht Aptos/Sui oder eine spezifische namens Movement). Durch die Einbeziehung von Move-basierten Chains würde Enso ein breites Spektrum von Ökosystemen abdecken (Solidity und Move, sowie bestehende Ethereum-Rollups). Das Erreichen dieser Integrationen bedeutet die Entwicklung neuer Action-Module, die Solanas CPI-Aufrufe oder Moves Transaktionsskripte verstehen, und wahrscheinlich die Zusammenarbeit mit diesen Ökosystemen für Orakel/Indexierung. Ensos Erwähnung in Updates deutet darauf hin, dass diese auf Kurs waren – zum Beispiel hob ein Community-Update Partnerschaften oder Zuschüsse hervor (die Erwähnung von „Eclipse mainnet live + Movement grant“ in einem Suchergebnis deutet darauf hin, dass Enso Anfang 2025 aktiv mit neuartigen L1s wie Eclipse und Movement zusammenarbeitete).

  • Kurzfristig (Mitte/Ende 2025) – Obwohl nicht explizit in der einseitigen Roadmap aufgeführt, liegt Ensos Fokus Mitte 2025 auf Netzwerkreife und Dezentralisierung. Der Abschluss des CoinList-Token-Verkaufs im Juni 2025 ist ein wichtiges Ereignis: Die nächsten Schritte wären die Token-Generierung und -Verteilung (erwartet um Juli 2025) und die Notierung an Börsen oder Governance-Foren. Wir gehen davon aus, dass Enso seinen Governance-Prozess (Enso Improvement Proposals, On-Chain-Abstimmung) einführen wird, damit die Community mit ihren neu erworbenen Tokens an Entscheidungen teilnehmen kann. Zusätzlich wird Enso wahrscheinlich von „Beta“ zu einem vollständig produktionsreifen Dienst übergehen, falls dies noch nicht geschehen ist. Ein Teil davon wird die Sicherheitshärtung sein – die Durchführung mehrerer Smart-Contract-Audits und möglicherweise die Durchführung eines Bug-Bounty-Programms, angesichts der großen involvierten TVLs.

  • Ökosystem-Wachstumsstrategien: Enso fördert aktiv ein Ökosystem um sein Netzwerk. Eine Strategie war die Durchführung von Bildungsprogrammen und Hackathons (z. B. der Shortcut Speedrun und Workshops), um Entwickler in die Enso-Art des Bauens einzuführen. Eine weitere Strategie ist die Partnerschaft mit neuen Protokollen beim Start – dies haben wir bei Berachain, der zkSync-Kampagne und anderen gesehen. Enso wird dies voraussichtlich fortsetzen und effektiv als „On-Chain-Launch-Partner“ für aufstrebende Netzwerke oder DeFi-Projekte fungieren, die deren komplexe Benutzer-Onboarding-Prozesse abwickeln. Dies treibt nicht nur Ensos Volumen an (wie bei Berachain gesehen), sondern integriert Enso auch tief in diese Ökosysteme. Wir erwarten, dass Enso Integrationen mit weiteren Layer-2-Netzwerken (z. B. Arbitrum, Optimism wurden vermutlich bereits unterstützt; vielleicht als Nächstes neuere wie Scroll oder Starknet) und anderen L1s (Polkadot über XCM, Cosmos über IBC oder Osmosis usw.) ankündigen wird. Die langfristige Vision ist, dass Enso Chain-ubiquitär wird – jeder Entwickler auf jeder Chain kann sich einklinken. Zu diesem Zweck könnte Enso auch eine bessere Bridgeless Cross-Chain-Ausführung entwickeln (unter Verwendung von Techniken wie Atomic Swaps oder optimistischer Ausführung von Intents über Chains hinweg), was über 2025 hinaus auf der F&E-Roadmap stehen könnte.

  • Zukunftsaussichten: Weiterblickend hat Ensos Team auf die Beteiligung von KI-Agenten als Netzwerk-Teilnehmer hingedeutet. Dies deutet auf eine Zukunft hin, in der nicht nur menschliche Entwickler, sondern auch KI-Bots (vielleicht darauf trainiert, DeFi-Strategien zu optimieren) sich in Enso einklinken, um Dienste bereitzustellen. Enso könnte diese Vision umsetzen, indem es SDKs oder Frameworks für KI-Agenten erstellt, um sicher mit der Intent-Engine zu interagieren – eine potenziell bahnbrechende Entwicklung, die KI und Blockchain-Automatisierung zusammenführt. Darüber hinaus erwarten wir, dass Enso bis Ende 2025 oder 2026 an der Leistungsskalierung arbeiten wird (vielleicht durch Sharding seines Netzwerks oder die Verwendung von Zero-Knowledge-Proofs zur Validierung der Korrektheit der Intent-Ausführung in großem Maßstab), wenn die Nutzung zunimmt.

Die Roadmap ist ambitioniert, aber die bisherige Umsetzung war stark – Enso hat wichtige Meilensteine wie den Mainnet-Start und die Bereitstellung realer Anwendungsfälle erreicht. Ein wichtiger bevorstehender Meilenstein ist die vollständige Dezentralisierung des Netzwerks. Derzeit befindet sich das Netzwerk in einem Übergang: Die Dokumentation weist darauf hin, dass das dezentrale Netzwerk im Testnet ist und eine zentralisierte API Anfang 2025 für die Produktion verwendet wurde. Mit dem jetzt aktiven Mainnet und dem im Umlauf befindlichen Token wird Enso darauf abzielen, alle zentralisierten Komponenten schrittweise abzuschaffen. Für Investoren wird die Verfolgung dieses Dezentralisierungsfortschritts (z. B. Anzahl unabhängiger Validatoren, Beitritt von Community-Graphern) entscheidend sein, um Ensos Reife zu bewerten.

Zusammenfassend konzentriert sich Ensos Roadmap auf die Skalierung der Netzwerkreichweite (mehr Chains, mehr Integrationen) und die Skalierung der Netzwerk-Community (mehr Drittanbieter-Teilnehmer und Token-Inhaber). Das ultimative Ziel ist es, Enso als kritische Infrastruktur in Web3 zu etablieren, ähnlich wie Infura für die dApp-Konnektivität oder The Graph für die Datenabfrage unerlässlich wurde. Wenn Enso seine Meilensteine erreichen kann, sollte die zweite Hälfte des Jahres 2025 ein blühendes Ökosystem um das Enso Network sehen, das potenziell ein exponentielles Wachstum der Nutzung antreibt.

Risikobewertung

Wie jedes Protokoll in der Frühphase steht Enso Network vor einer Reihe von Risiken und Herausforderungen, die Investoren sorgfältig abwägen sollten:

  • Technische und Sicherheitsrisiken: Ensos System ist von Natur aus komplex – es interagiert mit unzähligen Smart Contracts über viele Blockchains hinweg durch ein Netzwerk von Off-Chain-Solvern und Validatoren. Diese expansive Angriffsfläche birgt technische Risiken. Jede neue Action (Integration) könnte Schwachstellen aufweisen; wenn die Logik einer Action fehlerhaft ist oder ein bösartiger Anbieter eine Hintertür-Action einführt, könnten Benutzergelder gefährdet sein. Die Sicherstellung jeder Integration erforderte erhebliche Investitionen (Ensos Team gab in den Anfängen über 500.000 $ für Audits zur Integration von 15 Protokollen aus). Wenn die Bibliothek auf Hunderte von Protokollen anwächst, ist die Aufrechterhaltung strenger Sicherheitsaudits eine Herausforderung. Es besteht auch das Risiko von Fehlern in Ensos Koordinationslogik – zum Beispiel könnte ein Fehler in der Art und Weise, wie Graphers Transaktionen zusammensetzen oder Validatoren sie verifizieren, ausgenutzt werden. Insbesondere die Cross-Chain-Ausführung kann riskant sein: Wenn eine Abfolge von Aktionen mehrere Chains umfasst und ein Teil fehlschlägt oder zensiert wird, könnten die Gelder eines Benutzers in der Schwebe bleiben. Obwohl Enso wahrscheinlich in einigen Fällen Wiederholungen oder Atomic Swaps verwendet, bedeutet die Komplexität von Intents, dass unbekannte Fehlermodi auftreten könnten. Das Intent-basierte Modell selbst ist in großem Maßstab noch relativ unerprobt – es kann Randfälle geben, in denen die Engine eine falsche Lösung oder ein Ergebnis liefert, das vom Intent des Benutzers abweicht. Jeder hochkarätige Exploit oder Ausfall könnte das Vertrauen in das gesamte Netzwerk untergraben. Die Minderung erfordert kontinuierliche Sicherheitsaudits, ein robustes Bug-Bounty-Programm und möglicherweise Versicherungsmechanismen für Benutzer (von denen noch keine detailliert wurden).

  • Dezentralisierungs- und Betriebsrisiken: Derzeit (Mitte 2025) befindet sich das Enso-Netzwerk noch im Prozess der Dezentralisierung seiner Teilnehmer. Dies bedeutet, dass es eine ungesehene operative Zentralisierung geben könnte – zum Beispiel könnte die Infrastruktur des Teams immer noch einen Großteil der Aktivitäten koordinieren, oder nur wenige Validatoren/Graphers sind wirklich aktiv. Dies birgt zwei Risiken: Zuverlässigkeit (wenn die Server des Kernteams ausfallen, wird das Netzwerk ins Stocken geraten?) und Vertrauen (wenn der Prozess noch nicht vollständig vertrauenslos ist, müssen Benutzer Vertrauen in Enso Inc. haben, dass es keine Transaktionen vorwegnimmt oder zensiert). Das Team hat seine Zuverlässigkeit bei großen Ereignissen (wie der Abwicklung eines Volumens von 3 Mrd. $ in Tagen) bewiesen, aber mit zunehmender Nutzung wird die Skalierung des Netzwerks über mehr unabhängige Nodes entscheidend sein. Es besteht auch das Risiko, dass Netzwerk-Teilnehmer nicht erscheinen – wenn Enso nicht genügend qualifizierte Action Provider oder Graphers anziehen kann, könnte das Netzwerk vom Kernteam abhängig bleiben, was die Dezentralisierung einschränkt. Dies könnte die Innovation verlangsamen und auch zu viel Macht (und Token-Belohnungen) in einer kleinen Gruppe konzentrieren, was dem beabsichtigten Design widerspricht.

  • Markt- und Adoptionsrisiken: Obwohl Enso eine beeindruckende frühe Adoption aufweist, befindet es sich immer noch in einem aufstrebenden Markt für „Intent-basierte“ Infrastruktur. Es besteht das Risiko, dass die breitere Entwickler-Community dieses neue Paradigma nur langsam annimmt. Entwickler, die in traditionellen Kodierungspraktiken verankert sind, könnten zögern, sich für Kernfunktionen auf ein externes Netzwerk zu verlassen, oder sie bevorzugen möglicherweise alternative Lösungen. Zusätzlich hängt Ensos Erfolg vom kontinuierlichen Wachstum der DeFi- und Multi-Chain-Ökosysteme ab. Wenn die Multi-Chain-These ins Wanken gerät (zum Beispiel, wenn sich die meisten Aktivitäten auf einer einzigen dominanten Chain konsolidieren), könnte der Bedarf an Ensos Cross-Chain-Fähigkeiten abnehmen. Umgekehrt, wenn ein neues Ökosystem entsteht, das Enso nicht schnell integrieren kann, werden Projekte in diesem Ökosystem Enso nicht nutzen. Im Wesentlichen ist es eine nie endende Herausforderung, mit jeder neuen Chain und jedem Protokoll auf dem Laufenden zu bleiben – das Verpassen oder Verzögern einer wichtigen Integration (z. B. eines beliebten neuen DEX oder einer Layer-2) könnte Projekte zu Wettbewerbern oder benutzerdefiniertem Code drängen. Darüber hinaus könnte Ensos Nutzung durch makroökonomische Marktbedingungen beeinträchtigt werden; in einem schweren DeFi-Abschwung könnten weniger Benutzer und Entwickler mit neuen dApps experimentieren, was die an Enso übermittelten Intents und damit die Gebühren/Einnahmen des Netzwerks direkt reduziert. Der Wert des Tokens könnte in einem solchen Szenario leiden, was das Staking potenziell weniger attraktiv macht und die Netzwerksicherheit oder -beteiligung schwächt.

  • Wettbewerb: Wie besprochen, sieht sich Enso an mehreren Fronten Konkurrenz gegenüber. Ein großes Risiko ist der Eintritt eines größeren Akteurs in den Intent-Ausführungsbereich. Wenn zum Beispiel ein gut finanziertes Projekt wie Chainlink einen ähnlichen Intent-Dienst einführen würde, der sein bestehendes Orakel-Netzwerk nutzt, könnten sie Enso aufgrund von Markenvertrauen und Integrationen schnell in den Schatten stellen. Ähnlich könnten Infrastrukturunternehmen (Alchemy, Infura) vereinfachte Multi-Chain-SDKs entwickeln, die, obwohl nicht dezentralisiert, den Entwicklermarkt mit Bequemlichkeit erobern. Es besteht auch das Risiko von Open-Source-Nachahmern: Ensos Kernkonzepte (Actions, Graphers) könnten von anderen repliziert werden, vielleicht sogar als Fork von Enso, wenn der Code öffentlich ist. Wenn eines dieser Projekte eine starke Community bildet oder einen besseren Token-Anreiz findet, könnte es potenzielle Teilnehmer ablenken. Enso wird die technologische Führung (z. B. durch die größte Bibliothek von Actions und die effizientesten Solver) aufrechterhalten müssen, um den Wettbewerb abzuwehren. Wettbewerbsdruck könnte auch Ensos Gebührenmodell unter Druck setzen – wenn ein Rivale ähnliche Dienste billiger (oder kostenlos, subventioniert von VCs) anbietet, könnte Enso gezwungen sein, die Gebühren zu senken oder die Token-Anreize zu erhöhen, was seine Tokenomics belasten könnte.

  • Regulierungs- und Compliance-Risiken: Enso agiert im Bereich der DeFi-Infrastruktur, der regulatorisch eine Grauzone darstellt. Während Enso selbst keine Benutzergelder verwahrt (Benutzer führen Intents aus ihren eigenen Wallets aus), automatisiert das Netzwerk komplexe Finanztransaktionen über Protokolle hinweg. Es besteht die Möglichkeit, dass Regulierungsbehörden Intent-Kompositions-Engines als Erleichterung unlizenzierter Finanzaktivitäten oder sogar als Beihilfe zur Geldwäsche ansehen könnten, wenn sie dazu verwendet werden, Gelder auf undurchsichtige Weise über Chains zu verschieben. Spezifische Bedenken könnten entstehen, wenn Enso Cross-Chain-Swaps ermöglicht, die Privacy Pools oder sanktionierte Jurisdiktionen betreffen. Zusätzlich spiegeln der ENSO-Token und sein CoinList-Verkauf eine Verteilung an eine globale Community wider – Regulierungsbehörden (wie die SEC in den USA) könnten ihn als Wertpapierangebot prüfen (bemerkenswerterweise schloss Enso die USA, Großbritannien, China usw. vom Verkauf aus, was Vorsicht in dieser Hinsicht signalisiert). Wenn ENSO in wichtigen Jurisdiktionen als Wertpapier eingestuft würde, könnte dies Börsennotierungen oder die Nutzung durch regulierte Entitäten einschränken. Ensos dezentrales Validatoren-Netzwerk könnte auch Compliance-Probleme bekommen: Könnte ein Validator beispielsweise aufgrund rechtlicher Anordnungen gezwungen werden, bestimmte Transaktionen zu zensieren? Dies ist vorerst weitgehend hypothetisch, aber mit dem Wachstum des durch Enso fließenden Werts wird die regulatorische Aufmerksamkeit zunehmen. Die Basis des Teams in der Schweiz könnte ein relativ kryptofreundliches regulatorisches Umfeld bieten, aber globale Operationen bedeuten globale Risiken. Die Minderung dessen beinhaltet wahrscheinlich die Sicherstellung, dass Enso ausreichend dezentralisiert ist (damit keine einzelne Entität verantwortlich ist) und möglicherweise das Geofencing bestimmter Funktionen, falls erforderlich (obwohl dies dem Ethos des Projekts widersprechen würde).

  • Wirtschaftliche Nachhaltigkeit: Ensos Modell geht davon aus, dass die durch die Nutzung generierten Gebühren alle Teilnehmer ausreichend belohnen werden. Es besteht das Risiko, dass die Gebührenanreize nicht ausreichen, um das Netzwerk aufrechtzuerhalten, insbesondere in der Anfangsphase. Zum Beispiel entstehen Graphern und Validatoren Kosten (Infrastruktur, Entwicklungszeit). Wenn die Abfragegebühren zu niedrig angesetzt werden, könnten diese Teilnehmer keinen Gewinn erzielen, was dazu führen könnte, dass sie abspringen. Andererseits, wenn die Gebühren zu hoch sind, könnten dApps zögern, Enso zu nutzen und nach billigeren Alternativen suchen. Ein Gleichgewicht in einem zweiseitigen Markt zu finden, ist schwierig. Die Enso-Token-Ökonomie hängt auch bis zu einem gewissen Grad vom Token-Wert ab – z. B. sind Staking-Belohnungen attraktiver, wenn der Token einen hohen Wert hat, und Action Provider verdienen Wert in ENSO. Ein starker Rückgang des ENSO-Preises könnte die Netzwerkbeteiligung reduzieren oder zu mehr Verkäufen führen (was den Preis weiter drückt). Da ein großer Teil der Tokens von Investoren und Team gehalten wird (insgesamt über 56 %, über 2 Jahre unverfallbar), besteht ein Überhangrisiko: Wenn diese Stakeholder das Vertrauen verlieren oder Liquidität benötigen, könnten ihre Verkäufe den Markt nach dem Vesting überschwemmen und den Preis des Tokens untergraben. Enso versuchte, die Konzentration durch den Community-Verkauf zu mindern, aber es ist kurzfristig immer noch eine relativ zentralisierte Token-Verteilung. Die wirtschaftliche Nachhaltigkeit wird davon abhängen, die tatsächliche Netzwerknutzung auf ein Niveau zu steigern, auf dem die Gebühreneinnahmen den Token-Stakern und Beitragenden ausreichend Rendite bieten – im Wesentlichen Enso zu einem „Cashflow“ generierenden Protokoll zu machen, anstatt nur zu einem spekulativen Token. Dies ist erreichbar (man denke daran, wie Ethereum-Gebühren Miner/Validatoren belohnen), aber nur, wenn Enso eine weite Verbreitung erreicht. Bis dahin besteht eine Abhängigkeit von Treasury-Fonds (15 % zugewiesen), um Anreize zu schaffen und möglicherweise die wirtschaftlichen Parameter anzupassen (Enso-Governance kann bei Bedarf Inflation oder andere Belohnungen einführen, was die Inhaber verwässern könnte).

Zusammenfassung der Risiken: Enso betritt Neuland, was mit entsprechenden Risiken verbunden ist. Die technologische Komplexität, das gesamte DeFi in einem Netzwerk zu vereinen, ist enorm – jede hinzugefügte Blockchain oder integrierte Protokoll ist ein potenzieller Fehlerpunkt, der verwaltet werden muss. Die Erfahrung des Teams bei der Bewältigung früherer Rückschläge (wie der begrenzte Erfolg des anfänglichen Social-Trading-Produkts) zeigt, dass sie sich der Fallstricke bewusst sind und sich schnell anpassen. Sie haben einige Risiken aktiv gemindert (z. B. die Dezentralisierung des Eigentums durch die Community-Runde, um eine übermäßig VC-gesteuerte Governance zu vermeiden). Investoren sollten beobachten, wie Enso die Dezentralisierung umsetzt und ob es weiterhin erstklassige technische Talente anzieht, um das Netzwerk aufzubauen und zu sichern. Im besten Fall könnte Enso zu einer unverzichtbaren Infrastruktur im gesamten Web3 werden, die starke Netzwerkeffekte und eine Wertsteigerung des Tokens erzielt. Im schlimmsten Fall könnten technische oder Adoptionsrückschläge es zu einem ambitionierten, aber Nischen-Tool degradieren.

Aus Investorensicht bietet Enso ein Profil mit hohem Potenzial und hohem Risiko. Sein aktueller Status (Mitte 2025) ist der eines vielversprechenden Netzwerks mit realer Nutzung und einer klaren Vision, aber es muss nun seine Technologie härten und eine wettbewerbsintensive und sich entwickelnde Landschaft übertreffen. Eine Due Diligence bei Enso sollte die Überwachung seiner Sicherheitsbilanz, das Wachstum der Abfragevolumen/-gebühren im Laufe der Zeit und die Effektivität des ENSO-Token-Modells zur Anreizung eines sich selbst tragenden Ökosystems umfassen. Derzeit ist der Schwung auf Ensos Seite, aber ein umsichtiges Risikomanagement und kontinuierliche Innovation werden entscheidend sein, um diese frühe Führung in eine langfristige Dominanz im Web3-Middleware-Bereich zu verwandeln.

Quellen:

  • Offizielle Dokumentation und Token-Verkaufsmaterialien von Enso Network

    • CoinList Token Sale Seite – Wichtige Highlights & Investoren
    • Enso Docs – Tokenomics und Netzwerkrollen
  • Interviews und Medienberichte

    • CryptoPotato Interview mit Enso CEO (Juni 2025) – Hintergrund zu Ensos Entwicklung und Intent-basiertem Design
    • DL News (Mai 2025) – Überblick über Ensos Shortcuts und den Shared-State-Ansatz
  • Community- und Investorenanalysen

    • Hackernoon (I. Pandey, 2025) – Einblicke in Ensos Community-Runde und Token-Verteilungsstrategie
    • CryptoTotem / CoinLaunch (2025) – Aufschlüsselung des Token-Angebots und Roadmap-Zeitplan
  • Offizielle Enso-Website-Metriken (2025) und Pressemitteilungen – Adoptionszahlen und Anwendungsbeispiele (Berachain-Migration, Uniswap-Zusammenarbeit).

Trusted Execution Environments (TEEs) im Web3-Ökosystem: Eine detaillierte Analyse

· 70 Min. Lesezeit

1. Überblick über die TEE-Technologie

Definition und Architektur: Eine Trusted Execution Environment (TEE) ist ein sicherer Bereich eines Prozessors, der den darin geladenen Code und die Daten im Hinblick auf Vertraulichkeit und Integrität schützt. In der Praxis fungiert eine TEE als isolierte „Enklave“ innerhalb der CPU – eine Art Black Box, in der sensible Berechnungen geschützt vom Rest des Systems ausgeführt werden können. Code, der innerhalb einer TEE-Enklave ausgeführt wird, ist so geschützt, dass selbst ein kompromittiertes Betriebssystem oder ein Hypervisor die Daten oder den Code der Enklave nicht lesen oder manipulieren kann. Die wichtigsten von TEEs bereitgestellten Sicherheitseigenschaften umfassen:

  • Isolierung: Der Speicher der Enklave ist von anderen Prozessen und sogar vom Betriebssystemkern isoliert. Selbst wenn ein Angreifer volle Administratorrechte auf der Maschine erhält, kann er den Speicher der Enklave nicht direkt inspizieren oder modifizieren.
  • Integrität: Die Hardware stellt sicher, dass Code, der in der TEE ausgeführt wird, nicht durch externe Angriffe verändert werden kann. Jede Manipulation des Enklaven-Codes oder des Laufzeitstatus wird erkannt, was kompromittierte Ergebnisse verhindert.
  • Vertraulichkeit: Daten innerhalb der Enklave bleiben im Speicher verschlüsselt und werden nur für die Verwendung innerhalb der CPU entschlüsselt, sodass geheime Daten der Außenwelt nicht im Klartext zugänglich sind.
  • Remote Attestation: Die TEE kann kryptografische Beweise (Attestierungen) erstellen, um eine entfernte Partei davon zu überzeugen, dass sie echt ist und dass spezifischer vertrauenswürdiger Code darin ausgeführt wird. Dies bedeutet, dass Benutzer überprüfen können, ob sich eine Enklave in einem vertrauenswürdigen Zustand befindet (z. B. Ausführung des erwarteten Codes auf echter Hardware), bevor sie sie mit geheimen Daten versorgen.

Konzeptionelles Diagramm einer Trusted Execution Environment als sichere Enklave „Black Box“ für die Ausführung von Smart Contracts. Verschlüsselte Eingaben (Daten und Vertragscode) werden innerhalb der sicheren Enklave entschlüsselt und verarbeitet, und nur verschlüsselte Ergebnisse verlassen die Enklave. Dies stellt sicher, dass sensible Vertragsdaten für jeden außerhalb der TEE vertraulich bleiben.

Unter der Haube werden TEEs durch hardwarebasierte Speicherverschlüsselung und Zugriffskontrolle in der CPU ermöglicht. Wenn beispielsweise eine TEE-Enklave erstellt wird, weist die CPU ihr einen geschützten Speicherbereich zu und verwendet dedizierte Schlüssel (die in die Hardware eingebrannt sind oder von einem sicheren Koprozessor verwaltet werden), um Daten on-the-fly zu verschlüsseln/entschlüsseln. Jeder Versuch von externer Software, den Enklavenspeicher zu lesen, liefert nur verschlüsselte Bytes. Dieser einzigartige Schutz auf CPU-Ebene ermöglicht es sogar Code auf Benutzerebene, private Speicherbereiche (Enklaven) zu definieren, die privilegierte Malware oder sogar ein böswilliger Systemadministrator nicht ausspähen oder modifizieren kann. Im Wesentlichen bietet eine TEE ein höheres Sicherheitsniveau für Anwendungen als die normale Betriebsumgebung, während sie gleichzeitig flexibler ist als dedizierte Sicherheitselemente oder Hardware-Sicherheitsmodule.

Wichtige Hardware-Implementierungen: Es existieren mehrere Hardware-TEE-Technologien, jede mit unterschiedlichen Architekturen, aber dem ähnlichen Ziel, eine sichere Enklave innerhalb des Systems zu schaffen:

  • Intel SGX (Software Guard Extensions): Intel SGX ist eine der am weitesten verbreiteten TEE-Implementierungen. Sie ermöglicht es Anwendungen, Enklaven auf Prozessebene zu erstellen, wobei Speicherverschlüsselung und Zugriffskontrollen von der CPU erzwungen werden. Entwickler müssen ihren Code in „vertrauenswürdigen“ Code (innerhalb der Enklave) und „nicht vertrauenswürdigen“ Code (normale Welt) aufteilen und spezielle Anweisungen (ECALL/OCALL) verwenden, um Daten in die Enklave hinein und aus ihr heraus zu transferieren. SGX bietet eine starke Isolierung für Enklaven und unterstützt Remote Attestation über Intels Attestation Service (IAS). Viele Blockchain-Projekte – insbesondere Secret Network und Oasis Network – haben datenschutzfreundliche Smart-Contract-Funktionalitäten auf SGX-Enklaven aufgebaut. Das Design von SGX auf komplexen x86-Architekturen hat jedoch zu einigen Schwachstellen geführt (siehe §4), und die Attestierung von Intel führt eine zentralisierte Vertrauensabhängigkeit ein.

  • ARM TrustZone: TrustZone verfolgt einen anderen Ansatz, indem es die gesamte Ausführungsumgebung des Prozessors in zwei Welten unterteilt: eine Secure World und eine Normal World. Sensibler Code läuft in der Secure World, die Zugriff auf bestimmte geschützte Speicherbereiche und Peripheriegeräte hat, während die Normal World das reguläre Betriebssystem und die Anwendungen ausführt. Wechsel zwischen den Welten werden von der CPU gesteuert. TrustZone wird häufig in Mobil- und IoT-Geräten für Dinge wie sichere Benutzeroberflächen, Zahlungsabwicklung oder digitales Rechtemanagement verwendet. In einem Blockchain-Kontext könnte TrustZone mobile-first Web3-Anwendungen ermöglichen, indem private Schlüssel oder sensible Logik in der sicheren Enklave des Telefons ausgeführt werden. TrustZone-Enklaven sind jedoch typischerweise grobkörniger (auf Betriebssystem- oder VM-Ebene) und werden in aktuellen Web3-Projekten nicht so häufig eingesetzt wie SGX.

  • AMD SEV (Secure Encrypted Virtualization): Die SEV-Technologie von AMD zielt auf virtualisierte Umgebungen ab. Anstatt Enklaven auf Anwendungsebene zu erfordern, kann SEV den Speicher ganzer virtueller Maschinen verschlüsseln. Es verwendet einen eingebetteten Sicherheitsprozessor zur Verwaltung kryptografischer Schlüssel und zur Durchführung der Speicherverschlüsselung, sodass der Speicher einer VM selbst für den hostenden Hypervisor vertraulich bleibt. Dies macht SEV gut geeignet für Cloud- oder Server-Anwendungsfälle: Beispielsweise könnte ein Blockchain-Knoten oder ein Off-Chain-Worker innerhalb einer vollständig verschlüsselten VM laufen und seine Daten vor einem böswilligen Cloud-Anbieter schützen. Das Design von SEV bedeutet weniger Aufwand für Entwickler bei der Partitionierung von Code (man kann eine bestehende Anwendung oder sogar ein ganzes Betriebssystem in einer geschützten VM ausführen). Neuere Iterationen wie SEV-SNP fügen Funktionen wie Manipulationserkennung hinzu und ermöglichen es VM-Besitzern, ihre VMs zu attestieren, ohne auf einen zentralisierten Dienst angewiesen zu sein. SEV ist für den TEE-Einsatz in Cloud-basierter Blockchain-Infrastruktur hochrelevant.

Andere aufkommende oder Nischen-TEE-Implementierungen umfassen Intel TDX (Trust Domain Extensions für enklavenähnlichen Schutz in VMs auf neueren Intel-Chips), Open-Source-TEEs wie Keystone (RISC-V) und Secure-Enclave-Chips in Mobilgeräten (wie die Secure Enclave von Apple, obwohl sie normalerweise nicht für beliebigen Code offen ist). Jede TEE bringt ihr eigenes Entwicklungsmodell und ihre eigenen Vertrauensannahmen mit, aber alle teilen die Kernidee der hardware-isolierten sicheren Ausführung.

Privatsphäre-wahrende Smart Contracts

Eine der bekanntesten Anwendungen von TEEs in Web3 ist die Ermöglichung von vertraulichen Smart Contracts – Programmen, die auf einer Blockchain laufen, aber private Daten sicher verarbeiten können. Blockchains wie Ethereum sind standardmäßig transparent: Alle Transaktionsdaten und der Vertragsstatus sind öffentlich. Diese Transparenz ist problematisch für Anwendungsfälle, die Vertraulichkeit erfordern (z. B. private Finanzgeschäfte, geheime Abstimmungen, Verarbeitung personenbezogener Daten). TEEs bieten eine Lösung, indem sie als privatsphärenschonende Rechenenklave fungieren, die mit der Blockchain verbunden ist.

In einem TEE-gestützten Smart-Contract-System können Transaktionseingaben an eine sichere Enklave auf einem Validator- oder Worker-Node gesendet werden. Dort werden sie innerhalb der Enklave verarbeitet, wo sie für die Außenwelt verschlüsselt bleiben. Anschließend kann die Enklave ein verschlüsseltes oder gehashtes Ergebnis zurück an die Chain ausgeben. Nur autorisierte Parteien mit dem Entschlüsselungsschlüssel (oder die Vertragslogik selbst) können auf das Klartextergebnis zugreifen. Zum Beispiel verwendet das Secret Network Intel SGX in seinen Konsens-Nodes, um CosmWasm-Smart-Contracts mit verschlüsselten Eingaben auszuführen. So können Dinge wie Kontostände, Transaktionsbeträge oder der Vertragsstatus vor der Öffentlichkeit verborgen bleiben, während sie dennoch für Berechnungen nutzbar sind. Dies hat Secret DeFi-Anwendungen ermöglicht – z. B. private Token-Swaps, bei denen die Beträge vertraulich sind, oder geheime Auktionen, bei denen Gebote verschlüsselt und erst nach Auktionsende offengelegt werden. Ein weiteres Beispiel ist das Parcel von Oasis Network und das vertrauliche ParaTime, die es ermöglichen, Daten zu tokenisieren und in Smart Contracts unter Vertraulichkeitsbeschränkungen zu nutzen, was Anwendungsfälle wie Kredit-Scoring oder medizinische Daten auf der Blockchain unter Einhaltung des Datenschutzes ermöglicht.

Privatsphäre-wahrende Smart Contracts via TEEs sind attraktiv für die Einführung von Blockchain in Unternehmen und Institutionen. Organisationen können Smart Contracts nutzen und gleichzeitig sensible Geschäftslogik und Daten vertraulich behandeln. Beispielsweise könnte eine Bank einen TEE-fähigen Vertrag verwenden, um Kreditanträge oder Handelsabwicklungen zu bearbeiten, ohne Kundendaten on-chain preiszugeben, und dennoch von der Transparenz und Integrität der Blockchain-Verifizierung profitieren. Diese Fähigkeit adressiert direkt regulatorische Datenschutzanforderungen (wie die DSGVO oder HIPAA) und ermöglicht die konforme Nutzung von Blockchain im Gesundheitswesen, im Finanzwesen und in anderen sensiblen Branchen. Tatsächlich erleichtern TEEs die Einhaltung von Datenschutzgesetzen, indem sie sicherstellen, dass personenbezogene Daten innerhalb einer Enklave verarbeitet werden können und nur verschlüsselte Ausgaben nach außen gelangen, was die Regulierungsbehörden davon überzeugt, dass die Daten geschützt sind.

Über die Vertraulichkeit hinaus helfen TEEs auch dabei, die Fairness in Smart Contracts zu erzwingen. Beispielsweise könnte eine dezentrale Börse ihre Matching-Engine innerhalb einer TEE ausführen, um zu verhindern, dass Miner oder Validatoren ausstehende Aufträge sehen und Transaktionen unzulässig durch Front-Running manipulieren. Zusammenfassend lässt sich sagen, dass TEEs eine dringend benötigte Privatsphäre-Schicht in Web3 bringen und Anwendungen wie vertrauliches DeFi, private Abstimmungen/Governance und Unternehmensverträge freischalten, die zuvor auf öffentlichen Ledgern nicht machbar waren.

Skalierbarkeit und Off-Chain-Berechnung

Eine weitere kritische Rolle für TEEs ist die Verbesserung der Blockchain-Skalierbarkeit durch das Auslagern schwerer Berechnungen off-chain in eine sichere Umgebung. Blockchains haben aufgrund von Leistungsgrenzen und Kosten für die On-Chain-Ausführung Schwierigkeiten mit komplexen oder rechenintensiven Aufgaben. TEE-fähige Off-Chain-Berechnungen ermöglichen es, diese Aufgaben außerhalb der Haupt-Chain zu erledigen (wodurch kein Block-Gas verbraucht oder der On-Chain-Durchsatz verlangsamt wird), während gleichzeitig Vertrauensgarantien über die Korrektheit der Ergebnisse erhalten bleiben. Effektiv kann eine TEE als verifizierbarer Off-Chain-Rechenbeschleuniger für Web3 dienen.

Beispielsweise nutzt die Plattform iExec TEEs, um einen dezentralen Cloud-Computing-Marktplatz zu schaffen, auf dem Entwickler Berechnungen off-chain ausführen können und Ergebnisse erhalten, denen die Blockchain vertraut. Eine dApp kann eine Berechnung anfordern (z. B. eine komplexe KI-Modell-Inferenz oder eine Big-Data-Analyse), die von iExec-Worker-Nodes durchgeführt werden soll. Diese Worker-Nodes führen die Aufgabe innerhalb einer SGX-Enklave aus und produzieren ein Ergebnis zusammen mit einem Attest (Nachweis), dass der korrekte Code in einer echten Enklave lief. Das Ergebnis wird dann on-chain zurückgegeben, und der Smart Contract kann das Attest der Enklave verifizieren, bevor er die Ausgabe akzeptiert. Diese Architektur ermöglicht es, schwere Arbeitslasten off-chain zu bewältigen, ohne auf Vertrauen zu verzichten, was den Durchsatz effektiv steigert. Die Integration des iExec Orchestrators mit Chainlink demonstriert dies: Ein Chainlink-Oracle ruft externe Daten ab, übergibt dann eine komplexe Berechnung an die TEE-Worker von iExec (z. B. Aggregieren oder Bewerten der Daten), und schließlich wird das sichere Ergebnis on-chain geliefert. Anwendungsfälle umfassen Dinge wie dezentrale Versicherungsberechnungen (wie iExec gezeigt hat), bei denen eine große Menge an Datenverarbeitung kostengünstig off-chain durchgeführt werden kann, wobei nur das Endergebnis auf die Blockchain gelangt.

TEE-basierte Off-Chain-Berechnungen bilden auch die Grundlage für einige Layer-2-Skalierungslösungen. Der frühe Prototyp von Oasis Labs, Ekiden (der Vorläufer des Oasis Network), nutzte SGX-Enklaven, um die Transaktionsausführung off-chain parallel auszuführen und dann nur State Roots an die Haupt-Chain zu übermitteln – im Prinzip ähnlich wie Rollup-Ideen, aber unter Verwendung von Hardware-Vertrauen. Durch die Vertragsausführung in TEEs erreichten sie einen hohen Durchsatz, während sie sich auf Enklaven verließen, um die Sicherheit zu gewährleisten. Ein weiteres Beispiel ist das kommende Op-Succinct L2 von Sanders Network, das TEEs und zkSNARKs kombiniert: TEEs führen Transaktionen privat und schnell aus, und anschließend werden ZK-Proofs generiert, um Ethereum die Korrektheit dieser Ausführungen zu beweisen. Dieser hybride Ansatz nutzt die Geschwindigkeit von TEEs und die Verifizierbarkeit von ZK für eine skalierbare, private L2-Lösung.

Im Allgemeinen können TEEs Berechnungen mit nahezu nativer Leistung ausführen (da sie tatsächliche CPU-Instruktionen verwenden, nur mit Isolierung). Daher sind sie für komplexe Logik um Größenordnungen schneller als rein kryptografische Alternativen wie homomorphe Verschlüsselung oder Zero-Knowledge-Proofs. Durch das Auslagern von Arbeit in Enklaven können Blockchains komplexere Anwendungen verarbeiten (wie maschinelles Lernen, Bild-/Audioverarbeitung, große Analysen), die on-chain unpraktisch wären. Die Ergebnisse kommen mit einem Attest zurück, das der On-Chain-Vertrag oder die Benutzer als von einer vertrauenswürdigen Enklave stammend verifizieren können, wodurch Datenintegrität und Korrektheit gewahrt bleiben. Dieses Modell wird oft als „verifizierbare Off-Chain-Berechnung“ bezeichnet, und TEEs sind ein Eckpfeiler für viele solcher Entwürfe (z. B. nutzt das Trusted Compute Framework von Hyperledger Avalon, entwickelt von Intel, iExec und anderen, TEEs zur Off-Chain-Ausführung von EVM-Bytecode mit on-chain veröffentlichtem Korrektheitsnachweis).

Sichere Oracles und Datenintegrität

Oracles schlagen die Brücke zwischen Blockchains und realen Daten, bringen jedoch Herausforderungen in Bezug auf das Vertrauen mit sich: Wie kann ein Smart Contract darauf vertrauen, dass ein Off-Chain-Datenfeed korrekt und unmanipuliert ist? TEEs bieten eine Lösung, indem sie als sichere Sandbox für Oracle-Nodes fungieren. Ein TEE-basierter Oracle-Node kann Daten von externen Quellen (APIs, Webdiensten) abrufen und sie innerhalb einer Enklave verarbeiten, die garantiert, dass die Daten nicht vom Node-Betreiber oder einer Malware auf dem Node manipuliert wurden. Die Enklave kann dann die Wahrheit der bereitgestellten Daten signieren oder attestieren. Dies verbessert die Datenintegrität und Vertrauenswürdigkeit von Oracles erheblich. Selbst wenn ein Oracle-Betreiber bösartig ist, kann er die Daten nicht ändern, ohne das Attest der Enklave zu brechen (was die Blockchain erkennen würde).

Ein bemerkenswertes Beispiel ist Town Crier, ein bei Cornell entwickeltes Oracle-System, das als eines der ersten Intel SGX-Enklaven nutzte, um authentifizierte Daten für Ethereum-Verträge bereitzustellen. Town Crier rief Daten (z. B. von HTTPS-Websites) innerhalb einer SGX-Enklave ab und lieferte sie zusammen mit einem Beweis (einer Enklaven-Signatur) an einen Vertrag, dass die Daten direkt von der Quelle stammten und nicht gefälscht wurden. Chainlink erkannte den Wert davon und erwarb Town Crier im Jahr 2018, um TEE-basierte Oracles in sein dezentrales Netzwerk zu integrieren. Heute haben Chainlink und andere Oracle-Anbieter TEE-Initiativen: Beispielsweise beinhalten die DECO- und Fair Sequencing Services von Chainlink TEEs, um Datenvertraulichkeit und eine faire Reihenfolge zu gewährleisten. Wie in einer Analyse angemerkt wurde: „TEEs haben die Oracle-Sicherheit revolutioniert, indem sie eine manipulationssichere Umgebung für die Datenverarbeitung bieten... selbst die Node-Betreiber selbst können die Daten während der Verarbeitung nicht manipulieren“. Dies ist besonders wichtig für hochwertige Finanzdatenfeeds (wie Preis-Oracles für DeFi): Eine TEE kann selbst subtile Manipulationen verhindern, die zu großen Exploits führen könnten.

TEEs ermöglichen es Oracles auch, mit sensiblen oder proprietären Daten umzugehen, die nicht im Klartext auf einer Blockchain veröffentlicht werden könnten. Beispielsweise könnte ein Oracle-Netzwerk Enklaven nutzen, um private Daten (wie vertrauliche Aktien-Orderbücher oder persönliche Gesundheitsdaten) zu aggregieren und nur abgeleitete Ergebnisse oder validierte Beweise an die Blockchain zu liefern, ohne die rohen sensiblen Eingaben preiszugeben. Auf diese Weise erweitern TEEs den Umfang der Daten, die sicher in Smart Contracts integriert werden können, was entscheidend für die Tokenisierung realer Vermögenswerte (RWA), Kredit-Scoring, Versicherungen und andere datenintensive On-Chain-Dienste ist.

Beim Thema Cross-Chain-Bridges verbessern TEEs die Integrität in ähnlicher Weise. Bridges verlassen sich oft auf eine Gruppe von Validatoren oder eine Multi-Sig, um Vermögenswerte zu verwahren und Übertragungen zwischen Chains zu validieren, was sie zu Hauptzielen für Angriffe macht. Durch die Ausführung der Bridge-Validator-Logik innerhalb von TEEs kann man die privaten Schlüssel und Verifizierungsprozesse der Bridge gegen Manipulationen absichern. Selbst wenn das Betriebssystem eines Validators kompromittiert ist, sollte der Angreifer nicht in der Lage sein, private Schlüssel zu extrahieren oder Nachrichten aus dem Inneren der Enklave zu fälschen. TEEs können erzwingen, dass Bridge-Transaktionen genau nach den Protokollregeln verarbeitet werden, was das Risiko verringert, dass menschliche Betreiber oder Malware betrügerische Übertragungen einschleusen. Darüber hinaus können TEEs Atomic Swaps und Cross-Chain-Transaktionen ermöglichen, die in einer sicheren Enklave abgewickelt werden, die entweder beide Seiten abschließt oder sauber abbricht, um Szenarien zu verhindern, in denen Gelder aufgrund von Störungen stecken bleiben. Mehrere Bridge-Projekte und Konsortien haben TEE-basierte Sicherheit untersucht, um die Plage von Bridge-Hacks abzumildern, die in den letzten Jahren aufgetreten sind.

Datenintegrität und Verifizierbarkeit Off-Chain

In all den oben genannten Szenarien ist ein wiederkehrendes Thema, dass TEEs dazu beitragen, die Datenintegrität auch außerhalb der Blockchain aufrechtzuerhalten. Da eine TEE beweisen kann, welchen Code sie ausführt (über ein Attest) und sicherstellen kann, dass der Code ohne Einmischung läuft, bietet sie eine Form des verifizierbaren Computings. Benutzer und Smart Contracts können den Ergebnissen einer TEE vertrauen, als wären sie on-chain berechnet worden, sofern das Attest gültig ist. Diese Integritätsgarantie ist der Grund, warum TEEs manchmal so bezeichnet werden, dass sie einen „Vertrauensanker“ für Off-Chain-Daten und -Berechnungen bilden.

Es ist jedoch erwähnenswert, dass dieses Vertrauensmodell einige Annahmen auf die Hardware verlagert (siehe §4). Die Datenintegrität ist nur so stark wie die Sicherheit der TEE. Wenn die Enklave kompromittiert oder das Attest gefälscht wird, könnte die Integrität versagen. Dennoch machen TEEs in der Praxis (wenn sie auf dem neuesten Stand gehalten werden) bestimmte Angriffe erheblich schwieriger. Beispielsweise könnte eine DeFi-Lending-Plattform eine TEE verwenden, um Kredit-Scores aus den privaten Daten eines Benutzers off-chain zu berechnen, und der Smart Contract würde den Score nur akzeptieren, wenn er von einem gültigen Enklaven-Attest begleitet wird. Auf diese Weise weiß der Vertrag, dass der Score durch den genehmigten Algorithmus auf echten Daten berechnet wurde, anstatt dem Benutzer oder einem Oracle blind zu vertrauen.

TEEs spielen auch eine Rolle in aufstrebenden Systemen für dezentrale Identität (DID) und Authentifizierung. Sie können private Schlüssel, persönliche Daten und Authentifizierungsprozesse sicher verwalten, sodass die sensiblen Informationen des Benutzers niemals der Blockchain oder dApp-Anbietern ausgesetzt werden. Beispielsweise könnte eine TEE auf einem mobilen Gerät die biometrische Authentifizierung verarbeiten und eine Blockchain-Transaktion signieren, wenn die biometrische Prüfung erfolgreich ist – und das alles, ohne die Biometrie des Benutzers preiszugeben. Dies bietet sowohl Sicherheit als auch Privatsphäre im Identitätsmanagement – eine wesentliche Komponente, wenn Web3 Dinge wie Reisepässe, Zertifikate oder KYC-Daten auf nutzersouveräne Weise handhaben soll.

Zusammenfassend lässt sich sagen, dass TEEs als vielseitiges Werkzeug in Web3 dienen: Sie ermöglichen Vertraulichkeit für die On-Chain-Logik, erlauben Skalierung über sichere Off-Chain-Berechnungen, schützen die Integrität von Oracles und Bridges und eröffnen neue Einsatzmöglichkeiten (von privater Identität bis hin zum konformen Datenaustausch). Als Nächstes werden wir uns spezifische Projekte ansehen, die diese Funktionen nutzen.

3. Namhafte Web3-Projekte, die TEEs nutzen

Eine Reihe führender Blockchain-Projekte hat ihr Kernangebot um Trusted Execution Environments (TEEs) herum aufgebaut. Im Folgenden gehen wir auf einige bemerkenswerte Projekte ein und untersuchen, wie sie die TEE-Technologie nutzen und welchen einzigartigen Mehrwert sie dadurch schaffen:

Secret Network

Secret Network ist eine Layer-1-Blockchain (basierend auf dem Cosmos SDK), die Pionierarbeit bei datenschutzfreundlichen Smart Contracts unter Verwendung von TEEs geleistet hat. Alle Validator-Knoten im Secret Network führen Intel SGX-Enklaven aus, die den Smart-Contract-Code so verarbeiten, dass der Vertragsstatus sowie die Ein- und Ausgaben selbst für die Knotenbetreiber verschlüsselt bleiben. Dies macht Secret zu einer der ersten Privacy-first Smart-Contract-Plattformen – Datenschutz ist kein optionales Add-on, sondern ein Standardmerkmal des Netzwerks auf Protokollebene.

Im Modell des Secret Networks übermitteln Benutzer verschlüsselte Transaktionen, die von den Validatoren zur Ausführung in ihre SGX-Enklave geladen werden. Die Enklave entschlüsselt die Eingaben, führt den Vertrag aus (geschrieben in einer modifizierten CosmWasm-Laufzeitumgebung) und erzeugt verschlüsselte Ausgaben, die in die Blockchain geschrieben werden. Nur Benutzer mit dem richtigen „Viewing Key“ (oder der Vertrag selbst mit seinem internen Schlüssel) können die tatsächlichen Daten entschlüsseln und einsehen. Dies ermöglicht es Anwendungen, private Daten On-Chain zu verwenden, ohne sie öffentlich preiszugeben.

Das Netzwerk hat mehrere neuartige Anwendungsfälle demonstriert:

  • Secret DeFi: z. B. SecretSwap (ein AMM), bei dem die Kontostände und Transaktionsbeträge der Benutzer privat sind, was Front-Running abmildert und Handelsstrategien schützt. Liquiditätsanbieter und Händler können agieren, ohne jeden ihrer Schritte an die Konkurrenz zu senden.
  • Secret Auctions: Auktionsverträge, bei denen Gebote bis zum Ende der Auktion geheim gehalten werden, um strategisches Verhalten basierend auf den Geboten anderer zu verhindern.
  • Private Abstimmungen und Governance: Token-Inhaber können über Vorschläge abstimmen, ohne ihre Wahlentscheidung preiszugeben, während das Gesamtergebnis dennoch verifiziert werden kann – was eine faire, einschüchterungsfreie Governance gewährleistet.
  • Datenmarktplätze: Sensible Datensätze können gehandelt und für Berechnungen verwendet werden, ohne die Rohdaten gegenüber Käufern oder Knoten offenzulegen.

Secret Network integriert TEEs im Wesentlichen auf Protokollebene, um ein einzigartiges Wertversprechen zu schaffen: Es bietet programmierbare Privatsphäre. Zu den Herausforderungen, die sie bewältigen, gehören die Koordinierung der Enklaven-Attestierung über ein dezentrales Validator-Set hinweg und die Verwaltung der Schlüsselverteilung, damit Verträge Eingaben entschlüsseln können, während sie vor Validatoren geheim gehalten werden. Nach allgemeiner Einschätzung hat Secret die Durchführbarkeit von TEE-gestützter Vertraulichkeit auf einer öffentlichen Blockchain bewiesen und sich als Marktführer in diesem Bereich etabliert.

Oasis Network

Oasis Network ist eine weitere Layer-1-Blockchain, die auf Skalierbarkeit und Datenschutz abzielt und in ihrer Architektur intensiv TEEs (Intel SGX) nutzt. Oasis führte ein innovatives Design ein, das Konsens von Berechnung trennt und in verschiedene Schichten unterteilt, die als Consensus Layer und ParaTime Layer bezeichnet werden. Der Consensus Layer übernimmt die Blockchain-Sortierung und Finalität, während jede ParaTime eine Laufzeitumgebung für Smart Contracts sein kann. Bemerkenswerterweise ist die Emerald ParaTime von Oasis eine EVM-kompatible Umgebung, und Sapphire ist eine vertrauliche EVM, die TEEs verwendet, um den Status von Smart Contracts privat zu halten.

Der Einsatz von TEEs bei Oasis konzentriert sich auf vertrauliche Berechnungen in großem Maßstab. Durch die Isolierung der rechenintensiven Aufgaben in parallelisierbaren ParaTimes (die auf vielen Knoten laufen können) erreichen sie einen hohen Durchsatz. Durch den Einsatz von TEEs innerhalb dieser ParaTime-Knoten stellen sie sicher, dass die Berechnungen sensible Daten enthalten können, ohne diese preiszugeben. Beispielsweise könnte eine Institution einen Kredit-Scoring-Algorithmus auf Oasis ausführen, indem sie private Daten in eine vertrauliche ParaTime einspeist – die Daten bleiben für den Knoten verschlüsselt (da sie in der Enklave verarbeitet werden), und nur das Ergebnis wird ausgegeben. Währenddessen zeichnet der Oasis-Konsens lediglich den Beweis auf, dass die Berechnung korrekt stattgefunden hat.

Technisch gesehen hat Oasis zusätzliche Sicherheitsebenen über das Standard-SGX hinaus hinzugefügt. Sie implementierten eine „geschichtete Vertrauensbasis“ (layered root of trust): Sie nutzen die Quoting-Enklave von Intel SGX und einen speziellen leichtgewichtigen Kernel, um die Vertrauenswürdigkeit der Hardware zu verifizieren und die Systemaufrufe der Enklave in einer Sandbox zu isolieren. Dies reduziert die Angriffsfläche (indem gefiltert wird, welche Betriebssystemaufrufe Enklaven tätigen können) und schützt vor bestimmten bekannten SGX-Angriffen. Oasis führte auch Funktionen wie persistente Enklaven (damit Enklaven den Status über Neustarts hinweg beibehalten können) und sicheres Logging ein, um Rollback-Angriffe abzumildern (bei denen ein Knoten versuchen könnte, einen alten Enklavenstatus erneut abzuspielen). Diese Innovationen wurden in ihren technischen Whitepapern beschrieben und sind mit ein Grund, warum Oasis als forschungsorientiertes Projekt im Bereich des TEE-basierten Blockchain-Computings gilt.

Aus Sicht des Ökosystems hat sich Oasis für Bereiche wie privates DeFi (das es Banken ermöglicht teilzunehmen, ohne Kundendaten preiszugeben) und Datentokenisierung (bei der Einzelpersonen oder Unternehmen Daten auf vertrauliche Weise mit KI-Modellen teilen und dafür vergütet werden können, alles über die Blockchain) positioniert. Sie haben auch mit Unternehmen an Pilotprojekten zusammengearbeitet (beispielsweise mit BMW zum Thema Datenschutz und mit anderen im Bereich des Austauschs medizinischer Forschungsdaten). Insgesamt zeigt das Oasis Network, wie die Kombination von TEEs mit einer skalierbaren Architektur sowohl Datenschutz als auch Leistung adressieren kann, was es zu einem bedeutenden Akteur bei TEE-basierten Web3-Lösungen macht.

Sanders Network

Sanders Network ist ein dezentrales Cloud-Computing-Netzwerk im Polkadot-Ökosystem, das TEEs nutzt, um vertrauliche und hochperformante Rechendienste bereitzustellen. Es ist eine Parachain auf Polkadot, was bedeutet, dass es von der Sicherheit und Interoperabilität von Polkadot profitiert, aber eine eigene neuartige Laufzeitumgebung für Off-Chain-Berechnungen in sicheren Enklaven einführt.

Die Kernidee von Sanders besteht darin, ein großes Netzwerk von Worker-Knoten (sogenannte Sanders-Miner) zu unterhalten, die Aufgaben innerhalb von TEEs (speziell Intel SGX) ausführen und verifizierbare Ergebnisse produzieren. Diese Aufgaben können von der Ausführung von Smart-Contract-Segmenten bis hin zu universellen Berechnungen reichen, die von Benutzern angefordert werden. Da die Worker in SGX laufen, gewährleistet Sanders, dass die Berechnungen mit Vertraulichkeit (Eingabedaten sind vor dem Worker-Betreiber verborgen) und Integrität (die Ergebnisse werden mit einer Attestierung geliefert) durchgeführt werden. Dies schafft effektiv eine vertrauenslose Cloud, in der Benutzer Workloads bereitstellen können, in dem Wissen, dass der Host diese nicht einsehen oder manipulieren kann.

Man kann sich Sanders analog zu Amazon EC2 oder AWS Lambda vorstellen, jedoch dezentralisiert: Entwickler können Code im Sanders-Netzwerk bereitstellen und ihn auf vielen SGX-fähigen Rechnern weltweit ausführen lassen, wobei sie den Dienst mit dem Sanders-Token bezahlen. Einige hervorgehobene Anwendungsfälle:

  • Web3-Analytik und KI: Ein Projekt könnte Benutzerdaten analysieren oder KI-Algorithmen in Sanders-Enklaven ausführen, sodass rohe Benutzerdaten verschlüsselt bleiben (Schutz der Privatsphäre), während nur aggregierte Erkenntnisse die Enklave verlassen.
  • Game-Backends und Metaverse: Sanders kann intensive Spiellogik oder Simulationen virtueller Welten Off-Chain verarbeiten und nur Verpflichtungen (Commitments) oder Hashes an die Blockchain senden, was ein reichhaltigeres Gameplay ermöglicht, ohne auf einen einzelnen Server vertrauen zu müssen.
  • On-Chain-Dienste: Sanders hat eine Off-Chain-Rechenplattform namens Sanders Cloud aufgebaut. Diese kann beispielsweise als Backend für Bots, dezentrale Webdienste oder sogar ein Off-Chain-Orderbuch dienen, das Trades mit TEE-Attestierung an einen DEX-Smart-Contract übermittelt.

Sanders betont, dass es vertrauliche Berechnungen horizontal skalieren kann: Wird mehr Kapazität benötigt? Dann werden einfach mehr TEE-Worker-Knoten hinzugefügt. Dies unterscheidet sich von einer einzelnen Blockchain, bei der die Rechenkapazität durch den Konsens begrenzt ist. Somit eröffnet Sanders Möglichkeiten für rechenintensive dApps, die dennoch vertrauenslose Sicherheit wünschen. Wichtig ist, dass Sanders sich nicht rein auf Hardware-Vertrauen verlässt; es wird in den Konsens von Polkadot integriert (z. B. Staking und Slashing bei fehlerhaften Ergebnissen) und erforscht sogar eine Kombination aus TEE mit Zero-Knowledge Proofs (wie erwähnt nutzt ihr kommendes L2 TEEs zur Beschleunigung der Ausführung und ZKPs zur prägnanten Verifizierung auf Ethereum). Dieser hybride Ansatz hilft, das Risiko einer Kompromittierung eines einzelnen TEEs zu mindern, indem eine zusätzliche kryptografische Verifizierung hinzugefügt wird.

Zusammenfassend lässt sich sagen, dass das Sanders Network TEEs nutzt, um eine dezentrale, vertrauliche Cloud für Web3 bereitzustellen, die Off-Chain-Berechnungen mit Sicherheitsgarantien ermöglicht. Dies setzt eine Klasse von Blockchain-Anwendungen frei, die sowohl hohe Rechenleistung als auch Datenschutz benötigen, und schließt die Lücke zwischen On-Chain- und Off-Chain-Welten.

iExec

iExec ist ein dezentraler Marktplatz für Cloud-Computing-Ressourcen, der auf Ethereum aufbaut. Im Gegensatz zu den drei vorgenannten Projekten (die eigene Chains oder Parachains sind), operiert iExec als Layer-2- oder Off-Chain-Netzwerk, das mit Ethereum-Smart-Contracts koordiniert. TEEs (speziell Intel SGX) sind ein Eckpfeiler des Ansatzes von iExec, um Vertrauen in Off-Chain-Berechnungen zu schaffen.

Das iExec-Netzwerk besteht aus Worker-Knoten, die von verschiedenen Anbietern beigesteuert werden. Diese Worker können Aufgaben ausführen, die von Benutzern (dApp-Entwicklern, Datenanbietern usw.) angefordert werden. Um sicherzustellen, dass diese Off-Chain-Berechnungen vertrauenswürdig sind, hat iExec ein Framework für „Trusted Off-chain Computing“ eingeführt: Aufgaben können innerhalb von SGX-Enklaven ausgeführt werden, und die Ergebnisse werden mit einer Enklaven-Signatur geliefert, die beweist, dass die Aufgabe korrekt auf einem sicheren Knoten ausgeführt wurde. iExec ist eine Partnerschaft mit Intel eingegangen, um diese Trusted-Computing-Funktion einzuführen, und ist sogar dem Confidential Computing Consortium beigetreten, um Standards voranzutreiben. Ihr Konsensprotokoll namens Proof-of-Contribution (PoCo) aggregiert bei Bedarf Stimmen/Attestierungen von mehreren Workern, um einen Konsens über das korrekte Ergebnis zu erzielen. In vielen Fällen reicht die Attestierung einer einzelnen Enklave aus, wenn der Code deterministisch ist und das Vertrauen in SGX hoch ist; für eine höhere Absicherung kann iExec Aufgaben über mehrere TEEs hinweg replizieren und einen Konsens oder Mehrheitsentscheid verwenden.

Die Plattform von iExec ermöglicht mehrere interessante Anwendungsfälle:

  • Dezentrales Oracle-Computing: Wie bereits erwähnt, kann iExec mit Chainlink zusammenarbeiten. Ein Chainlink-Knoten könnte Rohdaten abrufen, diese dann an einen iExec SGX-Worker übergeben, um eine Berechnung (z. B. einen proprietären Algorithmus oder eine KI-Inferenz) auf diesen Daten durchzuführen, und schließlich ein Ergebnis On-Chain zurückgeben. Dies erweitert die Möglichkeiten von Oracles über das bloße Weiterleiten von Daten hinaus – sie können nun berechnete Dienste anbieten (wie den Aufruf eines KI-Modells oder die Aggregation vieler Quellen), wobei TEE die Ehrlichkeit gewährleistet.
  • KI und DePIN (Decentralized Physical Infrastructure Network): iExec positioniert sich als Vertrauensebene für dezentrale KI-Apps. Beispielsweise kann eine dApp, die ein maschinelles Lernmodell verwendet, das Modell in einer Enklave ausführen, um sowohl das Modell (falls es proprietär ist) als auch die eingespeisten Benutzerdaten zu schützen. Im Kontext von DePIN (wie verteilten IoT-Netzwerken) können TEEs auf Edge-Geräten eingesetzt werden, um Sensormesswerten und Berechnungen auf diesen Werten zu vertrauen.
  • Sichere Datenmonetarisierung: Datenanbieter können ihre Datensätze in verschlüsselter Form auf dem Marktplatz von iExec zur Verfügung stellen. Käufer können ihre Algorithmen senden, um sie auf den Daten innerhalb eines TEEs auszuführen (sodass die Rohdaten des Datenanbieters niemals offengelegt werden, was dessen geistiges Eigentum schützt, und auch die Details des Algorithmus verborgen bleiben können). Das Ergebnis der Berechnung wird an den Käufer zurückgegeben, und die entsprechende Zahlung an den Datenanbieter wird über Smart Contracts abgewickelt. Dieses Schema, das oft als sicherer Datenaustausch bezeichnet wird, wird durch die Vertraulichkeit von TEEs ermöglicht.

Insgesamt bietet iExec das Bindeglied zwischen Ethereum-Smart-Contracts und einer sicheren Off-Chain-Ausführung. Es zeigt, wie TEE-„Worker“ vernetzt werden können, um eine dezentrale Cloud zu bilden, komplett mit einem Marktplatz (unter Verwendung des RLC-Tokens von iExec für Zahlungen) und Konsensmechanismen. Durch die Leitung der Trusted Compute Working Group der Enterprise Ethereum Alliance und die Mitwirkung an Standards (wie Hyperledger Avalon) treibt iExec zudem die breitere Akzeptanz von TEEs in Enterprise-Blockchain-Szenarien voran.

Andere Projekte und Ökosysteme

Über die vier oben genannten hinaus gibt es einige weitere erwähnenswerte Projekte:

  • Integritee – eine weitere Polkadot-Parachain ähnlich wie Sanders (tatsächlich ging sie aus der TEE-Arbeit der Energy Web Foundation hervor). Integritee nutzt TEEs, um „Parachain-as-a-Service“ für Unternehmen anzubieten, wobei On-Chain- und Off-Chain-Enklavenverarbeitung kombiniert werden.
  • Automata Network – ein Middleware-Protokoll für Web3-Privatsphäre, das TEEs für private Transaktionen, anonyme Abstimmungen und MEV-resistente Transaktionsverarbeitung nutzt. Automata fungiert als Off-Chain-Netzwerk, das Dienste wie ein privates RPC-Relay anbietet, und wurde im Zusammenhang mit der Nutzung von TEEs für Dinge wie geschützte Identitäten und gaslose private Transaktionen erwähnt.
  • Hyperledger Sawtooth (PoET) – im Unternehmensbereich führte Sawtooth einen Konsensalgorithmus namens Proof of Elapsed Time ein, der auf SGX beruhte. Jeder Validator führt eine Enklave aus, die eine zufällige Zeit lang wartet und einen Beweis erstellt; derjenige mit der kürzesten Wartezeit „gewinnt“ den Block, eine faire Lotterie, die durch SGX erzwungen wird. Obwohl Sawtooth per se kein Web3-Projekt ist (eher Enterprise-Blockchain), ist es eine kreative Nutzung von TEEs für den Konsens.
  • Unternehmens-/Konsortial-Chains – Viele Enterprise-Blockchain-Lösungen (z. B. ConsenSys Quorum, IBM Blockchain) integrieren TEEs, um vertrauliche Konsortialtransaktionen zu ermöglichen, bei denen nur autorisierte Knoten bestimmte Daten sehen. Beispielsweise nutzt das Blueprint des Trusted Compute Framework (TCF) der Enterprise Ethereum Alliance TEEs, um private Verträge Off-Chain auszuführen und Merkle-Proofs On-Chain zu liefern.

Diese Projekte zeigen zusammen die Vielseitigkeit von TEEs: Sie treiben ganze datenschutzorientierte L1s an, dienen als Off-Chain-Netzwerke, sichern Infrastrukturkomponenten wie Oracles und Bridges und bilden sogar die Grundlage für Konsensalgorithmen. Als Nächstes betrachten wir die breiteren Vorteile und Herausforderungen des Einsatzes von TEEs in dezentralen Umgebungen.

4. Vorteile und Herausforderungen von TEEs in dezentralen Umgebungen

Die Einführung von Trusted Execution Environments ( TEEs ) in Blockchain-Systemen bringt sowohl signifikante technische Vorteile als auch bemerkenswerte Herausforderungen und Kompromisse mit sich. Wir werden beide Seiten untersuchen: was TEEs für dezentrale Anwendungen bieten und welche Probleme oder Risiken aus ihrer Verwendung resultieren.

Vorteile und technische Stärken

  • Starke Sicherheit & Privatsphäre: Der wichtigste Vorteil sind die Garantien für Vertraulichkeit und Integrität. TEEs ermöglichen es, sensiblen Code mit der Gewissheit auszuführen, dass er nicht von externer Malware ausspioniert oder verändert werden kann. Dies bietet ein Maß an Vertrauen in Off-Chain-Berechnungen, das zuvor nicht verfügbar war. Für die Blockchain bedeutet dies, dass private Daten genutzt werden können ( was die Funktionalität von dApps erweitert ), ohne die Sicherheit zu opfern. Selbst in nicht vertrauenswürdigen Umgebungen ( Cloud-Server, von Dritten betriebene Validator-Nodes ) halten TEEs Geheimnisse sicher. Dies ist besonders vorteilhaft für die Verwaltung von privaten Schlüsseln, Benutzerdaten und proprietären Algorithmen innerhalb von Krypto-Systemen. Zum Beispiel könnte eine Hardware-Wallet oder ein Cloud-Signierungsdienst ein TEE verwenden, um Blockchain-Transaktionen intern zu signieren, sodass der private Schlüssel niemals im Klartext offengelegt wird, was Komfort mit Sicherheit kombiniert.

  • Nahezu native Performance: Im Gegensatz zu rein kryptografischen Ansätzen für sicheres Rechnen ( wie ZK-Proofs oder homomorphe Verschlüsselung ) ist der Overhead von TEEs relativ gering. Der Code wird direkt auf der CPU ausgeführt, sodass eine Berechnung innerhalb einer Enklave in etwa so schnell ist wie außerhalb ( mit gewissen Einbußen für Enklaven-Übergänge und Speicherverschlüsselung, typischerweise im einstelligen Prozentbereich bei SGX ). Das bedeutet, dass TEEs rechenintensive Aufgaben effizient bewältigen können, was Anwendungsfälle ermöglicht ( wie Echtzeit-Datenfeeds, komplexe Smart Contracts, maschinelles Lernen ), die um Größenordnungen langsamer wären, wenn sie mit kryptografischen Protokollen durchgeführt würden. Die geringe Latenz von Enklaven macht sie für Bereiche geeignet, in denen schnelle Reaktionen erforderlich sind ( z. B. durch TEEs gesicherte Hochfrequenz-Trading-Bots oder interaktive Anwendungen und Spiele, bei denen die Benutzererfahrung unter hohen Verzögerungen leiden würde ).

  • Verbesserte Skalierbarkeit ( durch Auslagerung ): Durch die Ermöglichung sicherer Off-Chain-Berechnungen tragen TEEs dazu bei, Überlastungen und Gaskosten auf den Hauptketten zu reduzieren. Sie ermöglichen Layer-2-Designs und Side-Protokolle, bei denen die Blockchain nur zur Verifizierung oder endgültigen Abrechnung verwendet wird, während der Großteil der Berechnungen in parallelen Enklaven stattfindet. Diese Modularisierung ( rechenintensive Logik in TEEs, Konsens auf der Chain ) kann den Durchsatz und die Skalierbarkeit dezentraler Anwendungen drastisch verbessern. Beispielsweise könnte eine DEX das Matchmaking in einem TEE off-chain durchführen und nur die gematchten Trades on-chain posten, was den Durchsatz erhöht und das On-Chain-Gas reduziert.

  • Bessere Benutzererfahrung & Funktionalität: Mit TEEs können dApps Funktionen wie Vertraulichkeit oder komplexe Analysen anbieten, die mehr Nutzer ( einschließlich Institutionen ) anziehen. TEEs ermöglichen auch gaslose oder Meta-Transaktionen, indem sie diese sicher off-chain ausführen und dann die Ergebnisse übermitteln, wie in Automatas Nutzung von TEEs zur Reduzierung von Gas für private Transaktionen angemerkt. Darüber hinaus kann das Speichern von sensitivem Status off-chain in einer Enklave die Menge der on-chain veröffentlichten Daten reduzieren, was gut für die Privatsphäre der Nutzer und die Netzwerkeffizienz ist ( weniger On-Chain-Daten zum Speichern / Verifizieren ).

  • Komponierbarkeit mit anderen Technologien: Interessanterweise können TEEs andere Technologien ergänzen ( was nicht unbedingt ein inhärenter Vorteil von TEEs allein ist, sondern in Kombination ). Sie können als Bindeglied für hybride Lösungen dienen: z. B. das Ausführen eines Programms in einer Enklave und das gleichzeitige Erzeugen eines ZK-Proofs seiner Ausführung, wobei die Enklave Teile des Beweisprozesses unterstützt, um diesen zu beschleunigen. Oder die Verwendung von TEEs in MPC-Netzwerken, um bestimmte Aufgaben mit weniger Kommunikationsrunden zu bewältigen. Wir werden Vergleiche in §5 diskutieren, aber viele Projekte betonen, dass TEEs die Kryptografie nicht ersetzen müssen – sie können zusammenarbeiten, um die Sicherheit zu stärken ( Sanders’ Mantra: „Die Stärke von TEEs liegt darin, andere zu unterstützen, nicht sie zu ersetzen“ ).

Vertrauensannahmen und Sicherheitsanfälligkeiten

Trotz ihrer Stärken führen TEEs spezifische Vertrauensannahmen ein und sind nicht unantastbar. Es ist entscheidend, diese Herausforderungen zu verstehen:

  • Hardware-Vertrauen und Zentralisierung: Durch die Verwendung von TEEs setzt man inhärent Vertrauen in den Chiphersteller ( Silicon Vendor ) sowie in die Sicherheit seines Hardware-Designs und seiner Lieferkette. Die Verwendung von Intel SGX bedeutet beispielsweise das Vertrauen darauf, dass Intel keine Backdoors eingebaut hat, dass die Fertigung sicher ist und dass der Mikrocode der CPU die Enklaven-Isolierung korrekt implementiert. Dies ist ein zentralisierteres Vertrauensmodell im Vergleich zu reiner Kryptografie ( die auf mathematischen Annahmen beruht, die unter allen Nutzern verteilt sind ). Darüber hinaus beruht die Attestierung für SGX historisch auf der Kontaktaufnahme mit Intels Attestation Service. Das bedeutet: Wenn Intel offline ginge oder beschließen würde, Schlüssel zu widerrufen, könnten Enklaven weltweit betroffen sein. Diese Abhängigkeit von der Infrastruktur eines einzelnen Unternehmens wirft Bedenken auf: Es könnte ein Single Point of Failure oder sogar ein Ziel für staatliche Regulierungen sein ( z. B. könnten US-Exportkontrollen theoretisch einschränken, wer starke TEEs nutzen darf ). AMD SEV mildert dies ab, indem es eine dezentralere Attestierung ermöglicht ( VM-Besitzer können ihre VMs attestieren ), vertraut aber weiterhin dem Chip und der Firmware von AMD. Das Zentralisierungsrisiko wird oft als etwas angeführt, das dem Dezentralisierungsgedanken der Blockchain widerspricht. Projekte wie Keystone ( Open-Source-TEE ) und andere erforschen Wege, um die Abhängigkeit von proprietären Black Boxes zu verringern, aber diese sind noch nicht im Mainstream angekommen.

  • Seitenkanal- und andere Schwachstellen: Ein TEE ist kein Allheilmittel; es kann durch indirekte Mittel angegriffen werden. Seitenkanalangriffe ( Side-Channel Attacks ) nutzen die Tatsache aus, dass, selbst wenn der direkte Speicherzugriff blockiert ist, der Betrieb einer Enklave das System subtil beeinflussen kann ( durch Timing, Cache-Nutzung, Stromverbrauch, elektromagnetische Emissionen usw. ). In den letzten Jahren wurden zahlreiche akademische Angriffe auf Intel SGX demonstriert: von Foreshadow ( Extrahieren von Enklaven-Geheimnissen über L1-Cache-Timing-Leckagen ) über Plundervolt ( Voltage Fault Injection über privilegierte Befehle ) bis hin zu SGAxe ( Extrahieren von Attestierungsschlüsseln ) und anderen. Diese hochentwickelten Angriffe zeigen, dass TEEs kompromittiert werden können, ohne kryptografische Schutzmechanismen brechen zu müssen – stattdessen durch das Ausnutzen von mikroarchitektonischen Verhaltensweisen oder Fehlern in der Implementierung. Infolgedessen wird anerkannt, dass „Forscher verschiedene potenzielle Angriffsvektoren identifiziert haben, die Hardware-Schwachstellen oder Zeitunterschiede bei TEE-Operationen ausnutzen könnten“. Obwohl diese Angriffe nicht trivial sind und oft entweder lokalen Zugriff oder bösartige Hardware erfordern, stellen sie eine reale Bedrohung dar. TEEs schützen im Allgemeinen auch nicht vor physischen Angriffen, wenn ein Angreifer den Chip in der Hand hat ( z. B. das Öffnen des Chips / Decapping, das Sondieren von Bussen usw. kann die meisten kommerziellen TEEs überwinden ).

    Die Reaktionen der Hersteller auf Entdeckungen von Seitenkanälen bestanden in Mikrocode-Patches und Updates des Enklaven-SDKs, um bekannte Lecks zu mildern ( manchmal auf Kosten der Performance ). Aber es bleibt ein Katz-und-Maus-Spiel. Für Web3 bedeutet dies: Wenn jemand einen neuen Seitenkanal auf SGX findet, könnte ein „sicherer“ DeFi-Vertrag, der in SGX läuft, potenziell ausgenutzt werden ( z. B. um geheime Daten zu lecken oder die Ausführung zu manipulieren ). Sich auf TEEs zu verlassen, bedeutet also, eine potenzielle Angriffsfläche auf Hardware-Ebene zu akzeptieren, die außerhalb des typischen Blockchain-Bedrohungsmodells liegt. Es ist ein aktives Forschungsgebiet, TEEs gegen diese Angriffe zu stärken ( zum Beispiel durch das Entwerfen von Enklaven-Code mit Constant-Time-Operationen, das Vermeiden von geheimnisabhängigen Speicherzugriffsmustern und die Verwendung von Techniken wie Oblivious RAM ). Einige Projekte ergänzen TEEs auch durch sekundäre Prüfungen – z. B. die Kombination mit ZK-Proofs oder das Ausführen mehrerer Enklaven auf Hardware verschiedener Hersteller, um das Risiko eines einzelnen Chips zu verringern.

  • Performance- und Ressourcenbeschränkungen: Obwohl TEEs bei CPU-gebundenen Aufgaben mit nahezu nativer Geschwindigkeit laufen, bringen sie einige Overheads und Einschränkungen mit sich. Der Wechsel in eine Enklave ( ein ECALL ) und heraus ( OCALL ) verursacht Kosten, ebenso wie die Verschlüsselung / Entschlüsselung von Speicherseiten. Dies kann die Performance bei sehr häufigen Enklaven-Grenzübergängen beeinträchtigen. Enklaven haben zudem oft Einschränkungen bei der Speichergröße. Beispielsweise hatte das frühe SGX einen begrenzten Enclave Page Cache ( EPC ), und wenn Enklaven mehr Speicher verwendeten, mussten Seiten ausgelagert werden ( mit Verschlüsselung ), was die Performance massiv verlangsamte. Selbst neuere TEEs erlauben es oft nicht, den gesamten System-RAM problemlos zu nutzen – es gibt einen sicheren Speicherbereich, der begrenzt sein kann. Dies bedeutet, dass sehr umfangreiche Berechnungen oder Datensätze eine Herausforderung darstellen können, wenn sie vollständig innerhalb eines TEEs abgewickelt werden sollen. Im Web3-Kontext könnte dies die Komplexität von Smart Contracts oder ML-Modellen einschränken, die in einer Enklave laufen können. Entwickler müssen für den Speicher optimieren und möglicherweise Arbeitslasten aufteilen.

  • Komplexität der Attestierung und Schlüsselverwaltung: Die Verwendung von TEEs in einer dezentralen Umgebung erfordert robuste Attestierungs-Workflows: Jeder Knoten muss anderen beweisen, dass er eine authentische Enklave mit dem erwarteten Code ausführt. Die Einrichtung dieser On-Chain-Attestierungsverifizierung kann komplex sein. In der Regel müssen der öffentliche Attestierungsschlüssel oder das Zertifikat des Herstellers fest im Protokoll kodiert und die Verifizierungslogik in Smart Contracts oder Off-Chain-Clients geschrieben werden. Dies führt zu Overhead im Protokolldesign, und alle Änderungen ( wie der Wechsel des Attestierungs-Signaturschlüsselformats von EPID zu DCAP durch Intel ) können Wartungsaufwand verursachen. Darüber hinaus fügt die Verwaltung von Schlüsseln innerhalb von TEEs ( zum Entschlüsseln von Daten oder Signieren von Ergebnissen ) eine weitere Komplexitätsebene hinzu. Fehler bei der Enklaven-Schlüsselverwaltung könnten die Sicherheit untergraben ( z. B. wenn eine Enklave versehentlich einen Entschlüsselungsschlüssel durch einen Bug preisgibt, brechen alle ihre Vertraulichkeitsversprechen zusammen ). Best Practices beinhalten die Nutzung der Sealing-APIs des TEEs, um Schlüssel sicher zu speichern und Schlüssel bei Bedarf zu rotieren, aber auch dies erfordert ein sorgfältiges Design durch die Entwickler.

  • Denial-of-Service und Verfügbarkeit: Ein vielleicht weniger diskutiertes Problem: TEEs helfen nicht bei der Verfügbarkeit und können sogar neue DoS-Wege eröffnen. Zum Beispiel könnte ein Angreifer einen TEE-basierten Dienst mit Eingaben überfluten, deren Verarbeitung kostspielig ist, wohlwissend, dass die Enklave vom Betreiber nicht einfach inspiziert oder unterbrochen werden kann ( da sie isoliert ist ). Wenn zudem eine Schwachstelle gefunden wird und ein Patch Firmware-Updates erfordert, müssen während dieses Zyklus viele Enklaven-Dienste möglicherweise aus Sicherheitsgründen pausieren, bis die Knoten gepatcht sind, was zu Ausfallzeiten führt. Stellen Sie sich im Blockchain-Konsens vor, ein kritischer SGX-Bug würde gefunden – Netzwerke wie Secret müssten möglicherweise anhalten, bis ein Fix vorliegt, da das Vertrauen in die Enklaven gebrochen wäre. Die Koordinierung solcher Reaktionen in einem dezentralen Netzwerk ist eine Herausforderung.

Komponierbarkeit und Ökosystem-Einschränkungen

  • Eingeschränkte Komponierbarkeit mit anderen Verträgen: In einer öffentlichen Smart-Contract-Plattform wie Ethereum können Verträge problemlos andere Verträge aufrufen, und der gesamte Status ist offen, was DeFi-Money-Legos und eine reichhaltige Komposition ermöglicht. In einem TEE-basierten Vertragsmodell kann der private Status nicht frei geteilt oder kombiniert werden, ohne die Vertraulichkeit zu verletzen. Wenn beispielsweise Vertrag A in einer Enklave mit Vertrag B interagieren muss und beide geheime Daten enthalten, wie arbeiten sie zusammen? Entweder müssen sie ein komplexes sicheres Multi-Party-Protokoll durchführen ( was einen Teil der Einfachheit von TEEs zunichtemacht ) oder sie werden in einer Enklave kombiniert ( was die Modularität verringert ). Dies ist eine Herausforderung, vor der das Secret Network und andere stehen: Vertragsübergreifende Aufrufe mit Privatsphäre sind nicht trivial. Einige Lösungen sehen vor, dass eine einzige Enklave die Ausführung mehrerer Verträge übernimmt, sodass sie intern geteilte Geheimnisse verwalten kann, aber das kann das System monolithischer machen. Daher ist die Komponierbarkeit privater Verträge eingeschränkter als die öffentlicher oder erfordert neue Designmuster. Ebenso erfordert die Integration von TEE-basierten Modulen in bestehende Blockchain-dApps ein sorgfältiges Schnittstellendesign – oft wird nur das Ergebnis einer Enklave on-chain gepostet, was ein SNARK oder ein Hash sein kann, und andere Verträge können nur diese begrenzten Informationen nutzen. Dies ist definitiv ein Kompromiss; Projekte wie Secret bieten Viewing-Keys an und erlauben das Teilen von Geheimnissen nach dem „Need-to-know“-Prinzip, aber es ist nicht so nahtlos wie die normale On-Chain-Komponierbarkeit.

  • Standardisierung und Interoperabilität: Dem TEE-Ökosystem fehlen derzeit einheitliche Standards über verschiedene Hersteller hinweg. Intel SGX, AMD SEV und ARM TrustZone haben alle unterschiedliche Programmiermodelle und Attestierungsmethoden. Diese Fragmentierung bedeutet, dass eine für SGX-Enklaven geschriebene dApp nicht ohne Weiteres auf TrustZone usw. portierbar ist. In der Blockchain kann dies ein Projekt an eine bestimmte Hardware binden ( z. B. sind Secret und Oasis derzeit an x86-Server mit SGX gebunden ). Wenn diese später ARM-Knoten unterstützen wollten ( z. B. Validatoren auf Mobilgeräten ), würde dies zusätzliche Entwicklung und vielleicht eine andere Attestierungs-Verifizierungslogik erfordern. Es gibt Bemühungen ( wie das CCC – Confidential Computing Consortium ), Attestierungs- und Enklaven-APIs zu standardisieren, aber wir sind noch nicht ganz am Ziel. Der Mangel an Standards wirkt sich auch auf die Entwickler-Tools aus – man findet vielleicht das SGX-SDK ausgereift, muss sich dann aber an ein anderes TEE mit einem anderen SDK anpassen. Diese Interoperabilitäts-Herausforderung kann die Akzeptanz verlangsamen und die Kosten erhöhen.

  • Lernkurve für Entwickler: Das Erstellen von Anwendungen, die innerhalb von TEEs laufen, erfordert spezialisiertes Wissen, das viele Blockchain-Entwickler möglicherweise nicht haben. Oft ist Low-Level-Programmierung in C / C++ ( für SGX / TrustZone ) oder ein Verständnis von Speichersicherheit und seitenkanalresistentem Coding erforderlich. Das Debuggen von Enklaven-Code ist bekanntermaßen schwierig ( man kann aus Sicherheitsgründen während des Betriebs nicht einfach in eine Enklave hineinschauen! ). Obwohl Frameworks und höhere Sprachen existieren ( wie die Verwendung von Rust durch Oasis für ihre vertrauliche Runtime oder sogar Tools zum Ausführen von WebAssembly in Enklaven ), ist die Entwicklererfahrung immer noch mühsamer als die typische Smart-Contract-Entwicklung oder die Off-Chain-Web2-Entwicklung. Diese steile Lernkurve und unausgereifte Tools können Entwickler abschrecken oder zu Fehlern führen, wenn nicht sorgfältig vorgegangen wird. Hinzu kommt der Aspekt, dass Hardware zum Testen benötigt wird – zum Ausführen von SGX-Code ist eine SGX-fähige CPU oder ein Emulator erforderlich ( der langsamer ist ), sodass die Einstiegshürde höher ist. Infolgedessen sind heute relativ wenige Entwickler tief mit der Enklaven-Entwicklung vertraut, was Audits und Community-Support seltener macht als beispielsweise in der weit verbreiteten Solidity-Community.

  • Betriebskosten: Der Betrieb einer TEE-basierten Infrastruktur kann kostspieliger sein. Die Hardware selbst kann teurer oder knapper sein ( z. B. verlangen bestimmte Cloud-Anbieter einen Aufpreis für SGX-fähige VMs ). Hinzu kommt der operative Aufwand: Firmware auf dem neuesten Stand halten ( für Sicherheitspatches ), Verwaltung des Attestierungs-Networkings usw., was kleine Projekte als belastend empfinden könnten. Wenn jeder Knoten eine bestimmte CPU haben muss, könnte dies den potenziellen Validator-Pool verkleinern ( nicht jeder hat die erforderliche Hardware ), was die Dezentralisierung beeinträchtigt und möglicherweise zu einer höheren Nutzung von Cloud-Hosting führt.

Zusammenfassend lässt sich sagen: Während TEEs leistungsstarke Funktionen freischalten, bringen sie auch Vertrauenskompromisse ( Hardware-Vertrauen vs. mathematisches Vertrauen ), potenzielle Sicherheitsforschwächen ( insbesondere Seitenkanäle ) und Integrationshürden in einem dezentralen Kontext mit sich. Projekte, die TEEs einsetzen, müssen diese Probleme sorgfältig umgehen – indem sie Defense-in-Depth anwenden ( nicht davon ausgehen, dass das TEE unzerbrechlich ist ), die Trusted Computing Base minimal halten und gegenüber den Nutzern transparent über die Vertrauensannahmen kommunizieren ( damit klar ist, dass man beispielsweise neben dem Blockchain-Konsens auch der Hardware von Intel vertraut ).

5. TEEs vs. andere datenschutzfreundliche Technologien (ZKP, FHE, MPC)

Trusted Execution Environments (TEEs) sind ein Ansatz, um Datenschutz und Sicherheit im Web3 zu erreichen. Es gibt jedoch weitere wichtige Techniken, darunter Zero-Knowledge-Proofs (ZKPs), vollhomomorphe Verschlüsselung (FHE) und sichere Mehrparteienberechnung (MPC). Jede dieser Technologien verfügt über ein anderes Vertrauensmodell und Leistungsprofil. In vielen Fällen schließen sie sich nicht gegenseitig aus – sie können sich ergänzen –, aber es ist nützlich, ihre Abwägungen in Bezug auf Performance, Vertrauen und Benutzerfreundlichkeit für Entwickler zu vergleichen:

Kurzdefinitionen der Alternativen:

  • ZKPs: Kryptographische Beweise (wie zk-SNARKs, zk-STARKs), die es einer Partei ermöglichen, anderen gegenüber zu beweisen, dass eine Aussage wahr ist (z. B. „Ich kenne ein Geheimnis, das diese Berechnung erfüllt“), ohne zu verraten, warum sie wahr ist (das Verbergen der geheimen Eingabe). In der Blockchain werden ZKPs für private Transaktionen (z. B. Zcash, Aztec) und für die Skalierbarkeit verwendet (Rollups, die Beweise für eine korrekte Ausführung übermitteln). Sie gewährleisten starken Datenschutz (keine geheimen Daten werden geleakt, nur Beweise) und durch Mathematik garantierte Integrität, aber die Erzeugung dieser Beweise kann rechentechnisch schwerfällig sein, und die Schaltkreise müssen sorgfältig entworfen werden.
  • FHE: Ein Verschlüsselungsverfahren, das beliebige Berechnungen auf verschlüsselten Daten ermöglicht, sodass das Ergebnis nach der Entschlüsselung dem Ergebnis der Berechnung auf Klartexten entspricht. Theoretisch bietet FHE ultimativen Datenschutz – die Daten bleiben jederzeit verschlüsselt –, und man muss niemandem die Rohdaten anvertrauen. FHE ist jedoch für allgemeine Berechnungen extrem langsam (obwohl es sich durch Forschung verbessert); aufgrund der Performance befindet es sich noch größtenteils in der experimentellen oder spezialisierten Anwendung.
  • MPC: Protokolle, bei denen mehrere Parteien gemeinsam eine Funktion über ihre privaten Eingaben berechnen, ohne diese Eingaben einander offenzulegen. Dabei werden Daten oft mittels Secret-Sharing auf Parteien verteilt und kryptographische Operationen durchgeführt, sodass die Ausgabe korrekt ist, die einzelnen Eingaben jedoch verborgen bleiben. MPC kann Vertrauen verteilen (keine einzelne Instanz sieht alle Daten) und für bestimmte Operationen effizient sein, verursacht aber typischerweise einen Kommunikations- und Koordinationsaufwand und kann für große Netzwerke komplex in der Implementierung sein.

Unten finden Sie eine Vergleichstabelle, die die wichtigsten Unterschiede zusammenfasst:

TechnologieVertrauensmodellPerformanceDatenschutzBenutzerfreundlichkeit für Entwickler
TEE (Intel SGX etc.)Vertrauen in den Hardwarehersteller (in einigen Fällen zentralisierter Attestierungsserver). Setzt voraus, dass der Chip sicher ist; wenn die Hardware kompromittiert wird, ist die Sicherheit gebrochen.Nahezu native Ausführungsgeschwindigkeit; minimaler Overhead. Gut für Echtzeitberechnungen und große Workloads. Skalierbarkeit begrenzt durch die Verfügbarkeit TEE-fähiger Nodes.Daten liegen innerhalb der Enklave im Klartext vor, sind aber für die Außenwelt verschlüsselt. Starke Vertraulichkeit, wenn die Hardware hält; bei einer Verletzung der Enklave werden Geheimnisse offengelegt (kein zusätzlicher mathematischer Schutz).Moderate Komplexität. Bestehender Code/Sprachen (C, Rust) können oft mit geringfügigen Änderungen in der Enklave ausgeführt werden. Niedrigste Einstiegshürde – keine fortgeschrittene Kryptographie nötig – erfordert jedoch Systemprogrammierung und TEE-spezifisches SDK-Wissen.
ZKP (zk-SNARK/STARK)Vertrauen in mathematische Annahmen (z. B. Schwierigkeit kryptographischer Probleme) und manchmal ein Trusted Setup (für SNARKs). Keine Abhängigkeit von einer einzelnen Partei zur Laufzeit.Beweiserzeugung ist rechenintensiv (besonders für komplexe Programme), oft um Größenordnungen langsamer als nativ. On-Chain-Verifizierung ist schnell (wenige ms). Nicht ideal für große Datenberechnungen aufgrund der Beweiszeit. Skalierbarkeit: gut für prägnante Verifizierung (Rollups), aber der Prover ist der Flaschenhals.Sehr starker Datenschutz – Korrektheit kann bewiesen werden, ohne private Eingaben offenzulegen. Nur minimale Informationen (wie Beweisgröße) dringen nach außen. Ideal für finanzielle Privatsphäre etc.Hohe Komplexität. Erfordert das Erlernen spezialisierter Sprachen (Circuits, zkDSLs wie Circom oder Noir) und das Denken in arithmetischen Schaltkreisen. Debugging ist schwierig. Wenige Experten verfügbar.
FHEVertrauen in die Mathematik (Gitterprobleme). Keine vertrauenswürdige Partei; Sicherheit hält, solange die Verschlüsselung nicht gebrochen wird.Sehr langsam für den allgemeinen Gebrauch. Operationen auf verschlüsselten Daten sind mehrere Größenordnungen langsamer als auf Klartext. Skaliert allmählich mit Hardwareverbesserungen und besseren Algorithmen, ist aber aktuell unpraktisch für den Echtzeiteinsatz in Blockchain-Kontexten.Ultimativer Datenschutz – Daten bleiben die gesamte Zeit verschlüsselt, auch während der Berechnung. Ideal für sensible Daten (z. B. medizinische Daten, institutionenübergreifende Analysen), sofern die Performance dies zulässt.Sehr spezialisiert. Entwickler benötigen Kryptographie-Hintergrund. Einige Bibliotheken (wie Microsoft SEAL, TFHE) existieren, aber das Schreiben beliebiger Programme in FHE ist schwierig und umständlich. Noch kein routinemäßiges Entwicklungsziel für dApps.
MPCVertrauen verteilt auf mehrere Parteien. Setzt voraus, dass ein Schwellenwert von Parteien ehrlich ist (keine Kollusion über eine bestimmte Anzahl hinaus). Kein Hardware-Vertrauen nötig. Vertrauensbruch bei zu viel Kollusion.Typischerweise langsamer als nativ aufgrund von Kommunikationsrunden, aber oft schneller als FHE. Performance variiert: Einfache Operationen (Addition, Multiplikation) können effizient sein; komplexe Logik kann Kommunikationskosten sprengen. Latenz ist abhängig von Netzwerkgeschwindigkeiten. Skalierbarkeit durch Sharding oder partielle Vertrauensannahmen verbesserbar.Starker Datenschutz, wenn Annahmen halten – kein einzelner Knoten sieht die gesamte Eingabe. Informationen können jedoch über die Ausgabe leaken oder wenn Parteien ausfallen (zudem fehlt die Prägnanz von ZK – man erhält das Ergebnis, aber keinen einfach teilbaren Beweis ohne erneutes Ausführen des Protokolls).Hohe Komplexität. Erfordert das Design eines benutzerdefinierten Protokolls pro Anwendungsfall oder die Nutzung von Frameworks (wie SPDZ). Entwickler müssen kryptographische Protokolle verstehen und oft die Bereitstellung mehrerer Knoten koordinieren. Integration in Blockchain-Apps kann komplex sein.

Quellen: Der obige Vergleich stützt sich auf Analysen wie die von Sanders Network, die hervorheben, dass TEEs bei Geschwindigkeit und Benutzerfreundlichkeit glänzen, während ZK und FHE auf maximale Vertrauenslosigkeit auf Kosten hoher Rechenleistung setzen und MPC Vertrauen verteilt, aber Netzwerk-Overhead einführt.

Aus der Tabelle ergeben sich einige wichtige Abwägungen:

  • Performance: TEEs haben einen großen Vorteil bei der reinen Geschwindigkeit und der geringen Latenz. MPC kann oft moderate Komplexität mit gewissen Verzögerungen bewältigen, ZK ist langsam in der Erzeugung, aber schnell in der Verifizierung (asynchrone Nutzung), und FHE ist derzeit bei weitem am langsamsten für beliebige Aufgaben (wenn auch in Ordnung für begrenzte Operationen wie einfache Additionen/Multiplikationen). Wenn Ihre Anwendung komplexe Echtzeitverarbeitung benötigt (wie interaktive Anwendungen, Hochfrequenzentscheidungen), sind TEEs oder vielleicht MPC (mit wenigen Parteien und guten Verbindungen) heute die einzigen praktikablen Optionen. ZK und FHE wären in solchen Szenarien zu langsam.

  • Vertrauensmodell: ZKP und FHE sind rein vertrauenslos (man vertraut nur der Mathematik). MPC verlagert das Vertrauen auf Annahmen über die Ehrlichkeit der Teilnehmer (was durch viele Parteien oder wirtschaftliche Anreize gestärkt werden kann). TEEs setzen Vertrauen in die Hardware und den Hersteller voraus. Dies ist ein grundlegender Unterschied: TEEs führen eine vertrauenswürdige dritte Partei (den Chip) in die normalerweise vertrauenslose Welt der Blockchain ein. Im Gegensatz dazu werden ZK und FHE oft dafür gelobt, dass sie besser mit dem dezentralen Ethos übereinstimmen – keine speziellen Instanzen, denen man vertrauen muss, nur rechnerische Härte. MPC liegt dazwischen: Vertrauen ist dezentralisiert, aber nicht eliminiert (wenn N von M Knoten kolludieren, bricht der Datenschutz). Für maximale Vertrauenslosigkeit (z. B. ein wirklich zensurresistentes, dezentrales System) tendiert man eher zu kryptographischen Lösungen. Andererseits akzeptieren viele praktische Systeme die Annahme, dass Intel ehrlich ist oder dass eine Gruppe großer Validatoren nicht kolludieren wird, und tauschen ein Stück Vertrauen gegen enorme Effizienzgewinne ein.

  • Sicherheit/Schwachstellen: TEEs können, wie besprochen, durch Hardware-Bugs oder Seitenkanäle untergraben werden. Die Sicherheit von ZK und FHE kann untergraben werden, wenn die zugrunde liegende Mathematik (z. B. elliptische Kurven oder Gitterprobleme) gebrochen wird, aber dies sind gut untersuchte Probleme, und Angriffe würden wahrscheinlich bemerkt werden (zudem können Parameterwahlen bekannte Risiken mindern). Die Sicherheit von MPC kann durch aktive Angreifer gebrochen werden, wenn das Protokoll nicht dafür ausgelegt ist (einige MPC-Protokolle setzen „ehrliche, aber neugierige“ Teilnehmer voraus und könnten scheitern, wenn jemand offen betrügt). Im Blockchain-Kontext könnte ein TEE-Bruch katastrophaler sein (alle Enklaven-basierten Verträge könnten bis zum Patch gefährdet sein), während ein kryptographischer ZK-Bruch (wie die Entdeckung einer Schwachstelle in einer Hash-Funktion eines ZK-Rollups) ebenfalls katastrophal wäre, aber angesichts der einfacheren Annahme im Allgemeinen als weniger wahrscheinlich gilt. Die Angriffsfläche ist sehr unterschiedlich: TEEs müssen sich um Dinge wie Leistungsanalyse sorgen, während ZK sich um mathematische Durchbrüche sorgen muss.

  • Datenschutz: FHE und ZK bieten die stärksten Datenschutzgarantien – Daten bleiben kryptographisch geschützt. MPC stellt sicher, dass Daten verteilt (secret-shared) werden, sodass keine einzelne Partei sie sieht (obwohl Informationen leaken könnten, wenn Ausgaben öffentlich sind). TEEs halten Daten vor der Außenwelt geheim, aber innerhalb der Enklave werden die Daten entschlüsselt; wenn jemand irgendwie die Kontrolle über die Enklave erlangt, geht die Vertraulichkeit verloren. Zudem erlauben TEEs dem Code typischerweise, alles mit den Daten zu tun (einschließlich des unbeabsichtigten Leakens durch Seitenkanäle oder das Netzwerk, wenn der Code bösartig ist). TEEs erfordern also, dass man auch dem Enklaven-Code vertraut, nicht nur der Hardware. Im Gegensatz dazu beweisen ZKPs Eigenschaften des Codes, ohne jemals Geheimnisse preiszugeben, sodass man nicht einmal dem Code vertrauen muss (über die Tatsache hinaus, dass er tatsächlich die bewiesene Eigenschaft besitzt). Wenn eine Enklaven-Anwendung einen Bug hätte, der Daten in eine Logdatei schreibt, würde die TEE-Hardware das nicht verhindern – während ein ZK-Beweissystem einfach nichts außer dem beabsichtigten Beweis offenbaren würde. Dies ist eine Nuance: TEEs schützen vor externen Angreifern, aber nicht unbedingt vor Logikfehlern im Enklaven-Programm selbst, während das Design von ZK einen deklarativeren Ansatz erzwingt (man beweist genau das, was beabsichtigt ist, und nichts mehr).

  • Komponierbarkeit & Integration: TEEs lassen sich relativ einfach in bestehende Systeme integrieren – man kann ein bestehendes Programm nehmen, es in eine Enklave verschieben und erhält Sicherheitsvorteile, ohne das Programmiermodell zu stark zu verändern. ZK und FHE erfordern oft das Umschreiben des Programms in einen Schaltkreis oder eine restriktive Form, was einen massiven Aufwand bedeuten kann. Beispielsweise beinhaltet das Schreiben einer einfachen KI-Modellverifizierung in ZK die Transformation in eine Reihe von arithmetischen Operationen und Constraints, was weit davon entfernt ist, einfach TensorFlow in einer TEE auszuführen und das Ergebnis zu attestieren. MPC erfordert ähnlich oft benutzerdefinierte Protokolle pro Anwendungsfall. Aus Sicht der Entwicklerproduktivität und Kosten sind TEEs daher attraktiv. Wir haben in einigen Bereichen eine schnellere Einführung von TEEs gesehen, gerade weil man bestehende Software-Ökosysteme nutzen kann. ZK/MPC erfordern spezialisierte Ingenieurstalente, die knapp sind. Die Kehrseite ist jedoch, dass TEEs oft zu isolierteren Lösungen führen (man muss dieser Enklave oder dieser Gruppe von Knoten vertrauen), während ZK einen Beweis liefert, den jeder On-Chain prüfen kann, was es hochgradig komponierbar macht. ZK-Ergebnisse sind portabel – sie erzeugen einen kleinen Beweis, den beliebig viele andere Verträge oder Nutzer verwenden können. TEE-Ergebnisse liegen meist in Form einer Attestierung vor, die an eine bestimmte Hardware gebunden und möglicherweise nicht prägnant ist; sie sind vielleicht nicht so leicht teilbar oder Chain-agnostisch.

In der Praxis sehen wir hybride Ansätze: Zum Beispiel argumentiert Sanders Network, dass TEE, MPC und ZK jeweils in unterschiedlichen Bereichen glänzen und sich ergänzen können. Ein konkreter Fall ist die dezentrale Identität: Man könnte ZK-Beweise verwenden, um ein Identitätsmerkmal zu beweisen, ohne es offenzulegen, aber dieses Merkmal könnte durch einen TEE-basierten Prozess verifiziert und ausgestellt worden sein, der Dokumente privat geprüft hat. Oder betrachten Sie die Skalierung: ZK-Rollups liefern prägnante Beweise für viele Transaktionen, aber die Erzeugung dieser Beweise könnte beschleunigt werden, indem TEEs verwendet werden, um einige Berechnungen schneller durchzuführen (und dann nur eine kleinere Aussage zu beweisen). Die Kombination kann manchmal die Vertrauensanforderung an TEEs verringern (z. B. TEEs für Performance nutzen, aber die endgültige Korrektheit dennoch über einen ZK-Beweis oder ein On-Chain-Challenge-Game verifizieren, sodass eine kompromittierte TEE nicht betrügen kann, ohne erwischt zu werden). Gleichzeitig kann MPC mit TEEs kombiniert werden, indem der Rechenknoten jeder Partei eine TEE ist, was eine zusätzliche Schutzschicht bietet, sodass selbst bei Kollusion einiger Parteien diese die Daten der anderen nicht sehen können, es sei denn, sie brechen auch die Hardware-Sicherheit.

Zusammenfassend bieten TEEs einen sehr praktischen und unmittelbaren Weg zu sicherer Berechnung mit moderaten Annahmen (Hardware-Vertrauen), während ZK und FHE einen eher theoretischen und vertrauenslosen Weg bei hohen Rechenkosten bieten und MPC einen Pfad des verteilten Vertrauens mit Netzwerkkosten darstellt. Die richtige Wahl im Web3 hängt von den Anforderungen der Anwendung ab:

  • Wenn Sie schnelle, komplexe Berechnungen auf privaten Daten benötigen (wie KI, große Datensätze) – sind TEEs (oder MPC mit wenigen Parteien) derzeit der einzige gangbare Weg.
  • Wenn Sie maximale Dezentralisierung und Verifizierbarkeit benötigen – glänzen ZK-Beweise (beispielsweise bevorzugen private Kryptowährungstransaktionen ZKP wie in Zcash, da Nutzer nichts außer der Mathematik vertrauen wollen).
  • Wenn Sie kollaboratives Rechnen zwischen mehreren Stakeholdern benötigen – ist MPC von Natur aus geeignet (wie Multi-Party Key Management oder Auktionen).
  • Wenn Sie extrem sensible Daten haben und langfristiger Datenschutz ein Muss ist – könnte FHE attraktiv sein, falls sich die Performance verbessert, denn selbst wenn jemand Ihre Chiffretexte Jahre später erhielte, würde er ohne den Schlüssel nichts erfahren; während ein Enklaven-Bruch Geheimnisse rückwirkend offenlegen könnte, falls Logs aufbewahrt wurden.

Es ist bemerkenswert, dass der Blockchain-Raum all diese Technologien aktiv parallel erforscht. Wir werden wahrscheinlich Kombinationen sehen: z. B. Layer-2-Lösungen, die TEEs integrieren, um Transaktionen zu sequenzieren, und dann einen ZKP verwenden, um zu beweisen, dass die TEE die Regeln befolgt hat, oder MPC-Netzwerke, die TEEs in jedem Knoten verwenden, um die Komplexität der MPC-Protokolle zu verringern.

Letztendlich ist die Wahl zwischen TEEs, ZK, MPC und FHE keine Nullsummenentscheidung – sie zielen jeweils auf unterschiedliche Punkte im Dreieck aus Sicherheit, Performance und Vertrauenslosigkeit ab. Wie es in einem Artikel hieß: Alle vier stehen vor einem „unmöglichen Dreieck“ aus Performance, Kosten und Sicherheit – keine einzelne Lösung ist in allen Aspekten überlegen. Das optimale Design nutzt oft das richtige Werkzeug für den richtigen Teil des Problems.

6. Einführung in bedeutenden Blockchain-Ökosystemen

Trusted Execution Environments (TEEs) wurden in verschiedenen Blockchain-Ökosystemen in unterschiedlichem Maße eingeführt, oft beeinflusst durch die Prioritäten dieser Communities und die Einfachheit der Integration. Hier bewerten wir, wie TEEs in einigen der wichtigsten Ökosysteme verwendet (oder erforscht) werden: Ethereum, Cosmos und Polkadot, sowie in weiteren Bereichen:

Ethereum (und allgemeine Layer-1-Lösungen)

Auf dem Ethereum-Mainnet selbst sind TEEs kein Teil des Kernprotokolls, aber sie finden Anwendung in Anwendungen und Layer-2-Lösungen. Die Philosophie von Ethereum stützt sich primär auf kryptografische Sicherheit (z. B. die aufkommenden ZK-Rollups), doch TEEs haben Rollen in Orakeln und der Off-chain-Ausführung für Ethereum übernommen:

  • Orakel-Dienste: Wie bereits erörtert, hat Chainlink TEE-basierte Lösungen wie Town Crier integriert. Obwohl nicht alle Chainlink-Nodes standardmäßig TEEs verwenden, ist die Technologie für Datenfeeds vorhanden, die ein besonderes Maß an Vertrauen erfordern. Auch API3 (ein weiteres Orakel-Projekt) hat die Verwendung von Intel SGX erwähnt, um APIs zu betreiben und Daten zu signieren, um die Authentizität zu gewährleisten. Diese Dienste liefern Daten an Ethereum-Smart-Contracts mit stärkeren Zusicherungen.

  • Layer-2 und Rollups: In der Ethereum-Community gibt es laufende Forschungen und Debatten über den Einsatz von TEEs in Rollup-Sequencern oder Validatoren. Beispielsweise haben das „ZK-Portal“-Konzept von ConsenSys und andere die Nutzung von TEEs vorgeschlagen, um die korrekte Reihenfolge in optimistischen Rollups zu erzwingen oder den Sequencer vor Zensur zu schützen. Ein Medium-Artikel deutet sogar an, dass TEE bis 2025 ein Standardmerkmal in einigen L2-Lösungen für Bereiche wie den Schutz des Hochfrequenzhandels werden könnte. Projekte wie Catalyst (eine DEX für Hochfrequenzhandel) und Flashbots (für MEV-Relays) haben TEEs untersucht, um eine faire Reihenfolge von Transaktionen zu erzwingen, bevor sie die Blockchain erreichen.

  • Enterprise Ethereum: In Konsortial- oder zugangsbeschränkten Ethereum-Netzwerken sind TEEs weiter verbreitet. Das Trusted Compute Framework (TCF) der Enterprise Ethereum Alliance war im Grunde ein Entwurf für die Integration von TEEs in Ethereum-Clients. Hyperledger Avalon (ehemals EEA TCF) ermöglicht es, Teile von Ethereum-Smart-Contracts off-chain in einem TEE auszuführen und anschließend on-chain zu verifizieren. Mehrere Unternehmen wie IBM, Microsoft und iExec haben dazu beigetragen. Während dies im öffentlichen Ethereum-Netzwerk nicht üblich geworden ist, können TEEs in privaten Implementierungen (z. B. eine Gruppe von Banken, die Quorum oder Besu nutzen) verwendet werden, damit selbst Konsortialmitglieder die Daten der anderen nicht sehen, sondern nur die autorisierten Ergebnisse. Dies kann die Datenschutzanforderungen im Unternehmensumfeld erfüllen.

  • Bemerkenswerte Projekte: Neben iExec, das auf Ethereum operiert, gab es Projekte wie Enigma (das ursprünglich als MPC-Projekt am MIT begann, dann auf SGX umschwenkte und später zum Secret Network auf Cosmos wurde). Ein weiteres war Decentralized Cloud Services (DCS) in frühen Ethereum-Diskussionen. In jüngerer Zeit ermöglicht Oasis Ethereum ParaTime (Oasis Sapphire), dass Solidity-Contracts mit Vertraulichkeit ausgeführt werden, indem das TEE-Backend von Oasis genutzt wird, während die Abrechnung auf Ethereum erfolgt. Auch einige Ethereum-basierte DApps für den Austausch medizinischer Daten oder für Spiele haben mit TEEs experimentiert, indem sie eine Off-chain-Enklaven-Komponente nutzen, die mit ihren Smart Contracts interagiert.

Die Einführung bei Ethereum ist also eher indirekt – das Protokoll wurde nicht dahingehend geändert, TEEs vorauszusetzen, aber es gibt eine Vielzahl optionaler Dienste und Erweiterungen, die TEEs für spezifische Anforderungen nutzen. Wichtig ist, dass Ethereum-Forscher vorsichtig bleiben: Vorschläge für einen „nur TEE-basierten Shard“ oder eine tiefe Integration von TEEs stießen aufgrund von Vertrauensbedenken auf Skepsis in der Community. Stattdessen werden TEEs eher als „Co-Prozessoren“ für Ethereum und nicht als Kernkomponenten gesehen.

Cosmos-Ökosystem

Das Cosmos-Ökosystem ist dank seines modularen SDKs und souveräner Chains offen für Experimente, und das Secret Network (oben behandelt) ist ein Paradebeispiel für die TEE-Einführung in Cosmos. Secret Network ist faktisch eine Cosmos SDK-Chain mit Tendermint-Konsens, die so modifiziert wurde, dass SGX für ihre Validatoren obligatorisch ist. Es ist eine der bekanntesten Cosmos-Zonen nach dem Cosmos Hub, was auf eine erhebliche Akzeptanz der TEE-Technologie in dieser Community hindeutet. Der Erfolg von Secret bei der Bereitstellung von Interchain-Datenschutz (durch seine IBC-Verbindungen kann Secret als Datenschutz-Hub für andere Cosmos-Chains fungieren) ist ein bemerkenswerter Fall von TEE-Integration auf Layer-1-Ebene.

Ein weiteres Projekt mit Cosmos-Bezug ist das Oasis Network (obwohl es nicht auf dem Cosmos SDK aufbaut, wurde es von einigen der gleichen Personen entworfen, die zu Tendermint beigetragen haben, und teilt ein ähnliches Ethos einer modularen Architektur). Oasis ist eigenständig, kann aber über Bridges usw. mit Cosmos verbunden werden. Sowohl Secret als auch Oasis zeigen, dass im Cosmos-Umfeld die Idee von „Datenschutz als Feature“ via TEEs genug Anklang fand, um dedizierte Netzwerke zu rechtfertigen.

Cosmos verfügt sogar über ein Konzept von „Datenschutz-Providern“ für Interchain-Anwendungen – z. B. kann eine App auf einer Chain einen Contract auf dem Secret Network via IBC aufrufen, um eine vertrauliche Berechnung durchzuführen, und das Ergebnis zurückerhalten. Diese Komponierbarkeit entwickelt sich gerade.

Zusätzlich hat das Projekt Anoma (nicht strikt Cosmos, aber im Sinne der Interoperabilität verwandt) über die Nutzung von TEEs für Intent-zentrierte Architekturen gesprochen, wenngleich dies eher theoretischer Natur ist.

Kurz gesagt: Cosmos hat mindestens eine große Chain, die TEEs vollständig nutzt (Secret), und andere, die damit interagieren, was eine gesunde Akzeptanz in diesem Bereich illustriert. Die Modularität von Cosmos könnte weitere solcher Chains ermöglichen (man könnte sich beispielsweise eine Cosmos-Zone vorstellen, die auf TEE-basierte Orakel oder Identität spezialisiert ist).

Polkadot und Substrate

Das Design von Polkadot erlaubt es Parachains, sich zu spezialisieren, und tatsächlich beherbergt Polkadot mehrere Parachains, die TEEs nutzen:

  • Sanders Network: Bereits beschrieben; eine Parachain, die eine TEE-basierte Compute-Cloud anbietet. Sanders ist als Parachain live und stellt Dienste für andere Chains über XCMP (Cross-Chain Message Passing) bereit. Beispielsweise kann ein anderes Polkadot-Projekt eine vertrauliche Aufgabe an die Worker von Sanders auslagern und einen Beweis oder ein Ergebnis zurückerhalten. Die Token-Ökonomik von Sanders schafft Anreize für den Betrieb von TEE-Nodes, und das Projekt hat eine beachtliche Community, was auf eine starke Akzeptanz hindeutet.
  • Integritee: Eine weitere Parachain, die sich auf Unternehmens- und Datenschutzlösungen mittels TEEs konzentriert. Integritee ermöglicht es Teams, eigene private Sidechains (genannt Teewasms) bereitzustellen, in denen die Ausführung in Enklaven erfolgt. Es zielt auf Anwendungsfälle wie die vertrauliche Datenverarbeitung für Unternehmen ab, die dennoch die Sicherheit von Polkadot als Anker nutzen möchten.
  • /Root oder Crust?: Es gab Ideen zur Nutzung von TEEs für dezentrale Speicherung oder Random Beacons in einigen Polkadot-bezogenen Projekten. Zum Beispiel plante das Crust Network (dezentraler Speicher) ursprünglich einen TEE-basierten Proof-of-Storage (obwohl man später zu einem anderen Design überging). Und Polkadots Random-Parachain (Entropy) zog TEEs gegenüber VRFs in Erwägung.

Polkadots Vertrauen auf On-chain-Governance und Upgrades bedeutet, dass Parachains neue Technologien schnell integrieren können. Sowohl Sanders und Integritee haben Upgrades durchlaufen, um ihre TEE-Integration zu verbessern (z. B. die Unterstützung neuer SGX-Funktionen oder die Verfeinerung von Attestierungsmethoden). Die Web3 Foundation finanzierte zudem frühere Bemühungen an Substrate-basierten TEE-Projekten wie SubstraTEE (ein früher Prototyp, der die Off-chain-Ausführung von Contracts in TEEs mit On-chain-Verifizierung demonstrierte).

Das Polkadot-Ökosystem zeigt somit mehrere unabhängige Teams, die auf TEE-Technologie setzen, was auf einen positiven Trend hindeutet. Es wird zu einem Verkaufsargument für Polkadot, dass man sagen kann: „Wenn Sie vertrauliche Smart Contracts oder Off-chain-Berechnungen benötigen, haben wir Parachains dafür.“

Andere Ökosysteme und allgemeine Einführung

  • Unternehmen und Konsortien: Außerhalb des öffentlichen Krypto-Sektors haben Hyperledger und Unternehmens-Chains TEEs stetig für zugangsbeschränkte Umgebungen übernommen. Beispielsweise testete der Basler Ausschuss eine TEE-basierte Blockchain für Handelsfinanzierung. Das allgemeine Muster ist: Wo Datenschutz oder Vertraulichkeit ein Muss sind und die Teilnehmer bekannt sind (sodass sie vielleicht sogar kollektiv in Hardware-Sicherheitsmodule investieren), finden TEEs ein ideales Zuhause. Diese machen vielleicht keine Schlagzeilen in den Krypto-Nachrichten, aber in Sektoren wie Lieferketten, Bankenkonsortien oder Netzwerken zum Austausch von Gesundheitsdaten sind TEEs oft die erste Wahl (als Alternative dazu, einfach einem Dritten zu vertrauen oder komplexe Kryptografie einzusetzen).

  • Layer-1-Lösungen außerhalb von Ethereum: Einige neuere L1-Lösungen haben mit TEEs experimentiert. Das NEAR Protocol hatte ein frühes Konzept eines TEE-basierten Shards für private Contracts (noch nicht implementiert). Celo zog TEEs für Light-Client-Beweise in Betracht (ihre Plumo-Proofs basieren jetzt auf SNARKs, aber man untersuchte SGX, um Chain-Daten für Mobilgeräte zu komprimieren). Concordium, eine regulierte Datenschutz-L1, verwendet ZK für Anonymität, erforscht aber auch TEEs für die Identitätsprüfung. Dfinity/Internet Computer verwendet sichere Enklaven in seinen Node-Maschinen, allerdings für das Bootstrapping von Vertrauen (nicht für die Contract-Ausführung, da deren „Chain Key“-Kryptografie dies übernimmt).

  • Bitcoin: Während Bitcoin selbst keine TEEs verwendet, gab es Nebenprojekte. Zum Beispiel TEE-basierte Custody-Lösungen (wie Vault-Systeme) für Bitcoin-Keys oder bestimmte Vorschläge in DLC (Discrete Log Contracts), Orakel zu verwenden, die durch TEEs gesichert sein könnten. Generell ist die Bitcoin-Community konservativer und würde Intel nicht ohne Weiteres als Teil des Konsenses vertrauen, aber als ergänzende Technologie (Hardware-Wallets mit Secure Elements) ist sie bereits akzeptiert.

  • Regulierungsbehörden und Regierungen: Ein interessanter Aspekt der Einführung: Einige Forschungen zu CBDCs (zentralbankgestützte digitale Währungen) haben TEEs untersucht, um Datenschutz durchzusetzen und gleichzeitig Prüfbarkeit zu ermöglichen. Beispielsweise führte die Banque de France Experimente durch, bei denen ein TEE verwendet wurde, um bestimmte Compliance-Prüfungen für ansonsten private Transaktionen durchzuführen. Dies zeigt, dass selbst Regulierungsbehörden TEEs als einen Weg sehen, Datenschutz mit Aufsicht in Einklang zu bringen – man könnte eine CBDC haben, bei der Transaktionen für die Öffentlichkeit verschlüsselt sind, aber eine Regulierungs-Enklave sie unter bestimmten Bedingungen überprüfen kann (dies ist hypothetisch, wird aber in politischen Kreisen diskutiert).

  • Metriken zur Einführung: Die Einführung lässt sich schwer quantifizieren, aber wir können auf Indikatoren wie die Anzahl der Projekte, investierte Mittel und die Verfügbarkeit von Infrastruktur blicken. In dieser Hinsicht haben wir heute (2025): mindestens 3-4 öffentliche Chains (Secret, Oasis, Sanders, Integritee, Automata als Off-chain), die explizit TEEs nutzen; große Orakel-Netzwerke, die sie integrieren; große Technologieunternehmen, die Confidential Computing unterstützen (Microsoft Azure und Google Cloud bieten TEE-VMs an – und diese Dienste werden von Blockchain-Nodes als Optionen genutzt). Das Confidential Computing Consortium umfasst mittlerweile Mitglieder mit Blockchain-Fokus (Ethereum Foundation, Chainlink, Fortanix etc.), was eine branchenübergreifende Zusammenarbeit zeigt. All dies deutet auf eine wachsende, aber nischige Einführung hin – TEEs sind im Web3 noch nicht allgegenwärtig, aber sie haben sich wichtige Nischen dort erschlossen, wo Datenschutz und sichere Off-chain-Berechnungen erforderlich sind.

Dies hat einen positiven regulatorischen Aspekt: Einige Aufsichtsbehörden haben angedeutet, dass Lösungen wie TEEs (und verwandte Konzepte des Confidential Computing) vorteilhaft sind, da sie die technische Durchsetzung des Datenschutzes gewährleisten. Wir haben gesehen, dass das Weltwirtschaftsforum und andere Organisationen TEEs als Mittel hervorheben, um „Privacy by Design“ in Blockchain-Systeme zu integrieren (im Grunde wird die Compliance direkt auf Protokollebene eingebettet). Aus geschäftlicher Sicht können TEEs somit die institutionelle Akzeptanz beschleunigen, indem sie eines der Haupthindernisse (Datenvertraulichkeit) beseitigen. Unternehmen sind eher bereit, Blockchain zu nutzen oder darauf aufzubauen, wenn sie wissen, dass es eine Hardware-Sicherung für ihre Daten gibt.

Ein weiterer Compliance-Aspekt ist die Auditierbarkeit und Aufsicht. Unternehmen benötigen oft Audit-Protokolle und die Möglichkeit, Prüfern gegenüber nachzuweisen, dass sie die Kontrolle über die Daten haben. TEEs können hier tatsächlich helfen, indem sie Attestierungsberichte und sichere Protokolle darüber erstellen, worauf zugegriffen wurde. Beispielsweise bietet das „durable logging“ von Oasis in einer Enklave ein manipulationssicheres Protokoll sensibler Operationen. Ein Unternehmen kann dieses Protokoll den Regulierungsbehörden vorlegen, um zu beweisen, dass beispielsweise nur autorisierter Code ausgeführt wurde und nur bestimmte Abfragen zu Kundendaten erfolgt sind. Diese Art von attestiertem Auditing könnte Regulierungsbehörden mehr überzeugen als ein traditionelles System, bei dem man den Protokollen von Systemadministratoren vertrauen muss.

Vertrauen und Haftung

Auf der anderen Seite verändert die Einführung von TEEs die Vertrauensstruktur und damit das Haftungsmodell in Blockchain-Lösungen. Wenn eine DeFi-Plattform ein TEE verwendet und aufgrund eines Hardwarefehlers etwas schiefgeht, wer ist dann verantwortlich? Stellen Sie sich ein Szenario vor, in dem ein Intel-SGX-Fehler zum Durchsickern von Details geheimer Swap-Transaktionen führt, wodurch Benutzer Geld verlieren (z. B. durch Front-Running etc.). Die Benutzer haben den Sicherheitsversprechen der Plattform vertraut. Liegt der Fehler bei der Plattform oder bei Intel? Rechtlich gesehen könnten Benutzer gegen die Plattform vorgehen (die wiederum gegen Intel vorgehen müsste). Dies verkompliziert die Angelegenheit, da ein Technologieanbieter eines Drittanbieters (der CPU-Hersteller) tief in das Sicherheitsmodell integriert ist. Unternehmen, die TEEs einsetzen, müssen dies in Verträgen und Risikobewertungen berücksichtigen. Einige könnten Garantien oder Support von Hardwareherstellern verlangen, wenn sie deren TEEs in kritischen Infrastrukturen einsetzen.

Es gibt auch Zentralisierungsbedenken: Wenn die Sicherheit einer Blockchain von der Hardware eines einzelnen Unternehmens (Intel oder AMD) abhängt, könnten Regulierungsbehörden dies skeptisch betrachten. Könnte beispielsweise eine Regierung dieses Unternehmen vorladen oder zwingen, bestimmte Enklaven zu kompromittieren? Dies ist keine rein theoretische Sorge – man denke an Exportkontrollgesetze: Hochwertige Verschlüsselungshardware kann reguliert werden. Wenn ein großer Teil der Krypto-Infrastruktur auf TEEs angewiesen ist, ist es denkbar, dass Regierungen versuchen könnten, Backdoors einzuführen (obwohl es dafür keine Beweise gibt, zählt die Wahrnehmung). Einige Datenschutzbefürworter weisen Regulierungsbehörden darauf hin, dass TEEs das Vertrauen konzentrieren und die Behörden sie daher eher sorgfältig prüfen sollten. Umgekehrt könnten Regulierungsbehörden, die mehr Kontrolle wünschen, TEEs gegenüber mathematikbasiertem Datenschutz wie ZK bevorzugen, da bei TEEs zumindest die Vorstellung besteht, dass Strafverfolgungsbehörden bei absolutem Bedarf mit einer gerichtlichen Anordnung an den Hardwarehersteller herantreten könnten (z. B. um einen Master-Attestierungsschlüssel oder Ähnliches zu erhalten – nicht, dass dies einfach oder wahrscheinlich wäre, aber es ist ein Weg, der bei ZK nicht existiert). Daher kann die regulatorische Aufnahme geteilt sein: Datenschutzbehörden sind pro-TEE für die Compliance, während die Strafverfolgung vorsichtig optimistisch sein könnte, da TEEs nicht in dem Maße „im Dunkeln bleiben“ wie starke Verschlüsselung – es gibt einen theoretischen Hebel (die Hardware), an dem sie versuchen könnten zu ziehen.

Unternehmen müssen dies navigieren, indem sie sich möglicherweise um Zertifizierungen bemühen. Es gibt Sicherheitszertifizierungen wie FIPS 140 oder Common Criteria für Hardwaremodule. Derzeit verfügen SGX und andere über einige Zertifizierungen (zum Beispiel hatte SGX Common Criteria EAL-Zertifizierungen für bestimmte Anwendungen). Wenn eine Blockchain-Plattform darauf verweisen kann, dass die Enklaven-Technologie nach einem hohen Standard zertifiziert ist, fühlen sich Regulierungsbehörden und Partner möglicherweise wohler. Ein CBDC-Projekt könnte beispielsweise verlangen, dass jedes verwendete TEE FIPS-zertifiziert ist, damit sie der Zufallszahlengenerierung usw. vertrauen können. Dies führt zusätzliche Prozesse ein und beschränkt die Auswahl möglicherweise auf bestimmte Hardwareversionen.

Ökosystem- und Kostenüberlegungen

Aus geschäftlicher Sicht könnte der Einsatz von TEEs die Kostenstruktur eines Blockchain-Betriebs beeinflussen. Knoten müssen über spezifische CPUs verfügen (die teurer oder weniger energieeffizient sein können). Dies könnte höhere Cloud-Hosting-Rechnungen oder Investitionsausgaben bedeuten. Wenn ein Projekt beispielsweise Intel Xeon mit SGX für alle Validatoren vorschreibt, ist das eine Einschränkung – Validatoren können nicht einfach jeder mit einem Raspberry Pi oder einem alten Laptop sein; sie benötigen diese spezielle Hardware. Dies kann zentralisieren, wer teilnehmen kann (was möglicherweise diejenigen bevorzugt, die sich High-End-Server leisten können oder Cloud-Anbieter nutzen, die SGX-VMs anbieten). In extremen Fällen könnte dies das Netzwerk dazu drängen, eher zugangsbeschränkt zu sein oder sich auf Cloud-Anbieter zu verlassen, was einen Abwägungsprozess bei der Dezentralisierung und ein geschäftliches Manko darstellt (das Netzwerk müsste möglicherweise Knotenanbieter subventionieren).

Andererseits könnten einige Unternehmen dies akzeptabel finden, weil sie bekannte Validatoren wollen oder eine Zulassungsliste haben (insbesondere in Unternehmenskonsortien). In öffentlichen Kryptonetzwerken hat dies jedoch zu Debatten geführt – z. B. als SGX erforderlich wurde, fragten die Leute: „Bedeutet das, dass nur noch große Rechenzentren Knoten betreiben werden?“ Das ist etwas, das die Stimmung in der Community und damit die Marktakzeptanz beeinflusst. Krypto-Puristen könnten beispielsweise eine Chain meiden, die TEEs erfordert, und sie als „weniger vertrauenswürdig“ oder zu zentralisiert bezeichnen. Daher müssen Projekte PR und Community-Aufklärung betreiben und klarmachen, wie die Vertrauensannahmen aussehen und warum es dennoch sicher ist. Wir haben gesehen, wie das Secret Network FUD adressiert hat, indem es die strenge Überwachung von Intel-Updates erklärte und darauf hinwies, dass Validatoren geslasht werden, wenn sie ihre Enklaven nicht aktualisieren usw. – im Grunde wurde eine soziale Vertrauensebene über das Hardware-Vertrauen gelegt.

Ein weiterer Aspekt sind Partnerschaften und Support. Das geschäftliche Ökosystem rund um TEEs umfasst große Tech-Unternehmen (Intel, AMD, ARM, Microsoft, Google usw.). Blockchain-Projekte, die TEEs nutzen, gehen oft Partnerschaften mit diesen ein (z. B. iExec mit Intel, das Secret Network mit Intel an Verbesserungen der Attestierung, Oasis mit Microsoft an vertraulicher KI usw.). Diese Partnerschaften können Finanzierung, technische Unterstützung und Glaubwürdigkeit bieten. Es ist ein strategischer Punkt: Die Ausrichtung auf die Confidential-Computing-Branche kann Türen öffnen (für Finanzierungen oder Unternehmenspiloten), bedeutet aber auch, dass sich ein Krypto-Projekt mit großen Konzernen abstimmt, was ideologische Auswirkungen in der Community hat.

Regulatorische Unsicherheiten

Mit dem Wachstum von Blockchain-Anwendungen, die TEEs nutzen, könnten neue regulatorische Fragen auftauchen. Zum Beispiel:

  • Datenjurisdiktion: Wenn Daten innerhalb eines TEE in einem bestimmten Land verarbeitet werden, gelten sie dann als „in diesem Land verarbeitet“ oder als nirgendwo (da sie verschlüsselt sind)? Einige Datenschutzgesetze verlangen, dass die Daten von Bürgern bestimmte Regionen nicht verlassen. TEEs könnten die Grenzen verwischen – man könnte eine Enklave in einer Cloud-Region haben, aber nur verschlüsselte Daten gehen hinein/hinaus. Regulierungsbehörden müssen möglicherweise klären, wie sie eine solche Verarbeitung betrachten.
  • Exportkontrollen: Fortgeschrittene Verschlüsselungstechnologie kann Exportbeschränkungen unterliegen. TEEs beinhalten die Verschlüsselung von Arbeitsspeicher – historisch gesehen war dies kein Problem (da CPUs mit diesen Funktionen weltweit verkauft werden), aber falls sich das jemals ändern sollte, könnte dies die Lieferkette beeinträchtigen. Zudem könnten einige Länder die Nutzung ausländischer TEEs aus Gründen der nationalen Sicherheit verbieten oder davon abraten (z. B. hat China ein eigenes Äquivalent zu SGX, da sie Intel nicht vertrauen, und könnten SGX für sensible Anwendungen nicht zulassen).
  • Rechtlicher Zwang: Ein Szenario: Könnte eine Regierung einen Knotenbetreiber per Vorladung zwingen, Daten aus einer Enklave zu extrahieren? Normalerweise können sie das nicht, da selbst der Betreiber nicht hineinsehen kann. Aber was, wenn sie Intel für einen bestimmten Attestierungsschlüssel vorladen? Das Design von Intel ist so ausgelegt, dass selbst sie den Speicher der Enklave nicht entschlüsseln können (sie geben Schlüssel an die CPU aus, die die Arbeit erledigt). Aber wenn eine Hintertür existierte oder eine spezielle Firmware von Intel signiert werden könnte, um den Speicher auszulesen, wäre das ein hypothetisches Szenario, das die Menschen beunruhigt. Rechtlich gesehen könnte ein Unternehmen wie Intel sich weigern, wenn es aufgefordert würde, seine Sicherheit zu untergraben (sie würden es wahrscheinlich tun, um das Vertrauen in ihr Produkt nicht zu zerstören). Allein die Möglichkeit könnte jedoch in regulatorischen Diskussionen über den rechtmäßigen Zugriff auftauchen. Unternehmen, die TEEs einsetzen, sollten über solche Entwicklungen auf dem Laufenden bleiben, obwohl derzeit kein öffentlicher Mechanismus für Intel/AMD existiert, um Enklavendaten zu extrahieren – genau das ist ja der Punkt von TEEs.

Marktdifferenzierung und neue Dienste

Positiv für das Geschäft ist, dass TEEs neue Produkte und Dienstleistungen ermöglichen, die monetarisiert werden können. Zum Beispiel:

  • Marktplätze für vertrauliche Daten: Wie iExec, das Ocean Protocol und andere festgestellt haben, besitzen Unternehmen wertvolle Daten, die sie monetarisieren könnten, wenn sie Garantien hätten, dass diese nicht durchsickern. TEEs ermöglichen das „Mieten von Daten“, wobei die Daten die Enklave nie verlassen, sondern nur die daraus gewonnenen Erkenntnisse. Dies könnte neue Einnahmequellen und Geschäftsmodelle erschließen. Wir sehen Start-ups im Web3-Bereich, die Unternehmen Dienstleistungen für vertrauliches Rechnen anbieten und im Grunde die Idee verkaufen: „Erhalten Sie Erkenntnisse aus der Blockchain oder unternehmensübergreifenden Daten, ohne etwas preiszugeben.“
  • Enterprise DeFi: Finanzinstitute nennen oft den Mangel an Privatsphäre als Grund, sich nicht an DeFi oder öffentlichen Blockchains zu beteiligen. Wenn TEEs die Vertraulichkeit für ihre Positionen oder Trades garantieren können, könnten sie teilnehmen und so mehr Liquidität und Geschäft in das Ökosystem bringen. Projekte, die darauf abzielen (wie die geheimen Kredite von Secret oder das private AMM von Oasis mit Compliance-Kontrollen), positionieren sich, um institutionelle Nutzer anzuziehen. Wenn dies gelingt, kann dies ein bedeutender Markt sein (man stelle sich institutionelle AMM-Pools vor, in denen Identitäten und Beträge abgeschirmt sind, aber eine Enklave sicherstellt, dass Compliance-Prüfungen wie AML intern durchgeführt werden – das ist ein Produkt, das unter regulatorischer Sicherheit viel Geld in DeFi bringen könnte).
  • Versicherung und Risikomanagement: Da TEEs bestimmte Risiken verringern (wie die Manipulation von Orakeln), könnten wir niedrigere Versicherungsprämien oder neue Versicherungsprodukte für Smart-Contract-Plattformen sehen. Umgekehrt führen TEEs neue Risiken ein (wie das technische Versagen von Enklaven), die selbst versicherbare Ereignisse sein könnten. Es gibt einen entstehenden Bereich der Krypto-Versicherung; es wird interessant sein zu sehen, wie sie mit TEE-abhängigen Systemen umgehen. Eine Plattform könnte damit werben, dass sie TEEs einsetzt, um das Risiko von Datenschutzverletzungen zu senken, was sie einfacher oder billiger versicherbar macht und ihr einen Wettbewerbsvorteil verschafft.

Zusammenfassend lässt sich sagen, dass es in der geschäftlichen und regulatorischen Landschaft von TEE-gestütztem Web3 darum geht, Vertrauen und Innovation in Einklang zu bringen. TEEs bieten einen Weg, Gesetze einzuhalten und Anwendungsfälle für Unternehmen zu erschließen (ein großes Plus für die Akzeptanz im Mainstream), bringen aber auch eine Abhängigkeit von Hardwareanbietern und Komplexitäten mit sich, die transparent verwaltet werden müssen. Stakeholder müssen sowohl mit Tech-Giganten (für den Support) als auch mit Regulierungsbehörden (für Klarheit und Sicherheit) zusammenarbeiten, um das Potenzial von TEEs in der Blockchain-Technologie voll auszuschöpfen. Wenn dies gut umgesetzt wird, könnten TEEs ein Eckpfeiler sein, der es der Blockchain ermöglicht, sich tief in Branchen zu integrieren, die mit sensiblen Daten arbeiten, und so die Reichweite von Web3 in Bereiche auszudehnen, die zuvor aufgrund von Datenschutzbedenken tabu waren.

Fazit

Trusted Execution Environments haben sich als eine leistungsstarke Komponente im Web3-Instrumentarium herauskristallisiert und ermöglichen eine neue Klasse von dezentralen Anwendungen, die Vertraulichkeit und sichere Off-Chain-Berechnungen erfordern. Wir haben gesehen, dass TEEs wie Intel SGX, ARM TrustZone und AMD SEV eine hardware-isolierte „Safe Box“ für Berechnungen bieten, und diese Eigenschaft wurde für datenschutzfreundliche Smart Contracts, verifizierbare Oracles, skalierbare Off-Chain-Verarbeitung und mehr genutzt. Projekte über verschiedene Ökosysteme hinweg – von den privaten Kontrakten von Secret Network auf Cosmos über die vertraulichen ParaTimes von Oasis bis hin zur TEE-Cloud von Sanders auf Polkadot und dem Off-Chain-Marktplatz von iExec auf Ethereum – demonstrieren die vielfältigen Möglichkeiten, wie TEEs in Blockchain-Plattformen integriert werden.

Technisch gesehen bieten TEEs überzeugende Vorteile in Bezug auf Geschwindigkeit und starke Datenvertraulichkeit, bringen jedoch auch eigene Herausforderungen mit sich: die Notwendigkeit, Hardware-Anbietern zu vertrauen, potenzielle Seitenkanal-Schwachstellen sowie Hürden bei der Integration und Komponierbarkeit. Wir haben TEEs mit kryptografischen Alternativen (ZKPs, FHE, MPC) verglichen und festgestellt, dass jede ihre Nische hat: TEEs glänzen durch Leistung und Benutzerfreundlichkeit, während ZK und FHE maximale Vertrauenslosigkeit bei hohen Kosten bieten und MPC das Vertrauen unter den Teilnehmern verteilt. Tatsächlich sind viele wegweisende Lösungen hybrid und nutzen TEEs zusammen mit kryptografischen Methoden, um das Beste aus beiden Welten zu erhalten.

Die Akzeptanz von TEE-basierten Lösungen wächst stetig. Ethereum dApps nutzen TEEs für die Oracle-Sicherheit und private Berechnungen, Cosmos und Polkadot bieten native Unterstützung über spezialisierte Chains, und Bemühungen im Bereich der Enterprise-Blockchains setzen auf TEEs zur Einhaltung von Compliance-Vorgaben. Geschäftlich gesehen können TEEs eine Brücke zwischen dezentraler Technologie und Regulierung schlagen – sie ermöglichen den Umgang mit sensiblen Daten On-Chain unter den Schutzmaßnahmen von Hardware-Sicherheit, was die Tür für institutionelle Nutzung und neue Dienste öffnet. Gleichzeitig bedeutet die Nutzung von TEEs, sich auf neue Vertrauensparadigmen einzulassen und sicherzustellen, dass das Dezentralisierungs-Ethos der Blockchain nicht durch undurchsichtiges Silizium untergraben wird.

Zusammenfassend lässt sich sagen, dass Trusted Execution Environments eine entscheidende Rolle in der Evolution von Web3 spielen: Sie adressieren einige der dringlichsten Bedenken hinsichtlich Datenschutz und Skalierbarkeit, und obwohl sie kein Allheilmittel sind (und nicht ohne Kontroversen bleiben), erweitern sie die Möglichkeiten dezentraler Anwendungen erheblich. Da die Technologie reift – mit Verbesserungen in der Hardware-Sicherheit und Standards für die Attestierung – und da immer mehr Projekte ihren Wert unter Beweis stellen, können wir erwarten, dass TEEs (zusammen mit ergänzenden kryptografischen Technologien) zu einer Standardkomponente von Blockchain-Architekturen werden, die darauf abzielen, das volle Potenzial von Web3 auf sichere und vertrauenswürdige Weise zu erschließen. Die Zukunft hält wahrscheinlich schichtbasierte Lösungen bereit, bei denen Hardware und Kryptografie Hand in Hand arbeiten, um Systeme zu liefern, die sowohl performant als auch nachweislich sicher sind und gleichermaßen den Anforderungen von Nutzern, Entwicklern und Regulierungsbehörden gerecht werden.

Quellen: Die Informationen in diesem Bericht wurden aus einer Vielzahl aktueller Quellen zusammengetragen, darunter offizielle Projektdokumentationen und Blogs, Branchenanalysen und akademische Forschung, wie im gesamten Text zitiert. Zu den bemerkenswerten Referenzen gehören der Metaschool 2025 Leitfaden zu TEEs in Web3, Vergleiche von Sanders Network, technische Einblicke von ChainCatcher und anderen zu FHE / TEE / ZKP / MPC sowie Erklärungen zur regulatorischen Compliance von Binance Research und viele andere. Diese Quellen bieten weitere Details und werden Lesern empfohlen, die bestimmte Aspekte vertiefen möchten.

Sonys Soneium: Blockchain für die Unterhaltungswelt

· 6 Min. Lesezeit

In der sich schnell entwickelnden Landschaft der Blockchain-Technologie hat ein bekannter Name mit einer kühnen Vision die Bühne betreten. Sony, der Unterhaltungs- und Technologieriese, hat Soneium ins Leben gerufen – eine Ethereum Layer-2-Blockchain, die darauf ausgelegt ist, die Lücke zwischen modernsten Web3-Innovationen und Mainstream-Internetdiensten zu schließen. Aber was genau ist Soneium, und warum sollte es Sie interessieren? Tauchen wir ein.

Was ist Soneium?

Soneium ist eine Layer-2-Blockchain, die auf Ethereum aufbaut und von Sony Block Solutions Labs entwickelt wurde – einem Joint Venture zwischen der Sony Group und Startale Labs. Nach einer erfolgreichen Testnet-Phase im Januar 2025 gestartet, zielt Soneium darauf ab, „das offene Internet, das Grenzen überschreitet, zu verwirklichen“, indem es die Blockchain-Technologie zugänglich, skalierbar und praktisch für den täglichen Gebrauch macht.

Man kann es als Sonys Versuch sehen, Blockchain so benutzerfreundlich zu gestalten, wie es PlayStations und Walkmans einst für Gaming und Musik taten.

Die Technologie hinter Soneium

Für die Technikbegeisterten unter uns: Soneium basiert auf dem OP Stack von Optimism, was bedeutet, dass es dasselbe Optimistic-Rollup-Framework wie andere beliebte Layer-2-Lösungen verwendet. Einfach ausgedrückt? Es verarbeitet Transaktionen Off-Chain und sendet nur periodisch komprimierte Daten zurück an Ethereum, wodurch Transaktionen schneller und günstiger werden, während die Sicherheit erhalten bleibt.

Soneium ist vollständig kompatibel mit der Ethereum Virtual Machine (EVM), sodass Entwickler, die mit Ethereum vertraut sind, ihre Anwendungen problemlos auf der Plattform bereitstellen können. Es tritt auch dem „Superchain“-Ökosystem von Optimism bei, was eine einfache Kommunikation mit anderen Layer-2-Netzwerken wie Base von Coinbase ermöglicht.

Was macht Soneium besonders?

Obwohl es bereits mehrere Layer-2-Lösungen auf dem Markt gibt, zeichnet sich Soneium durch seinen Fokus auf Unterhaltung, kreative Inhalte und Fan-Engagement aus – Bereiche, in denen Sony jahrzehntelange Erfahrung und enorme Ressourcen besitzt.

Stellen Sie sich vor, Sie kaufen ein Kinoticket und erhalten ein exklusives digitales Sammlerstück, das Zugang zu Bonusinhalten gewährt. Oder Sie besuchen ein virtuelles Konzert, bei dem Ihr NFT-Ticket zu einem Erinnerungsstück mit besonderen Vorteilen wird. Dies sind die Arten von Erlebnissen, die Sony auf Soneium aufbauen möchte.

Die Plattform ist darauf ausgelegt, Folgendes zu unterstützen:

  • Gaming-Erlebnisse mit schnelleren Transaktionen für In-Game-Assets
  • NFT-Marktplätze für digitale Sammlerstücke
  • Fan-Engagement-Apps, in denen Communities mit Kreativen interagieren können
  • Finanztools für Kreative und Fans
  • Blockchain-Lösungen für Unternehmen

Sonys Partnerschaften stärken Soneium

Sony geht nicht allein vor. Das Unternehmen hat strategische Partnerschaften geschmiedet, um die Entwicklung und Akzeptanz von Soneium zu fördern:

  • Startale Labs, ein in Singapur ansässiges Blockchain-Startup unter der Leitung von Sota Watanabe (Mitbegründer des Astar Network), ist Sonys wichtigster technischer Partner
  • Die Optimism Foundation stellt die zugrunde liegende Technologie bereit
  • Circle stellt sicher, dass USD Coin (USDC) als primäre Währung im Netzwerk dient
  • Samsung hat über seinen Venture-Arm eine strategische Investition getätigt
  • Alchemy, Chainlink, Pyth Network und The Graph bieten wesentliche Infrastrukturdienste

Sony nutzt auch seine internen Abteilungen – darunter Sony Pictures, Sony Music Entertainment und Sony Music Publishing –, um Web3-Fan-Engagement-Projekte auf Soneium zu pilotieren. Zum Beispiel hat die Plattform bereits NFT-Kampagnen für das „Ghost in the Shell“-Franchise und verschiedene Musikkünstler unter Sonys Label veranstaltet.

Frühe Erfolgszeichen

Obwohl erst wenige Monate alt, hat Soneium vielversprechende Fortschritte gezeigt:

  • In seiner Testnet-Phase wurden über 15 Millionen aktive Wallets und über 47 Millionen Transaktionen verzeichnet
  • Innerhalb des ersten Monats nach dem Mainnet-Start zog Soneium über 248.000 On-Chain-Konten und etwa 1,8 Millionen Adressen an, die mit dem Netzwerk interagierten
  • Die Plattform hat erfolgreich mehrere NFT-Drops gestartet, darunter eine Zusammenarbeit mit dem Web3-Musiklabel Coop Records

Um das Wachstum anzukurbeln, starteten Sony und Astar Network eine 100-Tage-Incentive-Kampagne mit einem Belohnungspool von 100 Millionen Token, um Nutzer zu ermutigen, Apps auszuprobieren, Liquidität bereitzustellen und auf der Plattform aktiv zu sein.

Sicherheit und Skalierbarkeit: Ein Balanceakt

Sicherheit ist für Sony von größter Bedeutung, insbesondere da das Unternehmen seine vertrauenswürdige Marke in den Blockchain-Bereich trägt. Soneium erbt die Sicherheit von Ethereum und fügt eigene Schutzmaßnahmen hinzu.

Interessanterweise hat Sony einen etwas kontroversen Ansatz gewählt, indem es bestimmte Smart Contracts und Token, die als Verletzung des geistigen Eigentums gelten, auf eine schwarze Liste gesetzt hat. Obwohl dies Fragen zur Dezentralisierung aufgeworfen hat, argumentiert Sony, dass eine gewisse Kuratierung notwendig ist, um Kreative zu schützen und Vertrauen bei Mainstream-Nutzern aufzubauen.

Im Hinblick auf die Skalierbarkeit ist es der eigentliche Zweck von Soneium, den Durchsatz von Ethereum zu verbessern. Durch die Off-Chain-Verarbeitung von Transaktionen kann es ein viel höheres Transaktionsvolumen zu wesentlich geringeren Kosten bewältigen – entscheidend für die Massenadoption von Anwendungen wie Spielen oder großen NFT-Drops.

Der Weg nach vorn

Sony hat eine mehrphasige Roadmap für Soneium skizziert:

  1. Erstes Jahr: Onboarding von Web3-Enthusiasten und Early Adopters
  2. Innerhalb von zwei Jahren: Integration von Sony-Produkten wie Sony Bank, Sony Music und Sony Pictures
  3. Innerhalb von drei Jahren: Expansion auf Unternehmen und allgemeine Anwendungen jenseits des Sony-Ökosystems

Das Unternehmen führt schrittweise seine NFT-gesteuerte Fan-Marketing-Plattform ein, die es Marken und Künstlern ermöglichen wird, problemlos NFTs an Fans auszugeben und Vorteile wie exklusive Inhalte und Event-Zugang anzubieten.

Während Soneium derzeit ETH für Gasgebühren verwendet und ASTR (den Token des Astar Network) für Anreize nutzt, gibt es Spekulationen über einen potenziellen nativen Soneium-Token in der Zukunft.

Wie Soneium im Vergleich zu anderen Layer-2-Netzwerken abschneidet

Im überfüllten Layer-2-Markt steht Soneium im Wettbewerb mit etablierten Akteuren wie Arbitrum, Optimism und Polygon. Sony erarbeitet sich jedoch eine einzigartige Position, indem es sein Unterhaltungsimperium nutzt und sich auf kreative Anwendungsfälle konzentriert.

Im Gegensatz zu rein gemeinschaftsgetriebenen Layer-2-Netzwerken profitiert Soneium von Sonys Markenvertrauen, dem Zugang zu Content-IP und einer potenziell riesigen Nutzerbasis aus bestehenden Sony-Diensten.

Der Kompromiss ist eine geringere Dezentralisierung (zumindest anfänglich) im Vergleich zu Netzwerken wie Optimism und Arbitrum, die Token ausgegeben und eine Community-Governance implementiert haben.

Das Gesamtbild

Sonys Soneium stellt einen bedeutenden Schritt in Richtung Massenadoption von Blockchain dar. Indem sich das Unternehmen auf Inhalte und Fan-Engagement konzentriert – Bereiche, in denen Sony herausragt –, positioniert es Soneium als Brücke zwischen Web3-Enthusiasten und alltäglichen Verbrauchern.

Wenn Sony auch nur einen Bruchteil seiner Millionen von Kunden erfolgreich in Web3-Teilnehmer umwandeln kann, könnte Soneium zu einer der ersten wirklich Mainstream-Blockchain-Plattformen werden.

Das Experiment hat gerade erst begonnen, aber das Potenzial ist enorm. Während die Grenzen zwischen Unterhaltung, Technologie und Blockchain weiter verschwimmen, könnte Soneium an der Spitze dieser Konvergenz stehen und die Blockchain-Technologie den Massen zugänglich machen, einen Gaming-Avatar oder Musik-NFT nach dem anderen.

Blockchain-Skalierung: Wie Caldera und die RaaS-Revolution die Zukunft von Web3 gestalten

· 8 Min. Lesezeit

Das Web3-Skalierungsproblem

Die Blockchain-Branche steht vor einer anhaltenden Herausforderung: Wie können wir skalieren, um Millionen von Nutzern zu unterstützen, ohne Sicherheit oder Dezentralisierung zu opfern?

Ethereum, die führende Smart-Contract-Plattform, verarbeitet auf ihrer Basisschicht etwa 15 Transaktionen pro Sekunde. In Zeiten hoher Nachfrage hat diese Einschränkung zu exorbitanten Gasgebühren geführt – manchmal über 100 US-Dollar pro Transaktion während NFT-Mints oder DeFi-Farming-Rauschphasen.

Dieser Skalierungsengpass stellt eine existenzielle Bedrohung für die Web3-Adoption dar. Nutzer, die an die sofortige Reaktionsfähigkeit von Web2-Anwendungen gewöhnt sind, werden es nicht tolerieren, 50 US-Dollar zu zahlen und 3 Minuten zu warten, nur um Token zu tauschen oder ein NFT zu minten.

Hier kommt die Lösung ins Spiel, die die Blockchain-Architektur schnell umgestaltet: Rollups-as-a-Service (RaaS).

Blockchain-Skalierung

Rollups-as-a-Service (RaaS) verstehen

RaaS-Plattformen ermöglichen es Entwicklern, ihre eigenen benutzerdefinierten Blockchain-Rollups bereitzustellen, ohne die Komplexität, alles von Grund auf neu aufbauen zu müssen. Diese Dienste verwandeln das, was normalerweise ein spezialisiertes Ingenieurteam und monatelange Entwicklung erfordern würde, in einen optimierten, manchmal sogar Ein-Klick-Bereitstellungsprozess.

Warum ist das wichtig? Weil Rollups der Schlüssel zur Blockchain-Skalierung sind.

Rollups funktionieren, indem sie:

  • Transaktionen außerhalb der Hauptkette (Layer 1) verarbeiten
  • Diese Transaktionen bündeln
  • Komprimierte Nachweise dieser Transaktionen an die Hauptkette zurücksenden

Das Ergebnis? Drastisch erhöhter Durchsatz und erheblich reduzierte Kosten, während die Sicherheit von der zugrunde liegenden Layer-1-Blockchain (wie Ethereum) geerbt wird.

„Rollups konkurrieren nicht mit Ethereum – sie erweitern es. Sie sind wie spezialisierte Expressspuren, die auf Ethereums Autobahn gebaut wurden.“

Dieser Skalierungsansatz ist so vielversprechend, dass Ethereum im Jahr 2020 offiziell eine „Rollup-zentrierte Roadmap“ verabschiedete und damit anerkannte, dass die Zukunft nicht eine einzige monolithische Kette ist, sondern ein Ökosystem aus miteinander verbundenen, zweckgebundenen Rollups.

Caldera: An der Spitze der RaaS-Revolution

Unter den aufstrebenden RaaS-Anbietern sticht Caldera als Vorreiter hervor. Im Jahr 2023 gegründet und mit 25 Millionen US-Dollar von prominenten Investoren wie Dragonfly, Sequoia Capital und Lattice ausgestattet, hat sich Caldera schnell als führender Infrastrukturanbieter im Rollup-Bereich etabliert.

Was macht Caldera anders?

Caldera zeichnet sich in mehreren wichtigen Punkten aus:

  1. Multi-Framework-Unterstützung: Im Gegensatz zu Wettbewerbern, die sich auf ein einziges Rollup-Framework konzentrieren, unterstützt Caldera wichtige Frameworks wie Optimisms OP Stack und Arbitrums Orbit/Nitro-Technologie, was Entwicklern Flexibilität in ihrem technischen Ansatz bietet.

  2. End-to-End-Infrastruktur: Wenn Sie mit Caldera bereitstellen, erhalten Sie eine komplette Suite von Komponenten: zuverlässige RPC-Knoten, Block-Explorer, Indexierungsdienste und Bridge-Schnittstellen.

  3. Reichhaltiges Integrations-Ökosystem: Caldera ist vorintegriert mit über 40 Web3-Tools und -Diensten, darunter Oracles, Faucets, Wallets und Cross-Chain-Bridges (LayerZero, Axelar, Wormhole, Connext und weitere).

  4. Das Metalayer-Netzwerk: Die vielleicht ambitionierteste Innovation von Caldera ist sein Metalayer – ein Netzwerk, das alle von Caldera betriebenen Rollups zu einem einheitlichen Ökosystem verbindet und es ihnen ermöglicht, Liquidität und Nachrichten nahtlos auszutauschen.

  5. Multi-VM-Unterstützung: Ende 2024 wurde Caldera der erste RaaS-Anbieter, der die Solana Virtual Machine (SVM) auf Ethereum unterstützte, wodurch Solana-ähnliche Hochleistungsketten ermöglicht werden, die weiterhin auf Ethereums sichere Basisschicht abgewickelt werden.

Calderas Ansatz schafft das, was sie eine „Alles-Schicht“ für Rollups nennen – ein kohärentes Netzwerk, in dem verschiedene Rollups interoperieren können, anstatt als isolierte Inseln zu existieren.

Praktische Anwendung: Wer nutzt Caldera?

Caldera hat erheblich an Bedeutung gewonnen, mit über 75 Rollups, die Ende 2024 in Produktion waren. Einige bemerkenswerte Projekte sind:

  • Manta Pacific: Ein hoch skalierbares Netzwerk für die Bereitstellung von Zero-Knowledge-Anwendungen, das Calderas OP Stack in Kombination mit Celestia für die Datenverfügbarkeit nutzt.

  • RARI Chain: Raribles NFT-fokussiertes Rollup, das Transaktionen in weniger als einer Sekunde verarbeitet und NFT-Lizenzgebühren auf Protokollebene durchsetzt.

  • Kinto: Eine regulierungskonforme DeFi-Plattform mit On-Chain-KYC/AML- und Account-Abstraction-Funktionen.

  • Injectives inEVM: Ein EVM-kompatibles Rollup, das die Interoperabilität von Injective erweitert und das Cosmos-Ökosystem mit Ethereum-basierten dApps verbindet.

Diese Projekte verdeutlichen, wie anwendungsspezifische Rollups Anpassungen ermöglichen, die auf allgemeinen Layer 1s nicht möglich sind. Bis Ende 2024 hatten Calderas kollektive Rollups Berichten zufolge über 300 Millionen Transaktionen für mehr als 6 Millionen einzigartige Wallets verarbeitet, mit einem Gesamt gesperrten Wert (TVL) von fast 1 Milliarde US-Dollar.

RaaS im Vergleich: Caldera vs. Wettbewerber

Die RaaS-Landschaft wird zunehmend wettbewerbsintensiver, mit mehreren bemerkenswerten Akteuren:

Conduit

  • Konzentriert sich ausschließlich auf die Ökosysteme von Optimism und Arbitrum
  • Betont ein vollständig selbstbedienbares No-Code-Erlebnis
  • Betreibt etwa 20 % der Ethereum-Mainnet-Rollups, einschließlich Zora

AltLayer

  • Bietet „Flashlayers“ – temporäre, On-Demand-Rollups für kurzfristige Anforderungen
  • Konzentriert sich auf elastische Skalierung für bestimmte Ereignisse oder Hochverkehrszeiten
  • Zeigte beeindruckenden Durchsatz während Gaming-Events (über 180.000 tägliche Transaktionen)

Sovereign Labs

  • Entwickelt ein Rollup SDK, das sich auf Zero-Knowledge-Technologien konzentriert
  • Zielt darauf ab, ZK-Rollups auf jeder Basis-Blockchain zu ermöglichen, nicht nur auf Ethereum
  • Noch in Entwicklung, positioniert sich für die nächste Welle der Multi-Chain-ZK-Bereitstellung

Während diese Wettbewerber in spezifischen Nischen glänzen, hat Calderas umfassender Ansatz – die Kombination eines einheitlichen Rollup-Netzwerks, Multi-VM-Unterstützung und ein Fokus auf die Entwicklererfahrung – dazu beigetragen, es als Marktführer zu etablieren.

Die Zukunft von RaaS und Blockchain-Skalierung

RaaS ist bereit, die Blockchain-Landschaft auf tiefgreifende Weise neu zu gestalten:

1. Die Verbreitung anwendungsspezifischer Ketten

Branchenstudien deuten darauf hin, dass wir uns auf eine Zukunft mit potenziell Millionen von Rollups zubewegen, die jeweils spezifische Anwendungen oder Gemeinschaften bedienen. Da RaaS die Bereitstellungshürden senkt, könnte jede bedeutende dApp ihre eigene optimierte Kette haben.

2. Interoperabilität als kritische Herausforderung

Mit der Zunahme von Rollups wird die Fähigkeit, zwischen ihnen zu kommunizieren und Werte auszutauschen, entscheidend. Calderas Metalayer stellt einen frühen Versuch dar, diese Herausforderung zu lösen – indem es eine einheitliche Erfahrung über ein Netzwerk von Rollups hinweg schafft.

3. Von isolierten Ketten zu vernetzten Ökosystemen

Das Endziel ist ein nahtloses Multi-Chain-Erlebnis, bei dem Nutzer kaum wissen müssen, auf welcher Kette sie sich befinden. Werte und Daten würden frei durch ein miteinander verbundenes Netz spezialisierter Rollups fließen, die alle durch robuste Layer-1-Netzwerke gesichert sind.

4. Cloud-ähnliche Blockchain-Infrastruktur

RaaS verwandelt die Blockchain-Infrastruktur effektiv in einen Cloud-ähnlichen Dienst. Calderas „Rollup Engine“ ermöglicht dynamische Upgrades und modulare Komponenten, wodurch Rollups wie konfigurierbare Cloud-Dienste behandelt werden, die bei Bedarf skaliert werden können.

Was das für Entwickler und BlockEden.xyz bedeutet

Bei BlockEden.xyz sehen wir enormes Potenzial in der RaaS-Revolution. Als Infrastrukturanbieter, der Entwickler sicher mit Blockchain-Knoten verbindet, sind wir prädestiniert, eine entscheidende Rolle in dieser sich entwickelnden Landschaft zu spielen.

Die Verbreitung von Rollups bedeutet, dass Entwickler mehr denn je eine zuverlässige Knoten-Infrastruktur benötigen. Eine Zukunft mit Tausenden von anwendungsspezifischen Ketten erfordert robuste RPC-Dienste mit hoher Verfügbarkeit – genau das, worauf BlockEden.xyz spezialisiert ist.

Wir sind besonders begeistert von den Möglichkeiten in:

  1. Spezialisierte RPC-Dienste für Rollups: Da Rollups einzigartige Funktionen und Optimierungen übernehmen, wird spezialisierte Infrastruktur entscheidend.

  2. Cross-Chain-Datenindexierung: Da Werte zwischen mehreren Rollups fließen, benötigen Entwickler Tools, um Cross-Chain-Aktivitäten zu verfolgen und zu analysieren.

  3. Erweiterte Entwickler-Tools: Mit der Vereinfachung der Rollup-Bereitstellung wächst der Bedarf an ausgeklügelten Überwachungs-, Debugging- und Analysetools.

  4. Vereinheitlichter API-Zugang: Entwickler, die über mehrere Rollups hinweg arbeiten, benötigen einen vereinfachten, einheitlichen Zugang zu verschiedenen Blockchain-Netzwerken.

Fazit: Die modulare Blockchain-Zukunft

Der Aufstieg von Rollups-as-a-Service stellt einen grundlegenden Wandel in unserer Denkweise über Blockchain-Skalierung dar. Anstatt alle Anwendungen auf eine einzige Kette zu zwingen, bewegen wir uns auf eine modulare Zukunft mit spezialisierten Ketten für spezifische Anwendungsfälle zu, die alle miteinander verbunden und durch robuste Layer-1-Netzwerke gesichert sind.

Calderas Ansatz – die Schaffung eines einheitlichen Netzwerks von Rollups mit geteilter Liquidität und nahtloser Nachrichtenübermittlung – bietet einen Einblick in diese Zukunft. Indem RaaS-Anbieter die Rollup-Bereitstellung so einfach wie das Starten eines Cloud-Servers gestalten, demokratisieren sie den Zugang zur Blockchain-Infrastruktur.

Bei BlockEden.xyz engagieren wir uns dafür, diese Entwicklung zu unterstützen, indem wir die zuverlässige Knoten-Infrastruktur und Entwickler-Tools bereitstellen, die für den Aufbau in dieser Multi-Chain-Zukunft benötigt werden. Wie wir oft sagen, ist die Zukunft von Web3 keine einzelne Kette – es sind Tausende von spezialisierten Ketten, die zusammenarbeiten.


Möchten Sie auf einem Rollup aufbauen oder benötigen Sie eine zuverlässige Knoten-Infrastruktur für Ihr Blockchain-Projekt? Kontakt-E-Mail: info@BlockEden.xyz, um zu erfahren, wie wir Ihre Entwicklung mit unserer 99,9 % Verfügbarkeitsgarantie und spezialisierten RPC-Diensten über 27+ Blockchains hinweg unterstützen können.