Zum Hauptinhalt springen

44 Posts getaggt mit "Web3"

Alle Tags anzeigen

Balajis Vision für Kryptoidentität: Von Schlüsseln zu Netzwerkstaaten

· 10 Minuten Lesezeit
Dora Noda
Software Engineer

1) Was Balaji mit „Kryptoidentität“ meint

In Balajis Vokabular ist Kryptoidentität eine Identität, die in der Kryptographie – insbesondere Public-Private-Schlüsselpaaren – verwurzelt ist und dann mit On-Chain-Namen, verifizierbaren Anmeldeinformationen/Bestätigungen und Schnittstellen zu traditionellen („Fiat“-) Identitäten erweitert wird. In seinen Worten und seiner Arbeit:

  • Schlüssel als Identität. Das Fundament ist die Idee, dass in Bitcoin und Web3 Ihr Schlüsselpaar Ihre Identität ist; Authentifizierung und Autorisierung ergeben sich aus der Kontrolle privater Schlüssel und nicht aus Konten in einer Unternehmensdatenbank. (balajis.com)
  • Namen und Reputation On-Chain. Namenssysteme wie ENS/SNS verankern menschenlesbare Identitäten an Adressen; Anmeldeinformationen (NFTs, „Soulbound“-Token, On-Chain-„Kryptoreferenzen“) und Bestätigungen schichten Reputation und Historie auf diese Identitäten.
  • On-Chain, prüfbarer „Zensus“. Für Gesellschaften und Netzwerkstaaten nimmt die Identität an einem kryptographisch prüfbaren Zensus (Nachweis der Menschlichkeit/einzigartigen Person, Einkommensnachweis, Immobiliennachweis) teil, um die reale Bevölkerung und wirtschaftliche Aktivität zu demonstrieren.
  • Überbrückung von traditioneller ID ↔ Krypto-ID. Er argumentiert explizit, dass wir eine „Fiat-Identität ↔ Krypto-Identität-Börse“ benötigen – ähnlich den Fiat↔Krypto-Börsen –, damit „digitale Pässe der digitalen Währung folgen“. Er hebt „Krypto-Pässe“ als die nächste Schnittstelle nach Stablecoins hervor. (Circle)
  • Identität für ein „Web3 des Vertrauens“ im KI-Zeitalter. Um Deepfakes und Bots entgegenzuwirken, fördert er Inhalte, die von On-Chain-Identitäten signiert sind (z. B. ENS), sodass Provenienz und Urheberschaft kryptographisch über das offene Web verifizierbar sind. (Chainlink Today)
  • Bürgerschutz. In seiner Kurzformel: „Kryptowährung schützt Sie teilweise vor dem Entzug von Bankdienstleistungen. Kryptoidentität schützt Sie teilweise vor dem Entzug der Staatsbürgerschaft.“ (X (ehemals Twitter))

2) Wie sich seine Ansicht entwickelte (eine kurze Chronologie)

  • 2019–2020 – kryptographische Identität & Pseudonymität. Balajis Schriften betonen Public-Key-Kryptographie als Identität (Schlüssel-als-ID) und prognostizieren das Wachstum dezentraler Identität + Reputation in den 2020er Jahren. Gleichzeitig argumentiert sein Vortrag zur „pseudonymen Ökonomie“ für persistente, reputationsbehaftete Pseudonyme, um die Meinungsfreiheit zu schützen und mit neuen Arten von Arbeit und Organisation zu experimentieren. (balajis.com)
  • 2022 – Der Netzwerkstaat. Er formalisiert die Aufgabe der Identität in einem Netzwerkstaat: On-Chain-Zensus; ENS-ähnliche Identität; kryptographische Nachweise (der Menschlichkeit/des Einkommens/der Immobilien); und Kryptoreferenzen/Soulbounds. Identität ist infrastrukturell – was die Gesellschaft zählt und was die Welt verifizieren kann.
  • 2022–2024 – Brücken zu traditionellen Systemen. In öffentlichen Interviews und seinem Podcast fordert er Fiat↔Krypto-Identitätsbrücken (z. B. Palaus RNS.ID digitaler Wohnsitz) und betont die Überführung von „Papier“-Akten in Code. (Circle)
  • 2023–heute – Identität als Abwehr gegen KI-Fälschungen. Er rahmt Kryptoidentität als Rückgrat eines „Web3 des Vertrauens“: signierte Inhalte, On-Chain-Provenienz und wirtschaftliche Reibung (Staking, Zahlungen), um Menschen von Bots zu trennen. (Chainlink Today)

3) Der technische Stack, auf den Balaji hindeutet

Grundlegendes Primitiv: Schlüssel & Wallets

  • Kontrolle eines privaten Schlüssels = Kontrolle einer Identität; Schlüssel für verschiedene Personas und Risikoprofile rotieren/partitionieren. (balajis.com)

Auflösung & Anmeldung

  • ENS/SNS ordnen menschenlesbare Namen Adressen zu; Anmelden mit Ethereum (EIP-4361) verwandelt diese Adressen in eine Standardmethode zur Authentifizierung bei Off-Chain-Anwendungen.

Anmeldeinformationen & Bestätigungen (Reputationsschicht)

  • W3C Verifiable Credentials (VC 2.0) definieren eine interoperable Methode zum Ausstellen/Halten/Verifizieren von Ansprüchen (z. B. KYC-Prüfungen, Diplome).
  • Der Ethereum Attestierungsdienst (EAS) bietet eine öffentliche Güterschicht für On- oder Off-Chain-Bestätigungen, um Identität, Reputation und Register aufzubauen, die Anwendungen verifizieren können. (W3C)

Nachweis der Menschlichkeit & Einzigartigkeit

  • In Der Netzwerkstaat skizziert Balaji „Proof-of-Human“-Techniken für den On-Chain-Zensus; außerhalb seiner Arbeit versuchen Ansätze wie World ID, die Menschlichkeit/Einzigartigkeit zu verifizieren, was auch Datenschutzbedenken aufgeworfen hat – und die Kompromisse biometrischer PoP illustriert.

Brücken zu traditioneller Identität

  • Palau RNS.ID ist ein prominentes Beispiel für einen Souverän, der eine rechtliche ID mit On-Chain-Komponenten ausstellt; die Akzeptanz ist plattformübergreifend uneinheitlich, was das von Balaji hervorgehobene „Brücken“-Problem unterstreicht. (Biometric Update)

Provenienz & Anti-Deepfake

  • Er befürwortet das Signieren von Inhalten von ENS-verknüpften Adressen, sodass jedes Bild/jeder Beitrag/jedes Video zu einer kryptographischen Identität in einem „Web3 des Vertrauens“ zurückverfolgt werden kann. (Chainlink Today)

4) Warum es wichtig ist (Balajis strategische Behauptungen)

  1. Zensur- & Deplattformierungsresistenz: Schlüssel und dezentrale Namensgebung reduzieren die Abhängigkeit von zentralisierten ID-Anbietern. (Schlüssel sind Inhaber-Identitäten.) (balajis.com)
  2. Prüfbarkeit für Gesellschaften: Netzwerkstaaten erfordern verifizierbare Bevölkerung/Einkommen/Fußabdruck; Prüfbarkeit ist ohne eine On-Chain-nachweisbare Identität unmöglich.
  3. KI-Resilienz: Eine kryptographische Identitätsschicht (plus Signaturen/Bestätigungen) untermauert die Online-Authentizität und kehrt KI-gesteuerte Fälschungen um. (Chainlink Today)
  4. Interoperabilität & Komponierbarkeit: Standards (ENS, SIWE, VC/EAS) machen Identität über Anwendungen und Gerichtsbarkeiten hinweg portierbar.

5) Wie es mit Der Netzwerkstaat zusammenhängt

Balajis Buch paart wiederholt Identität mit einem Echtzeit-, On-Chain-Zensus – einschließlich Nachweis der Menschlichkeit, Einkommensnachweis und Immobiliennachweis – und hebt Namensgebung (ENS) und Kryptoreferenzen als Kernprimitive hervor. Er beschreibt auch „ENS-Login-zu-physischer-Welt“-Muster (digitale Schlüssel zu Türen/Diensten), die in einem sozialen Smart Contract eingebettet sind, und verweist auf Kryptoidentität als Zugriffsschicht für digitale und (eventuell) physische Governance.


6) Implementierungsplan (ein praktischer Weg, den Sie heute umsetzen können)

A. Die Basisidentitäten etablieren

  1. Generieren Sie separate Schlüsselpaare für: (i) legale/„echte Namen“, (ii) Arbeits-/professionelles Pseudonym, (iii) Pseudonym für öffentliche Äußerungen. Speichern Sie jedes in einer anderen Wallet-Konfiguration (Hardware, MPC oder Smart Accounts mit Guardians). (balajis.com)
  2. Registrieren Sie ENS-Namen für jede Persona; veröffentlichen Sie minimale öffentliche Profilmetadaten.

B. Authentifizierung & Inhaltsherkunft hinzufügen 3. Aktivieren Sie SIWE (EIP-4361) für App-Logins; Passwörter/Social Logins auslaufen lassen. (Ethereum Improvement Proposals) 4. Signieren Sie öffentliche Artefakte (Beiträge, Bilder, Code-Veröffentlichungen) von Ihrer ENS-verknüpften Adresse; veröffentlichen Sie einen einfachen „signierter Inhalt“-Feed, den andere verifizieren können. (Chainlink Today)

C. Anmeldeinformationen und Bestätigungen schichten 5. Stellen Sie VCs für rechtliche Fakten (Unternehmensrolle, Lizenzen) und EAS-Bestätigungen für weiche Signale (Reputation, verifizierte Beiträge, Anwesenheit) aus/sammeln Sie diese. Halten Sie sensible Ansprüche Off-Chain mit nur Hashes/Belegen On-Chain. (W3C)

D. Bei Bedarf zu traditioneller Identität überbrücken 6. Wo rechtmäßig und nützlich, verknüpfen Sie eine souveräne/Unternehmens-ID (z. B. Palau RNS.ID) mit Ihrer Kryptoidentität für KYC-geschützte Orte. Erwarten Sie heterogene Akzeptanz und pflegen Sie Alternativen. (Biometric Update)

E. Für Gruppen/Gesellschaften bereitstellen 7. Für eine Startup-Gesellschaft oder DAO:

  • Sichern Sie die Mitgliedschaft mit ENS + einer Proof-of-Human-Methode ab, die Sie für akzeptabel halten.
  • Pflegen Sie einen öffentlichen, prüfbaren Zensus (Mitglieder-/Einkommens-/Bestandszahlen) unter Verwendung von Oracles plus signierten Bestätigungen, nicht rohen PII.

7) Risiken, Kritiken und offene Fragen

  • Erosion von Privatsphäre/Pseudonymität. Die Blockchain-Analyse kann Wallets gruppieren; Balajis eigener Pseudonymitäts-Rahmen warnt davor, wie eine Handvoll Daten-„Bits“ Sie re-identifizieren können. Verwenden Sie Mixer/Datenschutztechnologien sorgfältig und rechtmäßig – aber erkennen Sie Grenzen. (blog.blockstack.org)
  • Kompromisse beim Nachweis der Menschlichkeit. Biometrischer PoP (z. B. Iris) zieht erhebliche datenschutzrechtliche Prüfung nach sich; alternative PoP-Methoden reduzieren das Risiko, können aber die Sybil-Anfälligkeit erhöhen. (law.kuleuven.be)
  • Brücken-Brüchigkeit. Palau-ähnliche IDs sind kein universeller KYC-Pass; die Akzeptanz variiert je nach Plattform und Gerichtsbarkeit und kann sich ändern. Bauen Sie für anmutige Degradation. (Malakouti Law)
  • Schlüsselverlust & Zwang. Schlüssel können gestohlen/erzwungen werden; verwenden Sie Multi-Sig/Guardians und Vorfallreaktionsrichtlinien. (Balajis Modell geht von Kryptographie + Zustimmung aus, was sozial konstruiert werden muss.) (balajis.com)
  • Namens-/Registerzentralisierung. ENS oder jede Namensbehörde wird zu einer politischen Engstelle; mindern Sie dies durch Multi-Persona-Design und exportierbare Nachweise.

8) Wie Balajis Kryptoidentität zu Standards passt (und wo sie sich unterscheidet)

  • Übereinstimmung:

    • DIDs + VCs (W3C) = portierbare, interoperable Identität/Ansprüche; SIWE = Wallet-native Authentifizierung; EAS = Bestätigungen für Reputation/Register. Dies sind die Komponenten, auf die er verweist – auch wenn er einfache Sprache (ENS, Anmeldeinformationen) anstelle von Standard-Akronymen verwendet. (W3C)
  • Unterschiede/Schwerpunkt:

    • Er hebt die gesellschaftliche Prüfbarkeit (On-Chain-Zensus) und die Provenienz im KI-Zeitalter (signierte Inhalte) stärker hervor als viele DID/VC-Diskussionen, und er drängt explizit auf Fiat↔Krypto-Identitätsbrücken und Krypto-Pässe als kurzfristige Priorität.

9) Wenn Sie entwickeln: ein minimal praktikabler „Kryptoidentität“-Rollout (90 Tage)

  1. Woche 1–2: Schlüssel, ENS, SIWE aktiviert; veröffentlichen Sie Ihre Signaturrichtlinie und beginnen Sie, öffentliche Beiträge/Veröffentlichungen zu signieren. (Ethereum Improvement Proposals)
  2. Woche 3–6: Integrieren Sie VCs/EAS für Rolle/Mitgliedschaft/Teilnahme; erstellen Sie eine öffentliche „Vertrauensseite“, die diese programmatisch verifiziert. (W3C)
  3. Woche 7–10: Richten Sie ein grundlegendes Zensus-Dashboard ein (aggregierte Mitgliederzahl, On-Chain-Schatzkammer-/Einkommensnachweise) mit klarer Datenschutzhaltung.
  4. Woche 11–13: Pilotieren Sie eine traditionelle Brücke (z. B. RNS.ID, wo angemessen) für einen Compliance-intensiven Workflow; veröffentlichen Sie Ergebnisse (was funktionierte/scheiterte). (Biometric Update)

Ausgewählte Quellen (primär und tragend)

  • Der Netzwerkstaat (On-Chain-Zensus; ENS/Identität; Kryptoreferenzen) und „ENS-Login-zu-physischer-Welt“-Beispiele.
  • Public-Key-Kryptographie (Schlüssel als Identität). (balajis.com)
  • Circle – The Money Movement (Ep. 74) (Fiat↔Krypto-Identitätsbrücke; „Krypto-Pässe“). (Circle)
  • Der Netzwerkstaat-Podcast, Ep. 10 (Fiat-Identität→Krypto-Identität-Börse; Palau RNS.ID). (thenetworkstate.com)
  • Chainlink Today (signierte Inhalte/ENS zur Bekämpfung von Deepfakes; „Web3 des Vertrauens“). (Chainlink Today)
  • Balaji auf X („Kryptoidentität…Entzug der Staatsbürgerschaft“). (X (ehemals Twitter))
  • Standards: W3C DID Core, VC 2.0; EIP-4361 (SIWE); EAS-Dokumente. (W3C)
  • RNS.ID / Palau (Realwelt-Brücke; gemischte Akzeptanz). (Biometric Update)
  • Pseudonyme Ökonomie (Identität & 33-Bit-Re-Identifikations-Intuition). (blog.blockstack.org)

Fazit

Für Balaji ist Kryptoidentität nicht nur „DID-Technologie“. Es ist ein zivilisatorisches Primitiv: Schlüssel und Signaturen als Basis; Namen und Anmeldeinformationen obendrauf; Brücken zu traditioneller Identität; und ein verifizierbarer öffentlicher Datensatz, der von Individuen zu Netzwerkgesellschaften skaliert. So erhalten Sie authentische Personen und authentische Datensätze in einem KI-überfluteten Internet – und so kann eine Startup-Gesellschaft beweisen, dass sie real ist, ohne die Welt um Vertrauen in ihr Wort zu bitten. (Chainlink Today)

Wenn Sie möchten, kann ich den Implementierungsplan an Ihren spezifischen Anwendungsfall (Verbraucher-App, DAO, Unternehmen oder ein Startup-Gesellschafts-Pilotprojekt) anpassen und konkrete Schemata/Workflows für SIWE, EAS und VC 2.0 erstellen, die Ihren regulatorischen und UX-Einschränkungen entsprechen.

MCP im Web3-Ökosystem: Eine umfassende Übersicht

· 50 Minuten Lesezeit
Dora Noda
Software Engineer

1. Definition und Ursprung von MCP im Web3-Kontext

Das Model Context Protocol (MCP) ist ein offener Standard, der KI-Assistenten (wie grosse Sprachmodelle) mit externen Datenquellen, Tools und Umgebungen verbindet. Oft als "USB-C-Anschluss für KI" bezeichnet, aufgrund seiner universellen Plug-and-Play-Natur, wurde MCP von Anthropic entwickelt und Ende November 2024 erstmals vorgestellt. Es entstand als Lösung, um KI-Modelle aus der Isolation zu befreien, indem es sie sicher mit den „Systemen, in denen Daten leben“ verbindet – von Datenbanken und APIs bis hin zu Entwicklungsumgebungen und Blockchains.

Ursprünglich ein experimentelles Nebenprojekt bei Anthropic, gewann MCP schnell an Bedeutung. Mitte 2024 erschienen Open-Source-Referenzimplementierungen, und Anfang 2025 hatte es sich zum De-facto-Standard für die Integration von Agenten-KI entwickelt, wobei führende KI-Labore (OpenAI, Google DeepMind, Meta AI) es nativ übernahmen. Diese schnelle Akzeptanz war besonders in der Web3-Community bemerkenswert. Blockchain-Entwickler sahen MCP als eine Möglichkeit, KI-Funktionen in dezentrale Anwendungen zu integrieren, was zu einer Verbreitung von von der Community entwickelten MCP-Konnektoren für On-Chain-Daten und -Dienste führte. Tatsächlich argumentieren einige Analysten, dass MCP die ursprüngliche Vision von Web3 eines dezentralen, benutzerzentrierten Internets auf praktischere Weise erfüllen könnte als Blockchain allein, indem es natürliche Sprachschnittstellen nutzt, um Benutzer zu befähigen.

Zusammenfassend ist MCP keine Blockchain oder ein Token, sondern ein offenes Protokoll, das in der KI-Welt geboren wurde und schnell im Web3-Ökosystem als Brücke zwischen KI-Agenten und dezentralen Datenquellen angenommen wurde. Anthropic hat den Standard (mit einer anfänglichen GitHub-Spezifikation und SDKs) quelloffen gemacht und eine offene Community darum aufgebaut. Dieser gemeinschaftsgetriebene Ansatz bereitete den Boden für die Integration von MCP in Web3, wo es nun als grundlegende Infrastruktur für KI-fähige dezentrale Anwendungen angesehen wird.

2. Technische Architektur und Kernprotokolle

MCP basiert auf einer leichtgewichtigen Client-Server-Architektur mit drei Hauptrollen:

  • MCP-Host: Die KI-Anwendung oder der Agent selbst, der Anfragen orchestriert. Dies könnte ein Chatbot (Claude, ChatGPT) oder eine KI-gestützte App sein, die externe Daten benötigt. Der Host initiiert Interaktionen und fragt über MCP nach Tools oder Informationen.
  • MCP-Client: Eine Konnektorkomponente, die der Host zur Kommunikation mit Servern verwendet. Der Client verwaltet die Verbindung, das Senden und Empfangen von Nachrichten und kann mehrere Server parallel verwalten. Zum Beispiel kann ein Entwicklertool wie Cursor oder der Agentenmodus von VS Code als MCP-Client fungieren, der die lokale KI-Umgebung mit verschiedenen MCP-Servern verbindet.
  • MCP-Server: Ein Dienst, der der KI kontextbezogene Daten oder Funktionen zur Verfügung stellt. Server bieten Tools, Ressourcen oder Prompts, die die KI nutzen kann. In der Praxis könnte ein MCP-Server mit einer Datenbank, einer Cloud-Anwendung oder einem Blockchain-Knoten interagieren und der KI einen standardisierten Satz von Operationen präsentieren. Jedes Client-Server-Paar kommuniziert über einen eigenen Kanal, sodass ein KI-Agent gleichzeitig mehrere Server für verschiedene Anforderungen nutzen kann.

Kern-Primitive: MCP definiert eine Reihe von Standard-Nachrichtentypen und Primitiven, die die Interaktion zwischen KI und Tool strukturieren. Die drei grundlegenden Primitive sind:

  • Tools: Diskrete Operationen oder Funktionen, die die KI auf einem Server aufrufen kann. Zum Beispiel ein „searchDocuments“-Tool oder ein „eth_call“-Tool. Tools kapseln Aktionen wie das Abfragen einer API, das Ausführen einer Berechnung oder das Aufrufen einer Smart-Contract-Funktion. Der MCP-Client kann eine Liste der verfügbaren Tools von einem Server anfordern und diese bei Bedarf aufrufen.
  • Ressourcen: Datenendpunkte, von denen die KI über den Server lesen (oder manchmal auch schreiben) kann. Dies können Dateien, Datenbankeinträge, Blockchain-Status (Blöcke, Transaktionen) oder beliebige kontextbezogene Daten sein. Die KI kann Ressourcen auflisten und deren Inhalt über Standard-MCP-Nachrichten abrufen (z. B. ListResources- und ReadResource-Anfragen).
  • Prompts: Strukturierte Prompt-Vorlagen oder Anweisungen, die Server bereitstellen können, um die Argumentation der KI zu leiten. Zum Beispiel könnte ein Server eine Formatierungsvorlage oder einen vordefinierten Abfrage-Prompt bereitstellen. Die KI kann eine Liste von Prompt-Vorlagen anfordern und diese verwenden, um die Konsistenz ihrer Interaktionen mit diesem Server zu gewährleisten.

Im Hintergrund basieren MCP-Kommunikationen typischerweise auf JSON und folgen einem Anfrage-Antwort-Muster, ähnlich wie bei RPC (Remote Procedure Call). Die Protokollspezifikation definiert Nachrichten wie InitializeRequest, ListTools, CallTool, ListResources usw., die sicherstellen, dass jeder MCP-konforme Client mit jedem MCP-Server auf einheitliche Weise kommunizieren kann. Diese Standardisierung ermöglicht es einem KI-Agenten zu entdecken, was er tun kann: Beim Verbinden mit einem neuen Server kann er fragen „Welche Tools und Daten bieten Sie an?“ und dann dynamisch entscheiden, wie er diese nutzen möchte.

Sicherheits- und Ausführungsmodell: MCP wurde mit Blick auf sichere, kontrollierte Interaktionen entwickelt. Das KI-Modell selbst führt keinen beliebigen Code aus; es sendet hochrangige Absichten (über den Client) an den Server, der dann die eigentliche Operation ausführt (z. B. Daten abrufen oder eine API aufrufen) und Ergebnisse zurückgibt. Diese Trennung bedeutet, dass sensible Aktionen (wie Blockchain-Transaktionen oder Datenbank-Schreibvorgänge) in einer Sandbox ausgeführt werden oder eine explizite Benutzergenehmigung erfordern können. Zum Beispiel gibt es Nachrichten wie Ping (um Verbindungen am Leben zu erhalten) und sogar eine CreateMessageRequest, die es einem MCP-Server ermöglicht, die KI des Clients aufzufordern, eine Unterantwort zu generieren, die typischerweise durch Benutzerbestätigung geschützt ist. Funktionen wie Authentifizierung, Zugriffskontrolle und Audit-Logging werden aktiv entwickelt, um sicherzustellen, dass MCP sicher in Unternehmens- und dezentralen Umgebungen eingesetzt werden kann (mehr dazu im Abschnitt Roadmap).

Zusammenfassend basiert die Architektur von MCP auf einem standardisierten Nachrichtenprotokoll (mit JSON-RPC-ähnlichen Aufrufen), das KI-Agenten (Hosts) mit einer flexiblen Reihe von Servern verbindet, die Tools, Daten und Aktionen bereitstellen. Diese offene Architektur ist modellagnostisch und plattformagnostisch – jeder KI-Agent kann MCP verwenden, um mit jeder Ressource zu kommunizieren, und jeder Entwickler kann einen neuen MCP-Server für eine Datenquelle erstellen, ohne den Kerncode der KI ändern zu müssen. Diese Plug-and-Play-Erweiterbarkeit macht MCP in Web3 so leistungsfähig: Man kann Server für Blockchain-Knoten, Smart Contracts, Wallets oder Orakel bauen und KI-Agenten diese Funktionen nahtlos neben Web2-APIs integrieren lassen.

3. Anwendungsfälle und Anwendungen von MCP in Web3

MCP erschliesst eine breite Palette von Anwendungsfällen, indem es KI-gesteuerten Anwendungen ermöglicht, auf Blockchain-Daten zuzugreifen und On-Chain- oder Off-Chain-Aktionen auf sichere, hochrangige Weise auszuführen. Hier sind einige wichtige Anwendungen und Probleme, die es im Web3-Bereich löst:

  • On-Chain-Datenanalyse und -Abfrage: KI-Agenten können den Live-Blockchain-Status in Echtzeit abfragen, um Einblicke zu liefern oder Aktionen auszulösen. Zum Beispiel ermöglicht ein MCP-Server, der mit einem Ethereum-Knoten verbunden ist, einer KI, Kontostände abzurufen, Smart-Contract-Speicher zu lesen, Transaktionen zu verfolgen oder Ereignisprotokolle bei Bedarf abzurufen. Dies verwandelt einen Chatbot oder einen Code-Assistenten in einen Blockchain-Explorer. Entwickler können einem KI-Assistenten Fragen stellen wie „Wie hoch ist die aktuelle Liquidität im Uniswap-Pool X?“ oder „Simulieren Sie die Gaskosten dieser Ethereum-Transaktion“, und die KI wird MCP-Tools verwenden, um einen RPC-Knoten aufzurufen und die Antwort von der Live-Chain zu erhalten. Dies ist weitaus leistungsfähiger, als sich auf die Trainingsdaten der KI oder statische Schnappschüsse zu verlassen.
  • Automatisiertes DeFi-Portfoliomanagement: Durch die Kombination von Datenzugriffs- und Aktionstools können KI-Agenten Krypto-Portfolios oder DeFi-Positionen verwalten. Zum Beispiel könnte ein „KI-Vault-Optimierer“ die Positionen eines Benutzers über Yield Farms hinweg überwachen und automatisch Rebalancing-Strategien basierend auf Echtzeit-Marktbedingungen vorschlagen oder ausführen. Ähnlich könnte eine KI als DeFi-Portfoliomanager fungieren und Allokationen zwischen Protokollen anpassen, wenn sich Risiko oder Zinssätze ändern. MCP bietet die Standardschnittstelle für die KI, um On-Chain-Metriken (Preise, Liquidität, Sicherheitenquoten) zu lesen und dann Tools aufzurufen, um Transaktionen (wie das Verschieben von Geldern oder den Tausch von Assets) auszuführen, falls dies erlaubt ist. Dies kann Benutzern helfen, den Ertrag zu maximieren oder das Risiko rund um die Uhr zu verwalten, was manuell schwer zu bewerkstelligen wäre.
  • KI-gestützte Benutzeragenten für Transaktionen: Stellen Sie sich einen persönlichen KI-Assistenten vor, der Blockchain-Interaktionen für einen Benutzer abwickeln kann. Mit MCP kann ein solcher Agent mit Wallets und DApps integriert werden, um Aufgaben über natürliche Sprachbefehle auszuführen. Ein Benutzer könnte zum Beispiel sagen: „KI, sende 0,5 ETH von meiner Wallet an Alice“ oder „Stelle meine Token in den Pool mit der höchsten APY“. Die KI würde über MCP einen sicheren Wallet-Server (der den privaten Schlüssel des Benutzers enthält) verwenden, um die Transaktion zu erstellen und zu signieren, und einen Blockchain-MCP-Server, um sie zu senden. Dieses Szenario verwandelt komplexe Befehlszeilen- oder Metamask-Interaktionen in ein Konversationserlebnis. Es ist entscheidend, dass hier sichere Wallet-MCP-Server verwendet werden, die Berechtigungen und Bestätigungen durchsetzen, aber das Endergebnis ist die Optimierung von On-Chain-Transaktionen durch KI-Unterstützung.
  • Entwicklerassistenten und Smart-Contract-Debugging: Web3-Entwickler können MCP-basierte KI-Assistenten nutzen, die sich der Blockchain-Infrastruktur bewusst sind. Zum Beispiel bieten die MCP-Server von Chainstack für EVM und Solana KI-Code-Copiloten tiefe Einblicke in die Blockchain-Umgebung des Entwicklers. Ein Smart-Contract-Ingenieur, der einen KI-Assistenten (in VS Code oder einer IDE) verwendet, kann die KI den aktuellen Status eines Contracts in einem Testnetz abrufen, eine Transaktion simulieren oder Protokolle überprüfen lassen – alles über MCP-Aufrufe an lokale Blockchain-Knoten. Dies hilft beim Debuggen und Testen von Contracts. Die KI codiert nicht mehr „blind“; sie kann tatsächlich in Echtzeit überprüfen, wie sich Code On-Chain verhält. Dieser Anwendungsfall löst ein grosses Problem, indem er es der KI ermöglicht, kontinuierlich aktuelle Dokumente (über einen Dokumentations-MCP-Server) aufzunehmen und die Blockchain direkt abzufragen, wodurch Halluzinationen reduziert und Vorschläge wesentlich genauer werden.
  • Protokollübergreifende Koordination: Da MCP eine einheitliche Schnittstelle ist, kann ein einziger KI-Agent gleichzeitig über mehrere Protokolle und Dienste hinweg koordinieren – etwas extrem Leistungsfähiges in der vernetzten Landschaft von Web3. Stellen Sie sich einen autonomen Handelsagenten vor, der verschiedene DeFi-Plattformen auf Arbitrage überwacht. Über MCP könnte ein Agent gleichzeitig mit den Kreditmärkten von Aave, einer LayerZero-Cross-Chain-Brücke und einem MEV (Miner Extractable Value)-Analysedienst über eine kohärente Schnittstelle interagieren. Die KI könnte in einem „Gedankenprozess“ Liquiditätsdaten von Ethereum (über einen MCP-Server auf einem Ethereum-Knoten) sammeln, Preisinformationen oder Orakeldaten (über einen anderen Server) erhalten und sogar Bridging- oder Swapping-Operationen aufrufen. Zuvor erforderte eine solche Multi-Plattform-Koordination komplexe, massgeschneiderte Bots, aber MCP bietet eine verallgemeinerbare Möglichkeit für eine KI, das gesamte Web3-Ökosystem zu navigieren, als wäre es ein grosser Daten-/Ressourcenpool. Dies könnte fortgeschrittene Anwendungsfälle wie Cross-Chain-Yield-Optimierung oder automatisierten Liquidationsschutz ermöglichen, bei denen eine KI Assets oder Sicherheiten proaktiv über Chains hinweg verschiebt.
  • KI-Beratungs- und Support-Bots: Eine weitere Kategorie sind benutzerorientierte Berater in Krypto-Anwendungen. Zum Beispiel könnte ein DeFi-Hilfe-Chatbot, der in eine Plattform wie Uniswap oder Compound integriert ist, MCP verwenden, um Echtzeitinformationen für den Benutzer abzurufen. Wenn ein Benutzer fragt: „Was ist der beste Weg, meine Position abzusichern?“, kann die KI aktuelle Kurse, Volatilitätsdaten und die Portfoliodetails des Benutzers über MCP abrufen und dann eine kontextbezogene Antwort geben. Plattformen erforschen KI-gestützte Assistenten, die in Wallets oder dApps eingebettet sind und Benutzer durch komplexe Transaktionen führen, Risiken erklären und sogar Abfolgen von Schritten mit Genehmigung ausführen können. Diese KI-Agenten sitzen effektiv auf mehreren Web3-Diensten (DEXes, Lending Pools, Versicherungsprotokolle) und nutzen MCP, um diese bei Bedarf abzufragen und zu steuern, wodurch die Benutzererfahrung vereinfacht wird.
  • Jenseits von Web3 – Multi-Domain-Workflows: Obwohl unser Fokus auf Web3 liegt, ist es erwähnenswert, dass die Anwendungsfälle von MCP sich auf jeden Bereich erstrecken, in dem KI externe Daten benötigt. Es wird bereits verwendet, um KI mit Dingen wie Google Drive, Slack, GitHub, Figma und mehr zu verbinden. In der Praxis könnte ein einziger KI-Agent Web3 und Web2 überspannen: z. B. ein Excel-Finanzmodell von Google Drive analysieren und dann basierend auf dieser Analyse On-Chain-Trades vorschlagen, alles in einem Workflow. Die Flexibilität von MCP ermöglicht eine domänenübergreifende Automatisierung (z. B. „plane mein Meeting, wenn meine DAO-Abstimmung erfolgreich ist, und sende die Ergebnisse per E-Mail“), die Blockchain-Aktionen mit alltäglichen Tools verbindet.

Gelöste Probleme: Das übergeordnete Problem, das MCP löst, ist das Fehlen einer einheitlichen Schnittstelle für KI zur Interaktion mit Live-Daten und -Diensten. Vor MCP musste man, wenn man wollte, dass eine KI einen neuen Dienst nutzt, ein Plugin oder eine Integration für die API dieses spezifischen Dienstes von Hand codieren, oft auf Ad-hoc-Basis. In Web3 war dies besonders umständlich – jede Blockchain oder jedes Protokoll hat ihre eigenen Schnittstellen, und keine KI konnte hoffen, sie alle zu unterstützen. MCP löst dies, indem es standardisiert, wie die KI beschreibt, was sie will (natürliche Sprache, die auf Tool-Aufrufe abgebildet wird) und wie Dienste beschreiben, was sie anbieten. Dies reduziert den Integrationsaufwand drastisch. Anstatt beispielsweise für jedes DeFi-Protokoll ein benutzerdefiniertes Plugin zu schreiben, kann ein Entwickler einen MCP-Server für dieses Protokoll schreiben (im Wesentlichen dessen Funktionen in natürlicher Sprache annotieren). Jede MCP-fähige KI (ob Claude, ChatGPT oder Open-Source-Modelle) kann es dann sofort nutzen. Dies macht KI auf Plug-and-Play-Weise erweiterbar, ähnlich wie das Hinzufügen eines neuen Geräts über einen universellen Anschluss einfacher ist als die Installation einer neuen Schnittstellenkarte.

Zusammenfassend ermöglicht MCP in Web3 KI-Agenten, erstklassige Bürger der Blockchain-Welt zu werden – Abfragen, Analysieren und sogar Transaktionen über dezentrale Systeme hinweg, alles über sichere, standardisierte Kanäle. Dies öffnet die Tür zu autonomeren DApps, intelligenteren Benutzeragenten und einer nahtlosen Integration von On-Chain- und Off-Chain-Intelligenz.

4. Tokenomics und Governance-Modell

Im Gegensatz zu typischen Web3-Protokollen verfügt MCP nicht über einen nativen Token oder eine Kryptowährung. Es ist keine Blockchain oder ein dezentrales Netzwerk für sich, sondern eine offene Protokollspezifikation (eher vergleichbar mit HTTP oder JSON-RPC im Geiste). Daher gibt es keine integrierte Tokenomics – keine Token-Ausgabe, kein Staking oder Gebührenmodell, das der Nutzung von MCP inhärent wäre. KI-Anwendungen und Server kommunizieren über MCP ohne jegliche Kryptowährung; zum Beispiel könnte eine KI, die eine Blockchain über MCP aufruft, Gasgebühren für die Blockchain-Transaktion zahlen, aber MCP selbst fügt keine zusätzlichen Token-Gebühren hinzu. Dieses Design spiegelt den Ursprung von MCP in der KI-Community wider: Es wurde als technischer Standard zur Verbesserung der KI-Tool-Interaktionen eingeführt, nicht als tokenisiertes Projekt.

Die Governance von MCP erfolgt auf offene, gemeinschaftsgetriebene Weise. Nach der Veröffentlichung von MCP als offenem Standard signalisierte Anthropic ein Engagement für kollaborative Entwicklung. Ein breites Lenkungsausschuss und Arbeitsgruppen haben sich gebildet, um die Entwicklung des Protokolls zu steuern. Bemerkenswerterweise traten Mitte 2025 wichtige Stakeholder wie Microsoft und GitHub dem MCP-Lenkungsausschuss neben Anthropic bei. Dies wurde auf der Microsoft Build 2025 bekannt gegeben und deutet auf eine Koalition von Branchenakteuren hin, die die Roadmap und Standardentscheidungen von MCP leiten. Der Ausschuss und die Betreuer arbeiten über einen offenen Governance-Prozess: Vorschläge zur Änderung oder Erweiterung von MCP werden typischerweise öffentlich diskutiert (z. B. über GitHub-Issues und „SEP“ – Standard Enhancement Proposal – Richtlinien). Es gibt auch eine MCP Registry-Arbeitsgruppe (mit Betreuern von Unternehmen wie Block, PulseMCP, GitHub und Anthropic), die die Multi-Parteien-Governance veranschaulicht. Anfang 2025 arbeiteten Mitwirkende von mindestens 9 verschiedenen Organisationen zusammen, um ein einheitliches MCP-Server-Register zur Entdeckung aufzubauen, was zeigt, wie die Entwicklung über Community-Mitglieder dezentralisiert und nicht von einer einzigen Entität kontrolliert wird.

Da es keinen Token gibt, basieren Governance-Anreize auf den gemeinsamen Interessen der Stakeholder (KI-Unternehmen, Cloud-Anbieter, Blockchain-Entwickler usw.), um das Protokoll für alle zu verbessern. Dies ist in gewisser Weise analog zur Governance von W3C- oder IETF-Standards, jedoch mit einem schnelleren, GitHub-zentrierten Prozess. Zum Beispiel arbeiteten Microsoft und Anthropic zusammen, um eine verbesserte Autorisierungsspezifikation für MCP zu entwerfen (Integration von Dingen wie OAuth und Single Sign-On), und GitHub arbeitete am offiziellen MCP Registry-Dienst zur Auflistung verfügbarer Server mit. Diese Verbesserungen wurden zum Nutzen aller in die MCP-Spezifikation zurückgeführt.

Es ist erwähnenswert, dass, obwohl MCP selbst nicht tokenisiert ist, es zukunftsweisende Ideen gibt, wirtschaftliche Anreize und Dezentralisierung auf MCP aufzubauen. Einige Forscher und Vordenker in Web3 sehen die Entstehung von „MCP-Netzwerken“ voraus – im Wesentlichen dezentrale Netzwerke von MCP-Servern und -Agenten, die Blockchain-ähnliche Mechanismen für Entdeckung, Vertrauen und Belohnungen nutzen. In einem solchen Szenario könnte man sich vorstellen, dass ein Token verwendet wird, um diejenigen zu belohnen, die hochwertige MCP-Server betreiben (ähnlich wie Miner oder Knotenbetreiber Anreize erhalten). Funktionen wie Reputationsbewertungen, überprüfbare Berechnungen und Knotenerkennung könnten durch Smart Contracts oder eine Blockchain ermöglicht werden, wobei ein Token ehrliches Verhalten fördert. Dies ist noch konzeptionell, aber Projekte wie MITs Namda (später diskutiert) experimentieren mit tokenbasierten Anreizmechanismen für Netzwerke von KI-Agenten, die MCP verwenden. Wenn diese Ideen reifen, könnte MCP direkter mit On-Chain-Tokenomics in Verbindung treten, aber ab 2025 bleibt der Kern-MCP-Standard tokenfrei.

Zusammenfassend ist das „Governance-Modell“ von MCP das eines offenen Technologiestandards: kollaborativ von einer Community und einem Lenkungsausschuss von Experten gepflegt, ohne On-Chain-Governance-Token. Entscheidungen werden durch technische Verdienste und breiten Konsens geleitet, nicht durch gewichtete Abstimmung nach Tokenbesitz. Dies unterscheidet MCP von vielen Web3-Protokollen – es zielt darauf ab, die Ideale von Web3 (Dezentralisierung, Interoperabilität, Benutzerermächtigung) durch offene Software und Standards zu erfüllen, nicht durch eine proprietäre Blockchain oder einen Token. In den Worten einer Analyse: „Das Versprechen von Web3... kann endlich nicht durch Blockchain und Kryptowährung, sondern durch natürliche Sprache und KI-Agenten verwirklicht werden“, was MCP als einen wichtigen Wegbereiter dieser Vision positioniert. Dennoch könnten wir, wenn MCP-Netzwerke wachsen, hybride Modelle sehen, bei denen Blockchain-basierte Governance- oder Anreizmechanismen das Ökosystem ergänzen – ein Bereich, der genau zu beobachten ist.

5. Community und Ökosystem

Das MCP-Ökosystem ist in kurzer Zeit explosionsartig gewachsen und umfasst KI-Entwickler, Open-Source-Mitwirkende, Web3-Ingenieure und grosse Technologieunternehmen. Es ist eine lebendige Gemeinschaftsanstrengung, mit wichtigen Mitwirkenden und Partnerschaften, darunter:

  • Anthropic: Als Schöpfer hat Anthropic das Ökosystem durch die Veröffentlichung der MCP-Spezifikation und mehrerer Referenzserver (für Google Drive, Slack, GitHub usw.) als Open Source initiiert. Anthropic führt die Entwicklung weiterhin an (zum Beispiel fungieren Mitarbeiter wie Theodora Chu als MCP-Produktmanager, und das Team von Anthropic trägt massgeblich zu Spezifikationsaktualisierungen und Community-Support bei). Die Offenheit von Anthropic zog andere an, auf MCP aufzubauen, anstatt es als Tool eines einzelnen Unternehmens zu betrachten.

  • Frühe Anwender (Block, Apollo, Zed, Replit, Codeium, Sourcegraph): In den ersten Monaten nach der Veröffentlichung implementierte eine Welle früher Anwender MCP in ihren Produkten. Block (ehemals Square) integrierte MCP, um KI-Agentensysteme im Fintech-Bereich zu erforschen – der CTO von Block lobte MCP als offene Brücke, die KI mit realen Anwendungen verbindet. Apollo (wahrscheinlich Apollo GraphQL) integrierte MCP ebenfalls, um KI den Zugriff auf interne Daten zu ermöglichen. Entwicklertool-Unternehmen wie Zed (Code-Editor), Replit (Cloud-IDE), Codeium (KI-Code-Assistent) und Sourcegraph (Code-Suche) arbeiteten jeweils daran, MCP-Unterstützung hinzuzufügen. Zum Beispiel verwendet Sourcegraph MCP, damit ein KI-Code-Assistent als Antwort auf eine Frage relevanten Code aus einem Repository abrufen kann, und die IDE-Agenten von Replit können projektspezifischen Kontext abrufen. Diese frühen Anwender verliehen MCP Glaubwürdigkeit und Sichtbarkeit.

  • Big Tech-Unterstützung – OpenAI, Microsoft, Google: Bemerkenswerterweise haben sich Unternehmen, die sonst Konkurrenten sind, bei MCP geeinigt. OpenAIs CEO Sam Altman kündigte im März 2025 öffentlich an, dass OpenAI MCP-Unterstützung in all seinen Produkten (einschliesslich der Desktop-App von ChatGPT) hinzufügen werde, und sagte: „Die Leute lieben MCP, und wir freuen uns, die Unterstützung in all unseren Produkten hinzuzufügen“. Dies bedeutete, dass die Agent API von OpenAI und ChatGPT-Plugins MCP sprechen würden, um Interoperabilität zu gewährleisten. Nur wenige Wochen später enthüllte Google DeepMinds CEO Demis Hassabis, dass die kommenden Gemini-Modelle und -Tools von Google MCP unterstützen würden, und nannte es ein gutes Protokoll und einen offenen Standard für die „Ära der KI-Agenten“. Microsoft trat nicht nur dem Lenkungsausschuss bei, sondern arbeitete auch mit Anthropic zusammen, um ein offizielles C#-SDK für MCP zu entwickeln, um die Enterprise-Entwicklergemeinschaft zu bedienen. Die GitHub-Einheit von Microsoft integrierte MCP in GitHub Copilot (den ‚Copilot Labs/Agents‘-Modus von VS Code), wodurch Copilot MCP-Server für Dinge wie die Repository-Suche und das Ausführen von Testfällen nutzen kann. Zusätzlich kündigte Microsoft an, dass Windows 11 bestimmte OS-Funktionen (wie den Dateisystemzugriff) als MCP-Server bereitstellen würde, damit KI-Agenten sicher mit dem Betriebssystem interagieren können. Die Zusammenarbeit zwischen OpenAI, Microsoft, Google und Anthropic – die sich alle um MCP versammeln – ist aussergewöhnlich und unterstreicht das Ethos „Community vor Wettbewerb“ dieses Standards.

  • Web3-Entwicklergemeinschaft: Eine Reihe von Blockchain-Entwicklern und Startups hat MCP angenommen. Mehrere gemeinschaftsgetriebene MCP-Server wurden erstellt, um Blockchain-Anwendungsfälle zu bedienen:

    • Das Team von Alchemy (einem führenden Blockchain-Infrastrukturanbieter) entwickelte einen Alchemy MCP Server, der On-Demand-Blockchain-Analysetools über MCP anbietet. Dies ermöglicht es einer KI wahrscheinlich, Blockchain-Statistiken (wie historische Transaktionen, Adressaktivität) über die APIs von Alchemy mithilfe natürlicher Sprache abzurufen.
    • Mitwirkende entwickelten einen Bitcoin & Lightning Network MCP Server, um mit Bitcoin-Knoten und dem Lightning-Zahlungsnetzwerk zu interagieren, wodurch KI-Agenten Bitcoin-Blockdaten lesen oder sogar Lightning-Rechnungen über Standard-Tools erstellen können.
    • Die Krypto-Medien- und Bildungsgruppe Bankless erstellte einen Onchain MCP Server, der sich auf Web3-Finanzinteraktionen konzentriert und möglicherweise eine Schnittstelle zu DeFi-Protokollen (Senden von Transaktionen, Abfragen von DeFi-Positionen usw.) für KI-Assistenten bereitstellt.
    • Projekte wie Rollup.codes (eine Wissensdatenbank für Ethereum Layer 2s) erstellten einen MCP-Server für Rollup-Ökosysteminformationen, sodass eine KI technische Fragen zu Rollups beantworten kann, indem sie diesen Server abfragt.
    • Chainstack, ein Blockchain-Knotenanbieter, startete eine Suite von MCP-Servern (zuvor erwähnt) für Dokumentation, EVM-Kettendaten und Solana, die explizit als „Ihre KI auf Blockchain-Steroiden“ für Web3-Entwickler vermarktet wird.

    Darüber hinaus sind Web3-fokussierte Communities um MCP herum entstanden. Zum Beispiel werden PulseMCP und Goose als Community-Initiativen genannt, die beim Aufbau des MCP-Registers helfen. Wir sehen auch eine gegenseitige Befruchtung mit KI-Agenten-Frameworks: Die LangChain-Community integrierte Adapter, sodass alle MCP-Server als Tools in LangChain-gesteuerten Agenten verwendet werden können, und Open-Source-KI-Plattformen wie Hugging Face TGI (Text-Generation-Inference) erforschen die MCP-Kompatibilität. Das Ergebnis ist ein reichhaltiges Ökosystem, in dem fast täglich neue MCP-Server angekündigt werden, die alles von Datenbanken bis zu IoT-Geräten bedienen.

  • Umfang der Akzeptanz: Die Akzeptanz lässt sich in gewissem Masse quantifizieren. Bis Februar 2025 – kaum drei Monate nach dem Start – waren über 1.000 MCP-Server/Konnektoren von der Community gebaut worden. Diese Zahl ist nur gewachsen und deutet auf Tausende von Integrationen in verschiedenen Branchen hin. Mike Krieger (Chief Product Officer von Anthropic) stellte im Frühjahr 2025 fest, dass MCP zu einem „florierenden offenen Standard mit Tausenden von Integrationen und wachsend“ geworden sei. Das offizielle MCP Registry (im September 2025 als Vorschau gestartet) katalogisiert öffentlich verfügbare Server und erleichtert die Entdeckung von Tools; die offene API des Registers ermöglicht es jedem, beispielsweise nach „Ethereum“ oder „Notion“ zu suchen und relevante MCP-Konnektoren zu finden. Dies senkt die Eintrittsbarriere für neue Teilnehmer und fördert das Wachstum weiter.

  • Partnerschaften: Wir haben viele implizite Partnerschaften (Anthropic mit Microsoft, usw.) angesprochen. Um noch einige weitere hervorzuheben:

    • Anthropic & Slack: Anthropic hat sich mit Slack zusammengetan, um Claude über MCP mit den Daten von Slack zu integrieren (Slack verfügt über einen offiziellen MCP-Server, der es KI ermöglicht, Slack-Nachrichten abzurufen oder Warnungen zu posten).
    • Cloud-Anbieter: Amazon (AWS) und Google Cloud haben mit Anthropic zusammengearbeitet, um Claude zu hosten, und es ist wahrscheinlich, dass sie MCP in diesen Umgebungen unterstützen (z. B. könnte AWS Bedrock MCP-Konnektoren für Unternehmensdaten zulassen). Obwohl nicht explizit in Zitaten erwähnt, sind diese Cloud-Partnerschaften wichtig für die Unternehmensakzeptanz.
    • Akademische Kooperationen: Das Forschungsprojekt Namda des MIT und IBM (als Nächstes besprochen) stellt eine Partnerschaft zwischen Wissenschaft und Industrie dar, um die Grenzen von MCP in dezentralen Umgebungen zu erweitern.
    • GitHub & VS Code: Partnerschaft zur Verbesserung der Entwicklererfahrung – z. B. hat das VS Code-Team aktiv zu MCP beigetragen (einer der Registry-Betreuer stammt vom VS Code-Team).
    • Zahlreiche Startups: Viele KI-Startups (Agenten-Startups, Workflow-Automatisierungs-Startups) bauen auf MCP auf, anstatt das Rad neu zu erfinden. Dazu gehören aufstrebende Web3-KI-Startups, die „KI als DAO“ oder autonome Wirtschaftsagenten anbieten wollen.

Insgesamt ist die MCP-Community vielfältig und wächst schnell. Sie umfasst Kerntechnologieunternehmen (für Standards und Basistools), Web3-Spezialisten (die Blockchain-Wissen und Anwendungsfälle einbringen) und unabhängige Entwickler (die oft Konnektoren für ihre Lieblings-Apps oder -Protokolle beisteuern). Das Ethos ist kollaborativ. Zum Beispiel haben Sicherheitsbedenken hinsichtlich Drittanbieter-MCP-Servern zu Community-Diskussionen und Beiträgen zu Best Practices geführt (z. B. arbeiten Stacklok-Mitwirkende an Sicherheitstools für MCP-Server). Die Fähigkeit der Community, schnell zu iterieren (MCP erfuhr innerhalb weniger Monate mehrere Spezifikations-Upgrades, die Funktionen wie Streaming-Antworten und bessere Authentifizierung hinzufügten), ist ein Beweis für das breite Engagement.

Speziell im Web3-Ökosystem hat MCP ein Mini-Ökosystem von „KI + Web3“-Projekten gefördert. Es ist nicht nur ein Protokoll zur Nutzung; es katalysiert neue Ideen wie KI-gesteuerte DAOs, On-Chain-Governance, die durch KI-Analyse unterstützt wird, und domänenübergreifende Automatisierung (wie die Verknüpfung von On-Chain-Ereignissen mit Off-Chain-Aktionen durch KI). Die Präsenz wichtiger Web3-Persönlichkeiten – z. B. Zhivko Todorov von LimeChain, der feststellt: „MCP repräsentiert die unvermeidliche Integration von KI und Blockchain“ – zeigt, dass Blockchain-Veteranen es aktiv unterstützen. Partnerschaften zwischen KI- und Blockchain-Unternehmen (wie die zwischen Anthropic und Block oder Microsofts Azure Cloud, die die Bereitstellung von MCP neben ihren Blockchain-Diensten vereinfacht) deuten auf eine Zukunft hin, in der KI-Agenten und Smart Contracts Hand in Hand arbeiten.

Man könnte sagen, MCP hat die erste echte Konvergenz der KI-Entwicklergemeinschaft mit der Web3-Entwicklergemeinschaft ausgelöst. Hackathons und Meetups bieten jetzt MCP-Tracks an. Als konkretes Mass für die Akzeptanz im Ökosystem: Mitte 2025 unterstützen OpenAI, Google und Anthropic – die zusammen die Mehrheit der fortschrittlichen KI-Modelle repräsentieren – alle MCP, und auf der anderen Seite bauen führende Blockchain-Infrastrukturanbieter (Alchemy, Chainstack), Krypto-Unternehmen (Block usw.) und dezentrale Projekte MCP-Hooks. Dieser zweiseitige Netzwerkeffekt lässt MCP zu einem dauerhaften Standard werden.

6. Roadmap und Entwicklungsmeilensteine

Die Entwicklung von MCP war rasant. Hier skizzieren wir die bisherigen wichtigen Meilensteine und die zukünftige Roadmap, wie sie aus offiziellen Quellen und Community-Updates hervorgehen:

  • Ende 2024 – Erstveröffentlichung: Am 25. November 2024 kündigte Anthropic MCP offiziell an und veröffentlichte die Spezifikation sowie erste SDKs als Open Source. Neben der Spezifikation veröffentlichten sie eine Handvoll MCP-Server-Implementierungen für gängige Tools (Google Drive, Slack, GitHub usw.) und fügten Unterstützung im Claude AI-Assistenten (Claude Desktop-App) hinzu, um lokale MCP-Server zu verbinden. Dies markierte den 1.0-Start von MCP. Frühe Proof-of-Concept-Integrationen bei Anthropic zeigten, wie Claude MCP verwenden konnte, um Dateien zu lesen oder eine SQL-Datenbank in natürlicher Sprache abzufragen, was das Konzept validierte.
  • Q1 2025 – Schnelle Akzeptanz und Iteration: In den ersten Monaten des Jahres 2025 erlebte MCP eine weit verbreitete Akzeptanz in der Branche. Bis März 2025 kündigten OpenAI und andere KI-Anbieter Unterstützung an (wie oben beschrieben). In diesem Zeitraum kam es auch zu einer Spezifikationsentwicklung: Anthropic aktualisierte MCP um Streaming-Funktionen (die es ermöglichen, grosse Ergebnisse oder kontinuierliche Datenströme inkrementell zu senden). Dieses Update wurde im April 2025 mit den C#-SDK-Nachrichten bekannt gegeben und zeigte, dass MCP nun Funktionen wie chunked responses oder Echtzeit-Feed-Integration unterstützte. Die Community erstellte auch Referenzimplementierungen in verschiedenen Sprachen (Python, JavaScript usw.) über das SDK von Anthropic hinaus, um polyglotte Unterstützung zu gewährleisten.
  • Q2 2025 – Ökosystem-Tools und Governance: Im Mai 2025, mit dem Beitritt von Microsoft und GitHub zu den Bemühungen, gab es einen Vorstoss zur Formalisierung der Governance und zur Verbesserung der Sicherheit. Auf der Build 2025 enthüllte Microsoft Pläne für die Windows 11 MCP-Integration und detaillierte eine Zusammenarbeit zur Verbesserung der Autorisierungsabläufe in MCP. Etwa zur gleichen Zeit wurde die Idee eines MCP Registry zur Indexierung verfügbarer Server eingeführt (das anfängliche Brainstorming begann laut Registry-Blog im März 2025). Der „Standards-Track“-Prozess (SEP – Standard Enhancement Proposals) wurde auf GitHub etabliert, ähnlich wie EIPs von Ethereum oder PEPs von Python, um Beiträge geordnet zu verwalten. Community-Anrufe und Arbeitsgruppen (für Sicherheit, Registry, SDKs) begannen sich zu treffen.
  • Mitte 2025 – Funktionserweiterung: Bis Mitte 2025 priorisierte die Roadmap mehrere wichtige Verbesserungen:
    • Unterstützung für asynchrone und langlaufende Aufgaben: Pläne, MCP die Verarbeitung langer Operationen zu ermöglichen, ohne die Verbindung zu blockieren. Wenn eine KI beispielsweise einen Cloud-Job auslöst, der Minuten dauert, würde das MCP-Protokoll asynchrone Antworten oder eine erneute Verbindung unterstützen, um Ergebnisse abzurufen.
    • Authentifizierung und feingranulare Sicherheit: Entwicklung von feingranularen Autorisierungsmechanismen für sensible Aktionen. Dies umfasst möglicherweise die Integration von OAuth-Flows, API-Schlüsseln und Enterprise-SSO in MCP-Server, damit der KI-Zugriff sicher verwaltet werden kann. Bis Mitte 2025 waren Leitfäden und Best Practices für die MCP-Sicherheit in Arbeit, angesichts der Sicherheitsrisiken, die das Ermöglichen des Aufrufs leistungsstarker Tools durch KI birgt. Ziel ist es, dass beispielsweise, wenn eine KI über MCP auf die private Datenbank eines Benutzers zugreifen soll, sie einem sicheren Autorisierungsablauf (mit Benutzerzustimmung) folgen sollte, anstatt nur einem offenen Endpunkt.
    • Validierung und Compliance-Tests: Die Community erkannte die Notwendigkeit der Zuverlässigkeit und priorisierte den Aufbau von Compliance-Testsuiten und Referenzimplementierungen. Durch die Sicherstellung, dass alle MCP-Clients/-Server die Spezifikation einhalten (durch automatisierte Tests), sollte eine Fragmentierung verhindert werden. Ein Referenzserver (wahrscheinlich ein Beispiel mit Best Practices für die Remote-Bereitstellung und Authentifizierung) stand auf der Roadmap, ebenso wie eine Referenz-Client-Anwendung, die die vollständige MCP-Nutzung mit einer KI demonstriert.
    • Multimodalitätsunterstützung: Erweiterung von MCP über Text hinaus, um Modalitäten wie Bild-, Audio-, Videodaten im Kontext zu unterstützen. Zum Beispiel könnte eine KI ein Bild von einem MCP-Server anfordern (z. B. ein Design-Asset oder ein Diagramm) oder ein Bild ausgeben. Die Spezifikationsdiskussion umfasste das Hinzufügen von Unterstützung für Streaming- und Chunked-Nachrichten, um grosse Multimedia-Inhalte interaktiv zu verarbeiten. Frühe Arbeiten an „MCP Streaming“ waren bereits im Gange (um Dinge wie Live-Audio-Feeds oder kontinuierliche Sensordaten an KI zu unterstützen).
    • Zentrales Register & Discovery: Der Plan zur Implementierung eines zentralen MCP Registry-Dienstes für die Server-Discovery wurde Mitte 2025 umgesetzt. Bis September 2025 wurde das offizielle MCP Registry als Vorschau gestartet. Dieses Register bietet eine einzige Quelle der Wahrheit für öffentlich verfügbare MCP-Server, die es Clients ermöglicht, Server nach Namen, Kategorie oder Fähigkeiten zu finden. Es ist im Wesentlichen wie ein App Store (aber offen) für KI-Tools. Das Design ermöglicht öffentliche Register (einen globalen Index) und private (unternehmensspezifische), die alle über eine gemeinsame API interoperabel sind. Das Register führte auch einen Moderationsmechanismus ein, um bösartige Server zu kennzeichnen oder zu entfernen, mit einem Community-Moderationsmodell zur Aufrechterhaltung der Qualität.
  • Ende 2025 und darüber hinaus – Hin zu dezentralen MCP-Netzwerken: Obwohl noch keine „offiziellen“ Roadmap-Punkte, weist die Entwicklung auf mehr Dezentralisierung und Web3-Synergie hin:
    • Forscher untersuchen aktiv, wie dezentrale Discovery-, Reputations- und Anreizschichten zu MCP hinzugefügt werden können. Das Konzept eines MCP-Netzwerks (oder „Marktplatzes von MCP-Endpunkten“) wird inkubiert. Dies könnte Smart-Contract-basierte Register (damit es keinen Single Point of Failure für Serverlisten gibt), Reputationssysteme, bei denen Server/Clients On-Chain-Identitäten und Einsätze für gutes Verhalten haben, und möglicherweise Token-Belohnungen für den Betrieb zuverlässiger MCP-Knoten umfassen.
    • Projekt Namda am MIT, das 2024 begann, ist ein konkreter Schritt in diese Richtung. Bis 2025 hatte Namda einen Prototyp eines verteilten Agenten-Frameworks auf den Grundlagen von MCP aufgebaut, einschliesslich Funktionen wie dynamische Knotenerkennung, Lastverteilung über Agentencluster und ein dezentrales Register unter Verwendung von Blockchain-Techniken. Sie haben sogar experimentelle tokenbasierte Anreize und Herkunftsverfolgung für Multi-Agenten-Kooperationen. Meilensteine von Namda zeigen, dass es machbar ist, ein Netzwerk von MCP-Agenten auf vielen Maschinen mit vertrauensloser Koordination zu betreiben. Wenn Namdas Konzepte übernommen werden, könnten wir sehen, wie sich MCP entwickelt, um einige dieser Ideen zu integrieren (möglicherweise durch optionale Erweiterungen oder separate Protokolle, die darauf aufbauen).
    • Enterprise-Härtung: Auf der Unternehmensseite erwarten wir bis Ende 2025, dass MCP in wichtige Unternehmenssoftwareangebote integriert wird (Microsofts Einbindung in Windows und Azure ist ein Beispiel). Die Roadmap umfasst unternehmensfreundliche Funktionen wie SSO-Integration für MCP-Server und robuste Zugriffskontrollen. Die allgemeine Verfügbarkeit des MCP Registry und von Toolkits für die Bereitstellung von MCP in grossem Massstab (z. B. innerhalb eines Unternehmensnetzwerks) ist wahrscheinlich bis Ende 2025.

Um einige wichtige Entwicklungsmeilensteine bisher (im Zeitformat zur Klarheit) zusammenzufassen:

  • Nov 2024: MCP 1.0 veröffentlicht (Anthropic).
  • Dez 2024 – Jan 2025: Community baut erste Welle von MCP-Servern; Anthropic veröffentlicht Claude Desktop mit MCP-Unterstützung; kleine Pilotprojekte von Block, Apollo usw.
  • Feb 2025: Über 1000 Community-MCP-Konnektoren erreicht; Anthropic veranstaltet Workshops (z. B. auf einem KI-Gipfel, zur Förderung der Bildung).
  • Mär 2025: OpenAI kündigt Unterstützung an (ChatGPT Agents SDK).
  • Apr 2025: Google DeepMind kündigt Unterstützung an (Gemini wird MCP unterstützen); Microsoft veröffentlicht Vorschau des C#-SDKs.
  • Mai 2025: Lenkungsausschuss erweitert (Microsoft/GitHub); Build 2025 Demos (Windows MCP-Integration).
  • Jun 2025: Chainstack startet Web3 MCP-Server (EVM/Solana) zur öffentlichen Nutzung.
  • Jul 2025: MCP-Spezifikationsversionen aktualisiert (Streaming, Authentifizierungsverbesserungen); offizielle Roadmap auf der MCP-Website veröffentlicht.
  • Sep 2025: MCP Registry (Vorschau) gestartet; wahrscheinlich erreicht MCP die allgemeine Verfügbarkeit in weiteren Produkten (Claude for Work usw.).
  • Ende 2025 (prognostiziert): Registry v1.0 live; Leitfäden für Best Practices im Bereich Sicherheit veröffentlicht; möglicherweise erste Experimente mit dezentraler Discovery (Namda-Ergebnisse).

Die Vision für die Zukunft ist, dass MCP so allgegenwärtig und unsichtbar wird wie HTTP oder JSON – eine gemeinsame Schicht, die viele Apps im Hintergrund verwenden. Für Web3 deutet die Roadmap auf eine tiefere Fusion hin: KI-Agenten werden Web3 (Blockchains) nicht nur als Informationsquellen oder -senken nutzen, sondern die Web3-Infrastruktur selbst könnte beginnen, KI-Agenten (über MCP) als Teil ihres Betriebs zu integrieren (zum Beispiel könnte eine DAO eine MCP-kompatible KI betreiben, um bestimmte Aufgaben zu verwalten, oder Orakel könnten Daten über MCP-Endpunkte veröffentlichen). Die Betonung der Roadmap auf Dinge wie Überprüfbarkeit und Authentifizierung deutet darauf hin, dass in Zukunft vertrauensminimierte MCP-Interaktionen Realität werden könnten – stellen Sie sich KI-Ausgaben vor, die mit kryptografischen Beweisen versehen sind, oder ein On-Chain-Protokoll darüber, welche Tools eine KI zu Prüfzwecken aufgerufen hat. Diese Möglichkeiten verwischen die Grenze zwischen KI- und Blockchain-Netzwerken, und MCP steht im Mittelpunkt dieser Konvergenz.

Zusammenfassend ist die Entwicklung von MCP hochdynamisch. Es hat wichtige frühe Meilensteine erreicht (breite Akzeptanz und Standardisierung innerhalb eines Jahres nach dem Start) und entwickelt sich mit einer klaren Roadmap, die Sicherheit, Skalierbarkeit und Entdeckung betont, weiterhin rasant. Die erreichten und geplanten Meilensteine stellen sicher, dass MCP robust bleibt, während es skaliert: Herausforderungen wie langlaufende Aufgaben, sichere Berechtigungen und die schiere Auffindbarkeit Tausender von Tools werden angegangen. Diese Vorwärtsdynamik zeigt, dass MCP keine statische Spezifikation, sondern ein wachsender Standard ist, der wahrscheinlich weitere Web3-spezifische Funktionen (dezentrale Governance von Servern, Anreizabstimmung) integrieren wird, sobald diese Bedürfnisse entstehen. Die Community ist bereit, MCP an neue Anwendungsfälle (multimodale KI, IoT usw.) anzupassen, während sie das Kernversprechen im Auge behält: KI vernetzter, kontextbewusster und benutzerfreundlicher in der Web3-Ära zu machen.

7. Vergleich mit ähnlichen Web3-Projekten oder Protokollen

Die einzigartige Mischung aus KI und Konnektivität von MCP bedeutet, dass es nicht viele direkte, eins-zu-eins-Vergleiche gibt, aber es ist aufschlussreich, es mit anderen Projekten an der Schnittstelle von Web3 und KI oder mit analogen Zielen zu vergleichen:

  • SingularityNET (AGI/X)Dezentraler KI-Marktplatz: SingularityNET, 2017 von Dr. Ben Goertzel und anderen ins Leben gerufen, ist ein Blockchain-basierter Marktplatz für KI-Dienste. Es ermöglicht Entwicklern, KI-Algorithmen als Dienste zu monetarisieren und Benutzern, diese Dienste zu konsumieren, alles erleichtert durch einen Token (AGIX), der für Zahlungen und Governance verwendet wird. Im Wesentlichen versucht SingularityNET, das Angebot von KI-Modellen zu dezentralisieren, indem es sie in einem Netzwerk hostet, in dem jeder einen KI-Dienst gegen Token aufrufen kann. Dies unterscheidet sich grundlegend von MCP. MCP hostet oder monetarisiert keine KI-Modelle; stattdessen bietet es eine Standardschnittstelle für KI (wo immer sie läuft), um auf Daten/Tools zuzugreifen. Man könnte sich vorstellen, MCP zu verwenden, um eine KI mit Diensten zu verbinden, die auf SingularityNET gelistet sind, aber SingularityNET selbst konzentriert sich auf die ökonomische Schicht (wer einen KI-Dienst bereitstellt und wie er bezahlt wird). Ein weiterer wichtiger Unterschied: Governance – SingularityNET hat eine On-Chain-Governance (über SingularityNET Enhancement Proposals (SNEPs) und AGIX-Token-Abstimmung), um seine Plattform weiterzuentwickeln. Die Governance von MCP ist im Gegensatz dazu Off-Chain und kollaborativ ohne Token. Zusammenfassend streben SingularityNET und MCP beide ein offeneres KI-Ökosystem an, aber SingularityNET handelt von einem tokenisierten Netzwerk von KI-Algorithmen, während MCP von einem Protokollstandard für die KI-Tool-Interoperabilität handelt. Sie könnten sich ergänzen: zum Beispiel könnte eine KI auf SingularityNET MCP verwenden, um externe Daten abzurufen, die sie benötigt. Aber SingularityNET versucht nicht, die Tool-Nutzung zu standardisieren; es verwendet Blockchain, um KI-Dienste zu koordinieren, während MCP Softwarestandards verwendet, um KI mit jedem Dienst arbeiten zu lassen.
  • Fetch.ai (FET)Agentenbasierte dezentrale Plattform: Fetch.ai ist ein weiteres Projekt, das KI und Blockchain miteinander verbindet. Es hat seine eigene Proof-of-Stake-Blockchain und ein Framework für den Aufbau autonomer Agenten gestartet, die Aufgaben ausführen und in einem dezentralen Netzwerk interagieren. In Fetchs Vision können Millionen von „Software-Agenten“ (die Menschen, Geräte oder Organisationen repräsentieren) verhandeln und Werte austauschen, wobei FET-Token für Transaktionen verwendet werden. Fetch.ai bietet ein Agenten-Framework (uAgents) und eine Infrastruktur für die Entdeckung und Kommunikation zwischen Agenten auf seinem Ledger. Zum Beispiel könnte ein Fetch-Agent helfen, den Verkehr in einer Stadt zu optimieren, indem er mit anderen Agenten für Parken und Transport interagiert, oder einen Lieferketten-Workflow autonom verwalten. Wie vergleicht sich das mit MCP? Beide befassen sich mit dem Konzept von Agenten, aber die Agenten von Fetch.ai sind stark an seine Blockchain und Token-Ökonomie gebunden – sie leben im Fetch-Netzwerk und verwenden On-Chain-Logik. MCP-Agenten (KI-Hosts) sind modellgesteuert (wie ein LLM) und nicht an ein einziges Netzwerk gebunden; MCP ist zufrieden damit, über das Internet oder innerhalb einer Cloud-Einrichtung zu arbeiten, ohne eine Blockchain zu benötigen. Fetch.ai versucht, eine neue dezentrale KI-Wirtschaft von Grund auf aufzubauen (mit ihrem eigenen Ledger für Vertrauen und Transaktionen), während MCP schichtagnostisch ist – es nutzt bestehende Netzwerke (könnte über HTTPS oder bei Bedarf sogar auf einer Blockchain verwendet werden), um KI-Interaktionen zu ermöglichen. Man könnte sagen, Fetch handelt eher von autonomen Wirtschaftsagenten und MCP von intelligenten Tool-nutzenden Agenten. Interessanterweise könnten sich diese überschneiden: Ein autonomer Agent auf Fetch.ai könnte MCP verwenden, um mit Off-Chain-Ressourcen oder anderen Blockchains zu interagieren. Umgekehrt könnte man MCP verwenden, um Multi-Agenten-Systeme zu bauen, die verschiedene Blockchains (nicht nur eine) nutzen. In der Praxis hat MCP eine schnellere Akzeptanz erfahren, weil es kein eigenes Netzwerk benötigte – es funktioniert sofort mit Ethereum, Solana, Web2-APIs usw. Der Ansatz von Fetch.ai ist aufwendiger und schafft ein ganzes Ökosystem, dem die Teilnehmer beitreten (und Token erwerben) müssen, um es zu nutzen. Zusammenfassend: Fetch.ai vs. MCP: Fetch ist eine Plattform mit eigenem Token/Blockchain für KI-Agenten, die sich auf Interoperabilität und wirtschaftlichen Austausch zwischen Agenten konzentriert, während MCP ein Protokoll ist, das KI-Agenten (in jeder Umgebung) verwenden können, um sich an Tools und Daten anzuschliessen. Ihre Ziele überschneiden sich bei der Ermöglichung von KI-gesteuerter Automatisierung, aber sie behandeln verschiedene Schichten des Stacks und haben sehr unterschiedliche architektonische Philosophien (geschlossenes Ökosystem vs. offener Standard).
  • Chainlink und dezentrale OrakelBlockchains mit Off-Chain-Daten verbinden: Chainlink ist kein KI-Projekt, aber es ist als Web3-Protokoll, das ein komplementäres Problem löst, hochrelevant: wie Blockchains mit externen Daten und Berechnungen verbunden werden können. Chainlink ist ein dezentrales Netzwerk von Knoten (Orakeln), die Off-Chain-Daten abrufen, verifizieren und auf vertrauensminimierte Weise an Smart Contracts liefern. Zum Beispiel stellen Chainlink-Orakel Preis-Feeds für DeFi-Protokolle bereit oder rufen externe APIs im Auftrag von Smart Contracts über Chainlink Functions auf. Im Vergleich dazu verbindet MCP KI-Modelle mit externen Daten/Tools (von denen einige Blockchains sein könnten). Man könnte sagen, Chainlink bringt Daten in Blockchains, während MCP Daten in KI bringt. Es gibt eine konzeptionelle Parallele: Beide stellen eine Brücke zwischen ansonsten isolierten Systemen her. Chainlink konzentriert sich auf Zuverlässigkeit, Dezentralisierung und Sicherheit von On-Chain-Daten (Lösung des „Orakelproblems“ des Single Point of Failure). MCP konzentriert sich auf Flexibilität und Standardisierung des Datenzugriffs für KI (Lösung des „Integrationsproblems“ für KI-Agenten). Sie operieren in verschiedenen Domänen (Smart Contracts vs. KI-Assistenten), aber man könnte MCP-Server mit Orakeln vergleichen: Ein MCP-Server für Preisdaten könnte dieselben APIs aufrufen wie ein Chainlink-Knoten. Der Unterschied ist der Konsument – im Fall von MCP ist der Konsument eine KI oder ein benutzerorientierter Assistent, kein deterministischer Smart Contract. Auch bietet MCP nicht von Natur aus die Vertrauensgarantien, die Chainlink bietet (MCP-Server können zentralisiert oder von der Community betrieben werden, wobei das Vertrauen auf Anwendungsebene verwaltet wird). Wie jedoch bereits erwähnt, könnten Ideen zur Dezentralisierung von MCP-Netzwerken von Orakelnetzwerken übernommen werden – z. B. könnten mehrere MCP-Server abgefragt und die Ergebnisse gegengeprüft werden, um sicherzustellen, dass einer KI keine fehlerhaften Daten zugeführt werden, ähnlich wie mehrere Chainlink-Knoten einen Preis aggregieren. Kurz gesagt, Chainlink vs. MCP: Chainlink ist Web3-Middleware für Blockchains zum Konsum externer Daten, MCP ist KI-Middleware für Modelle zum Konsum externer Daten (die auch Blockchain-Daten umfassen könnten). Sie adressieren analoge Bedürfnisse in verschiedenen Bereichen und könnten sich sogar ergänzen: Eine KI, die MCP verwendet, könnte einen von Chainlink bereitgestellten Daten-Feed als zuverlässige Ressource abrufen, und umgekehrt könnte eine KI als Analysequelle dienen, die ein Chainlink-Orakel On-Chain bringt (obwohl dieses letztere Szenario Fragen der Überprüfbarkeit aufwerfen würde).
  • ChatGPT-Plugins / OpenAI-Funktionen vs. MCPAnsätze zur KI-Tool-Integration: Obwohl es sich nicht um Web3-Projekte handelt, ist ein kurzer Vergleich angebracht, da ChatGPT-Plugins und die Funktionsaufruffunktion von OpenAI ebenfalls KI mit externen Tools verbinden. ChatGPT-Plugins verwenden eine von einem Dienst bereitgestellte OpenAPI-Spezifikation, und das Modell kann dann diese APIs gemäss der Spezifikation aufrufen. Die Einschränkungen bestehen darin, dass es sich um ein geschlossenes Ökosystem handelt (von OpenAI genehmigte Plugins, die auf OpenAI-Servern laufen) und jedes Plugin eine isolierte Integration darstellt. OpenAIs neueres „Agents“-SDK ist konzeptionell näher an MCP, da es Entwicklern ermöglicht, Tools/Funktionen zu definieren, die eine KI verwenden kann, aber anfänglich war es spezifisch für OpenAIs Ökosystem. LangChain bot ebenfalls ein Framework, um LLMs Tools im Code zur Verfügung zu stellen. MCP unterscheidet sich dadurch, dass es einen offenen, modellagnostischen Standard dafür bietet. Wie eine Analyse es formulierte, schuf LangChain einen entwicklerorientierten Standard (eine Python-Schnittstelle) für Tools, während MCP einen modellorientierten Standard schafft – ein KI-Agent kann jedes MCP-definierte Tool zur Laufzeit ohne benutzerdefinierten Code entdecken und verwenden. In der Praxis wuchs das MCP-Ökosystem von Servern innerhalb weniger Monate grösser und vielfältiger als der ChatGPT-Plugin-Store. Und anstatt dass jedes Modell sein eigenes Plugin-Format hat (OpenAI hatte seines, andere hatten andere), konvergieren viele um MCP. OpenAI selbst signalisierte Unterstützung für MCP und passte im Wesentlichen seinen Funktionsansatz an den breiteren Standard an. Beim Vergleich von OpenAI-Plugins mit MCP: Plugins sind ein kuratierter, zentralisierter Ansatz, während MCP ein dezentraler, gemeinschaftsgetriebener Ansatz ist. Im Web3-Denken ist MCP „Open Source und Permissionless“, während proprietäre Plugin-Ökosysteme geschlossener sind. Dies macht MCP analog zum Ethos von Web3, auch wenn es keine Blockchain ist – es ermöglicht Interoperabilität und Benutzerkontrolle (man könnte seinen eigenen MCP-Server für seine Daten betreiben, anstatt alles einem KI-Anbieter zu überlassen). Dieser Vergleich zeigt, warum viele MCP ein grösseres langfristiges Potenzial zuschreiben: Es ist nicht an einen Anbieter oder ein Modell gebunden.
  • Projekt Namda und dezentrale Agenten-Frameworks: Namda verdient eine separate Anmerkung, da es MCP explizit mit Web3-Konzepten kombiniert. Wie bereits beschrieben, ist Namda (Networked Agent Modular Distributed Architecture) eine MIT/IBM-Initiative, die 2024 gestartet wurde, um ein skalierbares, verteiltes Netzwerk von KI-Agenten unter Verwendung von MCP als Kommunikationsschicht aufzubauen. Es behandelt MCP als Messaging-Backbone (da MCP Standard-JSON-RPC-ähnliche Nachrichten verwendet, passte es gut für die Inter-Agenten-Kommunikation) und fügt dann Schichten für dynamische Entdeckung, Fehlertoleranz und überprüfbare Identitäten unter Verwendung von Blockchain-inspirierten Techniken hinzu. Namdas Agenten können überall sein (Cloud, Edge-Geräte usw.), aber ein dezentrales Register (etwas wie ein DHT oder eine Blockchain) verfolgt sie und ihre Fähigkeiten auf manipulationssichere Weise. Sie erforschen sogar, Agenten Token zu geben, um Zusammenarbeit oder Ressourcenteilung zu incentivieren. Im Wesentlichen ist Namda ein Experiment, wie eine „Web3-Version von MCP“ aussehen könnte. Es ist noch kein weit verbreitetes Projekt, aber es ist eines der engsten „ähnlichen Protokolle“ im Geiste. Wenn wir Namda vs. MCP betrachten: Namda verwendet MCP (es handelt sich also nicht um konkurrierende Standards), erweitert es aber um ein Protokoll für die Vernetzung und Koordination mehrerer Agenten auf vertrauensminimierte Weise. Man könnte Namda mit Frameworks wie Autonolas oder Multi-Agent Systems (MAS) vergleichen, die die Krypto-Community gesehen hat, aber diesen fehlte oft eine leistungsstarke KI-Komponente oder ein gemeinsames Protokoll. Namda + MCP zusammen zeigen, wie ein dezentrales Agentennetzwerk funktionieren könnte, wobei Blockchain Identität, Reputation und möglicherweise Token-Anreize bereitstellt und MCP die Agentenkommunikation und Tool-Nutzung.

Zusammenfassend lässt sich sagen, dass MCP sich von den meisten früheren Web3-Projekten abhebt: Es begann überhaupt nicht als Krypto-Projekt, überschneidet sich aber schnell mit Web3, weil es komplementäre Probleme löst. Projekte wie SingularityNET und Fetch.ai zielten darauf ab, KI-Berechnungen oder -Dienste mithilfe von Blockchain zu dezentralisieren; MCP standardisiert stattdessen die KI-Integration mit Diensten, was die Dezentralisierung durch Vermeidung von Plattform-Lock-in verbessern kann. Orakelnetzwerke wie Chainlink lösten die Datenlieferung an die Blockchain; MCP löst die Datenlieferung an die KI (einschliesslich Blockchain-Daten). Wenn die Kernideale von Web3 Dezentralisierung, Interoperabilität und Benutzerermächtigung sind, greift MCP den Bereich der Interoperabilität im KI-Bereich an. Es beeinflusst sogar diese älteren Projekte – zum Beispiel hindert nichts SingularityNET daran, seine KI-Dienste über MCP-Server verfügbar zu machen, oder Fetch-Agenten daran, MCP zu verwenden, um mit externen Systemen zu kommunizieren. Wir könnten durchaus eine Konvergenz erleben, bei der tokengetriebene KI-Netzwerke MCP als ihre Lingua Franca verwenden, wodurch die Anreizstruktur von Web3 mit der Flexibilität von MCP verbunden wird.

Schliesslich, wenn wir die Marktwahrnehmung betrachten: MCP wird oft als das angepriesen, was Web3 für das Internet tun wollte – Silos aufbrechen und Benutzer befähigen. Dies hat dazu geführt, dass MCP informell als „Web3 für KI“ bezeichnet wird (auch wenn keine Blockchain beteiligt ist). Es ist jedoch wichtig zu erkennen, dass MCP ein Protokollstandard ist, während die meisten Web3-Projekte Full-Stack-Plattformen mit ökonomischen Schichten sind. In Vergleichen erweist sich MCP in der Regel als eine leichtere, universellere Lösung, während Blockchain-Projekte schwerere, spezialisierte Lösungen sind. Je nach Anwendungsfall können sie sich ergänzen, anstatt strikt zu konkurrieren. Wenn das Ökosystem reift, könnten wir sehen, dass MCP in viele Web3-Projekte als Modul integriert wird (ähnlich wie HTTP oder JSON allgegenwärtig sind), anstatt als Konkurrenzprojekt.

8. Öffentliche Wahrnehmung, Marktakzeptanz und Medienberichterstattung

Die öffentliche Stimmung gegenüber MCP war sowohl in der KI- als auch in der Web3-Community überwiegend positiv, oft grenzend an Begeisterung. Viele sehen es als einen Game-Changer, der leise ankam, aber dann die Branche im Sturm eroberte. Lassen Sie uns die Wahrnehmung, Akzeptanz und bemerkenswerte Mediennarrative aufschlüsseln:

Marktakzeptanz und Adoptionsmetriken: Mitte 2025 erreichte MCP ein Mass an Akzeptanz, das für ein neues Protokoll selten ist. Es wird von praktisch allen grossen KI-Modellanbietern (Anthropic, OpenAI, Google, Meta) unterstützt und von grossen Technologieinfrastrukturen (Microsoft, GitHub, AWS usw.) getragen, wie bereits detailliert beschrieben. Dies allein signalisiert dem Markt, dass MCP wahrscheinlich Bestand haben wird (ähnlich wie die breite Unterstützung TCP/IP oder HTTP in den frühen Internettagen vorantrieb). Auf der Web3-Seite ist die Akzeptanz im Entwicklerverhalten offensichtlich: Hackathons begannen, MCP-Projekte zu präsentieren, und viele Blockchain-Entwicklertools erwähnen nun die MCP-Integration als Verkaufsargument. Die Statistik von „über 1000 Konnektoren in wenigen Monaten“ und Mike Kriegers Zitat von „Tausenden von Integrationen“ werden oft zitiert, um zu veranschaulichen, wie schnell MCP Anklang fand. Dies deutet auf starke Netzwerkeffekte hin – je mehr Tools über MCP verfügbar sind, desto nützlicher ist es, was zu weiterer Akzeptanz führt (eine positive Rückkopplungsschleife). VCs und Analysten haben festgestellt, dass MCP in weniger als einem Jahr das erreicht hat, was frühere Versuche zur „KI-Interoperabilität“ über mehrere Jahre hinweg nicht geschafft haben, hauptsächlich aufgrund des Timings (auf der Welle des Interesses an KI-Agenten reitend) und der Open-Source-Natur. In den Web3-Medien wird die Akzeptanz manchmal anhand der Entwickler-Mindshare und der Integration in Projekte gemessen, und MCP erzielt hier nun hohe Werte.

Öffentliche Wahrnehmung in KI- und Web3-Communities: Anfangs blieb MCP bei seiner ersten Ankündigung (Ende 2024) unter dem Radar. Doch Anfang 2025, als Erfolgsgeschichten auftauchten, verlagerte sich die Wahrnehmung zu Begeisterung. KI-Praktiker sahen MCP als das „fehlende Puzzleteil“, um KI-Agenten über Spielzeugbeispiele hinaus wirklich nützlich zu machen. Web3-Entwickler hingegen sahen es als Brücke, um KI endlich in DApps zu integrieren, ohne die Dezentralisierung aufzugeben – eine KI kann beispielsweise On-Chain-Daten verwenden, ohne ein zentralisiertes Orakel zu benötigen. Vordenker haben Lobeshymnen gesungen: zum Beispiel schrieb Jesus Rodriguez (ein prominenter Web3-KI-Autor) in CoinDesk, dass MCP „eines der transformativsten Protokolle für die KI-Ära und eine grossartige Ergänzung für Web3-Architekturen“ sein könnte. Rares Crisan argumentierte in einem Notable Capital-Blog, dass MCP das Versprechen von Web3 einlösen könnte, wo Blockchain allein Schwierigkeiten hatte, indem es das Internet benutzerzentrierter und natürlicher in der Interaktion macht. Diese Narrative stellen MCP als revolutionär und doch praktisch dar – nicht nur als Hype.

Fairerweise ist nicht jeder Kommentar unkritisch. Einige KI-Entwickler in Foren wie Reddit haben darauf hingewiesen, dass MCP „nicht alles kann“ – es ist ein Kommunikationsprotokoll, kein sofort einsatzbereiter Agent oder eine Reasoning-Engine. Zum Beispiel argumentierte eine Reddit-Diskussion mit dem Titel „MCP is a Dead-End Trap“, dass MCP allein die Agentenkognition nicht verwaltet oder Qualität garantiert; es erfordert immer noch ein gutes Agentendesign und Sicherheitskontrollen. Diese Ansicht deutet darauf hin, dass MCP als Allheilmittel überbewertet werden könnte. Diese Kritikpunkte zielen jedoch eher darauf ab, Erwartungen zu dämpfen, als die Nützlichkeit von MCP abzulehnen. Sie betonen, dass MCP die Tool-Konnektivität löst, aber man immer noch eine robuste Agentenlogik aufbauen muss (d. h. MCP schafft nicht auf magische Weise einen intelligenten Agenten, es stattet ihn mit Tools aus). Der Konsens ist jedoch, dass MCP ein grosser Fortschritt ist, selbst unter vorsichtigen Stimmen. Der Community-Blog von Hugging Face stellte fest, dass MCP zwar keine Allzwecklösung ist, aber ein wichtiger Wegbereiter für integrierte, kontextbewusste KI ist, und Entwickler sich aus diesem Grund darum versammeln.

Medienberichterstattung: MCP hat sowohl in den Mainstream-Tech-Medien als auch in Nischen-Blockchain-Medien erhebliche Berichterstattung erhalten:

  • TechCrunch hat mehrere Geschichten veröffentlicht. Sie berichteten über das ursprüngliche Konzept („Anthropic schlägt eine neue Methode vor, Daten mit KI-Chatbots zu verbinden“) um den Start im Jahr 2024. Im Jahr 2025 hob TechCrunch jeden grossen Adoptionsmoment hervor: die Unterstützung von OpenAI, die Annahme durch Google, die Beteiligung von Microsoft/GitHub. Diese Artikel betonen oft die Brancheneinheit um MCP. Zum Beispiel zitierte TechCrunch Sam Altmans Unterstützung und bemerkte den schnellen Wechsel von konkurrierenden Standards zu MCP. Dabei wurde MCP als der aufstrebende Standard dargestellt, ähnlich wie niemand in den 90er Jahren von den Internetprotokollen ausgeschlossen werden wollte. Eine solche Berichterstattung in einem prominenten Medium signalisierte der breiteren Tech-Welt, dass MCP wichtig und real ist, nicht nur ein Rand-Open-Source-Projekt.
  • CoinDesk und andere Krypto-Publikationen griffen den Web3-Aspekt auf. Der Meinungsartikel von Rodriguez in CoinDesk (Juli 2025) wird oft zitiert; er zeichnete ein futuristisches Bild, in dem jede Blockchain ein MCP-Server sein könnte und neue MCP-Netzwerke auf Blockchains laufen könnten. Er verband MCP mit Konzepten wie dezentraler Identität, Authentifizierung und Überprüfbarkeit – sprach die Sprache des Blockchain-Publikums und deutete an, dass MCP das Protokoll sein könnte, das KI wirklich mit dezentralen Frameworks verschmilzt. Cointelegraph, Bankless und andere haben MCP auch im Kontext von „KI-Agenten & DeFi“ und ähnlichen Themen diskutiert, meist optimistisch über die Möglichkeiten (z. B. hatte Bankless einen Artikel über die Verwendung von MCP, um einer KI die Verwaltung von On-Chain-Trades zu ermöglichen, und enthielt eine Anleitung für ihren eigenen MCP-Server).
  • Bemerkenswerte VC-Blogs / Analystenberichte: Der Blogbeitrag von Notable Capital (Juli 2025) ist ein Beispiel für eine Venture-Analyse, die Parallelen zwischen MCP und der Entwicklung von Web-Protokollen zieht. Er argumentiert im Wesentlichen, dass MCP für Web3 das tun könnte, was HTTP für Web1 getan hat – eine neue Schnittstellenschicht (natürliche Sprachschnittstelle) bereitstellen, die die zugrunde liegende Infrastruktur nicht ersetzt, sondern sie nutzbar macht. Diese Art von Narrativ ist überzeugend und wurde in Panels und Podcasts wiederholt. Es positioniert MCP nicht als Konkurrenz zur Blockchain, sondern als die nächste Abstraktionsschicht, die es normalen Benutzern (über KI) endlich ermöglicht, Blockchain- und Webdienste einfach zu nutzen.
  • Entwickler-Community-Buzz: Ausserhalb formeller Artikel lässt sich der Aufstieg von MCP an seiner Präsenz im Entwicklerdiskurs messen – Konferenzvorträge, YouTube-Kanäle, Newsletter. Zum Beispiel gab es beliebte Blogbeiträge wie „MCP: Das fehlende Glied für Agenten-KI?“ auf Websites wie Runtime.news und Newsletter (z. B. einen des KI-Forschers Nathan Lambert), die praktische Experimente mit MCP und dessen Vergleich mit anderen Tool-Nutzungs-Frameworks diskutierten. Der allgemeine Ton ist Neugier und Begeisterung: Entwickler teilen Demos, wie sie KI mit ihrer Hausautomation oder Krypto-Wallet mit nur wenigen Zeilen Code über MCP-Server verbinden, etwas, das vor nicht allzu langer Zeit nach Science-Fiction klang. Diese Basisbegeisterung ist wichtig, weil sie zeigt, dass MCP über reine Unternehmensunterstützung hinaus eine grosse Bedeutung hat.
  • Unternehmensperspektive: Medien und Analysten, die sich auf Unternehmens-KI konzentrieren, bemerken MCP ebenfalls als wichtige Entwicklung. Zum Beispiel berichtete The New Stack, wie Anthropic die Unterstützung für Remote-MCP-Server in Claude für den Unternehmenseinsatz hinzufügte. Der Ansatz hier ist, dass Unternehmen MCP nutzen können, um ihre internen Wissensdatenbanken und Systeme sicher mit KI zu verbinden. Dies ist auch für Web3 wichtig, da viele Blockchain-Unternehmen selbst Unternehmen sind und MCP intern nutzen können (zum Beispiel könnte eine Krypto-Börse MCP verwenden, um einer KI die Analyse interner Transaktionsprotokolle zur Betrugserkennung zu ermöglichen).

Bemerkenswerte Zitate und Reaktionen: Einige sind hervorzuheben, da sie die öffentliche Wahrnehmung zusammenfassen:

  • „Ähnlich wie HTTP die Webkommunikation revolutionierte, bietet MCP ein universelles Framework... das fragmentierte Integrationen durch ein einziges Protokoll ersetzt.“ – CoinDesk. Dieser Vergleich mit HTTP ist aussagekräftig; er stellt MCP als Innovation auf Infrastrukturebene dar.
  • „MCP ist [zu einem] florierenden offenen Standard mit Tausenden von Integrationen und wachsend geworden. LLMs sind am nützlichsten, wenn sie sich mit den Daten verbinden, die Sie bereits haben...“ – Mike Krieger (Anthropic). Dies ist eine offizielle Bestätigung sowohl der Akzeptanz als auch des Kernnutzenversprechens, das in sozialen Medien weit verbreitet wurde.
  • „Das Versprechen von Web3... kann endlich... durch natürliche Sprache und KI-Agenten verwirklicht werden. ...MCP ist das Nächste, was wir einem echten Web3 für die Massen gesehen haben.“ – Notable Capital. Diese kühne Aussage findet Anklang bei denen, die von den langsamen UX-Verbesserungen im Krypto-Bereich frustriert sind; sie deutet darauf hin, dass KI den Code der Mainstream-Akzeptanz knacken könnte, indem sie die Komplexität abstrahiert.

Herausforderungen und Skepsis: Obwohl die Begeisterung gross ist, haben die Medien auch Herausforderungen diskutiert:

  • Sicherheitsbedenken: Publikationen wie The New Stack oder Sicherheitsblogs haben darauf hingewiesen, dass das Zulassen der Ausführung von Tools durch KI gefährlich sein kann, wenn es nicht in einer Sandbox erfolgt. Was, wenn ein bösartiger MCP-Server versuchen würde, eine KI zu einer schädlichen Aktion zu veranlassen? Der LimeChain-Blog warnt explizit vor „erheblichen Sicherheitsrisiken“ bei von der Community entwickelten MCP-Servern (z. B. muss ein Server, der private Schlüssel verarbeitet, extrem sicher sein). Diese Bedenken wurden in Diskussionen wiederholt: Im Wesentlichen erweitert MCP die Fähigkeiten von KI, aber mit der Macht kommt das Risiko. Die Reaktion der Community (Leitfäden, Authentifizierungsmechanismen) wurde ebenfalls behandelt und versichert im Allgemeinen, dass Abhilfemassnahmen entwickelt werden. Dennoch würde jeder hochkarätige Missbrauch von MCP (z. B. eine unbeabsichtigte Krypto-Übertragung durch eine KI) die Wahrnehmung beeinflussen, daher sind die Medien in dieser Hinsicht wachsam.
  • Leistung und Kosten: Einige Analysten stellen fest, dass die Verwendung von KI-Agenten mit Tools langsamer oder kostspieliger sein könnte als der direkte Aufruf einer API (da die KI möglicherweise mehrere Hin- und Her-Schritte benötigt, um das zu bekommen, was sie braucht). In Hochfrequenzhandels- oder On-Chain-Ausführungskontexten könnte diese Latenz problematisch sein. Vorerst werden diese als technische Hürden angesehen, die optimiert werden müssen (durch besseres Agentendesign oder Streaming), und nicht als Deal-Breaker.
  • Hype-Management: Wie bei jeder Trendtechnologie gibt es ein gewisses Mass an Hype. Einige Stimmen warnen davor, MCP zur Lösung für alles zu erklären. Zum Beispiel fragt der Hugging Face-Artikel „Ist MCP ein Allheilmittel?“ und antwortet nein – Entwickler müssen immer noch das Kontextmanagement handhaben, und MCP funktioniert am besten in Kombination mit guten Prompting- und Speicherstrategien. Solche ausgewogenen Ansichten sind gesund im Diskurs.

Gesamte Medienstimmung: Das sich abzeichnende Narrativ ist weitgehend hoffnungsvoll und zukunftsorientiert:

  • MCP wird als praktisches Tool angesehen, das jetzt echte Verbesserungen liefert (also keine Vaporware), was die Medien durch die Nennung funktionierender Beispiele unterstreichen: Claude liest Dateien, Copilot verwendet MCP in VSCode, eine KI schliesst eine Solana-Transaktion in einer Demo ab usw.
  • Es wird auch als strategischer Dreh- und Angelpunkt für die Zukunft von KI und Web3 dargestellt. Die Medien kommen oft zu dem Schluss, dass MCP oder Ähnliches für „dezentrale KI“ oder „Web4“ oder welchen Begriff man auch immer für das Web der nächsten Generation verwendet, unerlässlich sein wird. Es besteht das Gefühl, dass MCP eine Tür geöffnet hat und nun Innovationen hindurchfliessen – ob es sich um Namdas dezentrale Agenten oder Unternehmen handelt, die Altsysteme mit KI verbinden, viele zukünftige Geschichten gehen auf die Einführung von MCP zurück.

Auf dem Markt könnte man die Akzeptanz an der Gründung von Startups und der Finanzierung im MCP-Ökosystem messen. Tatsächlich gibt es Gerüchte/Berichte über Startups, die sich auf „MCP-Marktplätze“ oder verwaltete MCP-Plattformen konzentrieren und Finanzierungen erhalten (Notable Capital, das darüber schreibt, deutet auf VC-Interesse hin). Wir können erwarten, dass die Medien diese tangential behandeln werden – z. B. „Startup X verwendet MCP, damit Ihre KI Ihr Krypto-Portfolio verwaltet – sammelt Y Millionen Dollar ein“.

Fazit zur Wahrnehmung: Ende 2025 geniesst MCP den Ruf einer bahnbrechenden, ermöglichenden Technologie. Es wird von einflussreichen Persönlichkeiten sowohl in der KI- als auch in der Krypto-Welt stark befürwortet. Die öffentliche Erzählung hat sich von „hier ist ein nettes Tool“ zu „dies könnte grundlegend für das nächste Web sein“ entwickelt. Gleichzeitig bestätigt die praktische Berichterstattung, dass es funktioniert und angenommen wird, was Glaubwürdigkeit verleiht. Vorausgesetzt, die Community geht weiterhin Herausforderungen an (Sicherheit, Governance in grossem Massstab) und es treten keine grösseren Katastrophen auf, wird das öffentliche Image von MCP wahrscheinlich positiv bleiben oder sogar ikonisch werden als „das Protokoll, das KI und Web3 dazu brachte, gut zusammenzuspielen“.

Die Medien werden wahrscheinlich ein genaues Auge auf Folgendes haben:

  • Erfolgsgeschichten (z. B. wenn eine grosse DAO einen KI-Schatzmeister über MCP implementiert oder eine Regierung MCP für offene Daten-KI-Systeme verwendet).
  • Jegliche Sicherheitsvorfälle (zur Risikobewertung).
  • Die Entwicklung von MCP-Netzwerken und ob eine Token- oder Blockchain-Komponente offiziell ins Spiel kommt (was eine grosse Nachricht wäre, die KI und Krypto noch enger miteinander verbindet).

Im Moment lässt sich die Berichterstattung jedoch mit einer Zeile von CoinDesk zusammenfassen: „Die Kombination von Web3 und MCP könnte eine neue Grundlage für dezentrale KI sein.“ – ein Gefühl, das sowohl das Versprechen als auch die Begeisterung um MCP in der Öffentlichkeit einfängt.

Referenzen:

  • Anthropic News: "Introducing the Model Context Protocol," Nov 2024
  • LimeChain Blog: "What is MCP and How Does It Apply to Blockchains?" May 2025
  • Chainstack Blog: "MCP for Web3 Builders: Solana, EVM and Documentation," June 2025
  • CoinDesk Op-Ed: "The Protocol of Agents: Web3’s MCP Potential," Jul 2025
  • Notable Capital: "Why MCP Represents the Real Web3 Opportunity," Jul 2025
  • TechCrunch: "OpenAI adopts Anthropic’s standard…", Mar 26, 2025
  • TechCrunch: "Google to embrace Anthropic’s standard…", Apr 9, 2025
  • TechCrunch: "GitHub, Microsoft embrace… (MCP steering committee)", May 19, 2025
  • Microsoft Dev Blog: "Official C# SDK for MCP," Apr 2025
  • Hugging Face Blog: "#14: What Is MCP, and Why Is Everyone Talking About It?" Mar 2025
  • Messari Research: "Fetch.ai Profile," 2023
  • Medium (Nu FinTimes): "Unveiling SingularityNET," Mar 2024

Googles Agent Payments Protocol (AP2)

· 35 Minuten Lesezeit
Dora Noda
Software Engineer

Googles Agent Payments Protocol (AP2) ist ein neu angekündigter offener Standard, der sichere, vertrauenswürdige Transaktionen ermöglichen soll, die von KI-Agenten im Auftrag von Nutzern initiiert werden. AP2 wurde in Zusammenarbeit mit über 60 Zahlungs- und Technologieunternehmen (einschließlich großer Zahlungsnetzwerke, Banken, Fintechs und Web3-Unternehmen) entwickelt und etabliert eine gemeinsame Sprache für „agentische“ Zahlungen – d. h. Käufe und Finanztransaktionen, die ein autonomer Agent (wie ein KI-Assistent oder ein LLM-basierter Agent) für einen Nutzer ausführen kann. Die Entwicklung von AP2 wird durch einen grundlegenden Wandel vorangetrieben: Traditionell gingen Online-Zahlungssysteme davon aus, dass ein Mensch direkt auf „Kaufen“ klickt, doch der Aufstieg von KI-Agenten, die nach Benutzeranweisungen handeln, bricht diese Annahme. AP2 adressiert die daraus resultierenden Herausforderungen bei Autorisierung, Authentizität und Verantwortlichkeit im KI-gesteuerten Handel, während es mit der bestehenden Zahlungsinfrastruktur kompatibel bleibt. Dieser Bericht untersucht die technische Architektur von AP2, seinen Zweck und seine Anwendungsfälle, Integrationen mit KI-Agenten und Zahlungsdienstleistern, Sicherheits- und Compliance-Aspekte, Vergleiche mit bestehenden Protokollen, Implikationen für Web3/dezentrale Systeme sowie die Branchenakzeptanz/Roadmap.

Technische Architektur: Wie AP2 funktioniert

Im Kern führt AP2 ein kryptografisch sicheres Transaktions-Framework ein, das auf verifizierbaren digitalen Berechtigungsnachweisen (VDCs) basiert – im Wesentlichen manipulationssichere, signierte Datenobjekte, die als digitale „Verträge“ dessen dienen, was der Nutzer autorisiert hat. In der AP2-Terminologie werden diese Verträge Mandate genannt, und sie bilden eine prüfbare Beweiskette für jede Transaktion. Es gibt drei primäre Arten von Mandaten in der AP2-Architektur:

  • Intent Mandate: Erfasst die ursprünglichen Anweisungen oder Bedingungen des Nutzers für einen Kauf, insbesondere für „Szenarien ohne menschliche Anwesenheit“ (bei denen der Agent später ohne den online befindlichen Nutzer handelt). Es definiert den Umfang der Autorität, den der Nutzer dem Agenten erteilt – zum Beispiel „Kaufe Konzertkarten, wenn sie unter 200 $ fallen, bis zu 2 Tickets“. Dieses Mandat wird vom Nutzer im Voraus kryptografisch signiert und dient als verifizierbarer Nachweis der Zustimmung innerhalb spezifischer Grenzen.
  • Cart Mandate: Repräsentiert die endgültigen Transaktionsdetails, die der Nutzer genehmigt hat, verwendet in „Szenarien mit menschlicher Anwesenheit“ oder zum Zeitpunkt des Bezahlvorgangs. Es umfasst die genauen Artikel oder Dienstleistungen, deren Preis und andere Einzelheiten des Kaufs. Wenn der Agent bereit ist, die Transaktion abzuschließen (z. B. nach dem Befüllen eines Warenkorbs), signiert der Händler zuerst kryptografisch den Warenkorbinhalt (garantiert die Bestelldetails und den Preis), und dann signiert der Nutzer (über sein Gerät oder die Agentenoberfläche), um ein Cart Mandate zu erstellen. Dies gewährleistet Was-Sie-sehen-ist-was-Sie-bezahlen, indem die endgültige Bestellung genau so fixiert wird, wie sie dem Nutzer präsentiert wurde.
  • Payment Mandate: Ein separater Berechtigungsnachweis, der an das Zahlungsnetzwerk (z. B. Kartennetzwerk oder Bank) gesendet wird, um zu signalisieren, dass ein KI-Agent an der Transaktion beteiligt ist. Das Payment Mandate enthält Metadaten, wie z. B. ob der Nutzer während der Autorisierung anwesend war oder nicht, und dient als Kennzeichen für Risikomanagementsysteme. Durch die Bereitstellung kryptografisch verifizierbarer Beweise der Nutzerabsicht für die akzeptierenden und ausstellenden Banken hilft dieses Mandat ihnen, den Kontext zu bewerten (z. B. einen von einem Agenten initiierten Kauf von typischem Betrug zu unterscheiden) und Compliance oder Haftung entsprechend zu verwalten.

Alle Mandate werden als verifizierbare Berechtigungsnachweise implementiert, die mit den Schlüsseln der jeweiligen Partei (Nutzer, Händler usw.) signiert sind, was einen nicht abstreitbaren Audit-Trail für jede agentengesteuerte Transaktion ergibt. In der Praxis verwendet AP2 eine rollenbasierte Architektur, um sensible Informationen zu schützen – zum Beispiel könnte ein Agent ein Intent Mandate bearbeiten, ohne jemals Rohzahlungsdetails zu sehen, die nur kontrolliert bei Bedarf offengelegt werden, wodurch die Privatsphäre gewahrt bleibt. Die kryptografische Kette von Nutzerabsicht → Händlerverpflichtung → Zahlungsautorisierung etabliert Vertrauen zwischen allen Parteien, dass die Transaktion die wahren Anweisungen des Nutzers widerspiegelt und dass sowohl der Agent als auch der Händler diese Anweisungen befolgt haben.

Transaktionsfluss: Um zu veranschaulichen, wie AP2 End-to-End funktioniert, betrachten wir ein einfaches Kaufszenario mit einem Menschen in der Schleife:

  1. Nutzeranfrage: Der Nutzer bittet seinen KI-Agenten, einen bestimmten Artikel oder eine Dienstleistung zu kaufen (z. B. „Bestelle dieses Paar Schuhe in meiner Größe“).
  2. Warenkorb-Erstellung: Der Agent kommuniziert mit den Systemen des Händlers (unter Verwendung von Standard-APIs oder über eine Agent-zu-Agent-Interaktion), um einen Warenkorb für den angegebenen Artikel zu einem bestimmten Preis zusammenzustellen.
  3. Händlergarantie: Bevor der Warenkorb dem Nutzer präsentiert wird, signiert die Händlerseite die Warenkorbdetails (Artikel, Menge, Preis usw.) kryptografisch. Dieser Schritt erstellt ein vom Händler signiertes Angebot, das die genauen Bedingungen garantiert (verhindert versteckte Änderungen oder Preismanipulationen).
  4. Nutzergenehmigung: Der Agent zeigt dem Nutzer den finalisierten Warenkorb. Der Nutzer bestätigt den Kauf, und diese Genehmigung löst zwei kryptografische Signaturen von der Nutzerseite aus: eine auf dem Cart Mandate (um den Warenkorb des Händlers unverändert zu akzeptieren) und eine auf dem Payment Mandate (um die Zahlung über den gewählten Zahlungsdienstleister zu autorisieren). Diese signierten Mandate werden dann dem Händler bzw. dem Zahlungsnetzwerk mitgeteilt.
  5. Ausführung: Ausgestattet mit dem Cart Mandate und dem Payment Mandate führen Händler und Zahlungsdienstleister die Transaktion sicher aus. Zum Beispiel übermittelt der Händler die Zahlungsanfrage zusammen mit dem Nachweis der Nutzergenehmigung an das Zahlungsnetzwerk (Kartennetzwerk, Bank usw.), das das Payment Mandate überprüfen kann. Das Ergebnis ist eine abgeschlossene Kauftransaktion mit einem kryptografischen Audit-Trail, der die Absicht des Nutzers mit der endgültigen Zahlung verknüpft.

Dieser Fluss zeigt, wie AP2 Vertrauen in jeden Schritt eines KI-gesteuerten Kaufs aufbaut. Der Händler hat einen kryptografischen Nachweis dessen, was der Nutzer genau zu welchem Preis zu kaufen zugestimmt hat, und der Emittent/die Bank hat einen Nachweis, dass der Nutzer diese Zahlung autorisiert hat, obwohl ein KI-Agent den Prozess erleichtert hat. Im Falle von Streitigkeiten oder Fehlern dienen die signierten Mandate als klare Beweismittel und helfen, die Verantwortlichkeit zu bestimmen (z. B. wenn der Agent von Anweisungen abgewichen ist oder wenn eine Belastung nicht dem entsprach, was der Nutzer genehmigt hatte). Im Wesentlichen stellt die Architektur von AP2 sicher, dass die verifizierbare Nutzerabsicht – und nicht das Vertrauen in das Verhalten des Agenten – die Grundlage der Transaktion bildet, wodurch die Mehrdeutigkeit erheblich reduziert wird.

Zweck und Anwendungsfälle für AP2

Warum AP2 benötigt wird: Der Hauptzweck von AP2 ist es, aufkommende Vertrauens- und Sicherheitsprobleme zu lösen, die entstehen, wenn KI-Agenten im Auftrag von Nutzern Geld ausgeben können. Google und seine Partner identifizierten mehrere Schlüsselfragen, die die heutige Zahlungsinfrastruktur nicht adäquat beantworten kann, wenn ein autonomer Agent involviert ist:

  • Autorisierung: Wie kann nachgewiesen werden, dass ein Nutzer dem Agenten tatsächlich die Erlaubnis erteilt hat, einen bestimmten Kauf zu tätigen? (Mit anderen Worten, sicherzustellen, dass der Agent keine Dinge ohne die informierte Zustimmung des Nutzers kauft.)
  • Authentizität: Wie kann ein Händler wissen, dass die Kaufanfrage eines Agenten echt ist und die wahre Absicht des Nutzers widerspiegelt, anstatt eines Fehlers oder einer KI-Halluzination?
  • Verantwortlichkeit: Wenn eine betrügerische oder fehlerhafte Transaktion über einen Agenten erfolgt, wer ist verantwortlich – der Nutzer, der Händler, der Zahlungsdienstleister oder der Ersteller des KI-Agenten?

Ohne eine Lösung schaffen diese Unsicherheiten eine „Vertrauenskrise“ im agentengesteuerten Handel. Die Mission von AP2 ist es, diese Lösung bereitzustellen, indem es ein einheitliches Protokoll für sichere Agententransaktionen etabliert. Durch die Einführung standardisierter Mandate und Absichtsnachweise verhindert AP2 ein fragmentiertes Ökosystem, in dem jedes Unternehmen seine eigenen Ad-hoc-Agentenzahlungsmethoden erfindet. Stattdessen kann jeder konforme KI-Agent mit jedem konformen Händler/Zahlungsdienstleister unter einem gemeinsamen Satz von Regeln und Verifizierungen interagieren. Diese Konsistenz vermeidet nicht nur Verwirrung bei Nutzern und Händlern, sondern gibt Finanzinstituten auch eine klare Möglichkeit, Risiken für von Agenten initiierte Zahlungen zu verwalten, anstatt sich mit einem Flickenteppich proprietärer Ansätze auseinanderzusetzen. Kurz gesagt, der Zweck von AP2 ist es, eine grundlegende Vertrauensschicht zu sein, die es der „Agenten-Ökonomie“ ermöglicht, zu wachsen, ohne das Zahlungsökosystem zu zerstören.

Beabsichtigte Anwendungsfälle: Durch die Lösung der oben genannten Probleme öffnet AP2 die Tür zu neuen Handelserlebnissen und Anwendungsfällen, die über das hinausgehen, was mit einem Menschen, der manuell Käufe durchklickt, möglich ist. Einige Beispiele für agentengesteuerten Handel, die AP2 unterstützt, sind:

  • Intelligenteres Einkaufen: Ein Kunde kann seinem Agenten anweisen: „Ich möchte diese Winterjacke in Grün, und ich bin bereit, bis zu 20 % über dem aktuellen Preis dafür zu zahlen“. Ausgestattet mit einem Intent Mandate, das diese Bedingungen kodiert, überwacht der Agent kontinuierlich Händler-Websites oder Datenbanken. Sobald die Jacke in Grün verfügbar ist (und innerhalb des Preisschwellenwerts), führt der Agent automatisch einen Kauf mit einer sicheren, signierten Transaktion aus – und sichert einen Verkauf, der sonst verpasst worden wäre. Die gesamte Interaktion, von der ursprünglichen Anfrage des Nutzers bis zum automatisierten Bezahlvorgang, wird durch AP2-Mandate geregelt, die sicherstellen, dass der Agent nur genau das kauft, was autorisiert wurde.
  • Personalisierte Angebote: Ein Nutzer teilt seinem Agenten mit, dass er ein bestimmtes Produkt (z. B. ein neues Fahrrad) von einem bestimmten Händler für eine bevorstehende Reise sucht. Der Agent kann dieses Interesse (innerhalb der Grenzen eines Intent Mandate) mit dem KI-Agenten des Händlers teilen, einschließlich relevanter Kontextinformationen wie dem Reisedatum. Der Händler-Agent, der die Absicht und den Kontext des Nutzers kennt, könnte mit einem maßgeschneiderten Paket oder Rabatt antworten – zum Beispiel „Fahrrad + Helm + Gepäckträger mit 15 % Rabatt, verfügbar für die nächsten 48 Stunden.“ Mit AP2 kann der Agent des Nutzers dieses maßgeschneiderte Angebot sicher annehmen und abschließen, wodurch eine einfache Anfrage zu einem wertvolleren Verkauf für den Händler wird.
  • Koordinierte Aufgaben: Ein Nutzer, der eine komplexe Aufgabe (z. B. eine Wochenendreise) plant, delegiert sie vollständig: „Buche mir einen Flug und ein Hotel für diese Daten mit einem Gesamtbudget von 700 $.“ Der Agent kann mit den Agenten mehrerer Dienstleister – Fluggesellschaften, Hotels, Reiseplattformen – interagieren, um eine Kombination zu finden, die zum Budget passt. Sobald ein passendes Flug-Hotel-Paket identifiziert ist, verwendet der Agent AP2, um mehrere Buchungen auf einmal auszuführen, jede kryptografisch signiert (z. B. die Ausstellung separater Cart Mandates für die Fluggesellschaft und das Hotel, beide unter dem Intent Mandate des Nutzers autorisiert). AP2 stellt sicher, dass alle Teile dieser koordinierten Transaktion wie genehmigt erfolgen, und ermöglicht sogar die gleichzeitige Ausführung, sodass Tickets und Reservierungen zusammen gebucht werden, ohne das Risiko, dass ein Teil mittendrin fehlschlägt.

Diese Szenarien veranschaulichen nur einige der beabsichtigten Anwendungsfälle von AP2. Im weiteren Sinne unterstützt das flexible Design von AP2 sowohl konventionelle E-Commerce-Abläufe als auch völlig neue Handelsmodelle. Zum Beispiel kann AP2 abonnementähnliche Dienste erleichtern (ein Agent hält Sie mit dem Nötigsten versorgt, indem er kauft, wenn Bedingungen erfüllt sind), ereignisgesteuerte Käufe (Kauf von Tickets oder Artikeln, sobald ein Auslöseereignis eintritt), Gruppenagentenverhandlungen (Agenten mehrerer Nutzer bündeln Mandate, um einen Gruppenrabatt auszuhandeln) und viele andere aufkommende Muster. In jedem Fall ist der gemeinsame Nenner, dass AP2 das Vertrauens-Framework – klare Nutzerautorisierung und kryptografische Prüfbarkeit – bereitstellt, das diese agentengesteuerten Transaktionen sicher ermöglicht. Durch die Handhabung der Vertrauens- und Verifizierungsschicht ermöglicht AP2 Entwicklern und Unternehmen, sich auf die Innovation neuer KI-Handelserlebnisse zu konzentrieren, ohne die Zahlungssicherheit von Grund auf neu erfinden zu müssen.

Integration mit Agenten, LLMs und Zahlungsdienstleistern

AP2 ist explizit darauf ausgelegt, sich nahtlos in KI-Agenten-Frameworks und bestehende Zahlungssysteme zu integrieren und als Brücke zwischen beiden zu fungieren. Google hat AP2 als Erweiterung seiner Agent2Agent (A2A)-Protokoll- und Model Context Protocol (MCP)-Standards positioniert. Mit anderen Worten, wenn A2A eine generische Sprache für Agenten zur Kommunikation von Aufgaben bereitstellt und MCP standardisiert, wie KI-Modelle Kontext/Tools einbeziehen, dann fügt AP2 eine Transaktionsschicht für den Handel hinzu. Die Protokolle sind komplementär: A2A handhabt die Agent-zu-Agent-Kommunikation (ermöglicht es beispielsweise einem Einkaufsagenten, mit dem Agenten eines Händlers zu sprechen), während AP2 die Agent-zu-Händler-Zahlungsautorisierung innerhalb dieser Interaktionen handhabt. Da AP2 offen und nicht-proprietär ist, soll es Framework-agnostisch sein: Entwickler können es mit Googles eigenem Agent Development Kit (ADK) oder jeder KI-Agentenbibliothek verwenden, und ebenso kann es mit verschiedenen KI-Modellen, einschließlich LLMs, zusammenarbeiten. Ein LLM-basierter Agent könnte AP2 beispielsweise nutzen, indem er die erforderlichen Mandats-Payloads (geleitet von der AP2-Spezifikation) generiert und austauscht, anstatt nur Freitext. Durch die Durchsetzung eines strukturierten Protokolls hilft AP2, die hochrangige Absicht eines KI-Agenten (die aus der Argumentation eines LLM stammen könnte) in konkrete, sichere Transaktionen umzuwandeln.

Auf der Zahlungsseite wurde AP2 in Zusammenarbeit mit traditionellen Zahlungsdienstleistern und Standards entwickelt, anstatt als Rip-and-Replace-System. Das Protokoll ist zahlungsmethodenagnostisch, was bedeutet, dass es eine Vielzahl von Zahlungswegen unterstützen kann – von Kredit-/Debitkartennetzwerken über Banküberweisungen bis hin zu digitalen Geldbörsen – als zugrunde liegende Methode zur Geldbewegung. In seiner ersten Version betont AP2 die Kompatibilität mit Kartenzahlungen, da diese im Online-Handel am häufigsten sind. Das AP2 Payment Mandate ist darauf ausgelegt, sich in den bestehenden Kartenverarbeitungsprozess einzufügen: Es liefert zusätzliche Daten an das Zahlungsnetzwerk (z. B. Visa, Mastercard, Amex) und die ausstellende Bank, dass ein KI-Agent involviert ist und ob der Nutzer anwesend war, wodurch bestehende Betrugserkennungs- und Autorisierungsprüfungen ergänzt werden. Im Wesentlichen verarbeitet AP2 die Zahlung nicht selbst; es ergänzt die Zahlungsanfrage um einen kryptografischen Nachweis der Nutzerabsicht. Dies ermöglicht es Zahlungsdienstleistern, von Agenten initiierte Transaktionen mit angemessener Vorsicht oder Geschwindigkeit zu behandeln (z. B. könnte ein Emittent einen ungewöhnlich aussehenden Kauf genehmigen, wenn er ein gültiges AP2-Mandat sieht, das beweist, dass der Nutzer es vorab genehmigt hat). Insbesondere planen Google und Partner, AP2 weiterzuentwickeln, um auch „Push“-Zahlungsmethoden zu unterstützen – wie Echtzeit-Banküberweisungen (wie Indiens UPI- oder Brasiliens PIX-Systeme) – und andere aufkommende digitale Zahlungsarten. Dies deutet darauf hin, dass die Integration von AP2 über Karten hinausgehen und sich an modernen Zahlungstrends weltweit ausrichten wird.

Für Händler und Zahlungsabwickler würde die Integration von AP2 bedeuten, die zusätzlichen Protokollnachrichten (Mandate) zu unterstützen und Signaturen zu verifizieren. Viele große Zahlungsplattformen sind bereits an der Gestaltung von AP2 beteiligt, sodass wir erwarten können, dass sie Unterstützung dafür aufbauen werden. Zum Beispiel könnten Unternehmen wie Adyen, Worldpay, Paypal, Stripe (nicht explizit im Blog genannt, aber wahrscheinlich interessiert) und andere AP2 in ihre Checkout-APIs oder SDKs integrieren, um einem Agenten zu ermöglichen, eine Zahlung auf standardisierte Weise zu initiieren. Da AP2 eine offene Spezifikation auf GitHub mit Referenzimplementierungen ist, können Zahlungsdienstleister und Technologieplattformen sofort damit experimentieren. Google hat auch einen KI-Agenten-Marktplatz erwähnt, auf dem Drittanbieter-Agenten gelistet werden können – diese Agenten werden voraussichtlich AP2 für alle Transaktionsfähigkeiten unterstützen. In der Praxis könnte ein Unternehmen, das einen KI-Verkaufsassistenten oder Beschaffungsagenten entwickelt, diesen auf diesem Marktplatz listen, und dank AP2 kann dieser Agent Käufe oder Bestellungen zuverlässig ausführen.

Schließlich profitiert die Integrationsgeschichte von AP2 von ihrer breiten Branchenunterstützung. Durch die gemeinsame Entwicklung des Protokolls mit großen Finanzinstituten und Technologieunternehmen stellte Google sicher, dass AP2 mit bestehenden Branchenregeln und Compliance-Anforderungen übereinstimmt. Die Zusammenarbeit mit Zahlungsnetzwerken (z. B. Mastercard, UnionPay), Emittenten (z. B. American Express), Fintechs (z. B. Revolut, Paypal), E-Commerce-Akteuren (z. B. Etsy) und sogar Identitäts-/Sicherheitsanbietern (z. B. Okta, Cloudflare) deutet darauf hin, dass AP2 so konzipiert ist, dass es mit minimaler Reibung in reale Systeme passt. Diese Stakeholder bringen Fachwissen in Bereichen wie KYC (Know Your Customer-Vorschriften), Betrugsprävention und Datenschutz mit, was AP2 hilft, diese Anforderungen von Anfang an zu erfüllen. Zusammenfassend lässt sich sagen, dass AP2 agentenfreundlich und zahlungsdienstleisterfreundlich aufgebaut ist: Es erweitert bestehende KI-Agentenprotokolle, um Transaktionen zu handhaben, und es schichtet sich über bestehende Zahlungsnetzwerke, um deren Infrastruktur zu nutzen und gleichzeitig notwendige Vertrauensgarantien hinzuzufügen.

Sicherheits-, Compliance- und Interoperabilitätsaspekte

Sicherheit und Vertrauen stehen im Mittelpunkt des AP2-Designs. Die Verwendung von Kryptografie (digitale Signaturen auf Mandaten) durch das Protokoll stellt sicher, dass jede kritische Aktion in einer agentischen Transaktion verifizierbar und nachvollziehbar ist. Diese Nicht-Abstreitbarkeit ist entscheidend: Weder der Nutzer noch der Händler können später leugnen, was autorisiert und vereinbart wurde, da die Mandate als sichere Aufzeichnungen dienen. Ein direkter Vorteil liegt in der Betrugsprävention und Streitbeilegung – mit AP2 wäre, wenn ein bösartiger oder fehlerhafter Agent einen nicht autorisierten Kauf versucht, das Fehlen eines gültigen vom Nutzer signierten Mandats offensichtlich, und die Transaktion kann abgelehnt oder rückgängig gemacht werden. Umgekehrt, wenn ein Nutzer behauptet „Ich habe diesen Kauf nie genehmigt“, aber ein Cart Mandate mit seiner kryptografischen Signatur existiert, haben Händler und Emittent starke Beweise, um die Belastung zu unterstützen. Diese Klarheit der Verantwortlichkeit beantwortet ein wichtiges Compliance-Anliegen für die Zahlungsbranche.

Autorisierung & Datenschutz: AP2 erzwingt einen expliziten Autorisierungsschritt (oder mehrere Schritte) vom Nutzer für agentengesteuerte Transaktionen, was mit regulatorischen Trends wie der starken Kundenauthentifizierung übereinstimmt. Das in AP2 verankerte Prinzip der Nutzerkontrolle bedeutet, dass ein Agent keine Gelder ausgeben kann, es sei denn, der Nutzer (oder eine vom Nutzer delegierte Person) hat eine verifizierbare Anweisung dazu gegeben. Selbst in vollständig autonomen Szenarien definiert der Nutzer die Regeln über ein Intent Mandate vorab. Dieser Ansatz kann als analog zur Erteilung einer Vollmacht an den Agenten für spezifische Transaktionen angesehen werden, jedoch auf digital signierte, feingranulare Weise. Aus Datenschutzsicht ist AP2 aufmerksam bezüglich der Datenweitergabe: Das Protokoll verwendet eine rollenbasierte Datenarchitektur, um sicherzustellen, dass sensible Informationen (wie Zahlungsdaten oder persönliche Details) nur an Parteien weitergegeben werden, die sie unbedingt benötigen. Zum Beispiel könnte ein Agent ein Cart Mandate an einen Händler senden, das Artikel- und Preisinformationen enthält, aber die tatsächliche Kartennummer des Nutzers könnte nur über das Payment Mandate an den Zahlungsabwickler weitergegeben werden, nicht an den Agenten oder Händler. Dies minimiert die unnötige Offenlegung von Daten und unterstützt die Einhaltung von Datenschutzgesetzen und PCI-DSS-Regeln für den Umgang mit Zahlungsdaten.

Compliance & Standards: Da AP2 unter Beteiligung etablierter Finanzunternehmen entwickelt wurde, ist es darauf ausgelegt, bestehende Compliance-Standards im Zahlungsverkehr zu erfüllen oder zu ergänzen. Das Protokoll umgeht die üblichen Zahlungsautorisierungsabläufe nicht – stattdessen ergänzt es sie um zusätzliche Beweise und Kennzeichen. Dies bedeutet, dass AP2-Transaktionen weiterhin Betrugserkennungssysteme, 3-D Secure-Prüfungen oder alle erforderlichen regulatorischen Prüfungen nutzen können, wobei die AP2-Mandate als zusätzliche Authentifizierungsfaktoren oder Kontextsignale dienen. Zum Beispiel könnte eine Bank ein Payment Mandate ähnlich einer digitalen Signatur eines Kunden auf einer Transaktion behandeln, was die Einhaltung von Anforderungen an die Nutzerzustimmung potenziell rationalisiert. Darüber hinaus erwähnen die Designer von AP2 explizit die Zusammenarbeit „im Einklang mit Branchenregeln und -standards“. Wir können daraus schließen, dass AP2 im Laufe seiner Entwicklung möglicherweise an formale Standardisierungsgremien (wie das W3C, EMVCo oder ISO) herangetragen wird, um die Übereinstimmung mit globalen Finanzstandards sicherzustellen. Google hat sich zu einer offenen, kollaborativen Weiterentwicklung von AP2, möglicherweise durch Standardisierungsorganisationen, verpflichtet. Dieser offene Prozess wird dazu beitragen, regulatorische Bedenken auszuräumen und eine breite Akzeptanz zu erreichen, ähnlich wie frühere Zahlungsstandards (EMV-Chipkarten, 3-D Secure usw.) eine branchenweite Zusammenarbeit durchliefen.

Interoperabilität: Die Vermeidung von Fragmentierung ist ein Hauptziel von AP2. Zu diesem Zweck ist das Protokoll offen veröffentlicht und für jedermann zur Implementierung oder Integration verfügbar. Es ist nicht an Google Cloud-Dienste gebunden – tatsächlich ist AP2 Open Source (Apache-2-lizenziert) und die Spezifikation sowie der Referenzcode befinden sich in einem öffentlichen GitHub-Repository. Dies fördert die Interoperabilität, da mehrere Anbieter AP2 übernehmen und ihre Systeme dennoch zusammenarbeiten können. Bereits wird das Interoperabilitätsprinzip hervorgehoben: AP2 ist eine Erweiterung bestehender offener Protokolle (A2A, MCP) und nicht-proprietär, was bedeutet, dass es ein wettbewerbsorientiertes Ökosystem von Implementierungen fördert und keine Ein-Anbieter-Lösung. In der Praxis könnte ein von Unternehmen A gebauter KI-Agent eine Transaktion mit einem Händlersystem von Unternehmen B initiieren, wenn beide AP2 befolgen – keine Seite ist an eine Plattform gebunden.

Eine mögliche Sorge ist die Sicherstellung einer konsistenten Akzeptanz: Wenn einige große Akteure ein anderes Protokoll oder einen geschlossenen Ansatz wählen würden, könnte es dennoch zu Fragmentierung kommen. Angesichts der breiten Koalition hinter AP2 scheint es jedoch darauf ausgerichtet zu sein, ein De-facto-Standard zu werden. Die Einbeziehung vieler auf Identität und Sicherheit spezialisierter Unternehmen (z. B. Okta, Cloudflare, Ping Identity) in das AP2-Ökosystem Abbildung: Über 60 Unternehmen aus den Bereichen Finanzen, Technologie und Krypto arbeiten an AP2 zusammen (Teilliste der Partner). deutet darauf hin, dass Interoperabilität und Sicherheit gemeinsam angegangen werden. Diese Partner können dazu beitragen, AP2 in Identitätsverifizierungs-Workflows und Betrugspräventionstools zu integrieren, um sicherzustellen, dass eine AP2-Transaktion systemübergreifend vertrauenswürdig ist.

Aus technologischer Sicht macht die Verwendung weit verbreiteter kryptografischer Techniken (wahrscheinlich JSON-LD- oder JWT-basierte verifizierbare Berechtigungsnachweise, Public-Key-Signaturen usw.) AP2 mit bestehender Sicherheitsinfrastruktur kompatibel. Organisationen können ihre bestehende PKI (Public Key Infrastructure) verwenden, um Schlüssel zum Signieren von Mandaten zu verwalten. AP2 scheint auch die Integration mit dezentralen Identitätssystemen zu antizipieren: Google erwähnt, dass AP2 Möglichkeiten schafft, in Bereichen wie der dezentralen Identität für die Agentenautorisierung zu innovieren. Dies bedeutet, dass AP2 in Zukunft DID (Decentralized Identifier)-Standards oder dezentrale Identifikatorverifizierung nutzen könnte, um Agenten und Nutzer auf vertrauenswürdige Weise zu identifizieren. Ein solcher Ansatz würde die Interoperabilität weiter verbessern, indem er sich nicht auf einen einzigen Identitätsanbieter verlässt. Zusammenfassend lässt sich sagen, dass AP2 Sicherheit durch Kryptografie und klare Verantwortlichkeit betont, darauf abzielt, von Design her Compliance-fähig zu sein, und Interoperabilität durch seinen offenen Standardcharakter und die breite Branchenunterstützung fördert.

Vergleich mit bestehenden Protokollen

AP2 ist ein neuartiges Protokoll, das eine Lücke schließt, die bestehende Zahlungs- und Agenten-Frameworks nicht abgedeckt haben: die Ermöglichung, dass autonome Agenten Zahlungen auf sichere, standardisierte Weise durchführen können. Im Hinblick auf Agentenkommunikationsprotokolle baut AP2 auf früheren Arbeiten wie dem Agent2Agent (A2A)-Protokoll auf. A2A (Anfang 2025 als Open Source veröffentlicht) ermöglicht es verschiedenen KI-Agenten, miteinander zu kommunizieren, unabhängig von ihren zugrunde liegenden Frameworks. A2A selbst definiert jedoch nicht, wie Agenten Transaktionen oder Zahlungen durchführen sollen – es geht mehr um Aufgabenverhandlung und Datenaustausch. AP2 erweitert diese Landschaft, indem es eine Transaktionsschicht hinzufügt, die jeder Agent verwenden kann, wenn eine Konversation zu einem Kauf führt. Im Wesentlichen kann AP2 als komplementär zu A2A und MCP angesehen werden, anstatt sich zu überschneiden: A2A deckt die Aspekte Kommunikation und Zusammenarbeit ab, MCP deckt die Verwendung externer Tools/APIs ab, und AP2 deckt Zahlungen und Handel ab. Zusammen bilden sie einen Stapel von Standards für eine zukünftige „Agenten-Ökonomie“. Dieser modulare Ansatz ist in gewisser Weise analog zu Internetprotokollen: zum Beispiel HTTP für die Datenkommunikation und SSL/TLS für die Sicherheit – hier könnte A2A wie das HTTP der Agenten sein und AP2 die sichere Transaktionsschicht darüber für den Handel.

Beim Vergleich von AP2 mit traditionellen Zahlungsprotokollen und -standards gibt es sowohl Parallelen als auch Unterschiede. Traditionelle Online-Zahlungen (Kreditkarten-Checkouts, PayPal-Transaktionen usw.) beinhalten typischerweise Protokolle wie HTTPS für die sichere Übertragung und Standards wie PCI DSS für die Handhabung von Kartendaten, plus möglicherweise 3-D Secure für zusätzliche Nutzerauthentifizierung. Diese setzen einen nutzergesteuerten Ablauf voraus (Nutzer klickt und gibt möglicherweise einen Einmalcode ein). AP2 hingegen führt eine Möglichkeit ein, dass ein Dritter (der Agent) am Ablauf teilnehmen kann, ohne die Sicherheit zu untergraben. Man könnte das Mandatskonzept von AP2 mit einer Erweiterung der OAuth-ähnlichen delegierten Autorität vergleichen, aber auf Zahlungen angewendet. Bei OAuth kann ein Nutzer einer Anwendung über Tokens begrenzten Zugriff auf ein Konto gewähren; ähnlich gewährt ein Nutzer bei AP2 einem Agenten die Befugnis, unter bestimmten Bedingungen über Mandate Geld auszugeben. Der Hauptunterschied besteht darin, dass die „Tokens“ von AP2 (Mandate) spezifische, signierte Anweisungen für Finanztransaktionen sind, was feingranularer ist als bestehende Zahlungsautorisierungen.

Ein weiterer Vergleichspunkt ist, wie AP2 mit bestehenden E-Commerce-Checkout-Abläufen zusammenhängt. Zum Beispiel verwenden viele E-Commerce-Websites Protokolle wie die W3C Payment Request API oder plattformspezifische SDKs, um Zahlungen zu optimieren. Diese standardisieren hauptsächlich, wie Browser oder Apps Zahlungsinformationen von einem Nutzer sammeln, während AP2 standardisiert, wie ein Agent die Nutzerabsicht gegenüber einem Händler und Zahlungsabwickler beweisen würde. Der Fokus von AP2 auf verifizierbare Absicht und Nicht-Abstreitbarkeit unterscheidet es von einfacheren Zahlungs-APIs. Es fügt eine zusätzliche Vertrauensschicht über den Zahlungsnetzwerken hinzu. Man könnte sagen, AP2 ersetzt die Zahlungsnetzwerke (Visa, ACH, Blockchain usw.) nicht, sondern ergänzt sie. Das Protokoll unterstützt explizit alle Arten von Zahlungsmethoden (sogar Krypto), es geht also mehr darum, die Interaktion des Agenten mit diesen Systemen zu standardisieren, nicht darum, eine neue Zahlungsschiene von Grund auf neu zu schaffen.

Im Bereich der Sicherheits- und Authentifizierungsprotokolle teilt AP2 einen gewissen Geist mit Dingen wie digitalen Signaturen in EMV-Chipkarten oder der Notarisierung in digitalen Verträgen. Zum Beispiel generieren EMV-Chipkartentransaktionen Kryptogramme, um zu beweisen, dass die Karte vorhanden war; AP2 generiert kryptografische Beweise, dass der Agent des Nutzers autorisiert war. Beide zielen darauf ab, Betrug zu verhindern, aber der Umfang von AP2 ist die Agent-Nutzer-Beziehung und die Agent-Händler-Nachrichtenübermittlung, die kein bestehender Zahlungsstandard adressiert. Ein weiterer aufkommender Vergleich ist mit der Kontoabstraktion in Krypto (z. B. ERC-4337), bei der Nutzer vorprogrammierte Wallet-Aktionen autorisieren können. Krypto-Wallets können so eingestellt werden, dass sie bestimmte automatisierte Transaktionen zulassen (wie das automatische Bezahlen eines Abonnements über einen Smart Contract), aber diese sind typischerweise auf eine Blockchain-Umgebung beschränkt. AP2 hingegen zielt darauf ab, plattformübergreifend zu sein – es kann Blockchain für einige Zahlungen nutzen (durch seine Erweiterungen), funktioniert aber auch mit traditionellen Banken.

Es gibt noch kein direktes „Konkurrenz“-Protokoll zu AP2 in der Mainstream-Zahlungsbranche – es scheint der erste konzertierte Versuch eines offenen Standards für KI-Agenten-Zahlungen zu sein. Proprietäre Versuche könnten entstehen (oder sind möglicherweise bereits in einzelnen Unternehmen im Gange), aber die breite Unterstützung von AP2 verschafft ihm einen Vorteil, um der Standard zu werden. Es ist erwähnenswert, dass IBM und andere ein Agent Communication Protocol (ACP) und ähnliche Initiativen für die Agenten-Interoperabilität haben, aber diese umfassen den Zahlungsaspekt nicht in der umfassenden Weise, wie AP2 es tut. Wenn überhaupt, könnte AP2 diese Bemühungen integrieren oder nutzen (zum Beispiel könnten IBMs Agenten-Frameworks AP2 für alle Handelsaufgaben implementieren).

Zusammenfassend lässt sich sagen, dass AP2 sich dadurch auszeichnet, dass es die einzigartige Schnittstelle von KI und Zahlungen anspricht: Wo ältere Zahlungsprotokolle einen menschlichen Nutzer annahmen, nimmt AP2 einen KI-Vermittler an und füllt die daraus resultierende Vertrauenslücke. Es erweitert, anstatt zu kollidieren, bestehende Zahlungsprozesse und ergänzt bestehende Agentenprotokolle wie A2A. Zukünftig könnte AP2 zusammen mit etablierten Standards verwendet werden – zum Beispiel könnte ein AP2 Cart Mandate Hand in Hand mit einem traditionellen Zahlungsgateway-API-Aufruf funktionieren, oder ein AP2 Payment Mandate könnte an eine ISO 8583-Nachricht im Bankwesen angehängt werden. Die offene Natur von AP2 bedeutet auch, dass, falls alternative Ansätze auftauchen, AP2 diese möglicherweise durch gemeinschaftliche Zusammenarbeit aufnehmen oder sich an sie anpassen könnte. In diesem Stadium setzt AP2 einen bisher nicht existierenden Grundstein und pionierisiert effektiv eine neue Protokollschicht im KI- und Zahlungs-Stack.

Implikationen für Web3 und dezentrale Systeme

AP2 wurde von Anfang an so konzipiert, dass es Web3- und kryptowährungsbasierte Zahlungen einschließt. Das Protokoll erkennt an, dass der zukünftige Handel sowohl traditionelle Fiat-Kanäle als auch dezentrale Blockchain-Netzwerke umfassen wird. Wie bereits erwähnt, unterstützt AP2 Zahlungsarten, die von Kreditkarten und Banküberweisungen bis hin zu Stablecoins und Kryptowährungen reichen. Tatsächlich kündigte Google parallel zur Einführung von AP2 eine spezifische Erweiterung für Krypto-Zahlungen namens A2A x402 an. Diese Erweiterung, die in Zusammenarbeit mit Akteuren der Krypto-Branche wie Coinbase, der Ethereum Foundation und MetaMask entwickelt wurde, ist eine „produktionsreife Lösung für agentenbasierte Krypto-Zahlungen“. Der Name „x402“ ist eine Hommage an den HTTP 402 „Payment Required“-Statuscode, der im Web nie weit verbreitet war – die Krypto-Erweiterung von AP2 belebt effektiv den Geist von HTTP 402 für dezentrale Agenten, die sich gegenseitig On-Chain belasten oder bezahlen möchten. Praktisch passt die x402-Erweiterung das Mandatskonzept von AP2 an Blockchain-Transaktionen an. Zum Beispiel könnte ein Agent ein signiertes Intent Mandate von einem Nutzer halten und dann eine On-Chain-Zahlung (z. B. einen Stablecoin senden) ausführen, sobald die Bedingungen erfüllt sind, wobei der Nachweis des Mandats an diese On-Chain-Transaktion angehängt wird. Dies verbindet das Off-Chain-Vertrauens-Framework von AP2 mit der Trustless-Natur der Blockchain und bietet das Beste aus beiden Welten: eine On-Chain-Zahlung, der Off-Chain-Parteien (Nutzer, Händler) vertrauen können, dass sie vom Nutzer autorisiert wurde.

Die Synergie zwischen AP2 und Web3 zeigt sich in der Liste der Kollaborateure. Krypto-Börsen (Coinbase), Blockchain-Stiftungen (Ethereum Foundation), Krypto-Wallets (MetaMask) und Web3-Startups (z. B. Mysten Labs von Sui, Lightspark für Lightning Network) sind an der Entwicklung von AP2 beteiligt. Ihre Teilnahme deutet darauf hin, dass AP2 als komplementär zu dezentralen Finanzen und nicht als konkurrierend angesehen wird. Durch die Schaffung einer Standardmethode für KI-Agenten zur Interaktion mit Krypto-Zahlungen könnte AP2 die Nutzung von Krypto in KI-gesteuerten Anwendungen vorantreiben. Zum Beispiel könnte ein KI-Agent AP2 verwenden, um nahtlos zwischen der Zahlung mit einer Kreditkarte oder der Zahlung mit einem Stablecoin zu wechseln, je nach Nutzerpräferenz oder Händlerakzeptanz. Die A2A x402-Erweiterung ermöglicht es Agenten speziell, Dienste über On-Chain-Mittel zu monetarisieren oder zu bezahlen, was in dezentralen Marktplätzen der Zukunft entscheidend sein könnte. Sie deutet darauf hin, dass Agenten, die möglicherweise als autonome Wirtschaftsakteure auf der Blockchain laufen (ein Konzept, das einige als DACs oder DAOs bezeichnen), in der Lage sein könnten, Zahlungen für Dienste zu handhaben (wie das Bezahlen einer kleinen Gebühr an einen anderen Agenten für Informationen). AP2 könnte die Lingua Franca für solche Transaktionen bereitstellen und sicherstellen, dass selbst in einem dezentralen Netzwerk der Agent ein nachweisbares Mandat für sein Handeln hat.

Im Hinblick auf den Wettbewerb könnte man fragen: Machen rein dezentrale Lösungen AP2 überflüssig oder umgekehrt? Es ist wahrscheinlich, dass AP2 mit Web3-Lösungen in einem geschichteten Ansatz koexistieren wird. Dezentrale Finanzen bieten vertrauenslose Ausführung (Smart Contracts usw.), lösen aber nicht von Natur aus das Problem „Hatte eine KI die Erlaubnis eines Menschen, dies zu tun?“. AP2 adressiert genau diese Mensch-zu-KI-Vertrauensverbindung, die wichtig bleibt, auch wenn die Zahlung selbst On-Chain erfolgt. Anstatt mit Blockchain-Protokollen zu konkurrieren, kann AP2 als Brücke zwischen ihnen und der Off-Chain-Welt angesehen werden. Zum Beispiel könnte ein Smart Contract eine bestimmte Transaktion nur akzeptieren, wenn sie einen Verweis auf eine gültige AP2-Mandatssignatur enthält – etwas, das implementiert werden könnte, um Off-Chain-Absichtsnachweise mit On-Chain-Durchsetzung zu kombinieren. Umgekehrt könnten, wenn es Krypto-native Agenten-Frameworks gibt (einige Blockchain-Projekte erforschen autonome Agenten, die mit Krypto-Geldern operieren), diese ihre eigenen Methoden zur Autorisierung entwickeln. Die breite Branchenunterstützung von AP2 könnte jedoch selbst diese Projekte dazu bewegen, AP2 für Konsistenz zu übernehmen oder zu integrieren.

Ein weiterer Aspekt sind dezentrale Identität und Berechtigungsnachweise. Die Verwendung von verifizierbaren Berechtigungsnachweisen durch AP2 steht sehr im Einklang mit dem Web3-Ansatz zur Identität (z. B. DIDs und VCs, wie vom W3C standardisiert). Dies bedeutet, dass AP2 in dezentrale Identitätssysteme integriert werden könnte – zum Beispiel könnte die DID eines Nutzers verwendet werden, um ein AP2-Mandat zu signieren, das ein Händler gegen eine Blockchain oder einen Identitätshub verifizieren könnte. Die Erwähnung der Erforschung dezentraler Identität für die Agentenautorisierung bekräftigt, dass AP2 Web3-Identitätsinnovationen zur dezentralen Überprüfung von Agenten- und Nutzeridentitäten nutzen könnte, anstatt sich nur auf zentralisierte Autoritäten zu verlassen. Dies ist ein Synergiepunkt, da sowohl AP2 als auch Web3 darauf abzielen, Nutzern mehr Kontrolle und kryptografische Beweise für ihre Handlungen zu geben.

Potenzielle Konflikte könnten nur entstehen, wenn man ein vollständig dezentrales Handelsökosystem ohne Rolle für große Intermediäre vorstellt – in diesem Szenario könnte AP2 (ursprünglich von Google und Partnern vorangetrieben) zu zentralisiert oder von traditionellen Akteuren regiert sein? Es ist wichtig zu beachten, dass AP2 Open Source ist und als standardisierbar gedacht ist, also nicht proprietär für Google. Dies macht es für die Web3-Community, die offene Protokolle schätzt, schmackhafter. Wenn AP2 weit verbreitet wird, könnte es den Bedarf an separaten Web3-spezifischen Zahlungsprotokollen für Agenten reduzieren und dadurch Bemühungen vereinheitlichen. Andererseits könnten einige Blockchain-Projekte rein On-Chain-Autorisierungsmechanismen (wie Multi-Signatur-Wallets oder On-Chain-Treuhandlogik) für Agententransaktionen bevorzugen, insbesondere in Trustless-Umgebungen ohne zentrale Autoritäten. Diese könnten als alternative Ansätze angesehen werden, würden aber wahrscheinlich Nischen bleiben, es sei denn, sie können mit Off-Chain-Systemen interagieren. AP2, indem es beide Welten abdeckt, könnte tatsächlich die Web3-Akzeptanz beschleunigen, indem es Krypto einfach zu einer weiteren Zahlungsmethode macht, die ein KI-Agent nahtlos nutzen kann. Tatsächlich bemerkte ein Partner, dass „Stablecoins eine offensichtliche Lösung für Skalierungsprobleme [für] agentische Systeme mit Legacy-Infrastruktur bieten“, was hervorhebt, dass Krypto AP2 bei der Bewältigung von Skalierungs- oder grenzüberschreitenden Szenarien ergänzen kann. Währenddessen bemerkte der Engineering Lead von Coinbase, dass die Integration der x402-Krypto-Erweiterung in AP2 „Sinn machte – es ist ein natürlicher Spielplatz für Agenten... es ist aufregend zu sehen, wie Agenten, die sich gegenseitig bezahlen, in der KI-Community Anklang finden“. Dies impliziert eine Vision, in der KI-Agenten, die über Krypto-Netzwerke Transaktionen durchführen, nicht nur eine theoretische Idee, sondern ein erwartetes Ergebnis sind, wobei AP2 als Katalysator fungiert.

Zusammenfassend lässt sich sagen, dass AP2 für Web3 hochrelevant ist: Es integriert Krypto-Zahlungen als erstklassigen Bürger und stimmt mit dezentralen Identitäts- und Berechtigungsnachweisstandards überein. Anstatt direkt mit dezentralen Zahlungsprotokollen zu konkurrieren, interagiert AP2 wahrscheinlich mit ihnen – es stellt die Autorisierungsschicht bereit, während die dezentralen Systeme die Wertübertragung handhaben. Da die Grenze zwischen traditionellen Finanzen und Krypto verschwimmt (mit Stablecoins, CBDCs usw.), könnte ein einheitliches Protokoll wie AP2 als universeller Adapter zwischen KI-Agenten und jeder Form von Geld, zentralisiert oder dezentralisiert, dienen.

Branchenakzeptanz, Partnerschaften und Roadmap

Eine der größten Stärken von AP2 ist die umfassende Branchenunterstützung, die es bereits in diesem frühen Stadium genießt. Google Cloud kündigte an, dass es „mit einer vielfältigen Gruppe von mehr als 60 Organisationen“ an AP2 zusammenarbeitet. Dazu gehören große Kreditkartennetzwerke (z. B. Mastercard, American Express, JCB, UnionPay), führende Fintech- und Zahlungsabwickler (PayPal, Worldpay, Adyen, Checkout.com, Stripes Konkurrenten), E-Commerce- und Online-Marktplätze (Etsy, Shopify (über Partner wie Stripe oder andere), Lazada, Zalora), Unternehmenstechnologieunternehmen (Salesforce, ServiceNow, Oracle möglicherweise über Partner, Dell, Red Hat), Identitäts- und Sicherheitsfirmen (Okta, Ping Identity, Cloudflare), Beratungsfirmen (Deloitte, Accenture) und Krypto-/Web3-Organisationen (Coinbase, Ethereum Foundation, MetaMask, Mysten Labs, Lightspark) und andere. Eine so breite Palette von Teilnehmern ist ein starker Indikator für das Brancheninteresse und die wahrscheinliche Akzeptanz. Viele dieser Partner haben öffentlich ihre Unterstützung bekundet. Zum Beispiel betonte der Co-CEO von Adyen die Notwendigkeit eines „gemeinsamen Regelwerks“ für den agentischen Handel und sieht AP2 als natürliche Erweiterung ihrer Mission, Händler mit neuen Zahlungsbausteinen zu unterstützen. Der EVP von American Express erklärte, dass AP2 wichtig sei für „die nächste Generation digitaler Zahlungen“, bei der Vertrauen und Verantwortlichkeit von größter Bedeutung sind. Das Team von Coinbase ist, wie bereits erwähnt, begeistert von der Integration von Krypto-Zahlungen in AP2. Dieser Chor der Unterstützung zeigt, dass viele in der Branche AP2 als den wahrscheinlichen Standard für KI-gesteuerte Zahlungen ansehen und daran interessiert sind, es so zu gestalten, dass es ihren Anforderungen entspricht.

Aus Akzeptanzsicht befindet sich AP2 derzeit im Spezifikations- und frühen Implementierungsstadium (angekündigt im September 2025). Die vollständige technische Spezifikation, Dokumentation und einige Referenzimplementierungen (in Sprachen wie Python) sind auf dem GitHub-Repository des Projekts für Entwickler zum Experimentieren verfügbar. Google hat auch angedeutet, dass AP2 in seine Produkte und Dienste für Agenten integriert wird. Ein bemerkenswertes Beispiel ist der bereits erwähnte KI-Agenten-Marktplatz: Dies ist eine Plattform, auf der Drittanbieter-KI-Agenten Nutzern angeboten werden können (wahrscheinlich Teil von Googles generativem KI-Ökosystem). Google sagt, dass viele Partner, die Agenten entwickeln, diese auf dem Marktplatz mit „neuen, transaktionsfähigen Erfahrungen, die durch AP2 ermöglicht werden“, zur Verfügung stellen werden. Dies impliziert, dass AP2, wenn der Marktplatz startet oder wächst, das Rückgrat für jeden Agenten sein wird, der eine Transaktion durchführen muss, sei es der autonome Kauf von Software vom Google Cloud Marketplace oder ein Agent, der Waren/Dienstleistungen für einen Nutzer kauft. Unternehmensanwendungsfälle wie autonome Beschaffung (ein Agent kauft von einem anderen im Auftrag eines Unternehmens) und automatische Lizenzskalierung wurden ausdrücklich als Bereiche genannt, die AP2 bald erleichtern könnte.

Im Hinblick auf eine Roadmap geben die AP2-Dokumentation und Googles Ankündigung einige klare Hinweise:

  • Kurzfristig: Fortsetzung der offenen Entwicklung des Protokolls mit Community-Input. Das GitHub-Repository wird mit zusätzlichen Referenzimplementierungen und Verbesserungen aktualisiert, sobald reale Tests stattfinden. Wir können erwarten, dass Bibliotheken/SDKs entstehen, die die Integration von AP2 in Agentenanwendungen erleichtern. Auch könnten erste Pilotprogramme oder Machbarkeitsnachweise von den Partnerunternehmen durchgeführt werden. Da viele große Zahlungsunternehmen beteiligt sind, könnten sie AP2 in kontrollierten Umgebungen testen (z. B. eine AP2-fähige Checkout-Option in einer kleinen Benutzer-Beta).
  • Standards und Governance: Google hat sich verpflichtet, AP2 in ein offenes Governance-Modell zu überführen, möglicherweise über Standardisierungsgremien. Dies könnte bedeuten, AP2 Organisationen wie der Linux Foundation (wie es beim A2A-Protokoll geschehen ist) vorzulegen oder ein Konsortium zu bilden, um es zu pflegen. Die Linux Foundation, W3C oder sogar Gremien wie ISO/TC68 (Finanzdienstleistungen) könnten für die Formalisierung von AP2 in Frage kommen. Eine offene Governance würde der Branche die Gewissheit geben, dass AP2 nicht unter der Kontrolle eines einzelnen Unternehmens steht und neutral und inklusiv bleiben wird.
  • Funktionserweiterung: Technisch umfasst die Roadmap die Erweiterung der Unterstützung auf weitere Zahlungsarten und Anwendungsfälle. Wie in der Spezifikation erwähnt, wird sich der Fokus nach Karten auf „Push“-Zahlungen wie Banküberweisungen und lokale Echtzeit-Zahlungssysteme sowie digitale Währungen verlagern. Dies bedeutet, dass AP2 darlegen wird, wie ein Intent/Cart/Payment Mandate beispielsweise für eine direkte Banküberweisung oder eine Krypto-Wallet-Überweisung funktioniert, wo der Ablauf etwas anders ist als bei Kartenzahlungen. Die A2A x402-Erweiterung ist eine solche Erweiterung für Krypto; ähnlich könnten wir eine Erweiterung für Open-Banking-APIs oder eine für B2B-Rechnungsszenarien sehen.
  • Sicherheits- und Compliance-Verbesserungen: Sobald reale Transaktionen über AP2 laufen, wird es eine genaue Prüfung durch Regulierungsbehörden und Sicherheitsforscher geben. Der offene Prozess wird wahrscheinlich iterativ daran arbeiten, Mandate noch robuster zu machen (z. B. Sicherstellung der Standardisierung von Mandatsformaten, möglicherweise unter Verwendung des W3C Verifiable Credentials-Formats usw.). Die Integration mit Identitätslösungen (möglicherweise unter Nutzung von Biometrie für die Nutzerunterschrift von Mandaten oder die Verknüpfung von Mandaten mit digitalen Identitäts-Wallets) könnte Teil der Roadmap sein, um das Vertrauen zu stärken.
  • Ökosystem-Tools: Ein aufkommendes Ökosystem ist wahrscheinlich. Bereits jetzt bemerken Startups Lücken – zum Beispiel erwähnt die Vellum.ai-Analyse ein Startup namens Autumn, das „Billing-Infrastruktur für KI“ aufbaut, im Wesentlichen Tools auf Basis von Stripe, um komplexe Preisgestaltung für KI-Dienste zu handhaben. Wenn AP2 an Fahrt gewinnt, können wir mehr Tools wie agenten-fokussierte Zahlungsgateways, Mandatsverwaltungs-Dashboards, Agenten-Identitätsverifizierungsdienste usw. erwarten. Googles Beteiligung bedeutet, dass AP2 auch in seine Cloud-Produkte integriert werden könnte – stellen Sie sich AP2-Unterstützung in Dialogflow oder Vertex AI Agents Tools vor, die es einem Agenten mit einem Klick ermöglichen, Transaktionen abzuwickeln (wobei alle notwendigen Schlüssel und Zertifikate in Google Cloud verwaltet werden).

Insgesamt erinnert die Entwicklung von AP2 an andere große Industriestandards: ein anfänglicher Start mit einem starken Sponsor (Google), eine breite Branchenkoalition, Open-Source-Referenzcode, gefolgt von iterativer Verbesserung und schrittweiser Akzeptanz in realen Produkten. Die Tatsache, dass AP2 alle Akteure einlädt, „diese Zukunft mit uns zu gestalten“, unterstreicht, dass die Roadmap auf Zusammenarbeit basiert. Wenn der Schwung anhält, könnte AP2 in wenigen Jahren so alltäglich werden wie Protokolle wie OAuth oder OpenID Connect heute in ihren Bereichen – eine unsichtbare, aber kritische Schicht, die Funktionalität über Dienste hinweg ermöglicht.

Fazit

AP2 (Agents/Agent Payments Protocol) stellt einen bedeutenden Schritt in eine Zukunft dar, in der KI-Agenten so zuverlässig und sicher Transaktionen durchführen können wie Menschen. Technisch führt es einen cleveren Mechanismus von verifizierbaren Mandaten und Berechtigungsnachweisen ein, der Vertrauen in agentengesteuerte Transaktionen schafft und sicherstellt, dass die Nutzerabsicht explizit und durchsetzbar ist. Seine offene, erweiterbare Architektur ermöglicht die Integration sowohl in die aufstrebenden KI-Agenten-Frameworks als auch in die etablierte Finanzinfrastruktur. Durch die Adressierung der Kernanliegen Autorisierung, Authentizität und Verantwortlichkeit legt AP2 den Grundstein dafür, dass der KI-gesteuerte Handel florieren kann, ohne Sicherheit oder Nutzerkontrolle zu opfern.

Die Einführung von AP2 kann als Schaffung einer neuen Grundlage – ähnlich wie frühe Internetprotokolle das Web ermöglichten – für das, was manche als „Agenten-Ökonomie“ bezeichnen, angesehen werden. Es ebnet den Weg für unzählige Innovationen: persönliche Einkaufsagenten, automatische Schnäppchenfinder-Bots, autonome Lieferkettenagenten und mehr, die alle unter einem gemeinsamen Vertrauens-Framework agieren. Wichtig ist, dass das inklusive Design von AP2 (das alles von Kreditkarten bis Krypto umfasst) es an der Schnittstelle von traditionellen Finanzen und Web3 positioniert und diese Welten möglicherweise durch ein gemeinsames agentenvermitteltes Protokoll überbrückt.

Die bisherige Branchenreaktion war sehr positiv, wobei eine breite Koalition signalisiert, dass AP2 wahrscheinlich ein weit verbreiteter Standard werden wird. Der Erfolg von AP2 wird von der fortgesetzten Zusammenarbeit und realen Tests abhängen, aber seine Aussichten sind angesichts des klaren Bedarfs, den es adressiert, stark. Im weiteren Sinne veranschaulicht AP2, wie sich Technologie entwickelt: Eine neue Fähigkeit (KI-Agenten) entstand, die alte Annahmen brach, und die Lösung bestand darin, einen neuen offenen Standard zu entwickeln, um diese Fähigkeit zu berücksichtigen. Indem Google und seine Partner jetzt in ein offenes, sicherheitsorientiertes Protokoll investieren, bauen sie effektiv die Vertrauensarchitektur auf, die für die nächste Ära des Handels erforderlich ist. Wie das Sprichwort sagt: „Der beste Weg, die Zukunft vorherzusagen, ist, sie zu bauen“ – AP2 ist eine Wette auf eine Zukunft, in der KI-Agenten nahtlos Transaktionen für uns abwickeln, und es konstruiert aktiv das Vertrauen und die Regeln, die notwendig sind, um diese Zukunft praktikabel zu machen.

Quellen:

  • Google Cloud Blog – „KI-Handel mit dem neuen Agent Payments Protocol (AP2) vorantreiben“ (16. September 2025)
  • AP2 GitHub Dokumentation – „Agent Payments Protocol Spezifikation und Übersicht“
  • Vellum AI Blog – „Googles AP2: Ein neues Protokoll für KI-Agenten-Zahlungen“ (Analyse)
  • Medium Artikel – „Google Agent Payments Protocol (AP2)“ (Zusammenfassung von Tahir, September 2025)
  • Partnerzitate zu AP2 (Google Cloud Blog)
  • A2A x402 Erweiterung (AP2 Krypto-Zahlungserweiterung) – GitHub README

Dezentrale Verschlüsselung mit @mysten/seal aufbauen: Ein Entwickler-Tutorial

· 13 Minuten Lesezeit
Dora Noda
Software Engineer

Datenschutz wird zur öffentlichen Infrastruktur. Im Jahr 2025 benötigen Entwickler Tools, die Verschlüsselung so einfach machen wie Datenspeicherung. Mysten Labs' Seal bietet genau das – dezentrales Geheimnismanagement mit On-Chain-Zugriffskontrolle. Dieses Tutorial zeigt Ihnen, wie Sie sichere Web3-Anwendungen mithilfe von identitätsbasierter Verschlüsselung, Schwellenwertsicherheit und programmierbaren Zugriffsrichtlinien erstellen.


Einführung: Warum Seal für Web3 wichtig ist

Traditionelle Cloud-Anwendungen verlassen sich auf zentralisierte Schlüsselverwaltungssysteme, bei denen ein einziger Anbieter den Zugriff auf verschlüsselte Daten kontrolliert. Obwohl dies bequem ist, schafft es gefährliche Single Points of Failure. Wenn der Anbieter kompromittiert wird, offline geht oder den Zugriff einschränkt, werden Ihre Daten unzugänglich oder anfällig.

Seal ändert dieses Paradigma vollständig. Von Mysten Labs für die Sui Blockchain entwickelt, ist Seal ein dezentraler Geheimnismanagement-Dienst (DSM), der Folgendes ermöglicht:

  • Identitätsbasierte Verschlüsselung, bei der Inhalte geschützt werden, bevor sie Ihre Umgebung verlassen
  • Schwellenwertverschlüsselung, die den Schlüsselzugriff auf mehrere unabhängige Nodes verteilt
  • On-Chain-Zugriffskontrolle mit Zeitsperren, Token-Gating und benutzerdefinierter Autorisierungslogik
  • Speicherunabhängiges Design, das mit Walrus, IPFS oder jeder anderen Speicherlösung funktioniert

Egal, ob Sie sichere Messaging-Apps, zugangsgeschützte Inhaltsplattformen oder zeitgesperrte Asset-Transfers erstellen, Seal bietet die kryptografischen Primitive und die Infrastruktur zur Zugriffskontrolle, die Sie benötigen.


Erste Schritte

Voraussetzungen

Bevor Sie eintauchen, stellen Sie sicher, dass Sie Folgendes haben:

  • Node.js 18+ installiert
  • Grundkenntnisse in TypeScript/JavaScript
  • Eine Sui Wallet zum Testen (z. B. Sui Wallet)
  • Verständnis von Blockchain-Konzepten

Installation

Installieren Sie das Seal SDK via npm:

npm install @mysten/seal

Sie benötigen auch das Sui SDK für Blockchain-Interaktionen:

npm install @mysten/sui

Projekteinrichtung

Erstellen Sie ein neues Projekt und initialisieren Sie es:

mkdir seal-tutorial
cd seal-tutorial
npm init -y
npm install @mysten/seal @mysten/sui typescript @types/node

Erstellen Sie eine einfache TypeScript-Konfiguration:

// tsconfig.json
{
"compilerOptions": {
"target": "ES2020",
"module": "commonjs",
"strict": true,
"esModuleInterop": true,
"skipLibCheck": true,
"forceConsistentCasingInFileNames": true
}
}

Kernkonzepte: Wie Seal funktioniert

Bevor wir Code schreiben, lassen Sie uns die Architektur von Seal verstehen:

1. Identitätsbasierte Verschlüsselung (IBE)

Im Gegensatz zur traditionellen Verschlüsselung, bei der Sie auf einen öffentlichen Schlüssel verschlüsseln, ermöglicht Ihnen IBE die Verschlüsselung auf eine Identität (wie eine E-Mail-Adresse oder Sui-Adresse). Der Empfänger kann nur entschlüsseln, wenn er nachweisen kann, dass er diese Identität kontrolliert.

2. Schwellenwertverschlüsselung

Anstatt einem einzelnen Schlüsselserver zu vertrauen, verwendet Seal t-von-n Schwellenwertschemata. Sie könnten 3 von 5 Schlüsselservern konfigurieren, was bedeutet, dass beliebige 3 Server zusammenarbeiten können, um Entschlüsselungsschlüssel bereitzustellen, aber 2 oder weniger dies nicht können.

3. On-Chain-Zugriffskontrolle

Zugriffsrichtlinien werden durch Sui Smart Contracts durchgesetzt. Bevor ein Schlüsselserver Entschlüsselungsschlüssel bereitstellt, überprüft er, ob der Anfragende die On-Chain-Richtlinienanforderungen (Token-Besitz, Zeitbeschränkungen usw.) erfüllt.

4. Schlüsselserver-Netzwerk

Verteilte Schlüsselserver validieren Zugriffsrichtlinien und generieren Entschlüsselungsschlüssel. Diese Server werden von verschiedenen Parteien betrieben, um keinen Single Point of Control zu gewährleisten.


Grundlegende Implementierung: Ihre erste Seal-Anwendung

Erstellen wir eine einfache Anwendung, die sensible Daten verschlüsselt und den Zugriff über Sui Blockchain-Richtlinien steuert.

Schritt 1: Seal Client initialisieren

// src/seal-client.ts
import { SealClient } from '@mysten/seal';
import { SuiClient } from '@mysten/sui/client';

export async function createSealClient() {
// Initialize Sui client for testnet
const suiClient = new SuiClient({
url: 'https://fullnode.testnet.sui.io'
});

// Configure Seal client with testnet key servers
const sealClient = new SealClient({
suiClient,
keyServers: [
'https://keyserver1.seal-testnet.com',
'https://keyserver2.seal-testnet.com',
'https://keyserver3.seal-testnet.com'
],
threshold: 2, // 2-of-3 threshold
network: 'testnet'
});

return { sealClient, suiClient };
}

Schritt 2: Einfache Verschlüsselung/Entschlüsselung

// src/basic-encryption.ts
import { createSealClient } from './seal-client';

async function basicExample() {
const { sealClient } = await createSealClient();

// Data to encrypt
const sensitiveData = "This is my secret message!";
const recipientAddress = "0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

try {
// Encrypt data for a specific Sui address
const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, 'utf-8'),
recipientId: recipientAddress,
// Optional: add metadata
metadata: {
contentType: 'text/plain',
timestamp: Date.now()
}
});

console.log('Encrypted data:', {
ciphertext: encryptedData.ciphertext.toString('base64'),
encryptionId: encryptedData.encryptionId
});

// Later, decrypt the data (requires proper authorization)
const decryptedData = await sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientAddress
});

console.log('Decrypted data:', decryptedData.toString('utf-8'));

} catch (error) {
console.error('Encryption/decryption failed:', error);
}
}

basicExample();

Zugriffskontrolle mit Sui Smart Contracts

Die wahre Stärke von Seal liegt in der programmierbaren Zugriffskontrolle. Erstellen wir ein Beispiel für eine zeitgesperrte Verschlüsselung, bei der Daten erst nach einer bestimmten Zeit entschlüsselt werden können.

Schritt 1: Zugriffssteuerungs-Vertrag bereitstellen

Zuerst benötigen wir einen Move Smart Contract, der unsere Zugriffsrichtlinie definiert:

// contracts/time_lock.move
module time_lock::policy {
use sui::clock::{Self, Clock};
use sui::object::{Self, UID};
use sui::tx_context::{Self, TxContext};

public struct TimeLockPolicy has key, store {
id: UID,
unlock_time: u64,
authorized_user: address,
}

public fun create_time_lock(
unlock_time: u64,
authorized_user: address,
ctx: &mut TxContext
): TimeLockPolicy {
TimeLockPolicy {
id: object::new(ctx),
unlock_time,
authorized_user,
}
}

public fun can_decrypt(
policy: &TimeLockPolicy,
user: address,
clock: &Clock
): bool {
let current_time = clock::timestamp_ms(clock);
policy.authorized_user == user && current_time >= policy.unlock_time
}
}

Schritt 2: Mit Seal integrieren

// src/time-locked-encryption.ts
import { createSealClient } from './seal-client';
import { TransactionBlock } from '@mysten/sui/transactions';

async function createTimeLocked() {
const { sealClient, suiClient } = await createSealClient();

// Create access policy on Sui
const txb = new TransactionBlock();

const unlockTime = Date.now() + 60000; // Unlock in 1 minute
const authorizedUser = "0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

txb.moveCall({
target: 'time_lock::policy::create_time_lock',
arguments: [
txb.pure(unlockTime),
txb.pure(authorizedUser)
]
});

// Execute transaction to create policy
const result = await suiClient.signAndExecuteTransactionBlock({
transactionBlock: txb,
signer: yourKeypair, // Your Sui keypair
});

const policyId = result.objectChanges?.find(
change => change.type === 'created'
)?.objectId;

// Now encrypt with this policy
const sensitiveData = "This will unlock in 1 minute!";

const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, 'utf-8'),
recipientId: authorizedUser,
accessPolicy: {
policyId,
policyType: 'time_lock'
}
});

console.log('Time-locked data created. Try decrypting after 1 minute.');

return {
encryptedData,
policyId,
unlockTime
};
}

Praktische Beispiele

Beispiel 1: Sichere Messaging-Anwendung

// src/secure-messaging.ts
import { createSealClient } from './seal-client';

class SecureMessenger {
private sealClient: any;

constructor(sealClient: any) {
this.sealClient = sealClient;
}

async sendMessage(
message: string,
recipientAddress: string,
senderKeypair: any
) {
const messageData = {
content: message,
timestamp: Date.now(),
sender: senderKeypair.toSuiAddress(),
messageId: crypto.randomUUID()
};

const encryptedMessage = await this.sealClient.encrypt({
data: Buffer.from(JSON.stringify(messageData), 'utf-8'),
recipientId: recipientAddress,
metadata: {
type: 'secure_message',
sender: senderKeypair.toSuiAddress()
}
});

// Store encrypted message on decentralized storage (Walrus)
return this.storeOnWalrus(encryptedMessage);
}

async readMessage(encryptionId: string, recipientKeypair: any) {
// Retrieve from storage
const encryptedData = await this.retrieveFromWalrus(encryptionId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientKeypair.toSuiAddress()
});

return JSON.parse(decryptedData.toString('utf-8'));
}

private async storeOnWalrus(data: any) {
// Integration with Walrus storage
// This would upload the encrypted data to Walrus
// and return the blob ID for retrieval
}

private async retrieveFromWalrus(blobId: string) {
// Retrieve encrypted data from Walrus using blob ID
}
}

Beispiel 2: Token-Gated Content-Plattform

// src/gated-content.ts
import { createSealClient } from './seal-client';

class ContentGating {
private sealClient: any;
private suiClient: any;

constructor(sealClient: any, suiClient: any) {
this.sealClient = sealClient;
this.suiClient = suiClient;
}

async createGatedContent(
content: string,
requiredNftCollection: string,
creatorKeypair: any
) {
// Create NFT ownership policy
const accessPolicy = await this.createNftPolicy(
requiredNftCollection,
creatorKeypair
);

// Encrypt content with NFT access requirement
const encryptedContent = await this.sealClient.encrypt({
data: Buffer.from(content, 'utf-8'),
recipientId: 'nft_holders', // Special recipient for NFT holders
accessPolicy: {
policyId: accessPolicy.policyId,
policyType: 'nft_ownership'
}
});

return {
contentId: encryptedContent.encryptionId,
accessPolicy: accessPolicy.policyId
};
}

async accessGatedContent(
contentId: string,
userAddress: string,
userKeypair: any
) {
// Verify NFT ownership first
const hasAccess = await this.verifyNftOwnership(
userAddress,
contentId
);

if (!hasAccess) {
throw new Error('Access denied: Required NFT not found');
}

// Decrypt content
const decryptedContent = await this.sealClient.decrypt({
encryptionId: contentId,
recipientId: userAddress
});

return decryptedContent.toString('utf-8');
}

private async createNftPolicy(collection: string, creator: any) {
// Create Move contract that checks NFT ownership
// Returns policy object ID
}

private async verifyNftOwnership(user: string, contentId: string) {
// Check if user owns required NFT
// Query Sui for NFT ownership
}
}

Beispiel 3: Zeitgesperrter Asset-Transfer

// src/time-locked-transfer.ts
import { createSealClient } from './seal-client';

async function createTimeLockTransfer(
assetData: any,
recipientAddress: string,
unlockTimestamp: number,
senderKeypair: any
) {
const { sealClient, suiClient } = await createSealClient();

// Create time-lock policy on Sui
const timeLockPolicy = await createTimeLockPolicy(
unlockTimestamp,
recipientAddress,
senderKeypair,
suiClient
);

// Encrypt asset transfer data
const transferData = {
asset: assetData,
recipient: recipientAddress,
unlockTime: unlockTimestamp,
transferId: crypto.randomUUID()
};

const encryptedTransfer = await sealClient.encrypt({
data: Buffer.from(JSON.stringify(transferData), 'utf-8'),
recipientId: recipientAddress,
accessPolicy: {
policyId: timeLockPolicy.policyId,
policyType: 'time_lock'
}
});

console.log(`Asset locked until ${new Date(unlockTimestamp)}`);

return {
transferId: encryptedTransfer.encryptionId,
unlockTime: unlockTimestamp,
policyId: timeLockPolicy.policyId
};
}

async function claimTimeLockTransfer(
transferId: string,
recipientKeypair: any
) {
const { sealClient } = await createSealClient();

try {
const decryptedData = await sealClient.decrypt({
encryptionId: transferId,
recipientId: recipientKeypair.toSuiAddress()
});

const transferData = JSON.parse(decryptedData.toString('utf-8'));

// Process the asset transfer
console.log('Asset transfer unlocked:', transferData);

return transferData;
} catch (error) {
console.error('Transfer not yet unlocked or access denied:', error);
throw error;
}
}

Integration mit Walrus Dezentralem Speicher

Seal funktioniert nahtlos mit Walrus, Suis dezentraler Speicherlösung. So integrieren Sie beide:

// src/walrus-integration.ts
import { createSealClient } from './seal-client';

class SealWalrusIntegration {
private sealClient: any;
private walrusClient: any;

constructor(sealClient: any, walrusClient: any) {
this.sealClient = sealClient;
this.walrusClient = walrusClient;
}

async storeEncryptedData(
data: Buffer,
recipientAddress: string,
accessPolicy?: any
) {
// Encrypt with Seal
const encryptedData = await this.sealClient.encrypt({
data,
recipientId: recipientAddress,
accessPolicy
});

// Store encrypted data on Walrus
const blobId = await this.walrusClient.store(
encryptedData.ciphertext
);

// Return reference that includes both Seal and Walrus info
return {
blobId,
encryptionId: encryptedData.encryptionId,
accessPolicy: encryptedData.accessPolicy
};
}

async retrieveAndDecrypt(
blobId: string,
encryptionId: string,
userKeypair: any
) {
// Retrieve from Walrus
const encryptedData = await this.walrusClient.retrieve(blobId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData,
encryptionId,
recipientId: userKeypair.toSuiAddress()
});

return decryptedData;
}
}

// Usage example
async function walrusExample() {
const { sealClient } = await createSealClient();
const walrusClient = new WalrusClient('https://walrus-testnet.sui.io');

const integration = new SealWalrusIntegration(sealClient, walrusClient);

const fileData = Buffer.from('Important document content');
const recipientAddress = '0x...';

// Store encrypted
const result = await integration.storeEncryptedData(
fileData,
recipientAddress
);

console.log('Stored with Blob ID:', result.blobId);

// Later, retrieve and decrypt
const decrypted = await integration.retrieveAndDecrypt(
result.blobId,
result.encryptionId,
recipientKeypair
);

console.log('Retrieved data:', decrypted.toString());
}

Schwellenwertverschlüsselung: Erweiterte Konfiguration

Für Produktionsanwendungen möchten Sie eine benutzerdefinierte Schwellenwertverschlüsselung mit mehreren Schlüsselservern konfigurieren:

// src/advanced-threshold.ts
import { SealClient } from '@mysten/seal';

async function setupProductionSeal() {
// Configure with multiple independent key servers
const keyServers = [
'https://keyserver-1.your-org.com',
'https://keyserver-2.partner-org.com',
'https://keyserver-3.third-party.com',
'https://keyserver-4.backup-provider.com',
'https://keyserver-5.fallback.com'
];

const sealClient = new SealClient({
keyServers,
threshold: 3, // 3-of-5 threshold
network: 'mainnet',
// Advanced options
retryAttempts: 3,
timeoutMs: 10000,
backupKeyServers: [
'https://backup-1.emergency.com',
'https://backup-2.emergency.com'
]
});

return sealClient;
}

async function robustEncryption() {
const sealClient = await setupProductionSeal();

const criticalData = "Mission critical encrypted data";

// Encrypt with high security guarantees
const encrypted = await sealClient.encrypt({
data: Buffer.from(criticalData, 'utf-8'),
recipientId: '0x...',
// Require all 5 servers for maximum security
customThreshold: 5,
// Add redundancy
redundancy: 2,
accessPolicy: {
// Multi-factor requirements
requirements: ['nft_ownership', 'time_lock', 'multisig_approval']
}
});

return encrypted;
}

Best Practices für Sicherheit

1. Schlüsselmanagement

// src/security-practices.ts

// GOOD: Use secure key derivation
import { generateKeypair } from '@mysten/sui/cryptography/ed25519';

const keypair = generateKeypair();

// GOOD: Store keys securely (example with environment variables)
const keypair = Ed25519Keypair.fromSecretKey(
process.env.PRIVATE_KEY
);

// BAD: Never hardcode keys
const badKeypair = Ed25519Keypair.fromSecretKey(
"hardcoded-secret-key-12345" // Don't do this!
);

2. Validierung der Zugriffsrichtlinie

// Always validate access policies before encryption
async function secureEncrypt(data: Buffer, recipient: string) {
const { sealClient } = await createSealClient();

// Validate recipient address
if (!isValidSuiAddress(recipient)) {
throw new Error('Invalid recipient address');
}

// Check policy exists and is valid
const policy = await validateAccessPolicy(policyId);
if (!policy.isValid) {
throw new Error('Invalid access policy');
}

return sealClient.encrypt({
data,
recipientId: recipient,
accessPolicy: policy
});
}

3. Fehlerbehandlung und Fallbacks

// Robust error handling
async function resilientDecrypt(encryptionId: string, userKeypair: any) {
const { sealClient } = await createSealClient();

try {
return await sealClient.decrypt({
encryptionId,
recipientId: userKeypair.toSuiAddress()
});
} catch (error) {
if (error.code === 'ACCESS_DENIED') {
throw new Error('Access denied: Check your permissions');
} else if (error.code === 'KEY_SERVER_UNAVAILABLE') {
// Try with backup configuration
return await retryWithBackupServers(encryptionId, userKeypair);
} else if (error.code === 'THRESHOLD_NOT_MET') {
throw new Error('Insufficient key servers available');
} else {
throw new Error(`Decryption failed: ${error.message}`);
}
}
}

4. Datenvalidierung

// Validate data before encryption
function validateDataForEncryption(data: Buffer): boolean {
// Check size limits
if (data.length > 1024 * 1024) { // 1MB limit
throw new Error('Data too large for encryption');
}

// Check for sensitive patterns (optional)
const dataStr = data.toString();
if (containsSensitivePatterns(dataStr)) {
console.warn('Warning: Data contains potentially sensitive patterns');
}

return true;
}

Leistungsoptimierung

1. Batch-Operationen

// Batch multiple encryptions for efficiency
async function batchEncrypt(dataItems: Buffer[], recipients: string[]) {
const { sealClient } = await createSealClient();

const promises = dataItems.map((data, index) =>
sealClient.encrypt({
data,
recipientId: recipients[index]
})
);

return Promise.all(promises);
}

2. Caching von Schlüsselserver-Antworten

// Cache key server sessions to reduce latency
class OptimizedSealClient {
private sessionCache = new Map();

async encryptWithCaching(data: Buffer, recipient: string) {
let session = this.sessionCache.get(recipient);

if (!session || this.isSessionExpired(session)) {
session = await this.createNewSession(recipient);
this.sessionCache.set(recipient, session);
}

return this.encryptWithSession(data, session);
}
}

Testen Ihrer Seal-Integration

Unit-Tests

// tests/seal-integration.test.ts
import { describe, it, expect } from 'jest';
import { createSealClient } from '../src/seal-client';

describe('Seal Integration', () => {
it('should encrypt and decrypt data successfully', async () => {
const { sealClient } = await createSealClient();
const testData = Buffer.from('test message');
const recipient = '0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8';

const encrypted = await sealClient.encrypt({
data: testData,
recipientId: recipient
});

expect(encrypted.encryptionId).toBeDefined();
expect(encrypted.ciphertext).toBeDefined();

const decrypted = await sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: recipient
});

expect(decrypted.toString()).toBe('test message');
});

it('should enforce access control policies', async () => {
// Test that unauthorized users cannot decrypt
const { sealClient } = await createSealClient();

const encrypted = await sealClient.encrypt({
data: Buffer.from('secret'),
recipientId: 'authorized-user'
});

await expect(
sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: 'unauthorized-user'
})
).rejects.toThrow('Access denied');
});
});

Bereitstellung für die Produktion

Umgebungskonfiguration

// config/production.ts
export const productionConfig = {
keyServers: [
process.env.KEY_SERVER_1,
process.env.KEY_SERVER_2,
process.env.KEY_SERVER_3,
process.env.KEY_SERVER_4,
process.env.KEY_SERVER_5
],
threshold: 3,
network: 'mainnet',
suiRpc: process.env.SUI_RPC_URL,
walrusGateway: process.env.WALRUS_GATEWAY,
// Security settings
maxDataSize: 1024 * 1024, // 1MB
sessionTimeout: 3600000, // 1 hour
retryAttempts: 3
};

Überwachung und Protokollierung

// utils/monitoring.ts
export class SealMonitoring {
static logEncryption(encryptionId: string, recipient: string) {
console.log(`[SEAL] Encrypted data ${encryptionId} for ${recipient}`);
// Send to your monitoring service
}

static logDecryption(encryptionId: string, success: boolean) {
console.log(`[SEAL] Decryption ${encryptionId}: ${success ? 'SUCCESS' : 'FAILED'}`);
}

static logKeyServerHealth(serverUrl: string, status: string) {
console.log(`[SEAL] Key server ${serverUrl}: ${status}`);
}
}

Ressourcen und nächste Schritte

Offizielle Dokumentation

Community und Support

  • Sui Discord: Treten Sie dem #seal-Kanal für Community-Support bei
  • GitHub Issues: Melden Sie Fehler und fordern Sie Funktionen an
  • Developer Forums: Sui Community-Foren für Diskussionen

Erweiterte Themen zum Erkunden

  1. Benutzerdefinierte Zugriffsrichtlinien: Erstellen Sie komplexe Autorisierungslogik mit Move-Verträgen
  2. Cross-Chain-Integration: Verwenden Sie Seal mit anderen Blockchain-Netzwerken
  3. Enterprise-Schlüsselmanagement: Richten Sie Ihre eigene Schlüsselserver-Infrastruktur ein
  4. Audit und Compliance: Implementieren Sie Protokollierung und Überwachung für regulierte Umgebungen

Beispielanwendungen

  • Sichere Chat-App: Ende-zu-Ende-verschlüsseltes Messaging mit Seal
  • Dokumentenmanagement: Unternehmensweite Dokumentenfreigabe mit Zugriffskontrollen
  • Digital Rights Management: Inhaltsverteilung mit Nutzungsrichtlinien
  • Datenschutzfreundliche Analysen: Verschlüsselte Datenverarbeitungsworkflows

Fazit

Seal stellt einen fundamentalen Wandel dar, um Datenschutz und Verschlüsselung zu Infrastruktur-Anliegen in Web3 zu machen. Durch die Kombination von identitätsbasierter Verschlüsselung, Schwellenwertsicherheit und programmierbarer Zugriffskontrolle bietet es Entwicklern leistungsstarke Tools zum Aufbau wirklich sicherer und dezentraler Anwendungen.

Die Hauptvorteile der Entwicklung mit Seal umfassen:

  • Kein Single Point of Failure: Verteilte Schlüsselserver eliminieren zentrale Autoritäten
  • Programmierbare Sicherheit: Smart-Contract-basierte Zugriffsrichtlinien bieten flexible Autorisierung
  • Entwicklerfreundlich: Das TypeScript SDK lässt sich nahtlos in bestehende Web3-Tools integrieren
  • Speicherunabhängig: Funktioniert mit Walrus, IPFS oder jeder Speicherlösung
  • Produktionsreif: Von Mysten Labs mit Unternehmenssicherheitsstandards entwickelt

Egal, ob Sie Benutzerdaten sichern, Abonnementmodelle implementieren oder komplexe Mehrparteienanwendungen erstellen, Seal bietet die kryptografischen Primitive und die Infrastruktur zur Zugriffskontrolle, die Sie benötigen, um mit Vertrauen zu entwickeln.

Beginnen Sie noch heute mit der Entwicklung und treten Sie dem wachsenden Ökosystem von Entwicklern bei, die Datenschutz zu einem fundamentalen Bestandteil der öffentlichen Infrastruktur machen.


Bereit, mit der Entwicklung zu beginnen? Installieren Sie @mysten/seal und experimentieren Sie mit den Beispielen in diesem Tutorial. Das dezentrale Web wartet auf Anwendungen, die Datenschutz und Sicherheit an erste Stelle setzen.

Das Web3-Rechts-Playbook: 50 FAQs, die jeder Builder meistern sollte

· 6 Minuten Lesezeit
Dora Noda
Software Engineer

Ein Protokoll zu starten oder ein On-Chain-Produkt zu skalieren, ist nicht länger nur eine technische Übung. Regulierungsbehörden prüfen alles, von Token-Starts bis hin zur Wallet-Privatsphäre, während Nutzer Schutz auf Verbraucherniveau erwarten. Um weiterhin mit Zuversicht liefern zu können, benötigt jedes Gründerteam einen strukturierten Weg, um dichte Rechtsgutachten in Produktentscheidungen zu übersetzen. Basierend auf 50 der häufigsten Fragen, die Web3-Anwälte hören, gliedert dieses Playbook die Diskussion in entwicklergerechte Schritte.

1. Gründung & Governance: Trennen Sie die Devco, die Stiftung und die Community

  • Wählen Sie die richtige Rechtsform. Standard-C-Corporations oder LLCs eignen sich immer noch am besten für Gehaltsabrechnungen, geistiges Eigentum und die Due Diligence von Investoren. Wenn Sie ein Protokoll oder ein Förderprogramm verwalten möchten, sorgt eine separate gemeinnützige Organisation oder Stiftung für saubere Anreize und transparente Governance.
  • Dokumentieren Sie jede Beziehung. Verwenden Sie IP-Abtretungen, Vertraulichkeitsvereinbarungen und Vesting-Zeitpläne mit klaren Cliffs, Lockups und Clawbacks für Fehlverhalten. Dokumentieren Sie Vorstandsgenehmigungen und halten Sie Token-Cap-Tables so präzise wie Ihre Eigenkapitalbücher.
  • Ziehen Sie klare Grenzen zwischen den Entitäten. Ein Entwicklungsunternehmen kann unter Lizenz bauen, aber Budget, Treasury-Politik und Entscheidungsrechte sollten bei einer Stiftung oder DAO liegen, die ihre eigene Satzung und Verfassung hat. Wo eine DAO Rechtspersönlichkeit benötigt, sollte sie in eine LLC oder ein Äquivalent gehüllt werden.

2. Tokens & Wertpapiere: Auf Nutzen ausgelegt, Begründung dokumentiert

  • Gehen Sie davon aus, dass Regulierungsbehörden über Etiketten hinwegsehen. „Governance“- oder „Utility“-Tags sind nur relevant, wenn Nutzer tatsächlich mit einem Live-Netzwerk interagieren, zum Verbrauch kaufen und keine Gewinnchancen in Aussicht gestellt bekommen. Lockups können Spekulationen reduzieren, sollten aber als Stabilitäts- oder Anti-Sybil-Schutzmaßnahmen gerechtfertigt sein.
  • Unterscheiden Sie Zugang von Investition. Zugangstokens sollten wie Produktpässe gelesen werden – Preisgestaltung, Dokumente und Marketing müssen den Anspruch auf Dienstleistungen, nicht auf zukünftige Gewinne, untermauern. Stablecoins unterliegen je nach Reserven und Einlösungsrechten eigenen Zahlungs- oder E-Geld-Regimen.
  • Behandeln Sie Staking und Renditen wie Finanzprodukte. Jedes Versprechen von APRs, Pooling oder die Abhängigkeit von den Bemühungen des Teams erhöht das Wertpapierrisiko. Halten Sie das Marketing einfach, teilen Sie Risikofaktoren mit und erstellen Sie einen konformen SAFT-zu-Mainnet-Plan, wenn Sie mit zukünftigen Tokens Kapital beschaffen.
  • Denken Sie daran, dass NFTs Wertpapiere sein können. Fraktionierter Besitz, Umsatzbeteiligungen oder Gewinnsprache stufen sie als Investition ein. Schlanke, konsumtive NFTs mit expliziten Lizenzen sind sicherer.

3. Fundraising & Verkäufe: Vermarkten Sie das Netzwerk, nicht den Moonshot

  • Offenlegen wie ein Erwachsener. Zweck, Funktionalität, Vesting, Zuteilungen, Übertragungslimits, Abhängigkeiten und die Verwendung der Erlöse gehören in jedes Verkaufs-Memo. Halten Sie Marketingtexte mit diesen Dokumenten abgestimmt – keine Tweets über „garantierte Rendite“.
  • Respektieren Sie Jurisdiktionsgrenzen. Wenn Sie die US-amerikanischen oder andere hochregulierte Regime nicht einhalten können, kombinieren Sie Geofencing mit Eignungsprüfungen, vertraglichen Beschränkungen und Überwachung nach dem Verkauf. KYC/AML ist Standard für Verkäufe und zunehmend auch für Airdrops.
  • Promotionsrisiko managen. Influencer-Kampagnen erfordern klare Sponsoring-Offenlegungen und konforme Skripte. Börsenlistungen oder Market-Making-Deals erfordern schriftliche Vereinbarungen, Konfliktprüfungen und ehrliche Kommunikation mit den Plattformen.

4. AML, Steuern und IP: Kontrollen in das Produkt integrieren

  • Kennen Sie Ihre regulatorische Rolle. Nicht-verwahrungsfähige Software hat geringere AML-Verpflichtungen, aber sobald Sie Fiat-Rampen, Verwahrung oder intermediären Austausch berühren, gelten Geldtransfer- oder VASP-Regeln. Bereiten Sie Sanktionsprüfungen, Eskalationspfade und Travel-Rule-Bereitschaft vor, wo relevant.
  • Behandeln Sie Tokens wie Bargeld für die Buchhaltung. Token-Zuflüsse sind typischerweise Einkommen zum fairen Marktwert; spätere Verkäufe lösen Gewinne oder Verluste aus. Vergütungszuschüsse erzeugen oft steuerpflichtiges Einkommen beim Vesting – verwenden Sie schriftliche Zuschüsse, verfolgen Sie die Anschaffungskosten und bereiten Sie sich auf Volatilität vor.
  • Respektieren Sie IP-Grenzen. Kombinieren Sie NFTs und On-Chain-Inhalte mit expliziten Lizenzen, respektieren Sie Open-Source-Bedingungen Dritter und registrieren Sie Marken. Wenn Sie KI-Modelle trainieren, bestätigen Sie die Rechte an den Datensätzen und bereinigen Sie sensible Daten.

5. Datenschutz & Daten: Sammlung begrenzen, Löschung planen

  • Gehen Sie davon aus, dass Wallet-Adressen personenbezogene Daten sind. Kombinieren Sie sie mit IPs, Geräte-IDs oder E-Mails, und Sie haben persönlich identifizierbare Informationen. Sammeln Sie nur das Nötigste, speichern Sie es wenn möglich Off-Chain und hashen oder tokenisieren Sie Identifikatoren.
  • Für Löschung entwickeln. Unveränderliche Ledger entbinden Sie nicht von Datenschutzgesetzen – halten Sie PII Off-Chain, entfernen Sie Referenzen, wenn Nutzer die Löschung anfordern, und trennen Sie Links, die gehashte Daten erneut identifizieren könnten.
  • Seien Sie transparent bezüglich Telemetrie. Cookie-Banner, Analyse-Offenlegungen und Opt-Outs sind Standard. Dokumentieren Sie einen Incident-Response-Plan, der Schweregrade, Benachrichtigungsfristen und Kontaktpunkte abdeckt.

6. Betrieb & Risiko: Frühzeitig prüfen, häufig kommunizieren

  • Prüfen und offenlegen. Unabhängige Smart-Contract-Audits, formale Verifizierung wo gerechtfertigt und ein fortlaufendes Bug-Bounty-Programm signalisieren Reife. Veröffentlichen Sie Berichte und erklären Sie Restrisiken klar.
  • Legen Sie klare Nutzungsbedingungen fest. Legen Sie den Verwahrungsstatus, die Berechtigung, verbotene Nutzungen, die Streitbeilegung und den Umgang mit Forks dar. Stimmen Sie Nutzungsbedingungen, Datenschutzrichtlinie und In-Produkt-Verhalten ab.
  • Planen Sie für Forks, Versicherungen und grenzüberschreitendes Wachstum. Behalten Sie sich das Recht vor, unterstützte Chains, Snapshot-Daten und Migrationspfade zu wählen. Prüfen Sie Cyber-, Kriminalitäts-, D&O- und Tech-E&O-Versicherungen. Beim globalen Betrieb lokalisieren Sie die Bedingungen, prüfen Sie Exportkontrollen und nutzen Sie EOR/PEO-Partner, um Fehlklassifizierungen zu vermeiden.
  • Bereiten Sie sich auf Streitigkeiten vor. Entscheiden Sie im Voraus, ob Schiedsverfahren oder Sammelklagen-Verzichte zu Ihrer Nutzerbasis passen. Protokollieren Sie Anfragen von Strafverfolgungsbehörden, überprüfen Sie rechtliche Verfahren und erklären Sie technische Grenzen wie das Fehlen der Schlüsselverwahrung.

7. Die Checkliste für Builder

  • Definieren Sie Ihre operative Rolle: Softwareanbieter, Verwahrer, Makler-ähnlicher Dienst oder Zahlungsintermediär.
  • Halten Sie das Marketing sachlich und funktionsorientiert; vermeiden Sie Formulierungen, die spekulative Renditen implizieren.
  • Minimieren Sie Verwahrung und die Sammlung personenbezogener Daten; dokumentieren Sie alle unvermeidbaren Berührungspunkte.
  • Pflegen Sie lebendige Dokumente für Token-Zuteilung, Governance-Design, Audit-Status und Risikoentscheidungen.
  • Budgetieren Sie von Tag eins an für Rechtsberatung, Compliance-Tools, Audits, Bug Bounties und Steuerfachwissen.

8. Rechtsberatung in Produktgeschwindigkeit umwandeln

Regulierung wird für Builder nicht langsamer werden. Was Ergebnisse verändert, ist die Einbettung rechtlicher Überlegungen in Backlog Grooming, Treasury Management und Nutzerkommunikation. Machen Sie Rechtsberatung zu einem Teil von Sprint-Reviews, proben Sie die Incident Response und iterieren Sie Offenlegungen auf die gleiche Weise, wie Sie UX iterieren. Tun Sie das, und die 50 FAQs oben hören auf, ein Blocker zu sein, und werden zu einem Wettbewerbsvorteil für Ihr Protokoll.

Von Passwörtern zu portablen Nachweisen: Ein Leitfaden für Entwickler zur Web3-Identität im Jahr 2025

· 10 Minuten Lesezeit
Dora Noda
Software Engineer

Die meisten Apps verankern Identität immer noch an Benutzernamen, Passwörtern und zentralisierten Datenbanken. Dieses Modell ist fragil (Datenlecks), undicht (Datenweiterverkauf) und umständlich (endlose KYC-Wiederholungen). Der neue Stack, der sich um dezentrale Identifikatoren (DIDs), verifizierbare Nachweise (VCs) und Attestierungen bildet, weist auf eine andere Zukunft hin: Benutzer tragen kryptografische Nachweise von Fakten über sich selbst und geben nur das preis, was benötigt wird – nicht mehr und nicht weniger.

Dieser Beitrag fasst die aktuelle Lage zusammen und bietet einen praktischen Bauplan, den Sie noch heute umsetzen können.


Der Wandel: Von Konten zu Nachweisen

Der Kern dieses neuen Identitäts-Stacks basiert auf zwei grundlegenden W3C-Standards, die die Art und Weise, wie wir Benutzerdaten handhaben, grundlegend verändern.

  • Dezentrale Identifikatoren (DIDs): Dies sind benutzergesteuerte Identifikatoren, die kein zentrales Register wie ein Domain Name System erfordern. Stellen Sie sich eine DID als eine permanente, selbstverwaltete Adresse für die Identität vor. Eine DID löst sich in ein signiertes „DID-Dokument“ auf, das öffentliche Schlüssel und Dienstendpunkte enthält und eine sichere, dezentrale Authentifizierung ermöglicht. Der v1.0-Standard wurde am 19. Juli 2022 zu einer offiziellen W3C-Empfehlung, was einen wichtigen Meilenstein für das Ökosystem darstellt.
  • Verifizierbare Nachweise (VCs): Dies ist ein manipulationssicheres, digitales Format zur Darstellung von Behauptungen, wie z. B. „Alter über 18“, „besitzt ein Diplom der Universität X“ oder „hat eine KYC-Prüfung bestanden“. Das VC Data Model 2.0 wurde am 15. Mai 2025 zu einer W3C-Empfehlung und legt damit eine moderne Grundlage für die Ausstellung und Verifizierung dieser Nachweise fest.

Was ändert sich für Entwickler? Die Veränderung ist tiefgreifend. Anstatt sensible persönlich identifizierbare Informationen (PII) in Ihrer Datenbank zu speichern, verifizieren Sie kryptografische Nachweise, die von der Wallet des Benutzers bereitgestellt werden. Sie können nur die spezifischen Informationen anfordern, die Sie benötigen (z. B. Wohnsitz in einem bestimmten Land), ohne das zugrunde liegende Dokument einzusehen, dank leistungsstarker Primitive wie der selektiven Offenlegung.


Wo es auf die Anmeldungen trifft, die Sie bereits verwenden

Diese neue Welt erfordert kein Aufgeben vertrauter Anmeldeerlebnisse. Stattdessen ergänzt sie diese.

  • Passkeys / WebAuthn: Dies ist Ihre erste Wahl für eine Phishing-resistente Authentifizierung. Passkeys sind FIDO-Anmeldeinformationen, die an ein Gerät oder eine Biometrie (wie Face ID oder einen Fingerabdruck) gebunden sind und jetzt in allen wichtigen Browsern und Betriebssystemen weit verbreitet sind. Sie bieten ein nahtloses, passwortloses Anmeldeerlebnis für Ihre App oder Wallet.
  • Sign-In with Ethereum (SIWE / EIP-4361): Dieser Standard ermöglicht es einem Benutzer, die Kontrolle über eine Blockchain-Adresse nachzuweisen und diese mit einer Anwendungssitzung zu verknüpfen. Dies geschieht über eine einfache, signierte, Nonce-basierte Nachricht, die eine saubere Brücke zwischen traditionellen Web2-Sitzungen und der Web3-Kontrolle schlägt.

Die beste Vorgehensweise ist, sie zusammen zu verwenden: Implementieren Sie Passkeys für die alltägliche Anmeldung und bieten Sie SIWE für Wallet-verknüpfte Abläufe an, bei denen ein Benutzer eine krypto-native Aktion autorisieren muss.


Die Grundlagen für die Ausstellung und Überprüfung von Nachweisen

Damit Nachweise nützlich sind, benötigen wir standardisierte Wege, um sie an Benutzer auszustellen und damit Benutzer sie Apps präsentieren können. Die OpenID Foundation stellt hierfür die beiden Schlüsselprotokolle bereit.

  • Ausstellung: OpenID for Verifiable Credential Issuance (OID4VCI) definiert eine OAuth-geschützte API, um Nachweise von Ausstellern (wie einer Regierungsbehörde oder einem KYC-Anbieter) in die digitale Wallet eines Benutzers zu übertragen. Es ist flexibel konzipiert und unterstützt mehrere Nachweisformate.
  • Präsentation: OpenID for Verifiable Presentations (OID4VP) standardisiert, wie Ihre Anwendung eine „Nachweisanfrage“ stellt und wie die Wallet eines Benutzers darauf reagiert. Dies kann über klassische OAuth-Weiterleitungen oder über moderne Browser-APIs geschehen.

Beim Entwickeln werden Sie auf einige wichtige Nachweisformate stoßen, die für verschiedene Ökosysteme und Anwendungsfälle konzipiert sind:

  • W3C VC mit Data Integrity Suites (JSON-LD): Oft gepaart mit BBS+-Kryptografie, um eine leistungsstarke selektive Offenlegung zu ermöglichen.
  • VC-JOSE-COSE und SD-JWT VC (IETF): Diese Formate sind für JWT- und CBOR-basierte Ökosysteme konzipiert und verfügen ebenfalls über starke selektive Offenlegungsfunktionen.

Glücklicherweise verbessert sich die Interoperabilität rapide. Profile wie OpenID4VC High Assurance tragen dazu bei, die technischen Optionen einzugrenzen, was die Integrationen zwischen verschiedenen Anbietern für Entwickler wesentlich einfacher macht.


DID-Methoden: Das richtige Adressschema wählen

Eine DID ist lediglich ein Identifikator; eine „DID-Methode“ spezifiziert, wie sie an einer Vertrauenswurzel verankert ist. Sie sollten einige gängige Methoden unterstützen.

  • did:web: Diese Methode sichert eine DID mit einer von Ihnen kontrollierten Domain ab. Sie ist unglaublich einfach bereitzustellen und eine fantastische Wahl für Unternehmen, Aussteller und Organisationen, die ihre bestehende Web-Infrastruktur als Vertrauensanker nutzen möchten.
  • did:pkh: Diese Methode leitet eine DID direkt von einer Blockchain-Adresse ab (z. B. einer Ethereum-Adresse). Dies ist äußerst nützlich, wenn Ihre Benutzerbasis bereits Krypto-Wallets besitzt und Sie deren Identität mit On-Chain-Assets verknüpfen möchten.

Faustregel: Unterstützen Sie mindestens zwei Methoden – did:web für Organisationen und did:pkh für einzelne Benutzer. Verwenden Sie eine Standard-DID-Resolver-Bibliothek zur Abwicklung der Auflösung und konsultieren Sie offizielle Register, um die Sicherheit, Persistenz und Governance jeder neuen Methode zu bewerten, die Sie hinzufügen möchten.


Nützliche Bausteine, die Sie integrieren können

Über die Kernstandards hinaus können verschiedene Tools Ihren Identitäts-Stack verbessern.

  • ENS (Ethereum Name Service): Bietet menschenlesbare Namen (ihrname.eth), die Blockchain-Adressen und DIDs zugeordnet werden können. Dies ist ein unschätzbares Werkzeug zur Verbesserung der Benutzerfreundlichkeit, zur Reduzierung von Fehlern und zur Bereitstellung einer einfachen Profilebene.
  • Attestierungen: Dies sind flexible, verifizierbare „Fakten über alles“, die On-Chain oder Off-Chain aufgezeichnet werden können. Der Ethereum Attestation Service (EAS) bietet beispielsweise eine robuste Grundlage für den Aufbau von Reputations- und Vertrauensgraphen, ohne jemals PII auf einem öffentlichen Ledger zu speichern.

Regulatorische Rückenwinde, die Sie verfolgen sollten

Regulierung wird oft als Hürde angesehen, doch in diesem Bereich ist sie ein massiver Beschleuniger. Das EU Digital Identity Framework (eIDAS 2.0), offiziell als Verordnung EU 2024/1183 am 20. Mai 2024 verabschiedet, ist die bedeutendste Entwicklung. Es schreibt vor, dass alle EU-Mitgliedstaaten ihren Bürgern eine kostenlose EU Digital Identity Wallet (EUDI) anbieten müssen. Mit den am 7. Mai 2025 veröffentlichten Durchführungsbestimmungen ist dies ein starkes Signal für die Einführung von Wallet-basierten Nachweisen in öffentlichen und privaten Diensten in Europa.

Auch wenn Sie nicht in der EU tätig sind, erwarten Sie, dass die EUDI Wallet und ihre zugrunde liegenden Protokolle die Benutzererwartungen prägen und die Akzeptanz von Wallets weltweit vorantreiben werden.


Designmuster, die in der Produktion funktionieren (2025)

  • Passwortlos zuerst, Wallets optional: Standardmäßig Passkeys für die Anmeldung verwenden. Es ist sicher, einfach und vertraut. Führen Sie SIWE nur ein, wenn Benutzer eine krypto-verknüpfte Aktion ausführen müssen, wie das Prägen eines NFT oder den Empfang einer Auszahlung.
  • Nachweise anfordern, nicht Dokumente: Ersetzen Sie umständliche Dokumenten-Uploads durch eine prägnante VC-Nachweisanfrage mittels OID4VP. Anstatt nach einem Führerschein zu fragen, fordern Sie einen Nachweis für „Alter über 18“ oder „Wohnsitzland ist X“ an. Akzeptieren Sie Nachweise, die selektive Offenlegung unterstützen, wie solche, die BBS+ oder SD-JWT verwenden.
  • PII nicht auf Ihren Servern speichern: Wenn ein Benutzer etwas nachweist, zeichnen Sie eine Attestierung oder ein kurzlebiges Verifizierungsergebnis auf, nicht den rohen Nachweis selbst. On-Chain-Attestierungen sind eine leistungsstarke Methode, um einen überprüfbaren Datensatz zu erstellen – „Benutzer Y hat KYC bei Aussteller Z am Datum D bestanden“ – ohne persönliche Daten zu speichern.
  • Organisationen als Aussteller mit did:web: Unternehmen, Universitäten und andere Organisationen kontrollieren bereits ihre Domains. Lassen Sie sie Nachweise als Aussteller mit did:web signieren, wodurch sie ihre kryptografischen Schlüssel unter ihren bestehenden Web-Governance-Modellen verwalten können.
  • ENS für Namen, nicht für Identität verwenden: Behandeln Sie ENS als benutzerfreundlichen Handle und Profilzeiger. Es ist großartig für die UX, aber bewahren Sie die maßgeblichen Identitätsansprüche innerhalb von Nachweisen und Attestierungen auf.

Eine Starter-Architektur

Hier ist ein Bauplan für ein modernes, nachweisbasiertes Identitätssystem:

  • Authentifizierung
    • Standard-Login: Passkeys (FIDO/WebAuthn).
    • Krypto-verknüpfte Sitzungen: Sign-In with Ethereum (SIWE) für Wallet-basierte Aktionen.
  • Nachweise
    • Ausstellung: Integration mit OID4VCI-Endpunkten Ihrer gewählten Aussteller (z. B. einem KYC-Anbieter, einer Universität).
    • Präsentation: Lösen Sie OID4VP-Nachweisanfragen von Ihrer Web- oder nativen App aus. Seien Sie darauf vorbereitet, sowohl W3C VCs (mit BBS+) als auch SD-JWT VCs zu akzeptieren.
  • Auflösung & Vertrauen
    • DID-Resolver: Verwenden Sie eine Bibliothek, die mindestens did:web und did:pkh unterstützt. Pflegen Sie eine Positivliste vertrauenswürdiger Aussteller-DIDs, um Spoofing zu verhindern.
  • Attestierungen & Reputation
    • Dauerhafte Aufzeichnungen: Wenn Sie ein überprüfbares Signal einer Verifizierung benötigen, prägen Sie eine Attestierung, die einen Hash, die DID des Ausstellers und einen Zeitstempel enthält, anstatt den Anspruch selbst zu speichern.
  • Speicherung & Datenschutz
    • Minimalismus: Minimieren Sie drastisch die PII, die Sie serverseitig speichern. Verschlüsseln Sie alles im Ruhezustand und legen Sie strenge Time-to-Live (TTL)-Richtlinien fest. Bevorzugen Sie ephemere Nachweise und setzen Sie stark auf Zero-Knowledge oder selektive Offenlegung.

UX-Erkenntnisse

  • Unsichtbar starten: Für die meisten Benutzer ist die beste Wallet die, über die sie nicht nachdenken müssen. Verwenden Sie Passkeys, um die Anmeldung nahtlos zu gestalten, und zeigen Sie Wallet-Interaktionen nur kontextbezogen an, wenn sie absolut notwendig sind.
  • Progressive Offenlegung: Fragen Sie nicht alles auf einmal ab. Fordern Sie den kleinstmöglichen Nachweis an, der das unmittelbare Ziel des Benutzers freischaltet. Mit selektiver Offenlegung benötigen Sie nicht das vollständige Dokument, um eine Tatsache zu verifizieren.
  • Schlüsselwiederherstellung ist wichtig: Ein an einen einzelnen Geräteschlüssel gebundener Nachweis ist eine Schwachstelle. Planen Sie von Anfang an die Neu-Ausstellung und geräteübergreifende Portabilität. Dies ist ein Hauptgrund, warum moderne Profile Formate wie SD-JWT VC und anspruchsbasierte Inhaberbindung übernehmen.
  • Menschenlesbare Handles helfen: Ein ENS-Name ist weitaus weniger einschüchternd als eine lange hexadezimale Adresse. Er reduziert Benutzerfehler und fügt eine Ebene erkennbaren Kontexts hinzu, auch wenn die wahre Autorität in den zugrunde liegenden Nachweisen liegt.

Was im nächsten Quartal zu liefern ist: Eine pragmatische Roadmap

  • Wochen 1–2:
    • Fügen Sie Passkeys für Ihren primären Anmeldeablauf hinzu.
    • Sichern Sie alle krypto-nativen Aktionen hinter einer SIWE-Prüfung ab.
  • Wochen 3–6:
    • Pilotieren Sie eine einfache Alters- oder Regionssperre mittels einer OID4VP-Anfrage.
    • Akzeptieren Sie VC 2.0-Nachweise mit selektiver Offenlegung (BBS+ oder SD-JWT VC).
    • Beginnen Sie, Attestierungen für „Verifizierung bestanden“-Ereignisse zu erstellen, anstatt PII zu protokollieren.
  • Wochen 7–10:
    • Binden Sie einen Partneraussteller (z. B. Ihren KYC-Anbieter) über did:web ein und implementieren Sie eine DID-Positivliste.
    • Bieten Sie die Verknüpfung von ENS-Namen in Benutzerprofilen an, um die Adress-UX zu verbessern.
  • Wochen 11–12:
    • Führen Sie eine Bedrohungsmodellierung Ihrer Präsentations- und Widerrufsabläufe durch. Fügen Sie Telemetrie für gängige Fehlermodi hinzu (abgelaufener Nachweis, nicht vertrauenswürdiger Aussteller).
    • Veröffentlichen Sie eine klare Datenschutzhaltung, die genau erklärt, was Sie anfordern, warum, wie lange Sie es aufbewahren und wie Benutzer es überprüfen können.

Was sich schnell ändert (Behalten Sie dies im Auge)

  • Rollouts der EU EUDI Wallet: Die Implementierung und Konformitätsprüfung dieser Wallets wird die Funktionen und die Verifizierungs-UX weltweit massiv prägen.
  • OpenID4VC-Profile: Die Interoperabilität zwischen Ausstellern, Wallets und Verifizierern verbessert sich dank neuer Profile und Testsuiten ständig.
  • Kryptosuites für selektive Offenlegung: Bibliotheken und Entwicklerleitfäden für BBS+ und SD-JWT VC reifen schnell heran, was ihre Implementierung erleichtert.

Prinzipien für die Entwicklung

  • Nachweisen, nicht speichern: Standardmäßig Ansprüche verifizieren, anstatt rohe PII zu speichern.
  • Standardmäßig interoperabel: Unterstützen Sie von Anfang an mehrere Nachweisformate und DID-Methoden, um Ihren Stack zukunftssicher zu machen.
  • Minimieren & Offenlegen: Fordern Sie den kleinstmöglichen Anspruch an. Seien Sie transparent gegenüber Benutzern, was Sie überprüfen und warum.
  • Wiederherstellung langweilig gestalten: Planen Sie Geräteverlust und Ausstellerrotation ein. Vermeiden Sie spröde Schlüsselbindungen, die Benutzer stranden lassen.

Wenn Sie Fintech-, Social- oder Creator-Plattformen entwickeln, ist die nachweisbasierte Identität keine Zukunftswette mehr – sie ist der kürzeste Weg zu geringerem Risiko, reibungsloserem Onboarding und globaler Interoperabilität.

Seal auf Sui: Eine programmierbare Geheimnisschicht für die On-Chain-Zugriffskontrolle

· 4 Minuten Lesezeit
Dora Noda
Software Engineer

Öffentliche Blockchains bieten jedem Teilnehmer ein synchronisiertes, auditierbares Ledger – doch sie legen standardmäßig auch jedes Datenelement offen. Seal, seit dem 3. September 2025 live im Sui Mainnet, begegnet diesem Problem, indem es On-Chain-Richtlinienlogik mit dezentraler Schlüsselverwaltung kombiniert, sodass Web3-Entwickler genau entscheiden können, wer welche Payloads entschlüsseln darf.

TL;DR

  • Was es ist: Seal ist ein Netzwerk zur Geheimnisverwaltung, das Sui-Smart Contracts ermöglicht, Entschlüsselungsrichtlinien On-Chain durchzusetzen, während Clients Daten mit identitätsbasierter Verschlüsselung (IBE) verschlüsseln und sich für die Schlüsselableitung auf Schwellenwert-Schlüsselserver verlassen.
  • Warum es wichtig ist: Anstelle von benutzerdefinierten Backends oder undurchsichtigen Off-Chain-Skripten werden Datenschutz und Zugriffskontrolle zu erstklassigen Move-Primitiven. Entwickler können Chiffriertexte überall speichern – Walrus ist der natürliche Begleiter – aber dennoch steuern, wer lesen darf.
  • Wer profitiert: Teams, die Token-gesteuerte Medien, zeitgesteuerte Offenlegungen, private Nachrichten oder richtlinienbewusste KI-Agenten bereitstellen, können das SDK von Seal nutzen und sich auf die Produktlogik konzentrieren, anstatt auf maßgeschneiderte Krypto-Infrastruktur.

Richtlinienlogik lebt in Move

Seal-Pakete enthalten seal_approve* Move-Funktionen, die definieren, wer Schlüssel für eine bestimmte Identitätszeichenfolge und unter welchen Bedingungen anfordern kann. Richtlinien können NFT-Besitz, Whitelists, Zeit-Sperren oder benutzerdefinierte Rollensysteme mischen. Wenn ein Benutzer oder Agent die Entschlüsselung anfordert, bewerten die Schlüsselserver diese Richtlinien über den Sui-Full-Node-Status und genehmigen nur, wenn die Kette zustimmt.

Da die Zugriffsregeln Teil Ihres On-Chain-Pakets sind, sind sie transparent, auditierbar und versionierbar, zusammen mit dem Rest Ihres Smart-Contract-Codes. Governance-Updates können wie jedes andere Move-Upgrade ausgerollt werden, mit Community-Überprüfung und On-Chain-Historie.

Schwellenwert-Kryptographie verwaltet die Schlüssel

Seal verschlüsselt Daten für anwendungsdefinierte Identitäten. Ein Komitee unabhängiger Schlüsselserver – vom Entwickler ausgewählt – teilt das IBE-Master-Geheimnis. Wenn eine Richtlinienprüfung erfolgreich ist, leitet jeder Server einen Schlüsselanteil für die angeforderte Identität ab. Sobald ein Quorum von t Servern antwortet, kombiniert der Client die Anteile zu einem nutzbaren Entschlüsselungsschlüssel.

Sie können den Kompromiss zwischen Lebendigkeit und Vertraulichkeit festlegen, indem Sie Komiteemitglieder (Ruby Nodes, NodeInfra, Overclock, Studio Mirai, H2O Nodes, Triton One oder Mystens Enoki-Dienst) auswählen und den Schwellenwert bestimmen. Benötigen Sie eine stärkere Verfügbarkeit? Wählen Sie ein größeres Komitee mit einem niedrigeren Schwellenwert. Wünschen Sie höhere Datenschutzgarantien? Ziehen Sie das Quorum enger und verlassen Sie sich auf zugelassene Anbieter.

Entwicklererfahrung: SDKs und Sitzungsschlüssel

Seal liefert ein TypeScript SDK (npm i @mysten/seal), das Verschlüsselungs-/Entschlüsselungsabläufe, Identitätsformatierung und Batching handhabt. Es gibt auch Sitzungsschlüssel aus, damit Wallets nicht ständig mit Aufforderungen bombardiert werden, wenn eine App wiederholten Zugriff benötigt. Für fortgeschrittene Workflows können Move-Kontrakte On-Chain-Entschlüsselung über spezialisierte Modi anfordern, wodurch Logik wie Treuhand-Offenlegungen oder MEV-resistente Auktionen direkt im Smart-Contract-Code ausgeführt werden können.

Da Seal speicherunabhängig ist, können Teams es mit Walrus für überprüfbaren Blob-Speicher, mit IPFS oder sogar mit zentralisierten Speichern kombinieren, wenn dies den operativen Realitäten entspricht. Die Verschlüsselungsgrenze – und ihre Richtliniendurchsetzung – wandert mit den Daten, unabhängig davon, wo der Chiffriertext gespeichert ist.

Design mit Seal: Best Practices

  • Verfügbarkeitsrisiko modellieren: Schwellenwerte wie 2-von-3 oder 3-von-5 entsprechen direkt den Verfügbarkeitsgarantien. Produktionsbereitstellungen sollten Anbieter mischen, Telemetrie überwachen und SLAs aushandeln, bevor kritische Workflows anvertraut werden.
  • Auf Zustandsvarianz achten: Die Richtlinienbewertung hängt davon ab, dass Full Nodes dry_run-Aufrufe durchführen. Vermeiden Sie Regeln, die von sich schnell ändernden Zählern oder der Reihenfolge innerhalb von Checkpoints abhängen, um inkonsistente Genehmigungen über Server hinweg zu verhindern.
  • Schlüsselhygiene planen: Abgeleitete Schlüssel befinden sich auf dem Client. Instrumentieren Sie die Protokollierung, rotieren Sie Sitzungsschlüssel und erwägen Sie die Umschlagverschlüsselung – verwenden Sie Seal, um einen symmetrischen Schlüssel zu schützen, der die größere Payload verschlüsselt –, um den Schadensradius zu begrenzen, falls ein Gerät kompromittiert wird.
  • Rotation architektonisch planen: Das Komitee eines Chiffriertextes ist zum Zeitpunkt der Verschlüsselung festgelegt. Erstellen Sie Upgrade-Pfade, die Daten durch neue Komitees neu verschlüsseln, wenn Sie Anbieter wechseln oder Vertrauensannahmen anpassen müssen.

Was als Nächstes kommt

Die Roadmap von Seal weist auf von Validatoren betriebene MPC-Server, DRM-ähnliche Client-Tools und Post-Quanten-KEM-Optionen hin. Für Entwickler, die KI-Agenten, Premium-Inhalte oder regulierte Datenflüsse erforschen, bietet die heutige Veröffentlichung bereits einen klaren Bauplan: Kodieren Sie Ihre Richtlinie in Move, stellen Sie ein vielfältiges Schlüsselkomitee zusammen und liefern Sie verschlüsselte Erlebnisse, die die Privatsphäre der Benutzer respektieren, ohne die Vertrauensgrenze von Sui zu verlassen.

Wenn Sie Seal für Ihren nächsten Start in Betracht ziehen, beginnen Sie mit dem Prototyping einer einfachen NFT-gesteuerten Richtlinie mit einem offenen 2-von-3-Komitee und iterieren Sie dann zu der Anbieterkombination und den operativen Kontrollen, die dem Risikoprofil Ihrer App entsprechen.

Kettenabstraktion: Wie Unternehmen Web3 endlich nutzen werden (ohne an Chains zu denken)

· 8 Minuten Lesezeit
Dora Noda
Software Engineer

TL;DR

Cross-Chain-Abstraktion verwandelt ein Labyrinth aus Chains, Bridges und Wallets in ein einziges, kohärentes Plattform-Erlebnis für Entwickler und Endnutzer. Das Ökosystem ist still und leise gereift: Intent-Standards, Kontoabstraktion, native Stablecoin-Mobilität und netzwerkweite Initiativen wie die OP Superchain und Polygons AggLayer machen eine Zukunft mit „vielen Chains, einem Erlebnis“ im Jahr 2025 realistisch. Für Unternehmen ist der Vorteil pragmatisch: einfachere Integrationen, durchsetzbare Risikokontrollen, deterministische Operationen und Compliance-fähige Auditierbarkeit – ohne alles auf eine einzige Chain zu setzen.


Das eigentliche Problem von Unternehmen (und warum Bridges allein es nicht gelöst haben)

Die meisten Unternehmensteams wollen keine „Chain auswählen“. Sie wollen Ergebnisse: eine Zahlung abwickeln, einen Vermögenswert ausgeben, einen Handel abschließen oder einen Datensatz aktualisieren – zuverlässig, auditierbar und zu vorhersehbaren Kosten. Das Problem ist, dass das produktive Web3 heute unwiderruflich Multi-Chain ist. Hunderte von Rollups, Appchains und L2s wurden allein in den letzten 18 Monaten eingeführt, jede mit ihren eigenen Gebühren, Finalisierungszeiten, Tools und Vertrauensannahmen.

Traditionelle Cross-Chain-Ansätze lösten den Transport – das Verschieben von Tokens oder Nachrichten von A nach B – aber nicht das Erlebnis. Teams sind immer noch gezwungen, Wallets pro Netzwerk zu verwalten, Gas pro Chain bereitzustellen, eine Bridge pro Route auszuwählen und Sicherheitsunterschiede zu tragen, die sie nicht leicht quantifizieren können. Diese Reibung ist die eigentliche Adoptionssteuer.

Cross-Chain-Abstraktion beseitigt diese Steuer, indem sie die Chain-Auswahl und den Transport hinter deklarativen APIs, Intent-gesteuerten Benutzererlebnissen sowie einer einheitlichen Identität und Gasverwaltung verbirgt. Mit anderen Worten, Nutzer und Anwendungen drücken aus, was sie wollen; die Plattform bestimmt, wie und wo es sicher geschieht. Kettenabstraktion macht die Blockchain-Technologie für Endnutzer unsichtbar, während ihre Kernvorteile erhalten bleiben.

Warum 2025 anders ist: Die Bausteine passen endlich zusammen

Die Vision einer nahtlosen Multi-Chain-Welt ist nicht neu, aber die grundlegende Technologie ist endlich reif für die Produktion. Mehrere Schlüsselkomponenten sind gereift und konvergiert, was eine robuste Kettenabstraktion ermöglicht.

  • Netzwerkweite Vereinheitlichung: Projekte entwickeln jetzt Frameworks, um separate Chains wie ein einziges, vereinheitlichtes Netzwerk erscheinen zu lassen. Die OP Superchain zielt darauf ab, OP-Stack L2s mit gemeinsamen Tools und Kommunikationsschichten zu standardisieren. Polygons AggLayer aggregiert viele ZK-gesicherte Chains mit „pessimistischen Proofs“ für die Chain-Level-Buchhaltung, um zu verhindern, dass Probleme einer Chain andere kontaminieren. Gleichzeitig erweitert IBC v2 die standardisierte Interoperabilität über das Cosmos-Ökosystem hinaus und drängt auf „IBC überall“.

  • Reife Interop-Rails: Die Middleware für die Cross-Chain-Kommunikation ist jetzt praxiserprobt und weit verbreitet. Chainlink CCIP bietet Token- und Datentransfer auf Enterprise-Niveau über eine wachsende Anzahl von Chains. LayerZero v2 bietet Omnichain-Messaging und standardisierte OFT-Tokens mit einem einheitlichen Angebot. Axelar liefert General Message Passing (GMP) für komplexe Vertragsaufrufe über Ökosysteme hinweg und verbindet EVM- und Cosmos-Chains. Plattformen wie Hyperlane ermöglichen permissionless Deployments, sodass neue Chains dem Netzwerk ohne Gatekeeper beitreten können, während Wormhole eine generalisierte Messaging-Schicht bietet, die über mehr als 40 Chains hinweg verwendet wird.

  • Intent- & Kontoabstraktion: Das Benutzererlebnis wurde durch zwei entscheidende Standards transformiert. ERC-7683 standardisiert Cross-Chain-Intents, wodurch Apps Ziele deklarieren und ein gemeinsames Solver-Netzwerk diese effizient über Chains hinweg ausführen lassen können. Gleichzeitig ermöglichen EIP-4337 Smart Accounts, kombiniert mit Paymastern, die Gas-Abstraktion. Dies ermöglicht es einer Anwendung, Transaktionsgebühren zu sponsern oder Nutzer in Stablecoins bezahlen zu lassen, was für jeden Flow, der mehrere Netzwerke berühren könnte, unerlässlich ist.

  • Native Stablecoin-Mobilität: Circles Cross-Chain Transfer Protocol (CCTP) verschiebt native USDC über Chains hinweg mittels eines sicheren Burn-and-Mint-Prozesses, wodurch das Risiko von Wrapped Assets reduziert und die Liquidität vereinheitlicht wird. Die neueste Version, CCTP v2, reduziert die Latenz weiter und vereinfacht Entwickler-Workflows, wodurch die Stablecoin-Abwicklung zu einem nahtlosen Bestandteil des abstrahierten Erlebnisses wird.

Wie „Cross-Chain-Abstraktion“ in einem Unternehmens-Stack aussieht

Stellen Sie es sich als eine geschichtete Fähigkeit vor, die Sie zu bestehenden Systemen hinzufügen können. Das Ziel ist es, einen einzigen Endpunkt zu haben, um einen Intent auszudrücken, und eine einzige Richtlinienebene, um zu steuern, wie dieser über eine beliebige Anzahl von Chains ausgeführt wird.

  1. Vereinheitlichte Identität & Richtlinie: Auf der obersten Ebene befinden sich Smart Accounts (EIP-4337) mit rollenbasierten Zugriffskontrollen, Social Recovery und modernen Custody-Optionen wie Passkeys oder MPC. Dies wird von einer zentralen Richtlinien-Engine gesteuert, die definiert, wer was wo tun kann, unter Verwendung von Allow- und Deny-Listen für bestimmte Chains, Assets und Bridges.

  2. Gas- & Gebührenabstraktion: Paymaster beseitigen das „Ich brauche natives Gas auf Chain X“-Problem. Nutzer oder Dienste können Gebühren in Stablecoins bezahlen, oder die Anwendung kann sie vollständig sponsern, vorbehaltlich vordefinierter Richtlinien und Budgets.

  3. Intent-gesteuerte Ausführung: Nutzer drücken Ergebnisse aus, nicht Transaktionen. Zum Beispiel: „Tausche USDC gegen wETH und liefere es vor 17 Uhr an die Wallet unseres Lieferanten auf Chain Y.“ Der ERC-7683-Standard definiert das Format für diese Aufträge und ermöglicht es gemeinsamen Solver-Netzwerken, um die sichere und kostengünstige Ausführung zu konkurrieren.

  4. Programmierbare Abwicklung & Messaging: Im Hintergrund verwendet das System eine konsistente API, um die richtige Rail für jede Route auszuwählen. Es könnte CCIP für einen Token-Transfer verwenden, bei dem Enterprise-Support entscheidend ist, Axelar GMP für einen Cross-Ökosystem-Vertragsaufruf oder IBC, wo die native Light-Client-Sicherheit zum Risikomodell passt.

  5. Observability & Compliance standardmäßig: Der gesamte Workflow ist nachvollziehbar, vom ursprünglichen Intent bis zur endgültigen Abwicklung. Dies erzeugt klare Audit-Trails und ermöglicht den Export von Daten an bestehende SIEMs. Risikoframeworks können so programmiert werden, dass sie Allowlists durchsetzen oder Notbremsen auslösen, indem sie beispielsweise Routen pausieren, wenn die Sicherheitslage einer Bridge sich verschlechtert.

Eine Referenzarchitektur

Von oben nach unten besteht ein kettenabstrahiertes System aus klaren Schichten:

  • Erlebnisschicht: Anwendungsoberflächen, die Nutzer-Intents sammeln und Chain-Details vollständig verbergen, gepaart mit SSO-ähnlichen Smart Account Wallet-Flows.
  • Kontrollebene: Eine Richtlinien-Engine zur Verwaltung von Berechtigungen, Quoten und Budgets. Diese Ebene integriert sich mit KMS/HSM-Systemen und pflegt Allowlists für Chains, Assets und Bridges. Sie nimmt auch Risikofeeds auf, um anfällige Routen automatisch zu unterbrechen (Circuit-Break).
  • Ausführungsebene: Ein Intent-Router, der die beste Interop-Rail (CCIP, LayerZero, Axelar usw.) basierend auf Richtlinien, Preis- und Latenzanforderungen auswählt. Ein Paymaster verwaltet Gebühren und greift dabei auf einen Pool von Gas- und Stablecoin-Budgets zu.
  • Abwicklung & Zustand: Kanonische On-Chain-Verträge für Kernfunktionen wie Custody und Ausgabe. Ein vereinheitlichter Indexer verfolgt Cross-Chain-Ereignisse und Proofs und exportiert Daten zur Analyse und Compliance an ein Data Warehouse oder SIEM.

Build vs. Buy: Wie man Anbieter von Kettenabstraktion bewertet

Bei der Auswahl eines Partners für Kettenabstraktionsfähigkeiten sollten Unternehmen mehrere Schlüsselfragen stellen:

  • Sicherheits- & Vertrauensmodell: Was sind die zugrunde liegenden Verifikationsannahmen? Basiert das System auf Orakeln, Guardian Sets, Light Clients oder Validatoren-Netzwerken? Was kann geslasht oder mit einem Veto belegt werden?
  • Abdeckung & Neutralität: Welche Chains und Assets werden heute unterstützt? Wie schnell können neue hinzugefügt werden? Ist der Prozess permissionless oder vom Anbieter eingeschränkt?
  • Standardkonformität: Unterstützt die Plattform wichtige Standards wie ERC-7683, EIP-4337, OFT, IBC und CCIP?
  • Operationen: Was sind die SLAs des Anbieters? Wie transparent sind sie bei Vorfällen? Bieten sie wiederholbare Proofs, deterministische Wiederholungsversuche und strukturierte Audit-Logs?
  • Governance & Portabilität: Können Sie Interop-Rails pro Route wechseln, ohne Ihre Anwendung neu schreiben zu müssen? Anbieterneutrale Abstraktionen sind entscheidend für langfristige Flexibilität.
  • Compliance: Welche Kontrollen stehen für Datenaufbewahrung und -residenz zur Verfügung? Wie ist ihre SOC2/ISO-Haltung? Können Sie Ihr eigenes KMS/HSM mitbringen?

Ein pragmatischer 90-Tage-Enterprise-Rollout

  • Tage 0–15: Baseline & Richtlinie: Inventarisieren Sie alle derzeit verwendeten Chains, Assets, Bridges und Wallets. Definieren Sie eine anfängliche Allowlist und legen Sie Circuit-Break-Regeln basierend auf einem klaren Risikorahmen fest.
  • Tage 16–45: Prototyp: Konvertieren Sie eine einzelne User Journey, z. B. eine Cross-Chain-Auszahlung, um einen Intent-basierten Flow mit Kontoabstraktion und einem Paymaster zu verwenden. Messen Sie die Auswirkungen auf den User Drop-off, die Latenz und die Support-Last.
  • Tage 46–75: Rails erweitern: Fügen Sie dem System eine zweite Interoperabilitäts-Rail hinzu und leiten Sie Transaktionen dynamisch basierend auf der Richtlinie. Integrieren Sie CCTP für native USDC-Mobilität, wenn Stablecoins Teil des Workflows sind.
  • Tage 76–90: Härten: Verbinden Sie die Observability-Daten der Plattform mit Ihrem SIEM, führen Sie Chaostests bei Routenfehlern durch und dokumentieren Sie alle Betriebsverfahren, einschließlich Notfall-Pause-Protokolle.

Häufige Fallstricke (und wie man sie vermeidet)

  • Routing nur nach „Gaspreis“: Latenz, Finalität und Sicherheitsannahmen sind genauso wichtig wie Gebühren. Der Preis allein ist kein vollständiges Risikomodell.
  • Gas ignorieren: Wenn Ihr Erlebnis mehrere Chains berührt, ist Gas-Abstraktion nicht optional – sie ist eine Grundvoraussetzung für ein nutzbares Produkt.
  • Bridges als austauschbar behandeln: Das sind sie nicht. Ihre Sicherheitsannahmen unterscheiden sich erheblich. Kodifizieren Sie Allowlists und implementieren Sie Circuit Breaker, um dieses Risiko zu managen.
  • Ausbreitung von Wrapped Assets: Bevorzugen Sie wann immer möglich die native Asset-Mobilität (wie USDC über CCTP), um die Liquiditätsfragmentierung zu minimieren und das Gegenparteirisiko zu reduzieren.

Der Unternehmensvorteil

Wenn Kettenabstraktion gut umgesetzt wird, hört Blockchain auf, eine Sammlung eigenwilliger Netzwerke zu sein, und wird zu einer Ausführungsebene, gegen die Ihre Teams programmieren können. Sie bietet Richtlinien, SLAs und Audit-Trails, die den Standards entsprechen, unter denen Sie bereits arbeiten. Dank ausgereifter Intent-Standards, Kontoabstraktion, robuster Interop-Rails und nativem Stablecoin-Transport können Sie endlich Web3-Ergebnisse liefern, ohne Nutzer – oder Ihre eigenen Entwickler – dazu zu zwingen, sich darum zu kümmern, welche Chain die Arbeit erledigt hat.

Von MAG7 zu den digitalen Champions von morgen: Alex Tapscotts Vision

· 15 Minuten Lesezeit
Dora Noda
Software Engineer

Das Konzept des Übergangs von den heutigen dominanten "Magnificent 7"-Tech-Giganten zu einer neuen Generation von Leadern im Bereich digitaler Vermögenswerte stellt eine der bedeutendsten Investitionsthesen in der modernen Finanzwelt dar. Obwohl die spezifische Terminologie "MAG7 zu DAG7" in öffentlich zugänglichen Materialien nicht vorkommt, hat Alex Tapscott – Managing Director der Digital Asset Group von Ninepoint Partners und Vordenker im Bereich Blockchain – ausführlich eine Vision dargelegt, wie Web3-Technologien "die Leader des alten Paradigmas zwingen werden, den Web3-Champions von morgen Platz zu machen." Dieser Übergang von zentralisierten Plattformmonopolen zu dezentralen Protokollökonomien definiert die nächste Ära der Marktdominanz.

Das MAG7-Zeitalter und seine Grenzen verstehen

Die Magnificent 7 bestehen aus Apple, Microsoft, Google/Alphabet, Amazon, Meta, Nvidia und Tesla – Tech-Giganten, die zusammen über 10 Billionen US-Dollar Marktkapitalisierung repräsentieren und die Aktienmärkte im letzten Jahrzehnt dominiert haben. Diese Unternehmen verkörpern das "Lese-Schreib-Web" der Web2-Ära, in dem Nutzer Inhalte generieren, die Plattformen jedoch den Wert extrahieren.

Tapscott identifiziert grundlegende Probleme dieses Modells, die Möglichkeiten zur Disruption schaffen. Web2-Giganten wurden zu "Gatekeepern, die Barrieren errichten und Zölle auf alles erheben, was wir tun", wodurch Nutzer durch Überwachungskapitalismus zu Produkten wurden. 45 % der Finanzintermediäre leiden jährlich unter Wirtschaftskriminalität im Vergleich zu 37 % in der gesamten Wirtschaft, während die Regulierungskosten weiter steigen und Milliarden Menschen vom Finanzsystem ausgeschlossen bleiben. Die MAG7 schöpften Wert durch Zentralisierung, Netzwerkeffekte, die Nutzer banden, und Geschäftsmodelle, die auf Datenextraktion statt auf Wertverteilung basierten.

Wie die Champions von morgen laut Tapscott aussehen

Tapscotts Investitionsrahmen konzentriert sich auf den Übergang vom "Lese-Schreib"-Modell von Web2 zum "Lese-Schreib-Besitz"-Paradigma von Web3. Dies ist nicht nur eine technologische Evolution – es stellt eine grundlegende Umstrukturierung dar, wie Wert in digitalen Ökosystemen akkumuliert wird. Wie er bei der Einführung des Web3 Innovators Fund von Ninepoint im Mai 2023 feststellte: "Es wird Gewinner und Verlierer geben, da die Leader des alten Paradigmas gezwungen sind, den Web3-Champions von morgen Platz zu machen."

Das entscheidende Merkmal zukünftiger Champions ist die Eigentumsverteilung statt der Eigentumskonzentration. "Web3 verwandelt Internetnutzer in Internetbesitzer – sie können Eigentumsanteile an Produkten und Dienstleistungen erwerben, indem sie Tokens halten", erklärt Tapscott. Dies erweitert die Praxis des Silicon Valley, Eigenkapital mit Mitarbeitern weltweit zu teilen, auf jeden, der Web3-Anwendungen nutzt. Die nächste Generation dominanter Unternehmen wird paradoxerweise mehr Wert erfassen, indem sie den Nutzern Eigentum gibt und Netzwerkeffekte durch ausgerichtete Anreize statt Plattformbindung schafft.

Die vier Säulen der Dominanz der nächsten Generation

Tapscott identifiziert vier Kernprinzipien, die die Champions von morgen definieren, wobei jedes eine direkte Umkehrung des extrahierenden Modells von Web2 darstellt:

Eigentum: Digitale Vermögenswerte dienen als Wertcontainer und ermöglichen Eigentumsrechte im digitalen Bereich. Frühe Compound- und Uniswap-Nutzer erhielten Governance-Tokens für ihre Teilnahme, wodurch Nutzer zu Stakeholdern wurden. Zukünftige Leader werden es Nutzern ermöglichen, ihre Beiträge zu monetarisieren, anstatt dass Plattformen Nutzerdaten monetarisieren.

Handel: Eine neue Wirtschaftsschicht, die Peer-to-Peer-Wertübertragung ohne Zwischenhändler ermöglicht. DeFi-Protokolle entintermediieren die traditionelle Finanzwelt, während die Tokenisierung Real-World-Assets On-Chain bringt. Gewinner werden Mittelsmänner eliminieren und Reibung reduzieren, anstatt sich als essenzielle Zwischenhändler einzufügen.

Identität: Selbstsouveräne Identität gibt die Datenkontrolle an Einzelpersonen zurück und befreit von Plattformbindung. Datenschutzfreundliche Authentifizierung ersetzt überwachungsbasierte Modelle. Champions werden Identitätsprobleme ohne zentralisierte Kontrolle lösen.

Governance: Dezentrale autonome Organisationen verteilen die Entscheidungsgewalt durch Token-basiertes Voting und richten die Interessen der Stakeholder aus. Zukünftige Gewinner werden den Aktionärswert nicht auf Kosten der Nutzer maximieren – sie werden alle Anreize der Stakeholder durch Tokenomics ausrichten.

Tapscotts Investitionsrahmen zur Identifizierung von Champions

Die neun digitalen Asset-Kategorien

Tapscotts Taxonomie aus "Digital Asset Revolution" bietet eine umfassende Karte, wo Wert akkumuliert wird:

Kryptowährungen wie Bitcoin dienen als digitales Gold und Basis-Abwicklungsschichten. Bitcoins Marktkapitalisierung von über 1 Billion US-Dollar und seine "unübertroffene" Rolle als "Mutter aller Kryptowährungen" machen es zu einer grundlegenden Infrastruktur.

Protokoll-Tokens (Ethereum, Solana, Cosmos, Avalanche) repräsentieren die "Fat Protocols", die Wert aus den Anwendungsschichten erfassen. Tapscott betont diese als primäre Infrastrukturinvestitionen und hebt Ethereums Rolle bei der Stromversorgung von DeFi und NFTs hervor, während Alternativen wie Solana "perfekte Krypto-Projekt"-Skalierbarkeit bieten.

Governance-Tokens (Uniswap, Aave, Compound, Yearn Finance) ermöglichen das Community-Eigentum an Protokollen. Uniswap, das Tapscott als "eines der besten" DAOs bezeichnet, übertrifft häufig das Volumen von Coinbase, während es die Governance an Nutzer verteilt – was die Kraft der dezentralen Koordination demonstriert.

Stablecoins stellen potenziell die bedeutendste kurzfristige Disruption dar. Mit über 130 Milliarden US-Dollar in USDT und wachsenden Märkten für USDC und PYUSD transformieren Stablecoins die Zahlungsinfrastruktur. Tapscott sieht sie als SWIFT-Ersatz, der globale finanzielle Inklusion ermöglicht – besonders kritisch in Krisenökonomien mit Hyperinflation.

NFTs und Gaming-Assets ermöglichen Creator Economies und digitales Eigentum. Jenseits der Spekulation verdienten Kreative über 1,8 Milliarden US-Dollar an Lizenzgebühren auf Ethereum, während über 300 Projekte jeweils über 1 Million US-Dollar generierten – was den echten Nutzen bei der direkten Verbindung von Kreativen mit Konsumenten demonstriert.

Wertpapier-Tokens, Tokens für natürliche Vermögenswerte (Kohlenstoffzertifikate), Börsen-Tokens und CBDCs runden die Taxonomie ab, wobei jede die Digitalisierung traditioneller Wertspeicher repräsentiert.

Der Drei-Kategorien-Investitionsansatz

Tapscott strukturiert die Portfoliozusammenstellung um drei komplementäre Expositionsarten durch die Strategie von Ninepoint:

Plattform-Exposure: Direkte Investition in Smart-Contract-Plattformen und Protokolle – die grundlegende Infrastrukturschicht. Dazu gehören Bitcoin, Ethereum, Solana, Cosmos und Avalanche, die als Schienen für alle anderen Anwendungen dienen.

Reine Web3-Unternehmen: Unternehmen, die ihre gesamte Existenz auf Blockchain-Technologie setzen. Beispiele sind Circle (USDC-Stablecoin-Emittent, der einen Börsengang plant), Animoca Brands (baut Infrastruktur für über 700 Millionen Nutzer) und DeFi-Protokolle wie Uniswap und Aave.

Nutznießer und Adoptierende: Traditionelle Unternehmen, die Web3 integrieren, um ihre Geschäftsmodelle zu transformieren. PayPals PYUSD-Stablecoin-Start stellt "einen großen Sprung nach vorn" dar, der "wahrscheinlich nicht der letzte sein wird", während Unternehmen wie Nike und Microsoft die Unternehmensadoption anführen. Diese überbrücken TradFi und DeFi und bringen institutionelle Legitimität.

Spezifische Unternehmen und Sektoren, die Tapscott hervorhebt

Layer-1-Protokolle als grundlegende Wetten

Die frühen Investitionen von CMCC Global zeigen Tapscotts Überzeugung von der Infrastrukturdominanz. Solana bei 0,20 US-Dollar und Cosmos bei 0,10 US-Dollar repräsentieren konzentrierte Wetten auf spezifische technologische Ansätze – Solanas rasante Geschwindigkeit und minimale Gebühren versus Cosmos' "Internet der Blockchains", das Interoperabilität durch das IBC-Protokoll ermöglicht.

Ethereum bleibt als dominante Smart-Contract-Plattform mit unübertroffenen Entwickler-Ökosystemen und Netzwerkeffekten grundlegend. Avalanche ergänzt das Portfolio durch seinen Fokus auf tokenisierte Real-World-Assets. Die Multi-Chain-These erkennt an, dass Smart-Contract-Plattformen nahtlos interoperieren müssen, damit DeFi und Web3 ihr volles Potenzial entfalten können, und lehnt Winner-takes-all-Dynamiken ab.

DeFi als Beschleuniger der Finanzrevolution

"Wenn Bitcoin der Funke für die Finanzdienstleistungsrevolution war, dann sind DeFi und digitale Vermögenswerte der Beschleuniger", erklärt Tapscott. Er identifiziert neun Funktionen, die DeFi transformieren wird: Wert speichern, Wert bewegen, Wert verleihen, Finanzierung und Investition, Wert austauschen, Wert versichern, Wert analysieren, Buchhaltung/Prüfung und Identitätsauthentifizierung.

Uniswap ist ein Beispiel für die Kraft der dezentralen Koordination, übertrifft häufig die Volumen zentralisierter Börsen, während es die Governance an Token-Inhaber verteilt. Seine Marktkapitalisierung von 11 Milliarden US-Dollar demonstriert die Wertschöpfung durch Protokolle, die Zwischenhändler eliminieren.

Aave und Compound leisteten Pionierarbeit bei der dezentralen Kreditvergabe mit Flash Loans und algorithmischen Zinssätzen, wodurch Banken aus der Kapitalallokation entfernt wurden. Yearn Finance aggregiert Rendite über Protokolle hinweg und demonstriert, wie sich DeFi-Protokolle wie Legosteine zusammensetzen.

Osmosis im Cosmos-Ökosystem innovierte Superfluid Staking und erreichte über 15 Milliarden US-Dollar TVL, was die Machbarkeit von Nicht-EVM-Chains zeigt. Das gesamte DeFi-Ökosystem mit über 75 Milliarden US-Dollar TVL und wachsendem Volumen demonstriert, dass dies keine Spekulation ist – es ist Infrastruktur, die die traditionelle Finanzwelt ersetzt.

Verbraucheranwendungen und Massenadaptionswelle

Animoca Brands stellt die bislang größte Investition von CMCC Global dar – ein Engagement von 42 Millionen US-Dollar über mehrere Runden hinweg, das die Überzeugung signalisiert, dass verbraucherorientierte Anwendungen die nächste Welle antreiben. Mit über 450 Portfoliounternehmen und über 700 Millionen adressierbaren Nutzern schafft Animocas Ökosystem (The Sandbox, Axie Infinity, Mocaverse) Infrastruktur für Web3-Gaming und digitales Eigentum.

Gaming dient als Killer-Applikation von Web3, da Eigentumsmechanismen natürlich mit dem Gameplay übereinstimmen. Spieler, die durch Play-to-Earn-Modelle Einkommen erzielen, echtes Asset-Eigentum, das spielübergreifende Interoperabilität ermöglicht, und Creator Economies, in denen Entwickler direkt Wert erfassen – diese repräsentieren echten Nutzen jenseits der finanziellen Spekulation.

Transformation der Zahlungsinfrastruktur

Circles USDC-Stablecoin mit einem Angebot von 20 Milliarden US-Dollar stellt als "innovatives Finanztechnologieunternehmen", das einen Börsengang plant, "essenzielle Infrastruktur" dar. Der Start von PayPals PYUSD markierte die Akzeptanz von Blockchain-Schienen durch die traditionelle Finanzwelt, wobei Tapscott feststellt, dass dies wahrscheinlich nicht "das letzte Unternehmen" sein wird, das Krypto-Zahlungen einführt.

Stablecoins, die voraussichtlich 200 Milliarden US-Dollar Märkte erreichen werden, lösen reale Probleme: grenzüberschreitende Zahlungen ohne SWIFT-Verzögerungen, Dollar-Zugang für Bevölkerungsgruppen ohne Bankkonto und programmierbares Geld, das Smart-Contract-Automatisierung ermöglicht. Der Anstieg des LocalBitcoins-Volumens in Venezuela während der Hyperinflation demonstriert, warum "Bitcoin wichtig ist" – es bietet finanziellen Zugang, wenn traditionelle Systeme versagen.

Vergleich der MAG7-Dominanz mit den Merkmalen der Web3-Champions

Der grundlegende Unterschied zwischen den Epochen liegt in den Wertschöpfungsmechanismen und der Interessengruppen-Ausrichtung:

Web2 (MAG7) Merkmale: Zentralisierte Plattformen, die Nutzer als Produkte behandeln, Winner-takes-all-Ökonomie durch Netzwerkeffekte und Plattformbindung, Gatekeeper, die den Zugang kontrollieren und Renten extrahieren, Plattformen, die den gesamten Wert erfassen, während Beitragende eine feste Vergütung erhalten, Überwachungskapitalismus, der Nutzerdaten monetarisiert.

Web3 (Champions von morgen) Merkmale: Dezentrale Protokolle, bei denen Nutzer durch Token-Bestände zu Eigentümern werden, multipolare Ökosysteme mit interoperablen Protokollen, genehmigungsfreie Innovation ohne Gatekeeper, Wertschöpfung durch die Community durch Token-Wertsteigerung, Eigentumsökonomie, bei der Beitragende am Aufwärtspotenzial partizipieren.

Der Wandel stellt eine Bewegung von Unternehmen dar, die den Aktionärswert auf Kosten der Nutzer maximieren, hin zu Protokollen, die alle Anreize der Interessengruppen ausrichten. Die dominanten "Unternehmen" von morgen werden weniger wie Unternehmen und mehr wie Protokolle mit Governance-Tokens aussehen – sie werden keine Unternehmen im traditionellen Sinne sein, sondern dezentrale Netzwerke mit verteiltem Eigentum.

Wie Tapscott formuliert: "Im nächsten Jahrzehnt wird diese digitale Asset-Klasse exponentiell wachsen und traditionelle Finanzinstrumente wie Aktien, Anleihen, Grundbucheinträge und Fiat-Währung verschlingen." Die Tokenisierung von allem bedeutet, dass Eigentumsanteile an Protokollen traditionelle Aktien in ihrer Bedeutung übertreffen könnten.

Methoden und Rahmenwerke zur Bewertung

Technologische Differenzierung als primärer Filter

Tapscott betont, dass "Wert durch die Suche nach Frühphasen-Investitionsmöglichkeiten mit technologischer Differenzierung erfasst wird" und nicht durch Markt-Timing oder narrativ-getriebene Investitionen. Dies erfordert eine rigorose technische Bewertung: Analyse von Codebasen und Architektur, Konsensmechanismen und Sicherheitsmodellen, Tokenomics-Design und Anreizausrichtung, Interoperabilitätsfähigkeiten und Komponierbarkeit.

Der Fokus auf Infrastruktur statt Anwendungen in frühen Phasen spiegelt die Überzeugung wider, dass grundlegende Protokolle überproportionalen Wert akkumulieren. "Fat Protocols" erfassen Wert von allen Anwendungen, die auf ihnen aufbauen, im Gegensatz zu Web2, wo Anwendungen Wert erfassten, während Protokolle Commodities blieben.

Netzwerkeffekte und Entwickler-Ökosysteme

Führende Indikatoren für zukünftige Dominanz sind Entwickleraktivität (Commits, Dokumentationsqualität, Hackathon-Teilnahme), aktive Adressen und Transaktionsvolumen, der Gesamtwert der Einlagen in DeFi-Protokollen (TVL), Governance-Beteiligungsraten und Cross-Chain-Integrationen.

Entwickler-Ökosysteme sind besonders wichtig, da sie kumulative Vorteile schaffen. Ethereums riesige Entwicklerbasis erzeugt Netzwerkeffekte, die es trotz technischer Einschränkungen zunehmend schwierig machen, es zu verdrängen, während aufstrebende Plattformen durch überlegene Technologie oder spezifische Anwendungsfalloptimierung konkurrieren.

Bärenmarkt-Bauphilosophie

"Bärenmärkte bieten der Branche die Möglichkeit, sich auf das Bauen zu konzentrieren", betont Tapscott. "Krypto-Winter sind immer die beste Zeit, um sich auf diese Kernkonzepte zu konzentrieren, die Arbeit zu erledigen und für die Zukunft zu bauen." Der letzte Bärenmarkt brachte NFTs, DeFi-Protokolle, Stablecoins und Play-to-Earn-Gaming hervor – Innovationen, die den nächsten Bullenzyklus definierten.

Die Investitionsstrategie konzentriert sich auf mehrjährige Halteperioden, die auf Meilensteine der Protokollentwicklung abzielen, anstatt auf kurzfristige Volatilität. "Die erfolgreichsten Menschen in Krypto sind diejenigen, die ruhig bleiben und weitermachen können", indem sie tägliche Preisschwankungen ignorieren, um sich auf die Fundamentaldaten zu konzentrieren.

Die Portfoliozusammenstellung betont Konzentration – 15-20 Kernpositionen mit hoher Überzeugung statt breiter Diversifikation. Der Fokus auf Frühphasen bedeutet, Illiquidität im Austausch für asymmetrisches Aufwärtspotenzial zu akzeptieren, wobei die 0,20 US-Dollar Solana- und 0,10 US-Dollar Cosmos-Investitionen von CMCC Global die Kraft dieses Ansatzes demonstrieren.

Hype von echter Chance unterscheiden

Tapscott verwendet rigorose Rahmenwerke, um echte Innovation von Spekulation zu trennen:

Probleme, die Blockchain löst: Adressiert das Protokoll echte Schmerzpunkte (Betrug, Gebühren, Verzögerungen, Ausschluss) statt Lösungen, die Probleme suchen? Reduziert es Reibung und Kosten messbar? Erweitert es den Zugang zu unterversorgten Märkten?

Adoptionsmetriken über Spekulation: Fokus auf Nutzung statt Preis – Transaktionsvolumen, aktive Wallets, Entwickler-Commits, Unternehmenspartnerschaften, Fortschritte bei der regulatorischen Klarheit. "Schauen Sie über die täglichen Marktschwankungen hinaus, und Sie werden sehen, dass Innovatoren die Grundlagen für ein neues Internet und eine neue Finanzdienstleistungsbranche legen."

Methode des historischen Kontexts: Der Vergleich von Blockchain mit dem frühen Internet (1993) legt nahe, dass Technologien in der Infrastrukturphase kurzfristig überhyped, aber langfristig transformativ erscheinen. "In einem Jahrzehnt werden Sie sich fragen, wie die Gesellschaft jemals ohne sie funktioniert hat, obwohl die meisten von uns heute kaum wissen, was es ist."

Regulierungsnavigation und institutionelle Brücken

Zukünftige Champions werden mit Regulierungsbehörden zusammenarbeiten, anstatt gegen sie, und Compliance von Anfang an in die Architektur integrieren. Tapscotts Ansatz durch regulierte Einheiten (Ninepoint Partners, CMCC Globals SFC-Lizenzen in Hongkong) spiegelt Lehren aus den regulatorischen Herausforderungen von NextBlock Global wider.

Der Fokus auf professionelle Investoren und geeignete Verwahrungslösungen (versicherte Bitcoin-Fonds, State Street Administration) bringen institutionelle Glaubwürdigkeit. Die Konvergenz von TradFi und DeFi erfordert Champions, die in beiden Welten agieren können – Protokolle, die ausgeklügelt genug für Institutionen, aber zugänglich für Privatanleger sind.

Indikatoren für die Unternehmensadoption, die Tapscott hervorhebt, sind über 42 große Finanzinstitutionen, die Blockchain erforschen, Konsortien wie die Blockchain-Initiativen von Goldman Sachs und JPMorgan, die Adoption von tokenisierten Staatsanleihen und Bitcoin-ETF-Starts, die regulierte Exposition ermöglichen.

Der Weg nach vorn: Sektoren, die das Morgen definieren

Tapscott identifiziert mehrere Megatrends, die die nächste Generation von Billionen-Dollar-Protokollen hervorbringen werden:

Tokenisierungs-Infrastruktur, die die Digitalisierung von Immobilien, Aktien, Rohstoffen, Kohlenstoffzertifikaten und geistigem Eigentum ermöglicht. "Diese digitale Asset-Klasse wird exponentiell wachsen und traditionelle Finanzinstrumente verschlingen", da Reibung bei der Kapitalbildung und dem Handel verschwindet.

DeFi 2.0, das die besten Aspekte der zentralisierten Finanzwelt (Geschwindigkeit, Benutzererfahrung) mit Dezentralisierung (Self-Custody, Transparenz) kombiniert. Beispiele wie Rails, das hybride Börsen auf Krakens Ink L2 aufbaut, zeigen, dass sich diese Konvergenz beschleunigt.

Bitcoin als produktives Asset durch Innovationen wie das Babylon-Protokoll, das Staking ermöglicht, BTC als DeFi-Sicherheit nutzt und institutionelle Treasury-Strategien. Diese Entwicklung vom reinen Wertspeicher zu einem renditegenerierenden Asset erweitert Bitcoins Nutzen.

Web3-Identität und Datenschutz durch Zero-Knowledge Proofs, die Verifizierung ohne Offenlegung ermöglichen, selbstsouveräne Identität, die die Datenkontrolle an Einzelpersonen zurückgibt, und dezentrale Reputationssysteme, die plattformabhängige Profile ersetzen.

Tokenisierung von Real-World-Assets stellt vielleicht die größte Chance dar, mit Prognosen von über 10 Billionen US-Dollar RWA-Märkten bis 2030. Protokolle wie OpenTrade, die Infrastruktur auf institutionellem Niveau aufbauen, demonstrieren das Entstehen früher Infrastruktur.

Die Neun-Funktionen-DeFi-Transformation

Tapscotts Rahmenwerk zur Analyse des Disruptionspotenzials von DeFi umfasst alle Finanzdienstleistungsfunktionen, mit spezifischen Protokollbeispielen, die die Machbarkeit demonstrieren:

Wert speichern durch nicht-verwahrte Wallets (MakerDAO-Modell) versus Bankeinlagen. Wert bewegen über grenzüberschreitende Stablecoins versus SWIFT-Netzwerke. Wert Peer-to-Peer verleihen (Aave, Compound) versus Bankenintermediation. Finanzierung und Investition durch DeFi-Aggregatoren (Yearn, Rariable), die Robo-Advisors disruptieren. Wert auf DEXs (Uniswap, Osmosis) austauschen versus zentralisierte Börsen.

Wert versichern durch dezentrale Versicherungsprotokolle versus traditionelle Versicherer. Wert analysieren über On-Chain-Analysen, die beispiellose Transparenz bieten. Buchhaltung/Prüfung durch transparente Ledger, die Echtzeit-Verifizierung ermöglichen. Identitätsauthentifizierung durch selbstsouveräne Lösungen versus zentralisierte Datenbanken.

Jede Funktion repräsentiert Billionen-Dollar-Märkte in der traditionellen Finanzwelt, die reif sind für dezentrale Alternativen, die Zwischenhändler eliminieren, Kosten senken, Transparenz erhöhen und globalen Zugang erweitern.

Wichtige Erkenntnisse: Die Champions von morgen identifizieren und in sie investieren

Obwohl Alex Tapscott kein spezifisches "DAG7"-Rahmenwerk öffentlich dargelegt hat, bietet seine umfassende Investitionsthese klare Kriterien zur Identifizierung der nächsten Generation von Marktführern:

Infrastrukturdominanz: Die Champions von morgen werden Layer-1-Protokolle und kritische Middleware sein, die das Internet des Wertes ermöglichen – Unternehmen wie Solana, Cosmos und Ethereum, die grundlegende Schienen bauen.

Eigentumsökonomie: Gewinner werden Wert durch Tokens an Stakeholder verteilen, anstatt Renten zu extrahieren, wodurch ausgerichtete Anreize zwischen Plattformen und Nutzern geschaffen werden, die Web2-Giganten nie erreicht haben.

Echter Nutzen jenseits der Spekulation: Fokus auf Protokolle, die echte Probleme mit messbaren Metriken lösen – Transaktionsvolumen, Entwickleraktivität, TVL, aktive Nutzer – statt auf narrativ-getriebene Spekulation.

Interoperabilität und Komponierbarkeit: Eine Multi-Chain-Zukunft erfordert Protokolle, die nahtlos kommunizieren, wobei Gewinner Ökosystem-übergreifende Wertübertragung und Anwendungskomponierbarkeit ermöglichen.

Regulatorische Raffinesse: Champions werden komplexe globale regulatorische Umgebungen durch proaktives Engagement navigieren, Compliance in die Architektur integrieren und gleichzeitig Dezentralisierungsprinzipien beibehalten.

Geduldiges Kapital mit Überzeugung: Infrastrukturinvestitionen in der Frühphase erfordern mehrjährige Zeithorizonte und die Bereitschaft, Volatilität für asymmetrische Renditen zu ertragen, mit Konzentration auf Gelegenheiten mit höchster Überzeugung.

Der Übergang von MAG7 zu den Champions von morgen stellt mehr als eine Sektorrotation dar – er markiert eine grundlegende Umstrukturierung der Wertschöpfung in digitalen Ökonomien. Wo zentralisierte Plattformen einst durch Netzwerkeffekte und Datenextraktion dominierten, werden dezentrale Protokolle Wert akkumulieren, indem sie Eigentum verteilen und Anreize ausrichten. Wie Tapscott abschließt: "Die Blockchain wird Gewinner und Verlierer schaffen. Während sich Gelegenheiten in Hülle und Fülle bieten, dürfen die Risiken von Disruption und Verwerfung nicht ignoriert werden." Die Frage ist nicht, ob dieser Übergang stattfindet, sondern welche Protokolle als die definierende Infrastruktur der Eigentumsökonomie hervorgehen.