Zum Hauptinhalt springen

45 Posts getaggt mit "Web3"

Alle Tags anzeigen

GameFi-Branchenüberblick: Ein PM-Leitfaden für Web3-Gaming im Jahr 2025

· 35 Minuten Lesezeit
Dora Noda
Software Engineer

Der GameFi-Markt erreichte 18-19 Milliarden US-Dollar im Jahr 2024 mit Prognosen, bis 2034 95-200 Milliarden US-Dollar zu erreichen, steht jedoch vor einer harten Realität: 93 % der Projekte scheitern und 60 % der Nutzer verlassen Spiele innerhalb von 30 Tagen. Dieses Paradoxon definiert den aktuellen Zustand – massives Wachstumspotenzial kollidiert mit grundlegenden Nachhaltigkeitsproblemen. Die Branche verlagert sich von spekulativen „Play-to-Earn“-Modellen, die Söldner-Nutzer anzogen, hin zu „Play-and-Earn“-Erlebnissen, die den Unterhaltungswert priorisieren und Blockchain-Vorteile als sekundär betrachten. Erfolg im Jahr 2025 erfordert das Verständnis von fünf verschiedenen Nutzer-Personas, die Entwicklung für mehrere „zu erledigende Aufgaben“ jenseits des reinen Verdienens, die Implementierung nachhaltiger Tokenomics, die nicht auf unendliches Nutzerwachstum angewiesen sind, und das Lernen sowohl aus den Erfolgen von Axie Infinitys über 4 Milliarden US-Dollar an NFT-Verkäufen als auch aus den Misserfolgen seines 95%igen Nutzerrückgangs. Die Gewinner werden Produkte sein, die die Blockchain-Komplexität abstrahieren, AAA-Qualität im Gameplay liefern und echte Gemeinschaften statt Spekulationsfarmen aufbauen.

Zielgruppen-Personas: Wer spielt eigentlich GameFi

Das GameFi-Publikum reicht von philippinischen Rikschafahrern, die Miete verdienen, bis hin zu wohlhabenden Krypto-Investoren, die Spiele als Asset-Portfolios betrachten. Das Verständnis dieser Personas ist entscheidend für die Produkt-Markt-Passung.

Der Einkommenssuchende macht 35-40 % der Nutzer aus

Diese Persona dominiert Südostasien – insbesondere die Philippinen, Vietnam und Indonesien –, wo 40 % der Spitzen-Nutzer von Axie Infinity ihren Ursprung hatten. Dies sind 20- bis 35-Jährige aus Haushalten unterhalb des Mindestlohns, die GameFi als legitime Beschäftigung, nicht als Unterhaltung betrachten. Sie investieren täglich 6-10 Stunden und behandeln das Gameplay als Vollzeitjob, oft über Stipendienprogramme, bei denen Gilden NFTs im Austausch für 30-75 % der Einnahmen bereitstellen. Auf dem Höhepunkt von Axie verdienten philippinische Spieler monatlich 400-1.200 US-Dollar im Vergleich zu einem Mindestlohn von 200 US-Dollar, was lebensverändernde Ergebnisse wie die Bezahlung von Universitätsgebühren und den Kauf von Lebensmitteln ermöglichte. Diese Persona ist jedoch extrem anfällig für Token-Volatilität – als SLP vom Höhepunkt um 99 % abstürzte, fielen die Einnahmen unter den Mindestlohn und die Bindung brach zusammen. Ihre Schmerzpunkte konzentrieren sich auf hohe Einstiegskosten (400-1.000+ US-Dollar für Starter-NFTs auf dem Höhepunkt), komplexe Krypto-zu-Fiat-Konvertierung und nicht nachhaltige Tokenomics. Für Produktmanager erfordert diese Persona Free-to-Play- oder Stipendienmodelle, Mobile-First-Design, Unterstützung lokaler Sprachen und transparente Einkommensprognosen. Das von Yield Guild Games (30.000+ Stipendien) entwickelte Stipendienmodell demokratisiert den Zugang, wirft jedoch Bedenken hinsichtlich der Ausbeutung auf, angesichts der 10-30%igen Provisionsstruktur.

Der Gamer-Investor macht 25-30 % der Nutzer aus

Dies sind 25- bis 40-jährige Fachkräfte aus entwickelten Märkten – USA, Südkorea, Japan – mit mittlerem bis gehobenem Einkommen und Hochschulbildung. Sie sind erfahrene Core-Gamer, die sowohl Unterhaltungswert als auch finanzielle Renditen suchen und sich in DeFi-Ökosystemen über durchschnittlich 3,8 Layer-1-Chains und 3,6 Layer-2-Chains zurechtfinden. Im Gegensatz zu Einkommenssuchenden kaufen sie direkt Premium-NFTs (1.000-10.000+ US-Dollar Einzelinvestitionen) und diversifizieren Portfolios über 3-5 Spiele. Sie investieren täglich 2-4 Stunden und agieren oft als Gildenbesitzer statt als Stipendiaten, indem sie das Gameplay anderer verwalten. Ihre Hauptfrustration ist die schlechte Gameplay-Qualität in den meisten GameFi-Titeln – sie wollen AAA-Produktionswerte, die traditionellen Spielen entsprechen, nicht „Tabellenkalkulationen mit Grafiken“. Diese Persona ist entscheidend für die Nachhaltigkeit, da sie Kapitalzuflüsse und längerfristiges Engagement bietet. Produktmanager sollten sich auf fesselnde Gameplay-Mechaniken, hohe Produktionswerte, ausgefeilte Tokenomics-Transparenz und Governance-Beteiligung durch DAOs konzentrieren. Sie sind bereit, Premium-Preise zu zahlen, verlangen aber Qualität und tolerieren keine Pay-to-Win-Dynamiken, die als Hauptgrund für das Aufhören von Spielern in traditionellen Spielen gelten.

Der Gelegenheitsspieler macht 20-25 % der Nutzer aus

Global und primär Mobile-First, sind diese 18- bis 35-jährigen Studenten und jungen Berufstätigen motiviert durch Neugier, FOMO und das Wertversprechen „Warum nicht beim Spielen verdienen?“. Sie investieren täglich nur 30 Minuten bis 2 Stunden mit inkonsistenten Engagement-Mustern. Diese Persona entdeckt GameFi zunehmend über Telegram-Mini-Apps wie Hamster Kombat (239 Millionen Nutzer in 3 Monaten) und Notcoin (1,6 Milliarden US-Dollar Marktkapitalisierung), die ein reibungsloses Onboarding ohne Wallet-Einrichtung bieten. Sie weisen jedoch die höchste Abwanderungsrate auf – über 60 % verlassen das Spiel innerhalb von 30 Tagen –, da schlechte UX/UI (von 53 % als größte Herausforderung genannt), komplexe Wallet-Einrichtung (schreckt 11 % ab) und repetitives Gameplay sie vertreiben. Die Entdeckungsmethode ist wichtig: 60 % erfahren über Freunde und Familie von GameFi, was virale Mechanismen unerlässlich macht. Für Produktmanager erfordert diese Persona ein vereinfachtes Onboarding (gehostete Wallets, keine Krypto-Kenntnisse erforderlich), soziale Funktionen zur Freundeswerbung und ein wirklich unterhaltsames Gameplay, das als eigenständiges Erlebnis funktioniert. Die Falle besteht darin, rein für Token-Farming zu entwickeln, was diese Persona vorübergehend anzieht, sie aber über Airdrops hinaus nicht bindet – Hamster Kombat verlor 86 % der Nutzer nach dem Airdrop (300 Mio. auf 41 Mio.).

Der Krypto-Native macht 10-15 % der Nutzer aus

Diese 22- bis 45-jährigen Krypto-Profis, Entwickler und Trader aus globalen Krypto-Hubs verfügen über Expertenwissen in der Blockchain und unterschiedliche Gaming-Hintergründe. Sie betrachten GameFi als Asset-Klasse und technologisches Experiment und nicht als primäre Unterhaltung, wobei sie Alpha-Möglichkeiten, den Status als Early Adopter und Governance-Beteiligung suchen. Diese Persona handelt hochfrequent, stellt Liquidität bereit, staket Governance-Tokens und nimmt an DAOs teil (25 % engagieren sich aktiv in der Governance). Sie sind anspruchsvoll genug, um Smart-Contract-Code und die Nachhaltigkeit von Tokenomics zu analysieren, was sie zu den schärfsten Kritikern nicht nachhaltiger Modelle macht. Ihr Investitionsansatz konzentriert sich auf hochwertige NFTs, Landverkäufe und Governance-Tokens, anstatt für kleine Belohnungen zu grinden. Produktmanager sollten diese Persona für Glaubwürdigkeit und Kapital einbeziehen, aber erkennen, dass sie oft frühzeitig aussteigen – Positionen vor der Mainstream-Adoption wechseln. Sie schätzen innovative Tokenomics, transparente On-Chain-Daten und Nutzen jenseits der Spekulation. Zu den größten Schmerzpunkten gehören nicht nachhaltige Token-Emissionen, regulatorische Unsicherheit, Bot-Manipulation und Rug Pulls. Diese Persona ist für die anfängliche Liquidität und Mundpropaganda unerlässlich, repräsentiert aber ein zu kleines Publikum (4,5 Millionen Krypto-Gamer vs. 3 Milliarden Gesamt-Gamer), um ausschließlich ein Massenmarktprodukt darum herum aufzubauen.

Der Community Builder macht 5-10 % der Nutzer aus

Gildenbesitzer, Stipendienmanager, Content-Ersteller und Influencer – diese 25- bis 40-Jährigen mit mittlerem Einkommen investieren täglich 4-8 Stunden in die Verwaltung von Operationen, anstatt direkt zu spielen. Sie bauten die Infrastruktur auf, die es Einkommenssuchenden ermöglicht, teilzunehmen, verwalten zwischen 10 und über 1.000 Spieler und verdienen durch 10-30 % Provisionen an den Einnahmen der Stipendiaten. Auf dem Höhepunkt von Axie im Jahr 2021 verdienten erfolgreiche Gildenführer monatlich über 20.000 US-Dollar. Sie erstellen Bildungsinhalte, Strategiehandbücher und Marktanalysen, während sie rudimentäre Tools verwenden (oft Google Sheets für die Stipendiatenverwaltung). Diese Persona ist entscheidend für die Nutzerakquise und -bildung – Yield Guild Games verwaltete über 5.000 Stipendiaten mit 60.000 auf der Warteliste –, steht aber vor Nachhaltigkeitsproblemen, da Token-Preise die gesamte Gildenökonomie beeinflussen. Ihre Schmerzpunkte umfassen das Fehlen von Gilden-CRM-Tools, Schwierigkeiten bei der Leistungsverfolgung, regulatorische Unsicherheit bei der Besteuerung und die Nachhaltigkeitsbedenken des Stipendiaten-Wirtschaftsmodells (kritisiert als „Gold-Farming“ des digitalen Zeitalters). Produktmanager sollten Tools speziell für diese Persona entwickeln – Gilden-Dashboards, automatisierte Auszahlungen, Leistungsanalysen – und erkennen, dass sie als Vertriebskanäle, Onboarding-Infrastruktur und Community-Evangelisten dienen.

Zu erledigende Aufgaben: Wofür Nutzer GameFi-Produkte einsetzen

GameFi-Produkte werden eingesetzt, um mehrere Aufgaben gleichzeitig über funktionale, emotionale und soziale Dimensionen hinweg zu erfüllen. Das Verständnis dieser vielschichtigen Motivationen erklärt, warum Nutzer diese Produkte annehmen, sich mit ihnen beschäftigen und sie letztendlich wieder aufgeben.

Funktionale Aufgaben: Praktische Probleme, die gelöst werden

Die primäre funktionale Aufgabe für südostasiatische Nutzer ist die Einkommensgenerierung, wenn traditionelle Beschäftigung nicht verfügbar oder unzureichend ist. Während der COVID-19-Lockdowns verdienten Axie Infinity-Spieler auf den Philippinen monatlich 155-600 US-Dollar im Vergleich zu einem Mindestlohn von 200 US-Dollar, wobei die Einnahmen konkrete Ergebnisse wie die Bezahlung von Medikamenten für Mütter und Schulgebühren für Kinder ermöglichten. Ein 26-jähriger Koch verdiente wöchentlich 29 US-Dollar durch Spielen, und professionelle Spieler kauften Häuser. Dies stellt eine echte wirtschaftliche Chance in Märkten mit über 60 % unbanked Bevölkerung und Mindesttageslöhnen von 7-25 US-Dollar dar. Die Aufgabe geht jedoch über das Haupteinkommen hinaus zu Zusatzeinnahmen – Content-Moderatoren, die täglich 2 Stunden spielten, verdienten monatlich 155-195 US-Dollar (fast die Hälfte ihres Gehalts) für Lebensmittel und Stromrechnungen. Für Nutzer aus entwickelten Märkten verlagert sich die funktionale Aufgabe auf Investition und Vermögensaufbau durch Wertsteigerung von Assets. Frühe Axie-Adopter kauften Teams für 5 US-Dollar im Jahr 2020; bis 2021 erreichten die Preise über 50.000 US-Dollar für Starter-Teams. Virtuelles Land in Decentraland und The Sandbox wurde für beträchtliche Summen verkauft, und das Gildenmodell entstand, bei dem „Manager“ mehrere Teams besitzen und an „Stipendiaten“ für 10-30 % Provision vermieten. Die Aufgabe der Portfolio-Diversifizierung beinhaltet den Erwerb von Krypto-Asset-Exposition durch engagierte Aktivitäten statt reiner Spekulation, den Zugang zu DeFi-Funktionen (Staking, Yield Farming), die im Gameplay eingebettet sind. GameFi konkurriert mit traditioneller Beschäftigung (bietet flexible Arbeitszeiten, Homeoffice, keinen Arbeitsweg), traditionellem Gaming (bietet Echtgeld-Einnahmen), Kryptowährungshandel (bietet engagiertere, fähigkeitsbasierte Einnahmen) und Gig-Economy-Arbeit (bietet angenehmere Aktivitäten für vergleichbaren Lohn).

Emotionale Aufgaben: Gefühle und Erfahrungen, die gesucht werden

Leistung und Meisterschaft treiben das Engagement an, da Nutzer sich durch herausforderndes Gameplay und sichtbaren Fortschritt erfolgreich fühlen möchten. Akademische Forschung zeigt „Fortschritt“ und „Leistung“ als Top-Gaming-Motivationen, die durch das Züchten optimaler Axies, das Gewinnen von Kämpfen, das Erklimmen von Bestenlisten und Fortschrittssysteme, die Dopamin-gesteuertes Engagement erzeugen, befriedigt werden. Eine Studie ergab, dass 72,1 % der Spieler während des Spiels eine Stimmungsaufhellung erlebten. Die grindlastige Natur erzeugt jedoch Spannung – Spieler beschreiben anfängliches Glück, gefolgt von „Schläfrigkeit und Stress des Spiels“. Eskapismus und Stressabbau wurden während der COVID-Lockdowns besonders wichtig, wobei ein Spieler bemerkte, „vor dem Virus geschützt zu sein, süßes Spiel zu spielen, Geld zu verdienen“. Akademische Forschung bestätigt Eskapismus als Hauptmotivation, obwohl Studien zeigen, dass Gamer mit Eskapismus-Motivation ein höheres psychologisches Problemrisiko hatten, wenn externe Probleme fortbestanden. Die Aufgabe der Aufregung und Unterhaltung repräsentiert die Branchenverschiebung von reinem „Play-to-Earn“ zu „Play-and-Earn“ im Jahr 2024, mit der Kritik, dass frühe GameFi-Projekte „Blockchain-Gimmicks über echte Gameplay-Qualität“ priorisierten. AAA-Titel, die 2024-2025 auf den Markt kommen (Shrapnel, Off The Grid), konzentrieren sich auf fesselnde Erzählungen und Grafiken und erkennen an, dass Spieler zuerst Spaß wollen. Am wichtigsten ist vielleicht, dass GameFi Hoffnung und Optimismus für die finanzielle Zukunft bietet. Spieler äußern sich „unermüdlich optimistisch“ über das Erreichen von Zielen, wobei GameFi eine freiwillige Bottom-up-Alternative zum bedingungslosen Grundeinkommen bietet. Das Gefühl der Autonomie und Kontrolle über das finanzielle Schicksal – anstatt der Abhängigkeit von Arbeitgebern oder der Regierung – entsteht durch den Besitz von Assets durch Spieler über NFTs (im Gegensatz zu traditionellen Spielen, bei denen Entwickler alles kontrollieren) und dezentrale Governance durch DAO-Stimmrechte.

Soziale Aufgaben: Identität und soziale Bedürfnisse, die erfüllt werden

Zugehörigkeit zur Gemeinschaft erweist sich als ebenso wichtig wie finanzielle Erträge. Discord-Server erreichen über 100.000 Mitglieder, Gildensysteme wie Yield Guild Games verwalten 8.000 Stipendiaten mit 60.000 Wartelisten, und Stipendienmodelle schaffen Mentor-Mentee-Beziehungen. Das soziale Element treibt virales Wachstum an – Telegram-Mini-Apps, die bestehende soziale Graphen nutzen, erreichten 35 Millionen (Notcoin) und 239 Millionen (Hamster Kombat) Nutzer. Gemeinschaftsgetriebene Entwicklung wird bis 2024 in über 50 % der GameFi-Projekte erwartet. Der Status als Early Adopter und Innovator zieht Teilnehmer an, die als technisch versiert und den Mainstream-Trends voraus angesehen werden wollen. Web3-Gaming zieht „Tech-Enthusiasten“ und „Krypto-Natives“ jenseits traditioneller Gamer an, wobei der First-Mover-Vorteil bei der Token-Akkumulation Statushierarchien schafft. Die Darstellung von Reichtum und die „Flex-Kultur“ manifestieren sich durch seltene NFT-Axies mit „limitierter Auflage von Körperteilen, die nie wieder veröffentlicht werden“, die als Statussymbole dienen, X-integrierte Bestenlisten, die es „Spielern ermöglichen, ihren Rang einem Mainstream-Publikum zu präsentieren“, und den Besitz von virtuellem Immobilienvermögen, der Reichtum demonstriert. Geschichten über den Kauf von Häusern und Land, die viral geteilt werden, verstärken diese Aufgabe. Für Einkommenssuchende erweist sich die Rolle des Versorgers und der Familienunterstützung als besonders mächtig – ein 18-jähriger Ernährer, der die Familie nach dem COVID-Tod des Vaters unterstützt, Spieler, die Schulgebühren für Kinder und Medikamente für Eltern bezahlen. Ein Zitat fasst es zusammen: „Es ist Essen auf dem Tisch.“ Die Rolle des Helfers und Mentors entsteht durch Stipendienmodelle, bei denen erfolgreiche Spieler Axie-NFTs an diejenigen vergeben, die sich den Einstieg nicht leisten können, wobei Community Manager neue Spieler organisieren und schulen. Schließlich ermöglicht GameFi die Stärkung der Gamer-Identität, indem es die traditionelle Gaming-Kultur mit finanzieller Verantwortung verbindet, Gaming als Karriereweg legitimiert und das Stigma des Gamings als „Zeitverschwendung“ reduziert.

Fortschritte, die Nutzer in ihrem Leben erzielen möchten

Nutzer „stellen“ keine „Blockchain-Spiele“ „ein“ – sie „stellen“ Lösungen „ein“, um spezifische Fortschritte im Leben zu erzielen. Finanzieller Fortschritt bedeutet, von „kaum über die Runden kommen“ zu „Ersparnisse aufbauen und die Familie bequem unterstützen“, von „abhängig von einem instabilen Arbeitsmarkt“ zu „mehreren Einkommensströmen mit mehr Kontrolle“ und von „nicht in der Lage, die Ausbildung der Kinder zu finanzieren“ zu „Schulgebühren bezahlen und digitale Geräte kaufen“. Sozialer Fortschritt bedeutet, von „Gaming als Zeitverschwendung angesehen“ zu „Gaming als legitime Einkommensquelle und Karriere“, von „während der Pandemie isoliert“ zu „mit einer globalen Gemeinschaft mit gemeinsamen Interessen verbunden“ und von „Konsument im Gaming-Ökosystem“ zu „Stakeholder mit Eigentums- und Governance-Rechten“. Emotionaler Fortschritt beinhaltet die Transformation von „hoffnungslos bezüglich der finanziellen Zukunft“ zu „optimistisch bezüglich der Möglichkeiten der Vermögensakkumulation“, von „Zeit, die mit Gaming verbracht wird, fühlt sich schuldig an“ zu „produktiver Nutzung von Gaming-Fähigkeiten“ und von „passivem Unterhaltungskonsumenten“ zu „aktivem Schöpfer und Verdiener in der digitalen Wirtschaft“. Identitätsfortschritt umfasst den Übergang von „nur ein Spieler“ zu „Investor, Community Leader, Unternehmer“, von „spät bei Krypto“ zu „Early Adopter in aufstrebender Technologie“ und von „von der Familie getrennt (Wanderarbeiter)“ zu „zu Hause sein und vergleichbares Einkommen verdienen“. Das Verständnis dieser Fortschrittspfade – und nicht nur der Produktmerkmale – ist entscheidend für die Produkt-Markt-Passung.

Monetarisierungsmodelle: Wie GameFi-Unternehmen Geld verdienen

Die GameFi-Monetarisierung hat sich vom nicht nachhaltigen Boom im Jahr 2021 erheblich weiterentwickelt, hin zu diversifizierten Einnahmequellen und ausgewogenen Tokenomics. Erfolgreiche Projekte in den Jahren 2024-2025 zeigen mehrere Einnahmequellen, anstatt sich ausschließlich auf Token-Spekulation zu verlassen.

Play-to-Earn-Mechaniken haben sich in Richtung Nachhaltigkeit gewandelt

Das ursprüngliche Play-to-Earn-Modell belohnte Spieler mit Kryptowährungstokens für Erfolge, die gegen Fiat-Währung getauscht werden konnten. Axie Infinity war Vorreiter des Dual-Token-Systems mit AXS (Governance, begrenztes Angebot) und SLP (Utility, inflationär), wobei Spieler SLP durch Kämpfe und Quests verdienten und es dann für die Zucht verbrannten. Auf dem Höhepunkt im Jahr 2021 verdienten Spieler monatlich 400-1.200+ US-Dollar, aber das Modell brach zusammen, als SLP aufgrund von Hyperinflation und nicht nachhaltigen Token-Emissionen, die einen ständigen Zustrom neuer Spieler erforderten, um 99 % abstürzte. Der Wiederaufstieg im Jahr 2024 zeigt, wie Nachhaltigkeit erreicht wird: Axie generiert jetzt jährlich über 3,2 Mio. US-Dollar an Treasury-Einnahmen (durchschnittlich 330.000 US-Dollar monatlich) mit 162.828 monatlich aktiven Nutzern durch diversifizierte Quellen – 4,25 % Marktplatzgebühren auf alle NFT-Transaktionen, Zuchtgebühren, die in AXS/SLP gezahlt werden, und Part Evolution-Gebühren (75.477 AXS verdient). Entscheidend ist, dass der SLP Stability Fund im Jahr 2024 eine annualisierte Deflation von 0,57 % erzeugte, wobei zum ersten Mal mehr Tokens verbrannt als geprägt wurden. STEPNs Move-to-Earn-Modell mit GST (unbegrenztes Angebot, In-Game-Belohnungen) und GMT (6 Milliarden festes Angebot, Governance) zeigte den Fehlermodus – GST erreichte auf dem Höhepunkt 8-9 US-Dollar, brach aber aufgrund von Hyperinflation durch Überangebot und chinesische Marktbeschränkungen zusammen. Die Entwicklung 2023-2024 betont „Play-and-Own“ gegenüber „Play-to-Earn“, Stake-to-Play-Modelle, bei denen Spieler Tokens staken, um auf Funktionen zuzugreifen, und Fun-First-Design, bei dem Spiele unabhängig vom Verdienstpotenzial unterhaltsam sein müssen. Ausgewogene Token-Sinks – die Ausgaben für Upgrades, Zucht, Reparaturen, Crafting erfordern – erweisen sich als wesentlich für die Nachhaltigkeit.

NFT-Verkäufe generieren Einnahmen über Primär- und Sekundärmärkte

Primäre NFT-Verkäufe umfassen öffentliche Launches, thematische Partnerschaften und Land-Drops. Die primären LAND-Verkäufe von The Sandbox führten zu einem Wachstum von 17,3 % gegenüber dem Vorquartal im Q3 2024, wobei die Aktivität der LAND-Käufer im Q4 2024 um 94,11 % gegenüber dem Vorquartal anstieg. Die Marktkapitalisierung der Plattform erreichte im Dezember 2024 ihren Höhepunkt bei 2,27 Milliarden US-Dollar, wobei nur 166.464 LAND-Parzellen jemals existierten (was Knappheit erzeugt). Der Beta-Launch von The Sandbox generierte an einem Tag über 1,3 Mio. US-Dollar an Transaktionen. Axie Infinitys Wings of Nightmare-Kollektion im November 2024 führte zu einem Treasury-Wachstum von 4 Mio. US-Dollar, während Zuchtmechanismen deflationären Druck erzeugen (116.079 Axies für Materialien freigegeben, Nettoreduktion von 28.500 Axies im Jahr 2024). Sekundärmarkt-Lizenzgebühren bieten laufende Einnahmen durch automatisierte Smart Contracts unter Verwendung des ERC-2981-Standards. The Sandbox implementiert eine Gesamtgebühr von 5 % auf Sekundärverkäufe, aufgeteilt in 2,5 % für die Plattform und 2,5 % für den ursprünglichen NFT-Ersteller, was ein kontinuierliches Einkommen für die Ersteller bietet. Die Marktplatzdynamik verschob sich jedoch im Jahr 2024, da große Plattformen (Magic Eden, LooksRare, X2Y2) Lizenzgebühren optional machten, was das Einkommen der Ersteller von den Höchstständen 2022-2024 erheblich reduzierte. OpenSea behält erzwungene Lizenzgebühren für neue Kollektionen mithilfe des Filter-Registers bei, während Blur eine Mindestgebühr von 0,5 % auf unveränderliche Kollektionen einhält. Das Landsegment hält über 25 % der NFT-Markteinnahmen (die dominierende Kategorie 2024), wobei die gesamten NFT-Segmente 77,1 % der GameFi-Nutzung ausmachen. Diese Marktplatzfragmentierung bezüglich der Durchsetzung von Lizenzgebühren schafft strategische Überlegungen, welche Plattformen priorisiert werden sollten.

In-Game-Token-Ökonomie gleicht Emissionen mit Sinks aus

Dual-Token-Modelle dominieren erfolgreiche Projekte. Axie Infinitys AXS (Governance) hat ein festes Angebot, Staking-Belohnungen, Governance-Stimmrechte und Anforderungen für Zucht/Upgrades, während SLP (Utility) ein unbegrenztes Angebot hat, das durch Gameplay verdient wird, aber für Zucht und Aktivitäten verbrannt wird, verwaltet vom SLP Stability Fund zur Inflationskontrolle. AXS trat 2024 dem Coinbase 50 Index als Top-Gaming-Token bei. The Sandbox verwendet ein Single-Token-Modell (3 Milliarden SAND begrenztes Angebot, vollständige Verwässerung bis 2026 erwartet) mit mehreren Nutzen: Kauf von LAND und Assets, Staking für passive Erträge, Governance-Abstimmung, Transaktionsmedium und Zugang zu Premium-Inhalten. Die Plattform implementiert 5 % Gebühren auf alle Transaktionen, aufgeteilt zwischen Plattform und Erstellern, mit 50 % Verteilung an die Foundation (Staking-Belohnungen, Erstellerfonds, P2E-Preise) und 50 % an das Unternehmen. Token-Sinks sind entscheidend für die Nachhaltigkeit, mit effektiven Burn-Mechanismen, einschließlich Reparaturen und Wartung (Sneaker-Haltbarkeit in STEPN), Leveling und Upgrades (Part Evolution in Axie verbrannte 75.477 AXS), Zucht-/Minting-NFT-Erstellungskosten (StarSharks verbrennt 90 % der Utility-Tokens aus Blind-Box-Verkäufen), Crafting und Kombinieren (Gem/Catalyst-Systeme in The Sandbox), Landentwicklung (Staking von DEC in Splinterlands für Upgrades) und kontinuierliche Marktplatzgebühren-Burns. Splinterlands' Innovation von 2024, die DEC-Staking für Land-Upgrades erfordert, schafft eine starke Nachfrage. Best Practices, die für 2024-2025 entstehen, umfassen die Sicherstellung, dass Token-Sinks die Faucets (Emissionen) übertreffen, zeitlich gesperrte Belohnungen (Illuviums sILV verhindert sofortiges Dumping), saisonale Mechaniken, die regelmäßige Käufe erzwingen, NFT-Haltbarkeit, die das Verdienstpotenzial begrenzt, und Negative-Summen-PvP, bei dem Spieler bereitwillig Tokens zur Unterhaltung konsumieren.

Transaktionsgebühren und Marktplatzprovisionen bieten vorhersehbare Einnahmen

Plattformgebühren variieren je nach Spiel. Axie Infinity berechnet 4,25 % auf alle In-Game-Käufe (Land, NFT-Handel, Zucht) als primäre Monetarisierungsquelle von Sky Mavis, zuzüglich variabler Zuchtkosten, die sowohl AXS- als auch SLP-Tokens erfordern. The Sandbox implementiert 5 % auf alle Marktplatztransaktionen, aufgeteilt 50-50 zwischen Plattform (2,5 %) und NFT-Erstellern (2,5 %), zuzüglich Premium-NFT-Verkäufen, Abonnements und Dienstleistungen. Die Reduzierung der Gasgebühren wurde unerlässlich, da 80 % der GameFi-Plattformen bis 2024 Layer-2-Lösungen integrierten. Das Ronin Network (Axies benutzerdefinierte Sidechain) bietet minimale Gasgebühren durch 27 Validator-Knoten, während die Polygon-Integration (The Sandbox) die Gebühren erheblich reduzierte. Die TON-Blockchain ermöglicht minimale Gebühren für Telegram-Mini-Apps (Hamster Kombat, Notcoin), obwohl der Kompromiss wichtig ist – Manta Pacifics Celestia-Integration reduzierte die Gasgebühren, aber verringerte die Einnahmen im Q3 2024 um 70,2 % gegenüber dem Vorquartal (niedrigere Gebühren erhöhen die Nutzeraktivität, reduzieren aber die Protokolleinnahmen). Smart-Contract-Gebühren automatisieren Lizenzgebühren (ERC-2981-Standard), Zuchtvertragsgebühren, Staking-/Unstaking-Gebühren und Land-Upgrade-Gebühren. Marktplatzprovisionen variieren: OpenSea berechnet 2,5 % Plattformgebühr zuzüglich Ersteller-Lizenzgebühren (falls durchgesetzt), Blur berechnet 0,5 % Minimum auf unveränderliche Kollektionen unter Verwendung aggressiven Null-Gebühren-Handels zur Nutzerakquise, Magic Eden entwickelte sich von erzwungenen zu optionalen Lizenzgebühren, wobei 25 % der Protokollgebühren als Kompromiss an Ersteller verteilt werden, während der interne Marktplatz von The Sandbox 5 % mit 2,5 % automatischer Ersteller-Lizenzgebühr beibehält.

Diversifizierte Einnahmequellen reduzieren die Abhängigkeit von Spekulation

Landverkäufe dominieren mit über 25 % der NFT-Markteinnahmen im Jahr 2024 und stellen die am schnellsten wachsende digitale Asset-Klasse dar. Die 166.464 begrenzten LAND-Parzellen von The Sandbox schaffen Knappheit, wobei entwickeltes Land es Erstellern ermöglicht, 95 % der SAND-Einnahmen zu erzielen, während 2,5 % bei Sekundärverkäufen beibehalten werden. Das Unternehmensinteresse von JPMorgan, Samsung, Gucci und Nike etablierte eine virtuelle Präsenz, wobei stark frequentierte Zonen Premiumpreise erzielen und erstklassige Standorte über 5.000 US-Dollar/Monat an Mieteinnahmen generieren. Zuchtgebühren schaffen Token-Sinks und gleichen gleichzeitig das neue NFT-Angebot aus – Axies Zucht erfordert AXS + SLP, wobei die Kosten mit jeder Generation steigen, während Part Evolution Axie-Opfer erfordert, die 75.477 AXS an Treasury-Einnahmen generieren. Battle Pässe und saisonale Inhalte treiben Engagement und Einnahmen an. Axies Bounty Board-System (April 2024) und die Coinbase Learn and Earn-Partnerschaft (Juni 2024) führten zu einem Anstieg der monatlich aktiven Konten um 691 % und einem Anstieg der Origins DAU um 80 %, während kompetitive Saisons AXS-Preispools bieten (Saison 9: insgesamt 24.300 AXS). The Sandboxs Alpha Season 4 im Q4 2024 erreichte 580.778 einzigartige Spieler, 49 Millionen abgeschlossene Quests und 1,4 Millionen Stunden Gameplay, verteilte 600.000 SAND an 404 einzigartige Ersteller und veranstaltete die Builders' Challenge mit einem Preispool von 1,5 Mio. SAND. Sponsoring und Partnerschaften generieren erhebliche Einnahmen – The Sandbox hat über 800 Markenpartnerschaften, darunter Atari, Adidas, Gucci und Ralph Lauren, mit virtuellen Modenschauen und Corporate Metaverse Lounges. Zu den Einnahmemodellen gehören Lizenzgebühren, gesponserte Veranstaltungen und virtuelle Werbetafeln in stark frequentierten Zonen.

Das Stipendien-Gildenmodell stellt eine einzigartige Einnahmequelle dar, bei der Gilden NFTs besitzen und an Spieler verleihen, die sich den Einstieg nicht leisten können. Yield Guild Games stellte über 30.000 Stipendien bereit mit einer standardmäßigen Umsatzbeteiligung von 70 % für den Stipendiaten, 20 % für den Manager und 10 % für die Gilde (obwohl einige Gilden 50-50-Splits verwenden). Die MetaGaming Guild erweiterte das Pixels-Stipendium von 100 auf 1.500 Plätze unter Verwendung eines 70-30-Modells (70 % an Stipendiaten, die eine tägliche Quote von 2.000 BERRY erreichen), während GuildFi Stipendien aus mehreren Quellen aggregiert. Die Gildenmonetarisierung umfasst passives Einkommen aus NFT-Verleih, Token-Wertsteigerung aus Gilden-Tokens (YGG, GF usw.), Verwaltungsgebühren (10-30 % der Spielereinnahmen) und Investitionserträge aus der frühen Spielunterstützung. Auf dem Höhepunkt im Jahr 2021 verdienten Gildenführer monatlich über 20.000 US-Dollar, was in Entwicklungsländern, wo Stipendiaten 20 US-Dollar/Tag verdienen gegenüber zuvor 5 US-Dollar/Tag in traditioneller Arbeit, lebensverändernde Auswirkungen ermöglichte.

Hauptakteure: Führende Projekte, Plattformen und Infrastruktur

Das GameFi-Ökosystem konsolidierte sich um bewährte Plattformen und erlebte eine signifikante Entwicklung von spekulativen Höhepunkten im Jahr 2021 hin zu einer qualitätsorientierten Landschaft 2024-2025.

Top-Spiele reichen von Casual- bis AAA-Erlebnissen

Lumiterra führt mit über 300.000 täglich aktiven einzigartigen Wallets auf Ronin (Juli 2025) und rangiert durch MMORPG-Mechaniken und die MegaDrop-Kampagne auf Platz 1 der On-Chain-Aktivität. Axie Infinity stabilisierte sich nach der Pionierarbeit im Play-to-Earn-Bereich bei rund 100.000 täglich aktiven einzigartigen Wallets und generierte über 4 Milliarden US-Dollar kumulative NFT-Verkäufe, obwohl es 95 % der Nutzer vom Höhepunkt verlor. Das Dual-Token-Modell AXS/SLP und das Stipendienprogramm prägten die Branche, obwohl nicht nachhaltige Tokenomics den Zusammenbruch verursachten, bevor 2024 ein Wiederaufleben mit verbesserter Nachhaltigkeit erfolgte. Alien Worlds unterhält etwa 100.000 täglich aktive einzigartige Wallets auf der WAX-Blockchain durch ein Mining-fokussiertes Metaverse mit starker Bindung, während Boxing Star X von Delabs über 100.000 täglich aktive einzigartige Wallets durch die Telegram Mini-App-Integration auf TON/Kaia-Chains erreicht und seit April 2025 starkes Wachstum zeigt. MapleStory N von Nexon repräsentiert den Einstieg traditioneller Spiele in Web3 mit 50.000-80.000 täglich aktiven einzigartigen Wallets auf Avalanches Henesys-Chain als größter Blockchain-Launch 2025, der AAA-IP-Glaubwürdigkeit mit sich bringt. Pixels erreichte bei der Einführung einen Höhepunkt von über 260.000 täglichen Nutzern mit einer Marktkapitalisierung von 731 Mio. US-Dollar und einem Handelsvolumen von 1,4 Mrd. US-Dollar im Februar 2024, wobei Dual-Tokens (PIXEL + BERRY) verwendet wurden, nachdem es von Polygon zu Ronin migriert war und 87.000 Adressen auf die Plattform brachte. The Sandbox baute über 5 Millionen Nutzer-Wallets und über 800 Markenpartnerschaften (Atari, Snoop Dogg, Gucci) auf, wobei der SAND-Token als führende Metaverse-Plattform für nutzergenerierte Inhalte und virtuelles Immobilienvermögen dient. Guild of Guardians auf Immutable erreichte über 1 Million Vorregistrierungen und die Top 10 in iOS-/Android-Stores, was Immutables Anstieg der täglich einzigartigen aktiven Wallets um 274 % im Mai 2024 vorantrieb.

Das Telegram-Phänomen revolutionierte das traditionelle Onboarding: Hamster Kombat erreichte 239 MILLIONEN Nutzer in 3 Monaten durch Tap-to-Earn-Mechaniken auf der TON-Blockchain, wobei der Verlust von 86 % nach dem Airdrop (300 Mio. auf 41 Mio.) die Herausforderungen bei der Nutzerbindung verdeutlicht. Notcoin erreichte eine Marktkapitalisierung von über 1,6 Milliarden US-Dollar als zweitgrößter Gaming-Token nach Marktkapitalisierung mit reibungslosem Krypto-Onboarding, während Catizen eine millionenfache Nutzerbasis mit einem erfolgreichen Token-Airdrop aufbaute. Weitere bemerkenswerte Spiele sind Illuvium (AAA-RPG, mit Spannung erwartet), Gala Games (Multi-Game-Plattform), Decentraland (Metaverse-Pionier mit MANA-Token), Gods Unchained (führendes Sammelkartenspiel auf Immutable), Off The Grid (Konsolen-/PC-Shooter auf der Gunz-Chain), Splinterlands (etabliertes TCG mit 6-jähriger Erfolgsbilanz auf Hive) und Heroes of Mavia (über 2,6 Millionen Nutzer mit einem 3-Token-System auf Ronin).

Blockchain-Plattformen konkurrieren bei Geschwindigkeit, Kosten und Entwickler-Tools

Das Ronin Network von Sky Mavis hält 2024 die Position als führende Gaming-Blockchain mit einem Spitzenwert von 836.000 täglich einzigartigen aktiven Wallets und hostet Axie Infinity, Pixels, Lumiterra und Heroes of Mavia. Speziell für Gaming entwickelt, mit Transaktionen im Sub-Sekundenbereich, niedrigen Gebühren und bewährter Skalierbarkeit, dient Ronin als Migrationsmagnet. Immutable (X + zkEVM) erreichte mit 71 % Wachstum im Jahresvergleich das schnellste Wachstum und übertraf Ronin Ende 2024 mit über 250.000 monatlich aktiven Nutzern, 5,5 Millionen Passport-Anmeldungen, 40 Mio. US-Dollar Total Value Locked, über 250 Spielen (die meisten in der Branche), 181 neuen Spielen im Jahr 2024 und 1,1 Millionen täglichen Transaktionen (414 % Wachstum gegenüber dem Vorquartal). Die Dual-Lösung – Immutable X auf StarkWare und zkEVM auf Polygon – bietet keine Gasgebühren für NFTs, EVM-Kompatibilität, beste Entwickler-Tools und wichtige Partnerschaften (Ubisoft, NetMarble). Das Polygon Network unterhält 550.000 täglich einzigartige aktive Wallets, über 220 Mio. Adressen und 2,48 Mrd. Transaktionen mit Ethereum-Sicherheit, einem massiven Ökosystem, Unternehmenspartnerschaften und mehreren Skalierungslösungen, die eine starke Metaverse-Präsenz bieten. Solana erfasst im Q1 2025 etwa 50 % der GameFi-Anwendungsgebühren durch höchsten Durchsatz, niedrigste Kosten, schnelle Finalität und ein auf den Handel fokussiertes Ökosystem. Die BNB Chain (+ opBNB) ersetzte Ethereum als Volumenführer, wobei opBNB 0,0001 US-Dollar Gasgebühren (niedrigste) und durchschnittlich 97 TPS (höchste) bietet, was Kosteneffizienz und eine starke Präsenz auf dem asiatischen Markt ermöglicht. TON (The Open Network) ist mit den über 700 Millionen Nutzern von Telegram integriert und ermöglicht Hamster Kombat, Notcoin und Catizen mit reibungslosem Onboarding, sozialer Integration und viralem Wachstumspotenzial. Weitere Plattformen sind Ethereum (20-30 % Handelsanteil, Layer-2-Grundlage), Avalanche (anpassbare Subnetze, Henesys-Chain), NEAR (menschenlesbare Konten) und Gunz (Off The Grid dedizierte Chain).

Traditionelle Gaming-Giganten und VCs gestalten die Zukunft

Animoca Brands dominiert als aktivster Investor Nr. 1 mit einem Portfolio von über 400 Unternehmen, 880 Mio. US-Dollar, die in 22 Runden (zuletzt 110 Mio. US-Dollar von Temasek, Boyu, GGV) eingesammelt wurden, Schlüsselinvestitionen in Axie, Sandbox, OpenSea, Dapper Labs und Yield Guild Games, sowie dem Animoca Ventures 800 Mio. bis 1 Mrd. US-Dollar Fonds mit über 38 Investitionen im Jahr 2024 (der aktivste im Bereich). GameFi Ventures mit Sitz in Hongkong verwaltet ein Portfolio von 21 Unternehmen, die sich auf Seed-Runden und Co-Investitionen mit Animoca konzentrieren, während Andreessen Horowitz (a16z) 40 Mio. US-Dollar aus einem milliardenschweren Krypto-Fonds an CCP Games vergeben hat. Weitere große VCs sind Bitkraft (Fokus Gaming/Esports), Hashed (Südkorea, asiatischer Markt), NGC Ventures (100 Mio. US-Dollar Fonds III, 246 Portfoliounternehmen), Paradigm (Infrastrukturfokus), Infinity Ventures Crypto (70 Mio. US-Dollar Fonds), Makers Fund und Kingsway Capital.

Ubisoft führt den Einstieg in traditionelles Gaming mit Champions Tactics: Grimoria Chronicles (Oktober 2024 auf Oasys) und Might & Magic: Fates (2025 auf Immutable) an, mit Partnerschaften mit Immutable, Animoca, Oasys und Starknet. Das Studio verkaufte 10.000 Warlords und 75.000 Champions NFTs (ausverkauft) mit dem Potenzial, 138 Millionen Spieler zu nutzen. Square Enix startete Symbiogenesis (Arbitrum/Polygon, 1.500 NFTs) und Final Fantasy VII NFTs und verfolgt eine „Blockchain Entertainment/Web3“-Strategie durch die Partnerschaft mit Animoca Brands Japan. Nexon lieferte MapleStory N als großen Launch 2025 mit 50.000-80.000 täglichen Nutzern, während Epic Games Ende 2024 seine Politik änderte, um P2E-Spiele willkommen zu heißen, und Gods Unchained und Striker Manager 3 hostet. CCP Games (EVE Online) sammelte 40 Mio. US-Dollar (a16z-Führung) für ein neues AAA EVE Web3-Spiel. Weitere Aktivitäten umfassen Konami (Project Zircon, Castlevania), NetMarble (Immutable-Partnerschaft, MARBLEX), Sony PlayStation (erforscht Web3), Sega, Bandai Namco (Forschungsphase) und The Pokémon Company (erforscht). Branchendaten zeigen, dass 29 der 40 größten Gaming-Unternehmen Web3 erforschen.

Infrastrukturanbieter ermöglichen das Ökosystemwachstum

Immutable Passport führt mit 5,5 Millionen Anmeldungen (branchenführend) und bietet nahtloses Web3-Onboarding und Spielintegration, während MetaMask über 100 Millionen Nutzer als beliebteste Ethereum-Wallet mit neuer Stablecoin-Earn-Funktion bedient. Weitere sind Trust Wallet, Coinbase Wallet, Phantom (Solana) und WalletConnect. Das Enjin SDK bietet eine dedizierte NFT-Blockchain mit Unity-Integration, ENJ-Token (36,2 % Staking APY) und umfassenden Tools (Wallet, Plattform, Marktplatz, Beam) sowie Efinity Matrixchain für Cross-Chain-Funktionalität. ChainSafe Gaming (web3.unity) bietet ein Open-Source-Unity-SDK mit C#, C++, Blueprints-Unterstützung als führendes Unity-Blockchain-Tool mit AAA-Studio-Adoption. Venly bietet eine Multi-Chain-Wallet-API und Unity/Unreal-Plugins mit einem Cross-Plattform-Toolkit. Weitere sind Moralis Unity SDK, Stardust (API), Halliday, GameSwift (komplette Plattform), Alchemy (Infrastruktur) und Thirdweb (Smart Contracts). Zu den Game Engines gehören Unity (am beliebtesten für Web3 mit SDKs von Enjin, ChainSafe, Moralis, Venly), Unreal Engine (AAA-Grafiken, Epic Games akzeptiert jetzt Web3, Web3.js-Integration) und Godot (Open-Source, flexible Blockchain-Integration).

DappRadar dient als Industriestandard und verfolgt über 35 Blockchains, über 2.000 Spiele mit Echtzeit-Rankings als primäre Entdeckungsplattform. Footprint Analytics indiziert über 20 Blockchains, über 2.000 Spiele mit tiefgehender On-Chain-Analyse und Bot-Erkennung (in Entwicklung), genutzt von CoinMarketCap und DeGame. Nansen bietet On-Chain-Intelligenz mit Wallet-Profiling und regelmäßigen GameFi-Berichten. DeGame deckt 3.106 Projekte über 55+ Blockchains mit spielerzentrierter Entdeckung ab. Weitere sind Messari, CryptoSlam und GameFi.org. Middleware und Launchpads umfassen EnjinStarter (über 80 erfolgreiche IDOs, 6 US-Dollar Mindesteinsatz, Multi-Chain-Unterstützung), GameFi.org Launchpad (IDO-Plattform mit integriertem KYC) und Polygon Studios/Immutable Platform (komplette Entwicklungssuiten).

Marktdynamik und strategische Überlegungen

Der GameFi-Markt in den Jahren 2024-2025 stellt einen kritischen Wendepunkt dar, der sich von spekulativem Hype hin zu einer nachhaltigen Produkt-Markt-Passung mit klaren Chancen und erheblichen Herausforderungen entwickelt, die eine strategische Navigation erfordern.

Der Wandel hin zu Qualität und Nachhaltigkeit definiert den Erfolg

Das reine Play-to-Earn-Modell brach spektakulär zusammen – Axie Infinitys 95%iger Nutzerrückgang, SLPs 99%iger Absturz und die 93%ige Projektausfallrate der Branche bewiesen, dass das Anziehen von Söldner-Nutzern, die schnelle Gewinne suchen, nicht nachhaltige Token-Ökonomien mit Hyperinflation und Ponzi-Schema-Dynamiken schafft. Die Entwicklung 2024-2025 priorisiert „Play-and-Earn“- und „Play-to-Own“-Modelle, bei denen die Gameplay-Qualität an erster Stelle steht, das Verdienen ein sekundärer Vorteil ist, der Unterhaltungswert über finanzielle Spekulationen geht und langfristiges Engagement Extraktionsmechaniken übertrifft. Diese Verschiebung reagiert auf Daten, die zeigen, dass der Hauptgrund, warum Spieler aufhören, ist, dass Spiele „zu Pay-to-Win“ werden und dass 53 % schlechte UX/UI als größte Barriere nennen. Die aufkommende „Web2.5-Mullet“-Strategie – Mainstream-Free-to-Play-Mechaniken und UX an der Oberfläche mit abstrahierten oder versteckten Blockchain-Funktionen, gelistet in traditionellen App Stores (Apple, Google erlauben jetzt bestimmte Web3-Spiele) und Onboarding, das keine Krypto-Kenntnisse erfordert – ermöglicht die Mainstream-Adoption. AAA-Qualitätsspiele mit 2-5-jährigen Entwicklungszyklen, Indie-Spiele mit fesselnden Gameplay-Loops und traditionelle Gaming-Studios, die in den Bereich eintreten (Ubisoft, Epic Games, Animoca), repräsentieren die Reifung der Produktionswerte, um mit den 3,09 Milliarden Spielern des traditionellen Gamings weltweit zu konkurrieren, im Vergleich zu nur 4,5 Millionen täglich aktiven Web3-Gamern.

Massive Chancen bestehen in unterversorgten Segmenten

Echte Web2-Gamer stellen die größte Chance dar – 3,09 Mrd. Gamer weltweit gegenüber 4,5 Mio. täglich aktiven Web3-Gamern, wobei 52 % nicht wissen, was Blockchain-Spiele sind und 32 % davon gehört, aber nie gespielt haben. Die Strategie erfordert, Blockchain vollständig zu abstrahieren, als normale Spiele zu vermarkten und das Onboarding zunächst ohne Krypto-Kenntnisse oder Wallets zu ermöglichen. Mobile-First-Märkte bieten ungenutztes Potenzial, da 73 % des globalen Gaming-Publikums mobil ist, Südostasien und Lateinamerika Smartphone-First-Märkte mit niedrigeren Eintrittsbarrieren sind und kostengünstigere Blockchains (Solana, Polygon, opBNB) mobile Zugänglichkeit ermöglichen. Die Content-Creator-Ökonomie bleibt untergenutzt – von Erstellern geführte Ökonomien mit fairen Lizenzgebühren, NFT-basierter Asset-Erstellung und -Handel, nutzergenerierte Inhalte mit Blockchain-Eigentum und Plattformen, die Ersteller-Lizenzgebühren durchsetzen, im Gegensatz zu den OpenSea-Kontroversen. Abonnement- und Hybrid-Monetarisierungsmodelle begegnen der übermäßigen Abhängigkeit von Token-Mints und Marktplatzgebühren, wobei Abonnementmodelle (à la Coinsub) vorhersehbare Einnahmen liefern, Free-to-Play + In-App-Käufe + Blockchain-Belohnungen mischen und die „Wal-Ökonomie“ mit Staking und Premium-Mitgliedschaften ansprechen. Aufkommende Nischen umfassen vollständig On-Chain-Spiele (gesamte Logik und Zustand auf der Blockchain, ermöglicht durch Account Abstraction Wallets und bessere Infrastruktur wie Dojo auf Starknet und MUD auf OP Stack mit Unterstützung von a16z und Jump Crypto), KI-gestütztes GameFi (50 % der neuen Projekte werden voraussichtlich KI nutzen für personalisierte Erlebnisse, dynamische NPCs, prozedurale Inhaltserstellung) und genrespezifische Möglichkeiten in RPGs (am besten geeignet für Web3 aufgrund von Charakterentwicklung, Ökonomien, Gegenstandsbesitz) und Strategiespielen (komplexe Ökonomien profitieren von Blockchain-Transparenz).

Bindungskrise und Tokenomics-Fehler erfordern Lösungen

Die 60-90%ige Abwanderung innerhalb von 30 Tagen definiert die existenzielle Krise, wobei eine 99%ige Abfallschwelle laut CoinGecko das Scheitern markiert und Hamster Kombats 86%iger Verlust (300 Mio. auf 41 Mio. Nutzer) nach dem Airdrop das Problem verdeutlicht. Die Hauptursachen sind mangelnde langfristige Anreize jenseits der Token-Spekulation, schlechte Gameplay-Mechaniken, nicht nachhaltige Tokenomics mit wertmindernder Inflation, Bots und Söldnerverhalten sowie Airdrop-Farming ohne echtes Engagement. Lösungswege erfordern dynamische Beuteverteilung, Staking-basierte Belohnungen, fähigkeitsbasierte Progression, spielergesteuerte Ökonomien über DAOs und immersives Storytelling mit fesselnden Spielschleifen. Häufige Tokenomics-Fallen sind Hyperinflation (übermäßige Token-Prägung lässt den Wert abstürzen), Todespiralen (sinkende Spielerzahlen → geringere Nachfrage → Preissturz → weitere Spieler verlassen das Spiel), Pay-to-Win-Bedenken (Hauptgrund, warum Spieler traditionelle Spiele aufgeben), Ponzi-Dynamiken (Early Adopter profitieren, Späteinsteiger verlieren) und nicht nachhaltiges Angebot (DeFi Kingdoms' JEWEL-Angebot wuchs bis Mitte 2024 um 500 % auf 500 Mio.). Best Practices betonen Single-Token-Ökonomien (nicht Dual-Tokens), festes Angebot mit deflationären Mechanismen, Token-Sinks, die Token-Faucets übertreffen (Anreize, Assets im Spiel zu halten), die Verknüpfung von Tokens mit Narrativen/Charakteren/Nutzen statt nur Spekulation und die Inflationskontrolle durch Burning, Staking und Crafting-Anforderungen.

UX-Komplexität und Sicherheitslücken schaffen Barrieren

In einer Umfrage der Blockchain Game Alliance aus dem Jahr 2024 wurden Barrieren identifiziert: 53 % nennen schlechte UX/UI als größte Herausforderung, 33 % schlechte Spielerlebnisse und 11 % werden durch die Komplexität der Wallet-Einrichtung abgeschreckt. Die technischen Kenntnisse umfassen Wallets, private Schlüssel, Gasgebühren und DEX-Navigation. Lösungen erfordern vom Spiel verwaltete gehostete/verwahrte Wallets (Nutzer sehen private Schlüssel zunächst nicht), gaslose Transaktionen durch Layer-2-Lösungen, Fiat-Onramps, Web2-ähnliche Logins (E-Mail/Social) und progressive Offenlegung von Web3-Funktionen. Sicherheitsrisiken umfassen Smart-Contract-Schwachstellen (unveränderlicher Code bedeutet, dass Fehler nicht leicht behoben werden können), Phishing-Angriffe und Diebstahl privater Schlüssel, Bridge-Exploits (Ronin Network 600 Mio. US-Dollar Hack im Jahr 2022) und Rug Pulls mit Betrug (dezentralisiert bedeutet weniger Aufsicht). Die Minderung erfordert umfassende Smart-Contract-Audits (Beosin, CertiK), Bug-Bounty-Programme, Versicherungsprotokolle, Benutzeraufklärung zur Wallet-Sicherheit und Multi-Sig-Anforderungen für die Treasury. Die regulatorische Landschaft bleibt unklar – die CyberKongz-Klage klassifizierte ERC-20-Tokens als Wertpapiere, China verbietet GameFi vollständig, Südkorea verbietet die Umwandlung von Spielwährung in Bargeld (Gesetz von 2004), Japan hat Beschränkungen, die USA haben parteiübergreifende Vorschläge mit erwarteter Gesetzgebung Mitte 2023, und mindestens 20 Länder werden voraussichtlich bis Ende 2024 GameFi-Rahmenwerke haben. Die Implikationen erfordern umfassende Offenlegung und KYC, können die US-Teilnahme einschränken, erfordern von Anfang an Rechtsteams, verlangen ein Token-Design unter Berücksichtigung des Wertpapierrechts und die Navigation durch Glücksspielvorschriften in einigen Gerichtsbarkeiten.

Produktmanager müssen Ausführung und Community priorisieren

Das Web3-Produktmanagement erfordert eine 95/5-Aufteilung von Ausführung gegenüber Vision (im Vergleich zu Web2s 70/30), da sich der Markt zu schnell für langfristige strategische Planung bewegt, Visionen in Whitepapers leben (von technischen Architekten erstellt), die Geschwindigkeit der Iteration am wichtigsten ist und sich die Marktbedingungen wöchentlich ändern. Das bedeutet schnelle Spezifikationen über Telegram mit Entwicklern, schnelles Starten/Messen/Iterieren, Hype auf Twitter/Discord in Echtzeit aufbauen, sorgfältiges QA, aber schnelles Ausliefern, und daran denken, dass Smart-Contract-Audits entscheidend sind (nicht einfach zu patchen). Produktmanager müssen viele Hüte tragen mit äußerst vielseitigen Fähigkeiten, einschließlich Nutzerforschung (Discord, Twitter-Monitoring), Datenanalyse (Dune Analytics, On-Chain-Metriken), UX/UI-Design (Sketch-Flows, Tokenomics), Partnerschaft/BD (Protokollintegrationen, Gilden), Marketing (Blogs, Twitter, Memes), Community Management (AMAs, Discord-Moderation), Growth Hacking (Airdrops, Quests, Empfehlungen), Tokenomics-Design und Verständnis der regulatorischen Landschaft. Teams sind klein, wobei Rollen nicht wie in Web2 entbündelt sind.

Eine Community-First-Mentalität erweist sich als unerlässlich – Erfolg bedeutet eine blühende Community, nicht nur Umsatzkennzahlen, die Community besitzt und regiert (DAOs), direkte Interaktion wird erwartet (Twitter, Discord), Transparenz ist von größter Bedeutung (alles On-Chain), mit dem Motto „Wenn die Community scheitert, wirst du es nicht schaffen (NGMI)“. Taktiken umfassen regelmäßige AMAs und Bürgerversammlungen, Programme für nutzergenerierte Inhalte, Ersteller-Support (Tools, Lizenzgebühren), Gildenpartnerschaften, Governance-Tokens und Abstimmungen sowie Memes und virale Inhalte. Priorisierung von unterhaltsamem Gameplay ist nicht verhandelbar – Spieler müssen das Spiel intrinsisch genießen, Verdienen ist zweitrangig gegenüber Unterhaltung, fesselnde Narrative/Charaktere/Welten sind wichtig, enge Spielschleifen (kein mühsames Grinding) und Feinschliff/Qualität (Konkurrenz mit Web2 AAA). Vermeiden Sie Spiele, die „Tabellenkalkulationen mit Grafiken“ sind, reine Wirtschaftssimulatoren, Pay-to-Win-Dynamiken und sich wiederholende langweilige Aufgaben für Token-Belohnungen. Ein tiefes Verständnis der Tokenomics erfordert kritisches Wissen über Angebots-/Nachfragedynamiken, Inflations-/Deflationsmechanismen, Token-Sinks versus Faucets, Staking-/Burning-/Vesting-Zeitpläne, Liquiditätspool-Management und Sekundärmarktdynamiken. Sicherheit ist von größter Bedeutung, da Smart Contracts unveränderlich sind (Fehler können nicht leicht behoben werden), Hacks zu dauerhaftem Verlust führen, jede Transaktion Gelder beinhaltet (Wallets trennen Spiel nicht von Finanzen) und Exploits die gesamte Treasury leeren können – was mehrere Audits, Bug-Bounties, konservative Berechtigungen, Multi-Sig-Wallets, Incident-Response-Pläne und Benutzeraufklärung erfordert.

Erfolgsstrategien für 2025 und darüber hinaus

Erfolgreiche GameFi-Produkte im Jahr 2025 werden Gameplay-Qualität über alles andere (Spaß vor Finanzialisierung), Community-Engagement und Vertrauen (Aufbau einer loyalen, authentischen Fangemeinde), nachhaltige Tokenomics (Einzel-Token, deflationär, nutzungsgetrieben), abstrahierte Blockchain-Komplexität (Web2.5-Ansatz für das Onboarding), Sicherheit an erster Stelle (Audits, Tests, konservative Berechtigungen), hybride Monetarisierung (Free-to-Play + In-App-Käufe + Blockchain-Belohnungen), traditionelle Distribution (App Stores, nicht nur DApp-Browser), Datendisziplin (Verfolgung von Bindung und Lifetime Value, nicht Eitelkeitsmetriken), Ausführungsgeschwindigkeit (schneller liefern/lernen/iterieren als die Konkurrenz) und regulatorische Compliance (von Tag eins an rechtlich einwandfrei) in Einklang bringen. Häufige Fallstricke, die es zu vermeiden gilt, sind Tokenomics über Gameplay (Aufbau eines DeFi-Protokolls mit Spielgrafiken), Dual-/Triple-Token-Komplexität (verwirrend, schwer auszubalancieren, inflationsanfällig), Pay-to-Win-Dynamiken (Hauptgrund, warum Spieler aufhören), reines Play-to-Earn-Modell (zieht Söldner an, keine echten Spieler), DAO-geführte Entwicklung (Bürokratie tötet Kreativität), Ignorieren von Web2-Gamern (Zielgruppe nur 4,5 Mio. Krypto-Natives gegenüber 3 Mrd. Gamern), NFT-Spekulationsfokus (Vorverkäufe ohne Produkt), schlechtes Onboarding (erfordert Wallet-Einrichtung und Krypto-Kenntnisse im Voraus), unzureichende Smart-Contract-Audits (Hacks zerstören Projekte dauerhaft), Vernachlässigung der Sicherheit („alle genehmigen“-Berechtigungen, schwaches Schlüsselmanagement), Ignorieren von Vorschriften (rechtliche Probleme können Projekte stilllegen), keine Go-to-Market-Strategie („build it and they will come“ funktioniert nicht), Eitelkeitsmetriken (Volumen ≠ Erfolg; Fokus auf Bindung/DAU/Lifetime Value), schlechtes Community Management (Discord ignorieren, Feedback ignorieren), zu früher Launch (unfertiges Spiel zerstört Ruf), Kampf gegen Plattform-Platzhirsche (Apple/Google-Verbote isolieren), Ignorieren von Betrug/Bots (Airdrop-Farmer und Sybil-Angriffe verzerren Metriken), keine Token-Sinks (alle Faucets, kein Nutzen gleich Hyperinflation) und Kopieren von Axie Infinity (dieses Modell scheiterte; daraus lernen).

Der Weg nach vorn erfordert den Aufbau unglaublicher Spiele zuerst (nicht Finanzinstrumente), den strategischen, nicht dogmatischen Einsatz von Blockchain, ein unsichtbares Onboarding (Web2.5-Ansatz), die Gestaltung nachhaltiger Ökonomien (Einzel-Token, deflationär), die Priorisierung von Community und Vertrauen, schnelles Handeln und ständiges Iterieren, die akribische Sicherung aller Aspekte und die Einhaltung sich entwickelnder Vorschriften. Die Prognosen für eine Marktgröße von 95-200 Milliarden US-Dollar sind erreichbar – aber nur, wenn die Branche gemeinsam von Spekulation zu Substanz übergeht. Die nächsten 18 Monate werden echte Innovation vom Hype trennen, wobei Produktmanager, die Web2-Gaming-Expertise mit Web3-technischem Wissen kombinieren, rücksichtslos umsetzen und die Spieler in den Mittelpunkt stellen, die prägenden Produkte dieser Ära aufbauen werden. Die Zukunft des Gamings mag tatsächlich dezentralisiert sein, aber sie wird erfolgreich sein, indem sie zuallererst Spaß macht.

Balajis Vision für Kryptoidentität: Von Schlüsseln zu Netzwerkstaaten

· 10 Minuten Lesezeit
Dora Noda
Software Engineer

1) Was Balaji mit „Kryptoidentität“ meint

In Balajis Vokabular ist Kryptoidentität eine Identität, die in der Kryptographie – insbesondere Public-Private-Schlüsselpaaren – verwurzelt ist und dann mit On-Chain-Namen, verifizierbaren Anmeldeinformationen/Bestätigungen und Schnittstellen zu traditionellen („Fiat“-) Identitäten erweitert wird. In seinen Worten und seiner Arbeit:

  • Schlüssel als Identität. Das Fundament ist die Idee, dass in Bitcoin und Web3 Ihr Schlüsselpaar Ihre Identität ist; Authentifizierung und Autorisierung ergeben sich aus der Kontrolle privater Schlüssel und nicht aus Konten in einer Unternehmensdatenbank. (balajis.com)
  • Namen und Reputation On-Chain. Namenssysteme wie ENS/SNS verankern menschenlesbare Identitäten an Adressen; Anmeldeinformationen (NFTs, „Soulbound“-Token, On-Chain-„Kryptoreferenzen“) und Bestätigungen schichten Reputation und Historie auf diese Identitäten.
  • On-Chain, prüfbarer „Zensus“. Für Gesellschaften und Netzwerkstaaten nimmt die Identität an einem kryptographisch prüfbaren Zensus (Nachweis der Menschlichkeit/einzigartigen Person, Einkommensnachweis, Immobiliennachweis) teil, um die reale Bevölkerung und wirtschaftliche Aktivität zu demonstrieren.
  • Überbrückung von traditioneller ID ↔ Krypto-ID. Er argumentiert explizit, dass wir eine „Fiat-Identität ↔ Krypto-Identität-Börse“ benötigen – ähnlich den Fiat↔Krypto-Börsen –, damit „digitale Pässe der digitalen Währung folgen“. Er hebt „Krypto-Pässe“ als die nächste Schnittstelle nach Stablecoins hervor. (Circle)
  • Identität für ein „Web3 des Vertrauens“ im KI-Zeitalter. Um Deepfakes und Bots entgegenzuwirken, fördert er Inhalte, die von On-Chain-Identitäten signiert sind (z. B. ENS), sodass Provenienz und Urheberschaft kryptographisch über das offene Web verifizierbar sind. (Chainlink Today)
  • Bürgerschutz. In seiner Kurzformel: „Kryptowährung schützt Sie teilweise vor dem Entzug von Bankdienstleistungen. Kryptoidentität schützt Sie teilweise vor dem Entzug der Staatsbürgerschaft.“ (X (ehemals Twitter))

2) Wie sich seine Ansicht entwickelte (eine kurze Chronologie)

  • 2019–2020 – kryptographische Identität & Pseudonymität. Balajis Schriften betonen Public-Key-Kryptographie als Identität (Schlüssel-als-ID) und prognostizieren das Wachstum dezentraler Identität + Reputation in den 2020er Jahren. Gleichzeitig argumentiert sein Vortrag zur „pseudonymen Ökonomie“ für persistente, reputationsbehaftete Pseudonyme, um die Meinungsfreiheit zu schützen und mit neuen Arten von Arbeit und Organisation zu experimentieren. (balajis.com)
  • 2022 – Der Netzwerkstaat. Er formalisiert die Aufgabe der Identität in einem Netzwerkstaat: On-Chain-Zensus; ENS-ähnliche Identität; kryptographische Nachweise (der Menschlichkeit/des Einkommens/der Immobilien); und Kryptoreferenzen/Soulbounds. Identität ist infrastrukturell – was die Gesellschaft zählt und was die Welt verifizieren kann.
  • 2022–2024 – Brücken zu traditionellen Systemen. In öffentlichen Interviews und seinem Podcast fordert er Fiat↔Krypto-Identitätsbrücken (z. B. Palaus RNS.ID digitaler Wohnsitz) und betont die Überführung von „Papier“-Akten in Code. (Circle)
  • 2023–heute – Identität als Abwehr gegen KI-Fälschungen. Er rahmt Kryptoidentität als Rückgrat eines „Web3 des Vertrauens“: signierte Inhalte, On-Chain-Provenienz und wirtschaftliche Reibung (Staking, Zahlungen), um Menschen von Bots zu trennen. (Chainlink Today)

3) Der technische Stack, auf den Balaji hindeutet

Grundlegendes Primitiv: Schlüssel & Wallets

  • Kontrolle eines privaten Schlüssels = Kontrolle einer Identität; Schlüssel für verschiedene Personas und Risikoprofile rotieren/partitionieren. (balajis.com)

Auflösung & Anmeldung

  • ENS/SNS ordnen menschenlesbare Namen Adressen zu; Anmelden mit Ethereum (EIP-4361) verwandelt diese Adressen in eine Standardmethode zur Authentifizierung bei Off-Chain-Anwendungen.

Anmeldeinformationen & Bestätigungen (Reputationsschicht)

  • W3C Verifiable Credentials (VC 2.0) definieren eine interoperable Methode zum Ausstellen/Halten/Verifizieren von Ansprüchen (z. B. KYC-Prüfungen, Diplome).
  • Der Ethereum Attestierungsdienst (EAS) bietet eine öffentliche Güterschicht für On- oder Off-Chain-Bestätigungen, um Identität, Reputation und Register aufzubauen, die Anwendungen verifizieren können. (W3C)

Nachweis der Menschlichkeit & Einzigartigkeit

  • In Der Netzwerkstaat skizziert Balaji „Proof-of-Human“-Techniken für den On-Chain-Zensus; außerhalb seiner Arbeit versuchen Ansätze wie World ID, die Menschlichkeit/Einzigartigkeit zu verifizieren, was auch Datenschutzbedenken aufgeworfen hat – und die Kompromisse biometrischer PoP illustriert.

Brücken zu traditioneller Identität

  • Palau RNS.ID ist ein prominentes Beispiel für einen Souverän, der eine rechtliche ID mit On-Chain-Komponenten ausstellt; die Akzeptanz ist plattformübergreifend uneinheitlich, was das von Balaji hervorgehobene „Brücken“-Problem unterstreicht. (Biometric Update)

Provenienz & Anti-Deepfake

  • Er befürwortet das Signieren von Inhalten von ENS-verknüpften Adressen, sodass jedes Bild/jeder Beitrag/jedes Video zu einer kryptographischen Identität in einem „Web3 des Vertrauens“ zurückverfolgt werden kann. (Chainlink Today)

4) Warum es wichtig ist (Balajis strategische Behauptungen)

  1. Zensur- & Deplattformierungsresistenz: Schlüssel und dezentrale Namensgebung reduzieren die Abhängigkeit von zentralisierten ID-Anbietern. (Schlüssel sind Inhaber-Identitäten.) (balajis.com)
  2. Prüfbarkeit für Gesellschaften: Netzwerkstaaten erfordern verifizierbare Bevölkerung/Einkommen/Fußabdruck; Prüfbarkeit ist ohne eine On-Chain-nachweisbare Identität unmöglich.
  3. KI-Resilienz: Eine kryptographische Identitätsschicht (plus Signaturen/Bestätigungen) untermauert die Online-Authentizität und kehrt KI-gesteuerte Fälschungen um. (Chainlink Today)
  4. Interoperabilität & Komponierbarkeit: Standards (ENS, SIWE, VC/EAS) machen Identität über Anwendungen und Gerichtsbarkeiten hinweg portierbar.

5) Wie es mit Der Netzwerkstaat zusammenhängt

Balajis Buch paart wiederholt Identität mit einem Echtzeit-, On-Chain-Zensus – einschließlich Nachweis der Menschlichkeit, Einkommensnachweis und Immobiliennachweis – und hebt Namensgebung (ENS) und Kryptoreferenzen als Kernprimitive hervor. Er beschreibt auch „ENS-Login-zu-physischer-Welt“-Muster (digitale Schlüssel zu Türen/Diensten), die in einem sozialen Smart Contract eingebettet sind, und verweist auf Kryptoidentität als Zugriffsschicht für digitale und (eventuell) physische Governance.


6) Implementierungsplan (ein praktischer Weg, den Sie heute umsetzen können)

A. Die Basisidentitäten etablieren

  1. Generieren Sie separate Schlüsselpaare für: (i) legale/„echte Namen“, (ii) Arbeits-/professionelles Pseudonym, (iii) Pseudonym für öffentliche Äußerungen. Speichern Sie jedes in einer anderen Wallet-Konfiguration (Hardware, MPC oder Smart Accounts mit Guardians). (balajis.com)
  2. Registrieren Sie ENS-Namen für jede Persona; veröffentlichen Sie minimale öffentliche Profilmetadaten.

B. Authentifizierung & Inhaltsherkunft hinzufügen 3. Aktivieren Sie SIWE (EIP-4361) für App-Logins; Passwörter/Social Logins auslaufen lassen. (Ethereum Improvement Proposals) 4. Signieren Sie öffentliche Artefakte (Beiträge, Bilder, Code-Veröffentlichungen) von Ihrer ENS-verknüpften Adresse; veröffentlichen Sie einen einfachen „signierter Inhalt“-Feed, den andere verifizieren können. (Chainlink Today)

C. Anmeldeinformationen und Bestätigungen schichten 5. Stellen Sie VCs für rechtliche Fakten (Unternehmensrolle, Lizenzen) und EAS-Bestätigungen für weiche Signale (Reputation, verifizierte Beiträge, Anwesenheit) aus/sammeln Sie diese. Halten Sie sensible Ansprüche Off-Chain mit nur Hashes/Belegen On-Chain. (W3C)

D. Bei Bedarf zu traditioneller Identität überbrücken 6. Wo rechtmäßig und nützlich, verknüpfen Sie eine souveräne/Unternehmens-ID (z. B. Palau RNS.ID) mit Ihrer Kryptoidentität für KYC-geschützte Orte. Erwarten Sie heterogene Akzeptanz und pflegen Sie Alternativen. (Biometric Update)

E. Für Gruppen/Gesellschaften bereitstellen 7. Für eine Startup-Gesellschaft oder DAO:

  • Sichern Sie die Mitgliedschaft mit ENS + einer Proof-of-Human-Methode ab, die Sie für akzeptabel halten.
  • Pflegen Sie einen öffentlichen, prüfbaren Zensus (Mitglieder-/Einkommens-/Bestandszahlen) unter Verwendung von Oracles plus signierten Bestätigungen, nicht rohen PII.

7) Risiken, Kritiken und offene Fragen

  • Erosion von Privatsphäre/Pseudonymität. Die Blockchain-Analyse kann Wallets gruppieren; Balajis eigener Pseudonymitäts-Rahmen warnt davor, wie eine Handvoll Daten-„Bits“ Sie re-identifizieren können. Verwenden Sie Mixer/Datenschutztechnologien sorgfältig und rechtmäßig – aber erkennen Sie Grenzen. (blog.blockstack.org)
  • Kompromisse beim Nachweis der Menschlichkeit. Biometrischer PoP (z. B. Iris) zieht erhebliche datenschutzrechtliche Prüfung nach sich; alternative PoP-Methoden reduzieren das Risiko, können aber die Sybil-Anfälligkeit erhöhen. (law.kuleuven.be)
  • Brücken-Brüchigkeit. Palau-ähnliche IDs sind kein universeller KYC-Pass; die Akzeptanz variiert je nach Plattform und Gerichtsbarkeit und kann sich ändern. Bauen Sie für anmutige Degradation. (Malakouti Law)
  • Schlüsselverlust & Zwang. Schlüssel können gestohlen/erzwungen werden; verwenden Sie Multi-Sig/Guardians und Vorfallreaktionsrichtlinien. (Balajis Modell geht von Kryptographie + Zustimmung aus, was sozial konstruiert werden muss.) (balajis.com)
  • Namens-/Registerzentralisierung. ENS oder jede Namensbehörde wird zu einer politischen Engstelle; mindern Sie dies durch Multi-Persona-Design und exportierbare Nachweise.

8) Wie Balajis Kryptoidentität zu Standards passt (und wo sie sich unterscheidet)

  • Übereinstimmung:

    • DIDs + VCs (W3C) = portierbare, interoperable Identität/Ansprüche; SIWE = Wallet-native Authentifizierung; EAS = Bestätigungen für Reputation/Register. Dies sind die Komponenten, auf die er verweist – auch wenn er einfache Sprache (ENS, Anmeldeinformationen) anstelle von Standard-Akronymen verwendet. (W3C)
  • Unterschiede/Schwerpunkt:

    • Er hebt die gesellschaftliche Prüfbarkeit (On-Chain-Zensus) und die Provenienz im KI-Zeitalter (signierte Inhalte) stärker hervor als viele DID/VC-Diskussionen, und er drängt explizit auf Fiat↔Krypto-Identitätsbrücken und Krypto-Pässe als kurzfristige Priorität.

9) Wenn Sie entwickeln: ein minimal praktikabler „Kryptoidentität“-Rollout (90 Tage)

  1. Woche 1–2: Schlüssel, ENS, SIWE aktiviert; veröffentlichen Sie Ihre Signaturrichtlinie und beginnen Sie, öffentliche Beiträge/Veröffentlichungen zu signieren. (Ethereum Improvement Proposals)
  2. Woche 3–6: Integrieren Sie VCs/EAS für Rolle/Mitgliedschaft/Teilnahme; erstellen Sie eine öffentliche „Vertrauensseite“, die diese programmatisch verifiziert. (W3C)
  3. Woche 7–10: Richten Sie ein grundlegendes Zensus-Dashboard ein (aggregierte Mitgliederzahl, On-Chain-Schatzkammer-/Einkommensnachweise) mit klarer Datenschutzhaltung.
  4. Woche 11–13: Pilotieren Sie eine traditionelle Brücke (z. B. RNS.ID, wo angemessen) für einen Compliance-intensiven Workflow; veröffentlichen Sie Ergebnisse (was funktionierte/scheiterte). (Biometric Update)

Ausgewählte Quellen (primär und tragend)

  • Der Netzwerkstaat (On-Chain-Zensus; ENS/Identität; Kryptoreferenzen) und „ENS-Login-zu-physischer-Welt“-Beispiele.
  • Public-Key-Kryptographie (Schlüssel als Identität). (balajis.com)
  • Circle – The Money Movement (Ep. 74) (Fiat↔Krypto-Identitätsbrücke; „Krypto-Pässe“). (Circle)
  • Der Netzwerkstaat-Podcast, Ep. 10 (Fiat-Identität→Krypto-Identität-Börse; Palau RNS.ID). (thenetworkstate.com)
  • Chainlink Today (signierte Inhalte/ENS zur Bekämpfung von Deepfakes; „Web3 des Vertrauens“). (Chainlink Today)
  • Balaji auf X („Kryptoidentität…Entzug der Staatsbürgerschaft“). (X (ehemals Twitter))
  • Standards: W3C DID Core, VC 2.0; EIP-4361 (SIWE); EAS-Dokumente. (W3C)
  • RNS.ID / Palau (Realwelt-Brücke; gemischte Akzeptanz). (Biometric Update)
  • Pseudonyme Ökonomie (Identität & 33-Bit-Re-Identifikations-Intuition). (blog.blockstack.org)

Fazit

Für Balaji ist Kryptoidentität nicht nur „DID-Technologie“. Es ist ein zivilisatorisches Primitiv: Schlüssel und Signaturen als Basis; Namen und Anmeldeinformationen obendrauf; Brücken zu traditioneller Identität; und ein verifizierbarer öffentlicher Datensatz, der von Individuen zu Netzwerkgesellschaften skaliert. So erhalten Sie authentische Personen und authentische Datensätze in einem KI-überfluteten Internet – und so kann eine Startup-Gesellschaft beweisen, dass sie real ist, ohne die Welt um Vertrauen in ihr Wort zu bitten. (Chainlink Today)

Wenn Sie möchten, kann ich den Implementierungsplan an Ihren spezifischen Anwendungsfall (Verbraucher-App, DAO, Unternehmen oder ein Startup-Gesellschafts-Pilotprojekt) anpassen und konkrete Schemata/Workflows für SIWE, EAS und VC 2.0 erstellen, die Ihren regulatorischen und UX-Einschränkungen entsprechen.

MCP im Web3-Ökosystem: Eine umfassende Übersicht

· 50 Minuten Lesezeit
Dora Noda
Software Engineer

1. Definition und Ursprung von MCP im Web3-Kontext

Das Model Context Protocol (MCP) ist ein offener Standard, der KI-Assistenten (wie grosse Sprachmodelle) mit externen Datenquellen, Tools und Umgebungen verbindet. Oft als "USB-C-Anschluss für KI" bezeichnet, aufgrund seiner universellen Plug-and-Play-Natur, wurde MCP von Anthropic entwickelt und Ende November 2024 erstmals vorgestellt. Es entstand als Lösung, um KI-Modelle aus der Isolation zu befreien, indem es sie sicher mit den „Systemen, in denen Daten leben“ verbindet – von Datenbanken und APIs bis hin zu Entwicklungsumgebungen und Blockchains.

Ursprünglich ein experimentelles Nebenprojekt bei Anthropic, gewann MCP schnell an Bedeutung. Mitte 2024 erschienen Open-Source-Referenzimplementierungen, und Anfang 2025 hatte es sich zum De-facto-Standard für die Integration von Agenten-KI entwickelt, wobei führende KI-Labore (OpenAI, Google DeepMind, Meta AI) es nativ übernahmen. Diese schnelle Akzeptanz war besonders in der Web3-Community bemerkenswert. Blockchain-Entwickler sahen MCP als eine Möglichkeit, KI-Funktionen in dezentrale Anwendungen zu integrieren, was zu einer Verbreitung von von der Community entwickelten MCP-Konnektoren für On-Chain-Daten und -Dienste führte. Tatsächlich argumentieren einige Analysten, dass MCP die ursprüngliche Vision von Web3 eines dezentralen, benutzerzentrierten Internets auf praktischere Weise erfüllen könnte als Blockchain allein, indem es natürliche Sprachschnittstellen nutzt, um Benutzer zu befähigen.

Zusammenfassend ist MCP keine Blockchain oder ein Token, sondern ein offenes Protokoll, das in der KI-Welt geboren wurde und schnell im Web3-Ökosystem als Brücke zwischen KI-Agenten und dezentralen Datenquellen angenommen wurde. Anthropic hat den Standard (mit einer anfänglichen GitHub-Spezifikation und SDKs) quelloffen gemacht und eine offene Community darum aufgebaut. Dieser gemeinschaftsgetriebene Ansatz bereitete den Boden für die Integration von MCP in Web3, wo es nun als grundlegende Infrastruktur für KI-fähige dezentrale Anwendungen angesehen wird.

2. Technische Architektur und Kernprotokolle

MCP basiert auf einer leichtgewichtigen Client-Server-Architektur mit drei Hauptrollen:

  • MCP-Host: Die KI-Anwendung oder der Agent selbst, der Anfragen orchestriert. Dies könnte ein Chatbot (Claude, ChatGPT) oder eine KI-gestützte App sein, die externe Daten benötigt. Der Host initiiert Interaktionen und fragt über MCP nach Tools oder Informationen.
  • MCP-Client: Eine Konnektorkomponente, die der Host zur Kommunikation mit Servern verwendet. Der Client verwaltet die Verbindung, das Senden und Empfangen von Nachrichten und kann mehrere Server parallel verwalten. Zum Beispiel kann ein Entwicklertool wie Cursor oder der Agentenmodus von VS Code als MCP-Client fungieren, der die lokale KI-Umgebung mit verschiedenen MCP-Servern verbindet.
  • MCP-Server: Ein Dienst, der der KI kontextbezogene Daten oder Funktionen zur Verfügung stellt. Server bieten Tools, Ressourcen oder Prompts, die die KI nutzen kann. In der Praxis könnte ein MCP-Server mit einer Datenbank, einer Cloud-Anwendung oder einem Blockchain-Knoten interagieren und der KI einen standardisierten Satz von Operationen präsentieren. Jedes Client-Server-Paar kommuniziert über einen eigenen Kanal, sodass ein KI-Agent gleichzeitig mehrere Server für verschiedene Anforderungen nutzen kann.

Kern-Primitive: MCP definiert eine Reihe von Standard-Nachrichtentypen und Primitiven, die die Interaktion zwischen KI und Tool strukturieren. Die drei grundlegenden Primitive sind:

  • Tools: Diskrete Operationen oder Funktionen, die die KI auf einem Server aufrufen kann. Zum Beispiel ein „searchDocuments“-Tool oder ein „eth_call“-Tool. Tools kapseln Aktionen wie das Abfragen einer API, das Ausführen einer Berechnung oder das Aufrufen einer Smart-Contract-Funktion. Der MCP-Client kann eine Liste der verfügbaren Tools von einem Server anfordern und diese bei Bedarf aufrufen.
  • Ressourcen: Datenendpunkte, von denen die KI über den Server lesen (oder manchmal auch schreiben) kann. Dies können Dateien, Datenbankeinträge, Blockchain-Status (Blöcke, Transaktionen) oder beliebige kontextbezogene Daten sein. Die KI kann Ressourcen auflisten und deren Inhalt über Standard-MCP-Nachrichten abrufen (z. B. ListResources- und ReadResource-Anfragen).
  • Prompts: Strukturierte Prompt-Vorlagen oder Anweisungen, die Server bereitstellen können, um die Argumentation der KI zu leiten. Zum Beispiel könnte ein Server eine Formatierungsvorlage oder einen vordefinierten Abfrage-Prompt bereitstellen. Die KI kann eine Liste von Prompt-Vorlagen anfordern und diese verwenden, um die Konsistenz ihrer Interaktionen mit diesem Server zu gewährleisten.

Im Hintergrund basieren MCP-Kommunikationen typischerweise auf JSON und folgen einem Anfrage-Antwort-Muster, ähnlich wie bei RPC (Remote Procedure Call). Die Protokollspezifikation definiert Nachrichten wie InitializeRequest, ListTools, CallTool, ListResources usw., die sicherstellen, dass jeder MCP-konforme Client mit jedem MCP-Server auf einheitliche Weise kommunizieren kann. Diese Standardisierung ermöglicht es einem KI-Agenten zu entdecken, was er tun kann: Beim Verbinden mit einem neuen Server kann er fragen „Welche Tools und Daten bieten Sie an?“ und dann dynamisch entscheiden, wie er diese nutzen möchte.

Sicherheits- und Ausführungsmodell: MCP wurde mit Blick auf sichere, kontrollierte Interaktionen entwickelt. Das KI-Modell selbst führt keinen beliebigen Code aus; es sendet hochrangige Absichten (über den Client) an den Server, der dann die eigentliche Operation ausführt (z. B. Daten abrufen oder eine API aufrufen) und Ergebnisse zurückgibt. Diese Trennung bedeutet, dass sensible Aktionen (wie Blockchain-Transaktionen oder Datenbank-Schreibvorgänge) in einer Sandbox ausgeführt werden oder eine explizite Benutzergenehmigung erfordern können. Zum Beispiel gibt es Nachrichten wie Ping (um Verbindungen am Leben zu erhalten) und sogar eine CreateMessageRequest, die es einem MCP-Server ermöglicht, die KI des Clients aufzufordern, eine Unterantwort zu generieren, die typischerweise durch Benutzerbestätigung geschützt ist. Funktionen wie Authentifizierung, Zugriffskontrolle und Audit-Logging werden aktiv entwickelt, um sicherzustellen, dass MCP sicher in Unternehmens- und dezentralen Umgebungen eingesetzt werden kann (mehr dazu im Abschnitt Roadmap).

Zusammenfassend basiert die Architektur von MCP auf einem standardisierten Nachrichtenprotokoll (mit JSON-RPC-ähnlichen Aufrufen), das KI-Agenten (Hosts) mit einer flexiblen Reihe von Servern verbindet, die Tools, Daten und Aktionen bereitstellen. Diese offene Architektur ist modellagnostisch und plattformagnostisch – jeder KI-Agent kann MCP verwenden, um mit jeder Ressource zu kommunizieren, und jeder Entwickler kann einen neuen MCP-Server für eine Datenquelle erstellen, ohne den Kerncode der KI ändern zu müssen. Diese Plug-and-Play-Erweiterbarkeit macht MCP in Web3 so leistungsfähig: Man kann Server für Blockchain-Knoten, Smart Contracts, Wallets oder Orakel bauen und KI-Agenten diese Funktionen nahtlos neben Web2-APIs integrieren lassen.

3. Anwendungsfälle und Anwendungen von MCP in Web3

MCP erschliesst eine breite Palette von Anwendungsfällen, indem es KI-gesteuerten Anwendungen ermöglicht, auf Blockchain-Daten zuzugreifen und On-Chain- oder Off-Chain-Aktionen auf sichere, hochrangige Weise auszuführen. Hier sind einige wichtige Anwendungen und Probleme, die es im Web3-Bereich löst:

  • On-Chain-Datenanalyse und -Abfrage: KI-Agenten können den Live-Blockchain-Status in Echtzeit abfragen, um Einblicke zu liefern oder Aktionen auszulösen. Zum Beispiel ermöglicht ein MCP-Server, der mit einem Ethereum-Knoten verbunden ist, einer KI, Kontostände abzurufen, Smart-Contract-Speicher zu lesen, Transaktionen zu verfolgen oder Ereignisprotokolle bei Bedarf abzurufen. Dies verwandelt einen Chatbot oder einen Code-Assistenten in einen Blockchain-Explorer. Entwickler können einem KI-Assistenten Fragen stellen wie „Wie hoch ist die aktuelle Liquidität im Uniswap-Pool X?“ oder „Simulieren Sie die Gaskosten dieser Ethereum-Transaktion“, und die KI wird MCP-Tools verwenden, um einen RPC-Knoten aufzurufen und die Antwort von der Live-Chain zu erhalten. Dies ist weitaus leistungsfähiger, als sich auf die Trainingsdaten der KI oder statische Schnappschüsse zu verlassen.
  • Automatisiertes DeFi-Portfoliomanagement: Durch die Kombination von Datenzugriffs- und Aktionstools können KI-Agenten Krypto-Portfolios oder DeFi-Positionen verwalten. Zum Beispiel könnte ein „KI-Vault-Optimierer“ die Positionen eines Benutzers über Yield Farms hinweg überwachen und automatisch Rebalancing-Strategien basierend auf Echtzeit-Marktbedingungen vorschlagen oder ausführen. Ähnlich könnte eine KI als DeFi-Portfoliomanager fungieren und Allokationen zwischen Protokollen anpassen, wenn sich Risiko oder Zinssätze ändern. MCP bietet die Standardschnittstelle für die KI, um On-Chain-Metriken (Preise, Liquidität, Sicherheitenquoten) zu lesen und dann Tools aufzurufen, um Transaktionen (wie das Verschieben von Geldern oder den Tausch von Assets) auszuführen, falls dies erlaubt ist. Dies kann Benutzern helfen, den Ertrag zu maximieren oder das Risiko rund um die Uhr zu verwalten, was manuell schwer zu bewerkstelligen wäre.
  • KI-gestützte Benutzeragenten für Transaktionen: Stellen Sie sich einen persönlichen KI-Assistenten vor, der Blockchain-Interaktionen für einen Benutzer abwickeln kann. Mit MCP kann ein solcher Agent mit Wallets und DApps integriert werden, um Aufgaben über natürliche Sprachbefehle auszuführen. Ein Benutzer könnte zum Beispiel sagen: „KI, sende 0,5 ETH von meiner Wallet an Alice“ oder „Stelle meine Token in den Pool mit der höchsten APY“. Die KI würde über MCP einen sicheren Wallet-Server (der den privaten Schlüssel des Benutzers enthält) verwenden, um die Transaktion zu erstellen und zu signieren, und einen Blockchain-MCP-Server, um sie zu senden. Dieses Szenario verwandelt komplexe Befehlszeilen- oder Metamask-Interaktionen in ein Konversationserlebnis. Es ist entscheidend, dass hier sichere Wallet-MCP-Server verwendet werden, die Berechtigungen und Bestätigungen durchsetzen, aber das Endergebnis ist die Optimierung von On-Chain-Transaktionen durch KI-Unterstützung.
  • Entwicklerassistenten und Smart-Contract-Debugging: Web3-Entwickler können MCP-basierte KI-Assistenten nutzen, die sich der Blockchain-Infrastruktur bewusst sind. Zum Beispiel bieten die MCP-Server von Chainstack für EVM und Solana KI-Code-Copiloten tiefe Einblicke in die Blockchain-Umgebung des Entwicklers. Ein Smart-Contract-Ingenieur, der einen KI-Assistenten (in VS Code oder einer IDE) verwendet, kann die KI den aktuellen Status eines Contracts in einem Testnetz abrufen, eine Transaktion simulieren oder Protokolle überprüfen lassen – alles über MCP-Aufrufe an lokale Blockchain-Knoten. Dies hilft beim Debuggen und Testen von Contracts. Die KI codiert nicht mehr „blind“; sie kann tatsächlich in Echtzeit überprüfen, wie sich Code On-Chain verhält. Dieser Anwendungsfall löst ein grosses Problem, indem er es der KI ermöglicht, kontinuierlich aktuelle Dokumente (über einen Dokumentations-MCP-Server) aufzunehmen und die Blockchain direkt abzufragen, wodurch Halluzinationen reduziert und Vorschläge wesentlich genauer werden.
  • Protokollübergreifende Koordination: Da MCP eine einheitliche Schnittstelle ist, kann ein einziger KI-Agent gleichzeitig über mehrere Protokolle und Dienste hinweg koordinieren – etwas extrem Leistungsfähiges in der vernetzten Landschaft von Web3. Stellen Sie sich einen autonomen Handelsagenten vor, der verschiedene DeFi-Plattformen auf Arbitrage überwacht. Über MCP könnte ein Agent gleichzeitig mit den Kreditmärkten von Aave, einer LayerZero-Cross-Chain-Brücke und einem MEV (Miner Extractable Value)-Analysedienst über eine kohärente Schnittstelle interagieren. Die KI könnte in einem „Gedankenprozess“ Liquiditätsdaten von Ethereum (über einen MCP-Server auf einem Ethereum-Knoten) sammeln, Preisinformationen oder Orakeldaten (über einen anderen Server) erhalten und sogar Bridging- oder Swapping-Operationen aufrufen. Zuvor erforderte eine solche Multi-Plattform-Koordination komplexe, massgeschneiderte Bots, aber MCP bietet eine verallgemeinerbare Möglichkeit für eine KI, das gesamte Web3-Ökosystem zu navigieren, als wäre es ein grosser Daten-/Ressourcenpool. Dies könnte fortgeschrittene Anwendungsfälle wie Cross-Chain-Yield-Optimierung oder automatisierten Liquidationsschutz ermöglichen, bei denen eine KI Assets oder Sicherheiten proaktiv über Chains hinweg verschiebt.
  • KI-Beratungs- und Support-Bots: Eine weitere Kategorie sind benutzerorientierte Berater in Krypto-Anwendungen. Zum Beispiel könnte ein DeFi-Hilfe-Chatbot, der in eine Plattform wie Uniswap oder Compound integriert ist, MCP verwenden, um Echtzeitinformationen für den Benutzer abzurufen. Wenn ein Benutzer fragt: „Was ist der beste Weg, meine Position abzusichern?“, kann die KI aktuelle Kurse, Volatilitätsdaten und die Portfoliodetails des Benutzers über MCP abrufen und dann eine kontextbezogene Antwort geben. Plattformen erforschen KI-gestützte Assistenten, die in Wallets oder dApps eingebettet sind und Benutzer durch komplexe Transaktionen führen, Risiken erklären und sogar Abfolgen von Schritten mit Genehmigung ausführen können. Diese KI-Agenten sitzen effektiv auf mehreren Web3-Diensten (DEXes, Lending Pools, Versicherungsprotokolle) und nutzen MCP, um diese bei Bedarf abzufragen und zu steuern, wodurch die Benutzererfahrung vereinfacht wird.
  • Jenseits von Web3 – Multi-Domain-Workflows: Obwohl unser Fokus auf Web3 liegt, ist es erwähnenswert, dass die Anwendungsfälle von MCP sich auf jeden Bereich erstrecken, in dem KI externe Daten benötigt. Es wird bereits verwendet, um KI mit Dingen wie Google Drive, Slack, GitHub, Figma und mehr zu verbinden. In der Praxis könnte ein einziger KI-Agent Web3 und Web2 überspannen: z. B. ein Excel-Finanzmodell von Google Drive analysieren und dann basierend auf dieser Analyse On-Chain-Trades vorschlagen, alles in einem Workflow. Die Flexibilität von MCP ermöglicht eine domänenübergreifende Automatisierung (z. B. „plane mein Meeting, wenn meine DAO-Abstimmung erfolgreich ist, und sende die Ergebnisse per E-Mail“), die Blockchain-Aktionen mit alltäglichen Tools verbindet.

Gelöste Probleme: Das übergeordnete Problem, das MCP löst, ist das Fehlen einer einheitlichen Schnittstelle für KI zur Interaktion mit Live-Daten und -Diensten. Vor MCP musste man, wenn man wollte, dass eine KI einen neuen Dienst nutzt, ein Plugin oder eine Integration für die API dieses spezifischen Dienstes von Hand codieren, oft auf Ad-hoc-Basis. In Web3 war dies besonders umständlich – jede Blockchain oder jedes Protokoll hat ihre eigenen Schnittstellen, und keine KI konnte hoffen, sie alle zu unterstützen. MCP löst dies, indem es standardisiert, wie die KI beschreibt, was sie will (natürliche Sprache, die auf Tool-Aufrufe abgebildet wird) und wie Dienste beschreiben, was sie anbieten. Dies reduziert den Integrationsaufwand drastisch. Anstatt beispielsweise für jedes DeFi-Protokoll ein benutzerdefiniertes Plugin zu schreiben, kann ein Entwickler einen MCP-Server für dieses Protokoll schreiben (im Wesentlichen dessen Funktionen in natürlicher Sprache annotieren). Jede MCP-fähige KI (ob Claude, ChatGPT oder Open-Source-Modelle) kann es dann sofort nutzen. Dies macht KI auf Plug-and-Play-Weise erweiterbar, ähnlich wie das Hinzufügen eines neuen Geräts über einen universellen Anschluss einfacher ist als die Installation einer neuen Schnittstellenkarte.

Zusammenfassend ermöglicht MCP in Web3 KI-Agenten, erstklassige Bürger der Blockchain-Welt zu werden – Abfragen, Analysieren und sogar Transaktionen über dezentrale Systeme hinweg, alles über sichere, standardisierte Kanäle. Dies öffnet die Tür zu autonomeren DApps, intelligenteren Benutzeragenten und einer nahtlosen Integration von On-Chain- und Off-Chain-Intelligenz.

4. Tokenomics und Governance-Modell

Im Gegensatz zu typischen Web3-Protokollen verfügt MCP nicht über einen nativen Token oder eine Kryptowährung. Es ist keine Blockchain oder ein dezentrales Netzwerk für sich, sondern eine offene Protokollspezifikation (eher vergleichbar mit HTTP oder JSON-RPC im Geiste). Daher gibt es keine integrierte Tokenomics – keine Token-Ausgabe, kein Staking oder Gebührenmodell, das der Nutzung von MCP inhärent wäre. KI-Anwendungen und Server kommunizieren über MCP ohne jegliche Kryptowährung; zum Beispiel könnte eine KI, die eine Blockchain über MCP aufruft, Gasgebühren für die Blockchain-Transaktion zahlen, aber MCP selbst fügt keine zusätzlichen Token-Gebühren hinzu. Dieses Design spiegelt den Ursprung von MCP in der KI-Community wider: Es wurde als technischer Standard zur Verbesserung der KI-Tool-Interaktionen eingeführt, nicht als tokenisiertes Projekt.

Die Governance von MCP erfolgt auf offene, gemeinschaftsgetriebene Weise. Nach der Veröffentlichung von MCP als offenem Standard signalisierte Anthropic ein Engagement für kollaborative Entwicklung. Ein breites Lenkungsausschuss und Arbeitsgruppen haben sich gebildet, um die Entwicklung des Protokolls zu steuern. Bemerkenswerterweise traten Mitte 2025 wichtige Stakeholder wie Microsoft und GitHub dem MCP-Lenkungsausschuss neben Anthropic bei. Dies wurde auf der Microsoft Build 2025 bekannt gegeben und deutet auf eine Koalition von Branchenakteuren hin, die die Roadmap und Standardentscheidungen von MCP leiten. Der Ausschuss und die Betreuer arbeiten über einen offenen Governance-Prozess: Vorschläge zur Änderung oder Erweiterung von MCP werden typischerweise öffentlich diskutiert (z. B. über GitHub-Issues und „SEP“ – Standard Enhancement Proposal – Richtlinien). Es gibt auch eine MCP Registry-Arbeitsgruppe (mit Betreuern von Unternehmen wie Block, PulseMCP, GitHub und Anthropic), die die Multi-Parteien-Governance veranschaulicht. Anfang 2025 arbeiteten Mitwirkende von mindestens 9 verschiedenen Organisationen zusammen, um ein einheitliches MCP-Server-Register zur Entdeckung aufzubauen, was zeigt, wie die Entwicklung über Community-Mitglieder dezentralisiert und nicht von einer einzigen Entität kontrolliert wird.

Da es keinen Token gibt, basieren Governance-Anreize auf den gemeinsamen Interessen der Stakeholder (KI-Unternehmen, Cloud-Anbieter, Blockchain-Entwickler usw.), um das Protokoll für alle zu verbessern. Dies ist in gewisser Weise analog zur Governance von W3C- oder IETF-Standards, jedoch mit einem schnelleren, GitHub-zentrierten Prozess. Zum Beispiel arbeiteten Microsoft und Anthropic zusammen, um eine verbesserte Autorisierungsspezifikation für MCP zu entwerfen (Integration von Dingen wie OAuth und Single Sign-On), und GitHub arbeitete am offiziellen MCP Registry-Dienst zur Auflistung verfügbarer Server mit. Diese Verbesserungen wurden zum Nutzen aller in die MCP-Spezifikation zurückgeführt.

Es ist erwähnenswert, dass, obwohl MCP selbst nicht tokenisiert ist, es zukunftsweisende Ideen gibt, wirtschaftliche Anreize und Dezentralisierung auf MCP aufzubauen. Einige Forscher und Vordenker in Web3 sehen die Entstehung von „MCP-Netzwerken“ voraus – im Wesentlichen dezentrale Netzwerke von MCP-Servern und -Agenten, die Blockchain-ähnliche Mechanismen für Entdeckung, Vertrauen und Belohnungen nutzen. In einem solchen Szenario könnte man sich vorstellen, dass ein Token verwendet wird, um diejenigen zu belohnen, die hochwertige MCP-Server betreiben (ähnlich wie Miner oder Knotenbetreiber Anreize erhalten). Funktionen wie Reputationsbewertungen, überprüfbare Berechnungen und Knotenerkennung könnten durch Smart Contracts oder eine Blockchain ermöglicht werden, wobei ein Token ehrliches Verhalten fördert. Dies ist noch konzeptionell, aber Projekte wie MITs Namda (später diskutiert) experimentieren mit tokenbasierten Anreizmechanismen für Netzwerke von KI-Agenten, die MCP verwenden. Wenn diese Ideen reifen, könnte MCP direkter mit On-Chain-Tokenomics in Verbindung treten, aber ab 2025 bleibt der Kern-MCP-Standard tokenfrei.

Zusammenfassend ist das „Governance-Modell“ von MCP das eines offenen Technologiestandards: kollaborativ von einer Community und einem Lenkungsausschuss von Experten gepflegt, ohne On-Chain-Governance-Token. Entscheidungen werden durch technische Verdienste und breiten Konsens geleitet, nicht durch gewichtete Abstimmung nach Tokenbesitz. Dies unterscheidet MCP von vielen Web3-Protokollen – es zielt darauf ab, die Ideale von Web3 (Dezentralisierung, Interoperabilität, Benutzerermächtigung) durch offene Software und Standards zu erfüllen, nicht durch eine proprietäre Blockchain oder einen Token. In den Worten einer Analyse: „Das Versprechen von Web3... kann endlich nicht durch Blockchain und Kryptowährung, sondern durch natürliche Sprache und KI-Agenten verwirklicht werden“, was MCP als einen wichtigen Wegbereiter dieser Vision positioniert. Dennoch könnten wir, wenn MCP-Netzwerke wachsen, hybride Modelle sehen, bei denen Blockchain-basierte Governance- oder Anreizmechanismen das Ökosystem ergänzen – ein Bereich, der genau zu beobachten ist.

5. Community und Ökosystem

Das MCP-Ökosystem ist in kurzer Zeit explosionsartig gewachsen und umfasst KI-Entwickler, Open-Source-Mitwirkende, Web3-Ingenieure und grosse Technologieunternehmen. Es ist eine lebendige Gemeinschaftsanstrengung, mit wichtigen Mitwirkenden und Partnerschaften, darunter:

  • Anthropic: Als Schöpfer hat Anthropic das Ökosystem durch die Veröffentlichung der MCP-Spezifikation und mehrerer Referenzserver (für Google Drive, Slack, GitHub usw.) als Open Source initiiert. Anthropic führt die Entwicklung weiterhin an (zum Beispiel fungieren Mitarbeiter wie Theodora Chu als MCP-Produktmanager, und das Team von Anthropic trägt massgeblich zu Spezifikationsaktualisierungen und Community-Support bei). Die Offenheit von Anthropic zog andere an, auf MCP aufzubauen, anstatt es als Tool eines einzelnen Unternehmens zu betrachten.

  • Frühe Anwender (Block, Apollo, Zed, Replit, Codeium, Sourcegraph): In den ersten Monaten nach der Veröffentlichung implementierte eine Welle früher Anwender MCP in ihren Produkten. Block (ehemals Square) integrierte MCP, um KI-Agentensysteme im Fintech-Bereich zu erforschen – der CTO von Block lobte MCP als offene Brücke, die KI mit realen Anwendungen verbindet. Apollo (wahrscheinlich Apollo GraphQL) integrierte MCP ebenfalls, um KI den Zugriff auf interne Daten zu ermöglichen. Entwicklertool-Unternehmen wie Zed (Code-Editor), Replit (Cloud-IDE), Codeium (KI-Code-Assistent) und Sourcegraph (Code-Suche) arbeiteten jeweils daran, MCP-Unterstützung hinzuzufügen. Zum Beispiel verwendet Sourcegraph MCP, damit ein KI-Code-Assistent als Antwort auf eine Frage relevanten Code aus einem Repository abrufen kann, und die IDE-Agenten von Replit können projektspezifischen Kontext abrufen. Diese frühen Anwender verliehen MCP Glaubwürdigkeit und Sichtbarkeit.

  • Big Tech-Unterstützung – OpenAI, Microsoft, Google: Bemerkenswerterweise haben sich Unternehmen, die sonst Konkurrenten sind, bei MCP geeinigt. OpenAIs CEO Sam Altman kündigte im März 2025 öffentlich an, dass OpenAI MCP-Unterstützung in all seinen Produkten (einschliesslich der Desktop-App von ChatGPT) hinzufügen werde, und sagte: „Die Leute lieben MCP, und wir freuen uns, die Unterstützung in all unseren Produkten hinzuzufügen“. Dies bedeutete, dass die Agent API von OpenAI und ChatGPT-Plugins MCP sprechen würden, um Interoperabilität zu gewährleisten. Nur wenige Wochen später enthüllte Google DeepMinds CEO Demis Hassabis, dass die kommenden Gemini-Modelle und -Tools von Google MCP unterstützen würden, und nannte es ein gutes Protokoll und einen offenen Standard für die „Ära der KI-Agenten“. Microsoft trat nicht nur dem Lenkungsausschuss bei, sondern arbeitete auch mit Anthropic zusammen, um ein offizielles C#-SDK für MCP zu entwickeln, um die Enterprise-Entwicklergemeinschaft zu bedienen. Die GitHub-Einheit von Microsoft integrierte MCP in GitHub Copilot (den ‚Copilot Labs/Agents‘-Modus von VS Code), wodurch Copilot MCP-Server für Dinge wie die Repository-Suche und das Ausführen von Testfällen nutzen kann. Zusätzlich kündigte Microsoft an, dass Windows 11 bestimmte OS-Funktionen (wie den Dateisystemzugriff) als MCP-Server bereitstellen würde, damit KI-Agenten sicher mit dem Betriebssystem interagieren können. Die Zusammenarbeit zwischen OpenAI, Microsoft, Google und Anthropic – die sich alle um MCP versammeln – ist aussergewöhnlich und unterstreicht das Ethos „Community vor Wettbewerb“ dieses Standards.

  • Web3-Entwicklergemeinschaft: Eine Reihe von Blockchain-Entwicklern und Startups hat MCP angenommen. Mehrere gemeinschaftsgetriebene MCP-Server wurden erstellt, um Blockchain-Anwendungsfälle zu bedienen:

    • Das Team von Alchemy (einem führenden Blockchain-Infrastrukturanbieter) entwickelte einen Alchemy MCP Server, der On-Demand-Blockchain-Analysetools über MCP anbietet. Dies ermöglicht es einer KI wahrscheinlich, Blockchain-Statistiken (wie historische Transaktionen, Adressaktivität) über die APIs von Alchemy mithilfe natürlicher Sprache abzurufen.
    • Mitwirkende entwickelten einen Bitcoin & Lightning Network MCP Server, um mit Bitcoin-Knoten und dem Lightning-Zahlungsnetzwerk zu interagieren, wodurch KI-Agenten Bitcoin-Blockdaten lesen oder sogar Lightning-Rechnungen über Standard-Tools erstellen können.
    • Die Krypto-Medien- und Bildungsgruppe Bankless erstellte einen Onchain MCP Server, der sich auf Web3-Finanzinteraktionen konzentriert und möglicherweise eine Schnittstelle zu DeFi-Protokollen (Senden von Transaktionen, Abfragen von DeFi-Positionen usw.) für KI-Assistenten bereitstellt.
    • Projekte wie Rollup.codes (eine Wissensdatenbank für Ethereum Layer 2s) erstellten einen MCP-Server für Rollup-Ökosysteminformationen, sodass eine KI technische Fragen zu Rollups beantworten kann, indem sie diesen Server abfragt.
    • Chainstack, ein Blockchain-Knotenanbieter, startete eine Suite von MCP-Servern (zuvor erwähnt) für Dokumentation, EVM-Kettendaten und Solana, die explizit als „Ihre KI auf Blockchain-Steroiden“ für Web3-Entwickler vermarktet wird.

    Darüber hinaus sind Web3-fokussierte Communities um MCP herum entstanden. Zum Beispiel werden PulseMCP und Goose als Community-Initiativen genannt, die beim Aufbau des MCP-Registers helfen. Wir sehen auch eine gegenseitige Befruchtung mit KI-Agenten-Frameworks: Die LangChain-Community integrierte Adapter, sodass alle MCP-Server als Tools in LangChain-gesteuerten Agenten verwendet werden können, und Open-Source-KI-Plattformen wie Hugging Face TGI (Text-Generation-Inference) erforschen die MCP-Kompatibilität. Das Ergebnis ist ein reichhaltiges Ökosystem, in dem fast täglich neue MCP-Server angekündigt werden, die alles von Datenbanken bis zu IoT-Geräten bedienen.

  • Umfang der Akzeptanz: Die Akzeptanz lässt sich in gewissem Masse quantifizieren. Bis Februar 2025 – kaum drei Monate nach dem Start – waren über 1.000 MCP-Server/Konnektoren von der Community gebaut worden. Diese Zahl ist nur gewachsen und deutet auf Tausende von Integrationen in verschiedenen Branchen hin. Mike Krieger (Chief Product Officer von Anthropic) stellte im Frühjahr 2025 fest, dass MCP zu einem „florierenden offenen Standard mit Tausenden von Integrationen und wachsend“ geworden sei. Das offizielle MCP Registry (im September 2025 als Vorschau gestartet) katalogisiert öffentlich verfügbare Server und erleichtert die Entdeckung von Tools; die offene API des Registers ermöglicht es jedem, beispielsweise nach „Ethereum“ oder „Notion“ zu suchen und relevante MCP-Konnektoren zu finden. Dies senkt die Eintrittsbarriere für neue Teilnehmer und fördert das Wachstum weiter.

  • Partnerschaften: Wir haben viele implizite Partnerschaften (Anthropic mit Microsoft, usw.) angesprochen. Um noch einige weitere hervorzuheben:

    • Anthropic & Slack: Anthropic hat sich mit Slack zusammengetan, um Claude über MCP mit den Daten von Slack zu integrieren (Slack verfügt über einen offiziellen MCP-Server, der es KI ermöglicht, Slack-Nachrichten abzurufen oder Warnungen zu posten).
    • Cloud-Anbieter: Amazon (AWS) und Google Cloud haben mit Anthropic zusammengearbeitet, um Claude zu hosten, und es ist wahrscheinlich, dass sie MCP in diesen Umgebungen unterstützen (z. B. könnte AWS Bedrock MCP-Konnektoren für Unternehmensdaten zulassen). Obwohl nicht explizit in Zitaten erwähnt, sind diese Cloud-Partnerschaften wichtig für die Unternehmensakzeptanz.
    • Akademische Kooperationen: Das Forschungsprojekt Namda des MIT und IBM (als Nächstes besprochen) stellt eine Partnerschaft zwischen Wissenschaft und Industrie dar, um die Grenzen von MCP in dezentralen Umgebungen zu erweitern.
    • GitHub & VS Code: Partnerschaft zur Verbesserung der Entwicklererfahrung – z. B. hat das VS Code-Team aktiv zu MCP beigetragen (einer der Registry-Betreuer stammt vom VS Code-Team).
    • Zahlreiche Startups: Viele KI-Startups (Agenten-Startups, Workflow-Automatisierungs-Startups) bauen auf MCP auf, anstatt das Rad neu zu erfinden. Dazu gehören aufstrebende Web3-KI-Startups, die „KI als DAO“ oder autonome Wirtschaftsagenten anbieten wollen.

Insgesamt ist die MCP-Community vielfältig und wächst schnell. Sie umfasst Kerntechnologieunternehmen (für Standards und Basistools), Web3-Spezialisten (die Blockchain-Wissen und Anwendungsfälle einbringen) und unabhängige Entwickler (die oft Konnektoren für ihre Lieblings-Apps oder -Protokolle beisteuern). Das Ethos ist kollaborativ. Zum Beispiel haben Sicherheitsbedenken hinsichtlich Drittanbieter-MCP-Servern zu Community-Diskussionen und Beiträgen zu Best Practices geführt (z. B. arbeiten Stacklok-Mitwirkende an Sicherheitstools für MCP-Server). Die Fähigkeit der Community, schnell zu iterieren (MCP erfuhr innerhalb weniger Monate mehrere Spezifikations-Upgrades, die Funktionen wie Streaming-Antworten und bessere Authentifizierung hinzufügten), ist ein Beweis für das breite Engagement.

Speziell im Web3-Ökosystem hat MCP ein Mini-Ökosystem von „KI + Web3“-Projekten gefördert. Es ist nicht nur ein Protokoll zur Nutzung; es katalysiert neue Ideen wie KI-gesteuerte DAOs, On-Chain-Governance, die durch KI-Analyse unterstützt wird, und domänenübergreifende Automatisierung (wie die Verknüpfung von On-Chain-Ereignissen mit Off-Chain-Aktionen durch KI). Die Präsenz wichtiger Web3-Persönlichkeiten – z. B. Zhivko Todorov von LimeChain, der feststellt: „MCP repräsentiert die unvermeidliche Integration von KI und Blockchain“ – zeigt, dass Blockchain-Veteranen es aktiv unterstützen. Partnerschaften zwischen KI- und Blockchain-Unternehmen (wie die zwischen Anthropic und Block oder Microsofts Azure Cloud, die die Bereitstellung von MCP neben ihren Blockchain-Diensten vereinfacht) deuten auf eine Zukunft hin, in der KI-Agenten und Smart Contracts Hand in Hand arbeiten.

Man könnte sagen, MCP hat die erste echte Konvergenz der KI-Entwicklergemeinschaft mit der Web3-Entwicklergemeinschaft ausgelöst. Hackathons und Meetups bieten jetzt MCP-Tracks an. Als konkretes Mass für die Akzeptanz im Ökosystem: Mitte 2025 unterstützen OpenAI, Google und Anthropic – die zusammen die Mehrheit der fortschrittlichen KI-Modelle repräsentieren – alle MCP, und auf der anderen Seite bauen führende Blockchain-Infrastrukturanbieter (Alchemy, Chainstack), Krypto-Unternehmen (Block usw.) und dezentrale Projekte MCP-Hooks. Dieser zweiseitige Netzwerkeffekt lässt MCP zu einem dauerhaften Standard werden.

6. Roadmap und Entwicklungsmeilensteine

Die Entwicklung von MCP war rasant. Hier skizzieren wir die bisherigen wichtigen Meilensteine und die zukünftige Roadmap, wie sie aus offiziellen Quellen und Community-Updates hervorgehen:

  • Ende 2024 – Erstveröffentlichung: Am 25. November 2024 kündigte Anthropic MCP offiziell an und veröffentlichte die Spezifikation sowie erste SDKs als Open Source. Neben der Spezifikation veröffentlichten sie eine Handvoll MCP-Server-Implementierungen für gängige Tools (Google Drive, Slack, GitHub usw.) und fügten Unterstützung im Claude AI-Assistenten (Claude Desktop-App) hinzu, um lokale MCP-Server zu verbinden. Dies markierte den 1.0-Start von MCP. Frühe Proof-of-Concept-Integrationen bei Anthropic zeigten, wie Claude MCP verwenden konnte, um Dateien zu lesen oder eine SQL-Datenbank in natürlicher Sprache abzufragen, was das Konzept validierte.
  • Q1 2025 – Schnelle Akzeptanz und Iteration: In den ersten Monaten des Jahres 2025 erlebte MCP eine weit verbreitete Akzeptanz in der Branche. Bis März 2025 kündigten OpenAI und andere KI-Anbieter Unterstützung an (wie oben beschrieben). In diesem Zeitraum kam es auch zu einer Spezifikationsentwicklung: Anthropic aktualisierte MCP um Streaming-Funktionen (die es ermöglichen, grosse Ergebnisse oder kontinuierliche Datenströme inkrementell zu senden). Dieses Update wurde im April 2025 mit den C#-SDK-Nachrichten bekannt gegeben und zeigte, dass MCP nun Funktionen wie chunked responses oder Echtzeit-Feed-Integration unterstützte. Die Community erstellte auch Referenzimplementierungen in verschiedenen Sprachen (Python, JavaScript usw.) über das SDK von Anthropic hinaus, um polyglotte Unterstützung zu gewährleisten.
  • Q2 2025 – Ökosystem-Tools und Governance: Im Mai 2025, mit dem Beitritt von Microsoft und GitHub zu den Bemühungen, gab es einen Vorstoss zur Formalisierung der Governance und zur Verbesserung der Sicherheit. Auf der Build 2025 enthüllte Microsoft Pläne für die Windows 11 MCP-Integration und detaillierte eine Zusammenarbeit zur Verbesserung der Autorisierungsabläufe in MCP. Etwa zur gleichen Zeit wurde die Idee eines MCP Registry zur Indexierung verfügbarer Server eingeführt (das anfängliche Brainstorming begann laut Registry-Blog im März 2025). Der „Standards-Track“-Prozess (SEP – Standard Enhancement Proposals) wurde auf GitHub etabliert, ähnlich wie EIPs von Ethereum oder PEPs von Python, um Beiträge geordnet zu verwalten. Community-Anrufe und Arbeitsgruppen (für Sicherheit, Registry, SDKs) begannen sich zu treffen.
  • Mitte 2025 – Funktionserweiterung: Bis Mitte 2025 priorisierte die Roadmap mehrere wichtige Verbesserungen:
    • Unterstützung für asynchrone und langlaufende Aufgaben: Pläne, MCP die Verarbeitung langer Operationen zu ermöglichen, ohne die Verbindung zu blockieren. Wenn eine KI beispielsweise einen Cloud-Job auslöst, der Minuten dauert, würde das MCP-Protokoll asynchrone Antworten oder eine erneute Verbindung unterstützen, um Ergebnisse abzurufen.
    • Authentifizierung und feingranulare Sicherheit: Entwicklung von feingranularen Autorisierungsmechanismen für sensible Aktionen. Dies umfasst möglicherweise die Integration von OAuth-Flows, API-Schlüsseln und Enterprise-SSO in MCP-Server, damit der KI-Zugriff sicher verwaltet werden kann. Bis Mitte 2025 waren Leitfäden und Best Practices für die MCP-Sicherheit in Arbeit, angesichts der Sicherheitsrisiken, die das Ermöglichen des Aufrufs leistungsstarker Tools durch KI birgt. Ziel ist es, dass beispielsweise, wenn eine KI über MCP auf die private Datenbank eines Benutzers zugreifen soll, sie einem sicheren Autorisierungsablauf (mit Benutzerzustimmung) folgen sollte, anstatt nur einem offenen Endpunkt.
    • Validierung und Compliance-Tests: Die Community erkannte die Notwendigkeit der Zuverlässigkeit und priorisierte den Aufbau von Compliance-Testsuiten und Referenzimplementierungen. Durch die Sicherstellung, dass alle MCP-Clients/-Server die Spezifikation einhalten (durch automatisierte Tests), sollte eine Fragmentierung verhindert werden. Ein Referenzserver (wahrscheinlich ein Beispiel mit Best Practices für die Remote-Bereitstellung und Authentifizierung) stand auf der Roadmap, ebenso wie eine Referenz-Client-Anwendung, die die vollständige MCP-Nutzung mit einer KI demonstriert.
    • Multimodalitätsunterstützung: Erweiterung von MCP über Text hinaus, um Modalitäten wie Bild-, Audio-, Videodaten im Kontext zu unterstützen. Zum Beispiel könnte eine KI ein Bild von einem MCP-Server anfordern (z. B. ein Design-Asset oder ein Diagramm) oder ein Bild ausgeben. Die Spezifikationsdiskussion umfasste das Hinzufügen von Unterstützung für Streaming- und Chunked-Nachrichten, um grosse Multimedia-Inhalte interaktiv zu verarbeiten. Frühe Arbeiten an „MCP Streaming“ waren bereits im Gange (um Dinge wie Live-Audio-Feeds oder kontinuierliche Sensordaten an KI zu unterstützen).
    • Zentrales Register & Discovery: Der Plan zur Implementierung eines zentralen MCP Registry-Dienstes für die Server-Discovery wurde Mitte 2025 umgesetzt. Bis September 2025 wurde das offizielle MCP Registry als Vorschau gestartet. Dieses Register bietet eine einzige Quelle der Wahrheit für öffentlich verfügbare MCP-Server, die es Clients ermöglicht, Server nach Namen, Kategorie oder Fähigkeiten zu finden. Es ist im Wesentlichen wie ein App Store (aber offen) für KI-Tools. Das Design ermöglicht öffentliche Register (einen globalen Index) und private (unternehmensspezifische), die alle über eine gemeinsame API interoperabel sind. Das Register führte auch einen Moderationsmechanismus ein, um bösartige Server zu kennzeichnen oder zu entfernen, mit einem Community-Moderationsmodell zur Aufrechterhaltung der Qualität.
  • Ende 2025 und darüber hinaus – Hin zu dezentralen MCP-Netzwerken: Obwohl noch keine „offiziellen“ Roadmap-Punkte, weist die Entwicklung auf mehr Dezentralisierung und Web3-Synergie hin:
    • Forscher untersuchen aktiv, wie dezentrale Discovery-, Reputations- und Anreizschichten zu MCP hinzugefügt werden können. Das Konzept eines MCP-Netzwerks (oder „Marktplatzes von MCP-Endpunkten“) wird inkubiert. Dies könnte Smart-Contract-basierte Register (damit es keinen Single Point of Failure für Serverlisten gibt), Reputationssysteme, bei denen Server/Clients On-Chain-Identitäten und Einsätze für gutes Verhalten haben, und möglicherweise Token-Belohnungen für den Betrieb zuverlässiger MCP-Knoten umfassen.
    • Projekt Namda am MIT, das 2024 begann, ist ein konkreter Schritt in diese Richtung. Bis 2025 hatte Namda einen Prototyp eines verteilten Agenten-Frameworks auf den Grundlagen von MCP aufgebaut, einschliesslich Funktionen wie dynamische Knotenerkennung, Lastverteilung über Agentencluster und ein dezentrales Register unter Verwendung von Blockchain-Techniken. Sie haben sogar experimentelle tokenbasierte Anreize und Herkunftsverfolgung für Multi-Agenten-Kooperationen. Meilensteine von Namda zeigen, dass es machbar ist, ein Netzwerk von MCP-Agenten auf vielen Maschinen mit vertrauensloser Koordination zu betreiben. Wenn Namdas Konzepte übernommen werden, könnten wir sehen, wie sich MCP entwickelt, um einige dieser Ideen zu integrieren (möglicherweise durch optionale Erweiterungen oder separate Protokolle, die darauf aufbauen).
    • Enterprise-Härtung: Auf der Unternehmensseite erwarten wir bis Ende 2025, dass MCP in wichtige Unternehmenssoftwareangebote integriert wird (Microsofts Einbindung in Windows und Azure ist ein Beispiel). Die Roadmap umfasst unternehmensfreundliche Funktionen wie SSO-Integration für MCP-Server und robuste Zugriffskontrollen. Die allgemeine Verfügbarkeit des MCP Registry und von Toolkits für die Bereitstellung von MCP in grossem Massstab (z. B. innerhalb eines Unternehmensnetzwerks) ist wahrscheinlich bis Ende 2025.

Um einige wichtige Entwicklungsmeilensteine bisher (im Zeitformat zur Klarheit) zusammenzufassen:

  • Nov 2024: MCP 1.0 veröffentlicht (Anthropic).
  • Dez 2024 – Jan 2025: Community baut erste Welle von MCP-Servern; Anthropic veröffentlicht Claude Desktop mit MCP-Unterstützung; kleine Pilotprojekte von Block, Apollo usw.
  • Feb 2025: Über 1000 Community-MCP-Konnektoren erreicht; Anthropic veranstaltet Workshops (z. B. auf einem KI-Gipfel, zur Förderung der Bildung).
  • Mär 2025: OpenAI kündigt Unterstützung an (ChatGPT Agents SDK).
  • Apr 2025: Google DeepMind kündigt Unterstützung an (Gemini wird MCP unterstützen); Microsoft veröffentlicht Vorschau des C#-SDKs.
  • Mai 2025: Lenkungsausschuss erweitert (Microsoft/GitHub); Build 2025 Demos (Windows MCP-Integration).
  • Jun 2025: Chainstack startet Web3 MCP-Server (EVM/Solana) zur öffentlichen Nutzung.
  • Jul 2025: MCP-Spezifikationsversionen aktualisiert (Streaming, Authentifizierungsverbesserungen); offizielle Roadmap auf der MCP-Website veröffentlicht.
  • Sep 2025: MCP Registry (Vorschau) gestartet; wahrscheinlich erreicht MCP die allgemeine Verfügbarkeit in weiteren Produkten (Claude for Work usw.).
  • Ende 2025 (prognostiziert): Registry v1.0 live; Leitfäden für Best Practices im Bereich Sicherheit veröffentlicht; möglicherweise erste Experimente mit dezentraler Discovery (Namda-Ergebnisse).

Die Vision für die Zukunft ist, dass MCP so allgegenwärtig und unsichtbar wird wie HTTP oder JSON – eine gemeinsame Schicht, die viele Apps im Hintergrund verwenden. Für Web3 deutet die Roadmap auf eine tiefere Fusion hin: KI-Agenten werden Web3 (Blockchains) nicht nur als Informationsquellen oder -senken nutzen, sondern die Web3-Infrastruktur selbst könnte beginnen, KI-Agenten (über MCP) als Teil ihres Betriebs zu integrieren (zum Beispiel könnte eine DAO eine MCP-kompatible KI betreiben, um bestimmte Aufgaben zu verwalten, oder Orakel könnten Daten über MCP-Endpunkte veröffentlichen). Die Betonung der Roadmap auf Dinge wie Überprüfbarkeit und Authentifizierung deutet darauf hin, dass in Zukunft vertrauensminimierte MCP-Interaktionen Realität werden könnten – stellen Sie sich KI-Ausgaben vor, die mit kryptografischen Beweisen versehen sind, oder ein On-Chain-Protokoll darüber, welche Tools eine KI zu Prüfzwecken aufgerufen hat. Diese Möglichkeiten verwischen die Grenze zwischen KI- und Blockchain-Netzwerken, und MCP steht im Mittelpunkt dieser Konvergenz.

Zusammenfassend ist die Entwicklung von MCP hochdynamisch. Es hat wichtige frühe Meilensteine erreicht (breite Akzeptanz und Standardisierung innerhalb eines Jahres nach dem Start) und entwickelt sich mit einer klaren Roadmap, die Sicherheit, Skalierbarkeit und Entdeckung betont, weiterhin rasant. Die erreichten und geplanten Meilensteine stellen sicher, dass MCP robust bleibt, während es skaliert: Herausforderungen wie langlaufende Aufgaben, sichere Berechtigungen und die schiere Auffindbarkeit Tausender von Tools werden angegangen. Diese Vorwärtsdynamik zeigt, dass MCP keine statische Spezifikation, sondern ein wachsender Standard ist, der wahrscheinlich weitere Web3-spezifische Funktionen (dezentrale Governance von Servern, Anreizabstimmung) integrieren wird, sobald diese Bedürfnisse entstehen. Die Community ist bereit, MCP an neue Anwendungsfälle (multimodale KI, IoT usw.) anzupassen, während sie das Kernversprechen im Auge behält: KI vernetzter, kontextbewusster und benutzerfreundlicher in der Web3-Ära zu machen.

7. Vergleich mit ähnlichen Web3-Projekten oder Protokollen

Die einzigartige Mischung aus KI und Konnektivität von MCP bedeutet, dass es nicht viele direkte, eins-zu-eins-Vergleiche gibt, aber es ist aufschlussreich, es mit anderen Projekten an der Schnittstelle von Web3 und KI oder mit analogen Zielen zu vergleichen:

  • SingularityNET (AGI/X)Dezentraler KI-Marktplatz: SingularityNET, 2017 von Dr. Ben Goertzel und anderen ins Leben gerufen, ist ein Blockchain-basierter Marktplatz für KI-Dienste. Es ermöglicht Entwicklern, KI-Algorithmen als Dienste zu monetarisieren und Benutzern, diese Dienste zu konsumieren, alles erleichtert durch einen Token (AGIX), der für Zahlungen und Governance verwendet wird. Im Wesentlichen versucht SingularityNET, das Angebot von KI-Modellen zu dezentralisieren, indem es sie in einem Netzwerk hostet, in dem jeder einen KI-Dienst gegen Token aufrufen kann. Dies unterscheidet sich grundlegend von MCP. MCP hostet oder monetarisiert keine KI-Modelle; stattdessen bietet es eine Standardschnittstelle für KI (wo immer sie läuft), um auf Daten/Tools zuzugreifen. Man könnte sich vorstellen, MCP zu verwenden, um eine KI mit Diensten zu verbinden, die auf SingularityNET gelistet sind, aber SingularityNET selbst konzentriert sich auf die ökonomische Schicht (wer einen KI-Dienst bereitstellt und wie er bezahlt wird). Ein weiterer wichtiger Unterschied: Governance – SingularityNET hat eine On-Chain-Governance (über SingularityNET Enhancement Proposals (SNEPs) und AGIX-Token-Abstimmung), um seine Plattform weiterzuentwickeln. Die Governance von MCP ist im Gegensatz dazu Off-Chain und kollaborativ ohne Token. Zusammenfassend streben SingularityNET und MCP beide ein offeneres KI-Ökosystem an, aber SingularityNET handelt von einem tokenisierten Netzwerk von KI-Algorithmen, während MCP von einem Protokollstandard für die KI-Tool-Interoperabilität handelt. Sie könnten sich ergänzen: zum Beispiel könnte eine KI auf SingularityNET MCP verwenden, um externe Daten abzurufen, die sie benötigt. Aber SingularityNET versucht nicht, die Tool-Nutzung zu standardisieren; es verwendet Blockchain, um KI-Dienste zu koordinieren, während MCP Softwarestandards verwendet, um KI mit jedem Dienst arbeiten zu lassen.
  • Fetch.ai (FET)Agentenbasierte dezentrale Plattform: Fetch.ai ist ein weiteres Projekt, das KI und Blockchain miteinander verbindet. Es hat seine eigene Proof-of-Stake-Blockchain und ein Framework für den Aufbau autonomer Agenten gestartet, die Aufgaben ausführen und in einem dezentralen Netzwerk interagieren. In Fetchs Vision können Millionen von „Software-Agenten“ (die Menschen, Geräte oder Organisationen repräsentieren) verhandeln und Werte austauschen, wobei FET-Token für Transaktionen verwendet werden. Fetch.ai bietet ein Agenten-Framework (uAgents) und eine Infrastruktur für die Entdeckung und Kommunikation zwischen Agenten auf seinem Ledger. Zum Beispiel könnte ein Fetch-Agent helfen, den Verkehr in einer Stadt zu optimieren, indem er mit anderen Agenten für Parken und Transport interagiert, oder einen Lieferketten-Workflow autonom verwalten. Wie vergleicht sich das mit MCP? Beide befassen sich mit dem Konzept von Agenten, aber die Agenten von Fetch.ai sind stark an seine Blockchain und Token-Ökonomie gebunden – sie leben im Fetch-Netzwerk und verwenden On-Chain-Logik. MCP-Agenten (KI-Hosts) sind modellgesteuert (wie ein LLM) und nicht an ein einziges Netzwerk gebunden; MCP ist zufrieden damit, über das Internet oder innerhalb einer Cloud-Einrichtung zu arbeiten, ohne eine Blockchain zu benötigen. Fetch.ai versucht, eine neue dezentrale KI-Wirtschaft von Grund auf aufzubauen (mit ihrem eigenen Ledger für Vertrauen und Transaktionen), während MCP schichtagnostisch ist – es nutzt bestehende Netzwerke (könnte über HTTPS oder bei Bedarf sogar auf einer Blockchain verwendet werden), um KI-Interaktionen zu ermöglichen. Man könnte sagen, Fetch handelt eher von autonomen Wirtschaftsagenten und MCP von intelligenten Tool-nutzenden Agenten. Interessanterweise könnten sich diese überschneiden: Ein autonomer Agent auf Fetch.ai könnte MCP verwenden, um mit Off-Chain-Ressourcen oder anderen Blockchains zu interagieren. Umgekehrt könnte man MCP verwenden, um Multi-Agenten-Systeme zu bauen, die verschiedene Blockchains (nicht nur eine) nutzen. In der Praxis hat MCP eine schnellere Akzeptanz erfahren, weil es kein eigenes Netzwerk benötigte – es funktioniert sofort mit Ethereum, Solana, Web2-APIs usw. Der Ansatz von Fetch.ai ist aufwendiger und schafft ein ganzes Ökosystem, dem die Teilnehmer beitreten (und Token erwerben) müssen, um es zu nutzen. Zusammenfassend: Fetch.ai vs. MCP: Fetch ist eine Plattform mit eigenem Token/Blockchain für KI-Agenten, die sich auf Interoperabilität und wirtschaftlichen Austausch zwischen Agenten konzentriert, während MCP ein Protokoll ist, das KI-Agenten (in jeder Umgebung) verwenden können, um sich an Tools und Daten anzuschliessen. Ihre Ziele überschneiden sich bei der Ermöglichung von KI-gesteuerter Automatisierung, aber sie behandeln verschiedene Schichten des Stacks und haben sehr unterschiedliche architektonische Philosophien (geschlossenes Ökosystem vs. offener Standard).
  • Chainlink und dezentrale OrakelBlockchains mit Off-Chain-Daten verbinden: Chainlink ist kein KI-Projekt, aber es ist als Web3-Protokoll, das ein komplementäres Problem löst, hochrelevant: wie Blockchains mit externen Daten und Berechnungen verbunden werden können. Chainlink ist ein dezentrales Netzwerk von Knoten (Orakeln), die Off-Chain-Daten abrufen, verifizieren und auf vertrauensminimierte Weise an Smart Contracts liefern. Zum Beispiel stellen Chainlink-Orakel Preis-Feeds für DeFi-Protokolle bereit oder rufen externe APIs im Auftrag von Smart Contracts über Chainlink Functions auf. Im Vergleich dazu verbindet MCP KI-Modelle mit externen Daten/Tools (von denen einige Blockchains sein könnten). Man könnte sagen, Chainlink bringt Daten in Blockchains, während MCP Daten in KI bringt. Es gibt eine konzeptionelle Parallele: Beide stellen eine Brücke zwischen ansonsten isolierten Systemen her. Chainlink konzentriert sich auf Zuverlässigkeit, Dezentralisierung und Sicherheit von On-Chain-Daten (Lösung des „Orakelproblems“ des Single Point of Failure). MCP konzentriert sich auf Flexibilität und Standardisierung des Datenzugriffs für KI (Lösung des „Integrationsproblems“ für KI-Agenten). Sie operieren in verschiedenen Domänen (Smart Contracts vs. KI-Assistenten), aber man könnte MCP-Server mit Orakeln vergleichen: Ein MCP-Server für Preisdaten könnte dieselben APIs aufrufen wie ein Chainlink-Knoten. Der Unterschied ist der Konsument – im Fall von MCP ist der Konsument eine KI oder ein benutzerorientierter Assistent, kein deterministischer Smart Contract. Auch bietet MCP nicht von Natur aus die Vertrauensgarantien, die Chainlink bietet (MCP-Server können zentralisiert oder von der Community betrieben werden, wobei das Vertrauen auf Anwendungsebene verwaltet wird). Wie jedoch bereits erwähnt, könnten Ideen zur Dezentralisierung von MCP-Netzwerken von Orakelnetzwerken übernommen werden – z. B. könnten mehrere MCP-Server abgefragt und die Ergebnisse gegengeprüft werden, um sicherzustellen, dass einer KI keine fehlerhaften Daten zugeführt werden, ähnlich wie mehrere Chainlink-Knoten einen Preis aggregieren. Kurz gesagt, Chainlink vs. MCP: Chainlink ist Web3-Middleware für Blockchains zum Konsum externer Daten, MCP ist KI-Middleware für Modelle zum Konsum externer Daten (die auch Blockchain-Daten umfassen könnten). Sie adressieren analoge Bedürfnisse in verschiedenen Bereichen und könnten sich sogar ergänzen: Eine KI, die MCP verwendet, könnte einen von Chainlink bereitgestellten Daten-Feed als zuverlässige Ressource abrufen, und umgekehrt könnte eine KI als Analysequelle dienen, die ein Chainlink-Orakel On-Chain bringt (obwohl dieses letztere Szenario Fragen der Überprüfbarkeit aufwerfen würde).
  • ChatGPT-Plugins / OpenAI-Funktionen vs. MCPAnsätze zur KI-Tool-Integration: Obwohl es sich nicht um Web3-Projekte handelt, ist ein kurzer Vergleich angebracht, da ChatGPT-Plugins und die Funktionsaufruffunktion von OpenAI ebenfalls KI mit externen Tools verbinden. ChatGPT-Plugins verwenden eine von einem Dienst bereitgestellte OpenAPI-Spezifikation, und das Modell kann dann diese APIs gemäss der Spezifikation aufrufen. Die Einschränkungen bestehen darin, dass es sich um ein geschlossenes Ökosystem handelt (von OpenAI genehmigte Plugins, die auf OpenAI-Servern laufen) und jedes Plugin eine isolierte Integration darstellt. OpenAIs neueres „Agents“-SDK ist konzeptionell näher an MCP, da es Entwicklern ermöglicht, Tools/Funktionen zu definieren, die eine KI verwenden kann, aber anfänglich war es spezifisch für OpenAIs Ökosystem. LangChain bot ebenfalls ein Framework, um LLMs Tools im Code zur Verfügung zu stellen. MCP unterscheidet sich dadurch, dass es einen offenen, modellagnostischen Standard dafür bietet. Wie eine Analyse es formulierte, schuf LangChain einen entwicklerorientierten Standard (eine Python-Schnittstelle) für Tools, während MCP einen modellorientierten Standard schafft – ein KI-Agent kann jedes MCP-definierte Tool zur Laufzeit ohne benutzerdefinierten Code entdecken und verwenden. In der Praxis wuchs das MCP-Ökosystem von Servern innerhalb weniger Monate grösser und vielfältiger als der ChatGPT-Plugin-Store. Und anstatt dass jedes Modell sein eigenes Plugin-Format hat (OpenAI hatte seines, andere hatten andere), konvergieren viele um MCP. OpenAI selbst signalisierte Unterstützung für MCP und passte im Wesentlichen seinen Funktionsansatz an den breiteren Standard an. Beim Vergleich von OpenAI-Plugins mit MCP: Plugins sind ein kuratierter, zentralisierter Ansatz, während MCP ein dezentraler, gemeinschaftsgetriebener Ansatz ist. Im Web3-Denken ist MCP „Open Source und Permissionless“, während proprietäre Plugin-Ökosysteme geschlossener sind. Dies macht MCP analog zum Ethos von Web3, auch wenn es keine Blockchain ist – es ermöglicht Interoperabilität und Benutzerkontrolle (man könnte seinen eigenen MCP-Server für seine Daten betreiben, anstatt alles einem KI-Anbieter zu überlassen). Dieser Vergleich zeigt, warum viele MCP ein grösseres langfristiges Potenzial zuschreiben: Es ist nicht an einen Anbieter oder ein Modell gebunden.
  • Projekt Namda und dezentrale Agenten-Frameworks: Namda verdient eine separate Anmerkung, da es MCP explizit mit Web3-Konzepten kombiniert. Wie bereits beschrieben, ist Namda (Networked Agent Modular Distributed Architecture) eine MIT/IBM-Initiative, die 2024 gestartet wurde, um ein skalierbares, verteiltes Netzwerk von KI-Agenten unter Verwendung von MCP als Kommunikationsschicht aufzubauen. Es behandelt MCP als Messaging-Backbone (da MCP Standard-JSON-RPC-ähnliche Nachrichten verwendet, passte es gut für die Inter-Agenten-Kommunikation) und fügt dann Schichten für dynamische Entdeckung, Fehlertoleranz und überprüfbare Identitäten unter Verwendung von Blockchain-inspirierten Techniken hinzu. Namdas Agenten können überall sein (Cloud, Edge-Geräte usw.), aber ein dezentrales Register (etwas wie ein DHT oder eine Blockchain) verfolgt sie und ihre Fähigkeiten auf manipulationssichere Weise. Sie erforschen sogar, Agenten Token zu geben, um Zusammenarbeit oder Ressourcenteilung zu incentivieren. Im Wesentlichen ist Namda ein Experiment, wie eine „Web3-Version von MCP“ aussehen könnte. Es ist noch kein weit verbreitetes Projekt, aber es ist eines der engsten „ähnlichen Protokolle“ im Geiste. Wenn wir Namda vs. MCP betrachten: Namda verwendet MCP (es handelt sich also nicht um konkurrierende Standards), erweitert es aber um ein Protokoll für die Vernetzung und Koordination mehrerer Agenten auf vertrauensminimierte Weise. Man könnte Namda mit Frameworks wie Autonolas oder Multi-Agent Systems (MAS) vergleichen, die die Krypto-Community gesehen hat, aber diesen fehlte oft eine leistungsstarke KI-Komponente oder ein gemeinsames Protokoll. Namda + MCP zusammen zeigen, wie ein dezentrales Agentennetzwerk funktionieren könnte, wobei Blockchain Identität, Reputation und möglicherweise Token-Anreize bereitstellt und MCP die Agentenkommunikation und Tool-Nutzung.

Zusammenfassend lässt sich sagen, dass MCP sich von den meisten früheren Web3-Projekten abhebt: Es begann überhaupt nicht als Krypto-Projekt, überschneidet sich aber schnell mit Web3, weil es komplementäre Probleme löst. Projekte wie SingularityNET und Fetch.ai zielten darauf ab, KI-Berechnungen oder -Dienste mithilfe von Blockchain zu dezentralisieren; MCP standardisiert stattdessen die KI-Integration mit Diensten, was die Dezentralisierung durch Vermeidung von Plattform-Lock-in verbessern kann. Orakelnetzwerke wie Chainlink lösten die Datenlieferung an die Blockchain; MCP löst die Datenlieferung an die KI (einschliesslich Blockchain-Daten). Wenn die Kernideale von Web3 Dezentralisierung, Interoperabilität und Benutzerermächtigung sind, greift MCP den Bereich der Interoperabilität im KI-Bereich an. Es beeinflusst sogar diese älteren Projekte – zum Beispiel hindert nichts SingularityNET daran, seine KI-Dienste über MCP-Server verfügbar zu machen, oder Fetch-Agenten daran, MCP zu verwenden, um mit externen Systemen zu kommunizieren. Wir könnten durchaus eine Konvergenz erleben, bei der tokengetriebene KI-Netzwerke MCP als ihre Lingua Franca verwenden, wodurch die Anreizstruktur von Web3 mit der Flexibilität von MCP verbunden wird.

Schliesslich, wenn wir die Marktwahrnehmung betrachten: MCP wird oft als das angepriesen, was Web3 für das Internet tun wollte – Silos aufbrechen und Benutzer befähigen. Dies hat dazu geführt, dass MCP informell als „Web3 für KI“ bezeichnet wird (auch wenn keine Blockchain beteiligt ist). Es ist jedoch wichtig zu erkennen, dass MCP ein Protokollstandard ist, während die meisten Web3-Projekte Full-Stack-Plattformen mit ökonomischen Schichten sind. In Vergleichen erweist sich MCP in der Regel als eine leichtere, universellere Lösung, während Blockchain-Projekte schwerere, spezialisierte Lösungen sind. Je nach Anwendungsfall können sie sich ergänzen, anstatt strikt zu konkurrieren. Wenn das Ökosystem reift, könnten wir sehen, dass MCP in viele Web3-Projekte als Modul integriert wird (ähnlich wie HTTP oder JSON allgegenwärtig sind), anstatt als Konkurrenzprojekt.

8. Öffentliche Wahrnehmung, Marktakzeptanz und Medienberichterstattung

Die öffentliche Stimmung gegenüber MCP war sowohl in der KI- als auch in der Web3-Community überwiegend positiv, oft grenzend an Begeisterung. Viele sehen es als einen Game-Changer, der leise ankam, aber dann die Branche im Sturm eroberte. Lassen Sie uns die Wahrnehmung, Akzeptanz und bemerkenswerte Mediennarrative aufschlüsseln:

Marktakzeptanz und Adoptionsmetriken: Mitte 2025 erreichte MCP ein Mass an Akzeptanz, das für ein neues Protokoll selten ist. Es wird von praktisch allen grossen KI-Modellanbietern (Anthropic, OpenAI, Google, Meta) unterstützt und von grossen Technologieinfrastrukturen (Microsoft, GitHub, AWS usw.) getragen, wie bereits detailliert beschrieben. Dies allein signalisiert dem Markt, dass MCP wahrscheinlich Bestand haben wird (ähnlich wie die breite Unterstützung TCP/IP oder HTTP in den frühen Internettagen vorantrieb). Auf der Web3-Seite ist die Akzeptanz im Entwicklerverhalten offensichtlich: Hackathons begannen, MCP-Projekte zu präsentieren, und viele Blockchain-Entwicklertools erwähnen nun die MCP-Integration als Verkaufsargument. Die Statistik von „über 1000 Konnektoren in wenigen Monaten“ und Mike Kriegers Zitat von „Tausenden von Integrationen“ werden oft zitiert, um zu veranschaulichen, wie schnell MCP Anklang fand. Dies deutet auf starke Netzwerkeffekte hin – je mehr Tools über MCP verfügbar sind, desto nützlicher ist es, was zu weiterer Akzeptanz führt (eine positive Rückkopplungsschleife). VCs und Analysten haben festgestellt, dass MCP in weniger als einem Jahr das erreicht hat, was frühere Versuche zur „KI-Interoperabilität“ über mehrere Jahre hinweg nicht geschafft haben, hauptsächlich aufgrund des Timings (auf der Welle des Interesses an KI-Agenten reitend) und der Open-Source-Natur. In den Web3-Medien wird die Akzeptanz manchmal anhand der Entwickler-Mindshare und der Integration in Projekte gemessen, und MCP erzielt hier nun hohe Werte.

Öffentliche Wahrnehmung in KI- und Web3-Communities: Anfangs blieb MCP bei seiner ersten Ankündigung (Ende 2024) unter dem Radar. Doch Anfang 2025, als Erfolgsgeschichten auftauchten, verlagerte sich die Wahrnehmung zu Begeisterung. KI-Praktiker sahen MCP als das „fehlende Puzzleteil“, um KI-Agenten über Spielzeugbeispiele hinaus wirklich nützlich zu machen. Web3-Entwickler hingegen sahen es als Brücke, um KI endlich in DApps zu integrieren, ohne die Dezentralisierung aufzugeben – eine KI kann beispielsweise On-Chain-Daten verwenden, ohne ein zentralisiertes Orakel zu benötigen. Vordenker haben Lobeshymnen gesungen: zum Beispiel schrieb Jesus Rodriguez (ein prominenter Web3-KI-Autor) in CoinDesk, dass MCP „eines der transformativsten Protokolle für die KI-Ära und eine grossartige Ergänzung für Web3-Architekturen“ sein könnte. Rares Crisan argumentierte in einem Notable Capital-Blog, dass MCP das Versprechen von Web3 einlösen könnte, wo Blockchain allein Schwierigkeiten hatte, indem es das Internet benutzerzentrierter und natürlicher in der Interaktion macht. Diese Narrative stellen MCP als revolutionär und doch praktisch dar – nicht nur als Hype.

Fairerweise ist nicht jeder Kommentar unkritisch. Einige KI-Entwickler in Foren wie Reddit haben darauf hingewiesen, dass MCP „nicht alles kann“ – es ist ein Kommunikationsprotokoll, kein sofort einsatzbereiter Agent oder eine Reasoning-Engine. Zum Beispiel argumentierte eine Reddit-Diskussion mit dem Titel „MCP is a Dead-End Trap“, dass MCP allein die Agentenkognition nicht verwaltet oder Qualität garantiert; es erfordert immer noch ein gutes Agentendesign und Sicherheitskontrollen. Diese Ansicht deutet darauf hin, dass MCP als Allheilmittel überbewertet werden könnte. Diese Kritikpunkte zielen jedoch eher darauf ab, Erwartungen zu dämpfen, als die Nützlichkeit von MCP abzulehnen. Sie betonen, dass MCP die Tool-Konnektivität löst, aber man immer noch eine robuste Agentenlogik aufbauen muss (d. h. MCP schafft nicht auf magische Weise einen intelligenten Agenten, es stattet ihn mit Tools aus). Der Konsens ist jedoch, dass MCP ein grosser Fortschritt ist, selbst unter vorsichtigen Stimmen. Der Community-Blog von Hugging Face stellte fest, dass MCP zwar keine Allzwecklösung ist, aber ein wichtiger Wegbereiter für integrierte, kontextbewusste KI ist, und Entwickler sich aus diesem Grund darum versammeln.

Medienberichterstattung: MCP hat sowohl in den Mainstream-Tech-Medien als auch in Nischen-Blockchain-Medien erhebliche Berichterstattung erhalten:

  • TechCrunch hat mehrere Geschichten veröffentlicht. Sie berichteten über das ursprüngliche Konzept („Anthropic schlägt eine neue Methode vor, Daten mit KI-Chatbots zu verbinden“) um den Start im Jahr 2024. Im Jahr 2025 hob TechCrunch jeden grossen Adoptionsmoment hervor: die Unterstützung von OpenAI, die Annahme durch Google, die Beteiligung von Microsoft/GitHub. Diese Artikel betonen oft die Brancheneinheit um MCP. Zum Beispiel zitierte TechCrunch Sam Altmans Unterstützung und bemerkte den schnellen Wechsel von konkurrierenden Standards zu MCP. Dabei wurde MCP als der aufstrebende Standard dargestellt, ähnlich wie niemand in den 90er Jahren von den Internetprotokollen ausgeschlossen werden wollte. Eine solche Berichterstattung in einem prominenten Medium signalisierte der breiteren Tech-Welt, dass MCP wichtig und real ist, nicht nur ein Rand-Open-Source-Projekt.
  • CoinDesk und andere Krypto-Publikationen griffen den Web3-Aspekt auf. Der Meinungsartikel von Rodriguez in CoinDesk (Juli 2025) wird oft zitiert; er zeichnete ein futuristisches Bild, in dem jede Blockchain ein MCP-Server sein könnte und neue MCP-Netzwerke auf Blockchains laufen könnten. Er verband MCP mit Konzepten wie dezentraler Identität, Authentifizierung und Überprüfbarkeit – sprach die Sprache des Blockchain-Publikums und deutete an, dass MCP das Protokoll sein könnte, das KI wirklich mit dezentralen Frameworks verschmilzt. Cointelegraph, Bankless und andere haben MCP auch im Kontext von „KI-Agenten & DeFi“ und ähnlichen Themen diskutiert, meist optimistisch über die Möglichkeiten (z. B. hatte Bankless einen Artikel über die Verwendung von MCP, um einer KI die Verwaltung von On-Chain-Trades zu ermöglichen, und enthielt eine Anleitung für ihren eigenen MCP-Server).
  • Bemerkenswerte VC-Blogs / Analystenberichte: Der Blogbeitrag von Notable Capital (Juli 2025) ist ein Beispiel für eine Venture-Analyse, die Parallelen zwischen MCP und der Entwicklung von Web-Protokollen zieht. Er argumentiert im Wesentlichen, dass MCP für Web3 das tun könnte, was HTTP für Web1 getan hat – eine neue Schnittstellenschicht (natürliche Sprachschnittstelle) bereitstellen, die die zugrunde liegende Infrastruktur nicht ersetzt, sondern sie nutzbar macht. Diese Art von Narrativ ist überzeugend und wurde in Panels und Podcasts wiederholt. Es positioniert MCP nicht als Konkurrenz zur Blockchain, sondern als die nächste Abstraktionsschicht, die es normalen Benutzern (über KI) endlich ermöglicht, Blockchain- und Webdienste einfach zu nutzen.
  • Entwickler-Community-Buzz: Ausserhalb formeller Artikel lässt sich der Aufstieg von MCP an seiner Präsenz im Entwicklerdiskurs messen – Konferenzvorträge, YouTube-Kanäle, Newsletter. Zum Beispiel gab es beliebte Blogbeiträge wie „MCP: Das fehlende Glied für Agenten-KI?“ auf Websites wie Runtime.news und Newsletter (z. B. einen des KI-Forschers Nathan Lambert), die praktische Experimente mit MCP und dessen Vergleich mit anderen Tool-Nutzungs-Frameworks diskutierten. Der allgemeine Ton ist Neugier und Begeisterung: Entwickler teilen Demos, wie sie KI mit ihrer Hausautomation oder Krypto-Wallet mit nur wenigen Zeilen Code über MCP-Server verbinden, etwas, das vor nicht allzu langer Zeit nach Science-Fiction klang. Diese Basisbegeisterung ist wichtig, weil sie zeigt, dass MCP über reine Unternehmensunterstützung hinaus eine grosse Bedeutung hat.
  • Unternehmensperspektive: Medien und Analysten, die sich auf Unternehmens-KI konzentrieren, bemerken MCP ebenfalls als wichtige Entwicklung. Zum Beispiel berichtete The New Stack, wie Anthropic die Unterstützung für Remote-MCP-Server in Claude für den Unternehmenseinsatz hinzufügte. Der Ansatz hier ist, dass Unternehmen MCP nutzen können, um ihre internen Wissensdatenbanken und Systeme sicher mit KI zu verbinden. Dies ist auch für Web3 wichtig, da viele Blockchain-Unternehmen selbst Unternehmen sind und MCP intern nutzen können (zum Beispiel könnte eine Krypto-Börse MCP verwenden, um einer KI die Analyse interner Transaktionsprotokolle zur Betrugserkennung zu ermöglichen).

Bemerkenswerte Zitate und Reaktionen: Einige sind hervorzuheben, da sie die öffentliche Wahrnehmung zusammenfassen:

  • „Ähnlich wie HTTP die Webkommunikation revolutionierte, bietet MCP ein universelles Framework... das fragmentierte Integrationen durch ein einziges Protokoll ersetzt.“ – CoinDesk. Dieser Vergleich mit HTTP ist aussagekräftig; er stellt MCP als Innovation auf Infrastrukturebene dar.
  • „MCP ist [zu einem] florierenden offenen Standard mit Tausenden von Integrationen und wachsend geworden. LLMs sind am nützlichsten, wenn sie sich mit den Daten verbinden, die Sie bereits haben...“ – Mike Krieger (Anthropic). Dies ist eine offizielle Bestätigung sowohl der Akzeptanz als auch des Kernnutzenversprechens, das in sozialen Medien weit verbreitet wurde.
  • „Das Versprechen von Web3... kann endlich... durch natürliche Sprache und KI-Agenten verwirklicht werden. ...MCP ist das Nächste, was wir einem echten Web3 für die Massen gesehen haben.“ – Notable Capital. Diese kühne Aussage findet Anklang bei denen, die von den langsamen UX-Verbesserungen im Krypto-Bereich frustriert sind; sie deutet darauf hin, dass KI den Code der Mainstream-Akzeptanz knacken könnte, indem sie die Komplexität abstrahiert.

Herausforderungen und Skepsis: Obwohl die Begeisterung gross ist, haben die Medien auch Herausforderungen diskutiert:

  • Sicherheitsbedenken: Publikationen wie The New Stack oder Sicherheitsblogs haben darauf hingewiesen, dass das Zulassen der Ausführung von Tools durch KI gefährlich sein kann, wenn es nicht in einer Sandbox erfolgt. Was, wenn ein bösartiger MCP-Server versuchen würde, eine KI zu einer schädlichen Aktion zu veranlassen? Der LimeChain-Blog warnt explizit vor „erheblichen Sicherheitsrisiken“ bei von der Community entwickelten MCP-Servern (z. B. muss ein Server, der private Schlüssel verarbeitet, extrem sicher sein). Diese Bedenken wurden in Diskussionen wiederholt: Im Wesentlichen erweitert MCP die Fähigkeiten von KI, aber mit der Macht kommt das Risiko. Die Reaktion der Community (Leitfäden, Authentifizierungsmechanismen) wurde ebenfalls behandelt und versichert im Allgemeinen, dass Abhilfemassnahmen entwickelt werden. Dennoch würde jeder hochkarätige Missbrauch von MCP (z. B. eine unbeabsichtigte Krypto-Übertragung durch eine KI) die Wahrnehmung beeinflussen, daher sind die Medien in dieser Hinsicht wachsam.
  • Leistung und Kosten: Einige Analysten stellen fest, dass die Verwendung von KI-Agenten mit Tools langsamer oder kostspieliger sein könnte als der direkte Aufruf einer API (da die KI möglicherweise mehrere Hin- und Her-Schritte benötigt, um das zu bekommen, was sie braucht). In Hochfrequenzhandels- oder On-Chain-Ausführungskontexten könnte diese Latenz problematisch sein. Vorerst werden diese als technische Hürden angesehen, die optimiert werden müssen (durch besseres Agentendesign oder Streaming), und nicht als Deal-Breaker.
  • Hype-Management: Wie bei jeder Trendtechnologie gibt es ein gewisses Mass an Hype. Einige Stimmen warnen davor, MCP zur Lösung für alles zu erklären. Zum Beispiel fragt der Hugging Face-Artikel „Ist MCP ein Allheilmittel?“ und antwortet nein – Entwickler müssen immer noch das Kontextmanagement handhaben, und MCP funktioniert am besten in Kombination mit guten Prompting- und Speicherstrategien. Solche ausgewogenen Ansichten sind gesund im Diskurs.

Gesamte Medienstimmung: Das sich abzeichnende Narrativ ist weitgehend hoffnungsvoll und zukunftsorientiert:

  • MCP wird als praktisches Tool angesehen, das jetzt echte Verbesserungen liefert (also keine Vaporware), was die Medien durch die Nennung funktionierender Beispiele unterstreichen: Claude liest Dateien, Copilot verwendet MCP in VSCode, eine KI schliesst eine Solana-Transaktion in einer Demo ab usw.
  • Es wird auch als strategischer Dreh- und Angelpunkt für die Zukunft von KI und Web3 dargestellt. Die Medien kommen oft zu dem Schluss, dass MCP oder Ähnliches für „dezentrale KI“ oder „Web4“ oder welchen Begriff man auch immer für das Web der nächsten Generation verwendet, unerlässlich sein wird. Es besteht das Gefühl, dass MCP eine Tür geöffnet hat und nun Innovationen hindurchfliessen – ob es sich um Namdas dezentrale Agenten oder Unternehmen handelt, die Altsysteme mit KI verbinden, viele zukünftige Geschichten gehen auf die Einführung von MCP zurück.

Auf dem Markt könnte man die Akzeptanz an der Gründung von Startups und der Finanzierung im MCP-Ökosystem messen. Tatsächlich gibt es Gerüchte/Berichte über Startups, die sich auf „MCP-Marktplätze“ oder verwaltete MCP-Plattformen konzentrieren und Finanzierungen erhalten (Notable Capital, das darüber schreibt, deutet auf VC-Interesse hin). Wir können erwarten, dass die Medien diese tangential behandeln werden – z. B. „Startup X verwendet MCP, damit Ihre KI Ihr Krypto-Portfolio verwaltet – sammelt Y Millionen Dollar ein“.

Fazit zur Wahrnehmung: Ende 2025 geniesst MCP den Ruf einer bahnbrechenden, ermöglichenden Technologie. Es wird von einflussreichen Persönlichkeiten sowohl in der KI- als auch in der Krypto-Welt stark befürwortet. Die öffentliche Erzählung hat sich von „hier ist ein nettes Tool“ zu „dies könnte grundlegend für das nächste Web sein“ entwickelt. Gleichzeitig bestätigt die praktische Berichterstattung, dass es funktioniert und angenommen wird, was Glaubwürdigkeit verleiht. Vorausgesetzt, die Community geht weiterhin Herausforderungen an (Sicherheit, Governance in grossem Massstab) und es treten keine grösseren Katastrophen auf, wird das öffentliche Image von MCP wahrscheinlich positiv bleiben oder sogar ikonisch werden als „das Protokoll, das KI und Web3 dazu brachte, gut zusammenzuspielen“.

Die Medien werden wahrscheinlich ein genaues Auge auf Folgendes haben:

  • Erfolgsgeschichten (z. B. wenn eine grosse DAO einen KI-Schatzmeister über MCP implementiert oder eine Regierung MCP für offene Daten-KI-Systeme verwendet).
  • Jegliche Sicherheitsvorfälle (zur Risikobewertung).
  • Die Entwicklung von MCP-Netzwerken und ob eine Token- oder Blockchain-Komponente offiziell ins Spiel kommt (was eine grosse Nachricht wäre, die KI und Krypto noch enger miteinander verbindet).

Im Moment lässt sich die Berichterstattung jedoch mit einer Zeile von CoinDesk zusammenfassen: „Die Kombination von Web3 und MCP könnte eine neue Grundlage für dezentrale KI sein.“ – ein Gefühl, das sowohl das Versprechen als auch die Begeisterung um MCP in der Öffentlichkeit einfängt.

Referenzen:

  • Anthropic News: "Introducing the Model Context Protocol," Nov 2024
  • LimeChain Blog: "What is MCP and How Does It Apply to Blockchains?" May 2025
  • Chainstack Blog: "MCP for Web3 Builders: Solana, EVM and Documentation," June 2025
  • CoinDesk Op-Ed: "The Protocol of Agents: Web3’s MCP Potential," Jul 2025
  • Notable Capital: "Why MCP Represents the Real Web3 Opportunity," Jul 2025
  • TechCrunch: "OpenAI adopts Anthropic’s standard…", Mar 26, 2025
  • TechCrunch: "Google to embrace Anthropic’s standard…", Apr 9, 2025
  • TechCrunch: "GitHub, Microsoft embrace… (MCP steering committee)", May 19, 2025
  • Microsoft Dev Blog: "Official C# SDK for MCP," Apr 2025
  • Hugging Face Blog: "#14: What Is MCP, and Why Is Everyone Talking About It?" Mar 2025
  • Messari Research: "Fetch.ai Profile," 2023
  • Medium (Nu FinTimes): "Unveiling SingularityNET," Mar 2024

Googles Agent Payments Protocol (AP2)

· 35 Minuten Lesezeit
Dora Noda
Software Engineer

Googles Agent Payments Protocol (AP2) ist ein neu angekündigter offener Standard, der sichere, vertrauenswürdige Transaktionen ermöglichen soll, die von KI-Agenten im Auftrag von Nutzern initiiert werden. AP2 wurde in Zusammenarbeit mit über 60 Zahlungs- und Technologieunternehmen (einschließlich großer Zahlungsnetzwerke, Banken, Fintechs und Web3-Unternehmen) entwickelt und etabliert eine gemeinsame Sprache für „agentische“ Zahlungen – d. h. Käufe und Finanztransaktionen, die ein autonomer Agent (wie ein KI-Assistent oder ein LLM-basierter Agent) für einen Nutzer ausführen kann. Die Entwicklung von AP2 wird durch einen grundlegenden Wandel vorangetrieben: Traditionell gingen Online-Zahlungssysteme davon aus, dass ein Mensch direkt auf „Kaufen“ klickt, doch der Aufstieg von KI-Agenten, die nach Benutzeranweisungen handeln, bricht diese Annahme. AP2 adressiert die daraus resultierenden Herausforderungen bei Autorisierung, Authentizität und Verantwortlichkeit im KI-gesteuerten Handel, während es mit der bestehenden Zahlungsinfrastruktur kompatibel bleibt. Dieser Bericht untersucht die technische Architektur von AP2, seinen Zweck und seine Anwendungsfälle, Integrationen mit KI-Agenten und Zahlungsdienstleistern, Sicherheits- und Compliance-Aspekte, Vergleiche mit bestehenden Protokollen, Implikationen für Web3/dezentrale Systeme sowie die Branchenakzeptanz/Roadmap.

Technische Architektur: Wie AP2 funktioniert

Im Kern führt AP2 ein kryptografisch sicheres Transaktions-Framework ein, das auf verifizierbaren digitalen Berechtigungsnachweisen (VDCs) basiert – im Wesentlichen manipulationssichere, signierte Datenobjekte, die als digitale „Verträge“ dessen dienen, was der Nutzer autorisiert hat. In der AP2-Terminologie werden diese Verträge Mandate genannt, und sie bilden eine prüfbare Beweiskette für jede Transaktion. Es gibt drei primäre Arten von Mandaten in der AP2-Architektur:

  • Intent Mandate: Erfasst die ursprünglichen Anweisungen oder Bedingungen des Nutzers für einen Kauf, insbesondere für „Szenarien ohne menschliche Anwesenheit“ (bei denen der Agent später ohne den online befindlichen Nutzer handelt). Es definiert den Umfang der Autorität, den der Nutzer dem Agenten erteilt – zum Beispiel „Kaufe Konzertkarten, wenn sie unter 200 $ fallen, bis zu 2 Tickets“. Dieses Mandat wird vom Nutzer im Voraus kryptografisch signiert und dient als verifizierbarer Nachweis der Zustimmung innerhalb spezifischer Grenzen.
  • Cart Mandate: Repräsentiert die endgültigen Transaktionsdetails, die der Nutzer genehmigt hat, verwendet in „Szenarien mit menschlicher Anwesenheit“ oder zum Zeitpunkt des Bezahlvorgangs. Es umfasst die genauen Artikel oder Dienstleistungen, deren Preis und andere Einzelheiten des Kaufs. Wenn der Agent bereit ist, die Transaktion abzuschließen (z. B. nach dem Befüllen eines Warenkorbs), signiert der Händler zuerst kryptografisch den Warenkorbinhalt (garantiert die Bestelldetails und den Preis), und dann signiert der Nutzer (über sein Gerät oder die Agentenoberfläche), um ein Cart Mandate zu erstellen. Dies gewährleistet Was-Sie-sehen-ist-was-Sie-bezahlen, indem die endgültige Bestellung genau so fixiert wird, wie sie dem Nutzer präsentiert wurde.
  • Payment Mandate: Ein separater Berechtigungsnachweis, der an das Zahlungsnetzwerk (z. B. Kartennetzwerk oder Bank) gesendet wird, um zu signalisieren, dass ein KI-Agent an der Transaktion beteiligt ist. Das Payment Mandate enthält Metadaten, wie z. B. ob der Nutzer während der Autorisierung anwesend war oder nicht, und dient als Kennzeichen für Risikomanagementsysteme. Durch die Bereitstellung kryptografisch verifizierbarer Beweise der Nutzerabsicht für die akzeptierenden und ausstellenden Banken hilft dieses Mandat ihnen, den Kontext zu bewerten (z. B. einen von einem Agenten initiierten Kauf von typischem Betrug zu unterscheiden) und Compliance oder Haftung entsprechend zu verwalten.

Alle Mandate werden als verifizierbare Berechtigungsnachweise implementiert, die mit den Schlüsseln der jeweiligen Partei (Nutzer, Händler usw.) signiert sind, was einen nicht abstreitbaren Audit-Trail für jede agentengesteuerte Transaktion ergibt. In der Praxis verwendet AP2 eine rollenbasierte Architektur, um sensible Informationen zu schützen – zum Beispiel könnte ein Agent ein Intent Mandate bearbeiten, ohne jemals Rohzahlungsdetails zu sehen, die nur kontrolliert bei Bedarf offengelegt werden, wodurch die Privatsphäre gewahrt bleibt. Die kryptografische Kette von Nutzerabsicht → Händlerverpflichtung → Zahlungsautorisierung etabliert Vertrauen zwischen allen Parteien, dass die Transaktion die wahren Anweisungen des Nutzers widerspiegelt und dass sowohl der Agent als auch der Händler diese Anweisungen befolgt haben.

Transaktionsfluss: Um zu veranschaulichen, wie AP2 End-to-End funktioniert, betrachten wir ein einfaches Kaufszenario mit einem Menschen in der Schleife:

  1. Nutzeranfrage: Der Nutzer bittet seinen KI-Agenten, einen bestimmten Artikel oder eine Dienstleistung zu kaufen (z. B. „Bestelle dieses Paar Schuhe in meiner Größe“).
  2. Warenkorb-Erstellung: Der Agent kommuniziert mit den Systemen des Händlers (unter Verwendung von Standard-APIs oder über eine Agent-zu-Agent-Interaktion), um einen Warenkorb für den angegebenen Artikel zu einem bestimmten Preis zusammenzustellen.
  3. Händlergarantie: Bevor der Warenkorb dem Nutzer präsentiert wird, signiert die Händlerseite die Warenkorbdetails (Artikel, Menge, Preis usw.) kryptografisch. Dieser Schritt erstellt ein vom Händler signiertes Angebot, das die genauen Bedingungen garantiert (verhindert versteckte Änderungen oder Preismanipulationen).
  4. Nutzergenehmigung: Der Agent zeigt dem Nutzer den finalisierten Warenkorb. Der Nutzer bestätigt den Kauf, und diese Genehmigung löst zwei kryptografische Signaturen von der Nutzerseite aus: eine auf dem Cart Mandate (um den Warenkorb des Händlers unverändert zu akzeptieren) und eine auf dem Payment Mandate (um die Zahlung über den gewählten Zahlungsdienstleister zu autorisieren). Diese signierten Mandate werden dann dem Händler bzw. dem Zahlungsnetzwerk mitgeteilt.
  5. Ausführung: Ausgestattet mit dem Cart Mandate und dem Payment Mandate führen Händler und Zahlungsdienstleister die Transaktion sicher aus. Zum Beispiel übermittelt der Händler die Zahlungsanfrage zusammen mit dem Nachweis der Nutzergenehmigung an das Zahlungsnetzwerk (Kartennetzwerk, Bank usw.), das das Payment Mandate überprüfen kann. Das Ergebnis ist eine abgeschlossene Kauftransaktion mit einem kryptografischen Audit-Trail, der die Absicht des Nutzers mit der endgültigen Zahlung verknüpft.

Dieser Fluss zeigt, wie AP2 Vertrauen in jeden Schritt eines KI-gesteuerten Kaufs aufbaut. Der Händler hat einen kryptografischen Nachweis dessen, was der Nutzer genau zu welchem Preis zu kaufen zugestimmt hat, und der Emittent/die Bank hat einen Nachweis, dass der Nutzer diese Zahlung autorisiert hat, obwohl ein KI-Agent den Prozess erleichtert hat. Im Falle von Streitigkeiten oder Fehlern dienen die signierten Mandate als klare Beweismittel und helfen, die Verantwortlichkeit zu bestimmen (z. B. wenn der Agent von Anweisungen abgewichen ist oder wenn eine Belastung nicht dem entsprach, was der Nutzer genehmigt hatte). Im Wesentlichen stellt die Architektur von AP2 sicher, dass die verifizierbare Nutzerabsicht – und nicht das Vertrauen in das Verhalten des Agenten – die Grundlage der Transaktion bildet, wodurch die Mehrdeutigkeit erheblich reduziert wird.

Zweck und Anwendungsfälle für AP2

Warum AP2 benötigt wird: Der Hauptzweck von AP2 ist es, aufkommende Vertrauens- und Sicherheitsprobleme zu lösen, die entstehen, wenn KI-Agenten im Auftrag von Nutzern Geld ausgeben können. Google und seine Partner identifizierten mehrere Schlüsselfragen, die die heutige Zahlungsinfrastruktur nicht adäquat beantworten kann, wenn ein autonomer Agent involviert ist:

  • Autorisierung: Wie kann nachgewiesen werden, dass ein Nutzer dem Agenten tatsächlich die Erlaubnis erteilt hat, einen bestimmten Kauf zu tätigen? (Mit anderen Worten, sicherzustellen, dass der Agent keine Dinge ohne die informierte Zustimmung des Nutzers kauft.)
  • Authentizität: Wie kann ein Händler wissen, dass die Kaufanfrage eines Agenten echt ist und die wahre Absicht des Nutzers widerspiegelt, anstatt eines Fehlers oder einer KI-Halluzination?
  • Verantwortlichkeit: Wenn eine betrügerische oder fehlerhafte Transaktion über einen Agenten erfolgt, wer ist verantwortlich – der Nutzer, der Händler, der Zahlungsdienstleister oder der Ersteller des KI-Agenten?

Ohne eine Lösung schaffen diese Unsicherheiten eine „Vertrauenskrise“ im agentengesteuerten Handel. Die Mission von AP2 ist es, diese Lösung bereitzustellen, indem es ein einheitliches Protokoll für sichere Agententransaktionen etabliert. Durch die Einführung standardisierter Mandate und Absichtsnachweise verhindert AP2 ein fragmentiertes Ökosystem, in dem jedes Unternehmen seine eigenen Ad-hoc-Agentenzahlungsmethoden erfindet. Stattdessen kann jeder konforme KI-Agent mit jedem konformen Händler/Zahlungsdienstleister unter einem gemeinsamen Satz von Regeln und Verifizierungen interagieren. Diese Konsistenz vermeidet nicht nur Verwirrung bei Nutzern und Händlern, sondern gibt Finanzinstituten auch eine klare Möglichkeit, Risiken für von Agenten initiierte Zahlungen zu verwalten, anstatt sich mit einem Flickenteppich proprietärer Ansätze auseinanderzusetzen. Kurz gesagt, der Zweck von AP2 ist es, eine grundlegende Vertrauensschicht zu sein, die es der „Agenten-Ökonomie“ ermöglicht, zu wachsen, ohne das Zahlungsökosystem zu zerstören.

Beabsichtigte Anwendungsfälle: Durch die Lösung der oben genannten Probleme öffnet AP2 die Tür zu neuen Handelserlebnissen und Anwendungsfällen, die über das hinausgehen, was mit einem Menschen, der manuell Käufe durchklickt, möglich ist. Einige Beispiele für agentengesteuerten Handel, die AP2 unterstützt, sind:

  • Intelligenteres Einkaufen: Ein Kunde kann seinem Agenten anweisen: „Ich möchte diese Winterjacke in Grün, und ich bin bereit, bis zu 20 % über dem aktuellen Preis dafür zu zahlen“. Ausgestattet mit einem Intent Mandate, das diese Bedingungen kodiert, überwacht der Agent kontinuierlich Händler-Websites oder Datenbanken. Sobald die Jacke in Grün verfügbar ist (und innerhalb des Preisschwellenwerts), führt der Agent automatisch einen Kauf mit einer sicheren, signierten Transaktion aus – und sichert einen Verkauf, der sonst verpasst worden wäre. Die gesamte Interaktion, von der ursprünglichen Anfrage des Nutzers bis zum automatisierten Bezahlvorgang, wird durch AP2-Mandate geregelt, die sicherstellen, dass der Agent nur genau das kauft, was autorisiert wurde.
  • Personalisierte Angebote: Ein Nutzer teilt seinem Agenten mit, dass er ein bestimmtes Produkt (z. B. ein neues Fahrrad) von einem bestimmten Händler für eine bevorstehende Reise sucht. Der Agent kann dieses Interesse (innerhalb der Grenzen eines Intent Mandate) mit dem KI-Agenten des Händlers teilen, einschließlich relevanter Kontextinformationen wie dem Reisedatum. Der Händler-Agent, der die Absicht und den Kontext des Nutzers kennt, könnte mit einem maßgeschneiderten Paket oder Rabatt antworten – zum Beispiel „Fahrrad + Helm + Gepäckträger mit 15 % Rabatt, verfügbar für die nächsten 48 Stunden.“ Mit AP2 kann der Agent des Nutzers dieses maßgeschneiderte Angebot sicher annehmen und abschließen, wodurch eine einfache Anfrage zu einem wertvolleren Verkauf für den Händler wird.
  • Koordinierte Aufgaben: Ein Nutzer, der eine komplexe Aufgabe (z. B. eine Wochenendreise) plant, delegiert sie vollständig: „Buche mir einen Flug und ein Hotel für diese Daten mit einem Gesamtbudget von 700 $.“ Der Agent kann mit den Agenten mehrerer Dienstleister – Fluggesellschaften, Hotels, Reiseplattformen – interagieren, um eine Kombination zu finden, die zum Budget passt. Sobald ein passendes Flug-Hotel-Paket identifiziert ist, verwendet der Agent AP2, um mehrere Buchungen auf einmal auszuführen, jede kryptografisch signiert (z. B. die Ausstellung separater Cart Mandates für die Fluggesellschaft und das Hotel, beide unter dem Intent Mandate des Nutzers autorisiert). AP2 stellt sicher, dass alle Teile dieser koordinierten Transaktion wie genehmigt erfolgen, und ermöglicht sogar die gleichzeitige Ausführung, sodass Tickets und Reservierungen zusammen gebucht werden, ohne das Risiko, dass ein Teil mittendrin fehlschlägt.

Diese Szenarien veranschaulichen nur einige der beabsichtigten Anwendungsfälle von AP2. Im weiteren Sinne unterstützt das flexible Design von AP2 sowohl konventionelle E-Commerce-Abläufe als auch völlig neue Handelsmodelle. Zum Beispiel kann AP2 abonnementähnliche Dienste erleichtern (ein Agent hält Sie mit dem Nötigsten versorgt, indem er kauft, wenn Bedingungen erfüllt sind), ereignisgesteuerte Käufe (Kauf von Tickets oder Artikeln, sobald ein Auslöseereignis eintritt), Gruppenagentenverhandlungen (Agenten mehrerer Nutzer bündeln Mandate, um einen Gruppenrabatt auszuhandeln) und viele andere aufkommende Muster. In jedem Fall ist der gemeinsame Nenner, dass AP2 das Vertrauens-Framework – klare Nutzerautorisierung und kryptografische Prüfbarkeit – bereitstellt, das diese agentengesteuerten Transaktionen sicher ermöglicht. Durch die Handhabung der Vertrauens- und Verifizierungsschicht ermöglicht AP2 Entwicklern und Unternehmen, sich auf die Innovation neuer KI-Handelserlebnisse zu konzentrieren, ohne die Zahlungssicherheit von Grund auf neu erfinden zu müssen.

Integration mit Agenten, LLMs und Zahlungsdienstleistern

AP2 ist explizit darauf ausgelegt, sich nahtlos in KI-Agenten-Frameworks und bestehende Zahlungssysteme zu integrieren und als Brücke zwischen beiden zu fungieren. Google hat AP2 als Erweiterung seiner Agent2Agent (A2A)-Protokoll- und Model Context Protocol (MCP)-Standards positioniert. Mit anderen Worten, wenn A2A eine generische Sprache für Agenten zur Kommunikation von Aufgaben bereitstellt und MCP standardisiert, wie KI-Modelle Kontext/Tools einbeziehen, dann fügt AP2 eine Transaktionsschicht für den Handel hinzu. Die Protokolle sind komplementär: A2A handhabt die Agent-zu-Agent-Kommunikation (ermöglicht es beispielsweise einem Einkaufsagenten, mit dem Agenten eines Händlers zu sprechen), während AP2 die Agent-zu-Händler-Zahlungsautorisierung innerhalb dieser Interaktionen handhabt. Da AP2 offen und nicht-proprietär ist, soll es Framework-agnostisch sein: Entwickler können es mit Googles eigenem Agent Development Kit (ADK) oder jeder KI-Agentenbibliothek verwenden, und ebenso kann es mit verschiedenen KI-Modellen, einschließlich LLMs, zusammenarbeiten. Ein LLM-basierter Agent könnte AP2 beispielsweise nutzen, indem er die erforderlichen Mandats-Payloads (geleitet von der AP2-Spezifikation) generiert und austauscht, anstatt nur Freitext. Durch die Durchsetzung eines strukturierten Protokolls hilft AP2, die hochrangige Absicht eines KI-Agenten (die aus der Argumentation eines LLM stammen könnte) in konkrete, sichere Transaktionen umzuwandeln.

Auf der Zahlungsseite wurde AP2 in Zusammenarbeit mit traditionellen Zahlungsdienstleistern und Standards entwickelt, anstatt als Rip-and-Replace-System. Das Protokoll ist zahlungsmethodenagnostisch, was bedeutet, dass es eine Vielzahl von Zahlungswegen unterstützen kann – von Kredit-/Debitkartennetzwerken über Banküberweisungen bis hin zu digitalen Geldbörsen – als zugrunde liegende Methode zur Geldbewegung. In seiner ersten Version betont AP2 die Kompatibilität mit Kartenzahlungen, da diese im Online-Handel am häufigsten sind. Das AP2 Payment Mandate ist darauf ausgelegt, sich in den bestehenden Kartenverarbeitungsprozess einzufügen: Es liefert zusätzliche Daten an das Zahlungsnetzwerk (z. B. Visa, Mastercard, Amex) und die ausstellende Bank, dass ein KI-Agent involviert ist und ob der Nutzer anwesend war, wodurch bestehende Betrugserkennungs- und Autorisierungsprüfungen ergänzt werden. Im Wesentlichen verarbeitet AP2 die Zahlung nicht selbst; es ergänzt die Zahlungsanfrage um einen kryptografischen Nachweis der Nutzerabsicht. Dies ermöglicht es Zahlungsdienstleistern, von Agenten initiierte Transaktionen mit angemessener Vorsicht oder Geschwindigkeit zu behandeln (z. B. könnte ein Emittent einen ungewöhnlich aussehenden Kauf genehmigen, wenn er ein gültiges AP2-Mandat sieht, das beweist, dass der Nutzer es vorab genehmigt hat). Insbesondere planen Google und Partner, AP2 weiterzuentwickeln, um auch „Push“-Zahlungsmethoden zu unterstützen – wie Echtzeit-Banküberweisungen (wie Indiens UPI- oder Brasiliens PIX-Systeme) – und andere aufkommende digitale Zahlungsarten. Dies deutet darauf hin, dass die Integration von AP2 über Karten hinausgehen und sich an modernen Zahlungstrends weltweit ausrichten wird.

Für Händler und Zahlungsabwickler würde die Integration von AP2 bedeuten, die zusätzlichen Protokollnachrichten (Mandate) zu unterstützen und Signaturen zu verifizieren. Viele große Zahlungsplattformen sind bereits an der Gestaltung von AP2 beteiligt, sodass wir erwarten können, dass sie Unterstützung dafür aufbauen werden. Zum Beispiel könnten Unternehmen wie Adyen, Worldpay, Paypal, Stripe (nicht explizit im Blog genannt, aber wahrscheinlich interessiert) und andere AP2 in ihre Checkout-APIs oder SDKs integrieren, um einem Agenten zu ermöglichen, eine Zahlung auf standardisierte Weise zu initiieren. Da AP2 eine offene Spezifikation auf GitHub mit Referenzimplementierungen ist, können Zahlungsdienstleister und Technologieplattformen sofort damit experimentieren. Google hat auch einen KI-Agenten-Marktplatz erwähnt, auf dem Drittanbieter-Agenten gelistet werden können – diese Agenten werden voraussichtlich AP2 für alle Transaktionsfähigkeiten unterstützen. In der Praxis könnte ein Unternehmen, das einen KI-Verkaufsassistenten oder Beschaffungsagenten entwickelt, diesen auf diesem Marktplatz listen, und dank AP2 kann dieser Agent Käufe oder Bestellungen zuverlässig ausführen.

Schließlich profitiert die Integrationsgeschichte von AP2 von ihrer breiten Branchenunterstützung. Durch die gemeinsame Entwicklung des Protokolls mit großen Finanzinstituten und Technologieunternehmen stellte Google sicher, dass AP2 mit bestehenden Branchenregeln und Compliance-Anforderungen übereinstimmt. Die Zusammenarbeit mit Zahlungsnetzwerken (z. B. Mastercard, UnionPay), Emittenten (z. B. American Express), Fintechs (z. B. Revolut, Paypal), E-Commerce-Akteuren (z. B. Etsy) und sogar Identitäts-/Sicherheitsanbietern (z. B. Okta, Cloudflare) deutet darauf hin, dass AP2 so konzipiert ist, dass es mit minimaler Reibung in reale Systeme passt. Diese Stakeholder bringen Fachwissen in Bereichen wie KYC (Know Your Customer-Vorschriften), Betrugsprävention und Datenschutz mit, was AP2 hilft, diese Anforderungen von Anfang an zu erfüllen. Zusammenfassend lässt sich sagen, dass AP2 agentenfreundlich und zahlungsdienstleisterfreundlich aufgebaut ist: Es erweitert bestehende KI-Agentenprotokolle, um Transaktionen zu handhaben, und es schichtet sich über bestehende Zahlungsnetzwerke, um deren Infrastruktur zu nutzen und gleichzeitig notwendige Vertrauensgarantien hinzuzufügen.

Sicherheits-, Compliance- und Interoperabilitätsaspekte

Sicherheit und Vertrauen stehen im Mittelpunkt des AP2-Designs. Die Verwendung von Kryptografie (digitale Signaturen auf Mandaten) durch das Protokoll stellt sicher, dass jede kritische Aktion in einer agentischen Transaktion verifizierbar und nachvollziehbar ist. Diese Nicht-Abstreitbarkeit ist entscheidend: Weder der Nutzer noch der Händler können später leugnen, was autorisiert und vereinbart wurde, da die Mandate als sichere Aufzeichnungen dienen. Ein direkter Vorteil liegt in der Betrugsprävention und Streitbeilegung – mit AP2 wäre, wenn ein bösartiger oder fehlerhafter Agent einen nicht autorisierten Kauf versucht, das Fehlen eines gültigen vom Nutzer signierten Mandats offensichtlich, und die Transaktion kann abgelehnt oder rückgängig gemacht werden. Umgekehrt, wenn ein Nutzer behauptet „Ich habe diesen Kauf nie genehmigt“, aber ein Cart Mandate mit seiner kryptografischen Signatur existiert, haben Händler und Emittent starke Beweise, um die Belastung zu unterstützen. Diese Klarheit der Verantwortlichkeit beantwortet ein wichtiges Compliance-Anliegen für die Zahlungsbranche.

Autorisierung & Datenschutz: AP2 erzwingt einen expliziten Autorisierungsschritt (oder mehrere Schritte) vom Nutzer für agentengesteuerte Transaktionen, was mit regulatorischen Trends wie der starken Kundenauthentifizierung übereinstimmt. Das in AP2 verankerte Prinzip der Nutzerkontrolle bedeutet, dass ein Agent keine Gelder ausgeben kann, es sei denn, der Nutzer (oder eine vom Nutzer delegierte Person) hat eine verifizierbare Anweisung dazu gegeben. Selbst in vollständig autonomen Szenarien definiert der Nutzer die Regeln über ein Intent Mandate vorab. Dieser Ansatz kann als analog zur Erteilung einer Vollmacht an den Agenten für spezifische Transaktionen angesehen werden, jedoch auf digital signierte, feingranulare Weise. Aus Datenschutzsicht ist AP2 aufmerksam bezüglich der Datenweitergabe: Das Protokoll verwendet eine rollenbasierte Datenarchitektur, um sicherzustellen, dass sensible Informationen (wie Zahlungsdaten oder persönliche Details) nur an Parteien weitergegeben werden, die sie unbedingt benötigen. Zum Beispiel könnte ein Agent ein Cart Mandate an einen Händler senden, das Artikel- und Preisinformationen enthält, aber die tatsächliche Kartennummer des Nutzers könnte nur über das Payment Mandate an den Zahlungsabwickler weitergegeben werden, nicht an den Agenten oder Händler. Dies minimiert die unnötige Offenlegung von Daten und unterstützt die Einhaltung von Datenschutzgesetzen und PCI-DSS-Regeln für den Umgang mit Zahlungsdaten.

Compliance & Standards: Da AP2 unter Beteiligung etablierter Finanzunternehmen entwickelt wurde, ist es darauf ausgelegt, bestehende Compliance-Standards im Zahlungsverkehr zu erfüllen oder zu ergänzen. Das Protokoll umgeht die üblichen Zahlungsautorisierungsabläufe nicht – stattdessen ergänzt es sie um zusätzliche Beweise und Kennzeichen. Dies bedeutet, dass AP2-Transaktionen weiterhin Betrugserkennungssysteme, 3-D Secure-Prüfungen oder alle erforderlichen regulatorischen Prüfungen nutzen können, wobei die AP2-Mandate als zusätzliche Authentifizierungsfaktoren oder Kontextsignale dienen. Zum Beispiel könnte eine Bank ein Payment Mandate ähnlich einer digitalen Signatur eines Kunden auf einer Transaktion behandeln, was die Einhaltung von Anforderungen an die Nutzerzustimmung potenziell rationalisiert. Darüber hinaus erwähnen die Designer von AP2 explizit die Zusammenarbeit „im Einklang mit Branchenregeln und -standards“. Wir können daraus schließen, dass AP2 im Laufe seiner Entwicklung möglicherweise an formale Standardisierungsgremien (wie das W3C, EMVCo oder ISO) herangetragen wird, um die Übereinstimmung mit globalen Finanzstandards sicherzustellen. Google hat sich zu einer offenen, kollaborativen Weiterentwicklung von AP2, möglicherweise durch Standardisierungsorganisationen, verpflichtet. Dieser offene Prozess wird dazu beitragen, regulatorische Bedenken auszuräumen und eine breite Akzeptanz zu erreichen, ähnlich wie frühere Zahlungsstandards (EMV-Chipkarten, 3-D Secure usw.) eine branchenweite Zusammenarbeit durchliefen.

Interoperabilität: Die Vermeidung von Fragmentierung ist ein Hauptziel von AP2. Zu diesem Zweck ist das Protokoll offen veröffentlicht und für jedermann zur Implementierung oder Integration verfügbar. Es ist nicht an Google Cloud-Dienste gebunden – tatsächlich ist AP2 Open Source (Apache-2-lizenziert) und die Spezifikation sowie der Referenzcode befinden sich in einem öffentlichen GitHub-Repository. Dies fördert die Interoperabilität, da mehrere Anbieter AP2 übernehmen und ihre Systeme dennoch zusammenarbeiten können. Bereits wird das Interoperabilitätsprinzip hervorgehoben: AP2 ist eine Erweiterung bestehender offener Protokolle (A2A, MCP) und nicht-proprietär, was bedeutet, dass es ein wettbewerbsorientiertes Ökosystem von Implementierungen fördert und keine Ein-Anbieter-Lösung. In der Praxis könnte ein von Unternehmen A gebauter KI-Agent eine Transaktion mit einem Händlersystem von Unternehmen B initiieren, wenn beide AP2 befolgen – keine Seite ist an eine Plattform gebunden.

Eine mögliche Sorge ist die Sicherstellung einer konsistenten Akzeptanz: Wenn einige große Akteure ein anderes Protokoll oder einen geschlossenen Ansatz wählen würden, könnte es dennoch zu Fragmentierung kommen. Angesichts der breiten Koalition hinter AP2 scheint es jedoch darauf ausgerichtet zu sein, ein De-facto-Standard zu werden. Die Einbeziehung vieler auf Identität und Sicherheit spezialisierter Unternehmen (z. B. Okta, Cloudflare, Ping Identity) in das AP2-Ökosystem Abbildung: Über 60 Unternehmen aus den Bereichen Finanzen, Technologie und Krypto arbeiten an AP2 zusammen (Teilliste der Partner). deutet darauf hin, dass Interoperabilität und Sicherheit gemeinsam angegangen werden. Diese Partner können dazu beitragen, AP2 in Identitätsverifizierungs-Workflows und Betrugspräventionstools zu integrieren, um sicherzustellen, dass eine AP2-Transaktion systemübergreifend vertrauenswürdig ist.

Aus technologischer Sicht macht die Verwendung weit verbreiteter kryptografischer Techniken (wahrscheinlich JSON-LD- oder JWT-basierte verifizierbare Berechtigungsnachweise, Public-Key-Signaturen usw.) AP2 mit bestehender Sicherheitsinfrastruktur kompatibel. Organisationen können ihre bestehende PKI (Public Key Infrastructure) verwenden, um Schlüssel zum Signieren von Mandaten zu verwalten. AP2 scheint auch die Integration mit dezentralen Identitätssystemen zu antizipieren: Google erwähnt, dass AP2 Möglichkeiten schafft, in Bereichen wie der dezentralen Identität für die Agentenautorisierung zu innovieren. Dies bedeutet, dass AP2 in Zukunft DID (Decentralized Identifier)-Standards oder dezentrale Identifikatorverifizierung nutzen könnte, um Agenten und Nutzer auf vertrauenswürdige Weise zu identifizieren. Ein solcher Ansatz würde die Interoperabilität weiter verbessern, indem er sich nicht auf einen einzigen Identitätsanbieter verlässt. Zusammenfassend lässt sich sagen, dass AP2 Sicherheit durch Kryptografie und klare Verantwortlichkeit betont, darauf abzielt, von Design her Compliance-fähig zu sein, und Interoperabilität durch seinen offenen Standardcharakter und die breite Branchenunterstützung fördert.

Vergleich mit bestehenden Protokollen

AP2 ist ein neuartiges Protokoll, das eine Lücke schließt, die bestehende Zahlungs- und Agenten-Frameworks nicht abgedeckt haben: die Ermöglichung, dass autonome Agenten Zahlungen auf sichere, standardisierte Weise durchführen können. Im Hinblick auf Agentenkommunikationsprotokolle baut AP2 auf früheren Arbeiten wie dem Agent2Agent (A2A)-Protokoll auf. A2A (Anfang 2025 als Open Source veröffentlicht) ermöglicht es verschiedenen KI-Agenten, miteinander zu kommunizieren, unabhängig von ihren zugrunde liegenden Frameworks. A2A selbst definiert jedoch nicht, wie Agenten Transaktionen oder Zahlungen durchführen sollen – es geht mehr um Aufgabenverhandlung und Datenaustausch. AP2 erweitert diese Landschaft, indem es eine Transaktionsschicht hinzufügt, die jeder Agent verwenden kann, wenn eine Konversation zu einem Kauf führt. Im Wesentlichen kann AP2 als komplementär zu A2A und MCP angesehen werden, anstatt sich zu überschneiden: A2A deckt die Aspekte Kommunikation und Zusammenarbeit ab, MCP deckt die Verwendung externer Tools/APIs ab, und AP2 deckt Zahlungen und Handel ab. Zusammen bilden sie einen Stapel von Standards für eine zukünftige „Agenten-Ökonomie“. Dieser modulare Ansatz ist in gewisser Weise analog zu Internetprotokollen: zum Beispiel HTTP für die Datenkommunikation und SSL/TLS für die Sicherheit – hier könnte A2A wie das HTTP der Agenten sein und AP2 die sichere Transaktionsschicht darüber für den Handel.

Beim Vergleich von AP2 mit traditionellen Zahlungsprotokollen und -standards gibt es sowohl Parallelen als auch Unterschiede. Traditionelle Online-Zahlungen (Kreditkarten-Checkouts, PayPal-Transaktionen usw.) beinhalten typischerweise Protokolle wie HTTPS für die sichere Übertragung und Standards wie PCI DSS für die Handhabung von Kartendaten, plus möglicherweise 3-D Secure für zusätzliche Nutzerauthentifizierung. Diese setzen einen nutzergesteuerten Ablauf voraus (Nutzer klickt und gibt möglicherweise einen Einmalcode ein). AP2 hingegen führt eine Möglichkeit ein, dass ein Dritter (der Agent) am Ablauf teilnehmen kann, ohne die Sicherheit zu untergraben. Man könnte das Mandatskonzept von AP2 mit einer Erweiterung der OAuth-ähnlichen delegierten Autorität vergleichen, aber auf Zahlungen angewendet. Bei OAuth kann ein Nutzer einer Anwendung über Tokens begrenzten Zugriff auf ein Konto gewähren; ähnlich gewährt ein Nutzer bei AP2 einem Agenten die Befugnis, unter bestimmten Bedingungen über Mandate Geld auszugeben. Der Hauptunterschied besteht darin, dass die „Tokens“ von AP2 (Mandate) spezifische, signierte Anweisungen für Finanztransaktionen sind, was feingranularer ist als bestehende Zahlungsautorisierungen.

Ein weiterer Vergleichspunkt ist, wie AP2 mit bestehenden E-Commerce-Checkout-Abläufen zusammenhängt. Zum Beispiel verwenden viele E-Commerce-Websites Protokolle wie die W3C Payment Request API oder plattformspezifische SDKs, um Zahlungen zu optimieren. Diese standardisieren hauptsächlich, wie Browser oder Apps Zahlungsinformationen von einem Nutzer sammeln, während AP2 standardisiert, wie ein Agent die Nutzerabsicht gegenüber einem Händler und Zahlungsabwickler beweisen würde. Der Fokus von AP2 auf verifizierbare Absicht und Nicht-Abstreitbarkeit unterscheidet es von einfacheren Zahlungs-APIs. Es fügt eine zusätzliche Vertrauensschicht über den Zahlungsnetzwerken hinzu. Man könnte sagen, AP2 ersetzt die Zahlungsnetzwerke (Visa, ACH, Blockchain usw.) nicht, sondern ergänzt sie. Das Protokoll unterstützt explizit alle Arten von Zahlungsmethoden (sogar Krypto), es geht also mehr darum, die Interaktion des Agenten mit diesen Systemen zu standardisieren, nicht darum, eine neue Zahlungsschiene von Grund auf neu zu schaffen.

Im Bereich der Sicherheits- und Authentifizierungsprotokolle teilt AP2 einen gewissen Geist mit Dingen wie digitalen Signaturen in EMV-Chipkarten oder der Notarisierung in digitalen Verträgen. Zum Beispiel generieren EMV-Chipkartentransaktionen Kryptogramme, um zu beweisen, dass die Karte vorhanden war; AP2 generiert kryptografische Beweise, dass der Agent des Nutzers autorisiert war. Beide zielen darauf ab, Betrug zu verhindern, aber der Umfang von AP2 ist die Agent-Nutzer-Beziehung und die Agent-Händler-Nachrichtenübermittlung, die kein bestehender Zahlungsstandard adressiert. Ein weiterer aufkommender Vergleich ist mit der Kontoabstraktion in Krypto (z. B. ERC-4337), bei der Nutzer vorprogrammierte Wallet-Aktionen autorisieren können. Krypto-Wallets können so eingestellt werden, dass sie bestimmte automatisierte Transaktionen zulassen (wie das automatische Bezahlen eines Abonnements über einen Smart Contract), aber diese sind typischerweise auf eine Blockchain-Umgebung beschränkt. AP2 hingegen zielt darauf ab, plattformübergreifend zu sein – es kann Blockchain für einige Zahlungen nutzen (durch seine Erweiterungen), funktioniert aber auch mit traditionellen Banken.

Es gibt noch kein direktes „Konkurrenz“-Protokoll zu AP2 in der Mainstream-Zahlungsbranche – es scheint der erste konzertierte Versuch eines offenen Standards für KI-Agenten-Zahlungen zu sein. Proprietäre Versuche könnten entstehen (oder sind möglicherweise bereits in einzelnen Unternehmen im Gange), aber die breite Unterstützung von AP2 verschafft ihm einen Vorteil, um der Standard zu werden. Es ist erwähnenswert, dass IBM und andere ein Agent Communication Protocol (ACP) und ähnliche Initiativen für die Agenten-Interoperabilität haben, aber diese umfassen den Zahlungsaspekt nicht in der umfassenden Weise, wie AP2 es tut. Wenn überhaupt, könnte AP2 diese Bemühungen integrieren oder nutzen (zum Beispiel könnten IBMs Agenten-Frameworks AP2 für alle Handelsaufgaben implementieren).

Zusammenfassend lässt sich sagen, dass AP2 sich dadurch auszeichnet, dass es die einzigartige Schnittstelle von KI und Zahlungen anspricht: Wo ältere Zahlungsprotokolle einen menschlichen Nutzer annahmen, nimmt AP2 einen KI-Vermittler an und füllt die daraus resultierende Vertrauenslücke. Es erweitert, anstatt zu kollidieren, bestehende Zahlungsprozesse und ergänzt bestehende Agentenprotokolle wie A2A. Zukünftig könnte AP2 zusammen mit etablierten Standards verwendet werden – zum Beispiel könnte ein AP2 Cart Mandate Hand in Hand mit einem traditionellen Zahlungsgateway-API-Aufruf funktionieren, oder ein AP2 Payment Mandate könnte an eine ISO 8583-Nachricht im Bankwesen angehängt werden. Die offene Natur von AP2 bedeutet auch, dass, falls alternative Ansätze auftauchen, AP2 diese möglicherweise durch gemeinschaftliche Zusammenarbeit aufnehmen oder sich an sie anpassen könnte. In diesem Stadium setzt AP2 einen bisher nicht existierenden Grundstein und pionierisiert effektiv eine neue Protokollschicht im KI- und Zahlungs-Stack.

Implikationen für Web3 und dezentrale Systeme

AP2 wurde von Anfang an so konzipiert, dass es Web3- und kryptowährungsbasierte Zahlungen einschließt. Das Protokoll erkennt an, dass der zukünftige Handel sowohl traditionelle Fiat-Kanäle als auch dezentrale Blockchain-Netzwerke umfassen wird. Wie bereits erwähnt, unterstützt AP2 Zahlungsarten, die von Kreditkarten und Banküberweisungen bis hin zu Stablecoins und Kryptowährungen reichen. Tatsächlich kündigte Google parallel zur Einführung von AP2 eine spezifische Erweiterung für Krypto-Zahlungen namens A2A x402 an. Diese Erweiterung, die in Zusammenarbeit mit Akteuren der Krypto-Branche wie Coinbase, der Ethereum Foundation und MetaMask entwickelt wurde, ist eine „produktionsreife Lösung für agentenbasierte Krypto-Zahlungen“. Der Name „x402“ ist eine Hommage an den HTTP 402 „Payment Required“-Statuscode, der im Web nie weit verbreitet war – die Krypto-Erweiterung von AP2 belebt effektiv den Geist von HTTP 402 für dezentrale Agenten, die sich gegenseitig On-Chain belasten oder bezahlen möchten. Praktisch passt die x402-Erweiterung das Mandatskonzept von AP2 an Blockchain-Transaktionen an. Zum Beispiel könnte ein Agent ein signiertes Intent Mandate von einem Nutzer halten und dann eine On-Chain-Zahlung (z. B. einen Stablecoin senden) ausführen, sobald die Bedingungen erfüllt sind, wobei der Nachweis des Mandats an diese On-Chain-Transaktion angehängt wird. Dies verbindet das Off-Chain-Vertrauens-Framework von AP2 mit der Trustless-Natur der Blockchain und bietet das Beste aus beiden Welten: eine On-Chain-Zahlung, der Off-Chain-Parteien (Nutzer, Händler) vertrauen können, dass sie vom Nutzer autorisiert wurde.

Die Synergie zwischen AP2 und Web3 zeigt sich in der Liste der Kollaborateure. Krypto-Börsen (Coinbase), Blockchain-Stiftungen (Ethereum Foundation), Krypto-Wallets (MetaMask) und Web3-Startups (z. B. Mysten Labs von Sui, Lightspark für Lightning Network) sind an der Entwicklung von AP2 beteiligt. Ihre Teilnahme deutet darauf hin, dass AP2 als komplementär zu dezentralen Finanzen und nicht als konkurrierend angesehen wird. Durch die Schaffung einer Standardmethode für KI-Agenten zur Interaktion mit Krypto-Zahlungen könnte AP2 die Nutzung von Krypto in KI-gesteuerten Anwendungen vorantreiben. Zum Beispiel könnte ein KI-Agent AP2 verwenden, um nahtlos zwischen der Zahlung mit einer Kreditkarte oder der Zahlung mit einem Stablecoin zu wechseln, je nach Nutzerpräferenz oder Händlerakzeptanz. Die A2A x402-Erweiterung ermöglicht es Agenten speziell, Dienste über On-Chain-Mittel zu monetarisieren oder zu bezahlen, was in dezentralen Marktplätzen der Zukunft entscheidend sein könnte. Sie deutet darauf hin, dass Agenten, die möglicherweise als autonome Wirtschaftsakteure auf der Blockchain laufen (ein Konzept, das einige als DACs oder DAOs bezeichnen), in der Lage sein könnten, Zahlungen für Dienste zu handhaben (wie das Bezahlen einer kleinen Gebühr an einen anderen Agenten für Informationen). AP2 könnte die Lingua Franca für solche Transaktionen bereitstellen und sicherstellen, dass selbst in einem dezentralen Netzwerk der Agent ein nachweisbares Mandat für sein Handeln hat.

Im Hinblick auf den Wettbewerb könnte man fragen: Machen rein dezentrale Lösungen AP2 überflüssig oder umgekehrt? Es ist wahrscheinlich, dass AP2 mit Web3-Lösungen in einem geschichteten Ansatz koexistieren wird. Dezentrale Finanzen bieten vertrauenslose Ausführung (Smart Contracts usw.), lösen aber nicht von Natur aus das Problem „Hatte eine KI die Erlaubnis eines Menschen, dies zu tun?“. AP2 adressiert genau diese Mensch-zu-KI-Vertrauensverbindung, die wichtig bleibt, auch wenn die Zahlung selbst On-Chain erfolgt. Anstatt mit Blockchain-Protokollen zu konkurrieren, kann AP2 als Brücke zwischen ihnen und der Off-Chain-Welt angesehen werden. Zum Beispiel könnte ein Smart Contract eine bestimmte Transaktion nur akzeptieren, wenn sie einen Verweis auf eine gültige AP2-Mandatssignatur enthält – etwas, das implementiert werden könnte, um Off-Chain-Absichtsnachweise mit On-Chain-Durchsetzung zu kombinieren. Umgekehrt könnten, wenn es Krypto-native Agenten-Frameworks gibt (einige Blockchain-Projekte erforschen autonome Agenten, die mit Krypto-Geldern operieren), diese ihre eigenen Methoden zur Autorisierung entwickeln. Die breite Branchenunterstützung von AP2 könnte jedoch selbst diese Projekte dazu bewegen, AP2 für Konsistenz zu übernehmen oder zu integrieren.

Ein weiterer Aspekt sind dezentrale Identität und Berechtigungsnachweise. Die Verwendung von verifizierbaren Berechtigungsnachweisen durch AP2 steht sehr im Einklang mit dem Web3-Ansatz zur Identität (z. B. DIDs und VCs, wie vom W3C standardisiert). Dies bedeutet, dass AP2 in dezentrale Identitätssysteme integriert werden könnte – zum Beispiel könnte die DID eines Nutzers verwendet werden, um ein AP2-Mandat zu signieren, das ein Händler gegen eine Blockchain oder einen Identitätshub verifizieren könnte. Die Erwähnung der Erforschung dezentraler Identität für die Agentenautorisierung bekräftigt, dass AP2 Web3-Identitätsinnovationen zur dezentralen Überprüfung von Agenten- und Nutzeridentitäten nutzen könnte, anstatt sich nur auf zentralisierte Autoritäten zu verlassen. Dies ist ein Synergiepunkt, da sowohl AP2 als auch Web3 darauf abzielen, Nutzern mehr Kontrolle und kryptografische Beweise für ihre Handlungen zu geben.

Potenzielle Konflikte könnten nur entstehen, wenn man ein vollständig dezentrales Handelsökosystem ohne Rolle für große Intermediäre vorstellt – in diesem Szenario könnte AP2 (ursprünglich von Google und Partnern vorangetrieben) zu zentralisiert oder von traditionellen Akteuren regiert sein? Es ist wichtig zu beachten, dass AP2 Open Source ist und als standardisierbar gedacht ist, also nicht proprietär für Google. Dies macht es für die Web3-Community, die offene Protokolle schätzt, schmackhafter. Wenn AP2 weit verbreitet wird, könnte es den Bedarf an separaten Web3-spezifischen Zahlungsprotokollen für Agenten reduzieren und dadurch Bemühungen vereinheitlichen. Andererseits könnten einige Blockchain-Projekte rein On-Chain-Autorisierungsmechanismen (wie Multi-Signatur-Wallets oder On-Chain-Treuhandlogik) für Agententransaktionen bevorzugen, insbesondere in Trustless-Umgebungen ohne zentrale Autoritäten. Diese könnten als alternative Ansätze angesehen werden, würden aber wahrscheinlich Nischen bleiben, es sei denn, sie können mit Off-Chain-Systemen interagieren. AP2, indem es beide Welten abdeckt, könnte tatsächlich die Web3-Akzeptanz beschleunigen, indem es Krypto einfach zu einer weiteren Zahlungsmethode macht, die ein KI-Agent nahtlos nutzen kann. Tatsächlich bemerkte ein Partner, dass „Stablecoins eine offensichtliche Lösung für Skalierungsprobleme [für] agentische Systeme mit Legacy-Infrastruktur bieten“, was hervorhebt, dass Krypto AP2 bei der Bewältigung von Skalierungs- oder grenzüberschreitenden Szenarien ergänzen kann. Währenddessen bemerkte der Engineering Lead von Coinbase, dass die Integration der x402-Krypto-Erweiterung in AP2 „Sinn machte – es ist ein natürlicher Spielplatz für Agenten... es ist aufregend zu sehen, wie Agenten, die sich gegenseitig bezahlen, in der KI-Community Anklang finden“. Dies impliziert eine Vision, in der KI-Agenten, die über Krypto-Netzwerke Transaktionen durchführen, nicht nur eine theoretische Idee, sondern ein erwartetes Ergebnis sind, wobei AP2 als Katalysator fungiert.

Zusammenfassend lässt sich sagen, dass AP2 für Web3 hochrelevant ist: Es integriert Krypto-Zahlungen als erstklassigen Bürger und stimmt mit dezentralen Identitäts- und Berechtigungsnachweisstandards überein. Anstatt direkt mit dezentralen Zahlungsprotokollen zu konkurrieren, interagiert AP2 wahrscheinlich mit ihnen – es stellt die Autorisierungsschicht bereit, während die dezentralen Systeme die Wertübertragung handhaben. Da die Grenze zwischen traditionellen Finanzen und Krypto verschwimmt (mit Stablecoins, CBDCs usw.), könnte ein einheitliches Protokoll wie AP2 als universeller Adapter zwischen KI-Agenten und jeder Form von Geld, zentralisiert oder dezentralisiert, dienen.

Branchenakzeptanz, Partnerschaften und Roadmap

Eine der größten Stärken von AP2 ist die umfassende Branchenunterstützung, die es bereits in diesem frühen Stadium genießt. Google Cloud kündigte an, dass es „mit einer vielfältigen Gruppe von mehr als 60 Organisationen“ an AP2 zusammenarbeitet. Dazu gehören große Kreditkartennetzwerke (z. B. Mastercard, American Express, JCB, UnionPay), führende Fintech- und Zahlungsabwickler (PayPal, Worldpay, Adyen, Checkout.com, Stripes Konkurrenten), E-Commerce- und Online-Marktplätze (Etsy, Shopify (über Partner wie Stripe oder andere), Lazada, Zalora), Unternehmenstechnologieunternehmen (Salesforce, ServiceNow, Oracle möglicherweise über Partner, Dell, Red Hat), Identitäts- und Sicherheitsfirmen (Okta, Ping Identity, Cloudflare), Beratungsfirmen (Deloitte, Accenture) und Krypto-/Web3-Organisationen (Coinbase, Ethereum Foundation, MetaMask, Mysten Labs, Lightspark) und andere. Eine so breite Palette von Teilnehmern ist ein starker Indikator für das Brancheninteresse und die wahrscheinliche Akzeptanz. Viele dieser Partner haben öffentlich ihre Unterstützung bekundet. Zum Beispiel betonte der Co-CEO von Adyen die Notwendigkeit eines „gemeinsamen Regelwerks“ für den agentischen Handel und sieht AP2 als natürliche Erweiterung ihrer Mission, Händler mit neuen Zahlungsbausteinen zu unterstützen. Der EVP von American Express erklärte, dass AP2 wichtig sei für „die nächste Generation digitaler Zahlungen“, bei der Vertrauen und Verantwortlichkeit von größter Bedeutung sind. Das Team von Coinbase ist, wie bereits erwähnt, begeistert von der Integration von Krypto-Zahlungen in AP2. Dieser Chor der Unterstützung zeigt, dass viele in der Branche AP2 als den wahrscheinlichen Standard für KI-gesteuerte Zahlungen ansehen und daran interessiert sind, es so zu gestalten, dass es ihren Anforderungen entspricht.

Aus Akzeptanzsicht befindet sich AP2 derzeit im Spezifikations- und frühen Implementierungsstadium (angekündigt im September 2025). Die vollständige technische Spezifikation, Dokumentation und einige Referenzimplementierungen (in Sprachen wie Python) sind auf dem GitHub-Repository des Projekts für Entwickler zum Experimentieren verfügbar. Google hat auch angedeutet, dass AP2 in seine Produkte und Dienste für Agenten integriert wird. Ein bemerkenswertes Beispiel ist der bereits erwähnte KI-Agenten-Marktplatz: Dies ist eine Plattform, auf der Drittanbieter-KI-Agenten Nutzern angeboten werden können (wahrscheinlich Teil von Googles generativem KI-Ökosystem). Google sagt, dass viele Partner, die Agenten entwickeln, diese auf dem Marktplatz mit „neuen, transaktionsfähigen Erfahrungen, die durch AP2 ermöglicht werden“, zur Verfügung stellen werden. Dies impliziert, dass AP2, wenn der Marktplatz startet oder wächst, das Rückgrat für jeden Agenten sein wird, der eine Transaktion durchführen muss, sei es der autonome Kauf von Software vom Google Cloud Marketplace oder ein Agent, der Waren/Dienstleistungen für einen Nutzer kauft. Unternehmensanwendungsfälle wie autonome Beschaffung (ein Agent kauft von einem anderen im Auftrag eines Unternehmens) und automatische Lizenzskalierung wurden ausdrücklich als Bereiche genannt, die AP2 bald erleichtern könnte.

Im Hinblick auf eine Roadmap geben die AP2-Dokumentation und Googles Ankündigung einige klare Hinweise:

  • Kurzfristig: Fortsetzung der offenen Entwicklung des Protokolls mit Community-Input. Das GitHub-Repository wird mit zusätzlichen Referenzimplementierungen und Verbesserungen aktualisiert, sobald reale Tests stattfinden. Wir können erwarten, dass Bibliotheken/SDKs entstehen, die die Integration von AP2 in Agentenanwendungen erleichtern. Auch könnten erste Pilotprogramme oder Machbarkeitsnachweise von den Partnerunternehmen durchgeführt werden. Da viele große Zahlungsunternehmen beteiligt sind, könnten sie AP2 in kontrollierten Umgebungen testen (z. B. eine AP2-fähige Checkout-Option in einer kleinen Benutzer-Beta).
  • Standards und Governance: Google hat sich verpflichtet, AP2 in ein offenes Governance-Modell zu überführen, möglicherweise über Standardisierungsgremien. Dies könnte bedeuten, AP2 Organisationen wie der Linux Foundation (wie es beim A2A-Protokoll geschehen ist) vorzulegen oder ein Konsortium zu bilden, um es zu pflegen. Die Linux Foundation, W3C oder sogar Gremien wie ISO/TC68 (Finanzdienstleistungen) könnten für die Formalisierung von AP2 in Frage kommen. Eine offene Governance würde der Branche die Gewissheit geben, dass AP2 nicht unter der Kontrolle eines einzelnen Unternehmens steht und neutral und inklusiv bleiben wird.
  • Funktionserweiterung: Technisch umfasst die Roadmap die Erweiterung der Unterstützung auf weitere Zahlungsarten und Anwendungsfälle. Wie in der Spezifikation erwähnt, wird sich der Fokus nach Karten auf „Push“-Zahlungen wie Banküberweisungen und lokale Echtzeit-Zahlungssysteme sowie digitale Währungen verlagern. Dies bedeutet, dass AP2 darlegen wird, wie ein Intent/Cart/Payment Mandate beispielsweise für eine direkte Banküberweisung oder eine Krypto-Wallet-Überweisung funktioniert, wo der Ablauf etwas anders ist als bei Kartenzahlungen. Die A2A x402-Erweiterung ist eine solche Erweiterung für Krypto; ähnlich könnten wir eine Erweiterung für Open-Banking-APIs oder eine für B2B-Rechnungsszenarien sehen.
  • Sicherheits- und Compliance-Verbesserungen: Sobald reale Transaktionen über AP2 laufen, wird es eine genaue Prüfung durch Regulierungsbehörden und Sicherheitsforscher geben. Der offene Prozess wird wahrscheinlich iterativ daran arbeiten, Mandate noch robuster zu machen (z. B. Sicherstellung der Standardisierung von Mandatsformaten, möglicherweise unter Verwendung des W3C Verifiable Credentials-Formats usw.). Die Integration mit Identitätslösungen (möglicherweise unter Nutzung von Biometrie für die Nutzerunterschrift von Mandaten oder die Verknüpfung von Mandaten mit digitalen Identitäts-Wallets) könnte Teil der Roadmap sein, um das Vertrauen zu stärken.
  • Ökosystem-Tools: Ein aufkommendes Ökosystem ist wahrscheinlich. Bereits jetzt bemerken Startups Lücken – zum Beispiel erwähnt die Vellum.ai-Analyse ein Startup namens Autumn, das „Billing-Infrastruktur für KI“ aufbaut, im Wesentlichen Tools auf Basis von Stripe, um komplexe Preisgestaltung für KI-Dienste zu handhaben. Wenn AP2 an Fahrt gewinnt, können wir mehr Tools wie agenten-fokussierte Zahlungsgateways, Mandatsverwaltungs-Dashboards, Agenten-Identitätsverifizierungsdienste usw. erwarten. Googles Beteiligung bedeutet, dass AP2 auch in seine Cloud-Produkte integriert werden könnte – stellen Sie sich AP2-Unterstützung in Dialogflow oder Vertex AI Agents Tools vor, die es einem Agenten mit einem Klick ermöglichen, Transaktionen abzuwickeln (wobei alle notwendigen Schlüssel und Zertifikate in Google Cloud verwaltet werden).

Insgesamt erinnert die Entwicklung von AP2 an andere große Industriestandards: ein anfänglicher Start mit einem starken Sponsor (Google), eine breite Branchenkoalition, Open-Source-Referenzcode, gefolgt von iterativer Verbesserung und schrittweiser Akzeptanz in realen Produkten. Die Tatsache, dass AP2 alle Akteure einlädt, „diese Zukunft mit uns zu gestalten“, unterstreicht, dass die Roadmap auf Zusammenarbeit basiert. Wenn der Schwung anhält, könnte AP2 in wenigen Jahren so alltäglich werden wie Protokolle wie OAuth oder OpenID Connect heute in ihren Bereichen – eine unsichtbare, aber kritische Schicht, die Funktionalität über Dienste hinweg ermöglicht.

Fazit

AP2 (Agents/Agent Payments Protocol) stellt einen bedeutenden Schritt in eine Zukunft dar, in der KI-Agenten so zuverlässig und sicher Transaktionen durchführen können wie Menschen. Technisch führt es einen cleveren Mechanismus von verifizierbaren Mandaten und Berechtigungsnachweisen ein, der Vertrauen in agentengesteuerte Transaktionen schafft und sicherstellt, dass die Nutzerabsicht explizit und durchsetzbar ist. Seine offene, erweiterbare Architektur ermöglicht die Integration sowohl in die aufstrebenden KI-Agenten-Frameworks als auch in die etablierte Finanzinfrastruktur. Durch die Adressierung der Kernanliegen Autorisierung, Authentizität und Verantwortlichkeit legt AP2 den Grundstein dafür, dass der KI-gesteuerte Handel florieren kann, ohne Sicherheit oder Nutzerkontrolle zu opfern.

Die Einführung von AP2 kann als Schaffung einer neuen Grundlage – ähnlich wie frühe Internetprotokolle das Web ermöglichten – für das, was manche als „Agenten-Ökonomie“ bezeichnen, angesehen werden. Es ebnet den Weg für unzählige Innovationen: persönliche Einkaufsagenten, automatische Schnäppchenfinder-Bots, autonome Lieferkettenagenten und mehr, die alle unter einem gemeinsamen Vertrauens-Framework agieren. Wichtig ist, dass das inklusive Design von AP2 (das alles von Kreditkarten bis Krypto umfasst) es an der Schnittstelle von traditionellen Finanzen und Web3 positioniert und diese Welten möglicherweise durch ein gemeinsames agentenvermitteltes Protokoll überbrückt.

Die bisherige Branchenreaktion war sehr positiv, wobei eine breite Koalition signalisiert, dass AP2 wahrscheinlich ein weit verbreiteter Standard werden wird. Der Erfolg von AP2 wird von der fortgesetzten Zusammenarbeit und realen Tests abhängen, aber seine Aussichten sind angesichts des klaren Bedarfs, den es adressiert, stark. Im weiteren Sinne veranschaulicht AP2, wie sich Technologie entwickelt: Eine neue Fähigkeit (KI-Agenten) entstand, die alte Annahmen brach, und die Lösung bestand darin, einen neuen offenen Standard zu entwickeln, um diese Fähigkeit zu berücksichtigen. Indem Google und seine Partner jetzt in ein offenes, sicherheitsorientiertes Protokoll investieren, bauen sie effektiv die Vertrauensarchitektur auf, die für die nächste Ära des Handels erforderlich ist. Wie das Sprichwort sagt: „Der beste Weg, die Zukunft vorherzusagen, ist, sie zu bauen“ – AP2 ist eine Wette auf eine Zukunft, in der KI-Agenten nahtlos Transaktionen für uns abwickeln, und es konstruiert aktiv das Vertrauen und die Regeln, die notwendig sind, um diese Zukunft praktikabel zu machen.

Quellen:

  • Google Cloud Blog – „KI-Handel mit dem neuen Agent Payments Protocol (AP2) vorantreiben“ (16. September 2025)
  • AP2 GitHub Dokumentation – „Agent Payments Protocol Spezifikation und Übersicht“
  • Vellum AI Blog – „Googles AP2: Ein neues Protokoll für KI-Agenten-Zahlungen“ (Analyse)
  • Medium Artikel – „Google Agent Payments Protocol (AP2)“ (Zusammenfassung von Tahir, September 2025)
  • Partnerzitate zu AP2 (Google Cloud Blog)
  • A2A x402 Erweiterung (AP2 Krypto-Zahlungserweiterung) – GitHub README

Dezentrale Verschlüsselung mit @mysten/seal aufbauen: Ein Entwickler-Tutorial

· 13 Minuten Lesezeit
Dora Noda
Software Engineer

Datenschutz wird zur öffentlichen Infrastruktur. Im Jahr 2025 benötigen Entwickler Tools, die Verschlüsselung so einfach machen wie Datenspeicherung. Mysten Labs' Seal bietet genau das – dezentrales Geheimnismanagement mit On-Chain-Zugriffskontrolle. Dieses Tutorial zeigt Ihnen, wie Sie sichere Web3-Anwendungen mithilfe von identitätsbasierter Verschlüsselung, Schwellenwertsicherheit und programmierbaren Zugriffsrichtlinien erstellen.


Einführung: Warum Seal für Web3 wichtig ist

Traditionelle Cloud-Anwendungen verlassen sich auf zentralisierte Schlüsselverwaltungssysteme, bei denen ein einziger Anbieter den Zugriff auf verschlüsselte Daten kontrolliert. Obwohl dies bequem ist, schafft es gefährliche Single Points of Failure. Wenn der Anbieter kompromittiert wird, offline geht oder den Zugriff einschränkt, werden Ihre Daten unzugänglich oder anfällig.

Seal ändert dieses Paradigma vollständig. Von Mysten Labs für die Sui Blockchain entwickelt, ist Seal ein dezentraler Geheimnismanagement-Dienst (DSM), der Folgendes ermöglicht:

  • Identitätsbasierte Verschlüsselung, bei der Inhalte geschützt werden, bevor sie Ihre Umgebung verlassen
  • Schwellenwertverschlüsselung, die den Schlüsselzugriff auf mehrere unabhängige Nodes verteilt
  • On-Chain-Zugriffskontrolle mit Zeitsperren, Token-Gating und benutzerdefinierter Autorisierungslogik
  • Speicherunabhängiges Design, das mit Walrus, IPFS oder jeder anderen Speicherlösung funktioniert

Egal, ob Sie sichere Messaging-Apps, zugangsgeschützte Inhaltsplattformen oder zeitgesperrte Asset-Transfers erstellen, Seal bietet die kryptografischen Primitive und die Infrastruktur zur Zugriffskontrolle, die Sie benötigen.


Erste Schritte

Voraussetzungen

Bevor Sie eintauchen, stellen Sie sicher, dass Sie Folgendes haben:

  • Node.js 18+ installiert
  • Grundkenntnisse in TypeScript/JavaScript
  • Eine Sui Wallet zum Testen (z. B. Sui Wallet)
  • Verständnis von Blockchain-Konzepten

Installation

Installieren Sie das Seal SDK via npm:

npm install @mysten/seal

Sie benötigen auch das Sui SDK für Blockchain-Interaktionen:

npm install @mysten/sui

Projekteinrichtung

Erstellen Sie ein neues Projekt und initialisieren Sie es:

mkdir seal-tutorial
cd seal-tutorial
npm init -y
npm install @mysten/seal @mysten/sui typescript @types/node

Erstellen Sie eine einfache TypeScript-Konfiguration:

// tsconfig.json
{
"compilerOptions": {
"target": "ES2020",
"module": "commonjs",
"strict": true,
"esModuleInterop": true,
"skipLibCheck": true,
"forceConsistentCasingInFileNames": true
}
}

Kernkonzepte: Wie Seal funktioniert

Bevor wir Code schreiben, lassen Sie uns die Architektur von Seal verstehen:

1. Identitätsbasierte Verschlüsselung (IBE)

Im Gegensatz zur traditionellen Verschlüsselung, bei der Sie auf einen öffentlichen Schlüssel verschlüsseln, ermöglicht Ihnen IBE die Verschlüsselung auf eine Identität (wie eine E-Mail-Adresse oder Sui-Adresse). Der Empfänger kann nur entschlüsseln, wenn er nachweisen kann, dass er diese Identität kontrolliert.

2. Schwellenwertverschlüsselung

Anstatt einem einzelnen Schlüsselserver zu vertrauen, verwendet Seal t-von-n Schwellenwertschemata. Sie könnten 3 von 5 Schlüsselservern konfigurieren, was bedeutet, dass beliebige 3 Server zusammenarbeiten können, um Entschlüsselungsschlüssel bereitzustellen, aber 2 oder weniger dies nicht können.

3. On-Chain-Zugriffskontrolle

Zugriffsrichtlinien werden durch Sui Smart Contracts durchgesetzt. Bevor ein Schlüsselserver Entschlüsselungsschlüssel bereitstellt, überprüft er, ob der Anfragende die On-Chain-Richtlinienanforderungen (Token-Besitz, Zeitbeschränkungen usw.) erfüllt.

4. Schlüsselserver-Netzwerk

Verteilte Schlüsselserver validieren Zugriffsrichtlinien und generieren Entschlüsselungsschlüssel. Diese Server werden von verschiedenen Parteien betrieben, um keinen Single Point of Control zu gewährleisten.


Grundlegende Implementierung: Ihre erste Seal-Anwendung

Erstellen wir eine einfache Anwendung, die sensible Daten verschlüsselt und den Zugriff über Sui Blockchain-Richtlinien steuert.

Schritt 1: Seal Client initialisieren

// src/seal-client.ts
import { SealClient } from '@mysten/seal';
import { SuiClient } from '@mysten/sui/client';

export async function createSealClient() {
// Initialize Sui client for testnet
const suiClient = new SuiClient({
url: 'https://fullnode.testnet.sui.io'
});

// Configure Seal client with testnet key servers
const sealClient = new SealClient({
suiClient,
keyServers: [
'https://keyserver1.seal-testnet.com',
'https://keyserver2.seal-testnet.com',
'https://keyserver3.seal-testnet.com'
],
threshold: 2, // 2-of-3 threshold
network: 'testnet'
});

return { sealClient, suiClient };
}

Schritt 2: Einfache Verschlüsselung/Entschlüsselung

// src/basic-encryption.ts
import { createSealClient } from './seal-client';

async function basicExample() {
const { sealClient } = await createSealClient();

// Data to encrypt
const sensitiveData = "This is my secret message!";
const recipientAddress = "0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

try {
// Encrypt data for a specific Sui address
const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, 'utf-8'),
recipientId: recipientAddress,
// Optional: add metadata
metadata: {
contentType: 'text/plain',
timestamp: Date.now()
}
});

console.log('Encrypted data:', {
ciphertext: encryptedData.ciphertext.toString('base64'),
encryptionId: encryptedData.encryptionId
});

// Later, decrypt the data (requires proper authorization)
const decryptedData = await sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientAddress
});

console.log('Decrypted data:', decryptedData.toString('utf-8'));

} catch (error) {
console.error('Encryption/decryption failed:', error);
}
}

basicExample();

Zugriffskontrolle mit Sui Smart Contracts

Die wahre Stärke von Seal liegt in der programmierbaren Zugriffskontrolle. Erstellen wir ein Beispiel für eine zeitgesperrte Verschlüsselung, bei der Daten erst nach einer bestimmten Zeit entschlüsselt werden können.

Schritt 1: Zugriffssteuerungs-Vertrag bereitstellen

Zuerst benötigen wir einen Move Smart Contract, der unsere Zugriffsrichtlinie definiert:

// contracts/time_lock.move
module time_lock::policy {
use sui::clock::{Self, Clock};
use sui::object::{Self, UID};
use sui::tx_context::{Self, TxContext};

public struct TimeLockPolicy has key, store {
id: UID,
unlock_time: u64,
authorized_user: address,
}

public fun create_time_lock(
unlock_time: u64,
authorized_user: address,
ctx: &mut TxContext
): TimeLockPolicy {
TimeLockPolicy {
id: object::new(ctx),
unlock_time,
authorized_user,
}
}

public fun can_decrypt(
policy: &TimeLockPolicy,
user: address,
clock: &Clock
): bool {
let current_time = clock::timestamp_ms(clock);
policy.authorized_user == user && current_time >= policy.unlock_time
}
}

Schritt 2: Mit Seal integrieren

// src/time-locked-encryption.ts
import { createSealClient } from './seal-client';
import { TransactionBlock } from '@mysten/sui/transactions';

async function createTimeLocked() {
const { sealClient, suiClient } = await createSealClient();

// Create access policy on Sui
const txb = new TransactionBlock();

const unlockTime = Date.now() + 60000; // Unlock in 1 minute
const authorizedUser = "0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

txb.moveCall({
target: 'time_lock::policy::create_time_lock',
arguments: [
txb.pure(unlockTime),
txb.pure(authorizedUser)
]
});

// Execute transaction to create policy
const result = await suiClient.signAndExecuteTransactionBlock({
transactionBlock: txb,
signer: yourKeypair, // Your Sui keypair
});

const policyId = result.objectChanges?.find(
change => change.type === 'created'
)?.objectId;

// Now encrypt with this policy
const sensitiveData = "This will unlock in 1 minute!";

const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, 'utf-8'),
recipientId: authorizedUser,
accessPolicy: {
policyId,
policyType: 'time_lock'
}
});

console.log('Time-locked data created. Try decrypting after 1 minute.');

return {
encryptedData,
policyId,
unlockTime
};
}

Praktische Beispiele

Beispiel 1: Sichere Messaging-Anwendung

// src/secure-messaging.ts
import { createSealClient } from './seal-client';

class SecureMessenger {
private sealClient: any;

constructor(sealClient: any) {
this.sealClient = sealClient;
}

async sendMessage(
message: string,
recipientAddress: string,
senderKeypair: any
) {
const messageData = {
content: message,
timestamp: Date.now(),
sender: senderKeypair.toSuiAddress(),
messageId: crypto.randomUUID()
};

const encryptedMessage = await this.sealClient.encrypt({
data: Buffer.from(JSON.stringify(messageData), 'utf-8'),
recipientId: recipientAddress,
metadata: {
type: 'secure_message',
sender: senderKeypair.toSuiAddress()
}
});

// Store encrypted message on decentralized storage (Walrus)
return this.storeOnWalrus(encryptedMessage);
}

async readMessage(encryptionId: string, recipientKeypair: any) {
// Retrieve from storage
const encryptedData = await this.retrieveFromWalrus(encryptionId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientKeypair.toSuiAddress()
});

return JSON.parse(decryptedData.toString('utf-8'));
}

private async storeOnWalrus(data: any) {
// Integration with Walrus storage
// This would upload the encrypted data to Walrus
// and return the blob ID for retrieval
}

private async retrieveFromWalrus(blobId: string) {
// Retrieve encrypted data from Walrus using blob ID
}
}

Beispiel 2: Token-Gated Content-Plattform

// src/gated-content.ts
import { createSealClient } from './seal-client';

class ContentGating {
private sealClient: any;
private suiClient: any;

constructor(sealClient: any, suiClient: any) {
this.sealClient = sealClient;
this.suiClient = suiClient;
}

async createGatedContent(
content: string,
requiredNftCollection: string,
creatorKeypair: any
) {
// Create NFT ownership policy
const accessPolicy = await this.createNftPolicy(
requiredNftCollection,
creatorKeypair
);

// Encrypt content with NFT access requirement
const encryptedContent = await this.sealClient.encrypt({
data: Buffer.from(content, 'utf-8'),
recipientId: 'nft_holders', // Special recipient for NFT holders
accessPolicy: {
policyId: accessPolicy.policyId,
policyType: 'nft_ownership'
}
});

return {
contentId: encryptedContent.encryptionId,
accessPolicy: accessPolicy.policyId
};
}

async accessGatedContent(
contentId: string,
userAddress: string,
userKeypair: any
) {
// Verify NFT ownership first
const hasAccess = await this.verifyNftOwnership(
userAddress,
contentId
);

if (!hasAccess) {
throw new Error('Access denied: Required NFT not found');
}

// Decrypt content
const decryptedContent = await this.sealClient.decrypt({
encryptionId: contentId,
recipientId: userAddress
});

return decryptedContent.toString('utf-8');
}

private async createNftPolicy(collection: string, creator: any) {
// Create Move contract that checks NFT ownership
// Returns policy object ID
}

private async verifyNftOwnership(user: string, contentId: string) {
// Check if user owns required NFT
// Query Sui for NFT ownership
}
}

Beispiel 3: Zeitgesperrter Asset-Transfer

// src/time-locked-transfer.ts
import { createSealClient } from './seal-client';

async function createTimeLockTransfer(
assetData: any,
recipientAddress: string,
unlockTimestamp: number,
senderKeypair: any
) {
const { sealClient, suiClient } = await createSealClient();

// Create time-lock policy on Sui
const timeLockPolicy = await createTimeLockPolicy(
unlockTimestamp,
recipientAddress,
senderKeypair,
suiClient
);

// Encrypt asset transfer data
const transferData = {
asset: assetData,
recipient: recipientAddress,
unlockTime: unlockTimestamp,
transferId: crypto.randomUUID()
};

const encryptedTransfer = await sealClient.encrypt({
data: Buffer.from(JSON.stringify(transferData), 'utf-8'),
recipientId: recipientAddress,
accessPolicy: {
policyId: timeLockPolicy.policyId,
policyType: 'time_lock'
}
});

console.log(`Asset locked until ${new Date(unlockTimestamp)}`);

return {
transferId: encryptedTransfer.encryptionId,
unlockTime: unlockTimestamp,
policyId: timeLockPolicy.policyId
};
}

async function claimTimeLockTransfer(
transferId: string,
recipientKeypair: any
) {
const { sealClient } = await createSealClient();

try {
const decryptedData = await sealClient.decrypt({
encryptionId: transferId,
recipientId: recipientKeypair.toSuiAddress()
});

const transferData = JSON.parse(decryptedData.toString('utf-8'));

// Process the asset transfer
console.log('Asset transfer unlocked:', transferData);

return transferData;
} catch (error) {
console.error('Transfer not yet unlocked or access denied:', error);
throw error;
}
}

Integration mit Walrus Dezentralem Speicher

Seal funktioniert nahtlos mit Walrus, Suis dezentraler Speicherlösung. So integrieren Sie beide:

// src/walrus-integration.ts
import { createSealClient } from './seal-client';

class SealWalrusIntegration {
private sealClient: any;
private walrusClient: any;

constructor(sealClient: any, walrusClient: any) {
this.sealClient = sealClient;
this.walrusClient = walrusClient;
}

async storeEncryptedData(
data: Buffer,
recipientAddress: string,
accessPolicy?: any
) {
// Encrypt with Seal
const encryptedData = await this.sealClient.encrypt({
data,
recipientId: recipientAddress,
accessPolicy
});

// Store encrypted data on Walrus
const blobId = await this.walrusClient.store(
encryptedData.ciphertext
);

// Return reference that includes both Seal and Walrus info
return {
blobId,
encryptionId: encryptedData.encryptionId,
accessPolicy: encryptedData.accessPolicy
};
}

async retrieveAndDecrypt(
blobId: string,
encryptionId: string,
userKeypair: any
) {
// Retrieve from Walrus
const encryptedData = await this.walrusClient.retrieve(blobId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData,
encryptionId,
recipientId: userKeypair.toSuiAddress()
});

return decryptedData;
}
}

// Usage example
async function walrusExample() {
const { sealClient } = await createSealClient();
const walrusClient = new WalrusClient('https://walrus-testnet.sui.io');

const integration = new SealWalrusIntegration(sealClient, walrusClient);

const fileData = Buffer.from('Important document content');
const recipientAddress = '0x...';

// Store encrypted
const result = await integration.storeEncryptedData(
fileData,
recipientAddress
);

console.log('Stored with Blob ID:', result.blobId);

// Later, retrieve and decrypt
const decrypted = await integration.retrieveAndDecrypt(
result.blobId,
result.encryptionId,
recipientKeypair
);

console.log('Retrieved data:', decrypted.toString());
}

Schwellenwertverschlüsselung: Erweiterte Konfiguration

Für Produktionsanwendungen möchten Sie eine benutzerdefinierte Schwellenwertverschlüsselung mit mehreren Schlüsselservern konfigurieren:

// src/advanced-threshold.ts
import { SealClient } from '@mysten/seal';

async function setupProductionSeal() {
// Configure with multiple independent key servers
const keyServers = [
'https://keyserver-1.your-org.com',
'https://keyserver-2.partner-org.com',
'https://keyserver-3.third-party.com',
'https://keyserver-4.backup-provider.com',
'https://keyserver-5.fallback.com'
];

const sealClient = new SealClient({
keyServers,
threshold: 3, // 3-of-5 threshold
network: 'mainnet',
// Advanced options
retryAttempts: 3,
timeoutMs: 10000,
backupKeyServers: [
'https://backup-1.emergency.com',
'https://backup-2.emergency.com'
]
});

return sealClient;
}

async function robustEncryption() {
const sealClient = await setupProductionSeal();

const criticalData = "Mission critical encrypted data";

// Encrypt with high security guarantees
const encrypted = await sealClient.encrypt({
data: Buffer.from(criticalData, 'utf-8'),
recipientId: '0x...',
// Require all 5 servers for maximum security
customThreshold: 5,
// Add redundancy
redundancy: 2,
accessPolicy: {
// Multi-factor requirements
requirements: ['nft_ownership', 'time_lock', 'multisig_approval']
}
});

return encrypted;
}

Best Practices für Sicherheit

1. Schlüsselmanagement

// src/security-practices.ts

// GOOD: Use secure key derivation
import { generateKeypair } from '@mysten/sui/cryptography/ed25519';

const keypair = generateKeypair();

// GOOD: Store keys securely (example with environment variables)
const keypair = Ed25519Keypair.fromSecretKey(
process.env.PRIVATE_KEY
);

// BAD: Never hardcode keys
const badKeypair = Ed25519Keypair.fromSecretKey(
"hardcoded-secret-key-12345" // Don't do this!
);

2. Validierung der Zugriffsrichtlinie

// Always validate access policies before encryption
async function secureEncrypt(data: Buffer, recipient: string) {
const { sealClient } = await createSealClient();

// Validate recipient address
if (!isValidSuiAddress(recipient)) {
throw new Error('Invalid recipient address');
}

// Check policy exists and is valid
const policy = await validateAccessPolicy(policyId);
if (!policy.isValid) {
throw new Error('Invalid access policy');
}

return sealClient.encrypt({
data,
recipientId: recipient,
accessPolicy: policy
});
}

3. Fehlerbehandlung und Fallbacks

// Robust error handling
async function resilientDecrypt(encryptionId: string, userKeypair: any) {
const { sealClient } = await createSealClient();

try {
return await sealClient.decrypt({
encryptionId,
recipientId: userKeypair.toSuiAddress()
});
} catch (error) {
if (error.code === 'ACCESS_DENIED') {
throw new Error('Access denied: Check your permissions');
} else if (error.code === 'KEY_SERVER_UNAVAILABLE') {
// Try with backup configuration
return await retryWithBackupServers(encryptionId, userKeypair);
} else if (error.code === 'THRESHOLD_NOT_MET') {
throw new Error('Insufficient key servers available');
} else {
throw new Error(`Decryption failed: ${error.message}`);
}
}
}

4. Datenvalidierung

// Validate data before encryption
function validateDataForEncryption(data: Buffer): boolean {
// Check size limits
if (data.length > 1024 * 1024) { // 1MB limit
throw new Error('Data too large for encryption');
}

// Check for sensitive patterns (optional)
const dataStr = data.toString();
if (containsSensitivePatterns(dataStr)) {
console.warn('Warning: Data contains potentially sensitive patterns');
}

return true;
}

Leistungsoptimierung

1. Batch-Operationen

// Batch multiple encryptions for efficiency
async function batchEncrypt(dataItems: Buffer[], recipients: string[]) {
const { sealClient } = await createSealClient();

const promises = dataItems.map((data, index) =>
sealClient.encrypt({
data,
recipientId: recipients[index]
})
);

return Promise.all(promises);
}

2. Caching von Schlüsselserver-Antworten

// Cache key server sessions to reduce latency
class OptimizedSealClient {
private sessionCache = new Map();

async encryptWithCaching(data: Buffer, recipient: string) {
let session = this.sessionCache.get(recipient);

if (!session || this.isSessionExpired(session)) {
session = await this.createNewSession(recipient);
this.sessionCache.set(recipient, session);
}

return this.encryptWithSession(data, session);
}
}

Testen Ihrer Seal-Integration

Unit-Tests

// tests/seal-integration.test.ts
import { describe, it, expect } from 'jest';
import { createSealClient } from '../src/seal-client';

describe('Seal Integration', () => {
it('should encrypt and decrypt data successfully', async () => {
const { sealClient } = await createSealClient();
const testData = Buffer.from('test message');
const recipient = '0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8';

const encrypted = await sealClient.encrypt({
data: testData,
recipientId: recipient
});

expect(encrypted.encryptionId).toBeDefined();
expect(encrypted.ciphertext).toBeDefined();

const decrypted = await sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: recipient
});

expect(decrypted.toString()).toBe('test message');
});

it('should enforce access control policies', async () => {
// Test that unauthorized users cannot decrypt
const { sealClient } = await createSealClient();

const encrypted = await sealClient.encrypt({
data: Buffer.from('secret'),
recipientId: 'authorized-user'
});

await expect(
sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: 'unauthorized-user'
})
).rejects.toThrow('Access denied');
});
});

Bereitstellung für die Produktion

Umgebungskonfiguration

// config/production.ts
export const productionConfig = {
keyServers: [
process.env.KEY_SERVER_1,
process.env.KEY_SERVER_2,
process.env.KEY_SERVER_3,
process.env.KEY_SERVER_4,
process.env.KEY_SERVER_5
],
threshold: 3,
network: 'mainnet',
suiRpc: process.env.SUI_RPC_URL,
walrusGateway: process.env.WALRUS_GATEWAY,
// Security settings
maxDataSize: 1024 * 1024, // 1MB
sessionTimeout: 3600000, // 1 hour
retryAttempts: 3
};

Überwachung und Protokollierung

// utils/monitoring.ts
export class SealMonitoring {
static logEncryption(encryptionId: string, recipient: string) {
console.log(`[SEAL] Encrypted data ${encryptionId} for ${recipient}`);
// Send to your monitoring service
}

static logDecryption(encryptionId: string, success: boolean) {
console.log(`[SEAL] Decryption ${encryptionId}: ${success ? 'SUCCESS' : 'FAILED'}`);
}

static logKeyServerHealth(serverUrl: string, status: string) {
console.log(`[SEAL] Key server ${serverUrl}: ${status}`);
}
}

Ressourcen und nächste Schritte

Offizielle Dokumentation

Community und Support

  • Sui Discord: Treten Sie dem #seal-Kanal für Community-Support bei
  • GitHub Issues: Melden Sie Fehler und fordern Sie Funktionen an
  • Developer Forums: Sui Community-Foren für Diskussionen

Erweiterte Themen zum Erkunden

  1. Benutzerdefinierte Zugriffsrichtlinien: Erstellen Sie komplexe Autorisierungslogik mit Move-Verträgen
  2. Cross-Chain-Integration: Verwenden Sie Seal mit anderen Blockchain-Netzwerken
  3. Enterprise-Schlüsselmanagement: Richten Sie Ihre eigene Schlüsselserver-Infrastruktur ein
  4. Audit und Compliance: Implementieren Sie Protokollierung und Überwachung für regulierte Umgebungen

Beispielanwendungen

  • Sichere Chat-App: Ende-zu-Ende-verschlüsseltes Messaging mit Seal
  • Dokumentenmanagement: Unternehmensweite Dokumentenfreigabe mit Zugriffskontrollen
  • Digital Rights Management: Inhaltsverteilung mit Nutzungsrichtlinien
  • Datenschutzfreundliche Analysen: Verschlüsselte Datenverarbeitungsworkflows

Fazit

Seal stellt einen fundamentalen Wandel dar, um Datenschutz und Verschlüsselung zu Infrastruktur-Anliegen in Web3 zu machen. Durch die Kombination von identitätsbasierter Verschlüsselung, Schwellenwertsicherheit und programmierbarer Zugriffskontrolle bietet es Entwicklern leistungsstarke Tools zum Aufbau wirklich sicherer und dezentraler Anwendungen.

Die Hauptvorteile der Entwicklung mit Seal umfassen:

  • Kein Single Point of Failure: Verteilte Schlüsselserver eliminieren zentrale Autoritäten
  • Programmierbare Sicherheit: Smart-Contract-basierte Zugriffsrichtlinien bieten flexible Autorisierung
  • Entwicklerfreundlich: Das TypeScript SDK lässt sich nahtlos in bestehende Web3-Tools integrieren
  • Speicherunabhängig: Funktioniert mit Walrus, IPFS oder jeder Speicherlösung
  • Produktionsreif: Von Mysten Labs mit Unternehmenssicherheitsstandards entwickelt

Egal, ob Sie Benutzerdaten sichern, Abonnementmodelle implementieren oder komplexe Mehrparteienanwendungen erstellen, Seal bietet die kryptografischen Primitive und die Infrastruktur zur Zugriffskontrolle, die Sie benötigen, um mit Vertrauen zu entwickeln.

Beginnen Sie noch heute mit der Entwicklung und treten Sie dem wachsenden Ökosystem von Entwicklern bei, die Datenschutz zu einem fundamentalen Bestandteil der öffentlichen Infrastruktur machen.


Bereit, mit der Entwicklung zu beginnen? Installieren Sie @mysten/seal und experimentieren Sie mit den Beispielen in diesem Tutorial. Das dezentrale Web wartet auf Anwendungen, die Datenschutz und Sicherheit an erste Stelle setzen.

Das Web3-Rechts-Playbook: 50 FAQs, die jeder Builder meistern sollte

· 6 Minuten Lesezeit
Dora Noda
Software Engineer

Ein Protokoll zu starten oder ein On-Chain-Produkt zu skalieren, ist nicht länger nur eine technische Übung. Regulierungsbehörden prüfen alles, von Token-Starts bis hin zur Wallet-Privatsphäre, während Nutzer Schutz auf Verbraucherniveau erwarten. Um weiterhin mit Zuversicht liefern zu können, benötigt jedes Gründerteam einen strukturierten Weg, um dichte Rechtsgutachten in Produktentscheidungen zu übersetzen. Basierend auf 50 der häufigsten Fragen, die Web3-Anwälte hören, gliedert dieses Playbook die Diskussion in entwicklergerechte Schritte.

1. Gründung & Governance: Trennen Sie die Devco, die Stiftung und die Community

  • Wählen Sie die richtige Rechtsform. Standard-C-Corporations oder LLCs eignen sich immer noch am besten für Gehaltsabrechnungen, geistiges Eigentum und die Due Diligence von Investoren. Wenn Sie ein Protokoll oder ein Förderprogramm verwalten möchten, sorgt eine separate gemeinnützige Organisation oder Stiftung für saubere Anreize und transparente Governance.
  • Dokumentieren Sie jede Beziehung. Verwenden Sie IP-Abtretungen, Vertraulichkeitsvereinbarungen und Vesting-Zeitpläne mit klaren Cliffs, Lockups und Clawbacks für Fehlverhalten. Dokumentieren Sie Vorstandsgenehmigungen und halten Sie Token-Cap-Tables so präzise wie Ihre Eigenkapitalbücher.
  • Ziehen Sie klare Grenzen zwischen den Entitäten. Ein Entwicklungsunternehmen kann unter Lizenz bauen, aber Budget, Treasury-Politik und Entscheidungsrechte sollten bei einer Stiftung oder DAO liegen, die ihre eigene Satzung und Verfassung hat. Wo eine DAO Rechtspersönlichkeit benötigt, sollte sie in eine LLC oder ein Äquivalent gehüllt werden.

2. Tokens & Wertpapiere: Auf Nutzen ausgelegt, Begründung dokumentiert

  • Gehen Sie davon aus, dass Regulierungsbehörden über Etiketten hinwegsehen. „Governance“- oder „Utility“-Tags sind nur relevant, wenn Nutzer tatsächlich mit einem Live-Netzwerk interagieren, zum Verbrauch kaufen und keine Gewinnchancen in Aussicht gestellt bekommen. Lockups können Spekulationen reduzieren, sollten aber als Stabilitäts- oder Anti-Sybil-Schutzmaßnahmen gerechtfertigt sein.
  • Unterscheiden Sie Zugang von Investition. Zugangstokens sollten wie Produktpässe gelesen werden – Preisgestaltung, Dokumente und Marketing müssen den Anspruch auf Dienstleistungen, nicht auf zukünftige Gewinne, untermauern. Stablecoins unterliegen je nach Reserven und Einlösungsrechten eigenen Zahlungs- oder E-Geld-Regimen.
  • Behandeln Sie Staking und Renditen wie Finanzprodukte. Jedes Versprechen von APRs, Pooling oder die Abhängigkeit von den Bemühungen des Teams erhöht das Wertpapierrisiko. Halten Sie das Marketing einfach, teilen Sie Risikofaktoren mit und erstellen Sie einen konformen SAFT-zu-Mainnet-Plan, wenn Sie mit zukünftigen Tokens Kapital beschaffen.
  • Denken Sie daran, dass NFTs Wertpapiere sein können. Fraktionierter Besitz, Umsatzbeteiligungen oder Gewinnsprache stufen sie als Investition ein. Schlanke, konsumtive NFTs mit expliziten Lizenzen sind sicherer.

3. Fundraising & Verkäufe: Vermarkten Sie das Netzwerk, nicht den Moonshot

  • Offenlegen wie ein Erwachsener. Zweck, Funktionalität, Vesting, Zuteilungen, Übertragungslimits, Abhängigkeiten und die Verwendung der Erlöse gehören in jedes Verkaufs-Memo. Halten Sie Marketingtexte mit diesen Dokumenten abgestimmt – keine Tweets über „garantierte Rendite“.
  • Respektieren Sie Jurisdiktionsgrenzen. Wenn Sie die US-amerikanischen oder andere hochregulierte Regime nicht einhalten können, kombinieren Sie Geofencing mit Eignungsprüfungen, vertraglichen Beschränkungen und Überwachung nach dem Verkauf. KYC/AML ist Standard für Verkäufe und zunehmend auch für Airdrops.
  • Promotionsrisiko managen. Influencer-Kampagnen erfordern klare Sponsoring-Offenlegungen und konforme Skripte. Börsenlistungen oder Market-Making-Deals erfordern schriftliche Vereinbarungen, Konfliktprüfungen und ehrliche Kommunikation mit den Plattformen.

4. AML, Steuern und IP: Kontrollen in das Produkt integrieren

  • Kennen Sie Ihre regulatorische Rolle. Nicht-verwahrungsfähige Software hat geringere AML-Verpflichtungen, aber sobald Sie Fiat-Rampen, Verwahrung oder intermediären Austausch berühren, gelten Geldtransfer- oder VASP-Regeln. Bereiten Sie Sanktionsprüfungen, Eskalationspfade und Travel-Rule-Bereitschaft vor, wo relevant.
  • Behandeln Sie Tokens wie Bargeld für die Buchhaltung. Token-Zuflüsse sind typischerweise Einkommen zum fairen Marktwert; spätere Verkäufe lösen Gewinne oder Verluste aus. Vergütungszuschüsse erzeugen oft steuerpflichtiges Einkommen beim Vesting – verwenden Sie schriftliche Zuschüsse, verfolgen Sie die Anschaffungskosten und bereiten Sie sich auf Volatilität vor.
  • Respektieren Sie IP-Grenzen. Kombinieren Sie NFTs und On-Chain-Inhalte mit expliziten Lizenzen, respektieren Sie Open-Source-Bedingungen Dritter und registrieren Sie Marken. Wenn Sie KI-Modelle trainieren, bestätigen Sie die Rechte an den Datensätzen und bereinigen Sie sensible Daten.

5. Datenschutz & Daten: Sammlung begrenzen, Löschung planen

  • Gehen Sie davon aus, dass Wallet-Adressen personenbezogene Daten sind. Kombinieren Sie sie mit IPs, Geräte-IDs oder E-Mails, und Sie haben persönlich identifizierbare Informationen. Sammeln Sie nur das Nötigste, speichern Sie es wenn möglich Off-Chain und hashen oder tokenisieren Sie Identifikatoren.
  • Für Löschung entwickeln. Unveränderliche Ledger entbinden Sie nicht von Datenschutzgesetzen – halten Sie PII Off-Chain, entfernen Sie Referenzen, wenn Nutzer die Löschung anfordern, und trennen Sie Links, die gehashte Daten erneut identifizieren könnten.
  • Seien Sie transparent bezüglich Telemetrie. Cookie-Banner, Analyse-Offenlegungen und Opt-Outs sind Standard. Dokumentieren Sie einen Incident-Response-Plan, der Schweregrade, Benachrichtigungsfristen und Kontaktpunkte abdeckt.

6. Betrieb & Risiko: Frühzeitig prüfen, häufig kommunizieren

  • Prüfen und offenlegen. Unabhängige Smart-Contract-Audits, formale Verifizierung wo gerechtfertigt und ein fortlaufendes Bug-Bounty-Programm signalisieren Reife. Veröffentlichen Sie Berichte und erklären Sie Restrisiken klar.
  • Legen Sie klare Nutzungsbedingungen fest. Legen Sie den Verwahrungsstatus, die Berechtigung, verbotene Nutzungen, die Streitbeilegung und den Umgang mit Forks dar. Stimmen Sie Nutzungsbedingungen, Datenschutzrichtlinie und In-Produkt-Verhalten ab.
  • Planen Sie für Forks, Versicherungen und grenzüberschreitendes Wachstum. Behalten Sie sich das Recht vor, unterstützte Chains, Snapshot-Daten und Migrationspfade zu wählen. Prüfen Sie Cyber-, Kriminalitäts-, D&O- und Tech-E&O-Versicherungen. Beim globalen Betrieb lokalisieren Sie die Bedingungen, prüfen Sie Exportkontrollen und nutzen Sie EOR/PEO-Partner, um Fehlklassifizierungen zu vermeiden.
  • Bereiten Sie sich auf Streitigkeiten vor. Entscheiden Sie im Voraus, ob Schiedsverfahren oder Sammelklagen-Verzichte zu Ihrer Nutzerbasis passen. Protokollieren Sie Anfragen von Strafverfolgungsbehörden, überprüfen Sie rechtliche Verfahren und erklären Sie technische Grenzen wie das Fehlen der Schlüsselverwahrung.

7. Die Checkliste für Builder

  • Definieren Sie Ihre operative Rolle: Softwareanbieter, Verwahrer, Makler-ähnlicher Dienst oder Zahlungsintermediär.
  • Halten Sie das Marketing sachlich und funktionsorientiert; vermeiden Sie Formulierungen, die spekulative Renditen implizieren.
  • Minimieren Sie Verwahrung und die Sammlung personenbezogener Daten; dokumentieren Sie alle unvermeidbaren Berührungspunkte.
  • Pflegen Sie lebendige Dokumente für Token-Zuteilung, Governance-Design, Audit-Status und Risikoentscheidungen.
  • Budgetieren Sie von Tag eins an für Rechtsberatung, Compliance-Tools, Audits, Bug Bounties und Steuerfachwissen.

8. Rechtsberatung in Produktgeschwindigkeit umwandeln

Regulierung wird für Builder nicht langsamer werden. Was Ergebnisse verändert, ist die Einbettung rechtlicher Überlegungen in Backlog Grooming, Treasury Management und Nutzerkommunikation. Machen Sie Rechtsberatung zu einem Teil von Sprint-Reviews, proben Sie die Incident Response und iterieren Sie Offenlegungen auf die gleiche Weise, wie Sie UX iterieren. Tun Sie das, und die 50 FAQs oben hören auf, ein Blocker zu sein, und werden zu einem Wettbewerbsvorteil für Ihr Protokoll.

Von Passwörtern zu portablen Nachweisen: Ein Leitfaden für Entwickler zur Web3-Identität im Jahr 2025

· 10 Minuten Lesezeit
Dora Noda
Software Engineer

Die meisten Apps verankern Identität immer noch an Benutzernamen, Passwörtern und zentralisierten Datenbanken. Dieses Modell ist fragil (Datenlecks), undicht (Datenweiterverkauf) und umständlich (endlose KYC-Wiederholungen). Der neue Stack, der sich um dezentrale Identifikatoren (DIDs), verifizierbare Nachweise (VCs) und Attestierungen bildet, weist auf eine andere Zukunft hin: Benutzer tragen kryptografische Nachweise von Fakten über sich selbst und geben nur das preis, was benötigt wird – nicht mehr und nicht weniger.

Dieser Beitrag fasst die aktuelle Lage zusammen und bietet einen praktischen Bauplan, den Sie noch heute umsetzen können.


Der Wandel: Von Konten zu Nachweisen

Der Kern dieses neuen Identitäts-Stacks basiert auf zwei grundlegenden W3C-Standards, die die Art und Weise, wie wir Benutzerdaten handhaben, grundlegend verändern.

  • Dezentrale Identifikatoren (DIDs): Dies sind benutzergesteuerte Identifikatoren, die kein zentrales Register wie ein Domain Name System erfordern. Stellen Sie sich eine DID als eine permanente, selbstverwaltete Adresse für die Identität vor. Eine DID löst sich in ein signiertes „DID-Dokument“ auf, das öffentliche Schlüssel und Dienstendpunkte enthält und eine sichere, dezentrale Authentifizierung ermöglicht. Der v1.0-Standard wurde am 19. Juli 2022 zu einer offiziellen W3C-Empfehlung, was einen wichtigen Meilenstein für das Ökosystem darstellt.
  • Verifizierbare Nachweise (VCs): Dies ist ein manipulationssicheres, digitales Format zur Darstellung von Behauptungen, wie z. B. „Alter über 18“, „besitzt ein Diplom der Universität X“ oder „hat eine KYC-Prüfung bestanden“. Das VC Data Model 2.0 wurde am 15. Mai 2025 zu einer W3C-Empfehlung und legt damit eine moderne Grundlage für die Ausstellung und Verifizierung dieser Nachweise fest.

Was ändert sich für Entwickler? Die Veränderung ist tiefgreifend. Anstatt sensible persönlich identifizierbare Informationen (PII) in Ihrer Datenbank zu speichern, verifizieren Sie kryptografische Nachweise, die von der Wallet des Benutzers bereitgestellt werden. Sie können nur die spezifischen Informationen anfordern, die Sie benötigen (z. B. Wohnsitz in einem bestimmten Land), ohne das zugrunde liegende Dokument einzusehen, dank leistungsstarker Primitive wie der selektiven Offenlegung.


Wo es auf die Anmeldungen trifft, die Sie bereits verwenden

Diese neue Welt erfordert kein Aufgeben vertrauter Anmeldeerlebnisse. Stattdessen ergänzt sie diese.

  • Passkeys / WebAuthn: Dies ist Ihre erste Wahl für eine Phishing-resistente Authentifizierung. Passkeys sind FIDO-Anmeldeinformationen, die an ein Gerät oder eine Biometrie (wie Face ID oder einen Fingerabdruck) gebunden sind und jetzt in allen wichtigen Browsern und Betriebssystemen weit verbreitet sind. Sie bieten ein nahtloses, passwortloses Anmeldeerlebnis für Ihre App oder Wallet.
  • Sign-In with Ethereum (SIWE / EIP-4361): Dieser Standard ermöglicht es einem Benutzer, die Kontrolle über eine Blockchain-Adresse nachzuweisen und diese mit einer Anwendungssitzung zu verknüpfen. Dies geschieht über eine einfache, signierte, Nonce-basierte Nachricht, die eine saubere Brücke zwischen traditionellen Web2-Sitzungen und der Web3-Kontrolle schlägt.

Die beste Vorgehensweise ist, sie zusammen zu verwenden: Implementieren Sie Passkeys für die alltägliche Anmeldung und bieten Sie SIWE für Wallet-verknüpfte Abläufe an, bei denen ein Benutzer eine krypto-native Aktion autorisieren muss.


Die Grundlagen für die Ausstellung und Überprüfung von Nachweisen

Damit Nachweise nützlich sind, benötigen wir standardisierte Wege, um sie an Benutzer auszustellen und damit Benutzer sie Apps präsentieren können. Die OpenID Foundation stellt hierfür die beiden Schlüsselprotokolle bereit.

  • Ausstellung: OpenID for Verifiable Credential Issuance (OID4VCI) definiert eine OAuth-geschützte API, um Nachweise von Ausstellern (wie einer Regierungsbehörde oder einem KYC-Anbieter) in die digitale Wallet eines Benutzers zu übertragen. Es ist flexibel konzipiert und unterstützt mehrere Nachweisformate.
  • Präsentation: OpenID for Verifiable Presentations (OID4VP) standardisiert, wie Ihre Anwendung eine „Nachweisanfrage“ stellt und wie die Wallet eines Benutzers darauf reagiert. Dies kann über klassische OAuth-Weiterleitungen oder über moderne Browser-APIs geschehen.

Beim Entwickeln werden Sie auf einige wichtige Nachweisformate stoßen, die für verschiedene Ökosysteme und Anwendungsfälle konzipiert sind:

  • W3C VC mit Data Integrity Suites (JSON-LD): Oft gepaart mit BBS+-Kryptografie, um eine leistungsstarke selektive Offenlegung zu ermöglichen.
  • VC-JOSE-COSE und SD-JWT VC (IETF): Diese Formate sind für JWT- und CBOR-basierte Ökosysteme konzipiert und verfügen ebenfalls über starke selektive Offenlegungsfunktionen.

Glücklicherweise verbessert sich die Interoperabilität rapide. Profile wie OpenID4VC High Assurance tragen dazu bei, die technischen Optionen einzugrenzen, was die Integrationen zwischen verschiedenen Anbietern für Entwickler wesentlich einfacher macht.


DID-Methoden: Das richtige Adressschema wählen

Eine DID ist lediglich ein Identifikator; eine „DID-Methode“ spezifiziert, wie sie an einer Vertrauenswurzel verankert ist. Sie sollten einige gängige Methoden unterstützen.

  • did:web: Diese Methode sichert eine DID mit einer von Ihnen kontrollierten Domain ab. Sie ist unglaublich einfach bereitzustellen und eine fantastische Wahl für Unternehmen, Aussteller und Organisationen, die ihre bestehende Web-Infrastruktur als Vertrauensanker nutzen möchten.
  • did:pkh: Diese Methode leitet eine DID direkt von einer Blockchain-Adresse ab (z. B. einer Ethereum-Adresse). Dies ist äußerst nützlich, wenn Ihre Benutzerbasis bereits Krypto-Wallets besitzt und Sie deren Identität mit On-Chain-Assets verknüpfen möchten.

Faustregel: Unterstützen Sie mindestens zwei Methoden – did:web für Organisationen und did:pkh für einzelne Benutzer. Verwenden Sie eine Standard-DID-Resolver-Bibliothek zur Abwicklung der Auflösung und konsultieren Sie offizielle Register, um die Sicherheit, Persistenz und Governance jeder neuen Methode zu bewerten, die Sie hinzufügen möchten.


Nützliche Bausteine, die Sie integrieren können

Über die Kernstandards hinaus können verschiedene Tools Ihren Identitäts-Stack verbessern.

  • ENS (Ethereum Name Service): Bietet menschenlesbare Namen (ihrname.eth), die Blockchain-Adressen und DIDs zugeordnet werden können. Dies ist ein unschätzbares Werkzeug zur Verbesserung der Benutzerfreundlichkeit, zur Reduzierung von Fehlern und zur Bereitstellung einer einfachen Profilebene.
  • Attestierungen: Dies sind flexible, verifizierbare „Fakten über alles“, die On-Chain oder Off-Chain aufgezeichnet werden können. Der Ethereum Attestation Service (EAS) bietet beispielsweise eine robuste Grundlage für den Aufbau von Reputations- und Vertrauensgraphen, ohne jemals PII auf einem öffentlichen Ledger zu speichern.

Regulatorische Rückenwinde, die Sie verfolgen sollten

Regulierung wird oft als Hürde angesehen, doch in diesem Bereich ist sie ein massiver Beschleuniger. Das EU Digital Identity Framework (eIDAS 2.0), offiziell als Verordnung EU 2024/1183 am 20. Mai 2024 verabschiedet, ist die bedeutendste Entwicklung. Es schreibt vor, dass alle EU-Mitgliedstaaten ihren Bürgern eine kostenlose EU Digital Identity Wallet (EUDI) anbieten müssen. Mit den am 7. Mai 2025 veröffentlichten Durchführungsbestimmungen ist dies ein starkes Signal für die Einführung von Wallet-basierten Nachweisen in öffentlichen und privaten Diensten in Europa.

Auch wenn Sie nicht in der EU tätig sind, erwarten Sie, dass die EUDI Wallet und ihre zugrunde liegenden Protokolle die Benutzererwartungen prägen und die Akzeptanz von Wallets weltweit vorantreiben werden.


Designmuster, die in der Produktion funktionieren (2025)

  • Passwortlos zuerst, Wallets optional: Standardmäßig Passkeys für die Anmeldung verwenden. Es ist sicher, einfach und vertraut. Führen Sie SIWE nur ein, wenn Benutzer eine krypto-verknüpfte Aktion ausführen müssen, wie das Prägen eines NFT oder den Empfang einer Auszahlung.
  • Nachweise anfordern, nicht Dokumente: Ersetzen Sie umständliche Dokumenten-Uploads durch eine prägnante VC-Nachweisanfrage mittels OID4VP. Anstatt nach einem Führerschein zu fragen, fordern Sie einen Nachweis für „Alter über 18“ oder „Wohnsitzland ist X“ an. Akzeptieren Sie Nachweise, die selektive Offenlegung unterstützen, wie solche, die BBS+ oder SD-JWT verwenden.
  • PII nicht auf Ihren Servern speichern: Wenn ein Benutzer etwas nachweist, zeichnen Sie eine Attestierung oder ein kurzlebiges Verifizierungsergebnis auf, nicht den rohen Nachweis selbst. On-Chain-Attestierungen sind eine leistungsstarke Methode, um einen überprüfbaren Datensatz zu erstellen – „Benutzer Y hat KYC bei Aussteller Z am Datum D bestanden“ – ohne persönliche Daten zu speichern.
  • Organisationen als Aussteller mit did:web: Unternehmen, Universitäten und andere Organisationen kontrollieren bereits ihre Domains. Lassen Sie sie Nachweise als Aussteller mit did:web signieren, wodurch sie ihre kryptografischen Schlüssel unter ihren bestehenden Web-Governance-Modellen verwalten können.
  • ENS für Namen, nicht für Identität verwenden: Behandeln Sie ENS als benutzerfreundlichen Handle und Profilzeiger. Es ist großartig für die UX, aber bewahren Sie die maßgeblichen Identitätsansprüche innerhalb von Nachweisen und Attestierungen auf.

Eine Starter-Architektur

Hier ist ein Bauplan für ein modernes, nachweisbasiertes Identitätssystem:

  • Authentifizierung
    • Standard-Login: Passkeys (FIDO/WebAuthn).
    • Krypto-verknüpfte Sitzungen: Sign-In with Ethereum (SIWE) für Wallet-basierte Aktionen.
  • Nachweise
    • Ausstellung: Integration mit OID4VCI-Endpunkten Ihrer gewählten Aussteller (z. B. einem KYC-Anbieter, einer Universität).
    • Präsentation: Lösen Sie OID4VP-Nachweisanfragen von Ihrer Web- oder nativen App aus. Seien Sie darauf vorbereitet, sowohl W3C VCs (mit BBS+) als auch SD-JWT VCs zu akzeptieren.
  • Auflösung & Vertrauen
    • DID-Resolver: Verwenden Sie eine Bibliothek, die mindestens did:web und did:pkh unterstützt. Pflegen Sie eine Positivliste vertrauenswürdiger Aussteller-DIDs, um Spoofing zu verhindern.
  • Attestierungen & Reputation
    • Dauerhafte Aufzeichnungen: Wenn Sie ein überprüfbares Signal einer Verifizierung benötigen, prägen Sie eine Attestierung, die einen Hash, die DID des Ausstellers und einen Zeitstempel enthält, anstatt den Anspruch selbst zu speichern.
  • Speicherung & Datenschutz
    • Minimalismus: Minimieren Sie drastisch die PII, die Sie serverseitig speichern. Verschlüsseln Sie alles im Ruhezustand und legen Sie strenge Time-to-Live (TTL)-Richtlinien fest. Bevorzugen Sie ephemere Nachweise und setzen Sie stark auf Zero-Knowledge oder selektive Offenlegung.

UX-Erkenntnisse

  • Unsichtbar starten: Für die meisten Benutzer ist die beste Wallet die, über die sie nicht nachdenken müssen. Verwenden Sie Passkeys, um die Anmeldung nahtlos zu gestalten, und zeigen Sie Wallet-Interaktionen nur kontextbezogen an, wenn sie absolut notwendig sind.
  • Progressive Offenlegung: Fragen Sie nicht alles auf einmal ab. Fordern Sie den kleinstmöglichen Nachweis an, der das unmittelbare Ziel des Benutzers freischaltet. Mit selektiver Offenlegung benötigen Sie nicht das vollständige Dokument, um eine Tatsache zu verifizieren.
  • Schlüsselwiederherstellung ist wichtig: Ein an einen einzelnen Geräteschlüssel gebundener Nachweis ist eine Schwachstelle. Planen Sie von Anfang an die Neu-Ausstellung und geräteübergreifende Portabilität. Dies ist ein Hauptgrund, warum moderne Profile Formate wie SD-JWT VC und anspruchsbasierte Inhaberbindung übernehmen.
  • Menschenlesbare Handles helfen: Ein ENS-Name ist weitaus weniger einschüchternd als eine lange hexadezimale Adresse. Er reduziert Benutzerfehler und fügt eine Ebene erkennbaren Kontexts hinzu, auch wenn die wahre Autorität in den zugrunde liegenden Nachweisen liegt.

Was im nächsten Quartal zu liefern ist: Eine pragmatische Roadmap

  • Wochen 1–2:
    • Fügen Sie Passkeys für Ihren primären Anmeldeablauf hinzu.
    • Sichern Sie alle krypto-nativen Aktionen hinter einer SIWE-Prüfung ab.
  • Wochen 3–6:
    • Pilotieren Sie eine einfache Alters- oder Regionssperre mittels einer OID4VP-Anfrage.
    • Akzeptieren Sie VC 2.0-Nachweise mit selektiver Offenlegung (BBS+ oder SD-JWT VC).
    • Beginnen Sie, Attestierungen für „Verifizierung bestanden“-Ereignisse zu erstellen, anstatt PII zu protokollieren.
  • Wochen 7–10:
    • Binden Sie einen Partneraussteller (z. B. Ihren KYC-Anbieter) über did:web ein und implementieren Sie eine DID-Positivliste.
    • Bieten Sie die Verknüpfung von ENS-Namen in Benutzerprofilen an, um die Adress-UX zu verbessern.
  • Wochen 11–12:
    • Führen Sie eine Bedrohungsmodellierung Ihrer Präsentations- und Widerrufsabläufe durch. Fügen Sie Telemetrie für gängige Fehlermodi hinzu (abgelaufener Nachweis, nicht vertrauenswürdiger Aussteller).
    • Veröffentlichen Sie eine klare Datenschutzhaltung, die genau erklärt, was Sie anfordern, warum, wie lange Sie es aufbewahren und wie Benutzer es überprüfen können.

Was sich schnell ändert (Behalten Sie dies im Auge)

  • Rollouts der EU EUDI Wallet: Die Implementierung und Konformitätsprüfung dieser Wallets wird die Funktionen und die Verifizierungs-UX weltweit massiv prägen.
  • OpenID4VC-Profile: Die Interoperabilität zwischen Ausstellern, Wallets und Verifizierern verbessert sich dank neuer Profile und Testsuiten ständig.
  • Kryptosuites für selektive Offenlegung: Bibliotheken und Entwicklerleitfäden für BBS+ und SD-JWT VC reifen schnell heran, was ihre Implementierung erleichtert.

Prinzipien für die Entwicklung

  • Nachweisen, nicht speichern: Standardmäßig Ansprüche verifizieren, anstatt rohe PII zu speichern.
  • Standardmäßig interoperabel: Unterstützen Sie von Anfang an mehrere Nachweisformate und DID-Methoden, um Ihren Stack zukunftssicher zu machen.
  • Minimieren & Offenlegen: Fordern Sie den kleinstmöglichen Anspruch an. Seien Sie transparent gegenüber Benutzern, was Sie überprüfen und warum.
  • Wiederherstellung langweilig gestalten: Planen Sie Geräteverlust und Ausstellerrotation ein. Vermeiden Sie spröde Schlüsselbindungen, die Benutzer stranden lassen.

Wenn Sie Fintech-, Social- oder Creator-Plattformen entwickeln, ist die nachweisbasierte Identität keine Zukunftswette mehr – sie ist der kürzeste Weg zu geringerem Risiko, reibungsloserem Onboarding und globaler Interoperabilität.

Seal auf Sui: Eine programmierbare Geheimnisschicht für die On-Chain-Zugriffskontrolle

· 4 Minuten Lesezeit
Dora Noda
Software Engineer

Öffentliche Blockchains bieten jedem Teilnehmer ein synchronisiertes, auditierbares Ledger – doch sie legen standardmäßig auch jedes Datenelement offen. Seal, seit dem 3. September 2025 live im Sui Mainnet, begegnet diesem Problem, indem es On-Chain-Richtlinienlogik mit dezentraler Schlüsselverwaltung kombiniert, sodass Web3-Entwickler genau entscheiden können, wer welche Payloads entschlüsseln darf.

TL;DR

  • Was es ist: Seal ist ein Netzwerk zur Geheimnisverwaltung, das Sui-Smart Contracts ermöglicht, Entschlüsselungsrichtlinien On-Chain durchzusetzen, während Clients Daten mit identitätsbasierter Verschlüsselung (IBE) verschlüsseln und sich für die Schlüsselableitung auf Schwellenwert-Schlüsselserver verlassen.
  • Warum es wichtig ist: Anstelle von benutzerdefinierten Backends oder undurchsichtigen Off-Chain-Skripten werden Datenschutz und Zugriffskontrolle zu erstklassigen Move-Primitiven. Entwickler können Chiffriertexte überall speichern – Walrus ist der natürliche Begleiter – aber dennoch steuern, wer lesen darf.
  • Wer profitiert: Teams, die Token-gesteuerte Medien, zeitgesteuerte Offenlegungen, private Nachrichten oder richtlinienbewusste KI-Agenten bereitstellen, können das SDK von Seal nutzen und sich auf die Produktlogik konzentrieren, anstatt auf maßgeschneiderte Krypto-Infrastruktur.

Richtlinienlogik lebt in Move

Seal-Pakete enthalten seal_approve* Move-Funktionen, die definieren, wer Schlüssel für eine bestimmte Identitätszeichenfolge und unter welchen Bedingungen anfordern kann. Richtlinien können NFT-Besitz, Whitelists, Zeit-Sperren oder benutzerdefinierte Rollensysteme mischen. Wenn ein Benutzer oder Agent die Entschlüsselung anfordert, bewerten die Schlüsselserver diese Richtlinien über den Sui-Full-Node-Status und genehmigen nur, wenn die Kette zustimmt.

Da die Zugriffsregeln Teil Ihres On-Chain-Pakets sind, sind sie transparent, auditierbar und versionierbar, zusammen mit dem Rest Ihres Smart-Contract-Codes. Governance-Updates können wie jedes andere Move-Upgrade ausgerollt werden, mit Community-Überprüfung und On-Chain-Historie.

Schwellenwert-Kryptographie verwaltet die Schlüssel

Seal verschlüsselt Daten für anwendungsdefinierte Identitäten. Ein Komitee unabhängiger Schlüsselserver – vom Entwickler ausgewählt – teilt das IBE-Master-Geheimnis. Wenn eine Richtlinienprüfung erfolgreich ist, leitet jeder Server einen Schlüsselanteil für die angeforderte Identität ab. Sobald ein Quorum von t Servern antwortet, kombiniert der Client die Anteile zu einem nutzbaren Entschlüsselungsschlüssel.

Sie können den Kompromiss zwischen Lebendigkeit und Vertraulichkeit festlegen, indem Sie Komiteemitglieder (Ruby Nodes, NodeInfra, Overclock, Studio Mirai, H2O Nodes, Triton One oder Mystens Enoki-Dienst) auswählen und den Schwellenwert bestimmen. Benötigen Sie eine stärkere Verfügbarkeit? Wählen Sie ein größeres Komitee mit einem niedrigeren Schwellenwert. Wünschen Sie höhere Datenschutzgarantien? Ziehen Sie das Quorum enger und verlassen Sie sich auf zugelassene Anbieter.

Entwicklererfahrung: SDKs und Sitzungsschlüssel

Seal liefert ein TypeScript SDK (npm i @mysten/seal), das Verschlüsselungs-/Entschlüsselungsabläufe, Identitätsformatierung und Batching handhabt. Es gibt auch Sitzungsschlüssel aus, damit Wallets nicht ständig mit Aufforderungen bombardiert werden, wenn eine App wiederholten Zugriff benötigt. Für fortgeschrittene Workflows können Move-Kontrakte On-Chain-Entschlüsselung über spezialisierte Modi anfordern, wodurch Logik wie Treuhand-Offenlegungen oder MEV-resistente Auktionen direkt im Smart-Contract-Code ausgeführt werden können.

Da Seal speicherunabhängig ist, können Teams es mit Walrus für überprüfbaren Blob-Speicher, mit IPFS oder sogar mit zentralisierten Speichern kombinieren, wenn dies den operativen Realitäten entspricht. Die Verschlüsselungsgrenze – und ihre Richtliniendurchsetzung – wandert mit den Daten, unabhängig davon, wo der Chiffriertext gespeichert ist.

Design mit Seal: Best Practices

  • Verfügbarkeitsrisiko modellieren: Schwellenwerte wie 2-von-3 oder 3-von-5 entsprechen direkt den Verfügbarkeitsgarantien. Produktionsbereitstellungen sollten Anbieter mischen, Telemetrie überwachen und SLAs aushandeln, bevor kritische Workflows anvertraut werden.
  • Auf Zustandsvarianz achten: Die Richtlinienbewertung hängt davon ab, dass Full Nodes dry_run-Aufrufe durchführen. Vermeiden Sie Regeln, die von sich schnell ändernden Zählern oder der Reihenfolge innerhalb von Checkpoints abhängen, um inkonsistente Genehmigungen über Server hinweg zu verhindern.
  • Schlüsselhygiene planen: Abgeleitete Schlüssel befinden sich auf dem Client. Instrumentieren Sie die Protokollierung, rotieren Sie Sitzungsschlüssel und erwägen Sie die Umschlagverschlüsselung – verwenden Sie Seal, um einen symmetrischen Schlüssel zu schützen, der die größere Payload verschlüsselt –, um den Schadensradius zu begrenzen, falls ein Gerät kompromittiert wird.
  • Rotation architektonisch planen: Das Komitee eines Chiffriertextes ist zum Zeitpunkt der Verschlüsselung festgelegt. Erstellen Sie Upgrade-Pfade, die Daten durch neue Komitees neu verschlüsseln, wenn Sie Anbieter wechseln oder Vertrauensannahmen anpassen müssen.

Was als Nächstes kommt

Die Roadmap von Seal weist auf von Validatoren betriebene MPC-Server, DRM-ähnliche Client-Tools und Post-Quanten-KEM-Optionen hin. Für Entwickler, die KI-Agenten, Premium-Inhalte oder regulierte Datenflüsse erforschen, bietet die heutige Veröffentlichung bereits einen klaren Bauplan: Kodieren Sie Ihre Richtlinie in Move, stellen Sie ein vielfältiges Schlüsselkomitee zusammen und liefern Sie verschlüsselte Erlebnisse, die die Privatsphäre der Benutzer respektieren, ohne die Vertrauensgrenze von Sui zu verlassen.

Wenn Sie Seal für Ihren nächsten Start in Betracht ziehen, beginnen Sie mit dem Prototyping einer einfachen NFT-gesteuerten Richtlinie mit einem offenen 2-von-3-Komitee und iterieren Sie dann zu der Anbieterkombination und den operativen Kontrollen, die dem Risikoprofil Ihrer App entsprechen.

Kettenabstraktion: Wie Unternehmen Web3 endlich nutzen werden (ohne an Chains zu denken)

· 8 Minuten Lesezeit
Dora Noda
Software Engineer

TL;DR

Cross-Chain-Abstraktion verwandelt ein Labyrinth aus Chains, Bridges und Wallets in ein einziges, kohärentes Plattform-Erlebnis für Entwickler und Endnutzer. Das Ökosystem ist still und leise gereift: Intent-Standards, Kontoabstraktion, native Stablecoin-Mobilität und netzwerkweite Initiativen wie die OP Superchain und Polygons AggLayer machen eine Zukunft mit „vielen Chains, einem Erlebnis“ im Jahr 2025 realistisch. Für Unternehmen ist der Vorteil pragmatisch: einfachere Integrationen, durchsetzbare Risikokontrollen, deterministische Operationen und Compliance-fähige Auditierbarkeit – ohne alles auf eine einzige Chain zu setzen.


Das eigentliche Problem von Unternehmen (und warum Bridges allein es nicht gelöst haben)

Die meisten Unternehmensteams wollen keine „Chain auswählen“. Sie wollen Ergebnisse: eine Zahlung abwickeln, einen Vermögenswert ausgeben, einen Handel abschließen oder einen Datensatz aktualisieren – zuverlässig, auditierbar und zu vorhersehbaren Kosten. Das Problem ist, dass das produktive Web3 heute unwiderruflich Multi-Chain ist. Hunderte von Rollups, Appchains und L2s wurden allein in den letzten 18 Monaten eingeführt, jede mit ihren eigenen Gebühren, Finalisierungszeiten, Tools und Vertrauensannahmen.

Traditionelle Cross-Chain-Ansätze lösten den Transport – das Verschieben von Tokens oder Nachrichten von A nach B – aber nicht das Erlebnis. Teams sind immer noch gezwungen, Wallets pro Netzwerk zu verwalten, Gas pro Chain bereitzustellen, eine Bridge pro Route auszuwählen und Sicherheitsunterschiede zu tragen, die sie nicht leicht quantifizieren können. Diese Reibung ist die eigentliche Adoptionssteuer.

Cross-Chain-Abstraktion beseitigt diese Steuer, indem sie die Chain-Auswahl und den Transport hinter deklarativen APIs, Intent-gesteuerten Benutzererlebnissen sowie einer einheitlichen Identität und Gasverwaltung verbirgt. Mit anderen Worten, Nutzer und Anwendungen drücken aus, was sie wollen; die Plattform bestimmt, wie und wo es sicher geschieht. Kettenabstraktion macht die Blockchain-Technologie für Endnutzer unsichtbar, während ihre Kernvorteile erhalten bleiben.

Warum 2025 anders ist: Die Bausteine passen endlich zusammen

Die Vision einer nahtlosen Multi-Chain-Welt ist nicht neu, aber die grundlegende Technologie ist endlich reif für die Produktion. Mehrere Schlüsselkomponenten sind gereift und konvergiert, was eine robuste Kettenabstraktion ermöglicht.

  • Netzwerkweite Vereinheitlichung: Projekte entwickeln jetzt Frameworks, um separate Chains wie ein einziges, vereinheitlichtes Netzwerk erscheinen zu lassen. Die OP Superchain zielt darauf ab, OP-Stack L2s mit gemeinsamen Tools und Kommunikationsschichten zu standardisieren. Polygons AggLayer aggregiert viele ZK-gesicherte Chains mit „pessimistischen Proofs“ für die Chain-Level-Buchhaltung, um zu verhindern, dass Probleme einer Chain andere kontaminieren. Gleichzeitig erweitert IBC v2 die standardisierte Interoperabilität über das Cosmos-Ökosystem hinaus und drängt auf „IBC überall“.

  • Reife Interop-Rails: Die Middleware für die Cross-Chain-Kommunikation ist jetzt praxiserprobt und weit verbreitet. Chainlink CCIP bietet Token- und Datentransfer auf Enterprise-Niveau über eine wachsende Anzahl von Chains. LayerZero v2 bietet Omnichain-Messaging und standardisierte OFT-Tokens mit einem einheitlichen Angebot. Axelar liefert General Message Passing (GMP) für komplexe Vertragsaufrufe über Ökosysteme hinweg und verbindet EVM- und Cosmos-Chains. Plattformen wie Hyperlane ermöglichen permissionless Deployments, sodass neue Chains dem Netzwerk ohne Gatekeeper beitreten können, während Wormhole eine generalisierte Messaging-Schicht bietet, die über mehr als 40 Chains hinweg verwendet wird.

  • Intent- & Kontoabstraktion: Das Benutzererlebnis wurde durch zwei entscheidende Standards transformiert. ERC-7683 standardisiert Cross-Chain-Intents, wodurch Apps Ziele deklarieren und ein gemeinsames Solver-Netzwerk diese effizient über Chains hinweg ausführen lassen können. Gleichzeitig ermöglichen EIP-4337 Smart Accounts, kombiniert mit Paymastern, die Gas-Abstraktion. Dies ermöglicht es einer Anwendung, Transaktionsgebühren zu sponsern oder Nutzer in Stablecoins bezahlen zu lassen, was für jeden Flow, der mehrere Netzwerke berühren könnte, unerlässlich ist.

  • Native Stablecoin-Mobilität: Circles Cross-Chain Transfer Protocol (CCTP) verschiebt native USDC über Chains hinweg mittels eines sicheren Burn-and-Mint-Prozesses, wodurch das Risiko von Wrapped Assets reduziert und die Liquidität vereinheitlicht wird. Die neueste Version, CCTP v2, reduziert die Latenz weiter und vereinfacht Entwickler-Workflows, wodurch die Stablecoin-Abwicklung zu einem nahtlosen Bestandteil des abstrahierten Erlebnisses wird.

Wie „Cross-Chain-Abstraktion“ in einem Unternehmens-Stack aussieht

Stellen Sie es sich als eine geschichtete Fähigkeit vor, die Sie zu bestehenden Systemen hinzufügen können. Das Ziel ist es, einen einzigen Endpunkt zu haben, um einen Intent auszudrücken, und eine einzige Richtlinienebene, um zu steuern, wie dieser über eine beliebige Anzahl von Chains ausgeführt wird.

  1. Vereinheitlichte Identität & Richtlinie: Auf der obersten Ebene befinden sich Smart Accounts (EIP-4337) mit rollenbasierten Zugriffskontrollen, Social Recovery und modernen Custody-Optionen wie Passkeys oder MPC. Dies wird von einer zentralen Richtlinien-Engine gesteuert, die definiert, wer was wo tun kann, unter Verwendung von Allow- und Deny-Listen für bestimmte Chains, Assets und Bridges.

  2. Gas- & Gebührenabstraktion: Paymaster beseitigen das „Ich brauche natives Gas auf Chain X“-Problem. Nutzer oder Dienste können Gebühren in Stablecoins bezahlen, oder die Anwendung kann sie vollständig sponsern, vorbehaltlich vordefinierter Richtlinien und Budgets.

  3. Intent-gesteuerte Ausführung: Nutzer drücken Ergebnisse aus, nicht Transaktionen. Zum Beispiel: „Tausche USDC gegen wETH und liefere es vor 17 Uhr an die Wallet unseres Lieferanten auf Chain Y.“ Der ERC-7683-Standard definiert das Format für diese Aufträge und ermöglicht es gemeinsamen Solver-Netzwerken, um die sichere und kostengünstige Ausführung zu konkurrieren.

  4. Programmierbare Abwicklung & Messaging: Im Hintergrund verwendet das System eine konsistente API, um die richtige Rail für jede Route auszuwählen. Es könnte CCIP für einen Token-Transfer verwenden, bei dem Enterprise-Support entscheidend ist, Axelar GMP für einen Cross-Ökosystem-Vertragsaufruf oder IBC, wo die native Light-Client-Sicherheit zum Risikomodell passt.

  5. Observability & Compliance standardmäßig: Der gesamte Workflow ist nachvollziehbar, vom ursprünglichen Intent bis zur endgültigen Abwicklung. Dies erzeugt klare Audit-Trails und ermöglicht den Export von Daten an bestehende SIEMs. Risikoframeworks können so programmiert werden, dass sie Allowlists durchsetzen oder Notbremsen auslösen, indem sie beispielsweise Routen pausieren, wenn die Sicherheitslage einer Bridge sich verschlechtert.

Eine Referenzarchitektur

Von oben nach unten besteht ein kettenabstrahiertes System aus klaren Schichten:

  • Erlebnisschicht: Anwendungsoberflächen, die Nutzer-Intents sammeln und Chain-Details vollständig verbergen, gepaart mit SSO-ähnlichen Smart Account Wallet-Flows.
  • Kontrollebene: Eine Richtlinien-Engine zur Verwaltung von Berechtigungen, Quoten und Budgets. Diese Ebene integriert sich mit KMS/HSM-Systemen und pflegt Allowlists für Chains, Assets und Bridges. Sie nimmt auch Risikofeeds auf, um anfällige Routen automatisch zu unterbrechen (Circuit-Break).
  • Ausführungsebene: Ein Intent-Router, der die beste Interop-Rail (CCIP, LayerZero, Axelar usw.) basierend auf Richtlinien, Preis- und Latenzanforderungen auswählt. Ein Paymaster verwaltet Gebühren und greift dabei auf einen Pool von Gas- und Stablecoin-Budgets zu.
  • Abwicklung & Zustand: Kanonische On-Chain-Verträge für Kernfunktionen wie Custody und Ausgabe. Ein vereinheitlichter Indexer verfolgt Cross-Chain-Ereignisse und Proofs und exportiert Daten zur Analyse und Compliance an ein Data Warehouse oder SIEM.

Build vs. Buy: Wie man Anbieter von Kettenabstraktion bewertet

Bei der Auswahl eines Partners für Kettenabstraktionsfähigkeiten sollten Unternehmen mehrere Schlüsselfragen stellen:

  • Sicherheits- & Vertrauensmodell: Was sind die zugrunde liegenden Verifikationsannahmen? Basiert das System auf Orakeln, Guardian Sets, Light Clients oder Validatoren-Netzwerken? Was kann geslasht oder mit einem Veto belegt werden?
  • Abdeckung & Neutralität: Welche Chains und Assets werden heute unterstützt? Wie schnell können neue hinzugefügt werden? Ist der Prozess permissionless oder vom Anbieter eingeschränkt?
  • Standardkonformität: Unterstützt die Plattform wichtige Standards wie ERC-7683, EIP-4337, OFT, IBC und CCIP?
  • Operationen: Was sind die SLAs des Anbieters? Wie transparent sind sie bei Vorfällen? Bieten sie wiederholbare Proofs, deterministische Wiederholungsversuche und strukturierte Audit-Logs?
  • Governance & Portabilität: Können Sie Interop-Rails pro Route wechseln, ohne Ihre Anwendung neu schreiben zu müssen? Anbieterneutrale Abstraktionen sind entscheidend für langfristige Flexibilität.
  • Compliance: Welche Kontrollen stehen für Datenaufbewahrung und -residenz zur Verfügung? Wie ist ihre SOC2/ISO-Haltung? Können Sie Ihr eigenes KMS/HSM mitbringen?

Ein pragmatischer 90-Tage-Enterprise-Rollout

  • Tage 0–15: Baseline & Richtlinie: Inventarisieren Sie alle derzeit verwendeten Chains, Assets, Bridges und Wallets. Definieren Sie eine anfängliche Allowlist und legen Sie Circuit-Break-Regeln basierend auf einem klaren Risikorahmen fest.
  • Tage 16–45: Prototyp: Konvertieren Sie eine einzelne User Journey, z. B. eine Cross-Chain-Auszahlung, um einen Intent-basierten Flow mit Kontoabstraktion und einem Paymaster zu verwenden. Messen Sie die Auswirkungen auf den User Drop-off, die Latenz und die Support-Last.
  • Tage 46–75: Rails erweitern: Fügen Sie dem System eine zweite Interoperabilitäts-Rail hinzu und leiten Sie Transaktionen dynamisch basierend auf der Richtlinie. Integrieren Sie CCTP für native USDC-Mobilität, wenn Stablecoins Teil des Workflows sind.
  • Tage 76–90: Härten: Verbinden Sie die Observability-Daten der Plattform mit Ihrem SIEM, führen Sie Chaostests bei Routenfehlern durch und dokumentieren Sie alle Betriebsverfahren, einschließlich Notfall-Pause-Protokolle.

Häufige Fallstricke (und wie man sie vermeidet)

  • Routing nur nach „Gaspreis“: Latenz, Finalität und Sicherheitsannahmen sind genauso wichtig wie Gebühren. Der Preis allein ist kein vollständiges Risikomodell.
  • Gas ignorieren: Wenn Ihr Erlebnis mehrere Chains berührt, ist Gas-Abstraktion nicht optional – sie ist eine Grundvoraussetzung für ein nutzbares Produkt.
  • Bridges als austauschbar behandeln: Das sind sie nicht. Ihre Sicherheitsannahmen unterscheiden sich erheblich. Kodifizieren Sie Allowlists und implementieren Sie Circuit Breaker, um dieses Risiko zu managen.
  • Ausbreitung von Wrapped Assets: Bevorzugen Sie wann immer möglich die native Asset-Mobilität (wie USDC über CCTP), um die Liquiditätsfragmentierung zu minimieren und das Gegenparteirisiko zu reduzieren.

Der Unternehmensvorteil

Wenn Kettenabstraktion gut umgesetzt wird, hört Blockchain auf, eine Sammlung eigenwilliger Netzwerke zu sein, und wird zu einer Ausführungsebene, gegen die Ihre Teams programmieren können. Sie bietet Richtlinien, SLAs und Audit-Trails, die den Standards entsprechen, unter denen Sie bereits arbeiten. Dank ausgereifter Intent-Standards, Kontoabstraktion, robuster Interop-Rails und nativem Stablecoin-Transport können Sie endlich Web3-Ergebnisse liefern, ohne Nutzer – oder Ihre eigenen Entwickler – dazu zu zwingen, sich darum zu kümmern, welche Chain die Arbeit erledigt hat.