Direkt zum Hauptinhalt

156 Beiträge getaggt mit „KI“

Künstliche Intelligenz und Machine-Learning-Anwendungen

Alle Tags anzeigen

Tokenisierte Identität und KI-Begleiter konvergieren als Web3s nächste Grenze

· 31 Min. Lesezeit
Dora Noda
Software Engineer

Der wahre Engpass ist nicht die Rechengeschwindigkeit – es ist die Identität. Diese Erkenntnis von Matthew Graham, Managing Partner bei Ryze Labs, erfasst den grundlegenden Wandel, der an der Schnittstelle von KI-Begleitern und Blockchain-Identitätssystemen stattfindet. Während der Markt für KI-Begleiter bis 2030 auf 140,75 Milliarden US-Dollar explodiert und die dezentrale Identität von heute 4,89 Milliarden US-Dollar auf 41,73 Milliarden US-Dollar bis zum Ende des Jahrzehnts skaliert, konvergieren diese Technologien, um ein neues Paradigma zu ermöglichen: wirklich eigene, portable, datenschutzfreundliche KI-Beziehungen. Grahams Firma hat konkretes Kapital eingesetzt – sie inkubierte Amikos persönliche KI-Plattform, unterstützte den humanoiden Roboter Eliza im Wert von 420.000 US-Dollar, investierte in die über 30.000 TEE-Infrastruktur von EdgeX Labs und legte einen 5-Millionen-US-Dollar-KI-Combinator-Fonds auf – und positioniert Ryze damit an der Spitze dessen, was Graham als "die wichtigste Innovationswelle seit dem DeFi-Sommer" bezeichnet.

Diese Konvergenz ist wichtig, da KI-Begleiter derzeit in abgeschotteten Systemen existieren, nicht zwischen Plattformen wechseln können und Benutzer kein echtes Eigentum an ihren KI-Beziehungen oder Daten besitzen. Gleichzeitig haben sich Blockchain-basierte Identitätssysteme von theoretischen Rahmenwerken zu Produktionsinfrastrukturen entwickelt, die über 2 Milliarden US-Dollar an Marktkapitalisierung für KI-Agenten verwalten. In Kombination bietet die tokenisierte Identität die Eigentumsschicht, die KI-Begleitern fehlt, während KI-Agenten das Benutzererlebnisproblem der Blockchain lösen. Das Ergebnis: digitale Begleiter, die Sie wirklich besitzen, überallhin mitnehmen und privat über kryptografische Beweise anstatt über Unternehmensüberwachung interagieren können.

Matthew Grahams Vision: Identitätsinfrastruktur als grundlegende Schicht

Grahams intellektuelle Reise verfolgt die Entwicklung der Branche vom Bitcoin-Enthusiasten im Jahr 2013 über den Krypto-VC, der 51 Portfoliounternehmen verwaltet, bis hin zum Befürworter von KI-Begleitern, der 2024 mit Terminal of Truths einen "Alles-Stopp-Moment" erlebte. Seine Entwicklung spiegelt die Reifung des Sektors wider, aber sein jüngster Schwenk stellt etwas Grundlegenderes dar: die Erkenntnis, dass die Identitätsinfrastruktur, nicht die Rechenleistung oder die Modellkomplexität, darüber entscheidet, ob autonome KI-Agenten in großem Maßstab operieren können.

Im Januar 2025 kommentierte Graham "Waifu-Infrastrukturschicht" zu Amikos Erklärung, dass "die eigentliche Herausforderung nicht die Geschwindigkeit ist. Es ist die Identität." Dies markierte den Höhepunkt seines Denkens – eine Verlagerung vom Fokus auf KI-Fähigkeiten zur Erkenntnis, dass KI-Agenten ohne standardisierte, dezentrale Identitätssysteme sich nicht selbst verifizieren, sicher Transaktionen durchführen oder plattformübergreifend bestehen können. Durch die Portfoliostrategie von Ryze Labs baut Graham systematisch diesen Infrastruktur-Stack auf: Hardware-Ebene-Privatsphäre durch EdgeX Labs' verteiltes Computing, identitätsbewusste KI-Plattformen durch Amiko, physische Manifestation durch Eliza Wakes Up und Ökosystementwicklung durch die 10-12 Investitionen des AI Combinator.

Seine Investitionsthese konzentriert sich auf drei konvergierende Überzeugungen. Erstens benötigen KI-Agenten Blockchain-Schienen für den autonomen Betrieb – "sie werden Transaktionen, Mikrotransaktionen, was auch immer es ist, durchführen müssen… dies ist sehr natürlich eine Krypto-Schienen-Situation." Zweitens lebt die Zukunft der KI lokal auf benutzerdefinierten Geräten statt in Unternehmens-Clouds, was eine dezentrale Infrastruktur erfordert, die "nicht nur dezentralisiert, sondern auch physisch verteilt und lokal ausführbar ist." Drittens stellt Kameradschaft "eines der am meisten ungenutzten psychologischen Bedürfnisse der heutigen Welt" dar, was KI-Begleiter als soziale Infrastruktur und nicht als bloße Unterhaltung positioniert. Graham hat seinen geplanten digitalen Zwilling "Marty" genannt und stellt sich eine Welt vor, in der jeder eine zutiefst persönliche KI hat, die ihn genau kennt: "Marty, du weißt alles über mich... Marty, was mag Mama? Bestell ein paar Weihnachtsgeschenke für Mama."

Grahams geografische Strategie fügt eine weitere Dimension hinzu – den Fokus auf Schwellenländer wie Lagos und Bangalore, wo "die nächste Welle von Benutzern und Entwicklern herkommen wird." Dies positioniert Ryze, um die Akzeptanz von KI-Begleitern in Regionen zu erfassen, die entwickelte Märkte möglicherweise überspringen, ähnlich wie mobile Zahlungen in Afrika. Seine Betonung von "Lore" und kulturellen Phänomenen deutet auf das Verständnis hin, dass die Akzeptanz von KI-Begleitern sozialen Dynamiken und nicht rein technologischen Verdiensten folgt: Parallelen zu kulturellen Phänomenen wie Internet-Memes und Lore ziehen... Internet-Lore und -Kultur können Bewegungen über Zeit und Raum hinweg synergisieren."

Bei Auftritten auf der Token 2049, die sich von Singapur 2023 bis darüber hinaus erstreckten, artikulierte Graham diese Vision einem globalen Publikum. Sein Bloomberg-Interview positionierte KI als "Kryptos dritten Akt" nach Stablecoins, während seine Teilnahme am The Scoop-Podcast untersuchte, "wie Krypto, KI und Robotik in die zukünftige Wirtschaft konvergieren." Der gemeinsame Nenner: KI-Agenten benötigen Identitätssysteme für vertrauenswürdige Interaktionen, Eigentumsmechanismen für den autonomen Betrieb und Transaktionsschienen für wirtschaftliche Aktivitäten – genau das, was die Blockchain-Technologie bietet.

Dezentrale Identität erreicht Produktionsmaßstab mit operativen Hauptprotokollen

Die tokenisierte Identität hat sich vom Whitepaper-Konzept zu einer Produktionsinfrastruktur entwickelt, die Milliarden an Wert verwaltet. Der Technologie-Stack umfasst drei grundlegende Schichten: Dezentrale Identifikatoren (DIDs) als W3C-standardisierte, global eindeutige Identifikatoren, die keine zentrale Autorität erfordern; Verifizierbare Anmeldeinformationen (VCs) als kryptografisch gesicherte, sofort verifizierbare Anmeldeinformationen, die ein Vertrauensdreieck zwischen Aussteller, Inhaber und Verifizierer bilden; und Soulbound Tokens (SBTs) als nicht übertragbare NFTs, die Reputation, Erfolge und Zugehörigkeiten repräsentieren – vorgeschlagen von Vitalik Buterin im Mai 2022 und jetzt in Systemen wie Binances Account Bound Token und Optimisms Citizens' House Governance eingesetzt.

Wichtige Protokolle haben bis Oktober 2025 einen erheblichen Maßstab erreicht. Ethereum Name Service (ENS) führt mit über 2 Millionen registrierten .eth-Domains, einer Marktkapitalisierung von 667-885 Millionen US-Dollar und einer bevorstehenden Migration zu "Namechain" L2, die eine Reduzierung der Gasgebühren um 80-90 % erwartet. Lens Protocol hat über 650.000 Benutzerprofile mit 28 Millionen sozialen Verbindungen in seinem dezentralen sozialen Graphen aufgebaut, kürzlich 46 Millionen US-Dollar an Finanzmitteln gesichert und wechselt zu Lens v3 im zkSync-basierten Lens Network. Worldcoin (umbenannt in "World") hat 12-16 Millionen Benutzer in über 25 Ländern durch Iris-Scanning-Orbs verifiziert, obwohl es regulatorischen Herausforderungen gegenübersteht, einschließlich Verboten in Spanien, Portugal und Unterlassungsanordnungen auf den Philippinen. Polygon ID implementierte Mitte 2022 die erste ZK-gestützte Identitätslösung, wobei die Veröffentlichung 6 im Oktober 2025 dynamische Anmeldeinformationen und einen privaten Nachweis der Einzigartigkeit einführt. Civic bietet Compliance-fokussierte Blockchain-Identitätsverifizierung und generiert über sein Civic Pass-System, das KYC/Liveness-Checks für dApps ermöglicht, jährliche Einnahmen von 4,8 Millionen US-Dollar.

Die technische Architektur ermöglicht eine datenschutzfreundliche Verifizierung durch mehrere kryptografische Ansätze. Zero-Knowledge-Proofs ermöglichen den Nachweis von Attributen (Alter, Nationalität, Kontostandschwellen) ohne Offenlegung der zugrunde liegenden Daten. Selektive Offenlegung ermöglicht es Benutzern, nur die für jede Interaktion notwendigen Informationen zu teilen, anstatt vollständige Anmeldeinformationen. Off-Chain-Speicherung hält sensible persönliche Daten von öffentlichen Blockchains fern und zeichnet nur Hashes und Bestätigungen On-Chain auf. Dieses Design adressiert den scheinbaren Widerspruch zwischen Blockchain-Transparenz und Identitätsdatenschutz – eine kritische Herausforderung, die Grahams Portfoliounternehmen wie Amiko explizit durch lokale Verarbeitung anstatt Cloud-Abhängigkeit angehen.

Aktuelle Implementierungen erstrecken sich über verschiedene Sektoren und demonstrieren den praktischen Nutzen. Finanzdienstleistungen nutzen wiederverwendbare KYC-Anmeldeinformationen, die die Onboarding-Kosten um 60 % senken, wobei Uniswap v4 und Aave Polygon ID für verifizierte Liquiditätsanbieter und unterbesicherte Kreditvergabe basierend auf der SBT-Kreditgeschichte integrieren. Gesundheitsanwendungen ermöglichen portable medizinische Aufzeichnungen und HIPAA-konforme Rezeptverifizierung. Bildungsnachweise als verifizierbare Diplome ermöglichen eine sofortige Arbeitgeberverifizierung. Regierungsdienste umfassen mobile Führerscheine (mDLs), die für den nationalen Flugverkehr der TSA akzeptiert werden, und die obligatorische Einführung der EUDI Wallet der EU bis 2026 für alle Mitgliedstaaten. DAO-Governance verwendet SBTs für Ein-Person-eine-Stimme-Mechanismen und Sybil-Resistenz – Optimisms Citizens' House war hier Vorreiter.

Die Regulierungslandschaft kristallisiert sich schneller heraus als erwartet. Europas eIDAS 2.0 (Verordnung EU 2024/1183) wurde am 11. April 2024 verabschiedet und schreibt vor, dass alle EU-Mitgliedstaaten bis 2026 EUDI Wallets anbieten müssen, wobei die sektorübergreifende Akzeptanz bis 2027 erforderlich ist, wodurch der erste umfassende Rechtsrahmen zur Anerkennung dezentraler Identität geschaffen wird. Der ISO 18013-Standard gleicht US-amerikanische mobile Führerscheine mit EU-Systemen ab und ermöglicht so die kontinentübergreifende Interoperabilität. GDPR-Bedenken hinsichtlich der Unveränderlichkeit der Blockchain werden durch Off-Chain-Speicherung und benutzergesteuerte Datenminimierung adressiert. In den Vereinigten Staaten hat Bidens Cybersecurity Executive Order die Einführung von mDLs finanziert, die TSA-Zulassung für den nationalen Flugverkehr und staatliche Implementierungen, die sich von Louisianas Pionierprojekt ausbreiten.

Wirtschaftsmodelle rund um tokenisierte Identität offenbaren mehrere Wertschöpfungsmechanismen. ENS-Governance-Tokens gewähren Stimmrechte bei Protokolländerungen. Civics CVC-Utility-Tokens kaufen Identitätsverifizierungsdienste. Worldcoins WLD zielt auf eine universelle Grundeinkommensverteilung an verifizierte Menschen ab. Der breitere Web3-Identitätsmarkt liegt bei 21 Milliarden US-Dollar (2023) und wird bis 2032 voraussichtlich 77 Milliarden US-Dollar erreichen – eine CAGR von 14-16 % – während die gesamten Web3-Märkte von 2,18 Milliarden US-Dollar (2023) auf 49,18 Milliarden US-Dollar (2025) wuchsen, was ein explosives jährliches Wachstum von 44,9 % darstellt. Zu den Investitionshighlights gehören die 46 Millionen US-Dollar von Lens Protocol, Worldcoins 250 Millionen US-Dollar von Andreessen Horowitz und 814 Millionen US-Dollar, die allein im ersten Quartal 2023 an 108 Web3-Unternehmen flossen.

KI-Begleiter erreichen 220 Millionen Downloads, während sich die Marktdynamik in Richtung Monetarisierung verschiebt

Der Sektor der KI-Begleiter hat mit 337 aktiven umsatzgenerierenden Apps, die bis Juli 2025 kumulierte Verbraucherausgaben von 221 Millionen US-Dollar generierten, einen Mainstream-Verbrauchermaßstab erreicht. Der Markt erreichte 2024 28,19 Milliarden US-Dollar und wird bis 2030 voraussichtlich 140,75 Milliarden US-Dollar erreichen – eine CAGR von 30,8 %, angetrieben durch die Nachfrage nach emotionaler Unterstützung, Anwendungen für psychische Gesundheit und Unterhaltungsanwendungsfälle. Diese Wachstumsentwicklung positioniert KI-Begleiter als eines der am schnellsten wachsenden KI-Segmente, wobei die Downloads allein im ersten Halbjahr 2025 um 88 % gegenüber dem Vorjahr auf 60 Millionen anstiegen.

Plattformführer haben durch differenzierte Ansätze dominante Positionen etabliert. Character.AI verzeichnet 20-28 Millionen monatlich aktive Benutzer mit über 18 Millionen von Benutzern erstellten Chatbots, erreicht eine durchschnittliche tägliche Nutzungsdauer von 2 Stunden und 10 Milliarden Nachrichten pro Monat – eine um 48 % höhere Bindung als traditionelle soziale Medien. Die Stärke der Plattform liegt im Rollenspiel und der Charakterinteraktion, was eine junge Demografie (53 % im Alter von 18-24 Jahren) mit nahezu gleicher Geschlechterverteilung anzieht. Nach Googles Investition von 2,7 Milliarden US-Dollar erreichte Character.AI eine Bewertung von 10 Milliarden US-Dollar, obwohl es 2024 nur 32,2 Millionen US-Dollar Umsatz generierte, was das Vertrauen der Investoren in das langfristige Monetarisierungspotenzial widerspiegelt. Replika konzentriert sich auf personalisierte emotionale Unterstützung mit über 10 Millionen Benutzern, bietet 3D-Avatar-Anpassung, Sprach-/AR-Interaktionen und Beziehungsmodi (Freund/Romantisch/Mentor) zu einem Preis von 19,99 US-Dollar monatlich oder 69,99 US-Dollar jährlich. Pi von Inflection AI betont einfühlsame Gespräche über mehrere Plattformen (iOS, Web, Messaging-Apps) ohne visuelle Charakterdarstellung und bleibt kostenlos, während es mehrere Millionen Benutzer aufbaut. Friend repräsentiert die Hardware-Grenze – eine 99-129 US-Dollar teure tragbare KI-Halskette, die ständig zuhörende Begleitung bietet, angetrieben von Claude 3.5, was Kontroversen über die ständige Audioüberwachung auslöste, aber physische KI-Begleitergeräte vorantreibt.

Die technischen Fähigkeiten haben sich erheblich weiterentwickelt, bleiben aber durch grundlegende Einschränkungen begrenzt. Aktuelle Systeme zeichnen sich aus durch natürliche Sprachverarbeitung mit Kontextbeibehaltung über Gespräche hinweg, Personalisierung durch das Erlernen von Benutzerpräferenzen im Laufe der Zeit, multimodale Integration, die Text/Sprache/Bild/Video kombiniert, und Plattformkonnektivität mit IoT-Geräten und Produktivitätstools. Fortgeschrittene emotionale Intelligenz ermöglicht Sentimentanalyse und einfühlsame Antworten, während Gedächtnissysteme Kontinuität über Interaktionen hinweg schaffen. Es bestehen jedoch weiterhin kritische Einschränkungen: kein echtes Bewusstsein oder echtes emotionales Verständnis (simulierte statt gefühlte Empathie), Tendenz zu Halluzinationen und erfundenen Informationen, Abhängigkeit von Internetkonnektivität für erweiterte Funktionen, Schwierigkeiten bei komplexen Überlegungen und nuancierten sozialen Situationen sowie von Trainingsdaten übernommene Verzerrungen.

Anwendungsfälle umfassen persönliche, berufliche, gesundheitliche und pädagogische Anwendungen mit unterschiedlichen Wertversprechen. Persönliche/Verbraucheranwendungen dominieren mit 43,4 % Marktanteil und adressieren die Einsamkeitsepidemie (61 % der jungen US-Erwachsenen berichten von ernsthafter Einsamkeit) durch 24/7 emotionale Unterstützung, Rollenspiel-Unterhaltung (51 % der Interaktionen in Fantasy/Sci-Fi) und virtuelle romantische Beziehungen (17 % der Apps vermarkten sich explizit als "KI-Freundin"). Über 65 % der Gen Z-Benutzer berichten von einer emotionalen Verbindung zu KI-Charakteren. Professionelle Anwendungen umfassen Produktivität am Arbeitsplatz (Zoom AI Companion 2.0), Automatisierung des Kundenservice (80 % der Interaktionen KI-fähig) und Personalisierung von Vertrieb/Marketing wie Amazons Rufus-Einkaufsbegleiter. Implementierungen im Gesundheitswesen bieten Medikamentenerinnerungen, Symptomprüfung, Begleitung älterer Menschen zur Reduzierung von Depressionen bei isolierten Senioren und zugängliche psychische Gesundheitsunterstützung zwischen Therapiesitzungen. Bildungsanwendungen bieten personalisierte Nachhilfe, Sprachlernübungen und Googles "Learn About"-KI-Lernbegleiter.

Die Entwicklung der Geschäftsmodelle spiegelt die Reifung von Experimenten hin zu nachhaltiger Monetarisierung wider. Freemium-/Abonnementmodelle dominieren derzeit, wobei Character.AI Plus für 9,99 US-Dollar monatlich und Replika Pro für 19,99 US-Dollar monatlich bevorzugten Zugang, schnellere Antworten, Sprachanrufe und erweiterte Anpassung bieten. Der Umsatz pro Download stieg um 127 % von 0,52 US-Dollar (2024) auf 1,18 US-Dollar (2025), was eine verbesserte Konversion signalisiert. Verbrauchsbasierte Preisgestaltung entwickelt sich zum nachhaltigen Modell – Bezahlung pro Interaktion, Token oder Nachricht statt Pauschalabonnements – wodurch die Kosten besser an die Nutzung angepasst werden. Werbeintegration stellt die prognostizierte Zukunft dar, da die Kosten für KI-Inferenz sinken; ARK Invest prognostiziert, dass der Umsatz pro Stunde von derzeit 0,03 US-Dollar auf 0,16 US-Dollar steigen wird (ähnlich wie bei sozialen Medien), was in ihren Basis- und Bullen-Szenarien potenziell 70-150 Milliarden US-Dollar bis 2030 generieren könnte. Virtuelle Güter und Mikrotransaktionen für Avatar-Anpassung, Premium-Charakterzugang und besondere Erlebnisse werden voraussichtlich die Monetarisierungsparität mit Gaming-Diensten erreichen.

Ethische Bedenken haben nach dokumentierten Schäden regulatorische Maßnahmen ausgelöst. Character.AI sieht sich 2024 einer Klage gegenüber, nachdem ein Teenager-Suizid mit Chatbot-Interaktionen in Verbindung gebracht wurde, während Disney Unterlassungsanordnungen wegen der Verwendung urheberrechtlich geschützter Charaktere erließ. Die FTC leitete im September 2025 eine Untersuchung ein und forderte sieben Unternehmen auf, Kinderschutzmaßnahmen zu melden. Die kalifornische Senatorin Steve Padilla führte Gesetze ein, die Schutzmaßnahmen vorschreiben, während die Abgeordnete Rebecca Bauer-Kahan ein Verbot von KI-Begleitern für unter 16-Jährige vorschlug. Zu den primären ethischen Problemen gehören Risiken emotionaler Abhängigkeit, die insbesondere für gefährdete Bevölkerungsgruppen (Teenager, ältere Menschen, isolierte Personen) besorgniserregend sind, Authentizität und Täuschung, da KI Emotionen simuliert, aber nicht wirklich empfindet, Privatsphäre und Überwachung durch umfangreiche Sammlung persönlicher Daten mit unklaren Aufbewahrungsrichtlinien, Sicherheit und schädliche Ratschläge angesichts der Tendenz von KI zu Halluzinationen und "soziale Entqualifizierung", bei der übermäßige Abhängigkeit menschliche soziale Fähigkeiten untergräbt.

Expertenprognosen konvergieren auf eine weiterhin schnelle Weiterentwicklung mit unterschiedlichen Ansichten über die gesellschaftlichen Auswirkungen. Sam Altman prognostiziert AGI innerhalb von 5 Jahren, wobei GPT-5 ein "PhD-Niveau" an Argumentationsfähigkeit erreicht (im August 2025 gestartet). Elon Musk erwartet, dass KI bis 2026 schlauer sein wird als der klügste Mensch, mit Optimus-Robotern in kommerzieller Produktion zu Preisen von 20.000-30.000 US-Dollar. Dario Amodei deutet die Singularität bis 2026 an. Die kurzfristige Entwicklung (2025-2027) betont agentische KI-Systeme, die sich von Chatbots zu autonomen, Aufgaben erledigenden Agenten entwickeln, verbesserte Argumentations- und Gedächtnisfunktionen mit längeren Kontextfenstern, multimodale Entwicklung mit Mainstream-Videogenerierung und Hardware-Integration durch Wearables und physische Robotik. Der Konsens: KI-Begleiter werden bleiben und ein massives Wachstum vor sich haben, obwohl die sozialen Auswirkungen zwischen Befürwortern, die zugängliche psychische Gesundheitsunterstützung betonen, und Kritikern, die vor einer Technologie warnen, die für emotionale Unterstützungsrollen mit unzureichenden Schutzmaßnahmen nicht bereit ist, heftig diskutiert werden.

Technische Konvergenz ermöglicht eigene, portable, private KI-Begleiter durch Blockchain-Infrastruktur

Die Schnittstelle von tokenisierter Identität und KI-Begleitern löst grundlegende Probleme, die beide Technologien plagen – KI-Begleitern fehlt echtes Eigentum und Portabilität, während die Blockchain unter schlechter Benutzererfahrung und begrenztem Nutzen leidet. Wenn sie durch kryptografische Identitätssysteme kombiniert werden, können Benutzer ihre KI-Beziehungen als digitale Assets wirklich besitzen, Begleiter-Erinnerungen und -Persönlichkeiten über Plattformen hinweg portieren und privat über Zero-Knowledge-Proofs anstatt über Unternehmensüberwachung interagieren.

Die technische Architektur basiert auf mehreren bahnbrechenden Innovationen, die 2024-2025 eingesetzt wurden. ERC-7857, vorgeschlagen von 0G Labs, bietet den ersten NFT-Standard speziell für KI-Agenten mit privaten Metadaten. Dies ermöglicht die verschlüsselte Speicherung von neuronalen Netzen, Gedächtnis und Charaktereigenschaften On-Chain, mit sicheren Übertragungsprotokollen, die Orakel und kryptografische Systeme verwenden, die bei Eigentümerwechseln neu verschlüsseln. Der Übertragungsprozess generiert Metadaten-Hashes als Authentizitätsnachweise, entschlüsselt in einer Trusted Execution Environment (TEE), verschlüsselt mit dem Schlüssel des neuen Eigentümers neu und erfordert eine Signaturverifizierung vor der Smart-Contract-Ausführung. Traditionelle NFT-Standards (ERC-721/1155) versagten für KI, da sie statische, öffentliche Metadaten ohne sichere Übertragungsmechanismen oder Unterstützung für dynamisches Lernen haben – ERC-7857 löst diese Einschränkungen.

Phala Network hat die weltweit größte TEE-Infrastruktur mit über 30.000 Geräten bereitgestellt, die Hardware-Sicherheit für KI-Berechnungen bieten. TEEs ermöglichen eine sichere Isolation, bei der Berechnungen vor externen Bedrohungen geschützt sind, wobei die Remote-Attestierung einen kryptografischen Nachweis der Nicht-Interferenz liefert. Dies stellt die einzige Möglichkeit dar, echtes exklusives Eigentum für digitale Assets zu erreichen, die sensible Operationen ausführen. Phala verarbeitete 2023 849.000 Off-Chain-Abfragen (gegenüber Ethereums 1,1 Millionen On-Chain), was den Produktionsmaßstab demonstriert. Ihre AI Agent Contracts ermöglichen die Ausführung von TypeScript/JavaScript in TEEs für Anwendungen wie Agent Wars – ein Live-Spiel mit tokenisierten Agenten, die Staking-basierte DAO-Governance verwenden, wobei "Schlüssel" als Anteile fungieren, die Nutzungsrechte und Stimmkraft gewähren.

Die datenschutzfreundliche Architektur schichtet mehrere kryptografische Ansätze für umfassenden Schutz. Die vollständig homomorphe Verschlüsselung (FHE) ermöglicht die Verarbeitung von Daten, während diese vollständig verschlüsselt bleiben – KI-Agenten greifen niemals auf Klartext zu und bieten Post-Quanten-Sicherheit durch NIST-zugelassene Gitterkryptografie (2024). Anwendungsfälle umfassen private DeFi-Portfolioberatung ohne Offenlegung von Beständen, Gesundheitsanalyse verschlüsselter medizinischer Aufzeichnungen ohne Offenlegung von Daten und Prognosemärkte, die verschlüsselte Eingaben aggregieren. MindNetwork und Fhenix bauen FHE-native Plattformen für verschlüsseltes Web3 und digitale Souveränität. Zero-Knowledge-Proofs ergänzen TEEs und FHE, indem sie private Authentifizierung (Altersnachweis ohne Geburtsdatum), vertrauliche Smart Contracts, die Logik ausführen, ohne Daten offenzulegen, verifizierbare KI-Operationen, die den Abschluss von Aufgaben ohne Offenlegung von Eingaben beweisen, und Cross-Chain-Privatsphäre für sichere Interoperabilität ermöglichen. ZK Zyra + Ispolink demonstrieren Zero-Knowledge-Proofs in der Produktion für KI-gestütztes Web3-Gaming.

Eigentumsmodelle, die Blockchain-Tokens verwenden, haben einen erheblichen Marktmaßstab erreicht. Virtuals Protocol führt mit einer Marktkapitalisierung von über 700 Millionen US-Dollar, die über 2 Milliarden US-Dollar an Marktkapitalisierung für KI-Agenten verwaltet, was 85 % der Marktplatzaktivitäten ausmacht und bis Dezember 2024 60 Millionen US-Dollar Protokolleinnahmen generiert. Benutzer kaufen Tokens, die Agentenanteile repräsentieren, was Miteigentum mit vollen Handels-, Übertragungs- und Umsatzbeteiligungsrechten ermöglicht. SentrAI konzentriert sich auf handelbare KI-Personas als programmierbare On-Chain-Assets, die mit Stability World AI für visuelle Fähigkeiten zusammenarbeiten und eine Social-to-AI-Wirtschaft mit plattformübergreifend monetarisierbaren Erlebnissen schaffen. Grok Ani Companion demonstriert die Mainstream-Akzeptanz mit ANI-Token bei 0,03 US-Dollar (30 Millionen US-Dollar Marktkapitalisierung), der täglich 27-36 Millionen US-Dollar Handelsvolumen durch Smart Contracts generiert, die Interaktionen und On-Chain-Metadatenspeicherung sichern.

NFT-basiertes Eigentum bietet alternative Modelle, die die Einzigartigkeit gegenüber der Fungibilität betonen. FURO auf Ethereum bietet 3D-KI-Begleiter, die lernen, sich erinnern und entwickeln, für 10 US-Dollar NFT plus $FURO-Tokens, wobei sich die Personalisierung an den Benutzerstil anpasst und Emotionen widerspiegelt – eine Integration von physischem Spielzeug ist geplant. AXYC (AxyCoin) integriert KI mit GameFi und EdTech unter Verwendung von AR-Token-Sammlung, NFT-Marktplatz und Bildungsmodulen, bei denen KI-Haustiere als Tutoren für Sprachen, MINT und kognitives Training fungieren, mit Meilensteinbelohnungen, die die langfristige Entwicklung anregen.

Datenportabilität und Interoperabilität bleiben mit wichtigen Einschränkungen in Arbeit. Funktionierende Implementierungen umfassen Gitcoin Passports plattformübergreifende Identität mit "Stempeln" von mehreren Authentifikatoren, Civic Pass On-Chain-Identitätsmanagement über dApps/DeFi/NFTs und T3id (Trident3), das über 1.000 Identitätstechnologien aggregiert. On-Chain-Metadaten speichern Präferenzen, Erinnerungen und Meilensteine unveränderlich, während Blockchain-Attestierungen über Ceramic und KILT Protocol KI-Modellzustände mit Identitäten verknüpfen. Aktuelle Einschränkungen umfassen jedoch noch keine universelle SSI-Vereinbarung, Portabilität, die auf bestimmte Ökosysteme beschränkt ist, sich entwickelnde regulatorische Rahmenbedingungen (DSGVO, DMA, Data Act) und die Notwendigkeit einer ökosystemweiten Akzeptanz, bevor eine nahtlose plattformübergreifende Migration Realität wird. Die über 103 experimentellen DID-Methoden schaffen Fragmentierung, wobei Gartner vorhersagt, dass 70 % der SSI-Akzeptanz von der Erreichung der plattformübergreifenden Kompatibilität bis 2027 abhängen.

Monetarisierungsmöglichkeiten an der Schnittstelle ermöglichen völlig neue Wirtschaftsmodelle. Nutzungsbasierte Preisgestaltung berechnet pro API-Aufruf, Token, Aufgabe oder Rechenzeit – Hugging Face Inference Endpoints erreichte 2023 eine Bewertung von 4,5 Milliarden US-Dollar mit diesem Modell. Abonnementmodelle bieten vorhersehbare Einnahmen, wobei Cognigy 60 % seiner 28 Millionen US-Dollar ARR aus Abonnements bezieht. Ergebnisbasierte Preisgestaltung richtet die Zahlung an den Ergebnissen aus (generierte Leads, gelöste Tickets, gesparte Stunden), wie von Zendesk, Intercom und Chargeflow demonstriert. Agent-as-a-Service positioniert KI als "digitale Mitarbeiter" mit monatlichen Gebühren – Harvey, 11x und Vivun sind Pioniere der unternehmensgerechten KI-Belegschaft. Transaktionsgebühren nehmen einen Prozentsatz des vom Agenten vermittelten Handels ein, was in agentischen Plattformen, die ein hohes Volumen für die Rentabilität benötigen, aufkommt.

Blockchain-spezifische Einnahmemodelle schaffen Token-Ökonomien, bei denen der Wert mit dem Ökosystemwachstum steigt, Staking-Belohnungen Dienstleister kompensieren, Governance-Rechte Premium-Funktionen für Inhaber bieten und NFT-Lizenzgebühren Einnahmen aus dem Sekundärmarkt generieren. Die Agent-to-Agent-Wirtschaft ermöglicht autonome Zahlungen, bei denen KI-Agenten sich gegenseitig mit USDC über Circles Programmable Wallets entschädigen, Marktplatzplattformen einen Prozentsatz der Inter-Agent-Transaktionen einnehmen und Smart Contracts Zahlungen basierend auf verifizierter abgeschlossener Arbeit automatisieren. Der KI-Agentenmarkt wird von 5,3 Milliarden US-Dollar (2024) auf 47,1 Milliarden US-Dollar (2030) bei einer CAGR von 44,8 % prognostiziert und könnte bis 2035 216 Milliarden US-Dollar erreichen, wobei Web3 AI allein im dritten Quartal 2024 213 Millionen US-Dollar von Krypto-VCs anzog.

Die Investitionslandschaft zeigt, dass die Konvergenzthese institutionelle Bestätigung findet

Die Kapitalbereitstellung für tokenisierte Identität und KI-Begleiter beschleunigte sich 2024-2025 dramatisch, da institutionelle Investoren die Konvergenzchance erkannten. KI erhielt 2024 über 100 Milliarden US-Dollar an Risikokapital – was 33 % des gesamten globalen VC-Kapitals ausmacht – ein Anstieg von 80 % gegenüber 55,6 Milliarden US-Dollar im Jahr 2023. Generative KI zog speziell 45 Milliarden US-Dollar an, fast eine Verdoppelung gegenüber 24 Milliarden US-Dollar im Jahr 2023, während späte GenAI-Deals durchschnittlich 327 Millionen US-Dollar betrugen, verglichen mit 48 Millionen US-Dollar im Jahr 2023. Diese Kapitalkonzentration spiegelt die Überzeugung der Investoren wider, dass KI einen säkularen Technologieshift und keinen zyklischen Hype darstellt.

Die Finanzierung von Web3 und dezentraler Identität folgte einer parallelen Entwicklung. Der Web3-Markt wuchs von 2,18 Milliarden US-Dollar (2023) auf 49,18 Milliarden US-Dollar (2025) – eine jährliche Wachstumsrate von 44,9 % – wobei 85 % der Deals in der Seed- oder Series-A-Phase stattfanden, was auf eine Infrastrukturaufbauphase hindeutet. Tokenisierte Real-World Assets erreichten 24 Milliarden US-Dollar (2025), ein Anstieg von 308 % über drei Jahre, mit Prognosen auf 412 Milliarden US-Dollar weltweit. Dezentrale Identität skalierte speziell von 156,8 Millionen US-Dollar (2021) auf prognostizierte 77,8 Milliarden US-Dollar bis 2031 – eine CAGR von 87,9 %. Die Tokenisierung von Privatkrediten trieb 58 % der tokenisierten RWA-Flüsse im ersten Halbjahr 2025 an, während tokenisierte Staatsanleihen und Geldmarktfonds 7,4 Milliarden US-Dollar erreichten, mit einem Anstieg von 80 % gegenüber dem Vorjahr.

Matthew Grahams Ryze Labs ist ein Beispiel für die Konvergenz-Investitionsthese durch systematischen Portfolioaufbau. Die Firma inkubierte Amiko, eine persönliche KI-Plattform, die tragbare Hardware (Kick-Gerät), einen Heim-Hub (Brain), lokale Inferenz, strukturierten Speicher, koordinierte Agenten und emotional bewusste KI einschließlich des Eliza-Charakters kombiniert. Amikos Positionierung betont "hochpräzise digitale Zwillinge, die Verhalten, nicht nur Worte, erfassen" mit datenschutzorientierter lokaler Verarbeitung – direkt Grahams Identitätsinfrastrukturthese adressierend. Ryze inkubierte auch Eliza Wakes Up, die KI-Agenten durch humanoide Robotik zum Leben erweckt, angetrieben von ElizaOS, mit 420.000 US-Dollar Vorbestellungen für einen 1,78 m großen Humanoiden mit Silikon-Animatronic-Gesicht, emotionaler Intelligenz und der Fähigkeit, physische Aufgaben und Blockchain-Transaktionen auszuführen. Graham berät das Projekt und nennt es "den fortschrittlichsten humanoiden Roboter, der je außerhalb eines Labors gesehen wurde" und "den ehrgeizigsten seit Sophia the Robot."

Strategische Infrastrukturinvestitionen erfolgten durch die Unterstützung von EdgeX Labs im April 2025 – dezentrales Edge Computing mit über 10.000 weltweit eingesetzten Live-Knoten, die das Substrat für die Koordination mehrerer Agenten und die lokale Inferenz bilden. Das AI Combinator-Programm wurde 2024/2025 mit 5 Millionen US-Dollar zur Finanzierung von 10-12 Projekten an der Schnittstelle von KI/Krypto in Partnerschaft mit Shaw (Eliza Labs) und a16z gestartet. Graham beschrieb es als Ziel der "kambrischen Explosion der KI-Agenten-Innovation" als "die wichtigste Entwicklung in der Branche seit DeFi." Technische Partner sind Polyhedra Network (verifizierbares Computing) und Phala Network (vertrauensloses Computing), mit Ökosystempartnern wie TON Ventures, die KI-Agenten auf mehrere Layer-1-Blockchains bringen.

Große VCs haben explizite Krypto+KI-Investitionsthesen veröffentlicht. Coinbase Ventures artikulierte, dass "Krypto- und Blockchain-basierte Systeme eine natürliche Ergänzung zur generativen KI sind" und diese "zwei säkularen Technologien wie eine DNA-Doppelhelix ineinandergreifen werden, um das Gerüst für unser digitales Leben zu bilden." Zu den Portfoliounternehmen gehören Skyfire und Payman. a16z, Paradigm, Delphi Ventures und Dragonfly Capital (die 2025 einen 500-Millionen-Dollar-Fonds auflegen) investieren aktiv in Agenten-Infrastruktur. Neue dedizierte Fonds entstanden: Gate Ventures + Movement Labs (20-Millionen-Dollar-Web3-Fonds), Gate Ventures + VAE (100-Millionen-Dollar-Fonds), Avalanche + Aethir (100-Millionen-Dollar mit Fokus auf KI-Agenten) und aelf Ventures (50-Millionen-Dollar-Spezialfonds).

Die institutionelle Akzeptanz bestätigt das Tokenisierungsnarrativ, wobei traditionelle Finanzgiganten Produktionssysteme einsetzen. BlackRocks BUIDL wurde mit 2,5 Milliarden US-Dollar AUM zum größten tokenisierten Privatfonds, während CEO Larry Fink erklärte: "Jedes Asset kann tokenisiert werden... es wird das Investieren revolutionieren." Franklin Templetons FOBXX erreichte 708 Millionen US-Dollar AUM, Circles/Hashnotes USYC 488 Millionen US-Dollar. Goldman Sachs betreibt seit über einem Jahr seine End-to-End-Infrastruktur für tokenisierte Assets (DAP). J.P. Morgans Kinexys-Plattform integriert digitale Identität in Web3 mit Blockchain-Identitätsverifizierung. HSBC startete die Orion-Plattform für tokenisierte Anleiheemissionen. Die Bank of America plant den Markteintritt für Stablecoins, vorbehaltlich der Genehmigung, mit 3,26 Billionen US-Dollar an Vermögenswerten, die für digitale Zahlungsinnovationen positioniert sind.

Regionale Dynamiken zeigen, dass der Nahe Osten zu einem Web3-Kapitalzentrum wird. Gate Ventures legte einen 100-Millionen-Dollar-VAE-Fonds auf, während Abu Dhabi 2 Milliarden US-Dollar in Binance investierte. Konferenzen spiegeln die Reifung der Branche wider – TOKEN2049 Singapur zog 25.000 Teilnehmer aus über 160 Ländern an (70 % C-Level), während ETHDenver 2025 25.000 unter dem Motto "From Hype to Impact: Web3 Goes Value-Driven" anzog. Die Investitionsstrategie verlagerte sich von "aggressiver Finanzierung und schneller Skalierung" hin zu "disziplinierten und strategischen Ansätzen", die Rentabilität und nachhaltiges Wachstum betonen, was einen Übergang von Spekulation zu operativem Fokus signalisiert.

Herausforderungen bestehen weiterhin, aber technische Lösungen entstehen in den Bereichen Datenschutz, Skalierbarkeit und Interoperabilität

Trotz beeindruckender Fortschritte müssen erhebliche technische und Akzeptanzherausforderungen gelöst werden, bevor tokenisierte Identität und KI-Begleiter eine Mainstream-Integration erreichen. Diese Hindernisse prägen die Entwicklungszeitpläne und bestimmen, welche Projekte beim Aufbau nachhaltiger Benutzerbasen erfolgreich sind.

Der Kompromiss zwischen Datenschutz und Transparenz stellt die grundlegende Spannung dar – Blockchain-Transparenz kollidiert mit den KI-Datenschutzbedürfnissen für die Verarbeitung sensibler persönlicher Daten und intimer Gespräche. Lösungen sind durch mehrschichtige kryptografische Ansätze entstanden: TEE-Isolation bietet Hardware-Ebene-Privatsphäre (Phalas über 30.000 Geräte sind in Betrieb), FHE-Berechnung ermöglicht verschlüsselte Verarbeitung, die Klartext-Exposition eliminiert, mit Post-Quanten-Sicherheit, ZKP-Verifizierung beweist die Korrektheit ohne Offenlegung von Daten, und hybride Architekturen kombinieren On-Chain-Governance mit Off-Chain-Privatberechnung. Diese Technologien sind produktionsreif, erfordern aber eine ökosystemweite Akzeptanz.

Rechenskalierbarkeitsprobleme ergeben sich aus den Kosten der KI-Inferenz in Kombination mit dem begrenzten Durchsatz der Blockchain. Layer-2-Skalierungslösungen adressieren dies durch zkSync, StarkNet und Arbitrum, die Off-Chain-Berechnungen mit On-Chain-Verifizierung handhaben. Modulare Architekturen, die Polkadots XCM verwenden, ermöglichen Cross-Chain-Koordination ohne Mainnet-Überlastung. Off-Chain-Berechnungen, die von Phala vorangetrieben wurden, ermöglichen es Agenten, Off-Chain auszuführen, während sie On-Chain abgerechnet werden. Speziell entwickelte Chains optimieren speziell für KI-Operationen statt für allgemeine Berechnungen. Der aktuelle durchschnittliche Durchsatz öffentlicher Chains von 17.000 TPS schafft Engpässe, wodurch die L2-Migration für Anwendungen im Verbrauchermaßstab unerlässlich wird.

Die Komplexität von Datenbesitz und Lizenzierung resultiert aus unklaren Rechten an geistigem Eigentum über Basismodelle, Feinabstimmungsdaten und KI-Outputs. Smart-Contract-Lizenzierung bettet Nutzungsbedingungen direkt in Tokens ein, mit automatischer Durchsetzung. Provenance-Tracking über Ceramic und KILT Protocol verknüpft Modellzustände mit Identitäten und schafft Audit-Trails. NFT-Eigentum über ERC-7857 bietet klare Übertragungsmechanismen und Verwahrungsregeln. Die automatisierte Lizenzgebührenverteilung über Smart Contracts gewährleistet eine ordnungsgemäße Wertschöpfung. Rechtliche Rahmenbedingungen hinken der Technologie jedoch hinterher, wobei regulatorische Unsicherheit die institutionelle Akzeptanz abschreckt – wer trägt die Haftung, wenn dezentrale Anmeldeinformationen versagen? Können globale Interoperabilitätsstandards entstehen oder wird die Regionalisierung vorherrschen?

Interoperabilitätsfragmentierung mit über 103 DID-Methoden und verschiedenen Ökosystemen/Identitätsstandards/KI-Frameworks schafft abgeschottete Systeme. Cross-Chain-Messaging-Protokolle wie Polkadot XCM und Cosmos IBC sind in Entwicklung. Universelle Standards durch W3C DIDs und DIF-Spezifikationen schreiten langsam voran und erfordern Konsensbildung. Multi-Chain-Wallets wie Safe Smart Accounts mit programmierbaren Berechtigungen ermöglichen eine gewisse Portabilität. Abstraktionsschichten wie das NANDA-Projekt des MIT, das agentische Web-Indizes aufbaut, versuchen, Ökosysteme zu überbrücken. Gartner prognostiziert, dass 70 % der SSI-Akzeptanz von der Erreichung der plattformübergreifenden Kompatibilität bis 2027 abhängen, was Interoperabilität zur kritischen Pfadabhängigkeit macht.

Die Komplexität der Benutzererfahrung bleibt die primäre Akzeptanzbarriere. Bei der Wallet-Einrichtung brechen 68 % der Benutzer während der Seed-Phrase-Generierung ab. Das Schlüsselmanagement birgt ein existenzielles Risiko – verlorene private Schlüssel bedeuten eine dauerhaft verlorene Identität ohne Wiederherstellungsmechanismus. Das Gleichgewicht zwischen Sicherheit und Wiederherstellbarkeit erweist sich als schwer fassbar; soziale Wiederherstellungssysteme erhöhen die Komplexität, während sie die Prinzipien der Selbstverwahrung aufrechterhalten. Die kognitive Belastung durch das Verständnis von Blockchain-Konzepten, Wallets, Gasgebühren und DIDs überfordert nicht-technische Benutzer. Dies erklärt, warum die institutionelle B2B-Akzeptanz schneller voranschreitet als die B2C-Akzeptanz – Unternehmen können die Komplexitätskosten absorbieren, während Verbraucher nahtlose Erfahrungen fordern.

Wirtschaftliche Nachhaltigkeitsprobleme ergeben sich aus hohen Infrastrukturkosten (GPUs, Speicher, Rechenleistung), die für KI-Operationen erforderlich sind. Dezentrale Rechennetzwerke verteilen die Kosten auf mehrere Anbieter, die im Preis konkurrieren. DePIN (Decentralized Physical Infrastructure Networks) mit über 1.170 Projekten verteilt die Last der Ressourcenbereitstellung. Nutzungsbasierte Modelle richten die Kosten an dem gelieferten Wert aus. Staking-Ökonomien bieten Token-Anreize für die Ressourcenbereitstellung. VC-gestützte Wachstumsstrategien subventionieren jedoch oft die Benutzerakquise mit nicht nachhaltigen Stückkosten – die Verlagerung hin zur Rentabilität in der Investitionsstrategie von 2025 spiegelt die Erkenntnis wider, dass die Validierung des Geschäftsmodells wichtiger ist als das reine Benutzerwachstum.

Vertrauens- und Verifizierungsprobleme konzentrieren sich darauf, sicherzustellen, dass KI-Agenten wie beabsichtigt handeln, ohne Manipulation oder Abweichung. Remote-Attestierung von TEEs stellt kryptografische Beweise für die Integrität der Ausführung aus. On-Chain-Audit-Trails erstellen transparente Aufzeichnungen aller Aktionen. Kryptografische Beweise über ZKPs verifizieren die Korrektheit der Berechnung. DAO-Governance ermöglicht die Überwachung durch die Community durch Token-gewichtete Abstimmung. Die Verifizierung von KI-Entscheidungsprozessen bleibt jedoch angesichts der LLM-Opazität schwierig – selbst mit kryptografischen Beweisen für die korrekte Ausführung ist es schwierig zu verstehen, warum ein KI-Agent bestimmte Entscheidungen getroffen hat.

Die Regulierungslandschaft birgt sowohl Chancen als auch Risiken. Europas eIDAS 2.0 mit obligatorischen digitalen Geldbörsen bis 2026 schafft einen massiven Vertriebskanal, während die US-amerikanische pro-Krypto-Politikverschiebung im Jahr 2025 Reibungsverluste beseitigt. Worldcoin-Verbote in mehreren Gerichtsbarkeiten zeigen jedoch die Bedenken der Regierungen hinsichtlich der Erfassung biometrischer Daten und der Zentralisierungsrisiken. Die DSGVO "Recht auf Löschung" kollidiert mit der Unveränderlichkeit der Blockchain, trotz Off-Chain-Speicherlösungen. Die rechtliche Persönlichkeit von KI-Agenten und Haftungsrahmen bleiben undefiniert – können KI-Agenten Eigentum besitzen, Verträge unterzeichnen oder Verantwortung für Schäden tragen? Diese Fragen sind im Oktober 2025 noch nicht klar beantwortet.

Ausblick: Kurzfristiger Infrastrukturaufbau ermöglicht mittelfristige Verbraucherakzeptanz

Zeitliche Prognosen von Branchenexperten, Marktanalysten und technischen Bewertungen konvergieren auf einen mehrphasigen Rollout. Kurzfristig (2025-2026) bringt regulatorische Klarheit durch US-amerikanische pro-Krypto-Politik, große Institutionen, die in großem Maßstab in die RWA-Tokenisierung einsteigen, universelle Identitätsstandards, die durch W3C- und DIF-Konvergenz entstehen, und mehrere Projekte, die von Testnet zu Mainnet wechseln. Sahara AI Mainnet startet Q2-Q3 2025, ENS Namechain-Migration wird Q4 2025 mit 80-90 % Gasreduzierung abgeschlossen, Lens v3 auf zkSync wird eingesetzt und Ronin AI Agent SDK erreicht die öffentliche Freigabe. Die Investitionstätigkeit konzentriert sich weiterhin zu 85 % auf frühe (Seed/Series A) Infrastrukturprojekte, wobei allein im dritten Quartal 2024 213 Millionen US-Dollar von Krypto-VCs in KI-Projekte fließen, was ein anhaltendes Kapitalengagement signalisiert.

Mittelfristig (2027-2030) wird der KI-Agentenmarkt voraussichtlich bis 2030 47,1 Milliarden US-Dollar erreichen, von 5,3 Milliarden US-Dollar (2024) – eine CAGR von 44,8 %. Cross-Chain-KI-Agenten werden zum Standard, wenn Interoperabilitätsprotokolle reifen. Die Agent-to-Agent-Wirtschaft generiert einen messbaren BIP-Beitrag, wenn autonome Transaktionen skalieren. Umfassende globale Vorschriften etablieren rechtliche Rahmenbedingungen für den Betrieb und die Haftung von KI-Agenten. Dezentrale Identität erreicht 41,73 Milliarden US-Dollar (2030) von 4,89 Milliarden US-Dollar (2025) – eine CAGR von 53,48 % – mit Mainstream-Akzeptanz in Finanz-, Gesundheits- und Regierungsdiensten. Verbesserungen der Benutzererfahrung durch Abstraktionsschichten machen die Blockchain-Komplexität für Endbenutzer unsichtbar.

Langfristig (2030-2035) könnte der Markt für KI-Agenten bis 2035 216 Milliarden US-Dollar erreichen, wobei eine echte plattformübergreifende KI-Begleiter-Migration es Benutzern ermöglicht, ihre KI-Beziehungen überallhin mitzunehmen. Eine potenzielle AGI-Integration transformiert die Fähigkeiten über die aktuellen engen KI-Anwendungen hinaus. KI-Agenten könnten zur primären digitalen Wirtschaftsschnittstelle werden und Apps und Websites als Interaktionsschicht ersetzen. Der dezentrale Identitätsmarkt erreicht 77,8 Milliarden US-Dollar (2031) und wird zum Standard für digitale Interaktionen. Diese Prognosen sind jedoch mit erheblichen Unsicherheiten behaftet – sie setzen anhaltenden technologischen Fortschritt, eine günstige regulatorische Entwicklung und die erfolgreiche Lösung von UX-Herausforderungen voraus.

Was unterscheidet realistische von spekulativen Visionen? Derzeit operativ und produktionsreif: Phalas über 30.000 TEE-Geräte, die reale Workloads verarbeiten, der ERC-7857-Standard, der formell vorgeschlagen wurde und Implementierungen im Gange sind, Virtuals Protocol, das über 2 Milliarden US-Dollar Marktkapitalisierung für KI-Agenten verwaltet, mehrere operative KI-Agenten-Marktplätze (Virtuals, Holoworld), aktive DeFi-KI-Agenten (Fetch.ai, AIXBT), funktionierende Produkte wie das Agent Wars-Spiel, FURO/AXYC NFT-Begleiter, Grok Ani mit 27-36 Millionen US-Dollar täglichem Handelsvolumen und bewährte Technologien (TEE, ZKP, FHE, Smart-Contract-Automatisierung).

Noch spekulativ und nicht realisiert: universelle KI-Begleiter-Portabilität über ALLE Plattformen hinweg, vollständig autonome Agenten, die erhebliche Vermögenswerte unbeaufsichtigt verwalten, eine Agent-to-Agent-Wirtschaft als Hauptanteil des globalen BIP, ein vollständiger Regulierungsrahmen für KI-Agentenrechte, AGI-Integration mit dezentraler Identität, nahtlose Web2-Web3-Identitätsbrücke in großem Maßstab, breit eingesetzte quantenresistente Implementierungen und KI-Agenten als primäre Internetschnittstelle für die Massen. Marktprognosen (47 Milliarden US-Dollar bis 2030, 216 Milliarden US-Dollar bis 2035) extrapolieren aktuelle Trends, hängen aber von Annahmen über regulatorische Klarheit, technologische Durchbrüche und Akzeptanzraten im Mainstream ab, die unsicher bleiben.

Matthew Grahams Positionierung spiegelt diese nuancierte Sichtweise wider – er setzt Kapital in die heutige Produktionsinfrastruktur ein (EdgeX Labs, Phala Network-Partnerschaften), während er Verbraucheranwendungen (Amiko, Eliza Wakes Up) inkubiert, die reifen werden, wenn die zugrunde liegende Infrastruktur skaliert. Seine Betonung der Schwellenländer (Lagos, Bangalore) deutet auf Geduld für die regulatorische Klarheit in entwickelten Märkten hin, während er das Wachstum in Regionen mit geringeren regulatorischen Belastungen erfasst. Der Kommentar zur "Waifu-Infrastrukturschicht" positioniert Identität als grundlegende Anforderung und nicht als nettes Feature, was einen mehrjährigen Aufbau impliziert, bevor die Portabilität von KI-Begleitern im Verbrauchermaßstab Realität wird.

Der Branchenkonsens konzentriert sich auf eine hohe technische Machbarkeit (7-8/10) – TEE-, FHE-, ZKP-Technologien sind bewiesen und eingesetzt, mehrere funktionierende Implementierungen existieren, Skalierbarkeit wird durch Layer-2s adressiert und Standards schreiten aktiv voran. Die wirtschaftliche Machbarkeit wird als mittel-hoch (6-7/10) bewertet, da klare Monetarisierungsmodelle entstehen, ein konsistenter VC-Finanzierungsfluss besteht, die Infrastrukturkosten sinken und die Marktnachfrage validiert ist. Die regulatorische Machbarkeit bleibt mittel (5-6/10), da die USA pro-Krypto-Politik verschieben, die EU aber langsam Rahmenwerke entwickelt, Datenschutzbestimmungen angepasst werden müssen und die IP-Rechte von KI-Agenten unklar bleiben. Die Akzeptanzmachbarkeit liegt bei mittel (5/10) – frühe Anwender sind engagiert, aber UX-Herausforderungen bestehen, die aktuelle Interoperabilität ist begrenzt und es ist erhebliche Aufklärungs- und Vertrauensarbeit erforderlich.

Die Konvergenz von tokenisierter Identität und KI-Begleitern stellt keine spekulative Fiktion dar, sondern einen sich aktiv entwickelnden Sektor mit realer Infrastruktur, operativen Marktplätzen, bewährten Technologien und erheblichen Kapitalinvestitionen. Die Produktionsrealität zeigt über 2 Milliarden US-Dollar an verwalteten Assets, über 30.000 eingesetzte TEE-Geräte, 60 Millionen US-Dollar Protokolleinnahmen allein von Virtuals und tägliche Handelsvolumen im zweistelligen Millionenbereich. Der Entwicklungsstatus umfasst vorgeschlagene Standards (ERC-7857), eingesetzte Technologien (TEE/FHE/ZKP) und operative Rahmenwerke (Virtuals, Phala, Fetch.ai).

Die Konvergenz funktioniert, weil die Blockchain das Eigentumsproblem der KI löst – wem gehört der Agent, seine Erinnerungen, sein wirtschaftlicher Wert? – während die KI das UX-Problem der Blockchain löst, wie Benutzer mit komplexen kryptografischen Systemen interagieren. Datenschutztechnologien (TEE/FHE/ZKP) ermöglichen diese Konvergenz, ohne die Benutzersouveränität zu opfern. Dies ist ein aufstrebender, aber realer Markt mit klaren technischen Wegen, bewährten Wirtschaftsmodellen und wachsender Ökosystemakzeptanz. Der Erfolg hängt von UX-Verbesserungen, regulatorischer Klarheit, Interoperabilitätsstandards und der kontinuierlichen Entwicklung der Infrastruktur ab – all dies schreitet 2025 und darüber hinaus aktiv voran. Matthew Grahams systematische Infrastrukturinvestitionen positionieren Ryze Labs, um Wert zu schöpfen, wenn die "wichtigste Innovationswelle seit dem DeFi-Sommer" vom technischen Aufbau zur Verbraucherakzeptanz in großem Maßstab übergeht.

Frax's Stablecoin-Singularität: Sam Kazemians Vision jenseits von GENIUS

· 30 Min. Lesezeit
Dora Noda
Software Engineer

Die „Stablecoin-Singularität“ repräsentiert Sam Kazemians kühnen Plan, Frax Finance von einem Stablecoin-Protokoll in die „dezentrale Zentralbank des Krypto-Sektors“ zu verwandeln. GENIUS ist kein technisches System von Frax, sondern ein wegweisendes US-Bundesgesetz (Guiding and Establishing National Innovation for U.S. Stablecoins Act), das am 18. Juli 2025 in Kraft trat und eine 100%ige Reservebesicherung sowie umfassenden Verbraucherschutz für Stablecoins vorschreibt. Kazemians Beteiligung an der Ausarbeitung dieses Gesetzes positioniert Frax als Hauptnutznießer, wobei FXS nach der Verabschiedung des Gesetzes um über 100 % anstieg. Was „nach GENIUS“ kommt, ist Frax' Transformation in eine vertikal integrierte Finanzinfrastruktur, die frxUSD (konformer Stablecoin), FraxNet (Bank-Interface), Fraxtal (Entwicklung zu L1) und die revolutionäre AIVM-Technologie mit Proof of Inference-Konsens kombiniert – der weltweit erste KI-gestützte Blockchain-Validierungsmechanismus. Diese Vision zielt auf ein TVL von 100 Milliarden US-Dollar bis 2026 ab und positioniert Frax als Emittenten der „wichtigsten Assets des 21. Jahrhunderts“ durch eine ehrgeizige Roadmap, die regulatorische Compliance, institutionelle Partnerschaften (BlackRock, Securitize) und die Konvergenz von Spitzentechnologie aus KI und Blockchain vereint.

Das Konzept der Stablecoin-Singularität verstehen

Die „Stablecoin-Singularität“ entstand im März 2024 als Frax Finance's umfassende strategische Roadmap, die alle Protokollaspekte in einer einzigen Vision vereint. Angekündigt durch FIP-341 und im April 2024 durch eine Community-Abstimmung genehmigt, stellt dies einen Konvergenzpunkt dar, an dem Frax von einem experimentellen Stablecoin-Protokoll zu einem umfassenden DeFi-Infrastrukturanbieter übergeht.

Die Singularität umfasst fünf Kernkomponenten, die zusammenwirken. Erstens markierte die Erreichung einer 100%igen Besicherung für FRAX die „Post-Singularitäts-Ära“, in der Frax nach Jahren fraktional-algorithmischer Experimente 45 Millionen US-Dollar generierte, um die vollständige Deckung zu erreichen. Zweitens wurde die Fraxtal L2-Blockchain als „das Substrat, das das Frax-Ökosystem ermöglicht“ eingeführt – beschrieben als das „Betriebssystem von Frax“, das eine souveräne Infrastruktur bereitstellt. Drittens vereinte FXS Singularity Tokenomics die gesamte Wertschöpfung, wobei Sam Kazemian erklärte: „Alle Wege führen zu FXS, und es ist der ultimative Nutznießer des Frax-Ökosystems“, indem 50 % der Einnahmen an veFXS-Inhaber und 50 % an die FXS Liquidity Engine für Rückkäufe fließen. Viertens vereinfachte die FPIS-Token-Fusion in FXS die Governance-Struktur und stellte sicher, dass „die gesamte Frax-Community einstimmig hinter FXS steht“. Fünftens zielt die fraktale Skalierungs-Roadmap auf 23 Layer-3-Chains innerhalb eines Jahres ab, wodurch Untergemeinschaften „wie Fraktale“ innerhalb des breiteren Frax Network State entstehen.

Das strategische Ziel ist beeindruckend: 100 Milliarden US-Dollar TVL auf Fraxtal bis Ende 2026, gegenüber 13,2 Millionen US-Dollar beim Start. Wie Kazemian feststellte: „Anstatt über theoretische neue Märkte nachzudenken und Whitepapers zu schreiben, hat Frax immer Live-Produkte geliefert und Märkte erobert, bevor andere überhaupt wussten, dass sie existieren. Diese Geschwindigkeit und Sicherheit werden durch das Fundament ermöglicht, das wir bis heute aufgebaut haben. Die Singularitätsphase von Frax beginnt jetzt.“

Diese Vision geht über bloßes Protokollwachstum hinaus. Fraxtal repräsentiert „die Heimat der Frax Nation & des Fraxtal Network State“ – die Blockchain wird als „souveräner Ort, Kultur und digitaler Raum“ für die Community konzeptualisiert. Die L3-Chains fungieren als „Untergemeinschaften, die ihre eigene ausgeprägte Identität und Kultur haben, aber Teil des gesamten Frax Network State sind“, wodurch die Netzwerkstaat-Philosophie in die DeFi-Infrastruktur eingeführt wird.

GENIUS Act Kontext und Frax' strategische Positionierung

GENIUS ist kein Frax-Protokollmerkmal, sondern ein Bundesgesetz für Stablecoins, das am 18. Juli 2025 in Kraft trat. Der Guiding and Establishing National Innovation for U.S. Stablecoins Act etabliert den ersten umfassenden föderalen Regulierungsrahmen für Zahlungs-Stablecoins und wurde am 20. Mai im Senat mit 68 zu 30 Stimmen und am 17. Juli im Repräsentantenhaus mit 308 zu 122 Stimmen verabschiedet.

Die Gesetzgebung schreibt eine 100%ige Reservebesicherung unter Verwendung zulässiger Assets (US-Dollar, Staatsanleihen, Rückkaufvereinbarungen, Geldmarktfonds, Zentralbankreserven) vor. Sie verlangt monatliche öffentliche Reserveoffenlegungen und geprüfte Jahresabschlüsse für Emittenten, die 50 Milliarden US-Dollar überschreiten. Eine duale föderale/staatliche Regulierungsstruktur gibt dem OCC die Aufsicht über Nichtbanken-Emittenten über 10 Milliarden US-Dollar, während staatliche Regulierungsbehörden kleinere Emittenten betreuen. Der Verbraucherschutz priorisiert Stablecoin-Inhaber vor allen anderen Gläubigern im Falle einer Insolvenz. Entscheidend ist, dass Emittenten über die technischen Fähigkeiten verfügen müssen, Zahlungs-Stablecoins bei gesetzlicher Anforderung zu beschlagnahmen, einzufrieren oder zu verbrennen, und keine Zinsen an Inhaber zahlen oder irreführende Angaben über staatliche Unterstützung machen dürfen.

Sam Kazemians Beteiligung erweist sich als strategisch bedeutsam. Mehrere Quellen deuten darauf hin, dass er „als Brancheninsider tief in die Diskussion und Ausarbeitung des GENIUS Act involviert war“ und häufig mit krypto-freundlichen Gesetzgebern, darunter Senatorin Cynthia Lummis, in Washington D.C. fotografiert wurde. Diese Insiderposition verschaffte ihm frühzeitiges Wissen über regulatorische Anforderungen, wodurch Frax die Compliance-Infrastruktur vor Inkrafttreten des Gesetzes aufbauen konnte. Die Marktanerkennung erfolgte schnell – FXS stieg nach der Verabschiedung im Senat kurzzeitig über 4,4 USDT, mit über 100 % Gewinn in diesem Monat. Eine Analyse stellte fest: „Als Verfasser und Teilnehmer des Gesetzes hat Sam natürlich ein tieferes Verständnis des ‚GENIUS Act‘ und kann sein Projekt leichter an die Anforderungen anpassen.“

Frax' strategische Positionierung für die Einhaltung des GENIUS Act begann lange vor der Verabschiedung des Gesetzes. Das Protokoll verwandelte sich vom hybriden Algorithmus-Stablecoin FRAX in den vollständig besicherten frxUSD unter Verwendung von Fiat-Währung als Sicherheit, wobei die „algorithmische Stabilität“ nach dem Luna UST-Kollaps, der systemische Risiken aufzeigte, aufgegeben wurde. Bis Februar 2025 – fünf Monate bevor GENIUS Gesetz wurde – führte Frax frxUSD als einen in Fiat einlösbaren, vollständig besicherten Stablecoin ein, der von Anfang an darauf ausgelegt war, die erwarteten regulatorischen Anforderungen zu erfüllen.

Diese regulatorische Weitsicht schafft erhebliche Wettbewerbsvorteile. Wie die Marktanalyse schlussfolgerte: „Die gesamte Roadmap zielte darauf ab, der erste lizenzierte, Fiat-gedeckte Stablecoin zu werden.“ Frax baute ein vertikal integriertes Ökosystem auf, das es einzigartig positioniert: frxUSD als konformer Stablecoin, der 1:1 an den USD gekoppelt ist, FraxNet als Bank-Interface, das TradFi mit DeFi verbindet, und Fraxtal als L2-Ausführungsschicht, die möglicherweise zu L1 übergeht. Dieser Full-Stack-Ansatz ermöglicht regulatorische Compliance bei gleichzeitiger Aufrechterhaltung dezentraler Governance und technischer Innovation – eine Kombination, die Konkurrenten nur schwer replizieren können.

Sam Kazemians philosophischer Rahmen: Stablecoin-Maximalismus

Sam Kazemian formulierte seine zentrale These auf der ETHDenver 2024 in einer Präsentation mit dem Titel „Why It's Stablecoins All The Way Down“ und erklärte: „Alles in DeFi, ob sie es wissen oder nicht, wird zu einem Stablecoin oder wird in seiner Struktur Stablecoin-ähnlich werden.“ Dieser „Stablecoin-Maximalismus“ repräsentiert die grundlegende Weltanschauung des Frax-Kernteams – dass die meisten Krypto-Protokolle langfristig zu Stablecoin-Emittenten konvergieren werden oder Stablecoins für ihre Existenz zentral werden.

Der Rahmen basiert auf der Identifizierung einer universellen Struktur, die allen erfolgreichen Stablecoins zugrunde liegt. Kazemian argumentiert, dass im großen Maßstab alle Stablecoins zu zwei wesentlichen Komponenten konvergieren: einem Risikofreien Rendite (RFY)-Mechanismus, der Einnahmen aus Besicherungs-Assets im risikoärmsten Bereich innerhalb des Systems generiert, und einer Swap-Fazilität, bei der Stablecoins mit hoher Liquidität gegen ihren Referenz-Peg eingelöst werden können. Er demonstrierte dies anhand verschiedener Beispiele: USDC kombiniert Staatsanleihen (RFY) mit Bargeld (Swap-Fazilität); stETH verwendet PoS-Validatoren (RFY) mit dem Curve stETH-ETH-Pool über LDO-Anreize (Swap-Fazilität); Frax' frxETH implementiert ein Zwei-Token-System, bei dem frxETH als ETH-gekoppelter Stablecoin dient, während sfrxETH native Staking-Renditen erzielt, wobei 9,5 % des Umlaufs in verschiedenen Protokollen ohne Rendite verwendet werden – wodurch ein entscheidendes „monetäres Premium“ entsteht.

Dieses Konzept des monetären Premiums stellt das dar, was Kazemian als „die stärkste greifbare Messgröße“ für den Erfolg von Stablecoins betrachtet – es übertrifft sogar Markennamen und Reputation. Monetäres Premium misst „die Nachfrage nach einem Stablecoin eines Emittenten, der rein aufgrund seiner Nützlichkeit gehalten wird, ohne Erwartung einer Zinszahlung, Anreize oder anderer Nutzen vom Emittenten.“ Kazemian prognostiziert kühn, dass Stablecoins, die diese zweigliedrige Struktur nicht übernehmen, „nicht in die Billionen skalieren können“ und im Laufe der Zeit Marktanteile verlieren werden.

Die Philosophie geht über traditionelle Stablecoins hinaus. Kazemian argumentiert provokativ, dass „alle Bridges Stablecoin-Emittenten sind“ – wenn ein anhaltendes monetäres Premium für überbrückte Assets wie Wrapped DAI in Nicht-Ethereum-Netzwerken existiert, werden Bridge-Betreiber natürlich versuchen, zugrunde liegende Assets in renditetragenden Mechanismen wie dem DAI Savings Rate-Modul zu hinterlegen. Selbst WBTC fungiert im Wesentlichen als ein „BTC-gedeckter Stablecoin“. Diese expansive Definition zeigt Stablecoins nicht als Produktkategorie, sondern als den fundamentalen Konvergenzpunkt für das gesamte DeFi.

Kazemians langfristige Überzeugung reicht bis ins Jahr 2019 zurück, lange vor dem DeFi-Sommer: „Ich erzähle den Leuten seit Anfang 2019 von algorithmischen Stablecoins... Seit Jahren erzähle ich Freunden und Kollegen, dass algorithmische Stablecoins zu einem der größten Dinge im Krypto-Sektor werden könnten, und jetzt scheinen alle daran zu glauben.“ Seine ehrgeizigste Behauptung positioniert Frax gegen Ethereum selbst: „Ich denke, dass die beste Chance, die ein Protokoll hat, größer zu werden als das native Asset einer Blockchain, ein algorithmisches Stablecoin-Protokoll ist. Daher glaube ich, dass, wenn es etwas auf ETH gibt, das eine Chance hat, wertvoller zu werden als ETH selbst, es die kombinierten Marktkapitalisierungen von FRAX+FXS sind.“

Philosophisch gesehen repräsentiert dies eine pragmatische Evolution über ideologische Reinheit. Eine Analyse stellte fest: „Die Bereitschaft, von fraktionaler zu vollständiger Besicherung überzugehen, bewies, dass Ideologie niemals die Praktikabilität beim Aufbau finanzieller Infrastruktur außer Kraft setzen sollte.“ Dennoch hält Kazemian an Dezentralisierungsprinzipien fest: „Die ganze Idee bei diesen algorithmischen Stablecoins – Frax ist der größte – ist, dass wir etwas so Dezentrales und Nützliches wie Bitcoin aufbauen können, aber mit der Stabilität des US-Dollars.“

Was nach GENIUS kommt: Frax' Vision für 2025 und darüber hinaus

Was „nach GENIUS“ kommt, repräsentiert Frax' Transformation vom Stablecoin-Protokoll zu einer umfassenden Finanzinfrastruktur, die für die Mainstream-Adoption positioniert ist. Die „Future of DeFi“-Roadmap vom Dezember 2024 skizziert diese Vision der Post-Regulierungslandschaft, wobei Sam Kazemian erklärt: „Frax hält nicht nur mit der Zukunft der Finanzen Schritt – es gestaltet sie.“

Die zentrale Innovation ist die AIVM (Künstliche Intelligenz Virtuelle Maschine) – eine revolutionäre parallelisierte Blockchain innerhalb von Fraxtal, die den Proof of Inference-Konsens verwendet, beschrieben als ein „weltweit erster“ Mechanismus. Entwickelt mit der Agent Tokenization Platform von IQ, verwendet AIVM KI- und Machine-Learning-Modelle zur Validierung von Blockchain-Transaktionen anstelle traditioneller Konsensmechanismen. Dies ermöglicht vollständig autonome KI-Agenten ohne zentrale Kontrollinstanz, die von Token-Inhabern besessen werden und unabhängig operieren können. Wie der CTO von IQ feststellte: „Der Start tokenisierter KI-Agenten mit IQ ATP auf Fraxtals AIVM wird sich von jeder anderen Startplattform unterscheiden... Souveräne, On-Chain-Agenten, die von Token-Inhabern besessen werden, sind ein 0-zu-1-Moment für Krypto und KI.“ Dies positioniert Frax an der Schnittstelle der „zwei derzeit weltweit aufmerksamkeitsstärksten Industrien“ – künstliche Intelligenz und Stablecoins.

Der North Star Hard Fork strukturiert die Token-Ökonomie von Frax grundlegend um. FXS wird zu FRAX – dem Gas-Token für Fraxtal, während es sich zu einem L1-Status entwickelt, während der ursprüngliche FRAX-Stablecoin zu frxUSD wird. Der Governance-Token wechselt von veFXS zu veFRAX, wobei die Umsatzbeteiligung und die Stimmrechte erhalten bleiben und die Wertschöpfung des Ökosystems geklärt wird. Diese Umbenennung implementiert einen Tail-Emission-Zeitplan, der mit einer jährlichen Inflation von 8 % beginnt und jährlich um 1 % auf einen Boden von 3 % sinkt, der für Community-Initiativen, Ökosystemwachstum, Team und DAO-Schatzkammer vorgesehen ist. Gleichzeitig zerstört die Frax Burn Engine (FBE) FRAX dauerhaft durch den FNS Registrar und die Fraxtal EIP1559-Basisgebühren, wodurch ein deflationärer Druck entsteht, der die inflationären Emissionen ausgleicht.

FraxUSD wurde im Januar 2025 mit institutioneller Besicherung eingeführt und repräsentiert die Reifung von Frax' Regulierungsstrategie. Durch die Partnerschaft mit Securitize, um Zugang zum BlackRock USD Institutional Digital Liquidity Fund (BUIDL) zu erhalten, erklärte Kazemian, dass sie „einen neuen Standard für Stablecoins setzen“. Der Stablecoin verwendet ein Hybridmodell mit von der Governance genehmigten Verwahrern, darunter BlackRock, Superstate (USTB, USCC), FinresPBC und WisdomTree (WTGXX). Die Reservezusammensetzung umfasst Bargeld, US-Staatsanleihen, Rückkaufvereinbarungen und Geldmarktfonds – genau passend zu den Anforderungen des GENIUS Act. Entscheidend ist, dass frxUSD über diese Verwahrer direkte Fiat-Einlösemöglichkeiten zu einer 1:1-Parität bietet, wodurch TradFi und DeFi nahtlos miteinander verbunden werden.

FraxNet bietet die Bank-Interface-Schicht, die traditionelle Finanzsysteme mit dezentraler Infrastruktur verbindet. Benutzer können frxUSD minten und einlösen, stabile Renditen erzielen und auf programmierbare Konten mit Rendite-Streaming-Funktionalität zugreifen. Dies positioniert Frax als Anbieter einer vollständigen Finanzinfrastruktur: frxUSD (Geld-Schicht), FraxNet (Bank-Interface) und Fraxtal (Ausführungsschicht) – was Kazemian als das „Stablecoin-Betriebssystem“ bezeichnet.

Die Fraxtal-Evolution erweitert die L2-Roadmap in Richtung eines potenziellen L1-Übergangs. Die Plattform implementiert Echtzeit-Blöcke für eine ultraschnelle Verarbeitung, vergleichbar mit Sei und Monad, und positioniert sich damit für Hochdurchsatz-Anwendungen. Die fraktale Skalierungsstrategie zielt auf 23 Layer-3-Chains innerhalb eines Jahres ab, wodurch anpassbare App-Chains über Partnerschaften mit Ankr und Asphere entstehen. Jede L3 fungiert als eigenständige Untergemeinschaft innerhalb des Fraxtal Network State – was Kazemians Vision der digitalen Souveränität widerspiegelt.

Die Krypto-Strategische Reserve (CSR) positioniert Frax als das „MicroStrategy von DeFi“ – den Aufbau einer On-Chain-Reserve, die in BTC und ETH denominiert ist und zu „einer der größten Bilanzen in DeFi“ werden soll. Diese Reserve befindet sich auf Fraxtal und trägt zum TVL-Wachstum bei, während sie von veFRAX-Stakern verwaltet wird, wodurch eine Ausrichtung zwischen dem Protokoll-Treasury-Management und den Interessen der Token-Inhaber geschaffen wird.

Das Frax Universal Interface (FUI)-Redesign vereinfacht den DeFi-Zugang für die Mainstream-Adoption. Globales Fiat-Onramping über Halliday reduziert die Reibung für neue Benutzer, während optimiertes Routing durch Odos-Integration eine effiziente Cross-Chain-Asset-Bewegung ermöglicht. Die Entwicklung mobiler Wallets und KI-gesteuerte Verbesserungen bereiten die Plattform auf die „nächste Milliarde Benutzer, die in Krypto einsteigen“, vor.

Über 2025 hinaus sieht Kazemian Frax expandieren, um frx-präfixierte Versionen wichtiger Blockchain-Assets auszugeben – frxBTC, frxNEAR, frxTIA, frxPOL, frxMETIS – und so zum „größten Emittenten der wichtigsten Assets des 21. Jahrhunderts“ zu werden. Jedes Asset wendet Frax' bewährtes Liquid Staking Derivat-Modell auf neue Ökosysteme an, generiert Einnahmen und bietet gleichzeitig einen erweiterten Nutzen. Die frxBTC-Ambition sticht besonders hervor: die Schaffung des „größten Emittenten“ von Bitcoin in DeFi, vollständig dezentralisiert im Gegensatz zu WBTC, unter Verwendung von Multi-Computational Threshold Redemption Systemen.

Die Umsatzgenerierung skaliert proportional. Im März 2024 generierte Frax laut DeFiLlama über 40 Millionen US-Dollar Jahresumsatz, exklusive Fraxtal-Chain-Gebühren und Fraxlend AMO. Die Aktivierung des Gebührenschalters erhöhte die veFXS-Rendite um das 15-fache (von 0,20–0,80 % auf 3–12 % effektive Jahreszinsen), wobei 50 % der Protokollrendite an veFXS-Inhaber und 50 % an die FXS Liquidity Engine für Rückkäufe verteilt werden. Dies schafft eine nachhaltige Wertakkumulation unabhängig von Token-Emissionen.

Die ultimative Vision positioniert Frax als „den US-Digital-Dollar“ – die weltweit innovativste dezentrale Stablecoin-Infrastruktur. Kazemians Bestreben erstreckt sich auf Master-Konten der Federal Reserve, die es Frax ermöglichen würden, Staatsanleihen und Reverse-Rückkaufvereinbarungen als risikofreie Renditekomponente einzusetzen, die seinem Stablecoin-Maximalismus-Rahmen entspricht. Dies würde die Konvergenz vervollständigen: ein dezentrales Protokoll mit institutionellen Sicherheiten, regulatorischer Compliance und Zugang zu Finanzinfrastruktur auf Fed-Ebene.

Technische Innovationen, die die Vision antreiben

Frax' technische Roadmap zeigt eine bemerkenswerte Innovationsgeschwindigkeit, indem sie neuartige Mechanismen implementiert, die breitere DeFi-Designmuster beeinflussen. Das FLOX (Fraxtal Blockspace Incentives)-System stellt den ersten Mechanismus dar, bei dem Benutzer, die Gas ausgeben, und Entwickler, die Smart Contracts bereitstellen, gleichzeitig Belohnungen verdienen. Im Gegensatz zu traditionellen Airdrops mit festgelegten Snapshot-Zeiten verwendet FLOX eine zufällige Stichprobenentnahme der Datenverfügbarkeit, um negatives Farming-Verhalten zu verhindern. In jeder Epoche (anfänglich sieben Tage) verteilt der Flox-Algorithmus FXTL-Punkte basierend auf Gasverbrauch und Vertragsinteraktionen, wobei vollständige Transaktionsspuren verfolgt werden, um alle beteiligten Verträge – Router, Pools, Token-Verträge – zu belohnen. Benutzer können mehr verdienen als das ausgegebene Gas, während Entwickler von der Nutzung ihrer dApp profitieren, wodurch Anreize im gesamten Ökosystem aufeinander abgestimmt werden.

Die AIVM-Architektur markiert einen Paradigmenwechsel im Blockchain-Konsens. Durch die Verwendung von Proof of Inference validieren KI- und Machine-Learning-Modelle Transaktionen anstelle traditioneller PoW/PoS-Mechanismen. Dies ermöglicht autonomen KI-Agenten, als Blockchain-Validatoren und Transaktionsprozessoren zu agieren – wodurch die Infrastruktur für eine KI-gesteuerte Wirtschaft geschaffen wird, in der Agenten tokenisiertes Eigentum halten und Strategien unabhängig ausführen. Die Partnerschaft mit IQ's Agent Tokenization Platform bietet die Tools für die Bereitstellung souveräner, On-Chain-KI-Agenten und positioniert Fraxtal als die führende Plattform für die KI-Blockchain-Konvergenz.

FrxETH v2 verwandelt Liquid Staking Derivate in dynamische Kreditmärkte für Validatoren. Anstatt dass das Kernteam alle Nodes betreibt, implementiert das System einen Fraxlend-ähnlichen Kreditmarkt, auf dem Benutzer ETH in Kreditverträge einzahlen und Validatoren es für ihre Validatoren leihen. Dies beseitigt die operative Zentralisierung und kann gleichzeitig höhere effektive Jahreszinsen erzielen, die Liquid Restaking Token (LRTs) erreichen oder übertreffen. Die Integration mit EigenLayer ermöglicht direkte Restaking-Pods und EigenLayer-Einlagen, wodurch sfrxETH sowohl als LSD als auch als LRT fungiert. Der Fraxtal AVS (Actively Validated Service) verwendet sowohl FXS- als auch sfrxETH-Restaking, wodurch zusätzliche Sicherheitsschichten und Renditemöglichkeiten geschaffen werden.

BAMM (Bond Automated Market Maker) kombiniert AMM- und Kreditfunktionalität in einem neuartigen Protokoll ohne direkte Konkurrenten. Sam beschrieb es enthusiastisch: „Jeder wird einfach BAMM-Paare für sein Projekt oder für seinen Meme-Coin oder was auch immer er tun möchte, anstelle von Uniswap-Paaren starten und dann versuchen, Liquidität an zentralisierten Börsen aufzubauen, ein Chainlink-Orakel zu bekommen, eine Aave- oder Compound-Governance-Abstimmung zu bestehen.“ BAMM-Paare eliminieren externe Orakel-Anforderungen und bieten automatischen Solvenzschutz bei hoher Volatilität. Die native Integration in Fraxtal positioniert es so, dass es „den größten Einfluss auf die FRAX-Liquidität und -Nutzung“ haben wird.

Algorithmic Market Operations (AMOs) stellen Frax' einflussreichste Innovation dar, die in DeFi-Protokollen kopiert wurde. AMOs sind Smart Contracts, die Sicherheiten verwalten und Einnahmen durch autonome geldpolitische Operationen generieren. Beispiele sind der Curve AMO, der über 1,3 Milliarden US-Dollar in FRAX3CRV-Pools verwaltet (99,9 % protokoll-eigene), seit Oktober 2021 über 75 Millionen US-Dollar Gewinne generiert hat, und der Collateral Investor AMO, der ungenutztes USDC an Aave, Compound und Yearn einsetzt und 63,4 Millionen US-Dollar Gewinne generiert. Diese schaffen, was Messari als „DeFi 2.0 Stablecoin-Theorie“ beschrieb – die auf Wechselkurse in offenen Märkten abzielt, anstatt auf passive Sicherheiten-Einzahlungs-/Minting-Modelle. Diese Verschiebung vom Mieten von Liquidität über Emissionen zum Besitz von Liquidität über AMOs transformierte die DeFi-Nachhaltigkeitsmodelle grundlegend und beeinflusste Olympus DAO, Tokemak und zahlreiche andere Protokolle.

Fraxtals modulare L2-Architektur verwendet den Optimism-Stack für die Ausführungsumgebung, integriert aber Flexibilität für Datenverfügbarkeit, Abwicklung und Konsensschicht-Optionen. Die strategische Einbeziehung der Zero-Knowledge-Technologie ermöglicht die Aggregation von Gültigkeitsnachweisen über mehrere Chains hinweg, wobei Kazemian Fraxtal als „zentralen Referenzpunkt für den Zustand verbundener Chains“ ansieht, der Anwendungen, die auf jeder teilnehmenden Chain aufgebaut sind, ermöglicht, „atomar im gesamten Universum“ zu funktionieren. Diese Interoperabilitätsvision erstreckt sich über Ethereum hinaus auf Cosmos, Solana, Celestia und Near – und positioniert Fraxtal als universelle Abwicklungsschicht anstatt einer isolierten App-Chain.

FrxGov (Frax Governance 2.0), das 2024 eingeführt wurde, implementiert ein duales Governor-Vertragssystem: Governor Alpha (GovAlpha) mit hohem Quorum für die primäre Kontrolle und Governor Omega (GovOmega) mit niedrigerem Quorum für schnellere Entscheidungen. Dies verbesserte die Dezentralisierung, indem Governance-Entscheidungen vollständig On-Chain verlagert wurden, während die Flexibilität für dringende Protokollanpassungen erhalten blieb. Alle wichtigen Entscheidungen laufen über veFRAX (ehemals veFXS)-Inhaber, die Gnosis Safes über Compound/OpenZeppelin Governor-Verträge kontrollieren.

Diese technischen Innovationen lösen unterschiedliche Probleme: AIVM ermöglicht autonome KI-Agenten; frxETH v2 beseitigt die Validator-Zentralisierung und maximiert gleichzeitig die Renditen; BAMM eliminiert die Orakel-Abhängigkeit und bietet automatisches Risikomanagement; AMOs erreichen Kapitaleffizienz ohne Stabilität zu opfern; Fraxtal bietet souveräne Infrastruktur; FrxGov gewährleistet dezentrale Kontrolle. Zusammen demonstrieren sie Frax' Philosophie: „Anstatt über theoretische neue Märkte nachzudenken und Whitepapers zu schreiben, hat Frax immer Live-Produkte geliefert und Märkte erobert, bevor andere überhaupt wussten, dass sie existieren.“

Ökosystem-Passung und breitere DeFi-Implikationen

Frax nimmt eine einzigartige Position in der 252 Milliarden US-Dollar schweren Stablecoin-Landschaft ein und repräsentiert das dritte Paradigma neben zentralisierten, Fiat-gedeckten (USDC, USDT mit ~80 % Dominanz) und dezentralisierten, Krypto-besicherten (DAI mit 71 % des dezentralen Marktanteils). Der fraktional-algorithmische Hybridansatz – jetzt zu 100 % Besicherung mit beibehaltener AMO-Infrastruktur weiterentwickelt – zeigt, dass Stablecoins nicht zwischen Extremen wählen müssen, sondern dynamische Systeme schaffen können, die sich an Marktbedingungen anpassen.

Drittanbieter-Analysen bestätigen Frax' Innovation. Messaris Bericht vom Februar 2022 stellte fest: „Frax ist das erste Stablecoin-Protokoll, das Designprinzipien sowohl von vollständig besicherten als auch von vollständig algorithmischen Stablecoins implementiert, um neues skalierbares, vertrauensloses, stabiles On-Chain-Geld zu schaffen.“ Coinmonks bemerkte im September 2025: „Durch sein revolutionäres AMO-System schuf Frax autonome geldpolitische Instrumente, die komplexe Marktoperationen durchführen und gleichzeitig den Peg aufrechterhalten... Das Protokoll zeigte, dass die beste Lösung manchmal nicht darin besteht, zwischen Extremen zu wählen, sondern dynamische Systeme zu schaffen, die sich anpassen können.“ Bankless beschrieb Frax' Ansatz als einen, der schnell „erhebliche Aufmerksamkeit im DeFi-Bereich erregte und viele verwandte Projekte inspirierte.“

Das DeFi-Trinity-Konzept positioniert Frax als einziges Protokoll mit vollständiger vertikaler Integration über essentielle Finanzprimitive hinweg. Kazemian argumentiert, dass erfolgreiche DeFi-Ökosysteme drei Komponenten benötigen: Stablecoins (liquide Rechnungseinheit), AMMs/Börsen (Liquiditätsbereitstellung) und Kreditmärkte (Schuldenentstehung). MakerDAO hat Kreditvergabe plus Stablecoin, aber keinen nativen AMM; Aave führte den GHO-Stablecoin ein und wird schließlich einen AMM benötigen; Curve führte crvUSD ein und benötigt Kreditinfrastruktur. Frax allein besitzt alle drei Teile durch FRAX/frxUSD (Stablecoin), Fraxswap (AMM mit Time-Weighted Average Market Maker) und Fraxlend (Permissionless Lending), plus zusätzliche Schichten mit frxETH (Liquid Staking), Fraxtal (L2-Blockchain) und FXB (Anleihen). Diese Vollständigkeit führte zu der Beschreibung: „Frax fügt strategisch neue Subprotokolle und Frax-Assets hinzu, aber alle notwendigen Bausteine sind jetzt vorhanden.“

Frax' Positionierung im Verhältnis zu Branchentrends zeigt sowohl Übereinstimmung als auch strategische Divergenz. Wichtige Trends sind regulatorische Klarheit (GENIUS Act-Rahmenwerk), institutionelle Adoption (90 % der Finanzinstitute ergreifen Stablecoin-Maßnahmen), Real-World Asset-Integration (über 16 Billionen US-Dollar Tokenisierungs-Möglichkeit), renditetragende Stablecoins (PYUSD, sFRAX bieten passives Einkommen), Multi-Chain-Zukunft und KI-Krypto-Konvergenz. Frax stimmt stark mit der regulatorischen Vorbereitung (100 % Besicherung vor GENIUS), dem Aufbau institutioneller Infrastruktur (BlackRock-Partnerschaft), der Multi-Chain-Strategie (Fraxtal plus Cross-Chain-Implementierungen) und der KI-Integration (AIVM) überein. Es weicht jedoch bei den Trends Komplexität versus Einfachheit ab, indem es ausgeklügelte AMO-Systeme und Governance-Mechanismen beibehält, die Barrieren für Durchschnittsnutzer schaffen.

Kritische Perspektiven identifizieren echte Herausforderungen. Die USDC-Abhängigkeit bleibt problematisch – 92 % Besicherung schafft ein Single-Point-of-Failure-Risiko, wie die SVB-Krise im März 2023 zeigte, als Circles 3,3 Milliarden US-Dollar, die bei der Silicon Valley Bank feststeckten, eine USDC-Entkopplung auslösten, die FRAX auf 0,885 US-Dollar fallen ließ. Die Governance-Konzentration zeigt, dass eine Wallet Ende 2024 über 33 % des FXS-Angebots hielt, was trotz der DAO-Struktur Zentralisierungsbedenken aufwirft. Komplexitätsbarrieren begrenzen die Zugänglichkeit – das Verständnis von AMOs, dynamischen Besicherungsverhältnissen und Multi-Token-Systemen erweist sich für Durchschnittsnutzer als schwierig im Vergleich zu einfachen USDC oder sogar DAI. Der Wettbewerbsdruck nimmt zu, da Aave, Curve und traditionelle Finanzakteure mit erheblichen Ressourcen und etablierten Nutzerbasen in die Stablecoin-Märkte eintreten.

Die vergleichende Analyse zeigt Frax' Nische. Gegenüber USDC: USDC bietet regulatorische Klarheit, Liquidität, Einfachheit und institutionelle Unterstützung, aber Frax bietet überlegene Kapitaleffizienz, Wertakkumulation für Token-Inhaber, Innovation und dezentrale Governance. Gegenüber DAI: DAI maximiert Dezentralisierung und Zensurresistenz mit der längsten Erfolgsbilanz, aber Frax erreicht höhere Kapitaleffizienz durch AMOs im Vergleich zu DAIs 160 % Überbesicherung, generiert Einnahmen durch AMOs und bietet einen integrierten DeFi-Stack. Gegenüber dem gescheiterten TerraUST: USTs rein algorithmisches Design ohne Sicherheitenuntergrenze schuf eine Todesspiral-Anfälligkeit, während Frax' Hybridansatz mit Sicherheitenbesicherung, dynamischem Besicherungsverhältnis und konservativer Entwicklung während des LUNA-Kollapses widerstandsfähig war.

Die philosophischen Implikationen gehen über Frax hinaus. Das Protokoll zeigt, dass dezentrale Finanzen pragmatische Evolution über ideologische Reinheit erfordern – die Bereitschaft, von fraktionaler zu vollständiger Besicherung zu wechseln, wenn die Marktbedingungen es erforderten, während die ausgeklügelte AMO-Infrastruktur für Kapitaleffizienz beibehalten wurde. Diese „intelligente Überbrückung“ von traditionellen Finanzen und DeFi stellt die falsche Dichotomie in Frage, dass Krypto TradFi vollständig ersetzen oder vollständig integrieren muss. Das Konzept des programmierbaren Geldes, das automatisch die Besicherung anpasst, Kapital produktiv einsetzt, Stabilität durch Marktoperationen aufrechterhält und Wert an Stakeholder verteilt, repräsentiert ein grundlegend neues Finanzprimitiv.

Frax' Einfluss zeigt sich in der gesamten Entwicklung von DeFi. Das AMO-Modell inspirierte protokoll-eigene Liquiditätsstrategien in allen Ökosystemen. Die Erkenntnis, dass Stablecoins natürlich auf risikofreie Rendite plus Swap-Fazilität-Strukturen konvergieren, beeinflusste, wie Protokolle Stabilitätsmechanismen gestalten. Die Demonstration, dass algorithmische und besicherte Ansätze erfolgreich hybridisieren könnten, zeigte, dass binäre Entscheidungen nicht notwendig waren. Wie Coinmonks schlussfolgerte: „Frax' Innovationen – insbesondere AMOs und programmierbare Geldpolitik – reichen über das Protokoll selbst hinaus, beeinflussen die Denkweise der Branche über dezentrale Finanzinfrastruktur und dienen als Blaupause für zukünftige Protokolle, die Effizienz, Stabilität und Dezentralisierung ausbalancieren wollen.“

Sam Kazemians jüngstes öffentliches Engagement

Sam Kazemian blieb 2024–2025 durch verschiedene Medienkanäle außergewöhnlich sichtbar, wobei seine Auftritte eine Entwicklung vom Gründer eines technischen Protokolls zum politischen Influencer und Branchen-Vordenker zeigten. Sein jüngster Bankless-Podcast „Ethereum's Biggest Mistake (and How to Fix It)“ (Anfang Oktober 2025) zeigte einen erweiterten Fokus über Frax hinaus, indem er argumentierte, dass Ethereum das Asset ETH von der Technologie Ethereum entkoppelt habe, was die Bewertung von ETH gegenüber Bitcoin untergrub. Er behauptet, dass nach EIP-1559 und Proof of Stake ETH von einem „digitalen Gut“ zu einem „abgezinsten Cashflow“-Asset auf der Grundlage von Burn-Einnahmen wechselte, wodurch es eher wie Eigenkapital als wie ein souveräner Wertspeicher funktioniert. Seine vorgeschlagene Lösung: den internen sozialen Konsens um ETH als rohstoffähnliches Asset mit einem starken Knappheitsnarrativ (ähnlich Bitcoins 21-Millionen-Cap) wieder aufzubauen, während Ethereums offenes technisches Ethos beibehalten wird.

Der Defiant-Podcast vom Januar 2025 konzentrierte sich speziell auf frxUSD und Stablecoin-Futures und erklärte die Einlösbarkeit über BlackRock- und SuperState-Verwahrer, wettbewerbsfähige Renditen durch diversifizierte Strategien und Frax' breitere Vision, eine digitale Wirtschaft aufzubauen, die durch den Flaggschiff-Stablecoin und Fraxtal verankert ist. Die Kapitelthemen umfassten die Differenzierung der Gründungsgeschichte, die Vision eines dezentralen Stablecoins, frxUSDs „Best of Both Worlds“-Design, die Zukunft der Stablecoins, Renditestrategien, Real-World- und On-Chain-Nutzung, Stablecoins als Krypto-Gateway und Frax' Roadmap.

Der Rollup-Podcast-Dialog mit Aave-Gründer Stani Kulechov (Mitte 2025) bot eine umfassende Diskussion des GENIUS Act, wobei Kazemian feststellte: „Ich habe tatsächlich hart daran gearbeitet, meine Aufregung zu kontrollieren, und die aktuelle Situation lässt mich unglaublich begeistert sein. Ich hätte nie erwartet, dass die Entwicklung von Stablecoins heute solche Höhen erreichen würde; die zwei derzeit weltweit aufmerksamkeitsstärksten Industrien sind künstliche Intelligenz und Stablecoins.“ Er erklärte, wie der GENIUS Act das Bankenmonopol bricht: „In der Vergangenheit war die Ausgabe des Dollars von Banken monopolisiert, und nur konzessionierte Banken konnten Dollars ausgeben... Durch den Genius Act wurde dieses Monopol jedoch, obwohl die Regulierung zugenommen hat, tatsächlich gebrochen und das Recht [Stablecoins auszugeben] erweitert.“

Flywheel DeFis umfassende Berichterstattung erfasste mehrere Dimensionen von Kazemians Denken. In „Sam Kazemian Reveals Frax Plans for 2024 and Beyond“ aus den Twitter Spaces zum dritten Jahrestag im Dezember 2023 formulierte er: „Die Frax-Vision besteht im Wesentlichen darin, der größte Emittent der wichtigsten Assets des 21. Jahrhunderts zu werden.“ Zu PayPals PYUSD: „Sobald sie den Schalter umlegen, wo Zahlungen in Dollar tatsächlich PYUSD sind, die von Konto zu Konto verschoben werden, dann werden die Leute, denke ich, aufwachen und wirklich wissen, dass Stablecoins ein allgemein bekannter Begriff geworden sind.“ Der Artikel „7 New Things We Learned About Fraxtal“ enthüllte frxBTC-Pläne, die darauf abzielen, der „größte Emittent – der am weitesten verbreitete Bitcoin in DeFi“ zu sein, vollständig dezentralisiert im Gegensatz zu WBTC, unter Verwendung von Multi-Computational Threshold Redemption Systemen.

Die ETHDenver-Präsentation „Why It's Stablecoins All The Way Down“ vor einem überfüllten Publikum artikulierte den Stablecoin-Maximalismus umfassend. Kazemian demonstrierte, wie USDC, stETH, frxETH und sogar über Bridge-Wrapped Assets alle auf derselben Struktur konvergieren: risikofreier Renditemechanismus plus Swap-Fazilität mit hoher Liquidität. Er prognostizierte kühn, dass Stablecoins, die diese Struktur nicht übernehmen, „nicht in die Billionen skalieren können“ und Marktanteile verlieren werden. Die Präsentation positionierte das monetäre Premium – die Nachfrage, Stablecoins rein aufgrund ihrer Nützlichkeit ohne Zinserwartungen zu halten – als stärkste Messgröße für den Erfolg jenseits von Marke oder Reputation.

Schriftliche Interviews lieferten persönlichen Kontext. Das Countere Magazine-Profil enthüllte Sam als iranisch-amerikanischen UCLA-Absolventen und ehemaligen Powerlifter (455 Pfund Kniebeuge, 385 Pfund Bankdrücken, 550 Pfund Kreuzheben), der Frax Mitte 2019 mit Travis Moore und Kedar Iyer gründete. Die Gründungsgeschichte führt die Inspiration auf Robert Sams' Whitepaper „Seigniorage Shares“ von 2014 und Tethers Offenbarung der teilweisen Besicherung zurück, die zeigte, dass Stablecoins ein monetäres Premium besaßen, ohne zu 100 % besichert zu sein – was zu Frax' revolutionärem fraktional-algorithmischen Mechanismus führte, der dieses Premium transparent misst. Das Cointelegraph-Regulierungsinterview fing seine Philosophie ein: „Man kann Wertpapiergesetze, die in den 1930er Jahren, als unsere Großeltern Kinder waren, geschaffen wurden, nicht auf die Ära der dezentralen Finanzen und automatisierten Market Maker anwenden.“

Konferenzauftritte umfassten TOKEN2049 Singapur (1. Oktober 2025, 15-minütige Keynote auf der TON Stage), RESTAKING 2049 Side-Event (16. September 2024, privates Event nur auf Einladung mit EigenLayer, Curve, Puffer, Pendle, Lido), unStable Summit 2024 auf der ETHDenver (28. Februar 2024, ganztägige technische Konferenz zusammen mit Coinbase Institutional, Centrifuge, Nic Carter) und die eigentliche ETHDenver (29. Februar – 3. März 2024, Hauptredner).

Twitter Spaces wie The Optimist's „Fraxtal Masterclass“ (23. Februar 2024) untersuchten Kompatibilitätsprobleme in der modularen Welt, fortschrittliche Technologien einschließlich zk-Rollups, den am 13. März 2024 startenden Flox-Mechanismus und die Vision der universellen Interoperabilität, bei der „Fraxtal zu einem zentralen Referenzpunkt für den Zustand verbundener Chains wird, der Anwendungen, die auf jeder teilnehmenden Chain aufgebaut sind, ermöglicht, atomar im gesamten ‚Universum‘ zu funktionieren.“

Die Entwicklung des Denkens in diesen Auftritten zeigt deutliche Phasen: 2020–2021 konzentrierte sich auf algorithmische Mechanismen und Innovationen bei der fraktionalen Besicherung; 2022 nach dem UST-Kollaps wurde Resilienz und angemessene Besicherung betont; 2023 verlagerte sich der Fokus auf 100 % Besicherung und frxETH-Expansion; 2024 stand der Fraxtal-Start und der Fokus auf regulatorische Compliance im Mittelpunkt; 2025 betonte die GENIUS Act-Positionierung, das FraxNet-Bank-Interface und den L1-Übergang. Durchweg bestehen wiederkehrende Themen: das DeFi-Trinity-Konzept (Stablecoin + AMM + Kreditmarkt), Zentralbank-Analogien für Frax-Operationen, die Stablecoin-Maximalismus-Philosophie, regulatorischer Pragmatismus, der sich von Widerstand zu aktiver Politikgestaltung entwickelt, und die langfristige Vision, „Emittent der wichtigsten Assets des 21. Jahrhunderts“ zu werden.

Strategische Implikationen und Zukunftsaussichten

Sam Kazemians Vision für Frax Finance repräsentiert eines der umfassendsten und philosophisch kohärentesten Projekte in den dezentralen Finanzen, das sich von algorithmischen Experimenten zur potenziellen Schaffung des ersten lizenzierten DeFi-Stablecoins entwickelt. Die strategische Transformation demonstriert pragmatische Anpassung an die regulatorische Realität bei gleichzeitiger Beibehaltung dezentraler Prinzipien – ein Gleichgewicht, das Konkurrenten nur schwer erreichen.

Die Post-GENIUS-Trajektorie positioniert Frax über mehrere Wettbewerbsdimensionen hinweg. Die regulatorische Vorbereitung durch tiefgreifende Beteiligung an der Ausarbeitung des GENIUS Act schafft First-Mover-Vorteile bei der Compliance, wodurch frxUSD potenziell einen lizenzierten Status vor Konkurrenten sichern kann. Die vertikale Integration – das einzige Protokoll, das Stablecoin, Liquid Staking Derivat, L2-Blockchain, Kreditmarkt und DEX kombiniert – bietet nachhaltige Wettbewerbsvorteile durch Netzwerkeffekte über Produkte hinweg. Die Umsatzgenerierung von über 40 Millionen US-Dollar jährlich, die an veFXS-Inhaber fließt, schafft eine greifbare Wertakkumulation unabhängig von spekulativen Token-Dynamiken. Die technische Innovation durch FLOX-Mechanismen, BAMM, frxETH v2 und insbesondere AIVM positioniert Frax an der Spitze der Blockchain-Entwicklung. Die Real-World-Integration über BlackRock- und SuperState-Verwahrung für frxUSD verbindet institutionelle Finanzen effektiver mit dezentraler Infrastruktur als rein krypto-native oder rein TradFi-Ansätze.

Erhebliche Herausforderungen bleiben bestehen. Die USDC-Abhängigkeit bei 92 % Besicherung schafft ein systemisches Risiko, wie die SVB-Krise zeigte, als FRAX nach der USDC-Entkopplung auf 0,885 US-Dollar fiel. Die Diversifizierung der Sicherheiten über mehrere Verwahrer (BlackRock, Superstate, WisdomTree, FinresPBC) mindert, eliminiert aber nicht das Konzentrationsrisiko. Komplexitätsbarrieren begrenzen die Mainstream-Adoption – das Verständnis von AMOs, dynamischer Besicherung und Multi-Token-Systemen erweist sich im Vergleich zu einfachen USDC als schwierig, was Frax möglicherweise auf anspruchsvolle DeFi-Nutzer statt auf den Massenmarkt beschränkt. Die Governance-Konzentration mit über 33 % FXS in einer einzigen Wallet schafft Zentralisierungsbedenken, die der Dezentralisierungsbotschaft widersprechen. Der Wettbewerbsdruck nimmt zu, da Aave GHO einführt, Curve crvUSD bereitstellt und traditionelle Finanzakteure wie PayPal (PYUSD) und potenzielle von Banken ausgegebene Stablecoins mit massiven Ressourcen und regulatorischer Klarheit in den Markt eintreten.

Das 100 Milliarden US-Dollar TVL-Ziel für Fraxtal bis Ende 2026 erfordert ein Wachstum von etwa dem 7.500-fachen des TVL von 13,2 Millionen US-Dollar beim Start – ein außerordentlich ehrgeiziges Ziel, selbst in der wachstumsstarken Krypto-Umgebung. Dies erfordert eine anhaltende Zugkraft in mehreren Dimensionen: Fraxtal muss über Frax' eigene Produkte hinaus erhebliche dApp-Implementierungen anziehen, das L3-Ökosystem muss mit echter Nutzung statt mit Schönheitsmetriken materialisieren, frxUSD muss einen erheblichen Marktanteil gegenüber der USDT/USDC-Dominanz gewinnen, und institutionelle Partnerschaften müssen von Pilotprojekten zu skalierten Implementierungen übergehen. Obwohl die technische Infrastruktur und die regulatorische Positionierung diese Trajektorie unterstützen, bleiben die Ausführungsrisiken hoch.

Die KI-Integration durch AIVM stellt ein wirklich neues Terrain dar. Der Proof of Inference-Konsens, der KI-Modellvalidierung von Blockchain-Transaktionen verwendet, hat in diesem Umfang keinen Präzedenzfall. Wenn dies erfolgreich ist, positioniert es Frax an der Konvergenz von KI und Krypto, bevor Konkurrenten die Gelegenheit erkennen – im Einklang mit Kazemians Philosophie, „Märkte zu erobern, bevor andere überhaupt wissen, dass sie existieren.“ Technische Herausforderungen in Bezug auf KI-Determinismus, Modellverzerrung im Konsens und Sicherheitslücken bei KI-gestützter Validierung müssen jedoch vor der Produktionsbereitstellung gelöst werden. Die Partnerschaft mit IQ's Agent Tokenization Platform bietet Expertise, aber das Konzept bleibt unbewiesen.

Der philosophische Beitrag geht über Frax' Erfolg oder Misserfolg hinaus. Die Demonstration, dass algorithmische und besicherte Ansätze erfolgreich hybridisieren können, beeinflusste Branchendesignmuster – AMOs erscheinen in DeFi-Protokollen, protokoll-eigene Liquiditätsstrategien dominieren über Söldner-Liquiditäts-Mining, und die Erkenntnis, dass Stablecoins auf risikofreie Rendite plus Swap-Fazilität-Strukturen konvergieren, prägt neue Protokolldesigns. Die Bereitschaft, von fraktionaler zu vollständiger Besicherung zu wechseln, wenn die Marktbedingungen es erforderten, etablierte Pragmatismus über Ideologie als notwendig für die Finanzinfrastruktur – eine Lektion, die das Terra-Ökosystem katastrophal nicht gelernt hat.

Wahrscheinlichstes Ergebnis: Frax wird der führende Anbieter anspruchsvoller DeFi-Stablecoin-Infrastruktur, der ein wertvolles, aber Nischenmarktsegment fortgeschrittener Benutzer bedient, die Kapitaleffizienz, Dezentralisierung und Innovation über Einfachheit priorisieren. Das Gesamtvolumen wird die USDT/USDC-Dominanz (die von Netzwerkeffekten, regulatorischer Klarheit und institutioneller Unterstützung profitiert) wahrscheinlich nicht herausfordern, aber Frax behält die technologische Führung und den Einfluss auf Branchendesignmuster. Der Wert des Protokolls leitet sich weniger aus dem Marktanteil als aus der Infrastrukturbereitstellung ab – es wird zu den Schienen, auf denen andere Protokolle aufbauen, ähnlich wie Chainlink Orakel-Infrastruktur über Ökosysteme hinweg bereitstellt, unabhängig von der nativen LINK-Adoption.

Die Vision der „Stablecoin-Singularität“ – die Stablecoin, Infrastruktur, KI und Governance zu einem umfassenden Finanzbetriebssystem vereint – zeichnet einen ehrgeizigen, aber kohärenten Weg. Der Erfolg hängt von der Umsetzung in mehreren komplexen Dimensionen ab: regulatorische Navigation, technische Umsetzung (insbesondere AIVM), Umwandlung institutioneller Partnerschaften, Vereinfachung der Benutzererfahrung und anhaltende Innovationsgeschwindigkeit. Frax verfügt über das technische Fundament, die regulatorische Positionierung und die philosophische Klarheit, um bedeutsame Teile dieser Vision zu erreichen. Ob es auf 100 Milliarden US-Dollar TVL skaliert und zur „dezentralen Zentralbank des Krypto-Sektors“ wird oder stattdessen ein nachhaltiges Ökosystem von 10–20 Milliarden US-Dollar für anspruchsvolle DeFi-Nutzer etabliert, bleibt abzuwarten. Jedes Ergebnis stellt eine bedeutende Errungenschaft in einer Branche dar, in der die meisten Stablecoin-Experimente katastrophal scheiterten.

Die ultimative Erkenntnis: Sam Kazemians Vision zeigt, dass die Zukunft der dezentralen Finanzen nicht darin liegt, traditionelle Finanzen zu ersetzen, sondern beide Welten intelligent zu überbrücken – indem institutionelle Sicherheiten und regulatorische Compliance mit On-Chain-Transparenz, dezentraler Governance und neuartigen Mechanismen wie autonomer Geldpolitik durch AMOs und KI-gestütztem Konsens durch AIVM kombiniert werden. Diese Synthese, anstatt binärer Opposition, repräsentiert den pragmatischen Weg zu einer nachhaltigen dezentralen Finanzinfrastruktur für die Mainstream-Adoption.

MCP im Web3-Ökosystem: Eine umfassende Übersicht

· 50 Min. Lesezeit
Dora Noda
Software Engineer

1. Definition und Ursprung von MCP im Web3-Kontext

Das Model Context Protocol (MCP) ist ein offener Standard, der KI-Assistenten (wie grosse Sprachmodelle) mit externen Datenquellen, Tools und Umgebungen verbindet. Oft als "USB-C-Anschluss für KI" bezeichnet, aufgrund seiner universellen Plug-and-Play-Natur, wurde MCP von Anthropic entwickelt und Ende November 2024 erstmals vorgestellt. Es entstand als Lösung, um KI-Modelle aus der Isolation zu befreien, indem es sie sicher mit den „Systemen, in denen Daten leben“ verbindet – von Datenbanken und APIs bis hin zu Entwicklungsumgebungen und Blockchains.

Ursprünglich ein experimentelles Nebenprojekt bei Anthropic, gewann MCP schnell an Bedeutung. Mitte 2024 erschienen Open-Source-Referenzimplementierungen, und Anfang 2025 hatte es sich zum De-facto-Standard für die Integration von Agenten-KI entwickelt, wobei führende KI-Labore (OpenAI, Google DeepMind, Meta AI) es nativ übernahmen. Diese schnelle Akzeptanz war besonders in der Web3-Community bemerkenswert. Blockchain-Entwickler sahen MCP als eine Möglichkeit, KI-Funktionen in dezentrale Anwendungen zu integrieren, was zu einer Verbreitung von von der Community entwickelten MCP-Konnektoren für On-Chain-Daten und -Dienste führte. Tatsächlich argumentieren einige Analysten, dass MCP die ursprüngliche Vision von Web3 eines dezentralen, benutzerzentrierten Internets auf praktischere Weise erfüllen könnte als Blockchain allein, indem es natürliche Sprachschnittstellen nutzt, um Benutzer zu befähigen.

Zusammenfassend ist MCP keine Blockchain oder ein Token, sondern ein offenes Protokoll, das in der KI-Welt geboren wurde und schnell im Web3-Ökosystem als Brücke zwischen KI-Agenten und dezentralen Datenquellen angenommen wurde. Anthropic hat den Standard (mit einer anfänglichen GitHub-Spezifikation und SDKs) quelloffen gemacht und eine offene Community darum aufgebaut. Dieser gemeinschaftsgetriebene Ansatz bereitete den Boden für die Integration von MCP in Web3, wo es nun als grundlegende Infrastruktur für KI-fähige dezentrale Anwendungen angesehen wird.

2. Technische Architektur und Kernprotokolle

MCP basiert auf einer leichtgewichtigen Client-Server-Architektur mit drei Hauptrollen:

  • MCP-Host: Die KI-Anwendung oder der Agent selbst, der Anfragen orchestriert. Dies könnte ein Chatbot (Claude, ChatGPT) oder eine KI-gestützte App sein, die externe Daten benötigt. Der Host initiiert Interaktionen und fragt über MCP nach Tools oder Informationen.
  • MCP-Client: Eine Konnektorkomponente, die der Host zur Kommunikation mit Servern verwendet. Der Client verwaltet die Verbindung, das Senden und Empfangen von Nachrichten und kann mehrere Server parallel verwalten. Zum Beispiel kann ein Entwicklertool wie Cursor oder der Agentenmodus von VS Code als MCP-Client fungieren, der die lokale KI-Umgebung mit verschiedenen MCP-Servern verbindet.
  • MCP-Server: Ein Dienst, der der KI kontextbezogene Daten oder Funktionen zur Verfügung stellt. Server bieten Tools, Ressourcen oder Prompts, die die KI nutzen kann. In der Praxis könnte ein MCP-Server mit einer Datenbank, einer Cloud-Anwendung oder einem Blockchain-Knoten interagieren und der KI einen standardisierten Satz von Operationen präsentieren. Jedes Client-Server-Paar kommuniziert über einen eigenen Kanal, sodass ein KI-Agent gleichzeitig mehrere Server für verschiedene Anforderungen nutzen kann.

Kern-Primitive: MCP definiert eine Reihe von Standard-Nachrichtentypen und Primitiven, die die Interaktion zwischen KI und Tool strukturieren. Die drei grundlegenden Primitive sind:

  • Tools: Diskrete Operationen oder Funktionen, die die KI auf einem Server aufrufen kann. Zum Beispiel ein „searchDocuments“-Tool oder ein „eth_call“-Tool. Tools kapseln Aktionen wie das Abfragen einer API, das Ausführen einer Berechnung oder das Aufrufen einer Smart-Contract-Funktion. Der MCP-Client kann eine Liste der verfügbaren Tools von einem Server anfordern und diese bei Bedarf aufrufen.
  • Ressourcen: Datenendpunkte, von denen die KI über den Server lesen (oder manchmal auch schreiben) kann. Dies können Dateien, Datenbankeinträge, Blockchain-Status (Blöcke, Transaktionen) oder beliebige kontextbezogene Daten sein. Die KI kann Ressourcen auflisten und deren Inhalt über Standard-MCP-Nachrichten abrufen (z. B. ListResources- und ReadResource-Anfragen).
  • Prompts: Strukturierte Prompt-Vorlagen oder Anweisungen, die Server bereitstellen können, um die Argumentation der KI zu leiten. Zum Beispiel könnte ein Server eine Formatierungsvorlage oder einen vordefinierten Abfrage-Prompt bereitstellen. Die KI kann eine Liste von Prompt-Vorlagen anfordern und diese verwenden, um die Konsistenz ihrer Interaktionen mit diesem Server zu gewährleisten.

Im Hintergrund basieren MCP-Kommunikationen typischerweise auf JSON und folgen einem Anfrage-Antwort-Muster, ähnlich wie bei RPC (Remote Procedure Call). Die Protokollspezifikation definiert Nachrichten wie InitializeRequest, ListTools, CallTool, ListResources usw., die sicherstellen, dass jeder MCP-konforme Client mit jedem MCP-Server auf einheitliche Weise kommunizieren kann. Diese Standardisierung ermöglicht es einem KI-Agenten zu entdecken, was er tun kann: Beim Verbinden mit einem neuen Server kann er fragen „Welche Tools und Daten bieten Sie an?“ und dann dynamisch entscheiden, wie er diese nutzen möchte.

Sicherheits- und Ausführungsmodell: MCP wurde mit Blick auf sichere, kontrollierte Interaktionen entwickelt. Das KI-Modell selbst führt keinen beliebigen Code aus; es sendet hochrangige Absichten (über den Client) an den Server, der dann die eigentliche Operation ausführt (z. B. Daten abrufen oder eine API aufrufen) und Ergebnisse zurückgibt. Diese Trennung bedeutet, dass sensible Aktionen (wie Blockchain-Transaktionen oder Datenbank-Schreibvorgänge) in einer Sandbox ausgeführt werden oder eine explizite Benutzergenehmigung erfordern können. Zum Beispiel gibt es Nachrichten wie Ping (um Verbindungen am Leben zu erhalten) und sogar eine CreateMessageRequest, die es einem MCP-Server ermöglicht, die KI des Clients aufzufordern, eine Unterantwort zu generieren, die typischerweise durch Benutzerbestätigung geschützt ist. Funktionen wie Authentifizierung, Zugriffskontrolle und Audit-Logging werden aktiv entwickelt, um sicherzustellen, dass MCP sicher in Unternehmens- und dezentralen Umgebungen eingesetzt werden kann (mehr dazu im Abschnitt Roadmap).

Zusammenfassend basiert die Architektur von MCP auf einem standardisierten Nachrichtenprotokoll (mit JSON-RPC-ähnlichen Aufrufen), das KI-Agenten (Hosts) mit einer flexiblen Reihe von Servern verbindet, die Tools, Daten und Aktionen bereitstellen. Diese offene Architektur ist modellagnostisch und plattformagnostisch – jeder KI-Agent kann MCP verwenden, um mit jeder Ressource zu kommunizieren, und jeder Entwickler kann einen neuen MCP-Server für eine Datenquelle erstellen, ohne den Kerncode der KI ändern zu müssen. Diese Plug-and-Play-Erweiterbarkeit macht MCP in Web3 so leistungsfähig: Man kann Server für Blockchain-Knoten, Smart Contracts, Wallets oder Orakel bauen und KI-Agenten diese Funktionen nahtlos neben Web2-APIs integrieren lassen.

3. Anwendungsfälle und Anwendungen von MCP in Web3

MCP erschliesst eine breite Palette von Anwendungsfällen, indem es KI-gesteuerten Anwendungen ermöglicht, auf Blockchain-Daten zuzugreifen und On-Chain- oder Off-Chain-Aktionen auf sichere, hochrangige Weise auszuführen. Hier sind einige wichtige Anwendungen und Probleme, die es im Web3-Bereich löst:

  • On-Chain-Datenanalyse und -Abfrage: KI-Agenten können den Live-Blockchain-Status in Echtzeit abfragen, um Einblicke zu liefern oder Aktionen auszulösen. Zum Beispiel ermöglicht ein MCP-Server, der mit einem Ethereum-Knoten verbunden ist, einer KI, Kontostände abzurufen, Smart-Contract-Speicher zu lesen, Transaktionen zu verfolgen oder Ereignisprotokolle bei Bedarf abzurufen. Dies verwandelt einen Chatbot oder einen Code-Assistenten in einen Blockchain-Explorer. Entwickler können einem KI-Assistenten Fragen stellen wie „Wie hoch ist die aktuelle Liquidität im Uniswap-Pool X?“ oder „Simulieren Sie die Gaskosten dieser Ethereum-Transaktion“, und die KI wird MCP-Tools verwenden, um einen RPC-Knoten aufzurufen und die Antwort von der Live-Chain zu erhalten. Dies ist weitaus leistungsfähiger, als sich auf die Trainingsdaten der KI oder statische Schnappschüsse zu verlassen.
  • Automatisiertes DeFi-Portfoliomanagement: Durch die Kombination von Datenzugriffs- und Aktionstools können KI-Agenten Krypto-Portfolios oder DeFi-Positionen verwalten. Zum Beispiel könnte ein „KI-Vault-Optimierer“ die Positionen eines Benutzers über Yield Farms hinweg überwachen und automatisch Rebalancing-Strategien basierend auf Echtzeit-Marktbedingungen vorschlagen oder ausführen. Ähnlich könnte eine KI als DeFi-Portfoliomanager fungieren und Allokationen zwischen Protokollen anpassen, wenn sich Risiko oder Zinssätze ändern. MCP bietet die Standardschnittstelle für die KI, um On-Chain-Metriken (Preise, Liquidität, Sicherheitenquoten) zu lesen und dann Tools aufzurufen, um Transaktionen (wie das Verschieben von Geldern oder den Tausch von Assets) auszuführen, falls dies erlaubt ist. Dies kann Benutzern helfen, den Ertrag zu maximieren oder das Risiko rund um die Uhr zu verwalten, was manuell schwer zu bewerkstelligen wäre.
  • KI-gestützte Benutzeragenten für Transaktionen: Stellen Sie sich einen persönlichen KI-Assistenten vor, der Blockchain-Interaktionen für einen Benutzer abwickeln kann. Mit MCP kann ein solcher Agent mit Wallets und DApps integriert werden, um Aufgaben über natürliche Sprachbefehle auszuführen. Ein Benutzer könnte zum Beispiel sagen: „KI, sende 0,5 ETH von meiner Wallet an Alice“ oder „Stelle meine Token in den Pool mit der höchsten APY“. Die KI würde über MCP einen sicheren Wallet-Server (der den privaten Schlüssel des Benutzers enthält) verwenden, um die Transaktion zu erstellen und zu signieren, und einen Blockchain-MCP-Server, um sie zu senden. Dieses Szenario verwandelt komplexe Befehlszeilen- oder Metamask-Interaktionen in ein Konversationserlebnis. Es ist entscheidend, dass hier sichere Wallet-MCP-Server verwendet werden, die Berechtigungen und Bestätigungen durchsetzen, aber das Endergebnis ist die Optimierung von On-Chain-Transaktionen durch KI-Unterstützung.
  • Entwicklerassistenten und Smart-Contract-Debugging: Web3-Entwickler können MCP-basierte KI-Assistenten nutzen, die sich der Blockchain-Infrastruktur bewusst sind. Zum Beispiel bieten die MCP-Server von Chainstack für EVM und Solana KI-Code-Copiloten tiefe Einblicke in die Blockchain-Umgebung des Entwicklers. Ein Smart-Contract-Ingenieur, der einen KI-Assistenten (in VS Code oder einer IDE) verwendet, kann die KI den aktuellen Status eines Contracts in einem Testnetz abrufen, eine Transaktion simulieren oder Protokolle überprüfen lassen – alles über MCP-Aufrufe an lokale Blockchain-Knoten. Dies hilft beim Debuggen und Testen von Contracts. Die KI codiert nicht mehr „blind“; sie kann tatsächlich in Echtzeit überprüfen, wie sich Code On-Chain verhält. Dieser Anwendungsfall löst ein grosses Problem, indem er es der KI ermöglicht, kontinuierlich aktuelle Dokumente (über einen Dokumentations-MCP-Server) aufzunehmen und die Blockchain direkt abzufragen, wodurch Halluzinationen reduziert und Vorschläge wesentlich genauer werden.
  • Protokollübergreifende Koordination: Da MCP eine einheitliche Schnittstelle ist, kann ein einziger KI-Agent gleichzeitig über mehrere Protokolle und Dienste hinweg koordinieren – etwas extrem Leistungsfähiges in der vernetzten Landschaft von Web3. Stellen Sie sich einen autonomen Handelsagenten vor, der verschiedene DeFi-Plattformen auf Arbitrage überwacht. Über MCP könnte ein Agent gleichzeitig mit den Kreditmärkten von Aave, einer LayerZero-Cross-Chain-Brücke und einem MEV (Miner Extractable Value)-Analysedienst über eine kohärente Schnittstelle interagieren. Die KI könnte in einem „Gedankenprozess“ Liquiditätsdaten von Ethereum (über einen MCP-Server auf einem Ethereum-Knoten) sammeln, Preisinformationen oder Orakeldaten (über einen anderen Server) erhalten und sogar Bridging- oder Swapping-Operationen aufrufen. Zuvor erforderte eine solche Multi-Plattform-Koordination komplexe, massgeschneiderte Bots, aber MCP bietet eine verallgemeinerbare Möglichkeit für eine KI, das gesamte Web3-Ökosystem zu navigieren, als wäre es ein grosser Daten-/Ressourcenpool. Dies könnte fortgeschrittene Anwendungsfälle wie Cross-Chain-Yield-Optimierung oder automatisierten Liquidationsschutz ermöglichen, bei denen eine KI Assets oder Sicherheiten proaktiv über Chains hinweg verschiebt.
  • KI-Beratungs- und Support-Bots: Eine weitere Kategorie sind benutzerorientierte Berater in Krypto-Anwendungen. Zum Beispiel könnte ein DeFi-Hilfe-Chatbot, der in eine Plattform wie Uniswap oder Compound integriert ist, MCP verwenden, um Echtzeitinformationen für den Benutzer abzurufen. Wenn ein Benutzer fragt: „Was ist der beste Weg, meine Position abzusichern?“, kann die KI aktuelle Kurse, Volatilitätsdaten und die Portfoliodetails des Benutzers über MCP abrufen und dann eine kontextbezogene Antwort geben. Plattformen erforschen KI-gestützte Assistenten, die in Wallets oder dApps eingebettet sind und Benutzer durch komplexe Transaktionen führen, Risiken erklären und sogar Abfolgen von Schritten mit Genehmigung ausführen können. Diese KI-Agenten sitzen effektiv auf mehreren Web3-Diensten (DEXes, Lending Pools, Versicherungsprotokolle) und nutzen MCP, um diese bei Bedarf abzufragen und zu steuern, wodurch die Benutzererfahrung vereinfacht wird.
  • Jenseits von Web3 – Multi-Domain-Workflows: Obwohl unser Fokus auf Web3 liegt, ist es erwähnenswert, dass die Anwendungsfälle von MCP sich auf jeden Bereich erstrecken, in dem KI externe Daten benötigt. Es wird bereits verwendet, um KI mit Dingen wie Google Drive, Slack, GitHub, Figma und mehr zu verbinden. In der Praxis könnte ein einziger KI-Agent Web3 und Web2 überspannen: z. B. ein Excel-Finanzmodell von Google Drive analysieren und dann basierend auf dieser Analyse On-Chain-Trades vorschlagen, alles in einem Workflow. Die Flexibilität von MCP ermöglicht eine domänenübergreifende Automatisierung (z. B. „plane mein Meeting, wenn meine DAO-Abstimmung erfolgreich ist, und sende die Ergebnisse per E-Mail“), die Blockchain-Aktionen mit alltäglichen Tools verbindet.

Gelöste Probleme: Das übergeordnete Problem, das MCP löst, ist das Fehlen einer einheitlichen Schnittstelle für KI zur Interaktion mit Live-Daten und -Diensten. Vor MCP musste man, wenn man wollte, dass eine KI einen neuen Dienst nutzt, ein Plugin oder eine Integration für die API dieses spezifischen Dienstes von Hand codieren, oft auf Ad-hoc-Basis. In Web3 war dies besonders umständlich – jede Blockchain oder jedes Protokoll hat ihre eigenen Schnittstellen, und keine KI konnte hoffen, sie alle zu unterstützen. MCP löst dies, indem es standardisiert, wie die KI beschreibt, was sie will (natürliche Sprache, die auf Tool-Aufrufe abgebildet wird) und wie Dienste beschreiben, was sie anbieten. Dies reduziert den Integrationsaufwand drastisch. Anstatt beispielsweise für jedes DeFi-Protokoll ein benutzerdefiniertes Plugin zu schreiben, kann ein Entwickler einen MCP-Server für dieses Protokoll schreiben (im Wesentlichen dessen Funktionen in natürlicher Sprache annotieren). Jede MCP-fähige KI (ob Claude, ChatGPT oder Open-Source-Modelle) kann es dann sofort nutzen. Dies macht KI auf Plug-and-Play-Weise erweiterbar, ähnlich wie das Hinzufügen eines neuen Geräts über einen universellen Anschluss einfacher ist als die Installation einer neuen Schnittstellenkarte.

Zusammenfassend ermöglicht MCP in Web3 KI-Agenten, erstklassige Bürger der Blockchain-Welt zu werden – Abfragen, Analysieren und sogar Transaktionen über dezentrale Systeme hinweg, alles über sichere, standardisierte Kanäle. Dies öffnet die Tür zu autonomeren DApps, intelligenteren Benutzeragenten und einer nahtlosen Integration von On-Chain- und Off-Chain-Intelligenz.

4. Tokenomics und Governance-Modell

Im Gegensatz zu typischen Web3-Protokollen verfügt MCP nicht über einen nativen Token oder eine Kryptowährung. Es ist keine Blockchain oder ein dezentrales Netzwerk für sich, sondern eine offene Protokollspezifikation (eher vergleichbar mit HTTP oder JSON-RPC im Geiste). Daher gibt es keine integrierte Tokenomics – keine Token-Ausgabe, kein Staking oder Gebührenmodell, das der Nutzung von MCP inhärent wäre. KI-Anwendungen und Server kommunizieren über MCP ohne jegliche Kryptowährung; zum Beispiel könnte eine KI, die eine Blockchain über MCP aufruft, Gasgebühren für die Blockchain-Transaktion zahlen, aber MCP selbst fügt keine zusätzlichen Token-Gebühren hinzu. Dieses Design spiegelt den Ursprung von MCP in der KI-Community wider: Es wurde als technischer Standard zur Verbesserung der KI-Tool-Interaktionen eingeführt, nicht als tokenisiertes Projekt.

Die Governance von MCP erfolgt auf offene, gemeinschaftsgetriebene Weise. Nach der Veröffentlichung von MCP als offenem Standard signalisierte Anthropic ein Engagement für kollaborative Entwicklung. Ein breites Lenkungsausschuss und Arbeitsgruppen haben sich gebildet, um die Entwicklung des Protokolls zu steuern. Bemerkenswerterweise traten Mitte 2025 wichtige Stakeholder wie Microsoft und GitHub dem MCP-Lenkungsausschuss neben Anthropic bei. Dies wurde auf der Microsoft Build 2025 bekannt gegeben und deutet auf eine Koalition von Branchenakteuren hin, die die Roadmap und Standardentscheidungen von MCP leiten. Der Ausschuss und die Betreuer arbeiten über einen offenen Governance-Prozess: Vorschläge zur Änderung oder Erweiterung von MCP werden typischerweise öffentlich diskutiert (z. B. über GitHub-Issues und „SEP“ – Standard Enhancement Proposal – Richtlinien). Es gibt auch eine MCP Registry-Arbeitsgruppe (mit Betreuern von Unternehmen wie Block, PulseMCP, GitHub und Anthropic), die die Multi-Parteien-Governance veranschaulicht. Anfang 2025 arbeiteten Mitwirkende von mindestens 9 verschiedenen Organisationen zusammen, um ein einheitliches MCP-Server-Register zur Entdeckung aufzubauen, was zeigt, wie die Entwicklung über Community-Mitglieder dezentralisiert und nicht von einer einzigen Entität kontrolliert wird.

Da es keinen Token gibt, basieren Governance-Anreize auf den gemeinsamen Interessen der Stakeholder (KI-Unternehmen, Cloud-Anbieter, Blockchain-Entwickler usw.), um das Protokoll für alle zu verbessern. Dies ist in gewisser Weise analog zur Governance von W3C- oder IETF-Standards, jedoch mit einem schnelleren, GitHub-zentrierten Prozess. Zum Beispiel arbeiteten Microsoft und Anthropic zusammen, um eine verbesserte Autorisierungsspezifikation für MCP zu entwerfen (Integration von Dingen wie OAuth und Single Sign-On), und GitHub arbeitete am offiziellen MCP Registry-Dienst zur Auflistung verfügbarer Server mit. Diese Verbesserungen wurden zum Nutzen aller in die MCP-Spezifikation zurückgeführt.

Es ist erwähnenswert, dass, obwohl MCP selbst nicht tokenisiert ist, es zukunftsweisende Ideen gibt, wirtschaftliche Anreize und Dezentralisierung auf MCP aufzubauen. Einige Forscher und Vordenker in Web3 sehen die Entstehung von „MCP-Netzwerken“ voraus – im Wesentlichen dezentrale Netzwerke von MCP-Servern und -Agenten, die Blockchain-ähnliche Mechanismen für Entdeckung, Vertrauen und Belohnungen nutzen. In einem solchen Szenario könnte man sich vorstellen, dass ein Token verwendet wird, um diejenigen zu belohnen, die hochwertige MCP-Server betreiben (ähnlich wie Miner oder Knotenbetreiber Anreize erhalten). Funktionen wie Reputationsbewertungen, überprüfbare Berechnungen und Knotenerkennung könnten durch Smart Contracts oder eine Blockchain ermöglicht werden, wobei ein Token ehrliches Verhalten fördert. Dies ist noch konzeptionell, aber Projekte wie MITs Namda (später diskutiert) experimentieren mit tokenbasierten Anreizmechanismen für Netzwerke von KI-Agenten, die MCP verwenden. Wenn diese Ideen reifen, könnte MCP direkter mit On-Chain-Tokenomics in Verbindung treten, aber ab 2025 bleibt der Kern-MCP-Standard tokenfrei.

Zusammenfassend ist das „Governance-Modell“ von MCP das eines offenen Technologiestandards: kollaborativ von einer Community und einem Lenkungsausschuss von Experten gepflegt, ohne On-Chain-Governance-Token. Entscheidungen werden durch technische Verdienste und breiten Konsens geleitet, nicht durch gewichtete Abstimmung nach Tokenbesitz. Dies unterscheidet MCP von vielen Web3-Protokollen – es zielt darauf ab, die Ideale von Web3 (Dezentralisierung, Interoperabilität, Benutzerermächtigung) durch offene Software und Standards zu erfüllen, nicht durch eine proprietäre Blockchain oder einen Token. In den Worten einer Analyse: „Das Versprechen von Web3... kann endlich nicht durch Blockchain und Kryptowährung, sondern durch natürliche Sprache und KI-Agenten verwirklicht werden“, was MCP als einen wichtigen Wegbereiter dieser Vision positioniert. Dennoch könnten wir, wenn MCP-Netzwerke wachsen, hybride Modelle sehen, bei denen Blockchain-basierte Governance- oder Anreizmechanismen das Ökosystem ergänzen – ein Bereich, der genau zu beobachten ist.

5. Community und Ökosystem

Das MCP-Ökosystem ist in kurzer Zeit explosionsartig gewachsen und umfasst KI-Entwickler, Open-Source-Mitwirkende, Web3-Ingenieure und grosse Technologieunternehmen. Es ist eine lebendige Gemeinschaftsanstrengung, mit wichtigen Mitwirkenden und Partnerschaften, darunter:

  • Anthropic: Als Schöpfer hat Anthropic das Ökosystem durch die Veröffentlichung der MCP-Spezifikation und mehrerer Referenzserver (für Google Drive, Slack, GitHub usw.) als Open Source initiiert. Anthropic führt die Entwicklung weiterhin an (zum Beispiel fungieren Mitarbeiter wie Theodora Chu als MCP-Produktmanager, und das Team von Anthropic trägt massgeblich zu Spezifikationsaktualisierungen und Community-Support bei). Die Offenheit von Anthropic zog andere an, auf MCP aufzubauen, anstatt es als Tool eines einzelnen Unternehmens zu betrachten.

  • Frühe Anwender (Block, Apollo, Zed, Replit, Codeium, Sourcegraph): In den ersten Monaten nach der Veröffentlichung implementierte eine Welle früher Anwender MCP in ihren Produkten. Block (ehemals Square) integrierte MCP, um KI-Agentensysteme im Fintech-Bereich zu erforschen – der CTO von Block lobte MCP als offene Brücke, die KI mit realen Anwendungen verbindet. Apollo (wahrscheinlich Apollo GraphQL) integrierte MCP ebenfalls, um KI den Zugriff auf interne Daten zu ermöglichen. Entwicklertool-Unternehmen wie Zed (Code-Editor), Replit (Cloud-IDE), Codeium (KI-Code-Assistent) und Sourcegraph (Code-Suche) arbeiteten jeweils daran, MCP-Unterstützung hinzuzufügen. Zum Beispiel verwendet Sourcegraph MCP, damit ein KI-Code-Assistent als Antwort auf eine Frage relevanten Code aus einem Repository abrufen kann, und die IDE-Agenten von Replit können projektspezifischen Kontext abrufen. Diese frühen Anwender verliehen MCP Glaubwürdigkeit und Sichtbarkeit.

  • Big Tech-Unterstützung – OpenAI, Microsoft, Google: Bemerkenswerterweise haben sich Unternehmen, die sonst Konkurrenten sind, bei MCP geeinigt. OpenAIs CEO Sam Altman kündigte im März 2025 öffentlich an, dass OpenAI MCP-Unterstützung in all seinen Produkten (einschliesslich der Desktop-App von ChatGPT) hinzufügen werde, und sagte: „Die Leute lieben MCP, und wir freuen uns, die Unterstützung in all unseren Produkten hinzuzufügen“. Dies bedeutete, dass die Agent API von OpenAI und ChatGPT-Plugins MCP sprechen würden, um Interoperabilität zu gewährleisten. Nur wenige Wochen später enthüllte Google DeepMinds CEO Demis Hassabis, dass die kommenden Gemini-Modelle und -Tools von Google MCP unterstützen würden, und nannte es ein gutes Protokoll und einen offenen Standard für die „Ära der KI-Agenten“. Microsoft trat nicht nur dem Lenkungsausschuss bei, sondern arbeitete auch mit Anthropic zusammen, um ein offizielles C#-SDK für MCP zu entwickeln, um die Enterprise-Entwicklergemeinschaft zu bedienen. Die GitHub-Einheit von Microsoft integrierte MCP in GitHub Copilot (den ‚Copilot Labs/Agents‘-Modus von VS Code), wodurch Copilot MCP-Server für Dinge wie die Repository-Suche und das Ausführen von Testfällen nutzen kann. Zusätzlich kündigte Microsoft an, dass Windows 11 bestimmte OS-Funktionen (wie den Dateisystemzugriff) als MCP-Server bereitstellen würde, damit KI-Agenten sicher mit dem Betriebssystem interagieren können. Die Zusammenarbeit zwischen OpenAI, Microsoft, Google und Anthropic – die sich alle um MCP versammeln – ist aussergewöhnlich und unterstreicht das Ethos „Community vor Wettbewerb“ dieses Standards.

  • Web3-Entwicklergemeinschaft: Eine Reihe von Blockchain-Entwicklern und Startups hat MCP angenommen. Mehrere gemeinschaftsgetriebene MCP-Server wurden erstellt, um Blockchain-Anwendungsfälle zu bedienen:

    • Das Team von Alchemy (einem führenden Blockchain-Infrastrukturanbieter) entwickelte einen Alchemy MCP Server, der On-Demand-Blockchain-Analysetools über MCP anbietet. Dies ermöglicht es einer KI wahrscheinlich, Blockchain-Statistiken (wie historische Transaktionen, Adressaktivität) über die APIs von Alchemy mithilfe natürlicher Sprache abzurufen.
    • Mitwirkende entwickelten einen Bitcoin & Lightning Network MCP Server, um mit Bitcoin-Knoten und dem Lightning-Zahlungsnetzwerk zu interagieren, wodurch KI-Agenten Bitcoin-Blockdaten lesen oder sogar Lightning-Rechnungen über Standard-Tools erstellen können.
    • Die Krypto-Medien- und Bildungsgruppe Bankless erstellte einen Onchain MCP Server, der sich auf Web3-Finanzinteraktionen konzentriert und möglicherweise eine Schnittstelle zu DeFi-Protokollen (Senden von Transaktionen, Abfragen von DeFi-Positionen usw.) für KI-Assistenten bereitstellt.
    • Projekte wie Rollup.codes (eine Wissensdatenbank für Ethereum Layer 2s) erstellten einen MCP-Server für Rollup-Ökosysteminformationen, sodass eine KI technische Fragen zu Rollups beantworten kann, indem sie diesen Server abfragt.
    • Chainstack, ein Blockchain-Knotenanbieter, startete eine Suite von MCP-Servern (zuvor erwähnt) für Dokumentation, EVM-Kettendaten und Solana, die explizit als „Ihre KI auf Blockchain-Steroiden“ für Web3-Entwickler vermarktet wird.

    Darüber hinaus sind Web3-fokussierte Communities um MCP herum entstanden. Zum Beispiel werden PulseMCP und Goose als Community-Initiativen genannt, die beim Aufbau des MCP-Registers helfen. Wir sehen auch eine gegenseitige Befruchtung mit KI-Agenten-Frameworks: Die LangChain-Community integrierte Adapter, sodass alle MCP-Server als Tools in LangChain-gesteuerten Agenten verwendet werden können, und Open-Source-KI-Plattformen wie Hugging Face TGI (Text-Generation-Inference) erforschen die MCP-Kompatibilität. Das Ergebnis ist ein reichhaltiges Ökosystem, in dem fast täglich neue MCP-Server angekündigt werden, die alles von Datenbanken bis zu IoT-Geräten bedienen.

  • Umfang der Akzeptanz: Die Akzeptanz lässt sich in gewissem Masse quantifizieren. Bis Februar 2025 – kaum drei Monate nach dem Start – waren über 1.000 MCP-Server/Konnektoren von der Community gebaut worden. Diese Zahl ist nur gewachsen und deutet auf Tausende von Integrationen in verschiedenen Branchen hin. Mike Krieger (Chief Product Officer von Anthropic) stellte im Frühjahr 2025 fest, dass MCP zu einem „florierenden offenen Standard mit Tausenden von Integrationen und wachsend“ geworden sei. Das offizielle MCP Registry (im September 2025 als Vorschau gestartet) katalogisiert öffentlich verfügbare Server und erleichtert die Entdeckung von Tools; die offene API des Registers ermöglicht es jedem, beispielsweise nach „Ethereum“ oder „Notion“ zu suchen und relevante MCP-Konnektoren zu finden. Dies senkt die Eintrittsbarriere für neue Teilnehmer und fördert das Wachstum weiter.

  • Partnerschaften: Wir haben viele implizite Partnerschaften (Anthropic mit Microsoft, usw.) angesprochen. Um noch einige weitere hervorzuheben:

    • Anthropic & Slack: Anthropic hat sich mit Slack zusammengetan, um Claude über MCP mit den Daten von Slack zu integrieren (Slack verfügt über einen offiziellen MCP-Server, der es KI ermöglicht, Slack-Nachrichten abzurufen oder Warnungen zu posten).
    • Cloud-Anbieter: Amazon (AWS) und Google Cloud haben mit Anthropic zusammengearbeitet, um Claude zu hosten, und es ist wahrscheinlich, dass sie MCP in diesen Umgebungen unterstützen (z. B. könnte AWS Bedrock MCP-Konnektoren für Unternehmensdaten zulassen). Obwohl nicht explizit in Zitaten erwähnt, sind diese Cloud-Partnerschaften wichtig für die Unternehmensakzeptanz.
    • Akademische Kooperationen: Das Forschungsprojekt Namda des MIT und IBM (als Nächstes besprochen) stellt eine Partnerschaft zwischen Wissenschaft und Industrie dar, um die Grenzen von MCP in dezentralen Umgebungen zu erweitern.
    • GitHub & VS Code: Partnerschaft zur Verbesserung der Entwicklererfahrung – z. B. hat das VS Code-Team aktiv zu MCP beigetragen (einer der Registry-Betreuer stammt vom VS Code-Team).
    • Zahlreiche Startups: Viele KI-Startups (Agenten-Startups, Workflow-Automatisierungs-Startups) bauen auf MCP auf, anstatt das Rad neu zu erfinden. Dazu gehören aufstrebende Web3-KI-Startups, die „KI als DAO“ oder autonome Wirtschaftsagenten anbieten wollen.

Insgesamt ist die MCP-Community vielfältig und wächst schnell. Sie umfasst Kerntechnologieunternehmen (für Standards und Basistools), Web3-Spezialisten (die Blockchain-Wissen und Anwendungsfälle einbringen) und unabhängige Entwickler (die oft Konnektoren für ihre Lieblings-Apps oder -Protokolle beisteuern). Das Ethos ist kollaborativ. Zum Beispiel haben Sicherheitsbedenken hinsichtlich Drittanbieter-MCP-Servern zu Community-Diskussionen und Beiträgen zu Best Practices geführt (z. B. arbeiten Stacklok-Mitwirkende an Sicherheitstools für MCP-Server). Die Fähigkeit der Community, schnell zu iterieren (MCP erfuhr innerhalb weniger Monate mehrere Spezifikations-Upgrades, die Funktionen wie Streaming-Antworten und bessere Authentifizierung hinzufügten), ist ein Beweis für das breite Engagement.

Speziell im Web3-Ökosystem hat MCP ein Mini-Ökosystem von „KI + Web3“-Projekten gefördert. Es ist nicht nur ein Protokoll zur Nutzung; es katalysiert neue Ideen wie KI-gesteuerte DAOs, On-Chain-Governance, die durch KI-Analyse unterstützt wird, und domänenübergreifende Automatisierung (wie die Verknüpfung von On-Chain-Ereignissen mit Off-Chain-Aktionen durch KI). Die Präsenz wichtiger Web3-Persönlichkeiten – z. B. Zhivko Todorov von LimeChain, der feststellt: „MCP repräsentiert die unvermeidliche Integration von KI und Blockchain“ – zeigt, dass Blockchain-Veteranen es aktiv unterstützen. Partnerschaften zwischen KI- und Blockchain-Unternehmen (wie die zwischen Anthropic und Block oder Microsofts Azure Cloud, die die Bereitstellung von MCP neben ihren Blockchain-Diensten vereinfacht) deuten auf eine Zukunft hin, in der KI-Agenten und Smart Contracts Hand in Hand arbeiten.

Man könnte sagen, MCP hat die erste echte Konvergenz der KI-Entwicklergemeinschaft mit der Web3-Entwicklergemeinschaft ausgelöst. Hackathons und Meetups bieten jetzt MCP-Tracks an. Als konkretes Mass für die Akzeptanz im Ökosystem: Mitte 2025 unterstützen OpenAI, Google und Anthropic – die zusammen die Mehrheit der fortschrittlichen KI-Modelle repräsentieren – alle MCP, und auf der anderen Seite bauen führende Blockchain-Infrastrukturanbieter (Alchemy, Chainstack), Krypto-Unternehmen (Block usw.) und dezentrale Projekte MCP-Hooks. Dieser zweiseitige Netzwerkeffekt lässt MCP zu einem dauerhaften Standard werden.

6. Roadmap und Entwicklungsmeilensteine

Die Entwicklung von MCP war rasant. Hier skizzieren wir die bisherigen wichtigen Meilensteine und die zukünftige Roadmap, wie sie aus offiziellen Quellen und Community-Updates hervorgehen:

  • Ende 2024 – Erstveröffentlichung: Am 25. November 2024 kündigte Anthropic MCP offiziell an und veröffentlichte die Spezifikation sowie erste SDKs als Open Source. Neben der Spezifikation veröffentlichten sie eine Handvoll MCP-Server-Implementierungen für gängige Tools (Google Drive, Slack, GitHub usw.) und fügten Unterstützung im Claude AI-Assistenten (Claude Desktop-App) hinzu, um lokale MCP-Server zu verbinden. Dies markierte den 1.0-Start von MCP. Frühe Proof-of-Concept-Integrationen bei Anthropic zeigten, wie Claude MCP verwenden konnte, um Dateien zu lesen oder eine SQL-Datenbank in natürlicher Sprache abzufragen, was das Konzept validierte.
  • Q1 2025 – Schnelle Akzeptanz und Iteration: In den ersten Monaten des Jahres 2025 erlebte MCP eine weit verbreitete Akzeptanz in der Branche. Bis März 2025 kündigten OpenAI und andere KI-Anbieter Unterstützung an (wie oben beschrieben). In diesem Zeitraum kam es auch zu einer Spezifikationsentwicklung: Anthropic aktualisierte MCP um Streaming-Funktionen (die es ermöglichen, grosse Ergebnisse oder kontinuierliche Datenströme inkrementell zu senden). Dieses Update wurde im April 2025 mit den C#-SDK-Nachrichten bekannt gegeben und zeigte, dass MCP nun Funktionen wie chunked responses oder Echtzeit-Feed-Integration unterstützte. Die Community erstellte auch Referenzimplementierungen in verschiedenen Sprachen (Python, JavaScript usw.) über das SDK von Anthropic hinaus, um polyglotte Unterstützung zu gewährleisten.
  • Q2 2025 – Ökosystem-Tools und Governance: Im Mai 2025, mit dem Beitritt von Microsoft und GitHub zu den Bemühungen, gab es einen Vorstoss zur Formalisierung der Governance und zur Verbesserung der Sicherheit. Auf der Build 2025 enthüllte Microsoft Pläne für die Windows 11 MCP-Integration und detaillierte eine Zusammenarbeit zur Verbesserung der Autorisierungsabläufe in MCP. Etwa zur gleichen Zeit wurde die Idee eines MCP Registry zur Indexierung verfügbarer Server eingeführt (das anfängliche Brainstorming begann laut Registry-Blog im März 2025). Der „Standards-Track“-Prozess (SEP – Standard Enhancement Proposals) wurde auf GitHub etabliert, ähnlich wie EIPs von Ethereum oder PEPs von Python, um Beiträge geordnet zu verwalten. Community-Anrufe und Arbeitsgruppen (für Sicherheit, Registry, SDKs) begannen sich zu treffen.
  • Mitte 2025 – Funktionserweiterung: Bis Mitte 2025 priorisierte die Roadmap mehrere wichtige Verbesserungen:
    • Unterstützung für asynchrone und langlaufende Aufgaben: Pläne, MCP die Verarbeitung langer Operationen zu ermöglichen, ohne die Verbindung zu blockieren. Wenn eine KI beispielsweise einen Cloud-Job auslöst, der Minuten dauert, würde das MCP-Protokoll asynchrone Antworten oder eine erneute Verbindung unterstützen, um Ergebnisse abzurufen.
    • Authentifizierung und feingranulare Sicherheit: Entwicklung von feingranularen Autorisierungsmechanismen für sensible Aktionen. Dies umfasst möglicherweise die Integration von OAuth-Flows, API-Schlüsseln und Enterprise-SSO in MCP-Server, damit der KI-Zugriff sicher verwaltet werden kann. Bis Mitte 2025 waren Leitfäden und Best Practices für die MCP-Sicherheit in Arbeit, angesichts der Sicherheitsrisiken, die das Ermöglichen des Aufrufs leistungsstarker Tools durch KI birgt. Ziel ist es, dass beispielsweise, wenn eine KI über MCP auf die private Datenbank eines Benutzers zugreifen soll, sie einem sicheren Autorisierungsablauf (mit Benutzerzustimmung) folgen sollte, anstatt nur einem offenen Endpunkt.
    • Validierung und Compliance-Tests: Die Community erkannte die Notwendigkeit der Zuverlässigkeit und priorisierte den Aufbau von Compliance-Testsuiten und Referenzimplementierungen. Durch die Sicherstellung, dass alle MCP-Clients/-Server die Spezifikation einhalten (durch automatisierte Tests), sollte eine Fragmentierung verhindert werden. Ein Referenzserver (wahrscheinlich ein Beispiel mit Best Practices für die Remote-Bereitstellung und Authentifizierung) stand auf der Roadmap, ebenso wie eine Referenz-Client-Anwendung, die die vollständige MCP-Nutzung mit einer KI demonstriert.
    • Multimodalitätsunterstützung: Erweiterung von MCP über Text hinaus, um Modalitäten wie Bild-, Audio-, Videodaten im Kontext zu unterstützen. Zum Beispiel könnte eine KI ein Bild von einem MCP-Server anfordern (z. B. ein Design-Asset oder ein Diagramm) oder ein Bild ausgeben. Die Spezifikationsdiskussion umfasste das Hinzufügen von Unterstützung für Streaming- und Chunked-Nachrichten, um grosse Multimedia-Inhalte interaktiv zu verarbeiten. Frühe Arbeiten an „MCP Streaming“ waren bereits im Gange (um Dinge wie Live-Audio-Feeds oder kontinuierliche Sensordaten an KI zu unterstützen).
    • Zentrales Register & Discovery: Der Plan zur Implementierung eines zentralen MCP Registry-Dienstes für die Server-Discovery wurde Mitte 2025 umgesetzt. Bis September 2025 wurde das offizielle MCP Registry als Vorschau gestartet. Dieses Register bietet eine einzige Quelle der Wahrheit für öffentlich verfügbare MCP-Server, die es Clients ermöglicht, Server nach Namen, Kategorie oder Fähigkeiten zu finden. Es ist im Wesentlichen wie ein App Store (aber offen) für KI-Tools. Das Design ermöglicht öffentliche Register (einen globalen Index) und private (unternehmensspezifische), die alle über eine gemeinsame API interoperabel sind. Das Register führte auch einen Moderationsmechanismus ein, um bösartige Server zu kennzeichnen oder zu entfernen, mit einem Community-Moderationsmodell zur Aufrechterhaltung der Qualität.
  • Ende 2025 und darüber hinaus – Hin zu dezentralen MCP-Netzwerken: Obwohl noch keine „offiziellen“ Roadmap-Punkte, weist die Entwicklung auf mehr Dezentralisierung und Web3-Synergie hin:
    • Forscher untersuchen aktiv, wie dezentrale Discovery-, Reputations- und Anreizschichten zu MCP hinzugefügt werden können. Das Konzept eines MCP-Netzwerks (oder „Marktplatzes von MCP-Endpunkten“) wird inkubiert. Dies könnte Smart-Contract-basierte Register (damit es keinen Single Point of Failure für Serverlisten gibt), Reputationssysteme, bei denen Server/Clients On-Chain-Identitäten und Einsätze für gutes Verhalten haben, und möglicherweise Token-Belohnungen für den Betrieb zuverlässiger MCP-Knoten umfassen.
    • Projekt Namda am MIT, das 2024 begann, ist ein konkreter Schritt in diese Richtung. Bis 2025 hatte Namda einen Prototyp eines verteilten Agenten-Frameworks auf den Grundlagen von MCP aufgebaut, einschliesslich Funktionen wie dynamische Knotenerkennung, Lastverteilung über Agentencluster und ein dezentrales Register unter Verwendung von Blockchain-Techniken. Sie haben sogar experimentelle tokenbasierte Anreize und Herkunftsverfolgung für Multi-Agenten-Kooperationen. Meilensteine von Namda zeigen, dass es machbar ist, ein Netzwerk von MCP-Agenten auf vielen Maschinen mit vertrauensloser Koordination zu betreiben. Wenn Namdas Konzepte übernommen werden, könnten wir sehen, wie sich MCP entwickelt, um einige dieser Ideen zu integrieren (möglicherweise durch optionale Erweiterungen oder separate Protokolle, die darauf aufbauen).
    • Enterprise-Härtung: Auf der Unternehmensseite erwarten wir bis Ende 2025, dass MCP in wichtige Unternehmenssoftwareangebote integriert wird (Microsofts Einbindung in Windows und Azure ist ein Beispiel). Die Roadmap umfasst unternehmensfreundliche Funktionen wie SSO-Integration für MCP-Server und robuste Zugriffskontrollen. Die allgemeine Verfügbarkeit des MCP Registry und von Toolkits für die Bereitstellung von MCP in grossem Massstab (z. B. innerhalb eines Unternehmensnetzwerks) ist wahrscheinlich bis Ende 2025.

Um einige wichtige Entwicklungsmeilensteine bisher (im Zeitformat zur Klarheit) zusammenzufassen:

  • Nov 2024: MCP 1.0 veröffentlicht (Anthropic).
  • Dez 2024 – Jan 2025: Community baut erste Welle von MCP-Servern; Anthropic veröffentlicht Claude Desktop mit MCP-Unterstützung; kleine Pilotprojekte von Block, Apollo usw.
  • Feb 2025: Über 1000 Community-MCP-Konnektoren erreicht; Anthropic veranstaltet Workshops (z. B. auf einem KI-Gipfel, zur Förderung der Bildung).
  • Mär 2025: OpenAI kündigt Unterstützung an (ChatGPT Agents SDK).
  • Apr 2025: Google DeepMind kündigt Unterstützung an (Gemini wird MCP unterstützen); Microsoft veröffentlicht Vorschau des C#-SDKs.
  • Mai 2025: Lenkungsausschuss erweitert (Microsoft/GitHub); Build 2025 Demos (Windows MCP-Integration).
  • Jun 2025: Chainstack startet Web3 MCP-Server (EVM/Solana) zur öffentlichen Nutzung.
  • Jul 2025: MCP-Spezifikationsversionen aktualisiert (Streaming, Authentifizierungsverbesserungen); offizielle Roadmap auf der MCP-Website veröffentlicht.
  • Sep 2025: MCP Registry (Vorschau) gestartet; wahrscheinlich erreicht MCP die allgemeine Verfügbarkeit in weiteren Produkten (Claude for Work usw.).
  • Ende 2025 (prognostiziert): Registry v1.0 live; Leitfäden für Best Practices im Bereich Sicherheit veröffentlicht; möglicherweise erste Experimente mit dezentraler Discovery (Namda-Ergebnisse).

Die Vision für die Zukunft ist, dass MCP so allgegenwärtig und unsichtbar wird wie HTTP oder JSON – eine gemeinsame Schicht, die viele Apps im Hintergrund verwenden. Für Web3 deutet die Roadmap auf eine tiefere Fusion hin: KI-Agenten werden Web3 (Blockchains) nicht nur als Informationsquellen oder -senken nutzen, sondern die Web3-Infrastruktur selbst könnte beginnen, KI-Agenten (über MCP) als Teil ihres Betriebs zu integrieren (zum Beispiel könnte eine DAO eine MCP-kompatible KI betreiben, um bestimmte Aufgaben zu verwalten, oder Orakel könnten Daten über MCP-Endpunkte veröffentlichen). Die Betonung der Roadmap auf Dinge wie Überprüfbarkeit und Authentifizierung deutet darauf hin, dass in Zukunft vertrauensminimierte MCP-Interaktionen Realität werden könnten – stellen Sie sich KI-Ausgaben vor, die mit kryptografischen Beweisen versehen sind, oder ein On-Chain-Protokoll darüber, welche Tools eine KI zu Prüfzwecken aufgerufen hat. Diese Möglichkeiten verwischen die Grenze zwischen KI- und Blockchain-Netzwerken, und MCP steht im Mittelpunkt dieser Konvergenz.

Zusammenfassend ist die Entwicklung von MCP hochdynamisch. Es hat wichtige frühe Meilensteine erreicht (breite Akzeptanz und Standardisierung innerhalb eines Jahres nach dem Start) und entwickelt sich mit einer klaren Roadmap, die Sicherheit, Skalierbarkeit und Entdeckung betont, weiterhin rasant. Die erreichten und geplanten Meilensteine stellen sicher, dass MCP robust bleibt, während es skaliert: Herausforderungen wie langlaufende Aufgaben, sichere Berechtigungen und die schiere Auffindbarkeit Tausender von Tools werden angegangen. Diese Vorwärtsdynamik zeigt, dass MCP keine statische Spezifikation, sondern ein wachsender Standard ist, der wahrscheinlich weitere Web3-spezifische Funktionen (dezentrale Governance von Servern, Anreizabstimmung) integrieren wird, sobald diese Bedürfnisse entstehen. Die Community ist bereit, MCP an neue Anwendungsfälle (multimodale KI, IoT usw.) anzupassen, während sie das Kernversprechen im Auge behält: KI vernetzter, kontextbewusster und benutzerfreundlicher in der Web3-Ära zu machen.

7. Vergleich mit ähnlichen Web3-Projekten oder Protokollen

Die einzigartige Mischung aus KI und Konnektivität von MCP bedeutet, dass es nicht viele direkte, eins-zu-eins-Vergleiche gibt, aber es ist aufschlussreich, es mit anderen Projekten an der Schnittstelle von Web3 und KI oder mit analogen Zielen zu vergleichen:

  • SingularityNET (AGI/X)Dezentraler KI-Marktplatz: SingularityNET, 2017 von Dr. Ben Goertzel und anderen ins Leben gerufen, ist ein Blockchain-basierter Marktplatz für KI-Dienste. Es ermöglicht Entwicklern, KI-Algorithmen als Dienste zu monetarisieren und Benutzern, diese Dienste zu konsumieren, alles erleichtert durch einen Token (AGIX), der für Zahlungen und Governance verwendet wird. Im Wesentlichen versucht SingularityNET, das Angebot von KI-Modellen zu dezentralisieren, indem es sie in einem Netzwerk hostet, in dem jeder einen KI-Dienst gegen Token aufrufen kann. Dies unterscheidet sich grundlegend von MCP. MCP hostet oder monetarisiert keine KI-Modelle; stattdessen bietet es eine Standardschnittstelle für KI (wo immer sie läuft), um auf Daten/Tools zuzugreifen. Man könnte sich vorstellen, MCP zu verwenden, um eine KI mit Diensten zu verbinden, die auf SingularityNET gelistet sind, aber SingularityNET selbst konzentriert sich auf die ökonomische Schicht (wer einen KI-Dienst bereitstellt und wie er bezahlt wird). Ein weiterer wichtiger Unterschied: Governance – SingularityNET hat eine On-Chain-Governance (über SingularityNET Enhancement Proposals (SNEPs) und AGIX-Token-Abstimmung), um seine Plattform weiterzuentwickeln. Die Governance von MCP ist im Gegensatz dazu Off-Chain und kollaborativ ohne Token. Zusammenfassend streben SingularityNET und MCP beide ein offeneres KI-Ökosystem an, aber SingularityNET handelt von einem tokenisierten Netzwerk von KI-Algorithmen, während MCP von einem Protokollstandard für die KI-Tool-Interoperabilität handelt. Sie könnten sich ergänzen: zum Beispiel könnte eine KI auf SingularityNET MCP verwenden, um externe Daten abzurufen, die sie benötigt. Aber SingularityNET versucht nicht, die Tool-Nutzung zu standardisieren; es verwendet Blockchain, um KI-Dienste zu koordinieren, während MCP Softwarestandards verwendet, um KI mit jedem Dienst arbeiten zu lassen.
  • Fetch.ai (FET)Agentenbasierte dezentrale Plattform: Fetch.ai ist ein weiteres Projekt, das KI und Blockchain miteinander verbindet. Es hat seine eigene Proof-of-Stake-Blockchain und ein Framework für den Aufbau autonomer Agenten gestartet, die Aufgaben ausführen und in einem dezentralen Netzwerk interagieren. In Fetchs Vision können Millionen von „Software-Agenten“ (die Menschen, Geräte oder Organisationen repräsentieren) verhandeln und Werte austauschen, wobei FET-Token für Transaktionen verwendet werden. Fetch.ai bietet ein Agenten-Framework (uAgents) und eine Infrastruktur für die Entdeckung und Kommunikation zwischen Agenten auf seinem Ledger. Zum Beispiel könnte ein Fetch-Agent helfen, den Verkehr in einer Stadt zu optimieren, indem er mit anderen Agenten für Parken und Transport interagiert, oder einen Lieferketten-Workflow autonom verwalten. Wie vergleicht sich das mit MCP? Beide befassen sich mit dem Konzept von Agenten, aber die Agenten von Fetch.ai sind stark an seine Blockchain und Token-Ökonomie gebunden – sie leben im Fetch-Netzwerk und verwenden On-Chain-Logik. MCP-Agenten (KI-Hosts) sind modellgesteuert (wie ein LLM) und nicht an ein einziges Netzwerk gebunden; MCP ist zufrieden damit, über das Internet oder innerhalb einer Cloud-Einrichtung zu arbeiten, ohne eine Blockchain zu benötigen. Fetch.ai versucht, eine neue dezentrale KI-Wirtschaft von Grund auf aufzubauen (mit ihrem eigenen Ledger für Vertrauen und Transaktionen), während MCP schichtagnostisch ist – es nutzt bestehende Netzwerke (könnte über HTTPS oder bei Bedarf sogar auf einer Blockchain verwendet werden), um KI-Interaktionen zu ermöglichen. Man könnte sagen, Fetch handelt eher von autonomen Wirtschaftsagenten und MCP von intelligenten Tool-nutzenden Agenten. Interessanterweise könnten sich diese überschneiden: Ein autonomer Agent auf Fetch.ai könnte MCP verwenden, um mit Off-Chain-Ressourcen oder anderen Blockchains zu interagieren. Umgekehrt könnte man MCP verwenden, um Multi-Agenten-Systeme zu bauen, die verschiedene Blockchains (nicht nur eine) nutzen. In der Praxis hat MCP eine schnellere Akzeptanz erfahren, weil es kein eigenes Netzwerk benötigte – es funktioniert sofort mit Ethereum, Solana, Web2-APIs usw. Der Ansatz von Fetch.ai ist aufwendiger und schafft ein ganzes Ökosystem, dem die Teilnehmer beitreten (und Token erwerben) müssen, um es zu nutzen. Zusammenfassend: Fetch.ai vs. MCP: Fetch ist eine Plattform mit eigenem Token/Blockchain für KI-Agenten, die sich auf Interoperabilität und wirtschaftlichen Austausch zwischen Agenten konzentriert, während MCP ein Protokoll ist, das KI-Agenten (in jeder Umgebung) verwenden können, um sich an Tools und Daten anzuschliessen. Ihre Ziele überschneiden sich bei der Ermöglichung von KI-gesteuerter Automatisierung, aber sie behandeln verschiedene Schichten des Stacks und haben sehr unterschiedliche architektonische Philosophien (geschlossenes Ökosystem vs. offener Standard).
  • Chainlink und dezentrale OrakelBlockchains mit Off-Chain-Daten verbinden: Chainlink ist kein KI-Projekt, aber es ist als Web3-Protokoll, das ein komplementäres Problem löst, hochrelevant: wie Blockchains mit externen Daten und Berechnungen verbunden werden können. Chainlink ist ein dezentrales Netzwerk von Knoten (Orakeln), die Off-Chain-Daten abrufen, verifizieren und auf vertrauensminimierte Weise an Smart Contracts liefern. Zum Beispiel stellen Chainlink-Orakel Preis-Feeds für DeFi-Protokolle bereit oder rufen externe APIs im Auftrag von Smart Contracts über Chainlink Functions auf. Im Vergleich dazu verbindet MCP KI-Modelle mit externen Daten/Tools (von denen einige Blockchains sein könnten). Man könnte sagen, Chainlink bringt Daten in Blockchains, während MCP Daten in KI bringt. Es gibt eine konzeptionelle Parallele: Beide stellen eine Brücke zwischen ansonsten isolierten Systemen her. Chainlink konzentriert sich auf Zuverlässigkeit, Dezentralisierung und Sicherheit von On-Chain-Daten (Lösung des „Orakelproblems“ des Single Point of Failure). MCP konzentriert sich auf Flexibilität und Standardisierung des Datenzugriffs für KI (Lösung des „Integrationsproblems“ für KI-Agenten). Sie operieren in verschiedenen Domänen (Smart Contracts vs. KI-Assistenten), aber man könnte MCP-Server mit Orakeln vergleichen: Ein MCP-Server für Preisdaten könnte dieselben APIs aufrufen wie ein Chainlink-Knoten. Der Unterschied ist der Konsument – im Fall von MCP ist der Konsument eine KI oder ein benutzerorientierter Assistent, kein deterministischer Smart Contract. Auch bietet MCP nicht von Natur aus die Vertrauensgarantien, die Chainlink bietet (MCP-Server können zentralisiert oder von der Community betrieben werden, wobei das Vertrauen auf Anwendungsebene verwaltet wird). Wie jedoch bereits erwähnt, könnten Ideen zur Dezentralisierung von MCP-Netzwerken von Orakelnetzwerken übernommen werden – z. B. könnten mehrere MCP-Server abgefragt und die Ergebnisse gegengeprüft werden, um sicherzustellen, dass einer KI keine fehlerhaften Daten zugeführt werden, ähnlich wie mehrere Chainlink-Knoten einen Preis aggregieren. Kurz gesagt, Chainlink vs. MCP: Chainlink ist Web3-Middleware für Blockchains zum Konsum externer Daten, MCP ist KI-Middleware für Modelle zum Konsum externer Daten (die auch Blockchain-Daten umfassen könnten). Sie adressieren analoge Bedürfnisse in verschiedenen Bereichen und könnten sich sogar ergänzen: Eine KI, die MCP verwendet, könnte einen von Chainlink bereitgestellten Daten-Feed als zuverlässige Ressource abrufen, und umgekehrt könnte eine KI als Analysequelle dienen, die ein Chainlink-Orakel On-Chain bringt (obwohl dieses letztere Szenario Fragen der Überprüfbarkeit aufwerfen würde).
  • ChatGPT-Plugins / OpenAI-Funktionen vs. MCPAnsätze zur KI-Tool-Integration: Obwohl es sich nicht um Web3-Projekte handelt, ist ein kurzer Vergleich angebracht, da ChatGPT-Plugins und die Funktionsaufruffunktion von OpenAI ebenfalls KI mit externen Tools verbinden. ChatGPT-Plugins verwenden eine von einem Dienst bereitgestellte OpenAPI-Spezifikation, und das Modell kann dann diese APIs gemäss der Spezifikation aufrufen. Die Einschränkungen bestehen darin, dass es sich um ein geschlossenes Ökosystem handelt (von OpenAI genehmigte Plugins, die auf OpenAI-Servern laufen) und jedes Plugin eine isolierte Integration darstellt. OpenAIs neueres „Agents“-SDK ist konzeptionell näher an MCP, da es Entwicklern ermöglicht, Tools/Funktionen zu definieren, die eine KI verwenden kann, aber anfänglich war es spezifisch für OpenAIs Ökosystem. LangChain bot ebenfalls ein Framework, um LLMs Tools im Code zur Verfügung zu stellen. MCP unterscheidet sich dadurch, dass es einen offenen, modellagnostischen Standard dafür bietet. Wie eine Analyse es formulierte, schuf LangChain einen entwicklerorientierten Standard (eine Python-Schnittstelle) für Tools, während MCP einen modellorientierten Standard schafft – ein KI-Agent kann jedes MCP-definierte Tool zur Laufzeit ohne benutzerdefinierten Code entdecken und verwenden. In der Praxis wuchs das MCP-Ökosystem von Servern innerhalb weniger Monate grösser und vielfältiger als der ChatGPT-Plugin-Store. Und anstatt dass jedes Modell sein eigenes Plugin-Format hat (OpenAI hatte seines, andere hatten andere), konvergieren viele um MCP. OpenAI selbst signalisierte Unterstützung für MCP und passte im Wesentlichen seinen Funktionsansatz an den breiteren Standard an. Beim Vergleich von OpenAI-Plugins mit MCP: Plugins sind ein kuratierter, zentralisierter Ansatz, während MCP ein dezentraler, gemeinschaftsgetriebener Ansatz ist. Im Web3-Denken ist MCP „Open Source und Permissionless“, während proprietäre Plugin-Ökosysteme geschlossener sind. Dies macht MCP analog zum Ethos von Web3, auch wenn es keine Blockchain ist – es ermöglicht Interoperabilität und Benutzerkontrolle (man könnte seinen eigenen MCP-Server für seine Daten betreiben, anstatt alles einem KI-Anbieter zu überlassen). Dieser Vergleich zeigt, warum viele MCP ein grösseres langfristiges Potenzial zuschreiben: Es ist nicht an einen Anbieter oder ein Modell gebunden.
  • Projekt Namda und dezentrale Agenten-Frameworks: Namda verdient eine separate Anmerkung, da es MCP explizit mit Web3-Konzepten kombiniert. Wie bereits beschrieben, ist Namda (Networked Agent Modular Distributed Architecture) eine MIT/IBM-Initiative, die 2024 gestartet wurde, um ein skalierbares, verteiltes Netzwerk von KI-Agenten unter Verwendung von MCP als Kommunikationsschicht aufzubauen. Es behandelt MCP als Messaging-Backbone (da MCP Standard-JSON-RPC-ähnliche Nachrichten verwendet, passte es gut für die Inter-Agenten-Kommunikation) und fügt dann Schichten für dynamische Entdeckung, Fehlertoleranz und überprüfbare Identitäten unter Verwendung von Blockchain-inspirierten Techniken hinzu. Namdas Agenten können überall sein (Cloud, Edge-Geräte usw.), aber ein dezentrales Register (etwas wie ein DHT oder eine Blockchain) verfolgt sie und ihre Fähigkeiten auf manipulationssichere Weise. Sie erforschen sogar, Agenten Token zu geben, um Zusammenarbeit oder Ressourcenteilung zu incentivieren. Im Wesentlichen ist Namda ein Experiment, wie eine „Web3-Version von MCP“ aussehen könnte. Es ist noch kein weit verbreitetes Projekt, aber es ist eines der engsten „ähnlichen Protokolle“ im Geiste. Wenn wir Namda vs. MCP betrachten: Namda verwendet MCP (es handelt sich also nicht um konkurrierende Standards), erweitert es aber um ein Protokoll für die Vernetzung und Koordination mehrerer Agenten auf vertrauensminimierte Weise. Man könnte Namda mit Frameworks wie Autonolas oder Multi-Agent Systems (MAS) vergleichen, die die Krypto-Community gesehen hat, aber diesen fehlte oft eine leistungsstarke KI-Komponente oder ein gemeinsames Protokoll. Namda + MCP zusammen zeigen, wie ein dezentrales Agentennetzwerk funktionieren könnte, wobei Blockchain Identität, Reputation und möglicherweise Token-Anreize bereitstellt und MCP die Agentenkommunikation und Tool-Nutzung.

Zusammenfassend lässt sich sagen, dass MCP sich von den meisten früheren Web3-Projekten abhebt: Es begann überhaupt nicht als Krypto-Projekt, überschneidet sich aber schnell mit Web3, weil es komplementäre Probleme löst. Projekte wie SingularityNET und Fetch.ai zielten darauf ab, KI-Berechnungen oder -Dienste mithilfe von Blockchain zu dezentralisieren; MCP standardisiert stattdessen die KI-Integration mit Diensten, was die Dezentralisierung durch Vermeidung von Plattform-Lock-in verbessern kann. Orakelnetzwerke wie Chainlink lösten die Datenlieferung an die Blockchain; MCP löst die Datenlieferung an die KI (einschliesslich Blockchain-Daten). Wenn die Kernideale von Web3 Dezentralisierung, Interoperabilität und Benutzerermächtigung sind, greift MCP den Bereich der Interoperabilität im KI-Bereich an. Es beeinflusst sogar diese älteren Projekte – zum Beispiel hindert nichts SingularityNET daran, seine KI-Dienste über MCP-Server verfügbar zu machen, oder Fetch-Agenten daran, MCP zu verwenden, um mit externen Systemen zu kommunizieren. Wir könnten durchaus eine Konvergenz erleben, bei der tokengetriebene KI-Netzwerke MCP als ihre Lingua Franca verwenden, wodurch die Anreizstruktur von Web3 mit der Flexibilität von MCP verbunden wird.

Schliesslich, wenn wir die Marktwahrnehmung betrachten: MCP wird oft als das angepriesen, was Web3 für das Internet tun wollte – Silos aufbrechen und Benutzer befähigen. Dies hat dazu geführt, dass MCP informell als „Web3 für KI“ bezeichnet wird (auch wenn keine Blockchain beteiligt ist). Es ist jedoch wichtig zu erkennen, dass MCP ein Protokollstandard ist, während die meisten Web3-Projekte Full-Stack-Plattformen mit ökonomischen Schichten sind. In Vergleichen erweist sich MCP in der Regel als eine leichtere, universellere Lösung, während Blockchain-Projekte schwerere, spezialisierte Lösungen sind. Je nach Anwendungsfall können sie sich ergänzen, anstatt strikt zu konkurrieren. Wenn das Ökosystem reift, könnten wir sehen, dass MCP in viele Web3-Projekte als Modul integriert wird (ähnlich wie HTTP oder JSON allgegenwärtig sind), anstatt als Konkurrenzprojekt.

8. Öffentliche Wahrnehmung, Marktakzeptanz und Medienberichterstattung

Die öffentliche Stimmung gegenüber MCP war sowohl in der KI- als auch in der Web3-Community überwiegend positiv, oft grenzend an Begeisterung. Viele sehen es als einen Game-Changer, der leise ankam, aber dann die Branche im Sturm eroberte. Lassen Sie uns die Wahrnehmung, Akzeptanz und bemerkenswerte Mediennarrative aufschlüsseln:

Marktakzeptanz und Adoptionsmetriken: Mitte 2025 erreichte MCP ein Mass an Akzeptanz, das für ein neues Protokoll selten ist. Es wird von praktisch allen grossen KI-Modellanbietern (Anthropic, OpenAI, Google, Meta) unterstützt und von grossen Technologieinfrastrukturen (Microsoft, GitHub, AWS usw.) getragen, wie bereits detailliert beschrieben. Dies allein signalisiert dem Markt, dass MCP wahrscheinlich Bestand haben wird (ähnlich wie die breite Unterstützung TCP/IP oder HTTP in den frühen Internettagen vorantrieb). Auf der Web3-Seite ist die Akzeptanz im Entwicklerverhalten offensichtlich: Hackathons begannen, MCP-Projekte zu präsentieren, und viele Blockchain-Entwicklertools erwähnen nun die MCP-Integration als Verkaufsargument. Die Statistik von „über 1000 Konnektoren in wenigen Monaten“ und Mike Kriegers Zitat von „Tausenden von Integrationen“ werden oft zitiert, um zu veranschaulichen, wie schnell MCP Anklang fand. Dies deutet auf starke Netzwerkeffekte hin – je mehr Tools über MCP verfügbar sind, desto nützlicher ist es, was zu weiterer Akzeptanz führt (eine positive Rückkopplungsschleife). VCs und Analysten haben festgestellt, dass MCP in weniger als einem Jahr das erreicht hat, was frühere Versuche zur „KI-Interoperabilität“ über mehrere Jahre hinweg nicht geschafft haben, hauptsächlich aufgrund des Timings (auf der Welle des Interesses an KI-Agenten reitend) und der Open-Source-Natur. In den Web3-Medien wird die Akzeptanz manchmal anhand der Entwickler-Mindshare und der Integration in Projekte gemessen, und MCP erzielt hier nun hohe Werte.

Öffentliche Wahrnehmung in KI- und Web3-Communities: Anfangs blieb MCP bei seiner ersten Ankündigung (Ende 2024) unter dem Radar. Doch Anfang 2025, als Erfolgsgeschichten auftauchten, verlagerte sich die Wahrnehmung zu Begeisterung. KI-Praktiker sahen MCP als das „fehlende Puzzleteil“, um KI-Agenten über Spielzeugbeispiele hinaus wirklich nützlich zu machen. Web3-Entwickler hingegen sahen es als Brücke, um KI endlich in DApps zu integrieren, ohne die Dezentralisierung aufzugeben – eine KI kann beispielsweise On-Chain-Daten verwenden, ohne ein zentralisiertes Orakel zu benötigen. Vordenker haben Lobeshymnen gesungen: zum Beispiel schrieb Jesus Rodriguez (ein prominenter Web3-KI-Autor) in CoinDesk, dass MCP „eines der transformativsten Protokolle für die KI-Ära und eine grossartige Ergänzung für Web3-Architekturen“ sein könnte. Rares Crisan argumentierte in einem Notable Capital-Blog, dass MCP das Versprechen von Web3 einlösen könnte, wo Blockchain allein Schwierigkeiten hatte, indem es das Internet benutzerzentrierter und natürlicher in der Interaktion macht. Diese Narrative stellen MCP als revolutionär und doch praktisch dar – nicht nur als Hype.

Fairerweise ist nicht jeder Kommentar unkritisch. Einige KI-Entwickler in Foren wie Reddit haben darauf hingewiesen, dass MCP „nicht alles kann“ – es ist ein Kommunikationsprotokoll, kein sofort einsatzbereiter Agent oder eine Reasoning-Engine. Zum Beispiel argumentierte eine Reddit-Diskussion mit dem Titel „MCP is a Dead-End Trap“, dass MCP allein die Agentenkognition nicht verwaltet oder Qualität garantiert; es erfordert immer noch ein gutes Agentendesign und Sicherheitskontrollen. Diese Ansicht deutet darauf hin, dass MCP als Allheilmittel überbewertet werden könnte. Diese Kritikpunkte zielen jedoch eher darauf ab, Erwartungen zu dämpfen, als die Nützlichkeit von MCP abzulehnen. Sie betonen, dass MCP die Tool-Konnektivität löst, aber man immer noch eine robuste Agentenlogik aufbauen muss (d. h. MCP schafft nicht auf magische Weise einen intelligenten Agenten, es stattet ihn mit Tools aus). Der Konsens ist jedoch, dass MCP ein grosser Fortschritt ist, selbst unter vorsichtigen Stimmen. Der Community-Blog von Hugging Face stellte fest, dass MCP zwar keine Allzwecklösung ist, aber ein wichtiger Wegbereiter für integrierte, kontextbewusste KI ist, und Entwickler sich aus diesem Grund darum versammeln.

Medienberichterstattung: MCP hat sowohl in den Mainstream-Tech-Medien als auch in Nischen-Blockchain-Medien erhebliche Berichterstattung erhalten:

  • TechCrunch hat mehrere Geschichten veröffentlicht. Sie berichteten über das ursprüngliche Konzept („Anthropic schlägt eine neue Methode vor, Daten mit KI-Chatbots zu verbinden“) um den Start im Jahr 2024. Im Jahr 2025 hob TechCrunch jeden grossen Adoptionsmoment hervor: die Unterstützung von OpenAI, die Annahme durch Google, die Beteiligung von Microsoft/GitHub. Diese Artikel betonen oft die Brancheneinheit um MCP. Zum Beispiel zitierte TechCrunch Sam Altmans Unterstützung und bemerkte den schnellen Wechsel von konkurrierenden Standards zu MCP. Dabei wurde MCP als der aufstrebende Standard dargestellt, ähnlich wie niemand in den 90er Jahren von den Internetprotokollen ausgeschlossen werden wollte. Eine solche Berichterstattung in einem prominenten Medium signalisierte der breiteren Tech-Welt, dass MCP wichtig und real ist, nicht nur ein Rand-Open-Source-Projekt.
  • CoinDesk und andere Krypto-Publikationen griffen den Web3-Aspekt auf. Der Meinungsartikel von Rodriguez in CoinDesk (Juli 2025) wird oft zitiert; er zeichnete ein futuristisches Bild, in dem jede Blockchain ein MCP-Server sein könnte und neue MCP-Netzwerke auf Blockchains laufen könnten. Er verband MCP mit Konzepten wie dezentraler Identität, Authentifizierung und Überprüfbarkeit – sprach die Sprache des Blockchain-Publikums und deutete an, dass MCP das Protokoll sein könnte, das KI wirklich mit dezentralen Frameworks verschmilzt. Cointelegraph, Bankless und andere haben MCP auch im Kontext von „KI-Agenten & DeFi“ und ähnlichen Themen diskutiert, meist optimistisch über die Möglichkeiten (z. B. hatte Bankless einen Artikel über die Verwendung von MCP, um einer KI die Verwaltung von On-Chain-Trades zu ermöglichen, und enthielt eine Anleitung für ihren eigenen MCP-Server).
  • Bemerkenswerte VC-Blogs / Analystenberichte: Der Blogbeitrag von Notable Capital (Juli 2025) ist ein Beispiel für eine Venture-Analyse, die Parallelen zwischen MCP und der Entwicklung von Web-Protokollen zieht. Er argumentiert im Wesentlichen, dass MCP für Web3 das tun könnte, was HTTP für Web1 getan hat – eine neue Schnittstellenschicht (natürliche Sprachschnittstelle) bereitstellen, die die zugrunde liegende Infrastruktur nicht ersetzt, sondern sie nutzbar macht. Diese Art von Narrativ ist überzeugend und wurde in Panels und Podcasts wiederholt. Es positioniert MCP nicht als Konkurrenz zur Blockchain, sondern als die nächste Abstraktionsschicht, die es normalen Benutzern (über KI) endlich ermöglicht, Blockchain- und Webdienste einfach zu nutzen.
  • Entwickler-Community-Buzz: Ausserhalb formeller Artikel lässt sich der Aufstieg von MCP an seiner Präsenz im Entwicklerdiskurs messen – Konferenzvorträge, YouTube-Kanäle, Newsletter. Zum Beispiel gab es beliebte Blogbeiträge wie „MCP: Das fehlende Glied für Agenten-KI?“ auf Websites wie Runtime.news und Newsletter (z. B. einen des KI-Forschers Nathan Lambert), die praktische Experimente mit MCP und dessen Vergleich mit anderen Tool-Nutzungs-Frameworks diskutierten. Der allgemeine Ton ist Neugier und Begeisterung: Entwickler teilen Demos, wie sie KI mit ihrer Hausautomation oder Krypto-Wallet mit nur wenigen Zeilen Code über MCP-Server verbinden, etwas, das vor nicht allzu langer Zeit nach Science-Fiction klang. Diese Basisbegeisterung ist wichtig, weil sie zeigt, dass MCP über reine Unternehmensunterstützung hinaus eine grosse Bedeutung hat.
  • Unternehmensperspektive: Medien und Analysten, die sich auf Unternehmens-KI konzentrieren, bemerken MCP ebenfalls als wichtige Entwicklung. Zum Beispiel berichtete The New Stack, wie Anthropic die Unterstützung für Remote-MCP-Server in Claude für den Unternehmenseinsatz hinzufügte. Der Ansatz hier ist, dass Unternehmen MCP nutzen können, um ihre internen Wissensdatenbanken und Systeme sicher mit KI zu verbinden. Dies ist auch für Web3 wichtig, da viele Blockchain-Unternehmen selbst Unternehmen sind und MCP intern nutzen können (zum Beispiel könnte eine Krypto-Börse MCP verwenden, um einer KI die Analyse interner Transaktionsprotokolle zur Betrugserkennung zu ermöglichen).

Bemerkenswerte Zitate und Reaktionen: Einige sind hervorzuheben, da sie die öffentliche Wahrnehmung zusammenfassen:

  • „Ähnlich wie HTTP die Webkommunikation revolutionierte, bietet MCP ein universelles Framework... das fragmentierte Integrationen durch ein einziges Protokoll ersetzt.“ – CoinDesk. Dieser Vergleich mit HTTP ist aussagekräftig; er stellt MCP als Innovation auf Infrastrukturebene dar.
  • „MCP ist [zu einem] florierenden offenen Standard mit Tausenden von Integrationen und wachsend geworden. LLMs sind am nützlichsten, wenn sie sich mit den Daten verbinden, die Sie bereits haben...“ – Mike Krieger (Anthropic). Dies ist eine offizielle Bestätigung sowohl der Akzeptanz als auch des Kernnutzenversprechens, das in sozialen Medien weit verbreitet wurde.
  • „Das Versprechen von Web3... kann endlich... durch natürliche Sprache und KI-Agenten verwirklicht werden. ...MCP ist das Nächste, was wir einem echten Web3 für die Massen gesehen haben.“ – Notable Capital. Diese kühne Aussage findet Anklang bei denen, die von den langsamen UX-Verbesserungen im Krypto-Bereich frustriert sind; sie deutet darauf hin, dass KI den Code der Mainstream-Akzeptanz knacken könnte, indem sie die Komplexität abstrahiert.

Herausforderungen und Skepsis: Obwohl die Begeisterung gross ist, haben die Medien auch Herausforderungen diskutiert:

  • Sicherheitsbedenken: Publikationen wie The New Stack oder Sicherheitsblogs haben darauf hingewiesen, dass das Zulassen der Ausführung von Tools durch KI gefährlich sein kann, wenn es nicht in einer Sandbox erfolgt. Was, wenn ein bösartiger MCP-Server versuchen würde, eine KI zu einer schädlichen Aktion zu veranlassen? Der LimeChain-Blog warnt explizit vor „erheblichen Sicherheitsrisiken“ bei von der Community entwickelten MCP-Servern (z. B. muss ein Server, der private Schlüssel verarbeitet, extrem sicher sein). Diese Bedenken wurden in Diskussionen wiederholt: Im Wesentlichen erweitert MCP die Fähigkeiten von KI, aber mit der Macht kommt das Risiko. Die Reaktion der Community (Leitfäden, Authentifizierungsmechanismen) wurde ebenfalls behandelt und versichert im Allgemeinen, dass Abhilfemassnahmen entwickelt werden. Dennoch würde jeder hochkarätige Missbrauch von MCP (z. B. eine unbeabsichtigte Krypto-Übertragung durch eine KI) die Wahrnehmung beeinflussen, daher sind die Medien in dieser Hinsicht wachsam.
  • Leistung und Kosten: Einige Analysten stellen fest, dass die Verwendung von KI-Agenten mit Tools langsamer oder kostspieliger sein könnte als der direkte Aufruf einer API (da die KI möglicherweise mehrere Hin- und Her-Schritte benötigt, um das zu bekommen, was sie braucht). In Hochfrequenzhandels- oder On-Chain-Ausführungskontexten könnte diese Latenz problematisch sein. Vorerst werden diese als technische Hürden angesehen, die optimiert werden müssen (durch besseres Agentendesign oder Streaming), und nicht als Deal-Breaker.
  • Hype-Management: Wie bei jeder Trendtechnologie gibt es ein gewisses Mass an Hype. Einige Stimmen warnen davor, MCP zur Lösung für alles zu erklären. Zum Beispiel fragt der Hugging Face-Artikel „Ist MCP ein Allheilmittel?“ und antwortet nein – Entwickler müssen immer noch das Kontextmanagement handhaben, und MCP funktioniert am besten in Kombination mit guten Prompting- und Speicherstrategien. Solche ausgewogenen Ansichten sind gesund im Diskurs.

Gesamte Medienstimmung: Das sich abzeichnende Narrativ ist weitgehend hoffnungsvoll und zukunftsorientiert:

  • MCP wird als praktisches Tool angesehen, das jetzt echte Verbesserungen liefert (also keine Vaporware), was die Medien durch die Nennung funktionierender Beispiele unterstreichen: Claude liest Dateien, Copilot verwendet MCP in VSCode, eine KI schliesst eine Solana-Transaktion in einer Demo ab usw.
  • Es wird auch als strategischer Dreh- und Angelpunkt für die Zukunft von KI und Web3 dargestellt. Die Medien kommen oft zu dem Schluss, dass MCP oder Ähnliches für „dezentrale KI“ oder „Web4“ oder welchen Begriff man auch immer für das Web der nächsten Generation verwendet, unerlässlich sein wird. Es besteht das Gefühl, dass MCP eine Tür geöffnet hat und nun Innovationen hindurchfliessen – ob es sich um Namdas dezentrale Agenten oder Unternehmen handelt, die Altsysteme mit KI verbinden, viele zukünftige Geschichten gehen auf die Einführung von MCP zurück.

Auf dem Markt könnte man die Akzeptanz an der Gründung von Startups und der Finanzierung im MCP-Ökosystem messen. Tatsächlich gibt es Gerüchte/Berichte über Startups, die sich auf „MCP-Marktplätze“ oder verwaltete MCP-Plattformen konzentrieren und Finanzierungen erhalten (Notable Capital, das darüber schreibt, deutet auf VC-Interesse hin). Wir können erwarten, dass die Medien diese tangential behandeln werden – z. B. „Startup X verwendet MCP, damit Ihre KI Ihr Krypto-Portfolio verwaltet – sammelt Y Millionen Dollar ein“.

Fazit zur Wahrnehmung: Ende 2025 geniesst MCP den Ruf einer bahnbrechenden, ermöglichenden Technologie. Es wird von einflussreichen Persönlichkeiten sowohl in der KI- als auch in der Krypto-Welt stark befürwortet. Die öffentliche Erzählung hat sich von „hier ist ein nettes Tool“ zu „dies könnte grundlegend für das nächste Web sein“ entwickelt. Gleichzeitig bestätigt die praktische Berichterstattung, dass es funktioniert und angenommen wird, was Glaubwürdigkeit verleiht. Vorausgesetzt, die Community geht weiterhin Herausforderungen an (Sicherheit, Governance in grossem Massstab) und es treten keine grösseren Katastrophen auf, wird das öffentliche Image von MCP wahrscheinlich positiv bleiben oder sogar ikonisch werden als „das Protokoll, das KI und Web3 dazu brachte, gut zusammenzuspielen“.

Die Medien werden wahrscheinlich ein genaues Auge auf Folgendes haben:

  • Erfolgsgeschichten (z. B. wenn eine grosse DAO einen KI-Schatzmeister über MCP implementiert oder eine Regierung MCP für offene Daten-KI-Systeme verwendet).
  • Jegliche Sicherheitsvorfälle (zur Risikobewertung).
  • Die Entwicklung von MCP-Netzwerken und ob eine Token- oder Blockchain-Komponente offiziell ins Spiel kommt (was eine grosse Nachricht wäre, die KI und Krypto noch enger miteinander verbindet).

Im Moment lässt sich die Berichterstattung jedoch mit einer Zeile von CoinDesk zusammenfassen: „Die Kombination von Web3 und MCP könnte eine neue Grundlage für dezentrale KI sein.“ – ein Gefühl, das sowohl das Versprechen als auch die Begeisterung um MCP in der Öffentlichkeit einfängt.

Referenzen:

  • Anthropic News: "Introducing the Model Context Protocol," Nov 2024
  • LimeChain Blog: "What is MCP and How Does It Apply to Blockchains?" May 2025
  • Chainstack Blog: "MCP for Web3 Builders: Solana, EVM and Documentation," June 2025
  • CoinDesk Op-Ed: "The Protocol of Agents: Web3’s MCP Potential," Jul 2025
  • Notable Capital: "Why MCP Represents the Real Web3 Opportunity," Jul 2025
  • TechCrunch: "OpenAI adopts Anthropic’s standard…", Mar 26, 2025
  • TechCrunch: "Google to embrace Anthropic’s standard…", Apr 9, 2025
  • TechCrunch: "GitHub, Microsoft embrace… (MCP steering committee)", May 19, 2025
  • Microsoft Dev Blog: "Official C# SDK for MCP," Apr 2025
  • Hugging Face Blog: "#14: What Is MCP, and Why Is Everyone Talking About It?" Mar 2025
  • Messari Research: "Fetch.ai Profile," 2023
  • Medium (Nu FinTimes): "Unveiling SingularityNET," Mar 2024

Googles Agent Payments Protocol (AP2)

· 35 Min. Lesezeit
Dora Noda
Software Engineer

Googles Agent Payments Protocol (AP2) ist ein neu angekündigter offener Standard, der sichere, vertrauenswürdige Transaktionen ermöglichen soll, die von KI-Agenten im Auftrag von Nutzern initiiert werden. AP2 wurde in Zusammenarbeit mit über 60 Zahlungs- und Technologieunternehmen (einschließlich großer Zahlungsnetzwerke, Banken, Fintechs und Web3-Unternehmen) entwickelt und etabliert eine gemeinsame Sprache für „agentische“ Zahlungen – d. h. Käufe und Finanztransaktionen, die ein autonomer Agent (wie ein KI-Assistent oder ein LLM-basierter Agent) für einen Nutzer ausführen kann. Die Entwicklung von AP2 wird durch einen grundlegenden Wandel vorangetrieben: Traditionell gingen Online-Zahlungssysteme davon aus, dass ein Mensch direkt auf „Kaufen“ klickt, doch der Aufstieg von KI-Agenten, die nach Benutzeranweisungen handeln, bricht diese Annahme. AP2 adressiert die daraus resultierenden Herausforderungen bei Autorisierung, Authentizität und Verantwortlichkeit im KI-gesteuerten Handel, während es mit der bestehenden Zahlungsinfrastruktur kompatibel bleibt. Dieser Bericht untersucht die technische Architektur von AP2, seinen Zweck und seine Anwendungsfälle, Integrationen mit KI-Agenten und Zahlungsdienstleistern, Sicherheits- und Compliance-Aspekte, Vergleiche mit bestehenden Protokollen, Implikationen für Web3/dezentrale Systeme sowie die Branchenakzeptanz/Roadmap.

Technische Architektur: Wie AP2 funktioniert

Im Kern führt AP2 ein kryptografisch sicheres Transaktions-Framework ein, das auf verifizierbaren digitalen Berechtigungsnachweisen (VDCs) basiert – im Wesentlichen manipulationssichere, signierte Datenobjekte, die als digitale „Verträge“ dessen dienen, was der Nutzer autorisiert hat. In der AP2-Terminologie werden diese Verträge Mandate genannt, und sie bilden eine prüfbare Beweiskette für jede Transaktion. Es gibt drei primäre Arten von Mandaten in der AP2-Architektur:

  • Intent Mandate: Erfasst die ursprünglichen Anweisungen oder Bedingungen des Nutzers für einen Kauf, insbesondere für „Szenarien ohne menschliche Anwesenheit“ (bei denen der Agent später ohne den online befindlichen Nutzer handelt). Es definiert den Umfang der Autorität, den der Nutzer dem Agenten erteilt – zum Beispiel „Kaufe Konzertkarten, wenn sie unter 200 $ fallen, bis zu 2 Tickets“. Dieses Mandat wird vom Nutzer im Voraus kryptografisch signiert und dient als verifizierbarer Nachweis der Zustimmung innerhalb spezifischer Grenzen.
  • Cart Mandate: Repräsentiert die endgültigen Transaktionsdetails, die der Nutzer genehmigt hat, verwendet in „Szenarien mit menschlicher Anwesenheit“ oder zum Zeitpunkt des Bezahlvorgangs. Es umfasst die genauen Artikel oder Dienstleistungen, deren Preis und andere Einzelheiten des Kaufs. Wenn der Agent bereit ist, die Transaktion abzuschließen (z. B. nach dem Befüllen eines Warenkorbs), signiert der Händler zuerst kryptografisch den Warenkorbinhalt (garantiert die Bestelldetails und den Preis), und dann signiert der Nutzer (über sein Gerät oder die Agentenoberfläche), um ein Cart Mandate zu erstellen. Dies gewährleistet Was-Sie-sehen-ist-was-Sie-bezahlen, indem die endgültige Bestellung genau so fixiert wird, wie sie dem Nutzer präsentiert wurde.
  • Payment Mandate: Ein separater Berechtigungsnachweis, der an das Zahlungsnetzwerk (z. B. Kartennetzwerk oder Bank) gesendet wird, um zu signalisieren, dass ein KI-Agent an der Transaktion beteiligt ist. Das Payment Mandate enthält Metadaten, wie z. B. ob der Nutzer während der Autorisierung anwesend war oder nicht, und dient als Kennzeichen für Risikomanagementsysteme. Durch die Bereitstellung kryptografisch verifizierbarer Beweise der Nutzerabsicht für die akzeptierenden und ausstellenden Banken hilft dieses Mandat ihnen, den Kontext zu bewerten (z. B. einen von einem Agenten initiierten Kauf von typischem Betrug zu unterscheiden) und Compliance oder Haftung entsprechend zu verwalten.

Alle Mandate werden als verifizierbare Berechtigungsnachweise implementiert, die mit den Schlüsseln der jeweiligen Partei (Nutzer, Händler usw.) signiert sind, was einen nicht abstreitbaren Audit-Trail für jede agentengesteuerte Transaktion ergibt. In der Praxis verwendet AP2 eine rollenbasierte Architektur, um sensible Informationen zu schützen – zum Beispiel könnte ein Agent ein Intent Mandate bearbeiten, ohne jemals Rohzahlungsdetails zu sehen, die nur kontrolliert bei Bedarf offengelegt werden, wodurch die Privatsphäre gewahrt bleibt. Die kryptografische Kette von Nutzerabsicht → Händlerverpflichtung → Zahlungsautorisierung etabliert Vertrauen zwischen allen Parteien, dass die Transaktion die wahren Anweisungen des Nutzers widerspiegelt und dass sowohl der Agent als auch der Händler diese Anweisungen befolgt haben.

Transaktionsfluss: Um zu veranschaulichen, wie AP2 End-to-End funktioniert, betrachten wir ein einfaches Kaufszenario mit einem Menschen in der Schleife:

  1. Nutzeranfrage: Der Nutzer bittet seinen KI-Agenten, einen bestimmten Artikel oder eine Dienstleistung zu kaufen (z. B. „Bestelle dieses Paar Schuhe in meiner Größe“).
  2. Warenkorb-Erstellung: Der Agent kommuniziert mit den Systemen des Händlers (unter Verwendung von Standard-APIs oder über eine Agent-zu-Agent-Interaktion), um einen Warenkorb für den angegebenen Artikel zu einem bestimmten Preis zusammenzustellen.
  3. Händlergarantie: Bevor der Warenkorb dem Nutzer präsentiert wird, signiert die Händlerseite die Warenkorbdetails (Artikel, Menge, Preis usw.) kryptografisch. Dieser Schritt erstellt ein vom Händler signiertes Angebot, das die genauen Bedingungen garantiert (verhindert versteckte Änderungen oder Preismanipulationen).
  4. Nutzergenehmigung: Der Agent zeigt dem Nutzer den finalisierten Warenkorb. Der Nutzer bestätigt den Kauf, und diese Genehmigung löst zwei kryptografische Signaturen von der Nutzerseite aus: eine auf dem Cart Mandate (um den Warenkorb des Händlers unverändert zu akzeptieren) und eine auf dem Payment Mandate (um die Zahlung über den gewählten Zahlungsdienstleister zu autorisieren). Diese signierten Mandate werden dann dem Händler bzw. dem Zahlungsnetzwerk mitgeteilt.
  5. Ausführung: Ausgestattet mit dem Cart Mandate und dem Payment Mandate führen Händler und Zahlungsdienstleister die Transaktion sicher aus. Zum Beispiel übermittelt der Händler die Zahlungsanfrage zusammen mit dem Nachweis der Nutzergenehmigung an das Zahlungsnetzwerk (Kartennetzwerk, Bank usw.), das das Payment Mandate überprüfen kann. Das Ergebnis ist eine abgeschlossene Kauftransaktion mit einem kryptografischen Audit-Trail, der die Absicht des Nutzers mit der endgültigen Zahlung verknüpft.

Dieser Fluss zeigt, wie AP2 Vertrauen in jeden Schritt eines KI-gesteuerten Kaufs aufbaut. Der Händler hat einen kryptografischen Nachweis dessen, was der Nutzer genau zu welchem Preis zu kaufen zugestimmt hat, und der Emittent/die Bank hat einen Nachweis, dass der Nutzer diese Zahlung autorisiert hat, obwohl ein KI-Agent den Prozess erleichtert hat. Im Falle von Streitigkeiten oder Fehlern dienen die signierten Mandate als klare Beweismittel und helfen, die Verantwortlichkeit zu bestimmen (z. B. wenn der Agent von Anweisungen abgewichen ist oder wenn eine Belastung nicht dem entsprach, was der Nutzer genehmigt hatte). Im Wesentlichen stellt die Architektur von AP2 sicher, dass die verifizierbare Nutzerabsicht – und nicht das Vertrauen in das Verhalten des Agenten – die Grundlage der Transaktion bildet, wodurch die Mehrdeutigkeit erheblich reduziert wird.

Zweck und Anwendungsfälle für AP2

Warum AP2 benötigt wird: Der Hauptzweck von AP2 ist es, aufkommende Vertrauens- und Sicherheitsprobleme zu lösen, die entstehen, wenn KI-Agenten im Auftrag von Nutzern Geld ausgeben können. Google und seine Partner identifizierten mehrere Schlüsselfragen, die die heutige Zahlungsinfrastruktur nicht adäquat beantworten kann, wenn ein autonomer Agent involviert ist:

  • Autorisierung: Wie kann nachgewiesen werden, dass ein Nutzer dem Agenten tatsächlich die Erlaubnis erteilt hat, einen bestimmten Kauf zu tätigen? (Mit anderen Worten, sicherzustellen, dass der Agent keine Dinge ohne die informierte Zustimmung des Nutzers kauft.)
  • Authentizität: Wie kann ein Händler wissen, dass die Kaufanfrage eines Agenten echt ist und die wahre Absicht des Nutzers widerspiegelt, anstatt eines Fehlers oder einer KI-Halluzination?
  • Verantwortlichkeit: Wenn eine betrügerische oder fehlerhafte Transaktion über einen Agenten erfolgt, wer ist verantwortlich – der Nutzer, der Händler, der Zahlungsdienstleister oder der Ersteller des KI-Agenten?

Ohne eine Lösung schaffen diese Unsicherheiten eine „Vertrauenskrise“ im agentengesteuerten Handel. Die Mission von AP2 ist es, diese Lösung bereitzustellen, indem es ein einheitliches Protokoll für sichere Agententransaktionen etabliert. Durch die Einführung standardisierter Mandate und Absichtsnachweise verhindert AP2 ein fragmentiertes Ökosystem, in dem jedes Unternehmen seine eigenen Ad-hoc-Agentenzahlungsmethoden erfindet. Stattdessen kann jeder konforme KI-Agent mit jedem konformen Händler/Zahlungsdienstleister unter einem gemeinsamen Satz von Regeln und Verifizierungen interagieren. Diese Konsistenz vermeidet nicht nur Verwirrung bei Nutzern und Händlern, sondern gibt Finanzinstituten auch eine klare Möglichkeit, Risiken für von Agenten initiierte Zahlungen zu verwalten, anstatt sich mit einem Flickenteppich proprietärer Ansätze auseinanderzusetzen. Kurz gesagt, der Zweck von AP2 ist es, eine grundlegende Vertrauensschicht zu sein, die es der „Agenten-Ökonomie“ ermöglicht, zu wachsen, ohne das Zahlungsökosystem zu zerstören.

Beabsichtigte Anwendungsfälle: Durch die Lösung der oben genannten Probleme öffnet AP2 die Tür zu neuen Handelserlebnissen und Anwendungsfällen, die über das hinausgehen, was mit einem Menschen, der manuell Käufe durchklickt, möglich ist. Einige Beispiele für agentengesteuerten Handel, die AP2 unterstützt, sind:

  • Intelligenteres Einkaufen: Ein Kunde kann seinem Agenten anweisen: „Ich möchte diese Winterjacke in Grün, und ich bin bereit, bis zu 20 % über dem aktuellen Preis dafür zu zahlen“. Ausgestattet mit einem Intent Mandate, das diese Bedingungen kodiert, überwacht der Agent kontinuierlich Händler-Websites oder Datenbanken. Sobald die Jacke in Grün verfügbar ist (und innerhalb des Preisschwellenwerts), führt der Agent automatisch einen Kauf mit einer sicheren, signierten Transaktion aus – und sichert einen Verkauf, der sonst verpasst worden wäre. Die gesamte Interaktion, von der ursprünglichen Anfrage des Nutzers bis zum automatisierten Bezahlvorgang, wird durch AP2-Mandate geregelt, die sicherstellen, dass der Agent nur genau das kauft, was autorisiert wurde.
  • Personalisierte Angebote: Ein Nutzer teilt seinem Agenten mit, dass er ein bestimmtes Produkt (z. B. ein neues Fahrrad) von einem bestimmten Händler für eine bevorstehende Reise sucht. Der Agent kann dieses Interesse (innerhalb der Grenzen eines Intent Mandate) mit dem KI-Agenten des Händlers teilen, einschließlich relevanter Kontextinformationen wie dem Reisedatum. Der Händler-Agent, der die Absicht und den Kontext des Nutzers kennt, könnte mit einem maßgeschneiderten Paket oder Rabatt antworten – zum Beispiel „Fahrrad + Helm + Gepäckträger mit 15 % Rabatt, verfügbar für die nächsten 48 Stunden.“ Mit AP2 kann der Agent des Nutzers dieses maßgeschneiderte Angebot sicher annehmen und abschließen, wodurch eine einfache Anfrage zu einem wertvolleren Verkauf für den Händler wird.
  • Koordinierte Aufgaben: Ein Nutzer, der eine komplexe Aufgabe (z. B. eine Wochenendreise) plant, delegiert sie vollständig: „Buche mir einen Flug und ein Hotel für diese Daten mit einem Gesamtbudget von 700 $.“ Der Agent kann mit den Agenten mehrerer Dienstleister – Fluggesellschaften, Hotels, Reiseplattformen – interagieren, um eine Kombination zu finden, die zum Budget passt. Sobald ein passendes Flug-Hotel-Paket identifiziert ist, verwendet der Agent AP2, um mehrere Buchungen auf einmal auszuführen, jede kryptografisch signiert (z. B. die Ausstellung separater Cart Mandates für die Fluggesellschaft und das Hotel, beide unter dem Intent Mandate des Nutzers autorisiert). AP2 stellt sicher, dass alle Teile dieser koordinierten Transaktion wie genehmigt erfolgen, und ermöglicht sogar die gleichzeitige Ausführung, sodass Tickets und Reservierungen zusammen gebucht werden, ohne das Risiko, dass ein Teil mittendrin fehlschlägt.

Diese Szenarien veranschaulichen nur einige der beabsichtigten Anwendungsfälle von AP2. Im weiteren Sinne unterstützt das flexible Design von AP2 sowohl konventionelle E-Commerce-Abläufe als auch völlig neue Handelsmodelle. Zum Beispiel kann AP2 abonnementähnliche Dienste erleichtern (ein Agent hält Sie mit dem Nötigsten versorgt, indem er kauft, wenn Bedingungen erfüllt sind), ereignisgesteuerte Käufe (Kauf von Tickets oder Artikeln, sobald ein Auslöseereignis eintritt), Gruppenagentenverhandlungen (Agenten mehrerer Nutzer bündeln Mandate, um einen Gruppenrabatt auszuhandeln) und viele andere aufkommende Muster. In jedem Fall ist der gemeinsame Nenner, dass AP2 das Vertrauens-Framework – klare Nutzerautorisierung und kryptografische Prüfbarkeit – bereitstellt, das diese agentengesteuerten Transaktionen sicher ermöglicht. Durch die Handhabung der Vertrauens- und Verifizierungsschicht ermöglicht AP2 Entwicklern und Unternehmen, sich auf die Innovation neuer KI-Handelserlebnisse zu konzentrieren, ohne die Zahlungssicherheit von Grund auf neu erfinden zu müssen.

Integration mit Agenten, LLMs und Zahlungsdienstleistern

AP2 ist explizit darauf ausgelegt, sich nahtlos in KI-Agenten-Frameworks und bestehende Zahlungssysteme zu integrieren und als Brücke zwischen beiden zu fungieren. Google hat AP2 als Erweiterung seiner Agent2Agent (A2A)-Protokoll- und Model Context Protocol (MCP)-Standards positioniert. Mit anderen Worten, wenn A2A eine generische Sprache für Agenten zur Kommunikation von Aufgaben bereitstellt und MCP standardisiert, wie KI-Modelle Kontext/Tools einbeziehen, dann fügt AP2 eine Transaktionsschicht für den Handel hinzu. Die Protokolle sind komplementär: A2A handhabt die Agent-zu-Agent-Kommunikation (ermöglicht es beispielsweise einem Einkaufsagenten, mit dem Agenten eines Händlers zu sprechen), während AP2 die Agent-zu-Händler-Zahlungsautorisierung innerhalb dieser Interaktionen handhabt. Da AP2 offen und nicht-proprietär ist, soll es Framework-agnostisch sein: Entwickler können es mit Googles eigenem Agent Development Kit (ADK) oder jeder KI-Agentenbibliothek verwenden, und ebenso kann es mit verschiedenen KI-Modellen, einschließlich LLMs, zusammenarbeiten. Ein LLM-basierter Agent könnte AP2 beispielsweise nutzen, indem er die erforderlichen Mandats-Payloads (geleitet von der AP2-Spezifikation) generiert und austauscht, anstatt nur Freitext. Durch die Durchsetzung eines strukturierten Protokolls hilft AP2, die hochrangige Absicht eines KI-Agenten (die aus der Argumentation eines LLM stammen könnte) in konkrete, sichere Transaktionen umzuwandeln.

Auf der Zahlungsseite wurde AP2 in Zusammenarbeit mit traditionellen Zahlungsdienstleistern und Standards entwickelt, anstatt als Rip-and-Replace-System. Das Protokoll ist zahlungsmethodenagnostisch, was bedeutet, dass es eine Vielzahl von Zahlungswegen unterstützen kann – von Kredit-/Debitkartennetzwerken über Banküberweisungen bis hin zu digitalen Geldbörsen – als zugrunde liegende Methode zur Geldbewegung. In seiner ersten Version betont AP2 die Kompatibilität mit Kartenzahlungen, da diese im Online-Handel am häufigsten sind. Das AP2 Payment Mandate ist darauf ausgelegt, sich in den bestehenden Kartenverarbeitungsprozess einzufügen: Es liefert zusätzliche Daten an das Zahlungsnetzwerk (z. B. Visa, Mastercard, Amex) und die ausstellende Bank, dass ein KI-Agent involviert ist und ob der Nutzer anwesend war, wodurch bestehende Betrugserkennungs- und Autorisierungsprüfungen ergänzt werden. Im Wesentlichen verarbeitet AP2 die Zahlung nicht selbst; es ergänzt die Zahlungsanfrage um einen kryptografischen Nachweis der Nutzerabsicht. Dies ermöglicht es Zahlungsdienstleistern, von Agenten initiierte Transaktionen mit angemessener Vorsicht oder Geschwindigkeit zu behandeln (z. B. könnte ein Emittent einen ungewöhnlich aussehenden Kauf genehmigen, wenn er ein gültiges AP2-Mandat sieht, das beweist, dass der Nutzer es vorab genehmigt hat). Insbesondere planen Google und Partner, AP2 weiterzuentwickeln, um auch „Push“-Zahlungsmethoden zu unterstützen – wie Echtzeit-Banküberweisungen (wie Indiens UPI- oder Brasiliens PIX-Systeme) – und andere aufkommende digitale Zahlungsarten. Dies deutet darauf hin, dass die Integration von AP2 über Karten hinausgehen und sich an modernen Zahlungstrends weltweit ausrichten wird.

Für Händler und Zahlungsabwickler würde die Integration von AP2 bedeuten, die zusätzlichen Protokollnachrichten (Mandate) zu unterstützen und Signaturen zu verifizieren. Viele große Zahlungsplattformen sind bereits an der Gestaltung von AP2 beteiligt, sodass wir erwarten können, dass sie Unterstützung dafür aufbauen werden. Zum Beispiel könnten Unternehmen wie Adyen, Worldpay, Paypal, Stripe (nicht explizit im Blog genannt, aber wahrscheinlich interessiert) und andere AP2 in ihre Checkout-APIs oder SDKs integrieren, um einem Agenten zu ermöglichen, eine Zahlung auf standardisierte Weise zu initiieren. Da AP2 eine offene Spezifikation auf GitHub mit Referenzimplementierungen ist, können Zahlungsdienstleister und Technologieplattformen sofort damit experimentieren. Google hat auch einen KI-Agenten-Marktplatz erwähnt, auf dem Drittanbieter-Agenten gelistet werden können – diese Agenten werden voraussichtlich AP2 für alle Transaktionsfähigkeiten unterstützen. In der Praxis könnte ein Unternehmen, das einen KI-Verkaufsassistenten oder Beschaffungsagenten entwickelt, diesen auf diesem Marktplatz listen, und dank AP2 kann dieser Agent Käufe oder Bestellungen zuverlässig ausführen.

Schließlich profitiert die Integrationsgeschichte von AP2 von ihrer breiten Branchenunterstützung. Durch die gemeinsame Entwicklung des Protokolls mit großen Finanzinstituten und Technologieunternehmen stellte Google sicher, dass AP2 mit bestehenden Branchenregeln und Compliance-Anforderungen übereinstimmt. Die Zusammenarbeit mit Zahlungsnetzwerken (z. B. Mastercard, UnionPay), Emittenten (z. B. American Express), Fintechs (z. B. Revolut, Paypal), E-Commerce-Akteuren (z. B. Etsy) und sogar Identitäts-/Sicherheitsanbietern (z. B. Okta, Cloudflare) deutet darauf hin, dass AP2 so konzipiert ist, dass es mit minimaler Reibung in reale Systeme passt. Diese Stakeholder bringen Fachwissen in Bereichen wie KYC (Know Your Customer-Vorschriften), Betrugsprävention und Datenschutz mit, was AP2 hilft, diese Anforderungen von Anfang an zu erfüllen. Zusammenfassend lässt sich sagen, dass AP2 agentenfreundlich und zahlungsdienstleisterfreundlich aufgebaut ist: Es erweitert bestehende KI-Agentenprotokolle, um Transaktionen zu handhaben, und es schichtet sich über bestehende Zahlungsnetzwerke, um deren Infrastruktur zu nutzen und gleichzeitig notwendige Vertrauensgarantien hinzuzufügen.

Sicherheits-, Compliance- und Interoperabilitätsaspekte

Sicherheit und Vertrauen stehen im Mittelpunkt des AP2-Designs. Die Verwendung von Kryptografie (digitale Signaturen auf Mandaten) durch das Protokoll stellt sicher, dass jede kritische Aktion in einer agentischen Transaktion verifizierbar und nachvollziehbar ist. Diese Nicht-Abstreitbarkeit ist entscheidend: Weder der Nutzer noch der Händler können später leugnen, was autorisiert und vereinbart wurde, da die Mandate als sichere Aufzeichnungen dienen. Ein direkter Vorteil liegt in der Betrugsprävention und Streitbeilegung – mit AP2 wäre, wenn ein bösartiger oder fehlerhafter Agent einen nicht autorisierten Kauf versucht, das Fehlen eines gültigen vom Nutzer signierten Mandats offensichtlich, und die Transaktion kann abgelehnt oder rückgängig gemacht werden. Umgekehrt, wenn ein Nutzer behauptet „Ich habe diesen Kauf nie genehmigt“, aber ein Cart Mandate mit seiner kryptografischen Signatur existiert, haben Händler und Emittent starke Beweise, um die Belastung zu unterstützen. Diese Klarheit der Verantwortlichkeit beantwortet ein wichtiges Compliance-Anliegen für die Zahlungsbranche.

Autorisierung & Datenschutz: AP2 erzwingt einen expliziten Autorisierungsschritt (oder mehrere Schritte) vom Nutzer für agentengesteuerte Transaktionen, was mit regulatorischen Trends wie der starken Kundenauthentifizierung übereinstimmt. Das in AP2 verankerte Prinzip der Nutzerkontrolle bedeutet, dass ein Agent keine Gelder ausgeben kann, es sei denn, der Nutzer (oder eine vom Nutzer delegierte Person) hat eine verifizierbare Anweisung dazu gegeben. Selbst in vollständig autonomen Szenarien definiert der Nutzer die Regeln über ein Intent Mandate vorab. Dieser Ansatz kann als analog zur Erteilung einer Vollmacht an den Agenten für spezifische Transaktionen angesehen werden, jedoch auf digital signierte, feingranulare Weise. Aus Datenschutzsicht ist AP2 aufmerksam bezüglich der Datenweitergabe: Das Protokoll verwendet eine rollenbasierte Datenarchitektur, um sicherzustellen, dass sensible Informationen (wie Zahlungsdaten oder persönliche Details) nur an Parteien weitergegeben werden, die sie unbedingt benötigen. Zum Beispiel könnte ein Agent ein Cart Mandate an einen Händler senden, das Artikel- und Preisinformationen enthält, aber die tatsächliche Kartennummer des Nutzers könnte nur über das Payment Mandate an den Zahlungsabwickler weitergegeben werden, nicht an den Agenten oder Händler. Dies minimiert die unnötige Offenlegung von Daten und unterstützt die Einhaltung von Datenschutzgesetzen und PCI-DSS-Regeln für den Umgang mit Zahlungsdaten.

Compliance & Standards: Da AP2 unter Beteiligung etablierter Finanzunternehmen entwickelt wurde, ist es darauf ausgelegt, bestehende Compliance-Standards im Zahlungsverkehr zu erfüllen oder zu ergänzen. Das Protokoll umgeht die üblichen Zahlungsautorisierungsabläufe nicht – stattdessen ergänzt es sie um zusätzliche Beweise und Kennzeichen. Dies bedeutet, dass AP2-Transaktionen weiterhin Betrugserkennungssysteme, 3-D Secure-Prüfungen oder alle erforderlichen regulatorischen Prüfungen nutzen können, wobei die AP2-Mandate als zusätzliche Authentifizierungsfaktoren oder Kontextsignale dienen. Zum Beispiel könnte eine Bank ein Payment Mandate ähnlich einer digitalen Signatur eines Kunden auf einer Transaktion behandeln, was die Einhaltung von Anforderungen an die Nutzerzustimmung potenziell rationalisiert. Darüber hinaus erwähnen die Designer von AP2 explizit die Zusammenarbeit „im Einklang mit Branchenregeln und -standards“. Wir können daraus schließen, dass AP2 im Laufe seiner Entwicklung möglicherweise an formale Standardisierungsgremien (wie das W3C, EMVCo oder ISO) herangetragen wird, um die Übereinstimmung mit globalen Finanzstandards sicherzustellen. Google hat sich zu einer offenen, kollaborativen Weiterentwicklung von AP2, möglicherweise durch Standardisierungsorganisationen, verpflichtet. Dieser offene Prozess wird dazu beitragen, regulatorische Bedenken auszuräumen und eine breite Akzeptanz zu erreichen, ähnlich wie frühere Zahlungsstandards (EMV-Chipkarten, 3-D Secure usw.) eine branchenweite Zusammenarbeit durchliefen.

Interoperabilität: Die Vermeidung von Fragmentierung ist ein Hauptziel von AP2. Zu diesem Zweck ist das Protokoll offen veröffentlicht und für jedermann zur Implementierung oder Integration verfügbar. Es ist nicht an Google Cloud-Dienste gebunden – tatsächlich ist AP2 Open Source (Apache-2-lizenziert) und die Spezifikation sowie der Referenzcode befinden sich in einem öffentlichen GitHub-Repository. Dies fördert die Interoperabilität, da mehrere Anbieter AP2 übernehmen und ihre Systeme dennoch zusammenarbeiten können. Bereits wird das Interoperabilitätsprinzip hervorgehoben: AP2 ist eine Erweiterung bestehender offener Protokolle (A2A, MCP) und nicht-proprietär, was bedeutet, dass es ein wettbewerbsorientiertes Ökosystem von Implementierungen fördert und keine Ein-Anbieter-Lösung. In der Praxis könnte ein von Unternehmen A gebauter KI-Agent eine Transaktion mit einem Händlersystem von Unternehmen B initiieren, wenn beide AP2 befolgen – keine Seite ist an eine Plattform gebunden.

Eine mögliche Sorge ist die Sicherstellung einer konsistenten Akzeptanz: Wenn einige große Akteure ein anderes Protokoll oder einen geschlossenen Ansatz wählen würden, könnte es dennoch zu Fragmentierung kommen. Angesichts der breiten Koalition hinter AP2 scheint es jedoch darauf ausgerichtet zu sein, ein De-facto-Standard zu werden. Die Einbeziehung vieler auf Identität und Sicherheit spezialisierter Unternehmen (z. B. Okta, Cloudflare, Ping Identity) in das AP2-Ökosystem Abbildung: Über 60 Unternehmen aus den Bereichen Finanzen, Technologie und Krypto arbeiten an AP2 zusammen (Teilliste der Partner). deutet darauf hin, dass Interoperabilität und Sicherheit gemeinsam angegangen werden. Diese Partner können dazu beitragen, AP2 in Identitätsverifizierungs-Workflows und Betrugspräventionstools zu integrieren, um sicherzustellen, dass eine AP2-Transaktion systemübergreifend vertrauenswürdig ist.

Aus technologischer Sicht macht die Verwendung weit verbreiteter kryptografischer Techniken (wahrscheinlich JSON-LD- oder JWT-basierte verifizierbare Berechtigungsnachweise, Public-Key-Signaturen usw.) AP2 mit bestehender Sicherheitsinfrastruktur kompatibel. Organisationen können ihre bestehende PKI (Public Key Infrastructure) verwenden, um Schlüssel zum Signieren von Mandaten zu verwalten. AP2 scheint auch die Integration mit dezentralen Identitätssystemen zu antizipieren: Google erwähnt, dass AP2 Möglichkeiten schafft, in Bereichen wie der dezentralen Identität für die Agentenautorisierung zu innovieren. Dies bedeutet, dass AP2 in Zukunft DID (Decentralized Identifier)-Standards oder dezentrale Identifikatorverifizierung nutzen könnte, um Agenten und Nutzer auf vertrauenswürdige Weise zu identifizieren. Ein solcher Ansatz würde die Interoperabilität weiter verbessern, indem er sich nicht auf einen einzigen Identitätsanbieter verlässt. Zusammenfassend lässt sich sagen, dass AP2 Sicherheit durch Kryptografie und klare Verantwortlichkeit betont, darauf abzielt, von Design her Compliance-fähig zu sein, und Interoperabilität durch seinen offenen Standardcharakter und die breite Branchenunterstützung fördert.

Vergleich mit bestehenden Protokollen

AP2 ist ein neuartiges Protokoll, das eine Lücke schließt, die bestehende Zahlungs- und Agenten-Frameworks nicht abgedeckt haben: die Ermöglichung, dass autonome Agenten Zahlungen auf sichere, standardisierte Weise durchführen können. Im Hinblick auf Agentenkommunikationsprotokolle baut AP2 auf früheren Arbeiten wie dem Agent2Agent (A2A)-Protokoll auf. A2A (Anfang 2025 als Open Source veröffentlicht) ermöglicht es verschiedenen KI-Agenten, miteinander zu kommunizieren, unabhängig von ihren zugrunde liegenden Frameworks. A2A selbst definiert jedoch nicht, wie Agenten Transaktionen oder Zahlungen durchführen sollen – es geht mehr um Aufgabenverhandlung und Datenaustausch. AP2 erweitert diese Landschaft, indem es eine Transaktionsschicht hinzufügt, die jeder Agent verwenden kann, wenn eine Konversation zu einem Kauf führt. Im Wesentlichen kann AP2 als komplementär zu A2A und MCP angesehen werden, anstatt sich zu überschneiden: A2A deckt die Aspekte Kommunikation und Zusammenarbeit ab, MCP deckt die Verwendung externer Tools/APIs ab, und AP2 deckt Zahlungen und Handel ab. Zusammen bilden sie einen Stapel von Standards für eine zukünftige „Agenten-Ökonomie“. Dieser modulare Ansatz ist in gewisser Weise analog zu Internetprotokollen: zum Beispiel HTTP für die Datenkommunikation und SSL/TLS für die Sicherheit – hier könnte A2A wie das HTTP der Agenten sein und AP2 die sichere Transaktionsschicht darüber für den Handel.

Beim Vergleich von AP2 mit traditionellen Zahlungsprotokollen und -standards gibt es sowohl Parallelen als auch Unterschiede. Traditionelle Online-Zahlungen (Kreditkarten-Checkouts, PayPal-Transaktionen usw.) beinhalten typischerweise Protokolle wie HTTPS für die sichere Übertragung und Standards wie PCI DSS für die Handhabung von Kartendaten, plus möglicherweise 3-D Secure für zusätzliche Nutzerauthentifizierung. Diese setzen einen nutzergesteuerten Ablauf voraus (Nutzer klickt und gibt möglicherweise einen Einmalcode ein). AP2 hingegen führt eine Möglichkeit ein, dass ein Dritter (der Agent) am Ablauf teilnehmen kann, ohne die Sicherheit zu untergraben. Man könnte das Mandatskonzept von AP2 mit einer Erweiterung der OAuth-ähnlichen delegierten Autorität vergleichen, aber auf Zahlungen angewendet. Bei OAuth kann ein Nutzer einer Anwendung über Tokens begrenzten Zugriff auf ein Konto gewähren; ähnlich gewährt ein Nutzer bei AP2 einem Agenten die Befugnis, unter bestimmten Bedingungen über Mandate Geld auszugeben. Der Hauptunterschied besteht darin, dass die „Tokens“ von AP2 (Mandate) spezifische, signierte Anweisungen für Finanztransaktionen sind, was feingranularer ist als bestehende Zahlungsautorisierungen.

Ein weiterer Vergleichspunkt ist, wie AP2 mit bestehenden E-Commerce-Checkout-Abläufen zusammenhängt. Zum Beispiel verwenden viele E-Commerce-Websites Protokolle wie die W3C Payment Request API oder plattformspezifische SDKs, um Zahlungen zu optimieren. Diese standardisieren hauptsächlich, wie Browser oder Apps Zahlungsinformationen von einem Nutzer sammeln, während AP2 standardisiert, wie ein Agent die Nutzerabsicht gegenüber einem Händler und Zahlungsabwickler beweisen würde. Der Fokus von AP2 auf verifizierbare Absicht und Nicht-Abstreitbarkeit unterscheidet es von einfacheren Zahlungs-APIs. Es fügt eine zusätzliche Vertrauensschicht über den Zahlungsnetzwerken hinzu. Man könnte sagen, AP2 ersetzt die Zahlungsnetzwerke (Visa, ACH, Blockchain usw.) nicht, sondern ergänzt sie. Das Protokoll unterstützt explizit alle Arten von Zahlungsmethoden (sogar Krypto), es geht also mehr darum, die Interaktion des Agenten mit diesen Systemen zu standardisieren, nicht darum, eine neue Zahlungsschiene von Grund auf neu zu schaffen.

Im Bereich der Sicherheits- und Authentifizierungsprotokolle teilt AP2 einen gewissen Geist mit Dingen wie digitalen Signaturen in EMV-Chipkarten oder der Notarisierung in digitalen Verträgen. Zum Beispiel generieren EMV-Chipkartentransaktionen Kryptogramme, um zu beweisen, dass die Karte vorhanden war; AP2 generiert kryptografische Beweise, dass der Agent des Nutzers autorisiert war. Beide zielen darauf ab, Betrug zu verhindern, aber der Umfang von AP2 ist die Agent-Nutzer-Beziehung und die Agent-Händler-Nachrichtenübermittlung, die kein bestehender Zahlungsstandard adressiert. Ein weiterer aufkommender Vergleich ist mit der Kontoabstraktion in Krypto (z. B. ERC-4337), bei der Nutzer vorprogrammierte Wallet-Aktionen autorisieren können. Krypto-Wallets können so eingestellt werden, dass sie bestimmte automatisierte Transaktionen zulassen (wie das automatische Bezahlen eines Abonnements über einen Smart Contract), aber diese sind typischerweise auf eine Blockchain-Umgebung beschränkt. AP2 hingegen zielt darauf ab, plattformübergreifend zu sein – es kann Blockchain für einige Zahlungen nutzen (durch seine Erweiterungen), funktioniert aber auch mit traditionellen Banken.

Es gibt noch kein direktes „Konkurrenz“-Protokoll zu AP2 in der Mainstream-Zahlungsbranche – es scheint der erste konzertierte Versuch eines offenen Standards für KI-Agenten-Zahlungen zu sein. Proprietäre Versuche könnten entstehen (oder sind möglicherweise bereits in einzelnen Unternehmen im Gange), aber die breite Unterstützung von AP2 verschafft ihm einen Vorteil, um der Standard zu werden. Es ist erwähnenswert, dass IBM und andere ein Agent Communication Protocol (ACP) und ähnliche Initiativen für die Agenten-Interoperabilität haben, aber diese umfassen den Zahlungsaspekt nicht in der umfassenden Weise, wie AP2 es tut. Wenn überhaupt, könnte AP2 diese Bemühungen integrieren oder nutzen (zum Beispiel könnten IBMs Agenten-Frameworks AP2 für alle Handelsaufgaben implementieren).

Zusammenfassend lässt sich sagen, dass AP2 sich dadurch auszeichnet, dass es die einzigartige Schnittstelle von KI und Zahlungen anspricht: Wo ältere Zahlungsprotokolle einen menschlichen Nutzer annahmen, nimmt AP2 einen KI-Vermittler an und füllt die daraus resultierende Vertrauenslücke. Es erweitert, anstatt zu kollidieren, bestehende Zahlungsprozesse und ergänzt bestehende Agentenprotokolle wie A2A. Zukünftig könnte AP2 zusammen mit etablierten Standards verwendet werden – zum Beispiel könnte ein AP2 Cart Mandate Hand in Hand mit einem traditionellen Zahlungsgateway-API-Aufruf funktionieren, oder ein AP2 Payment Mandate könnte an eine ISO 8583-Nachricht im Bankwesen angehängt werden. Die offene Natur von AP2 bedeutet auch, dass, falls alternative Ansätze auftauchen, AP2 diese möglicherweise durch gemeinschaftliche Zusammenarbeit aufnehmen oder sich an sie anpassen könnte. In diesem Stadium setzt AP2 einen bisher nicht existierenden Grundstein und pionierisiert effektiv eine neue Protokollschicht im KI- und Zahlungs-Stack.

Implikationen für Web3 und dezentrale Systeme

AP2 wurde von Anfang an so konzipiert, dass es Web3- und kryptowährungsbasierte Zahlungen einschließt. Das Protokoll erkennt an, dass der zukünftige Handel sowohl traditionelle Fiat-Kanäle als auch dezentrale Blockchain-Netzwerke umfassen wird. Wie bereits erwähnt, unterstützt AP2 Zahlungsarten, die von Kreditkarten und Banküberweisungen bis hin zu Stablecoins und Kryptowährungen reichen. Tatsächlich kündigte Google parallel zur Einführung von AP2 eine spezifische Erweiterung für Krypto-Zahlungen namens A2A x402 an. Diese Erweiterung, die in Zusammenarbeit mit Akteuren der Krypto-Branche wie Coinbase, der Ethereum Foundation und MetaMask entwickelt wurde, ist eine „produktionsreife Lösung für agentenbasierte Krypto-Zahlungen“. Der Name „x402“ ist eine Hommage an den HTTP 402 „Payment Required“-Statuscode, der im Web nie weit verbreitet war – die Krypto-Erweiterung von AP2 belebt effektiv den Geist von HTTP 402 für dezentrale Agenten, die sich gegenseitig On-Chain belasten oder bezahlen möchten. Praktisch passt die x402-Erweiterung das Mandatskonzept von AP2 an Blockchain-Transaktionen an. Zum Beispiel könnte ein Agent ein signiertes Intent Mandate von einem Nutzer halten und dann eine On-Chain-Zahlung (z. B. einen Stablecoin senden) ausführen, sobald die Bedingungen erfüllt sind, wobei der Nachweis des Mandats an diese On-Chain-Transaktion angehängt wird. Dies verbindet das Off-Chain-Vertrauens-Framework von AP2 mit der Trustless-Natur der Blockchain und bietet das Beste aus beiden Welten: eine On-Chain-Zahlung, der Off-Chain-Parteien (Nutzer, Händler) vertrauen können, dass sie vom Nutzer autorisiert wurde.

Die Synergie zwischen AP2 und Web3 zeigt sich in der Liste der Kollaborateure. Krypto-Börsen (Coinbase), Blockchain-Stiftungen (Ethereum Foundation), Krypto-Wallets (MetaMask) und Web3-Startups (z. B. Mysten Labs von Sui, Lightspark für Lightning Network) sind an der Entwicklung von AP2 beteiligt. Ihre Teilnahme deutet darauf hin, dass AP2 als komplementär zu dezentralen Finanzen und nicht als konkurrierend angesehen wird. Durch die Schaffung einer Standardmethode für KI-Agenten zur Interaktion mit Krypto-Zahlungen könnte AP2 die Nutzung von Krypto in KI-gesteuerten Anwendungen vorantreiben. Zum Beispiel könnte ein KI-Agent AP2 verwenden, um nahtlos zwischen der Zahlung mit einer Kreditkarte oder der Zahlung mit einem Stablecoin zu wechseln, je nach Nutzerpräferenz oder Händlerakzeptanz. Die A2A x402-Erweiterung ermöglicht es Agenten speziell, Dienste über On-Chain-Mittel zu monetarisieren oder zu bezahlen, was in dezentralen Marktplätzen der Zukunft entscheidend sein könnte. Sie deutet darauf hin, dass Agenten, die möglicherweise als autonome Wirtschaftsakteure auf der Blockchain laufen (ein Konzept, das einige als DACs oder DAOs bezeichnen), in der Lage sein könnten, Zahlungen für Dienste zu handhaben (wie das Bezahlen einer kleinen Gebühr an einen anderen Agenten für Informationen). AP2 könnte die Lingua Franca für solche Transaktionen bereitstellen und sicherstellen, dass selbst in einem dezentralen Netzwerk der Agent ein nachweisbares Mandat für sein Handeln hat.

Im Hinblick auf den Wettbewerb könnte man fragen: Machen rein dezentrale Lösungen AP2 überflüssig oder umgekehrt? Es ist wahrscheinlich, dass AP2 mit Web3-Lösungen in einem geschichteten Ansatz koexistieren wird. Dezentrale Finanzen bieten vertrauenslose Ausführung (Smart Contracts usw.), lösen aber nicht von Natur aus das Problem „Hatte eine KI die Erlaubnis eines Menschen, dies zu tun?“. AP2 adressiert genau diese Mensch-zu-KI-Vertrauensverbindung, die wichtig bleibt, auch wenn die Zahlung selbst On-Chain erfolgt. Anstatt mit Blockchain-Protokollen zu konkurrieren, kann AP2 als Brücke zwischen ihnen und der Off-Chain-Welt angesehen werden. Zum Beispiel könnte ein Smart Contract eine bestimmte Transaktion nur akzeptieren, wenn sie einen Verweis auf eine gültige AP2-Mandatssignatur enthält – etwas, das implementiert werden könnte, um Off-Chain-Absichtsnachweise mit On-Chain-Durchsetzung zu kombinieren. Umgekehrt könnten, wenn es Krypto-native Agenten-Frameworks gibt (einige Blockchain-Projekte erforschen autonome Agenten, die mit Krypto-Geldern operieren), diese ihre eigenen Methoden zur Autorisierung entwickeln. Die breite Branchenunterstützung von AP2 könnte jedoch selbst diese Projekte dazu bewegen, AP2 für Konsistenz zu übernehmen oder zu integrieren.

Ein weiterer Aspekt sind dezentrale Identität und Berechtigungsnachweise. Die Verwendung von verifizierbaren Berechtigungsnachweisen durch AP2 steht sehr im Einklang mit dem Web3-Ansatz zur Identität (z. B. DIDs und VCs, wie vom W3C standardisiert). Dies bedeutet, dass AP2 in dezentrale Identitätssysteme integriert werden könnte – zum Beispiel könnte die DID eines Nutzers verwendet werden, um ein AP2-Mandat zu signieren, das ein Händler gegen eine Blockchain oder einen Identitätshub verifizieren könnte. Die Erwähnung der Erforschung dezentraler Identität für die Agentenautorisierung bekräftigt, dass AP2 Web3-Identitätsinnovationen zur dezentralen Überprüfung von Agenten- und Nutzeridentitäten nutzen könnte, anstatt sich nur auf zentralisierte Autoritäten zu verlassen. Dies ist ein Synergiepunkt, da sowohl AP2 als auch Web3 darauf abzielen, Nutzern mehr Kontrolle und kryptografische Beweise für ihre Handlungen zu geben.

Potenzielle Konflikte könnten nur entstehen, wenn man ein vollständig dezentrales Handelsökosystem ohne Rolle für große Intermediäre vorstellt – in diesem Szenario könnte AP2 (ursprünglich von Google und Partnern vorangetrieben) zu zentralisiert oder von traditionellen Akteuren regiert sein? Es ist wichtig zu beachten, dass AP2 Open Source ist und als standardisierbar gedacht ist, also nicht proprietär für Google. Dies macht es für die Web3-Community, die offene Protokolle schätzt, schmackhafter. Wenn AP2 weit verbreitet wird, könnte es den Bedarf an separaten Web3-spezifischen Zahlungsprotokollen für Agenten reduzieren und dadurch Bemühungen vereinheitlichen. Andererseits könnten einige Blockchain-Projekte rein On-Chain-Autorisierungsmechanismen (wie Multi-Signatur-Wallets oder On-Chain-Treuhandlogik) für Agententransaktionen bevorzugen, insbesondere in Trustless-Umgebungen ohne zentrale Autoritäten. Diese könnten als alternative Ansätze angesehen werden, würden aber wahrscheinlich Nischen bleiben, es sei denn, sie können mit Off-Chain-Systemen interagieren. AP2, indem es beide Welten abdeckt, könnte tatsächlich die Web3-Akzeptanz beschleunigen, indem es Krypto einfach zu einer weiteren Zahlungsmethode macht, die ein KI-Agent nahtlos nutzen kann. Tatsächlich bemerkte ein Partner, dass „Stablecoins eine offensichtliche Lösung für Skalierungsprobleme [für] agentische Systeme mit Legacy-Infrastruktur bieten“, was hervorhebt, dass Krypto AP2 bei der Bewältigung von Skalierungs- oder grenzüberschreitenden Szenarien ergänzen kann. Währenddessen bemerkte der Engineering Lead von Coinbase, dass die Integration der x402-Krypto-Erweiterung in AP2 „Sinn machte – es ist ein natürlicher Spielplatz für Agenten... es ist aufregend zu sehen, wie Agenten, die sich gegenseitig bezahlen, in der KI-Community Anklang finden“. Dies impliziert eine Vision, in der KI-Agenten, die über Krypto-Netzwerke Transaktionen durchführen, nicht nur eine theoretische Idee, sondern ein erwartetes Ergebnis sind, wobei AP2 als Katalysator fungiert.

Zusammenfassend lässt sich sagen, dass AP2 für Web3 hochrelevant ist: Es integriert Krypto-Zahlungen als erstklassigen Bürger und stimmt mit dezentralen Identitäts- und Berechtigungsnachweisstandards überein. Anstatt direkt mit dezentralen Zahlungsprotokollen zu konkurrieren, interagiert AP2 wahrscheinlich mit ihnen – es stellt die Autorisierungsschicht bereit, während die dezentralen Systeme die Wertübertragung handhaben. Da die Grenze zwischen traditionellen Finanzen und Krypto verschwimmt (mit Stablecoins, CBDCs usw.), könnte ein einheitliches Protokoll wie AP2 als universeller Adapter zwischen KI-Agenten und jeder Form von Geld, zentralisiert oder dezentralisiert, dienen.

Branchenakzeptanz, Partnerschaften und Roadmap

Eine der größten Stärken von AP2 ist die umfassende Branchenunterstützung, die es bereits in diesem frühen Stadium genießt. Google Cloud kündigte an, dass es „mit einer vielfältigen Gruppe von mehr als 60 Organisationen“ an AP2 zusammenarbeitet. Dazu gehören große Kreditkartennetzwerke (z. B. Mastercard, American Express, JCB, UnionPay), führende Fintech- und Zahlungsabwickler (PayPal, Worldpay, Adyen, Checkout.com, Stripes Konkurrenten), E-Commerce- und Online-Marktplätze (Etsy, Shopify (über Partner wie Stripe oder andere), Lazada, Zalora), Unternehmenstechnologieunternehmen (Salesforce, ServiceNow, Oracle möglicherweise über Partner, Dell, Red Hat), Identitäts- und Sicherheitsfirmen (Okta, Ping Identity, Cloudflare), Beratungsfirmen (Deloitte, Accenture) und Krypto-/Web3-Organisationen (Coinbase, Ethereum Foundation, MetaMask, Mysten Labs, Lightspark) und andere. Eine so breite Palette von Teilnehmern ist ein starker Indikator für das Brancheninteresse und die wahrscheinliche Akzeptanz. Viele dieser Partner haben öffentlich ihre Unterstützung bekundet. Zum Beispiel betonte der Co-CEO von Adyen die Notwendigkeit eines „gemeinsamen Regelwerks“ für den agentischen Handel und sieht AP2 als natürliche Erweiterung ihrer Mission, Händler mit neuen Zahlungsbausteinen zu unterstützen. Der EVP von American Express erklärte, dass AP2 wichtig sei für „die nächste Generation digitaler Zahlungen“, bei der Vertrauen und Verantwortlichkeit von größter Bedeutung sind. Das Team von Coinbase ist, wie bereits erwähnt, begeistert von der Integration von Krypto-Zahlungen in AP2. Dieser Chor der Unterstützung zeigt, dass viele in der Branche AP2 als den wahrscheinlichen Standard für KI-gesteuerte Zahlungen ansehen und daran interessiert sind, es so zu gestalten, dass es ihren Anforderungen entspricht.

Aus Akzeptanzsicht befindet sich AP2 derzeit im Spezifikations- und frühen Implementierungsstadium (angekündigt im September 2025). Die vollständige technische Spezifikation, Dokumentation und einige Referenzimplementierungen (in Sprachen wie Python) sind auf dem GitHub-Repository des Projekts für Entwickler zum Experimentieren verfügbar. Google hat auch angedeutet, dass AP2 in seine Produkte und Dienste für Agenten integriert wird. Ein bemerkenswertes Beispiel ist der bereits erwähnte KI-Agenten-Marktplatz: Dies ist eine Plattform, auf der Drittanbieter-KI-Agenten Nutzern angeboten werden können (wahrscheinlich Teil von Googles generativem KI-Ökosystem). Google sagt, dass viele Partner, die Agenten entwickeln, diese auf dem Marktplatz mit „neuen, transaktionsfähigen Erfahrungen, die durch AP2 ermöglicht werden“, zur Verfügung stellen werden. Dies impliziert, dass AP2, wenn der Marktplatz startet oder wächst, das Rückgrat für jeden Agenten sein wird, der eine Transaktion durchführen muss, sei es der autonome Kauf von Software vom Google Cloud Marketplace oder ein Agent, der Waren/Dienstleistungen für einen Nutzer kauft. Unternehmensanwendungsfälle wie autonome Beschaffung (ein Agent kauft von einem anderen im Auftrag eines Unternehmens) und automatische Lizenzskalierung wurden ausdrücklich als Bereiche genannt, die AP2 bald erleichtern könnte.

Im Hinblick auf eine Roadmap geben die AP2-Dokumentation und Googles Ankündigung einige klare Hinweise:

  • Kurzfristig: Fortsetzung der offenen Entwicklung des Protokolls mit Community-Input. Das GitHub-Repository wird mit zusätzlichen Referenzimplementierungen und Verbesserungen aktualisiert, sobald reale Tests stattfinden. Wir können erwarten, dass Bibliotheken/SDKs entstehen, die die Integration von AP2 in Agentenanwendungen erleichtern. Auch könnten erste Pilotprogramme oder Machbarkeitsnachweise von den Partnerunternehmen durchgeführt werden. Da viele große Zahlungsunternehmen beteiligt sind, könnten sie AP2 in kontrollierten Umgebungen testen (z. B. eine AP2-fähige Checkout-Option in einer kleinen Benutzer-Beta).
  • Standards und Governance: Google hat sich verpflichtet, AP2 in ein offenes Governance-Modell zu überführen, möglicherweise über Standardisierungsgremien. Dies könnte bedeuten, AP2 Organisationen wie der Linux Foundation (wie es beim A2A-Protokoll geschehen ist) vorzulegen oder ein Konsortium zu bilden, um es zu pflegen. Die Linux Foundation, W3C oder sogar Gremien wie ISO/TC68 (Finanzdienstleistungen) könnten für die Formalisierung von AP2 in Frage kommen. Eine offene Governance würde der Branche die Gewissheit geben, dass AP2 nicht unter der Kontrolle eines einzelnen Unternehmens steht und neutral und inklusiv bleiben wird.
  • Funktionserweiterung: Technisch umfasst die Roadmap die Erweiterung der Unterstützung auf weitere Zahlungsarten und Anwendungsfälle. Wie in der Spezifikation erwähnt, wird sich der Fokus nach Karten auf „Push“-Zahlungen wie Banküberweisungen und lokale Echtzeit-Zahlungssysteme sowie digitale Währungen verlagern. Dies bedeutet, dass AP2 darlegen wird, wie ein Intent/Cart/Payment Mandate beispielsweise für eine direkte Banküberweisung oder eine Krypto-Wallet-Überweisung funktioniert, wo der Ablauf etwas anders ist als bei Kartenzahlungen. Die A2A x402-Erweiterung ist eine solche Erweiterung für Krypto; ähnlich könnten wir eine Erweiterung für Open-Banking-APIs oder eine für B2B-Rechnungsszenarien sehen.
  • Sicherheits- und Compliance-Verbesserungen: Sobald reale Transaktionen über AP2 laufen, wird es eine genaue Prüfung durch Regulierungsbehörden und Sicherheitsforscher geben. Der offene Prozess wird wahrscheinlich iterativ daran arbeiten, Mandate noch robuster zu machen (z. B. Sicherstellung der Standardisierung von Mandatsformaten, möglicherweise unter Verwendung des W3C Verifiable Credentials-Formats usw.). Die Integration mit Identitätslösungen (möglicherweise unter Nutzung von Biometrie für die Nutzerunterschrift von Mandaten oder die Verknüpfung von Mandaten mit digitalen Identitäts-Wallets) könnte Teil der Roadmap sein, um das Vertrauen zu stärken.
  • Ökosystem-Tools: Ein aufkommendes Ökosystem ist wahrscheinlich. Bereits jetzt bemerken Startups Lücken – zum Beispiel erwähnt die Vellum.ai-Analyse ein Startup namens Autumn, das „Billing-Infrastruktur für KI“ aufbaut, im Wesentlichen Tools auf Basis von Stripe, um komplexe Preisgestaltung für KI-Dienste zu handhaben. Wenn AP2 an Fahrt gewinnt, können wir mehr Tools wie agenten-fokussierte Zahlungsgateways, Mandatsverwaltungs-Dashboards, Agenten-Identitätsverifizierungsdienste usw. erwarten. Googles Beteiligung bedeutet, dass AP2 auch in seine Cloud-Produkte integriert werden könnte – stellen Sie sich AP2-Unterstützung in Dialogflow oder Vertex AI Agents Tools vor, die es einem Agenten mit einem Klick ermöglichen, Transaktionen abzuwickeln (wobei alle notwendigen Schlüssel und Zertifikate in Google Cloud verwaltet werden).

Insgesamt erinnert die Entwicklung von AP2 an andere große Industriestandards: ein anfänglicher Start mit einem starken Sponsor (Google), eine breite Branchenkoalition, Open-Source-Referenzcode, gefolgt von iterativer Verbesserung und schrittweiser Akzeptanz in realen Produkten. Die Tatsache, dass AP2 alle Akteure einlädt, „diese Zukunft mit uns zu gestalten“, unterstreicht, dass die Roadmap auf Zusammenarbeit basiert. Wenn der Schwung anhält, könnte AP2 in wenigen Jahren so alltäglich werden wie Protokolle wie OAuth oder OpenID Connect heute in ihren Bereichen – eine unsichtbare, aber kritische Schicht, die Funktionalität über Dienste hinweg ermöglicht.

Fazit

AP2 (Agents/Agent Payments Protocol) stellt einen bedeutenden Schritt in eine Zukunft dar, in der KI-Agenten so zuverlässig und sicher Transaktionen durchführen können wie Menschen. Technisch führt es einen cleveren Mechanismus von verifizierbaren Mandaten und Berechtigungsnachweisen ein, der Vertrauen in agentengesteuerte Transaktionen schafft und sicherstellt, dass die Nutzerabsicht explizit und durchsetzbar ist. Seine offene, erweiterbare Architektur ermöglicht die Integration sowohl in die aufstrebenden KI-Agenten-Frameworks als auch in die etablierte Finanzinfrastruktur. Durch die Adressierung der Kernanliegen Autorisierung, Authentizität und Verantwortlichkeit legt AP2 den Grundstein dafür, dass der KI-gesteuerte Handel florieren kann, ohne Sicherheit oder Nutzerkontrolle zu opfern.

Die Einführung von AP2 kann als Schaffung einer neuen Grundlage – ähnlich wie frühe Internetprotokolle das Web ermöglichten – für das, was manche als „Agenten-Ökonomie“ bezeichnen, angesehen werden. Es ebnet den Weg für unzählige Innovationen: persönliche Einkaufsagenten, automatische Schnäppchenfinder-Bots, autonome Lieferkettenagenten und mehr, die alle unter einem gemeinsamen Vertrauens-Framework agieren. Wichtig ist, dass das inklusive Design von AP2 (das alles von Kreditkarten bis Krypto umfasst) es an der Schnittstelle von traditionellen Finanzen und Web3 positioniert und diese Welten möglicherweise durch ein gemeinsames agentenvermitteltes Protokoll überbrückt.

Die bisherige Branchenreaktion war sehr positiv, wobei eine breite Koalition signalisiert, dass AP2 wahrscheinlich ein weit verbreiteter Standard werden wird. Der Erfolg von AP2 wird von der fortgesetzten Zusammenarbeit und realen Tests abhängen, aber seine Aussichten sind angesichts des klaren Bedarfs, den es adressiert, stark. Im weiteren Sinne veranschaulicht AP2, wie sich Technologie entwickelt: Eine neue Fähigkeit (KI-Agenten) entstand, die alte Annahmen brach, und die Lösung bestand darin, einen neuen offenen Standard zu entwickeln, um diese Fähigkeit zu berücksichtigen. Indem Google und seine Partner jetzt in ein offenes, sicherheitsorientiertes Protokoll investieren, bauen sie effektiv die Vertrauensarchitektur auf, die für die nächste Ära des Handels erforderlich ist. Wie das Sprichwort sagt: „Der beste Weg, die Zukunft vorherzusagen, ist, sie zu bauen“ – AP2 ist eine Wette auf eine Zukunft, in der KI-Agenten nahtlos Transaktionen für uns abwickeln, und es konstruiert aktiv das Vertrauen und die Regeln, die notwendig sind, um diese Zukunft praktikabel zu machen.

Quellen:

  • Google Cloud Blog – „KI-Handel mit dem neuen Agent Payments Protocol (AP2) vorantreiben“ (16. September 2025)
  • AP2 GitHub Dokumentation – „Agent Payments Protocol Spezifikation und Übersicht“
  • Vellum AI Blog – „Googles AP2: Ein neues Protokoll für KI-Agenten-Zahlungen“ (Analyse)
  • Medium Artikel – „Google Agent Payments Protocol (AP2)“ (Zusammenfassung von Tahir, September 2025)
  • Partnerzitate zu AP2 (Google Cloud Blog)
  • A2A x402 Erweiterung (AP2 Krypto-Zahlungserweiterung) – GitHub README

Der Aufstieg von KI-Agenten im DeFi-Bereich: Transformation von Multi-Chain-Strategien

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Die meisten DeFi-Nutzer öffnen immer noch fünf Browser-Tabs, um eine einzige Yield-Strategie abzuschließen – sie prüfen die Zinssätze auf Aave, bridgen Assets auf Stargate, zahlen auf Curve ein und hoffen, dass sie keine Gas-Spitze verpassen. Aber eine stille Revolution ist im Gange. Autonome KI-Agenten erledigen all das nun geräuschlos über mehrere Blockchains hinweg gleichzeitig, während Sie schlafen.

Im Jahr 2025 stieg die Aktivität von KI-Agenten auf Blockchains um 86 %. Allein die Agenten von Fetch.ai verwalten über 1 Milliarde US-Dollar in Hyperliquid-Derivaten und führen autonom Trades mit 100-fachem Hebel aus. Die KI-gesteuerten Vaults von Yearn optimieren 5 Milliarden US-Dollar über Yield-Pools hinweg ohne menschliches Zutun. Und Plattformen wie XION und Particle Network bauen die Abstraktionsebenen auf, die all dies für Endnutzer unsichtbar machen. Die Frage ist nicht mehr, ob KI-Agenten Multi-Chain-DeFi orchestrieren können – sondern wie schnell die Infrastruktur reifen wird und was das für alle bedeutet, von Privatanwendern bis hin zu institutionellen Desks.

Datenmärkte treffen auf KI-Training: Wie Blockchain die 23-Milliarden-Dollar-Datenpreiskrise löst

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Die KI-Branche steht vor einem Paradoxon: Die weltweite Datenproduktion explodiert bis 2025 von 33 Zettabyte auf 175 Zettabyte, doch die Qualität der KI-Modelle stagniert. Das Problem ist nicht der Datenmangel – es liegt daran, dass Datenanbieter keine Möglichkeit haben, den Wert ihrer Beiträge zu erfassen. Hier kommen Blockchain-basierte Datenmärkte wie Ocean Protocol, LazAI und ZENi ins Spiel, die KI-Trainingsdaten von einer kostenlosen Ressource in eine monetarisierbare Anlageklasse verwandeln, die bis 2034 einen Wert von 23,18 Milliarden US-Dollar erreichen wird.

Das 23-Milliarden-Dollar-Datenpreisfindungsproblem

Die Kosten für das KI-Training stiegen von 2023 bis 2025 um 89 %, wobei die Datenerfassung und -annotation bis zu 80 % der Budgets von Machine-Learning-Projekten verschlingen. Dennoch erhalten Datenersteller – Einzelpersonen, die Suchanfragen, Social-Media-Interaktionen und Verhaltensmuster generieren – nichts, während Tech-Giganten Werte in Milliardenhöhe abschöpfen.

Der Markt für KI-Trainingsdatensätze offenbart diese Diskrepanz. Mit einem geschätzten Wert von 3,59 Milliarden US-Dollar im Jahr 2025 wird erwartet, dass der Markt bis 2034 23,18 Milliarden US-Dollar bei einer jährlichen Wachstumsrate (CAGR) von 22,9 % erreichen wird. Eine andere Prognose beziffert das Jahr 2026 auf 7,48 Milliarden US-Dollar und erreicht bis 2035 52,41 Milliarden US-Dollar bei einem jährlichen Wachstum von 24,16 %.

Aber wer schöpft diesen Wert ab? Derzeit erzielen zentralisierte Plattformen Gewinne, während die Datenersteller keinerlei Vergütung erhalten. Label-Rauschen, inkonsistentes Tagging und fehlender Kontext treiben die Kosten in die Höhe, doch den Mitwirkenden fehlen die Anreize, die Qualität zu verbessern. Datenschutzbedenken betreffen 28 % der Unternehmen und schränken die Zugänglichkeit von Datensätzen genau dann ein, wenn die KI vielfältige und qualitativ hochwertige Inputs benötigt.

Ocean Protocol: Tokenisierung der 100-Millionen-Dollar-Datenökonomie

Ocean Protocol adressiert das Thema Eigentum, indem es Datenanbietern ermöglicht, Datensätze zu tokenisieren und für das KI-Training verfügbar zu machen, ohne die Kontrolle abzugeben. Seit dem Start der Ocean Nodes im August 2024 ist das Netzwerk auf über 1,4 Millionen Nodes in mehr als 70 Ländern angewachsen, hat über 35.000 Datensätze integriert und KI-bezogene Datentransaktionen im Wert von mehr als 100 Millionen US-Dollar ermöglicht.

Die Produkt-Roadmap für 2025 umfasst drei entscheidende Komponenten:

Inference Pipelines ermöglichen das End-to-End-Training und Deployment von KI-Modellen direkt auf der Infrastruktur von Ocean. Datenanbieter tokenisieren proprietäre Datensätze, legen Preise fest und erzielen Einnahmen jedes Mal, wenn ein KI-Modell ihre Daten für das Training oder die Inferenz nutzt.

Ocean Enterprise Onboarding führt Unternehmen des Ökosystems vom Pilotprojekt zur Produktion. Ocean Enterprise v1, das im 3. Quartal 2025 startet, bietet eine konforme, produktionsreife Datenplattform für institutionelle Kunden, die einen prüffähigen, datenschutzfreundlichen Datenaustausch benötigen.

Node Analytics führt Dashboards zur Verfolgung von Leistung, Nutzung und ROI ein. Partner wie NetMind steuern 2.000 GPUs bei, während Aethir bei der Skalierung von Ocean Nodes hilft, um große KI-Workloads zu unterstützen und eine dezentrale Rechenschicht für das KI-Training zu schaffen.

Der Revenue-Sharing-Mechanismus von Ocean funktioniert über Smart Contracts: Datenanbieter legen Zugriffsbedingungen fest, KI-Entwickler zahlen pro Nutzung und die Blockchain verteilt Zahlungen automatisch an alle Mitwirkenden. Dies verwandelt Daten von einem einmaligen Verkauf in einen kontinuierlichen Einnahmestrom, der an die Modellleistung gebunden ist.

LazAI: Verifizierbare KI-Interaktionsdaten auf Metis

LazAI führt einen grundlegend anderen Ansatz ein – die Monetarisierung von KI-Interaktionsdaten, nicht nur statischen Datensätzen. Jedes Gespräch mit den Flaggschiff-Agenten von LazAI (Lazbubu, SoulTarot) generiert Data Anchoring Tokens (DATs), die als rückverfolgbare, verifizierbare Aufzeichnungen von KI-generierten Outputs fungieren.

Das Alpha Mainnet startete im Dezember 2025 auf einer unternehmensgerechten Infrastruktur mit QBFT-Konsens und $METIS-basiertem Settlement. DATs tokenisieren und monetarisieren KI-Datensätze und -Modelle als verifizierbare Assets mit transparentem Eigentum und Umsatzverteilung.

Warum ist das wichtig? Traditionelles KI-Training verwendet statische Datensätze, die zum Zeitpunkt der Erfassung eingefroren sind. LazAI erfasst dynamische Interaktionsdaten – Benutzeranfragen, Modellantworten, Verfeinerungsschleifen – und erstellt Trainingsdatensätze, die reale Nutzungsmuster widerspiegeln. Diese Daten sind exponentiell wertvoller für die Feinabstimmung von Modellen, da sie Signale für menschliches Feedback enthalten, die in den Gesprächsfluss eingebettet sind.

Das System umfasst drei zentrale Innovationen:

Proof-of-Stake Validator Staking sichert KI-Datenpipelines. Validatoren staken Token, um die Datenintegrität zu verifizieren, verdienen Belohnungen für eine genaue Validierung und müssen mit Strafen rechnen, wenn sie betrügerische Daten genehmigen.

DAT Minting mit Revenue Sharing ermöglicht es Nutzern, die wertvolle Interaktionsdaten generieren, DATs zu prägen (Minting), die ihre Beiträge repräsentieren. Wenn KI-Unternehmen diese Datensätze für das Modelltraining erwerben, fließen die Einnahmen basierend auf ihrem proportionalen Beitrag automatisch an alle DAT-Inhaber.

iDAO Governance etabliert dezentrale KI-Kollektive, in denen Datenbeitragende gemeinsam über On-Chain-Abstimmungen die Kuratierung von Datensätzen, Preisstrategien und Qualitätsstandards steuern.

Die Roadmap für 2026 sieht ZK-basierte Privatsphäre vor (Nutzer können Interaktionsdaten monetarisieren, ohne persönliche Informationen preiszugeben), dezentrale Rechenmärkte (das Training findet auf einer verteilten Infrastruktur statt statt in zentralisierten Clouds) sowie die Auswertung multimodaler Daten (Video-, Audio-, Bildinteraktionen über Text hinaus).

ZENi: Die Intelligence Data Layer für KI-Agenten

ZENi agiert an der Schnittstelle von Web3 und KI, indem es die „InfoFi-Ökonomie“ vorantreibt – ein dezentrales Netzwerk, das den traditionellen und blockchainbasierten Handel durch KI-gestützte Intelligenz überbrückt. Das Unternehmen sammelte 1,5 Millionen US-Dollar in einer Seed-Finanzierungsrunde unter der Leitung von Waterdrip Capital und Mindfulness Capital.

Im Kern steht der InfoFi Data Layer, eine Hochdurchsatz-Engine für Verhaltensintelligenz, die täglich über 1 Million Signale auf X / Twitter, Telegram, Discord und On-Chain-Aktivitäten verarbeitet. ZENi identifiziert Muster im Nutzerverhalten, Stimmungsschwankungen und Community-Engagement – Daten, die für das Training von KI-Agenten entscheidend, aber in großem Maßstab schwer zu erfassen sind.

Die Plattform operiert als dreiteiliges System:

AI Data Analytic Agent identifiziert Zielgruppen mit hoher Intention und Einfluss-Cluster durch die Analyse von Social Graphs, On-Chain-Transaktionen und Engagement-Metriken. Dies erstellt Verhaltensdatensätze, die nicht nur zeigen, was Nutzer tun, sondern auch, warum sie Entscheidungen treffen.

AIGC (AI-Generated Content) Agent entwirft personalisierte Kampagnen mithilfe von Erkenntnissen aus dem Data Layer. Durch das Verständnis von Nutzerpräferenzen und Community-Dynamiken generiert der Agent Inhalte, die für spezifische Zielgruppensegmente optimiert sind.

AI Execution Agent aktiviert die Reichweite über die ZENi dApp und schließt so den Kreislauf von der Datenerfassung bis zur Monetarisierung. Nutzer erhalten eine Vergütung, wenn ihre Verhaltensdaten zu erfolgreichen Kampagnen beitragen.

ZENi bedient bereits Partner in den Bereichen E-Commerce, Gaming und Web3 mit 480.000 registrierten Nutzern und 80.000 täglich aktiven Nutzern. Das Geschäftsmodell monetarisiert Verhaltensintelligenz: Unternehmen zahlen für den Zugriff auf die KI-verarbeiteten Datensätze von ZENi, und die Einnahmen fließen an die Nutzer zurück, deren Daten diese Erkenntnisse ermöglicht haben.

Der Wettbewerbsvorteil der Blockchain in Datenmärkten

Warum ist die Blockchain für die Datenmonetarisierung wichtig? Drei technische Fähigkeiten machen dezentrale Datenmärkte gegenüber zentralisierten Alternativen überlegen:

Granulare Umsatz-Zuweisung Smart Contracts ermöglichen eine ausgeklügelte Umsatzbeteiligung, bei der mehrere Mitwirkende an einem KI-Modell automatisch eine proportionale Vergütung basierend auf der Nutzung erhalten. Ein einzelner Trainingsdatensatz könnte Eingaben von 10.000 Nutzern aggregieren – die Blockchain verfolgt jeden Beitrag und verteilt Mikrozahlungen pro Modell-Inferenz.

Traditionelle Systeme können diese Komplexität nicht bewältigen. Zahlungsabwickler erheben feste Gebühren (2–3 %), die für Mikrozahlungen ungeeignet sind, und zentralisierten Plattformen mangelt es an Transparenz darüber, wer was beigetragen hat. Die Blockchain löst beides: Transaktionskosten nahe Null über Layer-2-Lösungen und unveränderliche Zuweisung über On-Chain-Provenienz.

Verifizierbare Datenherkunft Die Data Anchoring Tokens von LazAI beweisen den Datenursprung, ohne den zugrunde liegenden Inhalt offenzulegen. KI-Unternehmen, die Modelle trainieren, können verifizieren, dass sie lizenzierte, hochwertige Daten verwenden und keine abgegriffenen Webinhalte von fragwürdiger Legalität.

Dies adressiert ein kritisches Risiko: Datenschutzbestimmungen betreffen 28 % der Unternehmen und schränken die Zugänglichkeit von Datensätzen ein. Blockchainbasierte Datenmärkte implementieren datenschutzfreundliche Verifizierungen – sie beweisen Datenqualität und Lizenzierung, ohne persönliche Informationen preiszugeben.

Dezentralisiertes KI-Training Das Knotennetzwerk von Ocean Protocol demonstriert, wie verteilte Infrastrukturen Kosten senken. Anstatt Cloud-Anbietern 2–5 US-Dollar pro GPU-Stunde zu zahlen, bringen dezentrale Netzwerke ungenutzte Rechenkapazitäten (Gaming-PCs, Rechenzentren mit freien Kapazitäten) mit dem Bedarf an KI-Training zusammen – bei einer Kostensenkung von 50–85 %.

Die Blockchain koordiniert diese Komplexität durch Smart Contracts, die die Aufgabenverteilung, Zahlungsabwicklung und Qualitätsprüfung regeln. Teilnehmer staken Token, um teilzunehmen, verdienen Belohnungen für ehrliche Berechnungen und riskieren Slashing-Strafen für die Lieferung falscher Ergebnisse.

Der Weg zu 52 Milliarden US-Dollar: Marktkräfte treiben die Adaption voran

Drei konvergierende Trends beschleunigen das Wachstum des Blockchain-Datenmarktes in Richtung der Prognose von 52,41 Milliarden US-Dollar bis 2035:

Diversifizierung von KI-Modellen Die Ära der massiven Basismodelle (GPT-4, Claude, Gemini), die auf allen Internet-Texten trainiert wurden, geht zu Ende. Spezialisierte Modelle für das Gesundheitswesen, Finanzen, Rechtsdienstleistungen und vertikale Anwendungen erfordern domänenspezifische Datensätze, die von zentralisierten Plattformen nicht kuratiert werden.

Blockchain-Datenmärkte brillieren bei Nischen-Datensätzen. Ein Anbieter von medizinischen Bildgebungsverfahren kann Radiologie-Scans mit diagnostischen Anmerkungen tokenisieren, Nutzungsbedingungen festlegen, die die Zustimmung des Patienten erfordern, und Einnahmen aus jedem KI-Modell erzielen, das mit seinen Daten trainiert wurde. Dies ist mit zentralisierten Plattformen, denen es an granularer Zugriffskontrolle und Zuweisung mangelt, unmöglich umzusetzen.

Regulierungsdruck Datenschutzbestimmungen (DSGVO, CCPA, Chinas Gesetz zum Schutz persönlicher Informationen) schreiben eine einwilligungsbasierte Datenerfassung vor. Blockchainbasierte Märkte implementieren die Einwilligung als programmierbare Logik – Nutzer unterzeichnen Berechtigungen kryptografisch, auf Daten kann nur unter festgelegten Bedingungen zugegriffen werden, und Smart Contracts setzen die Compliance automatisch durch.

Der Fokus von Ocean Enterprise v1 auf Compliance adressiert dies direkt. Finanzinstitute und Gesundheitsdienstleister benötigen eine prüfbare Datenhistorie, die beweist, dass jeder für das Modelltraining verwendete Datensatz über die ordnungsgemäße Lizenzierung verfügte. Die Blockchain bietet unveränderliche Audit-Trails, die regulatorische Anforderungen erfüllen.

Qualität vor Quantität Jüngste Forschungsergebnisse zeigen, dass KI keine endlosen Trainingsdaten benötigt, wenn die Systeme biologischen Gehirnen ähnlicher werden. Dies verschiebt die Anreize von der Sammlung maximaler Datenmengen hin zur Kuratierung hochwertigster Eingaben.

Dezentrale Datenmärkte richten die Anreize richtig aus: Datenersteller verdienen mehr für qualitativ hochwertige Beiträge, da Modelle Premiumpreise für Datensätze zahlen, die die Leistung verbessern. Die Interaktionsdaten von LazAI erfassen menschliche Feedbacksignale (welche Abfragen verfeinert werden, welche Antworten die Nutzer zufriedenstellen), die statische Datensätze übersehen – was sie pro Byte inhärent wertvoller macht.

Herausforderungen: Privatsphäre, Preisgestaltung und Protokollkriege

Trotz der Dynamik stehen Blockchain-Datenmärkte vor strukturellen Herausforderungen:

Privatsphären-Paradoxon Das Training von KI erfordert Datentransparenz (Modelle benötigen Zugang zu tatsächlichen Inhalten), während Datenschutzbestimmungen eine Datenminimierung fordern. Aktuelle Lösungen wie föderiertes Lernen (Training auf verschlüsselten Daten) erhöhen die Kosten um das 3- bis 5-fache im Vergleich zum zentralisierten Training.

Zero-Knowledge-Proofs bieten einen Weg nach vorne – sie beweisen die Datenqualität, ohne den Inhalt offenzulegen –, erhöhen jedoch den Rechenaufwand. Die ZK-Roadmap von LazAI für 2026 adressiert dies, obwohl produktionsreife Implementierungen noch 12 bis 18 Monate entfernt sind.

Preisfindung Was ist eine Social-Media-Interaktion wert? Ein medizinisches Bild mit diagnostischer Annotation? Blockchain-Märkten fehlen etablierte Preismechanismen für neuartige Datentypen.

Der Ansatz des Ocean Protocols – Anbieter Preise festlegen zu lassen und die Marktdynamik den Wert bestimmen zu lassen – funktioniert für standardisierte Datensätze, hat jedoch Schwierigkeiten bei einzigartigen, proprietären Daten. Prognosemärkte oder KI-gestützte dynamische Preisgestaltung könnten dies lösen, führen jedoch beide Oracle-Abhängigkeiten (externe Preisfeeds) ein, die die Dezentralisierung untergraben.

Interoperabilitäts-Fragmentierung Das Ocean Protocol läuft auf Ethereum, LazAI auf Metis, ZENi lässt sich in mehrere Chains integrieren. Daten, die auf einer Plattform tokenisiert wurden, können nicht einfach auf eine andere übertragen werden, was die Liquidität fragmentiert.

Cross-Chain-Bridges und universelle Datenstandards (wie dezentrale Identifikatoren für Datensätze) könnten dies lösen, doch das Ökosystem befindet sich noch in einem frühen Stadium. Der Blockchain-KI-Markt, der von 680,89 Millionen imJahr2025auf4,338Milliardenim Jahr 2025 auf 4,338 Milliarden bis 2034 anwachsen soll, deutet darauf hin, dass eine Konsolidierung um die gewinnenden Protokolle noch Jahre entfernt ist.

Was das für Entwickler bedeutet

Für Teams, die KI-Anwendungen entwickeln, bieten Blockchain-Datenmärkte drei unmittelbare Vorteile:

Zugang zu proprietären Datensätzen Die über 35.000 Datensätze des Ocean Protocols umfassen proprietäre Trainingsdaten, die über herkömmliche Kanäle nicht verfügbar sind. Medizinische Bildgebung, Finanztransaktionen, Verhaltensanalysen von Web3-Anwendungen – spezialisierte Datensätze, die von zentralisierten Plattformen nicht kuratiert werden.

Compliance-fähige Infrastruktur Die integrierte Lizenzierung, das Einwilligungsmanagement und die Audit-Trails von Ocean Enterprise v1 lösen regulatorische Probleme. Anstatt eigene Data-Governance-Systeme zu entwickeln, übernehmen Entwickler „Compliance by Design“ durch Smart Contracts, die Datennutzungsbedingungen erzwingen.

Kostensenkung Dezentrale Rechennetzwerke unterbieten Cloud-Anbieter bei Batch-Training-Workloads um 50 bis 85 %. Die Partnerschaft von Ocean mit NetMind (2.000 GPUs) und Aethir zeigt, wie tokenisierte GPU-Marktplätze Angebot und Nachfrage zu geringeren Kosten als AWS / GCP / Azure zusammenführen.

BlockEden.xyz bietet RPC-Infrastruktur auf Enterprise-Niveau für Blockchain-basierte KI-Anwendungen. Unabhängig davon, ob Sie auf Ethereum (Ocean Protocol), Metis (LazAI) oder Multi-Chain-Plattformen aufbauen, gewährleisten unsere zuverlässigen Node-Services, dass Ihre KI-Datenpipelines online und leistungsfähig bleiben. Erkunden Sie unseren API-Marktplatz, um Ihre KI-Systeme mit für Skalierung ausgelegten Blockchain-Netzwerken zu verbinden.

Der Wendepunkt 2026

Drei Katalysatoren positionieren 2026 als das Jahr des Wendepunkts für Blockchain-Datenmärkte:

Produktionsstart von Ocean Enterprise v1 (Q3 2025) Der erste konforme Datenmarktplatz auf institutionellem Niveau geht live. Wenn Ocean auch nur 5 % des Marktes für KI-Trainingsdatensätze von 7,48 Milliarden imJahr2026erobert,fließen374Millionenim Jahr 2026 erobert, fließen 374 Millionen an Datentransaktionen durch Blockchain-basierte Infrastrukturen.

LazAI ZK-Privatsphären-Implementierung (2026) Zero-Knowledge-Proofs ermöglichen es Nutzern, Interaktionsdaten zu monetarisieren, ohne die Privatsphäre zu gefährden. Dies erschließt die Akzeptanz im Massenmarkt – Hunderte Millionen von Social-Media-Nutzern, Suchmaschinenanfragen und E-Commerce-Sitzungen werden durch DATs monetarisierbar.

Integration von föderiertem Lernen KI-gestütztes föderiertes Lernen ermöglicht Modelltraining ohne Zentralisierung der Daten. Blockchain fügt die Wertzuweisung hinzu: Anstatt dass Google Modelle auf Android-Nutzerdaten ohne Entschädigung trainiert, verteilen föderierte Systeme, die auf der Blockchain laufen, die Einnahmen an alle Datenlieferanten.

Diese Konvergenz bedeutet, dass sich das KI-Training von „alle Daten sammeln, zentral trainieren, nichts bezahlen“ hin zu „auf verteilten Daten trainieren, Mitwirkende entschädigen, Herkunft verifizieren“ verschiebt. Die Blockchain ermöglicht diesen Übergang nicht nur – sie ist der einzige Technologie-Stack, der in der Lage ist, Millionen von Datenanbietern mit automatischer Umsatzverteilung und kryptografischer Verifizierung zu koordinieren.

Fazit: Daten werden programmierbar

Das Wachstum des Marktes für KI-Trainingsdaten von 3,59 Milliarden imJahr2025auf23bis52Milliardenim Jahr 2025 auf 23 bis 52 Milliarden bis 2034 stellt mehr als nur eine Marktexpansion dar. Es ist eine fundamentale Verschiebung in der Art und Weise, wie wir Informationen bewerten.

Das Ocean Protocol beweist, dass Daten wie Finanzanlagen tokenisiert, bepreist und gehandelt werden können, während die Kontrolle der Anbieter gewahrt bleibt. LazAI zeigt, dass KI-Interaktionsdaten – die früher als flüchtig verworfen wurden – zu wertvollen Trainingseingaben werden, wenn sie ordnungsgemäß erfasst und verifiziert werden. ZENi zeigt, dass Verhaltensintelligenz extrahiert, von KI verarbeitet und über dezentrale Märkte monetarisiert werden kann.

Zusammen transformieren diese Plattformen Daten von einem Rohmaterial, das von Tech-Giganten extrahiert wird, in eine programmierbare Asset-Klasse, bei der die Schöpfer den Wert abschöpfen. Die globale Datenexplosion von 33 auf 175 Zettabyte ist nur dann von Bedeutung, wenn Qualität die Quantität schlägt – und Blockchain-basierte Märkte richten Anreize so aus, dass hochwertige Beiträge belohnt werden.

Wenn Datenersteller Einnahmen proportional zu ihren Beiträgen erzielen, wenn KI-Unternehmen faire Preise für hochwertige Inputs zahlen und wenn Smart Contracts die Zuordnung über Millionen von Teilnehmern automatisieren, lösen wir nicht nur das Problem der Datenpreisgestaltung. Wir bauen eine Wirtschaft auf, in der Informationen einen intrinsischen Wert haben, die Herkunft überprüfbar ist und die Mitwirkenden endlich den Wohlstand abschöpfen, den ihre Daten generieren.

Das ist kein Markttrend. Es ist ein Paradigmenwechsel – und er ist bereits On-Chain live.

Der Aufstieg pragmatischer Privatsphäre: Compliance und Vertraulichkeit in der Blockchain in Einklang bringen

· 17 Min. Lesezeit
Dora Noda
Software Engineer

Die Blockchain-Branche steht an einem Wendepunkt, an dem Privatsphäre keine binäre Entscheidung mehr ist. In den Anfangsjahren von Krypto war das Narrativ klar: absolute Privatsphäre um jeden Preis, Transparenz nur wenn nötig und Widerstand gegen jede Form von Überwachung. Doch im Jahr 2026 ist ein tiefgreifender Wandel im Gange. Der Aufstieg der dezentralen pragmatischen KI (DePAI)-Infrastruktur signalisiert eine neue Ära, in der regulierungsfreundliche Privatsphäre-Tools nicht nur akzeptiert werden – sie werden zum Standard.

Dies ist kein Rückzug von den Grundsätzen der Privatsphäre. Es ist eine Entwicklung hin zu einem differenzierteren Verständnis: Privatsphäre und die Einhaltung regulatorischer Vorschriften (Compliance) können koexistieren und müssen es tatsächlich auch, wenn Blockchain und KI eine institutionelle Akzeptanz in großem Maßstab erreichen sollen.

Das Ende von „Privatsphäre um jeden Preis“

Jahrelang dominierte der Privatsphäre-Maximalismus den Blockchain-Diskurs. Projekte wie Monero und frühe Versionen von privatsphäre-orientierten Protokollen setzten auf absolute Anonymität. Die Philosophie war einfach: Nutzer verdienen vollständige finanzielle Privatsphäre, und jeder Kompromiss stellte einen Verrat an den Gründungsprinzipien von Krypto dar.

Doch diese absolutistische Haltung schuf ein kritisches Problem. Während Privatsphäre unerlässlich ist, um ehrliche Nutzer vor Überwachung und Front-Running zu schützen, wurde sie auch zu einem Schutzschild für illegale Aktivitäten. Regulatoren weltweit begannen, Privacy Coins mit Misstrauen zu begegnen, was zu Delistings an großen Börsen und vollständigen Verboten in mehreren Jurisdiktionen führte.

Wie Cointelegraph berichtet, ist 2026 das Jahr, in dem pragmatische Privatsphäre durchstartet, mit neuen Projekten, die konforme Formen der Privatsphäre für Institutionen angehen, und wachsendem Interesse an bestehenden Privacy Coins wie Zcash. Die wichtigste Erkenntnis: Privatsphäre ist nicht binär. Weder vollständige Transparenz noch absolute Privatsphäre sind in der realen Welt praktikabel, denn während Privatsphäre für ehrliche Nutzer unerlässlich ist, kann sie auch von Kriminellen genutzt werden, um der Strafverfolgung zu entgehen.

Die Menschen beginnen zu akzeptieren, Kompromisse einzugehen, die die Privatsphäre in begrenzten Kontexten einschränken, um Protokolle widerstandsfähiger gegen Bedrohungen zu machen. Dies stellt einen grundlegenden Wandel im Ansatz der Blockchain-Community zum Thema Privatsphäre dar.

Definition von pragmatischer Privatsphäre

Was genau ist also pragmatische Privatsphäre? Laut Anaptyss bezieht sich pragmatische Privatsphäre auf die strategische Implementierung von Privatsphäre-Maßnahmen, die Nutzer- und Geschäftsdaten schützen, ohne regulatorische Anforderungen zu verletzen, und so sicherstellen, dass Finanzgeschäfte sowohl sicher als auch regelkonform sind.

Dieser Ansatz erkennt an, dass verschiedene Teilnehmer im Blockchain-Ökosystem unterschiedliche Bedürfnisse an die Privatsphäre haben:

  • Privatanwender benötigen Schutz vor Massenüberwachung und Daten-Harvesting
  • Institutionelle Investoren benötigen Vertraulichkeit, um Front-Running ihrer Handelsstrategien zu verhindern
  • Unternehmen müssen strenge AML / KYC-Vorgaben erfüllen und gleichzeitig sensible Geschäftsinformationen schützen
  • KI-Agenten benötigen verifizierbare Berechnungen, ohne proprietäre Algorithmen oder Trainingsdaten preiszugeben

Die Lösung liegt nicht darin, sich zwischen Privatsphäre und Compliance zu entscheiden, sondern darin, eine Infrastruktur aufzubauen, die beides gleichzeitig ermöglicht.

zkKYC: Privatsphärenschonende Identitätsprüfung

Eine der vielversprechendsten Entwicklungen in der pragmatischen Privatsphäre ist das Aufkommen von Zero-Knowledge Know Your Customer (zkKYC)-Lösungen. Traditionelle KYC-Prozesse verlangen von den Nutzern, sensible persönliche Dokumente wiederholt an mehrere Plattformen zu übermitteln, was zahlreiche Honeypots für personenbezogene Daten schafft, die anfällig für Sicherheitsverletzungen sind.

zkKYC kehrt dieses Modell um. Wie zkMe erklärt, kombiniert ihr zkKYC-Dienst die Zero-Knowledge Proof (ZKP)-Technologie mit vollständiger FATF-Compliance. Ein regulierter KYC-Anbieter verifiziert den Nutzer off-chain nach Standard-AML- und Identitätsprüfungsverfahren, aber die Protokolle erfassen keine Identitätsdaten. Stattdessen verifizieren sie die Einhaltung kryptografisch.

Der Mechanismus ist elegant: Smart Contracts prüfen automatisch einen Zero-Knowledge-Proof, bevor sie den Zugriff auf bestimmte Dienste erlauben oder große Transaktionen verarbeiten. Nutzer beweisen, dass sie die Compliance-Anforderungen erfüllen – Alter, Wohnsitz, Status auf keiner Sanktionsliste –, ohne tatsächliche Identitätsdaten an das Protokoll oder andere Nutzer preiszugeben.

Laut Studio AM geschieht dies bereits in einigen Blockchain-Ökosystemen: Nutzer weisen ihr Alter oder ihren Wohnsitz mit einem ZKP nach, bevor sie auf bestimmte dezentrale Finanzdienste (DeFi) zugreifen. Große Finanzinstitute werden darauf aufmerksam. Die Deutsche Bank und Privado ID haben Proof of Concepts durchgeführt, die eine Blockchain-basierte Identitätsverifizierung unter Verwendung von Zero-Knowledge-Anmeldedaten demonstrieren.

Am bedeutendsten ist vielleicht, dass Google im Juli 2025 nach der Zusammenarbeit mit der deutschen Sparkassen-Finanzgruppe seine Zero-Knowledge-Proof-Bibliotheken als Open Source zur Verfügung gestellt hat, was auf wachsende institutionelle Investitionen in eine privatsphärenschonende Identitätsinfrastruktur hindeutet.

zkTLS: Das Web verifizierbar machen

Während zkKYC die Identitätsverifizierung adressiert, löst eine andere Technologie ein ebenso kritisches Problem: wie man verifizierbare Web2-Daten in Blockchain-Systeme bringt, ohne den Datenschutz oder die Sicherheit zu gefährden. Vorhang auf für zkTLS (Zero-Knowledge Transport Layer Security).

Traditionelles TLS – die Verschlüsselung, die jede HTTPS-Verbindung sichert – hat eine entscheidende Einschränkung: Es bietet Vertraulichkeit, aber keine Verifizierbarkeit. Mit anderen Worten: Während TLS sicherstellt, dass Informationen während der Übertragung verschlüsselt sind, erzeugt es keinen Beweis dafür, dass die verschlüsselte Interaktion auf eine Weise stattgefunden hat, die unabhängig verifiziert werden kann.

zkTLS löst dies, indem es Zero-Knowledge-Proofs in das TLS-Verschlüsselungssystem integriert. Durch die Verwendung von MPC-TLS und Zero-Knowledge-Techniken ermöglicht zkTLS einem Client, kryptografisch verifizierbare Beweise und Attestierungen von echten HTTPS-Sitzungen zu erstellen.

Wie zkPass es beschreibt, generiert zkTLS einen Zero-Knowledge-Proof (z. B. zk-SNARK), der bestätigt, dass Daten von einem bestimmten Server (identifiziert durch seinen öffentlichen Schlüssel und seine Domain) über eine legitime TLS-Sitzung abgerufen wurden, ohne den Sitzungsschlüssel oder die Klartextdaten preiszugeben.

Die Auswirkungen sind tiefgreifend. Traditionelle APIs können leicht deaktiviert oder zensiert werden, während zkTLS sicherstellt, dass Nutzer weiterhin auf ihre Daten zugreifen können, solange sie über eine HTTPS-Verbindung verfügen. Dies ermöglicht es, praktisch alle Web2-Daten auf einer Blockchain auf verifizierbare und erlaubnisfreie Weise zu nutzen.

Jüngste Implementierungen demonstrieren die Reife der Technologie. Der zkTLS-Coprozessor von Brevis beweist beim Abrufen von Daten aus einer Webquelle, dass der Inhalt über eine echte TLS-Sitzung von der authentischen Domain abgerufen wurde und dass die Daten nicht manipuliert wurden.

Auf der FOSDEM 2026 präsentierte das TLSNotary-Projekt die Befreiung von Nutzerdaten mit zkTLS und demonstrierte, wie Nutzer Fakten über ihre privaten Daten – Kontostände, Kredit-Scores, Transaktionsverläufe – beweisen können, ohne die zugrunde liegenden Informationen offenzulegen.

Verifizierbare KI-Berechnung: Das fehlende Puzzleteil für die institutionelle Adoption

Datenschutzwahrende Identitäts- und Datenverifizierung bereiten den Weg, aber das transformativste Element der DePAI-Infrastruktur ist die verifizierbare KI-Berechnung. Da KI-Agenten zu wirtschaftlich aktiven Teilnehmern in Blockchain-Ökosystemen werden, verlagert sich die Frage von „Kann die KI das tun?“ zu „Können Sie beweisen, dass die KI dies korrekt getan hat?“.

Diese Verifizierungsanforderung ist nicht akademisch. Laut DecentralGPT reicht Leistung allein nicht aus, wenn KI Teil von Finanz-, Automatisierungs- und Agenten-Workflows wird. In Web3 lautet die Frage auch: Können Sie beweisen, was passiert ist? Ende Dezember 2025 schlossen sich Cysic und Inference Labs zusammen, um eine skalierbare Infrastruktur für verifizierbare KI-Anwendungen aufzubauen, die dezentrales Computing mit Verifizierungs-Frameworks kombiniert, die für reale Anwendungen entwickelt wurden.

Die institutionelle Notwendigkeit für verifizierbare Berechnungen ist klar. Wie in einer Analyse von Alexis M. Adams festgestellt wurde, ist der Übergang zu einer deterministischen KI-Infrastruktur der einzige gangbare Weg für Organisationen, um die multijurisdiktionellen Anforderungen des EU AI Act, der US-Gesetze auf Bundesstaatsebene für Frontier-KI und der steigenden Erwartungen des Cyber-Versicherungsmarktes zu erfüllen.

Der globale Markt für KI-Governance spiegelt diese Dringlichkeit wider: Mit einem Wert von etwa 429,8 Millionen imJahr2026wirderlautderselbenAnalysebis2033voraussichtlich4,2Milliardenim Jahr 2026 wird er laut derselben Analyse bis 2033 voraussichtlich 4,2 Milliarden erreichen.

Aber die Verifizierung steht vor einer kritischen Lücke. Wie Keyrus feststellt, erfordert der KI-Einsatz Vertrauen in digitale Identitäten, aber Unternehmen können nicht validieren, wer – oder was – KI-Systeme tatsächlich bedient. Wenn Organisationen legitime KI-Agenten nicht zuverlässig von gegnerisch kontrollierten Betrügern unterscheiden können, können sie KI-Systemen nicht vertrauensvoll Zugang zu sensiblen Daten oder Entscheidungsbefugnissen gewähren.

Hier schafft die Konvergenz von zkKYC, zkTLS und verifizierbarer Berechnung eine vollständige Lösung. KI-Agenten können ihre Identität beweisen (zkKYC), beweisen, dass sie Daten korrekt von autorisierten Quellen abgerufen haben (zkTLS), und beweisen, dass sie Ergebnisse korrekt berechnet haben (verifizierbare Berechnung) – und das alles, ohne sensible Geschäftslogik oder Trainingsdaten offenzulegen.

Der institutionelle Vorstoß zur Compliance

Diese Technologien entstehen nicht in einem Vakuum. Die institutionelle Nachfrage nach konformer Datenschutz-Infrastruktur beschleunigt sich, angetrieben durch regulatorischen Druck und geschäftliche Notwendigkeiten.

Große Finanzinstitute erkennen, dass ihre Blockchain-Strategien ohne Datenschutz ins Stocken geraten werden. Laut WEEX Crypto News benötigen institutionelle Investoren Vertraulichkeit, um Front-Running ihrer Strategien zu verhindern, müssen jedoch gleichzeitig strenge AML / KYC-Mandate erfüllen. Zero-Knowledge-Proofs gewinnen als Lösung an Bedeutung, da sie es Institutionen ermöglichen, Compliance nachzuweisen, ohne sensible zugrunde liegende Daten der öffentlichen Blockchain preiszugeben.

Die Regulierungslandschaft von 2026 lässt keinen Raum für Unklarheiten. Der EU AI Act tritt 2026 in die allgemeine Anwendung, und Regulierungsbehörden über verschiedene Gerichtsbarkeiten hinweg erwarten dokumentierte Governance-Programme, nicht nur Richtlinien, so SecurePrivacy.ai. Die vollständige Durchsetzung gilt für hochriskante KI-Systeme, die in kritischen Infrastrukturen, im Bildungswesen, im Beschäftigungssektor, in wesentlichen Dienstleistungen und in der Strafverfolgung eingesetzt werden.

In den Vereinigten Staaten setzten bis Ende 2025 19 Bundesstaaten umfassende Datenschutzgesetze durch, wobei 2026 mehrere neue Statuten in Kraft treten, was die Compliance-Verpflichtungen für den Datenschutz über mehrere Bundesstaaten hinweg erschwert. Colorado und Kalifornien haben „neurale Daten“ (und Colorado zusätzlich „biologische Daten“) zu den Definitionen „sensibler“ Daten hinzugefügt, wie von Nixon Peabody berichtet.

Diese regulatorische Konvergenz schafft einen starken Anreiz: Organisationen, die auf einer konformen, verifizierbaren Infrastruktur aufbauen, gewinnen einen Wettbewerbsvorteil, während diejenigen, die am Datenschutz-Maximalismus festhalten, von institutionellen Märkten ausgeschlossen werden.

Datenintegrität als Betriebssystem für KI

Über Compliance hinaus ermöglicht die verifizierbare Berechnung etwas Grundlegenderes: Datenintegrität als Betriebssystem für eine verantwortungsbewusste KI.

Wie Precisely anmerkt, wird Governance im Jahr 2026 nichts mehr sein, was Organisationen nach der Bereitstellung hinzufügen – sie wird von Anfang an in die Strukturierung, Interpretation und Überwachung von Daten integriert sein. Datenintegrität wird als Betriebssystem für verantwortungsbewusste KI dienen. Von semantischer Klarheit und Erklärbarkeit bis hin zu Compliance, Auditierbarkeit und Kontrolle über KI-generierte Daten – die Integrität wird entscheiden, ob KI sicher skalieren und dauerhaften Wert liefern kann.

Dieser Wandel hat tiefgreifende Auswirkungen darauf, wie KI-Agenten in Blockchain-Netzwerken agieren. Anstatt undurchsichtiger Blackboxes werden KI-Systeme durch Design auditierbar, verifizierbar und steuerbar. Smart Contracts können Beschränkungen für das Verhalten der KI durchsetzen, die Korrektheit von Berechnungen verifizieren und unveränderliche Audit-Trails erstellen – und das alles unter Wahrung der Privatsphäre proprietärer Algorithmen und Trainingsdaten.

Die MIT Sloan Management Review identifiziert dies als einen der fünf wichtigsten Trends in den Bereichen KI und Data Science für 2026, wobei betont wird, dass vertrauenswürdige KI eine verifizierbare Herkunft (Provenance) und erklärbare Entscheidungsprozesse erfordert.

Dezentrale Identität: Die Basisschicht

Diesen Technologien liegt ein umfassenderer Wandel hin zu dezentraler Identität und Verifiable Credentials zugrunde. Wie Indicio erklärt, ändert die dezentrale Identität die Ausgangslage – anstatt persönliche Daten an einem zentralen Ort zu verifizieren, besitzen Einzelpersonen ihre Daten und teilen sie mit einer Zustimmung, die mithilfe von Kryptografie unabhängig verifiziert werden kann.

Dieses Modell kehrt traditionelle Identitätssysteme um. Anstatt zahlreiche Kopien von Identitätsdokumenten verstreut in Datenbanken zu erstellen, führen Nutzer einen einzigen verifizierbaren Berechtigungsnachweis (Verifiable Credential) und legen selektiv nur die spezifischen Attribute offen, die für die jeweilige Interaktion erforderlich sind.

Für KI-Agenten erstreckt sich dieses Modell über die menschliche Identität hinaus. Agenten können über verifizierbare Berechtigungsnachweise verfügen, die ihre Trainingsherkunft, Betriebsparameter, Prüfhistorie und ihren Autorisierungsumfang bestätigen. Dies schafft einen Vertrauensrahmen, in dem Agenten autonom interagieren können und dennoch rechenschaftspflichtig bleiben.

Vom Experimentieren zum Einsatz

Die entscheidende Transformation im Jahr 2026 ist der Übergang von theoretischen Rahmenbedingungen zu produktiven Einsätzen. Laut der Analyse von XT Exchange wird dezentrale KI bis 2026 über das Experimentierstadium hinausgehen und in den praktischen Einsatz übergehen. Es bestehen jedoch weiterhin wesentliche Einschränkungen, darunter die Skalierung von KI-Workloads, die Wahrung des Datenschutzes und die Steuerung offener KI-Systeme.

Diese Einschränkungen sind genau das, was die DePAI-Infrastruktur adressiert. Durch die Kombination von zkKYC für die Identität, zkTLS für die Datenverifizierung und verifizierbarer Berechnung für KI-Operationen schafft die Infrastruktur einen vollständigen Stack für die Bereitstellung von KI-Agenten, die gleichzeitig:

  • Die Privatsphäre von Nutzern und Unternehmen wahren
  • Regulatorische Anforderungen erfüllen
  • Durch Design verifizierbar und auditierbar sind
  • Für institutionelle Workloads skalierbar sind

Der Weg nach vorn: Aufbau einer komponierbaren Privatsphäre

Das letzte Puzzleteil von DePAI ist die Komponierbarkeit (Composability). Wie Blockmanity berichtet, markiert 2026 den Moment, in dem Blockchain „einfach nur die Infrastruktur“ (Plumbing) für KI-Agenten und das globale Finanzwesen wird. Die Infrastruktur muss modular, interoperabel und für Endnutzer unsichtbar sein.

Pragmatische Datenschutz-Tools zeichnen sich durch Komponierbarkeit aus. Ein KI-Agent kann:

  1. Sich mit zkKYC-Zugangsdaten authentifizieren
  2. Verifizierte externe Daten über zkTLS abrufen
  3. Berechnungen mit verifizierbarer Inferenz (Verifiable Inference) durchführen
  4. Ergebnisse On-Chain mit Zero-Knowledge-Proofs der Korrektheit einreichen
  5. Audit-Trails pflegen, ohne sensible Logik offenzulegen

Jede Ebene arbeitet unabhängig, sodass Entwickler datenschutzfreundliche Technologien basierend auf spezifischen Anforderungen kombinieren können. Ein DeFi-Protokoll könnte zkKYC für das Benutzer-Onboarding, zkTLS für das Abrufen von Preis-Feeds und verifizierbare Berechnung für komplexe Finanzkalkulationen erfordern – und alles arbeitet nahtlos zusammen.

Diese Komponierbarkeit erstreckt sich über verschiedene Chains hinweg. Eine Datenschutz-Infrastruktur, die mit Interoperabilitätsstandards erstellt wurde, kann auf Ethereum, Solana, Sui, Aptos und anderen Blockchain-Netzwerken funktionieren und so eine universelle Ebene für konforme, private und verifizierbare Berechnungen schaffen.

Warum dies für Entwickler wichtig ist

Für Entwickler, die die nächste Generation von Blockchain-Anwendungen bauen, stellt die DePAI-Infrastruktur sowohl eine Chance als auch eine Anforderung dar.

Die Chance: Der First-Mover-Vorteil beim Aufbau von Anwendungen, die Institutionen tatsächlich nutzen wollen. Finanzinstitute, Gesundheitsdienstleister, Regierungsbehörden und Unternehmen benötigen alle Blockchain-Lösungen, können aber keine Kompromisse bei Compliance oder Datenschutz eingehen. Anwendungen, die auf einer pragmatischen Datenschutz-Infrastruktur basieren, können diese Märkte bedienen.

Die Anforderung: Regulatorische Rahmenbedingungen konvergieren hin zu Mandaten für verifizierbare, steuerbare KI-Systeme. Anwendungen, die keine Compliance, Auditierbarkeit und den Schutz der Privatsphäre der Nutzer nachweisen können, werden von regulierten Märkten ausgeschlossen sein.

Die technischen Möglichkeiten reifen schnell heran. zkKYC-Lösungen sind produktionsreif, wobei große Finanzinstitute Pilotprojekte durchführen. zkTLS-Implementierungen verarbeiten reale Daten. Frameworks für verifizierbare Berechnungen skalieren, um institutionelle Workloads zu bewältigen.

Was jetzt benötigt wird, ist die Akzeptanz durch die Entwickler. Der Übergang von experimentellen Datenschutz-Tools zur Produktionsinfrastruktur erfordert, dass Entwickler diese Technologien in Anwendungen integrieren, sie in realen Szenarien testen und den Infrastrukturteams Feedback geben.

BlockEden.xyz bietet eine Enterprise-Grade RPC-Infrastruktur für Blockchain-Netzwerke, die datenschutzfreundliche Technologien implementieren. Erkunden Sie unsere Dienste, um auf Fundamenten aufzubauen, die für die DePAI-Ära konzipiert sind.

Fazit: Die pragmatische Zukunft der Privatsphäre

Die DePAI - Explosion im Jahr 2026 stellt mehr als nur technologischen Fortschritt dar. Sie signalisiert eine Reifung der Beziehung der Blockchain zu Privatsphäre, Compliance und institutioneller Adoption.

Die Branche bewegt sich über ideologische Kämpfe zwischen Datenschutz - Maximalisten und Transparenz - Absolutisten hinaus. Pragmatische Privatsphäre erkennt an, dass unterschiedliche Kontexte unterschiedliche Datenschutzgarantien erfordern und dass regulatorische Compliance und Nutzersphäre durch durchdachtes kryptografisches Design koexistieren können.

zkKYC beweist die Identität, ohne sie offenzulegen. zkTLS verifiziert Daten, ohne auf Intermediäre vertrauen zu müssen. Verifizierbare Berechnungen (Verifiable Computation) beweisen die Korrektheit, ohne Algorithmen preiszugeben. Zusammen schaffen diese Technologien eine Infrastrukturschicht, in der KI - Agenten autonom agieren können, Unternehmen Blockchain vertrauensvoll einführen können und Nutzer die Kontrolle über ihre Daten behalten.

Dies ist kein Kompromiss bei den Datenschutzprinzipien. Es ist die Erkenntnis, dass Privatsphäre, um bedeutungsvoll zu sein, innerhalb der regulatorischen und geschäftlichen Realitäten des globalen Finanzwesens tragfähig sein muss. Absolute Privatsphäre, die verboten, von Börsen genommen (delisted) und von der institutionellen Nutzung ausgeschlossen wird, schützt niemanden. Pragmatische Privatsphäre, die sowohl Vertraulichkeit als auch Compliance ermöglicht, löst das Versprechen der Blockchain tatsächlich ein.

Die Entwickler, die diesen Wandel erkennen und heute auf der DePAI - Infrastruktur aufbauen, werden die nächste Ära dezentraler Anwendungen definieren. Die Werkzeuge sind bereit. Die institutionelle Nachfrage ist klar. Das regulatorische Umfeld kristallisiert sich heraus. 2026 ist das Jahr, in dem pragmatische Privatsphäre von der Theorie in den Einsatz übergeht — und die Blockchain - Industrie wird dadurch gestärkt hervorgehen.


Quellen

InfoFis 381 Mio. $ Markt entschlüsselt: Wie vier Vertikale Informationen in handelbare Vermögenswerte verwandeln

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Ihre Fähigkeit, einen aufstrebenden Krypto-Trend vor der Masse zu erkennen, bares Geld wert wäre? Nicht in einem vagen Sinne von „Wissen ist Macht“, sondern ganz wörtlich – mit einem Token-Preis, der an Ihre Erkenntnis gekoppelt ist, und einem Markt, der bereit ist, darauf zu bieten?

Das ist das Versprechen von Information Finance, oder InfoFi. Als Konzept von Vitalik Buterin in seinem Essay vom November 2024 „From prediction markets to info finance“ geprägt, beschreibt InfoFi eine Klasse von Protokollen, die finanzielle Mechanismen nutzen, um Informationen als öffentliches Gut zu extrahieren, zu aggregieren und zu bepreisen. Bis Anfang 2025 war der Sektor auf eine Marktkapitalisierung von 381 Millionen $ angewachsen. Bis Ende 2025 hatte er sich zu einem der am heftigsten umkämpften Schlachtfelder im Web3 entwickelt.

Aber InfoFi ist nicht nur eine Sache. Unter dem Oberbegriff existieren vier verschiedene Vertikalen, jede mit ihrer eigenen Mechanik, ihren Hauptakteuren und ihrer Wettbewerbsdynamik. Zu verstehen, wo jede Vertikale steht – und wo die Linien verschwimmen – ist essenziell für jeden, der versucht, sich intelligent in diesem Bereich zu bewegen.

DeFAI: Wenn KI-Agenten zu den neuen Walen des dezentralen Finanzwesens werden

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Bis 2026 wird der durchschnittliche Nutzer auf einer DeFi-Plattform kein Mensch sein, der vor einem Bildschirm sitzt. Es wird ein autonomer KI-Agent sein, der sein eigenes Krypto-Wallet kontrolliert, On-Chain-Treasuries verwaltet und Ertragsstrategien rund um die Uhr ausführt – ohne Kaffeepausen oder emotionale Handelsentscheidungen. Willkommen in der Ära von DeFAI.

Die Zahlen erzählen eine beeindruckende Geschichte: Stablecoin-fokussierte KI-Agenten haben bereits über 20 Mio. anTotalValueLockedalleinaufBaseerreicht.DerbreitereDeFAIMarktistvon1Mrd.an Total Value Locked allein auf Base erreicht. Der breitere DeFAI-Markt ist von 1 Mrd. auf prognostizierte 10 Mrd. $ bis Ende 2025 explodiert, was einer Verzehnfachung in nur zwölf Monaten entspricht. Und dies ist erst der Anfang.

Was genau ist DeFAI?

DeFAI – die Verschmelzung von dezentralem Finanzwesen (Decentralized Finance) und künstlicher Intelligenz (Artificial Intelligence) – ist mehr als nur ein weiteres Krypto-Modewort. Es ist eine grundlegende Veränderung in der Art und Weise, wie Finanzprotokolle funktionieren und wer (oder was) sie nutzt.

Im Kern umfasst DeFAI drei miteinander verbundene Innovationen:

Autonome Handelsagenten: KI-Systeme, die Marktdaten analysieren, Trades ausführen und Portfolios ohne menschliches Eingreifen verwalten. Diese Agenten können Tausende von Datenpunkten pro Sekunde verarbeiten und Arbitrage-Möglichkeiten sowie Ertragsoptimierungen identifizieren, die menschliche Händler übersehen würden.

Abstraktionsebenen: Schnittstellen für natürliche Sprache, die es jedem ermöglichen, über einfache Befehle mit komplexen DeFi-Protokollen zu interagieren. Anstatt durch mehrere dApps zu navigieren und technische Parameter verstehen zu müssen, können Nutzer einem KI-Agenten einfach sagen: „Verschiebe meine USDC in den Stablecoin-Pool mit der höchsten Rendite.“

KI-gestützte dApps: Dezentrale Anwendungen mit eingebetteter Intelligenz, die Strategien basierend auf Marktbedingungen anpassen, Gaskosten optimieren und sogar potenzielle Exploits vorhersagen können, bevor sie eintreten.

Der Aufstieg der algorithmischen Wale

Der vielleicht faszinierendste Aspekt von DeFAI ist das Aufkommen dessen, was Branchenbeobachter als „algorithmische Wale“ bezeichnen – KI-Agenten, die beträchtliches On-Chain-Kapital kontrollieren und Strategien mit mathematischer Präzision ausführen.

Fungi-Agenten, die im April 2025 auf Base gestartet wurden, sind beispielhaft für diese neue Generation. Diese Agenten konzentrieren sich ausschließlich auf USDC und weisen Mittel über Plattformen wie Aave, Morpho, Moonwell und 0xFluid zu. Ihre Strategie? Hochfrequenz-Rebalancing, optimiert auf Gaseffizienz, ständig auf der Jagd nach den besten risikobereinigten Renditen im gesamten DeFi-Ökosystem.

Es wird erwartet, dass das von KI-Agenten verwaltete Kapital bis 2026 das von traditionellen Hedgefonds übertrifft. Im Gegensatz zu menschlichen Fondsmanagern arbeiten diese Agenten kontinuierlich und reagieren in Echtzeit auf jede Marktbewegung. Sie verkaufen nicht aus Panik während eines Absturzes und kaufen nicht aus FOMO bei Höchstständen – sie folgen ihren mathematischen Modellen mit unerschütterlicher Disziplin.

Untersuchungen von Fetch.ai zeigen, dass KI-Agenten, die in große Sprachmodelle und Blockchain-APIs integriert sind, Strategien basierend auf Zinskurven, Kreditbedingungen und protokollübergreifenden Möglichkeiten optimieren können, für deren Bewertung menschliche Analysten Stunden benötigen würden.

Schlüsselakteure, die die DeFi-Automatisierung neu gestalten

Mehrere Projekte haben sich als führend im DeFAI-Bereich herauskristallisiert und bringen jeweils einzigartige Fähigkeiten ein.

Griffain: Das Tor der natürlichen Sprache

Griffain wurde vom Solana-Kernentwickler Tony Plasencia entwickelt und hat eine Bewertung von 450 Mio. $ erreicht – ein Anstieg von 135 % gegenüber dem Vorquartal. Die Superkraft der Plattform liegt in der Verarbeitung natürlicher Sprache, die es Nutzern ermöglicht, über einfache, menschenähnliche Befehle mit DeFi zu interagieren.

Möchten Sie Ihr Portfolio über fünf Protokolle hinweg neu gewichten? Fragen Sie einfach. Müssen Sie eine komplexe Yield-Farming-Strategie mit automatischem Zinseszins einrichten? Beschreiben Sie es in einfachem Deutsch. Griffain übersetzt Ihre Absicht in präzise On-Chain-Aktionen.

HeyAnon: Vereinfachung der DeFi-Komplexität

HeyAnon wurde vom DeFi-Entwickler Daniele Sesta entwickelt und mit 20 Mio. $ von DWF Labs unterstützt. Es aggregiert Echtzeit-Projektdaten und führt komplexe Operationen über konversationelle Schnittstellen aus. Das Protokoll wurde kürzlich auf Sonic eingeführt und ist eine Partnerschaft mit der IOTA Foundation eingegangen, um das AUTOMATE TypeScript-Framework zu veröffentlichen, das traditionelle Entwicklungswerkzeuge mit DeFAI-Funktionen verbindet.

Orbit: Der Multi-Chain-Assistent

Mit Integrationen in 117 Chains und fast 200 Protokollen stellt Orbit die bisher ehrgeizigste Cross-Chain-DeFAI-Implementierung dar. Unterstützt von Coinbase, Google und der Alliance DAO über das Mutterunternehmen SphereOne, ermöglicht Orbit es Nutzern, Operationen über verschiedene Ökosysteme hinweg über eine einzige KI-Agenten-Schnittstelle auszuführen.

Ritual Network: Die Infrastrukturebene

Während sich die meisten DeFAI-Projekte auf benutzerorientierte Anwendungen konzentrieren, baut Ritual die zugrunde liegende Infrastruktur auf. Ihr Flaggschiffprodukt Infernet verbindet Off-Chain-KI-Berechnungen mit On-Chain-Smart-Contracts. Die Ritual Virtual Machine (EVM++) bettet KI-Operationen direkt in die Ausführungsebene ein und ermöglicht erstklassige KI-Unterstützung innerhalb von Smart Contracts selbst.

Unterstützt durch eine Serie-A-Finanzierung in Höhe von 25 Mio. $ positioniert sich Ritual als die souveräne KI-Ausführungsebene für Web3 – ein grundlegendes Infrastrukturstück, auf dem andere DeFAI-Projekte aufbauen können.

Das zweischneidige Schwert der Sicherheit

Hier wird DeFAI wirklich besorgniserregend. Dieselben KI-Fähigkeiten, die eine effiziente Renditeoptimierung ermöglichen, schaffen auch beispiellose Sicherheitsrisiken.

Die Forschung von Anthropic hat eine erschreckende Statistik ans Licht gebracht: KI-Agenten haben es geschafft, innerhalb von nur einem Jahr die Ausnutzung von Smart-Contract-Schwachstellen von 2 % auf 55,88 % zu steigern. Die potenziellen Exploit-Einnahmen aus KI-gestützten Angriffen haben sich alle 1,3 Monate verdoppelt. Mittlerweile kostet es einen KI-Agenten im Durchschnitt nur 1,22 $, einen Vertrag erschöpfend nach Schwachstellen zu scannen.

Bei Tests mit 2.849 kürzlich bereitgestellten Verträgen ohne bekannte Schwachstellen entdeckten fortschrittliche KI-Agenten zwei neuartige Zero-Day-Exploits und erstellten funktionierenden Angriffscode – ein Beweis dafür, dass profitable, autonome Ausnutzung in der realen Welt nicht nur theoretisch, sondern aktiv machbar ist.

Diese Sicherheitslandschaft hat die Entstehung von „Know Your Agent“ (KYA)-Standards vorangetrieben. Unter diesem Rahmenwerk muss jeder KI-Agent, der mit institutionellen Liquiditätspools oder tokenisierten Real-World Assets interagiert, seine Herkunft verifizieren und die Identität seines Schöpfers oder rechtmäßigen Eigentümers offenlegen.

Marktdynamik und Investitionsflüsse

Das Wachstum des DeFAI-Marktes spiegelt breitere Trends sowohl im Krypto-Bereich als auch in der künstlichen Intelligenz wider:

  • Gesamtmarktkapitalisierung von KI-Agent-Token: 17 Milliarden $ am Höchstpunkt (CoinGecko)
  • Bewertung des DeFAI-Sektors: 16,93 Milliarden $ Stand Januar 2025, was 34,7 % des gesamten Krypto-KI-Marktes entspricht
  • Auto-Compounding-Vaults: 5,1 Milliarden $ an Einlagen (2025)
  • Staked Stablecoin-Pools: 11,7 Milliarden $, besonders beliebt in volatilen Märkten
  • Liquid Yield Tokenization: Über 2,3 Milliarden $ über Pendle und Ether.fi hinweg

AIXBT, die von Virtuals entwickelte KI-gesteuerte Market-Intelligence-Plattform, beherrscht über 33 % der gesamten Aufmerksamkeit für KI-Agent-Token – obwohl neuere Agenten wie Griffain und HeyAnon schnell an Boden gewinnen.

Mehr als 60 % der langfristigen DeFi-Nutzer nehmen mittlerweile monatlich am Staking oder Liquidity Mining teil, wobei viele zunehmend auf KI-Agenten vertrauen, um ihre Strategien zu optimieren.

Die Revolution der Renditeoptimierung

Traditionelles Yield Farming ist bekanntermaßen komplex. Die APYs schwanken ständig, Protokolle führen neue Anreize ein und der Impermanent Loss lauert hinter jeder Liquiditätsbereitstellung. KI-Agenten verwandeln diese Komplexität in handhabbare Automatisierung.

Moderne DeFAI-Agenten können:

  • Protokolle in Echtzeit bewerten: Vergleich von risikobereinigten Renditen in hunderten von Pools gleichzeitig
  • Optimale Ein- und Ausstiegspunkte berechnen: Berücksichtigung von Gas-Kosten, Slippage und Timing
  • Assets dynamisch umschichten: Kapital bewegen, um Renditen zu jagen, ohne dass manuelle Eingriffe erforderlich sind
  • Impermanent Loss minimieren: Durch ausgeklügelte Hedging-Strategien und Timing-Optimierung

KI-gesteuerte Robo-Treasury-Agenten haben sich als Effizienzschicht etabliert, die Liquidität zwischen Lending-Desks, Automated Market-Making-Pools und sogar tokenisierten Schatzwechseln (Treasury Bills) neu verteilt – alles als Reaktion auf sich ändernde Renditekurven und Kreditbedingungen.

Regulatorische Realitäten und Herausforderungen

Mit dem Wachstum von DeFAI werden auch die Regulierungsbehörden aufmerksam. Das „Know Your Agent“-Rahmenwerk stellt den ersten bedeutenden Versuch dar, Aufsicht in die Welt der autonomen Finanzagenten zu bringen.

Zu den wichtigsten Anforderungen unter den neu entstehenden KYA-Standards gehören:

  • Verifizierung der Herkunft und des Eigentums des Agenten
  • Offenlegung algorithmischer Strategien für institutionelle Interaktionen
  • Prüfpfade (Audit Trails) für vom Agenten ausgeführte Transaktionen
  • Haftungsrahmen für Fehlfunktionen oder Exploits von Agenten

Diese Regulierungen erzeugen Spannungen innerhalb der Krypto-Community. Einige argumentieren, dass die Forderung nach Identitätsoffenlegung die Grundprinzipien von DeFi wie Pseudonymität und Permissionlessness untergräbt. Andere behaupten, dass KI-Agenten ohne ein gewisses Rahmenwerk zu Vektoren für Marktmanipulation, Geldwäsche oder systemische Risiken werden könnten.

Ausblick: Die Landschaft im Jahr 2026

Mehrere Trends werden wahrscheinlich die Entwicklung von DeFAI im kommenden Jahr definieren:

Cross-Chain-Agenten-Orchestrierung: Zukünftige Agenten werden nahtlos über mehrere Blockchain-Netzwerke hinweg agieren und Strategien optimieren, die gleichzeitig Ethereum, Solana und aufstrebende L2-Ökosysteme umspannen.

Agent-to-Agent-Handel: Wir sehen bereits erste Anzeichen dafür, dass KI-Agenten untereinander Transaktionen tätigen – sie kaufen Rechenressourcen, handeln mit Strategien und koordinieren Liquidität ohne menschliche Zwischenhändler.

Institutionelle Integration: Mit zunehmender Reife der KYA-Standards werden traditionelle Finanzinstitute verstärkt mit DeFAI-Infrastrukturen interagieren. Die Integration von tokenisierten Real-World Assets schafft natürliche Brücken zwischen KI-verwalteten DeFi-Portfolios und der traditionellen Finanzwelt.

Erweitertes Wettrüsten in der Sicherheit: Der Wettbewerb zwischen KI-Agenten, die Schwachstellen finden, und KI-Agenten, die Protokolle schützen, wird sich intensivieren. Die Prüfung von Smart Contracts wird zunehmend automatisiert – und zunehmend notwendig.

Was das für Builder und Nutzer bedeutet

Für Entwickler stellt DeFAI sowohl eine Chance als auch eine Notwendigkeit dar. Protokolle, die KI-Agent-Interaktionen nicht berücksichtigen – sei es als Nutzer oder als potenzielle Angreifer – werden im Nachteil sein. Der Aufbau einer KI-nativen Infrastruktur ist nicht mehr optional; er wird zu einer Voraussetzung für wettbewerbsfähige DeFi-Protokolle.

Für Nutzer ist die Botschaft nuanciert. KI-Agenten können Renditen tatsächlich optimieren und die DeFi-Komplexität vereinfachen. Aber sie führen auch neue Vertrauensannahmen ein. Wenn Sie finanzielle Entscheidungen an einen KI-Agenten delegieren, vertrauen Sie nicht nur den Smart Contracts des Protokolls, sondern auch den Trainingsdaten des Agenten, seinen Optimierungszielen und den Absichten seines Betreibers.

Die anspruchsvollsten DeFi-Nutzer im Jahr 2026 werden nicht diejenigen sein, die am meisten handeln – sondern diejenigen, die am besten verstehen, wie man KI-Agenten nutzt und gleichzeitig die damit verbundenen einzigartigen Risiken managed.

DeFAI ersetzt nicht die menschliche Teilnahme an dezentralen Finanzen. Es definiert neu, was Teilnahme bedeutet, wenn Ihre fähigsten Gegenparteien keinen Herzschlag haben.