Direkt zum Hauptinhalt

435 Beiträge getaggt mit „Blockchain“

Allgemeine Blockchain-Technologie und Innovation

Alle Tags anzeigen

Balajis Vision für Kryptoidentität: Von Schlüsseln zu Netzwerkstaaten

· 10 Min. Lesezeit
Dora Noda
Software Engineer

1) Was Balaji mit „Kryptoidentität“ meint

In Balajis Vokabular ist Kryptoidentität eine Identität, die in der Kryptographie – insbesondere Public-Private-Schlüsselpaaren – verwurzelt ist und dann mit On-Chain-Namen, verifizierbaren Anmeldeinformationen/Bestätigungen und Schnittstellen zu traditionellen („Fiat“-) Identitäten erweitert wird. In seinen Worten und seiner Arbeit:

  • Schlüssel als Identität. Das Fundament ist die Idee, dass in Bitcoin und Web3 Ihr Schlüsselpaar Ihre Identität ist; Authentifizierung und Autorisierung ergeben sich aus der Kontrolle privater Schlüssel und nicht aus Konten in einer Unternehmensdatenbank. (balajis.com)
  • Namen und Reputation On-Chain. Namenssysteme wie ENS/SNS verankern menschenlesbare Identitäten an Adressen; Anmeldeinformationen (NFTs, „Soulbound“-Token, On-Chain-„Kryptoreferenzen“) und Bestätigungen schichten Reputation und Historie auf diese Identitäten.
  • On-Chain, prüfbarer „Zensus“. Für Gesellschaften und Netzwerkstaaten nimmt die Identität an einem kryptographisch prüfbaren Zensus (Nachweis der Menschlichkeit/einzigartigen Person, Einkommensnachweis, Immobiliennachweis) teil, um die reale Bevölkerung und wirtschaftliche Aktivität zu demonstrieren.
  • Überbrückung von traditioneller ID ↔ Krypto-ID. Er argumentiert explizit, dass wir eine „Fiat-Identität ↔ Krypto-Identität-Börse“ benötigen – ähnlich den Fiat↔Krypto-Börsen –, damit „digitale Pässe der digitalen Währung folgen“. Er hebt „Krypto-Pässe“ als die nächste Schnittstelle nach Stablecoins hervor. (Circle)
  • Identität für ein „Web3 des Vertrauens“ im KI-Zeitalter. Um Deepfakes und Bots entgegenzuwirken, fördert er Inhalte, die von On-Chain-Identitäten signiert sind (z. B. ENS), sodass Provenienz und Urheberschaft kryptographisch über das offene Web verifizierbar sind. (Chainlink Today)
  • Bürgerschutz. In seiner Kurzformel: „Kryptowährung schützt Sie teilweise vor dem Entzug von Bankdienstleistungen. Kryptoidentität schützt Sie teilweise vor dem Entzug der Staatsbürgerschaft.“ (X (ehemals Twitter))

2) Wie sich seine Ansicht entwickelte (eine kurze Chronologie)

  • 2019–2020 – kryptographische Identität & Pseudonymität. Balajis Schriften betonen Public-Key-Kryptographie als Identität (Schlüssel-als-ID) und prognostizieren das Wachstum dezentraler Identität + Reputation in den 2020er Jahren. Gleichzeitig argumentiert sein Vortrag zur „pseudonymen Ökonomie“ für persistente, reputationsbehaftete Pseudonyme, um die Meinungsfreiheit zu schützen und mit neuen Arten von Arbeit und Organisation zu experimentieren. (balajis.com)
  • 2022 – Der Netzwerkstaat. Er formalisiert die Aufgabe der Identität in einem Netzwerkstaat: On-Chain-Zensus; ENS-ähnliche Identität; kryptographische Nachweise (der Menschlichkeit/des Einkommens/der Immobilien); und Kryptoreferenzen/Soulbounds. Identität ist infrastrukturell – was die Gesellschaft zählt und was die Welt verifizieren kann.
  • 2022–2024 – Brücken zu traditionellen Systemen. In öffentlichen Interviews und seinem Podcast fordert er Fiat↔Krypto-Identitätsbrücken (z. B. Palaus RNS.ID digitaler Wohnsitz) und betont die Überführung von „Papier“-Akten in Code. (Circle)
  • 2023–heute – Identität als Abwehr gegen KI-Fälschungen. Er rahmt Kryptoidentität als Rückgrat eines „Web3 des Vertrauens“: signierte Inhalte, On-Chain-Provenienz und wirtschaftliche Reibung (Staking, Zahlungen), um Menschen von Bots zu trennen. (Chainlink Today)

3) Der technische Stack, auf den Balaji hindeutet

Grundlegendes Primitiv: Schlüssel & Wallets

  • Kontrolle eines privaten Schlüssels = Kontrolle einer Identität; Schlüssel für verschiedene Personas und Risikoprofile rotieren/partitionieren. (balajis.com)

Auflösung & Anmeldung

  • ENS/SNS ordnen menschenlesbare Namen Adressen zu; Anmelden mit Ethereum (EIP-4361) verwandelt diese Adressen in eine Standardmethode zur Authentifizierung bei Off-Chain-Anwendungen.

Anmeldeinformationen & Bestätigungen (Reputationsschicht)

  • W3C Verifiable Credentials (VC 2.0) definieren eine interoperable Methode zum Ausstellen/Halten/Verifizieren von Ansprüchen (z. B. KYC-Prüfungen, Diplome).
  • Der Ethereum Attestierungsdienst (EAS) bietet eine öffentliche Güterschicht für On- oder Off-Chain-Bestätigungen, um Identität, Reputation und Register aufzubauen, die Anwendungen verifizieren können. (W3C)

Nachweis der Menschlichkeit & Einzigartigkeit

  • In Der Netzwerkstaat skizziert Balaji „Proof-of-Human“-Techniken für den On-Chain-Zensus; außerhalb seiner Arbeit versuchen Ansätze wie World ID, die Menschlichkeit/Einzigartigkeit zu verifizieren, was auch Datenschutzbedenken aufgeworfen hat – und die Kompromisse biometrischer PoP illustriert.

Brücken zu traditioneller Identität

  • Palau RNS.ID ist ein prominentes Beispiel für einen Souverän, der eine rechtliche ID mit On-Chain-Komponenten ausstellt; die Akzeptanz ist plattformübergreifend uneinheitlich, was das von Balaji hervorgehobene „Brücken“-Problem unterstreicht. (Biometric Update)

Provenienz & Anti-Deepfake

  • Er befürwortet das Signieren von Inhalten von ENS-verknüpften Adressen, sodass jedes Bild/jeder Beitrag/jedes Video zu einer kryptographischen Identität in einem „Web3 des Vertrauens“ zurückverfolgt werden kann. (Chainlink Today)

4) Warum es wichtig ist (Balajis strategische Behauptungen)

  1. Zensur- & Deplattformierungsresistenz: Schlüssel und dezentrale Namensgebung reduzieren die Abhängigkeit von zentralisierten ID-Anbietern. (Schlüssel sind Inhaber-Identitäten.) (balajis.com)
  2. Prüfbarkeit für Gesellschaften: Netzwerkstaaten erfordern verifizierbare Bevölkerung/Einkommen/Fußabdruck; Prüfbarkeit ist ohne eine On-Chain-nachweisbare Identität unmöglich.
  3. KI-Resilienz: Eine kryptographische Identitätsschicht (plus Signaturen/Bestätigungen) untermauert die Online-Authentizität und kehrt KI-gesteuerte Fälschungen um. (Chainlink Today)
  4. Interoperabilität & Komponierbarkeit: Standards (ENS, SIWE, VC/EAS) machen Identität über Anwendungen und Gerichtsbarkeiten hinweg portierbar.

5) Wie es mit Der Netzwerkstaat zusammenhängt

Balajis Buch paart wiederholt Identität mit einem Echtzeit-, On-Chain-Zensus – einschließlich Nachweis der Menschlichkeit, Einkommensnachweis und Immobiliennachweis – und hebt Namensgebung (ENS) und Kryptoreferenzen als Kernprimitive hervor. Er beschreibt auch „ENS-Login-zu-physischer-Welt“-Muster (digitale Schlüssel zu Türen/Diensten), die in einem sozialen Smart Contract eingebettet sind, und verweist auf Kryptoidentität als Zugriffsschicht für digitale und (eventuell) physische Governance.


6) Implementierungsplan (ein praktischer Weg, den Sie heute umsetzen können)

A. Die Basisidentitäten etablieren

  1. Generieren Sie separate Schlüsselpaare für: (i) legale/„echte Namen“, (ii) Arbeits-/professionelles Pseudonym, (iii) Pseudonym für öffentliche Äußerungen. Speichern Sie jedes in einer anderen Wallet-Konfiguration (Hardware, MPC oder Smart Accounts mit Guardians). (balajis.com)
  2. Registrieren Sie ENS-Namen für jede Persona; veröffentlichen Sie minimale öffentliche Profilmetadaten.

B. Authentifizierung & Inhaltsherkunft hinzufügen 3. Aktivieren Sie SIWE (EIP-4361) für App-Logins; Passwörter/Social Logins auslaufen lassen. (Ethereum Improvement Proposals) 4. Signieren Sie öffentliche Artefakte (Beiträge, Bilder, Code-Veröffentlichungen) von Ihrer ENS-verknüpften Adresse; veröffentlichen Sie einen einfachen „signierter Inhalt“-Feed, den andere verifizieren können. (Chainlink Today)

C. Anmeldeinformationen und Bestätigungen schichten 5. Stellen Sie VCs für rechtliche Fakten (Unternehmensrolle, Lizenzen) und EAS-Bestätigungen für weiche Signale (Reputation, verifizierte Beiträge, Anwesenheit) aus/sammeln Sie diese. Halten Sie sensible Ansprüche Off-Chain mit nur Hashes/Belegen On-Chain. (W3C)

D. Bei Bedarf zu traditioneller Identität überbrücken 6. Wo rechtmäßig und nützlich, verknüpfen Sie eine souveräne/Unternehmens-ID (z. B. Palau RNS.ID) mit Ihrer Kryptoidentität für KYC-geschützte Orte. Erwarten Sie heterogene Akzeptanz und pflegen Sie Alternativen. (Biometric Update)

E. Für Gruppen/Gesellschaften bereitstellen 7. Für eine Startup-Gesellschaft oder DAO:

  • Sichern Sie die Mitgliedschaft mit ENS + einer Proof-of-Human-Methode ab, die Sie für akzeptabel halten.
  • Pflegen Sie einen öffentlichen, prüfbaren Zensus (Mitglieder-/Einkommens-/Bestandszahlen) unter Verwendung von Oracles plus signierten Bestätigungen, nicht rohen PII.

7) Risiken, Kritiken und offene Fragen

  • Erosion von Privatsphäre/Pseudonymität. Die Blockchain-Analyse kann Wallets gruppieren; Balajis eigener Pseudonymitäts-Rahmen warnt davor, wie eine Handvoll Daten-„Bits“ Sie re-identifizieren können. Verwenden Sie Mixer/Datenschutztechnologien sorgfältig und rechtmäßig – aber erkennen Sie Grenzen. (blog.blockstack.org)
  • Kompromisse beim Nachweis der Menschlichkeit. Biometrischer PoP (z. B. Iris) zieht erhebliche datenschutzrechtliche Prüfung nach sich; alternative PoP-Methoden reduzieren das Risiko, können aber die Sybil-Anfälligkeit erhöhen. (law.kuleuven.be)
  • Brücken-Brüchigkeit. Palau-ähnliche IDs sind kein universeller KYC-Pass; die Akzeptanz variiert je nach Plattform und Gerichtsbarkeit und kann sich ändern. Bauen Sie für anmutige Degradation. (Malakouti Law)
  • Schlüsselverlust & Zwang. Schlüssel können gestohlen/erzwungen werden; verwenden Sie Multi-Sig/Guardians und Vorfallreaktionsrichtlinien. (Balajis Modell geht von Kryptographie + Zustimmung aus, was sozial konstruiert werden muss.) (balajis.com)
  • Namens-/Registerzentralisierung. ENS oder jede Namensbehörde wird zu einer politischen Engstelle; mindern Sie dies durch Multi-Persona-Design und exportierbare Nachweise.

8) Wie Balajis Kryptoidentität zu Standards passt (und wo sie sich unterscheidet)

  • Übereinstimmung:

    • DIDs + VCs (W3C) = portierbare, interoperable Identität/Ansprüche; SIWE = Wallet-native Authentifizierung; EAS = Bestätigungen für Reputation/Register. Dies sind die Komponenten, auf die er verweist – auch wenn er einfache Sprache (ENS, Anmeldeinformationen) anstelle von Standard-Akronymen verwendet. (W3C)
  • Unterschiede/Schwerpunkt:

    • Er hebt die gesellschaftliche Prüfbarkeit (On-Chain-Zensus) und die Provenienz im KI-Zeitalter (signierte Inhalte) stärker hervor als viele DID/VC-Diskussionen, und er drängt explizit auf Fiat↔Krypto-Identitätsbrücken und Krypto-Pässe als kurzfristige Priorität.

9) Wenn Sie entwickeln: ein minimal praktikabler „Kryptoidentität“-Rollout (90 Tage)

  1. Woche 1–2: Schlüssel, ENS, SIWE aktiviert; veröffentlichen Sie Ihre Signaturrichtlinie und beginnen Sie, öffentliche Beiträge/Veröffentlichungen zu signieren. (Ethereum Improvement Proposals)
  2. Woche 3–6: Integrieren Sie VCs/EAS für Rolle/Mitgliedschaft/Teilnahme; erstellen Sie eine öffentliche „Vertrauensseite“, die diese programmatisch verifiziert. (W3C)
  3. Woche 7–10: Richten Sie ein grundlegendes Zensus-Dashboard ein (aggregierte Mitgliederzahl, On-Chain-Schatzkammer-/Einkommensnachweise) mit klarer Datenschutzhaltung.
  4. Woche 11–13: Pilotieren Sie eine traditionelle Brücke (z. B. RNS.ID, wo angemessen) für einen Compliance-intensiven Workflow; veröffentlichen Sie Ergebnisse (was funktionierte/scheiterte). (Biometric Update)

Ausgewählte Quellen (primär und tragend)

  • Der Netzwerkstaat (On-Chain-Zensus; ENS/Identität; Kryptoreferenzen) und „ENS-Login-zu-physischer-Welt“-Beispiele.
  • Public-Key-Kryptographie (Schlüssel als Identität). (balajis.com)
  • Circle – The Money Movement (Ep. 74) (Fiat↔Krypto-Identitätsbrücke; „Krypto-Pässe“). (Circle)
  • Der Netzwerkstaat-Podcast, Ep. 10 (Fiat-Identität→Krypto-Identität-Börse; Palau RNS.ID). (thenetworkstate.com)
  • Chainlink Today (signierte Inhalte/ENS zur Bekämpfung von Deepfakes; „Web3 des Vertrauens“). (Chainlink Today)
  • Balaji auf X („Kryptoidentität…Entzug der Staatsbürgerschaft“). (X (ehemals Twitter))
  • Standards: W3C DID Core, VC 2.0; EIP-4361 (SIWE); EAS-Dokumente. (W3C)
  • RNS.ID / Palau (Realwelt-Brücke; gemischte Akzeptanz). (Biometric Update)
  • Pseudonyme Ökonomie (Identität & 33-Bit-Re-Identifikations-Intuition). (blog.blockstack.org)

Fazit

Für Balaji ist Kryptoidentität nicht nur „DID-Technologie“. Es ist ein zivilisatorisches Primitiv: Schlüssel und Signaturen als Basis; Namen und Anmeldeinformationen obendrauf; Brücken zu traditioneller Identität; und ein verifizierbarer öffentlicher Datensatz, der von Individuen zu Netzwerkgesellschaften skaliert. So erhalten Sie authentische Personen und authentische Datensätze in einem KI-überfluteten Internet – und so kann eine Startup-Gesellschaft beweisen, dass sie real ist, ohne die Welt um Vertrauen in ihr Wort zu bitten. (Chainlink Today)

Wenn Sie möchten, kann ich den Implementierungsplan an Ihren spezifischen Anwendungsfall (Verbraucher-App, DAO, Unternehmen oder ein Startup-Gesellschafts-Pilotprojekt) anpassen und konkrete Schemata/Workflows für SIWE, EAS und VC 2.0 erstellen, die Ihren regulatorischen und UX-Einschränkungen entsprechen.

Das nächste Kapitel von DeFi: Perspektiven führender Entwickler und Investoren (2024 – 2025)

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Dezentrale Finanzen (DeFi) haben sich vom Spekulationsboom im Sommer 2020 bis zum Zyklus 2024 – 2025 erheblich weiterentwickelt. Höhere Zinssätze verlangsamten das Wachstum von DeFi in den Jahren 2022 – 2023, doch das Aufkommen von Hochdurchsatz-Blockchains, Token-gesteuerten Anreizen und einem klareren regulatorischen Umfeld schaffen die Voraussetzungen für eine neue Phase der On-Chain-Finanzen. Führungskräfte von Hyperliquid, Aave, Ethena und Dragonfly teilen die gemeinsame Erwartung, dass das nächste Kapitel von echtem Nutzen angetrieben wird: effiziente Marktinfrastruktur, zinstragende Stablecoins, Tokenisierung von Real-World Assets und KI-gestützte Benutzererfahrungen. Die folgenden Abschnitte analysieren die Zukunft von DeFi durch die Stimmen von Jeff Yan (Hyperliquid Labs), Stani Kulechov (Aave Labs), Guy Young (Ethena Labs) und Haseeb Qureshi (Dragonfly).

Jeff Yan – Hyperliquid Labs

Hintergrund

Jeff Yan ist Mitbegründer und CEO von Hyperliquid, einer dezentralen Börse (DEX), die ein Hochdurchsatz-Orderbuch für Perpetuals und Spot-Handel betreibt. Hyperliquid erlangte 2024 Bekanntheit durch ihren Community-gesteuerten Airdrop und die Weigerung, Eigenkapital an Risikokapitalgeber zu verkaufen; Yan hielt das Team klein und selbstfinanziert, um den Produktfokus zu wahren. Die Vision von Hyperliquid ist es, eine dezentrale Basisschicht für andere Finanzprodukte wie tokenisierte Assets und Stablecoins zu werden.

Vision für das nächste Kapitel von DeFi

  • Effizienz statt Hype. Auf einem Token 2049 Panel verglich Yan DeFi mit einem mathematischen Problem; er argumentierte, dass Märkte effizient sein sollten, wo Benutzer die besten Preise ohne versteckte Spreads erhalten. Das Hochdurchsatz-Orderbuch von Hyperliquid zielt darauf ab, diese Effizienz zu liefern.
  • Community-Eigentum und Anti-VC-Haltung. Yan glaubt, dass der Erfolg von DeFi am Wert gemessen werden sollte, der den Benutzern geliefert wird, und nicht an den Exits der Investoren. Hyperliquid lehnte private Market-Maker-Partnerschaften und zentralisierte Börsenlistings ab, um die Dezentralisierung nicht zu kompromittieren. Dieser Ansatz entspricht dem Ethos von DeFi: Protokolle sollten ihren Communities gehören und für langfristigen Nutzen gebaut werden.
  • Fokus auf Infrastruktur, nicht auf Token-Preis. Yan betont, dass der Zweck von Hyperliquid darin besteht, robuste Technologie zu entwickeln; Produktverbesserungen wie HIP-3 zielen darauf ab, dApp-Risiken durch automatisierte Audits und bessere Integrationen zu mindern. Er vermeidet starre Roadmaps und zieht es vor, sich an Benutzerfeedback und technologische Veränderungen anzupassen. Diese Anpassungsfähigkeit spiegelt eine breitere Verschiebung von Spekulation hin zu ausgereifter Infrastruktur wider.
  • Vision eines erlaubnisfreien Finanz-Stacks. Yan sieht Hyperliquid als eine grundlegende Schicht, auf der andere Stablecoins, RWAs und neue Finanzinstrumente aufbauen können. Indem es dezentralisiert und kapitaleffizient bleibt, hofft er, eine neutrale Schicht ähnlich einer dezentralen Nasdaq zu etablieren.

Fazit

Jeff Yans Perspektive betont Markteffizienz, Community-gesteuertes Eigentum und modulare Infrastruktur. Er sieht das nächste Kapitel von DeFi als eine Konsolidierungsphase, in der Hochleistungs-DEXs zum Rückgrat für tokenisierte Assets und Yield-Produkte werden. Seine Weigerung, Risikokapital anzunehmen, signalisiert eine Abkehr von übermäßiger Spekulation; im nächsten Kapitel könnten Protokolle Nachhaltigkeit über Schlagzeilen-trächtige Bewertungen stellen.

Stani Kulechov – Aave Labs

Hintergrund

Stani Kulechov gründete Aave, eines der ersten Geldmarktprotokolle und ein führender Anbieter im Bereich dezentraler Kreditvergabe. Die Liquiditätsmärkte von Aave ermöglichen es Benutzern, Renditen zu erzielen oder Assets ohne Zwischenhändler zu leihen. Bis 2025 expandierten Aaves TVL und Produktpalette um Stablecoins und eine neu eingeführte Family Wallet – eine Fiat-Krypto-On-Ramp, die auf dem Blockchain Ireland Summit debütierte.

Vision für das nächste Kapitel von DeFi

  • Zinssenkungs-Katalysator für „DeFi-Sommer 2.0.“ Auf der Token 2049 argumentierte Kulechov, dass fallende Zinssätze einen neuen DeFi-Boom ähnlich dem von 2020 auslösen würden. Niedrigere Zinssätze schaffen Arbitrage-Möglichkeiten, da On-Chain-Renditen im Vergleich zu TradFi attraktiv bleiben und Kapital in DeFi-Protokolle ziehen. Er erinnert daran, dass Aaves TVL während der Zinssenkungen von 2020 von weniger als 1 Milliarde US-Dollar auf 10 Milliarden US-Dollar sprang und erwartet eine ähnliche Dynamik, wenn die Geldpolitik gelockert wird.
  • Integration mit Fintech. Kulechov sieht DeFi in die Mainstream-Fintech-Infrastruktur eingebettet. Er plant, On-Chain-Renditen über benutzerfreundliche Apps und institutionelle Kanäle zu verteilen und DeFi zu einem Backend für Sparprodukte zu machen. Die Family Wallet veranschaulicht dies, indem sie nahtlose Fiat-Stablecoin-Konvertierungen und alltägliche Zahlungen anbietet.
  • Real-World Assets (RWAs) und Stablecoins. Er betrachtet tokenisierte Real-World Assets und Stablecoins als Säulen der Blockchain-Zukunft. Aaves GHO Stablecoin und RWA-Initiativen zielen darauf ab, DeFi-Renditen mit realwirtschaftlichen Sicherheiten zu verbinden und die Lücke zwischen Krypto und traditionellen Finanzen zu schließen.
  • Community-gesteuerte Innovation. Kulechov schreibt den Erfolg von Aave seiner Community zu und erwartet, dass benutzergesteuerte Innovation die nächste Phase antreiben wird. Er schlägt vor, dass sich DeFi auf Verbraucheranwendungen konzentrieren wird, die Komplexität abstrahieren, während die Dezentralisierung erhalten bleibt.

Fazit

Stani Kulechov prognostiziert eine Rückkehr des DeFi-Bullenzyklus, angetrieben durch niedrigere Zinssätze und verbesserte Benutzererfahrung. Er betont die Integration mit Fintech und Real-World Assets und sagt voraus, dass Stablecoins und tokenisierte Staatsanleihen DeFi-Renditen in alltägliche Finanzprodukte einbetten werden. Dies spiegelt eine Reifung von spekulativem Yield Farming zu einer Infrastruktur wider, die mit traditionellen Finanzen koexistiert.

Guy Young – Ethena Labs

Hintergrund

Guy Young ist der CEO von Ethena Labs, dem Schöpfer von sUSDe, einem synthetischen Dollar-Stablecoin, der Delta-neutrale Strategien verwendet, um einen zinstragenden Dollar anzubieten. Ethena erregte Aufmerksamkeit, indem es attraktive Renditen bot, während es USDT als Sicherheit und Short-Perpetual-Positionen zur Absicherung des Preisrisikos nutzte. Im Jahr 2025 kündigte Ethena Initiativen wie iUSDe an, eine konforme, gewrappte Version für traditionelle Institutionen.

Vision für das nächste Kapitel von DeFi

  • Stablecoins für Ersparnisse und Handels-Collateral. Young kategorisiert Stablecoin-Anwendungsfälle in Handels-Collateral, Ersparnisse für Entwicklungsländer, Zahlungen und Spekulation. Ethena konzentriert sich auf Ersparnisse und Handel, da die Rendite den Dollar attraktiv macht und die Börsenintegration die Akzeptanz fördert. Er glaubt, dass ein zinstragender Dollar zum wichtigsten Spar-Asset der Welt werden wird.
  • Neutrale, plattformunabhängige Stablecoins. Young argumentiert, dass Stablecoins neutral und über verschiedene Plattformen hinweg weit verbreitet sein müssen; Versuche von Börsen, proprietäre Stablecoins zu pushen, schaden der Benutzererfahrung. Ethenas Verwendung von USDT erhöht die Nachfrage nach Tether, anstatt mit ihm zu konkurrieren, was die Synergie zwischen DeFi-Stablecoins und etablierten Akteuren verdeutlicht.
  • Integration mit TradFi und Messaging-Apps. Ethena plant, iUSDe mit Übertragungsbeschränkungen herauszugeben, um regulatorische Anforderungen zu erfüllen, und sUSDe in Telegram und Apple Pay zu integrieren, sodass Benutzer zinstragende Dollar wie Nachrichten senden, sparen und ausgeben können. Young stellt sich vor, eine Neobank-ähnliche Erfahrung für eine Milliarde Benutzer über mobile Apps bereitzustellen.
  • Verschiebung hin zu Fundamentaldaten und RWAs. Er stellt fest, dass die Krypto-Spekulation gesättigt erscheint – die Altcoin-Marktkapitalisierung erreichte sowohl 2021 als auch 2024 ihren Höhepunkt bei 1,2 Billionen US-Dollar –, sodass sich Investoren auf Projekte mit realen Einnahmen und tokenisierten Real-World Assets konzentrieren werden. Ethenas Strategie, Renditen aus Off-Chain-Assets zu erzielen, positioniert es für diesen Übergang.

Fazit

Guy Youngs Perspektive konzentriert sich auf zinstragende Stablecoins als Killer-App von DeFi. Er argumentiert, dass das nächste Kapitel von DeFi darin besteht, Dollar produktiv zu machen und sie in Mainstream-Zahlungen und Messaging einzubetten, wodurch Milliarden von Benutzern angezogen werden. Ethenas plattformunabhängiger Ansatz spiegelt die Überzeugung wider, dass DeFi-Stablecoins bestehende Systeme ergänzen und nicht mit ihnen konkurrieren sollten. Er erwartet auch eine Rotation von spekulativen Altcoins zu umsatzgenerierenden Tokens und RWAs.

Haseeb Qureshi – Dragonfly

Hintergrund

Haseeb Qureshi ist Managing Partner bei Dragonfly, einer Risikokapitalfirma, die sich auf Krypto und DeFi konzentriert. Qureshi ist bekannt für seine analytischen Schriften und seine Teilnahme am Chopping Block Podcast. Ende 2024 und Anfang 2025 veröffentlichte er eine Reihe von Prognosen, die darlegen, wie KI, Stablecoins und regulatorische Änderungen Krypto prägen werden.

Vision für das nächste Kapitel von DeFi

  • KI-gestützte Wallets und Agenten. Qureshi prognostiziert, dass KI-Agenten Krypto revolutionieren werden, indem sie Bridging automatisieren, Handelsrouten optimieren, Gebühren minimieren und Benutzer von Betrügereien fernhalten. Er erwartet, dass KI-gesteuerte Wallets Cross-Chain-Operationen nahtlos abwickeln und die Komplexität reduzieren, die derzeit Mainstream-Benutzer abschreckt. KI-gestützte Entwicklungstools werden auch den Bau von Smart Contracts erleichtern und die Dominanz der EVM festigen.
  • KI-Agenten-Tokens vs. Meme-Coins. Qureshi glaubt, dass Tokens, die mit KI-Agenten verbunden sind, Meme-Coins im Jahr 2025 übertreffen werden, warnt jedoch davor, dass die Neuheit verblassen wird und der wahre Wert aus dem Einfluss von KI auf Softwareentwicklung und Handel stammen wird. Er betrachtet die aktuelle Aufregung als eine Verschiebung von „finanziellem Nihilismus zu finanziellem Überoptimismus“ und warnt vor einer Überbewertung von Chatbot-Coins.
  • Konvergenz von Stablecoins und KI. In seinen Prognosen für 2025 skizziert Qureshi sechs Hauptthemen: (1) Die Unterscheidung zwischen Layer-1- und Layer-2-Blockchains wird verschwimmen, da KI-Tools den EVM-Anteil erweitern; (2) Token-Distributionen werden sich von großen Airdrops zu metrikgesteuerten oder Crowdfunding-Modellen verschieben; (3) die Akzeptanz von Stablecoins wird stark zunehmen, wobei Banken ihre eigenen Stablecoins ausgeben, während Tether seine Dominanz behält; (4) KI-Agenten werden Krypto-Interaktionen dominieren, aber ihre Neuheit könnte bis 2026 verblassen; (5) KI-Tools werden die Entwicklungskosten drastisch senken, was eine Welle von dApp-Innovationen und stärkere Sicherheit ermöglicht; und (6) regulatorische Klarheit, insbesondere in den USA, wird die Mainstream-Adoption beschleunigen.
  • Institutionelle Adoption und regulatorische Verschiebungen. Qureshi erwartet, dass Fortune-100-Unternehmen Krypto unter einer Trump-Administration Verbrauchern anbieten werden, und glaubt, dass die US-Stablecoin-Gesetzgebung verabschiedet wird, was die institutionelle Beteiligung freisetzen wird. Die Gate.io-Forschungszusammenfassung bestätigt dies und stellt fest, dass KI-Agenten Stablecoins für Peer-to-Peer-Transaktionen übernehmen und dass dezentrales KI-Training beschleunigt wird.
  • DeFi als Infrastruktur für KI-gestützte Finanzen. Im The Chopping Block nannte Qureshi Hyperliquid den „größten Gewinner“ des Zyklus 2024 und sagte voraus, dass DeFi-Tokens im Jahr 2025 ein explosives Wachstum erleben würden. Er führt dies auf Innovationen wie Liquiditäts-Guidance-Pools zurück, die den dezentralen Perpetual-Handel wettbewerbsfähig machen. Seine optimistische Haltung zu DeFi rührt von der Überzeugung her, dass KI-gestützte UX und regulatorische Klarheit Kapital in On-Chain-Protokolle lenken werden.

Fazit

Haseeb Qureshi sieht das nächste Kapitel von DeFi als Konvergenz von KI und On-Chain-Finanzen. Er erwartet einen Anstieg von KI-gestützten Wallets und autonomen Agenten, die Benutzerinteraktionen vereinfachen und neue Teilnehmer anziehen werden. Dennoch warnt er, dass der KI-Hype verblassen könnte; nachhaltiger Wert wird von KI-Tools kommen, die Entwicklungskosten senken und die Sicherheit verbessern. Er erwartet, dass Stablecoin-Gesetzgebung, institutionelle Adoption und metrikgesteuerte Token-Distributionen die Branche professionalisieren werden. Insgesamt sieht er DeFi sich zu einer Grundlage für KI-gestützte, regulierungskonforme Finanzdienstleistungen entwickeln.

Vergleichende Analyse

DimensionJeff Yan (Hyperliquid)Stani Kulechov (Aave)Guy Young (Ethena)Haseeb Qureshi (Dragonfly)
KernfokusHochleistungs-DEX-Infrastruktur; Community-Eigentum; EffizienzDezentrale Kreditvergabe; Fintech-Integration; Real-World AssetsZinstragende Stablecoins; Handels-Collateral; Zahlungs-IntegrationInvestitionsperspektive; KI-Agenten; institutionelle Adoption
Haupttreiber für das nächste KapitelEffiziente Orderbuch-Märkte; modulare Protokollschicht für RWAs & StablecoinsZinssenkungen, die Kapitalzuflüsse und „DeFi-Sommer 2.0“ anregen; Integration mit Fintech & RWAsNeutrale Stablecoins, die Rendite generieren; Integration mit Messaging-Apps und TradFiKI-gestützte Wallets und Agenten; regulatorische Klarheit; metrikgesteuerte Token-Distributionen
Rolle von StablecoinsUntermauert zukünftige DeFi-Schichten; fördert dezentrale EmittentenGHO Stablecoin & tokenisierte Staatsanleihen integrieren DeFi-Renditen in Mainstream-FinanzproduktesUSDe verwandelt Dollar in zinstragende Ersparnisse; iUSDe zielt auf Institutionen abBanken sollen bis Ende 2025 Stablecoins ausgeben; KI-Agenten sollen Stablecoins für Transaktionen nutzen
Ansicht zu Token-AnreizenLehnt Risikofinanzierung & private Market-Maker-Deals ab, um Community zu priorisierenBetont Community-gesteuerte Innovation; sieht DeFi-Tokens als Infrastruktur für FintechBefürwortet plattformunabhängige Stablecoins, die bestehende Ökosysteme ergänzenPrognostiziert eine Verschiebung von großen Airdrops zu KPI-gesteuerten oder Crowdfunding-Distributionen
Ausblick auf Regulierung & InstitutionenMinimaler Fokus auf Regulierung; betont Dezentralisierung & SelbstfinanzierungSieht regulatorische Klarheit, die RWA-Tokenisierung und institutionelle Nutzung ermöglichtArbeitet an übertragungsbeschränktem iUSDe, um regulatorische Anforderungen zu erfüllenErwartet, dass US-Stablecoin-Gesetzgebung & pro-Krypto-Administration die Adoption beschleunigen
Zu KI & AutomatisierungN/AN/ANicht zentral (obwohl Ethena KI-Risikosysteme nutzen könnte)KI-Agenten werden die Benutzererfahrung dominieren; Neuheit wird bis 2026 verblassen

Fazit

Das nächste Kapitel von DeFi wird wahrscheinlich von effizienter Infrastruktur, zinstragenden Assets, der Integration mit traditionellen Finanzen und KI-gesteuerten Benutzererfahrungen geprägt sein. Jeff Yan konzentriert sich auf den Aufbau einer Hochdurchsatz-, Community-eigenen DEX-Infrastruktur, die als neutrale Basisschicht für tokenisierte Assets dienen kann. Stani Kulechov erwartet, dass niedrigere Zinssätze, Fintech-Integration und Real-World Assets einen neuen DeFi-Boom auslösen werden. Guy Young priorisiert zinstragende Stablecoins und nahtlose Zahlungen und drängt DeFi in Messaging-Apps und traditionelle Banken. Haseeb Qureshi erwartet, dass KI-Agenten Wallets transformieren und regulatorische Klarheit institutionelles Kapital freisetzen wird, warnt jedoch vor übertriebenen KI-Token-Narrativen.

Zusammenfassend legen diese Perspektiven nahe, dass sich die Zukunft von DeFi über spekulatives Farming hinaus zu ausgereiften, benutzerzentrierten Finanzprodukten entwickeln wird. Protokolle müssen echten wirtschaftlichen Wert liefern, sich in bestehende Finanzsysteme integrieren und technologische Fortschritte wie KI und Hochleistungs-Blockchains nutzen. Wenn diese Trends konvergieren, könnte sich DeFi von einem Nischen-Ökosystem zu einer globalen, erlaubnisfreien Finanzinfrastruktur entwickeln.

MCP im Web3-Ökosystem: Eine umfassende Übersicht

· 50 Min. Lesezeit
Dora Noda
Software Engineer

1. Definition und Ursprung von MCP im Web3-Kontext

Das Model Context Protocol (MCP) ist ein offener Standard, der KI-Assistenten (wie grosse Sprachmodelle) mit externen Datenquellen, Tools und Umgebungen verbindet. Oft als "USB-C-Anschluss für KI" bezeichnet, aufgrund seiner universellen Plug-and-Play-Natur, wurde MCP von Anthropic entwickelt und Ende November 2024 erstmals vorgestellt. Es entstand als Lösung, um KI-Modelle aus der Isolation zu befreien, indem es sie sicher mit den „Systemen, in denen Daten leben“ verbindet – von Datenbanken und APIs bis hin zu Entwicklungsumgebungen und Blockchains.

Ursprünglich ein experimentelles Nebenprojekt bei Anthropic, gewann MCP schnell an Bedeutung. Mitte 2024 erschienen Open-Source-Referenzimplementierungen, und Anfang 2025 hatte es sich zum De-facto-Standard für die Integration von Agenten-KI entwickelt, wobei führende KI-Labore (OpenAI, Google DeepMind, Meta AI) es nativ übernahmen. Diese schnelle Akzeptanz war besonders in der Web3-Community bemerkenswert. Blockchain-Entwickler sahen MCP als eine Möglichkeit, KI-Funktionen in dezentrale Anwendungen zu integrieren, was zu einer Verbreitung von von der Community entwickelten MCP-Konnektoren für On-Chain-Daten und -Dienste führte. Tatsächlich argumentieren einige Analysten, dass MCP die ursprüngliche Vision von Web3 eines dezentralen, benutzerzentrierten Internets auf praktischere Weise erfüllen könnte als Blockchain allein, indem es natürliche Sprachschnittstellen nutzt, um Benutzer zu befähigen.

Zusammenfassend ist MCP keine Blockchain oder ein Token, sondern ein offenes Protokoll, das in der KI-Welt geboren wurde und schnell im Web3-Ökosystem als Brücke zwischen KI-Agenten und dezentralen Datenquellen angenommen wurde. Anthropic hat den Standard (mit einer anfänglichen GitHub-Spezifikation und SDKs) quelloffen gemacht und eine offene Community darum aufgebaut. Dieser gemeinschaftsgetriebene Ansatz bereitete den Boden für die Integration von MCP in Web3, wo es nun als grundlegende Infrastruktur für KI-fähige dezentrale Anwendungen angesehen wird.

2. Technische Architektur und Kernprotokolle

MCP basiert auf einer leichtgewichtigen Client-Server-Architektur mit drei Hauptrollen:

  • MCP-Host: Die KI-Anwendung oder der Agent selbst, der Anfragen orchestriert. Dies könnte ein Chatbot (Claude, ChatGPT) oder eine KI-gestützte App sein, die externe Daten benötigt. Der Host initiiert Interaktionen und fragt über MCP nach Tools oder Informationen.
  • MCP-Client: Eine Konnektorkomponente, die der Host zur Kommunikation mit Servern verwendet. Der Client verwaltet die Verbindung, das Senden und Empfangen von Nachrichten und kann mehrere Server parallel verwalten. Zum Beispiel kann ein Entwicklertool wie Cursor oder der Agentenmodus von VS Code als MCP-Client fungieren, der die lokale KI-Umgebung mit verschiedenen MCP-Servern verbindet.
  • MCP-Server: Ein Dienst, der der KI kontextbezogene Daten oder Funktionen zur Verfügung stellt. Server bieten Tools, Ressourcen oder Prompts, die die KI nutzen kann. In der Praxis könnte ein MCP-Server mit einer Datenbank, einer Cloud-Anwendung oder einem Blockchain-Knoten interagieren und der KI einen standardisierten Satz von Operationen präsentieren. Jedes Client-Server-Paar kommuniziert über einen eigenen Kanal, sodass ein KI-Agent gleichzeitig mehrere Server für verschiedene Anforderungen nutzen kann.

Kern-Primitive: MCP definiert eine Reihe von Standard-Nachrichtentypen und Primitiven, die die Interaktion zwischen KI und Tool strukturieren. Die drei grundlegenden Primitive sind:

  • Tools: Diskrete Operationen oder Funktionen, die die KI auf einem Server aufrufen kann. Zum Beispiel ein „searchDocuments“-Tool oder ein „eth_call“-Tool. Tools kapseln Aktionen wie das Abfragen einer API, das Ausführen einer Berechnung oder das Aufrufen einer Smart-Contract-Funktion. Der MCP-Client kann eine Liste der verfügbaren Tools von einem Server anfordern und diese bei Bedarf aufrufen.
  • Ressourcen: Datenendpunkte, von denen die KI über den Server lesen (oder manchmal auch schreiben) kann. Dies können Dateien, Datenbankeinträge, Blockchain-Status (Blöcke, Transaktionen) oder beliebige kontextbezogene Daten sein. Die KI kann Ressourcen auflisten und deren Inhalt über Standard-MCP-Nachrichten abrufen (z. B. ListResources- und ReadResource-Anfragen).
  • Prompts: Strukturierte Prompt-Vorlagen oder Anweisungen, die Server bereitstellen können, um die Argumentation der KI zu leiten. Zum Beispiel könnte ein Server eine Formatierungsvorlage oder einen vordefinierten Abfrage-Prompt bereitstellen. Die KI kann eine Liste von Prompt-Vorlagen anfordern und diese verwenden, um die Konsistenz ihrer Interaktionen mit diesem Server zu gewährleisten.

Im Hintergrund basieren MCP-Kommunikationen typischerweise auf JSON und folgen einem Anfrage-Antwort-Muster, ähnlich wie bei RPC (Remote Procedure Call). Die Protokollspezifikation definiert Nachrichten wie InitializeRequest, ListTools, CallTool, ListResources usw., die sicherstellen, dass jeder MCP-konforme Client mit jedem MCP-Server auf einheitliche Weise kommunizieren kann. Diese Standardisierung ermöglicht es einem KI-Agenten zu entdecken, was er tun kann: Beim Verbinden mit einem neuen Server kann er fragen „Welche Tools und Daten bieten Sie an?“ und dann dynamisch entscheiden, wie er diese nutzen möchte.

Sicherheits- und Ausführungsmodell: MCP wurde mit Blick auf sichere, kontrollierte Interaktionen entwickelt. Das KI-Modell selbst führt keinen beliebigen Code aus; es sendet hochrangige Absichten (über den Client) an den Server, der dann die eigentliche Operation ausführt (z. B. Daten abrufen oder eine API aufrufen) und Ergebnisse zurückgibt. Diese Trennung bedeutet, dass sensible Aktionen (wie Blockchain-Transaktionen oder Datenbank-Schreibvorgänge) in einer Sandbox ausgeführt werden oder eine explizite Benutzergenehmigung erfordern können. Zum Beispiel gibt es Nachrichten wie Ping (um Verbindungen am Leben zu erhalten) und sogar eine CreateMessageRequest, die es einem MCP-Server ermöglicht, die KI des Clients aufzufordern, eine Unterantwort zu generieren, die typischerweise durch Benutzerbestätigung geschützt ist. Funktionen wie Authentifizierung, Zugriffskontrolle und Audit-Logging werden aktiv entwickelt, um sicherzustellen, dass MCP sicher in Unternehmens- und dezentralen Umgebungen eingesetzt werden kann (mehr dazu im Abschnitt Roadmap).

Zusammenfassend basiert die Architektur von MCP auf einem standardisierten Nachrichtenprotokoll (mit JSON-RPC-ähnlichen Aufrufen), das KI-Agenten (Hosts) mit einer flexiblen Reihe von Servern verbindet, die Tools, Daten und Aktionen bereitstellen. Diese offene Architektur ist modellagnostisch und plattformagnostisch – jeder KI-Agent kann MCP verwenden, um mit jeder Ressource zu kommunizieren, und jeder Entwickler kann einen neuen MCP-Server für eine Datenquelle erstellen, ohne den Kerncode der KI ändern zu müssen. Diese Plug-and-Play-Erweiterbarkeit macht MCP in Web3 so leistungsfähig: Man kann Server für Blockchain-Knoten, Smart Contracts, Wallets oder Orakel bauen und KI-Agenten diese Funktionen nahtlos neben Web2-APIs integrieren lassen.

3. Anwendungsfälle und Anwendungen von MCP in Web3

MCP erschliesst eine breite Palette von Anwendungsfällen, indem es KI-gesteuerten Anwendungen ermöglicht, auf Blockchain-Daten zuzugreifen und On-Chain- oder Off-Chain-Aktionen auf sichere, hochrangige Weise auszuführen. Hier sind einige wichtige Anwendungen und Probleme, die es im Web3-Bereich löst:

  • On-Chain-Datenanalyse und -Abfrage: KI-Agenten können den Live-Blockchain-Status in Echtzeit abfragen, um Einblicke zu liefern oder Aktionen auszulösen. Zum Beispiel ermöglicht ein MCP-Server, der mit einem Ethereum-Knoten verbunden ist, einer KI, Kontostände abzurufen, Smart-Contract-Speicher zu lesen, Transaktionen zu verfolgen oder Ereignisprotokolle bei Bedarf abzurufen. Dies verwandelt einen Chatbot oder einen Code-Assistenten in einen Blockchain-Explorer. Entwickler können einem KI-Assistenten Fragen stellen wie „Wie hoch ist die aktuelle Liquidität im Uniswap-Pool X?“ oder „Simulieren Sie die Gaskosten dieser Ethereum-Transaktion“, und die KI wird MCP-Tools verwenden, um einen RPC-Knoten aufzurufen und die Antwort von der Live-Chain zu erhalten. Dies ist weitaus leistungsfähiger, als sich auf die Trainingsdaten der KI oder statische Schnappschüsse zu verlassen.
  • Automatisiertes DeFi-Portfoliomanagement: Durch die Kombination von Datenzugriffs- und Aktionstools können KI-Agenten Krypto-Portfolios oder DeFi-Positionen verwalten. Zum Beispiel könnte ein „KI-Vault-Optimierer“ die Positionen eines Benutzers über Yield Farms hinweg überwachen und automatisch Rebalancing-Strategien basierend auf Echtzeit-Marktbedingungen vorschlagen oder ausführen. Ähnlich könnte eine KI als DeFi-Portfoliomanager fungieren und Allokationen zwischen Protokollen anpassen, wenn sich Risiko oder Zinssätze ändern. MCP bietet die Standardschnittstelle für die KI, um On-Chain-Metriken (Preise, Liquidität, Sicherheitenquoten) zu lesen und dann Tools aufzurufen, um Transaktionen (wie das Verschieben von Geldern oder den Tausch von Assets) auszuführen, falls dies erlaubt ist. Dies kann Benutzern helfen, den Ertrag zu maximieren oder das Risiko rund um die Uhr zu verwalten, was manuell schwer zu bewerkstelligen wäre.
  • KI-gestützte Benutzeragenten für Transaktionen: Stellen Sie sich einen persönlichen KI-Assistenten vor, der Blockchain-Interaktionen für einen Benutzer abwickeln kann. Mit MCP kann ein solcher Agent mit Wallets und DApps integriert werden, um Aufgaben über natürliche Sprachbefehle auszuführen. Ein Benutzer könnte zum Beispiel sagen: „KI, sende 0,5 ETH von meiner Wallet an Alice“ oder „Stelle meine Token in den Pool mit der höchsten APY“. Die KI würde über MCP einen sicheren Wallet-Server (der den privaten Schlüssel des Benutzers enthält) verwenden, um die Transaktion zu erstellen und zu signieren, und einen Blockchain-MCP-Server, um sie zu senden. Dieses Szenario verwandelt komplexe Befehlszeilen- oder Metamask-Interaktionen in ein Konversationserlebnis. Es ist entscheidend, dass hier sichere Wallet-MCP-Server verwendet werden, die Berechtigungen und Bestätigungen durchsetzen, aber das Endergebnis ist die Optimierung von On-Chain-Transaktionen durch KI-Unterstützung.
  • Entwicklerassistenten und Smart-Contract-Debugging: Web3-Entwickler können MCP-basierte KI-Assistenten nutzen, die sich der Blockchain-Infrastruktur bewusst sind. Zum Beispiel bieten die MCP-Server von Chainstack für EVM und Solana KI-Code-Copiloten tiefe Einblicke in die Blockchain-Umgebung des Entwicklers. Ein Smart-Contract-Ingenieur, der einen KI-Assistenten (in VS Code oder einer IDE) verwendet, kann die KI den aktuellen Status eines Contracts in einem Testnetz abrufen, eine Transaktion simulieren oder Protokolle überprüfen lassen – alles über MCP-Aufrufe an lokale Blockchain-Knoten. Dies hilft beim Debuggen und Testen von Contracts. Die KI codiert nicht mehr „blind“; sie kann tatsächlich in Echtzeit überprüfen, wie sich Code On-Chain verhält. Dieser Anwendungsfall löst ein grosses Problem, indem er es der KI ermöglicht, kontinuierlich aktuelle Dokumente (über einen Dokumentations-MCP-Server) aufzunehmen und die Blockchain direkt abzufragen, wodurch Halluzinationen reduziert und Vorschläge wesentlich genauer werden.
  • Protokollübergreifende Koordination: Da MCP eine einheitliche Schnittstelle ist, kann ein einziger KI-Agent gleichzeitig über mehrere Protokolle und Dienste hinweg koordinieren – etwas extrem Leistungsfähiges in der vernetzten Landschaft von Web3. Stellen Sie sich einen autonomen Handelsagenten vor, der verschiedene DeFi-Plattformen auf Arbitrage überwacht. Über MCP könnte ein Agent gleichzeitig mit den Kreditmärkten von Aave, einer LayerZero-Cross-Chain-Brücke und einem MEV (Miner Extractable Value)-Analysedienst über eine kohärente Schnittstelle interagieren. Die KI könnte in einem „Gedankenprozess“ Liquiditätsdaten von Ethereum (über einen MCP-Server auf einem Ethereum-Knoten) sammeln, Preisinformationen oder Orakeldaten (über einen anderen Server) erhalten und sogar Bridging- oder Swapping-Operationen aufrufen. Zuvor erforderte eine solche Multi-Plattform-Koordination komplexe, massgeschneiderte Bots, aber MCP bietet eine verallgemeinerbare Möglichkeit für eine KI, das gesamte Web3-Ökosystem zu navigieren, als wäre es ein grosser Daten-/Ressourcenpool. Dies könnte fortgeschrittene Anwendungsfälle wie Cross-Chain-Yield-Optimierung oder automatisierten Liquidationsschutz ermöglichen, bei denen eine KI Assets oder Sicherheiten proaktiv über Chains hinweg verschiebt.
  • KI-Beratungs- und Support-Bots: Eine weitere Kategorie sind benutzerorientierte Berater in Krypto-Anwendungen. Zum Beispiel könnte ein DeFi-Hilfe-Chatbot, der in eine Plattform wie Uniswap oder Compound integriert ist, MCP verwenden, um Echtzeitinformationen für den Benutzer abzurufen. Wenn ein Benutzer fragt: „Was ist der beste Weg, meine Position abzusichern?“, kann die KI aktuelle Kurse, Volatilitätsdaten und die Portfoliodetails des Benutzers über MCP abrufen und dann eine kontextbezogene Antwort geben. Plattformen erforschen KI-gestützte Assistenten, die in Wallets oder dApps eingebettet sind und Benutzer durch komplexe Transaktionen führen, Risiken erklären und sogar Abfolgen von Schritten mit Genehmigung ausführen können. Diese KI-Agenten sitzen effektiv auf mehreren Web3-Diensten (DEXes, Lending Pools, Versicherungsprotokolle) und nutzen MCP, um diese bei Bedarf abzufragen und zu steuern, wodurch die Benutzererfahrung vereinfacht wird.
  • Jenseits von Web3 – Multi-Domain-Workflows: Obwohl unser Fokus auf Web3 liegt, ist es erwähnenswert, dass die Anwendungsfälle von MCP sich auf jeden Bereich erstrecken, in dem KI externe Daten benötigt. Es wird bereits verwendet, um KI mit Dingen wie Google Drive, Slack, GitHub, Figma und mehr zu verbinden. In der Praxis könnte ein einziger KI-Agent Web3 und Web2 überspannen: z. B. ein Excel-Finanzmodell von Google Drive analysieren und dann basierend auf dieser Analyse On-Chain-Trades vorschlagen, alles in einem Workflow. Die Flexibilität von MCP ermöglicht eine domänenübergreifende Automatisierung (z. B. „plane mein Meeting, wenn meine DAO-Abstimmung erfolgreich ist, und sende die Ergebnisse per E-Mail“), die Blockchain-Aktionen mit alltäglichen Tools verbindet.

Gelöste Probleme: Das übergeordnete Problem, das MCP löst, ist das Fehlen einer einheitlichen Schnittstelle für KI zur Interaktion mit Live-Daten und -Diensten. Vor MCP musste man, wenn man wollte, dass eine KI einen neuen Dienst nutzt, ein Plugin oder eine Integration für die API dieses spezifischen Dienstes von Hand codieren, oft auf Ad-hoc-Basis. In Web3 war dies besonders umständlich – jede Blockchain oder jedes Protokoll hat ihre eigenen Schnittstellen, und keine KI konnte hoffen, sie alle zu unterstützen. MCP löst dies, indem es standardisiert, wie die KI beschreibt, was sie will (natürliche Sprache, die auf Tool-Aufrufe abgebildet wird) und wie Dienste beschreiben, was sie anbieten. Dies reduziert den Integrationsaufwand drastisch. Anstatt beispielsweise für jedes DeFi-Protokoll ein benutzerdefiniertes Plugin zu schreiben, kann ein Entwickler einen MCP-Server für dieses Protokoll schreiben (im Wesentlichen dessen Funktionen in natürlicher Sprache annotieren). Jede MCP-fähige KI (ob Claude, ChatGPT oder Open-Source-Modelle) kann es dann sofort nutzen. Dies macht KI auf Plug-and-Play-Weise erweiterbar, ähnlich wie das Hinzufügen eines neuen Geräts über einen universellen Anschluss einfacher ist als die Installation einer neuen Schnittstellenkarte.

Zusammenfassend ermöglicht MCP in Web3 KI-Agenten, erstklassige Bürger der Blockchain-Welt zu werden – Abfragen, Analysieren und sogar Transaktionen über dezentrale Systeme hinweg, alles über sichere, standardisierte Kanäle. Dies öffnet die Tür zu autonomeren DApps, intelligenteren Benutzeragenten und einer nahtlosen Integration von On-Chain- und Off-Chain-Intelligenz.

4. Tokenomics und Governance-Modell

Im Gegensatz zu typischen Web3-Protokollen verfügt MCP nicht über einen nativen Token oder eine Kryptowährung. Es ist keine Blockchain oder ein dezentrales Netzwerk für sich, sondern eine offene Protokollspezifikation (eher vergleichbar mit HTTP oder JSON-RPC im Geiste). Daher gibt es keine integrierte Tokenomics – keine Token-Ausgabe, kein Staking oder Gebührenmodell, das der Nutzung von MCP inhärent wäre. KI-Anwendungen und Server kommunizieren über MCP ohne jegliche Kryptowährung; zum Beispiel könnte eine KI, die eine Blockchain über MCP aufruft, Gasgebühren für die Blockchain-Transaktion zahlen, aber MCP selbst fügt keine zusätzlichen Token-Gebühren hinzu. Dieses Design spiegelt den Ursprung von MCP in der KI-Community wider: Es wurde als technischer Standard zur Verbesserung der KI-Tool-Interaktionen eingeführt, nicht als tokenisiertes Projekt.

Die Governance von MCP erfolgt auf offene, gemeinschaftsgetriebene Weise. Nach der Veröffentlichung von MCP als offenem Standard signalisierte Anthropic ein Engagement für kollaborative Entwicklung. Ein breites Lenkungsausschuss und Arbeitsgruppen haben sich gebildet, um die Entwicklung des Protokolls zu steuern. Bemerkenswerterweise traten Mitte 2025 wichtige Stakeholder wie Microsoft und GitHub dem MCP-Lenkungsausschuss neben Anthropic bei. Dies wurde auf der Microsoft Build 2025 bekannt gegeben und deutet auf eine Koalition von Branchenakteuren hin, die die Roadmap und Standardentscheidungen von MCP leiten. Der Ausschuss und die Betreuer arbeiten über einen offenen Governance-Prozess: Vorschläge zur Änderung oder Erweiterung von MCP werden typischerweise öffentlich diskutiert (z. B. über GitHub-Issues und „SEP“ – Standard Enhancement Proposal – Richtlinien). Es gibt auch eine MCP Registry-Arbeitsgruppe (mit Betreuern von Unternehmen wie Block, PulseMCP, GitHub und Anthropic), die die Multi-Parteien-Governance veranschaulicht. Anfang 2025 arbeiteten Mitwirkende von mindestens 9 verschiedenen Organisationen zusammen, um ein einheitliches MCP-Server-Register zur Entdeckung aufzubauen, was zeigt, wie die Entwicklung über Community-Mitglieder dezentralisiert und nicht von einer einzigen Entität kontrolliert wird.

Da es keinen Token gibt, basieren Governance-Anreize auf den gemeinsamen Interessen der Stakeholder (KI-Unternehmen, Cloud-Anbieter, Blockchain-Entwickler usw.), um das Protokoll für alle zu verbessern. Dies ist in gewisser Weise analog zur Governance von W3C- oder IETF-Standards, jedoch mit einem schnelleren, GitHub-zentrierten Prozess. Zum Beispiel arbeiteten Microsoft und Anthropic zusammen, um eine verbesserte Autorisierungsspezifikation für MCP zu entwerfen (Integration von Dingen wie OAuth und Single Sign-On), und GitHub arbeitete am offiziellen MCP Registry-Dienst zur Auflistung verfügbarer Server mit. Diese Verbesserungen wurden zum Nutzen aller in die MCP-Spezifikation zurückgeführt.

Es ist erwähnenswert, dass, obwohl MCP selbst nicht tokenisiert ist, es zukunftsweisende Ideen gibt, wirtschaftliche Anreize und Dezentralisierung auf MCP aufzubauen. Einige Forscher und Vordenker in Web3 sehen die Entstehung von „MCP-Netzwerken“ voraus – im Wesentlichen dezentrale Netzwerke von MCP-Servern und -Agenten, die Blockchain-ähnliche Mechanismen für Entdeckung, Vertrauen und Belohnungen nutzen. In einem solchen Szenario könnte man sich vorstellen, dass ein Token verwendet wird, um diejenigen zu belohnen, die hochwertige MCP-Server betreiben (ähnlich wie Miner oder Knotenbetreiber Anreize erhalten). Funktionen wie Reputationsbewertungen, überprüfbare Berechnungen und Knotenerkennung könnten durch Smart Contracts oder eine Blockchain ermöglicht werden, wobei ein Token ehrliches Verhalten fördert. Dies ist noch konzeptionell, aber Projekte wie MITs Namda (später diskutiert) experimentieren mit tokenbasierten Anreizmechanismen für Netzwerke von KI-Agenten, die MCP verwenden. Wenn diese Ideen reifen, könnte MCP direkter mit On-Chain-Tokenomics in Verbindung treten, aber ab 2025 bleibt der Kern-MCP-Standard tokenfrei.

Zusammenfassend ist das „Governance-Modell“ von MCP das eines offenen Technologiestandards: kollaborativ von einer Community und einem Lenkungsausschuss von Experten gepflegt, ohne On-Chain-Governance-Token. Entscheidungen werden durch technische Verdienste und breiten Konsens geleitet, nicht durch gewichtete Abstimmung nach Tokenbesitz. Dies unterscheidet MCP von vielen Web3-Protokollen – es zielt darauf ab, die Ideale von Web3 (Dezentralisierung, Interoperabilität, Benutzerermächtigung) durch offene Software und Standards zu erfüllen, nicht durch eine proprietäre Blockchain oder einen Token. In den Worten einer Analyse: „Das Versprechen von Web3... kann endlich nicht durch Blockchain und Kryptowährung, sondern durch natürliche Sprache und KI-Agenten verwirklicht werden“, was MCP als einen wichtigen Wegbereiter dieser Vision positioniert. Dennoch könnten wir, wenn MCP-Netzwerke wachsen, hybride Modelle sehen, bei denen Blockchain-basierte Governance- oder Anreizmechanismen das Ökosystem ergänzen – ein Bereich, der genau zu beobachten ist.

5. Community und Ökosystem

Das MCP-Ökosystem ist in kurzer Zeit explosionsartig gewachsen und umfasst KI-Entwickler, Open-Source-Mitwirkende, Web3-Ingenieure und grosse Technologieunternehmen. Es ist eine lebendige Gemeinschaftsanstrengung, mit wichtigen Mitwirkenden und Partnerschaften, darunter:

  • Anthropic: Als Schöpfer hat Anthropic das Ökosystem durch die Veröffentlichung der MCP-Spezifikation und mehrerer Referenzserver (für Google Drive, Slack, GitHub usw.) als Open Source initiiert. Anthropic führt die Entwicklung weiterhin an (zum Beispiel fungieren Mitarbeiter wie Theodora Chu als MCP-Produktmanager, und das Team von Anthropic trägt massgeblich zu Spezifikationsaktualisierungen und Community-Support bei). Die Offenheit von Anthropic zog andere an, auf MCP aufzubauen, anstatt es als Tool eines einzelnen Unternehmens zu betrachten.

  • Frühe Anwender (Block, Apollo, Zed, Replit, Codeium, Sourcegraph): In den ersten Monaten nach der Veröffentlichung implementierte eine Welle früher Anwender MCP in ihren Produkten. Block (ehemals Square) integrierte MCP, um KI-Agentensysteme im Fintech-Bereich zu erforschen – der CTO von Block lobte MCP als offene Brücke, die KI mit realen Anwendungen verbindet. Apollo (wahrscheinlich Apollo GraphQL) integrierte MCP ebenfalls, um KI den Zugriff auf interne Daten zu ermöglichen. Entwicklertool-Unternehmen wie Zed (Code-Editor), Replit (Cloud-IDE), Codeium (KI-Code-Assistent) und Sourcegraph (Code-Suche) arbeiteten jeweils daran, MCP-Unterstützung hinzuzufügen. Zum Beispiel verwendet Sourcegraph MCP, damit ein KI-Code-Assistent als Antwort auf eine Frage relevanten Code aus einem Repository abrufen kann, und die IDE-Agenten von Replit können projektspezifischen Kontext abrufen. Diese frühen Anwender verliehen MCP Glaubwürdigkeit und Sichtbarkeit.

  • Big Tech-Unterstützung – OpenAI, Microsoft, Google: Bemerkenswerterweise haben sich Unternehmen, die sonst Konkurrenten sind, bei MCP geeinigt. OpenAIs CEO Sam Altman kündigte im März 2025 öffentlich an, dass OpenAI MCP-Unterstützung in all seinen Produkten (einschliesslich der Desktop-App von ChatGPT) hinzufügen werde, und sagte: „Die Leute lieben MCP, und wir freuen uns, die Unterstützung in all unseren Produkten hinzuzufügen“. Dies bedeutete, dass die Agent API von OpenAI und ChatGPT-Plugins MCP sprechen würden, um Interoperabilität zu gewährleisten. Nur wenige Wochen später enthüllte Google DeepMinds CEO Demis Hassabis, dass die kommenden Gemini-Modelle und -Tools von Google MCP unterstützen würden, und nannte es ein gutes Protokoll und einen offenen Standard für die „Ära der KI-Agenten“. Microsoft trat nicht nur dem Lenkungsausschuss bei, sondern arbeitete auch mit Anthropic zusammen, um ein offizielles C#-SDK für MCP zu entwickeln, um die Enterprise-Entwicklergemeinschaft zu bedienen. Die GitHub-Einheit von Microsoft integrierte MCP in GitHub Copilot (den ‚Copilot Labs/Agents‘-Modus von VS Code), wodurch Copilot MCP-Server für Dinge wie die Repository-Suche und das Ausführen von Testfällen nutzen kann. Zusätzlich kündigte Microsoft an, dass Windows 11 bestimmte OS-Funktionen (wie den Dateisystemzugriff) als MCP-Server bereitstellen würde, damit KI-Agenten sicher mit dem Betriebssystem interagieren können. Die Zusammenarbeit zwischen OpenAI, Microsoft, Google und Anthropic – die sich alle um MCP versammeln – ist aussergewöhnlich und unterstreicht das Ethos „Community vor Wettbewerb“ dieses Standards.

  • Web3-Entwicklergemeinschaft: Eine Reihe von Blockchain-Entwicklern und Startups hat MCP angenommen. Mehrere gemeinschaftsgetriebene MCP-Server wurden erstellt, um Blockchain-Anwendungsfälle zu bedienen:

    • Das Team von Alchemy (einem führenden Blockchain-Infrastrukturanbieter) entwickelte einen Alchemy MCP Server, der On-Demand-Blockchain-Analysetools über MCP anbietet. Dies ermöglicht es einer KI wahrscheinlich, Blockchain-Statistiken (wie historische Transaktionen, Adressaktivität) über die APIs von Alchemy mithilfe natürlicher Sprache abzurufen.
    • Mitwirkende entwickelten einen Bitcoin & Lightning Network MCP Server, um mit Bitcoin-Knoten und dem Lightning-Zahlungsnetzwerk zu interagieren, wodurch KI-Agenten Bitcoin-Blockdaten lesen oder sogar Lightning-Rechnungen über Standard-Tools erstellen können.
    • Die Krypto-Medien- und Bildungsgruppe Bankless erstellte einen Onchain MCP Server, der sich auf Web3-Finanzinteraktionen konzentriert und möglicherweise eine Schnittstelle zu DeFi-Protokollen (Senden von Transaktionen, Abfragen von DeFi-Positionen usw.) für KI-Assistenten bereitstellt.
    • Projekte wie Rollup.codes (eine Wissensdatenbank für Ethereum Layer 2s) erstellten einen MCP-Server für Rollup-Ökosysteminformationen, sodass eine KI technische Fragen zu Rollups beantworten kann, indem sie diesen Server abfragt.
    • Chainstack, ein Blockchain-Knotenanbieter, startete eine Suite von MCP-Servern (zuvor erwähnt) für Dokumentation, EVM-Kettendaten und Solana, die explizit als „Ihre KI auf Blockchain-Steroiden“ für Web3-Entwickler vermarktet wird.

    Darüber hinaus sind Web3-fokussierte Communities um MCP herum entstanden. Zum Beispiel werden PulseMCP und Goose als Community-Initiativen genannt, die beim Aufbau des MCP-Registers helfen. Wir sehen auch eine gegenseitige Befruchtung mit KI-Agenten-Frameworks: Die LangChain-Community integrierte Adapter, sodass alle MCP-Server als Tools in LangChain-gesteuerten Agenten verwendet werden können, und Open-Source-KI-Plattformen wie Hugging Face TGI (Text-Generation-Inference) erforschen die MCP-Kompatibilität. Das Ergebnis ist ein reichhaltiges Ökosystem, in dem fast täglich neue MCP-Server angekündigt werden, die alles von Datenbanken bis zu IoT-Geräten bedienen.

  • Umfang der Akzeptanz: Die Akzeptanz lässt sich in gewissem Masse quantifizieren. Bis Februar 2025 – kaum drei Monate nach dem Start – waren über 1.000 MCP-Server/Konnektoren von der Community gebaut worden. Diese Zahl ist nur gewachsen und deutet auf Tausende von Integrationen in verschiedenen Branchen hin. Mike Krieger (Chief Product Officer von Anthropic) stellte im Frühjahr 2025 fest, dass MCP zu einem „florierenden offenen Standard mit Tausenden von Integrationen und wachsend“ geworden sei. Das offizielle MCP Registry (im September 2025 als Vorschau gestartet) katalogisiert öffentlich verfügbare Server und erleichtert die Entdeckung von Tools; die offene API des Registers ermöglicht es jedem, beispielsweise nach „Ethereum“ oder „Notion“ zu suchen und relevante MCP-Konnektoren zu finden. Dies senkt die Eintrittsbarriere für neue Teilnehmer und fördert das Wachstum weiter.

  • Partnerschaften: Wir haben viele implizite Partnerschaften (Anthropic mit Microsoft, usw.) angesprochen. Um noch einige weitere hervorzuheben:

    • Anthropic & Slack: Anthropic hat sich mit Slack zusammengetan, um Claude über MCP mit den Daten von Slack zu integrieren (Slack verfügt über einen offiziellen MCP-Server, der es KI ermöglicht, Slack-Nachrichten abzurufen oder Warnungen zu posten).
    • Cloud-Anbieter: Amazon (AWS) und Google Cloud haben mit Anthropic zusammengearbeitet, um Claude zu hosten, und es ist wahrscheinlich, dass sie MCP in diesen Umgebungen unterstützen (z. B. könnte AWS Bedrock MCP-Konnektoren für Unternehmensdaten zulassen). Obwohl nicht explizit in Zitaten erwähnt, sind diese Cloud-Partnerschaften wichtig für die Unternehmensakzeptanz.
    • Akademische Kooperationen: Das Forschungsprojekt Namda des MIT und IBM (als Nächstes besprochen) stellt eine Partnerschaft zwischen Wissenschaft und Industrie dar, um die Grenzen von MCP in dezentralen Umgebungen zu erweitern.
    • GitHub & VS Code: Partnerschaft zur Verbesserung der Entwicklererfahrung – z. B. hat das VS Code-Team aktiv zu MCP beigetragen (einer der Registry-Betreuer stammt vom VS Code-Team).
    • Zahlreiche Startups: Viele KI-Startups (Agenten-Startups, Workflow-Automatisierungs-Startups) bauen auf MCP auf, anstatt das Rad neu zu erfinden. Dazu gehören aufstrebende Web3-KI-Startups, die „KI als DAO“ oder autonome Wirtschaftsagenten anbieten wollen.

Insgesamt ist die MCP-Community vielfältig und wächst schnell. Sie umfasst Kerntechnologieunternehmen (für Standards und Basistools), Web3-Spezialisten (die Blockchain-Wissen und Anwendungsfälle einbringen) und unabhängige Entwickler (die oft Konnektoren für ihre Lieblings-Apps oder -Protokolle beisteuern). Das Ethos ist kollaborativ. Zum Beispiel haben Sicherheitsbedenken hinsichtlich Drittanbieter-MCP-Servern zu Community-Diskussionen und Beiträgen zu Best Practices geführt (z. B. arbeiten Stacklok-Mitwirkende an Sicherheitstools für MCP-Server). Die Fähigkeit der Community, schnell zu iterieren (MCP erfuhr innerhalb weniger Monate mehrere Spezifikations-Upgrades, die Funktionen wie Streaming-Antworten und bessere Authentifizierung hinzufügten), ist ein Beweis für das breite Engagement.

Speziell im Web3-Ökosystem hat MCP ein Mini-Ökosystem von „KI + Web3“-Projekten gefördert. Es ist nicht nur ein Protokoll zur Nutzung; es katalysiert neue Ideen wie KI-gesteuerte DAOs, On-Chain-Governance, die durch KI-Analyse unterstützt wird, und domänenübergreifende Automatisierung (wie die Verknüpfung von On-Chain-Ereignissen mit Off-Chain-Aktionen durch KI). Die Präsenz wichtiger Web3-Persönlichkeiten – z. B. Zhivko Todorov von LimeChain, der feststellt: „MCP repräsentiert die unvermeidliche Integration von KI und Blockchain“ – zeigt, dass Blockchain-Veteranen es aktiv unterstützen. Partnerschaften zwischen KI- und Blockchain-Unternehmen (wie die zwischen Anthropic und Block oder Microsofts Azure Cloud, die die Bereitstellung von MCP neben ihren Blockchain-Diensten vereinfacht) deuten auf eine Zukunft hin, in der KI-Agenten und Smart Contracts Hand in Hand arbeiten.

Man könnte sagen, MCP hat die erste echte Konvergenz der KI-Entwicklergemeinschaft mit der Web3-Entwicklergemeinschaft ausgelöst. Hackathons und Meetups bieten jetzt MCP-Tracks an. Als konkretes Mass für die Akzeptanz im Ökosystem: Mitte 2025 unterstützen OpenAI, Google und Anthropic – die zusammen die Mehrheit der fortschrittlichen KI-Modelle repräsentieren – alle MCP, und auf der anderen Seite bauen führende Blockchain-Infrastrukturanbieter (Alchemy, Chainstack), Krypto-Unternehmen (Block usw.) und dezentrale Projekte MCP-Hooks. Dieser zweiseitige Netzwerkeffekt lässt MCP zu einem dauerhaften Standard werden.

6. Roadmap und Entwicklungsmeilensteine

Die Entwicklung von MCP war rasant. Hier skizzieren wir die bisherigen wichtigen Meilensteine und die zukünftige Roadmap, wie sie aus offiziellen Quellen und Community-Updates hervorgehen:

  • Ende 2024 – Erstveröffentlichung: Am 25. November 2024 kündigte Anthropic MCP offiziell an und veröffentlichte die Spezifikation sowie erste SDKs als Open Source. Neben der Spezifikation veröffentlichten sie eine Handvoll MCP-Server-Implementierungen für gängige Tools (Google Drive, Slack, GitHub usw.) und fügten Unterstützung im Claude AI-Assistenten (Claude Desktop-App) hinzu, um lokale MCP-Server zu verbinden. Dies markierte den 1.0-Start von MCP. Frühe Proof-of-Concept-Integrationen bei Anthropic zeigten, wie Claude MCP verwenden konnte, um Dateien zu lesen oder eine SQL-Datenbank in natürlicher Sprache abzufragen, was das Konzept validierte.
  • Q1 2025 – Schnelle Akzeptanz und Iteration: In den ersten Monaten des Jahres 2025 erlebte MCP eine weit verbreitete Akzeptanz in der Branche. Bis März 2025 kündigten OpenAI und andere KI-Anbieter Unterstützung an (wie oben beschrieben). In diesem Zeitraum kam es auch zu einer Spezifikationsentwicklung: Anthropic aktualisierte MCP um Streaming-Funktionen (die es ermöglichen, grosse Ergebnisse oder kontinuierliche Datenströme inkrementell zu senden). Dieses Update wurde im April 2025 mit den C#-SDK-Nachrichten bekannt gegeben und zeigte, dass MCP nun Funktionen wie chunked responses oder Echtzeit-Feed-Integration unterstützte. Die Community erstellte auch Referenzimplementierungen in verschiedenen Sprachen (Python, JavaScript usw.) über das SDK von Anthropic hinaus, um polyglotte Unterstützung zu gewährleisten.
  • Q2 2025 – Ökosystem-Tools und Governance: Im Mai 2025, mit dem Beitritt von Microsoft und GitHub zu den Bemühungen, gab es einen Vorstoss zur Formalisierung der Governance und zur Verbesserung der Sicherheit. Auf der Build 2025 enthüllte Microsoft Pläne für die Windows 11 MCP-Integration und detaillierte eine Zusammenarbeit zur Verbesserung der Autorisierungsabläufe in MCP. Etwa zur gleichen Zeit wurde die Idee eines MCP Registry zur Indexierung verfügbarer Server eingeführt (das anfängliche Brainstorming begann laut Registry-Blog im März 2025). Der „Standards-Track“-Prozess (SEP – Standard Enhancement Proposals) wurde auf GitHub etabliert, ähnlich wie EIPs von Ethereum oder PEPs von Python, um Beiträge geordnet zu verwalten. Community-Anrufe und Arbeitsgruppen (für Sicherheit, Registry, SDKs) begannen sich zu treffen.
  • Mitte 2025 – Funktionserweiterung: Bis Mitte 2025 priorisierte die Roadmap mehrere wichtige Verbesserungen:
    • Unterstützung für asynchrone und langlaufende Aufgaben: Pläne, MCP die Verarbeitung langer Operationen zu ermöglichen, ohne die Verbindung zu blockieren. Wenn eine KI beispielsweise einen Cloud-Job auslöst, der Minuten dauert, würde das MCP-Protokoll asynchrone Antworten oder eine erneute Verbindung unterstützen, um Ergebnisse abzurufen.
    • Authentifizierung und feingranulare Sicherheit: Entwicklung von feingranularen Autorisierungsmechanismen für sensible Aktionen. Dies umfasst möglicherweise die Integration von OAuth-Flows, API-Schlüsseln und Enterprise-SSO in MCP-Server, damit der KI-Zugriff sicher verwaltet werden kann. Bis Mitte 2025 waren Leitfäden und Best Practices für die MCP-Sicherheit in Arbeit, angesichts der Sicherheitsrisiken, die das Ermöglichen des Aufrufs leistungsstarker Tools durch KI birgt. Ziel ist es, dass beispielsweise, wenn eine KI über MCP auf die private Datenbank eines Benutzers zugreifen soll, sie einem sicheren Autorisierungsablauf (mit Benutzerzustimmung) folgen sollte, anstatt nur einem offenen Endpunkt.
    • Validierung und Compliance-Tests: Die Community erkannte die Notwendigkeit der Zuverlässigkeit und priorisierte den Aufbau von Compliance-Testsuiten und Referenzimplementierungen. Durch die Sicherstellung, dass alle MCP-Clients/-Server die Spezifikation einhalten (durch automatisierte Tests), sollte eine Fragmentierung verhindert werden. Ein Referenzserver (wahrscheinlich ein Beispiel mit Best Practices für die Remote-Bereitstellung und Authentifizierung) stand auf der Roadmap, ebenso wie eine Referenz-Client-Anwendung, die die vollständige MCP-Nutzung mit einer KI demonstriert.
    • Multimodalitätsunterstützung: Erweiterung von MCP über Text hinaus, um Modalitäten wie Bild-, Audio-, Videodaten im Kontext zu unterstützen. Zum Beispiel könnte eine KI ein Bild von einem MCP-Server anfordern (z. B. ein Design-Asset oder ein Diagramm) oder ein Bild ausgeben. Die Spezifikationsdiskussion umfasste das Hinzufügen von Unterstützung für Streaming- und Chunked-Nachrichten, um grosse Multimedia-Inhalte interaktiv zu verarbeiten. Frühe Arbeiten an „MCP Streaming“ waren bereits im Gange (um Dinge wie Live-Audio-Feeds oder kontinuierliche Sensordaten an KI zu unterstützen).
    • Zentrales Register & Discovery: Der Plan zur Implementierung eines zentralen MCP Registry-Dienstes für die Server-Discovery wurde Mitte 2025 umgesetzt. Bis September 2025 wurde das offizielle MCP Registry als Vorschau gestartet. Dieses Register bietet eine einzige Quelle der Wahrheit für öffentlich verfügbare MCP-Server, die es Clients ermöglicht, Server nach Namen, Kategorie oder Fähigkeiten zu finden. Es ist im Wesentlichen wie ein App Store (aber offen) für KI-Tools. Das Design ermöglicht öffentliche Register (einen globalen Index) und private (unternehmensspezifische), die alle über eine gemeinsame API interoperabel sind. Das Register führte auch einen Moderationsmechanismus ein, um bösartige Server zu kennzeichnen oder zu entfernen, mit einem Community-Moderationsmodell zur Aufrechterhaltung der Qualität.
  • Ende 2025 und darüber hinaus – Hin zu dezentralen MCP-Netzwerken: Obwohl noch keine „offiziellen“ Roadmap-Punkte, weist die Entwicklung auf mehr Dezentralisierung und Web3-Synergie hin:
    • Forscher untersuchen aktiv, wie dezentrale Discovery-, Reputations- und Anreizschichten zu MCP hinzugefügt werden können. Das Konzept eines MCP-Netzwerks (oder „Marktplatzes von MCP-Endpunkten“) wird inkubiert. Dies könnte Smart-Contract-basierte Register (damit es keinen Single Point of Failure für Serverlisten gibt), Reputationssysteme, bei denen Server/Clients On-Chain-Identitäten und Einsätze für gutes Verhalten haben, und möglicherweise Token-Belohnungen für den Betrieb zuverlässiger MCP-Knoten umfassen.
    • Projekt Namda am MIT, das 2024 begann, ist ein konkreter Schritt in diese Richtung. Bis 2025 hatte Namda einen Prototyp eines verteilten Agenten-Frameworks auf den Grundlagen von MCP aufgebaut, einschliesslich Funktionen wie dynamische Knotenerkennung, Lastverteilung über Agentencluster und ein dezentrales Register unter Verwendung von Blockchain-Techniken. Sie haben sogar experimentelle tokenbasierte Anreize und Herkunftsverfolgung für Multi-Agenten-Kooperationen. Meilensteine von Namda zeigen, dass es machbar ist, ein Netzwerk von MCP-Agenten auf vielen Maschinen mit vertrauensloser Koordination zu betreiben. Wenn Namdas Konzepte übernommen werden, könnten wir sehen, wie sich MCP entwickelt, um einige dieser Ideen zu integrieren (möglicherweise durch optionale Erweiterungen oder separate Protokolle, die darauf aufbauen).
    • Enterprise-Härtung: Auf der Unternehmensseite erwarten wir bis Ende 2025, dass MCP in wichtige Unternehmenssoftwareangebote integriert wird (Microsofts Einbindung in Windows und Azure ist ein Beispiel). Die Roadmap umfasst unternehmensfreundliche Funktionen wie SSO-Integration für MCP-Server und robuste Zugriffskontrollen. Die allgemeine Verfügbarkeit des MCP Registry und von Toolkits für die Bereitstellung von MCP in grossem Massstab (z. B. innerhalb eines Unternehmensnetzwerks) ist wahrscheinlich bis Ende 2025.

Um einige wichtige Entwicklungsmeilensteine bisher (im Zeitformat zur Klarheit) zusammenzufassen:

  • Nov 2024: MCP 1.0 veröffentlicht (Anthropic).
  • Dez 2024 – Jan 2025: Community baut erste Welle von MCP-Servern; Anthropic veröffentlicht Claude Desktop mit MCP-Unterstützung; kleine Pilotprojekte von Block, Apollo usw.
  • Feb 2025: Über 1000 Community-MCP-Konnektoren erreicht; Anthropic veranstaltet Workshops (z. B. auf einem KI-Gipfel, zur Förderung der Bildung).
  • Mär 2025: OpenAI kündigt Unterstützung an (ChatGPT Agents SDK).
  • Apr 2025: Google DeepMind kündigt Unterstützung an (Gemini wird MCP unterstützen); Microsoft veröffentlicht Vorschau des C#-SDKs.
  • Mai 2025: Lenkungsausschuss erweitert (Microsoft/GitHub); Build 2025 Demos (Windows MCP-Integration).
  • Jun 2025: Chainstack startet Web3 MCP-Server (EVM/Solana) zur öffentlichen Nutzung.
  • Jul 2025: MCP-Spezifikationsversionen aktualisiert (Streaming, Authentifizierungsverbesserungen); offizielle Roadmap auf der MCP-Website veröffentlicht.
  • Sep 2025: MCP Registry (Vorschau) gestartet; wahrscheinlich erreicht MCP die allgemeine Verfügbarkeit in weiteren Produkten (Claude for Work usw.).
  • Ende 2025 (prognostiziert): Registry v1.0 live; Leitfäden für Best Practices im Bereich Sicherheit veröffentlicht; möglicherweise erste Experimente mit dezentraler Discovery (Namda-Ergebnisse).

Die Vision für die Zukunft ist, dass MCP so allgegenwärtig und unsichtbar wird wie HTTP oder JSON – eine gemeinsame Schicht, die viele Apps im Hintergrund verwenden. Für Web3 deutet die Roadmap auf eine tiefere Fusion hin: KI-Agenten werden Web3 (Blockchains) nicht nur als Informationsquellen oder -senken nutzen, sondern die Web3-Infrastruktur selbst könnte beginnen, KI-Agenten (über MCP) als Teil ihres Betriebs zu integrieren (zum Beispiel könnte eine DAO eine MCP-kompatible KI betreiben, um bestimmte Aufgaben zu verwalten, oder Orakel könnten Daten über MCP-Endpunkte veröffentlichen). Die Betonung der Roadmap auf Dinge wie Überprüfbarkeit und Authentifizierung deutet darauf hin, dass in Zukunft vertrauensminimierte MCP-Interaktionen Realität werden könnten – stellen Sie sich KI-Ausgaben vor, die mit kryptografischen Beweisen versehen sind, oder ein On-Chain-Protokoll darüber, welche Tools eine KI zu Prüfzwecken aufgerufen hat. Diese Möglichkeiten verwischen die Grenze zwischen KI- und Blockchain-Netzwerken, und MCP steht im Mittelpunkt dieser Konvergenz.

Zusammenfassend ist die Entwicklung von MCP hochdynamisch. Es hat wichtige frühe Meilensteine erreicht (breite Akzeptanz und Standardisierung innerhalb eines Jahres nach dem Start) und entwickelt sich mit einer klaren Roadmap, die Sicherheit, Skalierbarkeit und Entdeckung betont, weiterhin rasant. Die erreichten und geplanten Meilensteine stellen sicher, dass MCP robust bleibt, während es skaliert: Herausforderungen wie langlaufende Aufgaben, sichere Berechtigungen und die schiere Auffindbarkeit Tausender von Tools werden angegangen. Diese Vorwärtsdynamik zeigt, dass MCP keine statische Spezifikation, sondern ein wachsender Standard ist, der wahrscheinlich weitere Web3-spezifische Funktionen (dezentrale Governance von Servern, Anreizabstimmung) integrieren wird, sobald diese Bedürfnisse entstehen. Die Community ist bereit, MCP an neue Anwendungsfälle (multimodale KI, IoT usw.) anzupassen, während sie das Kernversprechen im Auge behält: KI vernetzter, kontextbewusster und benutzerfreundlicher in der Web3-Ära zu machen.

7. Vergleich mit ähnlichen Web3-Projekten oder Protokollen

Die einzigartige Mischung aus KI und Konnektivität von MCP bedeutet, dass es nicht viele direkte, eins-zu-eins-Vergleiche gibt, aber es ist aufschlussreich, es mit anderen Projekten an der Schnittstelle von Web3 und KI oder mit analogen Zielen zu vergleichen:

  • SingularityNET (AGI/X)Dezentraler KI-Marktplatz: SingularityNET, 2017 von Dr. Ben Goertzel und anderen ins Leben gerufen, ist ein Blockchain-basierter Marktplatz für KI-Dienste. Es ermöglicht Entwicklern, KI-Algorithmen als Dienste zu monetarisieren und Benutzern, diese Dienste zu konsumieren, alles erleichtert durch einen Token (AGIX), der für Zahlungen und Governance verwendet wird. Im Wesentlichen versucht SingularityNET, das Angebot von KI-Modellen zu dezentralisieren, indem es sie in einem Netzwerk hostet, in dem jeder einen KI-Dienst gegen Token aufrufen kann. Dies unterscheidet sich grundlegend von MCP. MCP hostet oder monetarisiert keine KI-Modelle; stattdessen bietet es eine Standardschnittstelle für KI (wo immer sie läuft), um auf Daten/Tools zuzugreifen. Man könnte sich vorstellen, MCP zu verwenden, um eine KI mit Diensten zu verbinden, die auf SingularityNET gelistet sind, aber SingularityNET selbst konzentriert sich auf die ökonomische Schicht (wer einen KI-Dienst bereitstellt und wie er bezahlt wird). Ein weiterer wichtiger Unterschied: Governance – SingularityNET hat eine On-Chain-Governance (über SingularityNET Enhancement Proposals (SNEPs) und AGIX-Token-Abstimmung), um seine Plattform weiterzuentwickeln. Die Governance von MCP ist im Gegensatz dazu Off-Chain und kollaborativ ohne Token. Zusammenfassend streben SingularityNET und MCP beide ein offeneres KI-Ökosystem an, aber SingularityNET handelt von einem tokenisierten Netzwerk von KI-Algorithmen, während MCP von einem Protokollstandard für die KI-Tool-Interoperabilität handelt. Sie könnten sich ergänzen: zum Beispiel könnte eine KI auf SingularityNET MCP verwenden, um externe Daten abzurufen, die sie benötigt. Aber SingularityNET versucht nicht, die Tool-Nutzung zu standardisieren; es verwendet Blockchain, um KI-Dienste zu koordinieren, während MCP Softwarestandards verwendet, um KI mit jedem Dienst arbeiten zu lassen.
  • Fetch.ai (FET)Agentenbasierte dezentrale Plattform: Fetch.ai ist ein weiteres Projekt, das KI und Blockchain miteinander verbindet. Es hat seine eigene Proof-of-Stake-Blockchain und ein Framework für den Aufbau autonomer Agenten gestartet, die Aufgaben ausführen und in einem dezentralen Netzwerk interagieren. In Fetchs Vision können Millionen von „Software-Agenten“ (die Menschen, Geräte oder Organisationen repräsentieren) verhandeln und Werte austauschen, wobei FET-Token für Transaktionen verwendet werden. Fetch.ai bietet ein Agenten-Framework (uAgents) und eine Infrastruktur für die Entdeckung und Kommunikation zwischen Agenten auf seinem Ledger. Zum Beispiel könnte ein Fetch-Agent helfen, den Verkehr in einer Stadt zu optimieren, indem er mit anderen Agenten für Parken und Transport interagiert, oder einen Lieferketten-Workflow autonom verwalten. Wie vergleicht sich das mit MCP? Beide befassen sich mit dem Konzept von Agenten, aber die Agenten von Fetch.ai sind stark an seine Blockchain und Token-Ökonomie gebunden – sie leben im Fetch-Netzwerk und verwenden On-Chain-Logik. MCP-Agenten (KI-Hosts) sind modellgesteuert (wie ein LLM) und nicht an ein einziges Netzwerk gebunden; MCP ist zufrieden damit, über das Internet oder innerhalb einer Cloud-Einrichtung zu arbeiten, ohne eine Blockchain zu benötigen. Fetch.ai versucht, eine neue dezentrale KI-Wirtschaft von Grund auf aufzubauen (mit ihrem eigenen Ledger für Vertrauen und Transaktionen), während MCP schichtagnostisch ist – es nutzt bestehende Netzwerke (könnte über HTTPS oder bei Bedarf sogar auf einer Blockchain verwendet werden), um KI-Interaktionen zu ermöglichen. Man könnte sagen, Fetch handelt eher von autonomen Wirtschaftsagenten und MCP von intelligenten Tool-nutzenden Agenten. Interessanterweise könnten sich diese überschneiden: Ein autonomer Agent auf Fetch.ai könnte MCP verwenden, um mit Off-Chain-Ressourcen oder anderen Blockchains zu interagieren. Umgekehrt könnte man MCP verwenden, um Multi-Agenten-Systeme zu bauen, die verschiedene Blockchains (nicht nur eine) nutzen. In der Praxis hat MCP eine schnellere Akzeptanz erfahren, weil es kein eigenes Netzwerk benötigte – es funktioniert sofort mit Ethereum, Solana, Web2-APIs usw. Der Ansatz von Fetch.ai ist aufwendiger und schafft ein ganzes Ökosystem, dem die Teilnehmer beitreten (und Token erwerben) müssen, um es zu nutzen. Zusammenfassend: Fetch.ai vs. MCP: Fetch ist eine Plattform mit eigenem Token/Blockchain für KI-Agenten, die sich auf Interoperabilität und wirtschaftlichen Austausch zwischen Agenten konzentriert, während MCP ein Protokoll ist, das KI-Agenten (in jeder Umgebung) verwenden können, um sich an Tools und Daten anzuschliessen. Ihre Ziele überschneiden sich bei der Ermöglichung von KI-gesteuerter Automatisierung, aber sie behandeln verschiedene Schichten des Stacks und haben sehr unterschiedliche architektonische Philosophien (geschlossenes Ökosystem vs. offener Standard).
  • Chainlink und dezentrale OrakelBlockchains mit Off-Chain-Daten verbinden: Chainlink ist kein KI-Projekt, aber es ist als Web3-Protokoll, das ein komplementäres Problem löst, hochrelevant: wie Blockchains mit externen Daten und Berechnungen verbunden werden können. Chainlink ist ein dezentrales Netzwerk von Knoten (Orakeln), die Off-Chain-Daten abrufen, verifizieren und auf vertrauensminimierte Weise an Smart Contracts liefern. Zum Beispiel stellen Chainlink-Orakel Preis-Feeds für DeFi-Protokolle bereit oder rufen externe APIs im Auftrag von Smart Contracts über Chainlink Functions auf. Im Vergleich dazu verbindet MCP KI-Modelle mit externen Daten/Tools (von denen einige Blockchains sein könnten). Man könnte sagen, Chainlink bringt Daten in Blockchains, während MCP Daten in KI bringt. Es gibt eine konzeptionelle Parallele: Beide stellen eine Brücke zwischen ansonsten isolierten Systemen her. Chainlink konzentriert sich auf Zuverlässigkeit, Dezentralisierung und Sicherheit von On-Chain-Daten (Lösung des „Orakelproblems“ des Single Point of Failure). MCP konzentriert sich auf Flexibilität und Standardisierung des Datenzugriffs für KI (Lösung des „Integrationsproblems“ für KI-Agenten). Sie operieren in verschiedenen Domänen (Smart Contracts vs. KI-Assistenten), aber man könnte MCP-Server mit Orakeln vergleichen: Ein MCP-Server für Preisdaten könnte dieselben APIs aufrufen wie ein Chainlink-Knoten. Der Unterschied ist der Konsument – im Fall von MCP ist der Konsument eine KI oder ein benutzerorientierter Assistent, kein deterministischer Smart Contract. Auch bietet MCP nicht von Natur aus die Vertrauensgarantien, die Chainlink bietet (MCP-Server können zentralisiert oder von der Community betrieben werden, wobei das Vertrauen auf Anwendungsebene verwaltet wird). Wie jedoch bereits erwähnt, könnten Ideen zur Dezentralisierung von MCP-Netzwerken von Orakelnetzwerken übernommen werden – z. B. könnten mehrere MCP-Server abgefragt und die Ergebnisse gegengeprüft werden, um sicherzustellen, dass einer KI keine fehlerhaften Daten zugeführt werden, ähnlich wie mehrere Chainlink-Knoten einen Preis aggregieren. Kurz gesagt, Chainlink vs. MCP: Chainlink ist Web3-Middleware für Blockchains zum Konsum externer Daten, MCP ist KI-Middleware für Modelle zum Konsum externer Daten (die auch Blockchain-Daten umfassen könnten). Sie adressieren analoge Bedürfnisse in verschiedenen Bereichen und könnten sich sogar ergänzen: Eine KI, die MCP verwendet, könnte einen von Chainlink bereitgestellten Daten-Feed als zuverlässige Ressource abrufen, und umgekehrt könnte eine KI als Analysequelle dienen, die ein Chainlink-Orakel On-Chain bringt (obwohl dieses letztere Szenario Fragen der Überprüfbarkeit aufwerfen würde).
  • ChatGPT-Plugins / OpenAI-Funktionen vs. MCPAnsätze zur KI-Tool-Integration: Obwohl es sich nicht um Web3-Projekte handelt, ist ein kurzer Vergleich angebracht, da ChatGPT-Plugins und die Funktionsaufruffunktion von OpenAI ebenfalls KI mit externen Tools verbinden. ChatGPT-Plugins verwenden eine von einem Dienst bereitgestellte OpenAPI-Spezifikation, und das Modell kann dann diese APIs gemäss der Spezifikation aufrufen. Die Einschränkungen bestehen darin, dass es sich um ein geschlossenes Ökosystem handelt (von OpenAI genehmigte Plugins, die auf OpenAI-Servern laufen) und jedes Plugin eine isolierte Integration darstellt. OpenAIs neueres „Agents“-SDK ist konzeptionell näher an MCP, da es Entwicklern ermöglicht, Tools/Funktionen zu definieren, die eine KI verwenden kann, aber anfänglich war es spezifisch für OpenAIs Ökosystem. LangChain bot ebenfalls ein Framework, um LLMs Tools im Code zur Verfügung zu stellen. MCP unterscheidet sich dadurch, dass es einen offenen, modellagnostischen Standard dafür bietet. Wie eine Analyse es formulierte, schuf LangChain einen entwicklerorientierten Standard (eine Python-Schnittstelle) für Tools, während MCP einen modellorientierten Standard schafft – ein KI-Agent kann jedes MCP-definierte Tool zur Laufzeit ohne benutzerdefinierten Code entdecken und verwenden. In der Praxis wuchs das MCP-Ökosystem von Servern innerhalb weniger Monate grösser und vielfältiger als der ChatGPT-Plugin-Store. Und anstatt dass jedes Modell sein eigenes Plugin-Format hat (OpenAI hatte seines, andere hatten andere), konvergieren viele um MCP. OpenAI selbst signalisierte Unterstützung für MCP und passte im Wesentlichen seinen Funktionsansatz an den breiteren Standard an. Beim Vergleich von OpenAI-Plugins mit MCP: Plugins sind ein kuratierter, zentralisierter Ansatz, während MCP ein dezentraler, gemeinschaftsgetriebener Ansatz ist. Im Web3-Denken ist MCP „Open Source und Permissionless“, während proprietäre Plugin-Ökosysteme geschlossener sind. Dies macht MCP analog zum Ethos von Web3, auch wenn es keine Blockchain ist – es ermöglicht Interoperabilität und Benutzerkontrolle (man könnte seinen eigenen MCP-Server für seine Daten betreiben, anstatt alles einem KI-Anbieter zu überlassen). Dieser Vergleich zeigt, warum viele MCP ein grösseres langfristiges Potenzial zuschreiben: Es ist nicht an einen Anbieter oder ein Modell gebunden.
  • Projekt Namda und dezentrale Agenten-Frameworks: Namda verdient eine separate Anmerkung, da es MCP explizit mit Web3-Konzepten kombiniert. Wie bereits beschrieben, ist Namda (Networked Agent Modular Distributed Architecture) eine MIT/IBM-Initiative, die 2024 gestartet wurde, um ein skalierbares, verteiltes Netzwerk von KI-Agenten unter Verwendung von MCP als Kommunikationsschicht aufzubauen. Es behandelt MCP als Messaging-Backbone (da MCP Standard-JSON-RPC-ähnliche Nachrichten verwendet, passte es gut für die Inter-Agenten-Kommunikation) und fügt dann Schichten für dynamische Entdeckung, Fehlertoleranz und überprüfbare Identitäten unter Verwendung von Blockchain-inspirierten Techniken hinzu. Namdas Agenten können überall sein (Cloud, Edge-Geräte usw.), aber ein dezentrales Register (etwas wie ein DHT oder eine Blockchain) verfolgt sie und ihre Fähigkeiten auf manipulationssichere Weise. Sie erforschen sogar, Agenten Token zu geben, um Zusammenarbeit oder Ressourcenteilung zu incentivieren. Im Wesentlichen ist Namda ein Experiment, wie eine „Web3-Version von MCP“ aussehen könnte. Es ist noch kein weit verbreitetes Projekt, aber es ist eines der engsten „ähnlichen Protokolle“ im Geiste. Wenn wir Namda vs. MCP betrachten: Namda verwendet MCP (es handelt sich also nicht um konkurrierende Standards), erweitert es aber um ein Protokoll für die Vernetzung und Koordination mehrerer Agenten auf vertrauensminimierte Weise. Man könnte Namda mit Frameworks wie Autonolas oder Multi-Agent Systems (MAS) vergleichen, die die Krypto-Community gesehen hat, aber diesen fehlte oft eine leistungsstarke KI-Komponente oder ein gemeinsames Protokoll. Namda + MCP zusammen zeigen, wie ein dezentrales Agentennetzwerk funktionieren könnte, wobei Blockchain Identität, Reputation und möglicherweise Token-Anreize bereitstellt und MCP die Agentenkommunikation und Tool-Nutzung.

Zusammenfassend lässt sich sagen, dass MCP sich von den meisten früheren Web3-Projekten abhebt: Es begann überhaupt nicht als Krypto-Projekt, überschneidet sich aber schnell mit Web3, weil es komplementäre Probleme löst. Projekte wie SingularityNET und Fetch.ai zielten darauf ab, KI-Berechnungen oder -Dienste mithilfe von Blockchain zu dezentralisieren; MCP standardisiert stattdessen die KI-Integration mit Diensten, was die Dezentralisierung durch Vermeidung von Plattform-Lock-in verbessern kann. Orakelnetzwerke wie Chainlink lösten die Datenlieferung an die Blockchain; MCP löst die Datenlieferung an die KI (einschliesslich Blockchain-Daten). Wenn die Kernideale von Web3 Dezentralisierung, Interoperabilität und Benutzerermächtigung sind, greift MCP den Bereich der Interoperabilität im KI-Bereich an. Es beeinflusst sogar diese älteren Projekte – zum Beispiel hindert nichts SingularityNET daran, seine KI-Dienste über MCP-Server verfügbar zu machen, oder Fetch-Agenten daran, MCP zu verwenden, um mit externen Systemen zu kommunizieren. Wir könnten durchaus eine Konvergenz erleben, bei der tokengetriebene KI-Netzwerke MCP als ihre Lingua Franca verwenden, wodurch die Anreizstruktur von Web3 mit der Flexibilität von MCP verbunden wird.

Schliesslich, wenn wir die Marktwahrnehmung betrachten: MCP wird oft als das angepriesen, was Web3 für das Internet tun wollte – Silos aufbrechen und Benutzer befähigen. Dies hat dazu geführt, dass MCP informell als „Web3 für KI“ bezeichnet wird (auch wenn keine Blockchain beteiligt ist). Es ist jedoch wichtig zu erkennen, dass MCP ein Protokollstandard ist, während die meisten Web3-Projekte Full-Stack-Plattformen mit ökonomischen Schichten sind. In Vergleichen erweist sich MCP in der Regel als eine leichtere, universellere Lösung, während Blockchain-Projekte schwerere, spezialisierte Lösungen sind. Je nach Anwendungsfall können sie sich ergänzen, anstatt strikt zu konkurrieren. Wenn das Ökosystem reift, könnten wir sehen, dass MCP in viele Web3-Projekte als Modul integriert wird (ähnlich wie HTTP oder JSON allgegenwärtig sind), anstatt als Konkurrenzprojekt.

8. Öffentliche Wahrnehmung, Marktakzeptanz und Medienberichterstattung

Die öffentliche Stimmung gegenüber MCP war sowohl in der KI- als auch in der Web3-Community überwiegend positiv, oft grenzend an Begeisterung. Viele sehen es als einen Game-Changer, der leise ankam, aber dann die Branche im Sturm eroberte. Lassen Sie uns die Wahrnehmung, Akzeptanz und bemerkenswerte Mediennarrative aufschlüsseln:

Marktakzeptanz und Adoptionsmetriken: Mitte 2025 erreichte MCP ein Mass an Akzeptanz, das für ein neues Protokoll selten ist. Es wird von praktisch allen grossen KI-Modellanbietern (Anthropic, OpenAI, Google, Meta) unterstützt und von grossen Technologieinfrastrukturen (Microsoft, GitHub, AWS usw.) getragen, wie bereits detailliert beschrieben. Dies allein signalisiert dem Markt, dass MCP wahrscheinlich Bestand haben wird (ähnlich wie die breite Unterstützung TCP/IP oder HTTP in den frühen Internettagen vorantrieb). Auf der Web3-Seite ist die Akzeptanz im Entwicklerverhalten offensichtlich: Hackathons begannen, MCP-Projekte zu präsentieren, und viele Blockchain-Entwicklertools erwähnen nun die MCP-Integration als Verkaufsargument. Die Statistik von „über 1000 Konnektoren in wenigen Monaten“ und Mike Kriegers Zitat von „Tausenden von Integrationen“ werden oft zitiert, um zu veranschaulichen, wie schnell MCP Anklang fand. Dies deutet auf starke Netzwerkeffekte hin – je mehr Tools über MCP verfügbar sind, desto nützlicher ist es, was zu weiterer Akzeptanz führt (eine positive Rückkopplungsschleife). VCs und Analysten haben festgestellt, dass MCP in weniger als einem Jahr das erreicht hat, was frühere Versuche zur „KI-Interoperabilität“ über mehrere Jahre hinweg nicht geschafft haben, hauptsächlich aufgrund des Timings (auf der Welle des Interesses an KI-Agenten reitend) und der Open-Source-Natur. In den Web3-Medien wird die Akzeptanz manchmal anhand der Entwickler-Mindshare und der Integration in Projekte gemessen, und MCP erzielt hier nun hohe Werte.

Öffentliche Wahrnehmung in KI- und Web3-Communities: Anfangs blieb MCP bei seiner ersten Ankündigung (Ende 2024) unter dem Radar. Doch Anfang 2025, als Erfolgsgeschichten auftauchten, verlagerte sich die Wahrnehmung zu Begeisterung. KI-Praktiker sahen MCP als das „fehlende Puzzleteil“, um KI-Agenten über Spielzeugbeispiele hinaus wirklich nützlich zu machen. Web3-Entwickler hingegen sahen es als Brücke, um KI endlich in DApps zu integrieren, ohne die Dezentralisierung aufzugeben – eine KI kann beispielsweise On-Chain-Daten verwenden, ohne ein zentralisiertes Orakel zu benötigen. Vordenker haben Lobeshymnen gesungen: zum Beispiel schrieb Jesus Rodriguez (ein prominenter Web3-KI-Autor) in CoinDesk, dass MCP „eines der transformativsten Protokolle für die KI-Ära und eine grossartige Ergänzung für Web3-Architekturen“ sein könnte. Rares Crisan argumentierte in einem Notable Capital-Blog, dass MCP das Versprechen von Web3 einlösen könnte, wo Blockchain allein Schwierigkeiten hatte, indem es das Internet benutzerzentrierter und natürlicher in der Interaktion macht. Diese Narrative stellen MCP als revolutionär und doch praktisch dar – nicht nur als Hype.

Fairerweise ist nicht jeder Kommentar unkritisch. Einige KI-Entwickler in Foren wie Reddit haben darauf hingewiesen, dass MCP „nicht alles kann“ – es ist ein Kommunikationsprotokoll, kein sofort einsatzbereiter Agent oder eine Reasoning-Engine. Zum Beispiel argumentierte eine Reddit-Diskussion mit dem Titel „MCP is a Dead-End Trap“, dass MCP allein die Agentenkognition nicht verwaltet oder Qualität garantiert; es erfordert immer noch ein gutes Agentendesign und Sicherheitskontrollen. Diese Ansicht deutet darauf hin, dass MCP als Allheilmittel überbewertet werden könnte. Diese Kritikpunkte zielen jedoch eher darauf ab, Erwartungen zu dämpfen, als die Nützlichkeit von MCP abzulehnen. Sie betonen, dass MCP die Tool-Konnektivität löst, aber man immer noch eine robuste Agentenlogik aufbauen muss (d. h. MCP schafft nicht auf magische Weise einen intelligenten Agenten, es stattet ihn mit Tools aus). Der Konsens ist jedoch, dass MCP ein grosser Fortschritt ist, selbst unter vorsichtigen Stimmen. Der Community-Blog von Hugging Face stellte fest, dass MCP zwar keine Allzwecklösung ist, aber ein wichtiger Wegbereiter für integrierte, kontextbewusste KI ist, und Entwickler sich aus diesem Grund darum versammeln.

Medienberichterstattung: MCP hat sowohl in den Mainstream-Tech-Medien als auch in Nischen-Blockchain-Medien erhebliche Berichterstattung erhalten:

  • TechCrunch hat mehrere Geschichten veröffentlicht. Sie berichteten über das ursprüngliche Konzept („Anthropic schlägt eine neue Methode vor, Daten mit KI-Chatbots zu verbinden“) um den Start im Jahr 2024. Im Jahr 2025 hob TechCrunch jeden grossen Adoptionsmoment hervor: die Unterstützung von OpenAI, die Annahme durch Google, die Beteiligung von Microsoft/GitHub. Diese Artikel betonen oft die Brancheneinheit um MCP. Zum Beispiel zitierte TechCrunch Sam Altmans Unterstützung und bemerkte den schnellen Wechsel von konkurrierenden Standards zu MCP. Dabei wurde MCP als der aufstrebende Standard dargestellt, ähnlich wie niemand in den 90er Jahren von den Internetprotokollen ausgeschlossen werden wollte. Eine solche Berichterstattung in einem prominenten Medium signalisierte der breiteren Tech-Welt, dass MCP wichtig und real ist, nicht nur ein Rand-Open-Source-Projekt.
  • CoinDesk und andere Krypto-Publikationen griffen den Web3-Aspekt auf. Der Meinungsartikel von Rodriguez in CoinDesk (Juli 2025) wird oft zitiert; er zeichnete ein futuristisches Bild, in dem jede Blockchain ein MCP-Server sein könnte und neue MCP-Netzwerke auf Blockchains laufen könnten. Er verband MCP mit Konzepten wie dezentraler Identität, Authentifizierung und Überprüfbarkeit – sprach die Sprache des Blockchain-Publikums und deutete an, dass MCP das Protokoll sein könnte, das KI wirklich mit dezentralen Frameworks verschmilzt. Cointelegraph, Bankless und andere haben MCP auch im Kontext von „KI-Agenten & DeFi“ und ähnlichen Themen diskutiert, meist optimistisch über die Möglichkeiten (z. B. hatte Bankless einen Artikel über die Verwendung von MCP, um einer KI die Verwaltung von On-Chain-Trades zu ermöglichen, und enthielt eine Anleitung für ihren eigenen MCP-Server).
  • Bemerkenswerte VC-Blogs / Analystenberichte: Der Blogbeitrag von Notable Capital (Juli 2025) ist ein Beispiel für eine Venture-Analyse, die Parallelen zwischen MCP und der Entwicklung von Web-Protokollen zieht. Er argumentiert im Wesentlichen, dass MCP für Web3 das tun könnte, was HTTP für Web1 getan hat – eine neue Schnittstellenschicht (natürliche Sprachschnittstelle) bereitstellen, die die zugrunde liegende Infrastruktur nicht ersetzt, sondern sie nutzbar macht. Diese Art von Narrativ ist überzeugend und wurde in Panels und Podcasts wiederholt. Es positioniert MCP nicht als Konkurrenz zur Blockchain, sondern als die nächste Abstraktionsschicht, die es normalen Benutzern (über KI) endlich ermöglicht, Blockchain- und Webdienste einfach zu nutzen.
  • Entwickler-Community-Buzz: Ausserhalb formeller Artikel lässt sich der Aufstieg von MCP an seiner Präsenz im Entwicklerdiskurs messen – Konferenzvorträge, YouTube-Kanäle, Newsletter. Zum Beispiel gab es beliebte Blogbeiträge wie „MCP: Das fehlende Glied für Agenten-KI?“ auf Websites wie Runtime.news und Newsletter (z. B. einen des KI-Forschers Nathan Lambert), die praktische Experimente mit MCP und dessen Vergleich mit anderen Tool-Nutzungs-Frameworks diskutierten. Der allgemeine Ton ist Neugier und Begeisterung: Entwickler teilen Demos, wie sie KI mit ihrer Hausautomation oder Krypto-Wallet mit nur wenigen Zeilen Code über MCP-Server verbinden, etwas, das vor nicht allzu langer Zeit nach Science-Fiction klang. Diese Basisbegeisterung ist wichtig, weil sie zeigt, dass MCP über reine Unternehmensunterstützung hinaus eine grosse Bedeutung hat.
  • Unternehmensperspektive: Medien und Analysten, die sich auf Unternehmens-KI konzentrieren, bemerken MCP ebenfalls als wichtige Entwicklung. Zum Beispiel berichtete The New Stack, wie Anthropic die Unterstützung für Remote-MCP-Server in Claude für den Unternehmenseinsatz hinzufügte. Der Ansatz hier ist, dass Unternehmen MCP nutzen können, um ihre internen Wissensdatenbanken und Systeme sicher mit KI zu verbinden. Dies ist auch für Web3 wichtig, da viele Blockchain-Unternehmen selbst Unternehmen sind und MCP intern nutzen können (zum Beispiel könnte eine Krypto-Börse MCP verwenden, um einer KI die Analyse interner Transaktionsprotokolle zur Betrugserkennung zu ermöglichen).

Bemerkenswerte Zitate und Reaktionen: Einige sind hervorzuheben, da sie die öffentliche Wahrnehmung zusammenfassen:

  • „Ähnlich wie HTTP die Webkommunikation revolutionierte, bietet MCP ein universelles Framework... das fragmentierte Integrationen durch ein einziges Protokoll ersetzt.“ – CoinDesk. Dieser Vergleich mit HTTP ist aussagekräftig; er stellt MCP als Innovation auf Infrastrukturebene dar.
  • „MCP ist [zu einem] florierenden offenen Standard mit Tausenden von Integrationen und wachsend geworden. LLMs sind am nützlichsten, wenn sie sich mit den Daten verbinden, die Sie bereits haben...“ – Mike Krieger (Anthropic). Dies ist eine offizielle Bestätigung sowohl der Akzeptanz als auch des Kernnutzenversprechens, das in sozialen Medien weit verbreitet wurde.
  • „Das Versprechen von Web3... kann endlich... durch natürliche Sprache und KI-Agenten verwirklicht werden. ...MCP ist das Nächste, was wir einem echten Web3 für die Massen gesehen haben.“ – Notable Capital. Diese kühne Aussage findet Anklang bei denen, die von den langsamen UX-Verbesserungen im Krypto-Bereich frustriert sind; sie deutet darauf hin, dass KI den Code der Mainstream-Akzeptanz knacken könnte, indem sie die Komplexität abstrahiert.

Herausforderungen und Skepsis: Obwohl die Begeisterung gross ist, haben die Medien auch Herausforderungen diskutiert:

  • Sicherheitsbedenken: Publikationen wie The New Stack oder Sicherheitsblogs haben darauf hingewiesen, dass das Zulassen der Ausführung von Tools durch KI gefährlich sein kann, wenn es nicht in einer Sandbox erfolgt. Was, wenn ein bösartiger MCP-Server versuchen würde, eine KI zu einer schädlichen Aktion zu veranlassen? Der LimeChain-Blog warnt explizit vor „erheblichen Sicherheitsrisiken“ bei von der Community entwickelten MCP-Servern (z. B. muss ein Server, der private Schlüssel verarbeitet, extrem sicher sein). Diese Bedenken wurden in Diskussionen wiederholt: Im Wesentlichen erweitert MCP die Fähigkeiten von KI, aber mit der Macht kommt das Risiko. Die Reaktion der Community (Leitfäden, Authentifizierungsmechanismen) wurde ebenfalls behandelt und versichert im Allgemeinen, dass Abhilfemassnahmen entwickelt werden. Dennoch würde jeder hochkarätige Missbrauch von MCP (z. B. eine unbeabsichtigte Krypto-Übertragung durch eine KI) die Wahrnehmung beeinflussen, daher sind die Medien in dieser Hinsicht wachsam.
  • Leistung und Kosten: Einige Analysten stellen fest, dass die Verwendung von KI-Agenten mit Tools langsamer oder kostspieliger sein könnte als der direkte Aufruf einer API (da die KI möglicherweise mehrere Hin- und Her-Schritte benötigt, um das zu bekommen, was sie braucht). In Hochfrequenzhandels- oder On-Chain-Ausführungskontexten könnte diese Latenz problematisch sein. Vorerst werden diese als technische Hürden angesehen, die optimiert werden müssen (durch besseres Agentendesign oder Streaming), und nicht als Deal-Breaker.
  • Hype-Management: Wie bei jeder Trendtechnologie gibt es ein gewisses Mass an Hype. Einige Stimmen warnen davor, MCP zur Lösung für alles zu erklären. Zum Beispiel fragt der Hugging Face-Artikel „Ist MCP ein Allheilmittel?“ und antwortet nein – Entwickler müssen immer noch das Kontextmanagement handhaben, und MCP funktioniert am besten in Kombination mit guten Prompting- und Speicherstrategien. Solche ausgewogenen Ansichten sind gesund im Diskurs.

Gesamte Medienstimmung: Das sich abzeichnende Narrativ ist weitgehend hoffnungsvoll und zukunftsorientiert:

  • MCP wird als praktisches Tool angesehen, das jetzt echte Verbesserungen liefert (also keine Vaporware), was die Medien durch die Nennung funktionierender Beispiele unterstreichen: Claude liest Dateien, Copilot verwendet MCP in VSCode, eine KI schliesst eine Solana-Transaktion in einer Demo ab usw.
  • Es wird auch als strategischer Dreh- und Angelpunkt für die Zukunft von KI und Web3 dargestellt. Die Medien kommen oft zu dem Schluss, dass MCP oder Ähnliches für „dezentrale KI“ oder „Web4“ oder welchen Begriff man auch immer für das Web der nächsten Generation verwendet, unerlässlich sein wird. Es besteht das Gefühl, dass MCP eine Tür geöffnet hat und nun Innovationen hindurchfliessen – ob es sich um Namdas dezentrale Agenten oder Unternehmen handelt, die Altsysteme mit KI verbinden, viele zukünftige Geschichten gehen auf die Einführung von MCP zurück.

Auf dem Markt könnte man die Akzeptanz an der Gründung von Startups und der Finanzierung im MCP-Ökosystem messen. Tatsächlich gibt es Gerüchte/Berichte über Startups, die sich auf „MCP-Marktplätze“ oder verwaltete MCP-Plattformen konzentrieren und Finanzierungen erhalten (Notable Capital, das darüber schreibt, deutet auf VC-Interesse hin). Wir können erwarten, dass die Medien diese tangential behandeln werden – z. B. „Startup X verwendet MCP, damit Ihre KI Ihr Krypto-Portfolio verwaltet – sammelt Y Millionen Dollar ein“.

Fazit zur Wahrnehmung: Ende 2025 geniesst MCP den Ruf einer bahnbrechenden, ermöglichenden Technologie. Es wird von einflussreichen Persönlichkeiten sowohl in der KI- als auch in der Krypto-Welt stark befürwortet. Die öffentliche Erzählung hat sich von „hier ist ein nettes Tool“ zu „dies könnte grundlegend für das nächste Web sein“ entwickelt. Gleichzeitig bestätigt die praktische Berichterstattung, dass es funktioniert und angenommen wird, was Glaubwürdigkeit verleiht. Vorausgesetzt, die Community geht weiterhin Herausforderungen an (Sicherheit, Governance in grossem Massstab) und es treten keine grösseren Katastrophen auf, wird das öffentliche Image von MCP wahrscheinlich positiv bleiben oder sogar ikonisch werden als „das Protokoll, das KI und Web3 dazu brachte, gut zusammenzuspielen“.

Die Medien werden wahrscheinlich ein genaues Auge auf Folgendes haben:

  • Erfolgsgeschichten (z. B. wenn eine grosse DAO einen KI-Schatzmeister über MCP implementiert oder eine Regierung MCP für offene Daten-KI-Systeme verwendet).
  • Jegliche Sicherheitsvorfälle (zur Risikobewertung).
  • Die Entwicklung von MCP-Netzwerken und ob eine Token- oder Blockchain-Komponente offiziell ins Spiel kommt (was eine grosse Nachricht wäre, die KI und Krypto noch enger miteinander verbindet).

Im Moment lässt sich die Berichterstattung jedoch mit einer Zeile von CoinDesk zusammenfassen: „Die Kombination von Web3 und MCP könnte eine neue Grundlage für dezentrale KI sein.“ – ein Gefühl, das sowohl das Versprechen als auch die Begeisterung um MCP in der Öffentlichkeit einfängt.

Referenzen:

  • Anthropic News: "Introducing the Model Context Protocol," Nov 2024
  • LimeChain Blog: "What is MCP and How Does It Apply to Blockchains?" May 2025
  • Chainstack Blog: "MCP for Web3 Builders: Solana, EVM and Documentation," June 2025
  • CoinDesk Op-Ed: "The Protocol of Agents: Web3’s MCP Potential," Jul 2025
  • Notable Capital: "Why MCP Represents the Real Web3 Opportunity," Jul 2025
  • TechCrunch: "OpenAI adopts Anthropic’s standard…", Mar 26, 2025
  • TechCrunch: "Google to embrace Anthropic’s standard…", Apr 9, 2025
  • TechCrunch: "GitHub, Microsoft embrace… (MCP steering committee)", May 19, 2025
  • Microsoft Dev Blog: "Official C# SDK for MCP," Apr 2025
  • Hugging Face Blog: "#14: What Is MCP, and Why Is Everyone Talking About It?" Mar 2025
  • Messari Research: "Fetch.ai Profile," 2023
  • Medium (Nu FinTimes): "Unveiling SingularityNET," Mar 2024

World Liberty Financial: Die Zukunft des Geldes, gestützt durch USD1

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Überblick über World Liberty Financial

World Liberty Financial (WLFI) ist eine dezentrale Finanzplattform (DeFi), die von Mitgliedern der Trump-Familie und ihren Partnern ins Leben gerufen wurde. Laut der Website der Trump Organization zielt die Plattform darauf ab, traditionelles Banking und Blockchain-Technologie zu verbinden, indem sie die Stabilität der traditionellen Finanzwelt mit der Transparenz und Zugänglichkeit dezentraler Systeme kombiniert. Ihre Mission ist es, moderne Dienstleistungen für Geldtransfers, Kreditvergabe und die Verwaltung digitaler Vermögenswerte anzubieten, während sie gleichzeitig die Dollar-gestützte Stabilität unterstützt, Kapital für Einzelpersonen und Institutionen zugänglich macht und DeFi für Mainstream-Nutzer vereinfacht.

WLFI führte seinen Governance-Token ($WLFI) im September 2025 ein und stellte im März 2025 einen an den Dollar gekoppelten Stablecoin namens USD1 vor. Die Plattform beschreibt USD1 als einen „Zukunft des Geldes“-Stablecoin, der als Basispaar für tokenisierte Vermögenswerte dienen und die Dominanz des US-Dollars in der digitalen Wirtschaft fördern soll. Mitbegründer Donald Trump Jr. hat WLFI als ein unpolitisches Unterfangen bezeichnet, das darauf abzielt, alltägliche Menschen zu stärken und die globale Rolle des US-Dollars zu festigen.

Geschichte und Gründung

  • Ursprünge (2024–2025). WLFI wurde im September 2024 als Krypto-Unternehmen angekündigt, das von Mitgliedern der Trump-Familie geführt wird. Das Unternehmen führte seinen Governance-Token WLFIspa¨terimselbenJahrein.LautReutersbrachtederanfa¨nglicheWLFI später im selben Jahr ein. Laut Reuters brachte der anfängliche WLFI-Token-Verkauf des Unternehmens nur etwa 2,7 Millionen US-Dollar ein, aber die Verkäufe stiegen nach Donald Trumps Wahlsieg 2024 stark an (Informationen, die in weit verbreiteten Berichten zitiert werden, obwohl sie in unseren Quellen nicht direkt verfügbar sind). WLFI befindet sich mehrheitlich im Besitz einer Trump-Geschäftseinheit und hat neun Mitbegründer, darunter Donald Trump Jr., Eric Trump und Barron Trump.
  • Management. Die Trump Organization beschreibt die Führungspositionen von WLFI wie folgt: Donald Trump (Chief Crypto Advocate), Eric Trump und Donald Trump Jr. (Web3-Botschafter), Barron Trump (DeFi-Visionär) und Zach Witkoff (CEO und Mitbegründer). Die täglichen Operationen des Unternehmens werden von Zach Witkoff und Partnern wie Zachary Folkman und Chase Herro geleitet.
  • Stablecoin-Initiative. WLFI kündigte den USD1 Stablecoin im März 2025 an. USD1 wurde als ein an den Dollar gekoppelter Stablecoin beschrieben, der durch US-Staatsanleihen, US-Dollar-Einlagen und andere Bargeldäquivalente gedeckt ist. Die Reserven des Coins werden von der BitGo Trust Company verwahrt, einem regulierten Verwahrer digitaler Vermögenswerte. USD1 wurde auf Binances BNB Chain eingeführt und später auf Ethereum, Solana und Tron erweitert.

USD1 Stablecoin: Design und Funktionen

Reservemodell und Stabilitätsmechanismus

USD1 ist als ein fiat-gestützter Stablecoin mit einem 1:1-Einlösemechanismus konzipiert. Jeder USD1-Token ist gegen einen US-Dollar einlösbar, und die Reserven des Stablecoins werden in kurzfristigen US-Staatsanleihen, Dollar-Einlagen und Bargeldäquivalenten gehalten. Diese Vermögenswerte werden von BitGo Trust verwahrt, einer regulierten Einheit, die für die institutionelle Verwahrung digitaler Vermögenswerte bekannt ist. WLFI bewirbt, dass USD1 Folgendes bietet:

  1. Vollständige Besicherung und Audits. Die Reserven sind vollständig besichert und unterliegen monatlichen Bestätigungen durch Dritte, was Transparenz über die Deckungsanlagen bietet. Im Mai 2025 stellte die Binance Academy fest, dass regelmäßige Reserveaufschlüsselungen noch nicht öffentlich verfügbar waren und WLFI Audits durch Dritte zugesagt hatte.
  2. Institutionelle Ausrichtung. WLFI positioniert USD1 als einen „institutionstauglichen“ Stablecoin, der auf Banken, Fonds und große Unternehmen abzielt, obwohl er auch für Privatanwender zugänglich ist.
  3. Keine Präge-/Einlösegebühren. USD1 erhebt Berichten zufolge keine Gebühren für das Prägen oder Einlösen, was die Reibungsverluste für Nutzer, die große Mengen handhaben, reduziert.
  4. Cross-Chain-Interoperabilität. Der Stablecoin verwendet das Cross-Chain Interoperability Protocol (CCIP) von Chainlink, um sichere Transfers über Ethereum, BNB Chain und Tron zu ermöglichen. Pläne zur Erweiterung auf zusätzliche Blockchains wurden durch Partnerschaften mit Netzwerken wie Aptos und Tron bestätigt.

Marktentwicklung

  • Rasch wachsend. Innerhalb eines Monats nach der Einführung erreichte die Marktkapitalisierung von USD1 etwa 2,1 Milliarden US-Dollar, angetrieben durch hochkarätige institutionelle Geschäfte wie eine 2-Milliarden-Dollar-Investition des MGX-Fonds aus Abu Dhabi in Binance unter Verwendung von USD1. Anfang Oktober 2025 war das Angebot auf etwa 2,68 Milliarden US-Dollar angewachsen, wobei die meisten Token auf der BNB Chain (79 %) ausgegeben wurden, gefolgt von Ethereum, Solana und Tron.
  • Listung und Akzeptanz. Binance listete USD1 im Mai 2025 auf seinem Spotmarkt. WLFI preist eine weitreichende Integration über DeFi-Protokolle und zentralisierte Börsen hinweg an. DeFi-Plattformen wie ListaDAO, Venus Protocol und Aster unterstützen das Verleihen, Leihen und Liquiditätspools unter Verwendung von USD1. WLFI betont, dass Nutzer USD1 innerhalb von ein bis zwei Werktagen über BitGo gegen US-Dollar einlösen können.

Institutionelle Nutzung und Pläne für tokenisierte Vermögenswerte

WLFI sieht USD1 als den standardmäßigen Abwicklungsvermögenswert für tokenisierte reale Vermögenswerte (RWAs). CEO Zach Witkoff hat erklärt, dass Rohstoffe wie Öl, Gas, Baumwolle und Holz On-Chain gehandelt werden sollten und dass WLFI aktiv daran arbeitet, diese Vermögenswerte zu tokenisieren und mit USD1 zu koppeln, da sie einen vertrauenswürdigen, transparenten Stablecoin erfordern. Er beschrieb USD1 als „den vertrauenswürdigsten und transparentesten Stablecoin auf der Erde“.

Produkte und Dienstleistungen

Debitkarte und Einzelhandels-Apps

Auf der TOKEN2049-Konferenz in Singapur kündigte Zach Witkoff an, dass WLFI eine Krypto-Debitkarte herausgeben wird, die es Nutzern ermöglicht, digitale Vermögenswerte im täglichen Zahlungsverkehr auszugeben. Das Unternehmen plante, im nächsten Quartal ein Pilotprogramm zu starten, wobei eine vollständige Einführung für Q4 2025 oder Q1 2026 erwartet wird. CoinLaw fasste wichtige Details zusammen:

  • Die Karte wird Krypto-Guthaben mit Verbraucherkäufen verknüpfen und soll in Dienste wie Apple Pay integriert werden.
  • WLFI entwickelt außerdem eine kundenorientierte Einzelhandels-App, die die Karte ergänzen soll.

Tokenisierung und Anlageprodukte

Über Zahlungen hinaus zielt WLFI darauf ab, reale Rohstoffe zu tokenisieren. Witkoff sagte, sie würden die Tokenisierung von Öl, Gas, Holz und Immobilien untersuchen, um Blockchain-basierte Handelsinstrumente zu schaffen. Der Governance-Token ($WLFI) von WLFI, der im September 2025 eingeführt wurde, gewährt Inhabern die Möglichkeit, über bestimmte Unternehmensentscheidungen abzustimmen. Das Projekt hat auch strategische Partnerschaften geschlossen, darunter die Vereinbarung von ALT5 Sigma, 750 Millionen US-Dollar an WLFI-Token als Teil ihrer Treasury-Strategie zu erwerben.

Donald Trump Jr.s Perspektive

Mitbegründer Donald Trump Jr. ist ein prominentes öffentliches Gesicht von WLFI. Seine Äußerungen bei Branchenveranstaltungen und Interviews offenbaren die Motivationen hinter dem Projekt und seine Ansichten zu traditionellen Finanzen, Regulierung und der Rolle des US-Dollars.

Kritik an traditionellen Finanzen

  • „Kaputtes“ und undemokratisches System. Während eines Panels mit dem Titel World Liberty Financial: The Future of Money, Backed by USD1 auf der Token2049-Konferenz argumentierte Trump Jr., dass traditionelle Finanzen undemokratisch und „kaputt“ seien. Er erzählte, dass, als seine Familie in die Politik eintrat, 300 ihrer Bankkonten über Nacht aufgelöst wurden, was illustriert, wie Finanzinstitute Einzelpersonen aus politischen Gründen bestrafen können. Er sagte, die Familie sei von der Spitze der Finanz-„Pyramide“ an den Boden gerutscht, was zeige, dass das System Insider begünstigt und wie ein Schneeballsystem funktioniert.
  • Ineffizienz und mangelnder Wert. Er kritisierte die traditionelle Finanzindustrie dafür, in Ineffizienzen verstrickt zu sein, wo Menschen, die „siebenstellige Beträge pro Jahr verdienen“, lediglich Papierkram verschieben, ohne echten Mehrwert zu schaffen.

Befürwortung von Stablecoins und dem Dollar

  • Erhaltung der Dollar-Hegemonie. Trump Jr. behauptet, dass Stablecoins wie USD1 die Rolle ausfüllen werden, die zuvor von Ländern gespielt wurde, die US-Staatsanleihen kauften. Er sagte der Business Times, dass Stablecoins eine „Dollar-Hegemonie“ schaffen könnten, die es den USA ermöglicht, global zu führen und viele Orte sicher und stabil zu halten. Im Gespräch mit Cryptopolitan argumentierte er, dass Stablecoins tatsächlich die Dominanz des US-Dollars erhalten, weil die Nachfrage nach Dollar-gestützten Token Staatsanleihen in einer Zeit unterstützt, in der konventionelle Käufer (z. B. China und Japan) ihr Engagement reduzieren.
  • Zukunft der Finanzen und DeFi. Trump Jr. beschrieb WLFI als die Zukunft der Finanzen und betonte, dass Blockchain- und DeFi-Technologien den Zugang zu Kapital demokratisieren können. Bei einer von Panews abgedeckten ETH Denver-Veranstaltung argumentierte er, dass klare regulatorische Rahmenbedingungen erforderlich seien, um zu verhindern, dass Unternehmen Offshore abwandern, und um Investoren zu schützen. Er forderte die USA auf, die globale Krypto-Innovation anzuführen, und kritisierte übermäßige Regulierung als wachstumshemmend.
  • Finanzielle Demokratisierung. Er glaubt, dass die Kombination von traditionellen und dezentralen Finanzen durch WLFI unterversorgten Bevölkerungsgruppen Liquidität, Transparenz und Stabilität bieten wird. Er hebt auch das Potenzial der Blockchain hervor, Korruption zu eliminieren, indem Transaktionen transparent und On-Chain gemacht werden.
  • Ratschläge für Neueinsteiger. Trump Jr. rät neuen Investoren, mit kleinen Beträgen zu beginnen, übermäßige Hebelwirkung zu vermeiden und sich kontinuierlich über DeFi zu informieren.

Politische Neutralität und Medienkritik

Trump Jr. betont, dass WLFI „zu 100 % keine politische Organisation“ sei, trotz der tiefen Beteiligung der Trump-Familie. Er stellt das Unternehmen als eine Plattform dar, die Amerikanern und der Welt zugutekommt, und nicht als ein politisches Vehikel. Während des Token2049-Panels kritisierte er Mainstream-Medien und sagte, sie hätten sich selbst diskreditiert, und Zach Witkoff fragte das Publikum, ob sie The New York Times für vertrauenswürdig hielten.

Partnerschaften und Ökosystem-Integration

MGX–Binance-Investition

Im Mai 2025 kündigte WLFI an, dass USD1 eine 2-Milliarden-Dollar-Investition des in Abu Dhabi ansässigen MGX in die Krypto-Börse Binance ermöglichen würde. Die Ankündigung unterstrich den wachsenden Einfluss von WLFI und wurde als Beweis für die institutionelle Attraktivität von USD1 angepriesen. US-Senatorin Elizabeth Warren kritisierte den Deal jedoch und nannte ihn „Korruption“, da die anhängige Stablecoin-Gesetzgebung (der GENIUS Act) der Familie des Präsidenten zugutekommen könnte. Von Reuters zitierte CoinMarketCap-Daten zeigten, dass der Umlaufwert von USD1 zu diesem Zeitpunkt etwa 2,1 Milliarden US-Dollar erreichte.

Aptos-Partnerschaft

Auf der TOKEN2049-Konferenz im Oktober 2025 kündigten WLFI und die Layer-1-Blockchain Aptos eine Partnerschaft an, um USD1 im Aptos-Netzwerk einzusetzen. Brave New Coin berichtet, dass WLFI Aptos aufgrund seines hohen Durchsatzes (Transaktionen werden in weniger als einer halben Sekunde abgewickelt) und Gebühren von unter einem Hundertstel Cent ausgewählt hat. Die Zusammenarbeit zielt darauf ab, dominante Stablecoin-Netzwerke herauszufordern, indem sie günstigere, schnellere Schienen für institutionelle Transaktionen bereitstellt. CryptoSlate merkt an, dass die Integration von USD1 Aptos zum fünften Netzwerk machen wird, das den Stablecoin prägt, mit sofortiger Unterstützung von DeFi-Protokollen wie Echelon Market und Hyperion sowie Wallets und Börsen wie Petra, Backpack und OKX. WLFI-Führungskräfte sehen die Expansion als Teil einer umfassenderen Strategie, die DeFi-Akzeptanz zu steigern und USD1 als Abwicklungsschicht für tokenisierte Vermögenswerte zu positionieren.

Debitkarten- und Apple Pay-Integration

Reuters und CoinLaw berichten, dass WLFI eine Krypto-Debitkarte einführen wird, die Krypto-Vermögenswerte mit alltäglichen Ausgaben verbindet. Witkoff sagte Reuters, dass das Unternehmen erwartet, innerhalb des nächsten Quartals ein Pilotprogramm zu starten, mit einer vollständigen Einführung bis Ende 2025 oder Anfang 2026. Die Karte wird in Apple Pay integriert, und WLFI wird eine Einzelhandels-App veröffentlichen, um Krypto-Zahlungen zu vereinfachen.

Kontroversen und Kritik

Reservetransparenz. Die Binance Academy hob hervor, dass USD1 im Mai 2025 keine öffentlich verfügbaren Reserveaufschlüsselungen aufwies. WLFI versprach Audits durch Dritte, aber das Fehlen detaillierter Offenlegungen gab Anlass zu Bedenken bei Investoren.

Politische Interessenkonflikte. Die engen Verbindungen von WLFI zur Trump-Familie haben zu genauerer Prüfung geführt. Eine Reuters-Untersuchung berichtete, dass eine anonyme Wallet, die 2 Milliarden US-Dollar in USD1 hielt, kurz vor der MGX-Investition Gelder erhielt, und die Eigentümer der Wallet nicht identifiziert werden konnten. Kritiker argumentieren, dass das Unternehmen der Trump-Familie ermöglichen könnte, finanziell von regulatorischen Entscheidungen zu profitieren. Senatorin Elizabeth Warren warnte, dass die vom Kongress in Betracht gezogene Stablecoin-Gesetzgebung es dem Präsidenten und seiner Familie erleichtern würde, „sich die Taschen zu füllen“. Medien wie The New York Times und The New Yorker haben WLFI als eine Erosion der Grenze zwischen Privatunternehmen und öffentlicher Politik beschrieben.

Marktkonzentration und Liquiditätsbedenken. CoinLaw berichtete, dass mehr als die Hälfte der USD1-Liquidität im Juni 2025 von nur drei Wallets stammte. Eine solche Konzentration wirft Fragen nach der organischen Nachfrage nach USD1 und seiner Widerstandsfähigkeit in angespannten Märkten auf.

Regulatorische Unsicherheit. Trump Jr. selbst räumt ein, dass die US-Krypto-Regulierung unklar bleibt, und fordert umfassende Regeln, um zu verhindern, dass Unternehmen Offshore abwandern. Kritiker argumentieren, dass WLFI von deregulierenden Maßnahmen der Trump-Regierung profitiert, während es gleichzeitig eine Politik mitgestaltet, die seine eigenen finanziellen Interessen begünstigen könnte.

Fazit

World Liberty Financial positioniert sich als Pionier an der Schnittstelle von traditionellen Finanzen und dezentraler Technologie, wobei der USD1 Stablecoin als Rückgrat für Zahlungen, Tokenisierung und DeFi-Produkte dient. Die Betonung der Plattform auf institutionelle Unterstützung, Cross-Chain-Interoperabilität und gebührenfreies Prägen unterscheidet USD1 von anderen Stablecoins. Partnerschaften mit Netzwerken wie Aptos und große Deals wie die MGX-Binance-Investition unterstreichen den Ehrgeiz von WLFI, eine globale Abwicklungsschicht für tokenisierte Vermögenswerte zu werden.

Aus Donald Trump Jr.s Perspektive ist WLFI nicht nur ein kommerzielles Unternehmen, sondern eine Mission, die Finanzen zu demokratisieren, die Hegemonie des US-Dollars zu erhalten und das, was er als ein kaputtes und elitäres traditionelles Finanzsystem ansieht, herauszufordern. Er befürwortet regulatorische Klarheit, kritisiert aber gleichzeitig übermäßige Aufsicht, was breitere Debatten innerhalb der Kryptoindustrie widerspiegelt. Die politischen Verbindungen von WLFI, undurchsichtige Offenlegungen der Reserven und die Konzentration der Liquidität laden jedoch zu Skepsis ein. Der Erfolg des Unternehmens wird davon abhängen, Innovation mit Transparenz in Einklang zu bringen und das komplexe Zusammenspiel zwischen privaten Interessen und öffentlicher Politik zu navigieren.

Gerichteter azyklischer Graph (DAG) in der Blockchain

· 47 Min. Lesezeit
Dora Noda
Software Engineer

Was ist ein DAG und wie unterscheidet er sich von einer Blockchain?

Ein Gerichteter azyklischer Graph (DAG) ist eine Art von Datenstruktur, die aus Scheitelpunkten (Knoten) besteht, die durch gerichtete Kanten verbunden sind, die niemals einen Zyklus bilden. Im Kontext von Distributed Ledgern organisiert ein DAG-basiertes Ledger Transaktionen oder Ereignisse in einem webartigen Graphen statt in einer einzigen sequenziellen Kette. Das bedeutet, dass im Gegensatz zu einer traditionellen Blockchain, bei der jeder neue Block nur einen Vorgänger referenziert (wodurch eine lineare Kette entsteht), ein Knoten in einem DAG mehrere frühere Transaktionen oder Blöcke referenzieren kann. Infolgedessen können viele Transaktionen parallel bestätigt werden, anstatt streng nacheinander in chronologischen Blöcken.

Um den Unterschied zu verdeutlichen: Wenn eine Blockchain wie eine lange Kette von Blöcken aussieht (wobei jeder Block viele Transaktionen enthält), ähnelt ein DAG-basiertes Ledger eher einem Baum oder einem Netz einzelner Transaktionen. Jede neue Transaktion in einem DAG kann sich an eine oder mehrere frühere Transaktionen anhängen (und diese dadurch validieren), anstatt darauf zu warten, in den nächsten einzelnen Block verpackt zu werden. Dieser strukturelle Unterschied führt zu mehreren wesentlichen Unterscheidungen:

  • Parallele Validierung: In Blockchains fügen Miner/Validierer jeweils einen Block zur Kette hinzu, sodass Transaktionen in Batches pro neuem Block bestätigt werden. In DAGs können mehrere Transaktionen (oder kleine „Blöcke“ von Transaktionen) gleichzeitig hinzugefügt werden, da jede an verschiedene Teile des Graphen angehängt werden kann. Diese Parallelisierung bedeutet, dass DAG-Netzwerke nicht darauf warten müssen, dass eine einzelne lange Kette Block für Block wächst.
  • Keine globale sequentielle Reihenfolge: Eine Blockchain erzeugt von Natur aus eine Gesamtreihenfolge von Transaktionen (jeder Block hat einen festen Platz in einer Sequenz). Ein DAG-Ledger hingegen bildet eine partielle Reihenfolge von Transaktionen. Es gibt keinen einzelnen „neuesten Block“, auf den alle Transaktionen warten; stattdessen können viele Spitzen des Graphen koexistieren und gleichzeitig erweitert werden. Konsensprotokolle sind dann erforderlich, um die Reihenfolge oder Gültigkeit von Transaktionen im DAG letztendlich zu klären oder zu vereinbaren.
  • Transaktionsbestätigung: In einer Blockchain werden Transaktionen bestätigt, wenn sie in einem geminten/validierten Block enthalten sind und dieser Block Teil der akzeptierten Kette wird (oft nachdem weitere Blöcke hinzugefügt wurden). In DAG-Systemen hilft eine neue Transaktion selbst, frühere Transaktionen zu bestätigen, indem sie diese referenziert. Zum Beispiel muss im IOTA Tangle (ein DAG) jede Transaktion zwei frühere Transaktionen genehmigen, wodurch Benutzer effektiv die Transaktionen des jeweils anderen gemeinsam validieren. Dies hebt die strikte Trennung zwischen „Transaktionserstellern“ und „Validierern“ auf, die beim Blockchain-Mining besteht – jeder Teilnehmer, der eine Transaktion ausgibt, leistet auch ein wenig Validierungsarbeit.

Wichtig ist, dass eine Blockchain tatsächlich ein Spezialfall eines DAG ist – ein DAG, der auf eine einzige Kette von Blöcken beschränkt wurde. Beide sind Formen der Distributed-Ledger-Technologie (DLT) und teilen Ziele wie Unveränderlichkeit und Dezentralisierung. DAG-basierte Ledger sind jedoch „blocklos“ oder Multi-Parent in ihrer Struktur, was ihnen in der Praxis unterschiedliche Eigenschaften verleiht. Traditionelle Blockchains wie Bitcoin und Ethereum verwenden sequentielle Blöcke und verwerfen oft konkurrierende Blöcke (Forks), während DAG-Ledger versuchen, alle Transaktionen zu integrieren und anzuordnen, ohne Konflikte zu verwerfen. Dieser grundlegende Unterschied legt den Grundstein für die unten detaillierten Leistungs- und Designkontraste.

Technischer Vergleich: DAG- vs. Blockchain-Architektur

Um DAGs und Blockchains besser zu verstehen, können wir ihre Architekturen und Validierungsprozesse vergleichen:

  • Datenstruktur: Blockchains speichern Daten in Blöcken, die in einer linearen Sequenz verknüpft sind (jeder Block enthält viele Transaktionen und verweist auf einen einzelnen vorherigen Block, wodurch eine lange Kette entsteht). DAG-Ledger verwenden eine Graphstruktur: Jeder Knoten im Graphen repräsentiert eine Transaktion oder einen Ereignisblock und kann auf mehrere vorherige Knoten verweisen. Dieser gerichtete Graph hat keine Zyklen, was bedeutet, dass man, wenn man den Links „rückwärts“ folgt, niemals zu einer Transaktion zurückkehren kann, von der man begonnen hat. Das Fehlen von Zyklen ermöglicht eine topologische Sortierung von Transaktionen (eine Möglichkeit, sie so zu sortieren, dass jede Referenz nach der referenzierten Transaktion kommt). Kurz gesagt: Blockchains = eindimensionale Kette, DAGs = mehrdimensionaler Graph.
  • Durchsatz und Parallelität: Aufgrund der strukturellen Unterschiede handhaben Blockchains und DAGs den Durchsatz unterschiedlich. Eine Blockchain fügt selbst unter optimalen Bedingungen Blöcke einzeln hinzu (oft wartet sie darauf, dass jeder Block validiert und netzwerkweit verbreitet wird, bevor der nächste folgt). Dies begrenzt den Transaktionsdurchsatz von Natur aus – zum Beispiel erreicht Bitcoin durchschnittlich 5–7 Transaktionen pro Sekunde (TPS) und Ethereum ~15–30 TPS unter dem klassischen Proof-of-Work-Design. DAG-basierte Systeme hingegen ermöglichen es, dass viele neue Transaktionen/Blöcke gleichzeitig in das Ledger gelangen. Mehrere Transaktionszweige können gleichzeitig wachsen und sich später miteinander verbinden, wodurch der potenzielle Durchsatz dramatisch erhöht wird. Einige moderne DAG-Netzwerke beanspruchen einen Durchsatz von Tausenden von TPS, der die Kapazität traditioneller Zahlungsnetzwerke erreicht oder übertrifft.
  • Transaktionsvalidierungsprozess: In Blockchain-Netzwerken warten Transaktionen in einem Mempool und werden validiert, wenn ein Miner oder Validierer sie in einen neuen Block packt, dann überprüfen andere Knoten diesen Block anhand der Historie. In DAG-Netzwerken ist die Validierung oft kontinuierlicher und dezentraler: Jede neue Transaktion führt eine Validierungsaktion durch, indem sie frühere Transaktionen referenziert (genehmigt). Zum Beispiel muss jede Transaktion im IOTA Tangle zwei frühere Transaktionen bestätigen, indem sie deren Gültigkeit überprüft und einen kleinen Proof-of-Work durchführt, wodurch sie für diese Transaktionen „stimmt“. Im Block-Lattice-DAG von Nano bilden die Transaktionen jedes Kontos eine eigene Kette und werden durch Abstimmungen von Repräsentantenknoten validiert (mehr dazu später). Der Nettoeffekt ist, dass DAGs die Validierungsarbeit verteilen: Anstatt dass ein einzelner Blockproduzent eine Reihe von Transaktionen validiert, validieren jeder Teilnehmer oder viele Validierer gleichzeitig verschiedene Transaktionen.
  • Konsensmechanismus: Sowohl Blockchains als auch DAGs benötigen eine Möglichkeit für das Netzwerk, sich auf den Zustand des Ledgers zu einigen (welche Transaktionen bestätigt sind und in welcher Reihenfolge). In Blockchains kommt der Konsens oft von Proof of Work oder Proof of Stake, die den nächsten Block produzieren, und der Regel „längste (oder schwerste) Kette gewinnt“. In DAG-Ledgern kann der Konsens komplexer sein, da es keine einzelne Kette gibt. Verschiedene DAG-Projekte verwenden unterschiedliche Ansätze: Einige verwenden Gossip-Protokolle und virtuelles Voting (wie bei Hedera Hashgraph), um sich auf die Transaktionsreihenfolge zu einigen, andere verwenden Markov Chain Monte Carlo Tip Selection (IOTA’s früherer Ansatz) oder andere Abstimmungsschemata, um zu entscheiden, welche Zweige des Graphen bevorzugt werden. Spezifische Konsensmethoden in DAG-Systemen werden wir in einem späteren Abschnitt besprechen. Im Allgemeinen kann das Erreichen einer netzwerkweiten Einigung in einem DAG in Bezug auf den Durchsatz schneller sein, erfordert jedoch ein sorgfältiges Design, um Konflikte (wie Double-Spend-Versuche) zu handhaben, da mehrere Transaktionen parallel existieren können, bevor eine endgültige Reihenfolge festgelegt wird.
  • Fork-Behandlung: In einer Blockchain führt ein „Fork“ (zwei Blöcke, die fast gleichzeitig gemint werden) dazu, dass ein Zweig schließlich gewinnt (längste Kette) und der andere verwaist (verworfen) wird, was die Arbeit am verwaisten Block verschwendet. In einem DAG ist die Philosophie, Forks als zusätzliche Zweige des Graphen zu akzeptieren, anstatt sie zu verschwenden. Der DAG wird beide Forks integrieren; der Konsensalgorithmus bestimmt dann, welche Transaktionen letztendlich bestätigt werden (oder wie widersprüchliche Transaktionen gelöst werden), ohne einen ganzen Zweig zu verwerfen. Das bedeutet, dass keine Mining-Leistung oder Anstrengung für veraltete Blöcke verschwendet wird, was zur Effizienz beiträgt. Zum Beispiel versucht Conflux’ Tree-Graph (ein PoW-DAG), alle Blöcke in das Ledger aufzunehmen und sie zu ordnen, anstatt sie zu verwaisten, wodurch 100 % der produzierten Blöcke genutzt werden.

Zusammenfassend lässt sich sagen, dass Blockchains eine einfachere, streng geordnete Struktur bieten, bei der die Validierung Block für Block erfolgt, während DAGs eine komplexere Graphstruktur bereitstellen, die eine asynchrone und parallele Transaktionsverarbeitung ermöglicht. DAG-basierte Ledger müssen zusätzliche Konsenslogik anwenden, um diese Komplexität zu verwalten, versprechen aber einen deutlich höheren Durchsatz und Effizienz, indem sie die volle Kapazität des Netzwerks nutzen, anstatt eine Einzeldateiwarteschlange von Blöcken zu erzwingen.

Vorteile von DAG-basierten Blockchain-Systemen

DAG-Architekturen wurden primär eingeführt, um die Einschränkungen traditioneller Blockchains in Bezug auf Skalierbarkeit, Geschwindigkeit und Kosten zu überwinden. Hier sind die Hauptvorteile von DAG-basierten Distributed Ledgern:

  • Hohe Skalierbarkeit & Durchsatz: DAG-Netzwerke können einen hohen Transaktionsdurchsatz erreichen, da sie viele Transaktionen parallel verarbeiten. Da es keinen einzelnen Kettenengpass gibt, kann die TPS (Transaktionen pro Sekunde) mit der Netzwerkaktivität skalieren. Tatsächlich haben einige DAG-Protokolle einen Durchsatz in der Größenordnung von Tausenden von TPS demonstriert. Zum Beispiel hat Hedera Hashgraph die Kapazität, über 10.000 Transaktionen pro Sekunde in der Basisschicht zu verarbeiten, was Bitcoin oder Ethereum weit übertrifft. In der Praxis hat Hedera gezeigt, dass Transaktionen in etwa 3–5 Sekunden finalisiert werden, verglichen mit den Minuten oder längeren Bestätigungszeiten auf PoW-Blockchains. Sogar DAG-basierte Smart-Contract-Plattformen wie Fantom haben unter normalen Lasten eine nahezu sofortige Finalität (~1–2 Sekunden) für Transaktionen erreicht. Diese Skalierbarkeit macht DAGs attraktiv für Anwendungen, die ein hohes Volumen erfordern, wie IoT-Mikrotransaktionen oder Echtzeit-Datenströme.
  • Niedrige Transaktionskosten (gebührenfrei oder minimale Gebühren): Viele DAG-basierte Ledger rühmen sich mit vernachlässigbaren Gebühren oder sogar gebührenfreien Transaktionen. Konstruktionsbedingt verlassen sie sich oft nicht auf Miner, die Blockbelohnungen oder Gebühren erwarten; zum Beispiel gibt es bei IOTA und Nano keine obligatorischen Transaktionsgebühren – eine entscheidende Eigenschaft für Mikrozahlungen im IoT und im täglichen Gebrauch. Wo Gebühren existieren (z. B. Hedera oder Fantom), sind sie tendenziell sehr niedrig und vorhersehbar, da das Netzwerk die Last ohne Bieterkriege um begrenzten Blockplatz bewältigen kann. Hedera-Transaktionen kosten etwa 0,0001 US-Dollar an Gebühren (ein Zehntausendstel eines Dollars), ein winziger Bruchteil der typischen Blockchain-Gebühren. Solch niedrige Kosten eröffnen Anwendungsfälle wie Hochfrequenztransaktionen oder winzige Zahlungen, die auf gebührenintensiven Ketten undurchführbar wären. Da DAGs alle gültigen Transaktionen einschließen, anstatt einige im Falle von Forks zu verwerfen, gibt es weniger „verschwendete“ Arbeit – was indirekt dazu beiträgt, die Kosten durch effiziente Ressourcennutzung niedrig zu halten.
  • Schnelle Bestätigung und geringe Latenz: In DAG-Ledgern müssen Transaktionen nicht auf die Aufnahme in einen globalen Block warten, sodass die Bestätigung schneller erfolgen kann. Viele DAG-Systeme erreichen eine schnelle Finalität – den Zeitpunkt, an dem eine Transaktion als dauerhaft bestätigt gilt. Zum Beispiel finalisiert der Konsens von Hedera Hashgraph Transaktionen typischerweise innerhalb weniger Sekunden mit 100 %iger Sicherheit (aBFT-Finalität). Nanos Netzwerk sieht Transaktionen oft in <1 Sekunde bestätigt, dank seines leichten Abstimmungsprozesses. Diese geringe Latenz verbessert die Benutzererfahrung, indem Transaktionen nahezu sofort erscheinen, was für reale Zahlungen und interaktive Anwendungen wichtig ist.
  • Energieeffizienz: DAG-basierte Netzwerke erfordern oft nicht das intensive Proof-of-Work-Mining, das viele Blockchains verwenden, was sie weitaus energieeffizienter macht. Selbst im Vergleich zu Proof-of-Stake-Blockchains verbrauchen einige DAG-Netzwerke pro Transaktion nur minimale Energie. Zum Beispiel verbraucht eine einzelne Hedera Hashgraph-Transaktion in der Größenordnung von 0,0001 kWh (Kilowattstunde) Energie. Dies ist um mehrere Größenordnungen weniger als Bitcoin (das Hunderte von kWh pro Transaktion verbrauchen kann) oder sogar viele PoS-Ketten. Die Effizienz ergibt sich aus der Eliminierung verschwenderischer Berechnungen (kein Mining-Wettlauf) und dem Nicht-Verwerfen von Transaktionsversuchen. Würden Blockchain-Netzwerke universell auf DAG-basierte Modelle umgestellt, könnten die Energieeinsparungen monumental sein. Der CO2-Fußabdruck von DAG-Netzwerken wie Hedera ist so gering, dass sein gesamtes Netzwerk bei Berücksichtigung von Offsets CO2-negativ ist. Solche Energieeffizienz ist für eine nachhaltige Web3-Infrastruktur zunehmend entscheidend.
  • Kein Mining & demokratisierte Validierung: In vielen DAG-Modellen gibt es keine ausgeprägte Miner-/Validiererrolle, die gewöhnliche Benutzer nicht ausführen könnten. Zum Beispiel hilft jeder IOTA-Benutzer, der eine Transaktion ausgibt, auch bei der Validierung zweier anderer, wodurch die Validierungsarbeit im Wesentlichen an die Ränder des Netzwerks dezentralisiert wird. Dies kann den Bedarf an leistungsstarker Mining-Hardware oder dem Staking großer Kapitalmengen zur Teilnahme am Konsens reduzieren und das Netzwerk potenziell zugänglicher machen. (Einige DAG-Netzwerke verwenden jedoch immer noch Validierer oder Koordinatoren – siehe die spätere Diskussion über Konsens und Dezentralisierung.)
  • Reibungslose Handhabung von hohem Datenverkehr: Blockchains leiden oft unter Mempool-Rückständen und Gebührenspitzen bei hoher Last (da immer nur ein Block Transaktionen gleichzeitig abwickeln kann). DAG-Netzwerke bewältigen aufgrund ihrer parallelen Natur Verkehrsspitzen im Allgemeinen eleganter. Wenn mehr Transaktionen das Netzwerk überfluten, erzeugen sie einfach mehr parallele Zweige im DAG, die das System gleichzeitig verarbeiten kann. Es gibt weniger eine harte Obergrenze für den Durchsatz (Skalierbarkeit ist eher „horizontal“). Dies führt zu einer besseren Skalierbarkeit unter Last, mit weniger Verzögerungen und nur geringfügigen Erhöhungen der Bestätigungszeiten oder Gebühren, bis zur Kapazität des Netzwerks und der Verarbeitungsleistung der Knoten. Im Wesentlichen kann ein DAG Transaktionsspitzen absorbieren, ohne so schnell zu verstopfen, was ihn für Anwendungsfälle geeignet macht, die Aktivitätsspitzen beinhalten (z. B. IoT-Geräte, die alle gleichzeitig Daten senden, oder ein virales DApp-Ereignis).

Zusammenfassend versprechen DAG-basierte Ledger schnellere, günstigere und skalierbarere Transaktionen als der klassische Blockchain-Ansatz. Sie zielen darauf ab, Massenadaptionsszenarien (Mikrozahlungen, IoT, Hochfrequenzhandel usw.) zu unterstützen, mit denen aktuelle Mainstream-Blockchains aufgrund von Durchsatz- und Kostenbeschränkungen zu kämpfen haben. Diese Vorteile gehen jedoch mit bestimmten Kompromissen und Implementierungsherausforderungen einher, die wir in späteren Abschnitten behandeln werden.

Konsensmechanismen in DAG-basierten Plattformen

Da DAG-Ledger von Natur aus keine einzelne Kette von Blöcken produzieren, erfordern sie innovative Konsensmechanismen, um Transaktionen zu validieren und sicherzustellen, dass sich alle auf den Ledger-Zustand einigen. Verschiedene Projekte haben unterschiedliche Lösungen entwickelt, die auf ihre DAG-Architektur zugeschnitten sind. Hier skizzieren wir einige bemerkenswerte Konsensansätze, die von DAG-basierten Plattformen verwendet werden:

  • IOTA’s Tangle – Tip Selection und gewichtetes Voting: IOTA’s Tangle ist ein DAG von Transaktionen, der für das Internet der Dinge (IoT) entwickelt wurde. Im ursprünglichen IOTA-Modell gibt es keine Miner; stattdessen muss jede neue Transaktion einen kleinen Proof of Work durchführen und zwei vorherige Transaktionen genehmigen (dies sind die „Spitzen“ des Graphen). Diese Tip Selection erfolgt oft über einen Markov Chain Monte Carlo (MCMC)-Algorithmus, der probabilistisch auswählt, welche Spitzen genehmigt werden sollen, wobei der schwerste Subtangle bevorzugt wird, um Fragmentierung zu verhindern. Der Konsens im frühen IOTA wurde teilweise durch dieses kumulative Gewicht der Genehmigungen erreicht – je mehr zukünftige Transaktionen Ihre indirekt genehmigen, desto „bestätigter“ wird sie. Um das Netzwerk in seinen Anfängen zu sichern, verließ sich IOTA jedoch auf einen temporären zentralisierten Koordinator-Knoten, der periodische Meilenstein-Transaktionen ausgab, um das Tangle zu finalisieren. Dies war ein großer Kritikpunkt (Zentralisierung) und wird im Upgrade namens „Coordicide“ (IOTA 2.0) entfernt. In IOTA 2.0 wendet ein neues Konsensmodell einen führerlosen Konsens im Nakamoto-Stil auf einem DAG an. Im Wesentlichen führen Knoten On-Tangle-Voting durch: Wenn ein Knoten einen neuen Block anhängt, stimmt dieser Block implizit über die Gültigkeit der von ihm referenzierten Transaktionen ab. Ein Komitee von Validiererknoten (ausgewählt über einen Staking-Mechanismus) gibt Validierungsblöcke als Stimmen ab, und eine Transaktion wird bestätigt, wenn sie genügend gewichtete Genehmigungen (ein Konzept namens Approval Weight) ansammelt. Dieser Ansatz kombiniert die Idee des schwersten DAG (ähnlich der längsten Kette) mit expliziter Abstimmung, um Konsens ohne Koordinator zu erreichen. Kurz gesagt, IOTAs Konsens entwickelte sich von Tip Selection + Koordinator zu einem vollständig dezentralisierten Abstimmen über DAG-Zweige durch Knoten, um Sicherheit und schnelle Einigung über den Ledger-Zustand zu erreichen.
  • Hedera Hashgraph – Gossip und virtuelles Voting (aBFT): Hedera Hashgraph verwendet einen DAG von Ereignissen in Verbindung mit einem asynchronen Byzantine Fault-Toleranten (aBFT) Konsensalgorithmus. Die Kernidee ist „Gossip über Gossip“: Jeder Knoten verbreitet schnell signierte Informationen über Transaktionen und über seine Gossip-Historie an andere Knoten. Dies erzeugt einen Hashgraph (den DAG von Ereignissen), in dem jeder Knoten schließlich weiß, was jeder andere Knoten verbreitet hat, einschließlich der Struktur, wer was wann gehört hat. Mit diesem DAG von Ereignissen implementiert Hedera virtuelles Voting. Anstatt tatsächliche Abstimmungsnachrichten zur Anordnung von Transaktionen zu senden, simulieren Knoten einen Abstimmungsalgorithmus lokal, indem sie den Graphen der Gossip-Verbindungen analysieren. Leemon Bairds Hashgraph-Algorithmus kann deterministisch berechnen, wie eine theoretische Abstimmungsrunde zur Transaktionsreihenfolge verlaufen würde, indem er die im DAG aufgezeichnete „Gossip-Netzwerk“-Historie betrachtet. Dies liefert einen Konsens-Zeitstempel und eine Gesamtreihenfolge von Transaktionen, die fair und final ist (Transaktionen werden nach der mittleren Zeit geordnet, zu der sie vom Netzwerk empfangen wurden). Der Konsens von Hashgraph ist führerlos und erreicht aBFT, was bedeutet, dass er bis zu 1/3 bösartiger Knoten tolerieren kann, ohne den Konsens zu gefährden. In der Praxis wird das Hedera-Netzwerk von einem Satz von 39 bekannten, von Organisationen betriebenen Knoten (dem Hedera Council) regiert, ist also permissioniert, aber geografisch verteilt. Der Vorteil ist ein extrem schneller und sicherer Konsens: Hedera kann Finalität in Sekunden mit garantierter Konsistenz erreichen. Der Hashgraph-Konsensmechanismus ist patentiert, wurde aber ab 2024 quelloffen gemacht und zeigt, wie DAG + innovativer Konsens (Gossip & virtuelles Voting) ein traditionelles Blockchain-Protokoll ersetzen kann.
  • Fantom’s Lachesis – Führerloses PoS aBFT: Fantom ist eine Smart-Contract-Plattform, die einen DAG-basierten Konsens namens Lachesis verwendet. Lachesis ist ein aBFT Proof-of-Stake-Protokoll, das von Hashgraph inspiriert ist. In Fantom setzt jeder Validiererknoten empfangene Transaktionen zu einem Ereignisblock zusammen und fügt ihn seinem eigenen lokalen DAG von Ereignissen hinzu. Diese Ereignisblöcke enthalten Transaktionen und Referenzen zu früheren Ereignissen. Validierer verbreiten diese Ereignisblöcke asynchron aneinander – es gibt keine einzelne Sequenz, in der Blöcke produziert oder vereinbart werden müssen. Während sich Ereignisblöcke verbreiten, identifizieren die Validierer periodisch bestimmte Ereignisse als Meilensteine (oder „Root-Ereignisblöcke“), sobald eine Supermehrheit der Knoten sie gesehen hat. Lachesis ordnet dann diese finalisierten Ereignisse und committet sie zu einer finalen Opera Chain (einer traditionellen Blockchain-Datenstruktur), die als Ledger der bestätigten Blöcke fungiert. Im Wesentlichen ermöglicht der DAG von Ereignisblöcken Fantom, Konsens asynchron und sehr schnell zu erreichen, dann ist das Endergebnis eine lineare Kette für die Kompatibilität. Dies führt zu einer Finalität von etwa 1–2 Sekunden für Transaktionen auf Fantom. Lachesis hat keine Miner oder Leader, die Blöcke vorschlagen; alle Validierer tragen Ereignisblöcke bei, und das Protokoll ordnet sie deterministisch. Der Konsens wird durch ein Proof-of-Stake-Modell gesichert (Validierer müssen FTM-Token staken und werden nach Stake gewichtet). Lachesis ist auch aBFT und toleriert bis zu 1/3 fehlerhafte Knoten. Durch die Kombination von DAG-Parallelität mit einer finalen Kettenausgabe erreicht Fantom einen hohen Durchsatz (mehrere Tausend TPS in Tests), während es für Smart Contracts EVM-kompatibel bleibt. Es ist ein gutes Beispiel dafür, wie ein DAG intern zur Leistungssteigerung eingesetzt werden kann, ohne die Komplexität eines DAG auf die Anwendungsebene zu übertragen (Entwickler sehen am Ende immer noch eine normale Kette von Transaktionen).
  • Nano’s Open Representative Voting (ORV): Nano ist eine Zahlung-Kryptowährung, die eine einzigartige DAG-Struktur namens Block-Lattice verwendet. In Nano hat jedes Konto seine eigene Blockchain (Account-Chain), die nur der Kontoinhaber aktualisieren kann. All diese einzelnen Ketten bilden einen DAG, da Transaktionen von verschiedenen Konten asynchron verknüpft sind (ein Senden in einer Account-Chain referenziert einen Empfang in einer anderen usw.). Der Konsens in Nano wird über einen Mechanismus namens Open Representative Voting (ORV) erreicht. Benutzer benennen einen Repräsentantenknoten für ihr Konto (dies ist eine Gewichtsdelegation, keine Sperrung von Geldern), und diese Repräsentanten stimmen über die Gültigkeit von Transaktionen ab. Jede Transaktion wird einzeln abgewickelt (es gibt keine Blöcke, die mehrere Transaktionen bündeln) und gilt als bestätigt, wenn eine Supermehrheit (z. B. >67 %) des Stimmgewichts (von Repräsentanten) ihr zustimmt. Da ehrliche Kontoinhaber ihre eigenen Gelder nicht doppelt ausgeben werden, sind Forks selten und werden normalerweise nur durch böswillige Versuche verursacht, die Repräsentanten schnell ablehnen können. Finalität wird typischerweise in weniger als einer Sekunde für jede Transaktion erreicht. ORV ähnelt Proof-of-Stake, da das Stimmgewicht auf Kontoständen (Stake) basiert, aber es gibt keine Staking-Belohnung oder Gebühr – Repräsentanten sind freiwillige Knoten. Das Fehlen von Mining und Blockproduktion bedeutet, dass Nano gebührenfrei und effizient arbeiten kann. Es ist jedoch auf eine Reihe vertrauenswürdiger Repräsentanten angewiesen, die online sind, um abzustimmen, und es gibt eine implizite Zentralisierung, bei der Knoten ein großes Stimmgewicht ansammeln (obwohl Benutzer Repräsentanten jederzeit wechseln können, wodurch die Dezentralisierungskontrolle in den Händen der Benutzer bleibt). Nanos Konsens ist leichtgewichtig und auf Geschwindigkeit und Energieeffizienz optimiert, was mit seinem Ziel übereinstimmt, ein schnelles, gebührenfreies digitales Bargeld zu sein.
  • Weitere bemerkenswerte Ansätze: Es existieren mehrere andere DAG-basierte Konsensprotokolle. Hedera Hashgraph und Fantom Lachesis haben wir behandelt; darüber hinaus:
    • Avalanche Consensus (Avalanche/X-Chain): Avalanche verwendet einen DAG-basierten Konsens, bei dem Validierer sich in einem randomisierten Prozess wiederholt gegenseitig abfragen, um zu entscheiden, welche Transaktionen oder Blöcke bevorzugt werden sollen. Die Avalanche X-Chain (Exchange Chain) ist ein DAG von Transaktionen (UTXOs) und erreicht Konsens über diese Netzwerkerfassungsmethode. Das Avalanche-Protokoll ist probabilistisch, aber extrem schnell und skalierbar – es kann Transaktionen in ~1 Sekunde finalisieren und Berichten zufolge bis zu 4.500 TPS pro Subnetz verarbeiten. Der Ansatz von Avalanche ist einzigartig in der Kombination von DAG-Datenstrukturen mit einem metastabilen Konsens (Snowball-Protokoll) und wird durch Proof-of-Stake gesichert (jeder kann mit ausreichendem Stake ein Validierer sein).
    • Conflux Tree-Graph: Conflux ist eine Plattform, die Bitcoins PoW zu einem DAG von Blöcken erweitert hat. Sie verwendet eine Tree-Graph-Struktur, bei der Blöcke nicht nur einen Elternteil, sondern alle bekannten vorherigen Blöcke referenzieren (kein Verwaisten). Dies ermöglicht Conflux, Proof-of-Work-Mining zu verwenden, aber alle Forks als Teil des Ledgers zu behalten, was zu einem viel höheren Durchsatz als eine typische Kette führt. Conflux kann somit theoretisch in der Größenordnung von 3–6k TPS erreichen, indem es PoW verwendet und Miner kontinuierlich Blöcke produzieren lässt, ohne auf eine einzelne Kette zu warten. Sein Konsens ordnet dann diese Blöcke und löst Konflikte nach einer Regel des schwersten Unterbaums. Dies ist ein Beispiel für einen hybriden PoW-DAG.
    • Hashgraph-Varianten und akademische Protokolle: Es gibt zahlreiche akademische DAG-Protokolle (einige in neueren Projekten implementiert): SPECTRE und PHANTOM (Block-DAG-Protokolle, die auf hohen Durchsatz und schnelle Bestätigung abzielen, von DAGlabs), Aleph Zero (ein DAG-aBFT-Konsens, der in der Aleph Zero Blockchain verwendet wird), Parallel Chains / Prism (Forschungsprojekte, die die Transaktionsbestätigung in parallele Subketten und DAGs aufteilen) und neuere Entwicklungen wie Sui’s Narwhal & Bullshark, die einen DAG-Mempool für hohen Durchsatz und einen separaten Konsens für die Finalität verwenden. Obwohl nicht alle davon großflächige Implementierungen haben, deuten sie auf ein reiches Forschungsfeld hin. Viele dieser Protokolle unterscheiden zwischen Verfügbarkeit (schnelles Schreiben vieler Daten in einen DAG) und Konsistenz (Einigung auf eine Historie) und versuchen, das Beste aus beiden zu erzielen.

Jede DAG-Plattform passt ihren Konsens an ihre Bedürfnisse an – sei es gebührenfreie Mikrotransaktionen, Smart-Contract-Ausführung oder Interoperabilität. Ein gemeinsames Thema ist jedoch die Vermeidung eines einzelnen seriellen Engpasses: DAG-Konsensmechanismen streben danach, viel gleichzeitige Aktivität zu ermöglichen und dann clevere Algorithmen (Gossip, Voting, Sampling usw.) zu verwenden, um die Dinge zu klären, anstatt das Netzwerk auf einen einzelnen Blockproduzenten gleichzeitig zu beschränken.

Fallstudien: Beispiele für DAG-basierte Blockchain-Projekte

Mehrere Projekte haben DAG-basierte Ledger implementiert, jedes mit einzigartigen Designentscheidungen und Zielanwendungsfällen. Im Folgenden untersuchen wir einige prominente DAG-basierte Plattformen:

  • IOTA (The Tangle): IOTA ist eine der ersten DAG-basierten Kryptowährungen, die für das Internet der Dinge entwickelt wurde. Ihr Ledger, das Tangle genannt, ist ein DAG von Transaktionen, bei dem jede neue Transaktion zwei vorherige bestätigt. IOTAs Ziel ist es, gebührenfreie Mikrotransaktionen zwischen IoT-Geräten zu ermöglichen (Zahlung kleiner Beträge für Daten oder Dienste). Es wurde 2016 gestartet, und um die Sicherheit zu gewährleisten, verwendete es einen Koordinator-Knoten (betrieben von der IOTA Foundation), um Angriffe auf das frühe Netzwerk zu verhindern. IOTA arbeitet an „Coordicide“, um das Netzwerk vollständig zu dezentralisieren, indem ein Abstimmungskonsens (wie zuvor beschrieben) eingeführt wird, bei dem Knoten über widersprüchliche Transaktionen unter Verwendung eines führerlosen Nakamoto-Konsenses auf dem schwersten DAG abstimmen. In Bezug auf die Leistung kann IOTA theoretisch einen sehr hohen Durchsatz erreichen (das Protokoll legt keine harte TPS-Grenze fest; mehr Aktivität hilft tatsächlich, Transaktionen schneller zu bestätigen). In der Praxis haben Testnetze Hunderte von TPS demonstriert, und das kommende IOTA 2.0 wird voraussichtlich gut für die IoT-Nachfrage skalieren. Anwendungsfälle für IOTA drehen sich um IoT und Datenintegrität: z. B. Sensor-Datenstreaming mit Integritätsnachweisen, Fahrzeug-zu-Fahrzeug-Zahlungen, Lieferkettenverfolgung und sogar dezentrale Identität (das IOTA Identity Framework ermöglicht die Ausgabe und Verifizierung digitaler Anmeldeinformationen/DIDs im Tangle). IOTA unterstützt nativ keine Smart Contracts auf seiner Basisschicht, aber das Projekt hat ein paralleles Smart-Contract-Framework und Token auf einer sekundären Schicht eingeführt, um komplexere DApp-Funktionalität zu ermöglichen. Ein bemerkenswertes Merkmal von IOTA sind seine Nullgebühren, die dadurch ermöglicht werden, dass der Absender einen kleinen PoW durchführen muss, anstatt eine Gebühr zu erheben – dies macht es attraktiv für Transaktionen mit hohem Volumen und geringem Wert (z. B. ein Sensor, der alle paar Sekunden Daten zu vernachlässigbaren Kosten sendet).
  • Hedera Hashgraph (HBAR): Hedera ist ein öffentliches Distributed Ledger, das den Hashgraph-Konsensalgorithmus (erfunden von Dr. Leemon Baird) verwendet. Hedera startete 2018 und wird von einem Rat großer Organisationen (Google, IBM, Boeing und andere) regiert, die die anfängliche Reihe von Knoten betreiben. Im Gegensatz zu den meisten anderen ist Hedera in der Governance permissioniert (nur genehmigte Ratsmitglieder betreiben derzeit Konsensknoten, bis zu 39 Knoten), obwohl jeder das Netzwerk nutzen kann. Sein Hashgraph-DAG ermöglicht sehr hohen Durchsatz und schnelle Finalität – Hedera kann unter optimalen Bedingungen über 10.000 TPS mit Finalität in 3-5 Sekunden verarbeiten. Dies wird mit dem zuvor beschriebenen aBFT-Gossip-basierten Konsens erreicht. Hedera betont Unternehmens- und Web3-Anwendungsfälle, die Zuverlässigkeit in großem Maßstab erfordern: Sein Netzwerk bietet Dienste für Tokenisierung (Hedera Token Service), einen Konsensdienst für manipulationssichere Ereignisprotokollierung und einen Smart-Contract-Dienst (der EVM-kompatibel ist). Bemerkenswerte Anwendungen auf Hedera umfassen die Herkunftssicherung in Lieferketten (z. B. Avery Dennison’s Bekleidungsverfolgung), Hochvolumen-NFT-Minting (niedrige Gebühren machen das Minting von NFTs kostengünstig), Zahlungen und Mikrozahlungen (wie Ad-Tech-Mikrozahlungen) und sogar dezentrale Identitätslösungen. Hedera hat eine DID-Methode beim W3C registriert und Frameworks wie Hedera Guardian zur Unterstützung überprüfbarer Anmeldeinformationen und zur Einhaltung gesetzlicher Vorschriften (z. B. Verfolgung von CO2-Gutschriften). Ein Hauptmerkmal ist Hederas starke Leistung in Kombination mit der behaupteten Stabilität (der Hashgraph-Algorithmus garantiert keine Forks und mathematisch bewiesene Fairness bei der Reihenfolge). Der Kompromiss besteht darin, dass Hedera weniger dezentral in der Knotenanzahl ist als offene Netzwerke (konstruktionsbedingt, mit seinem Governance-Modell), obwohl die Ratsknoten global verteilt sind und der Plan darin besteht, die Offenheit langfristig zu erhöhen. Zusammenfassend ist Hedera Hashgraph ein Paradebeispiel für ein DAG-basiertes DLT, das auf Unternehmensanwendungen abzielt, mit Schwerpunkt auf hohem Durchsatz, Sicherheit und Governance.
  • Fantom (FTM): Fantom ist eine Smart-Contract-Plattform (Layer-1-Blockchain), die einen DAG-basierten Konsens namens Lachesis verwendet. Fantom wurde 2019 gestartet und gewann insbesondere im DeFi-Boom von 2021-2022 als Ethereum-kompatible Kette mit viel höherer Leistung an Popularität. Fantoms Opera-Netzwerk betreibt den Lachesis-aBFT-Konsens (oben detailliert beschrieben), bei dem Validierer einen lokalen DAG von Ereignisblöcken führen und asynchron Konsens erzielen, um dann Transaktionen in einer Hauptkette zu finalisieren. Dies verleiht Fantom eine typische Time-to-Finality von ~1 Sekunde für Transaktionen und die Fähigkeit, Tausende von Transaktionen pro Sekunde im Durchsatz zu verarbeiten. Fantom ist EVM-kompatibel, was bedeutet, dass Entwickler Solidity-Smart Contracts bereitstellen und dieselben Tools wie Ethereum verwenden können, was seine Akzeptanz in DeFi erheblich förderte. Tatsächlich wurde Fantom zur Heimat zahlreicher DeFi-Projekte (DEXs, Kreditprotokolle, Yield Farms), die von seiner Geschwindigkeit und niedrigen Gebühren angezogen wurden. Es hostet auch NFT-Projekte und Gaming-DApps – im Wesentlichen jede Web3-Anwendung, die von schnellen, günstigen Transaktionen profitiert. Ein bemerkenswerter Punkt ist, dass Fantom für eine DAG-Plattform einen hohen Grad an Dezentralisierung erreicht hat: Es verfügt über Dutzende unabhängiger Validierer, die das Netzwerk sichern (permissionless, jeder kann einen Validierer mit dem Mindest-Stake betreiben), im Gegensatz zu einigen DAG-Netzwerken, die Validierer einschränken. Dies positioniert Fantom als glaubwürdige Alternative zu traditionelleren Blockchains für dezentrale Anwendungen, wobei die DAG-Technologie unter der Haube genutzt wird, um den Leistungsengpass zu überwinden. Der FTM-Token des Netzwerks wird für Staking, Governance und Gebühren verwendet (die nur wenige Cent pro Transaktion betragen, viel niedriger als Ethereum-Gasgebühren). Fantom demonstrierte, dass DAG-basierter Konsens mit Smart-Contract-Plattformen integriert werden kann, um sowohl Geschwindigkeit als auch Kompatibilität zu erreichen.
  • Nano (XNO): Nano ist eine leichte Kryptowährung, die 2015 (ursprünglich als RaiBlocks) eingeführt wurde und eine DAG-Block-Lattice-Struktur verwendet. Nanos Hauptaugenmerk liegt auf Peer-to-Peer-Digitalgeld: sofortige, gebührenfreie Transaktionen mit minimalem Ressourcenverbrauch. In Nano hat jedes Konto seine eigene Transaktionskette, und Übertragungen zwischen Konten werden über einen Sendeblock in der Kette des Senders und einen Empfangsblock in der Kette des Empfängers abgewickelt. Dieses asynchrone Design bedeutet, dass das Netzwerk Transaktionen unabhängig und parallel verarbeiten kann. Der Konsens wird durch Open Representative Voting (ORV) erreicht, bei dem die Community Repräsentantenknoten durch Delegation des Bilanzgewichts ernennt. Repräsentanten stimmen über widersprüchliche Transaktionen ab (die selten sind, normalerweise nur bei Double-Spend-Versuchen), und sobald ein Quorum (67 % Gewicht) zustimmt, wird die Transaktion zementiert (unumkehrbar bestätigt). Nanos typische Bestätigungszeiten liegen weit unter einer Sekunde, wodurch es sich im täglichen Gebrauch sofort anfühlt. Da es keine Mining-Belohnungen oder Gebühren gibt, ist der Betrieb eines Nano-Knotens oder Repräsentanten eine freiwillige Anstrengung, aber das Design des Netzwerks minimiert die Last (jede Transaktion ist nur 200 Byte groß und kann schnell verarbeitet werden). Nanos DAG-Ansatz und Konsens ermöglichen es, extrem energieeffizient zu sein – es wird ein winziger PoW von den Sendern durchgeführt (hauptsächlich als Anti-Spam-Maßnahme), aber er ist trivial im Vergleich zu PoW-Blockchains. Die Anwendungsfälle für Nano sind konstruktionsbedingt einfach: Es ist für Währungstransfers gedacht, von alltäglichen Einkäufen bis hin zu Überweisungen, bei denen Geschwindigkeit und Nullgebühren die Verkaufsargumente sind. Nano unterstützt keine Smart Contracts oder komplexe Skripte; es konzentriert sich darauf, eine Sache sehr gut zu machen. Eine Herausforderung für Nanos Modell ist, dass es auf der ehrlichen Mehrheit der Repräsentanten beruht; da es keine monetären Anreize gibt, basiert das Sicherheitsmodell auf der Annahme, dass große Token-Inhaber im besten Interesse des Netzwerks handeln werden. Bisher hat Nano einen ziemlich dezentralen Satz von Hauptrepräsentanten beibehalten und wurde bei Händlerzahlungen, Trinkgeldern und anderen Mikrozahlungsszenarien online eingesetzt.
  • Hedera vs. IOTA vs. Fantom vs. Nano (Auf einen Blick): Die folgende Tabelle fasst einige Hauptmerkmale dieser DAG-basierten Projekte zusammen:
Projekt (Jahr)Datenstruktur & KonsensLeistung (Durchsatz & Finalität)Bemerkenswerte Funktionen / Anwendungsfälle
IOTA (2016)DAG von Transaktionen („Tangle“); jede Transaktion genehmigt 2 andere. Ursprünglich koordinatorgesichert; Umstellung auf dezentralen führerlosen Konsens (Abstimmung über schwersten DAG, keine Miner).Theoretisch hoher TPS (skaliert mit Aktivität); ~10s Bestätigung in aktivem Netzwerk (schneller bei zunehmender Last). Laufende Forschung zur Verbesserung der Finalität. Gebührenfreie Transaktionen.IoT-Mikrozahlungen und Datenintegrität (gebührenfreie Mikrotransaktionen), Lieferkette, Sensordaten, Auto, dezentrale Identität (IOTA Identity DID-Methode). Keine Smart Contracts auf Basisschicht (separate Schichten dafür).
Hedera Hashgraph (2018)DAG von Ereignissen (Hashgraph); Gossip-über-Gossip + virtuelles Voting Konsens (aBFT), betrieben von ~29–39 Ratsknoten (PoS gewichtet). Keine Miner; Zeitstempel zur Anordnung.~10.000 TPS max; Finalität 3-5 Sekunden für Transaktionen. Extrem niedriger Energieverbrauch pro Transaktion (~0,0001 kWh). Sehr niedrige feste Gebühren (~0,0001 US-Dollar pro Übertragung).Unternehmens- und Web3-Anwendungen: Tokenisierung (HTS), NFTs und Content-Dienste, Zahlungen, Lieferkettenverfolgung, Gesundheitsdaten, Gaming usw. Rats-Governance durch große Unternehmen; Netzwerk ist EVM-kompatibel für Smart Contracts (Solidity). Fokus auf hohen Durchsatz und Sicherheit für Unternehmen.
Fantom (FTM) (2019)DAG von Validierer-Ereignisblöcken; Lachesis aBFT PoS-Konsens (führerlos). Jeder Validierer erstellt DAG von Ereignissen, die bestätigt und zu einer finalen Blockchain (Opera Chain) zusammengefügt werden.Empirisch einige Hundert TPS im DeFi-Einsatz; typisch 1-2 Sekunden Finalität. In Benchmarks Tausende von TPS möglich. Niedrige Gebühren (Bruchteile eines Cents).DeFi und Smart Contracts auf einer Hochgeschwindigkeits-L1. EVM-kompatibel (führt Solidity DApps aus). Unterstützt DEXs, Lending, NFT-Marktplätze (schneller Handel, günstiges Minting). DAG-Konsens hinter einer entwicklerfreundlichen Blockchain-Oberfläche verborgen. Staking für jedermann verfügbar (dezentraler Validierer-Satz).
Nano (XNO) (2015)DAG von Account-Chains (Block-Lattice); jede Transaktion ist ein eigener Block. Open Representative Voting für Konsens (dPoS-ähnliches Voting bei Konflikten). Kein Mining, keine Gebühren.~Hunderte von TPS machbar (hauptsächlich durch Netzwerk-I/O begrenzt). <1s Bestätigung für typische Transaktionen. Keine Gebühren überhaupt (gebührenfrei). Extrem geringer Ressourcenverbrauch (effizient für IoT/Mobil).Digitales Geld für Sofortzahlungen. Ideal für Mikrozahlungen, Trinkgelder, Einzelhandelstransaktionen, wo Gebühren und Latenz minimal sein müssen. Nicht für Smart Contracts konzipiert – konzentriert sich auf einfache Übertragungen. Sehr geringer Stromverbrauch (grüne Kryptowährung). Von der Community betriebene Repräsentanten (keine zentrale Autorität).

(Tabelle: Vergleich ausgewählter DAG-basierter Ledger-Projekte und ihrer Merkmale. TPS = Transaktionen pro Sekunde.)

Andere DAG-basierte Projekte, die oben nicht detailliert wurden, umfassen Obyte (Byteball) – ein DAG-Ledger für bedingte Zahlungen und Datenspeicherung, IoT Chain (ITC) – ein IoT-fokussiertes DAG-Projekt, Avalanche – das wir als DAG-Nutzung in seinem Konsens besprochen haben und zu einer wichtigen DeFi-Plattform geworden ist, Conflux – ein Hochdurchsatz-PoW-DAG in China, und akademische Prototypen wie SPECTRE/PHANTOM. Jedes erforscht den Designraum von DAG-Ledgern auf unterschiedliche Weise, aber die vier oben genannten Beispiele (IOTA, Hedera, Fantom, Nano) veranschaulichen die Vielfalt: von gebührenfreien IoT-Transaktionen über Unternehmensnetzwerke bis hin zu DeFi-Smart-Contract-Ketten, die alle DAG-Strukturen nutzen.

Anwendungsfälle der DAG-Technologie im Web3-Ökosystem

DAG-basierte Blockchain-Systeme erschließen bestimmte Anwendungsfälle besonders gut, dank ihrer hohen Leistung und einzigartigen Eigenschaften. Hier sind einige aktuelle und potenzielle Anwendungsfälle, in denen DAGs im Web3 Wirkung zeigen:

  • Internet der Dinge (IoT): IoT umfasst Millionen von Geräten, die Daten übertragen und potenziell miteinander Transaktionen durchführen (Maschine-zu-Maschine-Zahlungen). DAG-Ledger wie IOTA wurden explizit für dieses Szenario entwickelt. Mit gebührenfreien Mikrotransaktionen und der Fähigkeit, hohe Frequenzen kleiner Zahlungen zu verarbeiten, kann ein DAG-Ledger IoT-Geräten ermöglichen, Dienste oder Bandbreite spontan zu bezahlen. Zum Beispiel könnte ein intelligentes Elektroauto automatisch eine Ladestation ein paar Cent Strom bezahlen, oder Sensoren könnten Daten in Echtzeit an eine Plattform verkaufen. IOTAs Tangle wurde in Smart-City-Pilotprojekten, IoT-Integrationen in Lieferketten (Verfolgung von Gütern und Umweltbedingungen) und dezentralen Datenmarktplätzen eingesetzt, wo Sensordaten unveränderlich protokolliert und gehandelt werden. Die Skalierbarkeit von DAGs bewältigt das enorme Volumen, das weit verbreitete IoT-Netzwerke erzeugen, und ihre geringen Kosten passen zur Ökonomie von Mikrozahlungen.
  • Dezentrale Finanzen (DeFi): DeFi-Anwendungen wie dezentrale Börsen (DEXs), Kreditplattformen und Zahlungsnetzwerke profitieren von hohem Durchsatz und geringer Latenz. DAG-basierte Smart-Contract-Plattformen (z. B. Fantom und in gewissem Maße Avalanches X-Chain für einfache Vermögensübertragungen) bieten den Vorteil, dass Trades schneller abgewickelt werden können und die Gebühren auch bei hoher Nachfrage niedrig bleiben. Im Jahr 2021 erlebte Fantom einen Anstieg der DeFi-Aktivitäten (Yield Farming, Automated Market Maker usw.) und konnte diese mit viel geringerer Überlastung als Ethereum zu dieser Zeit bewältigen. Darüber hinaus reduziert die schnelle Finalität von DAG-Netzwerken das Risiko von Unsicherheiten bei der Handelsausführung (auf langsamen Ketten warten Benutzer viele Blöcke auf Finalität, was bei schnelllebigen Handelsgeschäften Risiken bergen kann). Ein weiterer Aspekt sind dezentrale Zahlungsnetzwerke – Nano zum Beispiel kann als Teil des DeFi-Spektrums angesehen werden, das Peer-to-Peer-Übertragungen ermöglicht und potenziell eine Mikrozahlungsschiene für Layer-2 anderer Systeme sein kann. Die Leistung von DAG könnte auch den Hochfrequenzhandel oder komplexe mehrstufige DeFi-Transaktionen reibungsloser unterstützen.
  • Non-Fungible Tokens (NFTs) und Gaming: Der NFT-Boom hat den Bedarf an kostengünstigem Minting und Übertragungen deutlich gemacht. Auf Ethereum wurde das Minting von NFTs teuer, als die Gasgebühren in die Höhe schnellten. DAG-Netzwerke wie Hedera und Fantom wurden als Alternativen vorgeschlagen, bei denen das Minting eines NFT einen winzigen Bruchteil eines Cents kostet, was sie für In-Game-Assets, Sammlerstücke oder groß angelegte Drops praktikabel macht. Hederas Token Service ermöglicht die native Ausgabe von Token und NFTs mit den niedrigen, vorhersehbaren Gebühren des Netzwerks und wurde von Content-Plattformen und sogar Unternehmen (z. B. Musikkünstlern, die Token ausgeben, oder Universitäten, die Abschlüsse verfolgen) verwendet. Im Gaming, wo Mikrotransaktionen üblich sind, könnte ein schnelles DAG-Ledger häufige Asset-Trades oder Belohnungsverteilungen abwickeln, ohne das Spiel zu verlangsamen oder Spieler durch Gebühren zu ruinieren. Der hohe Durchsatz stellt sicher, dass selbst wenn ein beliebtes Spiel oder eine NFT-Sammlung Millionen von Benutzern anzieht, das Netzwerk die Last bewältigen kann (während wir in der Vergangenheit gesehen haben, wie Spiele auf Ethereum das Netzwerk verstopften). Zum Beispiel kann ein NFT-basiertes Spiel auf Fantom den Zustand schnell genug aktualisieren, um eine nahezu Echtzeit-Reaktionsfähigkeit zu bieten.
  • Dezentrale Identität (DID) und Anmeldeinformationen: Identitätssysteme profitieren von einem unveränderlichen Ledger, um Identitäten, Anmeldeinformationen und Bestätigungen zu verankern. DAG-Netzwerke werden dafür erforscht, weil sie Skalierbarkeit für potenziell Milliarden von Identitätstransaktionen (jeder Login, jede Zertifikatsausstellung usw.) und geringe Kosten bieten, was entscheidend ist, wenn beispielsweise die ID-Interaktionen jedes Bürgers aufgezeichnet würden. IOTA Identity ist ein Beispiel: Es bietet eine DID-Methode did:iota, bei der Identitätsdokumente im Tangle referenziert werden. Dies kann für selbstsouveräne Identität verwendet werden: Benutzer kontrollieren ihre Identitätsdokumente, und Verifizierer können Nachweise aus dem DAG abrufen. Hedera ist auch im DID-Bereich aktiv – es hat eine DID-Spezifikation und wurde in Projekten wie der Sicherung manipulationssicherer Protokolle von Hochschulabschlüssen, COVID-Impfzertifikaten oder Lieferketten-Compliance-Dokumenten (über den Hedera Consensus Service als ID-Ankerdienst) eingesetzt. Die Vorteile von DAGs hier sind, dass das Schreiben von Daten günstig und schnell ist, sodass das Aktualisieren eines Identitätszustands (wie das Rotieren von Schlüsseln, das Hinzufügen einer Anmeldeinformation) nicht den Kosten- oder Verzögerungshürden einer ausgelasteten Blockchain gegenübersteht. Darüber hinaus können die Finalitäts- und Ordnungsgarantien für Audits wichtig sein (Hashgraph bietet zum Beispiel eine vertrauenswürdige Zeitstempelreihenfolge von Ereignissen, die bei der Compliance-Protokollierung nützlich ist).
  • Lieferkette und Datenintegrität: Über die Identität hinaus kann jeder Anwendungsfall, der die Protokollierung eines hohen Volumens von Dateneinträgen beinhaltet, DAG-DLTs nutzen. Die Lieferkettenverfolgung ist ein bemerkenswerter Fall – Produkte, die sich durch eine Lieferkette bewegen, erzeugen viele Ereignisse (hergestellt, versandt, geprüft usw.). Projekte haben Hedera und IOTA verwendet, um diese Ereignisse in einem DAG-Ledger für Unveränderlichkeit und Transparenz zu protokollieren. Der hohe Durchsatz stellt sicher, dass das Ledger auch dann kein Engpass wird, wenn jeder Artikel in einem großen Liefernetzwerk gescannt und aufgezeichnet wird. Darüber hinaus bedeuten die niedrigen oder null Gebühren, dass Sie selbst geringwertige Ereignisse On-Chain aufzeichnen können, ohne hohe Kosten zu verursachen. Ein weiteres Beispiel ist die IoT-Datenintegrität: Energienetze oder Telekommunikationsunternehmen könnten Gerätemesswerte in einem DAG-Ledger protokollieren, um später zu beweisen, dass Daten nicht manipuliert wurden. Das DAG von Constellation Network (ein weiteres DAG-Projekt) konzentriert sich auf die Big-Data-Validierung für Unternehmen und Regierungen (wie die Integrität von US Air Force Drohnendaten) – was hervorhebt, wie ein skalierbarer DAG große Datenströme auf vertrauenswürdige Weise verarbeiten kann.
  • Zahlungen und Überweisungen: Schnelle und gebührenfreie Transaktionen machen DAG-Kryptowährungen wie Nano und IOTA gut geeignet für Zahlungsanwendungen. Nano wurde in Szenarien wie Online-Trinkgeldern (wo ein Benutzer sofort ein paar Cent an einen Content Creator senden kann) und internationalen Überweisungen (wo Geschwindigkeit und Nullgebühren einen großen Unterschied machen im Vergleich zum stundenlangen Warten und Zahlen von prozentualen Gebühren) angenommen. DAG-Netzwerke können als Hochgeschwindigkeits-Zahlungsschienen für die Integration in Point-of-Sale-Systeme oder mobile Zahlungs-Apps dienen. Zum Beispiel könnte ein Café eine DAG-basierte Krypto für Zahlungen verwenden und sich keine Sorgen um Latenz oder Kosten machen (die Benutzererfahrung kann mit kontaktlosen Kreditkartenzahlungen mithalten). Hederas HBAR wird auch in einigen Zahlungstests verwendet (aufgrund seiner schnellen Finalität und niedrigen Gebühren ziehen einige Fintech-Anwendungen es für die Abwicklung in Betracht). Zusätzlich, weil DAG-Netzwerke oft eine höhere Kapazität haben, können sie ihre Leistung auch bei globalen Einkaufsereignissen oder Nutzungsspitzen aufrechterhalten, was für die Zahlungszuverlässigkeit wertvoll ist.
  • Echtzeit-Datenfeeds und Orakel: Orakel (Dienste, die externe Daten an Blockchain-Smart Contracts liefern) erfordern das Schreiben vieler Datenpunkte in ein Ledger. Ein DAG-Ledger könnte als Hochdurchsatz-Orakelnetzwerk fungieren, das Preisfeeds, Wetterdaten, IoT-Sensormesswerte usw. mit einer Garantie für Reihenfolge und Zeitstempel aufzeichnet. Der Hedera Consensus Service wird beispielsweise von einigen Orakel-Anbietern verwendet, um Daten mit Zeitstempel zu versehen, bevor sie in andere Ketten eingespeist werden. Die Geschwindigkeit stellt sicher, dass die Daten aktuell sind, und der Durchsatz bedeutet, dass selbst schnelle Datenströme verarbeitet werden können. In dezentralen Web3-Analysen oder Werbung, wo jeder Klick oder jede Impression zur Transparenz protokolliert werden könnte, kann ein DAG-Backend das Ereignisvolumen bewältigen.

In all diesen Anwendungsfällen ist der gemeinsame Nenner, dass DAG-Netzwerke darauf abzielen, die Skalierbarkeit, Geschwindigkeit und Kosteneffizienz bereitzustellen, die den Umfang dessen erweitern, was wir dezentralisieren können. Sie sind besonders nützlich, wo hochfrequente oder hochvolumige Transaktionen auftreten (IoT, Mikrotransaktionen, Maschinendaten) oder wo die Benutzererfahrung schnelle, nahtlose Interaktionen erfordert (Gaming, Zahlungen). Es ist jedoch zu beachten, dass nicht jeder Anwendungsfall auf DAG-basierte Ledger migrieren wird – manchmal überwiegen die Reife und Sicherheit traditioneller Blockchains oder einfach Netzwerkeffekte (z. B. Ethereums riesige Entwicklerbasis) die reinen Leistungsanforderungen. Nichtsdestotrotz erobern DAGs eine Nische im Web3-Stack für Szenarien, die konventionelle Ketten belasten.

Einschränkungen und Herausforderungen von DAG-basierten Netzwerken

Während DAG-basierte Distributed Ledger verlockende Vorteile bieten, gehen sie auch mit Kompromissen und Herausforderungen einher. Es ist wichtig, diese Einschränkungen kritisch zu untersuchen:

  • Reife und Sicherheit: Die Mehrheit der DAG-Konsensalgorithmen ist relativ neu und weniger praxiserprobt im Vergleich zu den gut untersuchten Blockchain-Protokollen von Bitcoin oder Ethereum. Dies kann bedeuten, dass unbekannte Sicherheitslücken oder Angriffsvektoren existieren könnten. Die Komplexität von DAG-Systemen eröffnet potenziell neue Angriffswege – zum Beispiel könnte ein Angreifer versuchen, den DAG mit widersprüchlichen Subtangles zu spammen oder zu überladen, oder die parallele Struktur nutzen, um Double-Spending zu betreiben, bevor das Netzwerk Konsens erreicht. Akademische Analysen stellen fest, dass erhöhte Komplexität ein breiteres Spektrum an Schwachstellen einführt im Vergleich zu einfacheren linearen Ketten. Einige DAG-Netzwerke hatten Probleme: z. B. musste das IOTA-Netzwerk in seinen Anfängen einige Male aufgrund von Unregelmäßigkeiten/Hacks pausiert werden (ein Vorfall im Jahr 2020 betraf gestohlene Gelder, und der Koordinator wurde vorübergehend abgeschaltet, um das Problem zu lösen). Diese Vorfälle unterstreichen, dass die Sicherheitsmodelle noch verfeinert werden. Darüber hinaus ist die Finalität in einigen DAGs probabilistisch – z. B. hatte IOTA vor Coordicide keine absolute Finalität, sondern nur eine zunehmende Bestätigungssicherheit – was für bestimmte Anwendungen schwierig sein kann (obwohl neuere DAGs wie Hashgraph und Fantom sofortige Finalität mit aBFT-Garantien bieten).
  • Konsenskomplexität: Das Erreichen von Konsens in einem DAG beinhaltet oft komplizierte Algorithmen (Gossip-Protokolle, virtuelles Voting, zufällige Stichproben usw.). Diese Komplexität kann zu größeren Codebasen und komplizierteren Implementierungen führen, was das Risiko von Softwarefehlern erhöht. Es macht das System auch für Entwickler schwerer verständlich. Die Längste-Kette-Regel einer Blockchain ist konzeptionell einfach, während beispielsweise Hashgraphs virtuelles Voting oder Avalanches wiederholte zufällige Stichproben nicht sofort intuitiv sind. Die Komplexität kann die Akzeptanz verlangsamen: Entwickler und Unternehmen zögern möglicherweise, einem System zu vertrauen, das sie schwerer verstehen oder prüfen können. Wie eine Studie feststellte, erfordern partiell geordnete Systeme (DAGs) mehr Aufwand, um sie in bestehende Infrastrukturen und Entwicklermentalitäten zu integrieren. Tools und Bibliotheken für DAG-Netzwerke sind in vielen Fällen ebenfalls weniger ausgereift, was bedeutet, dass die Entwicklererfahrung möglicherweise rauer ist als auf Ethereum oder Bitcoin.
  • Kompromisse bei der Dezentralisierung: Einige aktuelle DAG-Implementierungen opfern ein gewisses Maß an Dezentralisierung, um ihre Leistung zu erreichen. Zum Beispiel bedeutet Hederas Abhängigkeit von einem festen Rat von 39 Knoten, dass das Netzwerk nicht für jeden offen ist, um am Konsens teilzunehmen, was trotz seiner technischen Stärken Kritik hervorgerufen hat. IOTA verließ sich lange Zeit auf einen zentralen Koordinator, um Angriffe zu verhindern, was einen Single Point of Failure/Control darstellte. Nanos Konsens beruht auf einer kleinen Anzahl von Hauptrepräsentanten, die den größten Teil des Stimmgewichts halten (Stand 2023 kontrollieren die obersten Repräsentanten oft einen großen Teil des Online-Stimmgewichts), was als Machtkonzentration angesehen werden könnte – obwohl dies etwas analog zu Mining-Pools in PoW ist. Im Allgemeinen werden Blockchains derzeit als leichter weitgehend dezentralisierbar (Tausende von Knoten) wahrgenommen als einige DAG-Netzwerke. Die Gründe sind vielfältig: Einige DAG-Algorithmen könnten höhere Knoten-Bandbreitenanforderungen haben (was es für viele Knoten schwieriger macht, vollständig teilzunehmen), oder das Design des Projekts könnte absichtlich eine permissionierte Struktur beibehalten. Dies ist keine inhärente Einschränkung von DAGs per se, sondern eher spezifischer Implementierungen. Es ist möglich, ein hoch dezentralisiertes DAG-Netzwerk zu haben, aber in der Praxis haben viele noch nicht die Knotenanzahl großer Blockchains erreicht.
  • Bedarf an Volumen (Sicherheit vs. Durchsatz): Einige DAG-Netzwerke benötigen paradoxerweise ein hohes Transaktionsvolumen, um optimal zu funktionieren. Zum Beispiel wird IOTAs Sicherheitsmodell robust, wenn viele ehrliche Transaktionen sich ständig gegenseitig bestätigen (wodurch das kumulative Gewicht ehrlicher Subtangles erhöht wird). Wenn die Netzwerkaktivität sehr gering ist, kann der DAG unter Trägheit leiden – Spitzen werden nicht schnell genehmigt, oder ein Angreifer findet es leichter, Teile des DAG zu überschreiben. Im Gegensatz dazu benötigt eine traditionelle Blockchain wie Bitcoin keine Mindestanzahl von Transaktionen, um sicher zu bleiben (selbst wenn wenige Transaktionen stattfinden, konkurrieren Miner immer noch darum, die Kette zu erweitern). Daher gedeihen DAGs oft unter Last, könnten aber bei geringer Nutzung stagnieren, es sei denn, es werden spezielle Maßnahmen ergriffen (wie IOTAs Koordinator oder Hintergrund-„Wartungs“-Transaktionen). Dies bedeutet, dass die Leistung inkonsistent sein kann – großartig bei hoher Nutzung, aber möglicherweise langsamere Bestätigung in Nebenzeiten oder bei geringer Nutzung.
  • Reihenfolge und Kompatibilität: Da DAGs eine partielle Reihenfolge von Ereignissen erzeugen, die schließlich konsistent sein muss, können die Konsensalgorithmen recht kompliziert sein. In Smart-Contract-Kontexten ist eine vollständige Reihenfolge von Transaktionen erforderlich, um Double-Spending zu vermeiden und eine deterministische Ausführung aufrechtzuerhalten. DAG-Systeme wie Fantom lösen dies durch den Aufbau einer Ordnungsschicht (der finalen Opera Chain), aber nicht alle DAG-Systeme unterstützen komplexe Smart Contracts problemlos. Das Zustandsmanagement und das Programmiermodell können auf einem reinen DAG eine Herausforderung darstellen. Wenn beispielsweise zwei Transaktionen nicht in Konflikt stehen, können sie parallel auf einem DAG bestätigt werden – das ist in Ordnung. Wenn sie jedoch in Konflikt stehen (z. B. zwei Transaktionen, die denselben Output ausgeben, oder zwei Trades auf derselben Order), muss das Netzwerk eine entscheiden und die andere verwerfen. Sicherzustellen, dass alle Knoten die gleiche Entscheidung dezentral treffen, ist ohne eine einzige Kette, die alles ordnet, schwieriger. Aus diesem Grund vermieden viele DAG-Projekte zunächst Smart Contracts oder globalen Zustand und konzentrierten sich auf Zahlungen (wo Konflikte einfacher über UTXOs oder Kontostände zu erkennen sind). Die Schnittstelle von DAG-Ledgern mit bestehenden Blockchain-Ökosystemen kann ebenfalls nicht trivial sein; zum Beispiel erforderte die Verbindung einer EVM mit einem DAG, dass Fantom einen Mechanismus zur Linearisierung des DAG für die EVM-Ausführung schuf. Diese Komplexitäten bedeuten, dass nicht jeder Anwendungsfall sofort auf einem DAG ohne sorgfältiges Design implementiert werden kann.
  • Speicherung und Synchronisation: Ein potenzielles Problem ist, dass, wenn ein DAG-Ledger ein hohes Volumen paralleler Transaktionen zulässt, das Ledger schnell wachsen kann. Effiziente Algorithmen zum Beschneiden des DAG (Entfernen alter Transaktionen, die für die Sicherheit nicht mehr benötigt werden) sind wichtig, ebenso wie die Ermöglichung des Betriebs von Light Nodes (Light Clients benötigen Möglichkeiten, Transaktionen zu bestätigen, ohne den gesamten DAG zu speichern). Die Forschung hat die Erreichbarkeitsproblematik identifiziert: Sicherstellen, dass neue Transaktionen effizient frühere erreichen und referenzieren können, und herausfinden, wie die Historie in einem DAG sicher gekürzt werden kann. Während Blockchains auch Wachstumsprobleme haben, könnte die Struktur des DAG Dinge wie die Berechnung von Salden oder Nachweisen für den partiellen Zustand erschweren, da das Ledger keine einfache Liste von Blöcken ist. Dies ist größtenteils eine technische Herausforderung, die angegangen werden kann, aber sie erhöht den Aufwand beim Entwurf eines robusten DAG-Systems.
  • Wahrnehmung und Netzwerkeffekte: Abgesehen von rein technischen Problemen stehen DAG-Projekte vor der Herausforderung, sich in einem von Blockchains dominierten Raum zu beweisen. Viele Entwickler und Benutzer fühlen sich einfach wohler mit Blockchain-L1s, und Netzwerkeffekte (mehr Benutzer, mehr DApps, mehr Tools auf bestehenden Ketten) können schwer zu überwinden sein. DAGs werden manchmal mit kühnen Behauptungen („Blockchain-Killer“ usw.) vermarktet, was Skepsis hervorrufen kann. Zum Beispiel könnte ein Projekt unbegrenzte Skalierbarkeit beanspruchen – aber Benutzer werden warten, bis dies unter realen Bedingungen demonstriert wird. Solange DAG-Netzwerke keine „Killer-Apps“ oder große Benutzerbasen hosten, könnten sie als experimentell angesehen werden. Darüber hinaus ist die Listung an Börsen, Verwahrungslösungen, Wallets – die gesamte Infrastruktur, die bereits große Blockchains unterstützt – eine fortlaufende Anstrengung für jede neue DAG-Plattform. Es gibt also eine Bootstrapping-Herausforderung: Trotz technischer Verdienste kann die Akzeptanz aufgrund der Ökosystem-Trägheit zurückbleiben.

Zusammenfassend lässt sich sagen, dass DAG-basierte Ledger Einfachheit gegen Leistung eintauschen, und das bringt Wachstumsschmerzen mit sich. Die Komplexität des Konsenses, potenzielle Zentralisierung in einigen Implementierungen und die Notwendigkeit, Vertrauen zu gewinnen, das dem älterer Blockchain-Systeme entspricht, sind Hürden, die es zu überwinden gilt. Die Forschungsgemeinschaft untersucht diese Probleme aktiv – zum Beispiel stellt ein 2024er Systematisierung-des-Wissens-Papier zu DAG-Protokollen die zunehmende Vielfalt der Designs und die Notwendigkeit eines ganzheitlichen Verständnisses ihrer Kompromisse fest. Wenn DAG-Projekte reifen, können wir erwarten, dass viele dieser Herausforderungen (wie die Entfernung von Koordinatoren, offene Teilnahme, bessere Entwicklertools) angegangen werden, aber sie sind wichtig zu berücksichtigen, wenn man DAG vs. Blockchain für eine bestimmte Anwendung bewertet.

Adoptionstrends und Zukunftsaussichten

Die Akzeptanz der DAG-basierten Blockchain-Technologie befindet sich im Vergleich zur weit verbreiteten Nutzung traditioneller Blockchains noch in einem frühen Stadium. Stand 2025 verwenden nur eine Handvoll öffentlicher Distributed Ledger DAGs in großem Maßstab – bemerkenswerte sind Hedera Hashgraph, IOTA, Fantom, Nano, Avalanche (für einen Teil seines Systems) und einige andere. Blockchains (lineare Ketten) bleiben die dominante Architektur in implementierten Systemen. Das Interesse an DAGs hat jedoch sowohl in der Industrie als auch in der Wissenschaft stetig zugenommen. Wir können einige Trends und die Aussichten für DAGs in der Blockchain identifizieren:

  • Wachsende Anzahl von DAG-Projekten und Forschung: Es gibt einen sichtbaren Anstieg der Anzahl neuer Projekte, die DAG- oder Hybridarchitekturen erforschen. Zum Beispiel verwenden neuere Plattformen wie Aleph Zero (ein datenschutzorientiertes Netzwerk) einen DAG-Konsens für schnelle Ordnung, und Sui und Aptos (Move-Sprachketten) integrieren DAG-basierte Mempools oder parallele Ausführungs-Engines, um die Leistung zu skalieren. Die akademische Forschung zu DAG-basiertem Konsens floriert – Protokolle wie SPECTRE, PHANTOM, GhostDAG und neuere verschieben die Grenzen, und umfassende Analysen (SoK-Papiere) werden veröffentlicht, um DAG-Ansätze zu klassifizieren und zu bewerten. Dies deutet auf eine gesunde Erforschung und das Aufkommen von Best Practices hin. Wenn die Forschung Lösungen für frühere Schwächen identifiziert (zum Beispiel, wie man Fairness erreicht, wie man DAGs beschneidet, wie man DAGs unter dynamischen Bedingungen sichert), werden wir diese Innovationen wahrscheinlich in Implementierungen einfließen sehen.
  • Hybridmodelle im Mainstream-Einsatz: Ein interessanter Trend ist, dass sogar traditionelle Blockchains DAG-Konzepte übernehmen, um die Leistung zu verbessern. Avalanche ist ein Paradebeispiel für einen Hybriden: Es präsentiert sich als Blockchain-Plattform, verwendet aber im Kern einen DAG-Konsens. Es hat eine signifikante Akzeptanz in DeFi- und NFT-Kreisen gefunden, was zeigt, dass Benutzer manchmal ein DAG-basiertes System übernehmen, ohne es überhaupt zu merken, solange es ihre Bedürfnisse erfüllt (schnell und günstig). Dieser Trend könnte sich fortsetzen: DAG als interner Motor, der eine vertraute Blockchain-Schnittstelle exponiert, könnte eine erfolgreiche Strategie sein, die Entwicklern den Einstieg erleichtert. Fantom hat dies mit seiner Opera-Kette getan, und andere Projekte könnten diesem Beispiel folgen, wodurch die DAG-Technologie effektiv zu einem unsichtbaren Rückgrat für Ketten der nächsten Generation wird.
  • Unternehmens- und Nischenakzeptanz: Unternehmen, die hohen Durchsatz, vorhersehbare Kosten benötigen und mit stärker permissionierten Netzwerken vertraut sind, neigen dazu, DAG-Ledger zu erforschen. Hederas Governing Council-Modell zog große Unternehmen an; diese wiederum treiben Anwendungsfälle wie die Asset-Tokenisierung für Finanzdienstleistungen oder die Verfolgung von Softwarelizenzen usw. auf Hedera voran. Wir sehen, dass Konsortien DAG-basierte DLT für Dinge wie Telekommunikationsabrechnungen, die Verfolgung von Werbeimpressionen oder Interbankenüberweisungen in Betracht ziehen, wo das Volumen hoch ist und sie Finalität benötigen. IOTA war an von der Europäischen Union finanzierten Projekten für Infrastruktur, digitale Identitätspiloten und industrielles IoT beteiligt – dies sind längerfristige Adoptionspfade, aber sie zeigen, dass DAGs über die Krypto-Community hinaus auf dem Radar sind. Wenn sich einige dieser Tests als erfolgreich und skalierbar erweisen, könnten wir eine sektorspezifische Akzeptanz von DAG-Netzwerken sehen (z. B. ein IoT-Konsortium, das alle ein DAG-Ledger zur gemeinsamen Nutzung und Monetarisierung von Daten verwendet).
  • Fortschritte bei Community und Dezentralisierung: Frühe Kritik an DAG-Netzwerken (zentrale Koordinatoren, permissionierte Validierer) wird allmählich angegangen. IOTAs Coordicide wird, falls erfolgreich, den zentralen Koordinator entfernen und IOTA in ein vollständig dezentrales Netzwerk mit einer Form von Staking und von der Community betriebenen Validierern überführen. Hedera hat seinen Code quelloffen gemacht und Pläne angedeutet, die Governance langfristig weiter zu dezentralisieren (über den anfänglichen Rat hinaus). Nanos Community arbeitet kontinuierlich an der Dezentralisierung der Repräsentantenverteilung (ermutigt mehr Benutzer, Repräsentanten zu betreiben oder ihre Delegationen aufzuteilen). Diese Schritte sind wichtig für die Glaubwürdigkeit und das Vertrauen in DAG-Netzwerke und bringen sie stärker mit dem Ethos der Blockchain in Einklang. Mit zunehmender Dezentralisierung werden wahrscheinlich mehr krypto-native Benutzer und Entwickler bereit sein, auf DAG-Projekten aufzubauen oder dazu beizutragen, was das Wachstum beschleunigen kann.
  • Interoperabilität und Layer-2-Nutzung: Wir könnten auch sehen, dass DAGs als Skalierungsschichten oder interoperable Netzwerke anstatt als eigenständige Ökosysteme verwendet werden. Zum Beispiel könnte ein DAG-Ledger als Hochgeschwindigkeits-Layer-2 für Ethereum dienen, das periodisch gebündelte Ergebnisse zur Sicherheit an Ethereum verankert. Alternativ könnten DAG-Netzwerke über Brücken mit bestehenden Blockchains verbunden werden, sodass Vermögenswerte dorthin fließen können, wo Transaktionen am günstigsten sind. Wenn die UX nahtlos gestaltet werden kann, könnten Benutzer auf einem DAG-Netzwerk Transaktionen durchführen (und die hohe Geschwindigkeit genießen), während sie sich weiterhin auf eine Basis-Blockchain für die Abwicklung oder Sicherheit verlassen – und so das Beste aus beiden Welten erhalten. Einige Projekte ziehen diese Art von geschichtetem Ansatz in Betracht.
  • Zukunftsaussichten – Ergänzung, nicht Ersatz (vorerst): Es ist bezeichnend, dass selbst Befürworter oft sagen, dass DAG eine „Alternative“ oder Ergänzung zur Blockchain ist und kein vollständiger Ersatz. In naher Zukunft können wir heterogene Netzwerke erwarten: einige werden Blockchain-basiert sein, einige DAG-basiert, jeweils optimiert für verschiedene Szenarien. DAGs könnten das Hochfrequenz-Rückgrat von Web3 antreiben (die Schwerstarbeit von Mikrotransaktionen und Datenprotokollierung erledigen), während Blockchains für die Abwicklung, extrem hochwertige Transaktionen oder dort, wo Einfachheit und Robustheit von größter Bedeutung sind, bevorzugt bleiben könnten. Auf längere Sicht, wenn DAG-basierte Systeme sich weiterhin bewähren und wenn sie gleiche oder größere Sicherheit und Dezentralisierung demonstrieren können, ist es denkbar, dass sie zum dominanten Paradigma für Distributed Ledger werden könnten. Der Aspekt der Energieeffizienz bringt DAGs auch gut mit globalen Nachhaltigkeitsdruck in Einklang, was sie langfristig politisch und sozial akzeptabler machen könnte. Die CO2-Fußabdruck-Vorteile von DAG-Netzwerken, kombiniert mit ihren Leistungsvorteilen, könnten ein wichtiger Treiber sein, wenn regulatorische Umgebungen grüne Technologie betonen.
  • Community-Stimmung: Es gibt ein Segment der Krypto-Community, das sehr begeistert von DAGs ist – sie sehen sie als den nächsten evolutionären Schritt der DLT. Man hört oft Sätze wie „DAGs sind die Zukunft; Blockchains werden irgendwann als das Einwahl-Internet im Vergleich zum Breitband von DAG angesehen werden.“ Dieser Enthusiasmus muss mit praktischen Ergebnissen in Einklang gebracht werden, aber er deutet darauf hin, dass Talente und Investitionen in diesen Bereich fließen. Andererseits bleiben Skeptiker, die darauf hinweisen, dass Dezentralisierung und Sicherheit nicht für Geschwindigkeit geopfert werden sollten – daher müssen DAG-Projekte zeigen, dass sie das Beste aus beiden Welten haben können.

Zusammenfassend lässt sich sagen, dass die Zukunftsaussichten für DAG in der Blockchain vorsichtig optimistisch sind. Derzeit dominieren Blockchains immer noch, aber DAG-basierte Plattformen erobern ihren Raum und beweisen ihre Fähigkeiten in spezifischen Bereichen. Wenn die Forschung aktuelle Herausforderungen löst, werden wir wahrscheinlich eine stärkere Konvergenz von Ideen sehen – wobei Blockchains DAG-inspirierte Verbesserungen übernehmen und DAG-Netzwerke die Lehren von Blockchains in Bezug auf Governance und Sicherheit übernehmen. Web3-Forscher und -Entwickler täten gut daran, die DAG-Fortschritte im Auge zu behalten, da sie einen bedeutenden Zweig des DLT-Evolutionsbaums darstellen. Die kommenden Jahre könnten ein vielfältiges Ökosystem interoperabler Ledger sehen, in dem DAGs eine entscheidende Rolle bei der Skalierung und bei speziellen Anwendungen spielen und uns der Vision eines skalierbaren, dezentralen Webs näherbringen.

In den Worten einer Hedera-Publikation: DAG-basierte Ledger sind „ein vielversprechender Schritt nach vorn“ in der Entwicklung digitaler Währungen und dezentraler Technologie – keine Patentlösung, um Blockchains vollständig zu ersetzen, sondern eine wichtige Innovation, die nebenher arbeiten und Verbesserungen in der gesamten Distributed-Ledger-Landschaft inspirieren wird.

Quellen: Die Informationen in diesem Bericht stammen aus einer Vielzahl glaubwürdiger Quellen, darunter akademische Forschung zu DAG-basiertem Konsens, offizielle Dokumentationen und Whitepapers von Projekten wie IOTA, Hedera Hashgraph, Fantom und Nano sowie technische Blogs und Artikel, die Einblicke in die Unterschiede zwischen DAG und Blockchain geben. Diese Referenzen unterstützen die oben diskutierten vergleichenden Analysen, Vorteile und Fallstudien. Der fortgesetzte Dialog in der Web3-Forschungsgemeinschaft deutet darauf hin, dass DAGs ein heißes Thema bleiben werden, während wir versuchen, das Trilemma von Skalierbarkeit, Sicherheit und Dezentralisierung in der nächsten Generation der Blockchain-Technologie zu lösen.

Die 100+ Krypto-ETF-Welle: Wie 2026 den institutionellen Zugang über Bitcoin hinaus neu gestaltet

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Als die Bitcoin-ETFs im Januar 2024 an den Start gingen, brachen sie mit Zuflüssen von $ 4,6 Milliarden in der ersten Woche alle Rekorde. Spulen wir vor ins späte Jahr 2025: Die Krypto-ETF-Landschaft ist über alle Erwartungen hinaus explodiert. Wir sprechen nicht mehr nur über Bitcoin und Ethereum – für 2026 wird die Einführung von über 100 neuen Krypto-ETFs prognostiziert, wobei mehr als 50 Spot-Altcoin-Produkte marktreif sind. Die Frage ist nicht mehr, ob der institutionelle Zugang zu Kryptowährungen ausgeweitet wird, sondern wie schnell und was das für die Marktstruktur bedeutet.

Von zwei auf einhundert: Die Altcoin-ETF-Explosion

Der Wandel vollzog sich schneller, als die meisten Analysten vorhergesagt hatten. Bis Oktober 2025 wurde Solana nach Bitcoin und Ethereum die dritte Kryptowährung, die für Spot-ETPs zugelassen wurde.

XRP-ETFs starteten im November 2025 und zogen in den ersten Monaten ein verwaltetes Vermögen (AUM) von $ 1,37 Milliarden an. Litecoin, Hedera und sogar Dogecoin – der Memecoin, der als Scherz begann – verfügen nun %C3%BCber von der SEC genehmigte börsengehandelte Produkte.

Anfang 2026 warten 92 Krypto-ETFs auf die Genehmigung der SEC, wobei Solana mit acht ausstehenden Anträgen führt und XRP mit sieben dicht folgt.

Bitwise allein hat 11 neue Altcoin-ETFs beantragt, die am 16. März 2026 auf den Markt kommen sollen, darunter Uniswap (UNI), Aave (AAVE), Tron (TRX), Sui (SUI), Zcash (ZEC) und NEAR Protocol.

Was hat sich geändert? Die SEC genehmigte neue allgemeine Börsennotierungsstandards für börsengehandelte Kryptoprodukte, wodurch die Genehmigungsfristen von bis zu 240 Tagen auf nur noch 75 Tage verkürzt wurden.

Dieser standardisierte Rahmen hob im Wesentlichen die individuellen Fristen auf und ermöglichte es der Behörde, schneller zu handeln, sobald die Emittenten ihre S-1-Einreichungen abgeschlossen haben. Der Bloomberg-ETF-Analyst Eric Balchunas sieht nun eine 100 % Wahrscheinlichkeit für die Genehmigung aller 16 ausstehenden Anträge.

Die Verschiebung des institutionellen Geldes: Von Retail-FOMO zur Allokation durch Pensionsfonds

Bitcoins erstes Jahr war geprägt von Privatanlegern und Unternehmensschatzämtern. Doch 2026 markiert einen grundlegenden Wandel darin, wer Krypto-ETFs kauft – und warum.

Die jüngste Analyse von JPMorgan prognostiziert, dass die Zuflüsse von institutionellen ETFs durch Pensionsfonds und Vermögensverwalter in einem konservativen Szenario 15Milliardenoderuntergu¨nstigenBedingungenbiszu15 Milliarden oder unter günstigen Bedingungen bis zu 40 Milliarden erreichen könnten.

Dies stellt eine Abkehr von den privatkundenorientierten Käufen dar, die die gesamten Krypto-Marktzuflüsse von $ 130 Milliarden im Jahr 2025 definierten.

Die Zahlen sprechen für sich:

  • Das verwaltete Vermögen von Bitcoin-ETFs wird bis Ende 2026 voraussichtlich **180220Milliardenerreichen,gegen180 - 220 Milliarden** erreichen, gegen%C3%BCber derzeit etwa 120 Milliarden.
  • Das gesamte AUM für börsengehandelte Kryptoprodukte soll voraussichtlich **400Milliarden400 Milliarden** %C3%BCberschreiten – eine Verdoppelung gegen%C3%BCber den rund 200 Milliarden von Ende 2025.

Was treibt diesen institutionellen Anstieg an? Drei Faktoren stechen hervor:

  1. Regulatorische Klarheit: Die Verabschiedung des Digital Asset Market Clarity Act beseitigte mühsame Offenlegungspflichten für Token, die in ETFs gelistet sind, welche am oder vor dem 1. Januar 2026 an nationalen Wertpapierbörsen gehandelt werden. Dies schuf eine „First Eight“-Stufe von zentralen regulierten Assets: BTC, ETH, XRP, SOL, LTC, HBAR, DOGE und LINK.

  2. Ausweitung der Vertriebskanäle: Großbanken wie Wells Fargo, Bank of America und Vanguard vertreiben nun Krypto-ETFs an Privatkunden. Morgan Stanley, Merrill Lynch und traditionelle Vermögensverwaltungsplattformen haben den Zugang geöffnet und damit die potenzielle Investorenbasis vervielfacht.

  3. Bedarf an Portfoliodiversifizierung: Da traditionelle 60 / 40 Portfolios in einem Hochzinsumfeld zu kämpfen haben, erkunden institutionelle Allokatoren alternative Anlagen. Selbst eine Krypto-Allokation von 1 - 2 % in der %C3%BCber $ 30 Billionen schweren Pensionsfondsbranche entspricht massiven Kapitalflüssen.

Marktmaturation oder Fragmentierung? Die zwei Seiten der Medaille

Die Altcoin-ETF-Welle stellt ein Paradoxon dar: Sie ist sowohl ein Zeichen für die Reifung des Marktes als auch ein potenzielles Fragmentierungsrisiko.

Signale der Marktreifung

Die schiere Vielfalt der ETF-Produkte deutet auf die Integration von Krypto in das Mainstream-Finanzwesen hin. Anleger können nun wählen zwischen:

  • Single-Asset-Spot-ETFs (Bitcoin, Ethereum, Solana, XRP)
  • Multi-Asset-Krypto-ETFs
  • Gehebelte Krypto-Produkte
  • Ertragsgenerierende Strukturen (Staking-fähige Produkte, die in den Mainstream rücken)
  • Sektorfokussierte Fonds (DeFi, Layer 1, Privacy Coins)

Diese Vielfalt spiegelt die traditionellen Aktienmärkte wider, an denen Anleger zwischen breiten Indexfonds oder sektorspezifischen Engagements wählen können.

Dies signalisiert, dass Krypto kein monolithisches „Risk-On“-Asset mehr ist, sondern eine differenzierte Anlageklasse mit unterschiedlichen Anwendungsfällen und Risikoprofilen.

Das kumulierte Handelsvolumen von US-Spot-Kryptowährungs-ETFs %C3%BCberschritt weniger als zwei Jahre nach dem Start der Bitcoin-ETFs die Marke von $ 2 Billionen – ein Meilenstein, für den Gold-ETFs %C3%BCber ein Jahrzehnt benötigten. Die Geschwindigkeit der Einführung ist beispiellos.

Bedenken hinsichtlich der Fragmentierung

Doch die schnelle Expansion bringt Herausforderungen mit sich. Wie eine Marktanalyse anmerkt, ist „eine der am meisten unterschätzten Veränderungen in der Post-ETF-Ära das Aufkommen von Liquiditätsfragmentierung“.

Vor der ETF-Ära konzentrierte sich die Liquidität auf große Kryptobörsen wie Coinbase und Binance. Nach der Einführung der ETFs verteilt sich die Liquidität nun auf mehrere Plattformen: ETF-Erstellungs- / Rücknahmemärkte, traditionelle Börsen, Over-the-Counter-Desks (OTC) und dezentrale Protokolle.

Große Spreads zwischen verschiedenen Handelsplätzen deuten auf eine fragmentierte Positionierung hin – eine Konvergenz würde signalisieren, dass sich ein Konsens unter den Teilnehmern bildet, aber so weit sind wir noch nicht.

Die Flut an Produkten erhöht auch das Risiko von Verwirrung bei den Anlegern:

  • Verstehen Privatanleger den Unterschied zwischen einem Spot-Dogecoin-ETF und einem gehebelten Multi-Asset-Krypto-Produkt?
  • Werden sich Hunderte von Krypto-ETFs gegenseitig die Zuflüsse streitig machen oder werden sie den gesamten adressierbaren Markt erweitern?

Frühe Daten deuten darauf hin, dass beide Dynamiken im Spiel sind. Die Nettozuflüsse von XRP in Höhe von $ 1,25 Milliarden seit November 2025 belegen eine starke Nachfrage nach spezifischen Altcoin-Engagements.

Es stellt jedoch auch Kapital dar, das andernfalls in Bitcoin- oder Ethereum-ETFs geflossen wäre, was den Nullsummen-Aspekt von Kämpfen um Marktanteile hervorhebt.

Das fehlende Puzzleteil: Wo bleiben die institutionellen Infrastruktur-Lösungen?

Für all die Aufregung um die ETF-Zulassungen bleibt eine entscheidende Frage: Wie werden Institutionen diese digitalen Assets tatsächlich in großem Umfang nutzen?

Hier werden Anbieter von Blockchain-Infrastruktur unverzichtbar. Institutionelle Investoren benötigen nicht nur ETF-Hüllen – sie brauchen einen robusten API-Zugang auf Enterprise-Niveau, um mit On-Chain-Daten zu interagieren, Bestände zu verifizieren und Krypto in bestehende Portfoliomanagementsysteme zu integrieren.

Ob es um die Abfrage des Echtzeit-Blockchain-Status für Solana Staking-Renditen geht oder um die Verifizierung von Cross-Chain-Settlements für Multi-Asset-Portfolios – die Infrastrukturschicht, die die institutionelle Krypto-Adoption unterstützt, muss genauso zuverlässig sein wie die ETF-Strukturen selbst.

Was 2026 bereithält: Prognosen und Wildcards

Mehrere Trends zeichnen sich für den Rest des Jahres 2026 ab:

Beinahe-Gewissheiten:

  • Das gesamte verwaltete Vermögen (AUM) von Krypto-ETPs wird 400 Milliarden US-Dollar %C3%BCberschreiten
  • Solana, XRP und Litecoin werden die Altcoin-ETF-Zuflüsse dominieren (die Zulassungschancen liegen bereits bei %C3%BCber 95 %)
  • Staking-fähige ETFs werden zum Mainstream und die Renditeerwartungen grundlegend verändern
  • Weitere traditionelle Finanzinstitute werden Kryptoprodukte einführen (das Wettrüsten beschleunigt sich)

Wahrscheinliche Entwicklungen:

  • Cardano, Polkadot und zusätzliche DeFi-Token-ETFs erhalten die Zulassung
  • BlackRock beantragt einen XRP-ETF (Insider prognostizieren Ende 2026 oder Anfang 2027)
  • Die erste Welle von Multi-Asset-Krypto-Index-ETFs startet und spiegelt Diversifizierungsstrategien im Stil des S&P 500 wider
  • Europäische und asiatische Märkte führen konkurrierende Krypto-ETP-Produkte ein, was zu einem globalen Regulierungswettlauf führt

Wildcards:

  • Wird die SEC renditegenerierende Stablecoin-ETFs zulassen? Der regulatorische Rahmen bleibt unklar.
  • Könnte ein schwerwiegender Sicherheitsvorfall oder ein Marktcrash die institutionelle Adoption ausbremsen? Die Krypto-Branche hat die Zusammenbrüche von FTX und Luna %C3%BCberstanden, aber systemische Risiken bestehen weiterhin.
  • Werden dezentrale Börsen (DEXs) schließlich die Dominanz der ETFs beim institutionellen Zugang herausfordern? Die DEX-Technologie verbessert sich rasant.

Das Fazit: Evolution, keine Revolution

Die Welle von %C3%BCber 100 Krypto-ETFs ist keine Revolution – sie ist eine Evolution. Wir beobachten, wie das traditionelle Finanzwesen Krypto %C3%BCber seine bestehende Infrastruktur absorbiert, anstatt dass Krypto die Finanzmärkte von außen umwälzt.

Das ist nicht unbedingt etwas Schlechtes. ETF-Hüllen bieten:

  • Regulatorische Compliance und rechtliche Klarheit
  • Verwahrungslösungen auf institutionellem Niveau
  • Steuereffizienz und vereinfachtes Reporting
  • Vertraute Anlageinstrumente für risikoaversere Institutionen
  • Demokratisierten Zugang für Privatanleger, die keine Private Keys verwalten möchten

Aber es bedeutet auch, dass Krypto dem traditionellen Finanzwesen ähnlicher wird: vermittelt, reguliert und konzentriert in großen Finanzinstituten.

Die ursprüngliche Krypto-Vision eines dezentralen Peer-to-Peer-Werttransfers weicht BlackRock und Fidelity, die digitale Assets im Namen von Pensionsfonds verwalten.

Ob man dies als Legitimierung oder Kooptation betrachtet, hängt von der eigenen Perspektive ab.

Unbestreitbar ist, dass die Tore für Institutionen geöffnet wurden, und 2026 wird eine Kapitalflut erleben, die den Start der Bitcoin-ETFs im Jahr 2024 wie eine Aufwärmübung aussehen lässt.

Die Altcoin-ETF-Welle ist da.

Die Frage ist nun, ob die dezentrale Infrastruktur von Krypto skalieren kann, um die institutionellen Anforderungen zu erfüllen – oder ob das traditionelle Finanzwesen einfach seine eigenen geschlossenen Systeme („Walled Gardens“) auf öffentlichen Blockchains errichten wird.

Für Institutionen, die auf Blockchain-Infrastruktur aufbauen, ist ein zuverlässiger API-Zugang zu mehreren Chains nicht optional – er ist grundlegend. Entdecken Sie die Multi-Chain-APIs der Enterprise-Klasse von BlockEden.xyz, die für die institutionelle Ära entwickelt wurden.

Quellen

Wie Celestias Data Availability Sampling 1 Terabit pro Sekunde erreicht: Der technische Deep Dive

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Am 13. Januar 2026 sprengte Celestia alle Erwartungen mit einem einzigen Benchmark: 1 Terabit pro Sekunde Datendurchsatz über 498 verteilte Knoten hinweg. Zum Vergleich: Das ist genug Bandbreite, um das gesamte tägliche Transaktionsvolumen der größten Layer-2-Rollups von Ethereum zu verarbeiten – in weniger als einer Sekunde.

Doch die eigentliche Geschichte ist nicht die Schlagzeile. Es ist die kryptografische Infrastruktur, die dies ermöglicht: Data Availability Sampling (DAS), ein Durchbruch, der es Light Nodes mit begrenzten Ressourcen erlaubt, die Datenverfügbarkeit der Blockchain zu verifizieren, ohne ganze Blöcke herunterzuladen. Da Rollups darum wetteifern, über den nativen Blob-Speicher von Ethereum hinaus zu skalieren, war es noch nie so wichtig zu verstehen, wie Celestia diesen Durchsatz erreicht – und warum dies für die Ökonomie von Rollups von Bedeutung ist.

Der Datenverfügbarkeits-Engpass: Warum Rollups eine bessere Lösung benötigen

Die Skalierbarkeit von Blockchains ist seit langem durch einen fundamentalen Kompromiss eingeschränkt: Wie verifiziert man, dass Transaktionsdaten tatsächlich verfügbar sind, ohne dass jeder Knoten alles herunterladen und speichern muss? Dies ist das Datenverfügbarkeitsproblem, und es stellt den primären Engpass für die Skalierung von Rollups dar.

Ethereums Ansatz – die Anforderung, dass jeder Full Node komplette Blöcke herunterlädt – schafft eine Zugangsbarriere. Mit wachsender Blockgröße können sich immer weniger Teilnehmer die Bandbreite und den Speicher leisten, um Full Nodes zu betreiben, was die Dezentralisierung gefährdet. Rollups, die Daten auf Ethereum L1 veröffentlichen, sehen sich mit prohibitiven Kosten konfrontiert: Bei Spitzenlast kann ein einzelner Batch tausende Dollar an Gas-Gebühren kosten.

Hier kommen modulare Datenverfügbarkeitsschichten ins Spiel. Durch die Trennung der Datenverfügbarkeit von Ausführung und Konsens versprechen Protokolle wie Celestia, EigenDA und Avail, die Kosten für Rollups drastisch zu senken und gleichzeitig Sicherheitsgarantien aufrechtzuerhalten. Celestias Innovation? Eine Sampling-Technik, die das Verifizierungsmodell umkehrt: Anstatt alles herunterzuladen, um die Verfügbarkeit zu prüfen, tasten Light Nodes zufällig winzige Fragmente ab und erreichen so eine statistische Gewissheit, dass der vollständige Datensatz existiert.

Data Availability Sampling erklärt: Wie Light Nodes ohne Download verifizieren

Im Kern ist DAS ein probabilistischer Verifizierungsmechanismus. Hier erfahren Sie, wie es funktioniert:

Zufälliges Sampling und Vertrauensaufbau

Light Nodes laden keine ganzen Blöcke herunter. Stattdessen führen sie mehrere Runden zufälliger Stichproben (Sampling) für kleine Teile der Blockdaten durch. Jedes erfolgreiche Sample erhöht das Vertrauen, dass der vollständige Block verfügbar ist.

Die Mathematik dahinter ist elegant: Wenn ein böswilliger Validator auch nur einen kleinen Prozentsatz der Blockdaten zurückhält, werden ehrliche Light Nodes die Nichtverfügbarkeit mit hoher Wahrscheinlichkeit bereits nach wenigen Sampling-Runden erkennen. Dies schafft ein Sicherheitsmodell, bei dem sogar Geräte mit begrenzten Ressourcen an der Verifizierung der Datenverfügbarkeit teilnehmen können.

Konkret wählt jede Light Node zufällig einen Satz einzigartiger Koordinaten in einer erweiterten Datenmatrix aus und fragt Bridge-Nodes nach den entsprechenden Datenanteilen sowie Merkle-Proofs ab. Wenn die Light Node valide Antworten für jede Abfrage erhält, garantiert die statistische Wahrscheinlichkeit, dass die Daten des gesamten Blocks verfügbar sind.

2D Reed-Solomon-Kodierung: Das mathematische Fundament

Celestia setzt ein 2-dimensionales Reed-Solomon-Kodierungsschema ein, um das Sampling sowohl effizient als auch betrugssicher zu macht. Dies ist der technische Ablauf:

  1. Blockdaten werden aufgeteilt in k × k Chunks, die ein Datenquadrat bilden
  2. Reed-Solomon-Erasure-Coding erweitert dies auf eine 2k × 2k Matrix (Hinzufügen von Redundanz)
  3. Merkle-Roots werden berechnet für jede Zeile und Spalte der erweiterten Matrix
  4. Die Merkle-Root dieser Roots wird zum Block Data Commitment im Block-Header

Dieser Ansatz hat eine entscheidende Eigenschaft: Wenn irgendein Teil der erweiterten Matrix fehlt, bricht die Kodierung zusammen, und Light Nodes werden Inkonsistenzen bei der Verifizierung der Merkle-Proofs feststellen. Ein Angreifer kann Daten nicht selektiv zurückhalten, ohne erwischt zu werden.

Namespaced Merkle Trees: Rollup-spezifische Datenisolierung

Hier glänzt die Architektur von Celestia für Multi-Rollup-Umgebungen: Namespaced Merkle Trees (NMTs).

Ein Standard-Merkle-Tree gruppiert Daten willkürlich. Ein NMT hingegen kennzeichnet jeden Knoten mit den minimalen und maximalen Namespace-Identifikatoren seiner Kinder und ordnet die Leaves nach Namespaces. Dies ermöglicht es Rollups:

  • Nur ihre eigenen Daten von der DA-Schicht herunterzuladen
  • Die Vollständigkeit der Daten ihres Namespaces mit einem Merkle-Proof zu beweisen
  • Irrelevante Daten anderer Rollups gänzlich zu ignorieren

Für einen Rollup-Betreiber bedeutet dies, dass keine Bandbreitenkosten anfallen, um Daten von konkurrierenden Chains herunterzuladen. Man ruft genau das ab, was man benötigt, verifiziert es mit kryptografischen Beweisen und fährt fort. Dies ist ein massiver Effizienzgewinn im Vergleich zu monolithischen Chains, bei denen alle Teilnehmer alle Daten verarbeiten müssen.

Das Matcha-Upgrade: Skalierung auf 128 MB-Blöcke

Im Jahr 2025 aktivierte Celestia das Matcha-Upgrade, einen Wendepunkt für modulare Datenverfügbarkeit. Das hat sich geändert:

Blockgrößen-Erweiterung

Matcha erhöht die maximale Blockgröße von 8 MB auf 128 MB — eine 16-fache Kapazitätssteigerung. Dies bedeutet:

  • Datenquadrat-Größe: 128 → 512
  • Maximale Transaktionsgröße: 2 MB → 8 MB
  • Anhaltender Durchsatz: 21,33 MB/s im Testnet (April 2025)

Um dies einzuordnen: Ethereums Ziel-Blob-Anzahl liegt bei 6 pro Block (etwa 0,75 MB), erweiterbar auf 9 Blobs. Die 128-MB-Blöcke von Celestia übertreffen diese Kapazität um mehr als das 100-fache.

Block-Propagierung mit hohem Durchsatz

Die Einschränkung lag nicht nur an der Blockgröße, sondern an der Geschwindigkeit der Block-Propagierung. Matcha führt einen neuen Propagierungsmechanismus (CIP-38) ein, der 128-MB-Blöcke sicher im Netzwerk verbreitet, ohne eine Desynchronisation der Validatoren zu verursachen.

Im Testnet hielt das Netzwerk Blockzeiten von 6 Sekunden mit 128-MB-Blöcken aufrecht und erreichte einen Durchsatz von 21,33 MB/s. Dies entspricht dem 16-fachen der aktuellen Mainnet-Kapazität.

Reduzierung der Speicherkosten

Eine der am meisten übersehenen wirtschaftlichen Änderungen: Matcha reduzierte das minimale Daten-Pruning-Fenster von 30 Tagen auf 7 Tage + 1 Stunde (CIP-34).

Für Bridge-Nodes senkt dies die Speicheranforderungen bei prognostizierten Durchsatzraten von 30 TB auf 7 TB. Geringere Betriebskosten für Infrastrukturanbieter führen zu günstigerer Datenverfügbarkeit für Rollups.

Überarbeitung der Token-Ökonomie

Matcha verbesserte auch die TIA-Token-Ökonomie:

  • Inflationskürzung: Von jährlich 5 % auf 2,5 %
  • Erhöhung der Validatoren-Provision: Maximum von 10 % auf 20 % angehoben
  • Verbesserte Sicherheiten-Eigenschaften: TIA wird für DeFi-Anwendungsfälle attraktiver gemacht

Zusammengenommen positionieren diese Änderungen Celestia für die nächste Phase: Skalierung auf einen Durchsatz von 1 GB/s und darüber hinaus.

Rollup-Ökonomie: Warum ein DA-Marktanteil von 50 % wichtig ist

Seit Anfang 2026 hält Celestia etwa 50 % des Marktes für Datenverfügbarkeit (DA-Markt) und hat über 160 GB an Rollup-Daten verarbeitet. Diese Dominanz spiegelt die reale Akzeptanz durch Rollup-Entwickler wider, die Kosten und Skalierbarkeit priorisieren.

Kostenvergleich: Celestia vs. Ethereum-Blobs

Das Gebührenmodell von Celestia ist unkompliziert: Rollups zahlen pro Blob basierend auf der Größe und den aktuellen Gas-Preisen. Im Gegensatz zu Ausführungsschichten (Execution Layers), in denen Berechnungen dominieren, geht es bei der Datenverfügbarkeit grundlegend um Bandbreite und Speicherung — Ressourcen, die mit Hardware-Verbesserungen vorhersehbarer skalieren.

Für Rollup-Betreiber ist die Rechnung überzeugend:

  • Ethereum L1-Posting: Bei Spitzenlast kann die Batch-Einreichung 1.000 bisu¨ber10.000bis über 10.000 an Gas-Gebühren kosten
  • Celestia DA: Kosten unter einem Dollar pro Batch für gleichwertige Daten

Diese mehr als 100-fache Kostenreduzierung ist der Grund, warum Rollups zu modularen DA-Lösungen migrieren. Günstigere Datenverfügbarkeit führt direkt zu niedrigeren Transaktionsgebühren für Endnutzer.

Die Rollup-Anreizstruktur

Das Wirtschaftsmodell von Celestia bringt die Anreize in Einklang:

  1. Rollups zahlen für Blob-Speicher proportional zur Datengröße
  2. Validatoren verdienen Gebühren für die Absicherung der DA-Schicht
  3. Bridge-Nodes stellen Daten für Light-Nodes bereit und verdienen Servicegebühren
  4. Light-Nodes sampeln Daten kostenlos und tragen so zur Sicherheit bei

Dies erzeugt einen Schwungrad-Effekt: Je mehr Rollups Celestia nutzen, desto höher sind die Einnahmen der Validatoren, was mehr Staker anzieht, was die Sicherheit stärkt und wiederum mehr Rollups anzieht.

Der Wettbewerb: EigenDA, Avail und Ethereum-Blobs

Der Marktanteil von Celestia von 50 % wird angegriffen. Drei große Konkurrenten skalieren aggressiv:

EigenDA: Ethereum-natives Restaking

EigenDA nutzt die Restaking-Infrastruktur von EigenLayer, um einen hohen Durchsatz für die Datenverfügbarkeit von Ethereum-Rollups zu bieten. Hauptvorteile:

  • Ökonomische Sicherheit: Gesichert durch gerestaktes ETH (derzeit 93,9 % des Restaking-Marktes)
  • Enge Ethereum-Integration: Native Kompatibilität mit dem Blob-Markt von Ethereum
  • Höchste Durchsatzansprüche: Obwohl früheren Versionen eine aktive ökonomische Sicherheit fehlte

Kritiker weisen darauf hin, dass die Abhängigkeit von EigenDA vom Restaking ein Kaskadenrisiko einführt: Wenn ein AVS einem Slashing unterliegt, könnte sich dies auf Lido stETH-Halter übertragen und den breiteren LST-Markt destabilisieren.

Avail: Universelle DA für alle Chains

Im Gegensatz zum Cosmos-Fokus von Celestia und der Ethereum-Orientierung von EigenDA positioniert sich Avail als eine universelle DA-Schicht, die mit jeder Blockchain-Architektur kompatibel ist:

  • Unterstützung für UTXO-, Account- und Object-Modelle: Funktioniert mit Bitcoin L2s, EVM-Chains und Move-basierten Systemen
  • Modulares Design: Trennt DA vollständig vom Konsens
  • Ökosystemübergreifende Vision: Ziel ist es, als neutrale DA-Schicht für alle Blockchains zu dienen

Die Herausforderung für Avail? Es ist der neueste Marktteilnehmer und hinkt bei den Live-Rollup-Integrationen im Vergleich zu Celestia und EigenDA hinterher.

Ethereum Native Blobs: EIP-4844 und darüber hinaus

Ethereums EIP-4844 (Dencun-Upgrade) führte Blob-tragende Transaktionen ein und bot Rollups eine günstigere Alternative zum Posten von Daten im Vergleich zu Calldata. Aktuelle Kapazität:

  • Ziel: 6 Blobs pro Block (~0,75 MB)
  • Maximum: 9 Blobs pro Block (~1,125 MB)
  • Zukünftige Erweiterung: PeerDAS- und zkEVM-Upgrades, die auf über 10.000 TPS abzielen

Ethereum-Blobs bringen jedoch Kompromisse mit sich:

  • Kurzes Aufbewahrungsfenster: Daten werden nach ca. 18 Tagen gelöscht
  • Konkurrenz um geteilte Ressourcen: Alle Rollups konkurrieren um denselben Blob-Platz
  • Begrenzte Skalierbarkeit: Selbst mit PeerDAS bleibt die Blob-Kapazität weit unter der Roadmap von Celestia

Für Rollups, die eine Ausrichtung auf Ethereum prioritär behandeln, sind Blobs attraktiv. Für diejenigen, die massiven Durchsatz und langfristige Datenspeicherung benötigen, bleibt Celestia die bessere Wahl.

Fibre Blockspace: Die 1-Terabit-Vision

Am 14. Januar 2026 enthüllte Mustafa Al-Bassam, Mitbegründer von Celestia, Fibre Blockspace – ein neues Protokoll, das einen Durchsatz von 1 Terabit pro Sekunde bei einer Latenz im Millisekundenbereich anstrebt. Dies entspricht einer 1.500-fachen Verbesserung gegenüber den ursprünglichen Roadmap-Zielen von vor nur einem Jahr.

Details zum Benchmark

Das Team erreichte den Benchmark von 1 Tbps unter Verwendung von:

  • 498 Knoten, verteilt über Nordamerika
  • GCP-Instanzen mit jeweils 48-64 vCPUs und 90-128 GB RAM
  • 34-45 Gbps Netzwerkverbindungen pro Instanz

Unter diesen kontrollierten Bedingungen hielt das Protokoll einen Datendurchsatz von 1 Terabit pro Sekunde aufrecht – ein gewaltiger Sprung in der Blockchain-Performance.

ZODA-Kodierung: 881-mal schneller als KZG

Das Herzstück von Fibre ist ZODA, ein neuartiges Kodierungsprotokoll, von dem Celestia behauptet, dass es Daten 881-mal schneller verarbeitet als Alternativen, die auf KZG-Commitments basieren, wie sie von EigenDA und Ethereum Blobs verwendet werden.

KZG-Commitments (Kate-Zaverucha-Goldberg-Polynom-Commitments) sind kryptographisch elegant, aber rechenintensiv. ZODA opfert einige kryptographische Eigenschaften für massive Geschwindigkeitsgewinne, wodurch ein Durchsatz im Terabit-Bereich auf Standard-Hardware erreichbar wird.

Die Vision: Jeder Markt kommt On-Chain

Al-Bassams Aussage zur Roadmap verdeutlicht Celestias Ambitionen:

„Wenn 10 KB/s AMMs ermöglichten und 10 MB/s On-Chain-Orderbücher erlaubten, dann ist 1 Tbps der Sprung, der es jedem Markt ermöglicht, On-Chain zu agieren.“

Die Implikation: Mit ausreichender Bandbreite für Datenverfügbarkeit könnten Finanzmärkte, die derzeit von zentralisierten Börsen dominiert werden – Spot, Derivate, Optionen, Prognosemärkte –, auf eine transparente, erlaubnisfreie Blockchain-Infrastruktur migrieren.

Realitätscheck: Benchmarks vs. Produktion

Benchmark-Bedingungen entsprechen selten dem Chaos der realen Welt. Das Ergebnis von 1 Tbps wurde in einer kontrollierten Testnet-Umgebung mit Hochleistungs-Cloud-Instanzen erzielt. Der eigentliche Test erfolgt, wenn:

  • Tatsächliche Rollups reale Produktions-Workloads bewältigen müssen
  • Netzwerkbedingungen variieren (Latenzspitzen, Paketverluste, asymmetrische Bandbreite)
  • Gegnerische Validatoren versuchen, Data-Withholding-Angriffe durchzuführen

Das Team von Celestia räumt dies ein: Fibre läuft parallel zur bestehenden L1-DA-Ebene, sodass Nutzer die Wahl zwischen einer praxiserprobten Infrastruktur und einem experimentellen Spitzendurchsatz haben.

Was dies für Rollup-Entwickler bedeutet

Wenn Sie ein Rollup aufbauen, bietet die DAS-Architektur (Data Availability Sampling) von Celestia überzeugende Vorteile:

Wann Sie Celestia wählen sollten

  • Hochdurchsatz-Anwendungen: Gaming, soziale Netzwerke, Micropayments
  • Kostensensible Anwendungsfälle: Rollups, die Transaktionsgebühren im Sub-Cent-Bereich anstreben
  • Datenintensive Workflows: KI-Inferenz, Integrationen für dezentralen Speicher
  • Multi-Rollup-Ökosysteme: Projekte, die mehrere spezialisierte Rollups starten

Wann Sie bei Ethereum Blobs bleiben sollten

  • Ethereum-Alignment: Wenn Ihr Rollup Wert auf den sozialen Konsens und die Sicherheit von Ethereum legt
  • Vereinfachte Architektur: Blobs bieten eine engere Integration mit Ethereum-Tooling
  • Geringere Komplexität: Weniger zu verwaltende Infrastruktur (keine separate DA-Ebene)

Integrationsüberlegungen

Die DA-Ebene von Celestia lässt sich in die wichtigsten Rollup-Frameworks integrieren:

  • Polygon CDK: Einfach austauschbare DA-Komponente
  • OP Stack: Benutzerdefinierte DA-Adapter verfügbar
  • Arbitrum Orbit: Von der Community entwickelte Integrationen
  • Rollkit: Native Celestia-Unterstützung

Für Entwickler bedeutet die Einführung von Celestia oft nur den Austausch des Datenverfügbarkeitsmoduls in ihrem Rollup-Stack – mit minimalen Änderungen an der Ausführungs- oder Settlement-Logik.

Die Data Availability Wars: Wie es weitergeht

Die modulare Blockchain-These wird in Echtzeit auf die Probe gestellt. Celestias Marktanteil von 50 %, die Restaking-Dynamik von EigenDA und die universelle Positionierung von Avail führen zu einem Dreikampf um die Gunst der Rollup-Entwickler.

  1. Eskalation des Durchsatzes: Celestia strebt 1 GB/s → 1 Tbps an; EigenDA und Avail werden darauf reagieren
  2. Ökonomische Sicherheitsmodelle: Werden die Restaking-Risiken EigenDA einholen? Kann das Validator-Set von Celestia skalieren?
  3. Erweiterung der Ethereum Blobs: PeerDAS und zkEVM-Upgrades könnten die Kostendynamik verschieben
  4. Chain-übergreifende DA: Avails universelle Vision gegenüber ökosystemspezifischen Lösungen

Die BlockEden.xyz-Perspektive

Für Infrastrukturanbieter wird die Unterstützung mehrerer DA-Ebenen zur Grundvoraussetzung. Rollup-Entwickler benötigen einen zuverlässigen RPC-Zugang nicht nur zu Ethereum, sondern auch zu Celestia, EigenDA und Avail.

BlockEden.xyz bietet Hochleistungs-RPC-Infrastruktur für Celestia und über 10 weitere Blockchain-Ökosysteme an, was es Rollup-Teams ermöglicht, auf modularen Stacks aufzubauen, ohne die Knoten-Infrastruktur selbst verwalten zu müssen. Entdecken Sie unsere Datenverfügbarkeits-APIs, um Ihr Rollup-Deployment zu beschleunigen.

Fazit: Datenverfügbarkeit als neuer Wettbewerbsvorteil

Das Data Availability Sampling von Celestia ist nicht nur eine schrittweise Verbesserung – es ist ein Paradigmenwechsel in der Art und Weise, wie Blockchains ihren Status verifizieren. Indem es Light-Nodes ermöglicht, durch probabilistisches Sampling an der Sicherheit teilzunehmen, demokratisiert Celestia die Verifizierung in einer Weise, wie es monolithische Chains nicht können.

Das Matcha-Upgrade mit 128 MB großen Blöcken und die Fibre-Vision eines Durchsatzes von 1 Tbps stellen Wendepunkte für die Rollup-Ökonomie dar. Wenn die Kosten für die Datenverfügbarkeit um das 100-fache sinken, werden völlig neue Anwendungskategorien realisierbar: On-Chain-Hochfrequenzhandel, Echtzeit-Multiplayer-Gaming und die Koordination von KI-Agenten in großem Maßstab.

Doch Technologie allein entscheidet nicht über die Gewinner. Die DA-Wars werden durch drei Faktoren entschieden:

  1. Rollup-Adoption: Welche Chains verpflichten sich tatsächlich zu Produktions-Deployments?
  2. Ökonomische Nachhaltigkeit: Können diese Protokolle niedrige Kosten beibehalten, wenn die Nutzung skaliert?
  3. Sicherheitsresilienz: Wie gut widerstehen Sampling-basierte Systeme hochentwickelten Angriffen?

Celestias Marktanteil von 50 % und 160 GB an verarbeiteten Rollup-Daten beweisen, dass das Konzept funktioniert. Jetzt verschiebt sich die Frage von „Kann modulare DA skalieren?“ zu „Welche DA-Ebene wird die Rollup-Wirtschaft dominieren?“

Für Entwickler, die sich in dieser Landschaft bewegen, ist der Rat klar: Abstrahieren Sie Ihre DA-Ebene. Entwerfen Sie Rollups so, dass sie zwischen Celestia, EigenDA, Ethereum Blobs und Avail wechseln können, ohne die Architektur neu zu gestalten. Die Data Availability Wars haben gerade erst begonnen, und die Gewinner sind vielleicht nicht diejenigen, die wir erwarten.


Quellen:

Kompromisse bei Konsensmodellen für Interoperabilität: PoW, PoS, DPoS und BFT in der Sicherheit von Cross-Chain-Bridges

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Allein im ersten Halbjahr 2025 wurden über 2,3 Milliarden US-Dollar aus Cross-Chain-Bridges abgezogen – was bereits die Gesamtsumme des gesamten Jahres 2024 übersteigt. Während sich ein Großteil der Branchendiskussion auf Smart-Contract-Audits und das Management von Multisig-Schlüsseln konzentriert, bleibt eine leisere, aber ebenso kritische Schwachstelle oft ungeprüft: die Diskrepanz zwischen der Art und Weise, wie verschiedene Blockchains einen Konsens erzielen, und der Art und Weise, wie Bridges annehmen, dass sie dies tun.

Jede Cross-Chain-Bridge trifft implizite Annahmen über die Finalität. Wenn diese Annahmen mit dem tatsächlichen Konsensmodell einer Quell- oder Ziel-Chain kollidieren, finden Angreifer Fenster für Exploits. Zu verstehen, wie sich PoW-, PoS-, DPoS- und BFT-Konsensmechanismen unterscheiden – und wie sich diese Unterschiede auf Designentscheidungen bei Bridges und die Auswahl von Messaging-Protokollen auswirken – ist heute eines der wichtigsten Themen in der Web3-Infrastruktur.

Datenmärkte treffen auf KI-Training: Wie Blockchain die 23-Milliarden-Dollar-Datenpreiskrise löst

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Die KI-Branche steht vor einem Paradoxon: Die weltweite Datenproduktion explodiert bis 2025 von 33 Zettabyte auf 175 Zettabyte, doch die Qualität der KI-Modelle stagniert. Das Problem ist nicht der Datenmangel – es liegt daran, dass Datenanbieter keine Möglichkeit haben, den Wert ihrer Beiträge zu erfassen. Hier kommen Blockchain-basierte Datenmärkte wie Ocean Protocol, LazAI und ZENi ins Spiel, die KI-Trainingsdaten von einer kostenlosen Ressource in eine monetarisierbare Anlageklasse verwandeln, die bis 2034 einen Wert von 23,18 Milliarden US-Dollar erreichen wird.

Das 23-Milliarden-Dollar-Datenpreisfindungsproblem

Die Kosten für das KI-Training stiegen von 2023 bis 2025 um 89 %, wobei die Datenerfassung und -annotation bis zu 80 % der Budgets von Machine-Learning-Projekten verschlingen. Dennoch erhalten Datenersteller – Einzelpersonen, die Suchanfragen, Social-Media-Interaktionen und Verhaltensmuster generieren – nichts, während Tech-Giganten Werte in Milliardenhöhe abschöpfen.

Der Markt für KI-Trainingsdatensätze offenbart diese Diskrepanz. Mit einem geschätzten Wert von 3,59 Milliarden US-Dollar im Jahr 2025 wird erwartet, dass der Markt bis 2034 23,18 Milliarden US-Dollar bei einer jährlichen Wachstumsrate (CAGR) von 22,9 % erreichen wird. Eine andere Prognose beziffert das Jahr 2026 auf 7,48 Milliarden US-Dollar und erreicht bis 2035 52,41 Milliarden US-Dollar bei einem jährlichen Wachstum von 24,16 %.

Aber wer schöpft diesen Wert ab? Derzeit erzielen zentralisierte Plattformen Gewinne, während die Datenersteller keinerlei Vergütung erhalten. Label-Rauschen, inkonsistentes Tagging und fehlender Kontext treiben die Kosten in die Höhe, doch den Mitwirkenden fehlen die Anreize, die Qualität zu verbessern. Datenschutzbedenken betreffen 28 % der Unternehmen und schränken die Zugänglichkeit von Datensätzen genau dann ein, wenn die KI vielfältige und qualitativ hochwertige Inputs benötigt.

Ocean Protocol: Tokenisierung der 100-Millionen-Dollar-Datenökonomie

Ocean Protocol adressiert das Thema Eigentum, indem es Datenanbietern ermöglicht, Datensätze zu tokenisieren und für das KI-Training verfügbar zu machen, ohne die Kontrolle abzugeben. Seit dem Start der Ocean Nodes im August 2024 ist das Netzwerk auf über 1,4 Millionen Nodes in mehr als 70 Ländern angewachsen, hat über 35.000 Datensätze integriert und KI-bezogene Datentransaktionen im Wert von mehr als 100 Millionen US-Dollar ermöglicht.

Die Produkt-Roadmap für 2025 umfasst drei entscheidende Komponenten:

Inference Pipelines ermöglichen das End-to-End-Training und Deployment von KI-Modellen direkt auf der Infrastruktur von Ocean. Datenanbieter tokenisieren proprietäre Datensätze, legen Preise fest und erzielen Einnahmen jedes Mal, wenn ein KI-Modell ihre Daten für das Training oder die Inferenz nutzt.

Ocean Enterprise Onboarding führt Unternehmen des Ökosystems vom Pilotprojekt zur Produktion. Ocean Enterprise v1, das im 3. Quartal 2025 startet, bietet eine konforme, produktionsreife Datenplattform für institutionelle Kunden, die einen prüffähigen, datenschutzfreundlichen Datenaustausch benötigen.

Node Analytics führt Dashboards zur Verfolgung von Leistung, Nutzung und ROI ein. Partner wie NetMind steuern 2.000 GPUs bei, während Aethir bei der Skalierung von Ocean Nodes hilft, um große KI-Workloads zu unterstützen und eine dezentrale Rechenschicht für das KI-Training zu schaffen.

Der Revenue-Sharing-Mechanismus von Ocean funktioniert über Smart Contracts: Datenanbieter legen Zugriffsbedingungen fest, KI-Entwickler zahlen pro Nutzung und die Blockchain verteilt Zahlungen automatisch an alle Mitwirkenden. Dies verwandelt Daten von einem einmaligen Verkauf in einen kontinuierlichen Einnahmestrom, der an die Modellleistung gebunden ist.

LazAI: Verifizierbare KI-Interaktionsdaten auf Metis

LazAI führt einen grundlegend anderen Ansatz ein – die Monetarisierung von KI-Interaktionsdaten, nicht nur statischen Datensätzen. Jedes Gespräch mit den Flaggschiff-Agenten von LazAI (Lazbubu, SoulTarot) generiert Data Anchoring Tokens (DATs), die als rückverfolgbare, verifizierbare Aufzeichnungen von KI-generierten Outputs fungieren.

Das Alpha Mainnet startete im Dezember 2025 auf einer unternehmensgerechten Infrastruktur mit QBFT-Konsens und $METIS-basiertem Settlement. DATs tokenisieren und monetarisieren KI-Datensätze und -Modelle als verifizierbare Assets mit transparentem Eigentum und Umsatzverteilung.

Warum ist das wichtig? Traditionelles KI-Training verwendet statische Datensätze, die zum Zeitpunkt der Erfassung eingefroren sind. LazAI erfasst dynamische Interaktionsdaten – Benutzeranfragen, Modellantworten, Verfeinerungsschleifen – und erstellt Trainingsdatensätze, die reale Nutzungsmuster widerspiegeln. Diese Daten sind exponentiell wertvoller für die Feinabstimmung von Modellen, da sie Signale für menschliches Feedback enthalten, die in den Gesprächsfluss eingebettet sind.

Das System umfasst drei zentrale Innovationen:

Proof-of-Stake Validator Staking sichert KI-Datenpipelines. Validatoren staken Token, um die Datenintegrität zu verifizieren, verdienen Belohnungen für eine genaue Validierung und müssen mit Strafen rechnen, wenn sie betrügerische Daten genehmigen.

DAT Minting mit Revenue Sharing ermöglicht es Nutzern, die wertvolle Interaktionsdaten generieren, DATs zu prägen (Minting), die ihre Beiträge repräsentieren. Wenn KI-Unternehmen diese Datensätze für das Modelltraining erwerben, fließen die Einnahmen basierend auf ihrem proportionalen Beitrag automatisch an alle DAT-Inhaber.

iDAO Governance etabliert dezentrale KI-Kollektive, in denen Datenbeitragende gemeinsam über On-Chain-Abstimmungen die Kuratierung von Datensätzen, Preisstrategien und Qualitätsstandards steuern.

Die Roadmap für 2026 sieht ZK-basierte Privatsphäre vor (Nutzer können Interaktionsdaten monetarisieren, ohne persönliche Informationen preiszugeben), dezentrale Rechenmärkte (das Training findet auf einer verteilten Infrastruktur statt statt in zentralisierten Clouds) sowie die Auswertung multimodaler Daten (Video-, Audio-, Bildinteraktionen über Text hinaus).

ZENi: Die Intelligence Data Layer für KI-Agenten

ZENi agiert an der Schnittstelle von Web3 und KI, indem es die „InfoFi-Ökonomie“ vorantreibt – ein dezentrales Netzwerk, das den traditionellen und blockchainbasierten Handel durch KI-gestützte Intelligenz überbrückt. Das Unternehmen sammelte 1,5 Millionen US-Dollar in einer Seed-Finanzierungsrunde unter der Leitung von Waterdrip Capital und Mindfulness Capital.

Im Kern steht der InfoFi Data Layer, eine Hochdurchsatz-Engine für Verhaltensintelligenz, die täglich über 1 Million Signale auf X / Twitter, Telegram, Discord und On-Chain-Aktivitäten verarbeitet. ZENi identifiziert Muster im Nutzerverhalten, Stimmungsschwankungen und Community-Engagement – Daten, die für das Training von KI-Agenten entscheidend, aber in großem Maßstab schwer zu erfassen sind.

Die Plattform operiert als dreiteiliges System:

AI Data Analytic Agent identifiziert Zielgruppen mit hoher Intention und Einfluss-Cluster durch die Analyse von Social Graphs, On-Chain-Transaktionen und Engagement-Metriken. Dies erstellt Verhaltensdatensätze, die nicht nur zeigen, was Nutzer tun, sondern auch, warum sie Entscheidungen treffen.

AIGC (AI-Generated Content) Agent entwirft personalisierte Kampagnen mithilfe von Erkenntnissen aus dem Data Layer. Durch das Verständnis von Nutzerpräferenzen und Community-Dynamiken generiert der Agent Inhalte, die für spezifische Zielgruppensegmente optimiert sind.

AI Execution Agent aktiviert die Reichweite über die ZENi dApp und schließt so den Kreislauf von der Datenerfassung bis zur Monetarisierung. Nutzer erhalten eine Vergütung, wenn ihre Verhaltensdaten zu erfolgreichen Kampagnen beitragen.

ZENi bedient bereits Partner in den Bereichen E-Commerce, Gaming und Web3 mit 480.000 registrierten Nutzern und 80.000 täglich aktiven Nutzern. Das Geschäftsmodell monetarisiert Verhaltensintelligenz: Unternehmen zahlen für den Zugriff auf die KI-verarbeiteten Datensätze von ZENi, und die Einnahmen fließen an die Nutzer zurück, deren Daten diese Erkenntnisse ermöglicht haben.

Der Wettbewerbsvorteil der Blockchain in Datenmärkten

Warum ist die Blockchain für die Datenmonetarisierung wichtig? Drei technische Fähigkeiten machen dezentrale Datenmärkte gegenüber zentralisierten Alternativen überlegen:

Granulare Umsatz-Zuweisung Smart Contracts ermöglichen eine ausgeklügelte Umsatzbeteiligung, bei der mehrere Mitwirkende an einem KI-Modell automatisch eine proportionale Vergütung basierend auf der Nutzung erhalten. Ein einzelner Trainingsdatensatz könnte Eingaben von 10.000 Nutzern aggregieren – die Blockchain verfolgt jeden Beitrag und verteilt Mikrozahlungen pro Modell-Inferenz.

Traditionelle Systeme können diese Komplexität nicht bewältigen. Zahlungsabwickler erheben feste Gebühren (2–3 %), die für Mikrozahlungen ungeeignet sind, und zentralisierten Plattformen mangelt es an Transparenz darüber, wer was beigetragen hat. Die Blockchain löst beides: Transaktionskosten nahe Null über Layer-2-Lösungen und unveränderliche Zuweisung über On-Chain-Provenienz.

Verifizierbare Datenherkunft Die Data Anchoring Tokens von LazAI beweisen den Datenursprung, ohne den zugrunde liegenden Inhalt offenzulegen. KI-Unternehmen, die Modelle trainieren, können verifizieren, dass sie lizenzierte, hochwertige Daten verwenden und keine abgegriffenen Webinhalte von fragwürdiger Legalität.

Dies adressiert ein kritisches Risiko: Datenschutzbestimmungen betreffen 28 % der Unternehmen und schränken die Zugänglichkeit von Datensätzen ein. Blockchainbasierte Datenmärkte implementieren datenschutzfreundliche Verifizierungen – sie beweisen Datenqualität und Lizenzierung, ohne persönliche Informationen preiszugeben.

Dezentralisiertes KI-Training Das Knotennetzwerk von Ocean Protocol demonstriert, wie verteilte Infrastrukturen Kosten senken. Anstatt Cloud-Anbietern 2–5 US-Dollar pro GPU-Stunde zu zahlen, bringen dezentrale Netzwerke ungenutzte Rechenkapazitäten (Gaming-PCs, Rechenzentren mit freien Kapazitäten) mit dem Bedarf an KI-Training zusammen – bei einer Kostensenkung von 50–85 %.

Die Blockchain koordiniert diese Komplexität durch Smart Contracts, die die Aufgabenverteilung, Zahlungsabwicklung und Qualitätsprüfung regeln. Teilnehmer staken Token, um teilzunehmen, verdienen Belohnungen für ehrliche Berechnungen und riskieren Slashing-Strafen für die Lieferung falscher Ergebnisse.

Der Weg zu 52 Milliarden US-Dollar: Marktkräfte treiben die Adaption voran

Drei konvergierende Trends beschleunigen das Wachstum des Blockchain-Datenmarktes in Richtung der Prognose von 52,41 Milliarden US-Dollar bis 2035:

Diversifizierung von KI-Modellen Die Ära der massiven Basismodelle (GPT-4, Claude, Gemini), die auf allen Internet-Texten trainiert wurden, geht zu Ende. Spezialisierte Modelle für das Gesundheitswesen, Finanzen, Rechtsdienstleistungen und vertikale Anwendungen erfordern domänenspezifische Datensätze, die von zentralisierten Plattformen nicht kuratiert werden.

Blockchain-Datenmärkte brillieren bei Nischen-Datensätzen. Ein Anbieter von medizinischen Bildgebungsverfahren kann Radiologie-Scans mit diagnostischen Anmerkungen tokenisieren, Nutzungsbedingungen festlegen, die die Zustimmung des Patienten erfordern, und Einnahmen aus jedem KI-Modell erzielen, das mit seinen Daten trainiert wurde. Dies ist mit zentralisierten Plattformen, denen es an granularer Zugriffskontrolle und Zuweisung mangelt, unmöglich umzusetzen.

Regulierungsdruck Datenschutzbestimmungen (DSGVO, CCPA, Chinas Gesetz zum Schutz persönlicher Informationen) schreiben eine einwilligungsbasierte Datenerfassung vor. Blockchainbasierte Märkte implementieren die Einwilligung als programmierbare Logik – Nutzer unterzeichnen Berechtigungen kryptografisch, auf Daten kann nur unter festgelegten Bedingungen zugegriffen werden, und Smart Contracts setzen die Compliance automatisch durch.

Der Fokus von Ocean Enterprise v1 auf Compliance adressiert dies direkt. Finanzinstitute und Gesundheitsdienstleister benötigen eine prüfbare Datenhistorie, die beweist, dass jeder für das Modelltraining verwendete Datensatz über die ordnungsgemäße Lizenzierung verfügte. Die Blockchain bietet unveränderliche Audit-Trails, die regulatorische Anforderungen erfüllen.

Qualität vor Quantität Jüngste Forschungsergebnisse zeigen, dass KI keine endlosen Trainingsdaten benötigt, wenn die Systeme biologischen Gehirnen ähnlicher werden. Dies verschiebt die Anreize von der Sammlung maximaler Datenmengen hin zur Kuratierung hochwertigster Eingaben.

Dezentrale Datenmärkte richten die Anreize richtig aus: Datenersteller verdienen mehr für qualitativ hochwertige Beiträge, da Modelle Premiumpreise für Datensätze zahlen, die die Leistung verbessern. Die Interaktionsdaten von LazAI erfassen menschliche Feedbacksignale (welche Abfragen verfeinert werden, welche Antworten die Nutzer zufriedenstellen), die statische Datensätze übersehen – was sie pro Byte inhärent wertvoller macht.

Herausforderungen: Privatsphäre, Preisgestaltung und Protokollkriege

Trotz der Dynamik stehen Blockchain-Datenmärkte vor strukturellen Herausforderungen:

Privatsphären-Paradoxon Das Training von KI erfordert Datentransparenz (Modelle benötigen Zugang zu tatsächlichen Inhalten), während Datenschutzbestimmungen eine Datenminimierung fordern. Aktuelle Lösungen wie föderiertes Lernen (Training auf verschlüsselten Daten) erhöhen die Kosten um das 3- bis 5-fache im Vergleich zum zentralisierten Training.

Zero-Knowledge-Proofs bieten einen Weg nach vorne – sie beweisen die Datenqualität, ohne den Inhalt offenzulegen –, erhöhen jedoch den Rechenaufwand. Die ZK-Roadmap von LazAI für 2026 adressiert dies, obwohl produktionsreife Implementierungen noch 12 bis 18 Monate entfernt sind.

Preisfindung Was ist eine Social-Media-Interaktion wert? Ein medizinisches Bild mit diagnostischer Annotation? Blockchain-Märkten fehlen etablierte Preismechanismen für neuartige Datentypen.

Der Ansatz des Ocean Protocols – Anbieter Preise festlegen zu lassen und die Marktdynamik den Wert bestimmen zu lassen – funktioniert für standardisierte Datensätze, hat jedoch Schwierigkeiten bei einzigartigen, proprietären Daten. Prognosemärkte oder KI-gestützte dynamische Preisgestaltung könnten dies lösen, führen jedoch beide Oracle-Abhängigkeiten (externe Preisfeeds) ein, die die Dezentralisierung untergraben.

Interoperabilitäts-Fragmentierung Das Ocean Protocol läuft auf Ethereum, LazAI auf Metis, ZENi lässt sich in mehrere Chains integrieren. Daten, die auf einer Plattform tokenisiert wurden, können nicht einfach auf eine andere übertragen werden, was die Liquidität fragmentiert.

Cross-Chain-Bridges und universelle Datenstandards (wie dezentrale Identifikatoren für Datensätze) könnten dies lösen, doch das Ökosystem befindet sich noch in einem frühen Stadium. Der Blockchain-KI-Markt, der von 680,89 Millionen imJahr2025auf4,338Milliardenim Jahr 2025 auf 4,338 Milliarden bis 2034 anwachsen soll, deutet darauf hin, dass eine Konsolidierung um die gewinnenden Protokolle noch Jahre entfernt ist.

Was das für Entwickler bedeutet

Für Teams, die KI-Anwendungen entwickeln, bieten Blockchain-Datenmärkte drei unmittelbare Vorteile:

Zugang zu proprietären Datensätzen Die über 35.000 Datensätze des Ocean Protocols umfassen proprietäre Trainingsdaten, die über herkömmliche Kanäle nicht verfügbar sind. Medizinische Bildgebung, Finanztransaktionen, Verhaltensanalysen von Web3-Anwendungen – spezialisierte Datensätze, die von zentralisierten Plattformen nicht kuratiert werden.

Compliance-fähige Infrastruktur Die integrierte Lizenzierung, das Einwilligungsmanagement und die Audit-Trails von Ocean Enterprise v1 lösen regulatorische Probleme. Anstatt eigene Data-Governance-Systeme zu entwickeln, übernehmen Entwickler „Compliance by Design“ durch Smart Contracts, die Datennutzungsbedingungen erzwingen.

Kostensenkung Dezentrale Rechennetzwerke unterbieten Cloud-Anbieter bei Batch-Training-Workloads um 50 bis 85 %. Die Partnerschaft von Ocean mit NetMind (2.000 GPUs) und Aethir zeigt, wie tokenisierte GPU-Marktplätze Angebot und Nachfrage zu geringeren Kosten als AWS / GCP / Azure zusammenführen.

BlockEden.xyz bietet RPC-Infrastruktur auf Enterprise-Niveau für Blockchain-basierte KI-Anwendungen. Unabhängig davon, ob Sie auf Ethereum (Ocean Protocol), Metis (LazAI) oder Multi-Chain-Plattformen aufbauen, gewährleisten unsere zuverlässigen Node-Services, dass Ihre KI-Datenpipelines online und leistungsfähig bleiben. Erkunden Sie unseren API-Marktplatz, um Ihre KI-Systeme mit für Skalierung ausgelegten Blockchain-Netzwerken zu verbinden.

Der Wendepunkt 2026

Drei Katalysatoren positionieren 2026 als das Jahr des Wendepunkts für Blockchain-Datenmärkte:

Produktionsstart von Ocean Enterprise v1 (Q3 2025) Der erste konforme Datenmarktplatz auf institutionellem Niveau geht live. Wenn Ocean auch nur 5 % des Marktes für KI-Trainingsdatensätze von 7,48 Milliarden imJahr2026erobert,fließen374Millionenim Jahr 2026 erobert, fließen 374 Millionen an Datentransaktionen durch Blockchain-basierte Infrastrukturen.

LazAI ZK-Privatsphären-Implementierung (2026) Zero-Knowledge-Proofs ermöglichen es Nutzern, Interaktionsdaten zu monetarisieren, ohne die Privatsphäre zu gefährden. Dies erschließt die Akzeptanz im Massenmarkt – Hunderte Millionen von Social-Media-Nutzern, Suchmaschinenanfragen und E-Commerce-Sitzungen werden durch DATs monetarisierbar.

Integration von föderiertem Lernen KI-gestütztes föderiertes Lernen ermöglicht Modelltraining ohne Zentralisierung der Daten. Blockchain fügt die Wertzuweisung hinzu: Anstatt dass Google Modelle auf Android-Nutzerdaten ohne Entschädigung trainiert, verteilen föderierte Systeme, die auf der Blockchain laufen, die Einnahmen an alle Datenlieferanten.

Diese Konvergenz bedeutet, dass sich das KI-Training von „alle Daten sammeln, zentral trainieren, nichts bezahlen“ hin zu „auf verteilten Daten trainieren, Mitwirkende entschädigen, Herkunft verifizieren“ verschiebt. Die Blockchain ermöglicht diesen Übergang nicht nur – sie ist der einzige Technologie-Stack, der in der Lage ist, Millionen von Datenanbietern mit automatischer Umsatzverteilung und kryptografischer Verifizierung zu koordinieren.

Fazit: Daten werden programmierbar

Das Wachstum des Marktes für KI-Trainingsdaten von 3,59 Milliarden imJahr2025auf23bis52Milliardenim Jahr 2025 auf 23 bis 52 Milliarden bis 2034 stellt mehr als nur eine Marktexpansion dar. Es ist eine fundamentale Verschiebung in der Art und Weise, wie wir Informationen bewerten.

Das Ocean Protocol beweist, dass Daten wie Finanzanlagen tokenisiert, bepreist und gehandelt werden können, während die Kontrolle der Anbieter gewahrt bleibt. LazAI zeigt, dass KI-Interaktionsdaten – die früher als flüchtig verworfen wurden – zu wertvollen Trainingseingaben werden, wenn sie ordnungsgemäß erfasst und verifiziert werden. ZENi zeigt, dass Verhaltensintelligenz extrahiert, von KI verarbeitet und über dezentrale Märkte monetarisiert werden kann.

Zusammen transformieren diese Plattformen Daten von einem Rohmaterial, das von Tech-Giganten extrahiert wird, in eine programmierbare Asset-Klasse, bei der die Schöpfer den Wert abschöpfen. Die globale Datenexplosion von 33 auf 175 Zettabyte ist nur dann von Bedeutung, wenn Qualität die Quantität schlägt – und Blockchain-basierte Märkte richten Anreize so aus, dass hochwertige Beiträge belohnt werden.

Wenn Datenersteller Einnahmen proportional zu ihren Beiträgen erzielen, wenn KI-Unternehmen faire Preise für hochwertige Inputs zahlen und wenn Smart Contracts die Zuordnung über Millionen von Teilnehmern automatisieren, lösen wir nicht nur das Problem der Datenpreisgestaltung. Wir bauen eine Wirtschaft auf, in der Informationen einen intrinsischen Wert haben, die Herkunft überprüfbar ist und die Mitwirkenden endlich den Wohlstand abschöpfen, den ihre Daten generieren.

Das ist kein Markttrend. Es ist ein Paradigmenwechsel – und er ist bereits On-Chain live.