Zum Hauptinhalt springen

83 Posts getaggt mit "Blockchain"

Alle Tags anzeigen

Balajis Vision fĂŒr KryptoidentitĂ€t: Von SchlĂŒsseln zu Netzwerkstaaten

· 10 Minuten Lesezeit
Dora Noda
Software Engineer

1) Was Balaji mit „KryptoidentitĂ€t“ meint​

In Balajis Vokabular ist KryptoidentitĂ€t eine IdentitĂ€t, die in der Kryptographie – insbesondere Public-Private-SchlĂŒsselpaaren – verwurzelt ist und dann mit On-Chain-Namen, verifizierbaren Anmeldeinformationen/BestĂ€tigungen und Schnittstellen zu traditionellen („Fiat“-) IdentitĂ€ten erweitert wird. In seinen Worten und seiner Arbeit:

  • SchlĂŒssel als IdentitĂ€t. Das Fundament ist die Idee, dass in Bitcoin und Web3 Ihr SchlĂŒsselpaar Ihre IdentitĂ€t ist; Authentifizierung und Autorisierung ergeben sich aus der Kontrolle privater SchlĂŒssel und nicht aus Konten in einer Unternehmensdatenbank. (balajis.com)
  • Namen und Reputation On-Chain. Namenssysteme wie ENS/SNS verankern menschenlesbare IdentitĂ€ten an Adressen; Anmeldeinformationen (NFTs, „Soulbound“-Token, On-Chain-„Kryptoreferenzen“) und BestĂ€tigungen schichten Reputation und Historie auf diese IdentitĂ€ten.
  • On-Chain, prĂŒfbarer „Zensus“. FĂŒr Gesellschaften und Netzwerkstaaten nimmt die IdentitĂ€t an einem kryptographisch prĂŒfbaren Zensus (Nachweis der Menschlichkeit/einzigartigen Person, Einkommensnachweis, Immobiliennachweis) teil, um die reale Bevölkerung und wirtschaftliche AktivitĂ€t zu demonstrieren.
  • ÜberbrĂŒckung von traditioneller ID ↔ Krypto-ID. Er argumentiert explizit, dass wir eine „Fiat-IdentitĂ€t ↔ Krypto-IdentitĂ€t-Börse“ benötigen – Ă€hnlich den Fiat↔Krypto-Börsen –, damit „digitale PĂ€sse der digitalen WĂ€hrung folgen“. Er hebt „Krypto-PĂ€sse“ als die nĂ€chste Schnittstelle nach Stablecoins hervor. (Circle)
  • IdentitĂ€t fĂŒr ein „Web3 des Vertrauens“ im KI-Zeitalter. Um Deepfakes und Bots entgegenzuwirken, fördert er Inhalte, die von On-Chain-IdentitĂ€ten signiert sind (z. B. ENS), sodass Provenienz und Urheberschaft kryptographisch ĂŒber das offene Web verifizierbar sind. (Chainlink Today)
  • BĂŒrgerschutz. In seiner Kurzformel: „KryptowĂ€hrung schĂŒtzt Sie teilweise vor dem Entzug von Bankdienstleistungen. KryptoidentitĂ€t schĂŒtzt Sie teilweise vor dem Entzug der StaatsbĂŒrgerschaft.“ (X (ehemals Twitter))

2) Wie sich seine Ansicht entwickelte (eine kurze Chronologie)​

  • 2019–2020 – kryptographische IdentitĂ€t & PseudonymitĂ€t. Balajis Schriften betonen Public-Key-Kryptographie als IdentitĂ€t (SchlĂŒssel-als-ID) und prognostizieren das Wachstum dezentraler IdentitĂ€t + Reputation in den 2020er Jahren. Gleichzeitig argumentiert sein Vortrag zur „pseudonymen Ökonomie“ fĂŒr persistente, reputationsbehaftete Pseudonyme, um die Meinungsfreiheit zu schĂŒtzen und mit neuen Arten von Arbeit und Organisation zu experimentieren. (balajis.com)
  • 2022 – Der Netzwerkstaat. Er formalisiert die Aufgabe der IdentitĂ€t in einem Netzwerkstaat: On-Chain-Zensus; ENS-Ă€hnliche IdentitĂ€t; kryptographische Nachweise (der Menschlichkeit/des Einkommens/der Immobilien); und Kryptoreferenzen/Soulbounds. IdentitĂ€t ist infrastrukturell – was die Gesellschaft zĂ€hlt und was die Welt verifizieren kann.
  • 2022–2024 – BrĂŒcken zu traditionellen Systemen. In öffentlichen Interviews und seinem Podcast fordert er Fiat↔Krypto-IdentitĂ€tsbrĂŒcken (z. B. Palaus RNS.ID digitaler Wohnsitz) und betont die ÜberfĂŒhrung von „Papier“-Akten in Code. (Circle)
  • 2023–heute – IdentitĂ€t als Abwehr gegen KI-FĂ€lschungen. Er rahmt KryptoidentitĂ€t als RĂŒckgrat eines „Web3 des Vertrauens“: signierte Inhalte, On-Chain-Provenienz und wirtschaftliche Reibung (Staking, Zahlungen), um Menschen von Bots zu trennen. (Chainlink Today)

3) Der technische Stack, auf den Balaji hindeutet​

Grundlegendes Primitiv: SchlĂŒssel & Wallets

  • Kontrolle eines privaten SchlĂŒssels = Kontrolle einer IdentitĂ€t; SchlĂŒssel fĂŒr verschiedene Personas und Risikoprofile rotieren/partitionieren. (balajis.com)

Auflösung & Anmeldung

  • ENS/SNS ordnen menschenlesbare Namen Adressen zu; Anmelden mit Ethereum (EIP-4361) verwandelt diese Adressen in eine Standardmethode zur Authentifizierung bei Off-Chain-Anwendungen.

Anmeldeinformationen & BestÀtigungen (Reputationsschicht)

  • W3C Verifiable Credentials (VC 2.0) definieren eine interoperable Methode zum Ausstellen/Halten/Verifizieren von AnsprĂŒchen (z. B. KYC-PrĂŒfungen, Diplome).
  • Der Ethereum Attestierungsdienst (EAS) bietet eine öffentliche GĂŒterschicht fĂŒr On- oder Off-Chain-BestĂ€tigungen, um IdentitĂ€t, Reputation und Register aufzubauen, die Anwendungen verifizieren können. (W3C)

Nachweis der Menschlichkeit & Einzigartigkeit

  • In Der Netzwerkstaat skizziert Balaji „Proof-of-Human“-Techniken fĂŒr den On-Chain-Zensus; außerhalb seiner Arbeit versuchen AnsĂ€tze wie World ID, die Menschlichkeit/Einzigartigkeit zu verifizieren, was auch Datenschutzbedenken aufgeworfen hat – und die Kompromisse biometrischer PoP illustriert.

BrĂŒcken zu traditioneller IdentitĂ€t

  • Palau RNS.ID ist ein prominentes Beispiel fĂŒr einen SouverĂ€n, der eine rechtliche ID mit On-Chain-Komponenten ausstellt; die Akzeptanz ist plattformĂŒbergreifend uneinheitlich, was das von Balaji hervorgehobene „BrĂŒcken“-Problem unterstreicht. (Biometric Update)

Provenienz & Anti-Deepfake

  • Er befĂŒrwortet das Signieren von Inhalten von ENS-verknĂŒpften Adressen, sodass jedes Bild/jeder Beitrag/jedes Video zu einer kryptographischen IdentitĂ€t in einem „Web3 des Vertrauens“ zurĂŒckverfolgt werden kann. (Chainlink Today)

4) Warum es wichtig ist (Balajis strategische Behauptungen)​

  1. Zensur- & Deplattformierungsresistenz: SchlĂŒssel und dezentrale Namensgebung reduzieren die AbhĂ€ngigkeit von zentralisierten ID-Anbietern. (SchlĂŒssel sind Inhaber-IdentitĂ€ten.) (balajis.com)
  2. PrĂŒfbarkeit fĂŒr Gesellschaften: Netzwerkstaaten erfordern verifizierbare Bevölkerung/Einkommen/Fußabdruck; PrĂŒfbarkeit ist ohne eine On-Chain-nachweisbare IdentitĂ€t unmöglich.
  3. KI-Resilienz: Eine kryptographische IdentitÀtsschicht (plus Signaturen/BestÀtigungen) untermauert die Online-AuthentizitÀt und kehrt KI-gesteuerte FÀlschungen um. (Chainlink Today)
  4. InteroperabilitĂ€t & Komponierbarkeit: Standards (ENS, SIWE, VC/EAS) machen IdentitĂ€t ĂŒber Anwendungen und Gerichtsbarkeiten hinweg portierbar.

5) Wie es mit Der Netzwerkstaat zusammenhĂ€ngt​

Balajis Buch paart wiederholt IdentitĂ€t mit einem Echtzeit-, On-Chain-Zensus – einschließlich Nachweis der Menschlichkeit, Einkommensnachweis und Immobiliennachweis – und hebt Namensgebung (ENS) und Kryptoreferenzen als Kernprimitive hervor. Er beschreibt auch „ENS-Login-zu-physischer-Welt“-Muster (digitale SchlĂŒssel zu TĂŒren/Diensten), die in einem sozialen Smart Contract eingebettet sind, und verweist auf KryptoidentitĂ€t als Zugriffsschicht fĂŒr digitale und (eventuell) physische Governance.


6) Implementierungsplan (ein praktischer Weg, den Sie heute umsetzen können)​

A. Die BasisidentitÀten etablieren

  1. Generieren Sie separate SchlĂŒsselpaare fĂŒr: (i) legale/„echte Namen“, (ii) Arbeits-/professionelles Pseudonym, (iii) Pseudonym fĂŒr öffentliche Äußerungen. Speichern Sie jedes in einer anderen Wallet-Konfiguration (Hardware, MPC oder Smart Accounts mit Guardians). (balajis.com)
  2. Registrieren Sie ENS-Namen fĂŒr jede Persona; veröffentlichen Sie minimale öffentliche Profilmetadaten.

B. Authentifizierung & Inhaltsherkunft hinzufĂŒgen 3. Aktivieren Sie SIWE (EIP-4361) fĂŒr App-Logins; Passwörter/Social Logins auslaufen lassen. (Ethereum Improvement Proposals) 4. Signieren Sie öffentliche Artefakte (BeitrĂ€ge, Bilder, Code-Veröffentlichungen) von Ihrer ENS-verknĂŒpften Adresse; veröffentlichen Sie einen einfachen „signierter Inhalt“-Feed, den andere verifizieren können. (Chainlink Today)

C. Anmeldeinformationen und BestĂ€tigungen schichten 5. Stellen Sie VCs fĂŒr rechtliche Fakten (Unternehmensrolle, Lizenzen) und EAS-BestĂ€tigungen fĂŒr weiche Signale (Reputation, verifizierte BeitrĂ€ge, Anwesenheit) aus/sammeln Sie diese. Halten Sie sensible AnsprĂŒche Off-Chain mit nur Hashes/Belegen On-Chain. (W3C)

D. Bei Bedarf zu traditioneller IdentitĂ€t ĂŒberbrĂŒcken 6. Wo rechtmĂ€ĂŸig und nĂŒtzlich, verknĂŒpfen Sie eine souverĂ€ne/Unternehmens-ID (z. B. Palau RNS.ID) mit Ihrer KryptoidentitĂ€t fĂŒr KYC-geschĂŒtzte Orte. Erwarten Sie heterogene Akzeptanz und pflegen Sie Alternativen. (Biometric Update)

E. FĂŒr Gruppen/Gesellschaften bereitstellen 7. FĂŒr eine Startup-Gesellschaft oder DAO:

  • Sichern Sie die Mitgliedschaft mit ENS + einer Proof-of-Human-Methode ab, die Sie fĂŒr akzeptabel halten.
  • Pflegen Sie einen öffentlichen, prĂŒfbaren Zensus (Mitglieder-/Einkommens-/Bestandszahlen) unter Verwendung von Oracles plus signierten BestĂ€tigungen, nicht rohen PII.

7) Risiken, Kritiken und offene Fragen​

  • Erosion von PrivatsphĂ€re/PseudonymitĂ€t. Die Blockchain-Analyse kann Wallets gruppieren; Balajis eigener PseudonymitĂ€ts-Rahmen warnt davor, wie eine Handvoll Daten-„Bits“ Sie re-identifizieren können. Verwenden Sie Mixer/Datenschutztechnologien sorgfĂ€ltig und rechtmĂ€ĂŸig – aber erkennen Sie Grenzen. (blog.blockstack.org)
  • Kompromisse beim Nachweis der Menschlichkeit. Biometrischer PoP (z. B. Iris) zieht erhebliche datenschutzrechtliche PrĂŒfung nach sich; alternative PoP-Methoden reduzieren das Risiko, können aber die Sybil-AnfĂ€lligkeit erhöhen. (law.kuleuven.be)
  • BrĂŒcken-BrĂŒchigkeit. Palau-Ă€hnliche IDs sind kein universeller KYC-Pass; die Akzeptanz variiert je nach Plattform und Gerichtsbarkeit und kann sich Ă€ndern. Bauen Sie fĂŒr anmutige Degradation. (Malakouti Law)
  • SchlĂŒsselverlust & Zwang. SchlĂŒssel können gestohlen/erzwungen werden; verwenden Sie Multi-Sig/Guardians und Vorfallreaktionsrichtlinien. (Balajis Modell geht von Kryptographie + Zustimmung aus, was sozial konstruiert werden muss.) (balajis.com)
  • Namens-/Registerzentralisierung. ENS oder jede Namensbehörde wird zu einer politischen Engstelle; mindern Sie dies durch Multi-Persona-Design und exportierbare Nachweise.

8) Wie Balajis KryptoidentitĂ€t zu Standards passt (und wo sie sich unterscheidet)​

  • Übereinstimmung:

    • DIDs + VCs (W3C) = portierbare, interoperable IdentitĂ€t/AnsprĂŒche; SIWE = Wallet-native Authentifizierung; EAS = BestĂ€tigungen fĂŒr Reputation/Register. Dies sind die Komponenten, auf die er verweist – auch wenn er einfache Sprache (ENS, Anmeldeinformationen) anstelle von Standard-Akronymen verwendet. (W3C)
  • Unterschiede/Schwerpunkt:

    • Er hebt die gesellschaftliche PrĂŒfbarkeit (On-Chain-Zensus) und die Provenienz im KI-Zeitalter (signierte Inhalte) stĂ€rker hervor als viele DID/VC-Diskussionen, und er drĂ€ngt explizit auf Fiat↔Krypto-IdentitĂ€tsbrĂŒcken und Krypto-PĂ€sse als kurzfristige PrioritĂ€t.

9) Wenn Sie entwickeln: ein minimal praktikabler „KryptoidentitĂ€t“-Rollout (90 Tage)​

  1. Woche 1–2: SchlĂŒssel, ENS, SIWE aktiviert; veröffentlichen Sie Ihre Signaturrichtlinie und beginnen Sie, öffentliche BeitrĂ€ge/Veröffentlichungen zu signieren. (Ethereum Improvement Proposals)
  2. Woche 3–6: Integrieren Sie VCs/EAS fĂŒr Rolle/Mitgliedschaft/Teilnahme; erstellen Sie eine öffentliche „Vertrauensseite“, die diese programmatisch verifiziert. (W3C)
  3. Woche 7–10: Richten Sie ein grundlegendes Zensus-Dashboard ein (aggregierte Mitgliederzahl, On-Chain-Schatzkammer-/Einkommensnachweise) mit klarer Datenschutzhaltung.
  4. Woche 11–13: Pilotieren Sie eine traditionelle BrĂŒcke (z. B. RNS.ID, wo angemessen) fĂŒr einen Compliance-intensiven Workflow; veröffentlichen Sie Ergebnisse (was funktionierte/scheiterte). (Biometric Update)

AusgewĂ€hlte Quellen (primĂ€r und tragend)​

  • Der Netzwerkstaat (On-Chain-Zensus; ENS/IdentitĂ€t; Kryptoreferenzen) und „ENS-Login-zu-physischer-Welt“-Beispiele.
  • Public-Key-Kryptographie (SchlĂŒssel als IdentitĂ€t). (balajis.com)
  • Circle – The Money Movement (Ep. 74) (Fiat↔Krypto-IdentitĂ€tsbrĂŒcke; „Krypto-PĂ€sse“). (Circle)
  • Der Netzwerkstaat-Podcast, Ep. 10 (Fiat-IdentitĂ€t→Krypto-IdentitĂ€t-Börse; Palau RNS.ID). (thenetworkstate.com)
  • Chainlink Today (signierte Inhalte/ENS zur BekĂ€mpfung von Deepfakes; „Web3 des Vertrauens“). (Chainlink Today)
  • Balaji auf X („KryptoidentitĂ€t
Entzug der StaatsbĂŒrgerschaft“). (X (ehemals Twitter))
  • Standards: W3C DID Core, VC 2.0; EIP-4361 (SIWE); EAS-Dokumente. (W3C)
  • RNS.ID / Palau (Realwelt-BrĂŒcke; gemischte Akzeptanz). (Biometric Update)
  • Pseudonyme Ökonomie (IdentitĂ€t & 33-Bit-Re-Identifikations-Intuition). (blog.blockstack.org)

Fazit​

FĂŒr Balaji ist KryptoidentitĂ€t nicht nur „DID-Technologie“. Es ist ein zivilisatorisches Primitiv: SchlĂŒssel und Signaturen als Basis; Namen und Anmeldeinformationen obendrauf; BrĂŒcken zu traditioneller IdentitĂ€t; und ein verifizierbarer öffentlicher Datensatz, der von Individuen zu Netzwerkgesellschaften skaliert. So erhalten Sie authentische Personen und authentische DatensĂ€tze in einem KI-ĂŒberfluteten Internet – und so kann eine Startup-Gesellschaft beweisen, dass sie real ist, ohne die Welt um Vertrauen in ihr Wort zu bitten. (Chainlink Today)

Wenn Sie möchten, kann ich den Implementierungsplan an Ihren spezifischen Anwendungsfall (Verbraucher-App, DAO, Unternehmen oder ein Startup-Gesellschafts-Pilotprojekt) anpassen und konkrete Schemata/Workflows fĂŒr SIWE, EAS und VC 2.0 erstellen, die Ihren regulatorischen und UX-EinschrĂ€nkungen entsprechen.

Das nĂ€chste Kapitel von DeFi: Perspektiven fĂŒhrender Entwickler und Investoren (2024 – 2025)

· 11 Minuten Lesezeit
Dora Noda
Software Engineer

Dezentrale Finanzen (DeFi) haben sich vom Spekulationsboom im Sommer 2020 bis zum Zyklus 2024 – 2025 erheblich weiterentwickelt. Höhere ZinssĂ€tze verlangsamten das Wachstum von DeFi in den Jahren 2022 – 2023, doch das Aufkommen von Hochdurchsatz-Blockchains, Token-gesteuerten Anreizen und einem klareren regulatorischen Umfeld schaffen die Voraussetzungen fĂŒr eine neue Phase der On-Chain-Finanzen. FĂŒhrungskrĂ€fte von Hyperliquid, Aave, Ethena und Dragonfly teilen die gemeinsame Erwartung, dass das nĂ€chste Kapitel von echtem Nutzen angetrieben wird: effiziente Marktinfrastruktur, zinstragende Stablecoins, Tokenisierung von Real-World Assets und KI-gestĂŒtzte Benutzererfahrungen. Die folgenden Abschnitte analysieren die Zukunft von DeFi durch die Stimmen von Jeff Yan (Hyperliquid Labs), Stani Kulechov (Aave Labs), Guy Young (Ethena Labs) und Haseeb Qureshi (Dragonfly).

Jeff Yan – Hyperliquid Labs​

Hintergrund​

Jeff Yan ist MitbegrĂŒnder und CEO von Hyperliquid, einer dezentralen Börse (DEX), die ein Hochdurchsatz-Orderbuch fĂŒr Perpetuals und Spot-Handel betreibt. Hyperliquid erlangte 2024 Bekanntheit durch ihren Community-gesteuerten Airdrop und die Weigerung, Eigenkapital an Risikokapitalgeber zu verkaufen; Yan hielt das Team klein und selbstfinanziert, um den Produktfokus zu wahren. Die Vision von Hyperliquid ist es, eine dezentrale Basisschicht fĂŒr andere Finanzprodukte wie tokenisierte Assets und Stablecoins zu werden.

Vision fĂŒr das nĂ€chste Kapitel von DeFi​

  • Effizienz statt Hype. Auf einem Token 2049 Panel verglich Yan DeFi mit einem mathematischen Problem; er argumentierte, dass MĂ€rkte effizient sein sollten, wo Benutzer die besten Preise ohne versteckte Spreads erhalten. Das Hochdurchsatz-Orderbuch von Hyperliquid zielt darauf ab, diese Effizienz zu liefern.
  • Community-Eigentum und Anti-VC-Haltung. Yan glaubt, dass der Erfolg von DeFi am Wert gemessen werden sollte, der den Benutzern geliefert wird, und nicht an den Exits der Investoren. Hyperliquid lehnte private Market-Maker-Partnerschaften und zentralisierte Börsenlistings ab, um die Dezentralisierung nicht zu kompromittieren. Dieser Ansatz entspricht dem Ethos von DeFi: Protokolle sollten ihren Communities gehören und fĂŒr langfristigen Nutzen gebaut werden.
  • Fokus auf Infrastruktur, nicht auf Token-Preis. Yan betont, dass der Zweck von Hyperliquid darin besteht, robuste Technologie zu entwickeln; Produktverbesserungen wie HIP-3 zielen darauf ab, dApp-Risiken durch automatisierte Audits und bessere Integrationen zu mindern. Er vermeidet starre Roadmaps und zieht es vor, sich an Benutzerfeedback und technologische VerĂ€nderungen anzupassen. Diese AnpassungsfĂ€higkeit spiegelt eine breitere Verschiebung von Spekulation hin zu ausgereifter Infrastruktur wider.
  • Vision eines erlaubnisfreien Finanz-Stacks. Yan sieht Hyperliquid als eine grundlegende Schicht, auf der andere Stablecoins, RWAs und neue Finanzinstrumente aufbauen können. Indem es dezentralisiert und kapitaleffizient bleibt, hofft er, eine neutrale Schicht Ă€hnlich einer dezentralen Nasdaq zu etablieren.

Fazit​

Jeff Yans Perspektive betont Markteffizienz, Community-gesteuertes Eigentum und modulare Infrastruktur. Er sieht das nĂ€chste Kapitel von DeFi als eine Konsolidierungsphase, in der Hochleistungs-DEXs zum RĂŒckgrat fĂŒr tokenisierte Assets und Yield-Produkte werden. Seine Weigerung, Risikokapital anzunehmen, signalisiert eine Abkehr von ĂŒbermĂ€ĂŸiger Spekulation; im nĂ€chsten Kapitel könnten Protokolle Nachhaltigkeit ĂŒber Schlagzeilen-trĂ€chtige Bewertungen stellen.

Stani Kulechov – Aave Labs​

Hintergrund​

Stani Kulechov grĂŒndete Aave, eines der ersten Geldmarktprotokolle und ein fĂŒhrender Anbieter im Bereich dezentraler Kreditvergabe. Die LiquiditĂ€tsmĂ€rkte von Aave ermöglichen es Benutzern, Renditen zu erzielen oder Assets ohne ZwischenhĂ€ndler zu leihen. Bis 2025 expandierten Aaves TVL und Produktpalette um Stablecoins und eine neu eingefĂŒhrte Family Wallet – eine Fiat-Krypto-On-Ramp, die auf dem Blockchain Ireland Summit debĂŒtierte.

Vision fĂŒr das nĂ€chste Kapitel von DeFi​

  • Zinssenkungs-Katalysator fĂŒr „DeFi-Sommer 2.0.“ Auf der Token 2049 argumentierte Kulechov, dass fallende ZinssĂ€tze einen neuen DeFi-Boom Ă€hnlich dem von 2020 auslösen wĂŒrden. Niedrigere ZinssĂ€tze schaffen Arbitrage-Möglichkeiten, da On-Chain-Renditen im Vergleich zu TradFi attraktiv bleiben und Kapital in DeFi-Protokolle ziehen. Er erinnert daran, dass Aaves TVL wĂ€hrend der Zinssenkungen von 2020 von weniger als 1 Milliarde US-Dollar auf 10 Milliarden US-Dollar sprang und erwartet eine Ă€hnliche Dynamik, wenn die Geldpolitik gelockert wird.
  • Integration mit Fintech. Kulechov sieht DeFi in die Mainstream-Fintech-Infrastruktur eingebettet. Er plant, On-Chain-Renditen ĂŒber benutzerfreundliche Apps und institutionelle KanĂ€le zu verteilen und DeFi zu einem Backend fĂŒr Sparprodukte zu machen. Die Family Wallet veranschaulicht dies, indem sie nahtlose Fiat-Stablecoin-Konvertierungen und alltĂ€gliche Zahlungen anbietet.
  • Real-World Assets (RWAs) und Stablecoins. Er betrachtet tokenisierte Real-World Assets und Stablecoins als SĂ€ulen der Blockchain-Zukunft. Aaves GHO Stablecoin und RWA-Initiativen zielen darauf ab, DeFi-Renditen mit realwirtschaftlichen Sicherheiten zu verbinden und die LĂŒcke zwischen Krypto und traditionellen Finanzen zu schließen.
  • Community-gesteuerte Innovation. Kulechov schreibt den Erfolg von Aave seiner Community zu und erwartet, dass benutzergesteuerte Innovation die nĂ€chste Phase antreiben wird. Er schlĂ€gt vor, dass sich DeFi auf Verbraucheranwendungen konzentrieren wird, die KomplexitĂ€t abstrahieren, wĂ€hrend die Dezentralisierung erhalten bleibt.

Fazit​

Stani Kulechov prognostiziert eine RĂŒckkehr des DeFi-Bullenzyklus, angetrieben durch niedrigere ZinssĂ€tze und verbesserte Benutzererfahrung. Er betont die Integration mit Fintech und Real-World Assets und sagt voraus, dass Stablecoins und tokenisierte Staatsanleihen DeFi-Renditen in alltĂ€gliche Finanzprodukte einbetten werden. Dies spiegelt eine Reifung von spekulativem Yield Farming zu einer Infrastruktur wider, die mit traditionellen Finanzen koexistiert.

Guy Young – Ethena Labs​

Hintergrund​

Guy Young ist der CEO von Ethena Labs, dem Schöpfer von sUSDe, einem synthetischen Dollar-Stablecoin, der Delta-neutrale Strategien verwendet, um einen zinstragenden Dollar anzubieten. Ethena erregte Aufmerksamkeit, indem es attraktive Renditen bot, wĂ€hrend es USDT als Sicherheit und Short-Perpetual-Positionen zur Absicherung des Preisrisikos nutzte. Im Jahr 2025 kĂŒndigte Ethena Initiativen wie iUSDe an, eine konforme, gewrappte Version fĂŒr traditionelle Institutionen.

Vision fĂŒr das nĂ€chste Kapitel von DeFi​

  • Stablecoins fĂŒr Ersparnisse und Handels-Collateral. Young kategorisiert Stablecoin-AnwendungsfĂ€lle in Handels-Collateral, Ersparnisse fĂŒr EntwicklungslĂ€nder, Zahlungen und Spekulation. Ethena konzentriert sich auf Ersparnisse und Handel, da die Rendite den Dollar attraktiv macht und die Börsenintegration die Akzeptanz fördert. Er glaubt, dass ein zinstragender Dollar zum wichtigsten Spar-Asset der Welt werden wird.
  • Neutrale, plattformunabhĂ€ngige Stablecoins. Young argumentiert, dass Stablecoins neutral und ĂŒber verschiedene Plattformen hinweg weit verbreitet sein mĂŒssen; Versuche von Börsen, proprietĂ€re Stablecoins zu pushen, schaden der Benutzererfahrung. Ethenas Verwendung von USDT erhöht die Nachfrage nach Tether, anstatt mit ihm zu konkurrieren, was die Synergie zwischen DeFi-Stablecoins und etablierten Akteuren verdeutlicht.
  • Integration mit TradFi und Messaging-Apps. Ethena plant, iUSDe mit ÜbertragungsbeschrĂ€nkungen herauszugeben, um regulatorische Anforderungen zu erfĂŒllen, und sUSDe in Telegram und Apple Pay zu integrieren, sodass Benutzer zinstragende Dollar wie Nachrichten senden, sparen und ausgeben können. Young stellt sich vor, eine Neobank-Ă€hnliche Erfahrung fĂŒr eine Milliarde Benutzer ĂŒber mobile Apps bereitzustellen.
  • Verschiebung hin zu Fundamentaldaten und RWAs. Er stellt fest, dass die Krypto-Spekulation gesĂ€ttigt erscheint – die Altcoin-Marktkapitalisierung erreichte sowohl 2021 als auch 2024 ihren Höhepunkt bei 1,2 Billionen US-Dollar –, sodass sich Investoren auf Projekte mit realen Einnahmen und tokenisierten Real-World Assets konzentrieren werden. Ethenas Strategie, Renditen aus Off-Chain-Assets zu erzielen, positioniert es fĂŒr diesen Übergang.

Fazit​

Guy Youngs Perspektive konzentriert sich auf zinstragende Stablecoins als Killer-App von DeFi. Er argumentiert, dass das nĂ€chste Kapitel von DeFi darin besteht, Dollar produktiv zu machen und sie in Mainstream-Zahlungen und Messaging einzubetten, wodurch Milliarden von Benutzern angezogen werden. Ethenas plattformunabhĂ€ngiger Ansatz spiegelt die Überzeugung wider, dass DeFi-Stablecoins bestehende Systeme ergĂ€nzen und nicht mit ihnen konkurrieren sollten. Er erwartet auch eine Rotation von spekulativen Altcoins zu umsatzgenerierenden Tokens und RWAs.

Haseeb Qureshi – Dragonfly​

Hintergrund​

Haseeb Qureshi ist Managing Partner bei Dragonfly, einer Risikokapitalfirma, die sich auf Krypto und DeFi konzentriert. Qureshi ist bekannt fĂŒr seine analytischen Schriften und seine Teilnahme am Chopping Block Podcast. Ende 2024 und Anfang 2025 veröffentlichte er eine Reihe von Prognosen, die darlegen, wie KI, Stablecoins und regulatorische Änderungen Krypto prĂ€gen werden.

Vision fĂŒr das nĂ€chste Kapitel von DeFi​

  • KI-gestĂŒtzte Wallets und Agenten. Qureshi prognostiziert, dass KI-Agenten Krypto revolutionieren werden, indem sie Bridging automatisieren, Handelsrouten optimieren, GebĂŒhren minimieren und Benutzer von BetrĂŒgereien fernhalten. Er erwartet, dass KI-gesteuerte Wallets Cross-Chain-Operationen nahtlos abwickeln und die KomplexitĂ€t reduzieren, die derzeit Mainstream-Benutzer abschreckt. KI-gestĂŒtzte Entwicklungstools werden auch den Bau von Smart Contracts erleichtern und die Dominanz der EVM festigen.
  • KI-Agenten-Tokens vs. Meme-Coins. Qureshi glaubt, dass Tokens, die mit KI-Agenten verbunden sind, Meme-Coins im Jahr 2025 ĂŒbertreffen werden, warnt jedoch davor, dass die Neuheit verblassen wird und der wahre Wert aus dem Einfluss von KI auf Softwareentwicklung und Handel stammen wird. Er betrachtet die aktuelle Aufregung als eine Verschiebung von „finanziellem Nihilismus zu finanziellem Überoptimismus“ und warnt vor einer Überbewertung von Chatbot-Coins.
  • Konvergenz von Stablecoins und KI. In seinen Prognosen fĂŒr 2025 skizziert Qureshi sechs Hauptthemen: (1) Die Unterscheidung zwischen Layer-1- und Layer-2-Blockchains wird verschwimmen, da KI-Tools den EVM-Anteil erweitern; (2) Token-Distributionen werden sich von großen Airdrops zu metrikgesteuerten oder Crowdfunding-Modellen verschieben; (3) die Akzeptanz von Stablecoins wird stark zunehmen, wobei Banken ihre eigenen Stablecoins ausgeben, wĂ€hrend Tether seine Dominanz behĂ€lt; (4) KI-Agenten werden Krypto-Interaktionen dominieren, aber ihre Neuheit könnte bis 2026 verblassen; (5) KI-Tools werden die Entwicklungskosten drastisch senken, was eine Welle von dApp-Innovationen und stĂ€rkere Sicherheit ermöglicht; und (6) regulatorische Klarheit, insbesondere in den USA, wird die Mainstream-Adoption beschleunigen.
  • Institutionelle Adoption und regulatorische Verschiebungen. Qureshi erwartet, dass Fortune-100-Unternehmen Krypto unter einer Trump-Administration Verbrauchern anbieten werden, und glaubt, dass die US-Stablecoin-Gesetzgebung verabschiedet wird, was die institutionelle Beteiligung freisetzen wird. Die Gate.io-Forschungszusammenfassung bestĂ€tigt dies und stellt fest, dass KI-Agenten Stablecoins fĂŒr Peer-to-Peer-Transaktionen ĂŒbernehmen und dass dezentrales KI-Training beschleunigt wird.
  • DeFi als Infrastruktur fĂŒr KI-gestĂŒtzte Finanzen. Im The Chopping Block nannte Qureshi Hyperliquid den „grĂ¶ĂŸten Gewinner“ des Zyklus 2024 und sagte voraus, dass DeFi-Tokens im Jahr 2025 ein explosives Wachstum erleben wĂŒrden. Er fĂŒhrt dies auf Innovationen wie LiquiditĂ€ts-Guidance-Pools zurĂŒck, die den dezentralen Perpetual-Handel wettbewerbsfĂ€hig machen. Seine optimistische Haltung zu DeFi rĂŒhrt von der Überzeugung her, dass KI-gestĂŒtzte UX und regulatorische Klarheit Kapital in On-Chain-Protokolle lenken werden.

Fazit​

Haseeb Qureshi sieht das nĂ€chste Kapitel von DeFi als Konvergenz von KI und On-Chain-Finanzen. Er erwartet einen Anstieg von KI-gestĂŒtzten Wallets und autonomen Agenten, die Benutzerinteraktionen vereinfachen und neue Teilnehmer anziehen werden. Dennoch warnt er, dass der KI-Hype verblassen könnte; nachhaltiger Wert wird von KI-Tools kommen, die Entwicklungskosten senken und die Sicherheit verbessern. Er erwartet, dass Stablecoin-Gesetzgebung, institutionelle Adoption und metrikgesteuerte Token-Distributionen die Branche professionalisieren werden. Insgesamt sieht er DeFi sich zu einer Grundlage fĂŒr KI-gestĂŒtzte, regulierungskonforme Finanzdienstleistungen entwickeln.

Vergleichende Analyse​

DimensionJeff Yan (Hyperliquid)Stani Kulechov (Aave)Guy Young (Ethena)Haseeb Qureshi (Dragonfly)
KernfokusHochleistungs-DEX-Infrastruktur; Community-Eigentum; EffizienzDezentrale Kreditvergabe; Fintech-Integration; Real-World AssetsZinstragende Stablecoins; Handels-Collateral; Zahlungs-IntegrationInvestitionsperspektive; KI-Agenten; institutionelle Adoption
Haupttreiber fĂŒr das nĂ€chste KapitelEffiziente Orderbuch-MĂ€rkte; modulare Protokollschicht fĂŒr RWAs & StablecoinsZinssenkungen, die KapitalzuflĂŒsse und „DeFi-Sommer 2.0“ anregen; Integration mit Fintech & RWAsNeutrale Stablecoins, die Rendite generieren; Integration mit Messaging-Apps und TradFiKI-gestĂŒtzte Wallets und Agenten; regulatorische Klarheit; metrikgesteuerte Token-Distributionen
Rolle von StablecoinsUntermauert zukĂŒnftige DeFi-Schichten; fördert dezentrale EmittentenGHO Stablecoin & tokenisierte Staatsanleihen integrieren DeFi-Renditen in Mainstream-FinanzproduktesUSDe verwandelt Dollar in zinstragende Ersparnisse; iUSDe zielt auf Institutionen abBanken sollen bis Ende 2025 Stablecoins ausgeben; KI-Agenten sollen Stablecoins fĂŒr Transaktionen nutzen
Ansicht zu Token-AnreizenLehnt Risikofinanzierung & private Market-Maker-Deals ab, um Community zu priorisierenBetont Community-gesteuerte Innovation; sieht DeFi-Tokens als Infrastruktur fĂŒr FintechBefĂŒrwortet plattformunabhĂ€ngige Stablecoins, die bestehende Ökosysteme ergĂ€nzenPrognostiziert eine Verschiebung von großen Airdrops zu KPI-gesteuerten oder Crowdfunding-Distributionen
Ausblick auf Regulierung & InstitutionenMinimaler Fokus auf Regulierung; betont Dezentralisierung & SelbstfinanzierungSieht regulatorische Klarheit, die RWA-Tokenisierung und institutionelle Nutzung ermöglichtArbeitet an ĂŒbertragungsbeschrĂ€nktem iUSDe, um regulatorische Anforderungen zu erfĂŒllenErwartet, dass US-Stablecoin-Gesetzgebung & pro-Krypto-Administration die Adoption beschleunigen
Zu KI & AutomatisierungN/AN/ANicht zentral (obwohl Ethena KI-Risikosysteme nutzen könnte)KI-Agenten werden die Benutzererfahrung dominieren; Neuheit wird bis 2026 verblassen

Fazit​

Das nĂ€chste Kapitel von DeFi wird wahrscheinlich von effizienter Infrastruktur, zinstragenden Assets, der Integration mit traditionellen Finanzen und KI-gesteuerten Benutzererfahrungen geprĂ€gt sein. Jeff Yan konzentriert sich auf den Aufbau einer Hochdurchsatz-, Community-eigenen DEX-Infrastruktur, die als neutrale Basisschicht fĂŒr tokenisierte Assets dienen kann. Stani Kulechov erwartet, dass niedrigere ZinssĂ€tze, Fintech-Integration und Real-World Assets einen neuen DeFi-Boom auslösen werden. Guy Young priorisiert zinstragende Stablecoins und nahtlose Zahlungen und drĂ€ngt DeFi in Messaging-Apps und traditionelle Banken. Haseeb Qureshi erwartet, dass KI-Agenten Wallets transformieren und regulatorische Klarheit institutionelles Kapital freisetzen wird, warnt jedoch vor ĂŒbertriebenen KI-Token-Narrativen.

Zusammenfassend legen diese Perspektiven nahe, dass sich die Zukunft von DeFi ĂŒber spekulatives Farming hinaus zu ausgereiften, benutzerzentrierten Finanzprodukten entwickeln wird. Protokolle mĂŒssen echten wirtschaftlichen Wert liefern, sich in bestehende Finanzsysteme integrieren und technologische Fortschritte wie KI und Hochleistungs-Blockchains nutzen. Wenn diese Trends konvergieren, könnte sich DeFi von einem Nischen-Ökosystem zu einer globalen, erlaubnisfreien Finanzinfrastruktur entwickeln.

MCP im Web3-Ökosystem: Eine umfassende Übersicht

· 50 Minuten Lesezeit
Dora Noda
Software Engineer

1. Definition und Ursprung von MCP im Web3-Kontext​

Das Model Context Protocol (MCP) ist ein offener Standard, der KI-Assistenten (wie grosse Sprachmodelle) mit externen Datenquellen, Tools und Umgebungen verbindet. Oft als "USB-C-Anschluss fĂŒr KI" bezeichnet, aufgrund seiner universellen Plug-and-Play-Natur, wurde MCP von Anthropic entwickelt und Ende November 2024 erstmals vorgestellt. Es entstand als Lösung, um KI-Modelle aus der Isolation zu befreien, indem es sie sicher mit den „Systemen, in denen Daten leben“ verbindet – von Datenbanken und APIs bis hin zu Entwicklungsumgebungen und Blockchains.

UrsprĂŒnglich ein experimentelles Nebenprojekt bei Anthropic, gewann MCP schnell an Bedeutung. Mitte 2024 erschienen Open-Source-Referenzimplementierungen, und Anfang 2025 hatte es sich zum De-facto-Standard fĂŒr die Integration von Agenten-KI entwickelt, wobei fĂŒhrende KI-Labore (OpenAI, Google DeepMind, Meta AI) es nativ ĂŒbernahmen. Diese schnelle Akzeptanz war besonders in der Web3-Community bemerkenswert. Blockchain-Entwickler sahen MCP als eine Möglichkeit, KI-Funktionen in dezentrale Anwendungen zu integrieren, was zu einer Verbreitung von von der Community entwickelten MCP-Konnektoren fĂŒr On-Chain-Daten und -Dienste fĂŒhrte. TatsĂ€chlich argumentieren einige Analysten, dass MCP die ursprĂŒngliche Vision von Web3 eines dezentralen, benutzerzentrierten Internets auf praktischere Weise erfĂŒllen könnte als Blockchain allein, indem es natĂŒrliche Sprachschnittstellen nutzt, um Benutzer zu befĂ€higen.

Zusammenfassend ist MCP keine Blockchain oder ein Token, sondern ein offenes Protokoll, das in der KI-Welt geboren wurde und schnell im Web3-Ökosystem als BrĂŒcke zwischen KI-Agenten und dezentralen Datenquellen angenommen wurde. Anthropic hat den Standard (mit einer anfĂ€nglichen GitHub-Spezifikation und SDKs) quelloffen gemacht und eine offene Community darum aufgebaut. Dieser gemeinschaftsgetriebene Ansatz bereitete den Boden fĂŒr die Integration von MCP in Web3, wo es nun als grundlegende Infrastruktur fĂŒr KI-fĂ€hige dezentrale Anwendungen angesehen wird.

2. Technische Architektur und Kernprotokolle​

MCP basiert auf einer leichtgewichtigen Client-Server-Architektur mit drei Hauptrollen:

  • MCP-Host: Die KI-Anwendung oder der Agent selbst, der Anfragen orchestriert. Dies könnte ein Chatbot (Claude, ChatGPT) oder eine KI-gestĂŒtzte App sein, die externe Daten benötigt. Der Host initiiert Interaktionen und fragt ĂŒber MCP nach Tools oder Informationen.
  • MCP-Client: Eine Konnektorkomponente, die der Host zur Kommunikation mit Servern verwendet. Der Client verwaltet die Verbindung, das Senden und Empfangen von Nachrichten und kann mehrere Server parallel verwalten. Zum Beispiel kann ein Entwicklertool wie Cursor oder der Agentenmodus von VS Code als MCP-Client fungieren, der die lokale KI-Umgebung mit verschiedenen MCP-Servern verbindet.
  • MCP-Server: Ein Dienst, der der KI kontextbezogene Daten oder Funktionen zur VerfĂŒgung stellt. Server bieten Tools, Ressourcen oder Prompts, die die KI nutzen kann. In der Praxis könnte ein MCP-Server mit einer Datenbank, einer Cloud-Anwendung oder einem Blockchain-Knoten interagieren und der KI einen standardisierten Satz von Operationen prĂ€sentieren. Jedes Client-Server-Paar kommuniziert ĂŒber einen eigenen Kanal, sodass ein KI-Agent gleichzeitig mehrere Server fĂŒr verschiedene Anforderungen nutzen kann.

Kern-Primitive: MCP definiert eine Reihe von Standard-Nachrichtentypen und Primitiven, die die Interaktion zwischen KI und Tool strukturieren. Die drei grundlegenden Primitive sind:

  • Tools: Diskrete Operationen oder Funktionen, die die KI auf einem Server aufrufen kann. Zum Beispiel ein „searchDocuments“-Tool oder ein „eth_call“-Tool. Tools kapseln Aktionen wie das Abfragen einer API, das AusfĂŒhren einer Berechnung oder das Aufrufen einer Smart-Contract-Funktion. Der MCP-Client kann eine Liste der verfĂŒgbaren Tools von einem Server anfordern und diese bei Bedarf aufrufen.
  • Ressourcen: Datenendpunkte, von denen die KI ĂŒber den Server lesen (oder manchmal auch schreiben) kann. Dies können Dateien, DatenbankeintrĂ€ge, Blockchain-Status (Blöcke, Transaktionen) oder beliebige kontextbezogene Daten sein. Die KI kann Ressourcen auflisten und deren Inhalt ĂŒber Standard-MCP-Nachrichten abrufen (z. B. ListResources- und ReadResource-Anfragen).
  • Prompts: Strukturierte Prompt-Vorlagen oder Anweisungen, die Server bereitstellen können, um die Argumentation der KI zu leiten. Zum Beispiel könnte ein Server eine Formatierungsvorlage oder einen vordefinierten Abfrage-Prompt bereitstellen. Die KI kann eine Liste von Prompt-Vorlagen anfordern und diese verwenden, um die Konsistenz ihrer Interaktionen mit diesem Server zu gewĂ€hrleisten.

Im Hintergrund basieren MCP-Kommunikationen typischerweise auf JSON und folgen einem Anfrage-Antwort-Muster, Ă€hnlich wie bei RPC (Remote Procedure Call). Die Protokollspezifikation definiert Nachrichten wie InitializeRequest, ListTools, CallTool, ListResources usw., die sicherstellen, dass jeder MCP-konforme Client mit jedem MCP-Server auf einheitliche Weise kommunizieren kann. Diese Standardisierung ermöglicht es einem KI-Agenten zu entdecken, was er tun kann: Beim Verbinden mit einem neuen Server kann er fragen „Welche Tools und Daten bieten Sie an?“ und dann dynamisch entscheiden, wie er diese nutzen möchte.

Sicherheits- und AusfĂŒhrungsmodell: MCP wurde mit Blick auf sichere, kontrollierte Interaktionen entwickelt. Das KI-Modell selbst fĂŒhrt keinen beliebigen Code aus; es sendet hochrangige Absichten (ĂŒber den Client) an den Server, der dann die eigentliche Operation ausfĂŒhrt (z. B. Daten abrufen oder eine API aufrufen) und Ergebnisse zurĂŒckgibt. Diese Trennung bedeutet, dass sensible Aktionen (wie Blockchain-Transaktionen oder Datenbank-SchreibvorgĂ€nge) in einer Sandbox ausgefĂŒhrt werden oder eine explizite Benutzergenehmigung erfordern können. Zum Beispiel gibt es Nachrichten wie Ping (um Verbindungen am Leben zu erhalten) und sogar eine CreateMessageRequest, die es einem MCP-Server ermöglicht, die KI des Clients aufzufordern, eine Unterantwort zu generieren, die typischerweise durch BenutzerbestĂ€tigung geschĂŒtzt ist. Funktionen wie Authentifizierung, Zugriffskontrolle und Audit-Logging werden aktiv entwickelt, um sicherzustellen, dass MCP sicher in Unternehmens- und dezentralen Umgebungen eingesetzt werden kann (mehr dazu im Abschnitt Roadmap).

Zusammenfassend basiert die Architektur von MCP auf einem standardisierten Nachrichtenprotokoll (mit JSON-RPC-Ă€hnlichen Aufrufen), das KI-Agenten (Hosts) mit einer flexiblen Reihe von Servern verbindet, die Tools, Daten und Aktionen bereitstellen. Diese offene Architektur ist modellagnostisch und plattformagnostisch – jeder KI-Agent kann MCP verwenden, um mit jeder Ressource zu kommunizieren, und jeder Entwickler kann einen neuen MCP-Server fĂŒr eine Datenquelle erstellen, ohne den Kerncode der KI Ă€ndern zu mĂŒssen. Diese Plug-and-Play-Erweiterbarkeit macht MCP in Web3 so leistungsfĂ€hig: Man kann Server fĂŒr Blockchain-Knoten, Smart Contracts, Wallets oder Orakel bauen und KI-Agenten diese Funktionen nahtlos neben Web2-APIs integrieren lassen.

3. AnwendungsfĂ€lle und Anwendungen von MCP in Web3​

MCP erschliesst eine breite Palette von AnwendungsfĂ€llen, indem es KI-gesteuerten Anwendungen ermöglicht, auf Blockchain-Daten zuzugreifen und On-Chain- oder Off-Chain-Aktionen auf sichere, hochrangige Weise auszufĂŒhren. Hier sind einige wichtige Anwendungen und Probleme, die es im Web3-Bereich löst:

  • On-Chain-Datenanalyse und -Abfrage: KI-Agenten können den Live-Blockchain-Status in Echtzeit abfragen, um Einblicke zu liefern oder Aktionen auszulösen. Zum Beispiel ermöglicht ein MCP-Server, der mit einem Ethereum-Knoten verbunden ist, einer KI, KontostĂ€nde abzurufen, Smart-Contract-Speicher zu lesen, Transaktionen zu verfolgen oder Ereignisprotokolle bei Bedarf abzurufen. Dies verwandelt einen Chatbot oder einen Code-Assistenten in einen Blockchain-Explorer. Entwickler können einem KI-Assistenten Fragen stellen wie „Wie hoch ist die aktuelle LiquiditĂ€t im Uniswap-Pool X?“ oder „Simulieren Sie die Gaskosten dieser Ethereum-Transaktion“, und die KI wird MCP-Tools verwenden, um einen RPC-Knoten aufzurufen und die Antwort von der Live-Chain zu erhalten. Dies ist weitaus leistungsfĂ€higer, als sich auf die Trainingsdaten der KI oder statische SchnappschĂŒsse zu verlassen.
  • Automatisiertes DeFi-Portfoliomanagement: Durch die Kombination von Datenzugriffs- und Aktionstools können KI-Agenten Krypto-Portfolios oder DeFi-Positionen verwalten. Zum Beispiel könnte ein „KI-Vault-Optimierer“ die Positionen eines Benutzers ĂŒber Yield Farms hinweg ĂŒberwachen und automatisch Rebalancing-Strategien basierend auf Echtzeit-Marktbedingungen vorschlagen oder ausfĂŒhren. Ähnlich könnte eine KI als DeFi-Portfoliomanager fungieren und Allokationen zwischen Protokollen anpassen, wenn sich Risiko oder ZinssĂ€tze Ă€ndern. MCP bietet die Standardschnittstelle fĂŒr die KI, um On-Chain-Metriken (Preise, LiquiditĂ€t, Sicherheitenquoten) zu lesen und dann Tools aufzurufen, um Transaktionen (wie das Verschieben von Geldern oder den Tausch von Assets) auszufĂŒhren, falls dies erlaubt ist. Dies kann Benutzern helfen, den Ertrag zu maximieren oder das Risiko rund um die Uhr zu verwalten, was manuell schwer zu bewerkstelligen wĂ€re.
  • KI-gestĂŒtzte Benutzeragenten fĂŒr Transaktionen: Stellen Sie sich einen persönlichen KI-Assistenten vor, der Blockchain-Interaktionen fĂŒr einen Benutzer abwickeln kann. Mit MCP kann ein solcher Agent mit Wallets und DApps integriert werden, um Aufgaben ĂŒber natĂŒrliche Sprachbefehle auszufĂŒhren. Ein Benutzer könnte zum Beispiel sagen: „KI, sende 0,5 ETH von meiner Wallet an Alice“ oder „Stelle meine Token in den Pool mit der höchsten APY“. Die KI wĂŒrde ĂŒber MCP einen sicheren Wallet-Server (der den privaten SchlĂŒssel des Benutzers enthĂ€lt) verwenden, um die Transaktion zu erstellen und zu signieren, und einen Blockchain-MCP-Server, um sie zu senden. Dieses Szenario verwandelt komplexe Befehlszeilen- oder Metamask-Interaktionen in ein Konversationserlebnis. Es ist entscheidend, dass hier sichere Wallet-MCP-Server verwendet werden, die Berechtigungen und BestĂ€tigungen durchsetzen, aber das Endergebnis ist die Optimierung von On-Chain-Transaktionen durch KI-UnterstĂŒtzung.
  • Entwicklerassistenten und Smart-Contract-Debugging: Web3-Entwickler können MCP-basierte KI-Assistenten nutzen, die sich der Blockchain-Infrastruktur bewusst sind. Zum Beispiel bieten die MCP-Server von Chainstack fĂŒr EVM und Solana KI-Code-Copiloten tiefe Einblicke in die Blockchain-Umgebung des Entwicklers. Ein Smart-Contract-Ingenieur, der einen KI-Assistenten (in VS Code oder einer IDE) verwendet, kann die KI den aktuellen Status eines Contracts in einem Testnetz abrufen, eine Transaktion simulieren oder Protokolle ĂŒberprĂŒfen lassen – alles ĂŒber MCP-Aufrufe an lokale Blockchain-Knoten. Dies hilft beim Debuggen und Testen von Contracts. Die KI codiert nicht mehr „blind“; sie kann tatsĂ€chlich in Echtzeit ĂŒberprĂŒfen, wie sich Code On-Chain verhĂ€lt. Dieser Anwendungsfall löst ein grosses Problem, indem er es der KI ermöglicht, kontinuierlich aktuelle Dokumente (ĂŒber einen Dokumentations-MCP-Server) aufzunehmen und die Blockchain direkt abzufragen, wodurch Halluzinationen reduziert und VorschlĂ€ge wesentlich genauer werden.
  • ProtokollĂŒbergreifende Koordination: Da MCP eine einheitliche Schnittstelle ist, kann ein einziger KI-Agent gleichzeitig ĂŒber mehrere Protokolle und Dienste hinweg koordinieren – etwas extrem LeistungsfĂ€higes in der vernetzten Landschaft von Web3. Stellen Sie sich einen autonomen Handelsagenten vor, der verschiedene DeFi-Plattformen auf Arbitrage ĂŒberwacht. Über MCP könnte ein Agent gleichzeitig mit den KreditmĂ€rkten von Aave, einer LayerZero-Cross-Chain-BrĂŒcke und einem MEV (Miner Extractable Value)-Analysedienst ĂŒber eine kohĂ€rente Schnittstelle interagieren. Die KI könnte in einem „Gedankenprozess“ LiquiditĂ€tsdaten von Ethereum (ĂŒber einen MCP-Server auf einem Ethereum-Knoten) sammeln, Preisinformationen oder Orakeldaten (ĂŒber einen anderen Server) erhalten und sogar Bridging- oder Swapping-Operationen aufrufen. Zuvor erforderte eine solche Multi-Plattform-Koordination komplexe, massgeschneiderte Bots, aber MCP bietet eine verallgemeinerbare Möglichkeit fĂŒr eine KI, das gesamte Web3-Ökosystem zu navigieren, als wĂ€re es ein grosser Daten-/Ressourcenpool. Dies könnte fortgeschrittene AnwendungsfĂ€lle wie Cross-Chain-Yield-Optimierung oder automatisierten Liquidationsschutz ermöglichen, bei denen eine KI Assets oder Sicherheiten proaktiv ĂŒber Chains hinweg verschiebt.
  • KI-Beratungs- und Support-Bots: Eine weitere Kategorie sind benutzerorientierte Berater in Krypto-Anwendungen. Zum Beispiel könnte ein DeFi-Hilfe-Chatbot, der in eine Plattform wie Uniswap oder Compound integriert ist, MCP verwenden, um Echtzeitinformationen fĂŒr den Benutzer abzurufen. Wenn ein Benutzer fragt: „Was ist der beste Weg, meine Position abzusichern?“, kann die KI aktuelle Kurse, VolatilitĂ€tsdaten und die Portfoliodetails des Benutzers ĂŒber MCP abrufen und dann eine kontextbezogene Antwort geben. Plattformen erforschen KI-gestĂŒtzte Assistenten, die in Wallets oder dApps eingebettet sind und Benutzer durch komplexe Transaktionen fĂŒhren, Risiken erklĂ€ren und sogar Abfolgen von Schritten mit Genehmigung ausfĂŒhren können. Diese KI-Agenten sitzen effektiv auf mehreren Web3-Diensten (DEXes, Lending Pools, Versicherungsprotokolle) und nutzen MCP, um diese bei Bedarf abzufragen und zu steuern, wodurch die Benutzererfahrung vereinfacht wird.
  • Jenseits von Web3 – Multi-Domain-Workflows: Obwohl unser Fokus auf Web3 liegt, ist es erwĂ€hnenswert, dass die AnwendungsfĂ€lle von MCP sich auf jeden Bereich erstrecken, in dem KI externe Daten benötigt. Es wird bereits verwendet, um KI mit Dingen wie Google Drive, Slack, GitHub, Figma und mehr zu verbinden. In der Praxis könnte ein einziger KI-Agent Web3 und Web2 ĂŒberspannen: z. B. ein Excel-Finanzmodell von Google Drive analysieren und dann basierend auf dieser Analyse On-Chain-Trades vorschlagen, alles in einem Workflow. Die FlexibilitĂ€t von MCP ermöglicht eine domĂ€nenĂŒbergreifende Automatisierung (z. B. „plane mein Meeting, wenn meine DAO-Abstimmung erfolgreich ist, und sende die Ergebnisse per E-Mail“), die Blockchain-Aktionen mit alltĂ€glichen Tools verbindet.

Gelöste Probleme: Das ĂŒbergeordnete Problem, das MCP löst, ist das Fehlen einer einheitlichen Schnittstelle fĂŒr KI zur Interaktion mit Live-Daten und -Diensten. Vor MCP musste man, wenn man wollte, dass eine KI einen neuen Dienst nutzt, ein Plugin oder eine Integration fĂŒr die API dieses spezifischen Dienstes von Hand codieren, oft auf Ad-hoc-Basis. In Web3 war dies besonders umstĂ€ndlich – jede Blockchain oder jedes Protokoll hat ihre eigenen Schnittstellen, und keine KI konnte hoffen, sie alle zu unterstĂŒtzen. MCP löst dies, indem es standardisiert, wie die KI beschreibt, was sie will (natĂŒrliche Sprache, die auf Tool-Aufrufe abgebildet wird) und wie Dienste beschreiben, was sie anbieten. Dies reduziert den Integrationsaufwand drastisch. Anstatt beispielsweise fĂŒr jedes DeFi-Protokoll ein benutzerdefiniertes Plugin zu schreiben, kann ein Entwickler einen MCP-Server fĂŒr dieses Protokoll schreiben (im Wesentlichen dessen Funktionen in natĂŒrlicher Sprache annotieren). Jede MCP-fĂ€hige KI (ob Claude, ChatGPT oder Open-Source-Modelle) kann es dann sofort nutzen. Dies macht KI auf Plug-and-Play-Weise erweiterbar, Ă€hnlich wie das HinzufĂŒgen eines neuen GerĂ€ts ĂŒber einen universellen Anschluss einfacher ist als die Installation einer neuen Schnittstellenkarte.

Zusammenfassend ermöglicht MCP in Web3 KI-Agenten, erstklassige BĂŒrger der Blockchain-Welt zu werden – Abfragen, Analysieren und sogar Transaktionen ĂŒber dezentrale Systeme hinweg, alles ĂŒber sichere, standardisierte KanĂ€le. Dies öffnet die TĂŒr zu autonomeren DApps, intelligenteren Benutzeragenten und einer nahtlosen Integration von On-Chain- und Off-Chain-Intelligenz.

4. Tokenomics und Governance-Modell​

Im Gegensatz zu typischen Web3-Protokollen verfĂŒgt MCP nicht ĂŒber einen nativen Token oder eine KryptowĂ€hrung. Es ist keine Blockchain oder ein dezentrales Netzwerk fĂŒr sich, sondern eine offene Protokollspezifikation (eher vergleichbar mit HTTP oder JSON-RPC im Geiste). Daher gibt es keine integrierte Tokenomics – keine Token-Ausgabe, kein Staking oder GebĂŒhrenmodell, das der Nutzung von MCP inhĂ€rent wĂ€re. KI-Anwendungen und Server kommunizieren ĂŒber MCP ohne jegliche KryptowĂ€hrung; zum Beispiel könnte eine KI, die eine Blockchain ĂŒber MCP aufruft, GasgebĂŒhren fĂŒr die Blockchain-Transaktion zahlen, aber MCP selbst fĂŒgt keine zusĂ€tzlichen Token-GebĂŒhren hinzu. Dieses Design spiegelt den Ursprung von MCP in der KI-Community wider: Es wurde als technischer Standard zur Verbesserung der KI-Tool-Interaktionen eingefĂŒhrt, nicht als tokenisiertes Projekt.

Die Governance von MCP erfolgt auf offene, gemeinschaftsgetriebene Weise. Nach der Veröffentlichung von MCP als offenem Standard signalisierte Anthropic ein Engagement fĂŒr kollaborative Entwicklung. Ein breites Lenkungsausschuss und Arbeitsgruppen haben sich gebildet, um die Entwicklung des Protokolls zu steuern. Bemerkenswerterweise traten Mitte 2025 wichtige Stakeholder wie Microsoft und GitHub dem MCP-Lenkungsausschuss neben Anthropic bei. Dies wurde auf der Microsoft Build 2025 bekannt gegeben und deutet auf eine Koalition von Branchenakteuren hin, die die Roadmap und Standardentscheidungen von MCP leiten. Der Ausschuss und die Betreuer arbeiten ĂŒber einen offenen Governance-Prozess: VorschlĂ€ge zur Änderung oder Erweiterung von MCP werden typischerweise öffentlich diskutiert (z. B. ĂŒber GitHub-Issues und „SEP“ – Standard Enhancement Proposal – Richtlinien). Es gibt auch eine MCP Registry-Arbeitsgruppe (mit Betreuern von Unternehmen wie Block, PulseMCP, GitHub und Anthropic), die die Multi-Parteien-Governance veranschaulicht. Anfang 2025 arbeiteten Mitwirkende von mindestens 9 verschiedenen Organisationen zusammen, um ein einheitliches MCP-Server-Register zur Entdeckung aufzubauen, was zeigt, wie die Entwicklung ĂŒber Community-Mitglieder dezentralisiert und nicht von einer einzigen EntitĂ€t kontrolliert wird.

Da es keinen Token gibt, basieren Governance-Anreize auf den gemeinsamen Interessen der Stakeholder (KI-Unternehmen, Cloud-Anbieter, Blockchain-Entwickler usw.), um das Protokoll fĂŒr alle zu verbessern. Dies ist in gewisser Weise analog zur Governance von W3C- oder IETF-Standards, jedoch mit einem schnelleren, GitHub-zentrierten Prozess. Zum Beispiel arbeiteten Microsoft und Anthropic zusammen, um eine verbesserte Autorisierungsspezifikation fĂŒr MCP zu entwerfen (Integration von Dingen wie OAuth und Single Sign-On), und GitHub arbeitete am offiziellen MCP Registry-Dienst zur Auflistung verfĂŒgbarer Server mit. Diese Verbesserungen wurden zum Nutzen aller in die MCP-Spezifikation zurĂŒckgefĂŒhrt.

Es ist erwĂ€hnenswert, dass, obwohl MCP selbst nicht tokenisiert ist, es zukunftsweisende Ideen gibt, wirtschaftliche Anreize und Dezentralisierung auf MCP aufzubauen. Einige Forscher und Vordenker in Web3 sehen die Entstehung von „MCP-Netzwerken“ voraus – im Wesentlichen dezentrale Netzwerke von MCP-Servern und -Agenten, die Blockchain-Ă€hnliche Mechanismen fĂŒr Entdeckung, Vertrauen und Belohnungen nutzen. In einem solchen Szenario könnte man sich vorstellen, dass ein Token verwendet wird, um diejenigen zu belohnen, die hochwertige MCP-Server betreiben (Ă€hnlich wie Miner oder Knotenbetreiber Anreize erhalten). Funktionen wie Reputationsbewertungen, ĂŒberprĂŒfbare Berechnungen und Knotenerkennung könnten durch Smart Contracts oder eine Blockchain ermöglicht werden, wobei ein Token ehrliches Verhalten fördert. Dies ist noch konzeptionell, aber Projekte wie MITs Namda (spĂ€ter diskutiert) experimentieren mit tokenbasierten Anreizmechanismen fĂŒr Netzwerke von KI-Agenten, die MCP verwenden. Wenn diese Ideen reifen, könnte MCP direkter mit On-Chain-Tokenomics in Verbindung treten, aber ab 2025 bleibt der Kern-MCP-Standard tokenfrei.

Zusammenfassend ist das „Governance-Modell“ von MCP das eines offenen Technologiestandards: kollaborativ von einer Community und einem Lenkungsausschuss von Experten gepflegt, ohne On-Chain-Governance-Token. Entscheidungen werden durch technische Verdienste und breiten Konsens geleitet, nicht durch gewichtete Abstimmung nach Tokenbesitz. Dies unterscheidet MCP von vielen Web3-Protokollen – es zielt darauf ab, die Ideale von Web3 (Dezentralisierung, InteroperabilitĂ€t, BenutzerermĂ€chtigung) durch offene Software und Standards zu erfĂŒllen, nicht durch eine proprietĂ€re Blockchain oder einen Token. In den Worten einer Analyse: „Das Versprechen von Web3... kann endlich nicht durch Blockchain und KryptowĂ€hrung, sondern durch natĂŒrliche Sprache und KI-Agenten verwirklicht werden“, was MCP als einen wichtigen Wegbereiter dieser Vision positioniert. Dennoch könnten wir, wenn MCP-Netzwerke wachsen, hybride Modelle sehen, bei denen Blockchain-basierte Governance- oder Anreizmechanismen das Ökosystem ergĂ€nzen – ein Bereich, der genau zu beobachten ist.

5. Community und Ökosystem​

Das MCP-Ökosystem ist in kurzer Zeit explosionsartig gewachsen und umfasst KI-Entwickler, Open-Source-Mitwirkende, Web3-Ingenieure und grosse Technologieunternehmen. Es ist eine lebendige Gemeinschaftsanstrengung, mit wichtigen Mitwirkenden und Partnerschaften, darunter:

  • Anthropic: Als Schöpfer hat Anthropic das Ökosystem durch die Veröffentlichung der MCP-Spezifikation und mehrerer Referenzserver (fĂŒr Google Drive, Slack, GitHub usw.) als Open Source initiiert. Anthropic fĂŒhrt die Entwicklung weiterhin an (zum Beispiel fungieren Mitarbeiter wie Theodora Chu als MCP-Produktmanager, und das Team von Anthropic trĂ€gt massgeblich zu Spezifikationsaktualisierungen und Community-Support bei). Die Offenheit von Anthropic zog andere an, auf MCP aufzubauen, anstatt es als Tool eines einzelnen Unternehmens zu betrachten.

  • FrĂŒhe Anwender (Block, Apollo, Zed, Replit, Codeium, Sourcegraph): In den ersten Monaten nach der Veröffentlichung implementierte eine Welle frĂŒher Anwender MCP in ihren Produkten. Block (ehemals Square) integrierte MCP, um KI-Agentensysteme im Fintech-Bereich zu erforschen – der CTO von Block lobte MCP als offene BrĂŒcke, die KI mit realen Anwendungen verbindet. Apollo (wahrscheinlich Apollo GraphQL) integrierte MCP ebenfalls, um KI den Zugriff auf interne Daten zu ermöglichen. Entwicklertool-Unternehmen wie Zed (Code-Editor), Replit (Cloud-IDE), Codeium (KI-Code-Assistent) und Sourcegraph (Code-Suche) arbeiteten jeweils daran, MCP-UnterstĂŒtzung hinzuzufĂŒgen. Zum Beispiel verwendet Sourcegraph MCP, damit ein KI-Code-Assistent als Antwort auf eine Frage relevanten Code aus einem Repository abrufen kann, und die IDE-Agenten von Replit können projektspezifischen Kontext abrufen. Diese frĂŒhen Anwender verliehen MCP GlaubwĂŒrdigkeit und Sichtbarkeit.

  • Big Tech-UnterstĂŒtzung – OpenAI, Microsoft, Google: Bemerkenswerterweise haben sich Unternehmen, die sonst Konkurrenten sind, bei MCP geeinigt. OpenAIs CEO Sam Altman kĂŒndigte im MĂ€rz 2025 öffentlich an, dass OpenAI MCP-UnterstĂŒtzung in all seinen Produkten (einschliesslich der Desktop-App von ChatGPT) hinzufĂŒgen werde, und sagte: „Die Leute lieben MCP, und wir freuen uns, die UnterstĂŒtzung in all unseren Produkten hinzuzufĂŒgen“. Dies bedeutete, dass die Agent API von OpenAI und ChatGPT-Plugins MCP sprechen wĂŒrden, um InteroperabilitĂ€t zu gewĂ€hrleisten. Nur wenige Wochen spĂ€ter enthĂŒllte Google DeepMinds CEO Demis Hassabis, dass die kommenden Gemini-Modelle und -Tools von Google MCP unterstĂŒtzen wĂŒrden, und nannte es ein gutes Protokoll und einen offenen Standard fĂŒr die „Ära der KI-Agenten“. Microsoft trat nicht nur dem Lenkungsausschuss bei, sondern arbeitete auch mit Anthropic zusammen, um ein offizielles C#-SDK fĂŒr MCP zu entwickeln, um die Enterprise-Entwicklergemeinschaft zu bedienen. Die GitHub-Einheit von Microsoft integrierte MCP in GitHub Copilot (den ‚Copilot Labs/Agents‘-Modus von VS Code), wodurch Copilot MCP-Server fĂŒr Dinge wie die Repository-Suche und das AusfĂŒhren von TestfĂ€llen nutzen kann. ZusĂ€tzlich kĂŒndigte Microsoft an, dass Windows 11 bestimmte OS-Funktionen (wie den Dateisystemzugriff) als MCP-Server bereitstellen wĂŒrde, damit KI-Agenten sicher mit dem Betriebssystem interagieren können. Die Zusammenarbeit zwischen OpenAI, Microsoft, Google und Anthropic – die sich alle um MCP versammeln – ist aussergewöhnlich und unterstreicht das Ethos „Community vor Wettbewerb“ dieses Standards.

  • Web3-Entwicklergemeinschaft: Eine Reihe von Blockchain-Entwicklern und Startups hat MCP angenommen. Mehrere gemeinschaftsgetriebene MCP-Server wurden erstellt, um Blockchain-AnwendungsfĂ€lle zu bedienen:

    • Das Team von Alchemy (einem fĂŒhrenden Blockchain-Infrastrukturanbieter) entwickelte einen Alchemy MCP Server, der On-Demand-Blockchain-Analysetools ĂŒber MCP anbietet. Dies ermöglicht es einer KI wahrscheinlich, Blockchain-Statistiken (wie historische Transaktionen, AdressaktivitĂ€t) ĂŒber die APIs von Alchemy mithilfe natĂŒrlicher Sprache abzurufen.
    • Mitwirkende entwickelten einen Bitcoin & Lightning Network MCP Server, um mit Bitcoin-Knoten und dem Lightning-Zahlungsnetzwerk zu interagieren, wodurch KI-Agenten Bitcoin-Blockdaten lesen oder sogar Lightning-Rechnungen ĂŒber Standard-Tools erstellen können.
    • Die Krypto-Medien- und Bildungsgruppe Bankless erstellte einen Onchain MCP Server, der sich auf Web3-Finanzinteraktionen konzentriert und möglicherweise eine Schnittstelle zu DeFi-Protokollen (Senden von Transaktionen, Abfragen von DeFi-Positionen usw.) fĂŒr KI-Assistenten bereitstellt.
    • Projekte wie Rollup.codes (eine Wissensdatenbank fĂŒr Ethereum Layer 2s) erstellten einen MCP-Server fĂŒr Rollup-Ökosysteminformationen, sodass eine KI technische Fragen zu Rollups beantworten kann, indem sie diesen Server abfragt.
    • Chainstack, ein Blockchain-Knotenanbieter, startete eine Suite von MCP-Servern (zuvor erwĂ€hnt) fĂŒr Dokumentation, EVM-Kettendaten und Solana, die explizit als „Ihre KI auf Blockchain-Steroiden“ fĂŒr Web3-Entwickler vermarktet wird.

    DarĂŒber hinaus sind Web3-fokussierte Communities um MCP herum entstanden. Zum Beispiel werden PulseMCP und Goose als Community-Initiativen genannt, die beim Aufbau des MCP-Registers helfen. Wir sehen auch eine gegenseitige Befruchtung mit KI-Agenten-Frameworks: Die LangChain-Community integrierte Adapter, sodass alle MCP-Server als Tools in LangChain-gesteuerten Agenten verwendet werden können, und Open-Source-KI-Plattformen wie Hugging Face TGI (Text-Generation-Inference) erforschen die MCP-KompatibilitĂ€t. Das Ergebnis ist ein reichhaltiges Ökosystem, in dem fast tĂ€glich neue MCP-Server angekĂŒndigt werden, die alles von Datenbanken bis zu IoT-GerĂ€ten bedienen.

  • Umfang der Akzeptanz: Die Akzeptanz lĂ€sst sich in gewissem Masse quantifizieren. Bis Februar 2025 – kaum drei Monate nach dem Start – waren ĂŒber 1.000 MCP-Server/Konnektoren von der Community gebaut worden. Diese Zahl ist nur gewachsen und deutet auf Tausende von Integrationen in verschiedenen Branchen hin. Mike Krieger (Chief Product Officer von Anthropic) stellte im FrĂŒhjahr 2025 fest, dass MCP zu einem „florierenden offenen Standard mit Tausenden von Integrationen und wachsend“ geworden sei. Das offizielle MCP Registry (im September 2025 als Vorschau gestartet) katalogisiert öffentlich verfĂŒgbare Server und erleichtert die Entdeckung von Tools; die offene API des Registers ermöglicht es jedem, beispielsweise nach „Ethereum“ oder „Notion“ zu suchen und relevante MCP-Konnektoren zu finden. Dies senkt die Eintrittsbarriere fĂŒr neue Teilnehmer und fördert das Wachstum weiter.

  • Partnerschaften: Wir haben viele implizite Partnerschaften (Anthropic mit Microsoft, usw.) angesprochen. Um noch einige weitere hervorzuheben:

    • Anthropic & Slack: Anthropic hat sich mit Slack zusammengetan, um Claude ĂŒber MCP mit den Daten von Slack zu integrieren (Slack verfĂŒgt ĂŒber einen offiziellen MCP-Server, der es KI ermöglicht, Slack-Nachrichten abzurufen oder Warnungen zu posten).
    • Cloud-Anbieter: Amazon (AWS) und Google Cloud haben mit Anthropic zusammengearbeitet, um Claude zu hosten, und es ist wahrscheinlich, dass sie MCP in diesen Umgebungen unterstĂŒtzen (z. B. könnte AWS Bedrock MCP-Konnektoren fĂŒr Unternehmensdaten zulassen). Obwohl nicht explizit in Zitaten erwĂ€hnt, sind diese Cloud-Partnerschaften wichtig fĂŒr die Unternehmensakzeptanz.
    • Akademische Kooperationen: Das Forschungsprojekt Namda des MIT und IBM (als NĂ€chstes besprochen) stellt eine Partnerschaft zwischen Wissenschaft und Industrie dar, um die Grenzen von MCP in dezentralen Umgebungen zu erweitern.
    • GitHub & VS Code: Partnerschaft zur Verbesserung der Entwicklererfahrung – z. B. hat das VS Code-Team aktiv zu MCP beigetragen (einer der Registry-Betreuer stammt vom VS Code-Team).
    • Zahlreiche Startups: Viele KI-Startups (Agenten-Startups, Workflow-Automatisierungs-Startups) bauen auf MCP auf, anstatt das Rad neu zu erfinden. Dazu gehören aufstrebende Web3-KI-Startups, die „KI als DAO“ oder autonome Wirtschaftsagenten anbieten wollen.

Insgesamt ist die MCP-Community vielfĂ€ltig und wĂ€chst schnell. Sie umfasst Kerntechnologieunternehmen (fĂŒr Standards und Basistools), Web3-Spezialisten (die Blockchain-Wissen und AnwendungsfĂ€lle einbringen) und unabhĂ€ngige Entwickler (die oft Konnektoren fĂŒr ihre Lieblings-Apps oder -Protokolle beisteuern). Das Ethos ist kollaborativ. Zum Beispiel haben Sicherheitsbedenken hinsichtlich Drittanbieter-MCP-Servern zu Community-Diskussionen und BeitrĂ€gen zu Best Practices gefĂŒhrt (z. B. arbeiten Stacklok-Mitwirkende an Sicherheitstools fĂŒr MCP-Server). Die FĂ€higkeit der Community, schnell zu iterieren (MCP erfuhr innerhalb weniger Monate mehrere Spezifikations-Upgrades, die Funktionen wie Streaming-Antworten und bessere Authentifizierung hinzufĂŒgten), ist ein Beweis fĂŒr das breite Engagement.

Speziell im Web3-Ökosystem hat MCP ein Mini-Ökosystem von „KI + Web3“-Projekten gefördert. Es ist nicht nur ein Protokoll zur Nutzung; es katalysiert neue Ideen wie KI-gesteuerte DAOs, On-Chain-Governance, die durch KI-Analyse unterstĂŒtzt wird, und domĂ€nenĂŒbergreifende Automatisierung (wie die VerknĂŒpfung von On-Chain-Ereignissen mit Off-Chain-Aktionen durch KI). Die PrĂ€senz wichtiger Web3-Persönlichkeiten – z. B. Zhivko Todorov von LimeChain, der feststellt: „MCP reprĂ€sentiert die unvermeidliche Integration von KI und Blockchain“ – zeigt, dass Blockchain-Veteranen es aktiv unterstĂŒtzen. Partnerschaften zwischen KI- und Blockchain-Unternehmen (wie die zwischen Anthropic und Block oder Microsofts Azure Cloud, die die Bereitstellung von MCP neben ihren Blockchain-Diensten vereinfacht) deuten auf eine Zukunft hin, in der KI-Agenten und Smart Contracts Hand in Hand arbeiten.

Man könnte sagen, MCP hat die erste echte Konvergenz der KI-Entwicklergemeinschaft mit der Web3-Entwicklergemeinschaft ausgelöst. Hackathons und Meetups bieten jetzt MCP-Tracks an. Als konkretes Mass fĂŒr die Akzeptanz im Ökosystem: Mitte 2025 unterstĂŒtzen OpenAI, Google und Anthropic – die zusammen die Mehrheit der fortschrittlichen KI-Modelle reprĂ€sentieren – alle MCP, und auf der anderen Seite bauen fĂŒhrende Blockchain-Infrastrukturanbieter (Alchemy, Chainstack), Krypto-Unternehmen (Block usw.) und dezentrale Projekte MCP-Hooks. Dieser zweiseitige Netzwerkeffekt lĂ€sst MCP zu einem dauerhaften Standard werden.

6. Roadmap und Entwicklungsmeilensteine​

Die Entwicklung von MCP war rasant. Hier skizzieren wir die bisherigen wichtigen Meilensteine und die zukĂŒnftige Roadmap, wie sie aus offiziellen Quellen und Community-Updates hervorgehen:

  • Ende 2024 – Erstveröffentlichung: Am 25. November 2024 kĂŒndigte Anthropic MCP offiziell an und veröffentlichte die Spezifikation sowie erste SDKs als Open Source. Neben der Spezifikation veröffentlichten sie eine Handvoll MCP-Server-Implementierungen fĂŒr gĂ€ngige Tools (Google Drive, Slack, GitHub usw.) und fĂŒgten UnterstĂŒtzung im Claude AI-Assistenten (Claude Desktop-App) hinzu, um lokale MCP-Server zu verbinden. Dies markierte den 1.0-Start von MCP. FrĂŒhe Proof-of-Concept-Integrationen bei Anthropic zeigten, wie Claude MCP verwenden konnte, um Dateien zu lesen oder eine SQL-Datenbank in natĂŒrlicher Sprache abzufragen, was das Konzept validierte.
  • Q1 2025 – Schnelle Akzeptanz und Iteration: In den ersten Monaten des Jahres 2025 erlebte MCP eine weit verbreitete Akzeptanz in der Branche. Bis MĂ€rz 2025 kĂŒndigten OpenAI und andere KI-Anbieter UnterstĂŒtzung an (wie oben beschrieben). In diesem Zeitraum kam es auch zu einer Spezifikationsentwicklung: Anthropic aktualisierte MCP um Streaming-Funktionen (die es ermöglichen, grosse Ergebnisse oder kontinuierliche Datenströme inkrementell zu senden). Dieses Update wurde im April 2025 mit den C#-SDK-Nachrichten bekannt gegeben und zeigte, dass MCP nun Funktionen wie chunked responses oder Echtzeit-Feed-Integration unterstĂŒtzte. Die Community erstellte auch Referenzimplementierungen in verschiedenen Sprachen (Python, JavaScript usw.) ĂŒber das SDK von Anthropic hinaus, um polyglotte UnterstĂŒtzung zu gewĂ€hrleisten.
  • Q2 2025 – Ökosystem-Tools und Governance: Im Mai 2025, mit dem Beitritt von Microsoft und GitHub zu den BemĂŒhungen, gab es einen Vorstoss zur Formalisierung der Governance und zur Verbesserung der Sicherheit. Auf der Build 2025 enthĂŒllte Microsoft PlĂ€ne fĂŒr die Windows 11 MCP-Integration und detaillierte eine Zusammenarbeit zur Verbesserung der AutorisierungsablĂ€ufe in MCP. Etwa zur gleichen Zeit wurde die Idee eines MCP Registry zur Indexierung verfĂŒgbarer Server eingefĂŒhrt (das anfĂ€ngliche Brainstorming begann laut Registry-Blog im MĂ€rz 2025). Der „Standards-Track“-Prozess (SEP – Standard Enhancement Proposals) wurde auf GitHub etabliert, Ă€hnlich wie EIPs von Ethereum oder PEPs von Python, um BeitrĂ€ge geordnet zu verwalten. Community-Anrufe und Arbeitsgruppen (fĂŒr Sicherheit, Registry, SDKs) begannen sich zu treffen.
  • Mitte 2025 – Funktionserweiterung: Bis Mitte 2025 priorisierte die Roadmap mehrere wichtige Verbesserungen:
    • UnterstĂŒtzung fĂŒr asynchrone und langlaufende Aufgaben: PlĂ€ne, MCP die Verarbeitung langer Operationen zu ermöglichen, ohne die Verbindung zu blockieren. Wenn eine KI beispielsweise einen Cloud-Job auslöst, der Minuten dauert, wĂŒrde das MCP-Protokoll asynchrone Antworten oder eine erneute Verbindung unterstĂŒtzen, um Ergebnisse abzurufen.
    • Authentifizierung und feingranulare Sicherheit: Entwicklung von feingranularen Autorisierungsmechanismen fĂŒr sensible Aktionen. Dies umfasst möglicherweise die Integration von OAuth-Flows, API-SchlĂŒsseln und Enterprise-SSO in MCP-Server, damit der KI-Zugriff sicher verwaltet werden kann. Bis Mitte 2025 waren LeitfĂ€den und Best Practices fĂŒr die MCP-Sicherheit in Arbeit, angesichts der Sicherheitsrisiken, die das Ermöglichen des Aufrufs leistungsstarker Tools durch KI birgt. Ziel ist es, dass beispielsweise, wenn eine KI ĂŒber MCP auf die private Datenbank eines Benutzers zugreifen soll, sie einem sicheren Autorisierungsablauf (mit Benutzerzustimmung) folgen sollte, anstatt nur einem offenen Endpunkt.
    • Validierung und Compliance-Tests: Die Community erkannte die Notwendigkeit der ZuverlĂ€ssigkeit und priorisierte den Aufbau von Compliance-Testsuiten und Referenzimplementierungen. Durch die Sicherstellung, dass alle MCP-Clients/-Server die Spezifikation einhalten (durch automatisierte Tests), sollte eine Fragmentierung verhindert werden. Ein Referenzserver (wahrscheinlich ein Beispiel mit Best Practices fĂŒr die Remote-Bereitstellung und Authentifizierung) stand auf der Roadmap, ebenso wie eine Referenz-Client-Anwendung, die die vollstĂ€ndige MCP-Nutzung mit einer KI demonstriert.
    • MultimodalitĂ€tsunterstĂŒtzung: Erweiterung von MCP ĂŒber Text hinaus, um ModalitĂ€ten wie Bild-, Audio-, Videodaten im Kontext zu unterstĂŒtzen. Zum Beispiel könnte eine KI ein Bild von einem MCP-Server anfordern (z. B. ein Design-Asset oder ein Diagramm) oder ein Bild ausgeben. Die Spezifikationsdiskussion umfasste das HinzufĂŒgen von UnterstĂŒtzung fĂŒr Streaming- und Chunked-Nachrichten, um grosse Multimedia-Inhalte interaktiv zu verarbeiten. FrĂŒhe Arbeiten an „MCP Streaming“ waren bereits im Gange (um Dinge wie Live-Audio-Feeds oder kontinuierliche Sensordaten an KI zu unterstĂŒtzen).
    • Zentrales Register & Discovery: Der Plan zur Implementierung eines zentralen MCP Registry-Dienstes fĂŒr die Server-Discovery wurde Mitte 2025 umgesetzt. Bis September 2025 wurde das offizielle MCP Registry als Vorschau gestartet. Dieses Register bietet eine einzige Quelle der Wahrheit fĂŒr öffentlich verfĂŒgbare MCP-Server, die es Clients ermöglicht, Server nach Namen, Kategorie oder FĂ€higkeiten zu finden. Es ist im Wesentlichen wie ein App Store (aber offen) fĂŒr KI-Tools. Das Design ermöglicht öffentliche Register (einen globalen Index) und private (unternehmensspezifische), die alle ĂŒber eine gemeinsame API interoperabel sind. Das Register fĂŒhrte auch einen Moderationsmechanismus ein, um bösartige Server zu kennzeichnen oder zu entfernen, mit einem Community-Moderationsmodell zur Aufrechterhaltung der QualitĂ€t.
  • Ende 2025 und darĂŒber hinaus – Hin zu dezentralen MCP-Netzwerken: Obwohl noch keine „offiziellen“ Roadmap-Punkte, weist die Entwicklung auf mehr Dezentralisierung und Web3-Synergie hin:
    • Forscher untersuchen aktiv, wie dezentrale Discovery-, Reputations- und Anreizschichten zu MCP hinzugefĂŒgt werden können. Das Konzept eines MCP-Netzwerks (oder „Marktplatzes von MCP-Endpunkten“) wird inkubiert. Dies könnte Smart-Contract-basierte Register (damit es keinen Single Point of Failure fĂŒr Serverlisten gibt), Reputationssysteme, bei denen Server/Clients On-Chain-IdentitĂ€ten und EinsĂ€tze fĂŒr gutes Verhalten haben, und möglicherweise Token-Belohnungen fĂŒr den Betrieb zuverlĂ€ssiger MCP-Knoten umfassen.
    • Projekt Namda am MIT, das 2024 begann, ist ein konkreter Schritt in diese Richtung. Bis 2025 hatte Namda einen Prototyp eines verteilten Agenten-Frameworks auf den Grundlagen von MCP aufgebaut, einschliesslich Funktionen wie dynamische Knotenerkennung, Lastverteilung ĂŒber Agentencluster und ein dezentrales Register unter Verwendung von Blockchain-Techniken. Sie haben sogar experimentelle tokenbasierte Anreize und Herkunftsverfolgung fĂŒr Multi-Agenten-Kooperationen. Meilensteine von Namda zeigen, dass es machbar ist, ein Netzwerk von MCP-Agenten auf vielen Maschinen mit vertrauensloser Koordination zu betreiben. Wenn Namdas Konzepte ĂŒbernommen werden, könnten wir sehen, wie sich MCP entwickelt, um einige dieser Ideen zu integrieren (möglicherweise durch optionale Erweiterungen oder separate Protokolle, die darauf aufbauen).
    • Enterprise-HĂ€rtung: Auf der Unternehmensseite erwarten wir bis Ende 2025, dass MCP in wichtige Unternehmenssoftwareangebote integriert wird (Microsofts Einbindung in Windows und Azure ist ein Beispiel). Die Roadmap umfasst unternehmensfreundliche Funktionen wie SSO-Integration fĂŒr MCP-Server und robuste Zugriffskontrollen. Die allgemeine VerfĂŒgbarkeit des MCP Registry und von Toolkits fĂŒr die Bereitstellung von MCP in grossem Massstab (z. B. innerhalb eines Unternehmensnetzwerks) ist wahrscheinlich bis Ende 2025.

Um einige wichtige Entwicklungsmeilensteine bisher (im Zeitformat zur Klarheit) zusammenzufassen:

  • Nov 2024: MCP 1.0 veröffentlicht (Anthropic).
  • Dez 2024 – Jan 2025: Community baut erste Welle von MCP-Servern; Anthropic veröffentlicht Claude Desktop mit MCP-UnterstĂŒtzung; kleine Pilotprojekte von Block, Apollo usw.
  • Feb 2025: Über 1000 Community-MCP-Konnektoren erreicht; Anthropic veranstaltet Workshops (z. B. auf einem KI-Gipfel, zur Förderung der Bildung).
  • MĂ€r 2025: OpenAI kĂŒndigt UnterstĂŒtzung an (ChatGPT Agents SDK).
  • Apr 2025: Google DeepMind kĂŒndigt UnterstĂŒtzung an (Gemini wird MCP unterstĂŒtzen); Microsoft veröffentlicht Vorschau des C#-SDKs.
  • Mai 2025: Lenkungsausschuss erweitert (Microsoft/GitHub); Build 2025 Demos (Windows MCP-Integration).
  • Jun 2025: Chainstack startet Web3 MCP-Server (EVM/Solana) zur öffentlichen Nutzung.
  • Jul 2025: MCP-Spezifikationsversionen aktualisiert (Streaming, Authentifizierungsverbesserungen); offizielle Roadmap auf der MCP-Website veröffentlicht.
  • Sep 2025: MCP Registry (Vorschau) gestartet; wahrscheinlich erreicht MCP die allgemeine VerfĂŒgbarkeit in weiteren Produkten (Claude for Work usw.).
  • Ende 2025 (prognostiziert): Registry v1.0 live; LeitfĂ€den fĂŒr Best Practices im Bereich Sicherheit veröffentlicht; möglicherweise erste Experimente mit dezentraler Discovery (Namda-Ergebnisse).

Die Vision fĂŒr die Zukunft ist, dass MCP so allgegenwĂ€rtig und unsichtbar wird wie HTTP oder JSON – eine gemeinsame Schicht, die viele Apps im Hintergrund verwenden. FĂŒr Web3 deutet die Roadmap auf eine tiefere Fusion hin: KI-Agenten werden Web3 (Blockchains) nicht nur als Informationsquellen oder -senken nutzen, sondern die Web3-Infrastruktur selbst könnte beginnen, KI-Agenten (ĂŒber MCP) als Teil ihres Betriebs zu integrieren (zum Beispiel könnte eine DAO eine MCP-kompatible KI betreiben, um bestimmte Aufgaben zu verwalten, oder Orakel könnten Daten ĂŒber MCP-Endpunkte veröffentlichen). Die Betonung der Roadmap auf Dinge wie ÜberprĂŒfbarkeit und Authentifizierung deutet darauf hin, dass in Zukunft vertrauensminimierte MCP-Interaktionen RealitĂ€t werden könnten – stellen Sie sich KI-Ausgaben vor, die mit kryptografischen Beweisen versehen sind, oder ein On-Chain-Protokoll darĂŒber, welche Tools eine KI zu PrĂŒfzwecken aufgerufen hat. Diese Möglichkeiten verwischen die Grenze zwischen KI- und Blockchain-Netzwerken, und MCP steht im Mittelpunkt dieser Konvergenz.

Zusammenfassend ist die Entwicklung von MCP hochdynamisch. Es hat wichtige frĂŒhe Meilensteine erreicht (breite Akzeptanz und Standardisierung innerhalb eines Jahres nach dem Start) und entwickelt sich mit einer klaren Roadmap, die Sicherheit, Skalierbarkeit und Entdeckung betont, weiterhin rasant. Die erreichten und geplanten Meilensteine stellen sicher, dass MCP robust bleibt, wĂ€hrend es skaliert: Herausforderungen wie langlaufende Aufgaben, sichere Berechtigungen und die schiere Auffindbarkeit Tausender von Tools werden angegangen. Diese VorwĂ€rtsdynamik zeigt, dass MCP keine statische Spezifikation, sondern ein wachsender Standard ist, der wahrscheinlich weitere Web3-spezifische Funktionen (dezentrale Governance von Servern, Anreizabstimmung) integrieren wird, sobald diese BedĂŒrfnisse entstehen. Die Community ist bereit, MCP an neue AnwendungsfĂ€lle (multimodale KI, IoT usw.) anzupassen, wĂ€hrend sie das Kernversprechen im Auge behĂ€lt: KI vernetzter, kontextbewusster und benutzerfreundlicher in der Web3-Ära zu machen.

7. Vergleich mit Ă€hnlichen Web3-Projekten oder Protokollen​

Die einzigartige Mischung aus KI und KonnektivitÀt von MCP bedeutet, dass es nicht viele direkte, eins-zu-eins-Vergleiche gibt, aber es ist aufschlussreich, es mit anderen Projekten an der Schnittstelle von Web3 und KI oder mit analogen Zielen zu vergleichen:

  • SingularityNET (AGI/X) – Dezentraler KI-Marktplatz: SingularityNET, 2017 von Dr. Ben Goertzel und anderen ins Leben gerufen, ist ein Blockchain-basierter Marktplatz fĂŒr KI-Dienste. Es ermöglicht Entwicklern, KI-Algorithmen als Dienste zu monetarisieren und Benutzern, diese Dienste zu konsumieren, alles erleichtert durch einen Token (AGIX), der fĂŒr Zahlungen und Governance verwendet wird. Im Wesentlichen versucht SingularityNET, das Angebot von KI-Modellen zu dezentralisieren, indem es sie in einem Netzwerk hostet, in dem jeder einen KI-Dienst gegen Token aufrufen kann. Dies unterscheidet sich grundlegend von MCP. MCP hostet oder monetarisiert keine KI-Modelle; stattdessen bietet es eine Standardschnittstelle fĂŒr KI (wo immer sie lĂ€uft), um auf Daten/Tools zuzugreifen. Man könnte sich vorstellen, MCP zu verwenden, um eine KI mit Diensten zu verbinden, die auf SingularityNET gelistet sind, aber SingularityNET selbst konzentriert sich auf die ökonomische Schicht (wer einen KI-Dienst bereitstellt und wie er bezahlt wird). Ein weiterer wichtiger Unterschied: Governance – SingularityNET hat eine On-Chain-Governance (ĂŒber SingularityNET Enhancement Proposals (SNEPs) und AGIX-Token-Abstimmung), um seine Plattform weiterzuentwickeln. Die Governance von MCP ist im Gegensatz dazu Off-Chain und kollaborativ ohne Token. Zusammenfassend streben SingularityNET und MCP beide ein offeneres KI-Ökosystem an, aber SingularityNET handelt von einem tokenisierten Netzwerk von KI-Algorithmen, wĂ€hrend MCP von einem Protokollstandard fĂŒr die KI-Tool-InteroperabilitĂ€t handelt. Sie könnten sich ergĂ€nzen: zum Beispiel könnte eine KI auf SingularityNET MCP verwenden, um externe Daten abzurufen, die sie benötigt. Aber SingularityNET versucht nicht, die Tool-Nutzung zu standardisieren; es verwendet Blockchain, um KI-Dienste zu koordinieren, wĂ€hrend MCP Softwarestandards verwendet, um KI mit jedem Dienst arbeiten zu lassen.
  • Fetch.ai (FET) – Agentenbasierte dezentrale Plattform: Fetch.ai ist ein weiteres Projekt, das KI und Blockchain miteinander verbindet. Es hat seine eigene Proof-of-Stake-Blockchain und ein Framework fĂŒr den Aufbau autonomer Agenten gestartet, die Aufgaben ausfĂŒhren und in einem dezentralen Netzwerk interagieren. In Fetchs Vision können Millionen von „Software-Agenten“ (die Menschen, GerĂ€te oder Organisationen reprĂ€sentieren) verhandeln und Werte austauschen, wobei FET-Token fĂŒr Transaktionen verwendet werden. Fetch.ai bietet ein Agenten-Framework (uAgents) und eine Infrastruktur fĂŒr die Entdeckung und Kommunikation zwischen Agenten auf seinem Ledger. Zum Beispiel könnte ein Fetch-Agent helfen, den Verkehr in einer Stadt zu optimieren, indem er mit anderen Agenten fĂŒr Parken und Transport interagiert, oder einen Lieferketten-Workflow autonom verwalten. Wie vergleicht sich das mit MCP? Beide befassen sich mit dem Konzept von Agenten, aber die Agenten von Fetch.ai sind stark an seine Blockchain und Token-Ökonomie gebunden – sie leben im Fetch-Netzwerk und verwenden On-Chain-Logik. MCP-Agenten (KI-Hosts) sind modellgesteuert (wie ein LLM) und nicht an ein einziges Netzwerk gebunden; MCP ist zufrieden damit, ĂŒber das Internet oder innerhalb einer Cloud-Einrichtung zu arbeiten, ohne eine Blockchain zu benötigen. Fetch.ai versucht, eine neue dezentrale KI-Wirtschaft von Grund auf aufzubauen (mit ihrem eigenen Ledger fĂŒr Vertrauen und Transaktionen), wĂ€hrend MCP schichtagnostisch ist – es nutzt bestehende Netzwerke (könnte ĂŒber HTTPS oder bei Bedarf sogar auf einer Blockchain verwendet werden), um KI-Interaktionen zu ermöglichen. Man könnte sagen, Fetch handelt eher von autonomen Wirtschaftsagenten und MCP von intelligenten Tool-nutzenden Agenten. Interessanterweise könnten sich diese ĂŒberschneiden: Ein autonomer Agent auf Fetch.ai könnte MCP verwenden, um mit Off-Chain-Ressourcen oder anderen Blockchains zu interagieren. Umgekehrt könnte man MCP verwenden, um Multi-Agenten-Systeme zu bauen, die verschiedene Blockchains (nicht nur eine) nutzen. In der Praxis hat MCP eine schnellere Akzeptanz erfahren, weil es kein eigenes Netzwerk benötigte – es funktioniert sofort mit Ethereum, Solana, Web2-APIs usw. Der Ansatz von Fetch.ai ist aufwendiger und schafft ein ganzes Ökosystem, dem die Teilnehmer beitreten (und Token erwerben) mĂŒssen, um es zu nutzen. Zusammenfassend: Fetch.ai vs. MCP: Fetch ist eine Plattform mit eigenem Token/Blockchain fĂŒr KI-Agenten, die sich auf InteroperabilitĂ€t und wirtschaftlichen Austausch zwischen Agenten konzentriert, wĂ€hrend MCP ein Protokoll ist, das KI-Agenten (in jeder Umgebung) verwenden können, um sich an Tools und Daten anzuschliessen. Ihre Ziele ĂŒberschneiden sich bei der Ermöglichung von KI-gesteuerter Automatisierung, aber sie behandeln verschiedene Schichten des Stacks und haben sehr unterschiedliche architektonische Philosophien (geschlossenes Ökosystem vs. offener Standard).
  • Chainlink und dezentrale Orakel – Blockchains mit Off-Chain-Daten verbinden: Chainlink ist kein KI-Projekt, aber es ist als Web3-Protokoll, das ein komplementĂ€res Problem löst, hochrelevant: wie Blockchains mit externen Daten und Berechnungen verbunden werden können. Chainlink ist ein dezentrales Netzwerk von Knoten (Orakeln), die Off-Chain-Daten abrufen, verifizieren und auf vertrauensminimierte Weise an Smart Contracts liefern. Zum Beispiel stellen Chainlink-Orakel Preis-Feeds fĂŒr DeFi-Protokolle bereit oder rufen externe APIs im Auftrag von Smart Contracts ĂŒber Chainlink Functions auf. Im Vergleich dazu verbindet MCP KI-Modelle mit externen Daten/Tools (von denen einige Blockchains sein könnten). Man könnte sagen, Chainlink bringt Daten in Blockchains, wĂ€hrend MCP Daten in KI bringt. Es gibt eine konzeptionelle Parallele: Beide stellen eine BrĂŒcke zwischen ansonsten isolierten Systemen her. Chainlink konzentriert sich auf ZuverlĂ€ssigkeit, Dezentralisierung und Sicherheit von On-Chain-Daten (Lösung des „Orakelproblems“ des Single Point of Failure). MCP konzentriert sich auf FlexibilitĂ€t und Standardisierung des Datenzugriffs fĂŒr KI (Lösung des „Integrationsproblems“ fĂŒr KI-Agenten). Sie operieren in verschiedenen DomĂ€nen (Smart Contracts vs. KI-Assistenten), aber man könnte MCP-Server mit Orakeln vergleichen: Ein MCP-Server fĂŒr Preisdaten könnte dieselben APIs aufrufen wie ein Chainlink-Knoten. Der Unterschied ist der Konsument – im Fall von MCP ist der Konsument eine KI oder ein benutzerorientierter Assistent, kein deterministischer Smart Contract. Auch bietet MCP nicht von Natur aus die Vertrauensgarantien, die Chainlink bietet (MCP-Server können zentralisiert oder von der Community betrieben werden, wobei das Vertrauen auf Anwendungsebene verwaltet wird). Wie jedoch bereits erwĂ€hnt, könnten Ideen zur Dezentralisierung von MCP-Netzwerken von Orakelnetzwerken ĂŒbernommen werden – z. B. könnten mehrere MCP-Server abgefragt und die Ergebnisse gegengeprĂŒft werden, um sicherzustellen, dass einer KI keine fehlerhaften Daten zugefĂŒhrt werden, Ă€hnlich wie mehrere Chainlink-Knoten einen Preis aggregieren. Kurz gesagt, Chainlink vs. MCP: Chainlink ist Web3-Middleware fĂŒr Blockchains zum Konsum externer Daten, MCP ist KI-Middleware fĂŒr Modelle zum Konsum externer Daten (die auch Blockchain-Daten umfassen könnten). Sie adressieren analoge BedĂŒrfnisse in verschiedenen Bereichen und könnten sich sogar ergĂ€nzen: Eine KI, die MCP verwendet, könnte einen von Chainlink bereitgestellten Daten-Feed als zuverlĂ€ssige Ressource abrufen, und umgekehrt könnte eine KI als Analysequelle dienen, die ein Chainlink-Orakel On-Chain bringt (obwohl dieses letztere Szenario Fragen der ÜberprĂŒfbarkeit aufwerfen wĂŒrde).
  • ChatGPT-Plugins / OpenAI-Funktionen vs. MCP – AnsĂ€tze zur KI-Tool-Integration: Obwohl es sich nicht um Web3-Projekte handelt, ist ein kurzer Vergleich angebracht, da ChatGPT-Plugins und die Funktionsaufruffunktion von OpenAI ebenfalls KI mit externen Tools verbinden. ChatGPT-Plugins verwenden eine von einem Dienst bereitgestellte OpenAPI-Spezifikation, und das Modell kann dann diese APIs gemĂ€ss der Spezifikation aufrufen. Die EinschrĂ€nkungen bestehen darin, dass es sich um ein geschlossenes Ökosystem handelt (von OpenAI genehmigte Plugins, die auf OpenAI-Servern laufen) und jedes Plugin eine isolierte Integration darstellt. OpenAIs neueres „Agents“-SDK ist konzeptionell nĂ€her an MCP, da es Entwicklern ermöglicht, Tools/Funktionen zu definieren, die eine KI verwenden kann, aber anfĂ€nglich war es spezifisch fĂŒr OpenAIs Ökosystem. LangChain bot ebenfalls ein Framework, um LLMs Tools im Code zur VerfĂŒgung zu stellen. MCP unterscheidet sich dadurch, dass es einen offenen, modellagnostischen Standard dafĂŒr bietet. Wie eine Analyse es formulierte, schuf LangChain einen entwicklerorientierten Standard (eine Python-Schnittstelle) fĂŒr Tools, wĂ€hrend MCP einen modellorientierten Standard schafft – ein KI-Agent kann jedes MCP-definierte Tool zur Laufzeit ohne benutzerdefinierten Code entdecken und verwenden. In der Praxis wuchs das MCP-Ökosystem von Servern innerhalb weniger Monate grösser und vielfĂ€ltiger als der ChatGPT-Plugin-Store. Und anstatt dass jedes Modell sein eigenes Plugin-Format hat (OpenAI hatte seines, andere hatten andere), konvergieren viele um MCP. OpenAI selbst signalisierte UnterstĂŒtzung fĂŒr MCP und passte im Wesentlichen seinen Funktionsansatz an den breiteren Standard an. Beim Vergleich von OpenAI-Plugins mit MCP: Plugins sind ein kuratierter, zentralisierter Ansatz, wĂ€hrend MCP ein dezentraler, gemeinschaftsgetriebener Ansatz ist. Im Web3-Denken ist MCP „Open Source und Permissionless“, wĂ€hrend proprietĂ€re Plugin-Ökosysteme geschlossener sind. Dies macht MCP analog zum Ethos von Web3, auch wenn es keine Blockchain ist – es ermöglicht InteroperabilitĂ€t und Benutzerkontrolle (man könnte seinen eigenen MCP-Server fĂŒr seine Daten betreiben, anstatt alles einem KI-Anbieter zu ĂŒberlassen). Dieser Vergleich zeigt, warum viele MCP ein grösseres langfristiges Potenzial zuschreiben: Es ist nicht an einen Anbieter oder ein Modell gebunden.
  • Projekt Namda und dezentrale Agenten-Frameworks: Namda verdient eine separate Anmerkung, da es MCP explizit mit Web3-Konzepten kombiniert. Wie bereits beschrieben, ist Namda (Networked Agent Modular Distributed Architecture) eine MIT/IBM-Initiative, die 2024 gestartet wurde, um ein skalierbares, verteiltes Netzwerk von KI-Agenten unter Verwendung von MCP als Kommunikationsschicht aufzubauen. Es behandelt MCP als Messaging-Backbone (da MCP Standard-JSON-RPC-Ă€hnliche Nachrichten verwendet, passte es gut fĂŒr die Inter-Agenten-Kommunikation) und fĂŒgt dann Schichten fĂŒr dynamische Entdeckung, Fehlertoleranz und ĂŒberprĂŒfbare IdentitĂ€ten unter Verwendung von Blockchain-inspirierten Techniken hinzu. Namdas Agenten können ĂŒberall sein (Cloud, Edge-GerĂ€te usw.), aber ein dezentrales Register (etwas wie ein DHT oder eine Blockchain) verfolgt sie und ihre FĂ€higkeiten auf manipulationssichere Weise. Sie erforschen sogar, Agenten Token zu geben, um Zusammenarbeit oder Ressourcenteilung zu incentivieren. Im Wesentlichen ist Namda ein Experiment, wie eine „Web3-Version von MCP“ aussehen könnte. Es ist noch kein weit verbreitetes Projekt, aber es ist eines der engsten „Àhnlichen Protokolle“ im Geiste. Wenn wir Namda vs. MCP betrachten: Namda verwendet MCP (es handelt sich also nicht um konkurrierende Standards), erweitert es aber um ein Protokoll fĂŒr die Vernetzung und Koordination mehrerer Agenten auf vertrauensminimierte Weise. Man könnte Namda mit Frameworks wie Autonolas oder Multi-Agent Systems (MAS) vergleichen, die die Krypto-Community gesehen hat, aber diesen fehlte oft eine leistungsstarke KI-Komponente oder ein gemeinsames Protokoll. Namda + MCP zusammen zeigen, wie ein dezentrales Agentennetzwerk funktionieren könnte, wobei Blockchain IdentitĂ€t, Reputation und möglicherweise Token-Anreize bereitstellt und MCP die Agentenkommunikation und Tool-Nutzung.

Zusammenfassend lĂ€sst sich sagen, dass MCP sich von den meisten frĂŒheren Web3-Projekten abhebt: Es begann ĂŒberhaupt nicht als Krypto-Projekt, ĂŒberschneidet sich aber schnell mit Web3, weil es komplementĂ€re Probleme löst. Projekte wie SingularityNET und Fetch.ai zielten darauf ab, KI-Berechnungen oder -Dienste mithilfe von Blockchain zu dezentralisieren; MCP standardisiert stattdessen die KI-Integration mit Diensten, was die Dezentralisierung durch Vermeidung von Plattform-Lock-in verbessern kann. Orakelnetzwerke wie Chainlink lösten die Datenlieferung an die Blockchain; MCP löst die Datenlieferung an die KI (einschliesslich Blockchain-Daten). Wenn die Kernideale von Web3 Dezentralisierung, InteroperabilitĂ€t und BenutzerermĂ€chtigung sind, greift MCP den Bereich der InteroperabilitĂ€t im KI-Bereich an. Es beeinflusst sogar diese Ă€lteren Projekte – zum Beispiel hindert nichts SingularityNET daran, seine KI-Dienste ĂŒber MCP-Server verfĂŒgbar zu machen, oder Fetch-Agenten daran, MCP zu verwenden, um mit externen Systemen zu kommunizieren. Wir könnten durchaus eine Konvergenz erleben, bei der tokengetriebene KI-Netzwerke MCP als ihre Lingua Franca verwenden, wodurch die Anreizstruktur von Web3 mit der FlexibilitĂ€t von MCP verbunden wird.

Schliesslich, wenn wir die Marktwahrnehmung betrachten: MCP wird oft als das angepriesen, was Web3 fĂŒr das Internet tun wollte – Silos aufbrechen und Benutzer befĂ€higen. Dies hat dazu gefĂŒhrt, dass MCP informell als „Web3 fĂŒr KI“ bezeichnet wird (auch wenn keine Blockchain beteiligt ist). Es ist jedoch wichtig zu erkennen, dass MCP ein Protokollstandard ist, wĂ€hrend die meisten Web3-Projekte Full-Stack-Plattformen mit ökonomischen Schichten sind. In Vergleichen erweist sich MCP in der Regel als eine leichtere, universellere Lösung, wĂ€hrend Blockchain-Projekte schwerere, spezialisierte Lösungen sind. Je nach Anwendungsfall können sie sich ergĂ€nzen, anstatt strikt zu konkurrieren. Wenn das Ökosystem reift, könnten wir sehen, dass MCP in viele Web3-Projekte als Modul integriert wird (Ă€hnlich wie HTTP oder JSON allgegenwĂ€rtig sind), anstatt als Konkurrenzprojekt.

8. Öffentliche Wahrnehmung, Marktakzeptanz und Medienberichterstattung​

Die öffentliche Stimmung gegenĂŒber MCP war sowohl in der KI- als auch in der Web3-Community ĂŒberwiegend positiv, oft grenzend an Begeisterung. Viele sehen es als einen Game-Changer, der leise ankam, aber dann die Branche im Sturm eroberte. Lassen Sie uns die Wahrnehmung, Akzeptanz und bemerkenswerte Mediennarrative aufschlĂŒsseln:

Marktakzeptanz und Adoptionsmetriken: Mitte 2025 erreichte MCP ein Mass an Akzeptanz, das fĂŒr ein neues Protokoll selten ist. Es wird von praktisch allen grossen KI-Modellanbietern (Anthropic, OpenAI, Google, Meta) unterstĂŒtzt und von grossen Technologieinfrastrukturen (Microsoft, GitHub, AWS usw.) getragen, wie bereits detailliert beschrieben. Dies allein signalisiert dem Markt, dass MCP wahrscheinlich Bestand haben wird (Ă€hnlich wie die breite UnterstĂŒtzung TCP/IP oder HTTP in den frĂŒhen Internettagen vorantrieb). Auf der Web3-Seite ist die Akzeptanz im Entwicklerverhalten offensichtlich: Hackathons begannen, MCP-Projekte zu prĂ€sentieren, und viele Blockchain-Entwicklertools erwĂ€hnen nun die MCP-Integration als Verkaufsargument. Die Statistik von â€žĂŒber 1000 Konnektoren in wenigen Monaten“ und Mike Kriegers Zitat von „Tausenden von Integrationen“ werden oft zitiert, um zu veranschaulichen, wie schnell MCP Anklang fand. Dies deutet auf starke Netzwerkeffekte hin – je mehr Tools ĂŒber MCP verfĂŒgbar sind, desto nĂŒtzlicher ist es, was zu weiterer Akzeptanz fĂŒhrt (eine positive RĂŒckkopplungsschleife). VCs und Analysten haben festgestellt, dass MCP in weniger als einem Jahr das erreicht hat, was frĂŒhere Versuche zur „KI-InteroperabilitĂ€t“ ĂŒber mehrere Jahre hinweg nicht geschafft haben, hauptsĂ€chlich aufgrund des Timings (auf der Welle des Interesses an KI-Agenten reitend) und der Open-Source-Natur. In den Web3-Medien wird die Akzeptanz manchmal anhand der Entwickler-Mindshare und der Integration in Projekte gemessen, und MCP erzielt hier nun hohe Werte.

Öffentliche Wahrnehmung in KI- und Web3-Communities: Anfangs blieb MCP bei seiner ersten AnkĂŒndigung (Ende 2024) unter dem Radar. Doch Anfang 2025, als Erfolgsgeschichten auftauchten, verlagerte sich die Wahrnehmung zu Begeisterung. KI-Praktiker sahen MCP als das „fehlende Puzzleteil“, um KI-Agenten ĂŒber Spielzeugbeispiele hinaus wirklich nĂŒtzlich zu machen. Web3-Entwickler hingegen sahen es als BrĂŒcke, um KI endlich in DApps zu integrieren, ohne die Dezentralisierung aufzugeben – eine KI kann beispielsweise On-Chain-Daten verwenden, ohne ein zentralisiertes Orakel zu benötigen. Vordenker haben Lobeshymnen gesungen: zum Beispiel schrieb Jesus Rodriguez (ein prominenter Web3-KI-Autor) in CoinDesk, dass MCP „eines der transformativsten Protokolle fĂŒr die KI-Ära und eine grossartige ErgĂ€nzung fĂŒr Web3-Architekturen“ sein könnte. Rares Crisan argumentierte in einem Notable Capital-Blog, dass MCP das Versprechen von Web3 einlösen könnte, wo Blockchain allein Schwierigkeiten hatte, indem es das Internet benutzerzentrierter und natĂŒrlicher in der Interaktion macht. Diese Narrative stellen MCP als revolutionĂ€r und doch praktisch dar – nicht nur als Hype.

Fairerweise ist nicht jeder Kommentar unkritisch. Einige KI-Entwickler in Foren wie Reddit haben darauf hingewiesen, dass MCP „nicht alles kann“ – es ist ein Kommunikationsprotokoll, kein sofort einsatzbereiter Agent oder eine Reasoning-Engine. Zum Beispiel argumentierte eine Reddit-Diskussion mit dem Titel „MCP is a Dead-End Trap“, dass MCP allein die Agentenkognition nicht verwaltet oder QualitĂ€t garantiert; es erfordert immer noch ein gutes Agentendesign und Sicherheitskontrollen. Diese Ansicht deutet darauf hin, dass MCP als Allheilmittel ĂŒberbewertet werden könnte. Diese Kritikpunkte zielen jedoch eher darauf ab, Erwartungen zu dĂ€mpfen, als die NĂŒtzlichkeit von MCP abzulehnen. Sie betonen, dass MCP die Tool-KonnektivitĂ€t löst, aber man immer noch eine robuste Agentenlogik aufbauen muss (d. h. MCP schafft nicht auf magische Weise einen intelligenten Agenten, es stattet ihn mit Tools aus). Der Konsens ist jedoch, dass MCP ein grosser Fortschritt ist, selbst unter vorsichtigen Stimmen. Der Community-Blog von Hugging Face stellte fest, dass MCP zwar keine Allzwecklösung ist, aber ein wichtiger Wegbereiter fĂŒr integrierte, kontextbewusste KI ist, und Entwickler sich aus diesem Grund darum versammeln.

Medienberichterstattung: MCP hat sowohl in den Mainstream-Tech-Medien als auch in Nischen-Blockchain-Medien erhebliche Berichterstattung erhalten:

  • TechCrunch hat mehrere Geschichten veröffentlicht. Sie berichteten ĂŒber das ursprĂŒngliche Konzept („Anthropic schlĂ€gt eine neue Methode vor, Daten mit KI-Chatbots zu verbinden“) um den Start im Jahr 2024. Im Jahr 2025 hob TechCrunch jeden grossen Adoptionsmoment hervor: die UnterstĂŒtzung von OpenAI, die Annahme durch Google, die Beteiligung von Microsoft/GitHub. Diese Artikel betonen oft die Brancheneinheit um MCP. Zum Beispiel zitierte TechCrunch Sam Altmans UnterstĂŒtzung und bemerkte den schnellen Wechsel von konkurrierenden Standards zu MCP. Dabei wurde MCP als der aufstrebende Standard dargestellt, Ă€hnlich wie niemand in den 90er Jahren von den Internetprotokollen ausgeschlossen werden wollte. Eine solche Berichterstattung in einem prominenten Medium signalisierte der breiteren Tech-Welt, dass MCP wichtig und real ist, nicht nur ein Rand-Open-Source-Projekt.
  • CoinDesk und andere Krypto-Publikationen griffen den Web3-Aspekt auf. Der Meinungsartikel von Rodriguez in CoinDesk (Juli 2025) wird oft zitiert; er zeichnete ein futuristisches Bild, in dem jede Blockchain ein MCP-Server sein könnte und neue MCP-Netzwerke auf Blockchains laufen könnten. Er verband MCP mit Konzepten wie dezentraler IdentitĂ€t, Authentifizierung und ÜberprĂŒfbarkeit – sprach die Sprache des Blockchain-Publikums und deutete an, dass MCP das Protokoll sein könnte, das KI wirklich mit dezentralen Frameworks verschmilzt. Cointelegraph, Bankless und andere haben MCP auch im Kontext von „KI-Agenten & DeFi“ und Ă€hnlichen Themen diskutiert, meist optimistisch ĂŒber die Möglichkeiten (z. B. hatte Bankless einen Artikel ĂŒber die Verwendung von MCP, um einer KI die Verwaltung von On-Chain-Trades zu ermöglichen, und enthielt eine Anleitung fĂŒr ihren eigenen MCP-Server).
  • Bemerkenswerte VC-Blogs / Analystenberichte: Der Blogbeitrag von Notable Capital (Juli 2025) ist ein Beispiel fĂŒr eine Venture-Analyse, die Parallelen zwischen MCP und der Entwicklung von Web-Protokollen zieht. Er argumentiert im Wesentlichen, dass MCP fĂŒr Web3 das tun könnte, was HTTP fĂŒr Web1 getan hat – eine neue Schnittstellenschicht (natĂŒrliche Sprachschnittstelle) bereitstellen, die die zugrunde liegende Infrastruktur nicht ersetzt, sondern sie nutzbar macht. Diese Art von Narrativ ist ĂŒberzeugend und wurde in Panels und Podcasts wiederholt. Es positioniert MCP nicht als Konkurrenz zur Blockchain, sondern als die nĂ€chste Abstraktionsschicht, die es normalen Benutzern (ĂŒber KI) endlich ermöglicht, Blockchain- und Webdienste einfach zu nutzen.
  • Entwickler-Community-Buzz: Ausserhalb formeller Artikel lĂ€sst sich der Aufstieg von MCP an seiner PrĂ€senz im Entwicklerdiskurs messen – KonferenzvortrĂ€ge, YouTube-KanĂ€le, Newsletter. Zum Beispiel gab es beliebte BlogbeitrĂ€ge wie „MCP: Das fehlende Glied fĂŒr Agenten-KI?“ auf Websites wie Runtime.news und Newsletter (z. B. einen des KI-Forschers Nathan Lambert), die praktische Experimente mit MCP und dessen Vergleich mit anderen Tool-Nutzungs-Frameworks diskutierten. Der allgemeine Ton ist Neugier und Begeisterung: Entwickler teilen Demos, wie sie KI mit ihrer Hausautomation oder Krypto-Wallet mit nur wenigen Zeilen Code ĂŒber MCP-Server verbinden, etwas, das vor nicht allzu langer Zeit nach Science-Fiction klang. Diese Basisbegeisterung ist wichtig, weil sie zeigt, dass MCP ĂŒber reine UnternehmensunterstĂŒtzung hinaus eine grosse Bedeutung hat.
  • Unternehmensperspektive: Medien und Analysten, die sich auf Unternehmens-KI konzentrieren, bemerken MCP ebenfalls als wichtige Entwicklung. Zum Beispiel berichtete The New Stack, wie Anthropic die UnterstĂŒtzung fĂŒr Remote-MCP-Server in Claude fĂŒr den Unternehmenseinsatz hinzufĂŒgte. Der Ansatz hier ist, dass Unternehmen MCP nutzen können, um ihre internen Wissensdatenbanken und Systeme sicher mit KI zu verbinden. Dies ist auch fĂŒr Web3 wichtig, da viele Blockchain-Unternehmen selbst Unternehmen sind und MCP intern nutzen können (zum Beispiel könnte eine Krypto-Börse MCP verwenden, um einer KI die Analyse interner Transaktionsprotokolle zur Betrugserkennung zu ermöglichen).

Bemerkenswerte Zitate und Reaktionen: Einige sind hervorzuheben, da sie die öffentliche Wahrnehmung zusammenfassen:

  • „Ähnlich wie HTTP die Webkommunikation revolutionierte, bietet MCP ein universelles Framework... das fragmentierte Integrationen durch ein einziges Protokoll ersetzt.“ – CoinDesk. Dieser Vergleich mit HTTP ist aussagekrĂ€ftig; er stellt MCP als Innovation auf Infrastrukturebene dar.
  • „MCP ist [zu einem] florierenden offenen Standard mit Tausenden von Integrationen und wachsend geworden. LLMs sind am nĂŒtzlichsten, wenn sie sich mit den Daten verbinden, die Sie bereits haben...“ – Mike Krieger (Anthropic). Dies ist eine offizielle BestĂ€tigung sowohl der Akzeptanz als auch des Kernnutzenversprechens, das in sozialen Medien weit verbreitet wurde.
  • „Das Versprechen von Web3... kann endlich... durch natĂŒrliche Sprache und KI-Agenten verwirklicht werden. ...MCP ist das NĂ€chste, was wir einem echten Web3 fĂŒr die Massen gesehen haben.“ – Notable Capital. Diese kĂŒhne Aussage findet Anklang bei denen, die von den langsamen UX-Verbesserungen im Krypto-Bereich frustriert sind; sie deutet darauf hin, dass KI den Code der Mainstream-Akzeptanz knacken könnte, indem sie die KomplexitĂ€t abstrahiert.

Herausforderungen und Skepsis: Obwohl die Begeisterung gross ist, haben die Medien auch Herausforderungen diskutiert:

  • Sicherheitsbedenken: Publikationen wie The New Stack oder Sicherheitsblogs haben darauf hingewiesen, dass das Zulassen der AusfĂŒhrung von Tools durch KI gefĂ€hrlich sein kann, wenn es nicht in einer Sandbox erfolgt. Was, wenn ein bösartiger MCP-Server versuchen wĂŒrde, eine KI zu einer schĂ€dlichen Aktion zu veranlassen? Der LimeChain-Blog warnt explizit vor „erheblichen Sicherheitsrisiken“ bei von der Community entwickelten MCP-Servern (z. B. muss ein Server, der private SchlĂŒssel verarbeitet, extrem sicher sein). Diese Bedenken wurden in Diskussionen wiederholt: Im Wesentlichen erweitert MCP die FĂ€higkeiten von KI, aber mit der Macht kommt das Risiko. Die Reaktion der Community (LeitfĂ€den, Authentifizierungsmechanismen) wurde ebenfalls behandelt und versichert im Allgemeinen, dass Abhilfemassnahmen entwickelt werden. Dennoch wĂŒrde jeder hochkarĂ€tige Missbrauch von MCP (z. B. eine unbeabsichtigte Krypto-Übertragung durch eine KI) die Wahrnehmung beeinflussen, daher sind die Medien in dieser Hinsicht wachsam.
  • Leistung und Kosten: Einige Analysten stellen fest, dass die Verwendung von KI-Agenten mit Tools langsamer oder kostspieliger sein könnte als der direkte Aufruf einer API (da die KI möglicherweise mehrere Hin- und Her-Schritte benötigt, um das zu bekommen, was sie braucht). In Hochfrequenzhandels- oder On-Chain-AusfĂŒhrungskontexten könnte diese Latenz problematisch sein. Vorerst werden diese als technische HĂŒrden angesehen, die optimiert werden mĂŒssen (durch besseres Agentendesign oder Streaming), und nicht als Deal-Breaker.
  • Hype-Management: Wie bei jeder Trendtechnologie gibt es ein gewisses Mass an Hype. Einige Stimmen warnen davor, MCP zur Lösung fĂŒr alles zu erklĂ€ren. Zum Beispiel fragt der Hugging Face-Artikel „Ist MCP ein Allheilmittel?“ und antwortet nein – Entwickler mĂŒssen immer noch das Kontextmanagement handhaben, und MCP funktioniert am besten in Kombination mit guten Prompting- und Speicherstrategien. Solche ausgewogenen Ansichten sind gesund im Diskurs.

Gesamte Medienstimmung: Das sich abzeichnende Narrativ ist weitgehend hoffnungsvoll und zukunftsorientiert:

  • MCP wird als praktisches Tool angesehen, das jetzt echte Verbesserungen liefert (also keine Vaporware), was die Medien durch die Nennung funktionierender Beispiele unterstreichen: Claude liest Dateien, Copilot verwendet MCP in VSCode, eine KI schliesst eine Solana-Transaktion in einer Demo ab usw.
  • Es wird auch als strategischer Dreh- und Angelpunkt fĂŒr die Zukunft von KI und Web3 dargestellt. Die Medien kommen oft zu dem Schluss, dass MCP oder Ähnliches fĂŒr „dezentrale KI“ oder „Web4“ oder welchen Begriff man auch immer fĂŒr das Web der nĂ€chsten Generation verwendet, unerlĂ€sslich sein wird. Es besteht das GefĂŒhl, dass MCP eine TĂŒr geöffnet hat und nun Innovationen hindurchfliessen – ob es sich um Namdas dezentrale Agenten oder Unternehmen handelt, die Altsysteme mit KI verbinden, viele zukĂŒnftige Geschichten gehen auf die EinfĂŒhrung von MCP zurĂŒck.

Auf dem Markt könnte man die Akzeptanz an der GrĂŒndung von Startups und der Finanzierung im MCP-Ökosystem messen. TatsĂ€chlich gibt es GerĂŒchte/Berichte ĂŒber Startups, die sich auf „MCP-MarktplĂ€tze“ oder verwaltete MCP-Plattformen konzentrieren und Finanzierungen erhalten (Notable Capital, das darĂŒber schreibt, deutet auf VC-Interesse hin). Wir können erwarten, dass die Medien diese tangential behandeln werden – z. B. „Startup X verwendet MCP, damit Ihre KI Ihr Krypto-Portfolio verwaltet – sammelt Y Millionen Dollar ein“.

Fazit zur Wahrnehmung: Ende 2025 geniesst MCP den Ruf einer bahnbrechenden, ermöglichenden Technologie. Es wird von einflussreichen Persönlichkeiten sowohl in der KI- als auch in der Krypto-Welt stark befĂŒrwortet. Die öffentliche ErzĂ€hlung hat sich von „hier ist ein nettes Tool“ zu „dies könnte grundlegend fĂŒr das nĂ€chste Web sein“ entwickelt. Gleichzeitig bestĂ€tigt die praktische Berichterstattung, dass es funktioniert und angenommen wird, was GlaubwĂŒrdigkeit verleiht. Vorausgesetzt, die Community geht weiterhin Herausforderungen an (Sicherheit, Governance in grossem Massstab) und es treten keine grösseren Katastrophen auf, wird das öffentliche Image von MCP wahrscheinlich positiv bleiben oder sogar ikonisch werden als „das Protokoll, das KI und Web3 dazu brachte, gut zusammenzuspielen“.

Die Medien werden wahrscheinlich ein genaues Auge auf Folgendes haben:

  • Erfolgsgeschichten (z. B. wenn eine grosse DAO einen KI-Schatzmeister ĂŒber MCP implementiert oder eine Regierung MCP fĂŒr offene Daten-KI-Systeme verwendet).
  • Jegliche SicherheitsvorfĂ€lle (zur Risikobewertung).
  • Die Entwicklung von MCP-Netzwerken und ob eine Token- oder Blockchain-Komponente offiziell ins Spiel kommt (was eine grosse Nachricht wĂ€re, die KI und Krypto noch enger miteinander verbindet).

Im Moment lĂ€sst sich die Berichterstattung jedoch mit einer Zeile von CoinDesk zusammenfassen: „Die Kombination von Web3 und MCP könnte eine neue Grundlage fĂŒr dezentrale KI sein.“ – ein GefĂŒhl, das sowohl das Versprechen als auch die Begeisterung um MCP in der Öffentlichkeit einfĂ€ngt.

Referenzen:

  • Anthropic News: "Introducing the Model Context Protocol," Nov 2024
  • LimeChain Blog: "What is MCP and How Does It Apply to Blockchains?" May 2025
  • Chainstack Blog: "MCP for Web3 Builders: Solana, EVM and Documentation," June 2025
  • CoinDesk Op-Ed: "The Protocol of Agents: Web3’s MCP Potential," Jul 2025
  • Notable Capital: "Why MCP Represents the Real Web3 Opportunity," Jul 2025
  • TechCrunch: "OpenAI adopts Anthropic’s standard
", Mar 26, 2025
  • TechCrunch: "Google to embrace Anthropic’s standard
", Apr 9, 2025
  • TechCrunch: "GitHub, Microsoft embrace
 (MCP steering committee)", May 19, 2025
  • Microsoft Dev Blog: "Official C# SDK for MCP," Apr 2025
  • Hugging Face Blog: "#14: What Is MCP, and Why Is Everyone Talking About It?" Mar 2025
  • Messari Research: "Fetch.ai Profile," 2023
  • Medium (Nu FinTimes): "Unveiling SingularityNET," Mar 2024

World Liberty Financial: Die Zukunft des Geldes, gestĂŒtzt durch USD1

· 11 Minuten Lesezeit
Dora Noda
Software Engineer

Überblick ĂŒber World Liberty Financial​

World Liberty Financial (WLFI) ist eine dezentrale Finanzplattform (DeFi), die von Mitgliedern der Trump-Familie und ihren Partnern ins Leben gerufen wurde. Laut der Website der Trump Organization zielt die Plattform darauf ab, traditionelles Banking und Blockchain-Technologie zu verbinden, indem sie die StabilitĂ€t der traditionellen Finanzwelt mit der Transparenz und ZugĂ€nglichkeit dezentraler Systeme kombiniert. Ihre Mission ist es, moderne Dienstleistungen fĂŒr Geldtransfers, Kreditvergabe und die Verwaltung digitaler Vermögenswerte anzubieten, wĂ€hrend sie gleichzeitig die Dollar-gestĂŒtzte StabilitĂ€t unterstĂŒtzt, Kapital fĂŒr Einzelpersonen und Institutionen zugĂ€nglich macht und DeFi fĂŒr Mainstream-Nutzer vereinfacht.

WLFI fĂŒhrte seinen Governance-Token ($WLFI) im September 2025 ein und stellte im MĂ€rz 2025 einen an den Dollar gekoppelten Stablecoin namens USD1 vor. Die Plattform beschreibt USD1 als einen „Zukunft des Geldes“-Stablecoin, der als Basispaar fĂŒr tokenisierte Vermögenswerte dienen und die Dominanz des US-Dollars in der digitalen Wirtschaft fördern soll. MitbegrĂŒnder Donald Trump Jr. hat WLFI als ein unpolitisches Unterfangen bezeichnet, das darauf abzielt, alltĂ€gliche Menschen zu stĂ€rken und die globale Rolle des US-Dollars zu festigen.

Geschichte und GrĂŒndung​

  • UrsprĂŒnge (2024–2025). WLFI wurde im September 2024 als Krypto-Unternehmen angekĂŒndigt, das von Mitgliedern der Trump-Familie gefĂŒhrt wird. Das Unternehmen fĂŒhrte seinen Governance-Token WLFIspašterimselbenJahrein.LautReutersbrachtederanfašnglicheWLFI spĂ€ter im selben Jahr ein. Laut Reuters brachte der anfĂ€ngliche WLFI-Token-Verkauf des Unternehmens nur etwa 2,7 Millionen US-Dollar ein, aber die VerkĂ€ufe stiegen nach Donald Trumps Wahlsieg 2024 stark an (Informationen, die in weit verbreiteten Berichten zitiert werden, obwohl sie in unseren Quellen nicht direkt verfĂŒgbar sind). WLFI befindet sich mehrheitlich im Besitz einer Trump-GeschĂ€ftseinheit und hat neun MitbegrĂŒnder, darunter Donald Trump Jr., Eric Trump und Barron Trump.
  • Management. Die Trump Organization beschreibt die FĂŒhrungspositionen von WLFI wie folgt: Donald Trump (Chief Crypto Advocate), Eric Trump und Donald Trump Jr. (Web3-Botschafter), Barron Trump (DeFi-VisionĂ€r) und Zach Witkoff (CEO und MitbegrĂŒnder). Die tĂ€glichen Operationen des Unternehmens werden von Zach Witkoff und Partnern wie Zachary Folkman und Chase Herro geleitet.
  • Stablecoin-Initiative. WLFI kĂŒndigte den USD1 Stablecoin im MĂ€rz 2025 an. USD1 wurde als ein an den Dollar gekoppelter Stablecoin beschrieben, der durch US-Staatsanleihen, US-Dollar-Einlagen und andere BargeldĂ€quivalente gedeckt ist. Die Reserven des Coins werden von der BitGo Trust Company verwahrt, einem regulierten Verwahrer digitaler Vermögenswerte. USD1 wurde auf Binances BNB Chain eingefĂŒhrt und spĂ€ter auf Ethereum, Solana und Tron erweitert.

USD1 Stablecoin: Design und Funktionen​

Reservemodell und StabilitĂ€tsmechanismus​

USD1 ist als ein fiat-gestĂŒtzter Stablecoin mit einem 1:1-Einlösemechanismus konzipiert. Jeder USD1-Token ist gegen einen US-Dollar einlösbar, und die Reserven des Stablecoins werden in kurzfristigen US-Staatsanleihen, Dollar-Einlagen und BargeldĂ€quivalenten gehalten. Diese Vermögenswerte werden von BitGo Trust verwahrt, einer regulierten Einheit, die fĂŒr die institutionelle Verwahrung digitaler Vermögenswerte bekannt ist. WLFI bewirbt, dass USD1 Folgendes bietet:

  1. VollstĂ€ndige Besicherung und Audits. Die Reserven sind vollstĂ€ndig besichert und unterliegen monatlichen BestĂ€tigungen durch Dritte, was Transparenz ĂŒber die Deckungsanlagen bietet. Im Mai 2025 stellte die Binance Academy fest, dass regelmĂ€ĂŸige ReserveaufschlĂŒsselungen noch nicht öffentlich verfĂŒgbar waren und WLFI Audits durch Dritte zugesagt hatte.
  2. Institutionelle Ausrichtung. WLFI positioniert USD1 als einen „institutionstauglichen“ Stablecoin, der auf Banken, Fonds und große Unternehmen abzielt, obwohl er auch fĂŒr Privatanwender zugĂ€nglich ist.
  3. Keine PrĂ€ge-/EinlösegebĂŒhren. USD1 erhebt Berichten zufolge keine GebĂŒhren fĂŒr das PrĂ€gen oder Einlösen, was die Reibungsverluste fĂŒr Nutzer, die große Mengen handhaben, reduziert.
  4. Cross-Chain-InteroperabilitĂ€t. Der Stablecoin verwendet das Cross-Chain Interoperability Protocol (CCIP) von Chainlink, um sichere Transfers ĂŒber Ethereum, BNB Chain und Tron zu ermöglichen. PlĂ€ne zur Erweiterung auf zusĂ€tzliche Blockchains wurden durch Partnerschaften mit Netzwerken wie Aptos und Tron bestĂ€tigt.

Marktentwicklung​

  • Rasch wachsend. Innerhalb eines Monats nach der EinfĂŒhrung erreichte die Marktkapitalisierung von USD1 etwa 2,1 Milliarden US-Dollar, angetrieben durch hochkarĂ€tige institutionelle GeschĂ€fte wie eine 2-Milliarden-Dollar-Investition des MGX-Fonds aus Abu Dhabi in Binance unter Verwendung von USD1. Anfang Oktober 2025 war das Angebot auf etwa 2,68 Milliarden US-Dollar angewachsen, wobei die meisten Token auf der BNB Chain (79 %) ausgegeben wurden, gefolgt von Ethereum, Solana und Tron.
  • Listung und Akzeptanz. Binance listete USD1 im Mai 2025 auf seinem Spotmarkt. WLFI preist eine weitreichende Integration ĂŒber DeFi-Protokolle und zentralisierte Börsen hinweg an. DeFi-Plattformen wie ListaDAO, Venus Protocol und Aster unterstĂŒtzen das Verleihen, Leihen und LiquiditĂ€tspools unter Verwendung von USD1. WLFI betont, dass Nutzer USD1 innerhalb von ein bis zwei Werktagen ĂŒber BitGo gegen US-Dollar einlösen können.

Institutionelle Nutzung und PlĂ€ne fĂŒr tokenisierte Vermögenswerte​

WLFI sieht USD1 als den standardmĂ€ĂŸigen Abwicklungsvermögenswert fĂŒr tokenisierte reale Vermögenswerte (RWAs). CEO Zach Witkoff hat erklĂ€rt, dass Rohstoffe wie Öl, Gas, Baumwolle und Holz On-Chain gehandelt werden sollten und dass WLFI aktiv daran arbeitet, diese Vermögenswerte zu tokenisieren und mit USD1 zu koppeln, da sie einen vertrauenswĂŒrdigen, transparenten Stablecoin erfordern. Er beschrieb USD1 als „den vertrauenswĂŒrdigsten und transparentesten Stablecoin auf der Erde“.

Produkte und Dienstleistungen​

Debitkarte und Einzelhandels-Apps​

Auf der TOKEN2049-Konferenz in Singapur kĂŒndigte Zach Witkoff an, dass WLFI eine Krypto-Debitkarte herausgeben wird, die es Nutzern ermöglicht, digitale Vermögenswerte im tĂ€glichen Zahlungsverkehr auszugeben. Das Unternehmen plante, im nĂ€chsten Quartal ein Pilotprogramm zu starten, wobei eine vollstĂ€ndige EinfĂŒhrung fĂŒr Q4 2025 oder Q1 2026 erwartet wird. CoinLaw fasste wichtige Details zusammen:

  • Die Karte wird Krypto-Guthaben mit VerbraucherkĂ€ufen verknĂŒpfen und soll in Dienste wie Apple Pay integriert werden.
  • WLFI entwickelt außerdem eine kundenorientierte Einzelhandels-App, die die Karte ergĂ€nzen soll.

Tokenisierung und Anlageprodukte​

Über Zahlungen hinaus zielt WLFI darauf ab, reale Rohstoffe zu tokenisieren. Witkoff sagte, sie wĂŒrden die Tokenisierung von Öl, Gas, Holz und Immobilien untersuchen, um Blockchain-basierte Handelsinstrumente zu schaffen. Der Governance-Token ($WLFI) von WLFI, der im September 2025 eingefĂŒhrt wurde, gewĂ€hrt Inhabern die Möglichkeit, ĂŒber bestimmte Unternehmensentscheidungen abzustimmen. Das Projekt hat auch strategische Partnerschaften geschlossen, darunter die Vereinbarung von ALT5 Sigma, 750 Millionen US-Dollar an WLFI-Token als Teil ihrer Treasury-Strategie zu erwerben.

Donald Trump Jr.s Perspektive​

MitbegrĂŒnder Donald Trump Jr. ist ein prominentes öffentliches Gesicht von WLFI. Seine Äußerungen bei Branchenveranstaltungen und Interviews offenbaren die Motivationen hinter dem Projekt und seine Ansichten zu traditionellen Finanzen, Regulierung und der Rolle des US-Dollars.

Kritik an traditionellen Finanzen​

  • „Kaputtes“ und undemokratisches System. WĂ€hrend eines Panels mit dem Titel World Liberty Financial: The Future of Money, Backed by USD1 auf der Token2049-Konferenz argumentierte Trump Jr., dass traditionelle Finanzen undemokratisch und „kaputt“ seien. Er erzĂ€hlte, dass, als seine Familie in die Politik eintrat, 300 ihrer Bankkonten ĂŒber Nacht aufgelöst wurden, was illustriert, wie Finanzinstitute Einzelpersonen aus politischen GrĂŒnden bestrafen können. Er sagte, die Familie sei von der Spitze der Finanz-„Pyramide“ an den Boden gerutscht, was zeige, dass das System Insider begĂŒnstigt und wie ein Schneeballsystem funktioniert.
  • Ineffizienz und mangelnder Wert. Er kritisierte die traditionelle Finanzindustrie dafĂŒr, in Ineffizienzen verstrickt zu sein, wo Menschen, die „siebenstellige BetrĂ€ge pro Jahr verdienen“, lediglich Papierkram verschieben, ohne echten Mehrwert zu schaffen.

BefĂŒrwortung von Stablecoins und dem Dollar​

  • Erhaltung der Dollar-Hegemonie. Trump Jr. behauptet, dass Stablecoins wie USD1 die Rolle ausfĂŒllen werden, die zuvor von LĂ€ndern gespielt wurde, die US-Staatsanleihen kauften. Er sagte der Business Times, dass Stablecoins eine „Dollar-Hegemonie“ schaffen könnten, die es den USA ermöglicht, global zu fĂŒhren und viele Orte sicher und stabil zu halten. Im GesprĂ€ch mit Cryptopolitan argumentierte er, dass Stablecoins tatsĂ€chlich die Dominanz des US-Dollars erhalten, weil die Nachfrage nach Dollar-gestĂŒtzten Token Staatsanleihen in einer Zeit unterstĂŒtzt, in der konventionelle KĂ€ufer (z. B. China und Japan) ihr Engagement reduzieren.
  • Zukunft der Finanzen und DeFi. Trump Jr. beschrieb WLFI als die Zukunft der Finanzen und betonte, dass Blockchain- und DeFi-Technologien den Zugang zu Kapital demokratisieren können. Bei einer von Panews abgedeckten ETH Denver-Veranstaltung argumentierte er, dass klare regulatorische Rahmenbedingungen erforderlich seien, um zu verhindern, dass Unternehmen Offshore abwandern, und um Investoren zu schĂŒtzen. Er forderte die USA auf, die globale Krypto-Innovation anzufĂŒhren, und kritisierte ĂŒbermĂ€ĂŸige Regulierung als wachstumshemmend.
  • Finanzielle Demokratisierung. Er glaubt, dass die Kombination von traditionellen und dezentralen Finanzen durch WLFI unterversorgten Bevölkerungsgruppen LiquiditĂ€t, Transparenz und StabilitĂ€t bieten wird. Er hebt auch das Potenzial der Blockchain hervor, Korruption zu eliminieren, indem Transaktionen transparent und On-Chain gemacht werden.
  • RatschlĂ€ge fĂŒr Neueinsteiger. Trump Jr. rĂ€t neuen Investoren, mit kleinen BetrĂ€gen zu beginnen, ĂŒbermĂ€ĂŸige Hebelwirkung zu vermeiden und sich kontinuierlich ĂŒber DeFi zu informieren.

Politische NeutralitĂ€t und Medienkritik​

Trump Jr. betont, dass WLFI „zu 100 % keine politische Organisation“ sei, trotz der tiefen Beteiligung der Trump-Familie. Er stellt das Unternehmen als eine Plattform dar, die Amerikanern und der Welt zugutekommt, und nicht als ein politisches Vehikel. WĂ€hrend des Token2049-Panels kritisierte er Mainstream-Medien und sagte, sie hĂ€tten sich selbst diskreditiert, und Zach Witkoff fragte das Publikum, ob sie The New York Times fĂŒr vertrauenswĂŒrdig hielten.

Partnerschaften und Ökosystem-Integration​

MGX–Binance-Investition​

Im Mai 2025 kĂŒndigte WLFI an, dass USD1 eine 2-Milliarden-Dollar-Investition des in Abu Dhabi ansĂ€ssigen MGX in die Krypto-Börse Binance ermöglichen wĂŒrde. Die AnkĂŒndigung unterstrich den wachsenden Einfluss von WLFI und wurde als Beweis fĂŒr die institutionelle AttraktivitĂ€t von USD1 angepriesen. US-Senatorin Elizabeth Warren kritisierte den Deal jedoch und nannte ihn „Korruption“, da die anhĂ€ngige Stablecoin-Gesetzgebung (der GENIUS Act) der Familie des PrĂ€sidenten zugutekommen könnte. Von Reuters zitierte CoinMarketCap-Daten zeigten, dass der Umlaufwert von USD1 zu diesem Zeitpunkt etwa 2,1 Milliarden US-Dollar erreichte.

Aptos-Partnerschaft​

Auf der TOKEN2049-Konferenz im Oktober 2025 kĂŒndigten WLFI und die Layer-1-Blockchain Aptos eine Partnerschaft an, um USD1 im Aptos-Netzwerk einzusetzen. Brave New Coin berichtet, dass WLFI Aptos aufgrund seines hohen Durchsatzes (Transaktionen werden in weniger als einer halben Sekunde abgewickelt) und GebĂŒhren von unter einem Hundertstel Cent ausgewĂ€hlt hat. Die Zusammenarbeit zielt darauf ab, dominante Stablecoin-Netzwerke herauszufordern, indem sie gĂŒnstigere, schnellere Schienen fĂŒr institutionelle Transaktionen bereitstellt. CryptoSlate merkt an, dass die Integration von USD1 Aptos zum fĂŒnften Netzwerk machen wird, das den Stablecoin prĂ€gt, mit sofortiger UnterstĂŒtzung von DeFi-Protokollen wie Echelon Market und Hyperion sowie Wallets und Börsen wie Petra, Backpack und OKX. WLFI-FĂŒhrungskrĂ€fte sehen die Expansion als Teil einer umfassenderen Strategie, die DeFi-Akzeptanz zu steigern und USD1 als Abwicklungsschicht fĂŒr tokenisierte Vermögenswerte zu positionieren.

Debitkarten- und Apple Pay-Integration​

Reuters und CoinLaw berichten, dass WLFI eine Krypto-Debitkarte einfĂŒhren wird, die Krypto-Vermögenswerte mit alltĂ€glichen Ausgaben verbindet. Witkoff sagte Reuters, dass das Unternehmen erwartet, innerhalb des nĂ€chsten Quartals ein Pilotprogramm zu starten, mit einer vollstĂ€ndigen EinfĂŒhrung bis Ende 2025 oder Anfang 2026. Die Karte wird in Apple Pay integriert, und WLFI wird eine Einzelhandels-App veröffentlichen, um Krypto-Zahlungen zu vereinfachen.

Kontroversen und Kritik​

Reservetransparenz. Die Binance Academy hob hervor, dass USD1 im Mai 2025 keine öffentlich verfĂŒgbaren ReserveaufschlĂŒsselungen aufwies. WLFI versprach Audits durch Dritte, aber das Fehlen detaillierter Offenlegungen gab Anlass zu Bedenken bei Investoren.

Politische Interessenkonflikte. Die engen Verbindungen von WLFI zur Trump-Familie haben zu genauerer PrĂŒfung gefĂŒhrt. Eine Reuters-Untersuchung berichtete, dass eine anonyme Wallet, die 2 Milliarden US-Dollar in USD1 hielt, kurz vor der MGX-Investition Gelder erhielt, und die EigentĂŒmer der Wallet nicht identifiziert werden konnten. Kritiker argumentieren, dass das Unternehmen der Trump-Familie ermöglichen könnte, finanziell von regulatorischen Entscheidungen zu profitieren. Senatorin Elizabeth Warren warnte, dass die vom Kongress in Betracht gezogene Stablecoin-Gesetzgebung es dem PrĂ€sidenten und seiner Familie erleichtern wĂŒrde, „sich die Taschen zu fĂŒllen“. Medien wie The New York Times und The New Yorker haben WLFI als eine Erosion der Grenze zwischen Privatunternehmen und öffentlicher Politik beschrieben.

Marktkonzentration und LiquiditÀtsbedenken. CoinLaw berichtete, dass mehr als die HÀlfte der USD1-LiquiditÀt im Juni 2025 von nur drei Wallets stammte. Eine solche Konzentration wirft Fragen nach der organischen Nachfrage nach USD1 und seiner WiderstandsfÀhigkeit in angespannten MÀrkten auf.

Regulatorische Unsicherheit. Trump Jr. selbst rĂ€umt ein, dass die US-Krypto-Regulierung unklar bleibt, und fordert umfassende Regeln, um zu verhindern, dass Unternehmen Offshore abwandern. Kritiker argumentieren, dass WLFI von deregulierenden Maßnahmen der Trump-Regierung profitiert, wĂ€hrend es gleichzeitig eine Politik mitgestaltet, die seine eigenen finanziellen Interessen begĂŒnstigen könnte.

Fazit​

World Liberty Financial positioniert sich als Pionier an der Schnittstelle von traditionellen Finanzen und dezentraler Technologie, wobei der USD1 Stablecoin als RĂŒckgrat fĂŒr Zahlungen, Tokenisierung und DeFi-Produkte dient. Die Betonung der Plattform auf institutionelle UnterstĂŒtzung, Cross-Chain-InteroperabilitĂ€t und gebĂŒhrenfreies PrĂ€gen unterscheidet USD1 von anderen Stablecoins. Partnerschaften mit Netzwerken wie Aptos und große Deals wie die MGX-Binance-Investition unterstreichen den Ehrgeiz von WLFI, eine globale Abwicklungsschicht fĂŒr tokenisierte Vermögenswerte zu werden.

Aus Donald Trump Jr.s Perspektive ist WLFI nicht nur ein kommerzielles Unternehmen, sondern eine Mission, die Finanzen zu demokratisieren, die Hegemonie des US-Dollars zu erhalten und das, was er als ein kaputtes und elitĂ€res traditionelles Finanzsystem ansieht, herauszufordern. Er befĂŒrwortet regulatorische Klarheit, kritisiert aber gleichzeitig ĂŒbermĂ€ĂŸige Aufsicht, was breitere Debatten innerhalb der Kryptoindustrie widerspiegelt. Die politischen Verbindungen von WLFI, undurchsichtige Offenlegungen der Reserven und die Konzentration der LiquiditĂ€t laden jedoch zu Skepsis ein. Der Erfolg des Unternehmens wird davon abhĂ€ngen, Innovation mit Transparenz in Einklang zu bringen und das komplexe Zusammenspiel zwischen privaten Interessen und öffentlicher Politik zu navigieren.

Gerichteter azyklischer Graph (DAG) in der Blockchain

· 47 Minuten Lesezeit
Dora Noda
Software Engineer

Was ist ein DAG und wie unterscheidet er sich von einer Blockchain?​

Ein Gerichteter azyklischer Graph (DAG) ist eine Art von Datenstruktur, die aus Scheitelpunkten (Knoten) besteht, die durch gerichtete Kanten verbunden sind, die niemals einen Zyklus bilden. Im Kontext von Distributed Ledgern organisiert ein DAG-basiertes Ledger Transaktionen oder Ereignisse in einem webartigen Graphen statt in einer einzigen sequenziellen Kette. Das bedeutet, dass im Gegensatz zu einer traditionellen Blockchain, bei der jeder neue Block nur einen VorgĂ€nger referenziert (wodurch eine lineare Kette entsteht), ein Knoten in einem DAG mehrere frĂŒhere Transaktionen oder Blöcke referenzieren kann. Infolgedessen können viele Transaktionen parallel bestĂ€tigt werden, anstatt streng nacheinander in chronologischen Blöcken.

Um den Unterschied zu verdeutlichen: Wenn eine Blockchain wie eine lange Kette von Blöcken aussieht (wobei jeder Block viele Transaktionen enthĂ€lt), Ă€hnelt ein DAG-basiertes Ledger eher einem Baum oder einem Netz einzelner Transaktionen. Jede neue Transaktion in einem DAG kann sich an eine oder mehrere frĂŒhere Transaktionen anhĂ€ngen (und diese dadurch validieren), anstatt darauf zu warten, in den nĂ€chsten einzelnen Block verpackt zu werden. Dieser strukturelle Unterschied fĂŒhrt zu mehreren wesentlichen Unterscheidungen:

  • Parallele Validierung: In Blockchains fĂŒgen Miner/Validierer jeweils einen Block zur Kette hinzu, sodass Transaktionen in Batches pro neuem Block bestĂ€tigt werden. In DAGs können mehrere Transaktionen (oder kleine „Blöcke“ von Transaktionen) gleichzeitig hinzugefĂŒgt werden, da jede an verschiedene Teile des Graphen angehĂ€ngt werden kann. Diese Parallelisierung bedeutet, dass DAG-Netzwerke nicht darauf warten mĂŒssen, dass eine einzelne lange Kette Block fĂŒr Block wĂ€chst.
  • Keine globale sequentielle Reihenfolge: Eine Blockchain erzeugt von Natur aus eine Gesamtreihenfolge von Transaktionen (jeder Block hat einen festen Platz in einer Sequenz). Ein DAG-Ledger hingegen bildet eine partielle Reihenfolge von Transaktionen. Es gibt keinen einzelnen „neuesten Block“, auf den alle Transaktionen warten; stattdessen können viele Spitzen des Graphen koexistieren und gleichzeitig erweitert werden. Konsensprotokolle sind dann erforderlich, um die Reihenfolge oder GĂŒltigkeit von Transaktionen im DAG letztendlich zu klĂ€ren oder zu vereinbaren.
  • TransaktionsbestĂ€tigung: In einer Blockchain werden Transaktionen bestĂ€tigt, wenn sie in einem geminten/validierten Block enthalten sind und dieser Block Teil der akzeptierten Kette wird (oft nachdem weitere Blöcke hinzugefĂŒgt wurden). In DAG-Systemen hilft eine neue Transaktion selbst, frĂŒhere Transaktionen zu bestĂ€tigen, indem sie diese referenziert. Zum Beispiel muss im IOTA Tangle (ein DAG) jede Transaktion zwei frĂŒhere Transaktionen genehmigen, wodurch Benutzer effektiv die Transaktionen des jeweils anderen gemeinsam validieren. Dies hebt die strikte Trennung zwischen „Transaktionserstellern“ und „Validierern“ auf, die beim Blockchain-Mining besteht – jeder Teilnehmer, der eine Transaktion ausgibt, leistet auch ein wenig Validierungsarbeit.

Wichtig ist, dass eine Blockchain tatsĂ€chlich ein Spezialfall eines DAG ist – ein DAG, der auf eine einzige Kette von Blöcken beschrĂ€nkt wurde. Beide sind Formen der Distributed-Ledger-Technologie (DLT) und teilen Ziele wie UnverĂ€nderlichkeit und Dezentralisierung. DAG-basierte Ledger sind jedoch „blocklos“ oder Multi-Parent in ihrer Struktur, was ihnen in der Praxis unterschiedliche Eigenschaften verleiht. Traditionelle Blockchains wie Bitcoin und Ethereum verwenden sequentielle Blöcke und verwerfen oft konkurrierende Blöcke (Forks), wĂ€hrend DAG-Ledger versuchen, alle Transaktionen zu integrieren und anzuordnen, ohne Konflikte zu verwerfen. Dieser grundlegende Unterschied legt den Grundstein fĂŒr die unten detaillierten Leistungs- und Designkontraste.

Technischer Vergleich: DAG- vs. Blockchain-Architektur​

Um DAGs und Blockchains besser zu verstehen, können wir ihre Architekturen und Validierungsprozesse vergleichen:

  • Datenstruktur: Blockchains speichern Daten in Blöcken, die in einer linearen Sequenz verknĂŒpft sind (jeder Block enthĂ€lt viele Transaktionen und verweist auf einen einzelnen vorherigen Block, wodurch eine lange Kette entsteht). DAG-Ledger verwenden eine Graphstruktur: Jeder Knoten im Graphen reprĂ€sentiert eine Transaktion oder einen Ereignisblock und kann auf mehrere vorherige Knoten verweisen. Dieser gerichtete Graph hat keine Zyklen, was bedeutet, dass man, wenn man den Links „rĂŒckwĂ€rts“ folgt, niemals zu einer Transaktion zurĂŒckkehren kann, von der man begonnen hat. Das Fehlen von Zyklen ermöglicht eine topologische Sortierung von Transaktionen (eine Möglichkeit, sie so zu sortieren, dass jede Referenz nach der referenzierten Transaktion kommt). Kurz gesagt: Blockchains = eindimensionale Kette, DAGs = mehrdimensionaler Graph.
  • Durchsatz und ParallelitĂ€t: Aufgrund der strukturellen Unterschiede handhaben Blockchains und DAGs den Durchsatz unterschiedlich. Eine Blockchain fĂŒgt selbst unter optimalen Bedingungen Blöcke einzeln hinzu (oft wartet sie darauf, dass jeder Block validiert und netzwerkweit verbreitet wird, bevor der nĂ€chste folgt). Dies begrenzt den Transaktionsdurchsatz von Natur aus – zum Beispiel erreicht Bitcoin durchschnittlich 5–7 Transaktionen pro Sekunde (TPS) und Ethereum ~15–30 TPS unter dem klassischen Proof-of-Work-Design. DAG-basierte Systeme hingegen ermöglichen es, dass viele neue Transaktionen/Blöcke gleichzeitig in das Ledger gelangen. Mehrere Transaktionszweige können gleichzeitig wachsen und sich spĂ€ter miteinander verbinden, wodurch der potenzielle Durchsatz dramatisch erhöht wird. Einige moderne DAG-Netzwerke beanspruchen einen Durchsatz von Tausenden von TPS, der die KapazitĂ€t traditioneller Zahlungsnetzwerke erreicht oder ĂŒbertrifft.
  • Transaktionsvalidierungsprozess: In Blockchain-Netzwerken warten Transaktionen in einem Mempool und werden validiert, wenn ein Miner oder Validierer sie in einen neuen Block packt, dann ĂŒberprĂŒfen andere Knoten diesen Block anhand der Historie. In DAG-Netzwerken ist die Validierung oft kontinuierlicher und dezentraler: Jede neue Transaktion fĂŒhrt eine Validierungsaktion durch, indem sie frĂŒhere Transaktionen referenziert (genehmigt). Zum Beispiel muss jede Transaktion im IOTA Tangle zwei frĂŒhere Transaktionen bestĂ€tigen, indem sie deren GĂŒltigkeit ĂŒberprĂŒft und einen kleinen Proof-of-Work durchfĂŒhrt, wodurch sie fĂŒr diese Transaktionen „stimmt“. Im Block-Lattice-DAG von Nano bilden die Transaktionen jedes Kontos eine eigene Kette und werden durch Abstimmungen von ReprĂ€sentantenknoten validiert (mehr dazu spĂ€ter). Der Nettoeffekt ist, dass DAGs die Validierungsarbeit verteilen: Anstatt dass ein einzelner Blockproduzent eine Reihe von Transaktionen validiert, validieren jeder Teilnehmer oder viele Validierer gleichzeitig verschiedene Transaktionen.
  • Konsensmechanismus: Sowohl Blockchains als auch DAGs benötigen eine Möglichkeit fĂŒr das Netzwerk, sich auf den Zustand des Ledgers zu einigen (welche Transaktionen bestĂ€tigt sind und in welcher Reihenfolge). In Blockchains kommt der Konsens oft von Proof of Work oder Proof of Stake, die den nĂ€chsten Block produzieren, und der Regel „lĂ€ngste (oder schwerste) Kette gewinnt“. In DAG-Ledgern kann der Konsens komplexer sein, da es keine einzelne Kette gibt. Verschiedene DAG-Projekte verwenden unterschiedliche AnsĂ€tze: Einige verwenden Gossip-Protokolle und virtuelles Voting (wie bei Hedera Hashgraph), um sich auf die Transaktionsreihenfolge zu einigen, andere verwenden Markov Chain Monte Carlo Tip Selection (IOTA’s frĂŒherer Ansatz) oder andere Abstimmungsschemata, um zu entscheiden, welche Zweige des Graphen bevorzugt werden. Spezifische Konsensmethoden in DAG-Systemen werden wir in einem spĂ€teren Abschnitt besprechen. Im Allgemeinen kann das Erreichen einer netzwerkweiten Einigung in einem DAG in Bezug auf den Durchsatz schneller sein, erfordert jedoch ein sorgfĂ€ltiges Design, um Konflikte (wie Double-Spend-Versuche) zu handhaben, da mehrere Transaktionen parallel existieren können, bevor eine endgĂŒltige Reihenfolge festgelegt wird.
  • Fork-Behandlung: In einer Blockchain fĂŒhrt ein „Fork“ (zwei Blöcke, die fast gleichzeitig gemint werden) dazu, dass ein Zweig schließlich gewinnt (lĂ€ngste Kette) und der andere verwaist (verworfen) wird, was die Arbeit am verwaisten Block verschwendet. In einem DAG ist die Philosophie, Forks als zusĂ€tzliche Zweige des Graphen zu akzeptieren, anstatt sie zu verschwenden. Der DAG wird beide Forks integrieren; der Konsensalgorithmus bestimmt dann, welche Transaktionen letztendlich bestĂ€tigt werden (oder wie widersprĂŒchliche Transaktionen gelöst werden), ohne einen ganzen Zweig zu verwerfen. Das bedeutet, dass keine Mining-Leistung oder Anstrengung fĂŒr veraltete Blöcke verschwendet wird, was zur Effizienz beitrĂ€gt. Zum Beispiel versucht Conflux’ Tree-Graph (ein PoW-DAG), alle Blöcke in das Ledger aufzunehmen und sie zu ordnen, anstatt sie zu verwaisten, wodurch 100 % der produzierten Blöcke genutzt werden.

Zusammenfassend lĂ€sst sich sagen, dass Blockchains eine einfachere, streng geordnete Struktur bieten, bei der die Validierung Block fĂŒr Block erfolgt, wĂ€hrend DAGs eine komplexere Graphstruktur bereitstellen, die eine asynchrone und parallele Transaktionsverarbeitung ermöglicht. DAG-basierte Ledger mĂŒssen zusĂ€tzliche Konsenslogik anwenden, um diese KomplexitĂ€t zu verwalten, versprechen aber einen deutlich höheren Durchsatz und Effizienz, indem sie die volle KapazitĂ€t des Netzwerks nutzen, anstatt eine Einzeldateiwarteschlange von Blöcken zu erzwingen.

Vorteile von DAG-basierten Blockchain-Systemen​

DAG-Architekturen wurden primĂ€r eingefĂŒhrt, um die EinschrĂ€nkungen traditioneller Blockchains in Bezug auf Skalierbarkeit, Geschwindigkeit und Kosten zu ĂŒberwinden. Hier sind die Hauptvorteile von DAG-basierten Distributed Ledgern:

  • Hohe Skalierbarkeit & Durchsatz: DAG-Netzwerke können einen hohen Transaktionsdurchsatz erreichen, da sie viele Transaktionen parallel verarbeiten. Da es keinen einzelnen Kettenengpass gibt, kann die TPS (Transaktionen pro Sekunde) mit der NetzwerkaktivitĂ€t skalieren. TatsĂ€chlich haben einige DAG-Protokolle einen Durchsatz in der GrĂ¶ĂŸenordnung von Tausenden von TPS demonstriert. Zum Beispiel hat Hedera Hashgraph die KapazitĂ€t, ĂŒber 10.000 Transaktionen pro Sekunde in der Basisschicht zu verarbeiten, was Bitcoin oder Ethereum weit ĂŒbertrifft. In der Praxis hat Hedera gezeigt, dass Transaktionen in etwa 3–5 Sekunden finalisiert werden, verglichen mit den Minuten oder lĂ€ngeren BestĂ€tigungszeiten auf PoW-Blockchains. Sogar DAG-basierte Smart-Contract-Plattformen wie Fantom haben unter normalen Lasten eine nahezu sofortige FinalitĂ€t (~1–2 Sekunden) fĂŒr Transaktionen erreicht. Diese Skalierbarkeit macht DAGs attraktiv fĂŒr Anwendungen, die ein hohes Volumen erfordern, wie IoT-Mikrotransaktionen oder Echtzeit-Datenströme.
  • Niedrige Transaktionskosten (gebĂŒhrenfrei oder minimale GebĂŒhren): Viele DAG-basierte Ledger rĂŒhmen sich mit vernachlĂ€ssigbaren GebĂŒhren oder sogar gebĂŒhrenfreien Transaktionen. Konstruktionsbedingt verlassen sie sich oft nicht auf Miner, die Blockbelohnungen oder GebĂŒhren erwarten; zum Beispiel gibt es bei IOTA und Nano keine obligatorischen TransaktionsgebĂŒhren – eine entscheidende Eigenschaft fĂŒr Mikrozahlungen im IoT und im tĂ€glichen Gebrauch. Wo GebĂŒhren existieren (z. B. Hedera oder Fantom), sind sie tendenziell sehr niedrig und vorhersehbar, da das Netzwerk die Last ohne Bieterkriege um begrenzten Blockplatz bewĂ€ltigen kann. Hedera-Transaktionen kosten etwa 0,0001 US-Dollar an GebĂŒhren (ein Zehntausendstel eines Dollars), ein winziger Bruchteil der typischen Blockchain-GebĂŒhren. Solch niedrige Kosten eröffnen AnwendungsfĂ€lle wie Hochfrequenztransaktionen oder winzige Zahlungen, die auf gebĂŒhrenintensiven Ketten undurchfĂŒhrbar wĂ€ren. Da DAGs alle gĂŒltigen Transaktionen einschließen, anstatt einige im Falle von Forks zu verwerfen, gibt es weniger „verschwendete“ Arbeit – was indirekt dazu beitrĂ€gt, die Kosten durch effiziente Ressourcennutzung niedrig zu halten.
  • Schnelle BestĂ€tigung und geringe Latenz: In DAG-Ledgern mĂŒssen Transaktionen nicht auf die Aufnahme in einen globalen Block warten, sodass die BestĂ€tigung schneller erfolgen kann. Viele DAG-Systeme erreichen eine schnelle FinalitĂ€t – den Zeitpunkt, an dem eine Transaktion als dauerhaft bestĂ€tigt gilt. Zum Beispiel finalisiert der Konsens von Hedera Hashgraph Transaktionen typischerweise innerhalb weniger Sekunden mit 100 %iger Sicherheit (aBFT-FinalitĂ€t). Nanos Netzwerk sieht Transaktionen oft in <1 Sekunde bestĂ€tigt, dank seines leichten Abstimmungsprozesses. Diese geringe Latenz verbessert die Benutzererfahrung, indem Transaktionen nahezu sofort erscheinen, was fĂŒr reale Zahlungen und interaktive Anwendungen wichtig ist.
  • Energieeffizienz: DAG-basierte Netzwerke erfordern oft nicht das intensive Proof-of-Work-Mining, das viele Blockchains verwenden, was sie weitaus energieeffizienter macht. Selbst im Vergleich zu Proof-of-Stake-Blockchains verbrauchen einige DAG-Netzwerke pro Transaktion nur minimale Energie. Zum Beispiel verbraucht eine einzelne Hedera Hashgraph-Transaktion in der GrĂ¶ĂŸenordnung von 0,0001 kWh (Kilowattstunde) Energie. Dies ist um mehrere GrĂ¶ĂŸenordnungen weniger als Bitcoin (das Hunderte von kWh pro Transaktion verbrauchen kann) oder sogar viele PoS-Ketten. Die Effizienz ergibt sich aus der Eliminierung verschwenderischer Berechnungen (kein Mining-Wettlauf) und dem Nicht-Verwerfen von Transaktionsversuchen. WĂŒrden Blockchain-Netzwerke universell auf DAG-basierte Modelle umgestellt, könnten die Energieeinsparungen monumental sein. Der CO2-Fußabdruck von DAG-Netzwerken wie Hedera ist so gering, dass sein gesamtes Netzwerk bei BerĂŒcksichtigung von Offsets CO2-negativ ist. Solche Energieeffizienz ist fĂŒr eine nachhaltige Web3-Infrastruktur zunehmend entscheidend.
  • Kein Mining & demokratisierte Validierung: In vielen DAG-Modellen gibt es keine ausgeprĂ€gte Miner-/Validiererrolle, die gewöhnliche Benutzer nicht ausfĂŒhren könnten. Zum Beispiel hilft jeder IOTA-Benutzer, der eine Transaktion ausgibt, auch bei der Validierung zweier anderer, wodurch die Validierungsarbeit im Wesentlichen an die RĂ€nder des Netzwerks dezentralisiert wird. Dies kann den Bedarf an leistungsstarker Mining-Hardware oder dem Staking großer Kapitalmengen zur Teilnahme am Konsens reduzieren und das Netzwerk potenziell zugĂ€nglicher machen. (Einige DAG-Netzwerke verwenden jedoch immer noch Validierer oder Koordinatoren – siehe die spĂ€tere Diskussion ĂŒber Konsens und Dezentralisierung.)
  • Reibungslose Handhabung von hohem Datenverkehr: Blockchains leiden oft unter Mempool-RĂŒckstĂ€nden und GebĂŒhrenspitzen bei hoher Last (da immer nur ein Block Transaktionen gleichzeitig abwickeln kann). DAG-Netzwerke bewĂ€ltigen aufgrund ihrer parallelen Natur Verkehrsspitzen im Allgemeinen eleganter. Wenn mehr Transaktionen das Netzwerk ĂŒberfluten, erzeugen sie einfach mehr parallele Zweige im DAG, die das System gleichzeitig verarbeiten kann. Es gibt weniger eine harte Obergrenze fĂŒr den Durchsatz (Skalierbarkeit ist eher „horizontal“). Dies fĂŒhrt zu einer besseren Skalierbarkeit unter Last, mit weniger Verzögerungen und nur geringfĂŒgigen Erhöhungen der BestĂ€tigungszeiten oder GebĂŒhren, bis zur KapazitĂ€t des Netzwerks und der Verarbeitungsleistung der Knoten. Im Wesentlichen kann ein DAG Transaktionsspitzen absorbieren, ohne so schnell zu verstopfen, was ihn fĂŒr AnwendungsfĂ€lle geeignet macht, die AktivitĂ€tsspitzen beinhalten (z. B. IoT-GerĂ€te, die alle gleichzeitig Daten senden, oder ein virales DApp-Ereignis).

Zusammenfassend versprechen DAG-basierte Ledger schnellere, gĂŒnstigere und skalierbarere Transaktionen als der klassische Blockchain-Ansatz. Sie zielen darauf ab, Massenadaptionsszenarien (Mikrozahlungen, IoT, Hochfrequenzhandel usw.) zu unterstĂŒtzen, mit denen aktuelle Mainstream-Blockchains aufgrund von Durchsatz- und KostenbeschrĂ€nkungen zu kĂ€mpfen haben. Diese Vorteile gehen jedoch mit bestimmten Kompromissen und Implementierungsherausforderungen einher, die wir in spĂ€teren Abschnitten behandeln werden.

Konsensmechanismen in DAG-basierten Plattformen​

Da DAG-Ledger von Natur aus keine einzelne Kette von Blöcken produzieren, erfordern sie innovative Konsensmechanismen, um Transaktionen zu validieren und sicherzustellen, dass sich alle auf den Ledger-Zustand einigen. Verschiedene Projekte haben unterschiedliche Lösungen entwickelt, die auf ihre DAG-Architektur zugeschnitten sind. Hier skizzieren wir einige bemerkenswerte KonsensansÀtze, die von DAG-basierten Plattformen verwendet werden:

  • IOTA’s Tangle – Tip Selection und gewichtetes Voting: IOTA’s Tangle ist ein DAG von Transaktionen, der fĂŒr das Internet der Dinge (IoT) entwickelt wurde. Im ursprĂŒnglichen IOTA-Modell gibt es keine Miner; stattdessen muss jede neue Transaktion einen kleinen Proof of Work durchfĂŒhren und zwei vorherige Transaktionen genehmigen (dies sind die „Spitzen“ des Graphen). Diese Tip Selection erfolgt oft ĂŒber einen Markov Chain Monte Carlo (MCMC)-Algorithmus, der probabilistisch auswĂ€hlt, welche Spitzen genehmigt werden sollen, wobei der schwerste Subtangle bevorzugt wird, um Fragmentierung zu verhindern. Der Konsens im frĂŒhen IOTA wurde teilweise durch dieses kumulative Gewicht der Genehmigungen erreicht – je mehr zukĂŒnftige Transaktionen Ihre indirekt genehmigen, desto „bestĂ€tigter“ wird sie. Um das Netzwerk in seinen AnfĂ€ngen zu sichern, verließ sich IOTA jedoch auf einen temporĂ€ren zentralisierten Koordinator-Knoten, der periodische Meilenstein-Transaktionen ausgab, um das Tangle zu finalisieren. Dies war ein großer Kritikpunkt (Zentralisierung) und wird im Upgrade namens „Coordicide“ (IOTA 2.0) entfernt. In IOTA 2.0 wendet ein neues Konsensmodell einen fĂŒhrerlosen Konsens im Nakamoto-Stil auf einem DAG an. Im Wesentlichen fĂŒhren Knoten On-Tangle-Voting durch: Wenn ein Knoten einen neuen Block anhĂ€ngt, stimmt dieser Block implizit ĂŒber die GĂŒltigkeit der von ihm referenzierten Transaktionen ab. Ein Komitee von Validiererknoten (ausgewĂ€hlt ĂŒber einen Staking-Mechanismus) gibt Validierungsblöcke als Stimmen ab, und eine Transaktion wird bestĂ€tigt, wenn sie genĂŒgend gewichtete Genehmigungen (ein Konzept namens Approval Weight) ansammelt. Dieser Ansatz kombiniert die Idee des schwersten DAG (Ă€hnlich der lĂ€ngsten Kette) mit expliziter Abstimmung, um Konsens ohne Koordinator zu erreichen. Kurz gesagt, IOTAs Konsens entwickelte sich von Tip Selection + Koordinator zu einem vollstĂ€ndig dezentralisierten Abstimmen ĂŒber DAG-Zweige durch Knoten, um Sicherheit und schnelle Einigung ĂŒber den Ledger-Zustand zu erreichen.
  • Hedera Hashgraph – Gossip und virtuelles Voting (aBFT): Hedera Hashgraph verwendet einen DAG von Ereignissen in Verbindung mit einem asynchronen Byzantine Fault-Toleranten (aBFT) Konsensalgorithmus. Die Kernidee ist „Gossip ĂŒber Gossip“: Jeder Knoten verbreitet schnell signierte Informationen ĂŒber Transaktionen und ĂŒber seine Gossip-Historie an andere Knoten. Dies erzeugt einen Hashgraph (den DAG von Ereignissen), in dem jeder Knoten schließlich weiß, was jeder andere Knoten verbreitet hat, einschließlich der Struktur, wer was wann gehört hat. Mit diesem DAG von Ereignissen implementiert Hedera virtuelles Voting. Anstatt tatsĂ€chliche Abstimmungsnachrichten zur Anordnung von Transaktionen zu senden, simulieren Knoten einen Abstimmungsalgorithmus lokal, indem sie den Graphen der Gossip-Verbindungen analysieren. Leemon Bairds Hashgraph-Algorithmus kann deterministisch berechnen, wie eine theoretische Abstimmungsrunde zur Transaktionsreihenfolge verlaufen wĂŒrde, indem er die im DAG aufgezeichnete „Gossip-Netzwerk“-Historie betrachtet. Dies liefert einen Konsens-Zeitstempel und eine Gesamtreihenfolge von Transaktionen, die fair und final ist (Transaktionen werden nach der mittleren Zeit geordnet, zu der sie vom Netzwerk empfangen wurden). Der Konsens von Hashgraph ist fĂŒhrerlos und erreicht aBFT, was bedeutet, dass er bis zu 1/3 bösartiger Knoten tolerieren kann, ohne den Konsens zu gefĂ€hrden. In der Praxis wird das Hedera-Netzwerk von einem Satz von 39 bekannten, von Organisationen betriebenen Knoten (dem Hedera Council) regiert, ist also permissioniert, aber geografisch verteilt. Der Vorteil ist ein extrem schneller und sicherer Konsens: Hedera kann FinalitĂ€t in Sekunden mit garantierter Konsistenz erreichen. Der Hashgraph-Konsensmechanismus ist patentiert, wurde aber ab 2024 quelloffen gemacht und zeigt, wie DAG + innovativer Konsens (Gossip & virtuelles Voting) ein traditionelles Blockchain-Protokoll ersetzen kann.
  • Fantom’s Lachesis – FĂŒhrerloses PoS aBFT: Fantom ist eine Smart-Contract-Plattform, die einen DAG-basierten Konsens namens Lachesis verwendet. Lachesis ist ein aBFT Proof-of-Stake-Protokoll, das von Hashgraph inspiriert ist. In Fantom setzt jeder Validiererknoten empfangene Transaktionen zu einem Ereignisblock zusammen und fĂŒgt ihn seinem eigenen lokalen DAG von Ereignissen hinzu. Diese Ereignisblöcke enthalten Transaktionen und Referenzen zu frĂŒheren Ereignissen. Validierer verbreiten diese Ereignisblöcke asynchron aneinander – es gibt keine einzelne Sequenz, in der Blöcke produziert oder vereinbart werden mĂŒssen. WĂ€hrend sich Ereignisblöcke verbreiten, identifizieren die Validierer periodisch bestimmte Ereignisse als Meilensteine (oder „Root-Ereignisblöcke“), sobald eine Supermehrheit der Knoten sie gesehen hat. Lachesis ordnet dann diese finalisierten Ereignisse und committet sie zu einer finalen Opera Chain (einer traditionellen Blockchain-Datenstruktur), die als Ledger der bestĂ€tigten Blöcke fungiert. Im Wesentlichen ermöglicht der DAG von Ereignisblöcken Fantom, Konsens asynchron und sehr schnell zu erreichen, dann ist das Endergebnis eine lineare Kette fĂŒr die KompatibilitĂ€t. Dies fĂŒhrt zu einer FinalitĂ€t von etwa 1–2 Sekunden fĂŒr Transaktionen auf Fantom. Lachesis hat keine Miner oder Leader, die Blöcke vorschlagen; alle Validierer tragen Ereignisblöcke bei, und das Protokoll ordnet sie deterministisch. Der Konsens wird durch ein Proof-of-Stake-Modell gesichert (Validierer mĂŒssen FTM-Token staken und werden nach Stake gewichtet). Lachesis ist auch aBFT und toleriert bis zu 1/3 fehlerhafte Knoten. Durch die Kombination von DAG-ParallelitĂ€t mit einer finalen Kettenausgabe erreicht Fantom einen hohen Durchsatz (mehrere Tausend TPS in Tests), wĂ€hrend es fĂŒr Smart Contracts EVM-kompatibel bleibt. Es ist ein gutes Beispiel dafĂŒr, wie ein DAG intern zur Leistungssteigerung eingesetzt werden kann, ohne die KomplexitĂ€t eines DAG auf die Anwendungsebene zu ĂŒbertragen (Entwickler sehen am Ende immer noch eine normale Kette von Transaktionen).
  • Nano’s Open Representative Voting (ORV): Nano ist eine Zahlung-KryptowĂ€hrung, die eine einzigartige DAG-Struktur namens Block-Lattice verwendet. In Nano hat jedes Konto seine eigene Blockchain (Account-Chain), die nur der Kontoinhaber aktualisieren kann. All diese einzelnen Ketten bilden einen DAG, da Transaktionen von verschiedenen Konten asynchron verknĂŒpft sind (ein Senden in einer Account-Chain referenziert einen Empfang in einer anderen usw.). Der Konsens in Nano wird ĂŒber einen Mechanismus namens Open Representative Voting (ORV) erreicht. Benutzer benennen einen ReprĂ€sentantenknoten fĂŒr ihr Konto (dies ist eine Gewichtsdelegation, keine Sperrung von Geldern), und diese ReprĂ€sentanten stimmen ĂŒber die GĂŒltigkeit von Transaktionen ab. Jede Transaktion wird einzeln abgewickelt (es gibt keine Blöcke, die mehrere Transaktionen bĂŒndeln) und gilt als bestĂ€tigt, wenn eine Supermehrheit (z. B. >67 %) des Stimmgewichts (von ReprĂ€sentanten) ihr zustimmt. Da ehrliche Kontoinhaber ihre eigenen Gelder nicht doppelt ausgeben werden, sind Forks selten und werden normalerweise nur durch böswillige Versuche verursacht, die ReprĂ€sentanten schnell ablehnen können. FinalitĂ€t wird typischerweise in weniger als einer Sekunde fĂŒr jede Transaktion erreicht. ORV Ă€hnelt Proof-of-Stake, da das Stimmgewicht auf KontostĂ€nden (Stake) basiert, aber es gibt keine Staking-Belohnung oder GebĂŒhr – ReprĂ€sentanten sind freiwillige Knoten. Das Fehlen von Mining und Blockproduktion bedeutet, dass Nano gebĂŒhrenfrei und effizient arbeiten kann. Es ist jedoch auf eine Reihe vertrauenswĂŒrdiger ReprĂ€sentanten angewiesen, die online sind, um abzustimmen, und es gibt eine implizite Zentralisierung, bei der Knoten ein großes Stimmgewicht ansammeln (obwohl Benutzer ReprĂ€sentanten jederzeit wechseln können, wodurch die Dezentralisierungskontrolle in den HĂ€nden der Benutzer bleibt). Nanos Konsens ist leichtgewichtig und auf Geschwindigkeit und Energieeffizienz optimiert, was mit seinem Ziel ĂŒbereinstimmt, ein schnelles, gebĂŒhrenfreies digitales Bargeld zu sein.
  • Weitere bemerkenswerte AnsĂ€tze: Es existieren mehrere andere DAG-basierte Konsensprotokolle. Hedera Hashgraph und Fantom Lachesis haben wir behandelt; darĂŒber hinaus:
    • Avalanche Consensus (Avalanche/X-Chain): Avalanche verwendet einen DAG-basierten Konsens, bei dem Validierer sich in einem randomisierten Prozess wiederholt gegenseitig abfragen, um zu entscheiden, welche Transaktionen oder Blöcke bevorzugt werden sollen. Die Avalanche X-Chain (Exchange Chain) ist ein DAG von Transaktionen (UTXOs) und erreicht Konsens ĂŒber diese Netzwerkerfassungsmethode. Das Avalanche-Protokoll ist probabilistisch, aber extrem schnell und skalierbar – es kann Transaktionen in ~1 Sekunde finalisieren und Berichten zufolge bis zu 4.500 TPS pro Subnetz verarbeiten. Der Ansatz von Avalanche ist einzigartig in der Kombination von DAG-Datenstrukturen mit einem metastabilen Konsens (Snowball-Protokoll) und wird durch Proof-of-Stake gesichert (jeder kann mit ausreichendem Stake ein Validierer sein).
    • Conflux Tree-Graph: Conflux ist eine Plattform, die Bitcoins PoW zu einem DAG von Blöcken erweitert hat. Sie verwendet eine Tree-Graph-Struktur, bei der Blöcke nicht nur einen Elternteil, sondern alle bekannten vorherigen Blöcke referenzieren (kein Verwaisten). Dies ermöglicht Conflux, Proof-of-Work-Mining zu verwenden, aber alle Forks als Teil des Ledgers zu behalten, was zu einem viel höheren Durchsatz als eine typische Kette fĂŒhrt. Conflux kann somit theoretisch in der GrĂ¶ĂŸenordnung von 3–6k TPS erreichen, indem es PoW verwendet und Miner kontinuierlich Blöcke produzieren lĂ€sst, ohne auf eine einzelne Kette zu warten. Sein Konsens ordnet dann diese Blöcke und löst Konflikte nach einer Regel des schwersten Unterbaums. Dies ist ein Beispiel fĂŒr einen hybriden PoW-DAG.
    • Hashgraph-Varianten und akademische Protokolle: Es gibt zahlreiche akademische DAG-Protokolle (einige in neueren Projekten implementiert): SPECTRE und PHANTOM (Block-DAG-Protokolle, die auf hohen Durchsatz und schnelle BestĂ€tigung abzielen, von DAGlabs), Aleph Zero (ein DAG-aBFT-Konsens, der in der Aleph Zero Blockchain verwendet wird), Parallel Chains / Prism (Forschungsprojekte, die die TransaktionsbestĂ€tigung in parallele Subketten und DAGs aufteilen) und neuere Entwicklungen wie Sui’s Narwhal & Bullshark, die einen DAG-Mempool fĂŒr hohen Durchsatz und einen separaten Konsens fĂŒr die FinalitĂ€t verwenden. Obwohl nicht alle davon großflĂ€chige Implementierungen haben, deuten sie auf ein reiches Forschungsfeld hin. Viele dieser Protokolle unterscheiden zwischen VerfĂŒgbarkeit (schnelles Schreiben vieler Daten in einen DAG) und Konsistenz (Einigung auf eine Historie) und versuchen, das Beste aus beiden zu erzielen.

Jede DAG-Plattform passt ihren Konsens an ihre BedĂŒrfnisse an – sei es gebĂŒhrenfreie Mikrotransaktionen, Smart-Contract-AusfĂŒhrung oder InteroperabilitĂ€t. Ein gemeinsames Thema ist jedoch die Vermeidung eines einzelnen seriellen Engpasses: DAG-Konsensmechanismen streben danach, viel gleichzeitige AktivitĂ€t zu ermöglichen und dann clevere Algorithmen (Gossip, Voting, Sampling usw.) zu verwenden, um die Dinge zu klĂ€ren, anstatt das Netzwerk auf einen einzelnen Blockproduzenten gleichzeitig zu beschrĂ€nken.

Fallstudien: Beispiele fĂŒr DAG-basierte Blockchain-Projekte​

Mehrere Projekte haben DAG-basierte Ledger implementiert, jedes mit einzigartigen Designentscheidungen und ZielanwendungsfÀllen. Im Folgenden untersuchen wir einige prominente DAG-basierte Plattformen:

  • IOTA (The Tangle): IOTA ist eine der ersten DAG-basierten KryptowĂ€hrungen, die fĂŒr das Internet der Dinge entwickelt wurde. Ihr Ledger, das Tangle genannt, ist ein DAG von Transaktionen, bei dem jede neue Transaktion zwei vorherige bestĂ€tigt. IOTAs Ziel ist es, gebĂŒhrenfreie Mikrotransaktionen zwischen IoT-GerĂ€ten zu ermöglichen (Zahlung kleiner BetrĂ€ge fĂŒr Daten oder Dienste). Es wurde 2016 gestartet, und um die Sicherheit zu gewĂ€hrleisten, verwendete es einen Koordinator-Knoten (betrieben von der IOTA Foundation), um Angriffe auf das frĂŒhe Netzwerk zu verhindern. IOTA arbeitet an „Coordicide“, um das Netzwerk vollstĂ€ndig zu dezentralisieren, indem ein Abstimmungskonsens (wie zuvor beschrieben) eingefĂŒhrt wird, bei dem Knoten ĂŒber widersprĂŒchliche Transaktionen unter Verwendung eines fĂŒhrerlosen Nakamoto-Konsenses auf dem schwersten DAG abstimmen. In Bezug auf die Leistung kann IOTA theoretisch einen sehr hohen Durchsatz erreichen (das Protokoll legt keine harte TPS-Grenze fest; mehr AktivitĂ€t hilft tatsĂ€chlich, Transaktionen schneller zu bestĂ€tigen). In der Praxis haben Testnetze Hunderte von TPS demonstriert, und das kommende IOTA 2.0 wird voraussichtlich gut fĂŒr die IoT-Nachfrage skalieren. AnwendungsfĂ€lle fĂŒr IOTA drehen sich um IoT und DatenintegritĂ€t: z. B. Sensor-Datenstreaming mit IntegritĂ€tsnachweisen, Fahrzeug-zu-Fahrzeug-Zahlungen, Lieferkettenverfolgung und sogar dezentrale IdentitĂ€t (das IOTA Identity Framework ermöglicht die Ausgabe und Verifizierung digitaler Anmeldeinformationen/DIDs im Tangle). IOTA unterstĂŒtzt nativ keine Smart Contracts auf seiner Basisschicht, aber das Projekt hat ein paralleles Smart-Contract-Framework und Token auf einer sekundĂ€ren Schicht eingefĂŒhrt, um komplexere DApp-FunktionalitĂ€t zu ermöglichen. Ein bemerkenswertes Merkmal von IOTA sind seine NullgebĂŒhren, die dadurch ermöglicht werden, dass der Absender einen kleinen PoW durchfĂŒhren muss, anstatt eine GebĂŒhr zu erheben – dies macht es attraktiv fĂŒr Transaktionen mit hohem Volumen und geringem Wert (z. B. ein Sensor, der alle paar Sekunden Daten zu vernachlĂ€ssigbaren Kosten sendet).
  • Hedera Hashgraph (HBAR): Hedera ist ein öffentliches Distributed Ledger, das den Hashgraph-Konsensalgorithmus (erfunden von Dr. Leemon Baird) verwendet. Hedera startete 2018 und wird von einem Rat großer Organisationen (Google, IBM, Boeing und andere) regiert, die die anfĂ€ngliche Reihe von Knoten betreiben. Im Gegensatz zu den meisten anderen ist Hedera in der Governance permissioniert (nur genehmigte Ratsmitglieder betreiben derzeit Konsensknoten, bis zu 39 Knoten), obwohl jeder das Netzwerk nutzen kann. Sein Hashgraph-DAG ermöglicht sehr hohen Durchsatz und schnelle FinalitĂ€t – Hedera kann unter optimalen Bedingungen ĂŒber 10.000 TPS mit FinalitĂ€t in 3-5 Sekunden verarbeiten. Dies wird mit dem zuvor beschriebenen aBFT-Gossip-basierten Konsens erreicht. Hedera betont Unternehmens- und Web3-AnwendungsfĂ€lle, die ZuverlĂ€ssigkeit in großem Maßstab erfordern: Sein Netzwerk bietet Dienste fĂŒr Tokenisierung (Hedera Token Service), einen Konsensdienst fĂŒr manipulationssichere Ereignisprotokollierung und einen Smart-Contract-Dienst (der EVM-kompatibel ist). Bemerkenswerte Anwendungen auf Hedera umfassen die Herkunftssicherung in Lieferketten (z. B. Avery Dennison’s Bekleidungsverfolgung), Hochvolumen-NFT-Minting (niedrige GebĂŒhren machen das Minting von NFTs kostengĂŒnstig), Zahlungen und Mikrozahlungen (wie Ad-Tech-Mikrozahlungen) und sogar dezentrale IdentitĂ€tslösungen. Hedera hat eine DID-Methode beim W3C registriert und Frameworks wie Hedera Guardian zur UnterstĂŒtzung ĂŒberprĂŒfbarer Anmeldeinformationen und zur Einhaltung gesetzlicher Vorschriften (z. B. Verfolgung von CO2-Gutschriften). Ein Hauptmerkmal ist Hederas starke Leistung in Kombination mit der behaupteten StabilitĂ€t (der Hashgraph-Algorithmus garantiert keine Forks und mathematisch bewiesene Fairness bei der Reihenfolge). Der Kompromiss besteht darin, dass Hedera weniger dezentral in der Knotenanzahl ist als offene Netzwerke (konstruktionsbedingt, mit seinem Governance-Modell), obwohl die Ratsknoten global verteilt sind und der Plan darin besteht, die Offenheit langfristig zu erhöhen. Zusammenfassend ist Hedera Hashgraph ein Paradebeispiel fĂŒr ein DAG-basiertes DLT, das auf Unternehmensanwendungen abzielt, mit Schwerpunkt auf hohem Durchsatz, Sicherheit und Governance.
  • Fantom (FTM): Fantom ist eine Smart-Contract-Plattform (Layer-1-Blockchain), die einen DAG-basierten Konsens namens Lachesis verwendet. Fantom wurde 2019 gestartet und gewann insbesondere im DeFi-Boom von 2021-2022 als Ethereum-kompatible Kette mit viel höherer Leistung an PopularitĂ€t. Fantoms Opera-Netzwerk betreibt den Lachesis-aBFT-Konsens (oben detailliert beschrieben), bei dem Validierer einen lokalen DAG von Ereignisblöcken fĂŒhren und asynchron Konsens erzielen, um dann Transaktionen in einer Hauptkette zu finalisieren. Dies verleiht Fantom eine typische Time-to-Finality von ~1 Sekunde fĂŒr Transaktionen und die FĂ€higkeit, Tausende von Transaktionen pro Sekunde im Durchsatz zu verarbeiten. Fantom ist EVM-kompatibel, was bedeutet, dass Entwickler Solidity-Smart Contracts bereitstellen und dieselben Tools wie Ethereum verwenden können, was seine Akzeptanz in DeFi erheblich förderte. TatsĂ€chlich wurde Fantom zur Heimat zahlreicher DeFi-Projekte (DEXs, Kreditprotokolle, Yield Farms), die von seiner Geschwindigkeit und niedrigen GebĂŒhren angezogen wurden. Es hostet auch NFT-Projekte und Gaming-DApps – im Wesentlichen jede Web3-Anwendung, die von schnellen, gĂŒnstigen Transaktionen profitiert. Ein bemerkenswerter Punkt ist, dass Fantom fĂŒr eine DAG-Plattform einen hohen Grad an Dezentralisierung erreicht hat: Es verfĂŒgt ĂŒber Dutzende unabhĂ€ngiger Validierer, die das Netzwerk sichern (permissionless, jeder kann einen Validierer mit dem Mindest-Stake betreiben), im Gegensatz zu einigen DAG-Netzwerken, die Validierer einschrĂ€nken. Dies positioniert Fantom als glaubwĂŒrdige Alternative zu traditionelleren Blockchains fĂŒr dezentrale Anwendungen, wobei die DAG-Technologie unter der Haube genutzt wird, um den Leistungsengpass zu ĂŒberwinden. Der FTM-Token des Netzwerks wird fĂŒr Staking, Governance und GebĂŒhren verwendet (die nur wenige Cent pro Transaktion betragen, viel niedriger als Ethereum-GasgebĂŒhren). Fantom demonstrierte, dass DAG-basierter Konsens mit Smart-Contract-Plattformen integriert werden kann, um sowohl Geschwindigkeit als auch KompatibilitĂ€t zu erreichen.
  • Nano (XNO): Nano ist eine leichte KryptowĂ€hrung, die 2015 (ursprĂŒnglich als RaiBlocks) eingefĂŒhrt wurde und eine DAG-Block-Lattice-Struktur verwendet. Nanos Hauptaugenmerk liegt auf Peer-to-Peer-Digitalgeld: sofortige, gebĂŒhrenfreie Transaktionen mit minimalem Ressourcenverbrauch. In Nano hat jedes Konto seine eigene Transaktionskette, und Übertragungen zwischen Konten werden ĂŒber einen Sendeblock in der Kette des Senders und einen Empfangsblock in der Kette des EmpfĂ€ngers abgewickelt. Dieses asynchrone Design bedeutet, dass das Netzwerk Transaktionen unabhĂ€ngig und parallel verarbeiten kann. Der Konsens wird durch Open Representative Voting (ORV) erreicht, bei dem die Community ReprĂ€sentantenknoten durch Delegation des Bilanzgewichts ernennt. ReprĂ€sentanten stimmen ĂŒber widersprĂŒchliche Transaktionen ab (die selten sind, normalerweise nur bei Double-Spend-Versuchen), und sobald ein Quorum (67 % Gewicht) zustimmt, wird die Transaktion zementiert (unumkehrbar bestĂ€tigt). Nanos typische BestĂ€tigungszeiten liegen weit unter einer Sekunde, wodurch es sich im tĂ€glichen Gebrauch sofort anfĂŒhlt. Da es keine Mining-Belohnungen oder GebĂŒhren gibt, ist der Betrieb eines Nano-Knotens oder ReprĂ€sentanten eine freiwillige Anstrengung, aber das Design des Netzwerks minimiert die Last (jede Transaktion ist nur 200 Byte groß und kann schnell verarbeitet werden). Nanos DAG-Ansatz und Konsens ermöglichen es, extrem energieeffizient zu sein – es wird ein winziger PoW von den Sendern durchgefĂŒhrt (hauptsĂ€chlich als Anti-Spam-Maßnahme), aber er ist trivial im Vergleich zu PoW-Blockchains. Die AnwendungsfĂ€lle fĂŒr Nano sind konstruktionsbedingt einfach: Es ist fĂŒr WĂ€hrungstransfers gedacht, von alltĂ€glichen EinkĂ€ufen bis hin zu Überweisungen, bei denen Geschwindigkeit und NullgebĂŒhren die Verkaufsargumente sind. Nano unterstĂŒtzt keine Smart Contracts oder komplexe Skripte; es konzentriert sich darauf, eine Sache sehr gut zu machen. Eine Herausforderung fĂŒr Nanos Modell ist, dass es auf der ehrlichen Mehrheit der ReprĂ€sentanten beruht; da es keine monetĂ€ren Anreize gibt, basiert das Sicherheitsmodell auf der Annahme, dass große Token-Inhaber im besten Interesse des Netzwerks handeln werden. Bisher hat Nano einen ziemlich dezentralen Satz von HauptreprĂ€sentanten beibehalten und wurde bei HĂ€ndlerzahlungen, Trinkgeldern und anderen Mikrozahlungsszenarien online eingesetzt.
  • Hedera vs. IOTA vs. Fantom vs. Nano (Auf einen Blick): Die folgende Tabelle fasst einige Hauptmerkmale dieser DAG-basierten Projekte zusammen:
Projekt (Jahr)Datenstruktur & KonsensLeistung (Durchsatz & FinalitÀt)Bemerkenswerte Funktionen / AnwendungsfÀlle
IOTA (2016)DAG von Transaktionen („Tangle“); jede Transaktion genehmigt 2 andere. UrsprĂŒnglich koordinatorgesichert; Umstellung auf dezentralen fĂŒhrerlosen Konsens (Abstimmung ĂŒber schwersten DAG, keine Miner).Theoretisch hoher TPS (skaliert mit AktivitĂ€t); ~10s BestĂ€tigung in aktivem Netzwerk (schneller bei zunehmender Last). Laufende Forschung zur Verbesserung der FinalitĂ€t. GebĂŒhrenfreie Transaktionen.IoT-Mikrozahlungen und DatenintegritĂ€t (gebĂŒhrenfreie Mikrotransaktionen), Lieferkette, Sensordaten, Auto, dezentrale IdentitĂ€t (IOTA Identity DID-Methode). Keine Smart Contracts auf Basisschicht (separate Schichten dafĂŒr).
Hedera Hashgraph (2018)DAG von Ereignissen (Hashgraph); Gossip-ĂŒber-Gossip + virtuelles Voting Konsens (aBFT), betrieben von ~29–39 Ratsknoten (PoS gewichtet). Keine Miner; Zeitstempel zur Anordnung.~10.000 TPS max; FinalitĂ€t 3-5 Sekunden fĂŒr Transaktionen. Extrem niedriger Energieverbrauch pro Transaktion (~0,0001 kWh). Sehr niedrige feste GebĂŒhren (~0,0001 US-Dollar pro Übertragung).Unternehmens- und Web3-Anwendungen: Tokenisierung (HTS), NFTs und Content-Dienste, Zahlungen, Lieferkettenverfolgung, Gesundheitsdaten, Gaming usw. Rats-Governance durch große Unternehmen; Netzwerk ist EVM-kompatibel fĂŒr Smart Contracts (Solidity). Fokus auf hohen Durchsatz und Sicherheit fĂŒr Unternehmen.
Fantom (FTM) (2019)DAG von Validierer-Ereignisblöcken; Lachesis aBFT PoS-Konsens (fĂŒhrerlos). Jeder Validierer erstellt DAG von Ereignissen, die bestĂ€tigt und zu einer finalen Blockchain (Opera Chain) zusammengefĂŒgt werden.Empirisch einige Hundert TPS im DeFi-Einsatz; typisch 1-2 Sekunden FinalitĂ€t. In Benchmarks Tausende von TPS möglich. Niedrige GebĂŒhren (Bruchteile eines Cents).DeFi und Smart Contracts auf einer Hochgeschwindigkeits-L1. EVM-kompatibel (fĂŒhrt Solidity DApps aus). UnterstĂŒtzt DEXs, Lending, NFT-MarktplĂ€tze (schneller Handel, gĂŒnstiges Minting). DAG-Konsens hinter einer entwicklerfreundlichen Blockchain-OberflĂ€che verborgen. Staking fĂŒr jedermann verfĂŒgbar (dezentraler Validierer-Satz).
Nano (XNO) (2015)DAG von Account-Chains (Block-Lattice); jede Transaktion ist ein eigener Block. Open Representative Voting fĂŒr Konsens (dPoS-Ă€hnliches Voting bei Konflikten). Kein Mining, keine GebĂŒhren.~Hunderte von TPS machbar (hauptsĂ€chlich durch Netzwerk-I/O begrenzt). <1s BestĂ€tigung fĂŒr typische Transaktionen. Keine GebĂŒhren ĂŒberhaupt (gebĂŒhrenfrei). Extrem geringer Ressourcenverbrauch (effizient fĂŒr IoT/Mobil).Digitales Geld fĂŒr Sofortzahlungen. Ideal fĂŒr Mikrozahlungen, Trinkgelder, Einzelhandelstransaktionen, wo GebĂŒhren und Latenz minimal sein mĂŒssen. Nicht fĂŒr Smart Contracts konzipiert – konzentriert sich auf einfache Übertragungen. Sehr geringer Stromverbrauch (grĂŒne KryptowĂ€hrung). Von der Community betriebene ReprĂ€sentanten (keine zentrale AutoritĂ€t).

(Tabelle: Vergleich ausgewÀhlter DAG-basierter Ledger-Projekte und ihrer Merkmale. TPS = Transaktionen pro Sekunde.)

Andere DAG-basierte Projekte, die oben nicht detailliert wurden, umfassen Obyte (Byteball) – ein DAG-Ledger fĂŒr bedingte Zahlungen und Datenspeicherung, IoT Chain (ITC) – ein IoT-fokussiertes DAG-Projekt, Avalanche – das wir als DAG-Nutzung in seinem Konsens besprochen haben und zu einer wichtigen DeFi-Plattform geworden ist, Conflux – ein Hochdurchsatz-PoW-DAG in China, und akademische Prototypen wie SPECTRE/PHANTOM. Jedes erforscht den Designraum von DAG-Ledgern auf unterschiedliche Weise, aber die vier oben genannten Beispiele (IOTA, Hedera, Fantom, Nano) veranschaulichen die Vielfalt: von gebĂŒhrenfreien IoT-Transaktionen ĂŒber Unternehmensnetzwerke bis hin zu DeFi-Smart-Contract-Ketten, die alle DAG-Strukturen nutzen.

AnwendungsfĂ€lle der DAG-Technologie im Web3-Ökosystem​

DAG-basierte Blockchain-Systeme erschließen bestimmte AnwendungsfĂ€lle besonders gut, dank ihrer hohen Leistung und einzigartigen Eigenschaften. Hier sind einige aktuelle und potenzielle AnwendungsfĂ€lle, in denen DAGs im Web3 Wirkung zeigen:

  • Internet der Dinge (IoT): IoT umfasst Millionen von GerĂ€ten, die Daten ĂŒbertragen und potenziell miteinander Transaktionen durchfĂŒhren (Maschine-zu-Maschine-Zahlungen). DAG-Ledger wie IOTA wurden explizit fĂŒr dieses Szenario entwickelt. Mit gebĂŒhrenfreien Mikrotransaktionen und der FĂ€higkeit, hohe Frequenzen kleiner Zahlungen zu verarbeiten, kann ein DAG-Ledger IoT-GerĂ€ten ermöglichen, Dienste oder Bandbreite spontan zu bezahlen. Zum Beispiel könnte ein intelligentes Elektroauto automatisch eine Ladestation ein paar Cent Strom bezahlen, oder Sensoren könnten Daten in Echtzeit an eine Plattform verkaufen. IOTAs Tangle wurde in Smart-City-Pilotprojekten, IoT-Integrationen in Lieferketten (Verfolgung von GĂŒtern und Umweltbedingungen) und dezentralen DatenmarktplĂ€tzen eingesetzt, wo Sensordaten unverĂ€nderlich protokolliert und gehandelt werden. Die Skalierbarkeit von DAGs bewĂ€ltigt das enorme Volumen, das weit verbreitete IoT-Netzwerke erzeugen, und ihre geringen Kosten passen zur Ökonomie von Mikrozahlungen.
  • Dezentrale Finanzen (DeFi): DeFi-Anwendungen wie dezentrale Börsen (DEXs), Kreditplattformen und Zahlungsnetzwerke profitieren von hohem Durchsatz und geringer Latenz. DAG-basierte Smart-Contract-Plattformen (z. B. Fantom und in gewissem Maße Avalanches X-Chain fĂŒr einfache VermögensĂŒbertragungen) bieten den Vorteil, dass Trades schneller abgewickelt werden können und die GebĂŒhren auch bei hoher Nachfrage niedrig bleiben. Im Jahr 2021 erlebte Fantom einen Anstieg der DeFi-AktivitĂ€ten (Yield Farming, Automated Market Maker usw.) und konnte diese mit viel geringerer Überlastung als Ethereum zu dieser Zeit bewĂ€ltigen. DarĂŒber hinaus reduziert die schnelle FinalitĂ€t von DAG-Netzwerken das Risiko von Unsicherheiten bei der HandelsausfĂŒhrung (auf langsamen Ketten warten Benutzer viele Blöcke auf FinalitĂ€t, was bei schnelllebigen HandelsgeschĂ€ften Risiken bergen kann). Ein weiterer Aspekt sind dezentrale Zahlungsnetzwerke – Nano zum Beispiel kann als Teil des DeFi-Spektrums angesehen werden, das Peer-to-Peer-Übertragungen ermöglicht und potenziell eine Mikrozahlungsschiene fĂŒr Layer-2 anderer Systeme sein kann. Die Leistung von DAG könnte auch den Hochfrequenzhandel oder komplexe mehrstufige DeFi-Transaktionen reibungsloser unterstĂŒtzen.
  • Non-Fungible Tokens (NFTs) und Gaming: Der NFT-Boom hat den Bedarf an kostengĂŒnstigem Minting und Übertragungen deutlich gemacht. Auf Ethereum wurde das Minting von NFTs teuer, als die GasgebĂŒhren in die Höhe schnellten. DAG-Netzwerke wie Hedera und Fantom wurden als Alternativen vorgeschlagen, bei denen das Minting eines NFT einen winzigen Bruchteil eines Cents kostet, was sie fĂŒr In-Game-Assets, SammlerstĂŒcke oder groß angelegte Drops praktikabel macht. Hederas Token Service ermöglicht die native Ausgabe von Token und NFTs mit den niedrigen, vorhersehbaren GebĂŒhren des Netzwerks und wurde von Content-Plattformen und sogar Unternehmen (z. B. MusikkĂŒnstlern, die Token ausgeben, oder UniversitĂ€ten, die AbschlĂŒsse verfolgen) verwendet. Im Gaming, wo Mikrotransaktionen ĂŒblich sind, könnte ein schnelles DAG-Ledger hĂ€ufige Asset-Trades oder Belohnungsverteilungen abwickeln, ohne das Spiel zu verlangsamen oder Spieler durch GebĂŒhren zu ruinieren. Der hohe Durchsatz stellt sicher, dass selbst wenn ein beliebtes Spiel oder eine NFT-Sammlung Millionen von Benutzern anzieht, das Netzwerk die Last bewĂ€ltigen kann (wĂ€hrend wir in der Vergangenheit gesehen haben, wie Spiele auf Ethereum das Netzwerk verstopften). Zum Beispiel kann ein NFT-basiertes Spiel auf Fantom den Zustand schnell genug aktualisieren, um eine nahezu Echtzeit-ReaktionsfĂ€higkeit zu bieten.
  • Dezentrale IdentitĂ€t (DID) und Anmeldeinformationen: IdentitĂ€tssysteme profitieren von einem unverĂ€nderlichen Ledger, um IdentitĂ€ten, Anmeldeinformationen und BestĂ€tigungen zu verankern. DAG-Netzwerke werden dafĂŒr erforscht, weil sie Skalierbarkeit fĂŒr potenziell Milliarden von IdentitĂ€tstransaktionen (jeder Login, jede Zertifikatsausstellung usw.) und geringe Kosten bieten, was entscheidend ist, wenn beispielsweise die ID-Interaktionen jedes BĂŒrgers aufgezeichnet wĂŒrden. IOTA Identity ist ein Beispiel: Es bietet eine DID-Methode did:iota, bei der IdentitĂ€tsdokumente im Tangle referenziert werden. Dies kann fĂŒr selbstsouverĂ€ne IdentitĂ€t verwendet werden: Benutzer kontrollieren ihre IdentitĂ€tsdokumente, und Verifizierer können Nachweise aus dem DAG abrufen. Hedera ist auch im DID-Bereich aktiv – es hat eine DID-Spezifikation und wurde in Projekten wie der Sicherung manipulationssicherer Protokolle von HochschulabschlĂŒssen, COVID-Impfzertifikaten oder Lieferketten-Compliance-Dokumenten (ĂŒber den Hedera Consensus Service als ID-Ankerdienst) eingesetzt. Die Vorteile von DAGs hier sind, dass das Schreiben von Daten gĂŒnstig und schnell ist, sodass das Aktualisieren eines IdentitĂ€tszustands (wie das Rotieren von SchlĂŒsseln, das HinzufĂŒgen einer Anmeldeinformation) nicht den Kosten- oder VerzögerungshĂŒrden einer ausgelasteten Blockchain gegenĂŒbersteht. DarĂŒber hinaus können die FinalitĂ€ts- und Ordnungsgarantien fĂŒr Audits wichtig sein (Hashgraph bietet zum Beispiel eine vertrauenswĂŒrdige Zeitstempelreihenfolge von Ereignissen, die bei der Compliance-Protokollierung nĂŒtzlich ist).
  • Lieferkette und DatenintegritĂ€t: Über die IdentitĂ€t hinaus kann jeder Anwendungsfall, der die Protokollierung eines hohen Volumens von DateneintrĂ€gen beinhaltet, DAG-DLTs nutzen. Die Lieferkettenverfolgung ist ein bemerkenswerter Fall – Produkte, die sich durch eine Lieferkette bewegen, erzeugen viele Ereignisse (hergestellt, versandt, geprĂŒft usw.). Projekte haben Hedera und IOTA verwendet, um diese Ereignisse in einem DAG-Ledger fĂŒr UnverĂ€nderlichkeit und Transparenz zu protokollieren. Der hohe Durchsatz stellt sicher, dass das Ledger auch dann kein Engpass wird, wenn jeder Artikel in einem großen Liefernetzwerk gescannt und aufgezeichnet wird. DarĂŒber hinaus bedeuten die niedrigen oder null GebĂŒhren, dass Sie selbst geringwertige Ereignisse On-Chain aufzeichnen können, ohne hohe Kosten zu verursachen. Ein weiteres Beispiel ist die IoT-DatenintegritĂ€t: Energienetze oder Telekommunikationsunternehmen könnten GerĂ€temesswerte in einem DAG-Ledger protokollieren, um spĂ€ter zu beweisen, dass Daten nicht manipuliert wurden. Das DAG von Constellation Network (ein weiteres DAG-Projekt) konzentriert sich auf die Big-Data-Validierung fĂŒr Unternehmen und Regierungen (wie die IntegritĂ€t von US Air Force Drohnendaten) – was hervorhebt, wie ein skalierbarer DAG große Datenströme auf vertrauenswĂŒrdige Weise verarbeiten kann.
  • Zahlungen und Überweisungen: Schnelle und gebĂŒhrenfreie Transaktionen machen DAG-KryptowĂ€hrungen wie Nano und IOTA gut geeignet fĂŒr Zahlungsanwendungen. Nano wurde in Szenarien wie Online-Trinkgeldern (wo ein Benutzer sofort ein paar Cent an einen Content Creator senden kann) und internationalen Überweisungen (wo Geschwindigkeit und NullgebĂŒhren einen großen Unterschied machen im Vergleich zum stundenlangen Warten und Zahlen von prozentualen GebĂŒhren) angenommen. DAG-Netzwerke können als Hochgeschwindigkeits-Zahlungsschienen fĂŒr die Integration in Point-of-Sale-Systeme oder mobile Zahlungs-Apps dienen. Zum Beispiel könnte ein CafĂ© eine DAG-basierte Krypto fĂŒr Zahlungen verwenden und sich keine Sorgen um Latenz oder Kosten machen (die Benutzererfahrung kann mit kontaktlosen Kreditkartenzahlungen mithalten). Hederas HBAR wird auch in einigen Zahlungstests verwendet (aufgrund seiner schnellen FinalitĂ€t und niedrigen GebĂŒhren ziehen einige Fintech-Anwendungen es fĂŒr die Abwicklung in Betracht). ZusĂ€tzlich, weil DAG-Netzwerke oft eine höhere KapazitĂ€t haben, können sie ihre Leistung auch bei globalen Einkaufsereignissen oder Nutzungsspitzen aufrechterhalten, was fĂŒr die ZahlungszuverlĂ€ssigkeit wertvoll ist.
  • Echtzeit-Datenfeeds und Orakel: Orakel (Dienste, die externe Daten an Blockchain-Smart Contracts liefern) erfordern das Schreiben vieler Datenpunkte in ein Ledger. Ein DAG-Ledger könnte als Hochdurchsatz-Orakelnetzwerk fungieren, das Preisfeeds, Wetterdaten, IoT-Sensormesswerte usw. mit einer Garantie fĂŒr Reihenfolge und Zeitstempel aufzeichnet. Der Hedera Consensus Service wird beispielsweise von einigen Orakel-Anbietern verwendet, um Daten mit Zeitstempel zu versehen, bevor sie in andere Ketten eingespeist werden. Die Geschwindigkeit stellt sicher, dass die Daten aktuell sind, und der Durchsatz bedeutet, dass selbst schnelle Datenströme verarbeitet werden können. In dezentralen Web3-Analysen oder Werbung, wo jeder Klick oder jede Impression zur Transparenz protokolliert werden könnte, kann ein DAG-Backend das Ereignisvolumen bewĂ€ltigen.

In all diesen AnwendungsfĂ€llen ist der gemeinsame Nenner, dass DAG-Netzwerke darauf abzielen, die Skalierbarkeit, Geschwindigkeit und Kosteneffizienz bereitzustellen, die den Umfang dessen erweitern, was wir dezentralisieren können. Sie sind besonders nĂŒtzlich, wo hochfrequente oder hochvolumige Transaktionen auftreten (IoT, Mikrotransaktionen, Maschinendaten) oder wo die Benutzererfahrung schnelle, nahtlose Interaktionen erfordert (Gaming, Zahlungen). Es ist jedoch zu beachten, dass nicht jeder Anwendungsfall auf DAG-basierte Ledger migrieren wird – manchmal ĂŒberwiegen die Reife und Sicherheit traditioneller Blockchains oder einfach Netzwerkeffekte (z. B. Ethereums riesige Entwicklerbasis) die reinen Leistungsanforderungen. Nichtsdestotrotz erobern DAGs eine Nische im Web3-Stack fĂŒr Szenarien, die konventionelle Ketten belasten.

EinschrĂ€nkungen und Herausforderungen von DAG-basierten Netzwerken​

WÀhrend DAG-basierte Distributed Ledger verlockende Vorteile bieten, gehen sie auch mit Kompromissen und Herausforderungen einher. Es ist wichtig, diese EinschrÀnkungen kritisch zu untersuchen:

  • Reife und Sicherheit: Die Mehrheit der DAG-Konsensalgorithmen ist relativ neu und weniger praxiserprobt im Vergleich zu den gut untersuchten Blockchain-Protokollen von Bitcoin oder Ethereum. Dies kann bedeuten, dass unbekannte SicherheitslĂŒcken oder Angriffsvektoren existieren könnten. Die KomplexitĂ€t von DAG-Systemen eröffnet potenziell neue Angriffswege – zum Beispiel könnte ein Angreifer versuchen, den DAG mit widersprĂŒchlichen Subtangles zu spammen oder zu ĂŒberladen, oder die parallele Struktur nutzen, um Double-Spending zu betreiben, bevor das Netzwerk Konsens erreicht. Akademische Analysen stellen fest, dass erhöhte KomplexitĂ€t ein breiteres Spektrum an Schwachstellen einfĂŒhrt im Vergleich zu einfacheren linearen Ketten. Einige DAG-Netzwerke hatten Probleme: z. B. musste das IOTA-Netzwerk in seinen AnfĂ€ngen einige Male aufgrund von UnregelmĂ€ĂŸigkeiten/Hacks pausiert werden (ein Vorfall im Jahr 2020 betraf gestohlene Gelder, und der Koordinator wurde vorĂŒbergehend abgeschaltet, um das Problem zu lösen). Diese VorfĂ€lle unterstreichen, dass die Sicherheitsmodelle noch verfeinert werden. DarĂŒber hinaus ist die FinalitĂ€t in einigen DAGs probabilistisch – z. B. hatte IOTA vor Coordicide keine absolute FinalitĂ€t, sondern nur eine zunehmende BestĂ€tigungssicherheit – was fĂŒr bestimmte Anwendungen schwierig sein kann (obwohl neuere DAGs wie Hashgraph und Fantom sofortige FinalitĂ€t mit aBFT-Garantien bieten).
  • KonsenskomplexitĂ€t: Das Erreichen von Konsens in einem DAG beinhaltet oft komplizierte Algorithmen (Gossip-Protokolle, virtuelles Voting, zufĂ€llige Stichproben usw.). Diese KomplexitĂ€t kann zu grĂ¶ĂŸeren Codebasen und komplizierteren Implementierungen fĂŒhren, was das Risiko von Softwarefehlern erhöht. Es macht das System auch fĂŒr Entwickler schwerer verstĂ€ndlich. Die LĂ€ngste-Kette-Regel einer Blockchain ist konzeptionell einfach, wĂ€hrend beispielsweise Hashgraphs virtuelles Voting oder Avalanches wiederholte zufĂ€llige Stichproben nicht sofort intuitiv sind. Die KomplexitĂ€t kann die Akzeptanz verlangsamen: Entwickler und Unternehmen zögern möglicherweise, einem System zu vertrauen, das sie schwerer verstehen oder prĂŒfen können. Wie eine Studie feststellte, erfordern partiell geordnete Systeme (DAGs) mehr Aufwand, um sie in bestehende Infrastrukturen und EntwicklermentalitĂ€ten zu integrieren. Tools und Bibliotheken fĂŒr DAG-Netzwerke sind in vielen FĂ€llen ebenfalls weniger ausgereift, was bedeutet, dass die Entwicklererfahrung möglicherweise rauer ist als auf Ethereum oder Bitcoin.
  • Kompromisse bei der Dezentralisierung: Einige aktuelle DAG-Implementierungen opfern ein gewisses Maß an Dezentralisierung, um ihre Leistung zu erreichen. Zum Beispiel bedeutet Hederas AbhĂ€ngigkeit von einem festen Rat von 39 Knoten, dass das Netzwerk nicht fĂŒr jeden offen ist, um am Konsens teilzunehmen, was trotz seiner technischen StĂ€rken Kritik hervorgerufen hat. IOTA verließ sich lange Zeit auf einen zentralen Koordinator, um Angriffe zu verhindern, was einen Single Point of Failure/Control darstellte. Nanos Konsens beruht auf einer kleinen Anzahl von HauptreprĂ€sentanten, die den grĂ¶ĂŸten Teil des Stimmgewichts halten (Stand 2023 kontrollieren die obersten ReprĂ€sentanten oft einen großen Teil des Online-Stimmgewichts), was als Machtkonzentration angesehen werden könnte – obwohl dies etwas analog zu Mining-Pools in PoW ist. Im Allgemeinen werden Blockchains derzeit als leichter weitgehend dezentralisierbar (Tausende von Knoten) wahrgenommen als einige DAG-Netzwerke. Die GrĂŒnde sind vielfĂ€ltig: Einige DAG-Algorithmen könnten höhere Knoten-Bandbreitenanforderungen haben (was es fĂŒr viele Knoten schwieriger macht, vollstĂ€ndig teilzunehmen), oder das Design des Projekts könnte absichtlich eine permissionierte Struktur beibehalten. Dies ist keine inhĂ€rente EinschrĂ€nkung von DAGs per se, sondern eher spezifischer Implementierungen. Es ist möglich, ein hoch dezentralisiertes DAG-Netzwerk zu haben, aber in der Praxis haben viele noch nicht die Knotenanzahl großer Blockchains erreicht.
  • Bedarf an Volumen (Sicherheit vs. Durchsatz): Einige DAG-Netzwerke benötigen paradoxerweise ein hohes Transaktionsvolumen, um optimal zu funktionieren. Zum Beispiel wird IOTAs Sicherheitsmodell robust, wenn viele ehrliche Transaktionen sich stĂ€ndig gegenseitig bestĂ€tigen (wodurch das kumulative Gewicht ehrlicher Subtangles erhöht wird). Wenn die NetzwerkaktivitĂ€t sehr gering ist, kann der DAG unter TrĂ€gheit leiden – Spitzen werden nicht schnell genehmigt, oder ein Angreifer findet es leichter, Teile des DAG zu ĂŒberschreiben. Im Gegensatz dazu benötigt eine traditionelle Blockchain wie Bitcoin keine Mindestanzahl von Transaktionen, um sicher zu bleiben (selbst wenn wenige Transaktionen stattfinden, konkurrieren Miner immer noch darum, die Kette zu erweitern). Daher gedeihen DAGs oft unter Last, könnten aber bei geringer Nutzung stagnieren, es sei denn, es werden spezielle Maßnahmen ergriffen (wie IOTAs Koordinator oder Hintergrund-„Wartungs“-Transaktionen). Dies bedeutet, dass die Leistung inkonsistent sein kann – großartig bei hoher Nutzung, aber möglicherweise langsamere BestĂ€tigung in Nebenzeiten oder bei geringer Nutzung.
  • Reihenfolge und KompatibilitĂ€t: Da DAGs eine partielle Reihenfolge von Ereignissen erzeugen, die schließlich konsistent sein muss, können die Konsensalgorithmen recht kompliziert sein. In Smart-Contract-Kontexten ist eine vollstĂ€ndige Reihenfolge von Transaktionen erforderlich, um Double-Spending zu vermeiden und eine deterministische AusfĂŒhrung aufrechtzuerhalten. DAG-Systeme wie Fantom lösen dies durch den Aufbau einer Ordnungsschicht (der finalen Opera Chain), aber nicht alle DAG-Systeme unterstĂŒtzen komplexe Smart Contracts problemlos. Das Zustandsmanagement und das Programmiermodell können auf einem reinen DAG eine Herausforderung darstellen. Wenn beispielsweise zwei Transaktionen nicht in Konflikt stehen, können sie parallel auf einem DAG bestĂ€tigt werden – das ist in Ordnung. Wenn sie jedoch in Konflikt stehen (z. B. zwei Transaktionen, die denselben Output ausgeben, oder zwei Trades auf derselben Order), muss das Netzwerk eine entscheiden und die andere verwerfen. Sicherzustellen, dass alle Knoten die gleiche Entscheidung dezentral treffen, ist ohne eine einzige Kette, die alles ordnet, schwieriger. Aus diesem Grund vermieden viele DAG-Projekte zunĂ€chst Smart Contracts oder globalen Zustand und konzentrierten sich auf Zahlungen (wo Konflikte einfacher ĂŒber UTXOs oder KontostĂ€nde zu erkennen sind). Die Schnittstelle von DAG-Ledgern mit bestehenden Blockchain-Ökosystemen kann ebenfalls nicht trivial sein; zum Beispiel erforderte die Verbindung einer EVM mit einem DAG, dass Fantom einen Mechanismus zur Linearisierung des DAG fĂŒr die EVM-AusfĂŒhrung schuf. Diese KomplexitĂ€ten bedeuten, dass nicht jeder Anwendungsfall sofort auf einem DAG ohne sorgfĂ€ltiges Design implementiert werden kann.
  • Speicherung und Synchronisation: Ein potenzielles Problem ist, dass, wenn ein DAG-Ledger ein hohes Volumen paralleler Transaktionen zulĂ€sst, das Ledger schnell wachsen kann. Effiziente Algorithmen zum Beschneiden des DAG (Entfernen alter Transaktionen, die fĂŒr die Sicherheit nicht mehr benötigt werden) sind wichtig, ebenso wie die Ermöglichung des Betriebs von Light Nodes (Light Clients benötigen Möglichkeiten, Transaktionen zu bestĂ€tigen, ohne den gesamten DAG zu speichern). Die Forschung hat die Erreichbarkeitsproblematik identifiziert: Sicherstellen, dass neue Transaktionen effizient frĂŒhere erreichen und referenzieren können, und herausfinden, wie die Historie in einem DAG sicher gekĂŒrzt werden kann. WĂ€hrend Blockchains auch Wachstumsprobleme haben, könnte die Struktur des DAG Dinge wie die Berechnung von Salden oder Nachweisen fĂŒr den partiellen Zustand erschweren, da das Ledger keine einfache Liste von Blöcken ist. Dies ist grĂ¶ĂŸtenteils eine technische Herausforderung, die angegangen werden kann, aber sie erhöht den Aufwand beim Entwurf eines robusten DAG-Systems.
  • Wahrnehmung und Netzwerkeffekte: Abgesehen von rein technischen Problemen stehen DAG-Projekte vor der Herausforderung, sich in einem von Blockchains dominierten Raum zu beweisen. Viele Entwickler und Benutzer fĂŒhlen sich einfach wohler mit Blockchain-L1s, und Netzwerkeffekte (mehr Benutzer, mehr DApps, mehr Tools auf bestehenden Ketten) können schwer zu ĂŒberwinden sein. DAGs werden manchmal mit kĂŒhnen Behauptungen („Blockchain-Killer“ usw.) vermarktet, was Skepsis hervorrufen kann. Zum Beispiel könnte ein Projekt unbegrenzte Skalierbarkeit beanspruchen – aber Benutzer werden warten, bis dies unter realen Bedingungen demonstriert wird. Solange DAG-Netzwerke keine „Killer-Apps“ oder große Benutzerbasen hosten, könnten sie als experimentell angesehen werden. DarĂŒber hinaus ist die Listung an Börsen, Verwahrungslösungen, Wallets – die gesamte Infrastruktur, die bereits große Blockchains unterstĂŒtzt – eine fortlaufende Anstrengung fĂŒr jede neue DAG-Plattform. Es gibt also eine Bootstrapping-Herausforderung: Trotz technischer Verdienste kann die Akzeptanz aufgrund der Ökosystem-TrĂ€gheit zurĂŒckbleiben.

Zusammenfassend lĂ€sst sich sagen, dass DAG-basierte Ledger Einfachheit gegen Leistung eintauschen, und das bringt Wachstumsschmerzen mit sich. Die KomplexitĂ€t des Konsenses, potenzielle Zentralisierung in einigen Implementierungen und die Notwendigkeit, Vertrauen zu gewinnen, das dem Ă€lterer Blockchain-Systeme entspricht, sind HĂŒrden, die es zu ĂŒberwinden gilt. Die Forschungsgemeinschaft untersucht diese Probleme aktiv – zum Beispiel stellt ein 2024er Systematisierung-des-Wissens-Papier zu DAG-Protokollen die zunehmende Vielfalt der Designs und die Notwendigkeit eines ganzheitlichen VerstĂ€ndnisses ihrer Kompromisse fest. Wenn DAG-Projekte reifen, können wir erwarten, dass viele dieser Herausforderungen (wie die Entfernung von Koordinatoren, offene Teilnahme, bessere Entwicklertools) angegangen werden, aber sie sind wichtig zu berĂŒcksichtigen, wenn man DAG vs. Blockchain fĂŒr eine bestimmte Anwendung bewertet.

Adoptionstrends und Zukunftsaussichten​

Die Akzeptanz der DAG-basierten Blockchain-Technologie befindet sich im Vergleich zur weit verbreiteten Nutzung traditioneller Blockchains noch in einem frĂŒhen Stadium. Stand 2025 verwenden nur eine Handvoll öffentlicher Distributed Ledger DAGs in großem Maßstab – bemerkenswerte sind Hedera Hashgraph, IOTA, Fantom, Nano, Avalanche (fĂŒr einen Teil seines Systems) und einige andere. Blockchains (lineare Ketten) bleiben die dominante Architektur in implementierten Systemen. Das Interesse an DAGs hat jedoch sowohl in der Industrie als auch in der Wissenschaft stetig zugenommen. Wir können einige Trends und die Aussichten fĂŒr DAGs in der Blockchain identifizieren:

  • Wachsende Anzahl von DAG-Projekten und Forschung: Es gibt einen sichtbaren Anstieg der Anzahl neuer Projekte, die DAG- oder Hybridarchitekturen erforschen. Zum Beispiel verwenden neuere Plattformen wie Aleph Zero (ein datenschutzorientiertes Netzwerk) einen DAG-Konsens fĂŒr schnelle Ordnung, und Sui und Aptos (Move-Sprachketten) integrieren DAG-basierte Mempools oder parallele AusfĂŒhrungs-Engines, um die Leistung zu skalieren. Die akademische Forschung zu DAG-basiertem Konsens floriert – Protokolle wie SPECTRE, PHANTOM, GhostDAG und neuere verschieben die Grenzen, und umfassende Analysen (SoK-Papiere) werden veröffentlicht, um DAG-AnsĂ€tze zu klassifizieren und zu bewerten. Dies deutet auf eine gesunde Erforschung und das Aufkommen von Best Practices hin. Wenn die Forschung Lösungen fĂŒr frĂŒhere SchwĂ€chen identifiziert (zum Beispiel, wie man Fairness erreicht, wie man DAGs beschneidet, wie man DAGs unter dynamischen Bedingungen sichert), werden wir diese Innovationen wahrscheinlich in Implementierungen einfließen sehen.
  • Hybridmodelle im Mainstream-Einsatz: Ein interessanter Trend ist, dass sogar traditionelle Blockchains DAG-Konzepte ĂŒbernehmen, um die Leistung zu verbessern. Avalanche ist ein Paradebeispiel fĂŒr einen Hybriden: Es prĂ€sentiert sich als Blockchain-Plattform, verwendet aber im Kern einen DAG-Konsens. Es hat eine signifikante Akzeptanz in DeFi- und NFT-Kreisen gefunden, was zeigt, dass Benutzer manchmal ein DAG-basiertes System ĂŒbernehmen, ohne es ĂŒberhaupt zu merken, solange es ihre BedĂŒrfnisse erfĂŒllt (schnell und gĂŒnstig). Dieser Trend könnte sich fortsetzen: DAG als interner Motor, der eine vertraute Blockchain-Schnittstelle exponiert, könnte eine erfolgreiche Strategie sein, die Entwicklern den Einstieg erleichtert. Fantom hat dies mit seiner Opera-Kette getan, und andere Projekte könnten diesem Beispiel folgen, wodurch die DAG-Technologie effektiv zu einem unsichtbaren RĂŒckgrat fĂŒr Ketten der nĂ€chsten Generation wird.
  • Unternehmens- und Nischenakzeptanz: Unternehmen, die hohen Durchsatz, vorhersehbare Kosten benötigen und mit stĂ€rker permissionierten Netzwerken vertraut sind, neigen dazu, DAG-Ledger zu erforschen. Hederas Governing Council-Modell zog große Unternehmen an; diese wiederum treiben AnwendungsfĂ€lle wie die Asset-Tokenisierung fĂŒr Finanzdienstleistungen oder die Verfolgung von Softwarelizenzen usw. auf Hedera voran. Wir sehen, dass Konsortien DAG-basierte DLT fĂŒr Dinge wie Telekommunikationsabrechnungen, die Verfolgung von Werbeimpressionen oder InterbankenĂŒberweisungen in Betracht ziehen, wo das Volumen hoch ist und sie FinalitĂ€t benötigen. IOTA war an von der EuropĂ€ischen Union finanzierten Projekten fĂŒr Infrastruktur, digitale IdentitĂ€tspiloten und industrielles IoT beteiligt – dies sind lĂ€ngerfristige Adoptionspfade, aber sie zeigen, dass DAGs ĂŒber die Krypto-Community hinaus auf dem Radar sind. Wenn sich einige dieser Tests als erfolgreich und skalierbar erweisen, könnten wir eine sektorspezifische Akzeptanz von DAG-Netzwerken sehen (z. B. ein IoT-Konsortium, das alle ein DAG-Ledger zur gemeinsamen Nutzung und Monetarisierung von Daten verwendet).
  • Fortschritte bei Community und Dezentralisierung: FrĂŒhe Kritik an DAG-Netzwerken (zentrale Koordinatoren, permissionierte Validierer) wird allmĂ€hlich angegangen. IOTAs Coordicide wird, falls erfolgreich, den zentralen Koordinator entfernen und IOTA in ein vollstĂ€ndig dezentrales Netzwerk mit einer Form von Staking und von der Community betriebenen Validierern ĂŒberfĂŒhren. Hedera hat seinen Code quelloffen gemacht und PlĂ€ne angedeutet, die Governance langfristig weiter zu dezentralisieren (ĂŒber den anfĂ€nglichen Rat hinaus). Nanos Community arbeitet kontinuierlich an der Dezentralisierung der ReprĂ€sentantenverteilung (ermutigt mehr Benutzer, ReprĂ€sentanten zu betreiben oder ihre Delegationen aufzuteilen). Diese Schritte sind wichtig fĂŒr die GlaubwĂŒrdigkeit und das Vertrauen in DAG-Netzwerke und bringen sie stĂ€rker mit dem Ethos der Blockchain in Einklang. Mit zunehmender Dezentralisierung werden wahrscheinlich mehr krypto-native Benutzer und Entwickler bereit sein, auf DAG-Projekten aufzubauen oder dazu beizutragen, was das Wachstum beschleunigen kann.
  • InteroperabilitĂ€t und Layer-2-Nutzung: Wir könnten auch sehen, dass DAGs als Skalierungsschichten oder interoperable Netzwerke anstatt als eigenstĂ€ndige Ökosysteme verwendet werden. Zum Beispiel könnte ein DAG-Ledger als Hochgeschwindigkeits-Layer-2 fĂŒr Ethereum dienen, das periodisch gebĂŒndelte Ergebnisse zur Sicherheit an Ethereum verankert. Alternativ könnten DAG-Netzwerke ĂŒber BrĂŒcken mit bestehenden Blockchains verbunden werden, sodass Vermögenswerte dorthin fließen können, wo Transaktionen am gĂŒnstigsten sind. Wenn die UX nahtlos gestaltet werden kann, könnten Benutzer auf einem DAG-Netzwerk Transaktionen durchfĂŒhren (und die hohe Geschwindigkeit genießen), wĂ€hrend sie sich weiterhin auf eine Basis-Blockchain fĂŒr die Abwicklung oder Sicherheit verlassen – und so das Beste aus beiden Welten erhalten. Einige Projekte ziehen diese Art von geschichtetem Ansatz in Betracht.
  • Zukunftsaussichten – ErgĂ€nzung, nicht Ersatz (vorerst): Es ist bezeichnend, dass selbst BefĂŒrworter oft sagen, dass DAG eine „Alternative“ oder ErgĂ€nzung zur Blockchain ist und kein vollstĂ€ndiger Ersatz. In naher Zukunft können wir heterogene Netzwerke erwarten: einige werden Blockchain-basiert sein, einige DAG-basiert, jeweils optimiert fĂŒr verschiedene Szenarien. DAGs könnten das Hochfrequenz-RĂŒckgrat von Web3 antreiben (die Schwerstarbeit von Mikrotransaktionen und Datenprotokollierung erledigen), wĂ€hrend Blockchains fĂŒr die Abwicklung, extrem hochwertige Transaktionen oder dort, wo Einfachheit und Robustheit von grĂ¶ĂŸter Bedeutung sind, bevorzugt bleiben könnten. Auf lĂ€ngere Sicht, wenn DAG-basierte Systeme sich weiterhin bewĂ€hren und wenn sie gleiche oder grĂ¶ĂŸere Sicherheit und Dezentralisierung demonstrieren können, ist es denkbar, dass sie zum dominanten Paradigma fĂŒr Distributed Ledger werden könnten. Der Aspekt der Energieeffizienz bringt DAGs auch gut mit globalen Nachhaltigkeitsdruck in Einklang, was sie langfristig politisch und sozial akzeptabler machen könnte. Die CO2-Fußabdruck-Vorteile von DAG-Netzwerken, kombiniert mit ihren Leistungsvorteilen, könnten ein wichtiger Treiber sein, wenn regulatorische Umgebungen grĂŒne Technologie betonen.
  • Community-Stimmung: Es gibt ein Segment der Krypto-Community, das sehr begeistert von DAGs ist – sie sehen sie als den nĂ€chsten evolutionĂ€ren Schritt der DLT. Man hört oft SĂ€tze wie „DAGs sind die Zukunft; Blockchains werden irgendwann als das Einwahl-Internet im Vergleich zum Breitband von DAG angesehen werden.“ Dieser Enthusiasmus muss mit praktischen Ergebnissen in Einklang gebracht werden, aber er deutet darauf hin, dass Talente und Investitionen in diesen Bereich fließen. Andererseits bleiben Skeptiker, die darauf hinweisen, dass Dezentralisierung und Sicherheit nicht fĂŒr Geschwindigkeit geopfert werden sollten – daher mĂŒssen DAG-Projekte zeigen, dass sie das Beste aus beiden Welten haben können.

Zusammenfassend lĂ€sst sich sagen, dass die Zukunftsaussichten fĂŒr DAG in der Blockchain vorsichtig optimistisch sind. Derzeit dominieren Blockchains immer noch, aber DAG-basierte Plattformen erobern ihren Raum und beweisen ihre FĂ€higkeiten in spezifischen Bereichen. Wenn die Forschung aktuelle Herausforderungen löst, werden wir wahrscheinlich eine stĂ€rkere Konvergenz von Ideen sehen – wobei Blockchains DAG-inspirierte Verbesserungen ĂŒbernehmen und DAG-Netzwerke die Lehren von Blockchains in Bezug auf Governance und Sicherheit ĂŒbernehmen. Web3-Forscher und -Entwickler tĂ€ten gut daran, die DAG-Fortschritte im Auge zu behalten, da sie einen bedeutenden Zweig des DLT-Evolutionsbaums darstellen. Die kommenden Jahre könnten ein vielfĂ€ltiges Ökosystem interoperabler Ledger sehen, in dem DAGs eine entscheidende Rolle bei der Skalierung und bei speziellen Anwendungen spielen und uns der Vision eines skalierbaren, dezentralen Webs nĂ€herbringen.

In den Worten einer Hedera-Publikation: DAG-basierte Ledger sind „ein vielversprechender Schritt nach vorn“ in der Entwicklung digitaler WĂ€hrungen und dezentraler Technologie – keine Patentlösung, um Blockchains vollstĂ€ndig zu ersetzen, sondern eine wichtige Innovation, die nebenher arbeiten und Verbesserungen in der gesamten Distributed-Ledger-Landschaft inspirieren wird.

Quellen: Die Informationen in diesem Bericht stammen aus einer Vielzahl glaubwĂŒrdiger Quellen, darunter akademische Forschung zu DAG-basiertem Konsens, offizielle Dokumentationen und Whitepapers von Projekten wie IOTA, Hedera Hashgraph, Fantom und Nano sowie technische Blogs und Artikel, die Einblicke in die Unterschiede zwischen DAG und Blockchain geben. Diese Referenzen unterstĂŒtzen die oben diskutierten vergleichenden Analysen, Vorteile und Fallstudien. Der fortgesetzte Dialog in der Web3-Forschungsgemeinschaft deutet darauf hin, dass DAGs ein heißes Thema bleiben werden, wĂ€hrend wir versuchen, das Trilemma von Skalierbarkeit, Sicherheit und Dezentralisierung in der nĂ€chsten Generation der Blockchain-Technologie zu lösen.

Somnia Layer-1 Blockchain Deep Dive: 1M TPS und FinalitÀt im Subsekundenbereich

· 67 Minuten Lesezeit
Dora Noda
Software Engineer

Somnia ist eine EVM-kompatible Layer-1 Blockchain, die fĂŒr extreme Leistung entwickelt wurde und ĂŒber 1.000.000 Transaktionen pro Sekunde (TPS) mit FinalitĂ€t im Subsekundenbereich verarbeiten kann. Um dies zu erreichen, ĂŒberdenkt Somnia das Kern-Blockchain-Design mit vier wichtigen technischen Innovationen:

  • MultiStream Consensus: Somnias Konsens ist ein neuartiges Proof-of-Stake BFT-Protokoll, bei dem jeder Validator seine eigene „Datenkette“ von Transaktionen fĂŒhrt und Blöcke unabhĂ€ngig voneinander produziert. Eine separate Konsenskette bestĂ€tigt periodisch den neuesten Block jeder Datenkette eines Validators und ordnet sie zu einer globalen Blockchain. Dies ermöglicht eine parallele Transaktionsaufnahme: Mehrere Validatoren können Transaktionen gleichzeitig auf ihren Datenströmen verbreiten, die spĂ€ter zu einem einzigen geordneten Log zusammengefĂŒhrt werden. Die Konsenskette (inspiriert von der Autobahn BFT-Forschung) gewĂ€hrleistet Sicherheit, indem sie verhindert, dass ein Validator seine eigene Kette forkt oder Ă€ndert, sobald der globale Block finalisiert ist. Abbildung 1 veranschaulicht diese Architektur, bei der Validator-spezifische Ketten in einen globalen Konsensblock mĂŒnden.

  • Beschleunigte sequentielle AusfĂŒhrung: Anstatt sich auf Multi-Thread-AusfĂŒhrung zu verlassen, entscheidet sich Somnia dafĂŒr, einen einzelnen Kern extrem schnell zu machen. Der Somnia-Client kompiliert EVM Smart Contracts zu nativem x86-Maschinencode (Just-in-Time oder Ahead-of-Time). HĂ€ufig verwendete Smart Contracts werden in optimierte Maschinenbefehle ĂŒbersetzt, wodurch der typische Interpretations-Overhead entfĂ€llt und eine nahezu native C++-Geschwindigkeit fĂŒr die AusfĂŒhrung erreicht wird. In Benchmarks fĂŒhrt dies zu Hunderten von Nanosekunden pro ERC-20-Transfer und unterstĂŒtzt Millionen von TX/Sek. auf einem Kern. Weniger hĂ€ufig aufgerufene Smart Contracts können weiterhin im Standard-EVM-Interpreter ausgefĂŒhrt werden, wodurch die Kompilierungskosten ausgeglichen werden. ZusĂ€tzlich nutzt Somnia moderne CPU Out-of-Order-Execution und Pipelining („Hardware-Ebene-ParallelitĂ€t“), um einzelne Transaktionen zu beschleunigen. Durch die Kompilierung zu nativem Code kann die CPU Anweisungen auf Chipebene parallel ausfĂŒhren (z. B. ĂŒberlappende Speicherzugriffe und Berechnungen), was die sequentielle Logik wie Token-Transfers weiter beschleunigt. Diese Designentscheidung erkennt an, dass Software-ParallelitĂ€t bei stark korrelierten Arbeitslastspitzen oft versagt (z. B. ein heißer NFT-Mint, bei dem alle Transaktionen denselben Smart Contract treffen). Somnias Single-Thread-Optimierungen stellen sicher, dass selbst „heiße“ Smart Contract-Szenarien einen hohen Durchsatz erreichen, wo naive parallele AusfĂŒhrung ins Stocken geraten wĂŒrde.
  • IceDB (Deterministische Speicher-Engine): Somnia enthĂ€lt eine benutzerdefinierte Blockchain-Datenbank namens IceDB, um die Leistung und Vorhersagbarkeit des State-Zugriffs zu maximieren. Im Gegensatz zu typischen LevelDB/RocksDB-Backends bietet IceDB deterministische Lese-/Schreibkosten: Jeder Vorgang liefert einen „Leistungsbericht“ darĂŒber, wie viele RAM-Cache-Lines und Disk-Pages genau aufgerufen wurden. Dies ermöglicht es Somnia, GasgebĂŒhren basierend auf der tatsĂ€chlichen Ressourcennutzung auf konsistente, konsens-deterministische Weise zu berechnen. Zum Beispiel können aus dem Speicher bediente LesevorgĂ€nge weniger Gas kosten als kalte LesevorgĂ€nge, die auf die Festplatte zugreifen, ohne Nicht-Determinismus. IceDB verwendet auch eine verbesserte Caching-Schicht, die sowohl fĂŒr Lese- als auch fĂŒr SchreibvorgĂ€nge optimiert ist und extrem niedrige Latenzzeiten (durchschnittlich 15–100 Nanosekunden pro Vorgang) liefert. ZusĂ€tzlich verfĂŒgt IceDB ĂŒber eingebautes State-Snapshotting: Es nutzt die interne Struktur des log-strukturierten Speichers, um globale State-Hashes effizient zu verwalten und zu aktualisieren, anstatt einen separaten Merkle-Baum auf Anwendungsebene zu erstellen. Dies reduziert den Overhead fĂŒr die Berechnung von State-Roots und Proofs. Insgesamt gewĂ€hrleistet das Design von IceDB vorhersehbaren, Hochgeschwindigkeits-State-Zugriff und Fairness bei der Gas-Messung, was fĂŒr Somnias Skalierung entscheidend ist.
  • Fortschrittliche Komprimierung & Vernetzung: Das Verarbeiten von Millionen von TPS bedeutet, dass Nodes riesige Mengen an Transaktionsdaten austauschen mĂŒssen (z. B. 1M ERC-20-Transfers/Sek. ~ 1,5 Gbit/s Rohdaten). Somnia begegnet dem durch Komprimierungs- und Netzwerkoptimierungen:
    • Streaming-Komprimierung: Da jeder Validator einen kontinuierlichen Datenstrom veröffentlicht, kann Somnia zustandsbehaftete Stream-Komprimierung ĂŒber Blöcke hinweg verwenden. HĂ€ufige Muster (wie repetitive Adressen, Smart Contract-Aufrufe, Parameter) werden durch Referenzierung frĂŒherer Vorkommen im Stream komprimiert, wodurch weitaus bessere Raten als bei unabhĂ€ngiger Blockkomprimierung erzielt werden. Dies nutzt die Power-Law-Verteilung der Blockchain-AktivitĂ€t – eine kleine Untergruppe von Adressen oder Aufrufen macht einen großen Teil der Transaktionen aus, sodass deren Kodierung mit kurzen Symbolen eine massive Komprimierung ergibt (z. B. kann eine in 10 % der TX verwendete Adresse in ~3 Bits statt 20 Bytes kodiert werden). Traditionelle Chains können Stream-Komprimierung nicht einfach verwenden, da Blockproduzenten rotieren; Somnias feste pro-Validator-Streams ermöglichen diese FĂ€higkeit.
    • BLS-Signaturaggregation: Um die grĂ¶ĂŸten inkompressiblen Teile von Transaktionen (Signaturen und Hashes) zu eliminieren, verwendet Somnia BLS-Signaturen fĂŒr Transaktionen und unterstĂŒtzt die Aggregation vieler Signaturen zu einer einzigen. Dies bedeutet, dass ein Block von Hunderten von Transaktionen eine einzige kombinierte Signatur tragen kann, was die DatengrĂ¶ĂŸe (und die Verifizierungskosten) drastisch reduziert, verglichen mit 64 Bytes ECDSA-Signatur pro Transaktion. Transaktions-Hashes werden ebenfalls nicht ĂŒbertragen (Peers berechnen sie bei Bedarf neu). Zusammen reduzieren Komprimierung und BLS-Aggregation die Bandbreitenanforderungen ausreichend, um Somnias hohen Durchsatz aufrechtzuerhalten, ohne das Netzwerk zu „ersticken“.
    • Bandbreitensymmetrie: Im Multi-Leader-Design von Somnia teilt jeder Validator kontinuierlich seinen Anteil an neuen Daten in jedem Block, anstatt dass ein Leader den gesamten Block an andere sendet. Folglich ist die Netzwerklast symmetrisch verteilt – jeder von N Validatoren lĂ€dt in jedem Block ungefĂ€hr 1/N der Gesamtdaten an N-1 Peers hoch (und lĂ€dt die anderen Teile herunter), anstatt dass ein einzelner Leader N-1 Kopien hochlĂ€dt. Kein Node benötigt jemals eine ausgehende Bandbreite, die höher ist als der gesamte Chain-Durchsatz, wodurch der Engpass vermieden wird, bei dem ein einzelner Leader eine enorme Upload-Leitung haben mĂŒsste. Diese gleichmĂ€ĂŸige Auslastung ermöglicht es Somnia, die physikalischen Bandbreitengrenzen von Nodes zu erreichen, ohne sich auf wenige Supernodes zu zentralisieren. Kurz gesagt, Somnias Netzwerk-Stack ist so konzipiert, dass alle Validatoren die Arbeit der Transaktionsausbreitung teilen, wodurch ein Durchsatz im Gigabit-Bereich ĂŒber das dezentrale Netzwerk hinweg ermöglicht wird.

Konsens und Sicherheit: Die Konsenskette verwendet ein modifiziertes PBFT (Practical Byzantine Fault Tolerance) Proof-of-Stake-Protokoll mit einer teilweise synchronen Annahme. Somnia startete mit 60–100 global verteilten Validatoren (das Mainnet begann mit ~60 und strebt 100 an). Validatoren mĂŒssen leistungsstarke Hardware betreiben (Spezifikation in etwa zwischen einem Solana- und Aptos-Node in Bezug auf die Leistung), um die Last zu bewĂ€ltigen. Diese Validatorenanzahl gleicht Leistung mit ausreichender Dezentralisierung aus – die Philosophie des Teams ist „ausreichende Dezentralisierung“ (genug, um Sicherheit und Zensurresistenz zu gewĂ€hrleisten, aber nicht so extrem, dass die Leistung beeintrĂ€chtigt wird). Bemerkenswert ist, dass Google Cloud neben anderen professionellen Node-Betreibern am Start als Validator teilnahm.

Somnia implementiert Standard-PoS-Sicherheitsmaßnahmen wie Staking-Einlagen und Slashing fĂŒr böswilliges Verhalten. Um die Sicherheit in seiner neuartigen AusfĂŒhrungs-Engine zu erhöhen, verwendet Somnia ein einzigartiges „Cuthbert“-System – eine alternative Referenzimplementierung (unoptimiert), die parallel zum Haupt-Client auf jedem Node lĂ€uft. Jede Transaktion wird auf beiden Engines ausgefĂŒhrt; wenn eine Divergenz oder ein Fehler in den Ergebnissen des optimierten Clients erkannt wird, stoppt der Validator und weigert sich zu finalisieren, wodurch Konsensfehler verhindert werden. Diese Dual-Execution fungiert als Echtzeit-Audit und stellt sicher, dass die aggressiven Leistungsoptimierungen niemals zu falschen ZustandsĂŒbergĂ€ngen fĂŒhren. Im Laufe der Zeit, wenn das Vertrauen in den primĂ€ren Client wĂ€chst, kann Cuthbert schrittweise eingestellt werden, aber in frĂŒhen Phasen fĂŒgt es eine zusĂ€tzliche Sicherheitsebene hinzu.

Zusammenfassend lĂ€sst sich sagen, dass Somnias Architektur auf Echtzeit-Massenanwendungen zugeschnitten ist. Durch die Entkopplung der Transaktionsausbreitung von der Finalisierung (MultiStream), die Beschleunigung der Single-Core-AusfĂŒhrung (EVM-Kompilierung und CPU-Ebene-ParallelitĂ€t), die Optimierung der Datenschicht (IceDB) und die Minimierung der Bandbreite pro Transaktion (Komprimierung + Aggregation) erreicht Somnia eine Leistung, die GrĂ¶ĂŸenordnungen ĂŒber traditionellen L1s liegt. Herman Narula, CEO von Improbable, behauptet, es sei „die fortschrittlichste Layer-1 
 in der Lage, Tausende Male den Durchsatz von Ethereum oder Solana zu bewĂ€ltigen“ – speziell gebaut fĂŒr die Geschwindigkeit, Skalierung und ReaktionsfĂ€higkeit, die von Next-Gen-Spielen, sozialen Netzwerken und immersiven Metaverse-Erlebnissen benötigt werden.

Tokenomics – Angebot, Nutzen und Wirtschaftsdesign​

Angebot und Verteilung: Somnias nativer Token, SOMI, hat ein festes Maximalangebot von 1.000.000.000 Token (1 Milliarde). Es gibt keine fortlaufende Inflation – das Angebot ist begrenzt und die Token wurden im Voraus an verschiedene Stakeholder mit Vesting-ZeitplĂ€nen zugewiesen. Die AufschlĂŒsselung der Zuteilung ist wie folgt:

ZuteilungskategorieProzentsatzToken-MengeFreigabeplan
Team11,0 %110.000.0000 % beim Start; 12-monatige Sperrfrist, dann ĂŒber 48 Monate freigegeben.
Launch-Partner15,0 %150.000.0000 % beim Start; 12-monatige Sperrfrist, dann ĂŒber 48 Monate freigegeben (einschließlich frĂŒher Ökosystem-BeitrĂ€ger wie Improbable).
Investoren (Seed)15,15 %151.500.0000 % beim Start; 12-monatige Sperrfrist, dann ĂŒber 36 Monate freigegeben.
Berater3,58 %35.800.0000 % beim Start; 12-monatige Sperrfrist, dann ĂŒber 36 Monate freigegeben.
Ökosystem-Fonds27,345 %273.450.0005,075 % beim Start freigeschaltet, der Rest wird linear ĂŒber 48 Monate freigegeben. Wird zur Finanzierung der Ökosystementwicklung und der Somnia Foundation verwendet.
Community & Belohnungen27,925 %279.250.00010,945 % beim Start freigeschaltet, plus zusĂ€tzliche Freigaben 1 und 2 Monate nach dem Start, dann linear ĂŒber 36 Monate freigegeben. Wird fĂŒr Community-Anreize, Airdrops, LiquiditĂ€t und Validator-Staking-Belohnungen verwendet.
Gesamt100 %1.000.000.000~16 % im Umlauf bei TGE (Token Generation Event), der Rest ĂŒber 3–4 Jahre freigegeben.

Beim Mainnet-Start (TGE im 3. Quartal 2025) gingen rund 16 % des Angebots in Umlauf (hauptsĂ€chlich aus den anfĂ€nglichen Freischaltungen der Community- und Ökosystem-Zuteilungen). Der Großteil der Token (Team, Partner, Investoren) ist fĂŒr das erste Jahr gesperrt und wird dann schrittweise freigegeben, um Anreize fĂŒr die langfristige Entwicklung zu schaffen. Dieses strukturierte Vesting hilft, sofortige große VerkĂ€ufe zu verhindern und stellt sicher, dass die Stiftung und die KernbeitrĂ€ger im Laufe der Zeit Ressourcen haben, um das Netzwerk zu erweitern.

Token-Nutzen: SOMI ist zentral fĂŒr Somnias Ökosystem und folgt einem Delegated Proof of Stake (DPoS)-Modell. Seine Hauptanwendungen umfassen:

  • Staking und Sicherheit: Validatoren mĂŒssen jeweils 5.000.000 SOMI staken, um einen Node zu betreiben und am Konsens teilzunehmen. Dieser erhebliche Einsatz (~0,5 % des Gesamtangebots pro Validator) bietet wirtschaftliche Sicherheit; böswillige Akteure riskieren den Verlust ihrer Einlage. Somnia strebt zunĂ€chst 100 Validatoren an, was bedeutet, dass bis zu 500 Millionen SOMI fĂŒr den Node-Betrieb gestaked werden könnten (wobei ein Teil davon aus der Delegation stammen kann, siehe unten). ZusĂ€tzlich können Delegatoren (alle Token-Inhaber) SOMI staken, indem sie an Validatoren delegieren, um ihnen zu helfen, die 5M-Anforderung zu erfĂŒllen. Delegatoren erhalten im Gegenzug einen Anteil an den Belohnungen. Dies eröffnet auch Nicht-Validatoren Staking-Renditen und hilft, den Einsatz unter vielen Token-Inhabern zu dezentralisieren. Nur gestakte Token (entweder von Validatoren oder ĂŒber Delegation) sind fĂŒr Netzwerkbelohnungen berechtigt – das bloße Halten von Token ohne Staking bringt keine Belohnungen.
  • GasgebĂŒhren: Alle On-Chain-Transaktionen und Smart Contract-AusfĂŒhrungen erfordern SOMI fĂŒr GasgebĂŒhren. Das bedeutet, jede Interaktion (Transfers, Mints, DApp-Nutzung) schafft Nachfrage nach dem Token. Somnias Gasmodell basiert auf dem von Ethereum (gleiche Einheitsdefinitionen), jedoch mit Anpassungen und viel niedrigeren Basiskosten. Wie spĂ€ter detailliert beschrieben, hat Somnia GebĂŒhren im Sub-Cent-Bereich und sogar dynamische Rabatte fĂŒr DApps mit hohem Volumen, aber GebĂŒhren werden immer noch in SOMI bezahlt. Wenn das Netzwerk also stark genutzt wird (z. B. ein beliebtes Spiel oder eine soziale App), benötigen Benutzer und Entwickler SOMI, um ihre Transaktionen zu finanzieren, was den Nutzen antreibt.
  • Validator-/Delegator-Belohnungen: Block-Belohnungen auf Somnia stammen aus TransaktionsgebĂŒhren und einer Community-Treasury, nicht aus Inflation. Insbesondere werden 50 % aller GasgebĂŒhren an Validatoren (und deren Delegatoren) als Belohnungen verteilt. Die anderen 50 % der GebĂŒhren werden als deflationĂ€rer Mechanismus verbrannt (aus dem Umlauf genommen). Diese GebĂŒhrenaufteilung (HĂ€lfte an Validatoren, HĂ€lfte verbrannt) Ă€hnelt Ethereums EIP-1559-Modell, außer dass es in Somnias aktuellem Design eine feste 50/50-Aufteilung ist. In der Praxis leiten sich die Einnahmen der Validatoren aus dem GebĂŒhrenvolumen des Netzwerks ab – mit zunehmender Nutzung steigen die GebĂŒhrenbelohnungen. Um die Sicherheit zu Beginn zu gewĂ€hrleisten, bevor die GebĂŒhren signifikant sind, hat Somnia auch Treasury-Anreize fĂŒr Validatoren. Die Community-Zuteilung umfasst Token, die fĂŒr Staking-Belohnungen und LiquiditĂ€t vorgesehen sind; die Stiftung kann diese bei Bedarf verteilen (wahrscheinlich als ErgĂ€nzungen der Staking-Rendite in den ersten Jahren). Wichtig ist, dass nur gestakte Token Belohnungen verdienen – dies fördert die aktive Teilnahme und bindet das Angebot. Delegatoren teilen sich die GebĂŒhrenbelohnungen ihres gewĂ€hlten Validators proportional zu ihrem Einsatz, abzĂŒglich der Provision des Validators (jeder Validator legt eine „Delegationsrate“ fest, z. B. wenn auf 80 % eingestellt, werden 80 % der Belohnungen dieses Validators mit den Delegierten geteilt). Somnia bietet zwei Delegationsoptionen: Delegation an einen spezifischen Validator-Pool (unterliegt einer 28-tĂ€gigen Unbonding-Periode oder einem sofortigen Not-Unstake mit einer hohen 50 % Slashing-Strafe) oder Delegation an einen allgemeinen Pool, der automatisch auf alle unter-gestakten Validatoren verteilt (keine Sperrfrist, aber wahrscheinlich eine gemischte, niedrigere Rendite). Dieses flexible DPoS-Design motiviert Token-Inhaber, das Netzwerk fĂŒr Belohnungen zu sichern, wĂ€hrend es eine einfache Ausstiegsmöglichkeit (allgemeiner Pool) fĂŒr diejenigen bietet, die LiquiditĂ€t wĂŒnschen.
  • Governance: Wenn Somnia reift, wird SOMI Netzwerkentscheidungen regieren. Token-Inhaber werden schließlich ĂŒber VorschlĂ€ge abstimmen, die Protokoll-Upgrades, die Verwendung von Treasury-Fonds, wirtschaftliche Parameter usw. betreffen. Das Projekt sieht eine vielschichtige Governance vor (siehe „Tokens Governance“ unten), bei der SOMI-Inhaber (das „Token House“) hauptsĂ€chlich die Zuteilungen von Stiftungs- und Community-Fonds kontrollieren, wĂ€hrend Validatoren, Entwickler und Benutzer RĂ€te fĂŒr technische und politische Entscheidungen haben. Im frĂŒhen Mainnet wird die Governance hauptsĂ€chlich von der Somnia Foundation (fĂŒr AgilitĂ€t und Sicherheit) gehandhabt, aber ĂŒber 1–2 Jahre wird sie schrittweise an die Token-Community und die RĂ€te dezentralisiert. Das Halten von SOMI wird somit Einfluss auf die Richtung des Ökosystems verleihen und es zu einem Governance-Token zusĂ€tzlich zu einem Utility-Token machen.

DeflationĂ€re Mechanismen: Da das Angebot fest ist, setzt Somnia auf GebĂŒhrenverbrennung, um deflationĂ€ren Druck zu erzeugen. Wie bereits erwĂ€hnt, werden 50 % jeder GasgebĂŒhr dauerhaft verbrannt. Das bedeutet, wenn die Netzwerknutzung hoch ist, wird das zirkulierende Angebot von SOMI im Laufe der Zeit abnehmen, was potenziell die Token-Knappheit erhöhen kann. Wenn beispielsweise in einem Monat GebĂŒhren im Wert von 1 Million SOMI generiert werden, wĂŒrden 500.000 SOMI vernichtet. Dieser Verbrennungsmechanismus kann Token-Freischaltungen oder VerkĂ€ufe ausgleichen und den langfristigen Token-Wert an die Netzwerknutzung koppeln (mehr AktivitĂ€t -> mehr Verbrennung). ZusĂ€tzlich unterstĂŒtzt Somnia derzeit beim Start keine benutzerdefinierten Trinkgelder (PrioritĂ€tsgebĂŒhren) – das Basiskostenmodell ist angesichts des hohen Durchsatzes effizient genug, obwohl sie spĂ€ter Trinkgelder einfĂŒhren könnten, wenn Überlastung auftritt. Bei extrem niedrigen GebĂŒhren ist die Verbrennung pro Transaktion winzig, aber in großem Maßstab (Milliarden von Transaktionen) akkumuliert sie sich. Somnias Wirtschaftsmodell kombiniert daher Null-Inflation, geplante Freischaltungen und GebĂŒhrenverbrennung, um langfristige Nachhaltigkeit zu gewĂ€hrleisten. Wenn das Netzwerk Mainstream-Volumen erreicht, könnte SOMI deflationĂ€r werden, was Stakern und Inhabern zugutekommt, da das Angebot abnimmt.

Highlights des Gasmodells: Somnias Gaspreisgestaltung ist im Allgemeinen viel billiger als die von Ethereum, aber mit einigen neuartigen Wendungen fĂŒr Fairness und Skalierbarkeit. Die meisten Opcode-Kosten werden nach unten angepasst (da Somnias Durchsatz und Effizienz höher sind), aber die Speicherkosten wurden pro Einheit nach oben kalibriert (um Missbrauch angesichts der niedrigen GebĂŒhr pro Gas zu vermeiden). Zwei besonders bemerkenswerte Funktionen, die fĂŒr 2025 geplant sind, sind:

  • Dynamische Volumenrabatte: Somnia fĂŒhrt einen gestaffelten Gaspreisrabatt fĂŒr Konten oder Anwendungen ein, die eine hohe TPS-Nutzung aufrechterhalten. Im Endeffekt gilt: Je mehr Transaktionen eine App oder ein Benutzer pro Stunde ausfĂŒhrt, desto niedriger ist der effektive Gaspreis, den sie zahlen (bis zu 90 % Rabatt bei ~400 TPS). Diese volumenbasierte Preisgestaltung soll groß angelegte DApps anreizen, auf Somnia zu laufen, indem ihre Kosten bei Skalierung drastisch reduziert werden. Sie wird als schrittweise sinkender Gaspreis implementiert, sobald bestimmte TPS-Schwellenwerte pro Konto ĂŒberschritten werden (0,1, 1, 10, 100, 400 TPS usw.). Dieses Modell (dessen EinfĂŒhrung nach dem Mainnet-Start erwartet wird) belohnt Projekte, die eine hohe Last verursachen, und stellt sicher, dass Somnia erschwinglich bleibt, selbst wenn es Echtzeitspiele oder soziale Feeds mit Hunderten von Transaktionen pro Sekunde antreibt. Es ist ein ungewöhnlicher Mechanismus (die meisten Chains haben einen flachen GebĂŒhrenmarkt), der Somnias Priorisierung von Massen-Durchsatz-AnwendungsfĂ€llen signalisiert.
  • Transiente Speicherung: Somnia plant, zeitlich begrenzte Speicheroptionen anzubieten, bei denen ein Entwickler Daten nur vorĂŒbergehend (fĂŒr Stunden oder Tage) On-Chain speichern kann, zu viel geringeren Gaskosten als bei permanenter Speicherung. Zum Beispiel kann eine On-Chain-Variable, die nur eine Stunde lang bestehen muss (wie ein Spiellobby-Status oder die ephemere Position eines Spielers), mit ~90 % weniger Gas gespeichert werden als ein normaler permanenter Schreibvorgang. Der Gasplan fĂŒr einen 32-Byte-SSTORE könnte 20.000 Gas fĂŒr 1 Stunde Speicherung vs. 200.000 fĂŒr unbegrenzte Speicherung betragen. Dieses Konzept des „transienten Zustands“ ist explizit auf Gaming- und Unterhaltungsanwendungen ausgerichtet, die viele temporĂ€re Daten (Bestenlisten, Spielzustand) generieren, die nicht ewig On-Chain leben mĂŒssen. Durch die Bereitstellung eines ablaufbasierten Speichers mit Rabatten kann Somnia solche Echtzeitanwendungen effizienter unterstĂŒtzen. Die Implementierung beinhaltet wahrscheinlich das automatische Verwerfen des Zustands nach der gewĂ€hlten Dauer (oder das Verschieben in einen separaten Speicher), obwohl Details noch veröffentlicht werden mĂŒssen. Diese Funktion, kombiniert mit Somnias Komprimierung, ist darauf ausgelegt, On-Chain-Spiele zu unterstĂŒtzen, die große Mengen an Zustandsaktualisierungen verwalten, ohne die Chain aufzublĂ€hen oder enorme Kosten zu verursachen.

Insgesamt stimmen Somnias Tokenomics mit seinem Ziel ĂŒberein, Web3 im Web2-Maßstab zu betreiben. Ein großer anfĂ€nglicher Token-Pool finanzierte Entwicklung und Ökosystem-Wachstum (mit renommierten UnterstĂŒtzern und langen Sperrfristen, die Engagement signalisieren), wĂ€hrend das laufende Wirtschaftsdesign marktgetriebene Belohnungen (ĂŒber GebĂŒhren) und Deflation nutzt, um den Wert zu erhalten. SOMI-Inhaber werden zum Staking und zur Teilnahme angeregt, da alle Netzwerk-Vorteile (GebĂŒhreneinnahmen, Governance-Macht) aktiven Stakern zugutekommen. Mit einem begrenzten Angebot und nutzungsabhĂ€ngiger Verbrennung ist der Wert von SOMI eng an den Erfolg des Netzwerks gekoppelt: Wenn mehr Benutzer und Apps beitreten, steigt die Nachfrage nach Token (fĂŒr Gas und Staking) und das Angebot nimmt durch Verbrennungen ab, wodurch eine Feedback-Schleife entsteht, die die langfristige Nachhaltigkeit des Tokens unterstĂŒtzt.

Ökosystem und Partnerschaften​

Obwohl Somnia sein Mainnet erst Ende 2025 startete, trat es dank einer umfangreichen Testnet-Phase und der UnterstĂŒtzung von BranchengrĂ¶ĂŸen mit einem robusten Ökosystem von Projekten und strategischen Partnern auf den Plan.

Ökosystem-dApps und -Protokolle: Bis zum Mainnet-Start bauten bereits ĂŒber 70 Projekte und dApps auf Somnia auf oder integrierten sich. Das anfĂ€ngliche Ökosystem konzentriert sich stark auf Gaming- und soziale Anwendungen, was Somnias Zielmarkt immersiver Echtzeit-Apps widerspiegelt. Bemerkenswerte Projekte sind:

  • Sparkball: Ein Flaggschiff-Web3-Spiel auf Somnia, Sparkball ist ein rasantes 4v4-Sport-MOBA/Brawler, entwickelt von Opti Games. Es schloss sich Somnia als Launch-Titel an und fĂŒhrte On-Chain-Gameplay und NFT-basierte Team-Assets ein. Sparkball demonstriert Somnias FĂ€higkeit, schnelles Matchmaking und In-Game-Transaktionen (z. B. das Minten/Handeln von Spielern oder GegenstĂ€nden) mit vernachlĂ€ssigbarer Latenz zu handhaben.
  • Variance: Ein Anime-Themen-Roguelite-RPG mit reichhaltiger Geschichte und ohne Pay-to-Win-Mechaniken. Die Entwickler von Variance (Veteranen von PokĂ©mon GO und Axie Infinity) wĂ€hlten Somnia wegen seiner KapazitĂ€t, große Spielökonomien und Transaktionen kostengĂŒnstig zu handhaben. Nach GesprĂ€chen mit Somnias GrĂŒnder war das Team ĂŒberzeugt, dass Somnia die BedĂŒrfnisse der Spieleentwickler und die Vision fĂŒr Web3-Gaming verstand. Variance verlagerte seine In-Game-Token ($VOID) und NFT-Logik auf Somnia, wodurch Funktionen wie On-Chain-Loot-Drops und spielereigene Assets in großem Maßstab ermöglicht wurden. Die Community des Spiels wuchs nach der AnkĂŒndigung des Wechsels zu Somnia erheblich. Variance fĂŒhrte Playtests und Community-Quests auf Somnias Testnet durch, demonstrierte Multiplayer-On-Chain-KĂ€mpfe und belohnte Spieler mit NFTs und Token.
  • Maelstrom Rise: Ein Marine-Battle-Royale-Spiel (man denke an Fortnite auf See) von Uprising Labs. Maelstrom bietet Echtzeit-SchiffskĂ€mpfe und eine integrierte On-Chain-Wirtschaft fĂŒr Upgrades und SammlerstĂŒcke. Bereits Off-Chain (auf Steam) verfĂŒgbar, wechselt Maelstrom zu Somnia, um Spielern echte EigentĂŒmerschaft an Kriegsschiffen und GegenstĂ€nden zu ermöglichen. Es ist eines der zugĂ€nglicheren Web3-Spiele, das darauf abzielt, traditionelle Gamer durch die Mischung aus bekanntem Gameplay und Blockchain-Vorteilen an Bord zu holen.
  • Dark Table CCG: Ein On-Chain-Sammelkartenspiel, das bis zu 4 Spieler pro Match unterstĂŒtzt. Es bietet Free-to-Play-Deckbau, wobei alle Karten als NFTs vorliegen, die Spieler besitzen und frei handeln können. Dark Table nutzt Somnia, um eine plattformĂŒbergreifende Kartenwirtschaft ohne zentrale Server zu betreiben, wodurch Spieler ihre Decks wirklich besitzen können. Es ist so konzipiert, dass es einfach zugĂ€nglich ist (kein Krypto-Kauf zum Start erforderlich), um sowohl Gelegenheits- als auch Wettkampf-Kartenspieler fĂŒr Web3 zu gewinnen.
  • Netherak Demons: Ein Dark-Fantasy-Action-RPG, unterstĂŒtzt von Somnias Dream Catalyst Accelerator. Spieler passen DĂ€monencharaktere an und nehmen an Echtzeit-PvE- und PvP-KĂ€mpfen teil, mit einer NFT-Sammlung, die an den Spielfortschritt gebunden ist. Netherak nutzt Somnias Technologie, um eine persistente Charakterentwicklung On-Chain zu ermöglichen – die Errungenschaften und Beute der Spieler werden als Assets aufgezeichnet, die sie kontrollieren, was dem Gameplay eine bedeutungsvolle Bedeutung verleiht.
  • Masks of the Void: Ein Roguelite-Action-Adventure-Spiel mit prozedural generierten Levels, ebenfalls unterstĂŒtzt von Uprising Labs. Es war ein geschlossener Playtest geplant, bei dem das Minten eines kostenlosen NFT frĂŒhen Zugang gewĂ€hrt, was zeigt, wie Somnia NFT-Gating fĂŒr Spielinhalte integrieren kann. Masks of the Void betont die Wiederspielbarkeit und Blockchain-verbesserte Progression (z. B. Meta-Game-Belohnungen, die von Run zu Run als NFTs bestehen bleiben).

Dies sind nur einige Highlights. Das Somnia-Gaming-Ökosystem umfasst viele Genres – von Marine-Shootern ĂŒber Kartenspiele bis hin zu RPGs – was die breite AttraktivitĂ€t der Plattform fĂŒr Entwickler zeigt. All diese Spiele nutzen On-Chain-Funktionen (EigentĂŒmerschaft von GegenstĂ€nden, Token fĂŒr Belohnungen, NFT-Charaktere usw.), die eine Hochleistungs-Chain erfordern, um fĂŒr Spieler angenehm zu sein. FrĂŒhe Ergebnisse sind vielversprechend: Zum Beispiel lief auf Somnias Testnet eine vollstĂ€ndig On-Chain-Sandbox-MMO-Demo namens „Chunked“ (von Improbable gebaut), bei der Tausende von Spielern in Echtzeit interagierten und in 5 Tagen 250 Millionen Transaktionen generierten – eine rekordverdĂ€chtige Last, die Somnias FĂ€higkeiten bestĂ€tigte.

Über das Gaming hinaus umfasst Somnias anfĂ€ngliches Ökosystem weitere Web3-Bereiche:

  • Soziales und Metaverse: Somnia soll dezentrale soziale Netzwerke und virtuelle Welten antreiben, obwohl spezifische Apps noch in den AnfĂ€ngen stecken. Es gibt jedoch Hinweise auf soziale Plattformen. Zum Beispiel hat Somnia mit Yuga Labs zusammengearbeitet, um Otherside-NFTs (aus dem Metaverse des Bored Ape Yacht Club) in Somnias Welt zu integrieren, wodurch diese Assets in immersiven Erlebnissen genutzt werden können. Community-gesteuerte Events wie BoredElon Musks Edison „Gamevents“ wurden 2023 mit Improbable-Technologie durchgefĂŒhrt, und Somnia ist bereit, solche Metaverse-Events in Zukunft vollstĂ€ndig On-Chain zu bringen. Es gibt auch eine Somnia Metaverse Browser-Anwendung – im Wesentlichen ein benutzerdefinierter Web3-Browser/Wallet, der auf virtuelle Weltinteraktionen ausgerichtet ist und es Benutzern erleichtert, DApps und Metaverse-Erlebnisse in einer OberflĂ€che zu nutzen. Wenn das Netzwerk reift, werden soziale dApps (dezentrale Twitter-/Reddit-Analoga, Community-Hubs) und Metaverse-Plattformen auf Somnia starten, die seine IdentitĂ€tsportabilitĂ€t-Funktionen nutzen (Somnia unterstĂŒtzt nativ MSquareds offene Standards fĂŒr Avatar- und Asset-InteroperabilitĂ€t ĂŒber Welten hinweg).
  • DeFi und Sonstiges: Beim Start war Somnia nicht primĂ€r DeFi-fokussiert, aber einige Infrastruktur ist vorhanden. Es gibt Integrationen mit Preis-Orakeln wie DIA (fĂŒr On-Chain-Preis-Feeds) und Chainlink VRF ĂŒber Protofire-Adapter (fĂŒr ZufĂ€lligkeit in Spielen). Einige DeFi-Ă€hnliche AnwendungsfĂ€lle wurden diskutiert, wie z. B. vollstĂ€ndig On-Chain-Orderbuch-Börsen (Somnias geringe Latenz könnte das Order-Matching On-Chain Ă€hnlich einer zentralisierten Börse ermöglichen). Wir können erwarten, dass ein AMM oder DEX erscheint (die Docs enthalten sogar eine Anleitung zum Bau eines DEX auf Somnia), und vielleicht neuartige Protokolle, die Gaming und Finanzen mischen (z. B. NFT-Lending oder tokenisierte Spiel-Asset-MĂ€rkte). Die PrĂ€senz von Custody-Anbietern BitGo und Fireblocks als Partner deutet auch auf ein Auge auf die UnterstĂŒtzung institutioneller und finanzieller AnwendungsfĂ€lle hin (sie machen das Halten von Token fĂŒr Börsen und Fonds sicher). DarĂŒber hinaus kann Somnias Technologie KI- und datenintensive Apps unterstĂŒtzen (das Dreamthon-Programm fordert explizit KI- und InfoFi-Projekte), sodass wir Innovationen wie dezentrale KI-Agenten oder DatenmarktplĂ€tze auf der Chain sehen könnten.

Strategische Partnerschaften: Somnia wird von einer beeindruckenden Liste von Partnern und UnterstĂŒtzern getragen:

  • Improbable und MSquared: Improbable – ein fĂŒhrendes Metaverse-Technologieunternehmen – ist der primĂ€re Entwicklungspartner von Somnia. Improbable hat die Somnia-Blockchain im Auftrag der Somnia Foundation gebaut und dabei seine jahrzehntelange Expertise in verteilten Systemen eingebracht. MSquared (MÂČ), eine von Improbable unterstĂŒtzte Metaverse-Netzwerkinitiative, ist ebenfalls eng involviert. Zusammen haben Improbable und MSquared bis zu 270 Millionen US-Dollar zugesagt, um Somnias Entwicklung und Ökosystem zu unterstĂŒtzen. Dieser enorme Investitionspool (AnkĂŒndigung Anfang 2025) stammte teilweise aus MÂČs 150 Millionen US-Dollar-Kapitalerhöhung im Jahr 2022 (die Andreessen Horowitz, SoftBank Vision Fund 2, Mirana und andere als Investoren umfasste) und 120 Millionen US-Dollar aus Improbables Venture-Allokation. Die Finanzierung unterstĂŒtzt ZuschĂŒsse, Marketing und das Onboarding von Projekten. Improbables Beteiligung bringt auch technische Integrationen: Somnia ist darauf ausgelegt, mit Improbables Morpheus-Technologie fĂŒr massive virtuelle Events zusammenzuarbeiten. Im Jahr 2023 betrieb Improbable virtuelle Erlebnisse wie MLB’s Virtual Ballpark und K-Pop-Konzerte mit Zehntausenden gleichzeitiger Benutzer – diese Benutzer könnten bald in Somnia integriert werden, sodass Event-Interaktionen On-Chain-Assets oder Token ergeben. Improbable und MSquared stellen im Wesentlichen sicher, dass Somnia sowohl die finanzielle Grundlage als auch reale AnwendungsfĂ€lle (Metaverse-Events, Spiele) hat, um die Adoption anzukurbeln.
  • Infrastruktur & Web3-Dienste: Somnia integrierte sich vom ersten Tag an mit vielen großen Blockchain-Dienstleistern:
    • OpenSea: Der weltweit grĂ¶ĂŸte NFT-Marktplatz ist mit Somnia integriert, was bedeutet, dass Somnia-basierte NFTs auf OpenSea gehandelt werden können. Dies ist ein großer Gewinn fĂŒr Spieleentwickler auf Somnia – ihre In-Game-NFTs (Charaktere, Skins usw.) haben sofortige LiquiditĂ€t und Sichtbarkeit auf einem beliebten Marktplatz.
    • LayerZero: Somnia ist ĂŒber LayerZeros Stargate-Protokoll mit anderen Chains verbunden, was Omnichain-Asset-Transfers und -Bridges ermöglicht. Zum Beispiel können Benutzer USDC oder andere Stablecoins einfach ĂŒber Stargate von Ethereum nach Somnia bridgen. Diese InteroperabilitĂ€t ist entscheidend, um LiquiditĂ€t in Somnias Ökosystem zu bringen.
    • Ankr: Ankr bietet RPC-Nodes und globale Node-Infrastruktur. Es wird wahrscheinlich verwendet, um öffentliche RPC-Endpunkte, Node-Hosting und API-Dienste fĂŒr Somnia anzubieten, was es Entwicklern erleichtert, auf das Netzwerk zuzugreifen, ohne eigene Full Nodes betreiben zu mĂŒssen.
    • Sequence (Horizon): Sequence ist eine Smart Contract-Wallet und Entwicklerplattform, die auf Spiele zugeschnitten ist (von Horizon). Die Integration mit Sequence deutet darauf hin, dass Somnia Smart Wallet-Funktionen (z. B. Gas-Abstraktionen, Login mit E-Mail/Social) nutzen kann, um Mainstream-Benutzer an Bord zu holen. Sequences Multi-Chain-Wallet hat wahrscheinlich UnterstĂŒtzung fĂŒr Somnia hinzugefĂŒgt, sodass Spieler Transaktionen mit einer benutzerfreundlichen OberflĂ€che signieren können.
    • Thirdweb: Thirdwebs Web3-SDKs und -Tools sind vollstĂ€ndig mit Somnia kompatibel. Thirdweb bietet Plug-and-Play-Module fĂŒr NFT-Drops, MarktplĂ€tze, Token und insbesondere Account Abstraction. TatsĂ€chlich enthalten Somnias Docs Anleitungen zu gaslosen Transaktionen und Account Abstraction ĂŒber Thirdweb. Diese Partnerschaft bedeutet, dass Entwickler auf Somnia schnell DApps mit Thirdwebs Bibliotheken erstellen können und Benutzer von Funktionen wie der One-Click-Walletless-Onboarding profitieren können (GasgebĂŒhren, die von der DApp gesponsert werden usw.).
    • DIA & Orakel: DIA ist ein dezentraler Orakel-Anbieter; Somnia verwendet DIA-Preis-Feeds fĂŒr DeFi- oder In-Game-Wirtschaftsdaten. ZusĂ€tzlich arbeitete Somnia mit Protofire zusammen, um Chainlink VRF (verifizierbare Zufallsfunktion) fĂŒr die Zufallszahlengenerierung in Somnia Smart Contracts anzupassen. Dies stellt sicher, dass Spiele sichere ZufĂ€lligkeit (fĂŒr Loot-Drops usw.) erhalten können. Wir können weitere Orakel-Integrationen (vielleicht Chainlink Full Price Feeds in Zukunft) erwarten, je nach Bedarf von DeFi-Projekten.
  • Cloud- und Unternehmenspartner: Google Cloud investierte nicht nur, sondern betreibt auch einen Validator, was GlaubwĂŒrdigkeit und Expertise in der Cloud-Infrastruktur bietet. Die aktive Validierung des Netzwerks durch die Cloud-Sparte eines Tech-Giganten hilft bei der ZuverlĂ€ssigkeit und öffnet TĂŒren fĂŒr Unternehmenskooperationen (z. B. könnte Google Cloud Blockchain-Node-Dienste fĂŒr Somnia anbieten oder Somnia in seinen Marktplatz aufnehmen). Es gab auch Partnerschaften mit Fireblocks und BitGo – dies sind fĂŒhrende Anbieter von digitalen Asset-Custody und Wallets. Ihre Beteiligung bedeutet, dass Börsen und Institutionen SOMI und Somnia-basierte Assets vom ersten Tag an sicher verwahren können, was den Weg fĂŒr SOMI-Listings und institutionelle Adoption ebnet. TatsĂ€chlich listete Binance kurz nach dem Mainnet SOMI und prĂ€sentierte es in einer Werbe-Airdrop-Kampagne, wahrscheinlich durch diese Custody-Bereitschaft erleichtert.
  • Ökosystem-Wachstumsprogramme: Die Somnia Foundation hat ein 10 Millionen US-Dollar Grant Program eingerichtet, um Entwickler zu finanzieren, die auf Somnia aufbauen. Dieses Grant Program startete zusammen mit dem Mainnet, um die Entwicklung von Tools, DApps, Forschung und Community-Initiativen zu fördern. ErgĂ€nzt wird es durch Dream Catalyst, Somnias Accelerator speziell fĂŒr Web3-Gaming-Startups. Dream Catalyst (betrieben mit Uprising Labs) bietet Finanzierung, Infrastruktur-Credits, Mentoring und Go-to-Market-Support fĂŒr Spielestudios, die auf Somnia aufbauen. Mindestens ein halbes Dutzend Spiele (wie Netherak Demons und andere) waren Teil der ersten Dream Catalyst-Kohorte und erhielten Teile dieses 10 Millionen US-Dollar-Fonds. Es gibt auch Dreamthon, ein bevorstehendes Accelerator-Programm fĂŒr andere Vertikalen – mit Fokus auf DeFi, KI, „InfoFi“ (InformationsmĂ€rkte) und SocialFi-Projekte im Somnia-Ökosystem. ZusĂ€tzlich organisierte Somnia wĂ€hrend des gesamten Testnets Online-Hackathons und Quests: zum Beispiel ein 60-tĂ€giges Somnia Odyssey-Event, das Benutzer fĂŒr das Erledigen von Aufgaben belohnte und wahrscheinlich in einem Airdrop gipfelte. FrĂŒhe Benutzer konnten „Punkte“ und NFTs fĂŒr das Testen von dApps verdienen (ein Punkteprogramm), und Mini-Hackathons sind geplant, um Entwickler kontinuierlich zu engagieren. Dieser vielschichtige Ansatz – ZuschĂŒsse, Acceleratoren, Hackathons, Community-Quests – zeigt Somnias starkes Engagement, schnell ein lebendiges Ökosystem aufzubauen, indem Barrieren abgebaut und Experimentatoren finanziert werden.

Zusammenfassend lĂ€sst sich sagen, dass Somnia nicht isoliert gestartet ist, sondern von einer mĂ€chtigen Allianz aus Technologieunternehmen, Investoren und Dienstleistern unterstĂŒtzt wird. Improbables UnterstĂŒtzung verleiht ihm modernste Technologie und eine Pipeline massiver virtueller Events. Partnerschaften mit Unternehmen wie Google Cloud, Binance, LayerZero, OpenSea und anderen stellen sicher, dass Somnia von Anfang an in die breitere Krypto-Infrastruktur eingebunden ist, was seine AttraktivitĂ€t fĂŒr Entwickler (die zuverlĂ€ssige Tools und LiquiditĂ€t wĂŒnschen) und fĂŒr Benutzer (die einfaches Bridging und Handeln von Assets fordern) erhöht. Gleichzeitig bauen eine Reihe von Web3-Spielen – Sparkball, Variance, Maelstrom und weitere – aktiv auf Somnia auf, um die erste Welle vollstĂ€ndig On-Chain-Unterhaltung zu sein, die die FĂ€higkeiten des Netzwerks demonstriert. Mit Dutzenden von Projekten, die live oder in Entwicklung sind, war Somnias Ökosystem beim Mainnet-Start bereits reicher als einige Chains Jahre nach dem Start. Diese starke Dynamik wird wahrscheinlich weiter zunehmen, da die ZuschĂŒsse und Partnerschaften weiterhin FrĂŒchte tragen und Somnia in den kommenden Jahren möglicherweise als zentraler Hub fĂŒr On-Chain-Gaming und Metaverse-Anwendungen positionieren.

Entwickler- und Benutzerinfrastruktur​

Somnia wurde entwickelt, um entwicklerfreundlich zu sein und potenziell Millionen von Benutzern an Bord zu holen, die möglicherweise nicht kryptoaffin sind. Als EVM-kompatible Chain unterstĂŒtzt es die vertraute Ethereum-Toolchain sofort, bietet aber auch benutzerdefinierte SDKs und Dienste, um das Entwicklererlebnis und das Benutzer-Onboarding zu verbessern.

Entwickler-Tools und KompatibilitĂ€t: Somnia behĂ€lt die volle Ethereum Virtual Machine-KompatibilitĂ€t bei, was bedeutet, dass Entwickler Smart Contracts in Solidity oder Vyper schreiben und mit minimalen Änderungen bereitstellen können. Das Netzwerk unterstĂŒtzt Standard-Ethereum-RPC-Schnittstellen und Chain-ID, sodass Tools wie Hardhat, Truffle, Foundry und Bibliotheken wie Web3.js oder ethers.js nahtlos funktionieren (die Somnia-Docs bieten sogar spezifische Anleitungen fĂŒr die Bereitstellung mit Hardhat und Foundry). Dies senkt die Lernkurve erheblich – jeder Solidity-Entwickler kann ein Somnia-Entwickler werden, ohne eine neue Sprache oder VM lernen zu mĂŒssen.

Um die Entwicklung und das Testen zu beschleunigen, startete Somnia eine interaktive Playground-Umgebung. Der Playground ermöglicht es Teams (insbesondere Gaming-/Metaverse-Teams), On-Chain-Logik reibungsarm zu prototypisieren, indem sie Vorlagen fĂŒr NFTs, Minispiele, soziale Token usw. verwenden. Er bietet wahrscheinlich ein Sandbox-Netzwerk oder ein Entwicklerportal fĂŒr schnelle Iterationen. ZusĂ€tzlich ist Somnias GitBook-Dokumentation umfassend und deckt alles ab, von der Bereitstellung von Smart Contracts bis zur Verwendung erweiterter Funktionen (wie Ormi APIs, siehe unten).

Somnia SDKs und APIs: Somnia erkannte, dass das effiziente Abfragen von On-Chain-Daten genauso wichtig ist wie das Schreiben von Smart Contracts, und ging eine Partnerschaft mit Ormi Labs ein, um robuste Datenindizierungs- und API-Dienste bereitzustellen. Ormi ist im Wesentlichen Somnias Antwort auf The Graph: Es bietet Subgraphen und GraphQL-APIs zum Indizieren von Smart Contract-Events und -ZustĂ€nden. Entwickler können benutzerdefinierte Subgraphen fĂŒr ihre DApps erstellen (z. B. um alle Spielgegenstands-NFTs oder sozialen BeitrĂ€ge zu indizieren) ĂŒber Ormi und diese Daten dann einfach abfragen. Die Ormi Data APIs liefern strukturierte On-Chain-Daten mit hoher VerfĂŒgbarkeit, sodass Frontend-Anwendungen keine eigenen Indexer-Nodes betreiben mĂŒssen. Dies vereinfacht die Erstellung reichhaltiger BenutzeroberflĂ€chen auf Somnia erheblich. Somnia hat Codelabs und Tutorials durchgefĂŒhrt, die zeigen, wie man dApp-UIs mit Ormis GraphQL-Endpunkten erstellt, was eine starke UnterstĂŒtzung fĂŒr diese Tools zeigt. Kurz gesagt, Somnia bietet erstklassige IndizierungsunterstĂŒtzung, die fĂŒr Dinge wie Bestenlisten in Spielen oder Feeds in sozialen Apps entscheidend ist – Daten, die schnell gefiltert und abgerufen werden mĂŒssen.

ZusÀtzlich zu Ormi listet Somnias Infrastrukturseite mehrere öffentliche RPC-Endpunkte und Explorer-Dienste auf:

  • RPC-Endpunkte von Anbietern wie Ankr (fĂŒr den öffentlichen Zugang zum Netzwerk).
  • Block-Explorer: Es scheint, dass Somnia einen Testnet-Explorer („Shannon“) und vermutlich einen Mainnet-Explorer zur Verfolgung von Transaktionen und Konten hatte. Explorer sind fĂŒr Entwickler und Benutzer unerlĂ€sslich, um Transaktionen zu debuggen und On-Chain-AktivitĂ€ten zu ĂŒberprĂŒfen.
  • Safes (Multisig): Die Docs erwĂ€hnen „Safes“, wahrscheinlich die Integration mit Safe (ehemals Gnosis Safe) fĂŒr Multi-Signatur-Wallets. Dies bedeutet, dass DAOs oder Spielestudios auf Somnia sichere Multisig-Wallets verwenden können, um ihre Treasury oder In-Game-Assets zu verwalten. Die Safe-Integration ist ein weiteres InfrastrukturstĂŒck, das Somnia unternehmens- und DAO-fĂ€hig macht.
  • Wallet-Adapter: Viele beliebte Web3-Wallets werden unterstĂŒtzt. MetaMask kann sich mit Somnia verbinden, indem die Netzwerk-RPC konfiguriert wird (die Docs leiten Benutzer durch das HinzufĂŒgen von Somnias Netzwerk zu MetaMask). FĂŒr ein nahtloseres Benutzererlebnis arbeitete Somnia mit RainbowKit und ConnectKit (React-Bibliotheken fĂŒr Wallet-Verbindungen) zusammen, um sicherzustellen, dass DApp-Entwickler Benutzern einfach ermöglichen können, sich mit einer Vielzahl von Wallets zu verbinden. Es gibt auch eine Anleitung zur Verwendung von Privy (eine Wallet-Lösung, die sich auf benutzerfreundliches Login konzentriert).
  • Account Abstraction: Über Thirdwebs SDK unterstĂŒtzt Somnia Account Abstraction-Funktionen. Zum Beispiel können Thirdwebs Smart Wallet oder Account Abstraction SDK auf Somnia verwendet werden, um Meta-Transaktionen (gaslose UX) oder Social-Login-Wallets zu ermöglichen. Die Docs beschreiben explizit gaslose Transaktionen mit Thirdweb, was bedeutet, dass DApps Gas im Namen von Benutzern bezahlen können – eine entscheidende FĂ€higkeit fĂŒr die Mainstream-Adoption, da Endbenutzer möglicherweise nicht einmal SOMI halten mĂŒssen, um ein Spiel zunĂ€chst zu spielen.

Benutzer-Onboarding und Community-Engagement: Somnias Team war proaktiv beim Aufbau einer Community von Entwicklern und Endbenutzern:

  • Der Somnia Discord ist der zentrale Hub fĂŒr Entwickler (mit einem dedizierten Dev-Chat und Support vom Kernteam). WĂ€hrend des Testnets konnten Entwickler Test-Token (STT) ĂŒber Discord anfordern, um ihre Smart Contracts bereitzustellen und zu testen. Dieser direkte Support-Kanal half vielen Projekten beim Onboarding.
  • FĂŒr Endbenutzer organisierte Somnia Events wie die Somnia Quest und die Somnia Odyssey. Die Quest war eine Kampagne im Juni 2025, bei der Benutzer soziale und Testnet-Aufgaben (wie Folgen auf X, Beitritt zu Discord, Ausprobieren von DApps) erledigten, um Belohnungen zu verdienen und eine Bestenliste zu erklimmen. Die Odyssey (erwĂ€hnt in einem Blog vom 9. September 2025) war ein 60-tĂ€giges Abenteuer, das wahrscheinlich zum Mainnet fĂŒhrte, bei dem Benutzer, die konsequent mit Testnet-Apps interagierten oder etwas ĂŒber Somnia lernten, einen Airdrop freischalten konnten. TatsĂ€chlich verteilte Binances HODLer Airdrop am 1. September 2025 30 Millionen SOMI (3 % des Angebots) an Binance-Benutzer, die bestimmte Kriterien erfĂŒllten. Dies war ein großes Benutzerakquisitionsereignis, das Tausenden von Krypto-Benutzern effektiv einen Anteil an Somnia und einen Anreiz gab, das Netzwerk auszuprobieren. Der Airdrop und verschiedene Quests haben Somnia geholfen, eine anfĂ€ngliche Benutzerbasis und Social-Media-PrĂ€senz aufzubauen (Somnias Twitter – jetzt X – und andere KanĂ€le sind schnell gewachsen).
  • Metaverse Browser: Wie erwĂ€hnt, fĂŒhrte Somnia eine spezialisierte Metaverse Browser-Anwendung ein. Dies dient wahrscheinlich als benutzerfreundliches Gateway, ĂŒber das jemand eine Wallet erstellen, Somnia-DApps durchsuchen und nahtlos an virtuellen Events teilnehmen kann. Es verfĂŒgt ĂŒber eine integrierte Web3-Wallet und eine einfache OberflĂ€che fĂŒr den Zugriff auf DApps. Diese Art von kuratierter Erfahrung könnte Nicht-Krypto-Benutzern den Einstieg in die Blockchain erleichtern (zum Beispiel könnte ein Gamer den Somnia-Browser herunterladen und an einem virtuellen Konzert teilnehmen, bei dem der Browser die Wallet-Erstellung und Token-Transaktionen im Hintergrund abwickelt).
  • Entwickler-Accelerator-Programme: Wir haben Dream Catalyst und Dreamthon unter Ökosystem behandelt, aber aus der Perspektive der Entwicklerinfrastruktur stellen diese Programme auch sicher, dass neue Entwickler Anleitung und Ressourcen erhalten. Dream Catalyst bot nicht nur Finanzierung, sondern auch Infrastruktur-Tools und Community-Building-Support. Das bedeutet, dass teilnehmende Teams wahrscheinlich Hilfe bei der Integration von Somnias SDKs, der Optimierung ihrer Smart Contracts fĂŒr Somnias Architektur usw. erhielten.

In Bezug auf Dokumentation und Ressourcen:

  • Somnia bietet ein Lightpaper und OnePager fĂŒr schnelle Übersichten (auf ihrer Website verlinkt) und ein detaillierteres Litepaper/Whitepaper in den Docs (der von uns referenzierte Abschnitt „Concepts“ dient diesem Zweck).
  • Sie haben Beispiel-Repositories und Code-Vorlagen (zum Beispiel, wie man einen DEX baut, wie man Subgraphen verwendet, wie man Wallets integriert – alles in ihrem offiziellen GitBook bereitgestellt). Durch die Bereitstellung dieser senkt Somnia die Eintrittsbarriere fĂŒr Entwickler von anderen Chains, die schnell etwas zum Laufen bringen wollen.
  • Audits: Die Docs erwĂ€hnen einen Audits-Abschnitt, was impliziert, dass der Somnia-Code externen Sicherheitsaudits unterzogen wurde. Obwohl in unseren Quellen keine Details angegeben sind, ist dies eine wichtige Infrastruktur – sie stellt sicher, dass die Node-Software und wichtige Smart Contracts (wie die Staking- oder Token-Smart Contracts) auditiert werden, um Entwickler und Benutzer zu schĂŒtzen.

Insgesamt erscheint Somnias Entwicklerinfrastruktur gut durchdacht: EVM-KompatibilitĂ€t fĂŒr Vertrautheit, erweitert durch benutzerdefinierte Daten-APIs, integrierte Account Abstraction und starke EntwicklerunterstĂŒtzung. FĂŒr Benutzer zielt die Kombination aus extrem niedrigen GebĂŒhren, möglichen gaslosen Transaktionen und spezialisierten Anwendungen (Metaverse Browser, Quests usw.) darauf ab, ein Web2-Niveau-Benutzererlebnis auf einer Web3-Plattform zu bieten. Somnias frĂŒher Fokus auf Community-Engagement (Airdrops, Quests) zeigt eine Growth-Hacking-MentalitĂ€t – das Netzwerk mit Inhalten und Benutzern zu versorgen, damit Entwickler einen Grund zum Bauen haben und umgekehrt. Wenn Somnia wĂ€chst, können wir noch verfeinerte SDKs (vielleicht Plugins fĂŒr Unity/Unreal fĂŒr Spieleentwickler) und kontinuierliche Verbesserungen der Benutzer-Wallets (vielleicht native mobile Wallets oder Social Logins) erwarten. Die betrĂ€chtliche Finanzierung der Stiftung stellt sicher, dass sowohl Entwickler als auch Benutzer mit den Tools unterstĂŒtzt werden, die sie benötigen, um auf Somnia erfolgreich zu sein.

AnwendungsfĂ€lle und Anwendungen​

Somnia wurde speziell entwickelt, um eine neue Klasse dezentraler Anwendungen zu ermöglichen, die zuvor aufgrund von Blockchain-EinschrĂ€nkungen undurchfĂŒhrbar waren. Sein hoher Durchsatz und seine geringe Latenz öffnen die TĂŒr zu vollstĂ€ndig On-Chain, Echtzeit-Erlebnissen in verschiedenen Bereichen:

  • Gaming (GameFi): Dies ist Somnias Hauptfokus. Mit Somnia können Entwickler Spiele entwickeln, bei denen jede Spielaktion (Bewegung, Kampf, Item-Drops, Handel) in Echtzeit On-Chain aufgezeichnet oder ausgefĂŒhrt werden kann. Dies bedeutet echte EigentĂŒmerschaft an In-Game-Assets – Spieler halten ihre Charaktere, Skins, Karten oder Beute als NFTs/Token in ihren eigenen Wallets, nicht in der Datenbank eines Spieleunternehmens. Ganze Spielökonomien können On-Chain laufen, was Funktionen wie Play-to-Earn-Belohnungen, Peer-to-Peer-Handel ohne ZwischenhĂ€ndler und Community-gesteuerte Spielmodifikationen ermöglicht. Entscheidend ist, dass Somnias KapazitĂ€t (1M+ TPS) und schnelle FinalitĂ€t On-Chain-Spiele reaktionsschnell machen. Zum Beispiel kann ein Action-RPG auf Somnia Tausende von Spieleraktionen pro Sekunde ohne Verzögerung ausfĂŒhren, oder ein Sammelkartenspiel kann sofortige ZĂŒge und Mischungen On-Chain haben. Somnias Account Abstraction und niedrige GebĂŒhren ermöglichen es Spielen auch, potenziell Gas fĂŒr Spieler zu ĂŒbernehmen, was das Erlebnis nahtlos macht (Spieler merken möglicherweise nicht einmal, dass eine Blockchain im Hintergrund lĂ€uft). Die Plattform sieht explizit „vollstĂ€ndig On-Chain-Spiele im Internet-Maßstab“ vor – persistente virtuelle Welten oder MMOs, bei denen der Spielzustand auf Somnia lebt und so lange fortbesteht, wie die Community ihn am Leben erhĂ€lt. Da Assets On-Chain sind, könnte ein Spiel auf Somnia sogar unter Community-Kontrolle weiterentwickelt werden, wenn der ursprĂŒngliche Entwickler ausscheidet – ein im Web2 unmögliches Konzept. Aktuelle Beispiele: Sparkball demonstriert einen On-Chain-Multiplayer-Sport-Brawler; Chunked (die Improbable-Tech-Demo) zeigte eine Minecraft-Ă€hnliche Sandbox vollstĂ€ndig On-Chain mit echten Benutzerinteraktionen; Variance und Maelstrom werden zeigen, wie reichhaltigere RPG- und Battle-Royale-Erlebnisse in die Blockchain ĂŒbersetzt werden. Das ultimative Versprechen sind Spiele, bei denen Hunderttausende von Spielern gleichzeitig in einer gemeinsamen On-Chain-Welt spielen – etwas, das Somnia einzigartig handhaben kann.
  • Soziale Netzwerke und Web3-Social Media: Mit Somnia könnte man eine dezentrale soziale Plattform aufbauen, bei der Benutzerprofile, BeitrĂ€ge, Follower und Likes alle On-Chain-Daten unter Benutzerkontrolle sind. Zum Beispiel könnte eine Twitter-Ă€hnliche DApp auf Somnia jeden Tweet als On-Chain-Nachrichten-NFT und jeden Follow als On-Chain-Beziehung speichern. In einem solchen Netzwerk besitzen Benutzer wirklich ihre Inhalte und ihren sozialen Graphen, die problemlos auf andere Apps portiert werden könnten. Somnias Skalierung bedeutet, dass ein sozialer Feed virale AktivitĂ€ten (Millionen von BeitrĂ€gen und Kommentaren) ohne AbstĂŒrze bewĂ€ltigen könnte. Und FinalitĂ€t im Subsekundenbereich bedeutet, dass Interaktionen (Posten, Kommentieren) nahezu sofort erscheinen, wie Benutzer es im Web2 erwarten. Ein Vorteil von On-Chain-Social ist die Zensurresistenz – kein einzelnes Unternehmen kann Ihre Inhalte löschen oder Ihr Konto sperren – und die DatenportabilitĂ€t – Sie könnten zu einem anderen Frontend oder Client wechseln und Ihre Follower/Inhalte behalten, weil sie auf einem öffentlichen Ledger liegen. Das Somnia-Team erwĂ€hnt explizit dezentrale soziale Netzwerke, die auf selbstsouverĂ€ner IdentitĂ€t und portablen sozialen Graphen basieren, als Kernanwendungsfall. Sie sehen auch eine User Assembly Governance vor, bei der wichtige Benutzer ein Mitspracherecht haben (dies könnte sich darauf beziehen, wie soziale Netzwerke Inhalte dezentral moderieren). Ein konkretes frĂŒhes Beispiel sind wahrscheinlich Community-Foren innerhalb von Spielen – z. B. könnte ein Spiel auf Somnia einen On-Chain-Gilden-Chat oder ein Event-Board haben, das dezentral ist. Langfristig könnte Somnia jedoch vollwertige Alternativen zu Facebook oder Twitter hosten, insbesondere fĂŒr Communities, die Freiheit und EigentĂŒmerschaft schĂ€tzen. Ein weiterer interessanter Aspekt sind Creator-eigene Plattformen: Stellen Sie sich einen YouTube-Ă€hnlichen Dienst auf Somnia vor, bei dem Video-NFTs Inhalte reprĂ€sentieren und Creator direkt ĂŒber Mikrotransaktionen oder tokenisiertes Engagement verdienen. Somnias Durchsatz könnte die Metadaten und Interaktionen bewĂ€ltigen (obwohl die Videospeicherung Off-Chain wĂ€re), und seine gĂŒnstigen Transaktionen ermöglichen Mikro-Tipping und Token-Belohnungen fĂŒr die Inhaltserstellung.
  • Metaverse und virtuelle Welten: Somnia bietet die IdentitĂ€ts- und Wirtschaftsinfrastruktur fĂŒr Metaversen. In der Praxis bedeutet dies, dass virtuelle Weltplattformen Somnia fĂŒr Avatar-IdentitĂ€ten, Cross-World-Assets und Transaktionen innerhalb virtueller Erlebnisse nutzen können. MSquareds offene Standards fĂŒr Avatare/Assets werden auf Somnia unterstĂŒtzt, sodass der 3D-Avatar oder digitale Modeartikel eines Benutzers als Token auf Somnia dargestellt und ĂŒber verschiedene Welten hinweg portiert werden können. Zum Beispiel könnten Sie einen einzigen Avatar-NFT haben, den Sie in einem virtuellen Konzert, einem Sporttreffen und einem Spiel verwenden – alles auf Somnia-basierten Plattformen. Da Improbable massive Events (wie virtuelle Sport-Watch-Partys, Musikfestivals usw.) orchestriert, kann Somnia die Wirtschaftsschicht handhaben: das Minten von POAPs (Proof-of-Attendance-Token), den Verkauf von virtuellem Merchandise als NFTs, die Belohnung von Teilnehmern mit Token und die Ermöglichung von Peer-to-Peer-Handel in Echtzeit wĂ€hrend der Events. Somnias FĂ€higkeit, Zehntausende gleichzeitiger Benutzer in einem gemeinsamen Zustand zu unterstĂŒtzen (durch Multi-Stream-Konsens), ist entscheidend fĂŒr Metaverse-Szenarien, in denen eine große Menschenmenge gleichzeitig Transaktionen durchfĂŒhren oder interagieren könnte. Die MLB Virtual Ballpark- und K-Pop-Events im Jahr 2023 (vor Somnia) erreichten Tausende von Benutzern; mit Somnia könnten diese Benutzer jeweils Wallets und Assets haben, was Dinge wie einen Live-NFT-Drop an alle im „Stadion“ oder ein Echtzeit-Token-Scoreboard fĂŒr die Event-Teilnahme ermöglicht. Im Wesentlichen kann Somnia eine persistente, interoperable Metaverse-Wirtschaft untermauern: Stellen Sie es sich als das Ledger vor, das aufzeichnet, wer was ĂŒber viele miteinander verbundene virtuelle Welten hinweg besitzt. Dies unterstĂŒtzt AnwendungsfĂ€lle wie virtuelle Immobilien (Land-NFTs), die gehandelt oder beliehen werden können, Cross-World-Quest-Belohnungen (erledige ein Ziel in Spiel A, erhalte einen in Welt B nutzbaren Gegenstand) oder sogar IdentitĂ€tsreputation (On-Chain-Aufzeichnungen der Errungenschaften oder Anmeldeinformationen eines Benutzers ĂŒber Plattformen hinweg).
  • Dezentrale Finanzen (DeFi): Obwohl Somnia hauptsĂ€chlich als Consumer-App-Chain positioniert ist, eröffnet seine hohe Leistung einige faszinierende DeFi-Möglichkeiten. Zum einen kann Somnia Hochfrequenzhandel und komplexe Finanzinstrumente On-Chain hosten. Das Team erwĂ€hnt explizit vollstĂ€ndig On-Chain-Limit-OrderbĂŒcher. Auf Ethereum sind Orderbuch-Börsen unpraktisch (zu langsam/teuer), weshalb DeFi AMMs verwendet. Aber auf Somnia könnte ein DEX einen Orderbuch-Smart Contract fĂŒhren und Orders in Echtzeit abgleichen, genau wie eine zentralisierte Börse, weil die Chain Tausende von Operationen pro Sekunde verarbeiten kann. Dies könnte CEX-Ă€hnliche FunktionalitĂ€t und LiquiditĂ€t On-Chain mit Transparenz und Self-Custody bringen. Ein weiterer Bereich ist das Echtzeit-Risikomanagement: Somnias Geschwindigkeit könnte On-Chain-Derivate ermöglichen, die Margenanforderungen jede Sekunde aktualisieren, oder Live-Options-OrderbĂŒcher. DarĂŒber hinaus könnte Somnia mit seiner transienten Speicherfunktion Dinge wie ephemere VersicherungsvertrĂ€ge oder Streaming-Zahlungen unterstĂŒtzen, die nur fĂŒr kurze Zeit existieren. DeFi-Protokolle auf Somnia könnten auch sein deterministisches Gas fĂŒr vorhersehbarere Kosten nutzen. Zum Beispiel könnte eine Mikrokreditplattform auf Somnia problemlos winzige Transaktionen (wie 0,01 US-Dollar Zinszahlungen pro Minute) verarbeiten, da die GebĂŒhren Bruchteile eines Cents betragen. Somnia könnte also Web3-Mikrotransaktionen und Zahlungsströme in DeFi und darĂŒber hinaus antreiben (etwas, das Ethereum in großem Maßstab wirtschaftlich nicht leisten kann). ZusĂ€tzlich könnte Somnias FĂ€higkeit, Daten zu komprimieren und Signaturen zu aggregieren, das Batching von Tausenden von Transfers oder Trades in einem Block ermöglichen, was den Durchsatz fĂŒr DeFi-AnwendungsfĂ€lle wie Airdrops oder Massenauszahlungen weiter steigert. Obwohl DeFi nicht der Marketingfokus ist, wird wahrscheinlich ein effizientes Finanzökosystem auf Somnia entstehen, um die Spiele und Metaversen zu unterstĂŒtzen (z. B. DEXes fĂŒr Spiel-Token, Lending-MĂ€rkte fĂŒr NFTs usw.). Wir könnten spezialisierte Protokolle sehen, zum Beispiel eine NFT-Fraktionalisierungsbörse, auf der Gaming-Items fraktional gehandelt werden können – Somnia kann die sprunghafte Nachfrage bewĂ€ltigen, wenn ein beliebtes Item plötzlich stark ansteigt.
  • IdentitĂ€t und Anmeldeinformationen: Somnias Kombination aus selbstsouverĂ€ner IdentitĂ€t und hoher KapazitĂ€t ermöglicht On-Chain-IdentitĂ€tssysteme, die fĂŒr Authentifizierung, Reputation und Anmeldeinformationen im Web3 verwendet werden könnten. Zum Beispiel könnte ein Benutzer einen IdentitĂ€ts-NFT oder Soulbound-Token auf Somnia haben, der seine Errungenschaften bezeugt (wie „X Spiel-Quests abgeschlossen“ oder „Y Events besucht“ oder sogar Off-Chain-Anmeldeinformationen wie AbschlĂŒsse oder Mitgliedschaften). Diese könnten ĂŒber mehrere Anwendungen hinweg verwendet werden. Der portable soziale Graph eines Benutzers – wer seine Freunde sind, welchen Communities er angehört – kann auf Somnia gespeichert und von einem Spiel oder einer sozialen Plattform zur nĂ€chsten mitgenommen werden. Dies ist mĂ€chtig, um die Silos des Web2 aufzubrechen: Stellen Sie sich vor, Sie wechseln eine soziale App, behalten aber Ihre Follower, oder ein Gamer-Profil, das Ihre Geschichte in neue Spiele mitnimmt (was Ihnen vielleicht Veteranen-Vorteile einbringt). Mit Somnias Governance-Modell, das eine User Assembly (wichtige Benutzer, die Aufsicht fĂŒhren) integriert, könnten wir auch identitĂ€tsbasierte Governance sehen, bei der Benutzer mit nachgewiesener Teilnahme mehr Mitspracherecht bei bestimmten Entscheidungen erhalten (alles On-Chain ĂŒber diese Anmeldeinformationen durchsetzbar). Ein weiterer Anwendungsfall sind Content Creator Economies – ein Creator könnte seinen eigenen Token oder seine NFT-Serie auf Somnia an seine Fangemeinde ausgeben, und diese könnten den Zugang ĂŒber verschiedene Plattformen hinweg freischalten (Videos, Chats, virtuelle Events). Da Somnia große Volumina verarbeiten kann, könnte ein beliebter Creator mit Millionen von Fans Abzeichen an alle airdroppen oder Mikro-Tipping in Echtzeit wĂ€hrend eines Live-Streams handhaben.
  • Echtzeit-Webdienste: Im Großen und Ganzen kann Somnia als dezentrales Backend fĂŒr Dienste fungieren, die sofortige Antworten erfordern. Man denke an eine dezentrale Messaging-App, bei der Nachrichten On-Chain-Events sind – mit FinalitĂ€t im Subsekundenbereich könnten zwei Benutzer ĂŒber Somnia chatten und Nachrichten nahezu sofort und unverĂ€nderlich erscheinen sehen (vielleicht mit VerschlĂŒsselung des Inhalts, aber Zeitstempel und Proofs On-Chain). Oder ein Online-Marktplatz, bei dem Bestellungen und Angebote Smart Contracts sind – Somnia könnte Inventar und VerkĂ€ufe in Echtzeit aktualisieren, Doppel-Ausgaben von GegenstĂ€nden verhindern und atomare Swaps von Waren gegen Bezahlung ermöglichen. Sogar Streaming-Plattformen könnten Blockchain fĂŒr das Rechte-Management integrieren: z. B. könnte ein Musik-Streaming-Dienst auf Somnia die Wiedergabezahlen von Songs und Lizenz-Mikrozahlungen an KĂŒnstler alle paar Sekunden der Wiedergabe verwalten (weil er Hochfrequenz-Kleintransaktionen verarbeiten kann). Im Wesentlichen ermöglicht Somnia Web2-Niveau-InteraktivitĂ€t mit Web3-Vertrauen und EigentĂŒmerschaft. Jede Anwendung, bei der viele Benutzer gleichzeitig interagieren (Auktionen, Multiplayer-Kollaborationstools, Live-Daten-Feeds), könnte auf Somnia dezentralisiert werden, ohne die Leistung zu opfern.

Aktueller Status der AnwendungsfĂ€lle: Ende 2025 drehen sich die greifbarsten AnwendungsfĂ€lle auf Somnia um Gaming und SammlerstĂŒcke – mehrere Spiele befinden sich in der Test- oder Early-Access-Phase im Mainnet, und NFT-Sammlungen (Avatare, Spiel-Assets) werden auf Somnia gemintet. Das Netzwerk hat erfolgreich riesige Test-Events (Milliarden von Testnet-Transaktionen, groß angelegte Demos) ermöglicht, die beweisen, dass diese AnwendungsfĂ€lle nicht nur theoretisch sind. Der nĂ€chste Schritt ist die Umwandlung dieser Tests in kontinuierliche Live-Anwendungen mit echten Benutzern. FrĂŒhe Anwender wie Sparkball und Variance werden wichtige Lackmustests sein: Wenn sie Tausende von tĂ€glichen Spielern auf Somnia anziehen können, wird die Chain wirklich ihre Muskeln spielen lassen und vielleicht noch mehr Spieleentwickler anziehen.

Potenzielle zukĂŒnftige Anwendungen sind spannend zu betrachten. Zum Beispiel nationale oder unternehmensweite Projekte: Eine Regierung könnte Somnia verwenden, um eine digitale ID auszugeben oder eine Wahl On-Chain abzuwickeln (Millionen von Stimmen in Sekunden, mit Transparenz), oder eine Börse könnte es fĂŒr den Handel mit tokenisierten Wertpapieren mit hoher Frequenz verwenden. Der fĂŒr Dreamthon erwĂ€hnte InfoFi-Teil deutet auf Dinge wie dezentrales Reddit oder VorhersagemĂ€rkte (massive Anzahl kleiner Wetten und Abstimmungen) hin, die Somnia antreiben könnte.

Zusammenfassend lĂ€sst sich sagen, dass Somnias AnwendungsfĂ€lle Gaming, Social, Metaverse, DeFi, IdentitĂ€t und darĂŒber hinaus umfassen, alle durch einen gemeinsamen Faden verbunden: Echtzeit-, massenhafte Transaktionen mit vollem On-Chain-Vertrauen. Es zielt darauf ab, Erlebnisse, die normalerweise zentralisierten Servern vorbehalten sind, in den dezentralen Bereich zu bringen. Wenn Ethereum dezentrale Finanzen vorangetrieben hat, ist Somnias Ambition, dezentrales Leben – von Unterhaltung bis zu sozialen Verbindungen – voranzutreiben, indem es endlich die Leistung liefert, die fĂŒr Mainstream-Anwendungen benötigt wird. Wenn das Netzwerk reift, werden wir wahrscheinlich neue Innovationen sehen, die seine einzigartigen Funktionen nutzen (z. B. Spiele, die transienten Zustand fĂŒr Physiksimulationen verwenden, oder soziale Apps, die Streaming-Komprimierung verwenden, um Millionen winziger Aktionen zu verarbeiten). Die nĂ€chsten ein bis zwei Jahre werden zeigen, welche dieser potenziellen Anwendungen an Zugkraft gewinnen und Somnias Versprechen in der Praxis beweisen.

Wettbewerbslandschaft​

Somnia betritt eine ĂŒberfĂŒllte Layer-1-Arena, aber es hebt sich durch seinen extremen Durchsatz und seinen Fokus auf vollstĂ€ndig On-Chain-Verbraucheranwendungen ab. Hier ist ein Vergleich von Somnia mit einigen anderen prominenten L1-Blockchains:

AspektSomnia (SOMI)Ethereum (ETH)Solana (SOL)Avalanche (AVAX)Sui (SUI)
Start (Mainnet)2025 (Q3) – neuer Akteur, unterstĂŒtzt von Improbable2015 (Vorreiter, jetzt L1 + L2 Ökosystem)2020 (Hochleistungs-monolithische L1)2020 (Multi-Chain-Plattform: P-Chain, C-Chain, Subnetze)2023 (Move-basierte L1)
KonsensmechanismusMultiStream PoS-BFT: Viele parallele Validator-Chains + PBFT-Konsenskette (inspiriert von Autobahn). PoS mit ~100 Validatoren.Proof-of-Stake + Nakamoto-Konsens (Gasper): ~700k Validatoren (permissionless). Blöcke alle ~12 Sek., finalisiert in ~2 Epochen (≈12 Min.) in aktueller Form.Tower BFT PoS unter Verwendung von Proof-of-History fĂŒr das Timing. ~2200 Validatoren. Rotierender Leader, parallele Blockverarbeitung.Snowman (Avalanche) Konsens auf der P-Chain, mit leaderlosem, wiederholtem Subsampling. ~1000 Validatoren. C-Chain verwendet PoS Ethereum-Ă€hnlichen Konsens (Snowman). Subnetze können benutzerdefinierte Konsense verwenden.Narwhal & Bullshark DAG-basierter PoS mit sofortiger Leader-Rotation. ~100 Validatoren (permissionless wachsende Menge). Verwendet Move-VM.
Durchsatz1.000.000+ TPS in Tests demonstriert (1,05M ERC-20 TX/Sek. auf 100 Nodes). Zielt auf Internet-Skalierung ab (Millionen+ TPS dauerhaft).~15–30 TPS auf Mainnet L1. Skaliert ĂŒber L2-Rollups (theoretisch unbegrenzt, aber jeder Rollup ist separat).~2.000–3.000 TPS typisch; auf Testnet bis zu ~50k TPS getestet (theoretisch 65k+ TPS). Hochgradig parallel fĂŒr nicht ĂŒberlappende TX.~4.500 TPS auf der C-Chain (EVM) unter idealen Bedingungen. Subnetze ermöglichen horizontale Skalierung durch HinzufĂŒgen weiterer Chains.~20.000+ TPS in Tests (Sui Devnet erreichte in einem Benchmark 297k TPS). Realer TPS ist niedriger (Hunderte bis niedrige Tausende). Verwendet parallele AusfĂŒhrung fĂŒr unabhĂ€ngige Transaktionen.
TransaktionsfinalitĂ€t~0,1–0,5 Sekunden (FinalitĂ€t im Subsekundenbereich, deterministisch). Im Wesentlichen Echtzeit.~12 Sekunden Blockzeit, ~6-12 Minuten fĂŒr probabilistische FinalitĂ€t (mit PoS, final nach ~2 Epochen). ZukĂŒnftige Upgrades (Danksharding/PoS-Anpassungen) können die Zeit reduzieren.~0,4 Sekunden Blockzeit im Durchschnitt. FinalitĂ€t normalerweise innerhalb von ~1-2 Sekunden (Solana-Blöcke werden schnell finalisiert, abgesehen von Forks).~1–2 Sekunden bis zur FinalitĂ€t auf der C-Chain (Avalanche-Konsens hat schnelle FinalitĂ€t). Subnetz-FinalitĂ€t kann variieren, aber im Allgemeinen 1-3s.~1 Sekunde typische FinalitĂ€t (Suis Konsens finalisiert Transaktionen unter optimistisch guten Netzwerkbedingungen sehr schnell).
SkalierungsmodellScale-up (vertikal) + parallele Streams: Eine Chain mit massivem Durchsatz durch optimierte AusfĂŒhrung + Multi-Leader-Konsens. Kein Sharding erforderlich; ein globaler Zustand. PlĂ€ne zur Erweiterung der Validatoren, wenn die Technologie reift.Layer-2-Skalierung & Sharding (Zukunft): Ethereum selbst bleibt dezentralisiert, aber niedriger TPS; skaliert ĂŒber Rollups (Arbitrum, Optimism usw.) darĂŒber. Sharding ist auf der Roadmap (Danksharding), um den L1-Durchsatz moderat zu erhöhen.Monolithische Chain: Der gesamte Zustand auf einer Chain. VerlĂ€sst sich auf hohe Node-Leistung und parallele AusfĂŒhrung. Kein Sharding (Solana opfert etwas Dezentralisierung fĂŒr rohen TPS).Subnetz & mehrere Chains: Avalanche P-Chain verwaltet Validatoren; C-Chain (EVM) ist eine Chain (~4,5k TPS). ZusĂ€tzliche Subnetze können fĂŒr neue Apps gestartet werden, jedes mit eigenem Durchsatz. Skaliert also horizontal durch HinzufĂŒgen weiterer Chains (aber jedes Subnetz ist ein separater Zustand).Mehrspurige AusfĂŒhrung: Sui verwendet objektbasierte AusfĂŒhrung, um TX zu parallelisieren. Wie Solana eine einzelne Chain, bei der der Durchsatz aus ParallelitĂ€t und hohen Hardware-Anforderungen resultiert. Kein Sharding; ein globaler Zustand (mit interner Objektpartitionierung).
Programmierung und VMEVM-kompatibel (Solidity, Vyper). Smart Contracts fĂŒr Leistung nach x86 kompiliert. UnterstĂŒtzt alle Ethereum-Tools.EVM (Solidity, Vyper) auf Mainnet. Riesiges, ausgereiftes Ökosystem von Entwickler-Tools und Frameworks.Benutzerdefinierte VM (genannt Sealevel) mit Rust oder C/C++. Nicht EVM-kompatibel. Verwendet LLVM fĂŒr BPF-Bytecode. Steilere Lernkurve (Rust), aber hohe Leistung.Mehrere VMs: Standard-C-Chain ist EVM (Solidity) – entwicklerfreundlich, aber geringere Leistung. Andere Subnetze können benutzerdefinierte VMs (z. B. Avalanche hat eine WASM-basierte Testnet-VM) fĂŒr spezifische Anforderungen ausfĂŒhren.Move VM: Verwendet Move, eine Rust-basierte sichere Sprache fĂŒr Assets. Nicht EVM-kompatibel, daher ist ein neues Ökosystem erforderlich. Fokus auf asset-orientierte Programmierung (Ressourcen).
Einzigartige InnovationenKompilierte EVM, IceDB, Multi-Stream-Konsens, BLS-Aggregation, transiente Speicherung – ermöglichen extremen TPS und großen Zustand. Deterministische Gaskosten pro Speicherzugriff. Komprimierung fĂŒr Bandbreite. Betonung von Echtzeit-dApps (Spiele/Metaverse).Sicherheit & Dezentralisierung – Ethereum priorisiert maximale Dezentralisierung und wirtschaftliche Sicherheit (Hunderttausende von Validatoren, 20 Mrd. US-Dollar+ gestaked). Hat wegweisende Funktionen wie Account Abstraction (ERC-4337) und ein fĂŒhrendes Smart Contract-Ökosystem. Die Basisschicht hat jedoch konstruktionsbedingt eine begrenzte Leistung (Skalierung auf L2s verlagert).Proof-of-History (Uhr vor Konsens) zur Beschleunigung der Reihenfolge; hochoptimierter Validator-Client. Parallele Laufzeit fĂŒr nicht-konfliktierende TX. Solanas Unterscheidungsmerkmal ist die rohe Geschwindigkeit auf einer monolithischen Chain, erfordert aber leistungsstarke Hardware (128+ GB RAM, High-End-CPU/GPUs). Es ist nicht EVM, was die einfache Adoption durch Ethereum-Entwickler einschrĂ€nkt.Subnetz-FlexibilitĂ€t – Möglichkeit, benutzerdefinierte Blockchains unter dem Avalanche-Validatoren-Set zu starten, zugeschnitten auf spezifische Apps (z. B. mit eigenem Gas-Token oder Regeln). Schnelle FinalitĂ€t durch Avalanche-Konsens. Die C-Chain (EVM)-Leistung ist jedoch viel geringer als die von Somnia, und die Verwendung mehrerer Subnetze opfert die Komponierbarkeit zwischen Apps.Objektzentrierte ParallelitĂ€t – Suis Objektmodell ermöglicht die gleichzeitige AusfĂŒhrung unabhĂ€ngiger Transaktionen, was den Durchsatz verbessert, wenn viele nicht verwandte TX vorhanden sind. Auch Funktionen wie Transaktions-Batching, kausale Reihenfolge fĂŒr bestimmte TX-Typen. Die Move-Sprache gewĂ€hrleistet die Asset-Sicherheit (kein versehentlicher Verlust von Token). Geringerer Durchsatz als Somnia, konzentriert sich aber auch auf Gaming (Sui betont NFTs und einfache Spiele mit Move).
Dezentralisierungs-KompromisseStartet mit ~60–100 Validatoren (anfĂ€nglich von der Stiftung ausgewĂ€hlt, dann von Token-Inhabern gewĂ€hlt). Hardware-Anforderungen relativ hoch (vergleichbar mit Solana/Aptos-Node). Also nicht so permissionless wie Ethereum, aber ausreichend fĂŒr seine AnwendungsfĂ€lle (Ziel ist es, das Validatoren-Set im Laufe der Zeit zu erweitern). Umfasst "ausreichende Dezentralisierung" fĂŒr Leistung.Sehr hohe Dezentralisierung (jeder kann 32 ETH staken, um einen Validator zu betreiben; Tausende unabhĂ€ngiger Validatoren). Sicherheit und Zensurresistenz sind erstklassig. Aber die Leistung leidet; benötigt L2s fĂŒr die Skalierung, die KomplexitĂ€t hinzufĂŒgen.In der Praxis stĂ€rker zentralisiert: <2500 Validatoren, wobei eine kleine Anzahl oft die meisten Blöcke produziert. Hohe Hardwarekosten bedeuten, dass viele Teilnehmer Google Cloud oder Rechenzentren nutzen (weniger Heimknoten). Das Netzwerk hat in der Vergangenheit unter hoher Last AusfĂ€lle erlebt.Ziemlich dezentralisiert: ~1000 Validatoren, und jeder kann beitreten, indem er mindestens ~2.000 AVAX staked. Avalanche-Konsens ist skalierbar in der Validatorenanzahl, ohne sich stark zu verlangsamen. Jedes Subnetz kann jedoch sein eigenes kleineres Validatoren-Set bilden, was möglicherweise etwas Sicherheit fĂŒr Leistung opfert.Moderate Dezentralisierung: etwa 100 Validatoren (wie Somnias Skalierung). Permissionless, aber bei der Genesis stark von einigen wenigen EntitĂ€ten unterstĂŒtzt. Verwendet auch delegierten PoS. Suis Ansatz Ă€hnelt dem von Somnia/Aptos, da es neu ist und ein relativ kleines Validatoren-Set hat, das wachsen soll.
Ökosystem & AdoptionEmerging – ~70 Projekte beim Start, hauptsĂ€chlich Gaming (Sparkball, Variance usw.). Starke UnterstĂŒtzung von Improbable (Metaverse-Events) und Finanzierung (270 Mio. US-Dollar). Muss sich mit echter Benutzeradoption nach dem Start beweisen. Integriert mit großen Diensten (OpenSea, LayerZero) fĂŒr einen schnellen Start.Ausgereift & riesig – Tausende von dApps, 20 Mrd. US-Dollar+ TVL in DeFi, NFT-Markt etabliert. Entwicklerpool ist hier am grĂ¶ĂŸten. FĂŒr Hochdurchsatz-Spiele wird Ethereum L1 jedoch nicht verwendet – diese Projekte nutzen Sidechains oder L2s. Ethereum ist die sichere Wahl fĂŒr allgemeine dApps, aber nicht fĂŒr Echtzeit-Apps ohne L2.Wachsend (insbesondere DeFi/NFT) – Solana hat ein starkes DeFi-Ökosystem (Serum, Raydium) und eine NFT-Szene (z. B. Degenerate Apes). Es ist auch fĂŒr Web3-Social-Apps bekannt (Solanas Saga-Telefon usw.). Einige Gaming-Projekte sind ebenfalls auf Solana. Es hat echte Benutzer (Zehntausende von Adressen), sah aber auch StabilitĂ€tsprobleme. Solana spricht diejenigen an, die L1-Geschwindigkeit ohne Sharding wĂŒnschen, auf Kosten einer stĂ€rker zentralisierten Infrastruktur.Ausgereift (insbesondere Unternehmen und Nischen) – Avalanche hat DeFi (Trader Joe usw.) und startete Gaming-Subnetze (z. B. DeFi Kingdoms wechselte zu einem Avalanche-Subnetz). Seine StĂ€rke ist die FlexibilitĂ€t: Projekte können ihre eigene Chain erhalten. Avalanches primĂ€re C-Chain ist jedoch durch die EVM-Leistung begrenzt. Somnias eine Chain kann Avalanches einzelne Chain um GrĂ¶ĂŸenordnungen ĂŒbertreffen, aber Avalanche kann mehrere parallele Chains haben. Die Komponierbarkeit zwischen Subnetzen ist ein Problem (sie benötigen Bridges).Neu & Fokus auf Gaming/NFT – Sui positioniert sich wie Somnia fĂŒr Spiele und Next-Gen-Apps (sie demonstrierten auch On-Chain-Spiele). Suis Move-Sprache ist fĂŒr einige Entwickler eine Barriere (nicht Solidity), bietet aber Sicherheitsfunktionen. Sein Ökosystem war 2023 in den Kinderschuhen – einige Spieledemos, NFTs und grundlegendes DeFi. Somnia könnte tatsĂ€chlich stĂ€rker mit Sui/Aptos um die Aufmerksamkeit im Web3-Gaming konkurrieren, da alle hohen TPS versprechen. Somnia hat den EVM-Vorteil (einfachere Adoption), wĂ€hrend Sui auf Moves Sicherheit und paralleles Design setzt.

Im Wesentlichen sind Somnias engste Analoga Solana, Sui/Aptos und vielleicht spezialisierte App-Chains wie bestimmte Avalanche-Subnetze oder Polygonz bevorstehende Hochleistungs-Chains. Wie Solana verzichtet Somnia auf extreme Dezentralisierung zugunsten der Leistung, aber Somnia unterscheidet sich dadurch, dass es beim EVM bleibt (was ihm hilft, auf Ethereums Entwicklerbasis aufzubauen) und einen einzigartigen Multi-Chain-Konsens einfĂŒhrt, anstatt einen Leader nach dem anderen. Solanas Ansatz zur ParallelitĂ€t (mehrere GPU-Threads, die verschiedene Transaktionen verarbeiten) steht im Gegensatz zu Somnias Ansatz (mehrere Validatoren, die jeweils verschiedene Streams verarbeiten). Bei korrelierten Lasten (ein heißer Smart Contract) glĂ€nzt Somnias Single-Core-Optimierung, wĂ€hrend Solanas ParallelitĂ€t gedrosselt wĂŒrde, da alle Threads um denselben Zustand konkurrieren.

Verglichen mit dem Ethereum-Mainnet ist Somnia um GrĂ¶ĂŸenordnungen schneller, opfert aber Dezentralisierung (100 Validatoren vs. Ethereums Hunderttausende). Ethereum hat auch ein weitaus grĂ¶ĂŸeres und bewĂ€hrtes Ökosystem. Ethereum kann jedoch Spiele oder soziale Apps in großem Maßstab nicht direkt handhaben – diese landen auf L2s oder Sidechains. Somnia positioniert sich im Wesentlichen als Alternative zu einem Ethereum-Rollup, das seine eigene L1 mit höherer Leistung als jeder aktuelle Rollup ist und keine Fraud Proofs oder separaten Sicherheitsannahmen benötigt (abgesehen von seinem kleineren Validatoren-Set). Langfristig wird Ethereums Roadmap (Sharding, Danksharding usw.) den Durchsatz erhöhen, aber wahrscheinlich nicht in die Millionen von TPS auf L1. Stattdessen setzt Ethereum auf Rollups; Somnia setzt auf die Skalierung der L1 selbst mit fortschrittlicher Technik. Sie konkurrieren möglicherweise nicht um genau dieselben AnwendungsfĂ€lle anfĂ€nglich (DeFi könnte auf Ethereum/L2 bleiben, wĂ€hrend Spiele zu Somnia oder Ă€hnlichen Chains gehen). InteroperabilitĂ€t (ĂŒber LayerZero oder andere) könnte es ihnen ermöglichen, sich gegenseitig zu ergĂ€nzen, wobei Assets bei Bedarf zwischen Ethereum und Somnia verschoben werden.

Avalanche bietet Subnetze, die wie Somnia fĂŒr Spiele mit hohem Durchsatz dediziert werden können. Der Unterschied ist, dass jedes Avalanche-Subnetz eine separate Instanz ist (man mĂŒsste eigene Validatoren aufsetzen oder einige Validatoren rekrutieren, um daran teilzunehmen). Somnia bietet stattdessen eine gemeinsame Hochleistungs-Chain, was die InteroperabilitĂ€t zwischen Apps erleichtert (alle Somnia-Apps leben auf einer Chain, komponierbar, wie auf Ethereum oder Solana). Avalanches primĂ€res Subnetz (C-Chain) ist EVM, aber viel langsamer als Somnia. Somnia ĂŒbertrifft also Avalanches gemeinsame Chain bei weitem, obwohl Avalanche skalieren kann, wenn ein Projekt ein benutzerdefiniertes Subnetz erstellt (aber dann hat dieses Subnetz möglicherweise nicht die volle allgemeine Komponierbarkeit oder Benutzerbasis). FĂŒr einen Entwickler könnte die Bereitstellung auf Somnia einfacher sein als die Verwaltung eines Avalanche-Subnetzes, und man greift sofort auf Somnias gemeinsamen Benutzerpool und LiquiditĂ€t zu.

Sui (und Aptos) werden oft als Next-Gen-Hoch-TPS-Chains genannt, die Move und parallelen Konsens verwenden. Somnias Vorteil gegenĂŒber Sui ist der Durchsatz (Sui hat keine Millionen TPS demonstriert; ihr Design liegt bestenfalls im niedrigen Hunderttausenderbereich) und die EVM-KompatibilitĂ€t. Suis Vorteil könnte die Sicherheit von Move fĂŒr komplexe Asset-Logik und möglicherweise eine dezentralere Roadmap sein (obwohl Sui beim Start auch etwa 100 Validatoren hatte). Wenn Somnia die Spielestudios gewinnt, die Solidity bevorzugen (vielleicht Solidity-Smart Contracts von Ethereum-Spielprototypen portieren), könnte es Sui im Ökosystem schnell ĂŒbertreffen, angesichts der GrĂ¶ĂŸe der Solidity-Entwickler-Community.

Somnia vergleicht sich auch mit Solana in Bezug auf das Ziel, Consumer-Web3 zu erreichen (beide haben soziale und Telefonintegrationen betont – Solana hatte ein Saga-Telefon, Somnia einen Browser usw.). Herman Narulas kĂŒhne Behauptung, dass Somnia „Tausende Male den Durchsatz von Solana“ leisten kann, gibt den Ton an, dass Somnia sich nicht nur als eine weitere schnelle Chain, sondern als die schnellste EVM-Chain sieht, wĂ€hrend Solana die schnellste Nicht-EVM-Chain ist. Wenn Somnia in der Praxis auch nur eine GrĂ¶ĂŸenordnung besseren dauerhaften TPS als Solana liefert (sagen wir, Solana schafft durchschnittlich 5k TPS und Somnia könnte durchschnittlich 50k oder mehr mit Spitzenwerten in Millionen erreichen), wird es wirklich eine Nische fĂŒr Anwendungen schaffen, die selbst Solana nicht bewĂ€ltigen kann (zum Beispiel ein Fortnite-großes Blockchain-Spiel oder ein globales soziales Netzwerk).

Ein weiterer Konkurrent, der zu beachten ist, sind Polygon 2.0 oder zkEVMs – obwohl keine L1s, bieten sie Skalierung fĂŒr EVM. Polygon arbeitet an einer Reihe von ZK-Rollups und Hochleistungs-Chains. Diese könnten potenziell einen Teil von Somnias Leistung erreichen, wĂ€hrend sie von der Ethereum-Sicherheit profitieren. ZK-Rollups mit 1M TPS sind jedoch noch nicht verfĂŒgbar, und selbst dann könnten sie an DatenverfĂŒgbarkeitsgrenzen stoßen. Somnias Ansatz ist eine All-in-One-Lösung mit eigener Sicherheit. Es wird beweisen mĂŒssen, dass seine Sicherheit (100 Validatoren PoS) robust genug fĂŒr Anwendungen mit viel Geld ist, etwas, das Ethereums Rollups von ETH erben. Aber fĂŒr Gaming und Social, wo die Sicherheitsanforderungen etwas anders sind (das Stehlen eines Game-Schwert-NFTs ist nicht so katastrophal wie das Stehlen von Milliarden in DeFi TVL), könnte Somnias Kompromiss perfekt akzeptabel und sogar vorzuziehen sein, aufgrund des Benutzererlebnisses.

Zusammenfassend lĂ€sst sich sagen, dass Somnia sich dadurch auszeichnet, dass es die Leistungsgrenzen weiter verschiebt als jede aktuelle Allzweck-L1, wĂ€hrend es die Vertrautheit von EVM beibehĂ€lt. Es zielt darauf ab, einen Platz auf dem Markt fĂŒr „Web3 im Web2-Maßstab“ zu besetzen, den andere nur teilweise adressiert haben:

  • Ethereum wird Vertrauen und DeFi dominieren, aber Hochfrequenzaufgaben an L2s auslagern (was KomplexitĂ€t und Fragmentierung hinzufĂŒgt).
  • Solana zeigte hohe TPS fĂŒr DeFi und NFTs, ist aber nicht EVM und hatte StabilitĂ€tsprobleme; Somnia könnte Projekte anziehen, die Solana-Ă€hnliche Geschwindigkeit mit Ethereum-Tools wĂŒnschen.
  • Avalanche bietet Anpassbarkeit und EVM-Komfort, hat aber nicht die nahezu Somnia-Leistung einer einzelnen Chain demonstriert.
  • Sui/Aptos gehören zur gleichen Generation wie Somnia und konkurrieren um Spieleentwickler, aber Somnias frĂŒhe Partnerschaften (Improbable, große Marken) und EVM-KompatibilitĂ€t verschaffen ihm einen starken Vorteil, wenn es gut umgesetzt wird.

Wie Narula sagte, ist Somnia wohl die erste Chain, die speziell fĂŒr Echtzeit-Virtual-Experiences in massivem Maßstab gebaut wurde. Wenn diese Erlebnisse (Spiele, Events, soziale Welten) die nĂ€chste große Welle der Blockchain-Adoption werden, könnte Somnias Konkurrenz tatsĂ€chlich die traditionelle Cloud-Infrastruktur (AWS usw.) ebenso sehr sein wie andere Blockchains – denn es versucht, zentralisierte Spielserver und soziale Datenbanken zu ersetzen, nicht nur um bestehende Blockchain-Apps zu konkurrieren. In diesem Licht wird Somnias Erfolg daran gemessen werden, ob es Anwendungen hosten kann, die Millionen von Benutzern anziehen, die vielleicht nicht einmal wissen (oder sich darum kĂŒmmern), dass eine Blockchain im Hintergrund lĂ€uft. Keine aktuelle L1 hat bisher dieses Niveau an Mainstream-Benutzer-App erreicht (selbst Solanas grĂ¶ĂŸte Apps haben Hunderttausende, nicht Millionen aktiver Benutzer). Das ist die Messlatte, die Somnia sich selbst gesetzt hat, und an der seine innovative Architektur in den kommenden Jahren getestet werden wird.

Roadmap und aktueller Status​

Somnias Reise hat sich in kurzer Zeit rasant vom Konzept zur RealitÀt entwickelt und entwickelt sich nach dem Mainnet mit klaren Zielen weiter:

JĂŒngste Entwicklungen (2024–2025):

  • Finanzierung und Testnet (2024): Das Projekt trat mit erheblichen Finanzmitteln aus dem Stealth-Modus hervor. Anfang 2024 kĂŒndigte Improbable die Zusage von 270 Millionen US-Dollar fĂŒr Somnia und das Ökosystem von MSquared an. Dies verschaffte eine enorme Startrampe. Somnia betrieb Ende 2024 (November) ein Devnet, bei dem es Rekorde brach: Es erreichte 1,05 Millionen TPS und andere Benchmarks in einem globalen Setup mit 100 Nodes. Diese Ergebnisse (einschließlich 50.000 Uniswap-Trades/Sek., 300.000 NFT-Mints/Sek.) wurden veröffentlicht, um GlaubwĂŒrdigkeit aufzubauen. Nach dem Devnet startete am 20. Februar 2025 ein vollstĂ€ndig öffentliches Testnet. Das Testnet (Codename Shannon) lief etwa 6 Monate lang. In dieser Zeit behauptet Somnia, ĂŒber 10 Milliarden Transaktionen verarbeitet und 118 Millionen Test-Wallet-Adressen an Bord geholt zu haben – erstaunliche Zahlen. Diese Zahlen umfassen wahrscheinlich skriptgesteuerte Lasttests und Community-Beteiligung. Das Testnet verzeichnete auch einen Spitzen-Tagesdurchsatz von 1,9 Milliarden Transaktionen an einem Tag (ein Rekord fĂŒr jeden EVM-Kontext). CoinDesk bemerkte diese Zahlen, aber auch, dass der öffentliche Explorer zu diesem Zeitpunkt offline war, um sie zu ĂŒberprĂŒfen, was impliziert, dass es sich teilweise um interne Metriken handelte. Nichtsdestotrotz demonstrierte das Testnet StabilitĂ€t unter beispielloser Last.

    WĂ€hrend des gesamten Testnets fĂŒhrte Somnia Engagement-Programme durch: ein Punkte-Anreizprogramm, bei dem frĂŒhe Benutzer, die Aufgaben erledigten, Punkte verdienen konnten (wahrscheinlich in zukĂŒnftige Token oder Belohnungen umwandelbar), und arbeitete mit Partnern zusammen (Spieleentwickler fĂŒhrten Playtests durch, Hackathons wurden abgehalten). In der Testnet-Phase wurden auch ĂŒber 70 Ökosystem-Partner/Projekte an Bord geholt. Dies deutet darauf hin, dass beim Mainnet viele Integrationen und Apps bereit oder nahezu bereit waren.

  • Mainnet-Start (Q3 2025): Somnia startete das Mainnet am 2. September 2025. Der Start umfasste die Veröffentlichung des SOMI-Tokens und die Aktivierung des Stakings. Bemerkenswert ist, dass beim Mainnet:

    • 60 Validatoren online gingen (mit großen Namen wie Google Cloud darunter).
    • Die Somnia Foundation ist operativ und ĂŒberwacht die Chain als neutraler Verwalter. Improbable lieferte die Technologie, und nun ist die Foundation (auch als Virtual Society Foundation bezeichnet) fĂŒr die Governance und die weitere Entwicklung verantwortlich.
    • SOMI-Listing und -Verteilung: Innerhalb eines Tages nach dem Start enthĂŒllte Binance SOMI als Teil seiner „Seed Tag“-Listings und fĂŒhrte den HODLer-Airdrop durch. Dies war ein großer Schub – effektiv eine Empfehlung einer Top-Börse. Viele neue L1s kĂ€mpfen darum, an Börsen Fuß zu fassen, aber Somnia brachte SOMI sofort ĂŒber Binance in die HĂ€nde der Benutzer.
    • In den sozialen Medien priesen Somnias Team und Partner die FĂ€higkeiten des Mainnets an. Eine Pressemitteilung von Improbable und Berichte in Medien wie CoinDesk, Yahoo Finance usw. verbreiteten die Nachricht, dass „die schnellste EVM-Chain“ live ist.
    • Erste Ökosystem-dApps begannen mit der Bereitstellung. Zum Beispiel war das NFT-Bridging ĂŒber LayerZero aktiv (man konnte Stablecoins gemĂ€ĂŸ den Docs bridgen), und einige der Testnet-Spiele begannen, ins Mainnet zu wechseln (Sparkballs Start usw., etwa im September, wie Blogs und Updates zeigten).
    • Community-Airdrop-Events (die Somnia Odyssey) gipfelten wahrscheinlich um den Start herum und verteilten einen Teil dieser Community-Token-Zuteilung an frĂŒhe UnterstĂŒtzer.

Zusammenfassend lĂ€sst sich sagen, dass der Mainnet-Start erfolgreich war und Somnia mit Live-Validatoren, einem Live-Token und ĂŒber 70 Projekten, die entweder live oder unmittelbar vor dem Start standen, positionierte. Wichtig ist, dass sie genau zu dem Zeitpunkt auf den Markt kamen, als das Interesse an Web3-Gaming und Metaverse Ende 2025 wieder zunahm, und diesen Trend nutzten.

Aktueller Status (Ende 2025): Das Somnia-Mainnet ist operativ mit Blöcken im Subsekundenbereich. Das Netzwerk befindet sich noch in einer Bootstrap-Phase, in der die Somnia Foundation und das Kernteam eine erhebliche Kontrolle behalten, um StabilitĂ€t zu gewĂ€hrleisten. Zum Beispiel sind Governance-VorschlĂ€ge wahrscheinlich noch nicht vollstĂ€ndig offen; die Foundation verwaltet wahrscheinlich Upgrades und Parameteranpassungen, wĂ€hrend die Community ĂŒber Governance-Prozesse aufgeklĂ€rt wird. Die Token-Verteilung ist immer noch sehr konzentriert (da nur ~16 % im Umlauf sind und Investoren-/Team-Token erst Ende 2026 freigeschaltet werden). Dies bedeutet, dass die Foundation ĂŒber ausreichende Token-Reserven verfĂŒgt, um das Ökosystem zu unterstĂŒtzen (durch ZuschĂŒsse, LiquiditĂ€tsbereitstellung usw.).

Auf technischer Ebene ĂŒberwacht und feinjustiert Somnia wahrscheinlich die Leistung unter realen Bedingungen. Bringen echte dApps es an seine Grenzen? Wahrscheinlich noch nicht – die anfĂ€nglichen Benutzerzahlen liegen wahrscheinlich im Tausenderbereich, nicht in Millionen. Es gibt also möglicherweise nicht regelmĂ€ĂŸig 1M TPS im Mainnet, aber die KapazitĂ€t ist vorhanden. Das Team könnte diese Periode nutzen, um die Client-Software zu optimieren, Feedback von Cuthbert zu berĂŒcksichtigen (falls Divergenzen gefunden wurden, wĂŒrden diese umgehend behoben) und die Sicherheit zu erhöhen. Die Ergebnisse der Sicherheitsaudits (falls noch nicht veröffentlicht) könnten um diese Zeit oder Anfang 2026 veröffentlicht werden, um Entwicklern Sicherheit zu geben.

Kurzfristige Roadmap (2026): Die Somnia-Dokumentation und -Kommunikation deuten auf mehrere kurzfristige Ziele hin:

  • Feature-Rollouts: Einige Funktionen sollten nach dem Start aktiviert werden:
    • Die Dynamische Gaspreisgestaltung & Volumenrabatte sollen bis Ende 2025 eingefĂŒhrt werden. Dies erfordert einige Tests und möglicherweise eine Governance-Zustimmung zur Aktivierung. Sobald aktiviert, werden Hochdurchsatz-dApps gĂŒnstigere GasgebĂŒhren genießen, was ein Verkaufsargument sein könnte, um Unternehmen oder große Web2-Partner anzuziehen.
    • Die Transiente Speicherfunktion ist ebenfalls fĂŒr Ende 2025 geplant. Die Implementierung muss wahrscheinlich sorgfĂ€ltig getestet werden (um sicherzustellen, dass die Datenlöschung korrekt funktioniert und keine Konsensprobleme verursacht). Wenn dies live geht, wird Somnia eine der ersten Chains sein, die ablauffĂ€hige On-Chain-Daten anbietet, was fĂŒr Spieleentwickler enorm sein wird (man stelle sich temporĂ€re Spielsitzungen On-Chain vor).
    • Tipping (PrioritĂ€tsgebĂŒhren): Es wurde angemerkt, dass Tipping bei Bedarf spĂ€ter eingefĂŒhrt werden könnte. Wenn die Netzwerknutzung so stark ansteigt, dass Blöcke konstant voll sind, könnten sie bis 2026 optionale Trinkgelder aktivieren, um Transaktionen zu priorisieren (genau wie Ethereums Basiskosten- & Trinkgeldmodell). Dies wĂ€re ein Zeichen gesunder Überlastung, falls es eintritt.
    • Erweiterung des Validatoren-Sets: AnfĂ€nglich ~60, ist das Ziel, die Anzahl der Validatoren im Laufe der Zeit zu erhöhen, um die Dezentralisierung zu verbessern, ohne die Leistung zu beeintrĂ€chtigen. Es wurde erwĂ€hnt, dass ein Wachstum ĂŒber 100 erwartet wird, wenn das Netzwerk reift. Der Zeitplan könnte davon abhĂ€ngen, wie gut der Konsens mit mehr Validatoren skaliert (PBFT neigt dazu, langsamer zu werden, wenn die Validatoren zunehmen, aber vielleicht kann ihre Autobahn-inspirierte Variante ein paar Hundert bewĂ€ltigen). Im Jahr 2026 könnten sie zusĂ€tzliche Validatoren an Bord holen, möglicherweise aus ihrer Community oder neuen Partnern. Dies könnte durch Governance-Abstimmungen (Token-Inhaber, die neue Validatoren genehmigen) oder automatisch erfolgen, wenn genĂŒgend Stake neue Teilnehmer unterstĂŒtzt.
    • Dezentralisierung der Governance: Somnia hat eine Roadmap zur Progressiven Dezentralisierung in der Governance dargelegt. In den ersten 6 Monaten (Bootstrap-Phase) hat der Stiftungsrat die volle Kontrolle. Also etwa bis Q1/Q2 2026 werden wir uns in der Bootstrap-Phase befinden – in dieser Zeit werden sie wahrscheinlich Prozesse verfeinern und Mitglieder in RĂ€te aufnehmen. Dann, von 6–24 Monaten (Mitte 2026 bis Ende 2027), treten sie in die Übergangsphase ein, in der das Token House (Token-Inhaber) beginnen kann, ĂŒber VorschlĂ€ge abzustimmen, obwohl die Foundation bei Bedarf ein Veto einlegen kann. Wir könnten 2026 die ersten On-Chain-Abstimmungen fĂŒr Dinge wie Zuschusszuweisungen oder kleinere ParameterĂ€nderungen sehen. Bis zum zweiten Jahr (2027) ist das Ziel die Reifephase, in der die Entscheidungen der Token-Inhaber grĂ¶ĂŸtenteils Bestand haben und die Foundation nur Notfallinterventionen durchfĂŒhrt. FĂŒr 2026 ist ein wichtiges Ziel die Einrichtung dieser Governance-Gremien: möglicherweise die Wahl von Mitgliedern fĂŒr den Validator Council, Developer Council, User Assembly, die beschrieben wurden. Dies wird Community-Organisation erfordern – wahrscheinlich etwas, das die Foundation erleichtern wird, indem sie anfĂ€nglich angesehene Mitglieder auswĂ€hlt (zum Beispiel Top-Spieleentwickler in einen Entwickler-Rat oder große Community-GildenfĂŒhrer in eine User Assembly einlĂ€dt).
  • Ökosystem-Wachstum: An der Adoptionsfront wird es 2026 darum gehen, Pilotprojekte zu Mainstream-Erfolgen zu machen:
    • Wir erwarten vollstĂ€ndige Spielveröffentlichungen: Sparkball und Variance könnten 2026 von der Beta zum offiziellen Start im Somnia-Mainnet ĂŒbergehen, um Zehntausende von Spielern anzuziehen. Andere Spiele aus der Dream Catalyst-Kohorte (Maelstrom, Netherak, Dark Table usw.) werden wahrscheinlich der Öffentlichkeit zugĂ€nglich gemacht. Somnias Team wird diese Starts unterstĂŒtzen, möglicherweise durch Marketingkampagnen, Turniere und Anreizprogramme (wie Play-to-Earn oder Airdrops), um Gamer anzuziehen.
    • Neue Partnerschaften: Improbable/MSquared planten, von 30 Events im Jahr 2023 auf ĂŒber 300 Metaverse-Events im Jahr 2024 zu skalieren. Im Jahr 2024 fĂŒhrten sie viele Off-Chain-Events durch; in den Jahren 2025/2026 erwarten wir, dass diese Events Somnia integrieren. Zum Beispiel könnte ein großes Sportevent oder Musikfestival im Jahr 2026 Somnia fĂŒr Ticketing oder Fan-Belohnungen nutzen. Die Beteiligung von Google Cloud deutet auf mögliche Unternehmens-Events oder Showcases ĂŒber Googles Cloud-Kunden hin. Auch angesichts der Investitionen von Mirana (verbunden mit Bybit/BitDAO) und anderen könnte Somnia eine Zusammenarbeit mit Börsen oder großen Web3-Marken sehen, um das Netzwerk zu nutzen.
    • MSquared-Integration: Die Chainwire-Veröffentlichung stellte fest, dass MÂČ plant, Somnia in sein Netzwerk von Metaversen zu integrieren. Das bedeutet, dass jede virtuelle Welt, die MSquareds Technologie nutzt, Somnia als Transaktionsschicht ĂŒbernehmen könnte. Bis 2026 könnten wir sehen, wie MSquared sein Metaverse-Netzwerk offiziell startet, wobei Somnia die Avatar-IdentitĂ€t, den Item-Handel usw. untermauert. Wenn Yuga Labs’ Otherside noch im Plan ist, könnte es vielleicht eine InteroperabilitĂ€tsdemonstration mit Somnia geben (z. B. die Verwendung Ihres Otherside-NFTs in einer Somnia-betriebenen Welt).
    • Erweiterung der Entwickler-Community: Die 10 Millionen US-Dollar an ZuschĂŒssen werden im Laufe der Zeit verteilt – bis 2026 werden wahrscheinlich Dutzende von Projekten Finanzmittel erhalten haben. Das Ergebnis könnte mehr Tools sein (z. B. Unity SDK fĂŒr Somnia oder weitere Ormi-Verbesserungen), mehr Apps (vielleicht baut jemand einen Somnia-basierten dezentralen Twitter oder eine neue DeFi-Plattform). Somnia wird wahrscheinlich weitere Hackathons veranstalten (potenziell einige persönlich auf Konferenzen usw.) und weiterhin aggressives DevRel betreiben, um Talente anzuziehen. Sie könnten insbesondere Entwickler von Ethereum ansprechen, die mit ihren dApps an Skalierungsgrenzen stoßen, und ihnen einen einfachen Port zu Somnia anbieten.
    • InteroperabilitĂ€t und Bridges: Bereits mit LayerZero integriert, wird Somnia wahrscheinlich Bridges zu anderen Ökosystemen erweitern, um eine breitere Asset-UnterstĂŒtzung zu ermöglichen. Zum Beispiel könnte die Integration mit Polygon oder Cosmos IBC auf dem Tisch liegen. Auch Cross-Chain-Standards fĂŒr NFTs (vielleicht die Spiegelung von Ethereum-NFTs auf Somnia zur Verwendung in Spielen) könnten verfolgt werden. Da Somnia EVM ist, ist die Bereitstellung von Bridge-Contracts fĂŒr beliebte Token (USDC, USDT, WETH) unkompliziert – 2026 könnte eine tiefere LiquiditĂ€t entstehen, wenn mehr dieser Cross-Chain-Assets einfließen.
    • LeistungsĂŒberwachung: Mit zunehmender realer Nutzung wird das Team auf StabilitĂ€tsprobleme achten. Gibt es Angriffsvektoren (Spamming vieler Datenketten usw.)? Sie könnten Verfeinerungen wie Rate-Limits pro Datenkette oder weitere Optimierungen implementieren, falls erforderlich. Die Cuthbert Dual-Execution wird wahrscheinlich bis mindestens 2026 laufen, um Divergenzen zu erkennen; wenn das System sich als sehr stabil erweist, könnten sie in Betracht ziehen, es nach ein oder zwei Jahren abzuschalten, um den Overhead zu reduzieren, aber das hĂ€ngt von vollem Vertrauen ab.
  • Marketing und Öffentlichkeitsarbeit: Mit dem Mainnet und den ersten Apps live besteht Somnias Herausforderung fĂŒr 2026 darin, eine Benutzerbasis aufzubauen. Erwarten Sie intensives Marketing, das sich sowohl an Gamer als auch an Krypto-Benutzer richtet:
    • Wir könnten Partnerschaften mit Gaming-Gilden oder E-Sport-Teams sehen, um Spieler zu Somnia-Spielen zu locken.
    • Vielleicht Promi-Kooperationen fĂŒr virtuelle Events (da sie K-Pop- und Sportlegenden in Test-Events hatten, könnten sie das eskalieren – stellen Sie sich vor, ein berĂŒhmter Musiker veröffentlicht ein Album ĂŒber eine Somnia-Metaverse-Show mit NFT-Merch).
    • Auch die Teilnahme und das Sponsoring großer Konferenzen (GDC fĂŒr Spieleentwickler, Consensus fĂŒr Krypto usw.), um die Plattform zu bewerben.
    • Ende 2025 hatten sie bereits eine betrĂ€chtliche Presse (Binance Academy-Artikel, CoinDesk-Berichterstattung usw.). Im Jahr 2026 werden weitere unabhĂ€ngige Analysen (Messari-Profile usw.) erscheinen, und Somnia wird Nutzungsmetriken prĂ€sentieren wollen, um die Akzeptanz zu beweisen (wie „X tĂ€glich aktive Nutzer, Y verarbeitete Transaktionen“).

Langfristige Vision: Obwohl nicht explizit danach gefragt, ist es erwÀhnenswert, Somnias Trajektorie:

  • In einigen Jahren stellen sie sich Somnia als eine weit verbreitete Basisschicht fĂŒr Web3-Unterhaltung vor, mit Milliarden von Transaktionen als Routine und einer dezentralen Governance, die von ihrer Community und ihren RĂ€ten betrieben wird. Sie sehen wahrscheinlich auch eine kontinuierliche technische Verbesserung vor – z. B. die Erforschung von Sharding bei Bedarf oder die EinfĂŒhrung neuer Kryptographie (vielleicht ZK-Proofs zur weiteren Datenkomprimierung oder schließlich Post-Quantum-Krypto).
  • Ein weiteres langfristiges Ziel könnte die KohlenstoffneutralitĂ€t oder Effizienz sein: Chains mit hohem TPS machen sich oft Sorgen um den Energieverbrauch. Wenn Somnia Millionen von TPS erreicht, wird es wichtig sein, sicherzustellen, dass Nodes dies effizient bewĂ€ltigen können (vielleicht durch Hardware-Beschleunigung oder Cloud-Skalierung). Mit Google Cloud im Spiel könnten vielleicht grĂŒne Rechenzentrumsinitiativen oder spezielle Hardware (wie GPUs oder FPGAs fĂŒr die Komprimierung) in Betracht gezogen werden.
  • Bis dahin wird auch der Wettbewerb zunehmen (Ethereum 2.0 mit Sharding, zkEVMs, Solana-Verbesserungen usw.). Somnia wird seinen Vorsprung durch Innovation und Netzwerkeffekte (wenn es frĂŒh eine große Spielerbasis gewinnt, kann dieser Schwung es tragen) behaupten mĂŒssen.

Zusammenfassend lĂ€sst sich sagen, dass die Roadmap fĂŒr die nĂ€chsten 1-2 Jahre sich auf Folgendes konzentriert:

  1. Aktivierung wichtiger Protokollfunktionen (Gasrabatte, transiente Speicherung), um die versprochene FunktionalitÀt vollstÀndig zu liefern.
  2. Schrittweise Dezentralisierung der Governance – Übergang von einer stiftungsgefĂŒhrten zu einer gemeinschaftsgefĂŒhrten Governance, ohne den Fortschritt zu gefĂ€hrden.
  3. Förderung des Ökosystem-Wachstums – Sicherstellung, dass die finanzierten Projekte starten und Benutzer anziehen, neue Partnerschaften schmieden (mit Content Creatorn, Spielestudios, vielleicht sogar Web2-Unternehmen, die an Web3 interessiert sind) und möglicherweise in weitere Regionen und Communities expandieren.
  4. Aufrechterhaltung von Leistung und Sicherheit bei zunehmender Nutzung – Beobachtung von Problemen, wenn z. B. ein Spiel einen Anstieg von 10.000 TPS an realem Traffic verursacht, und entsprechende Reaktion (dies könnte die DurchfĂŒhrung weiterer öffentlicher Test-Events, vielleicht eines „Mainnet-Stresstests“, bei dem viele Transaktionen angeregt werden, um die Grenzen zu testen, umfassen).

Somnia hat einen fulminanten Start hingelegt, aber 2026 wird der PrĂŒfstand sein: Es muss seine beeindruckende Technologie und sein gut finanziertes Ökosystem in echte Adoption und ein nachhaltiges, dezentrales Netzwerk umwandeln. Die große Token-Treasury der Stiftung (Ökosystem und Community ~55 % des Angebots) gibt ihr die Mittel, um die AktivitĂ€t ĂŒber Jahre hinweg anzukurbeln, sodass wir kurzfristig sehen werden, wie diese Token eingesetzt werden – durch Airdrops, Belohnungen (möglicherweise LiquiditĂ€ts-Mining, wenn ein DEX startet), Entwickler-Bounties und Benutzerakquisitionskampagnen. Der Mainnet-Start-Slogan von Improbable lautete, dass Somnia „das Fundament einer offenen digitalen Asset-Wirtschaft markiert, in der Milliarden von Menschen ĂŒber immersive Erlebnisse hinweg interagieren können“. Die nĂ€chsten Schritte auf der Roadmap drehen sich alle darum, die Bausteine dieses Fundaments zu legen: die ersten Millionen von Menschen und die ersten Killer-Apps dazu zu bringen, mit Somnias „Dream Computer“ (wie sie ihn nennen) zu interagieren und damit zu bestĂ€tigen, dass Web3 tatsĂ€chlich im Internet-Maßstab betrieben werden kann.

Wenn Somnia seinen aktuellen Kurs beibehĂ€lt, könnten wir bis Ende 2026 Dutzende vollstĂ€ndig On-Chain-Spiele und soziale Plattformen in Betrieb sehen, ein florierendes, von der Community betriebenes Netzwerk mit Hunderten von Validatoren und SOMI, das tĂ€glich von Mainstream-Benutzern verwendet wird (oft unbewusst, unter der Haube von Spielen). Dies zu erreichen, wĂ€re ein bedeutender Meilenstein nicht nur fĂŒr Somnia, sondern auch fĂŒr den Vorstoß der Blockchain-Industrie in Mainstream-Echtzeitanwendungen. Die Voraussetzungen sind geschaffen; jetzt geht es um die AusfĂŒhrung und Adoption in dieser kritischen, forschungsintensiven Phase der Projekt-Roadmap.

Quellen:

  • Somnia Offizielle Dokumentation (Litepaper & Technische Konzepte)
  • Somnia Tokenomics und Governance Docs
  • Improbable Pressemitteilung (Mainnet-Start)
  • CoinDesk Berichterstattung ĂŒber Somnia-Start
  • Binance Academy – Was ist Somnia (SOMI)
  • Gam3s.gg – Berichterstattung ĂŒber Somnia-Spiele (Variance, Sparkball usw.)
  • Stakin Research – EinfĂŒhrung in Somnia
  • Chainwire Pressemitteilung – 270 Mio. US-Dollar Investition & Devnet-Ergebnisse
  • Somnia Blog – Improbable & MSquared Events, Mainnet-News
  • Offizielle Somnia Docs – Entwickler-Anleitungen (Bridging, Wallets usw.)

Dezentrale VerschlĂŒsselung mit @mysten/seal aufbauen: Ein Entwickler-Tutorial

· 13 Minuten Lesezeit
Dora Noda
Software Engineer

Datenschutz wird zur öffentlichen Infrastruktur. Im Jahr 2025 benötigen Entwickler Tools, die VerschlĂŒsselung so einfach machen wie Datenspeicherung. Mysten Labs' Seal bietet genau das – dezentrales Geheimnismanagement mit On-Chain-Zugriffskontrolle. Dieses Tutorial zeigt Ihnen, wie Sie sichere Web3-Anwendungen mithilfe von identitĂ€tsbasierter VerschlĂŒsselung, Schwellenwertsicherheit und programmierbaren Zugriffsrichtlinien erstellen.


EinfĂŒhrung: Warum Seal fĂŒr Web3 wichtig ist​

Traditionelle Cloud-Anwendungen verlassen sich auf zentralisierte SchlĂŒsselverwaltungssysteme, bei denen ein einziger Anbieter den Zugriff auf verschlĂŒsselte Daten kontrolliert. Obwohl dies bequem ist, schafft es gefĂ€hrliche Single Points of Failure. Wenn der Anbieter kompromittiert wird, offline geht oder den Zugriff einschrĂ€nkt, werden Ihre Daten unzugĂ€nglich oder anfĂ€llig.

Seal Ă€ndert dieses Paradigma vollstĂ€ndig. Von Mysten Labs fĂŒr die Sui Blockchain entwickelt, ist Seal ein dezentraler Geheimnismanagement-Dienst (DSM), der Folgendes ermöglicht:

  • IdentitĂ€tsbasierte VerschlĂŒsselung, bei der Inhalte geschĂŒtzt werden, bevor sie Ihre Umgebung verlassen
  • SchwellenwertverschlĂŒsselung, die den SchlĂŒsselzugriff auf mehrere unabhĂ€ngige Nodes verteilt
  • On-Chain-Zugriffskontrolle mit Zeitsperren, Token-Gating und benutzerdefinierter Autorisierungslogik
  • SpeicherunabhĂ€ngiges Design, das mit Walrus, IPFS oder jeder anderen Speicherlösung funktioniert

Egal, ob Sie sichere Messaging-Apps, zugangsgeschĂŒtzte Inhaltsplattformen oder zeitgesperrte Asset-Transfers erstellen, Seal bietet die kryptografischen Primitive und die Infrastruktur zur Zugriffskontrolle, die Sie benötigen.


Erste Schritte​

Voraussetzungen​

Bevor Sie eintauchen, stellen Sie sicher, dass Sie Folgendes haben:

  • Node.js 18+ installiert
  • Grundkenntnisse in TypeScript/JavaScript
  • Eine Sui Wallet zum Testen (z. B. Sui Wallet)
  • VerstĂ€ndnis von Blockchain-Konzepten

Installation​

Installieren Sie das Seal SDK via npm:

npm install @mysten/seal

Sie benötigen auch das Sui SDK fĂŒr Blockchain-Interaktionen:

npm install @mysten/sui

Projekteinrichtung​

Erstellen Sie ein neues Projekt und initialisieren Sie es:

mkdir seal-tutorial
cd seal-tutorial
npm init -y
npm install @mysten/seal @mysten/sui typescript @types/node

Erstellen Sie eine einfache TypeScript-Konfiguration:

// tsconfig.json
{
"compilerOptions": {
"target": "ES2020",
"module": "commonjs",
"strict": true,
"esModuleInterop": true,
"skipLibCheck": true,
"forceConsistentCasingInFileNames": true
}
}

Kernkonzepte: Wie Seal funktioniert​

Bevor wir Code schreiben, lassen Sie uns die Architektur von Seal verstehen:

1. IdentitĂ€tsbasierte VerschlĂŒsselung (IBE)​

Im Gegensatz zur traditionellen VerschlĂŒsselung, bei der Sie auf einen öffentlichen SchlĂŒssel verschlĂŒsseln, ermöglicht Ihnen IBE die VerschlĂŒsselung auf eine IdentitĂ€t (wie eine E-Mail-Adresse oder Sui-Adresse). Der EmpfĂ€nger kann nur entschlĂŒsseln, wenn er nachweisen kann, dass er diese IdentitĂ€t kontrolliert.

2. SchwellenwertverschlĂŒsselung​

Anstatt einem einzelnen SchlĂŒsselserver zu vertrauen, verwendet Seal t-von-n Schwellenwertschemata. Sie könnten 3 von 5 SchlĂŒsselservern konfigurieren, was bedeutet, dass beliebige 3 Server zusammenarbeiten können, um EntschlĂŒsselungsschlĂŒssel bereitzustellen, aber 2 oder weniger dies nicht können.

3. On-Chain-Zugriffskontrolle​

Zugriffsrichtlinien werden durch Sui Smart Contracts durchgesetzt. Bevor ein SchlĂŒsselserver EntschlĂŒsselungsschlĂŒssel bereitstellt, ĂŒberprĂŒft er, ob der Anfragende die On-Chain-Richtlinienanforderungen (Token-Besitz, ZeitbeschrĂ€nkungen usw.) erfĂŒllt.

4. SchlĂŒsselserver-Netzwerk​

Verteilte SchlĂŒsselserver validieren Zugriffsrichtlinien und generieren EntschlĂŒsselungsschlĂŒssel. Diese Server werden von verschiedenen Parteien betrieben, um keinen Single Point of Control zu gewĂ€hrleisten.


Grundlegende Implementierung: Ihre erste Seal-Anwendung​

Erstellen wir eine einfache Anwendung, die sensible Daten verschlĂŒsselt und den Zugriff ĂŒber Sui Blockchain-Richtlinien steuert.

Schritt 1: Seal Client initialisieren​

// src/seal-client.ts
import { SealClient } from '@mysten/seal';
import { SuiClient } from '@mysten/sui/client';

export async function createSealClient() {
// Initialize Sui client for testnet
const suiClient = new SuiClient({
url: 'https://fullnode.testnet.sui.io'
});

// Configure Seal client with testnet key servers
const sealClient = new SealClient({
suiClient,
keyServers: [
'https://keyserver1.seal-testnet.com',
'https://keyserver2.seal-testnet.com',
'https://keyserver3.seal-testnet.com'
],
threshold: 2, // 2-of-3 threshold
network: 'testnet'
});

return { sealClient, suiClient };
}

Schritt 2: Einfache VerschlĂŒsselung/EntschlĂŒsselung​

// src/basic-encryption.ts
import { createSealClient } from './seal-client';

async function basicExample() {
const { sealClient } = await createSealClient();

// Data to encrypt
const sensitiveData = "This is my secret message!";
const recipientAddress = "0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

try {
// Encrypt data for a specific Sui address
const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, 'utf-8'),
recipientId: recipientAddress,
// Optional: add metadata
metadata: {
contentType: 'text/plain',
timestamp: Date.now()
}
});

console.log('Encrypted data:', {
ciphertext: encryptedData.ciphertext.toString('base64'),
encryptionId: encryptedData.encryptionId
});

// Later, decrypt the data (requires proper authorization)
const decryptedData = await sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientAddress
});

console.log('Decrypted data:', decryptedData.toString('utf-8'));

} catch (error) {
console.error('Encryption/decryption failed:', error);
}
}

basicExample();

Zugriffskontrolle mit Sui Smart Contracts​

Die wahre StĂ€rke von Seal liegt in der programmierbaren Zugriffskontrolle. Erstellen wir ein Beispiel fĂŒr eine zeitgesperrte VerschlĂŒsselung, bei der Daten erst nach einer bestimmten Zeit entschlĂŒsselt werden können.

Schritt 1: Zugriffssteuerungs-Vertrag bereitstellen​

Zuerst benötigen wir einen Move Smart Contract, der unsere Zugriffsrichtlinie definiert:

// contracts/time_lock.move
module time_lock::policy {
use sui::clock::{Self, Clock};
use sui::object::{Self, UID};
use sui::tx_context::{Self, TxContext};

public struct TimeLockPolicy has key, store {
id: UID,
unlock_time: u64,
authorized_user: address,
}

public fun create_time_lock(
unlock_time: u64,
authorized_user: address,
ctx: &mut TxContext
): TimeLockPolicy {
TimeLockPolicy {
id: object::new(ctx),
unlock_time,
authorized_user,
}
}

public fun can_decrypt(
policy: &TimeLockPolicy,
user: address,
clock: &Clock
): bool {
let current_time = clock::timestamp_ms(clock);
policy.authorized_user == user && current_time >= policy.unlock_time
}
}

Schritt 2: Mit Seal integrieren​

// src/time-locked-encryption.ts
import { createSealClient } from './seal-client';
import { TransactionBlock } from '@mysten/sui/transactions';

async function createTimeLocked() {
const { sealClient, suiClient } = await createSealClient();

// Create access policy on Sui
const txb = new TransactionBlock();

const unlockTime = Date.now() + 60000; // Unlock in 1 minute
const authorizedUser = "0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

txb.moveCall({
target: 'time_lock::policy::create_time_lock',
arguments: [
txb.pure(unlockTime),
txb.pure(authorizedUser)
]
});

// Execute transaction to create policy
const result = await suiClient.signAndExecuteTransactionBlock({
transactionBlock: txb,
signer: yourKeypair, // Your Sui keypair
});

const policyId = result.objectChanges?.find(
change => change.type === 'created'
)?.objectId;

// Now encrypt with this policy
const sensitiveData = "This will unlock in 1 minute!";

const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, 'utf-8'),
recipientId: authorizedUser,
accessPolicy: {
policyId,
policyType: 'time_lock'
}
});

console.log('Time-locked data created. Try decrypting after 1 minute.');

return {
encryptedData,
policyId,
unlockTime
};
}

Praktische Beispiele​

Beispiel 1: Sichere Messaging-Anwendung​

// src/secure-messaging.ts
import { createSealClient } from './seal-client';

class SecureMessenger {
private sealClient: any;

constructor(sealClient: any) {
this.sealClient = sealClient;
}

async sendMessage(
message: string,
recipientAddress: string,
senderKeypair: any
) {
const messageData = {
content: message,
timestamp: Date.now(),
sender: senderKeypair.toSuiAddress(),
messageId: crypto.randomUUID()
};

const encryptedMessage = await this.sealClient.encrypt({
data: Buffer.from(JSON.stringify(messageData), 'utf-8'),
recipientId: recipientAddress,
metadata: {
type: 'secure_message',
sender: senderKeypair.toSuiAddress()
}
});

// Store encrypted message on decentralized storage (Walrus)
return this.storeOnWalrus(encryptedMessage);
}

async readMessage(encryptionId: string, recipientKeypair: any) {
// Retrieve from storage
const encryptedData = await this.retrieveFromWalrus(encryptionId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientKeypair.toSuiAddress()
});

return JSON.parse(decryptedData.toString('utf-8'));
}

private async storeOnWalrus(data: any) {
// Integration with Walrus storage
// This would upload the encrypted data to Walrus
// and return the blob ID for retrieval
}

private async retrieveFromWalrus(blobId: string) {
// Retrieve encrypted data from Walrus using blob ID
}
}

Beispiel 2: Token-Gated Content-Plattform​

// src/gated-content.ts
import { createSealClient } from './seal-client';

class ContentGating {
private sealClient: any;
private suiClient: any;

constructor(sealClient: any, suiClient: any) {
this.sealClient = sealClient;
this.suiClient = suiClient;
}

async createGatedContent(
content: string,
requiredNftCollection: string,
creatorKeypair: any
) {
// Create NFT ownership policy
const accessPolicy = await this.createNftPolicy(
requiredNftCollection,
creatorKeypair
);

// Encrypt content with NFT access requirement
const encryptedContent = await this.sealClient.encrypt({
data: Buffer.from(content, 'utf-8'),
recipientId: 'nft_holders', // Special recipient for NFT holders
accessPolicy: {
policyId: accessPolicy.policyId,
policyType: 'nft_ownership'
}
});

return {
contentId: encryptedContent.encryptionId,
accessPolicy: accessPolicy.policyId
};
}

async accessGatedContent(
contentId: string,
userAddress: string,
userKeypair: any
) {
// Verify NFT ownership first
const hasAccess = await this.verifyNftOwnership(
userAddress,
contentId
);

if (!hasAccess) {
throw new Error('Access denied: Required NFT not found');
}

// Decrypt content
const decryptedContent = await this.sealClient.decrypt({
encryptionId: contentId,
recipientId: userAddress
});

return decryptedContent.toString('utf-8');
}

private async createNftPolicy(collection: string, creator: any) {
// Create Move contract that checks NFT ownership
// Returns policy object ID
}

private async verifyNftOwnership(user: string, contentId: string) {
// Check if user owns required NFT
// Query Sui for NFT ownership
}
}

Beispiel 3: Zeitgesperrter Asset-Transfer​

// src/time-locked-transfer.ts
import { createSealClient } from './seal-client';

async function createTimeLockTransfer(
assetData: any,
recipientAddress: string,
unlockTimestamp: number,
senderKeypair: any
) {
const { sealClient, suiClient } = await createSealClient();

// Create time-lock policy on Sui
const timeLockPolicy = await createTimeLockPolicy(
unlockTimestamp,
recipientAddress,
senderKeypair,
suiClient
);

// Encrypt asset transfer data
const transferData = {
asset: assetData,
recipient: recipientAddress,
unlockTime: unlockTimestamp,
transferId: crypto.randomUUID()
};

const encryptedTransfer = await sealClient.encrypt({
data: Buffer.from(JSON.stringify(transferData), 'utf-8'),
recipientId: recipientAddress,
accessPolicy: {
policyId: timeLockPolicy.policyId,
policyType: 'time_lock'
}
});

console.log(`Asset locked until ${new Date(unlockTimestamp)}`);

return {
transferId: encryptedTransfer.encryptionId,
unlockTime: unlockTimestamp,
policyId: timeLockPolicy.policyId
};
}

async function claimTimeLockTransfer(
transferId: string,
recipientKeypair: any
) {
const { sealClient } = await createSealClient();

try {
const decryptedData = await sealClient.decrypt({
encryptionId: transferId,
recipientId: recipientKeypair.toSuiAddress()
});

const transferData = JSON.parse(decryptedData.toString('utf-8'));

// Process the asset transfer
console.log('Asset transfer unlocked:', transferData);

return transferData;
} catch (error) {
console.error('Transfer not yet unlocked or access denied:', error);
throw error;
}
}

Integration mit Walrus Dezentralem Speicher​

Seal funktioniert nahtlos mit Walrus, Suis dezentraler Speicherlösung. So integrieren Sie beide:

// src/walrus-integration.ts
import { createSealClient } from './seal-client';

class SealWalrusIntegration {
private sealClient: any;
private walrusClient: any;

constructor(sealClient: any, walrusClient: any) {
this.sealClient = sealClient;
this.walrusClient = walrusClient;
}

async storeEncryptedData(
data: Buffer,
recipientAddress: string,
accessPolicy?: any
) {
// Encrypt with Seal
const encryptedData = await this.sealClient.encrypt({
data,
recipientId: recipientAddress,
accessPolicy
});

// Store encrypted data on Walrus
const blobId = await this.walrusClient.store(
encryptedData.ciphertext
);

// Return reference that includes both Seal and Walrus info
return {
blobId,
encryptionId: encryptedData.encryptionId,
accessPolicy: encryptedData.accessPolicy
};
}

async retrieveAndDecrypt(
blobId: string,
encryptionId: string,
userKeypair: any
) {
// Retrieve from Walrus
const encryptedData = await this.walrusClient.retrieve(blobId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData,
encryptionId,
recipientId: userKeypair.toSuiAddress()
});

return decryptedData;
}
}

// Usage example
async function walrusExample() {
const { sealClient } = await createSealClient();
const walrusClient = new WalrusClient('https://walrus-testnet.sui.io');

const integration = new SealWalrusIntegration(sealClient, walrusClient);

const fileData = Buffer.from('Important document content');
const recipientAddress = '0x...';

// Store encrypted
const result = await integration.storeEncryptedData(
fileData,
recipientAddress
);

console.log('Stored with Blob ID:', result.blobId);

// Later, retrieve and decrypt
const decrypted = await integration.retrieveAndDecrypt(
result.blobId,
result.encryptionId,
recipientKeypair
);

console.log('Retrieved data:', decrypted.toString());
}

SchwellenwertverschlĂŒsselung: Erweiterte Konfiguration​

FĂŒr Produktionsanwendungen möchten Sie eine benutzerdefinierte SchwellenwertverschlĂŒsselung mit mehreren SchlĂŒsselservern konfigurieren:

// src/advanced-threshold.ts
import { SealClient } from '@mysten/seal';

async function setupProductionSeal() {
// Configure with multiple independent key servers
const keyServers = [
'https://keyserver-1.your-org.com',
'https://keyserver-2.partner-org.com',
'https://keyserver-3.third-party.com',
'https://keyserver-4.backup-provider.com',
'https://keyserver-5.fallback.com'
];

const sealClient = new SealClient({
keyServers,
threshold: 3, // 3-of-5 threshold
network: 'mainnet',
// Advanced options
retryAttempts: 3,
timeoutMs: 10000,
backupKeyServers: [
'https://backup-1.emergency.com',
'https://backup-2.emergency.com'
]
});

return sealClient;
}

async function robustEncryption() {
const sealClient = await setupProductionSeal();

const criticalData = "Mission critical encrypted data";

// Encrypt with high security guarantees
const encrypted = await sealClient.encrypt({
data: Buffer.from(criticalData, 'utf-8'),
recipientId: '0x...',
// Require all 5 servers for maximum security
customThreshold: 5,
// Add redundancy
redundancy: 2,
accessPolicy: {
// Multi-factor requirements
requirements: ['nft_ownership', 'time_lock', 'multisig_approval']
}
});

return encrypted;
}

Best Practices fĂŒr Sicherheit​

1. SchlĂŒsselmanagement​

// src/security-practices.ts

// GOOD: Use secure key derivation
import { generateKeypair } from '@mysten/sui/cryptography/ed25519';

const keypair = generateKeypair();

// GOOD: Store keys securely (example with environment variables)
const keypair = Ed25519Keypair.fromSecretKey(
process.env.PRIVATE_KEY
);

// BAD: Never hardcode keys
const badKeypair = Ed25519Keypair.fromSecretKey(
"hardcoded-secret-key-12345" // Don't do this!
);

2. Validierung der Zugriffsrichtlinie​

// Always validate access policies before encryption
async function secureEncrypt(data: Buffer, recipient: string) {
const { sealClient } = await createSealClient();

// Validate recipient address
if (!isValidSuiAddress(recipient)) {
throw new Error('Invalid recipient address');
}

// Check policy exists and is valid
const policy = await validateAccessPolicy(policyId);
if (!policy.isValid) {
throw new Error('Invalid access policy');
}

return sealClient.encrypt({
data,
recipientId: recipient,
accessPolicy: policy
});
}

3. Fehlerbehandlung und Fallbacks​

// Robust error handling
async function resilientDecrypt(encryptionId: string, userKeypair: any) {
const { sealClient } = await createSealClient();

try {
return await sealClient.decrypt({
encryptionId,
recipientId: userKeypair.toSuiAddress()
});
} catch (error) {
if (error.code === 'ACCESS_DENIED') {
throw new Error('Access denied: Check your permissions');
} else if (error.code === 'KEY_SERVER_UNAVAILABLE') {
// Try with backup configuration
return await retryWithBackupServers(encryptionId, userKeypair);
} else if (error.code === 'THRESHOLD_NOT_MET') {
throw new Error('Insufficient key servers available');
} else {
throw new Error(`Decryption failed: ${error.message}`);
}
}
}

4. Datenvalidierung​

// Validate data before encryption
function validateDataForEncryption(data: Buffer): boolean {
// Check size limits
if (data.length > 1024 * 1024) { // 1MB limit
throw new Error('Data too large for encryption');
}

// Check for sensitive patterns (optional)
const dataStr = data.toString();
if (containsSensitivePatterns(dataStr)) {
console.warn('Warning: Data contains potentially sensitive patterns');
}

return true;
}

Leistungsoptimierung​

1. Batch-Operationen​

// Batch multiple encryptions for efficiency
async function batchEncrypt(dataItems: Buffer[], recipients: string[]) {
const { sealClient } = await createSealClient();

const promises = dataItems.map((data, index) =>
sealClient.encrypt({
data,
recipientId: recipients[index]
})
);

return Promise.all(promises);
}

2. Caching von SchlĂŒsselserver-Antworten​

// Cache key server sessions to reduce latency
class OptimizedSealClient {
private sessionCache = new Map();

async encryptWithCaching(data: Buffer, recipient: string) {
let session = this.sessionCache.get(recipient);

if (!session || this.isSessionExpired(session)) {
session = await this.createNewSession(recipient);
this.sessionCache.set(recipient, session);
}

return this.encryptWithSession(data, session);
}
}

Testen Ihrer Seal-Integration​

Unit-Tests​

// tests/seal-integration.test.ts
import { describe, it, expect } from 'jest';
import { createSealClient } from '../src/seal-client';

describe('Seal Integration', () => {
it('should encrypt and decrypt data successfully', async () => {
const { sealClient } = await createSealClient();
const testData = Buffer.from('test message');
const recipient = '0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8';

const encrypted = await sealClient.encrypt({
data: testData,
recipientId: recipient
});

expect(encrypted.encryptionId).toBeDefined();
expect(encrypted.ciphertext).toBeDefined();

const decrypted = await sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: recipient
});

expect(decrypted.toString()).toBe('test message');
});

it('should enforce access control policies', async () => {
// Test that unauthorized users cannot decrypt
const { sealClient } = await createSealClient();

const encrypted = await sealClient.encrypt({
data: Buffer.from('secret'),
recipientId: 'authorized-user'
});

await expect(
sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: 'unauthorized-user'
})
).rejects.toThrow('Access denied');
});
});

Bereitstellung fĂŒr die Produktion​

Umgebungskonfiguration​

// config/production.ts
export const productionConfig = {
keyServers: [
process.env.KEY_SERVER_1,
process.env.KEY_SERVER_2,
process.env.KEY_SERVER_3,
process.env.KEY_SERVER_4,
process.env.KEY_SERVER_5
],
threshold: 3,
network: 'mainnet',
suiRpc: process.env.SUI_RPC_URL,
walrusGateway: process.env.WALRUS_GATEWAY,
// Security settings
maxDataSize: 1024 * 1024, // 1MB
sessionTimeout: 3600000, // 1 hour
retryAttempts: 3
};

Überwachung und Protokollierung​

// utils/monitoring.ts
export class SealMonitoring {
static logEncryption(encryptionId: string, recipient: string) {
console.log(`[SEAL] Encrypted data ${encryptionId} for ${recipient}`);
// Send to your monitoring service
}

static logDecryption(encryptionId: string, success: boolean) {
console.log(`[SEAL] Decryption ${encryptionId}: ${success ? 'SUCCESS' : 'FAILED'}`);
}

static logKeyServerHealth(serverUrl: string, status: string) {
console.log(`[SEAL] Key server ${serverUrl}: ${status}`);
}
}

Ressourcen und nĂ€chste Schritte​

Offizielle Dokumentation​

Community und Support​

  • Sui Discord: Treten Sie dem #seal-Kanal fĂŒr Community-Support bei
  • GitHub Issues: Melden Sie Fehler und fordern Sie Funktionen an
  • Developer Forums: Sui Community-Foren fĂŒr Diskussionen

Erweiterte Themen zum Erkunden​

  1. Benutzerdefinierte Zugriffsrichtlinien: Erstellen Sie komplexe Autorisierungslogik mit Move-VertrÀgen
  2. Cross-Chain-Integration: Verwenden Sie Seal mit anderen Blockchain-Netzwerken
  3. Enterprise-SchlĂŒsselmanagement: Richten Sie Ihre eigene SchlĂŒsselserver-Infrastruktur ein
  4. Audit und Compliance: Implementieren Sie Protokollierung und Überwachung fĂŒr regulierte Umgebungen

Beispielanwendungen​

  • Sichere Chat-App: Ende-zu-Ende-verschlĂŒsseltes Messaging mit Seal
  • Dokumentenmanagement: Unternehmensweite Dokumentenfreigabe mit Zugriffskontrollen
  • Digital Rights Management: Inhaltsverteilung mit Nutzungsrichtlinien
  • Datenschutzfreundliche Analysen: VerschlĂŒsselte Datenverarbeitungsworkflows

Fazit​

Seal stellt einen fundamentalen Wandel dar, um Datenschutz und VerschlĂŒsselung zu Infrastruktur-Anliegen in Web3 zu machen. Durch die Kombination von identitĂ€tsbasierter VerschlĂŒsselung, Schwellenwertsicherheit und programmierbarer Zugriffskontrolle bietet es Entwicklern leistungsstarke Tools zum Aufbau wirklich sicherer und dezentraler Anwendungen.

Die Hauptvorteile der Entwicklung mit Seal umfassen:

  • Kein Single Point of Failure: Verteilte SchlĂŒsselserver eliminieren zentrale AutoritĂ€ten
  • Programmierbare Sicherheit: Smart-Contract-basierte Zugriffsrichtlinien bieten flexible Autorisierung
  • Entwicklerfreundlich: Das TypeScript SDK lĂ€sst sich nahtlos in bestehende Web3-Tools integrieren
  • SpeicherunabhĂ€ngig: Funktioniert mit Walrus, IPFS oder jeder Speicherlösung
  • Produktionsreif: Von Mysten Labs mit Unternehmenssicherheitsstandards entwickelt

Egal, ob Sie Benutzerdaten sichern, Abonnementmodelle implementieren oder komplexe Mehrparteienanwendungen erstellen, Seal bietet die kryptografischen Primitive und die Infrastruktur zur Zugriffskontrolle, die Sie benötigen, um mit Vertrauen zu entwickeln.

Beginnen Sie noch heute mit der Entwicklung und treten Sie dem wachsenden Ökosystem von Entwicklern bei, die Datenschutz zu einem fundamentalen Bestandteil der öffentlichen Infrastruktur machen.


Bereit, mit der Entwicklung zu beginnen? Installieren Sie @mysten/seal und experimentieren Sie mit den Beispielen in diesem Tutorial. Das dezentrale Web wartet auf Anwendungen, die Datenschutz und Sicherheit an erste Stelle setzen.

Das Krypto-Endspiel: Einblicke von BranchenvisionÀren

· 13 Minuten Lesezeit
Dora Noda
Software Engineer

Visionen von Mert Mumtaz (Helius), Udi Wertheimer (Taproot Wizards), Jordi Alexander (Selini Capital) und Alexander Good (Post Fiat)

Überblick​

Die Token2049 veranstaltete ein Panel namens „Das Krypto-Endspiel“ mit Mert Mumtaz (CEO von Helius), Udi Wertheimer (Taproot Wizards), Jordi Alexander (GrĂŒnder von Selini Capital) und Alexander Good (Schöpfer von Post Fiat). Obwohl kein öffentlich zugĂ€ngliches Transkript des Panels vorliegt, hat jeder Redner unterschiedliche Visionen fĂŒr die langfristige Entwicklung der Krypto-Branche geĂ€ußert. Dieser Bericht fasst ihre öffentlichen Äußerungen und Schriften – darunter BlogbeitrĂ€ge, Artikel, Nachrichteninterviews und Whitepapers – zusammen, um zu untersuchen, wie jede Person das „Endspiel“ fĂŒr Krypto sieht.

Mert Mumtaz – Krypto als „Kapitalismus 2.0“​

Kernvision​

Mert Mumtaz lehnt die Vorstellung ab, dass KryptowĂ€hrungen lediglich „Web 3.0“ darstellen. Stattdessen argumentiert er, dass das Endspiel fĂŒr Krypto darin besteht, den Kapitalismus selbst zu verbessern. Seiner Ansicht nach:

  • Krypto befeuert die Zutaten des Kapitalismus: Mumtaz stellt fest, dass der Kapitalismus auf dem freien Informationsfluss, sicheren Eigentumsrechten, abgestimmten Anreizen, Transparenz und reibungslosen KapitalflĂŒssen beruht. Er argumentiert, dass dezentrale Netzwerke, öffentliche Blockchains und Tokenisierung diese Merkmale effizienter machen und Krypto zu „Kapitalismus 2.0“ werden lassen.
  • Rund-um-die-Uhr-MĂ€rkte & tokenisierte Vermögenswerte: Er verweist auf regulatorische VorschlĂ€ge fĂŒr 24/7-FinanzmĂ€rkte und die Tokenisierung von Aktien, Anleihen und anderen realen Vermögenswerten. MĂ€rkte kontinuierlich laufen zu lassen und ĂŒber Blockchain-Schienen abzuwickeln, wird das traditionelle Finanzsystem modernisieren. Die Tokenisierung schafft Rund-um-die-Uhr-LiquiditĂ€t und reibungslosen Handel mit Vermögenswerten, die zuvor Clearingstellen und IntermediĂ€re erforderten.
  • Dezentralisierung & Transparenz: Durch die Verwendung offener Ledger beseitigt Krypto einen Teil der Gatekeeping- und Informationsasymmetrien, die im traditionellen Finanzwesen zu finden sind. Mumtaz sieht dies als Chance, Finanzen zu demokratisieren, Anreize auszurichten und MittelsmĂ€nner zu reduzieren.

Implikationen​

Mumtaz' „Kapitalismus 2.0“-These deutet darauf hin, dass das Endspiel der Branche nicht auf digitale SammlerstĂŒcke oder „Web3-Apps“ beschrĂ€nkt ist. Stattdessen stellt er sich eine Zukunft vor, in der nationale Regulierungsbehörden 24/7-MĂ€rkte, Asset-Tokenisierung und Transparenz befĂŒrworten. In dieser Welt wird die Blockchain-Infrastruktur zu einem Kernbestandteil der globalen Wirtschaft, der Krypto mit regulierten Finanzen verbindet. Er warnt auch davor, dass der Übergang Herausforderungen mit sich bringen wird – wie Sybil-Angriffe, Konzentration der Governance und regulatorische Unsicherheit –, glaubt aber, dass diese Hindernisse durch besseres Protokolldesign und Zusammenarbeit mit Regulierungsbehörden angegangen werden können.

Udi Wertheimer – Bitcoin als „Generationswechsel“ und die Altcoin-Abrechnung​

Generationswechsel & Bitcoin „retire your bloodline“-These​

Udi Wertheimer, MitbegrĂŒnder von Taproot Wizards, ist bekannt dafĂŒr, Bitcoin provokativ zu verteidigen und Altcoins zu verspotten. Mitte 2025 veröffentlichte er eine virale These namens „Diese Bitcoin-These wird Ihre Blutlinie in den Ruhestand schicken.“ Seiner Argumentation zufolge:

  • Generationswechsel: Wertheimer argumentiert, dass die frĂŒhen Bitcoin-„Wale“, die zu niedrigen Preisen akkumuliert haben, ihre Coins weitgehend verkauft oder ĂŒbertragen haben. Institutionelle KĂ€ufer – ETFs, Staatskassen und Staatsfonds – haben sie ersetzt. Er nennt diesen Prozess einen „umfassenden Eigentumswechsel“, Ă€hnlich der Dogecoin-Rallye von 2019–21, bei der eine Verschiebung von Walen zu Einzelhandelsnachfrage explosive Renditen befeuerte.
  • Preisunempfindliche Nachfrage: Institutionen allokieren Kapital, ohne sich um den StĂŒckpreis zu kĂŒmmern. Am Beispiel des IBIT-ETF von BlackRock stellt er fest, dass neue Investoren einen Anstieg um 40 US-Dollar als trivial ansehen und bereit sind, zu jedem Preis zu kaufen. Dieser Angebotsschock, kombiniert mit begrenzter Umlaufmenge, könnte dazu fĂŒhren, dass Bitcoin weit ĂŒber die Konsenserwartungen hinaus beschleunigt.
  • Ziel von ĂŒber 400.000 US-Dollar und Altcoin-Kollaps: Er prognostiziert, dass Bitcoin bis Ende 2025 ĂŒber 400.000 US-Dollar pro BTC erreichen könnte und warnt davor, dass Altcoins schlechter abschneiden oder sogar kollabieren werden, wobei Ethereum als „grĂ¶ĂŸter Verlierer“ hervorgehoben wird. Laut Wertheimer werden Altcoins, sobald die institutionelle FOMO einsetzt, „auf einen Schlag erledigt“ und Bitcoin wird den grĂ¶ĂŸten Teil des Kapitals absorbieren.

Implikationen​

Wertheimers Endspiel-These stellt Bitcoin als in seine letzte parabolische Phase eintretend dar. Der „Generationswechsel“ bedeutet, dass das Angebot in starke HĂ€nde (ETFs und Staatskassen) ĂŒbergeht, wĂ€hrend das Interesse des Einzelhandels gerade erst beginnt. Wenn dies zutrifft, wĂŒrde dies einen schweren Angebotsschock erzeugen, der den BTC-Preis weit ĂŒber die aktuellen Bewertungen hinaus treiben wĂŒrde. Gleichzeitig glaubt er, dass Altcoins ein asymmetrisches AbwĂ€rtsrisiko bieten, da ihnen die institutionelle NachfrageunterstĂŒtzung fehlt und sie einer regulatorischen PrĂŒfung unterliegen. Seine Botschaft an Investoren ist klar: Jetzt Bitcoin kaufen, bevor die Wall Street alles aufkauft.

Jordi Alexander – Makro-Pragmatismus, KI & Krypto als Zwillingsrevolutionen​

Investitionen in KI und Krypto – zwei SchlĂŒsselindustrien​

Jordi Alexander, GrĂŒnder von Selini Capital und bekannter Spieltheoretiker, argumentiert, dass KI und Blockchain die beiden wichtigsten Industrien dieses Jahrhunderts sind. In einem von Bitget zusammengefassten Interview macht er mehrere Punkte:

  • Die Zwillingsrevolutionen: Alexander glaubt, dass die einzigen Wege zu echtem Wohlstandswachstum darin bestehen, in technologische Innovation (insbesondere KI) zu investieren oder frĂŒhzeitig an aufstrebenden MĂ€rkten wie KryptowĂ€hrungen teilzunehmen. Er stellt fest, dass die KI-Entwicklung und die Krypto-Infrastruktur die grundlegenden Module fĂŒr Intelligenz und Koordination in diesem Jahrhundert sein werden.
  • Ende des Vierjahreszyklus: Er behauptet, dass der traditionelle Vierjahres-Krypto-Zyklus, der durch Bitcoin-Halvings angetrieben wird, vorbei ist; stattdessen erlebt der Markt jetzt liquiditĂ€tsgetriebene „Mini-Zyklen“. ZukĂŒnftige AufwĂ€rtsbewegungen werden auftreten, wenn „reales Kapital“ vollstĂ€ndig in den Raum eintritt. Er ermutigt HĂ€ndler, Ineffizienzen als Chance zu sehen und sowohl technische als auch psychologische FĂ€higkeiten zu entwickeln, um in diesem Umfeld erfolgreich zu sein.
  • Risikobereitschaft & Kompetenzentwicklung: Alexander rĂ€t Anlegern, die meisten Mittel in sicheren Vermögenswerten zu halten, aber einen kleinen Teil fĂŒr Risikobereitschaft zu allokieren. Er betont den Aufbau von Urteilsvermögen und AnpassungsfĂ€higkeit, da es in einem sich schnell entwickelnden Bereich „keinen Ruhestand“ gibt.

Kritik an zentralisierten Strategien und Makro-Ansichten​

  • MicroStrategys Nullsummenspiel: In einer Blitznotiz warnt er, dass MicroStrategys Strategie, BTC zu kaufen, ein Nullsummenspiel sein könnte. WĂ€hrend die Teilnehmer das GefĂŒhl haben könnten, zu gewinnen, könnte die Dynamik Risiken verbergen und zu VolatilitĂ€t fĂŒhren. Dies unterstreicht seine Überzeugung, dass Krypto-MĂ€rkte oft von Negativsummen- oder Nullsummen-Dynamiken angetrieben werden, sodass HĂ€ndler die Motivationen großer Akteure verstehen mĂŒssen.
  • Endspiel der US-Geldpolitik: Alexanders Analyse der US-Makropolitik hebt hervor, dass die Kontrolle der Federal Reserve ĂŒber den Anleihemarkt nachlassen könnte. Er stellt fest, dass langfristige Anleihen seit 2020 stark gefallen sind und glaubt, dass die Fed bald zu quantitativer Lockerung zurĂŒckkehren könnte. Er warnt davor, dass solche Politikwechsel „zuerst allmĂ€hlich 
 dann auf einmal“ Marktbewegungen verursachen könnten und nennt dies einen wichtigen Katalysator fĂŒr Bitcoin und Krypto.

Implikationen​

Jordi Alexanders Endspiel-Vision ist nuanciert und makroorientiert. Anstatt ein einziges Kursziel vorherzusagen, hebt er strukturelle VerÀnderungen hervor: die Verschiebung zu liquiditÀtsgetriebenen Zyklen, die Bedeutung KI-gesteuerter Koordination und das Zusammenspiel zwischen Regierungspolitik und Krypto-MÀrkten. Er ermutigt Anleger, ein tiefes VerstÀndnis und AnpassungsfÀhigkeit zu entwickeln, anstatt blind Narrativen zu folgen.

Alexander Good – Web 4, KI-Agenten und die Post Fiat L1​

Das Scheitern von Web 3 und der Aufstieg von KI-Agenten​

Alexander Good (auch bekannt unter seinem Pseudonym „goodalexander“) argumentiert, dass Web 3 weitgehend gescheitert ist, weil Benutzer mehr Wert auf Bequemlichkeit und Handel legen als auf den Besitz ihrer Daten. In seinem Essay „Web 4“ stellt er fest, dass die Akzeptanz von Verbraucher-Apps von einer nahtlosen Benutzererfahrung (UX) abhĂ€ngt; Benutzer dazu zu zwingen, Assets zu ĂŒberbrĂŒcken oder Wallets zu verwalten, tötet das Wachstum. Er sieht jedoch eine existenzielle Bedrohung aufkommen: KI-Agenten, die realistische Videos generieren, Computer ĂŒber Protokolle steuern (wie Anthropic's „Computer Control“-Framework) und sich in große Plattformen wie Instagram oder YouTube einklinken können. Da sich KI-Modelle schnell verbessern und die Kosten fĂŒr die Generierung von Inhalten sinken, prognostiziert er, dass KI-Agenten den Großteil der Online-Inhalte erstellen werden.

Web 4: KI-Agenten verhandeln auf der Blockchain​

Good schlĂ€gt Web 4 als Lösung vor. Die SchlĂŒsselideen sind:

  • Wirtschaftssystem mit KI-Agenten: Web 4 stellt sich KI-Agenten vor, die Benutzer als „Hollywood-Agenten“ vertreten und in ihrem Namen verhandeln. Diese Agenten werden Blockchains fĂŒr den Datenaustausch, die Streitbeilegung und die Governance nutzen. Benutzer stellen Agenten Inhalte oder Fachwissen zur VerfĂŒgung, und die Agenten extrahieren Wert – oft durch Interaktion mit anderen KI-Agenten weltweit – und verteilen dann Zahlungen in Krypto an den Benutzer zurĂŒck.
  • KI-Agenten handhaben KomplexitĂ€t: Good argumentiert, dass Menschen nicht plötzlich anfangen werden, Assets auf Blockchains zu ĂŒberbrĂŒcken, daher mĂŒssen KI-Agenten diese Interaktionen handhaben. Benutzer werden einfach mit Chatbots (ĂŒber Telegram, Discord usw.) sprechen, und KI-Agenten werden Wallets, Lizenzvereinbarungen und Token-Swaps hinter den Kulissen verwalten. Er prognostiziert eine nahe Zukunft, in der es endlose Protokolle, Token und Computer-zu-Computer-Konfigurationen geben wird, die fĂŒr Menschen unverstĂ€ndlich sind, was KI-UnterstĂŒtzung unerlĂ€sslich macht.
  • Unvermeidliche Trends: Good listet mehrere Trends auf, die Web 4 unterstĂŒtzen: Fiskalkrisen der Regierungen fördern Alternativen; KI-Agenten werden Inhaltsgewinne kannibalisieren; Menschen werden „dĂŒmmer“, indem sie sich auf Maschinen verlassen; und die grĂ¶ĂŸten Unternehmen setzen auf benutzergenerierte Inhalte. Er kommt zu dem Schluss, dass es unvermeidlich ist, dass Benutzer mit KI-Systemen sprechen, diese Systeme in ihrem Namen verhandeln und Benutzer Krypto-Zahlungen erhalten, wĂ€hrend sie hauptsĂ€chlich ĂŒber Chat-Apps interagieren.

Abbildung des Ökosystems und EinfĂŒhrung von Post Fiat​

Good kategorisiert bestehende Projekte in Web 4-Infrastruktur oder Composability-Spiele. Er stellt fest, dass Protokolle wie Story, die eine On-Chain-Governance fĂŒr IP-AnsprĂŒche schaffen, zu zweiseitigen MarktplĂ€tzen zwischen KI-Agenten werden. Gleichzeitig verkaufen Akash und Render Rechenleistungen und könnten sich anpassen, um Lizenzen an KI-Agenten zu vergeben. Er argumentiert, dass Börsen wie Hyperliquid davon profitieren werden, da endlose Token-Swaps benötigt werden, um diese Systeme benutzerfreundlich zu machen.

Sein eigenes Projekt, Post Fiat, ist als „Königsmacher in Web 4“ positioniert. Post Fiat ist eine Layer-1-Blockchain, die auf der Kerntechnologie von XRP basiert, jedoch mit verbesserter Dezentralisierung und Tokenomics. Zu den Hauptmerkmalen gehören:

  • KI-gesteuerte Validatorenauswahl: Anstatt sich auf von Menschen betriebenes Staking zu verlassen, verwendet Post Fiat große Sprachmodelle (LLMs), um Validatoren nach GlaubwĂŒrdigkeit und TransaktionsqualitĂ€t zu bewerten. Das Netzwerk verteilt 55 % der Token ĂŒber einen von einem KI-Agenten verwalteten Prozess an Validatoren, mit dem Ziel von „ObjektivitĂ€t, Fairness und ohne menschliche Beteiligung“. Der monatliche Zyklus des Systems – Veröffentlichen, Bewerten, Einreichen, Verifizieren und AuswĂ€hlen & Belohnen – gewĂ€hrleistet eine transparente Auswahl.
  • Fokus auf Investitionen & Expertennetzwerke: Im Gegensatz zum transaktionsbankorientierten Fokus von XRP zielt Post Fiat auf FinanzmĂ€rkte ab, indem es Blockchains fĂŒr Compliance, Indexierung und den Betrieb eines Expertennetzwerks nutzt, das aus Community-Mitgliedern und KI-Agenten besteht. AGTI (der Entwicklungsarm von Post Fiat) verkauft Produkte an Finanzinstitute und könnte einen ETF auflegen, wobei die Einnahmen die Netzwerkentwicklung finanzieren.
  • Neue AnwendungsfĂ€lle: Das Projekt zielt darauf ab, die Indexierungsbranche durch die Schaffung dezentraler ETFs zu revolutionieren, konforme verschlĂŒsselte Memos bereitzustellen und Expertennetzwerke zu unterstĂŒtzen, in denen Mitglieder Token fĂŒr Einblicke verdienen. Das Whitepaper beschreibt technische Maßnahmen – wie statistische FingerabdrĂŒcke und VerschlĂŒsselung –, um Sybil-Angriffe und Manipulationen zu verhindern.

Web 4 als Überlebensmechanismus​

Good kommt zu dem Schluss, dass Web 4 ein Überlebensmechanismus ist, nicht nur eine coole Ideologie. Er argumentiert, dass innerhalb von sechs Monaten eine „KomplexitĂ€tsbombe“ kommen wird, wenn KI-Agenten sich verbreiten. Benutzer werden einen Teil des Upsides an KI-Systeme abgeben mĂŒssen, denn die Teilnahme an Agenten-Ökonomien wird der einzige Weg sein, um erfolgreich zu sein. Seiner Ansicht nach ist der Traum von Web 3 von dezentralem Besitz und Benutzerdatenschutz unzureichend; Web 4 wird KI-Agenten, Krypto-Anreize und Governance miteinander verbinden, um eine zunehmend automatisierte Wirtschaft zu navigieren.

Vergleichende Analyse​

Konvergierende Themen​

  1. Institutionelle & technologische Verschiebungen treiben das Endspiel voran.
    • Mumtaz sieht Regulierungsbehörden, die 24/7-MĂ€rkte und Tokenisierung ermöglichen, was Krypto mainstreamfĂ€hig machen wird.
    • Wertheimer hebt die institutionelle Akzeptanz ĂŒber ETFs als Katalysator fĂŒr Bitcoins parabolische Phase hervor.
    • Alexander stellt fest, dass der nĂ€chste Krypto-Boom liquiditĂ€tsgetrieben statt zyklusgetrieben sein wird und dass makroökonomische Politiken (wie der Fed-Pivot) starken RĂŒckenwind liefern werden.
  2. KI wird zentral.
    • Alexander betont Investitionen in KI neben Krypto als ZwillingssĂ€ulen zukĂŒnftigen Wohlstands.
    • Good baut Web 4 um KI-Agenten herum auf, die auf Blockchains Transaktionen durchfĂŒhren, Inhalte verwalten und GeschĂ€fte aushandeln.
    • Die Validatorenauswahl und Governance von Post Fiat verlassen sich auf LLMs, um ObjektivitĂ€t zu gewĂ€hrleisten. Zusammen implizieren diese Visionen, dass das Endspiel fĂŒr Krypto eine Synergie zwischen KI und Blockchain beinhalten wird, wobei KI die KomplexitĂ€t handhabt und Blockchains eine transparente Abwicklung bieten.
  3. Bedarf an besserer Governance und Fairness.
    • Mumtaz warnt, dass die Zentralisierung der Governance eine Herausforderung bleibt.
    • Alexander ermutigt zum VerstĂ€ndnis spieltheoretischer Anreize und weist darauf hin, dass Strategien wie die von MicroStrategy ein Nullsummenspiel sein können.
    • Good schlĂ€gt eine KI-gesteuerte Validatorenbewertung vor, um menschliche Vorurteile zu beseitigen und eine faire Token-Verteilung zu schaffen, wodurch Governance-Probleme in bestehenden Netzwerken wie XRP angegangen werden.

Divergierende Visionen​

  1. Rolle von Altcoins. Wertheimer sieht Altcoins als zum Scheitern verurteilt und glaubt, dass Bitcoin den grĂ¶ĂŸten Teil des Kapitals aufnehmen wird. Mumtaz konzentriert sich auf den gesamten Krypto-Markt, einschließlich tokenisierter Vermögenswerte und DeFi, wĂ€hrend Alexander kettenĂŒbergreifend investiert und glaubt, dass Ineffizienzen Chancen schaffen. Good baut eine Alt-L1 (Post Fiat), die auf KI-Finanzen spezialisiert ist, was impliziert, dass er Raum fĂŒr spezialisierte Netzwerke sieht.
  2. Menschliche HandlungsfĂ€higkeit vs. KI-HandlungsfĂ€higkeit. Mumtaz und Alexander betonen menschliche Investoren und Regulierungsbehörden, wĂ€hrend Good eine Zukunft vorhersieht, in der KI-Agenten die primĂ€ren Wirtschaftsakteure werden und Menschen ĂŒber Chatbots interagieren. Diese Verschiebung impliziert grundlegend unterschiedliche Benutzererfahrungen und wirft Fragen nach Autonomie, Fairness und Kontrolle auf.
  3. Optimismus vs. Vorsicht. Wertheimers These ist aggressiv bullisch fĂŒr Bitcoin mit wenig Sorge um AbwĂ€rtsrisiken. Mumtaz ist optimistisch, dass Krypto den Kapitalismus verbessern wird, rĂ€umt aber regulatorische und Governance-Herausforderungen ein. Alexander ist vorsichtig – er hebt Ineffizienzen, Nullsummen-Dynamiken und die Notwendigkeit der Kompetenzentwicklung hervor – glaubt aber dennoch an das langfristige Versprechen von Krypto. Good sieht Web 4 als unvermeidlich an, warnt aber vor der KomplexitĂ€tsbombe und drĂ€ngt zur Vorbereitung statt zu blindem Optimismus.

Fazit​

Das Token2049-Panel „Krypto-Endspiel“ brachte Denker mit sehr unterschiedlichen Perspektiven zusammen. Mert Mumtaz sieht Krypto als Upgrade des Kapitalismus, wobei er Dezentralisierung, Transparenz und 24/7-MĂ€rkte betont. Udi Wertheimer sieht Bitcoin in einer angebotsgeschockten Generationsrallye, die Altcoins hinter sich lassen wird. Jordi Alexander nimmt eine makro-pragmatischere Haltung ein und drĂ€ngt zu Investitionen in KI und Krypto, wĂ€hrend er LiquiditĂ€tszyklen und spieltheoretische Dynamiken versteht. Alexander Good stellt sich eine Web 4-Ära vor, in der KI-Agenten auf Blockchains verhandeln und Post Fiat zur Infrastruktur fĂŒr KI-gesteuerte Finanzen wird.

Obwohl ihre Visionen unterschiedlich sind, ist ein gemeinsames Thema die Evolution der wirtschaftlichen Koordination. Ob durch tokenisierte Vermögenswerte, institutionelle Rotation, KI-gesteuerte Governance oder autonome Agenten – jeder Redner glaubt, dass Krypto die Art und Weise, wie Werte geschaffen und ausgetauscht werden, grundlegend neu gestalten wird. Das Endspiel scheint daher weniger ein Endpunkt als vielmehr ein Übergang in ein neues System zu sein, in dem Kapital, Berechnung und Koordination konvergieren.

Tokenisierung: Neudefinition der KapitalmÀrkte

· 12 Minuten Lesezeit
Dora Noda
Software Engineer

Einleitung​

Tokenisierung bezieht sich auf die Darstellung des Eigentums an einem Vermögenswert auf einer Blockchain durch digitale Token. Diese Token können finanzielle Vermögenswerte (Aktien, Anleihen, Geldmarktfonds), reale Vermögenswerte (Immobilien, Kunst, Rechnungen) oder sogar Bargeld selbst (Stablecoins oder Einlagen-Token) reprĂ€sentieren. Durch die ÜberfĂŒhrung von Vermögenswerten auf programmierbare, stĂ€ndig verfĂŒgbare Blockchains verspricht die Tokenisierung, Abwicklungshemmnisse zu reduzieren, die Transparenz zu verbessern und einen globalen 24/7-Zugang zu den KapitalmĂ€rkten zu ermöglichen. WĂ€hrend der TOKEN2049 und nachfolgender Diskussionen in den Jahren 2024–2025 untersuchten fĂŒhrende Persönlichkeiten aus der Krypto- und traditionellen Finanzwelt, wie die Tokenisierung die KapitalmĂ€rkte neu gestalten könnte.

Nachfolgend finden Sie einen detaillierten Einblick in die Visionen und Prognosen der Hauptteilnehmer des Panels „Tokenisierung: Neudefinition der KapitalmĂ€rkte“ und verwandter Interviews: Diogo MĂłnica (General Partner, Haun Ventures), Cynthia Lo Bessette (Head of Digital Asset Management, Fidelity Investments), Shan Aggarwal (Chief Business Officer, Coinbase), Alex Thorn (Head of Research, Galaxy) und Arjun Sethi (Co‑CEO, Kraken). Der Bericht ordnet ihre Ansichten auch in umfassendere Entwicklungen wie tokenisierte Staatsanleihenfonds, Stablecoins, Einlagen-Token und tokenisierte Aktien ein.

1. Diogo Mónica – General Partner, Haun Ventures​

1.1 Vision: Stablecoins sind der „Startschuss“ fĂŒr die Tokenisierung​

Diogo MĂłnica argumentiert, dass gut regulierte Stablecoins die Voraussetzung fĂŒr die Tokenisierung der KapitalmĂ€rkte sind. In einem Meinungsartikel fĂŒr den American Banker schrieb er, dass Stablecoins Geld in programmierbare digitale Token verwandeln, den 24/7-Handel ermöglichen und die Tokenisierung vieler Anlageklassen ermöglichen. Sobald Geld On-Chain ist, „öffnet man die TĂŒr, um alles andere zu tokenisieren – Aktien, Anleihen, Immobilien, Rechnungen, Kunst“. MĂłnica bemerkt, dass einige technologisch fortschrittliche Stablecoins bereits nahezu sofortige, kostengĂŒnstige grenzĂŒberschreitende Überweisungen ermöglichen; aber regulatorische Klarheit ist erforderlich, um eine breite Akzeptanz zu gewĂ€hrleisten. Er betont, dass Stablecoin-Regulierungen streng sein sollten – angelehnt an das Regulierungssystem fĂŒr Geldmarktfonds –, um den Verbraucherschutz zu gewĂ€hrleisten.

1.2 Tokenisierung wird die Kapitalbildung wiederbeleben und MĂ€rkte globalisieren​

MĂłnica behauptet, dass die Tokenisierung fehlerhafte Kapitalbildungsmechanismen „reparieren“ könnte. Traditionelle IPOs sind teuer und auf bestimmte MĂ€rkte beschrĂ€nkt; die Ausgabe tokenisierter Wertpapiere könnte Unternehmen jedoch ermöglichen, Kapital On-Chain zu beschaffen, mit globalem Zugang und geringeren Kosten. Transparente, stĂ€ndig offene MĂ€rkte könnten Anlegern weltweit ermöglichen, Token, die Eigenkapital oder andere Vermögenswerte reprĂ€sentieren, unabhĂ€ngig von geografischen Grenzen zu handeln. FĂŒr MĂłnica ist das Ziel nicht, Vorschriften zu umgehen, sondern neue regulatorische Rahmenbedingungen zu schaffen, die On-Chain-KapitalmĂ€rkte ermöglichen. Er argumentiert, dass tokenisierte MĂ€rkte die LiquiditĂ€t fĂŒr traditionell illiquide Vermögenswerte (z. B. Immobilien, Anteile kleiner Unternehmen) steigern und Investitionsmöglichkeiten demokratisieren könnten. Er betont, dass Regulierungsbehörden konsistente Regeln fĂŒr die Ausgabe, den Handel und die Übertragung tokenisierter Wertpapiere schaffen mĂŒssen, damit Anleger und Emittenten Vertrauen in On-Chain-MĂ€rkte gewinnen.

1.3 Förderung von Startups und institutioneller Akzeptanz​

Als Risikokapitalgeber bei Haun Ventures ermutigt MĂłnica Startups, die an der Infrastruktur fĂŒr tokenisierte Vermögenswerte arbeiten. Er betont die Bedeutung von konformen digitalen IdentitĂ€ts- und Verwahrungslösungen, On-Chain-Governance und interoperablen Blockchains, die große Volumina unterstĂŒtzen können. MĂłnica sieht Stablecoins als ersten Schritt, glaubt aber, dass die nĂ€chste Phase tokenisierte Geldmarktfonds und On-Chain-Staatsanleihen sein wird – Bausteine fĂŒr vollwertige KapitalmĂ€rkte.

2. Cynthia Lo Bessette – Head of Digital Asset Management, Fidelity Investments​

2.1 Tokenisierung liefert Transaktionseffizienz und Zugang​

Cynthia Lo Bessette leitet das Digital Asset Management GeschĂ€ft von Fidelity und ist fĂŒr die Entwicklung von Tokenisierungsinitiativen verantwortlich. Sie argumentiert, dass die Tokenisierung die Abwicklungseffizienz verbessert und den Marktzugang erweitert. In Interviews ĂŒber den geplanten tokenisierten Geldmarktfonds von Fidelity erklĂ€rte Lo Bessette, dass die Tokenisierung von Vermögenswerten „transaktionale Effizienzen vorantreiben“ und den Zugang und die Kapitalallokation ĂŒber MĂ€rkte hinweg verbessern kann. Sie bemerkte, dass tokenisierte Vermögenswerte als nicht-bare Sicherheiten verwendet werden könnten, um die Kapitaleffizienz zu steigern, und sagte, dass Fidelity „ein Innovator sein
 [und] Technologie nutzen möchte, um besseren Zugang zu ermöglichen“.

2.2 Fidelitys tokenisierter Geldmarktfonds​

Im Jahr 2024 reichte Fidelity bei der SEC einen Antrag ein, um den Fidelity Treasury Digital Fund zu starten, einen tokenisierten Geldmarktfonds auf der Ethereum-Blockchain. Der Fonds gibt Anteile als ERC-20 Token aus, die Bruchteile von Anteilen an einem Pool von Staatsanleihen reprĂ€sentieren. Ziel ist es, 24-Stunden-Zeichnung und -RĂŒcknahme, atomare Abwicklung und programmierbare Compliance zu ermöglichen. Lo Bessette erklĂ€rte, dass die Tokenisierung von Staatsanleihen die operative Infrastruktur verbessern, den Bedarf an IntermediĂ€ren reduzieren und den Fonds einem breiteren Publikum öffnen kann, einschließlich Unternehmen, die On-Chain-Sicherheiten suchen. Durch das Angebot einer tokenisierten Version eines zentralen Geldmarktinstruments möchte Fidelity Institutionen anziehen, die On-Chain-Finanzierungen erkunden.

2.3 Regulatorisches Engagement​

Lo Bessette warnt, dass Regulierung entscheidend ist. Fidelity arbeitet mit Regulierungsbehörden zusammen, um Anlegerschutz und Compliance zu gewĂ€hrleisten. Sie glaubt, dass eine enge Zusammenarbeit mit der SEC und BranchenverbĂ€nden notwendig sein wird, um die Genehmigung fĂŒr tokenisierte Investmentfonds und andere regulierte Produkte zu erhalten. Fidelity beteiligt sich auch an Brancheninitiativen wie der Tokenized Asset Coalition, um Standards fĂŒr Verwahrung, Offenlegung und Anlegerschutz zu entwickeln.

3. Shan Aggarwal – Chief Business Officer, Coinbase​

3.1 Expansion ĂŒber den Krypto-Handel hinaus in die On-Chain-Finanzwelt​

Als erster CBO von Coinbase ist Shan Aggarwal fĂŒr Strategie und neue GeschĂ€ftsbereiche verantwortlich. Er hat eine Vision formuliert, in der Coinbase zum „AWS der Krypto-Infrastruktur“ wird, indem es Verwahrungs-, Staking-, Compliance- und Tokenisierungsdienste fĂŒr Institutionen und Entwickler bereitstellt. In einem Interview (ĂŒbersetzt aus Forbes) sagte Aggarwal, er sehe die Rolle von Coinbase darin, die On-Chain-Wirtschaft zu unterstĂŒtzen, indem es die Infrastruktur aufbaut, um reale Vermögenswerte zu tokenisieren, traditionelle Finanzen mit Web3 zu verbinden und Finanzdienstleistungen wie Kreditvergabe, Zahlungen und Überweisungen anzubieten. Er merkt an, dass Coinbase die Zukunft des Geldes definieren möchte, anstatt nur daran teilzuhaben.

3.2 Stablecoins sind die native Zahlungsschiene fĂŒr KI-Agenten und den globalen Handel​

Aggarwal glaubt, dass Stablecoins die native Abwicklungsschicht fĂŒr Menschen und KI werden. In einem Interview im Jahr 2024 sagte er, dass Stablecoins globale Zahlungen ohne ZwischenhĂ€ndler ermöglichen; da KI-Agenten im Handel immer hĂ€ufiger werden, „sind Stablecoins die nativen Zahlungsschienen fĂŒr KI-Agenten“. Er prognostiziert, dass Stablecoin-Zahlungen so tief im Handel verankert sein werden, dass Verbraucher und Maschinen sie unbemerkt nutzen werden, was den digitalen Handel fĂŒr Milliarden freischaltet.

Aggarwal behauptet, dass alle Anlageklassen schließlich On-Chain kommen werden. Er weist darauf hin, dass die Tokenisierung von Vermögenswerten wie Aktien, Staatsanleihen oder Immobilien deren sofortige Abwicklung und globalen Handel ermöglicht. Er rĂ€umt ein, dass regulatorische Klarheit und eine robuste Infrastruktur Voraussetzungen sind, sieht aber eine unvermeidliche Verlagerung von traditionellen Clearing-Systemen zu Blockchains.

3.3 Aufbau institutioneller Akzeptanz und Compliance​

Aggarwal betont, dass Institutionen sichere Verwahrung, Compliance-Dienste und eine zuverlĂ€ssige Infrastruktur benötigen, um die Tokenisierung zu ĂŒbernehmen. Coinbase hat in die Coinbase International Exchange, Base (sein L2-Netzwerk) und Partnerschaften mit Stablecoin-Emittenten (z. B. USDC) investiert. Er schlĂ€gt vor, dass Coinbase, wenn mehr Vermögenswerte tokenisiert werden, eine „One-Stop-Shop“-Infrastruktur fĂŒr Handel, Finanzierung und On-Chain-Operationen bereitstellen wird. Wichtig ist, dass Aggarwal eng mit politischen EntscheidungstrĂ€gern zusammenarbeitet, um sicherzustellen, dass die Regulierung Innovationen ermöglicht, ohne das Wachstum zu behindern.

4. Alex Thorn – Head of Research, Galaxy​

4.1 Tokenisierte Aktien: Ein erster Schritt in einer neuen Kapitalmarkt-Infrastruktur​

Alex Thorn leitet die Forschung bei Galaxy und war maßgeblich an der Entscheidung des Unternehmens beteiligt, eigene Aktien zu tokenisieren. Im September 2024 kĂŒndigte Galaxy an, AktionĂ€ren zu ermöglichen, ihre Galaxy Class A-Aktien ĂŒber eine Tokenisierungs-Partnerschaft mit Superstate auf die Solana-Blockchain zu ĂŒbertragen. Thorn erklĂ€rte, dass tokenisierte Aktien die gleichen rechtlichen und wirtschaftlichen Rechte wie traditionelle Aktien verleihen, aber Peer-to-Peer ĂŒbertragen und in Minuten statt in Tagen abgewickelt werden können. Er sagte, dass tokenisierte Aktien „eine neue Methode sind, um schnellere, effizientere und inklusivere KapitalmĂ€rkte aufzubauen“.

4.2 Arbeit innerhalb bestehender Regulierung und mit der SEC​

Thorn betont die Bedeutung von Compliance. Galaxy hat sein tokenisiertes Aktienprogramm so aufgebaut, dass es den US-Wertpapiergesetzen entspricht: Die tokenisierten Aktien werden ĂŒber eine Übertragungsstelle ausgegeben, die Token können nur zwischen KYC-geprĂŒften Wallets ĂŒbertragen werden, und RĂŒcknahmen erfolgen ĂŒber einen regulierten Broker. Thorn sagte, Galaxy wolle „innerhalb der bestehenden Regeln arbeiten“ und werde mit der SEC zusammenarbeiten, um Rahmenbedingungen fĂŒr On-Chain-Aktien zu entwickeln. Er betrachtet diesen Prozess als entscheidend, um Regulierungsbehörden davon zu ĂŒberzeugen, dass die Tokenisierung Anleger schĂŒtzen und gleichzeitig Effizienzgewinne erzielen kann.

4.3 Kritische Perspektive auf Einlagen-Token und nicht genehmigte Angebote​

Thorn hat Vorsicht bezĂŒglich anderer Formen der Tokenisierung geĂ€ußert. Bei der Diskussion ĂŒber von Banken ausgegebene Einlagen-Token verglich er die aktuelle Landschaft mit der „Wildcat-Banking“-Ära der 1830er Jahre und warnte, dass Einlagen-Token möglicherweise nicht weit verbreitet sein werden, wenn jede Bank ihren eigenen Token ausgibt. Er argumentierte, dass Regulierungsbehörden Einlagen-Token möglicherweise als regulierte Stablecoins behandeln und einen einzigen, starren Bundesstandard fordern könnten, um sie fungibel zu machen.

Ähnlich kritisierte er Pre-IPO Token-Angebote, die ohne Zustimmung des Emittenten gestartet wurden. In einem Interview ĂŒber Jupiters Pre-IPO Token der Robinhood-Aktie bemerkte Thorn, dass viele Pre-IPO Token nicht autorisiert sind und „kein sauberes Aktienbesitzrecht bieten“. FĂŒr Thorn muss die Tokenisierung mit Zustimmung des Emittenten und unter Einhaltung der Vorschriften erfolgen; nicht autorisierte Tokenisierung untergrĂ€bt den Anlegerschutz und könnte die öffentliche Wahrnehmung schĂ€digen.

5. Arjun Sethi – Co‑CEO, Kraken​

5.1 Tokenisierte Aktien werden Stablecoins ĂŒbertreffen und Eigentum demokratisieren​

Arjun Sethi, Co-CEO von Kraken, ist ein leidenschaftlicher BefĂŒrworter tokenisierter Aktien. Er prognostiziert, dass tokenisierte Aktien Stablecoins in Bezug auf die MarktgrĂ¶ĂŸe schließlich ĂŒbertreffen werden, da sie echte wirtschaftliche Rechte und globale ZugĂ€nglichkeit bieten. Sethi stellt sich eine Welt vor, in der jeder mit einer Internetverbindung rund um die Uhr einen Bruchteil einer beliebigen Aktie kaufen kann, ohne geografische EinschrĂ€nkungen. Er argumentiert, dass tokenisierte Aktien die Macht an Einzelpersonen zurĂŒckgeben, indem sie Barrieren beseitigen, die durch Geografie oder institutionelle Gatekeeper auferlegt werden; zum ersten Mal können Menschen auf der ganzen Welt einen Aktienanteil wie Geld besitzen und nutzen.

5.2 Krakens xStocks und Partnerschaften​

Im Jahr 2024 startete Kraken xStocks, eine Plattform fĂŒr den Handel mit tokenisierten US-Aktien auf Solana. Sethi erklĂ€rte, dass das Ziel darin besteht, die Menschen dort abzuholen, wo sie sind – indem der Handel mit tokenisierten Aktien in weit verbreitete Apps integriert wird. Als Kraken xStocks in die Telegram Wallet integrierte, sagte Sethi, die Integration ziele darauf ab, „Hunderten Millionen von Nutzern Zugang zu tokenisierten Aktien in vertrauten Apps zu ermöglichen“. Er betonte, dass es hier nicht nur um Neuheit geht; es stellt einen Paradigmenwechsel hin zu grenzenlosen MĂ€rkten dar, die 24/7 betrieben werden.

Kraken erwarb auch die Futures-Plattform NinjaTrader und startete ein Ethereum Layer-2-Netzwerk (Ink), was seine Absicht signalisiert, ĂŒber Krypto hinaus zu einer Full-Stack-Finanzdienstleistungsplattform zu expandieren. Partnerschaften mit Apollo Global und Securitize ermöglichen es Kraken, an der Tokenisierung privater Vermögenswerte und Unternehmensanteile zu arbeiten.

5.3 Regulatorisches Engagement und Börsennotierung​

Sethi glaubt, dass eine grenzenlose, stĂ€ndig verfĂŒgbare Handelsplattform regulatorische Zusammenarbeit erfordern wird. In einem Reuters-Interview sagte er, dass die Expansion in Aktien ein natĂŒrlicher Schritt sei und den Weg fĂŒr die Vermögens-Tokenisierung ebne; die Zukunft des Handels wird grenzenlos, immer verfĂŒgbar und auf Krypto-Schienen aufgebaut sein. Kraken arbeitet weltweit mit Regulierungsbehörden zusammen, um sicherzustellen, dass seine tokenisierten Produkte den Wertpapiergesetzen entsprechen. Sethi hat auch gesagt, dass Kraken in Zukunft einen Börsengang in Betracht ziehen könnte, wenn dies ihre Mission unterstĂŒtzt.

6. Vergleichende Analyse und aufkommende Themen​

6.1 Tokenisierung als nĂ€chste Phase der Marktinfrastruktur​

Alle Diskussionsteilnehmer sind sich einig, dass die Tokenisierung eine grundlegende Infrastrukturverschiebung darstellt. MĂłnica beschreibt Stablecoins als den Katalysator, der die Tokenisierung jeder anderen Anlageklasse ermöglicht. Lo Bessette sieht die Tokenisierung als einen Weg, die Abwicklungseffizienz zu verbessern und den Zugang zu öffnen. Aggarwal prognostiziert, dass alle Vermögenswerte schließlich On-Chain kommen werden und dass Coinbase die Infrastruktur bereitstellen wird. Thorn betont, dass tokenisierte Aktien schnellere, inklusivere KapitalmĂ€rkte schaffen, wĂ€hrend Sethi voraussieht, dass tokenisierte Aktien Stablecoins ĂŒbertreffen und das Eigentum demokratisieren werden.

6.2 Notwendigkeit regulatorischer Klarheit​

Ein wiederkehrendes Thema ist die Notwendigkeit einer klaren, konsistenten Regulierung. MĂłnica und Thorn bestehen darauf, dass tokenisierte Vermögenswerte den Wertpapiergesetzen entsprechen mĂŒssen und dass Stablecoins und Einlagen-Token eine strenge Regulierung erfordern. Lo Bessette merkt an, dass Fidelity eng mit Regulierungsbehörden zusammenarbeitet und sein tokenisierter Geldmarktfonds so konzipiert ist, dass er in bestehende regulatorische Rahmenbedingungen passt. Aggarwal und Sethi betonen die Zusammenarbeit mit politischen EntscheidungstrĂ€gern, um sicherzustellen, dass ihre On-Chain-Produkte die Compliance-Anforderungen erfĂŒllen. Ohne regulatorische Klarheit birgt die Tokenisierung das Risiko, die Fragmentierung und OpazitĂ€t zu reproduzieren, die die Blockchain zu lösen versucht.

6.3 Integration von Stablecoins und tokenisierten Vermögenswerten​

Stablecoins und tokenisierte Staatsanleihen werden als grundlegend angesehen. Aggarwal betrachtet Stablecoins als die native Schiene fĂŒr KI und globalen Handel. MĂłnica sieht gut regulierte Stablecoins als den „Startschuss“ fĂŒr die Tokenisierung anderer Vermögenswerte. Lo Bessettes tokenisierter Geldmarktfonds und Thorns Vorsicht bezĂŒglich Einlagen-Token beleuchten unterschiedliche AnsĂ€tze zur Tokenisierung von BargeldĂ€quivalenten. Wenn Stablecoins weit verbreitet sind, werden sie wahrscheinlich zur Abwicklung von Trades mit tokenisierten Wertpapieren und RWAs verwendet werden.

6.4 Demokratisierung und globale ZugĂ€nglichkeit​

Die Tokenisierung verspricht, den Zugang zu den KapitalmĂ€rkten zu demokratisieren. Sethis Begeisterung, „Hunderten Millionen von Nutzern“ ĂŒber vertraute Apps Zugang zu tokenisierten Aktien zu ermöglichen, fĂ€ngt diese Vision ein. Aggarwal sieht in der Tokenisierung die Möglichkeit fĂŒr Milliarden von Menschen und KI-Agenten, am digitalen Handel teilzunehmen. MĂłnicas Ansicht von 24/7 global zugĂ€nglichen MĂ€rkten stimmt mit diesen Prognosen ĂŒberein. Alle betonen, dass die Tokenisierung Barrieren beseitigen und Inklusion in Finanzdienstleistungen bringen wird.

6.5 Vorsichtiger Optimismus und Herausforderungen​

Obwohl optimistisch, erkennen die Diskussionsteilnehmer auch Herausforderungen an. Thorn warnt vor nicht autorisierter Pre-IPO-Tokenisierung und betont, dass Einlagen-Token das „Wildcat-Banking“ replizieren könnten, wenn jede Bank ihren eigenen Token ausgibt. Lo Bessette und MĂłnica fordern ein sorgfĂ€ltiges regulatorisches Design. Aggarwal und Sethi heben Infrastrukturanforderungen wie Compliance, Verwahrung und Benutzererfahrung hervor. Das Gleichgewicht zwischen Innovation und Anlegerschutz wird entscheidend sein, um das volle Potenzial tokenisierter KapitalmĂ€rkte auszuschöpfen.

Fazit​

Die auf der TOKEN2049 und in nachfolgenden Interviews geĂ€ußerten Visionen verdeutlichen die gemeinsame Überzeugung, dass die Tokenisierung die KapitalmĂ€rkte neu definieren wird. FĂŒhrende Persönlichkeiten von Haun Ventures, Fidelity, Coinbase, Galaxy und Kraken sehen die Tokenisierung als eine unvermeidliche Evolution der Finanzinfrastruktur, angetrieben durch Stablecoins, tokenisierte Staatsanleihen und tokenisierte Aktien. Sie erwarten, dass On-Chain-MĂ€rkte rund um die Uhr betrieben werden, globale Teilnahme ermöglichen, Abwicklungshemmnisse reduzieren und den Zugang demokratisieren werden. Diese Vorteile hĂ€ngen jedoch von einer robusten Regulierung, Compliance und Infrastruktur ab. Wenn Regulierungsbehörden und Branchenteilnehmer zusammenarbeiten, könnte die Tokenisierung neue Formen der Kapitalbildung erschließen, das Eigentum demokratisieren und ein inklusiveres Finanzsystem einleiten.